Jump to content
Unity Insider Forum

flexible Texturen auf 3D-Objekt oder so ähnlich...?


sojos

Recommended Posts

Hallo,

 

ich habe folgendes Problem:

Wie bekomme ich flexible Elemente auf eine 3D-Oberfläche? Als Beispiel möchte ich einen Monitor (als GameObjekt) in einen Raum stellen. Durch verstellen verschiedener Knöpfe und Drehregler sollen verschiedene Werte auf dem Monitor erscheinen.

Im 3DGamestudio ist es möglich, Strings und Textelemente auf einem Panel darzustellen, welches dann auf das GameObject projeziert wird.

Als Beispiel möchte ich auch ein komplett nachgebautes Flugzeugcockpit anbringen. Hier sind alle möglichen Anzeigen, Höhenmesser, Fuel, Multifunktionsdisplays usw...

Diese Anzeigen sollen sehr flexibel gehalten werden, aber nicht als GUI, sondern auf dem GameObject.

 

Danke für Tipps und Hinweise...

Andre

Link zu diesem Kommentar
Auf anderen Seiten teilen

Die Anzeigen im Flugzeug würde ich ja in 3D modellieren wollen, also einfach ein Zeiger-Mesh, das du drehst.

Wenn's aber wirklich Text oder andere 2D-Elemente auf einem Mesh sein sollen, und es dreht sich nicht nur sondern verändert das Muster gänzlich, dann würde ich mal einen Blick auf die GUI-Pakete im Asset Store werfen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

brauche ich dafür unbedingt ngui, wobei mir von den Bilder her ezgui besser gefällt. Ich muss halt eine 3d-Konsole mit Text und Bildern bauen. z:B ein Telefon-Display oder ein LCD von einem Radio, wo mit Drehknopf der Sender eingestellt werden kann usw...

 

so was z. B. http://images3.wikia.nocookie.net/__cb20120218113538/memoryalpha/de/images/a/a2/Computer_Terminal.jpg

aber voll bedienbar und flexibel in der Darstellung des Displayinhaltes.

 

Geht sowas mit nGUI?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Das geht mit beiden genannten GUI Systemen.

Denn diese GUI's arbeiten quasi mit echten GameObjekten, die einen Collider haben und über Raycast (alles intern gelöst) den Button oder was auch immer registrieren.

Normalerweise hat man bei den Systemen eine Extra Kamera, die nur GUI Elemente zeigt und diese dann mit der SzenenKamera verknüpft.

Damit das geht, müssen die GUI Elemente einen Layer bekommen, damit nur die Extrakamera diese Elemente sieht.

Da man bei den GUIs einstellt, über welche Kamera denn der Raycast zur Erfassung geschickt wird, kann man ohne weiteres auch Szenenelemente zu GUI Elementen machen. Dein Bildschirm könnte also ein GUI Element sein. Ganz einfache Kiste eigentlich.

Dieses Geschehen kann man aber auch ohne nGUI und Co einfach selber machen. GameObjekte können ja auf die Maus reagieren, können unterschiedliche Texturen haben und auch Animationen abspielen. Evtl. brauchst du die Pro Version, wenn du RenderToTexture nutzen willst.

Trotzdem: Es geht alles auch selber zu bauen. Natürlich ist das recht aufwendig und deswegen lohnt sich der Kauf eines GUI Systems. Da stecken einige 100 Stunden Arbeit drin!

Link zu diesem Kommentar
Auf anderen Seiten teilen

OK, habs mit der nGUI Free Edition hinbekommen, dass erstmal ein Button im Raum schwebt. Hab das Prinzip soweit auch verstanden, dass ich mein GUI erstellen kann. Nur weiß ich nicht, wie ich das GUI auf meine FirstPersonCamera reagieren lassen kann. nGUI bringtt ja eine eigene Kamera mit.

Kann mir da jmd helfen?

 

hinbekommen. Gibt ein Script dafür...

Link zu diesem Kommentar
Auf anderen Seiten teilen

Archiviert

Dieses Thema ist jetzt archiviert und für weitere Antworten gesperrt.

×
×
  • Neu erstellen...