Registerkarten

SimtippViewerServerKunstLL-BlogVideosVehikelAnleitungARC

Donnerstag, 28. November 2013

High Fidelity: Avatar Interaktionen

Quelle: High Fidelity
Seit dem 16. Mai 2013 gab es im hauseigenen Blog von Philip Rosedales High Fidelity-Projekt keine neuen Meldungen mehr. Gestern wurde dann die lange Informationspause mit einem neuen Posting beendet. Und da dieses Projekt, an dem sich auch Linden Lab finanziell beteiligt, eventuell mal der Nachfolger von Second Life werden soll, werde ich auch weiterhin die eine oder andere Meldung dazu hier im Blog weitergeben.

Es gab zwar auch schon am 12. November 2013 einen längeren Artikel über High Fidelity und Philip Rosedale im Singularity HUB. Aber dort wurde eigentlich nur über das berichtet, was Anfang des Jahres schon als Nachrichten durch die SL-Blogs ging. Also im Wesentlichen: "Oh, da wird eine neue virtuelle Welt entwickelt..."

Im aktuellen Blogpost von High Fidelity zeigt Entwickler Grayson Stebbins anhand eines Videos, wie die Avatare von Ryan Karpf und Emily Donald über verschiedene Hilfsmittel virtuell miteinander interagieren. Hauptziel der HF-Entwickler ist es, später einmal virtuelle Berührungen simulieren zu können. Zur Zeit nutzt man für HF noch Soft- und Hardware, die bereits heute zur Verfügung steht. Damit lässt sich eine Berührung zwar optisch umsetzen, aber es gibt keinerlei physische Rückmeldung. Da Grayson schreibt, dies wäre ein erster Schritt in die richtige Richtung, nehme ich an, dass man mit High Fidelity später auch physisch fühlbare Rückmeldungen ermöglichen will. Zum Beispiel könnte man das über haptische Kleidung hinbekommen.

Hier erstmal das Video:

Hifi: Ryan the stylist, Emily the client




Um diese wirklich noch sehr einfach aussehenden Aktionen mit dem Avatar durchzuführen, haben die beiden Akteure die folgenden Hilfsmittel verwendet:
  • Ein MacBook Pro mit PrimeSense-Tiefenkamera, ähnlich der Kinect von Microsoft, nur kleiner und für kürzere Abstände geeignet.
  • Das Faceshift SDK zur Erkennung der Kopfhaltung und Gesichtsmimik (z.B. Mundbewegung).
  • Dann natürlich die High Fidelity Software, die alle extern ermittelten Daten zum Avatar überträgt und ihn entsprechend animiert.
  • Die Hand von Ryan, der die Haare von Emily berührt, wird über den Leap Motion Sensor gesteuert. Das ist etwas, was wir im nächsten Jahr wohl auch schon für SL bekommen werden. Die Verzögerung zwischen der realen Bewegung des Nutzers und der des Avatars beträgt etwa 100 Millisekunden.
  • Und schließlich wird die Sprache (oder eben Audio allgemein) über einen Sennheiser Surround Kopfhörer PC 363D übertragen.

Ich vermute mal stark, dass die Entwickler von High Fidelity nicht darauf hinarbeiten, dass sich später die Nutzer lauter Einzelgeräte kaufen müssen, um sinnvoll in ihrer virtuellen Welt agieren zu können. Ich denke eher, sie schauen sich alle Einzelfunktionen an und versuchen ein Interface zu entwickeln, dass zumindest Gesichtsgesten, Körperbewegung und Audio in einem Gerät vereint. Der Arm von Emilys Avatar wird übrigens durch Vor- und Zurückschieben der Maus bewegt, anders als bei Ryan, bei dem das die Leap Motion übernimmt.

Inzwischen kann man sich auf der High Fidelity Seite auch schon für eine Alpha registrieren lassen. Für mich ein Signal, dass die Entwickler gar nicht mehr so weit von einer lauffähigen Version ihrer virtuellen Welt entfernt sind.

Quelle: Avatar Interaction: Ryan the stylist, Emily the client

Links:

3 Kommentare:

  1. lol die Avatare :D
    riesen Fortschritt

    AntwortenLöschen
    Antworten
    1. Die Avatare sind hier nur Mittel zum Zweck. Ich glaube nicht, dass HF mit diesen IMVU Figuren starten wird. HF soll ja laut Philip Rosedale auf Voxel-Technik basieren. Ich weiß nicht, ob das auch für die Avatare zur Anwendung kommt, aber wenn das so ist, dann ist optisch alles machbar, bis hin zum fotorealistischen RL-Aussehen.

      Löschen
  2. Voxel Technik + Avatar Design findest du z.B. in 3D-Coat als Voxel sculpting. Die heutige Technik um Spielfiguren zu Animieren(Joints beeinflussen dabei die Mesh Hülle über eine Wichtungs Map). Um Voxel Avatare in Echtzeit zu beeinflussen, tja nur mehr Rechen Leistung - Voxel ist jetzt bei Games für Landschaften/Gebäude(inc. destruction) und für den 3D Drucker ist Voxel Modelling sehr geigend da auch für "statische" Figuren(Avatare). Bei Voxel für Avatare mit Animation könnte auch die Normal Map weg fallen, vielleicht im Jahr 2021 mit 0.08nm GPU's. Voxel ist sooo alt wurde durch neue GPU's ja wieder Jung. Ansonsten "richtung" foto realistic gehen die Avatare bei Poser/DAZ3D ab 3-4 Millionen Polygonen schon - Auch Polygon Anzahl wird ab 2015 nicht mehr das Problem von "Normalen" GraCards sein. Sondern die Mehrfach Filter Layer, die dem Poly Haufen erst das fotorealistische RL-Aussehen geben(im Realtime Render) hier würde Voxel wohl seine Vorteile - auch bei Avataren- ausspielen können. Maybe we will see...

    AntwortenLöschen