Sonntag, August 30, 2015

Immersives User Interface mittels 3D-Grafik, Head-Tracking und Touch-Input

Die die Entwicklung neuer Bildmedien wird zu Recht viel investiert. Nach Touchscreens werden nach neuen Benutzerschnittstellen gesucht, die die Interaktion mit dem Rechner noch intuitiver erscheinen lassen. Ein User-Interface, das ein quasi-holographisches Bild erzeugt, ist hierbei besonders interessant. Eine neue Publikation zeigt, wie dies mit Head-Tracking und Touch-Input funktionieren kann.


Dieses Buch beschreibt die Ziele und die Entwicklung einer grafischen Benutzerschnittstelle, die einen 3D-Raum erzeugt, der durch räumliche Bewegung des Betrachters exploriert und mit Berührungsinput manipuliert werden kann. Dabei kommt Head-Tracking mithilfe von Microsoft Kinect und Touch-Input mithilfe von Microsoft PixelSense zum Einsatz. Computergrafik ist zwar meist zentralperspektivisch aufgebaut, jedoch nicht wirklich dreidimensional. Durch die im Rahmen dieser Arbeit entwickelten Benutzerschnittstelle lässt sich ein besserer räumlicher Eindruck erzeugen, der insbesondere zu Präsentationszwecken von Objekten eingesetzt werden kann – jedoch ohne Brillen, die als störend empfunden werden, und ohne Displayfolien, die die Auflösung heruntersetzen. Zum Einsatz kommt hier ein in einen Tisch integrierter Großbild-Touch-Screen, der optisch auf Infrarotbasis funktioniert. Das HD-Display erlaubt auf 40 Zoll großformatige Dar­stellungen und die Anzeige von 3D-Objekten, die sich mithilfe des .Net-Frame­works und dem Surface 2.0 SDK markieren, bewegen und rotieren lassen. Der Kinect-Sensor interpretiert Differenzen von strukturiertem IR-Licht als Tiefeninformationen und kann auf diese Weise den Benutzer und seine Bewegung erkennen. Dessen Kopfposition kann in drei Achsen verfolgt und daraus dynamisch eine perspektivische 3D-Grafik mit gekippter Projektionsebene generiert werden, die – unterstützt durch die dadurch erzeugte Bewegungsparallaxe – von jeder Position im Raum einen überzeugenden räumlichen Eindruck erzeugt. So lassen sich die dargestellten Objekte leicht aus verschiedenen Blickwinkeln betrachten und mithilfe von Touch-Eingabe berühren und manipulieren. Diese Verbindung von Bild- und Realraum verstärkt den Eindruck von Immersion, also das „Eintauchen“ in den virtuellen Bildraum, durch Haptik. Die Prinzipien dieser Grundlagenforschung können im Rahmen von Human-Machine Interfaces (HMI) in der Präsentation, im Design, in der Logistikplanung, bei Fahrerassistenzsystemen oder Konsumentenelektronik zum Einsatz kommen. Der Vorteil liegt in der Erzeugung eines räumlichen Eindrucks und die Manipulierbarkeit von Objekten ohne die Notwendigkeit von weiterer Peripherie.

Keine Kommentare: