Die die Entwicklung neuer Bildmedien wird zu Recht viel investiert. Nach
Touchscreens werden nach neuen Benutzerschnittstellen gesucht, die die
Interaktion mit dem Rechner noch intuitiver erscheinen lassen. Ein User-Interface,
das ein quasi-holographisches Bild erzeugt, ist hierbei besonders
interessant. Eine neue Publikation zeigt, wie dies mit Head-Tracking und
Touch-Input funktionieren kann.
Dieses Buch
beschreibt die Ziele und die Entwicklung einer grafischen
Benutzerschnittstelle, die einen 3D-Raum erzeugt, der durch räumliche Bewegung
des Betrachters exploriert und mit Berührungsinput manipuliert werden kann.
Dabei kommt Head-Tracking mithilfe von Microsoft Kinect und Touch-Input
mithilfe von Microsoft PixelSense zum Einsatz.
Computergrafik
ist zwar meist zentralperspektivisch aufgebaut, jedoch nicht wirklich
dreidimensional. Durch die im Rahmen dieser Arbeit entwickelten
Benutzerschnittstelle lässt sich ein besserer räumlicher Eindruck erzeugen, der
insbesondere zu Präsentationszwecken von Objekten eingesetzt werden kann –
jedoch ohne Brillen, die als störend empfunden werden, und ohne Displayfolien,
die die Auflösung heruntersetzen.
Zum Einsatz
kommt hier ein in einen Tisch integrierter Großbild-Touch-Screen, der optisch
auf Infrarotbasis funktioniert. Das HD-Display erlaubt auf 40 Zoll
großformatige Darstellungen und die Anzeige von 3D-Objekten, die sich mithilfe
des .Net-Frameworks und dem Surface 2.0 SDK markieren, bewegen und rotieren
lassen.
Der
Kinect-Sensor interpretiert Differenzen von strukturiertem IR-Licht als
Tiefeninformationen und kann auf diese Weise den Benutzer und seine Bewegung
erkennen. Dessen Kopfposition kann in drei Achsen verfolgt und daraus dynamisch
eine perspektivische 3D-Grafik mit gekippter Projektionsebene generiert werden,
die – unterstützt durch die dadurch erzeugte Bewegungsparallaxe – von jeder
Position im Raum einen überzeugenden räumlichen Eindruck erzeugt. So lassen
sich die dargestellten Objekte leicht aus verschiedenen Blickwinkeln betrachten
und mithilfe von Touch-Eingabe berühren und manipulieren. Diese Verbindung von
Bild- und Realraum verstärkt den Eindruck von Immersion, also das „Eintauchen“
in den virtuellen Bildraum, durch Haptik.
Die
Prinzipien dieser Grundlagenforschung können im Rahmen von Human-Machine Interfaces
(HMI) in der Präsentation, im Design, in der Logistikplanung, bei
Fahrerassistenzsystemen oder Konsumentenelektronik zum Einsatz kommen. Der
Vorteil liegt in der Erzeugung eines räumlichen Eindrucks und die
Manipulierbarkeit von Objekten ohne die Notwendigkeit von weiterer
Peripherie.