Touchscreen auf jeder Oberfläche
Ein von amerikanischen Forschern entwickeltes System, das auf einer Kinect-Kamera basiert, aus jeder glatten Oberfläche einen Touchscreen.
Ein neues System, das an der Purdue University in den USA entwickelt wird, erlaubt es, aus jeder glatten Oberfläche einen Touchscreen zu machen. Die Wissenschaftler verwenden dazu eine Kinect-Kamera, die räumliche Bewegungen aufzeichnet. Diese Informationen werden mit einem neuen 3D-Modell der menschlichen Hand kombiniert, wodurch die Handhaltung mit großer Präzision ermittelt werden kann. Der Bildschirm wird mittels eines Projektors direkt auf die Oberfläche gezeichnet. Tische und Wände dienen dabei als Interface. Das System erlaubt den Einsatz beider Hände und aller Finger gleichzeitig. Auch die parallele Nutzung durch mehrere Personen stellt kein Problem dar.
Das System soll in der Lage sein, User anhand ihrer Gesten zu identifizieren und Rechts- von Linkshändern zu unterscheiden. So kann das Interface auf persönliche Vorlieben Rücksicht nehmen. Die Erfahrungen der Forscher mit ersten Prototypen werden diese Woche auf einem Symposium in Cambridge präsentiert.
Ein solches Interface ist nicht überall nützlich. Um Excel im Büro zu bedienen, eignet es sich beispielsweise nicht. Ein Massensystem wird es also eher nicht werden. Für kollaboratives Arbeiten oder die Steuerung von Geräten wie Fernsehern eignet es sich aber hervorragend. Im Heim-PC-Bereich und im Büro werden wir nach Einschätzung von Matthias Schroeder von UCDplus noch eine Zeit lang mit Maus und Tastatur auskommen müssen. Dort sei Spracheingabe die einzige Alternative.
Hohe Präzision
Nach Angaben der Forscher beträgt die Erfolgsquote des Systems bei der Erkennung der Handhaltung eines Nutzers bereits 98 Prozent. Durch die Kinect-Kamera kann das Interface verschiedene Teile der Hand und deren Entfernung zur Oberfläche bestimmen. Das ermöglicht völlig neue Arten der Gestensteuerung. Denkbar wäre beispielsweise, dass durch Positionierung der flachen Hand über der Oberfläche ein Menü aufgerufen wird. Auch eine Teilung der Aufgaben für die rechte und linke Hand wäre machbar. Das System lässt sich auch mit einem Stift bedienen, was die Möglichkeiten zusätzlich erweitert.
Das große Potenzial dieses System liege einerseits in der Anwendung bei mobilen Geräten, deren Möglichkeiten durch große virtuelle Touchscreens enorm erweitert werden könnten, und andererseits in der Flexibilität des Systems, erklärt Schroeder. Die einfache Technologie ermögliche die Interaktion nämlich nicht nur mit den Händen, sondern auch mit Objekten. Die Kamera könnte beispielsweise ein Flugticket erkennen und dem User Informationen dazu anzeigen oder sogar das direkte Einchecken ermöglichen.
Quelle: pressetext.com, Markus Keßler