Smartphone versteht Handzeichen

ETH-Professor Otmar Hilliges und seine Mitarbeiter haben eine App entwickelt, mit welcher Nutzer ihr Smartphone auch mit Gesten bedienen k?nnen. Dies erweitert den Umfang m?glicher Interaktionen mit den Ger?ten betr?chtlich.

Vergr?sserte Ansicht: Gestensteuerung
Ein neuartiges Programm erkennt Handzeichen, die das Eingabespektrum eines Smartphones erweitern. (Screenshot: ETH Zürich)

Etwas eigenartig sieht es anf?nglich schon aus: Mit der einen Hand h?lt man das Smartphone, die andere Hand hingegen bewegt sich in der Luft vor der eingebauten Kamera. Man macht Gesten, die denjenigen aus der Geb?rdensprache von Geh?rlosen ?hneln: Der Zeigefinger zeigt mal nach links, mal nach rechts, die Finger spreizen sich, formieren sich zu einer Zange oder imitieren eine Pistole und drücken ab. Diese Gesten dienen allerdings nicht der Verst?ndigung unter Geh?rlosen, sondern der Steuerung des Smartphones.

So kann ein Nutzer mit der Schiessbewegung der Hand beispielsweise in einen anderen Browser-Tab wechseln, den Kartenmodus von Satellitenbild auf Topographische Darstellung ?ndern oder in einem Game auf gegnerische Flugzeuge schiessen. Durch das Aufspreizen der Finger vergr?ssert sich ein Kartenausschnitt oder scrollt eine Buchseite hinauf.

Hinter dieser Gestensteuerung steckt ein neuartiger Algorithmus, den der Masterstudent Jie Song aus der Arbeitsgruppe von Otmar Hilliges, Professor für Computerwissenschaften, entwickelte. Die App stellten die Forscher soeben an der UIST-Konferenz in Honolulu, Hawaii, dem Fachpublikum vor.

Mit dem Abspielen des Videos akzeptieren Sie die Datenschutzerkl?rung von YouTube.Mehr erfahren OK
So funktioniert die App, mit der Nutzer ihr Smartphone auch mit Gesten bedienen k?nnen. (Video: ETH Zürich)

Clevere Programmierung schont Arbeitsspeicher

Um die Umgebung wahrzunehmen, verwendet das Programm die eingebaute Kamera des Ger?ts. Tiefen- oder Farbinformationen wertet es nicht aus. Die gewonnene Information – Form der Geste, Teile der Hand – werden auf einen einfachen Umriss reduziert, diese schliesslich anhand der einprogrammierten Gesten klassifiziert. Je nach wahrgenommener Geste führt das Programm schliesslich den daran gekoppelten Befehl aus. Das Programm erkennt auch die Distanz, in der sich die Hand vor der Kamera bewegt. Ist sie zu nah oder zu weit davon entfernt, erh?lt der Benutzer einen Warnhinweis.

?Viele dieser Bewegungserkennungs-Programme sind rechenintensiv und brauchen viel Arbeitsspeicher?, betont Hilliges. Dieser Algorithmus brauche hingegen nur einen geringen Anteil des Arbeitsspeichers und sei deshalb für Smartphones gut geeignet. Diese Anwendung sei die erste ihrer Art, die auf einem Smartphone laufe. Aufgrund des geringen Rechenbedarfs k?nnte sie auch für Smart Watches oder in Augmented Reality-Brillen genutzt werden.

Erg?nzende Steuerung

Zurzeit kann das Programm sechs verschiedene Gesten erkennen und entsprechende Befehle ausführen. Ausprobiert haben die Forscher 16 Umrisse, was allerdings nicht dem theoretischen Limit entspricht. Wichtig ist, dass Gesten eindeutige Umrisse erzeugen. Sind verschiedene Handzeichen einander zu ?hnlich, taugen sie nicht für diese Applikation. ?Um den Funktionsumfang zu erweitern, werden wir weitere Klassifizierungsschemen im Programm hinterlegen?, sagt der ETH-Forscher.

Für ihn ist klar, dass die neuartige Eingabem?glichkeit den Anwendungsumfang von Smartphones erheblich erweitert. Ziel der Forscher ist es, die Gesten so einfach wie m?glich zu halten, um das Ger?t mühelos bedienen zu k?nnen.

Ob sich die Benutzerinnen und Benutzer von Smartphones an die Gesten-Bedienung ihres Ger?ts gew?hnen werden? Otmar Hilliges ist zuversichtlich. Die Gestensteuerung werde die Steuerung über den berührungsempfindlichen Bildschirm nicht abl?sen, sondern erg?nzen. ?Die Leute haben sich auch an die Bedienung von Computerspielen durch ihre eigenen Bewegungen gew?hnt.? Touch Screens h?tten ebenfalls eine sehr lange Vorlaufzeit gehabt, ehe sie schlagartig den Weg zu den Konsumenten gefunden h?tten. Hilliges ist deshalb überzeugt, dass diese Applikation oder zumindest Teile davon den Weg in die M?rkte finden.

Literaturhinweis

Song J, S?r?s G, Pece F, Fanello S, Izadi S, Keskin C, Hilliges O: In-air Gestures Around Unmodified Mobile Devices, ACM User Interface Software and Technology Symposium, Honolulu, Hawaii, 7. Okober 2014.

JavaScript wurde auf Ihrem Browser deaktiviert