Texteingabe mit Blick und Summen
In der Forschungsarbeit "Hummer: Text Entry by Gaze and Hum" haben wir in einer neuartigen, berührungslosen Texteingabe die Blicksteuerung mit Summgeräuschen kombiniert. Unsere Ergebnisse wurden auf der wichtigsten internationalen Konferenz zur Mensch-Computer Interaktion, der CHI, für eine ausführliche Veröffentlichung und Präsentation angenommen.
In vielen Situationen kann eine berührungslose Texteingabe notwendig sein - sei es beim Kochen, bei einer kurz- oder langfristigen Verletzung oder auch durch eine Krankheit. Sprachsteuerung könnte eine Lösung für die Eingabe von Texten sein, jedoch wird potenziell die Privatsphäre gefährdet. In manchen Fällen kann die Spracheingabe durch die Art der Erkrankung den Nutzer*innen gar nicht erst möglich sein.
Wir kombinieren daher Summgeräusche mit der Blicksteuerung via Eyetracking für eine berührungslose Wort-für-Wort Eingabe von Texten. Dazu schaut man auf den Anfangsbuchstaben eines Wortes auf der Bildschirmtastatur, beginnt zu summen, schaut über die weiteren Buchstaben des Wortes und beendet mit dem Summen auch die Eingabe des Wortes - schnell, präzise und diskret. Unser Ansatz ermöglichte den Proband*innen die berührungslose Eingabe von über 20 Wörtern pro Minute, was andere aktuelle berührungslose Eingaben übertrifft. Das konnte sowohl die Gutachter unserer Veröffentlichung als auch das international Forscherpublikum bei der Präsentation auf der "2021 CHI Conference on Human Factors in Computing Systems" im Mai überzeugen:
Ramin Hedeshy, Chandan Kumar, Raphael Menges, and Steffen Staab. 2021. Hummer: Text Entry by Gaze and Hum. In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems. Association for Computing Machinery, New York, NY, USA, Article 741, 1–11. DOI: 10.1145/3411764.3445501
Wir planen diese innovative Art der Texteingabe, auch in Semanux zu integrieren und damit unseren Kund*innen durch die neuesten Erkenntnisse aus der Forschung eine schnellere, einfachere und zuverlässigere berührungslose Bedienung zu ermöglichen. Auf YouTube ist die englischsprachige Präsentation von Ramin zu sehen: