Hardware für die Bedienung angekommen
Wir integrieren in unseren Prototypen verschiedenste Möglichkeiten zur Eingabe. Dabei setzen wir auf eine sogenannte multimodale Interaktion, also die intelligente Kombination von mehreren Eingabegeräten, um allen Nutzer*innen eine flexible und gleichzeitig intuitive Bedienung zu ermöglichen.
Bereits im Rahmen unserer Forschung konnten wir erfolgreich unterschiedliche Eingabegeräte für eine intuitive, schnelle und zuverlässige Bedienung kombinieren. Allen voran zeigte Ramin in seinen Arbeiten über zugängliche Texteingabe in "TAGSwipe" die Kombination eines Touchscreens mit Blicksteuerung, sowie in "Hummer" die Erkennung von Summgeräuschen verbunden mit Blicksteuerung. Ebenso evaluierte Raphael in seiner Forschung mit dem Webbrowser "GazeTheWeb" erfolgreich den Internetzugang mit Sprache in Kombination mit Blicksteuerung. Diese Ansätze aus unserer Forschung werden wir in Semanux weiterentwickeln, um sie für alle Menschen einfach verfügbar zu machen.
Im Rahmen der EXIST-Förderung von Semanux konnten wir unterschiedliche Eingabegeräte anschaffen, die wir jetzt in unseren Prototypen integrieren:
- Handschalter, die durch einen Druck durch die Hand oder einzelne Finger ausgelöst werden.
- Fußschalter, die wie ein Pedal mit einem Fuß ausgelöst werden.
- Webcams, die sowohl Ton- als auch hochauflösende Videoaufnahmen liefern.
- Tiefenkamera, die mit ihrer Tiefenwahrnehmung unterschiedliche Körpergesten erkennen.
- Eyetracker, die präzise den Blickpunkt auf den Bildschirm bestimmen.
- Touchscreens, die auf Berührungen mit den Fingern reagieren.
Wir planen, verschiedene Kombinationen in unseren Prototypen zu integrieren: Zum Beispiel kann der Blick auf den Bildschirm verraten, welcher Link angesehen wird und der Fußschalter gibt das Signal, um diesem Link dann zu folgen. Dabei handelt es sich nur um ein einfaches Beispiel der vielfältigen multimodalen Interaktion, die wir in Semanux umsetzen.