Die Zukunft des Interfaces, Bedienkonzepte der Zukunft

SimvalleyWetterMOTIONNachdem das Smartphone sich als das Kommunikationsmedium der Gegenwart etabliert hat, und nur noch ewig gestrige hier Nutzungsverbote aussprechen ist der nächst große intellektuelle Aufruhr der Untergang des Abendlandes durch Datenbrillen und Wearables.

Aber mal abstrahiert von den Ängsten derer, die sich nicht wirklich mit den Technologien sondern nur mit ihren Ängsten vor Veränderung befassen, wohin führt die Reise, was die neuen Schnittstellenkonzepte angeht.

Betrachten wir dafür, wo wir unsere Gadgets meist benutzen und wozu. Primär um mit anderen Menschen in Kontakt zu bleiben, um immer an aktuelle Informationen zu kommen. Insofern wird das Hauptpräsentationsmedium auch weiterhin irgendeine Form von Display bleiben. Und da wir auch mal längere Texte lesen wollen, darf es nicht zu klein werden. Man kann zwar via Audio Output auch Texte vorlesen lassen, aber das kann im Alltag dann durchaus störend sein, zumal hier der Konsument sich an die Wiedergabegeschwindigkeit des Outputs anpassen muss.

Aber selbst ein Display kann auf verschiedene Arten realisiert werden. Prominentester Vertreter einer alternativen Präsentationsform ist Google Glass und in Zukunft ggf. Google Contact Lense. Was sind hier die Herausforderungen?

Neben der mangelnden Akzeptanz, die aber wohl mehr von der verbauten Kamera als von den Displaymöglichkeiten von Google Glass her rührt sind vor allem Aspekte des abgelenkt seins und der mangelnden Kontrolle von Gesprächspartner zu nennen, die sich bei Technologien wie Google Glass oder ähnlichem nicht mehr der vollen Aufmerksamkeit des Gegenübers sicher sein können bzw. ob das Gegenüber durch die Displaytechnologie in Gesprächen nicht Vorteile aus der immerwährenden Informationszugriffsmöglichkeit zieht.

BnBrlZJCMAAOEzaWenn es zusätzlich aber noch um den Input geht, dann schränkt sich die Variation noch weiter ein. Weder Gestensteuerung noch Stifteingabe sind voll  ausgereift. Ersteres hat zudem das Problem, dass nicht nur Menschen albern aussehen, die im Park scheinbar mit der Luft sprechen dank Freisprecheinrichtung, sondern ich mir ebenso wenig vorstellen kann, dass Menschen auf Dauer alles via Gesten erledigen wollen, die im leeren Raum operieren. Gesten ja, aber dann eng begrenzt auf Displays oder bestimmte Kontexte (zum Beispiel ein OP oder andere Umgebungen, die berührungslos funktionieren müssen).

Für viele gerade im beruflichen Umfeld ist und bleibt die Tastatur das Mittel der Wahl. Denn auch via Spracheingabe ist nur ein begrenztes Arbeiten mit standardisierten Kontexten (Diktat, einfacher Text) möglich. Programmierung via Spracheingabe dürfte eher unwahrscheinlich sein, ebenso wie Texteingabe mit komplexen Fachausdrücken. Jede notwendige Korrektur kostet Zeit, etwas, das scheinbar in der heutigen Zeit niemand mehr hat, obwohl uns die Maschinen doch Arbeit abnehmen sollten.

Für mich als Fazit: Wir werden auch in 10 Jahren noch mit Tastaturen arbeiten, die 20140507_111128dann vielleicht vom Design oder der zu Grunde liegenden Technologie her anders aussehen, aber dass flächendeckend Menschen mit Smartwatches sprechen werden oder wild in der Luft fuchteln um ihre Datenbrille zu steuern, halte ich für den Marketing Wunsch einiger IT Konzerne, der aber wieder mal sehr weit weg von der Alltagsrealität des Durchschnittsnutzers ist.

Was mir bei diesen Gadget Trends auffällt: Nach der berühmten Hypephase wandern die meisten in eine Nische und man kehrt zurück zu alten Konzepten nur in modifizierter Form. Nachdem zum Beispiel auch durch das IPad der Hype um Tablets ausgelöst wurde, kamen sehr schnell verschiedenste Cases mit Tastatur auf den Markt und nun kehrt man immer mehr zum Formfaktor des (Sub-)Notebooks zurück, der jetzt aber nicht einen festen Bildschirm sondern ein angedocktes Tablet hat.

 

 

 

Spracheingabe als Mehrwert oder Kaufargument?

S Voice von Samsung, verfügbar auf dem neuen Galaxy SIII. Klappt ganz gut, aber auch nicht wirklich brauchbar.

Nach Apples Siri, Samsungs S Voice und dem noch geheimen Projekt „Majel“ meldet jetzt auch LG eine eigene Spracherkennung.

Warum das alles? Wollen wir wirklich alle mit unserem Smartphone sprechen? Viele der Anwendungen, die ich Tag für Tag nutze machen mit Spracheingabe zwar auch Sinn, sind aber oft viel langsamer zu bedienen. Zudem ist eine Spracheingabe erst dann wirklich sinnvoll, wenn sie 100% fehlerfrei funktioniert, was ich für die nahe Zukunft stark zu bezweifeln wage.

Für mich ist das ganze ein Featurekampf, der alleine zur Differenzierung von Geräten dienen soll, die letztlich in ihren Merkmalen nicht mehr wirklich unterscheidbar sind. Sie tun alle das gleiche, mal auf die eine oder die andere Art, die nächste Chance ist also, eine gänzlich neue Bedienform einzuführen. Und seit dem Hype um Siri ist hier Spracheingabe das Feature der Wahl. Ob es sich auf Dauer durchsetzen wird, hängt mit Sicherheit auch davon ab, wie schnell die Systeme nicht nur fehlerfrei funktionieren, sondern auch auf mehr als Schlagworte reagieren. Und da ich aus der Computerlinguistik und KI komme, weiß ich um die Fallstricke. Präsuppositionen verstehen (also dass ich z.B. nicht wissen will, ob jemand die Uhr ablesen kann, sondern die Uhrzeit wenn ich ihn frage „Weißt du wie spät es ist?“) und ähnliche semantische Hürden dürften noch auf längere Zeit für Spracherkennungs- UND Verarbeitungssysteme schwierig sein.

Insofern sollte man bei der Wahl seines Smartphones nicht unbedingt die Spracheingabe als Entscheidungskriterium wählen. Sie ist eine nette, oft auch schon erstaunlich gut funktionierende Spielerei. Aber eben wirklich nur eine Spielerei….. Noch.