Nach Apples Siri, Samsungs S Voice und dem noch geheimen Projekt „Majel“ meldet jetzt auch LG eine eigene Spracherkennung.
Warum das alles? Wollen wir wirklich alle mit unserem Smartphone sprechen? Viele der Anwendungen, die ich Tag für Tag nutze machen mit Spracheingabe zwar auch Sinn, sind aber oft viel langsamer zu bedienen. Zudem ist eine Spracheingabe erst dann wirklich sinnvoll, wenn sie 100% fehlerfrei funktioniert, was ich für die nahe Zukunft stark zu bezweifeln wage.
Für mich ist das ganze ein Featurekampf, der alleine zur Differenzierung von Geräten dienen soll, die letztlich in ihren Merkmalen nicht mehr wirklich unterscheidbar sind. Sie tun alle das gleiche, mal auf die eine oder die andere Art, die nächste Chance ist also, eine gänzlich neue Bedienform einzuführen. Und seit dem Hype um Siri ist hier Spracheingabe das Feature der Wahl. Ob es sich auf Dauer durchsetzen wird, hängt mit Sicherheit auch davon ab, wie schnell die Systeme nicht nur fehlerfrei funktionieren, sondern auch auf mehr als Schlagworte reagieren. Und da ich aus der Computerlinguistik und KI komme, weiß ich um die Fallstricke. Präsuppositionen verstehen (also dass ich z.B. nicht wissen will, ob jemand die Uhr ablesen kann, sondern die Uhrzeit wenn ich ihn frage „Weißt du wie spät es ist?“) und ähnliche semantische Hürden dürften noch auf längere Zeit für Spracherkennungs- UND Verarbeitungssysteme schwierig sein.
Insofern sollte man bei der Wahl seines Smartphones nicht unbedingt die Spracheingabe als Entscheidungskriterium wählen. Sie ist eine nette, oft auch schon erstaunlich gut funktionierende Spielerei. Aber eben wirklich nur eine Spielerei….. Noch.