Fundstück der Woche: Google über Spracherkennung

Dieses Video kann ich jedem nur ans Herz legen, der ein wenig davon verstehen will, warum ich Computerlinguistik und Künstliche Intelligenz studiert habe, und warum mich alles rund um Sprache und deren Verstehen auch heute noch unendlich fasziniert und ich quasi „privat“ weiterhin daran forsche.

Für mich ist es eine der größten technologischen Herausforderungen überhaupt und es ist faszinierend, was heute bereits möglich ist.

Mein zweites (virtuelles) Ich im Netz

2014-06-05 16_37_19-IFTTT - Android-Apps auf Google Play
Dank Werkzeugen wie IFTTT agiere ich oft im Internet nur virtuell. In Wirklichkeit übernehmen solche Automatisierungsdienste einen Großteil der Arbeit für mich

Schon heute existiere ich eigentlich zweimal. Natürlich nicht als Person, aber wenn man versuchen würde, mich und meine täglichen Aktivitäten zu beobachten, würde man sicherlich sehr verwirrt sein.

Da werden Postings von mir im Blog veröffentlicht, ich schreibe für Silicon.de und poste auf Facebook, Google+ und Twitter. Gleichzeitig, würde man mich mit einer Kamera verfolgen, würde man feststellen, dass während meine digitalen Beiträge erscheinen ich sehr oft gar nicht im Internet bin.

Grund dafür ist das, was ich für einen weiteren Megatrend der nahen Zukunft halte. Mein Avatar im Netz, meine Werkzeugkiste an automatischen kleinen Werkzeugen, die mich virtuell existieren lassen, wo ich in der Realität eigentlich mit ganz anderem beschäftigt bin.

Dienste wie IFTTT, Buffer und die verschiedenen Möglichkeiten zeitlich getakterer Aktivitäten sind da nur der Anfang.

Ich wünsche mir noch viel mächtigere Tools, die es mir ermöglichen, quasi virtuell nach meinen Interessen das Netz durchforsten zu lassen, Informationen zu extrahieren und zusammengefasst mir bereitzustellen. Keine unrealistische Vision, denn Werkzeuge zur automatischen Textextraktion existieren schon seit längerem. Spannend wird das ganze aber erst dann, wenn virtuelle Agenten auf eigene Faust, gefüttert mit meinen Vorgaben im Netz nach Daten suchen und sie mir proaktiv liefern.

Vielleicht sind wir dann irgendwann so weit, dass ich nicht nur Artikel Abends zu hause schreibe und dann ein paar Tage später zu ganz anderer Zeit veröffentliche, sondern möglicherweise habe ich dann einen digitalen „Sidekick“, der für mich sogar einfache Zusammenfassungen schreiben und veröffentlichen kann. Gerade im Bereich der Berichte über neue Technologien oder Hardware kann ich mir das durchaus vorstellen.

Und weiter gedacht können solche Werkzeuge auch den Umgang mit den Online Informationen möglicherweise stark vereinfachen, wenn sie für mich das Netz durchforsten. Denn bislang wende ich schon bei meinen abendlichen Recherchen, eine oder mehrere Stunden für die Sammlung von Informationen und das Verfassen eines Berichts auf.

Das lässt sich meiner Ansicht nach in Zukunft stark vereinfachen. Dann bin ich möglicherweise häufiger der Lektor meiner Agentenautoren als wirklich der Autor selbst.

Oder ich kann, wenn ich beruflich ein Recherchefrage habe, meinen Netzagenten die Fragestellung mitgeben und erhalte nach einer gewissen Zeit eine Zusammenfassung der Erkenntnisse.

Übrigens wird dieser Artikel, den ich am 5.6. Abends gegen 20:45 geschrieben habe, am 18.6. um 12:15 laut automatisiertem Redaktionsplan erscheinen, während ich mit Kollegen in der Kantine beim Mittagstisch sitze…… Quod erat demonstrandum

 

Das Haus der Zukunft kennt unsere Gefühle und spricht mit uns

20140109103918-Image13
Bildquelle: Indiegogo/Emospark

Gerade auf Indiegogo entdeckt: Emospark, ein Würfel, der das eigene Haus zu einem Emotionen erkennenden, interaktiven Zuhause machen soll, das unsere Gefühle erkennt, lernen kann und mit uns und er Umwelt interagiert.

Das Beispielvideo zeigt sehr schön, in welche Richtung wir noch gehen können, wenn wir uns nicht nur darüber Gedanken machen, wie wir unser Haus elektronisch ansteuerbar machen, sondern auch, wie wir in Zukunft mit ihm interagieren wollen. Durch eine Sprachschnittstelle können wir in Zukunft gesprochene Anweisungen geben, werden aber auch vom Haus proaktiv angesprochen und mit Informationen versorgt. Dazu gibt es, unter anderem Algorithmen, die unsere momentane Stimmung erkennen und uns in unseren täglichen Tätigkeiten bei Bedarf unterstützen. Durch Gesichtserkennung und Zugriff auf die großen Cloud Wissensdatenbanken kann das System auch komplexe Fragen beantworten und uns damit helfen.
Das klingt vielleicht für den einen oder anderen erschreckend, ich finde das Gesamtkonzept hochgradig spannend, da es im Prinzip das logisch fortführt, was Systeme wie Siri oder Googles Spracherkennung auch heute schon tun.
Für mich ein sehr interessanter Aspekt, denn eigentlich ist eben die natürliche menschliche Sprache und der körperliche Ausdruck von Emotionen der direkteste Weg der Interaktion.
Aber seht selbst:

 

Zwei ganz besondere Android Launcher: Everything Home und Aviate

lovedeviceEine der beliebtesten Beschäftigungen vieler Android User ist es, den Startbildschirm nach den eigenen Wünschen zu gestalten.

Mir ist das aber mit der Zeit zu viel Aufwand für zu wenig Effekt geworden. Und auf der Suche nach einer intelligenteren Lösung bin ich schließlich auf Everthing.me und ihren Launcher Everything Home gestossen. Dieser geht einen komplett anderen Ansatz, in dem er dem Benutzer je nach Anforderung eine ganz neue Zusammenstellung seines Startbildschirms liefert. Zwar kann man auch hier eigene Widget Screens gestalten, aber das große Plus ist, dass der Launcher intelligent auf Themenanfragen reagiert. Sagt oder schreibt man zum Beispiel „Mittagessen“ werden alle Apps und bekannten Links präsentiert, die irgendetwas mit dem Thema (Mittag-) Essen zu tun haben. Fragt man nach Unterhaltung oder Spielen kommen ebenfalls entsprechende Zusammenstellungen.

Natürlich klappt das nicht immer 100% aber in den meisten Fällen findet man tatsächlich auch die Apps, die man sonst aufgerufen hätte in der Zusammenstellung.

Aber am besten, ihr schaut euch das Video an, das wirklich am besten darstellt, was der Launcher kann.

Leider ist er „offiziell“ noch nicht in Deutschland verfügbar, lässt sich aber über Stores wie Aptoide (auf eigene Gefahr) indirekt installieren. Hierbei rate ich dann aber spätestens zu einer guten Antivirenlösung. Nur zur Sicherheit, denn dann müsst ihr eurem Smartphone auch die Installation von Software aus unbekannten Quellen erlauben.

aviate
Abhängig von Ort oder Zeit ändert Aviate automatisch den Look and Feel des Homescreeens.

Der Launcher ist immer noch in der Beta und offiziell nicht in Deutschland erhältlich (er ist noch nicht auf die deutsche Sprache adaptiert worden) aber wie gesagt über andere Quellen herunterladbar für alle, die schon mal ein Gefühl davon bekommen wollen. Und zudem funktioniert er auch mit deutschen Eingaben schon recht gut.

Auch meine zweite Vorstellung ist noch in einer Beta Phase, sieht aber schon extrem vielversprechend aus. Das Grundkonzept des Launchers legt den Schwerpunkt nicht auf Individualisierung sondern auf das Konzept der intelligenten Informationspräsentation. Dazu gibt es verschiedene Szenarien, die man mit bestimmten Apps und Widgets befüllen kann. Im Moment existieren die Szenairen „Morgen“ „Arbeit“ „Irgendwo hin gehen“ und „At Night“. Der Launcher prüft abhängig von Uhrzeit und Lokation, welcher Kontext geeignet scheint und präsentiert sich individuell mit dem entsprechenden Szenario. Erste Tests laufen bereits sehr gut, Morgens nach dem Aufstehen erscheint das passende Szenario ebenso wie bei der Ankunft im Büro.

Noch ist das ganze in der Entwicklung, mit Sicherheit werden hier noch weitere Möglichkeiten auftauchen, aber das Konzept des digitalen Assistenten, der mir stets die sinnvollsten Informationen präsentiert finde ich hochgradig spannend. Auch hier gilt, nicht gleich schimpfen, die Potentiale testen und selbst entscheiden, ob das Konzept interessant ist. Ich finde beide Ideen sehr spannend, da sie aus einem statischen Werkzeug, den Homescreens eine dynamische Sache machen, die deutlich stärker auf den einzelnen Nutzer eingeht.

Bei Aviate gab es kürzlich übrigens einen kleinen Shitstorm, weil in der Alpha Version die anonyme generische GeräteID und die Liste der Apps sowie die Geokoordinaten unverschlüsselt an die Server geschickt und somit mit einem Trick einsehbar waren. Dass diese Daten gesammelt und an die Server geschickt werden ist dabei ein Grundbestandteil der Idee, denn Aviate soll aus allen Nutzern und deren Verhalten lernen. Ich selbst habe damit kein Problem, da hier ja keine wirklich persönlichen Daten mitgesendet werden, sondern eine generische Id, die nur eine Smartphone Instanz eineindeutig bestimmten Apps und Orten zuordnet. Der Verschlüsselungsbug wurde mittlerweile behoben. Wer aber weiterhin Probleme damit hat, dass die Liste der Apps und die Geodaten gesendet werden, der sollte sich vielleicht auch überlegen, ob er weiterhin bei Amazon einkauft, dort funktioniert die Artikelempfehlung „Kunden, die X kauften, kauften auch Y“ bzw. das Empfehlen anderer Produkte zu meinem Einkauf auch nur, weil ich mein Kaufverhalten preisgebe.

Anyway, die Idee des digitalen Assistenten war schon während meines Studiums eines meiner Hauptinteressensfelder, da hier die künstliche Intelligenz mit ihren Lernalgorithmen und ggf. auch Dialoggenerierungsmöglichkeiten durchaus unterstützen könnte, aber wie es scheint beginnt erst so langsam das ganze auch Gestalt in Form von Apps anzunehmen. Die Sprach- wie die Schrifterkennung sind mittlerweile sehr ausgereift und auch die Lernalgorithmen sind nicht nur ausreichend intelligent sondern hinreichend schnell, um in Smartphones Anwendung zu finden.
Wir dürfen gespannt sein, wie sich diese Technologie, auch im Hinblick auf Smartwatches und Google Glass weiterentwickelt.

[appbox googleplay com.tul.aviate]