fremdgerechnet

Google treibt Handy-Sprachsteuerung voran

In Zukunft: Übersetzungsservice und SMS ohne Tippen

Allgemeine Spracherkennung, also alles, was über das Wiedererkennen von ein paar vorab trainierten Wörtern hinausgeht, ist für die Handy-Prozessoren in der Regel zu schwer. Es ist ja nicht sonderlich hilfreich, wenn man dem Handy befiehlt "Rufe beim Hilton-Hotel an", und das Telefon dann zwei Minuten später einen Anruf beginnt - an das Park Hilton in München, obwohl man gerade in Frankfurt ist.

Diesbezüglich präsentierte Google auf einer Keynote im Rahmen der IFA in Berlin den aktuellen Stand Ihres Projekts "Voice Action": Einem Android-Smartphone konnte man befehlen: "Schreibe eine Nachricht an Steve: 'Ich treffe mich mit Dir in 10 Minuten draußen im Park'". Der Sprachbefehl wird aufgenommen, an einen Google-Server geschickt, der den Auftrag interpretiert und das Ergebnis zurück an das Handy schickt. Wenige Sekunden nach dem Ende des Sprachbefehls stand das Handy im SMS-Dialog, bereit, die eben gesprochene Nachricht an den richtigen User zu schicken. Nur "Senden" muss man noch selber drücken; das Handy bzw. die Google-Cloud könnte einen ja falsch verstanden haben.

Gibt es mehrere erkannnte Möglichkeiten, werden diese in einem Menü dargestellt und man kann sich eine aussuchen. So bot das Handy auf den Befehl: "Spiel Lady Gaga Just Dance" einen Playback von Song und Video an. Komplett ausgereift ist die neue Software zur Spracherkennung und -befehle aber noch nicht, denn später fragten dann die anwesenden Journalisten, ob das Handy auch den Befehl "Stop" verstehen würde, wenn man Lady Gaga nicht mehr hören möchte. Hierzu müsste man aber wohl abermals den Button für "voice action" drücken, denn sonst hört das Handy noch nicht zu.

Google Logo Bild: Google Derzeit hören die voice-action-Prototypen nur auf Englisch. Die Ergänzung weiterer Sprachen ist geplant; genaue Zeiten wurden aber nicht genannt. Sprachbefehle sind eine natürliche Erweiterung der Suche per Spracheingabe, die vor zwei Jahren in den USA gestartet wurde. Auf Android-Handys in den USA kommt ein Viertel aller Suchanfragen bereits per Spracheingabe.

In absehbarer Zeit möchte Google die voice-action-Anwendung öffnen und Drittanbietern über eine API die Integration ihrer jeweiligen Apps ermöglichen. Es ist also durchaus denkbar, dass man künftig auch mit seiner Lieblings-App plaudert.

Live-Übersetzung mit dem Handy

Eine andere sinnvolle Nutzung der Spracherkennung ist deren Kombination mit einem Übersetzungssystem. Handy im fremden Land auf den Tisch gelegt und die Übersetzungs-App starten: Danach werden zwei Buttons angezeigt, einer z.B. für Englisch-Deutsch und einer für Deutsch-Englisch. Nach dem Tappen auf den Button einen Satz sprechen, und das Gerät übersetzt. Es klappt noch nicht perfekt - Google-Techniker mussten dreimal "Welche Farbe?" fragen, bevor es richtig zu "What color?" übersetzt wurde.

Die Probleme zeigen, dass die Spracherkennung nicht perfekt ist, und wahrscheinlich auch nie perfekt sein wird. Und das sie nicht auf dem Endgerät, sondern in der "Google-Computer-Cloud" stattfindet, dürfte hierzulande auch für eine abermalige intensive Datenschutzdiskussion sorgen.

Auf jeden Fall zeigen solche Anwendungen Googles "mobile first"-Strategie: Sie werden zuerst für Smartphones, insbesondere für Android-Handys, bereitgestellt und erst später auf den Desktop portiert. Google-Chef Eric Schmidt ist sich sicher, dass die Zahl der Smartphones bald die Zahl der Desktop- und Mobil-PCs übersteigen wird, und dass diese Entwicklung unumkehrbar ist. Er erwartet in zehn Jahren nicht weniger als drei bis vier Milliarden Nutzer von Smartphones.

In einer weiteren Meldung gehen wir auf Neuerungen beim in Deutschland umstrittenen Karten-Dienst Street View ein.

Weitere Artikel zur IFA 2010