Captain Picard in der Kult-Serie "Star Trek" hat ein ziemlich alltägliches Lieblingsgetränk. Er bestellt es jedoch auf eine trendige Weise. "Tee. Earl Grey. Heiß", diese Worte richtet der Kommandant der "Enterprise" nicht an ein Besatzungsmitglied, sondern an einen Computer. Was vor Jahren noch wie Science-Fiction erschien, wird für viele Menschen gerade Teil des Alltags: Reden ersetzt Tastatur, Maus und das Tippen auf Handy-Bildschirmen.
Einen Computer hat die Masse der Menschen in Form eines Smartphones fast immer dabei. Darin stecken - je nach Modell - der Google Assistant, Siri oder etwa Alexa. Diese sogenannten digitalen Assistenten können uns erzählen, wie viele Einwohner der Pazifikstaat Vanuatu hat (rund 260 000). Sie berichten, wie das Wetter morgen wird und wo die Aktie der Telekom gerade steht. Wir können sie fragen, wann Justin Bieber das nächste Konzert in Deutschland spielt und welcher Film heute Abend im Kino läuft.
Sprache ist die neue Maus
Die Assistenten stecken aber nicht nur in Smartphones. Sie ziehen in Form von sogenannten Smart-Speakern, also "klugen" Lautsprechern, auch in Küchen, Wohn- und Schlafzimmer ein. In die Lautsprecher sind meist mehrere hochsensible Mikrofone eingebaut. Diese reagieren auf Schlüsselwörter, die jemand an sie richtet wie "Alexa", "Okay Google", "Hey Cortana" und "Hey Siri". Dann startet der Helfer. Der eigentliche Computer, der die Befehle verarbeitet, steckt aber nicht in den Lautsprechern. Er befindet sich in der Cloud, sprich in entfernten, über das Internet angesteuerten Rechenzentren.
Für die Nutzer heißt das: Die Hände bleiben frei. Das Eintippen von Anfragen und Begriffen in Suchmaschinen entfällt. Und oft auch das Lesen der Ergebnisse. Wir sprechen - sie antworten. Maschinen mit eigener Stimme können, so urteilen einige, ein Gefühl von Gesellschaft im Alltag erzeugen. Manch einer flucht auch mit seinem Helfer wie mit einem Freund - etwa wenn ihm die Antwort missfällt.
"Wenn ich im Bett liege und vergessen habe, den Wecker zu stellen, kann ich einfach sagen: "Alexa, stell' den Wecker auf sieben Uhr." Und Alexa sagt: "Ok. Der Wecker ist auf sieben Uhr gestellt"", so beschreibt Michael Wilmes, Pressesprecher bei Amazon, die Funktion der virtuellen Helferin seines Unternehmens.
Alexa steckt in Geräten wie Echo und Echo Dot. Auch beim Kochen und in der Freizeit hilft sie: Man kann bei einem Rezept fragen: "Wie viel Gramm Mehl kommen in den Teig?" Oder bei Amazon online einkaufen. Auch Musik, Hörbücher und Nachrichten lassen sich über den Lautsprecher aufrufen.
Ähnlich funktioniert Google Home. In dem Lautsprecher steckt der Google Assistant. Er liest auf Befehl die Nachrichten des Tages vor, spielt Musik vom Streamingdienst Spotify, zeigt Tanzvideos von Youtube auf dem Fernseher und stellt eine Eieruhr.
Eine Antwort auf die Frage "Wie sieht mein Tag aus?" kann bei diesem Assistenten lauten: "Guten Morgen. Es ist derzeit 11.49 Uhr. Es sind in Berlin 17 Grad, und es ist bewölkt. Einen schönen Tag, hier sind die Nachrichten von halb zwölf." Wer seine Termine mit Google-Diensten verwaltet, bekommt auch Hinweise auf Meetings.
Das Versprechen: Den Alltag bequemer machen
Ein weiteres Konkurrenzprodukt zu den bereits vorhandenen Smartspeakern soll 2018 auf den Markt kommen: der HomePod von Apple. Der iPhone-Hersteller positioniert sein Gerät eher als Alternative zur Stereo-Anlage. Der Lautsprecher klinge besonders gut, heißt es. Er hat mit Siri ein Sprachassistenz-System an Bord.
All diese Teile sind keine Notwendigkeit, eher Spielerei. Ihre Anbieter versprechen, den Alltag bequemer zu machen. Über die Verknüpfung mit einer digitalen Steuerung via Internet im eigenen Zuhause ("Smart Home") lassen sich Fernseher, Jalousien und Lampen per Sprachbefehl dirigieren.
Auch Autoinsassen kommen ins Reden mit dem Computer: Assistenten wie die Technologie Dragon des Sprachsoftware-Unternehmens Nuance, Systeme wie CarPlay von Apple und Android Auto von Google sind in diversen Modellen eingebaut. Sie weisen den Weg zum geöffneten Supermarkt und spielen die gewünschte Musik. Wenn das Benzin nicht bis zum angegebenen Ziel reicht, erklingen warnende Worte.
Banken arbeiten mit Sprachassistenten, bei denen man telefonisch den Kontostand abfragen und Geld überweisen kann. Die Systeme kennen nach einer Übungsphase die Stimme und Sprechweise eines Kunden. Und sie erkennen diese später auch wieder.
Die Anfänge: Radiologen diktieren
Die Anfänge der maschinellen Spracherkennung liegen im medizinischen Bereich. "Die Diktierfunktion für Radiologen war die erste Anwendung, die wirklich etwas geändert hat", sagt Dietrich Klakow. Er ist Professor für Sprach- und Signalverarbeitung an der Universität des Saarlandes. "Das war in den 1990ern und funktionierte aus einem einfachen Grund: Radiologen diktieren viel. Das ist Teil ihres Berufs, und sie diktieren sehr gut. Ohne "Ähms" und "Öhs", das flutscht einfach so raus", erklärt der Wissenschaftler.
Die Software erkennt Wörter, die sie gelernt hat, und verwandelt sie in Text, unter anderem mit Hilfe von Statistik: "Wenn ich sage "guten Morgen, meine Damen und ..", dann kann man das nächste Wort vorhersagen", sagt Nils Lenke, Forschungschef bei Nuance. Und die Software könne es auch. "Wenn ich aber sage "Guten Tag, Frau ..", dann kann das einer von 100 000 Nachnamen in Deutschland sein." Ähnlich wie Menschen lernen Computer über Regeln, die ihnen der Mensch beigebracht hat. Sie analysieren Text und erkennen wiederkehrende Muster.
Kann ein Programm aus gesprochener Sprache einen Text formulieren, folgt der nächste Schritt: dem Satz eine Bedeutung zu geben. Die Systeme werden mit so vielen Beispielen gefüttert, dass sie lernen, den Text zu verstehen. Beginnt eine Frage mit dem Wort "Wie", erkennt das System: Hier ist eine Beschreibung gefragt. Fragt jemand "Wie viele", hat das System gelernt: Eine Zahl wird gesucht.
Text bekommt Bedeutung
Sprachsteuerung und maschinelles Lernen haben in den vergangenen Jahren enorme Fortschritte gemacht, berichtet Google-Manager Scott Huffman. Die Worterkennung funktioniert immer besser. Und die Geschwindigkeit beim Sprechen sei ein großer Vorteil gegenüber dem Eintippen. "Die Herausforderung ist, die Kommunikation so natürlich wie möglich zu gestalten", sagt Huffman.
Assistenten können mittlerweile sogar über ein Kurzzeitgedächtnis verfügen. Ist beispielsweise eine Fahrt von München nach Hamburg geplant, kann man den Google Assistant fragen: "Wie lange brauche ich nach Hamburg?" Er nutzt den aktuellen Standort, berechnet den Verkehr auf der Route und gibt die Antwort. Und er merkt sich, worum es geht und nimmt dieses Wissen mit in das folgende Gespräch.
Lautet dann die zweite Frage "Wie ist das Wetter dort?", gibt der Assistent die Vorhersage für die Stadt an der Elbe an. Das mag einfach klingen. Ist es aber nicht. Bis vor kurzem hätte die zweite Frage noch "Wie ist das Wetter in Hamburg?" lauten müssen. Mittlerweile erinnert sich der Assistent daran: Es geht um Hamburg. Ein Schritt hin zu einer natürlichen Kommunikation mit Maschinen.
Natürlich klingen mittlerweile auch die Stimmen - weil dahinter oft Menschen stecken. Um einen virtuellen Sprachassistenten zu bauen, der jedes beliebige Wort sagen kann, muss die Software weiter mit Wörtern gefüttert werden. Dazu stehen Sprecher Hunderte von Stunden in Tonstudios und nehmen oft zusammenhanglose Sätze in verschiedenen Stimmungen auf: fröhlich, ernst, neutral, fragend. Diese dienen dazu, alle vorkommenden Phoneme, kleinste Einheiten eines Lautsystems, abzudecken. Das heißt: Die synthetische Stimme kann später Beliebiges sagen - und es klingt wie ein Mensch.
Grenzen der künstlichen Intelligenz
Doch so gut die Stimmen sind, und so gut maschinelles Lernen funktioniert: Es existieren Grenzen, sagt Klakow. Und zwar "dort, wo es keine Trainingsdaten gibt, wo Menschen sich nicht sicher sind, ob die Antwort dieses oder jenes ist". Ironie ist so ein Bereich - und Humor. Auch Fragen nach dem "Warum" sind von Maschinen bisher schwer zu beantworten. "Alles wo man Beispiele geben kann, und wo Menschen unzweifelhaft sagen, das wäre die richtige Antwort, da funktioniert es", erläutert Klakow.
Die Ergebnisse können sich sehen lassen. Den Anbietern ist es sogar gelungen, ihren Systemen eine gewisse Persönlichkeit zu verpassen. Amazons Alexa bringt manche Besitzer mit einer Art Nerd-Humor zum lächeln und kann ein wenig wie die "Star-Wars"-Figur Yoda reden. Microsofts Cortana punktet mit Übersetzungsfähigkeiten. Und Apples Siri kommt mit einer natürlich klingenden Sprache daher.
Fakt ist: Die Sprachsysteme werden besser. Sie erobern immer mehr Lebensbereiche. Und mit den Assistenten dringt auch die Künstliche Intelligenz weiter vor. Deshalb mahnen Experten, man müsse die Risiken im Blick haben: So haben manche Menschen Angst davor, von Alexa & Co. ungewollt belauscht zu werden.
Die Anbieter betonen zwar, dass die Systeme nicht rund um die Uhr Gespräche aufzeichnen, sondern nur auf die Eingabe des Schlüsselwortes warten. Aber es kann Pannen geben. So horchte der Lautsprecher Google Home Mini ungewollt auf. Grund war ein Hardware-Fehler: Die Aufnahme sollte zusätzlich zum Sprachbefehl "Okay Google" auch per Fingerdruck auf das Gehäuse aktiviert werden können. Wegen eines Defekts registrierten einige Geräte eine Berührung, auch wenn es keine gab. Die Funktion wurde deaktiviert.
Und selbst wenn Lautsprecher und Smartphone-Systeme wie vorgesehen laufen, tun sich Datenschutz-Probleme auf. Bei führenden Sprachassistenten werden die Eingaben auf Servern der US-Anbieter verarbeitet und zum Teil sehr lange gespeichert. Bei Google und Amazon kann der Nutzer sich die Liste der Sprachaufzeichnungen anschauen und bei Bedarf einzeln löschen.
Der Direktor des Hasso-Plattner-Instituts in Potsdam, Christoph Meinel, sagt: "Alle Segnungen, die IT bringt, haben ihren Preis." Früher habe es eine Verletzung der Privatsphäre bedeutet, wenn man ausspionierte, wo jemand ist und was er tut. Heute teilen viele ihren Standort den Anbietern verschiedener Apps sorgenfrei mit. Nutzt man Sprachsteuerung, kommen viele weitere Daten hinzu, "die da herumschwirren und von denen man nicht weiß, wer darauf Zugriff hat". Wie die Gesellschaft damit umgehe, werde sich in einem langen Prozess zeigen müssen, sagt Meinel.
Wo setzt sich Sprachsteuerung durch?
Trotz der Grenzen des maschinellen Lernens und der Risiken dürfte sich Sprachsteuerung mittelfristig durchsetzen. Da sind sich die Experten recht einig. Nicht unbedingt im öffentlichen Raum, im Bus und am Flughafen. In Situationen, in denen viele Leute um einen herum sind, würde Sprachsteuerung durch die Lautstärke zu viele andere stören, meint Michael Mikolajczak. Er ist Kurator des Heinz-Nixdorf-Museumsforums, eines Computermuseums in Paderborn.
In diesen Situationen würden Displays zum Berühren auf dem Smartphone besser angenommen. Auch die Maus werde uns noch längere Zeit begleiten - etwa im Büro. Aber zu Hause, im Auto, überall, wo wir die Hände nicht frei haben oder uns nicht bewegen wollen, werden Menschen künftig oft Sprache zur Steuerung von Geräten nutzen.
Auch der Direktor des Hasso-Plattner-Instituts meint: Für Sprachassistenten bestünden gute Chancen des Durchbruchs auf den Massenmarkt. Vor einigen Jahren habe der Umgang mit sprechenden Helfern noch wenig Spaß gemacht. Das habe die Verbreitung gebremst. "Das ändert sich gerade", sagt Meinel, vor allem weil die Technik dahinter immer besser werde.
Wird Sprachsteuerung allgegenwärtig?
Aus Sicht des Museums-Experten Mikolajczak ist eine wirklich natürliche Kommunikation mit Computern allerdings noch Zukunftsmusik. Mit einem Rechner zu sprechen, sei nichts anderes, als Befehle zu geben: "Das ist keine Interaktion." Eine Antwort des Computers auf eine Frage sei kein Vorschlag aus seiner Intelligenz heraus, sondern er rufe Daten aus dem Speicher ab. "Der Computer kann nicht denken."
Auch Professor Klakow aus Saarbrücken urteilt: "Bis wir so weit sind, dass Sie mit so einem System reden können wie mit einem Menschen, da wird noch viel Zeit ins Land gehen." Und wahrscheinlich werde die Steuerung mit gesprochener Sprache ein grafisches Interface - also auch eine Oberfläche, einen Bildschirm, als Übergang ins Digitale - nicht ersetzen, sondern nur ergänzen.
In einigen Situationen können echte Fans dann irgendwann an die "Star-Trek"-Figur Scotty denken, der in einer Folge etwas irritiert vor einem Computer sitzt, der nicht auf Sprache reagiert. Und an seine Worte: "Tastatur. Wie rückständig." (dpa/ad)