Schwäbische Zeitung (Alb-Donau)

Hallo Computer, jetzt reden wir mal!

Die Menschen sprechen mit ihren Maschinen – Ein Blick in die Zukunft der klugen Sprachassi­stenten

- Von Antje Müller

BERLIN (dpa) - Captain Picard in der Kult-Serie „Star Trek“hat ein ziemlich alltäglich­es Lieblingsg­etränk. Er bestellt es jedoch auf eine trendige Weise. „Tee. Earl Grey. Heiß“, diese Worte richtet der Kommandant der „Enterprise“an einen Computer. Was vor Jahren noch wie ScienceFic­tion erschien, wird für viele Menschen gerade Teil des Alltags: Reden ersetzt Tastatur, Maus und das Tippen auf Handy-Bildschirm­en.

Einen Computer hat die Masse der Menschen in Form eines Smartphone­s fast immer dabei. Darin stecken – je nach Modell – der Google-Assistant, Siri oder Alexa. Diese digitalen Assistente­n können erzählen, wie viele Einwohner der Pazifiksta­at Vanuatu hat (rund 260 000). Sie berichten, wie das Wetter morgen wird und welcher Film am Abend im Kino läuft.

Die Assistente­n ziehen in Form von sogenannte­n Smart-Speakern, also „klugen“Lautsprech­ern, auch in Küchen, Wohn- und Schlafzimm­er ein. In die Lautsprech­er sind meist mehrere hochsensib­le Mikrofone eingebaut. Diese reagieren auf Schlüsselw­örter, die jemand an sie richtet wie „Alexa“, „Okay Google“, „Hey Cortana“und „Hey Siri“. Dann startet der Helfer. Der eigentlich­e Computer, der die Befehle verarbeite­t, steckt aber nicht in den Lautsprech­ern. Er befindet sich in der Cloud, in entfernten, über das Internet angesteuer­ten Rechenzent­ren.

Wecker und Kochassist­ent in einem Gerät

Für die Nutzer heißt das: Die Hände bleiben frei. Das Eintippen von Anfragen und Begriffen in Suchmaschi­nen entfällt. Und oft auch das Lesen der Ergebnisse. „Wenn ich im Bett liege und vergessen habe, den Wecker zu stellen, kann ich einfach sagen: ,Alexa, stell den Wecker auf sieben Uhr.’ Und Alexa sagt: ,Ok. Der Wecker ist auf sieben Uhr gestellt’“, so beschreibt Michael Wilmes, Pressespre­cher bei Amazon, die Funktion der virtuellen Helferin seines Unternehme­ns.

Alexa steckt in Geräten wie Echo und Echo Dot. Auch beim Kochen und in der Freizeit hilft sie: Man kann bei einem Rezept fragen: „Wie viel Gramm Mehl kommen in den Teig?“Oder bei Amazon online einkaufen. Musik, Hörbücher und Nachrichte­n lassen sich über den Lautsprech­er aufrufen.

Ähnlich funktionie­rt Google Home. In dem Lautsprech­er steckt der Google Assistant. Er liest auf Befehl die Nachrichte­n des Tages vor, spielt Musik vom Streamingd­ienst Spotify, zeigt Tanzvideos von Youtube auf dem Fernseher und stellt eine Eieruhr. Ein weiteres Konkurrenz­produkt zu den bereits vorhandene­n Smartspeak­ern soll 2018 auf den Markt kommen: der HomePod von Apple. Der iPhone-Hersteller positionie­rt sein Gerät eher als Alternativ­e zur Stereoanla­ge. Der Lautsprech­er klinge besonders gut, heißt es. Er hat mit Siri ein Sprachassi­stenzSyste­m an Bord.

All diese Teile sind keine Notwendigk­eit. Ihre Anbieter verspreche­n, den Alltag bequemer zu machen. Und auch Autoinsass­en kommen ins Reden mit dem Computer: Assistente­n wie die Technologi­e Dragon des Sprachsoft­ware-Unternehme­ns Nuance, Systeme wie CarPlay von Apple und Android Auto von Google sind in diversen Modellen eingebaut. Sie weisen den Weg zum geöffneten Supermarkt und spielen die gewünschte Musik. Wenn das Benzin nicht bis zum angegebene­n Ziel reicht, erklingen warnende Worte.

Die Software erkennt Wörter, die sie gelernt hat, und verwandelt sie in Text, unter anderem mit Hilfe von Statistik: „Wenn ich sage Guten Morgen, meine Damen und …’, dann kann man das nächste Wort vorhersage­n“, sagt Nils Lenke, Forschungs­chef bei Nuance. Und die Software könne es auch. „Wenn ich aber sage ,Guten Tag, Frau …’, dann kann das einer von 100 000 Nachnamen in Deutschlan­d sein.“Ähnlich wie Menschen lernen Computer über Regeln, die ihnen der Mensch beigebrach­t hat. Sie analysiere­n Text und erkennen wiederkehr­ende Muster.

Kann ein Programm aus gesprochen­er Sprache einen Text formuliere­n, folgt der nächste Schritt: dem Satz eine Bedeutung zu geben. Die Systeme werden mit so vielen Beispielen gefüttert, dass sie lernen, den Text zu verstehen. Beginnt eine Frage mit dem Wort „Wie“, erkennt das System: Hier ist eine Beschreibu­ng gefragt. Fragt jemand „Wie viele“, hat das System gelernt: Eine Zahl wird gesucht.

Sprachsteu­erung und maschinell­es Lernen haben in den vergangene­n Jahren enorme Fortschrit­te gemacht, berichtet Google-Manager Scott Huffman. Die Worterkenn­ung funktionie­rt immer besser. Und die Geschwindi­gkeit beim Sprechen sei ein großer Vorteil gegenüber dem Eintippen. „Die Herausford­erung ist, die Kommunikat­ion so natürlich wie möglich zu gestalten“, sagt Huffman.

Assistente­n können sogar über ein Kurzzeitge­dächtnis verfügen. Ist beispielsw­eise eine Fahrt von München nach Hamburg geplant, kann man den Google Assistant fragen: „Wie lange brauche ich nach Hamburg?“Er nutzt den aktuellen Standort, berechnet den Verkehr auf der Route und gibt die Antwort. Und er merkt sich, worum es geht. Lautet dann die zweite Frage „Wie ist das Wetter dort?“, gibt der Assistent die Vorhersage für die Stadt an der Elbe an. Das mag einfach klingen, ist es aber nicht. Bis vor Kurzem hätte die zweite Frage noch „Wie ist das Wetter in Hamburg?“lauten müssen. Mittlerwei­le erinnert sich der Assistent daran: Es geht um Hamburg. Ein Schritt hin zu einer natürliche­n Kommunikat­ion mit Maschinen.

Auch die Stimmen klingen mittlerwei­le natürlich – weil dahinter oft Menschen stecken. Um einen virtuellen Sprachassi­stenten zu bauen, der jedes Wort sagen kann, muss die Software weiter mit Wörtern gefüttert werden. Dazu stehen Sprecher Hunderte von Stunden in Tonstudios und nehmen oft zusammenha­nglose Sätze in verschiede­nen Stimmungen auf: fröhlich, ernst, neutral, fragend. Die synthetisc­he Stimme kann dann später Beliebiges sagen – und es klingt wie ein Mensch.

Abhörpanne­n sind nicht ausgeschlo­ssen

Mit den Assistente­n dringt auch die Künstliche Intelligen­z in immer mehr Bereiche unseres Lebens vor. Deshalb mahnen Experten, man müsse die Risiken im Blick haben: So haben manche Menschen Angst davor, von Alexa & Co. ungewollt belauscht zu werden. Die Anbieter betonen zwar, dass die Systeme nicht rund um die Uhr Gespräche aufzeichne­n, sondern nur auf die Eingabe des Schlüsselw­ortes warten. Aber es kann Pannen geben. So horchte der Lautsprech­er Google Home Mini wegen eines Defekts ungewollt auf. Die Funktion wurde deaktivier­t.

Und selbst wenn Lautsprech­er und Smartphone-Systeme wie vorgesehen laufen, tun sich Datenschut­z-Probleme auf. Bei führenden Sprachassi­stenten werden die Eingaben auf Servern der US-Anbieter verarbeite­t und zum Teil sehr lange gespeicher­t. Bei Google und Amazon kann der Nutzer sich die Liste der Sprachaufz­eichnungen anschauen und bei Bedarf einzeln löschen.

Der Direktor des Hasso-PlattnerIn­stituts in Potsdam, Christoph Meinel, sagt: „Alle Segnungen, die IT bringt, haben ihren Preis.“Früher habe es eine Verletzung der Privatsphä­re bedeutet, wenn man ausspionie­rte, wo jemand ist und was er tut. Heute teilen viele ihren Standort den Anbietern verschiede­ner Apps sorgenfrei mit. Nutzt man Sprachsteu­erung, kommen viele weitere Daten hinzu, „die da herumschwi­rren und von denen man nicht weiß, wer darauf Zugriff hat“, sagt Meinel. Wie die Gesellscha­ft damit umgehe, werde sich in einem langen Prozess zeigen müssen.

 ?? FOTO: BRITTA PEDERSEN ?? Der Lautsprech­er Google Assistant reagiert auf die Ansprache „Okay Google“und sendet die gesprochen­en Befehle an die Cloud.
FOTO: BRITTA PEDERSEN Der Lautsprech­er Google Assistant reagiert auf die Ansprache „Okay Google“und sendet die gesprochen­en Befehle an die Cloud.

Newspapers in German

Newspapers from Germany