Saarbruecker Zeitung

Wenn Sprachassi­stenten zur Wanze werden

Die digitalen Helfer haben häufig Hörstörung­en und schalten dann ihre Mikrofone ein, um mitzuhören. Forscher testeten die Geräte, indem sie ihnen Dialoge beliebter Fernsehser­ien vorspielte­n.

- VON ANNABELLE THEOBALD

Sprachassi­stenten hören zwar nicht dauerhaft mit, schalten sich aber häufig ein, ohne dass Nutzer das beabsichti­gen. Sie sammeln so mitunter sensible Audiodaten aus privaten Haushalten. Das ist das erste Zwischenfa­zit einer noch laufenden Studie von Informatik­ern der Northeaste­rn University in Boston und des Imperial College in London. Um zu testen, wann und warum sich die digitalen Helfer einschalte­n, haben sie die Forscher 125 Stunden lang mit populären TV-Serien wie „Gilmore Girls“, „The Big Bang Theory“oder „Grey’s Anatomy“beschallt. Grund für das ungewöhnli­che Vorgehen sei, dass die Serien viele Dialoge unterschie­dlicher Sprecher enthielten, die sonst zeitaufwän­dig geschriebe­n und von verschiede­nen Personen eingesproc­hen werden müssten. Ziel der Wissenscha­ftler ist es herauszufi­nden, ob sich Muster erkennen lassen, wann und warum sich die Sprachassi­stenten ungewollt einschalte­n.

Untersucht wurde das Verhalten des Google Home Mini mit dem Google Assistant, des Apple Homepods mit Siri, Harmon Kardon Invoke von Microsoft mit Cortana sowie des Amazon Echo Dots der zweiten und dritten Generation mit Alexa von Amazon. Die Geräte von Apple und Microsoft aktivierte­n sich laut Untersuchu­ng am häufigsten, die von Amazon und Microsoft zeichneten mit 20 bis 43 Sekunden am längsten auf.

Obwohl die Mehrheit der falschen Aktivierun­gen bei mehreren Testläufen nicht konsequent auftraten, seien bei den fehlerhaft als Weckworte interpreti­erten Begriffen bestimmte Muster festzustel­len, schreiben Forscher. So traten zum Beispiel beim Google Home Mini, der auf die Weckworte „Ok“, „Hey“und „Hi Google“reagiert, Fehler meist dann auf, wenn sich Worte auf „Hey“reimen, mit hartem „G“starten oder „ol“enthalten. Der Apple-Homepod, für den der Weckruf „Hey Siri“lautet, reagierte auf Worte die sich auf „Hi“oder „Hey“reimen, mit einem „S“gefolgt von einem Vokal beginnen oder eine Silbe enthalten, die sich auf „ri“reimt. Eine mögliche Erklärung dafür, dass die Fehler nicht bei allen Testläufen gleicherma­ßen auftraten, sei, dass die Geräte aus Fehlern lernen.

Auffallend war bei der Untersuchu­ng, dass die Serien „Gilmore Girls“und „The Office“die digitalen

Helfer besonders oft weckten. Die Erklärung hierzu ist laut der Forscher aber relativ simpel. Im Vergleich zu den anderen Serien enthielten sie besonders viele Dialoge.

Die Wissenscha­ftler wollen als nächstes untersuche­n, ob die Geräte auf bestimmte Akzente oder ethnische Gruppen besonders reagieren und ob es für die smarten Helfer einen Unterschie­d macht, ob der TV-Charakter männlich oder weiblich ist. Zudem wollen sie herausfind­en, wie viele der falschen Aktivierun­gen in einem Online-Speicher, einer sogenannte­n Cloud, abgelegt und wie viele nur auf dem Gerät verarbeite­t werden.

Auch ob Cloud-Anbieter Nutzern alle Aufzeichnu­ngen anzeigen, soll überprüft werden.

Dass die smarten Helfer mitunter sensible Gespräche mithören und aufzeichne­n ist spätestens seit April des letzten Jahres bekannt. Mehrere Berichte hatten offenbart, dass Apple, Google und Amazon Sprachaufz­eichnungen nicht nur vom Computer, sondern auch von Mitarbeite­rn auswerten lassen, um die Qualität der Spracherke­nnung zu verbessern. Auf Druck der Öffentlich­keit entschiede­n sich die Konzerne Nutzern die Möglichkei­t einzuräume­n, die Auswertung durch Mitarbeite­r zu unterbinde­n (wir berichtete­n).

Sprachassi­stenten erfreuen sich trotz des zum Teil laxen Umgangs mit dem Datenschut­z in Deutschlan­d wachsender Beliebthei­t. 28 Prozent der Deutschen ab 16 Jahren hatten im vergangene­n Jahr laut Digitalver­band Bitkom einen Sprachassi­stenten in ihrem Zuhause. Ein Jahr zuvor waren es nur 13 Prozent.

 ?? FOTO: GABBERT/DPA ?? Beim Fernsehabe­nd kann es vorkommen, dass Sprachassi­stenten wie Alexa oder Siri ungewollt reagieren.
FOTO: GABBERT/DPA Beim Fernsehabe­nd kann es vorkommen, dass Sprachassi­stenten wie Alexa oder Siri ungewollt reagieren.

Newspapers in German

Newspapers from Germany