Wenn Sprachassistenten zur Wanze werden
Die digitalen Helfer haben häufig Hörstörungen und schalten dann ihre Mikrofone ein, um mitzuhören. Forscher testeten die Geräte, indem sie ihnen Dialoge beliebter Fernsehserien vorspielten.
Sprachassistenten hören zwar nicht dauerhaft mit, schalten sich aber häufig ein, ohne dass Nutzer das beabsichtigen. Sie sammeln so mitunter sensible Audiodaten aus privaten Haushalten. Das ist das erste Zwischenfazit einer noch laufenden Studie von Informatikern der Northeastern University in Boston und des Imperial College in London. Um zu testen, wann und warum sich die digitalen Helfer einschalten, haben sie die Forscher 125 Stunden lang mit populären TV-Serien wie „Gilmore Girls“, „The Big Bang Theory“oder „Grey’s Anatomy“beschallt. Grund für das ungewöhnliche Vorgehen sei, dass die Serien viele Dialoge unterschiedlicher Sprecher enthielten, die sonst zeitaufwändig geschrieben und von verschiedenen Personen eingesprochen werden müssten. Ziel der Wissenschaftler ist es herauszufinden, ob sich Muster erkennen lassen, wann und warum sich die Sprachassistenten ungewollt einschalten.
Untersucht wurde das Verhalten des Google Home Mini mit dem Google Assistant, des Apple Homepods mit Siri, Harmon Kardon Invoke von Microsoft mit Cortana sowie des Amazon Echo Dots der zweiten und dritten Generation mit Alexa von Amazon. Die Geräte von Apple und Microsoft aktivierten sich laut Untersuchung am häufigsten, die von Amazon und Microsoft zeichneten mit 20 bis 43 Sekunden am längsten auf.
Obwohl die Mehrheit der falschen Aktivierungen bei mehreren Testläufen nicht konsequent auftraten, seien bei den fehlerhaft als Weckworte interpretierten Begriffen bestimmte Muster festzustellen, schreiben Forscher. So traten zum Beispiel beim Google Home Mini, der auf die Weckworte „Ok“, „Hey“und „Hi Google“reagiert, Fehler meist dann auf, wenn sich Worte auf „Hey“reimen, mit hartem „G“starten oder „ol“enthalten. Der Apple-Homepod, für den der Weckruf „Hey Siri“lautet, reagierte auf Worte die sich auf „Hi“oder „Hey“reimen, mit einem „S“gefolgt von einem Vokal beginnen oder eine Silbe enthalten, die sich auf „ri“reimt. Eine mögliche Erklärung dafür, dass die Fehler nicht bei allen Testläufen gleichermaßen auftraten, sei, dass die Geräte aus Fehlern lernen.
Auffallend war bei der Untersuchung, dass die Serien „Gilmore Girls“und „The Office“die digitalen
Helfer besonders oft weckten. Die Erklärung hierzu ist laut der Forscher aber relativ simpel. Im Vergleich zu den anderen Serien enthielten sie besonders viele Dialoge.
Die Wissenschaftler wollen als nächstes untersuchen, ob die Geräte auf bestimmte Akzente oder ethnische Gruppen besonders reagieren und ob es für die smarten Helfer einen Unterschied macht, ob der TV-Charakter männlich oder weiblich ist. Zudem wollen sie herausfinden, wie viele der falschen Aktivierungen in einem Online-Speicher, einer sogenannten Cloud, abgelegt und wie viele nur auf dem Gerät verarbeitet werden.
Auch ob Cloud-Anbieter Nutzern alle Aufzeichnungen anzeigen, soll überprüft werden.
Dass die smarten Helfer mitunter sensible Gespräche mithören und aufzeichnen ist spätestens seit April des letzten Jahres bekannt. Mehrere Berichte hatten offenbart, dass Apple, Google und Amazon Sprachaufzeichnungen nicht nur vom Computer, sondern auch von Mitarbeitern auswerten lassen, um die Qualität der Spracherkennung zu verbessern. Auf Druck der Öffentlichkeit entschieden sich die Konzerne Nutzern die Möglichkeit einzuräumen, die Auswertung durch Mitarbeiter zu unterbinden (wir berichteten).
Sprachassistenten erfreuen sich trotz des zum Teil laxen Umgangs mit dem Datenschutz in Deutschland wachsender Beliebtheit. 28 Prozent der Deutschen ab 16 Jahren hatten im vergangenen Jahr laut Digitalverband Bitkom einen Sprachassistenten in ihrem Zuhause. Ein Jahr zuvor waren es nur 13 Prozent.