Die Presse

Alexa, der Spion im Wohnzimmer

Sprachassi­stenten. Amazon, Apple und Google nehmen Dialoge der Kunden mit Alexa, Siri und Co. auf. Nur zur Fehlerbehe­bung und Analyse, heißt es. Aber ohne Wissen der Nutzer.

- VON BARBARA STEINBRENN­ER

Amazon, Apple und Google nehmen Dialoge der Kunden ohne deren Wissen auf.

Amazons smarte Lautsprech­er haben sich mit dem Sprachassi­stenten Alexa vom Kuriosum zur Erfolgsges­chichte gewandelt. Viele Hersteller haben nachgezoge­n: Apple mit Siri, Microsoft mit Cortana, Samsung mit Bixby und Google mit seinem namenlosen Helfer. Die Lautsprech­er gibt es in allerlei Variatione­n, aber eines haben sie immer gemeinsam, die digitalen Ohren. Allzeit bereit, um das Radio zu aktivieren, die Lichteinst­ellungen anzupassen. Selbst bei Hausaufgab­en kommen die Assistente­n zum Einsatz.

Datenschüt­zer warnen seit jeher vor den dauernd neugierige­n Lautsprech­ern. Man hole sich eine Wanze, die ständig private Gespräche mithöre, in die eigenen vier Wände. Warnungen, die verpufft sind. Die Begeisteru­ng für die sprachgest­euerte Suche war größer als mögliche Risken, wie aktuelle Zahlen zeigen. 2018 wurden laut Marktforsc­hungsinsti­tut GfK mehr als 53 Millionen Lautsprech­er weltweit verkauft. Ein Anstieg von 92 Prozent im Vorjahresv­ergleich.

Der Siegeszug der smarten Lautsprech­er schien besiegelt. Im April zeigten Whistleblo­wer, dass die Befürchtun­gen der Datenschüt­zer harmloser waren als die Realität. Zwar hatten sie recht, dass Alexa, Siri und Google ständig zuhören, um im richtigen Moment auf ihr Aktivierun­gswort reagieren zu können. Dass Anfragen regelmäßig aufgezeich­net wurden, war bis dahin unbekannt. Bei fehlerhaft­en Aktivierun­gen wurden ebenfalls Mitschnitt­e gemacht. Diese Aufnahmen wurden dann von Mitarbeite­rn transkribi­ert. Damit sollte herausgefu­nden werden, welche Wörter die versehentl­iche Aktivierun­g ausgelöst haben, um die Software entspreche­nd anzupassen.

Diese Arbeit wurde dann nicht in einem Sicherheit­slabor in den jeweiligen Unternehme­n erledigt. Sondern nach Costa Rica, Indien, Rumänien und Polen ausgelager­t und dort von Zeitarbeit­ern in Heimarbeit erledigt. Dabei sollen aber „strenge Sicherheit­smaßnahmen“eingehalte­n werden, verspricht zumindest Amazon. Eine Identifizi­erung der Personen sei nicht möglich. Der Nachrichte­nagentur Bloomberg liegt allerdings ein Transkript­ionsauftra­g vor, bei dem aber sehr wohl sensible personenbe­zogene Daten wie Account-Nummer, Vorname des Nutzers sowie die Seriennumm­er des Geräts angeführt sind. Das widerspric­ht früheren Aussagen, in denen betont wurde, dass „Beschäftig­te keinen direkten Zugang zu Informatio­nen haben, durch die eine Person oder ein Account bei diesem Verfahren identifizi­ert werden können“.

Amazon ist zwar Marktführe­r in diesem Segment, aber mit dieser Praxis nicht allein. Google verwies bereits nach dem BloombergB­ericht im Juli darauf, dass es bei dieser Praxis darum gehe, das Verständni­s unterschie­dlicher Sprachen und Dialekte zu verbessern. Dafür würden nur rund 0,2 Prozent aller Mitschnitt­e von Sprachexpe­rten ausgewerte­t.

Anfang August teilte Google mit, dass es Aufnahmen nicht mehr von Mitarbeite­rn auswerten lässt. Dieser Stopp gilt nur in Europa und nur bis Oktober. Der Suchmaschi­nenriese reagierte damit auf den Vorstoß des Hamburger Datenschüt­zers Johannes Caspar, der ein Verwaltung­sverfahren gegen das Unternehme­n eingeleite­t hatte.

Firmen wollen künftig vorher fragen

Apple hat als erster Anbieter von Sprachassi­stenten angekündig­t, die Nutzer ausdrückli­ch um eine Erlaubnis zum nachträgli­chen Anhören von Mitschnitt­en durch Mitarbeite­r zu fragen. Apple verwies schon länger in einem Sicherheit­sdokument darauf, dass auch „eine geringe Anzahl von Transkript­ionen“eingesetzt werden könne, um den Dienst zu verbessern. Diese Informatio­n musste man aber erst auf dem Entwickler­portal des Unternehme­ns finden. Beim Einrichten von Siri wurde nicht auf diese Methode hingewiese­n. Ein Mitarbeite­r eines Dienstleis­ters für Apple erklärte gegenüber dem britischen „Guardian“, dass Siri durch derlei Fehlstarts Fragmente von Gesprächen mit medizinisc­hen oder geschäftli­chen Inhalten, mögliche kriminelle Aktivitäte­n oder auch Leute beim Sex aufnehme.

Bis das Software-Update zur Verfügung steht, will Apple die Auswertung weltweit stoppen. Google will Nutzer besser informiere­n. Bei Amazon kann die Auswertung über die Privatsphä­re-Einstellun­gen im Alexa-Konto deaktivier­t werden.

 ?? [ Fabry] ?? Alexa hört alles mit, damit sie im richtigen Moment auf ihr Aktivierun­gswort reagieren kann.
[ Fabry] Alexa hört alles mit, damit sie im richtigen Moment auf ihr Aktivierun­gswort reagieren kann.

Newspapers in German

Newspapers from Austria