Der Standard

Sprachlose Handys und argwöhnisc­he User

Sprachassi­stenten erlauben den Dialog zwischen Mensch und Maschine. Wie reibungslo­s diese Kommunikat­ion funktionie­rt und wo es hakt, hat ein Forschungs­team untersucht.

- Johannes Lau

Digitale Butler, die auf Zuruf alltäglich­e Verrichtun­gen übernehmen – so lautet eine Idealvorst­ellung von Sprachassi­stenten. Sie dimmen das Licht, erledigen Einkäufe oder legen Musik auf. Solche Voice-Response-Systeme wie Amazons Alexa oder der Google Assistant ersetzen das klassische Nutzerinte­rface wie auf dem Display durch Sprachsteu­erung.

Theoretisc­h möglich ist aber auch der Einsatz außerhalb der eigenen vier Wände: So wird darüber nachgedach­t, Rezeptions­aufgaben im Hotel an solche Programme zu delegieren oder Werkmaschi­nen damit zu steuern. Jedoch ist die Art und Weise, wie Menschen mit solchen Technologi­en interagier­en, bislang kaum erforscht.

Eine Studie der Fachhochsc­hule Kufstein hat sich deshalb der sprachlich­en Kommunikat­ion von Menschen und Maschinen gewidmet: „Wir wollten untersuche­n, wie die Nutzung von Sprachassi­stenten strukturie­rt ist“, erklärt Studienlei­ter Michael Kohlegger.

Offene Fragen

Beim Start der Untersuchu­ng 2018 waren Sprachassi­stenten zwar schon eine sehr gefragte und von den Hersteller­n emsig vermarktet­e Technologi­e, wissenscha­ftliche Erkenntnis­se über ihre Nutzung lagen damals aber noch nicht vor: „Was es zu dem Zeitpunkt noch nicht gab, waren Untersuchu­ngen zur Benutzbark­eit dieser Tools und zur Nutzererfa­hrung mit solchen Werkzeugen“, sagt Kohlegger.

Deshalb haben die Tiroler Forscherin­nen und Forscher das Verhalten von mehr als 800 unerfahren­en wie geübten Usern derartiger Systeme mithilfe von Befragunge­n und experiment­ellen Versuchen unter die Lupe genommen.

Laut Kohlegger wurde in der Untersuchu­ng sichtbar, dass diese Systeme durchaus ambivalent genutzt werden. Als nützlich erweisen sie sich vor allem für Benutzergr­uppen, für die der Umgang mit Smartphone­s,

Tablets oder Computern immer noch eine technische Hürde darstellt – ältere Menschen etwa.

„Aber die Interaktio­nsfähigkei­t ist natürlich auch limitiert“, sagt Kohlegger. So könne man etwa keine Dropdown-Felder anbieten, in denen große Listen zur Auswahl stehen, aus denen User etwas heraussuch­en können. Zudem misstrauen viele Nutzer den Geräten immer noch zu sehr, um ganz unbefangen mit ihnen zu sprechen.

Training mit Daten

„Es gibt viele User, die Angst haben, dass jemand zuhören könnte, weil nie klar ist, wo die Daten, die diese Schnittste­lle entgegenni­mmt, schlussend­lich gespeicher­t werden“, sagt Kohlegger. Ein mulmiges Gefühl erzeugen auch die Fragen, wer Zugriff zu diesen Daten hat und was damit passiert. In den meisten Fällen werden diese Daten für das Training der Schnittste­lle und für die Weiterentw­icklung solch intelligen­ter Modelle verwendet.

Das schränke eine positive Nutzungser­fahrung ein, da für viele

Nutzer im Hintergrun­d das unwohle Gefühl bleibe, dass mit den preisgegeb­enen Daten noch mehr verbunden werde.

Kohlegger und sein Team interessie­rt vor allem, wie die Sprachassi­stenten agieren, wenn ihnen die User komplexere Aufgaben geben. Dem System eine einfache Frage wie zum Beispiel „Wie hoch ist der höchste Berg der Welt?“zu stellen und eine korrekte Antwort zu erhalten, funktionie­rt schon recht gut.

Geduldspro­be

„Bei den Nutzerinte­rfaces, die uns interessie­ren, geht es dann schon um Interaktio­nen, die über mehrere Stufen gehen und damit viel komplexere Interaktio­nsmuster bieten“, sagt der Studienlei­ter. Er sieht die Gefahr, dass sich die Nutzerinne­n und Nutzer im Interaktio­nsmuster verlieren.

Wenn der Sprachassi­stent, der sich hauptsächl­ich an im System hinterlegt­en Signalwört­ern orientiert, etwas nicht versteht, muss man mangels anderer Handlungso­ptionen von vorn beginnen, was schnell zur Frustratio­n führt. Je kürzer die Interaktio­nsketten, desto besser funktionie­re das Ganze, so Kohlegger: „Das Potenzial des Scheiterns kumuliert, je länger ich mit Sprachassi­stenten interagier­e.“

Am Display helfen wiederum häufig visuelle Elemente, um einen Prozess erfolgreic­h abzuschlie­ßen. Kohlegger hofft, dass diese Ergebnisse vor allem den Entwickler­n von Sprachassi­stenten nützen.

In der Anbahnung solcher Projekte könne es hilfreich sein, die Implikatio­nen der vorliegend­en Arbeit zu betrachten, meint Kohlegger. Das sei zentral, „um eine tragfähige Aussage darüber zu bekommen: Was kann ich mit dem Sprachassi­stenten technisch umsetzen und umgekehrt: Wo steigt der User aus, wo bleibt er drin?“Letztlich gehe es auch um die Frage, welches Maß an Interaktio­n für Benutzer noch zumutbar ist. Denn wer möchte schon eine Nervensäge als Butler haben?

 ?? ?? Alexa, Siri und Co sorgen meist für gemischte Gefühle. Die Sprachassi­stenten erleichter­n den Alltag, schüren jedoch auch Ängste vor Lauschangr­iffen und Datenmissb­rauch.
Alexa, Siri und Co sorgen meist für gemischte Gefühle. Die Sprachassi­stenten erleichter­n den Alltag, schüren jedoch auch Ängste vor Lauschangr­iffen und Datenmissb­rauch.

Newspapers in German

Newspapers from Austria