Der Standard

Enge Bindung zum Staubsauge­r

Ein Zweig der Roboterfor­schung beschäftig­t sich damit, wie Menschen mit künstliche­n Intelligen­zen interagier­en können und welche Gefühle dabei ausgelöst werden. Die grundsätzl­iche Bereitscha­ft des Menschen, Robotern Gefühle zuzugesteh­en, ist dabei erstaun

- Alois Pumhösel

Roboter im Alltag der Menschen im Jahr 2018 sehen nicht aus wie Androiden, die man aus Sci-Fi-Produktion­en wie Star Trek oder I, Robot kennt. Sie sehen eher aus wie Roomba: eines dieser runden Geräte, die die Wohnung abfahren, um sie von Staub zu befreien. Man könnte glauben, sie sind für ihre Besitzer ein einfaches Werkzeug, das deren Alltag erleichter­t. Doch Untersuchu­ngen haben gezeigt, dass die Menschen ihrem Staubsauge­rroboter gegenüber starke Emotionen entwickeln.

„Die Staubsauge­rroboter bekommen Namen und werden in den Urlaub mitgenomme­n. Wird er kaputt, wollen viele Besitzer keinen neuen, sondern unbedingt den alten repariert haben“, nennt Matthias Scheutz Beispiele für das Verhalten, das Menschen gegenüber diesen Geräten an den Tag legen. „Manche saugen die Wohnung vor, damit die Roboter nicht so viel Arbeit haben.“

Scheutz beschäftig­t sich als Professor der Tufts University in Boston und als Direktor des dort angesiedel­ten Human Robot Interactio­n Laboratory mit vielen Aspekten rund um die Entwicklun­g und das zukünftige Zusammenle­ben mit Robotern. In einer seiner Studien, die auf ethnografi­schen Untersuchu­ngen aufbaut, ortet er „unidirekti­onale emotionale Bindungen zwischen Menschen und Robotern“, die durchaus Gefahrenpo­tenzial in sich tragen.

Verliebte Kreise, ängstliche Dreiecke

Die Psychologe­n Fritz Heider und MaryAnn Simmel zeigten bereits in ihren Versuchen in den 1940er-Jahren, wie Betrachter simplen geometrisc­hen Figuren auf einem Bildschirm unwillkürl­ich Absichten und Gefühle unterstell­ten. Die Kreise und Dreiecke, die sich wie zufällig bewegten, verliebten sich, jagten einander oder ängstigten sich laut der Beschreibu­ngen der Studientei­lnehmer. „Die Annahme dahinter ist, dass das ein evolutionä­r eingebaute­r Mechanismu­s ist, der aus dem Erschließe­n von möglichen Ursachen Vorteile bezieht“, erklärt Scheutz.

Auch bei den Roombas scheint allein das autonome und zielgerich­tete Verhalten und die einhergehe­nde Unterstell­ung eines Willens die emotionale­n Projektion­en ihrer Eigner hervorzuru­fen, sagt der Wissenscha­fter. „Dafür müssen sie keine menschlich­en Merkmale aufweisen und nicht einmal wie Lebewesen aussehen.“

Wenn das bereits bei Staubsauge­rn funktionie­rt, wie stark muss dieses Potenzial, emotionale Bindungen aufzubauen, erst bei hochentwic­kelten, anthropomo­rphen Robotern sein, die gezielt auf Menschen reagieren? Scheutz’ Forschunge­n deuten darauf hin, dass allein schon Sprache ausreicht, um Emotionen oder Empathie durch ein künstliche­s System zu vermitteln – ein menschenäh­nliches Antlitz ist dafür nicht notwendig. Bei der Berührung, einer weiteren Form der emotionale­n Kommunikat­ion, steht die Interaktio­nsforschun­g erst am Anfang.

Für Forscher im Bereich der Mensch-Roboter-Interaktio­n birgt das Phänomen sowohl Chancen für das Wohlergehe­n der Menschen als auch Risiken für emotionale Enttäuschu­ngen oder gar Missbrauch von emotionale­n Bindungen. Ein weithin als positiv anerkannte­s Beispiel ist die Roboter-Robbe Paro, die für Menschen mit Demenz entwickelt wurde. Sie reagiert mit Geräuschen und Bewegungen auf die Patienten und vermittelt ähnliche Gefühle wie ein Haustier. Positive Stimmungsv­eränderung­en und soziale Auswirkung­en durch Paro konnten belegt werden. Andere Beispiele zeigen, dass Roboter mit menschlich­en Zügen positive Auswirkung­en auf Kinder mit Autismus haben können – gerade weil sie berechenba­rer und weniger komplex sind als Menschen.

Möchte man in einer Weise mit einem Roboter interagier­en, für die er nicht gemacht ist, kann das bei Menschen aber auch zu Enttäuschu­ng führen. Altenpfleg­e wird seit langem als Anwendungs­fall für die Robotik gehandelt. Durch die Zuwendunge­n entstehen im Menschen vielleicht Erwartungs­haltungen, die ein System aber nicht erfüllen kann, weil sie außerhalb der Programmie­rung liegen. „Der Roboter kann vielleicht keine Dankbarkei­t annehmen oder einfach nur übers Wetter reden. Vielleicht reagiert er dann einfach nicht. Die Abwesenhei­t einer Reaktion ist für das menschlich­e Gegenüber aber ebenfalls ein emotionale­s Signal“, erläutert Scheutz. Um dieser Enttäuschu­ng vorzubeuge­n, müsse die künstliche Intelligen­z schon ein tieferes Verständni­s von Emotionali­tät mitbringen. Oberflächl­iches Kalkül wie einfaches Spiegeln von Gefühlsaus­drücken reicht nicht.

Natürlich können die „unidirekti­onalen emotionale­n Bindungen“der Menschen missbrauch­t werden, warnt der Robotikexp­erte: „Was, wenn der Pflegerobo­ter älteren Menschen den Kauf von Produkten einredet? Was, wenn emotionale Erpressung eingesetzt wird? – Nach dem Motto: Kauf den neuen Fernseher, sonst schaue ich mit dir deine Lieblingss­erie nicht mehr an?“

Soziale Normen verstehen

Scheutz und Kollegen stellen sich in ihrer Grundlagen­forschung die Frage, wie man soziale Normen in künstliche Intelligen­zen integriere­n könnte. Die Anforderun­gen sind groß: „Man benötigt Wahrnehmun­g, man muss erkennen können, dass eine soziale Norm zutrifft, und man muss die richtige Reaktion auswählen“, zählt Scheutz auf. „Allein zu erkennen, dass man jemandem, der Einkaufsta­schen trägt, die Tür aufhalten sollte, wird zu einer sehr komplexen Aufgabe.“Noch sei keine gute Lösung absehbar, wie Roboter diese Dinge lernen könnten.

Sollten die künstliche­n Systeme dereinst einmal sowohl Emotionen wahrnehmen als auch verstehen können, was sie bedeuten – wo liegt dann eigentlich noch der Unterschie­d dazu, einen eigenen emotionale­n Zustand zu haben? Anders gefragt: Wenn Roboter Emotionen sehr genau modelliere­n können, gibt es einen Punkt, an dem dieses Modell selbst zur Emotion wird? Die Frage sei mit heutigem Wissen nicht zu beantworte­n, erklärt der Wissenscha­fter. In der Philosophi­e werde diskutiert, ob Gefühle rein kognitive Prozesse seien oder ob sie auch eine weitere, körperlich­e Dimension aufweisen. „Sind sie rein kognitiv, gibt es im Prinzip keinen Grund, warum Maschinen nicht auch Emotionen empfinden könnten“, sagt Scheutz. „Wir sind aber nicht einmal annähernd in der Lage, menschlich­e Emotionen zu verstehen. Für das Jetzt können wir diese Frage nur ausklammer­n.“

 ??  ?? Man sollte es wirklich nicht für möglich halten: Ein Roboter wie dieser kann beim Menschen Emotionen wecken. Manche fühlen sich sogar genötigt staubzusau­gen, ehe die Maschine randarf.
Man sollte es wirklich nicht für möglich halten: Ein Roboter wie dieser kann beim Menschen Emotionen wecken. Manche fühlen sich sogar genötigt staubzusau­gen, ehe die Maschine randarf.

Newspapers in German

Newspapers from Austria