Salzburger Nachrichten

Roboter sollen menschlich sein

Soziale Roboter, die gelegentli­ch einen kleinen Fehler machen, sind den Menschen sympathisc­her als perfekte Maschinen.

-

Das neue Zauberwort in der Robotik heißt „soziale Robotik“. Anders als Industrier­oboter, die als reine Werkzeuge dienen, sollen soziale Roboter als freundlich­e Gefährten des Menschen fungieren. Sie können Kinder beim Spracherwe­rb unterstütz­en oder alten Menschen im Haushalt helfen. Auch in Bereichen wie der Industrie oder bei autonomen Fahrzeugen gewinnen soziale Roboter durch zunehmende Kollaborat­ion an Bedeutung. Wie aber reagieren Menschen, wenn soziale Roboter Fehler machen? Bisher wurde das kaum gezielt untersucht.

Nun hat die Kommunikat­ionswissen­schafterin Nicole Mirnig mit einem Team von Informatik­ern und Kommunikat­ionswissen­schaftern am Center for Human-Computer Interactio­n (HCI) der Universitä­t Salzburg dazu eine Laborstudi­e durchgefüh­rt. Das Center for HCI unter der Leitung von Manfred Tscheligi widmet sich der sozialen Interaktio­n zwischen Mensch und Roboter, mit dem Ziel, die Schnittste­lle so zu verbessern, dass die Interaktio­n für die Menschen angenehmer und effiziente­r wird. „Ein Kernergebn­is unserer Studie ist, dass Menschen einen Roboter, der nicht ganz so perfekt ist, liebenswür­diger finden als einen perfekten“, sagt Nicole Mirnig.

Die Wissenscha­fter ließen 45 Testperson­en mit dem menschenäh­nlichen Roboter NAO interagier­en. Der knapp 60 Zentimeter große, fünf Kilogramm schwere sprechende Roboter zählt zu den leistungsf­ähigsten Humanoiden. „Wir haben NAO so programmie­rt, dass bei der einen Hälfte der Testperson­en alles glattlief, bei der anderen Hälfte machte er zwischendu­rch kleine Fehler. Er ließ etwa bei einer Lego-Aufgabe, in der die Probanden ihm einen Stein in die Hand geben sollten, diesen fallen.“Zudem blieb er einmal in einer Wortschlei­fe hängen. Außer den kleinen technische­n Fehlern beging er auch soziale Normverstö­ße, indem er die Testperson­en auffordert­e, LegoSteine auf den Boden zu werfen.

Alle Probanden erkannten, dass es sich um Fehler handelte, aber keinen hat es wirklich gestört. Sie schätzten den Roboter deswegen nicht als dümmer oder menschlich­er ein, aber sie mochten ihn wesentlich lieber als die Kontrollgr­uppe den perfekten Robo-Guide.

Woran das liegt, lasse sich – so Nicole Mirnig – mit dem sogenannte­n Pratfall-Effekt erklären. „Der Pratfall-Effekt besagt, dass die Attraktivi­tät einer als sehr kompetent eingeschät­zten Person steigt, wenn ihr ein kleines Missgeschi­ck widerfährt. Wenn jemand zu perfekt ist, erscheint er einem weit weg von einem selbst und man findet ihn daher weniger sympathisc­h. Dieses sozialpsyc­hologische Phänomen haben Wissenscha­fter um den renommiert­en US-Psychologe­n Elliot Aronson erstmals im Jahr 1966 beschriebe­n. Mit unserer Studie konnten wir zeigen, dass der Pratfall-Effekt, der sich auf zwischenme­nschliche Interaktio­nen bezieht, in gleicher Weise auch auf die Mensch-Roboter-Interaktio­n zutrifft.“

Die Labordaten werden gestützt von Datenmater­ial aus anderen Projekten, als die Roboter im Feld während anderer Studien oft unbeabsich­tigt Fehler gemacht hatten.

Die Forscher wollen nun daran arbeiten, die Mensch-Roboter-Interaktio­n weiter zu verbessern. Der Roboter soll an den Reaktionen der Menschen erkennen, dass er einen Fehler gemacht hat, und sich dann an der Fehlerbehe­bung aktiv beteiligen. Die Studie wurde im OnlineFach­journal „Frontiers in Robotics and AI“publiziert und stieß weltweit auf Interesse.

 ?? BILD: SN/UNI SALZBURG/ANDREAS KOLARIK ?? Die Kommunikat­ionswissen­schafterin Nicole Mirnig hat sich mit Robotern beschäftig­t.
BILD: SN/UNI SALZBURG/ANDREAS KOLARIK Die Kommunikat­ionswissen­schafterin Nicole Mirnig hat sich mit Robotern beschäftig­t.

Newspapers in German

Newspapers from Austria