Roboter sollen menschlich sein
Soziale Roboter, die gelegentlich einen kleinen Fehler machen, sind den Menschen sympathischer als perfekte Maschinen.
Das neue Zauberwort in der Robotik heißt „soziale Robotik“. Anders als Industrieroboter, die als reine Werkzeuge dienen, sollen soziale Roboter als freundliche Gefährten des Menschen fungieren. Sie können Kinder beim Spracherwerb unterstützen oder alten Menschen im Haushalt helfen. Auch in Bereichen wie der Industrie oder bei autonomen Fahrzeugen gewinnen soziale Roboter durch zunehmende Kollaboration an Bedeutung. Wie aber reagieren Menschen, wenn soziale Roboter Fehler machen? Bisher wurde das kaum gezielt untersucht.
Nun hat die Kommunikationswissenschafterin Nicole Mirnig mit einem Team von Informatikern und Kommunikationswissenschaftern am Center for Human-Computer Interaction (HCI) der Universität Salzburg dazu eine Laborstudie durchgeführt. Das Center for HCI unter der Leitung von Manfred Tscheligi widmet sich der sozialen Interaktion zwischen Mensch und Roboter, mit dem Ziel, die Schnittstelle so zu verbessern, dass die Interaktion für die Menschen angenehmer und effizienter wird. „Ein Kernergebnis unserer Studie ist, dass Menschen einen Roboter, der nicht ganz so perfekt ist, liebenswürdiger finden als einen perfekten“, sagt Nicole Mirnig.
Die Wissenschafter ließen 45 Testpersonen mit dem menschenähnlichen Roboter NAO interagieren. Der knapp 60 Zentimeter große, fünf Kilogramm schwere sprechende Roboter zählt zu den leistungsfähigsten Humanoiden. „Wir haben NAO so programmiert, dass bei der einen Hälfte der Testpersonen alles glattlief, bei der anderen Hälfte machte er zwischendurch kleine Fehler. Er ließ etwa bei einer Lego-Aufgabe, in der die Probanden ihm einen Stein in die Hand geben sollten, diesen fallen.“Zudem blieb er einmal in einer Wortschleife hängen. Außer den kleinen technischen Fehlern beging er auch soziale Normverstöße, indem er die Testpersonen aufforderte, LegoSteine auf den Boden zu werfen.
Alle Probanden erkannten, dass es sich um Fehler handelte, aber keinen hat es wirklich gestört. Sie schätzten den Roboter deswegen nicht als dümmer oder menschlicher ein, aber sie mochten ihn wesentlich lieber als die Kontrollgruppe den perfekten Robo-Guide.
Woran das liegt, lasse sich – so Nicole Mirnig – mit dem sogenannten Pratfall-Effekt erklären. „Der Pratfall-Effekt besagt, dass die Attraktivität einer als sehr kompetent eingeschätzten Person steigt, wenn ihr ein kleines Missgeschick widerfährt. Wenn jemand zu perfekt ist, erscheint er einem weit weg von einem selbst und man findet ihn daher weniger sympathisch. Dieses sozialpsychologische Phänomen haben Wissenschafter um den renommierten US-Psychologen Elliot Aronson erstmals im Jahr 1966 beschrieben. Mit unserer Studie konnten wir zeigen, dass der Pratfall-Effekt, der sich auf zwischenmenschliche Interaktionen bezieht, in gleicher Weise auch auf die Mensch-Roboter-Interaktion zutrifft.“
Die Labordaten werden gestützt von Datenmaterial aus anderen Projekten, als die Roboter im Feld während anderer Studien oft unbeabsichtigt Fehler gemacht hatten.
Die Forscher wollen nun daran arbeiten, die Mensch-Roboter-Interaktion weiter zu verbessern. Der Roboter soll an den Reaktionen der Menschen erkennen, dass er einen Fehler gemacht hat, und sich dann an der Fehlerbehebung aktiv beteiligen. Die Studie wurde im OnlineFachjournal „Frontiers in Robotics and AI“publiziert und stieß weltweit auf Interesse.