Auch ein Roboter muss höflich sein
Wie bringt man Robotern soziale Kompetenzen bei? Justus Piater, Leiter des Digital Science Center der Universität Innsbruck, schildert, auf welche Weise sich Maschinen an ihrem Umfeld orientieren – und dass man ihnen Grenzen aufzeigen muss.
Die Presse: Sie arbeiten im Forschungsprojekt „Elsa“daran, Robotern soziale Kompetenzen zu vermitteln. In welchen Bereichen soll das dem Menschen nutzen?
Justus Piater: Etwa in der Servicerobotik. Schon heute fahren Roboter in Krankenhäusern, Museen oder Flughäfen herum und bieten Personen Dienstleistungen an, zum Beispiel Informationen, oder sie unterstützen logistisch, indem sie Gegenstände von A nach B verfrachten. Dabei interagieren sie entweder direkt mit Menschen oder bewegen sich im selben Raum wie sie. Um ihre Aufgabe erledigen zu können, ist es wichtig, dass sie auch intuitiv mit Menschen kommunizieren können.
Was sollen Roboter durch Ihre Forschung können, das bisher noch nicht möglich ist?
Bei uns geht es darum, dass sie erkennen, inwieweit Menschen ihnen helfen können, ihre Aufgaben zu erfüllen: also etwa um eine Tür für sie aufzumachen, oder wenn sie die Fingerfertigkeit eines Menschen brauchen, um ein Paket zuzuschnüren oder zu öffnen.
Ich werde also ein Stück weit zum Assistenten der Maschine. Das war doch eigentlich umgekehrt geplant – oder geht es Ihnen um das Miteinander?
Genau. Und das beginnt, wenn die Maschine ein Paket abliefert, das der Mensch entgegennehmen muss. Oder wenn ein Paket auf einem Regal liegt, das der Roboter selbst nicht erreicht, dann muss er um Hilfe bitten. Auch so einfache Sachen wie Papier aufzuheben sind für Roboter schwierig.
Es geht also vor allem um die kleinen Handgriffe im Alltag.
Ja, oder allgemein: um Dinge, die Menschen besser können als Roboter. Das können kompliziertere Problemlösungen sein, für die eine Maschine nicht intelligent genug ist oder wo es ihr an Wahrnehmungsfähigkeit fehlt.
Ist das die gute Nachricht für den Menschen, weil es zeigt, wie komplex und unersetzbar er ist?
Genau. Es gibt viele Dinge, die Maschinen
nicht können, weshalb die Zusammenarbeit wichtig ist. Aber umgekehrt gibt es natürlich auch Dinge, die Menschen nicht gern machen möchten, weil sie zu gefährlich oder zu dreckig sind. Oder man kann die Arbeitskraft des Menschen mit Roboterhilfe besser nutzen. Letztlich zählt aber, dass die Roboter dabei für die Menschen arbeiten. Es geht nicht darum, dass wir die Gesellschaft mit Robotern bevölkern, weil sie vielleicht manche Dinge besser können als Menschen, sondern sie sollen helfen, die Lebensqualität der Menschen zu verbessern.
Wie bringt man nun einer Maschine bei, sozial zu sein?
Das ist eine der Kernfragen unserer Forschung. Eine Herangehensweise ist, den Roboter bei Interaktionen mit seiner Umgebung lernen zu lassen, durch Verstärkung, also Versuch und Irrtum. Er wird belohnt, wenn er sein Ziel erreicht hat oder ihm näher gekommen ist.
Und wie belohnt oder bestraft man einen Roboter?
Man gibt ihm Zahlen. Anekdotisch könnte man sagen, dass eine positive Zahl belohnt, eine negative Zahl bestraft, und eine Null neutral ist und kein Feedback liefert. Mathematisch gibt es jedoch keinen Unterschied zwischen Belohnung und Strafe. Klassisch orientiert sich der Roboter so in einer Umgebung aus Gegenständen: Er nimmt die Situation wahr, entscheidet, was er tun soll, führt eine Aktion aus und beobachtet, in welcher Situation er sich jetzt befindet. So lernt er immer mehr dazu. Heute sind auch andere Agenten Teil dieser Umgebung, die nicht nur passiv herumliegen, sondern auch selbst handeln. Das können Roboter sein oder auch Menschen.
Sozialverhalten folgt bestimmten Normen. Wer legt diese fest?
Wir beschränken uns in unserer Arbeit hauptsächlich auf das Technische. Unser Ziel ist auch nicht, am Ende ein einsatzfähiges, alltagstaugliches Produkt zu haben. Wir überlegen, wie der Roboter durch Interaktion lernen kann, sich so zu verhalten, dass er die Hilfe von den Menschen bekommt, die er sich wünscht. Wir hoffen, dass er dadurch lernt, höflich und intuitiv zu interagieren.
Aber auch für Höflichkeit braucht es bestimmte Werte. Ich muss dem Roboter ja sagen, was ich mir im sozialen Miteinander erwarte.
Im Verstärkungslernen ist das nicht unbedingt nötig. Der Roboter lernt selber, dass bestimmte Aktionen nicht effektiv sind. Dazu gehört, sich unhöflich zu verhalten. So wird er nicht zu seinem Ziel kommen. Andererseits müssen wir natürlich auch Grenzen setzen. Wir können nicht zulassen, dass der Roboter anfängt, Menschen an den Arm zu greifen – das geht nicht. Wir müssen seinen Aktionsraum einschränken. Aber unser Forschungsansatz ist, so wenig wie möglich a priori einzugeben, wie der Roboter sich verhalten soll. Wir wollen ihm möglichst weit selber überlassen herauszufinden, was effektiv ist.
Ähnlich wie bei der sozialen Interaktion zwischen Menschen . . .
Ja. Auch wir passen unser Verhalten aufgrund des Feedbacks unserer Mitmenschen an und lernen so, sozial mit ihnen umzugehen.
Wie weit ist die Forschung in dieser Kinderstube der künstlichen Intelligenz (KI)?
Ganz am Anfang, es gibt sehr viele Herausforderungen. Eine ist, dass Interaktion zwischen Menschen stark auf Sprache basiert – Sprachverarbeitung war bis vor Kurzem der schwierigste Teil der KI. ChatGPT (ein Sprachmodell, das mittels KI u. a. Texte schreibt oder Dialoge simuliert, Anm.) erlebte im November den großen Durchbruch, nun drängt es sich auf, solche Systeme auch für Mensch-Roboter-Interaktion einzusetzen. Vielleicht nehmen wir das noch in unser Projekt auf; als wir es beantragt haben, war die Zeit dafür noch nicht reif.
Aber sind Mimik und Gestik im sozialen Miteinander nicht mindestens genauso wichtig?
Auf jeden Fall. Das ist ein noch schwierigerer Teil, wobei es auch im Bereich der Bildverarbeitung gewaltige Fortschritte gegeben hat. Außerdem ist die Erkennung „in the wild“(in der Wildnis, Anm.), wie wir Computerwissenschaftler sagen, viel schwieriger als mit fixen Trainingsdaten-Sätzen. Wenn damit super Erfolge gefeiert werden, heißt das noch nicht, dass das Ganze auch in der Realität so gut funktioniert. Aber das ist nur eine Frage der Zeit.
Wie lang wird es dauern, bis die Systeme alltagstauglich sind?
Nicht mehr lang. Wahrscheinlich ist es eine Frage von Monaten oder wenigen Jahren.
Sie betreiben Grundlagenforschung, aber mit welcher Vision? Sollen die Roboter die Menschen perfekt kopieren können?
Ich halte es nicht für wünschenswert, Menschen und Roboter in einer gemeinsamen Gesellschaft zu integrieren. Ich möchte, dass immer eine klare Grenze zwischen Mensch und Roboter da ist und dass Roboter immer den Menschen dienen – und nicht umgekehrt und auch nicht gleichberechtigt. Menschen sollen Roboter als superfähige Taschenrechner nutzen, nicht als Sozialpartner.