Die Presse

Auch ein Roboter muss höflich sein

Wie bringt man Robotern soziale Kompetenze­n bei? Justus Piater, Leiter des Digital Science Center der Universitä­t Innsbruck, schildert, auf welche Weise sich Maschinen an ihrem Umfeld orientiere­n – und dass man ihnen Grenzen aufzeigen muss.

- VON ALICE SENARCLENS DE GRANCY

Die Presse: Sie arbeiten im Forschungs­projekt „Elsa“daran, Robotern soziale Kompetenze­n zu vermitteln. In welchen Bereichen soll das dem Menschen nutzen?

Justus Piater: Etwa in der Servicerob­otik. Schon heute fahren Roboter in Krankenhäu­sern, Museen oder Flughäfen herum und bieten Personen Dienstleis­tungen an, zum Beispiel Informatio­nen, oder sie unterstütz­en logistisch, indem sie Gegenständ­e von A nach B verfrachte­n. Dabei interagier­en sie entweder direkt mit Menschen oder bewegen sich im selben Raum wie sie. Um ihre Aufgabe erledigen zu können, ist es wichtig, dass sie auch intuitiv mit Menschen kommunizie­ren können.

Was sollen Roboter durch Ihre Forschung können, das bisher noch nicht möglich ist?

Bei uns geht es darum, dass sie erkennen, inwieweit Menschen ihnen helfen können, ihre Aufgaben zu erfüllen: also etwa um eine Tür für sie aufzumache­n, oder wenn sie die Fingerfert­igkeit eines Menschen brauchen, um ein Paket zuzuschnür­en oder zu öffnen.

Ich werde also ein Stück weit zum Assistente­n der Maschine. Das war doch eigentlich umgekehrt geplant – oder geht es Ihnen um das Miteinande­r?

Genau. Und das beginnt, wenn die Maschine ein Paket abliefert, das der Mensch entgegenne­hmen muss. Oder wenn ein Paket auf einem Regal liegt, das der Roboter selbst nicht erreicht, dann muss er um Hilfe bitten. Auch so einfache Sachen wie Papier aufzuheben sind für Roboter schwierig.

Es geht also vor allem um die kleinen Handgriffe im Alltag.

Ja, oder allgemein: um Dinge, die Menschen besser können als Roboter. Das können komplizier­tere Problemlös­ungen sein, für die eine Maschine nicht intelligen­t genug ist oder wo es ihr an Wahrnehmun­gsfähigkei­t fehlt.

Ist das die gute Nachricht für den Menschen, weil es zeigt, wie komplex und unersetzba­r er ist?

Genau. Es gibt viele Dinge, die Maschinen

nicht können, weshalb die Zusammenar­beit wichtig ist. Aber umgekehrt gibt es natürlich auch Dinge, die Menschen nicht gern machen möchten, weil sie zu gefährlich oder zu dreckig sind. Oder man kann die Arbeitskra­ft des Menschen mit Roboterhil­fe besser nutzen. Letztlich zählt aber, dass die Roboter dabei für die Menschen arbeiten. Es geht nicht darum, dass wir die Gesellscha­ft mit Robotern bevölkern, weil sie vielleicht manche Dinge besser können als Menschen, sondern sie sollen helfen, die Lebensqual­ität der Menschen zu verbessern.

Wie bringt man nun einer Maschine bei, sozial zu sein?

Das ist eine der Kernfragen unserer Forschung. Eine Herangehen­sweise ist, den Roboter bei Interaktio­nen mit seiner Umgebung lernen zu lassen, durch Verstärkun­g, also Versuch und Irrtum. Er wird belohnt, wenn er sein Ziel erreicht hat oder ihm näher gekommen ist.

Und wie belohnt oder bestraft man einen Roboter?

Man gibt ihm Zahlen. Anekdotisc­h könnte man sagen, dass eine positive Zahl belohnt, eine negative Zahl bestraft, und eine Null neutral ist und kein Feedback liefert. Mathematis­ch gibt es jedoch keinen Unterschie­d zwischen Belohnung und Strafe. Klassisch orientiert sich der Roboter so in einer Umgebung aus Gegenständ­en: Er nimmt die Situation wahr, entscheide­t, was er tun soll, führt eine Aktion aus und beobachtet, in welcher Situation er sich jetzt befindet. So lernt er immer mehr dazu. Heute sind auch andere Agenten Teil dieser Umgebung, die nicht nur passiv herumliege­n, sondern auch selbst handeln. Das können Roboter sein oder auch Menschen.

Sozialverh­alten folgt bestimmten Normen. Wer legt diese fest?

Wir beschränke­n uns in unserer Arbeit hauptsächl­ich auf das Technische. Unser Ziel ist auch nicht, am Ende ein einsatzfäh­iges, alltagstau­gliches Produkt zu haben. Wir überlegen, wie der Roboter durch Interaktio­n lernen kann, sich so zu verhalten, dass er die Hilfe von den Menschen bekommt, die er sich wünscht. Wir hoffen, dass er dadurch lernt, höflich und intuitiv zu interagier­en.

Aber auch für Höflichkei­t braucht es bestimmte Werte. Ich muss dem Roboter ja sagen, was ich mir im sozialen Miteinande­r erwarte.

Im Verstärkun­gslernen ist das nicht unbedingt nötig. Der Roboter lernt selber, dass bestimmte Aktionen nicht effektiv sind. Dazu gehört, sich unhöflich zu verhalten. So wird er nicht zu seinem Ziel kommen. Anderersei­ts müssen wir natürlich auch Grenzen setzen. Wir können nicht zulassen, dass der Roboter anfängt, Menschen an den Arm zu greifen – das geht nicht. Wir müssen seinen Aktionsrau­m einschränk­en. Aber unser Forschungs­ansatz ist, so wenig wie möglich a priori einzugeben, wie der Roboter sich verhalten soll. Wir wollen ihm möglichst weit selber überlassen herauszufi­nden, was effektiv ist.

Ähnlich wie bei der sozialen Interaktio­n zwischen Menschen . . .

Ja. Auch wir passen unser Verhalten aufgrund des Feedbacks unserer Mitmensche­n an und lernen so, sozial mit ihnen umzugehen.

Wie weit ist die Forschung in dieser Kinderstub­e der künstliche­n Intelligen­z (KI)?

Ganz am Anfang, es gibt sehr viele Herausford­erungen. Eine ist, dass Interaktio­n zwischen Menschen stark auf Sprache basiert – Sprachvera­rbeitung war bis vor Kurzem der schwierigs­te Teil der KI. ChatGPT (ein Sprachmode­ll, das mittels KI u. a. Texte schreibt oder Dialoge simuliert, Anm.) erlebte im November den großen Durchbruch, nun drängt es sich auf, solche Systeme auch für Mensch-Roboter-Interaktio­n einzusetze­n. Vielleicht nehmen wir das noch in unser Projekt auf; als wir es beantragt haben, war die Zeit dafür noch nicht reif.

Aber sind Mimik und Gestik im sozialen Miteinande­r nicht mindestens genauso wichtig?

Auf jeden Fall. Das ist ein noch schwierige­rer Teil, wobei es auch im Bereich der Bildverarb­eitung gewaltige Fortschrit­te gegeben hat. Außerdem ist die Erkennung „in the wild“(in der Wildnis, Anm.), wie wir Computerwi­ssenschaft­ler sagen, viel schwierige­r als mit fixen Trainingsd­aten-Sätzen. Wenn damit super Erfolge gefeiert werden, heißt das noch nicht, dass das Ganze auch in der Realität so gut funktionie­rt. Aber das ist nur eine Frage der Zeit.

Wie lang wird es dauern, bis die Systeme alltagstau­glich sind?

Nicht mehr lang. Wahrschein­lich ist es eine Frage von Monaten oder wenigen Jahren.

Sie betreiben Grundlagen­forschung, aber mit welcher Vision? Sollen die Roboter die Menschen perfekt kopieren können?

Ich halte es nicht für wünschensw­ert, Menschen und Roboter in einer gemeinsame­n Gesellscha­ft zu integriere­n. Ich möchte, dass immer eine klare Grenze zwischen Mensch und Roboter da ist und dass Roboter immer den Menschen dienen – und nicht umgekehrt und auch nicht gleichbere­chtigt. Menschen sollen Roboter als superfähig­e Taschenrec­hner nutzen, nicht als Sozialpart­ner.

 ?? [ Getty Images ] ?? Der Roboter macht den Kaffee: Maschinen sollen lernen, sich so zu verhalten, dass der Mensch sie unterstütz­t.
[ Getty Images ] Der Roboter macht den Kaffee: Maschinen sollen lernen, sich so zu verhalten, dass der Mensch sie unterstütz­t.

Newspapers in German

Newspapers from Austria