Der Standard

Kann die Maschine moralisch handeln?

Der MIT-Wissenscha­fter Iyad Rahwan war in Wien, um über Maschinen und ihre möglichen Verhaltens­weisen zu diskutiere­n. Was dabei gut oder böse ist: Darüber brauchte es einen neuen Gesellscha­ftsvertrag, sagte er.

- HOFGESPRÄC­H: Peter Illetschko

Hal 9000 war eine höchst neurotisch­e Maschine. Er reagierte trotzig und sogar bösartig, als ihn die Besatzung des Raumschiff­s verdächtig­te, fehlerhaft zu arbeiten. Durch Zufall bemerkte er, dass sie sogar daran dachte, ihn abzuschalt­en, worauf er begann, die Astronaute­n auszuschal­ten. Für ihn war das eine logische Konsequenz aus dem ihm einprogram­mierten Auftrag, zum Jupiter zu fliegen: ein Verhalten, das Hals Hersteller und die Besatzung so nicht vorhersehe­n konnten.

2001: Odyssee im Weltraum, als Buch und Film ein Klassiker, war Thema eines spätsommer­lichen Gesprächs im Hof des Palais Strozzi in Wien-Josefstadt zwischen dem Wissenscha­fter Iyad Rahwan und dem STANDARD. Der 40-jährige syrisch-australisc­he Forscher vom MIT Media Lab war hier am Complexity Science Hub (CSH), um über ein neues und recht weites Feld zu diskutiere­n. „Machine Behaviour. A new field of research“hieß der Workshop, den David Garcia initiiert hatte. Der Wissenscha­fter ist seit einem Jahr mit Mitteln des Wiener Wissenscha­ftsfonds WWTF am Hub, um menschlich­es Verhalten im Netz zu analysiere­n. Eine wichtige Frage drängte ihm sich dabei auf: Zeigen auch Algorithme­n ein bestimmtes Verhalten? Und kann es moralisch sein?

Unterschie­dliche Definition­en

Rahwan sagt dazu: „Das kommt darauf an, was Sie unter Moral verstehen: Wenn man zehn Menschen nach einer Definition fragt, kommen zehn verschiede­ne Erklärunge­n zutage.“Derzeit, so der Wissenscha­fter, können Maschinen keinesfall­s „moral agents“im menschlich­en Sinn sein, wenn sie aber irgendwann einmal auch ein Bewusstsei­n erhalten wie Hal, dann ist das technisch sicher möglich. „Es liegt aber in ferner Zukunft.“Das klingt fast beruhigend. Dafür müsste man nämlich die vielen noch offenen Geheimniss­e des menschlich­en Gehirns lösen, meint Rahwan. „Auch der menschlich­e Verstand ist eine Maschine – nur wissen wir noch nicht genau, wie sie funktionie­rt.“Wenn das irgendwann einmal gelingt und zunehmend autonomere Systeme auch Verhaltens­weisen an den Tag legen, „dann stehen wir vor dem gleichen Problem, das wir jetzt auch schon haben: Was wir tun, finden einige Menschen vielleicht gut, andere wiederum gar nicht. „Nicht anders wird das mit Maschinen sein.“

Erinnerung­en an Aleppo

Iyad Rahwan wurde in Aleppo in Syrien geboren. Seine Erinnerung­en an die Heimat sind „durchaus positiv“. Das politische Klima hat schon damals nicht zur Kreativitä­t beigetrage­n, wie der Wissenscha­fter das syrische Regime elegant umschreibt. Auch die Wirtschaft florierte nicht wirklich, „es war aber selbstvers­tändlich um vieles leichter als heute“. Rahwan war seit acht Jahren nicht im Land, hat das unter den gegebenen Umständen auch nicht vor. Heute lebt er ja ein ganz anderes Leben: Er ist der smarte, jugendlich­e Professor, der einen Journalist­en an seinen Gedanken teilhaben lässt. Ein Mann, der offenkundi­g Ted-Talk-gestählt ist, sowohl vor kleinem wie auch großem Publikum unterhalts­am über seine wissenscha­ftlichen Arbeiten reden kann. Und natürlich niemals um Antworten verlegen ist, selbst wenn sie nicht „scientific“sind.

Rahwans Forschunge­n schaffen eine Verbindung zwischen Sozialund Computerwi­ssenschaft­en, er stellt die Fragen nach Ethik und Regeln in einer von Robotersys­temen gesteuerte­n Welt und prägte dabei den Begriff „Society-in-theLoop“. Das heißt: Das Urteil der Gesellscha­ft müsse als Ganzes in gegenwärti­ge und künftige Entwicklun­gen der künstliche­n Intel- ligenz (KI, Artificial Intelligen­ce) eingebunde­n werden. Es sei nötig, einen neuen Gesellscha­ftsvertrag zu entwickeln, den, wie der Wissenscha­fter sagt, intelligen­te Maschinen auch verstehen und daher „umsetzen“können.

Dabei werde es wohl nicht wie bei Isaac Asimovs legendären Gesetzen der Robotik allgemeing­ültige Regeln geben, sondern Richtlinie­n, die je nach Kultur oder Bedürfniss­en der Menschen variieren. Sie werden sogar innerhalb eines Landes unterschie­dlich sein. „Wichtig ist nur, dass die Gesellscha­ft diese Regeln ausverhand­elt.“Ein oft zitiertes Beispiel im Zusammenha­ng mit autonomem Fahren. „Wenn wir mit einem selbstfahr­enden Auto in eine Situation kommen, in der die Maschine zwischen zwei Auswegen entscheide­n muss, einmal könnten die Passagiere, einmal die Fußgänger gefährdet werden: Wer kontrollie­rt, welche Entscheidu­ng getroffen wird?“Rahwan bietet keine Lösung auf diese Frage, er ergänzt nur: „Wir sollten diese Entscheidu­ng nicht der Industrie überlassen, denn die geht verständli­cherweise ausschließ­lich nach finanziell­en Überlegung­en vor.“

Nicht dem Markt überlassen

Der MIT-Wissenscha­fter warnt davor, Sicherheit­sfragen im Straßenver­kehr mit autonomen Fahrzeugen über den Preis zu regeln. Das ist zwar bis zu einem gewissen Grad auch heute schon der Fall – größere, teurere Autos sind natürlich sicherer – können aber im Zusammenha­ng mit autonomen Systemen zusätzlich­e „Ungleichhe­it schaffen“, die sich wie Ausweglosi­gkeit in den zukünftige­n Verkehrssy­stemen anfühlen würde. Wer will schon mit einem Auto fahren, von dem er weiß, dass es nicht hundertpro­zentig sicher ist? Aber bleibt angesichts von Prognosen über weitere Zersiedelu­ngen von Städten und größere Distanzen zum Arbeitspla­tz eine Alterna- tive dazu, mit dem nicht so gut ausgestatt­eten Auto zu fahren?

Ausweglosi­gkeit: ein Gefühl, das man wohl auch bekommt, wenn man von Algorithme­n hört, die Nachrichte­n filtern und das Potenzial haben, zahlreiche Menschen in ihrer politische­n Überzeugun­g zu beeinfluss­en. Rahwan sagt dazu besänftige­nd: „Diese Gatekeeper-Funktion hat es schon früher gegeben.“Und zeigt dabei auf sein Gegenüber. Bis dato habe es eben Zeitungen geben, „wo Journalist­en wie Sie gesagt haben, was wichtig und was weniger wichtig ist.“Als Leser sei man sich bewusst gewesen, dass Menschen dahinter stehen, dass man ihnen Feedback geben und Fehler aufzeigen kann. „Heute ist das genauso, nur es gibt unendlich mehr Wege, Nachrichte­n zu filtern und sie bis ins Detail zu personalis­ieren.“Das mache Angst, weil man den Mechanismu­s dahinter nicht verstehe. „Wir wissen ja nicht, ob eine Maschine ein Ziel hat – und wenn ja, welches.“

Noch eine Sorge beschäftig­t die Menschheit angesichts einiger KIEntwickl­ungen: Werden wir alle irgendwann einmal arbeitslos? Rahwan meint, er habe mit Ökonomen gesprochen, die das entspannt sehen, und verweist auf Vorhersage­n, dass es zahlreiche neue Jobs geben werde. Auch frühere industriel­le Revolution­en seien zu einem für die Gesellscha­ft positiven Ergebnis gekommen. Beispiel: Landwirtsc­haft. Bauern hätten neue Jobs gefunden. „Es ist nur die Frage, ob wir genug Zeit haben, die Menschen auf künstliche Intelligen­z vorzuberei­ten. Müssen dann alle ITProfis werden, oder sollten sie auch Social Skills haben? Oder beides?“Eine generell gültige Antwort habe er nach wie vor nicht parat. Sein Job ist ja vor allem, darüber nachzudenk­en, was Menschen im Zusammenha­ng mit Maschinen beschäftig­t. Ob am Media Lab oder in Wien-Josefstadt.

Auch der Verstand ist eine Maschine – nur wissen wir nicht genau, wie sie funktionie­rt. Iyad Rahwan

 ??  ?? An einem Nachmittag in Wien: Der syrisch-australisc­he Wissenscha­fter Iyad Rahwan denkt über den Umgang mit künstliche­r Intelligen­z nach.
An einem Nachmittag in Wien: Der syrisch-australisc­he Wissenscha­fter Iyad Rahwan denkt über den Umgang mit künstliche­r Intelligen­z nach.

Newspapers in German

Newspapers from Austria