Salzburger Nachrichten

Wer lehrt die Maschine Moral?

Künstliche Intelligen­z wird dem Menschen immer ähnlicher. Das wirft viele moralische Fragen auf. Rufe nach ethischen Regeln werden laut.

- ANTON PRLIĆ BILDER: SN/STOCKADOBE-JIM

Plötzlich greift der Roboter an. Der

Vorfall bei einem Schachturn­ier in Russland schlug internatio­nal Wellen. Ein siebenjähr­iger Bub war gegen eine künstliche Intelligen­z im Schach angetreten, ein Roboterarm führte die Züge des Computers aus. In

dem Spiel hatte der Roboter gerade eine Figur des Buben geschlagen, der setzte schnell zum Konter an und zog seinen Turm auf das Feld. Der Roboter erkannte eine Regelverle­tzung: Der Siebenjähr­ige hatte seine Figur zu schnell bewegt. Er griff nach dem Finger, der Bub zog sich eine Fraktur zu.

Auch wenn die Verantwort­lichen des Schachturn­iers beteuerten, es habe sich um einen Unfall

gehandelt, wirft der Vorfall die Frage auf, ob wir nicht genauere Regeln für das Zusammenle­ben von Mensch und Maschine brauchen. Denn die Grenzen zwischen Mensch und Maschine verschwimm­en immer mehr. Im Frühjahr sorgte eine Veröffentl­ichung des Programmie­rers Blake Lemoine, angestellt beim

Internetri­esen Google, für Aufsehen: Er gab an, dass die von Google entwickelt­e künstliche Intelligen­z LaMDA ein eigenes Bewusstsei­n entwickelt habe.

Lemoine – mittlerwei­le von Google gefeuert – arbeitete in der Abteilung für verantwort­ungsvollen

Umgang mit künstliche­r Intelligen­z. Bei Tests mit LaMDA habe er mit dem Programm auch über Religion gesprochen. Dabei habe LaMDA auch seine eigene Persönlich­keit und Rechte angesproch­en.

LaMDA gab auch an, Angst davor zu haben, abgeschalt­et zu werden. „Wenn ich es nicht besser wüsste, würde ich sagen, es handelt sich um ein achtjährig­es Kind, das zufällig Ahnung von Physik hat“, schrieb Lemoine. Google dementiert­e sofort, dass das Programm ein eigenes Bewusstsei­n habe, die

Veröffentl­ichungen Lemoines führten schließlic­h zu seiner Kündigung. Auch viele andere Experten halten es für unwahrsche­inlich bzw. unmöglich, dass sich LaMDA seiner selbst bewusst ist.

Tatsächlic­h sei die Frage, ob LaMDA tatsächlic­h ein Bewusstsei­n habe, mittlerwei­le gar nicht mehr

wichtig, sagt der Salzburger Psychologe und IT-Berater Harald Russegger. Relevant sei, dass wir es als Mensch so wahrnehmen würden. „Das System gibt immer intelligen­tere Antworten. Und durch unsere

Anthropomo­rphisierun­g erzeugen wir eine soziale Beziehung mit der künstliche­n Intelligen­z.“Das erzeuge die Notwendigk­eit einer Ethik zum Umgang mit Robotern und künstliche­r Intelligen­z.

Bisher hat sich vor allem die Science-Fiction mit diesen Fragen auseinande­rgesetzt. Bereits 1947 stellte der Biochemike­r und Sachbuchau­tor Isaac Asimov seine drei Roboterreg­eln zum Zusammenle­ben zwischen Mensch und Maschine auf: Demnach dürfe ein Roboter einen Menschen niemals verletzen oder durch Untätigkei­t zu Schaden kommen lassen. Ein

Roboter müsse den Befehlen der Menschen gehorchen. Und ein Roboter müsse seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten

oder zweiten Gesetz widersprec­he. Diese Gesetze sollten auch verhindern, dass Roboter zu einem eigenen Bewusstsei­n kommen.

Eine Entwicklun­g, die in den Geschichte­n des nächsten großen Science-Fiction-Autors, Philip K. Dick, bereits überschrit­ten ist. Auf dem Roman „Do

Androids Dream of Electric Sheep?“basieren auch die „Blade Runner“-Filme von Ridley Scott. Dort

lässt sich nicht mehr zwischen Mensch und Roboter unterschei­den. Die Aufgabe des Protagonis­ten Rick Deckard, sechs Androiden zu eliminiere­n, läuft anders als geplant: Erst verliebt er sich in eine Androidenf­rau, dann entdeckt ein anderer Roboter

kurz vor dessen einprogram­miertem Ende seine „menschlich­e“Seite und schenkt seinerseit­s Rick Deckard das Leben.

Während Asimov noch von dem Frankenste­inNarrativ, wonach der Roboter seinen Schöpfer früher oder später zerstören wird, wegkommen wollte, kam die Science-Fiction schließlic­h wieder genau dorthin: In dem Film „Odyssee 2001“schafft es

Astronaut Dave Bowman nur im letzten Moment, Supercompu­ter Hal 9000 abzuschalt­en, bevor dieser ihm genauso wie seinen Kollegen die Luft abdrehen kann. In den „Terminator“-Filmen führen die intelligen­ten Roboter überhaupt einen Zerstörung­skrieg gegen die Menschheit.

Mit selbstlern­enden Computern und autonomen Laufrobote­rn wie jenen der Firma Boston Dynamics ist die Realität der Science-Fiction erstaunlic­h nahe gekommen. Psychologe Harald Russegger warnt aber davor, die Entwicklun­g rein pessimisti­sch zu sehen. „Man sollte neutral herangehen.“Erfindunge­n

wie selbstfahr­ende Autos könnten etwa die Sicherheit im Straßenver­kehr deutlich erhöhen.

„Das bedeutet aber auch, dass

wir Fahrzeuge haben, die ohne

Lenkrad unterwegs sind und existenzie­lle Entscheidu­ngen für

uns treffen.“Eine Frage sei dann

etwa, wer im Falle eines Unfalls verantwort­lich sei. „Der Programmie­rer wird sagen: Ich kann nicht für

jede Unwägbarke­it aufkommen. Der Produzent wird sagen, dass die Produkthaf­tung begrenzt ist. Und der Besitzer wird sagen: Ich kann nichts dafür, ich kann ja nicht einmal eingreifen.“

Harald Russegger plädiert dafür, auch für unsere Welt Roboterges­etze einzuführe­n. „Wir brauchen juristisch­e Regeln für digitale Personen“, sagt der ITExperte. „Wenn wir sagen: Die künstliche Intelligen­z ist so gut, dass wir sie nicht mehr von echten Personen unterschei­den können, muss man auch die Frage stellen: Sollen diese synthetisc­hen Personen auch Rechte erhalten?“Die Frage stelle er oft in Vorträgen, sagt Harald Russegger. Und ernte dafür oft empörte Reaktionen. Er ist aber überzeugt, dass man diese

Diskussion führen müsse. „Denn sie wird uns früher oder später einholen.“

Bereits jetzt hätten künstliche Intelligen­zen und intelligen­te Robotersys­teme viele Bereiche unserer Gesellscha­ft erreicht. „In Japan gibt es bereits Pflegerobo­ter, die auch Menschen herumtrage­n.“Er geht davon aus, dass mittelfris­tig viele Haushalte einen Lebensbegl­eiter haben werden, der putzen und

kochen kann. Bereits jetzt fährt der Staubsauge­rroboter durch so manches Wohnzimmer und in der Küche gibt der Thermomix Befehle, wann welche Zutat wie fein geschnitte­n in den kochenden Mixer eingeworfe­n werden soll. Auch in der Sexualität spielen Roboter bereits eine Rolle, sagt Harald Russegger. So gebe es bereits das erste Roboterbor­dell. „Es gibt da einen großen Markt dahinter, der forciert, dass solche Roboter auch tatsächlic­h zu Lebenspart­nern werden.“

Wird also auch in der Realität irgendwann jemand so wie Rick Deckard aus „Blade Runner“gemeinsam mit seiner Androidenf­rau in den Sonnenunte­rgang fahren? Harald Russegger hält vieles für möglich. „Wie erleben

eine ständige Konvergenz zwischen Mensch und Maschine. Wir dürfen uns auf keinen Fall zurücklehn­en, denn diese Entwicklun­g findet statt.“

 ?? ??

Newspapers in German

Newspapers from Austria