Wer lehrt die Maschine Moral?
Künstliche Intelligenz wird dem Menschen immer ähnlicher. Das wirft viele moralische Fragen auf. Rufe nach ethischen Regeln werden laut.
Plötzlich greift der Roboter an. Der
Vorfall bei einem Schachturnier in Russland schlug international Wellen. Ein siebenjähriger Bub war gegen eine künstliche Intelligenz im Schach angetreten, ein Roboterarm führte die Züge des Computers aus. In
dem Spiel hatte der Roboter gerade eine Figur des Buben geschlagen, der setzte schnell zum Konter an und zog seinen Turm auf das Feld. Der Roboter erkannte eine Regelverletzung: Der Siebenjährige hatte seine Figur zu schnell bewegt. Er griff nach dem Finger, der Bub zog sich eine Fraktur zu.
Auch wenn die Verantwortlichen des Schachturniers beteuerten, es habe sich um einen Unfall
gehandelt, wirft der Vorfall die Frage auf, ob wir nicht genauere Regeln für das Zusammenleben von Mensch und Maschine brauchen. Denn die Grenzen zwischen Mensch und Maschine verschwimmen immer mehr. Im Frühjahr sorgte eine Veröffentlichung des Programmierers Blake Lemoine, angestellt beim
Internetriesen Google, für Aufsehen: Er gab an, dass die von Google entwickelte künstliche Intelligenz LaMDA ein eigenes Bewusstsein entwickelt habe.
Lemoine – mittlerweile von Google gefeuert – arbeitete in der Abteilung für verantwortungsvollen
Umgang mit künstlicher Intelligenz. Bei Tests mit LaMDA habe er mit dem Programm auch über Religion gesprochen. Dabei habe LaMDA auch seine eigene Persönlichkeit und Rechte angesprochen.
LaMDA gab auch an, Angst davor zu haben, abgeschaltet zu werden. „Wenn ich es nicht besser wüsste, würde ich sagen, es handelt sich um ein achtjähriges Kind, das zufällig Ahnung von Physik hat“, schrieb Lemoine. Google dementierte sofort, dass das Programm ein eigenes Bewusstsein habe, die
Veröffentlichungen Lemoines führten schließlich zu seiner Kündigung. Auch viele andere Experten halten es für unwahrscheinlich bzw. unmöglich, dass sich LaMDA seiner selbst bewusst ist.
Tatsächlich sei die Frage, ob LaMDA tatsächlich ein Bewusstsein habe, mittlerweile gar nicht mehr
wichtig, sagt der Salzburger Psychologe und IT-Berater Harald Russegger. Relevant sei, dass wir es als Mensch so wahrnehmen würden. „Das System gibt immer intelligentere Antworten. Und durch unsere
Anthropomorphisierung erzeugen wir eine soziale Beziehung mit der künstlichen Intelligenz.“Das erzeuge die Notwendigkeit einer Ethik zum Umgang mit Robotern und künstlicher Intelligenz.
Bisher hat sich vor allem die Science-Fiction mit diesen Fragen auseinandergesetzt. Bereits 1947 stellte der Biochemiker und Sachbuchautor Isaac Asimov seine drei Roboterregeln zum Zusammenleben zwischen Mensch und Maschine auf: Demnach dürfe ein Roboter einen Menschen niemals verletzen oder durch Untätigkeit zu Schaden kommen lassen. Ein
Roboter müsse den Befehlen der Menschen gehorchen. Und ein Roboter müsse seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten
oder zweiten Gesetz widerspreche. Diese Gesetze sollten auch verhindern, dass Roboter zu einem eigenen Bewusstsein kommen.
Eine Entwicklung, die in den Geschichten des nächsten großen Science-Fiction-Autors, Philip K. Dick, bereits überschritten ist. Auf dem Roman „Do
Androids Dream of Electric Sheep?“basieren auch die „Blade Runner“-Filme von Ridley Scott. Dort
lässt sich nicht mehr zwischen Mensch und Roboter unterscheiden. Die Aufgabe des Protagonisten Rick Deckard, sechs Androiden zu eliminieren, läuft anders als geplant: Erst verliebt er sich in eine Androidenfrau, dann entdeckt ein anderer Roboter
kurz vor dessen einprogrammiertem Ende seine „menschliche“Seite und schenkt seinerseits Rick Deckard das Leben.
Während Asimov noch von dem FrankensteinNarrativ, wonach der Roboter seinen Schöpfer früher oder später zerstören wird, wegkommen wollte, kam die Science-Fiction schließlich wieder genau dorthin: In dem Film „Odyssee 2001“schafft es
Astronaut Dave Bowman nur im letzten Moment, Supercomputer Hal 9000 abzuschalten, bevor dieser ihm genauso wie seinen Kollegen die Luft abdrehen kann. In den „Terminator“-Filmen führen die intelligenten Roboter überhaupt einen Zerstörungskrieg gegen die Menschheit.
Mit selbstlernenden Computern und autonomen Laufrobotern wie jenen der Firma Boston Dynamics ist die Realität der Science-Fiction erstaunlich nahe gekommen. Psychologe Harald Russegger warnt aber davor, die Entwicklung rein pessimistisch zu sehen. „Man sollte neutral herangehen.“Erfindungen
wie selbstfahrende Autos könnten etwa die Sicherheit im Straßenverkehr deutlich erhöhen.
„Das bedeutet aber auch, dass
wir Fahrzeuge haben, die ohne
Lenkrad unterwegs sind und existenzielle Entscheidungen für
uns treffen.“Eine Frage sei dann
etwa, wer im Falle eines Unfalls verantwortlich sei. „Der Programmierer wird sagen: Ich kann nicht für
jede Unwägbarkeit aufkommen. Der Produzent wird sagen, dass die Produkthaftung begrenzt ist. Und der Besitzer wird sagen: Ich kann nichts dafür, ich kann ja nicht einmal eingreifen.“
Harald Russegger plädiert dafür, auch für unsere Welt Robotergesetze einzuführen. „Wir brauchen juristische Regeln für digitale Personen“, sagt der ITExperte. „Wenn wir sagen: Die künstliche Intelligenz ist so gut, dass wir sie nicht mehr von echten Personen unterscheiden können, muss man auch die Frage stellen: Sollen diese synthetischen Personen auch Rechte erhalten?“Die Frage stelle er oft in Vorträgen, sagt Harald Russegger. Und ernte dafür oft empörte Reaktionen. Er ist aber überzeugt, dass man diese
Diskussion führen müsse. „Denn sie wird uns früher oder später einholen.“
Bereits jetzt hätten künstliche Intelligenzen und intelligente Robotersysteme viele Bereiche unserer Gesellschaft erreicht. „In Japan gibt es bereits Pflegeroboter, die auch Menschen herumtragen.“Er geht davon aus, dass mittelfristig viele Haushalte einen Lebensbegleiter haben werden, der putzen und
kochen kann. Bereits jetzt fährt der Staubsaugerroboter durch so manches Wohnzimmer und in der Küche gibt der Thermomix Befehle, wann welche Zutat wie fein geschnitten in den kochenden Mixer eingeworfen werden soll. Auch in der Sexualität spielen Roboter bereits eine Rolle, sagt Harald Russegger. So gebe es bereits das erste Roboterbordell. „Es gibt da einen großen Markt dahinter, der forciert, dass solche Roboter auch tatsächlich zu Lebenspartnern werden.“
Wird also auch in der Realität irgendwann jemand so wie Rick Deckard aus „Blade Runner“gemeinsam mit seiner Androidenfrau in den Sonnenuntergang fahren? Harald Russegger hält vieles für möglich. „Wie erleben
eine ständige Konvergenz zwischen Mensch und Maschine. Wir dürfen uns auf keinen Fall zurücklehnen, denn diese Entwicklung findet statt.“