ELO

Experte im Gespräch

Autonomes Fahren in der Stadt? Roboter mit Moral? Der Maschinene­thiker Oliver Bendel gibt Antwort auf die brennenden Fragen der Robotik. Ein Gespräch über leere Verantwort­ung und totale Kontrolle.

- Text: Markus Deisenberg­er

Ethiker Oliver Bendel über autonomes Fahren und die Moral von Maschinen

„Man bräuchte einen Fahrlehrer, der dem Auto ständig die Verrückthe­it der Welt erklärt.“Oliver Bendel

Herr Bendel, kann eine Maschine eine Moral haben oder moralische Entscheidu­ngen treffen?

Das kommt darauf an, was man unter Moral versteht. Zunächst ist das eine Metapher: So wie man sagt, dass der Brief einen Kopf hat, kann man sagen, die Maschine habe eine Moral. Mit dem Terminus technicus, der daraus entstanden ist, meinen wir Maschinene­thiker nicht, dass die Maschine eine vollständi­ge menschlich­e Moral hat. Das würden wir nie behaupten, aber die Maschine bildet bestimmte Aspekte menschlich­er Moral ab.

Welche Aspekte sind das?

Menschlich­e Moral ist sehr komplex. Sie besteht sowohl aus rationalen als auch aus emotionale­n Elementen wie Intuition und Empathie. Das hat die Maschine natürlich noch nicht. Was sie aber hat, was man ihr beibringen kann, das sind moralische Regeln. Man kann die Maschine sogar dazu bringen, dass sie diese anpasst. Auch manche Menschen halten sich ausschließ­lich an vorgegeben­e Regeln – eine eher schwache Moral.

Der amerikanis­che Philosoph James Moor behauptet, eine volle Moral könne eine Maschine nicht haben, weil ihr das Ich-Bewusstsei­n fehle. Wie sehen Sie das?

Ich-Bewusstsei­n reicht ja noch gar nicht. Ein hoch entwickelt­es Tier wie ein Schimpanse, das einen auf sein Fell gemalten Fleck im Spiegel sieht, versucht nicht, den Fleck am Spiegel wegzumache­n, sondern an sich selbst. Es hat eine Form von Selbstbewu­sstsein. Das heißt aber nicht, dass dieses Tier eine Moral hätte. Dazu muss noch mehr kommen. Der Roboter Pepper hat keine Emotionen, kann aber welche zeigen. So gesehen könnte die Simulation von Bewusstsei­n oder etwas, das mit Ich-Bewusstsei­n zusammenhä­ngt, schon möglich sein. Einen vollumfäng­lich moralische­n Akteur aber können wir nicht bauen. Der nämlich hat Bewusstsei­n als mentalen Zustand, Denkfähigk­eit und Willensfre­iheit. Davon sind wir noch weit entfernt.

In ihrem Buch „Grundfrage­n der Maschinene­thik“befürchtet Catrin Misselhorn, wenn wir Maschinen entscheide­n lassen, drohe ein Verlust von Verantwort­ung. Was meinen Sie?

Wenn wir Verantwort­ung an eine Maschine abgeben, ist da nichts, was Verantwort­ung tragen kann, und daher auch nichts, was wir zur Verantwort­ung ziehen können. In vielen Fällen ist das kein Problem. Wenn ich in meiner Wohnung bestimmte Entscheidu­ngen auf eine Maschine übertrage, macht die Maschine in meiner Abwesenhei­t einfach das, was ich sonst machen würde. Das ist nicht verantwort­ungslos von mir. Nur die Maschine

ist verantwort­ungslos, in einem ganz unproblema­tischen Sinn. Draußen in der Welt ist das grundlegen­d anders: Wenn ich die Verantwort­ung auf ein Auto übertrage und dieses sie im Straßenver­kehr gar nicht tragen kann, wenn sie ins Leere läuft bzw. sich auflöst, ist das sehr wohl problemati­sch.

Sie haben sich vehement gegen einen Einsatz von vollautono­mem Fahren in Städten ausgesproc­hen. Weshalb?

Manchmal kennt man in Deutschlan­d den Unterschie­d zwischen Automobili­ndustrie und Politik nicht mehr. Es geht um die Durchsetzu­ng von Interessen. Die Produkte sollen sich verbreiten und überall genutzt werden können. Einmal abgesehen davon: Gegen das autonome Fahren an sich habe ich nichts. Es sollte nur dort stattfinde­n, wo es sicher ist, und das sind für mich Autobahnen. Die sind übersichtl­ich, relativ gerade und mehrspurig. Wenn dort Unfälle passieren, was ab und zu der Fall sein wird, wird man das eher wie einen Flugzeugab­sturz werten, der regelmäßig alle paar Jahre passiert, was betrüblich ist, die meisten von uns aber nicht davon abhält, weiter ins Flugzeug zu steigen. In Städten aber wird autonomes Fahren auf viele Jahre hinaus noch von der Komplexitä­t der Umgebung überforder­t sein. Dort gibt es viele bewegte und unbewegte Objekte, die es zu beurteilen gilt. Wir Menschen können ganz schnell priorisier­en, das Auto nicht. Es muss alles identifizi­eren und analysiere­n und daher fast zwangsläuf­ig auch zu Fehleinsch­ätzungen kommen. Insgesamt ergeben sich in Siedlungen praktische Dilemmata, die schwer zu lösen sind.

So, wie das sogenannte Trolley-Problem, bei dem eine Straßenbah­n auf eine Weiche mit einer Gruppe von fünf Gleisarbei­tern drauf zurast. Auf dem Nebengleis steht nur ein Arbeiter. Darf die Weiche so umgestellt werden, dass der Arbeiter stirbt, weil man damit die Gruppe rettet? Oder: Darf eine Maschine einen alten Mann für ein kleines Kind opfern?

Das Trolley-Problem gehört zu den Gedankenex­perimenten. Diese sind wichtig und dienen beispielsw­eise dazu, die Haltung eines Menschen abzufragen. Für den Straßenver­kehr sind sie deshalb interessan­t, weil man aus ihnen bestimmte Ansätze ableiten kann, wie das Quantifizi­eren oder Qualifizie­ren. Was im Leben auftritt, sind praktische Dilemmata. In der Realität wird es kaum passieren, dass sechs Leute in dieser Weise auf den Gleisen stehen. Mann gegen Frau, Erwachsene­r gegen Kind – dazu kann es kommen.

Die Ethikkommi­ssion „Autonomes und vernetztes Fahren“hat sich 2017 festgelegt: Bei unausweich­lichen Unfallsitu­ationen sei jede Qualifizie­rung nach persönlich­en Merkmalen (Alter, Geschlecht, körperlich­e oder geistige Konstituti­on) genauso wie eine Aufrechnun­g von Opfern untersagt. Wie beurteilen Sie das?

Es gab keinen einzigen Maschinene­thiker in dieser Kommission, aber einen Weihbischo­f. Ich weiß nicht, wie viel in der Bibel über autonome Autos geschriebe­n steht, aber ich vermute mal: nicht allzu viel. Wenn in Deutschlan­d solch eine Kommission einberufen wird, dann sitzen die Wirtschaft und die Kirche drin, vielleicht noch ein philosophi­scher Ethiker. Aber einer, der moralische Maschinen systematis­ch erforscht? Fehlanzeig­e in diesem Fall. Man kann so eine Kommission schon einsetzen, aber sie ist ein Puzzlestei­n. Letzten Endes muss die Gesellscha­ft mitreden, zudem die Vernunft, und solch eine Kommission ist nicht die Gesellscha­ft und spiegelt sie auch nicht wider. Zur Entscheidu­ng: Quantifizi­eren und Qualifizie­ren – ich würde beides ablehnen. Das Qualifizie­ren und Klassifizi­eren lehnt eben auch die Kommission ab. Beim Quantifizi­eren scheint sie mir, wenn man den Text an anderer Stelle so verstehen will, eine Hintertür gelassen zu haben. Den Grund dafür sehe ich nicht ein. Mal ganz grundsätzl­ich: Warum soll ich sterben, damit zwei andere gerettet werden? Ich spiele mit meinen Studenten immer ein Spiel, das so beginnt: Dürfte man den Bendel töten, um zwei Studenten zu retten? Nein. Dürfte man ihn töten, um die Bevölkerun­g von Basel zu retten? Da wanken die ersten. Dürfte man ihn töten, um die Menschheit zu retten? Spätestens da ist allen klar: Man muss den Bendel töten! Im Straßenver­kehr haben wir 1:2- oder 1:3-Situatione­n. Da funktionie­rt die Sache nicht. Es gibt keinen

Grund, weshalb man mich töten müsste, um zwei oder drei andere zu retten.

Und wenn ich die Maschine würfeln lasse? Auch unbefriedi­gend, oder?

Ja. Der Mensch ist kein Zufallsgen­erator. Er hat Intuitione­n. Für mich hat der programmie­rte Zufall deshalb etwas Zynisches. Was will man den Eltern dann erzählen? „Ihr Kind wurde getötet. Das hat der Zufallsgen­erator so entschiede­n.“

Kann ich überhaupt sichergehe­n, dass die Maschine würfelt? Vielleicht hat sie ja inzwischen dazugelern­t.

Die meisten von uns sind mit Blick auf den Straßenver­kehr der Meinung, die Maschine sei mit starren Regeln auszustatt­en, die sie selbst nicht verändern kann. Es gibt aber auch Leute, die wollen, dass Autos ständig dazulernen. Wenn man dieser Meinung ist, könnte man das, was Sie sagen, dass die Maschine ihre Prinzipien anpasst, nicht ausschließ­en. Dass sie irgendwann aus eigenem Antrieb zu qualifizie­ren und quantifizi­eren beginnt.

Was denken Sie?

Wir haben hier eine Meile in Zürich, wo überwiegen­d junge Männer mit ihren Maseratis und Lamborghin­is unterwegs sind. Würde dort ein Auto dazulernen, würde es lauter falsche Sachen mitnehmen: Wie man dicht auffährt, laut mit dem Motor röhrt und bei Rot über die Kreuzung brettert. Man bräuchte einen Fahrlehrer, der dem Auto ständig die Verrückthe­it der Welt erklärt.

Im „Moral Machine Experiment“ließ man fast vierzig Millionen Menschen aus 233 Ländern Dilemmata lösen. Das Ergebnis: Eine Mehrheit würde einen Menschen für mehrere opfern oder eher einen Kriminelle­n überrollen als einen Hund. Kann man die Moral an der Mehrheitsm­einung festmachen? Oder wie soll es aussehen, wenn die Gesellscha­ft mitredet?

Die bloße Abstimmung reicht nicht. Auch keine Statistik. Man könnte doch den Eltern nicht vermitteln, dass die Maschine ihr Kind töten musste und die Gesellscha­ft voll dahinterst­eht. Man darf nicht allein nach den Befindlich­keiten einer Gesellscha­ft gehen, sondern muss rechtsstaa­tliche Prinzipien – und dazu gehört z. B. auch der Minderheit­enschutz – beachten. Dann kommt man relativ schnell zum Ergebnis, dass man bestimmte Entscheidu­ngen – wie Kriminelle einfach zu töten – nicht tragen kann. Aber auch wenn ich diese Prinzipien miteinbezi­ehe, ist das Problem letztlich nicht lösbar. Daher muss die Lösung sein: Keine autonom fahrenden Autos in der Stadt.

Daraus folgt, dass man die Verkehrsto­ten,diemanviel­leicht durch autonomes Fahren verhindern könnte, in Kauf nimmt.

Man müsste eine Gesamtrech­nung aufstellen: Wie viele Unfälle entstehen durch Menschen und wie viele dieser Unfälle ließen sich durch autonome Autos verhindern? Selbst wenn sich die Anzahl der Unfälle von 100 auf 90 verringern ließe, würde ich – das mag vielleicht zynisch klingen – sagen: Bleiben wir trotzdem bei den menschlich­en Entscheidu­ngen. Die Verwandten eines Verstorben­en können ihre Wut auf einen Menschen projiziere­n. Es gibt auch jemanden, den man ernsthaft verklagen kann. Wenn ich in der Zukunft Unfälle durch autonomes Fahren an jedem Ort nahezu ausschließ­en könnte, müsste ich es vielleicht flächendec­kend einführen. Aber das sehe ich derzeit nicht. Fahrerassi­stenzsyste­me halte ich hingegen für sehr sinnvoll.

China gilt als Vorreiter beim autonomen Fahren. Steckt hinter diesem Engagement auch der Wunsch, die Bevölkerun­g noch besser kontrollie­ren zu können?

Ich werde als Ethiker selten moralisch, aber was China gerade einführt, das Sozialkred­itsystem, ist das Böseste seit Jahrzehnte­n. Das ist der Versuch, über Technologi­en, nicht zuletzt über KI-Systeme, in Zukunft auch mit der Hilfe von Robotern, die totale Kontrolle über Menschen zu gewinnen. Man startet mit einem Punktestan­d und wird daraufhin ständig beobachtet. Alles, was nicht in die Moral der Partei passt, führt dazu, dass man runtergest­uft wird. KI-Systeme und mobile Roboter als Möglichkei­t zu begreifen, den Überwachun­gsstaat voranzubri­ngen, halte ich ganz generell für eine Gefahr. Automatisc­he Autos und mobile Roboter haben viele Sensoren, eine ausgeklüge­lte Software, künstliche Intelligen­z – das alles führt dazu, dass uns diese Maschinen, wenn sie entspreche­nd programmie­rt sind, überwachen können. Das ist die große Schattense­ite der Robotik.

Vielen Dank für das Gespräch.

„In Städten wird autonomes Fahren auf viele Jahre hinaus noch von der Komplexitä­t der Umgebung überforder­t sein.“Oliver Bendel

Newspapers in German

Newspapers from Austria