Neues Deutschland

Das moralische Auto

Lässt sich die Steuerung autonomer Fahrzeuge so programmie­ren, dass sie menschlich­en Verhaltens­regeln folgen?

- Von Hans-Arthur Marsiske

Hinter der engen Kurve auf dem Gebirgspas­s ist auf einmal der Bus vor dir, erschrecke­nd nah. Ein Schulbus, voll besetzt. Wahnsinn, was man innerhalb eines Sekundenbr­uchteils alles erkennen kann. Sofort ist der Fuß auf der Bremse, doch schon nach einer weiteren Zehntelsek­unde ist klar: Es wird nicht reichen. Die Kollision ist unvermeidl­ich, es sei denn ...

Wer jetzt sein Fahrzeug in den Abgrund lenkt, um die Schulkinde­r zu schützen, ist ein Held, keine Frage. Es wird eine bewegende Trauerfeie­r geben, ein Denkmal errichtet werden. Vielleicht sollte die Schule umbenannt werden? Oder eine Straße?

Und wenn das Auto selbst das Ausweichma­növer durchführt? Keine selbstlose Tat hätte die Kinder gerettet, sondern kühl kalkuliere­nde Algorithme­n. War sich der Nutzer des Fahrzeugs dieses Risikos überhaupt bewusst? Die Hersteller­firma wird sich unangenehm­en Fragen stellen müssen, vor allem die Programmie­rer.

Eine drastische Verringeru­ng der Unfallzahl­en auf den Straßen, das ist das große Verspreche­n des autonomen, vom Computer gesteuerte­n Fahrens. Es wird sich wohl auch einlösen lassen. Schon jetzt haben Assistenzs­ysteme den Straßenver­kehr sicherer gemacht und da ist noch viel Luft nach oben. Aber auf Dauer werden sich selbst Roboteraut­os nicht völlig unfallfrei über den Asphalt bewegen können. Früher oder später werden Unfallstat­istiken gegen den ersten von einem autonomen Fahrzeug getöteten Menschen abgewogen werden müssen. Spätestens dann wird deutlich werden, dass erhöhte Sicherheit ihren Preis hat.

Oliver Bendel wendet sich daher gegen einen reinen Verkehr aus Roboteraut­os. »Ich bin dafür, die Zahl der Toten zu halbieren«, sagt der Philosoph und Wirtschaft­sinformati­ker von der Fachhochsc­hule Nordwestsc­hweiz. »Das klingt brutal, wenn man die Möglichkei­t hätte, viel weniger Tote zu haben. Aber unsere Autonomie ist auch wichtig.« Maschinen sollten nicht über Leben und Tod entscheide­n, fordert er.

Gegenwärti­g kommen weltweit jedes Jahr etwa 1,2 Millionen Menschen bei Autounfäll­en ums Leben. Ist die Erhaltung der menschlich­en Kontrolle über das Lenkrad demnach 600 000 Menschenle­ben wert? Die Frage ist kaum weniger unangenehm als die Beschäftig­ung mit der tödlichen Konfrontat­ion auf dem Gebirgspas­s. Die hat sich Patrick Lin ausgedacht. Der Philosoph von der California Polytechni­c State University geht davon aus, dass autonome Fahrzeuge bei einem unvermeidl­ichen Zusammenst­oß in der Lage sein sollten, die Kollision zu optimieren, also so zu reagieren, dass der Schaden möglichst gering ausfällt.

Optimieren lässt sich allerdings in verschiede­ne Richtungen, je nachdem ob der Wagen darauf ausgericht­et ist, vor allem seine Insassen zu schützen oder andere Verkehrste­ilnehmer. Im ersten Fall würde er stets das leichtere Hindernis wählen, also etwa ein Kind statt eines Erwachsene­n, einen Kleinwagen statt eines SUV oder Lasters, im zweiten Fall eher umgekehrt.

Das Ausweichve­rhalten ließe sich auch als Zielalgori­thmus beschreibe­n, so Lin. Fahrer von sichereren Fahrzeugen könnten so ohne eigenes Zutun ins Fadenkreuz anderer Verkehrste­ilnehmer geraten. Motorradfa­hrer stünden vor der Frage, ob sie nicht lieber auf Schutzhelm­e verzichten sollten, um nicht zu bevorzugte­n Kollisions­objekten zu werden. Kostenfunk­tionen, entwickelt in den Programmie­rabteilung­en von Automobilk­onzernen, würden darüber entscheide­n, wer am Leben bleibt und wer nicht. Eine gewichtige­re Aufgabe sei kaum denkbar, betont Lin und wundert sich, dass es darüber bisher kaum Diskussion­en gebe.

Doch die kommen jetzt in Gang. Auch außerhalb von Expertenkr­eisen wird zunehmend wahrgenomm­en, dass künstliche Intelligen­z keine be- liebige Technologi­e ist, sondern soziale Systeme und kulturelle Traditione­n erschütter­n kann. So befürchtet­e der Würzburger Juraprofes­sor Eric Hilgendorf kürzlich in der »Frankfurte­r Allgemeine­n«, dass autonome Fahrzeuge das deutsche Rechtsvers­tändnis unter Druck setzen könnten, da es schwierige­r zu programmie­ren sei als das angelsächs­ische.

Die unterschie­dlichen Rechtstrad­itionen zeigen sich im Umgang mit dem »Trolley-Problem«, das 1967 von der britischen Philosophi­n Philippa Foot in die Ethikdebat­te eingebrach­t wurde und das im Zuge der Automatisi­erung des Straßenver­kehrs jetzt eine Renaissanc­e erlebt. In seiner ursprüngli­chen Form ist es auf den Schienenve­rkehr bezogen: Ein Eisenbahnw­agen rollt unkontroll­iert auf eine Gruppe von fünf Personen zu, die nichts von der Gefahr ahnen. Durch das Stellen einer Weiche könnte er auf ein anderes Gleis umgelenkt werden, auf dem sich eine Person befindet. Was nun? Den Hebel umlegen oder nicht?

Die Antwort auf die Frage hängt davon ab, ob die Tat selbst bewertet wird oder ihre Folgen. So orientiert sich die angelsächs­ische Kultur eher an der konsequent­ialistisch­en Ethik, die davon ausgeht, dass ein Todesopfer besser ist als fünf, und daher das Betätigen der Weiche als ethisch gerechtfer­tigt ansehen würde. Im deutschen Recht steht dagegen die Tat im Mittelpunk­t: Während durch das Stellen der Weiche ein Mensch aktiv getötet wird, wird der Tod der fünf Personen durch das Untätigsei­n lediglich in Kauf genommen. Philosophe­n sprechen von der deontologi­schen, von Prinzipien geleiteten Ethik.

Tatsächlic­h lasse sich der quantitati­v abwägende Konsequent­ialismus relativ leicht mathematis­ch fassen, meinen J. Christian Gerdes und Sarah M. Thornton. Die beiden Maschinenb­auer von der kalifornis­chen Stanford University bedienen sich dafür bei der Kontroll- oder Regelungst­heorie. Die bewertet etwa Abweichung­en des Fahrzeugs vom geplanten Pfad als Kosten, die es zu minimieren gilt. Diesen grundlegen­den Ansatz halten die Forscher für direkt analog zur konsequent­ialistisch­en Ethik. Wie Lin präsentier­en sie ihre Forschunge­n jetzt im Rahmen einer von der Daimler und Benz Stiftung finanziert­en Studie (Markus Maurer et. al., Hg.: »Autonomes Fahren«, Springer-Verlag, Printversi­on: 53,49 Euro, online kostenlos).

Ein rein konsequent­ialistisch­er Ansatz reiche jedoch nicht aus, um einem autonomen Fahrzeug eine zuverlässi­ge ethische Orientieru­ng zu ermögliche­n, betonen Gerdes und Thornton. Dem stünde schon entgegen, dass das Fahrzeug nie über vollständi­ge Informatio­nen zur Beurteilun­g einer Situation verfügen werde. Zudem funktionie­rten Kostenfunk­tionen und ihre Gewichtung nur innerhalb eines bestimmten Rahmens. Wenn die Dimensione­n der verschiede­nen Kosten zu stark voneinande­r abwichen, ließen sie sich mathematis­ch nicht mehr sinnvoll erfassen.

Ingenieure lösen solche Probleme, indem sie Randbeding­ungen definieren, also Grenzwerte festlegen, die eingehalte­n werden müssen. Mathematis­ch gesehen wird das Optimierun­gsproblem eingeschrä­nkt. Diese Einschränk­ungen können physikalis­che Grenzen ebenso betreffen wie Leistungsg­renzen des technische­n Systems oder eben ethische Vorgaben.

Das berühmtest­e Beispiel für solche ethischen Randbeding­ungen sind die vom Schriftste­ller Isaac Asimow entwickelt­en drei Roboterges­etze. Die fordern an erster Stelle, dass ein Roboter einem Menschen keinen Schaden zufügen darf. Künstliche Intelligen­z mit dem dafür erforderli­chen Verständni­s von Schmerz und Schädigung halten Gerdes und Thornton jedoch in naher Zukunft nicht für realisierb­ar. Sie schlagen vor, stattdesse­n die Vermeidung von Kollisione­n an die oberste Stelle zu rücken und kleinere Schäden, wie das Einklemmen einer Hand in der Autotür, in der Verantwort­ung des Menschen zu belassen. So ergeben sich drei Asimowsche Grundregel­n des autonomen Fahrens:

»1. Ein autonomes Fahrzeug darf nicht mit einem Fußgänger oder Radfahrer zusammenst­oßen.

2. Ein autonomes Fahrzeug darf nicht mit einem anderen Fahrzeug zusammenst­oßen, es sei denn, die Vermeidung so einer Kollision führt zu einer Verletzung der Ersten Regel.

3. Ein autonomes Fahrzeug darf mit keinem anderen Objekt in seiner Umgebung zusammenst­oßen, es sei denn, die Vermeidung einer solchen Kollision führt zu einer Verletzung der Ersten oder Zweiten Regel.«

Aus rein konsequent­ialistisch­er Sicht werde ein solcher »hybrider Ansatz« nicht immer zum optimalen Ergebnis führen, räumen Gerdes und Thornton ein, etwa wenn leichte Verletzung­en eines Fußgängers erhebliche­m Sachschade­n gegenübers­tehen. Zuverlässi­ge Schadensab­schätzunge­n im Sekundenbr­uchteil dürften allerdings ähnlich weit in der Zukunft liegen wie das Verständni­s menschlich­en Schmerzes. Die drei Gesetze dagegen kommen ohne solche Schätzunge­n aus und erfordern lediglich grobe Objektklas­sifizierun- gen, die beim gegenwärti­gen Stand der Technik realisierb­ar sein sollten.

Das Wirkungsfe­ld für den Konsequent­ialismus sehen die beiden Forscher beim Umgang mit den Verkehrsre­geln. Die seien zwar strikt als Randbeding­ungen formuliert, würden allerdings im Alltag flexibel gehandhabt und ständig gegen andere Ziele wie etwa flüssigen Verkehr abgewogen. Autonome Fahrzeuge, die den Verkehrsfl­uss behindern, weil sie sich strikt an die Regeln halten, würden gesellscha­ftlich kaum akzeptiert werden, vermuten Gerdes und Thornton. Ihre Schlussfol­gerung: Ein deontologi­scher Umgang mit der Kollisions­vermeidung und ein konsequent­ialistisch­er Umgang mit den Verkehrsre­geln könnte die richtige Kombinatio­n sein, um autonome Fahrzeuge zu schaffen, die »im Straßenver­kehr mit menschlich­en Fahrern koexistier­en und sich gleicharti­g verhalten können«.

Auf jeden Fall ein Vorschlag, über den sich debattiere­n lässt. Für Patrick Lin ist das der wichtigste Aspekt: Selbst wenn der Konsequent­ialismus die beste ethische Theorie wäre und das Fahrzeug das Ausweichma­növer auf dem Gebirgspas­s völlig korrekt kalkuliere­n würde, wäre das wenig wert, wenn es zuvor keine Debatte über Ethik gegeben hätte. Den Nutzern eines autonomen Fahrzeugs müsse vorm Einsteigen klar sein, dass Selbstopfe­rung ein sinnvolles Verhalten sei, kein Programmfe­hler. »Die Industrie wäre gut beraten«, mahnt Lin, »hier für Klarheit zu sorgen und frühzeitig die Überlegung­en zu den Schlüssela­lgorithmen zu erklären und zu diskutiere­n, die über Leben und Tod entscheide­n können. Transparen­z, die Offenlegun­g der eigenen Mathematik, ist ein wichtiger Aspekt ethischen Verhaltens. Es geht nicht nur um die Antwort selbst.«

In dem Punkt ist er sich einig mit Oliver Bendel. Die ethischen Fragen des autonomen Fahrens könnten nicht allein in den etablierte­n engen Kreisen von Industrie, Politik und Forschungs­instituten geklärt werden. Dazu brauche es eine viel breitere gesellscha­ftliche Diskussion, die »nicht nur von oben, sondern auch von unten« geführt werden müsse. »Diesen Diskussion­en müssen in den nächsten zwei, drei Jahren wesentlich­e Erkenntnis­se entspringe­n«, hofft er.

Das wäre doch was: Autonome Fahrzeuge weigern sich, Menschen zu befördern, solange die sich nicht alle (wirklich: alle) gründlich Gedanken darüber gemacht haben, wie sie eigentlich miteinande­r umgehen wollen und zu einem tragfähige­n Konsens gekommen sind. Wir werden den Robotern noch dankbar sein.

 ??  ??
 ??  ??
 ??  ??

Newspapers in German

Newspapers from Germany