Das moralische Auto
Lässt sich die Steuerung autonomer Fahrzeuge so programmieren, dass sie menschlichen Verhaltensregeln folgen?
Hinter der engen Kurve auf dem Gebirgspass ist auf einmal der Bus vor dir, erschreckend nah. Ein Schulbus, voll besetzt. Wahnsinn, was man innerhalb eines Sekundenbruchteils alles erkennen kann. Sofort ist der Fuß auf der Bremse, doch schon nach einer weiteren Zehntelsekunde ist klar: Es wird nicht reichen. Die Kollision ist unvermeidlich, es sei denn ...
Wer jetzt sein Fahrzeug in den Abgrund lenkt, um die Schulkinder zu schützen, ist ein Held, keine Frage. Es wird eine bewegende Trauerfeier geben, ein Denkmal errichtet werden. Vielleicht sollte die Schule umbenannt werden? Oder eine Straße?
Und wenn das Auto selbst das Ausweichmanöver durchführt? Keine selbstlose Tat hätte die Kinder gerettet, sondern kühl kalkulierende Algorithmen. War sich der Nutzer des Fahrzeugs dieses Risikos überhaupt bewusst? Die Herstellerfirma wird sich unangenehmen Fragen stellen müssen, vor allem die Programmierer.
Eine drastische Verringerung der Unfallzahlen auf den Straßen, das ist das große Versprechen des autonomen, vom Computer gesteuerten Fahrens. Es wird sich wohl auch einlösen lassen. Schon jetzt haben Assistenzsysteme den Straßenverkehr sicherer gemacht und da ist noch viel Luft nach oben. Aber auf Dauer werden sich selbst Roboterautos nicht völlig unfallfrei über den Asphalt bewegen können. Früher oder später werden Unfallstatistiken gegen den ersten von einem autonomen Fahrzeug getöteten Menschen abgewogen werden müssen. Spätestens dann wird deutlich werden, dass erhöhte Sicherheit ihren Preis hat.
Oliver Bendel wendet sich daher gegen einen reinen Verkehr aus Roboterautos. »Ich bin dafür, die Zahl der Toten zu halbieren«, sagt der Philosoph und Wirtschaftsinformatiker von der Fachhochschule Nordwestschweiz. »Das klingt brutal, wenn man die Möglichkeit hätte, viel weniger Tote zu haben. Aber unsere Autonomie ist auch wichtig.« Maschinen sollten nicht über Leben und Tod entscheiden, fordert er.
Gegenwärtig kommen weltweit jedes Jahr etwa 1,2 Millionen Menschen bei Autounfällen ums Leben. Ist die Erhaltung der menschlichen Kontrolle über das Lenkrad demnach 600 000 Menschenleben wert? Die Frage ist kaum weniger unangenehm als die Beschäftigung mit der tödlichen Konfrontation auf dem Gebirgspass. Die hat sich Patrick Lin ausgedacht. Der Philosoph von der California Polytechnic State University geht davon aus, dass autonome Fahrzeuge bei einem unvermeidlichen Zusammenstoß in der Lage sein sollten, die Kollision zu optimieren, also so zu reagieren, dass der Schaden möglichst gering ausfällt.
Optimieren lässt sich allerdings in verschiedene Richtungen, je nachdem ob der Wagen darauf ausgerichtet ist, vor allem seine Insassen zu schützen oder andere Verkehrsteilnehmer. Im ersten Fall würde er stets das leichtere Hindernis wählen, also etwa ein Kind statt eines Erwachsenen, einen Kleinwagen statt eines SUV oder Lasters, im zweiten Fall eher umgekehrt.
Das Ausweichverhalten ließe sich auch als Zielalgorithmus beschreiben, so Lin. Fahrer von sichereren Fahrzeugen könnten so ohne eigenes Zutun ins Fadenkreuz anderer Verkehrsteilnehmer geraten. Motorradfahrer stünden vor der Frage, ob sie nicht lieber auf Schutzhelme verzichten sollten, um nicht zu bevorzugten Kollisionsobjekten zu werden. Kostenfunktionen, entwickelt in den Programmierabteilungen von Automobilkonzernen, würden darüber entscheiden, wer am Leben bleibt und wer nicht. Eine gewichtigere Aufgabe sei kaum denkbar, betont Lin und wundert sich, dass es darüber bisher kaum Diskussionen gebe.
Doch die kommen jetzt in Gang. Auch außerhalb von Expertenkreisen wird zunehmend wahrgenommen, dass künstliche Intelligenz keine be- liebige Technologie ist, sondern soziale Systeme und kulturelle Traditionen erschüttern kann. So befürchtete der Würzburger Juraprofessor Eric Hilgendorf kürzlich in der »Frankfurter Allgemeinen«, dass autonome Fahrzeuge das deutsche Rechtsverständnis unter Druck setzen könnten, da es schwieriger zu programmieren sei als das angelsächsische.
Die unterschiedlichen Rechtstraditionen zeigen sich im Umgang mit dem »Trolley-Problem«, das 1967 von der britischen Philosophin Philippa Foot in die Ethikdebatte eingebracht wurde und das im Zuge der Automatisierung des Straßenverkehrs jetzt eine Renaissance erlebt. In seiner ursprünglichen Form ist es auf den Schienenverkehr bezogen: Ein Eisenbahnwagen rollt unkontrolliert auf eine Gruppe von fünf Personen zu, die nichts von der Gefahr ahnen. Durch das Stellen einer Weiche könnte er auf ein anderes Gleis umgelenkt werden, auf dem sich eine Person befindet. Was nun? Den Hebel umlegen oder nicht?
Die Antwort auf die Frage hängt davon ab, ob die Tat selbst bewertet wird oder ihre Folgen. So orientiert sich die angelsächsische Kultur eher an der konsequentialistischen Ethik, die davon ausgeht, dass ein Todesopfer besser ist als fünf, und daher das Betätigen der Weiche als ethisch gerechtfertigt ansehen würde. Im deutschen Recht steht dagegen die Tat im Mittelpunkt: Während durch das Stellen der Weiche ein Mensch aktiv getötet wird, wird der Tod der fünf Personen durch das Untätigsein lediglich in Kauf genommen. Philosophen sprechen von der deontologischen, von Prinzipien geleiteten Ethik.
Tatsächlich lasse sich der quantitativ abwägende Konsequentialismus relativ leicht mathematisch fassen, meinen J. Christian Gerdes und Sarah M. Thornton. Die beiden Maschinenbauer von der kalifornischen Stanford University bedienen sich dafür bei der Kontroll- oder Regelungstheorie. Die bewertet etwa Abweichungen des Fahrzeugs vom geplanten Pfad als Kosten, die es zu minimieren gilt. Diesen grundlegenden Ansatz halten die Forscher für direkt analog zur konsequentialistischen Ethik. Wie Lin präsentieren sie ihre Forschungen jetzt im Rahmen einer von der Daimler und Benz Stiftung finanzierten Studie (Markus Maurer et. al., Hg.: »Autonomes Fahren«, Springer-Verlag, Printversion: 53,49 Euro, online kostenlos).
Ein rein konsequentialistischer Ansatz reiche jedoch nicht aus, um einem autonomen Fahrzeug eine zuverlässige ethische Orientierung zu ermöglichen, betonen Gerdes und Thornton. Dem stünde schon entgegen, dass das Fahrzeug nie über vollständige Informationen zur Beurteilung einer Situation verfügen werde. Zudem funktionierten Kostenfunktionen und ihre Gewichtung nur innerhalb eines bestimmten Rahmens. Wenn die Dimensionen der verschiedenen Kosten zu stark voneinander abwichen, ließen sie sich mathematisch nicht mehr sinnvoll erfassen.
Ingenieure lösen solche Probleme, indem sie Randbedingungen definieren, also Grenzwerte festlegen, die eingehalten werden müssen. Mathematisch gesehen wird das Optimierungsproblem eingeschränkt. Diese Einschränkungen können physikalische Grenzen ebenso betreffen wie Leistungsgrenzen des technischen Systems oder eben ethische Vorgaben.
Das berühmteste Beispiel für solche ethischen Randbedingungen sind die vom Schriftsteller Isaac Asimow entwickelten drei Robotergesetze. Die fordern an erster Stelle, dass ein Roboter einem Menschen keinen Schaden zufügen darf. Künstliche Intelligenz mit dem dafür erforderlichen Verständnis von Schmerz und Schädigung halten Gerdes und Thornton jedoch in naher Zukunft nicht für realisierbar. Sie schlagen vor, stattdessen die Vermeidung von Kollisionen an die oberste Stelle zu rücken und kleinere Schäden, wie das Einklemmen einer Hand in der Autotür, in der Verantwortung des Menschen zu belassen. So ergeben sich drei Asimowsche Grundregeln des autonomen Fahrens:
»1. Ein autonomes Fahrzeug darf nicht mit einem Fußgänger oder Radfahrer zusammenstoßen.
2. Ein autonomes Fahrzeug darf nicht mit einem anderen Fahrzeug zusammenstoßen, es sei denn, die Vermeidung so einer Kollision führt zu einer Verletzung der Ersten Regel.
3. Ein autonomes Fahrzeug darf mit keinem anderen Objekt in seiner Umgebung zusammenstoßen, es sei denn, die Vermeidung einer solchen Kollision führt zu einer Verletzung der Ersten oder Zweiten Regel.«
Aus rein konsequentialistischer Sicht werde ein solcher »hybrider Ansatz« nicht immer zum optimalen Ergebnis führen, räumen Gerdes und Thornton ein, etwa wenn leichte Verletzungen eines Fußgängers erheblichem Sachschaden gegenüberstehen. Zuverlässige Schadensabschätzungen im Sekundenbruchteil dürften allerdings ähnlich weit in der Zukunft liegen wie das Verständnis menschlichen Schmerzes. Die drei Gesetze dagegen kommen ohne solche Schätzungen aus und erfordern lediglich grobe Objektklassifizierun- gen, die beim gegenwärtigen Stand der Technik realisierbar sein sollten.
Das Wirkungsfeld für den Konsequentialismus sehen die beiden Forscher beim Umgang mit den Verkehrsregeln. Die seien zwar strikt als Randbedingungen formuliert, würden allerdings im Alltag flexibel gehandhabt und ständig gegen andere Ziele wie etwa flüssigen Verkehr abgewogen. Autonome Fahrzeuge, die den Verkehrsfluss behindern, weil sie sich strikt an die Regeln halten, würden gesellschaftlich kaum akzeptiert werden, vermuten Gerdes und Thornton. Ihre Schlussfolgerung: Ein deontologischer Umgang mit der Kollisionsvermeidung und ein konsequentialistischer Umgang mit den Verkehrsregeln könnte die richtige Kombination sein, um autonome Fahrzeuge zu schaffen, die »im Straßenverkehr mit menschlichen Fahrern koexistieren und sich gleichartig verhalten können«.
Auf jeden Fall ein Vorschlag, über den sich debattieren lässt. Für Patrick Lin ist das der wichtigste Aspekt: Selbst wenn der Konsequentialismus die beste ethische Theorie wäre und das Fahrzeug das Ausweichmanöver auf dem Gebirgspass völlig korrekt kalkulieren würde, wäre das wenig wert, wenn es zuvor keine Debatte über Ethik gegeben hätte. Den Nutzern eines autonomen Fahrzeugs müsse vorm Einsteigen klar sein, dass Selbstopferung ein sinnvolles Verhalten sei, kein Programmfehler. »Die Industrie wäre gut beraten«, mahnt Lin, »hier für Klarheit zu sorgen und frühzeitig die Überlegungen zu den Schlüsselalgorithmen zu erklären und zu diskutieren, die über Leben und Tod entscheiden können. Transparenz, die Offenlegung der eigenen Mathematik, ist ein wichtiger Aspekt ethischen Verhaltens. Es geht nicht nur um die Antwort selbst.«
In dem Punkt ist er sich einig mit Oliver Bendel. Die ethischen Fragen des autonomen Fahrens könnten nicht allein in den etablierten engen Kreisen von Industrie, Politik und Forschungsinstituten geklärt werden. Dazu brauche es eine viel breitere gesellschaftliche Diskussion, die »nicht nur von oben, sondern auch von unten« geführt werden müsse. »Diesen Diskussionen müssen in den nächsten zwei, drei Jahren wesentliche Erkenntnisse entspringen«, hofft er.
Das wäre doch was: Autonome Fahrzeuge weigern sich, Menschen zu befördern, solange die sich nicht alle (wirklich: alle) gründlich Gedanken darüber gemacht haben, wie sie eigentlich miteinander umgehen wollen und zu einem tragfähigen Konsens gekommen sind. Wir werden den Robotern noch dankbar sein.