Wen sollen Roboterautos opfern, wen schonen?
Ethik. Ein Experiment will die überfällige Debatte in Gang bringen, wie autonome Fahrzeuge programmiert werden.
Wenn man im Auto auf einer Landstraße unterwegs ist, an deren Rand Menschen arbeiten, und wenn plötzlich ein Tier die Straße kreuzt, was tut man dann? Denkt man die Alternativen durch oder reißt man im Reflex das Lenkrad herum – und fährt im Extremfall Menschen tot, um ein Tier zu retten? Das ist bei Menschen am Steuer gar nicht klar, aber wenn sie demnächst von Robotern abgelöst werden, könnte und müsste man zuvor entscheiden, wie sie programmiert werden: am besten so, dass das Lenkrad stur gerade bleibt und sich von keiner Tierliebe beirren lässt.
Zu dieser Lösung kommen zumindest die Ethikrichtlinien, die das deutsche Verkehrsministerium im Vorjahr hat erarbeiten lassen: „Im Konflikt sind Tier- oder Sachschäden in Kauf zu nehmen, wenn dadurch Personenschäden vermeidbar sind“, gibt „Regel 7“vor. Dieser Katalog ist der bisher einzige regierungsamtliche auf der ganzen Erde, der das Problem angeht, das mit höchster Rasanz auf uns zukommt, das der autonomen Automobile. Auch das nicht amtliche Denken bietet wenig, am weitesten brachte es Science-Fiction-Autor Isaac Asimov, als er 1942 – ja, 1942 – „Grundregeln des Roboterdienstes“formuliert hat, verkürzt lautet die zentrale so: „Ein Roboter darf kein menschliches Wesen verletzen.“
Das würde künstlicher Intelligenz am Lenkrad wenig helfen, wenn Leben gegen Leben abgewogen werden muss: Soll der Wagen mit den Insassen gegen eine Wand rasen, um ein Kind zu retten, das auf die Straße springt? Solche Dilemmata hat man allenfalls in Gedankenexperimenten durchgespielt, etwa dem, in dem man neben einem dicken Mann auf einer Brücke über dem Bahngleis steht und sieht, dass ein Zug auf eine Menschengruppe zurollt, die ihn nicht bemerkt. Der Körper des Dicken könnte den Zug bremsen. Manche Ethiker halten sein Opfern für moralisch geboten, nicht alle tun es, und selbst wenn sie es täten, geht es beim Programmieren autonomer Autos auch darum, was die meisten Menschen für richtig halten, die Technik muss akzeptiert werden.
Deshalb hat Iyad Rahwan (MIT) das „Moralmaschinenexperiment“unternom- men, eine Onlinebefragung über Dilemmata für autonome Fahrzeuge, es lief in über hundert Ländern, 40 Millionen Entscheidungen wurden getroffen, immer waren sie so schwer wie folgenreich, etwa: Ein Tier schonen oder einen Menschen? In diesem Fall neigt die ganze Welt zum Urteil des deutschen Ethikrats, ganz anders ist es bei seiner „Regel 9“, derzufolge das Leben jedes Menschen gleiches Gewicht hat.
Das hat es für die Teilnehmer nicht: Ganz oben rangiert das Leben eines Babys, es folgen kleine Kinder und Schwangere, weit hinten kommen meist Alte. Das wird allerdings kulturell überlagert, in Ostasien genießt das Alter Ansehen, in Südamerika und Frankreich rangieren Frauen und athletisch gebaute Männer hoch, in Ländern mit großen sozialen Unterschieden zählt das Leben von Armen weniger. Alter, Geschlecht und religiöse Überzeugungen der Urteilenden spielten nur marginal in die Urteile hinein, das Verhalten der Beurteilten tut es schon: Ein Fußgänger, der gegen die Regeln eine Straße quert, soll eher nicht auf Schonung hoffen (Nature, 24. 10.).
„Das Interesse am Teilnehmen hat unsere wildesten Erwartungen übertroffen“, schließt Rahwan und fordert dringlich eine „globale Konversation“über das Thema.