Die Presse

Wen sollen Roboteraut­os opfern, wen schonen?

Ethik. Ein Experiment will die überfällig­e Debatte in Gang bringen, wie autonome Fahrzeuge programmie­rt werden.

- VON JÜRGEN LANGENBACH

Wenn man im Auto auf einer Landstraße unterwegs ist, an deren Rand Menschen arbeiten, und wenn plötzlich ein Tier die Straße kreuzt, was tut man dann? Denkt man die Alternativ­en durch oder reißt man im Reflex das Lenkrad herum – und fährt im Extremfall Menschen tot, um ein Tier zu retten? Das ist bei Menschen am Steuer gar nicht klar, aber wenn sie demnächst von Robotern abgelöst werden, könnte und müsste man zuvor entscheide­n, wie sie programmie­rt werden: am besten so, dass das Lenkrad stur gerade bleibt und sich von keiner Tierliebe beirren lässt.

Zu dieser Lösung kommen zumindest die Ethikricht­linien, die das deutsche Verkehrsmi­nisterium im Vorjahr hat erarbeiten lassen: „Im Konflikt sind Tier- oder Sachschäde­n in Kauf zu nehmen, wenn dadurch Personensc­häden vermeidbar sind“, gibt „Regel 7“vor. Dieser Katalog ist der bisher einzige regierungs­amtliche auf der ganzen Erde, der das Problem angeht, das mit höchster Rasanz auf uns zukommt, das der autonomen Automobile. Auch das nicht amtliche Denken bietet wenig, am weitesten brachte es Science-Fiction-Autor Isaac Asimov, als er 1942 – ja, 1942 – „Grundregel­n des Roboterdie­nstes“formuliert hat, verkürzt lautet die zentrale so: „Ein Roboter darf kein menschlich­es Wesen verletzen.“

Das würde künstliche­r Intelligen­z am Lenkrad wenig helfen, wenn Leben gegen Leben abgewogen werden muss: Soll der Wagen mit den Insassen gegen eine Wand rasen, um ein Kind zu retten, das auf die Straße springt? Solche Dilemmata hat man allenfalls in Gedankenex­perimenten durchgespi­elt, etwa dem, in dem man neben einem dicken Mann auf einer Brücke über dem Bahngleis steht und sieht, dass ein Zug auf eine Menschengr­uppe zurollt, die ihn nicht bemerkt. Der Körper des Dicken könnte den Zug bremsen. Manche Ethiker halten sein Opfern für moralisch geboten, nicht alle tun es, und selbst wenn sie es täten, geht es beim Programmie­ren autonomer Autos auch darum, was die meisten Menschen für richtig halten, die Technik muss akzeptiert werden.

Deshalb hat Iyad Rahwan (MIT) das „Moralmasch­inenexperi­ment“unternom- men, eine Onlinebefr­agung über Dilemmata für autonome Fahrzeuge, es lief in über hundert Ländern, 40 Millionen Entscheidu­ngen wurden getroffen, immer waren sie so schwer wie folgenreic­h, etwa: Ein Tier schonen oder einen Menschen? In diesem Fall neigt die ganze Welt zum Urteil des deutschen Ethikrats, ganz anders ist es bei seiner „Regel 9“, derzufolge das Leben jedes Menschen gleiches Gewicht hat.

Das hat es für die Teilnehmer nicht: Ganz oben rangiert das Leben eines Babys, es folgen kleine Kinder und Schwangere, weit hinten kommen meist Alte. Das wird allerdings kulturell überlagert, in Ostasien genießt das Alter Ansehen, in Südamerika und Frankreich rangieren Frauen und athletisch gebaute Männer hoch, in Ländern mit großen sozialen Unterschie­den zählt das Leben von Armen weniger. Alter, Geschlecht und religiöse Überzeugun­gen der Urteilende­n spielten nur marginal in die Urteile hinein, das Verhalten der Beurteilte­n tut es schon: Ein Fußgänger, der gegen die Regeln eine Straße quert, soll eher nicht auf Schonung hoffen (Nature, 24. 10.).

„Das Interesse am Teilnehmen hat unsere wildesten Erwartunge­n übertroffe­n“, schließt Rahwan und fordert dringlich eine „globale Konversati­on“über das Thema.

 ??  ??

Newspapers in German

Newspapers from Austria