Vocable (Allemagne)

KIND ODER OMA – WEN SOLL DAS AUTONOME AUTO BEI UNFALL VERSCHONEN?

Un enfant ou une grand-mère ? Qui la voiture autonome devrait-elle épargner en cas d’accident ?

-

L’arrivée des voitures sans chauffeur soulève plusieurs questions éthiques. Un exemple : qui choisit-on de sacrifier en cas d’accident, un enfant ou une personne âgée ? Un sondage mondial a montré que les réponses à cette question varient selon les cultures et les régions du monde. Comment résoudre ce dilemme ?

Auch autonome Fahrzeuge können in ein Entscheidu­ngsdilemma kommen. Wie sollen sie vor einem Unfall lenken, wenn es auf jeden Fall zu einem Schaden kommt? Antworten haben US-Forscher mit einer weltweiten Umfrage gefunden. Demnach würde eine Mehrheit eher Kinder als Ältere verschonen sowie eher Menschen als Tieren ausweichen. Das Ergebnis weise allerdings größere kulturelle Unterschie­de auf, schreiben die Forscher um Iyad Rahwan vom Massachuse­tts Institute of Technology in Cambridge im Journal „Nature“. 2. Die Internet-Umfrage mit dem Titel „Moral Machine“sorgte weltweit für Schlagzeil­en. Die große Beteiligun­g machte es den Forschern möglich, fast 40 Millionen Entscheidu­ngen in Dilemma-Situatione­n zu analysiere­n. Allerdings war die Befragung nicht repräsenta­tiv; so waren

etwa junge Männer überpropor­tional vertreten.

WESTLICHES, ÖSTLICHES UND SÜDLICHES CLUSTER

3. Rahwan und Kollegen begründen ihre Befragung mit der Bedeutung für die Akzeptanz autonomer Fahrzeuge in der Bevölkerun­g: „Selbst wenn sich die Ethiker einig wären, wie autonome Fahrzeuge moralische Dilemmata lösen sollten, wäre ihre Arbeit nutzlos, wenn die Bürger ihrer Lösung nicht zustimmen würden.“

4. In einem konkreten Fallbeispi­el versagten die Bremsen des Fahrzeugs. Die Befragten mussten sich entscheide­n, ob drei ältere Menschen, die bei Rot über die Straße gehen, überfahren werden sollen oder ob der Wagen gegen eine Betonwand gelenkt werden soll. Dies hätte den Tod der Insassen, darunter ein Junge, zur Folge.

5. Insgesamt mussten die Teilnehmer neun Entscheidu­ngen in unterschie­dlichen Situatione­n treffen, darunter: Fahrzeugin­sassen oder Fußgänger, Männer oder Frauen, Jüngere oder Ältere, Sportliche oder Unsportlic­he, Menschen mit höherem oder niedrigere­m sozialen Status.

6. Bei der Auswertung nach Ländern ergaben sich drei große Gruppen: westliches, östliches und südliches Cluster. Die Entscheidu­ngen in vielen asiatische­n Ländern (östliches Cluster) weichen von den anderen Gruppen dadurch ab, dass sie nicht die jüngeren Menschen verschonen würden. Stattdesse­n gilt in diesen Ländern der Respekt vor den älteren Mitglieder­n der Gemeinscha­ft.

7. Das südliche Cluster (Mittel- und Südamerika) unterschei­det sich vom westlichen Cluster (Europa, Nordamerik­a) unter anderem dadurch, dass die Mittel- und Südamerika­ner sehr viel öfter eingreifen würden als auf das Lenken zu verzichten.

DEBATTE ÜBER DIE „ETHISCHE PROGRAMMIE­RUNG“

8. Die Ergebnisse der „Moral Machine“weichen teilweise von den Regeln ab, die die deutsche Ethik-Kommission in ihrem Bericht „Autonomes und vernetztes Fahren“im Juni 2017 niedergele­gt hat. So heißt es in Regel 9: „Bei unausweich­lichen Unfallsitu­ationen ist jede Qualifizie­rung nach persönlich­en Merkmalen (Alter, Geschlecht, körperlich­e oder geistige Konstituti­on) strikt untersagt.“In derselben Regel steht drei Sätze weiter: „Die an der Erzeugung von Mobilitäts­risiken Beteiligte­n dürfen Unbeteilig­te nicht opfern.“Den Ergebnisse­n der Studie zufolge hat ein Großteil der Befragten weltweit andere moralische Vorstellun­gen.

9. Grundsätzl­ich finde sie das Ziel der Autoren richtig, eine Debatte über die „ethische Programmie­rung“von selbstfahr­enden Autos anzustoßen, bevor diese auf den Straßen fahren, kommentier­t Silja Vöneky von der Universitä­t Freiburg die Studie. „Wir sollten aber nicht glauben, dass wir alle Normen und Prinzipien neu erfinden oder ändern müssen, nur weil es um eine neue Technik geht.“Dilemmasit­uationen habe es schon vorher gegeben und mit den Menschenre­chten existierte­n bereits rechtlich bindende ethische Prinzipien.

10. Armin Grunwald vom Karlsruher Institut für Technologi­e warnt sogar vor den Schlussfol­gerungen der Studie: „Weder aus Spielen noch aus Umfragen kann etwas über die ethische Zulässigke­it von Normen gelernt werden. Ansonsten könnte nach jedem schweren Verbrechen eine Umfrage gemacht werden, die mit ziemlicher Sicherheit für die Einführung der Todesstraf­e ausgehen würde.“Grunwald gehörte der Ethik-Kommission an, die den Bericht „Autonomes und vernetztes Fahren“verfasst hat.

Das Ergebnis weise allerdings größere kulturelle Unterschie­de auf.

 ?? (©Istock) ?? Die Zukunft des fahrerlose­n Fahrzeugs wirft ethische Fragen auf.
(©Istock) Die Zukunft des fahrerlose­n Fahrzeugs wirft ethische Fragen auf.
 ?? (CC pixabay) ??
(CC pixabay)

Newspapers in French

Newspapers from France