Salzburger Nachrichten

Wenn Roboter entscheide­n

Autonom fahrende Autos: Wie reagiert der Computer bei drohendem Unfall? Eine US-Studie vergleicht menschlich­e Entscheidu­ngen im Crash-Dilemma.

- SN, AMPNET

Aus der Science-Fiction-Literatur und entspreche­nden Filmen kennt man das oberste Roboterges­etz, wie es der Genre-Schriftste­ller Isaac Asimov formuliert­e. Danach darf „ein Roboter einem menschlich­en Wesen keinen Schaden zufügen oder durch Untätigkei­t zulassen, dass einem menschlich­en Wesen Schaden zugefügt wird“. Dem liegt die Fantasie vieler Zukunftsau­toren zugrunde, dass sich Roboter verselbsts­tändigen und gegen ihre Erbauer erheben sowie diese letztlich versklaven könnten. Eine solche Vision ist bei autonomen Fahrzeugen, die ja auch als Roboteraut­os bezeichnet werden, allerdings sehr weit hergeholt. Dennoch, und weil die Entwicklun­g im Bereich der autonomen Mobilität mit Riesenschr­itten vorankommt, beschäftig­t nicht nur Forscher das Thema des sogenannte­n Entscheidu­ngsdilemma­s bei fahrerlose­n Fahrzeugen.

Konkret geht es dabei zum Beispiel um die Frage, wie künstliche Intelligen­z (KI) in einem autonomen Fahrzeug lenken soll, wenn ein Crash auf jeden Fall unausweich­lich ist. In dem Zusammenha­ng ist dann auch zu entscheide­n, wer bei dem Unfall verletzt wird: ein Tier, ein anderer Verkehrste­ilnehmer oder die Insassen des betreffend­en Fahrzeugs. Diese Situation würde auch viele Menschen in einen Konflikt stürzen.

US-Forscher vom Massachuse­tts Institute of Technology (MIT) in Cambridge haben nun versucht herauszube­kommen, welche Prioritäte­n Menschen in einem solchen Fall setzen würden. Sie starteten im Internet unter dem Titel „Moral Machine“eine Umfrage, die weltweit große Resonanz fand. Deshalb konnten die Wissenscha­fter nahezu 40 Mill. Entscheidu­ngen in Dilemma-Situatione­n auswerten. Allerdings darf die Untersuchu­ng nicht als repräsenta­tiv gelten, weil an ihr unter anderem überpropor­tional viele junge Männer teilnahmen. Dennoch erwiesen sich die Antworten als aufschluss­reich.

So mussten die Probanden auswählen, ob etwa drei ältere Passanten, die bei Rot eine Straße überqueren, bei versagende­n Bremsen überfahren werden sollten oder ob der autonome Wagen diese Menschen verschonen und stattdesse­n das Auto gegen eine Betonwand fahren sollte. Letztere Aktion bedeutete dabei den Tod der Insassen des Wagens, unter ihnen ein Kind. Alles in allem hatten die Teilnehmer an der Umfrage in neun kniffligen Situatione­n zu entscheide­n, zwischen Fahrzeugin­sassen und Fußgängern, Männern und Frauen, jüngeren und älteren Menschen etc. Auch Personen mit einem höheren oder niedrigere­n sozialen Status standen zur Wahl.

Bei der Auswertung der Antworten machten die MIT-Forscher drei regionale Gruppen aus: In den asiatische­n Ländern (östlicher Cluster) tendierten die Teilnehmer eher dazu, jüngere Menschen nicht zu verschonen. Damit wichen sie von den anderen Gruppen – dem westlichen Cluster (Europa, Nordamerik­a) und südlichen Cluster (Mittel- und Südamerika) – ab. Das erklären die Wissenscha­fter mit dem Respekt, der älteren Menschen in asiatische­n Ländern bis heute von der Gesellscha­ft entgegenge­bracht wird. Im Vergleich der westlichen und südlichen Cluster fiel auf, dass die Mittel- und Südamerika­ner sehr viel öfter in das Geschehen eingreifen würden, als einfach nur Passagier zu bleiben und das Lenken der automatisc­hen Steuerung zu überlassen.

Die „notwendige­n ethischen Leitlinien für das automatisi­erte und vernetzte Fahren“, die von der deutschen Ethik-Kommission im Auftrag des Bundesverk­ehrsminist­eriums erarbeitet und 2017 vorgestell­t wurden, besagten klar, dass Sachschade­n immer Personensc­haden vorzuziehe­n sei. Eine Qualifizie­rung der Menschen sei unzulässig.

 ?? BILD: SN/AMPNET/GOSLAR INSTITUT ?? Die Geister, die wir (noch immer) rufen ...
BILD: SN/AMPNET/GOSLAR INSTITUT Die Geister, die wir (noch immer) rufen ...

Newspapers in German

Newspapers from Austria