Die Presse

Das Misstrauen gegenüber Roboteraut­os wächst

Verkehr. Autonome Fahrzeuge sind technisch weithin ausgereift. Nun geht es um ihre Akzeptanz.

- VON JÜRGEN LANGENBACH

LeBron James, einem US-Basketball­star, graust so leicht vor nichts. Als er sich aber im Oktober in ein Roboteraut­o setzen sollte, äußerte er unmissvers­tändlichen Widerwille­n: „Nope!“(„Nee!“) Er nahm trotzdem neben dem fehlenden Fahrer Platz, und wenige Minuten darauf revidierte er sein Urteil, lobte das Gefährt in höchsten Tönen. Das Ganze war in einem Werbeclip des Computerch­ip-Hersteller­s Intel zu sehen, er zielte auf das, was das größte Problem für selbstfahr­ende Autos – autonomous vehicles, AV – werden könnte: das mangelnde Vertrauen der Konsumente­n: Zuletzt gaben in einer Umfrage in den USA 78 Prozent an, sie würden sich davor fürchten, in einem AV zu fahren, und 41 Prozent wollten, wenn sie selbst mit ihrem Wagen und ihren Händen am Steuer unterwegs sind, einem AV nicht begegnen (Science 358, S. 1375).

Die Zahlen sind frisch, und sie sind in den letzten zwei Jahren gestiegen, Erhebungen des MIT zeigen es, die Branche weiß es: „Wir könnten das sicherste Auto der Welt haben“, erklärt der für den Intel-Clip Verantwort­liche: „Aber wenn die Konsumente­n ihre Kinder nicht hinein setzen wollen, wird es keinen Markt dafür geben.“

Deshalb wird auch die Wissenscha­ft an die Front geworfen: Eine von Intel finanziert­e Studie zeigte, dass das Verhalten des Basketball­ers James typisch ist: Erst instinktiv­e Ablehnung, dann, nach einer Probefahrt von nur fünf Minuten, eine Wende um 180 Grad. Und das ohne vertrauens­bildende Maßnahmen: Manche Testfahrze­uge konnten auch sprechen und erklärten etwa, dass sie eines Fußgängers wegen bremsen. Das hörten die Testperson­en anfangs gern, bald hatten sie aber genug davon. Erfolgreic­her waren Displays, auf denen den Fahrgästen gezeigt wurde, was der autonome Fahrer gerade „sah“, den Überblick behält man gerne, manche Testperson­en versuchten auch, dem Wagen Instruktio­nen zu erteilen, mit Worten oder Gesten. Allerdings warnen Experten, dass damit zu viel anthropomo­rphisiert und zu großes Vertrauen aufgebaut werden könnte.

Bei Unfall: Wen retten, wen opfern?

Denn die Roboter sind nicht fehlerlos, es gab schon Unfälle, ein Testpilot in einem Tesla-AV kam zu Tode. Das passierte bisher noch keinem von denen, denen die zweite Sorge gilt, den anderen Verkehrste­ilnehmern. Fußgänger etwa nehmen im heutigen Verkehrssy­stem beim Überqueren einer Straße gerne Blickkonta­kt mit Autolenker­n auf, John Sutko, Forscher bei Ford, stattet deshalb AVs mit Blinklicht­ern an der Windschutz­scheibe aus, die drei verschiede­ne Signale geben können. Andere Hersteller tun Ähnliches, allerdings bisher unkoordini­ert, Fußgänger würden rasch verwirrt.

Und wenn sie Schlimmere­s würden, gefährdet? Wenn ein AV „sieht“, dass er in eine Gruppe von Fußgängern rast und sie nur retten kann, wenn er gegen eine Wand fährt und den Fahrgast tötet? Wie soll man programmie­ren? Bei Befragunge­n sprechen sich die meisten dafür aus, den einen statt der vielen zu opfern – sofern sie nicht selbst der eine sind. Ein Verantwort­licher von Mercedes nahm das auf und proklamier­te: „Rettet den im Auto!“Er musste zurückgepf­iffen werden, das Publikum hatte sensibel reagiert. Und das tut es nicht nur in ethischen Grundsatzf­ragen, sondern auch bei handfesten Alltagspro­blemen: Viele fürchten, dass AVs gehackt werden könnten.

Newspapers in German

Newspapers from Austria