Das Misstrauen gegenüber Roboterautos wächst
Verkehr. Autonome Fahrzeuge sind technisch weithin ausgereift. Nun geht es um ihre Akzeptanz.
LeBron James, einem US-Basketballstar, graust so leicht vor nichts. Als er sich aber im Oktober in ein Roboterauto setzen sollte, äußerte er unmissverständlichen Widerwillen: „Nope!“(„Nee!“) Er nahm trotzdem neben dem fehlenden Fahrer Platz, und wenige Minuten darauf revidierte er sein Urteil, lobte das Gefährt in höchsten Tönen. Das Ganze war in einem Werbeclip des Computerchip-Herstellers Intel zu sehen, er zielte auf das, was das größte Problem für selbstfahrende Autos – autonomous vehicles, AV – werden könnte: das mangelnde Vertrauen der Konsumenten: Zuletzt gaben in einer Umfrage in den USA 78 Prozent an, sie würden sich davor fürchten, in einem AV zu fahren, und 41 Prozent wollten, wenn sie selbst mit ihrem Wagen und ihren Händen am Steuer unterwegs sind, einem AV nicht begegnen (Science 358, S. 1375).
Die Zahlen sind frisch, und sie sind in den letzten zwei Jahren gestiegen, Erhebungen des MIT zeigen es, die Branche weiß es: „Wir könnten das sicherste Auto der Welt haben“, erklärt der für den Intel-Clip Verantwortliche: „Aber wenn die Konsumenten ihre Kinder nicht hinein setzen wollen, wird es keinen Markt dafür geben.“
Deshalb wird auch die Wissenschaft an die Front geworfen: Eine von Intel finanzierte Studie zeigte, dass das Verhalten des Basketballers James typisch ist: Erst instinktive Ablehnung, dann, nach einer Probefahrt von nur fünf Minuten, eine Wende um 180 Grad. Und das ohne vertrauensbildende Maßnahmen: Manche Testfahrzeuge konnten auch sprechen und erklärten etwa, dass sie eines Fußgängers wegen bremsen. Das hörten die Testpersonen anfangs gern, bald hatten sie aber genug davon. Erfolgreicher waren Displays, auf denen den Fahrgästen gezeigt wurde, was der autonome Fahrer gerade „sah“, den Überblick behält man gerne, manche Testpersonen versuchten auch, dem Wagen Instruktionen zu erteilen, mit Worten oder Gesten. Allerdings warnen Experten, dass damit zu viel anthropomorphisiert und zu großes Vertrauen aufgebaut werden könnte.
Bei Unfall: Wen retten, wen opfern?
Denn die Roboter sind nicht fehlerlos, es gab schon Unfälle, ein Testpilot in einem Tesla-AV kam zu Tode. Das passierte bisher noch keinem von denen, denen die zweite Sorge gilt, den anderen Verkehrsteilnehmern. Fußgänger etwa nehmen im heutigen Verkehrssystem beim Überqueren einer Straße gerne Blickkontakt mit Autolenkern auf, John Sutko, Forscher bei Ford, stattet deshalb AVs mit Blinklichtern an der Windschutzscheibe aus, die drei verschiedene Signale geben können. Andere Hersteller tun Ähnliches, allerdings bisher unkoordiniert, Fußgänger würden rasch verwirrt.
Und wenn sie Schlimmeres würden, gefährdet? Wenn ein AV „sieht“, dass er in eine Gruppe von Fußgängern rast und sie nur retten kann, wenn er gegen eine Wand fährt und den Fahrgast tötet? Wie soll man programmieren? Bei Befragungen sprechen sich die meisten dafür aus, den einen statt der vielen zu opfern – sofern sie nicht selbst der eine sind. Ein Verantwortlicher von Mercedes nahm das auf und proklamierte: „Rettet den im Auto!“Er musste zurückgepfiffen werden, das Publikum hatte sensibel reagiert. Und das tut es nicht nur in ethischen Grundsatzfragen, sondern auch bei handfesten Alltagsproblemen: Viele fürchten, dass AVs gehackt werden könnten.