Autonomes Fahren
Autonome Fahrzeuge fahren nie betrunken oder übermüdet, und sie beachten stets alle Regeln – bisher galten sie als sehr sicher. Doch zwei tödliche Unfälle in diesem Jahr werfen Zweifel an der Technologie auf.
Autonome Fahrzeuge fahren nie betrunken oder übermüdet, und sie beachten stets alle Regeln – bisher galten sie als sehr sicher. Doch zwei tödliche Unfälle in diesem Jahr werfen Zweifel an der Technologie auf.
E s ist der 18. März 2018, ein früher Montagmorgen in Tempe im US-Bundesstaat Arizona. Die 49-jährige Elaine Herzberg überquert gerade die Straße, als sie von einem autonomen Uber-Fahrzeug erfasst wird. Sie erliegt später im Krankenhaus ihren Verletzungen und ist damit die erste Fußgängerin, die nach einem Unfall mit einem selbstfahrenden Auto stirbt. Nur wenige Wochen zuvor verunglückt ein TeslaFahrer tödlich, weil sein Fahrzeug im Autopilot-Modus in eine Leitplanke fährt. Es mehren sich die Hinweise auf technisches Versagen. Bislang ist immer noch unklar, was genau zum tödlichen Unfall mit dem Uber-Fahrzeug geführt hat; auch wenn nach bishe- rigen Erkenntnissen eine Schuld der Passantin ausgeschlossen werden kann. Fest steht: Das Uber-Auto war mit rund 64 km/h etwas zu schnell unterwegs. Die erlaubte Geschwindigkeit lag bei umgerechnet maximal 56 km/h. Warum das Fahrzeug so schnell fuhr ist bisher nicht bekannt. Darüber hinaus war die Sicherheitsfahrerin, die am Steuer saß, abgelenkt. Das beweist das Video, welches die Polizei nach dem Unfall veröffentlicht hat. Doch weder die überhöhte Geschwindigkeit noch die abgelenkte Sicherheitsfahrerin erklären, warum das Fahrzeug die Fußgängerin nicht rechtzeitig erkannte und anhielt. Denn genau darauf sind die Computersysteme und Sensoren der autonomen Fahr- zeuge spezialisiert. Die Kombination aus digitalen Karten, Kameras, Radar und LidarSensoren erkennt Straßen und Verkehrsteilnehmer selbst im Dunkeln problemlos. Die AI-unterstützten Bordcomputer in autonomen Fahrzeugen wiederum verarbeiten diese Informationen in Bruchteilen von Sekunden und sind so programmiert, dass sie selbst bei kleinsten Hindernissen auf der Straße sofort anhalten. Der gesamte Prozess von der Wahrnehmung bis zur Umsetzung dauert im Schnitt 0,83 Sekunden. Dabei bremsen autonome Fahrzeuge im Regelfall lieber zu oft als zu selten. Einige Experten vermuten daher, dass beim Uber-Unfall ein Systemausfall im Auto dazu führte, dass das Fahrzeug nicht anhielt. Die
meisten autonomen Fahrzeuge sind allerdings mindestens mit einem redundanten Backup-System ausgestattet, welches in solchen Fällen die Steuerung übernimmt. Flugzeuge haben zum Beispiel eine dreifache Redundanz. Auch David Silver, der das Programm SelfDriving Car Nanodegree der Online-Lernplattform Udacity leitet, betont, wie wichtig solche Notfallsysteme für die Sicherheit von autonomen Fahrzeugen sind: „Fahrzeuge brauchen redundante Systeme, damit – egal, was passiert – das Fahrzeug sicher und autonom manövrieren kann.” Möglicherweise fehlte ein solches redundantes Notfallsystem bei Uber, was den Totalausfall erklären könnte. Hat Uber tatsächlich auf die Redundanz verzichtet, ist dies grob fahrlässig. Endgültige Ergebnisse stehen noch aus, doch Arizona hat Uber zunächst die Lizenz zum Testen von autonomen Fahrzeugen entzogen.
Datenmenge für autonome Fahrzeuge noch zu gering
Dennoch lassen sich daraus, selbst im Fall einer Fahrlässigkeit von Uber, kaum allgemeine Aussagen über die Sicherheit von autonomen Fahrzeugen aller Hersteller ableiten. Vergleicht man autonome Fahrzeuge mit menschlichen Fahrern, scheinen die Zahlen sogar zu belegen, dass computergesteuerte Autos sicherer sind. Der aktuelle Unfallreport des Statistischen Bundesamtes zeigt, dass bei Unfällen mit Personenschaden die Schuld in 76 Prozent der Fälle beim Fahrer lag. In den USA liegt die menschliche Fehlerquote sogar bei 94 Prozent. Auch die Unfälle von autonomen Fahrzeugen werden statistisch erfasst. Im USBundesstaat Kalifornien, wo die meisten Hersteller die Technologie testen, müssen alle Unternehmen Unfälle mit fahrerlosen Autos beim Department of Motor Vehicles (DMV) melden. Von 2014 bis 2017 haben Unternehmen wie Google, BMW und Audi insgesamt 26 Unfälle gemeldet. Knapp zwei Drittel dieser Unfälle ereigneten sich bei Geschwindigkeiten unter 25 Kilometern pro Stunde und verursachten fast ausschließlich Blechschäden (82 Prozent). Wenn eine Person zu Schaden kam, waren es minimale Verletzungen, die nach DMV-De nition in die Kategorie der möglichen Verletzungen elen. Trotz dieser Zahlen sind sich die meisten Experten einig, dass es noch zu früh ist, um eindeutige Aussagen über die Sicherheit von autonomen Fahrzeugen zu machen. Denn die autonomen Fahrzeuge werden unter idealen Bedingungen getestet. Sie fahren auf trockenen Straßen bei bester Sicht und häu g in Zonen mit geringer Verkehrsbelastung. Unter solchen Bedingungen würde auch die Unfallstatistik von menschlichen Fahrern besser aussehen. Ein genauerer Blick auf die Unfälle mit menschlichen Fahrern zeigt darüber hinaus, dass statistisch gesehen nur einer von einer Billion Autounfällen tödlich endet. Auch sei die Datenmenge für fahrerlose Autos vergleichsweise gering, sagt David Silver: „Die Industrie muss hunderte Millionen von Kilometern autonom fahren, bevor die Gesellschaft handfeste Vergleiche zwischen autonomen Fahrzeugen und menschlichen Fahrern ziehen kann.“Die Forschungsorganisation Rand schätzt sogar, dass autonome Fahrzeuge mehrere hundert Milliarden Kilometer fahren müss-
„Ich glaube, dass selbstfahrende Millionen Leben Autos von retten können.“David Silver, Experte für autonomes Fahren
ten, um statistisch einwandfrei zu belegen, dass sie sicherer sind. Da dies jedoch mehrere hundert Jahre dauern würde, etablieren viele Forschungsinstitute und Unternehmen die Sicherheit der Technologie in Simulationen.
Level 3 ist besonders kritisch
Ein Beispiel dafür ist der virtuelle Simulator der RWTH Aachen. Damit wird für das europäische Verbundprojekt PEGASUS die Sicherheit der autonomen Fahrzeuge in verschiedenen simulierten Verkehrssituationen getestet. Dabei konzentrieren sich die Forscher vor allem auf den AutonomieLevel 3 (siehe Gra k rechts), bei dem der Fahrer in kritischen Situationen noch zum Eingreifen aufgefordert werden kann. Beim Autonomie-Level 1, den viele Autos mit smarten Features bereits heute aufweisen, sind Fahrer noch stark involviert. Beim Level 4 wiederum, der von Unternehmen wie Google, BMW oder Uber getestet wird, greifen Insassen gar nicht mehr ein. Doch die Zwischenstufen sind kritisch, weil die Systeme viele Fahrfunktionen übernehmen und die Autofahrer sich nicht mehr voll auf die Straße konzentrieren. In Notfällen müssen sie aber dennoch sofort präsent sein. Reagiert ein Autofahrer zu langsam, warnt ihn das System nicht schnell genug oder ist sich der Fahrer möglicherweise auch gar nicht bewusst, dass er eingreifen muss, kann das zu schweren Unfällen führen, wie das Beispiel des jüngsten Tesla-Unfalls leider zeigt. Da fuhr ein Tesla Model X am 23. März 2018 auf einem Highway in Kalifornien ohne äußere Einwirkung in eine Leitplanke. Der Fahrer starb. Das Fahrzeug war während des Unfalls im Autopilot-Modus, der dem Autonomie-Level 2 entspricht. Es gibt widersprüchliche Aussagen zum Unfallhergang. Tesla behauptet, das System habe dem Fahrer eindeutige audiovisuelle Signale zum Übernehmen der Steuerung gegeben. Andere Tesla-Fahrer wiederum bemerkten, dass auch ihr Autopilot an der Unfallstelle ohne Warnung automatisch zur Leitplanke hin steuerte, was auf ein fehlerhaftes Software-Update hindeuten könnte. Für Tesla ist das bereits der zweite tödliche Autounfall, bei dem der Autopilot involviert war. Damals entschieden Gutachter, dass der Fahrer die Schuld trug. Demnach hätte er wissen müssen, dass er bei einem Level2-Autopilot das Verkehrsgeschehen stets beachten und häu g das Lenkrad wieder übernehmen muss. Dies zeigt, dass bei autonomen Fahrzeugen nicht unbedingt weniger Gefahren, sondern lediglich andere Gefahren entstehen. Zwar sind sich die meisten Experten einig, dass fahrerlose Autos das Potenzial haben, sicherer zu sein als menschliche Fahrer. Ob sie dies jedoch auch langfristig in der Praxis belegen können, wird die Zeit zeigen. whs