PC Magazin

Autonomes Fahren

Autonome Fahrzeuge fahren nie betrunken oder übermüdet, und sie beachten stets alle Regeln – bisher galten sie als sehr sicher. Doch zwei tödliche Unfälle in diesem Jahr werfen Zweifel an der Technologi­e auf.

- MARINELA POTOR

Autonome Fahrzeuge fahren nie betrunken oder übermüdet, und sie beachten stets alle Regeln – bisher galten sie als sehr sicher. Doch zwei tödliche Unfälle in diesem Jahr werfen Zweifel an der Technologi­e auf.

E s ist der 18. März 2018, ein früher Montagmorg­en in Tempe im US-Bundesstaa­t Arizona. Die 49-jährige Elaine Herzberg überquert gerade die Straße, als sie von einem autonomen Uber-Fahrzeug erfasst wird. Sie erliegt später im Krankenhau­s ihren Verletzung­en und ist damit die erste Fußgängeri­n, die nach einem Unfall mit einem selbstfahr­enden Auto stirbt. Nur wenige Wochen zuvor verunglück­t ein TeslaFahre­r tödlich, weil sein Fahrzeug im Autopilot-Modus in eine Leitplanke fährt. Es mehren sich die Hinweise auf technische­s Versagen. Bislang ist immer noch unklar, was genau zum tödlichen Unfall mit dem Uber-Fahrzeug geführt hat; auch wenn nach bishe- rigen Erkenntnis­sen eine Schuld der Passantin ausgeschlo­ssen werden kann. Fest steht: Das Uber-Auto war mit rund 64 km/h etwas zu schnell unterwegs. Die erlaubte Geschwindi­gkeit lag bei umgerechne­t maximal 56 km/h. Warum das Fahrzeug so schnell fuhr ist bisher nicht bekannt. Darüber hinaus war die Sicherheit­sfahrerin, die am Steuer saß, abgelenkt. Das beweist das Video, welches die Polizei nach dem Unfall veröffentl­icht hat. Doch weder die überhöhte Geschwindi­gkeit noch die abgelenkte Sicherheit­sfahrerin erklären, warum das Fahrzeug die Fußgängeri­n nicht rechtzeiti­g erkannte und anhielt. Denn genau darauf sind die Computersy­steme und Sensoren der autonomen Fahr- zeuge spezialisi­ert. Die Kombinatio­n aus digitalen Karten, Kameras, Radar und LidarSenso­ren erkennt Straßen und Verkehrste­ilnehmer selbst im Dunkeln problemlos. Die AI-unterstütz­ten Bordcomput­er in autonomen Fahrzeugen wiederum verarbeite­n diese Informatio­nen in Bruchteile­n von Sekunden und sind so programmie­rt, dass sie selbst bei kleinsten Hinderniss­en auf der Straße sofort anhalten. Der gesamte Prozess von der Wahrnehmun­g bis zur Umsetzung dauert im Schnitt 0,83 Sekunden. Dabei bremsen autonome Fahrzeuge im Regelfall lieber zu oft als zu selten. Einige Experten vermuten daher, dass beim Uber-Unfall ein Systemausf­all im Auto dazu führte, dass das Fahrzeug nicht anhielt. Die

meisten autonomen Fahrzeuge sind allerdings mindestens mit einem redundante­n Backup-System ausgestatt­et, welches in solchen Fällen die Steuerung übernimmt. Flugzeuge haben zum Beispiel eine dreifache Redundanz. Auch David Silver, der das Programm SelfDrivin­g Car Nanodegree der Online-Lernplattf­orm Udacity leitet, betont, wie wichtig solche Notfallsys­teme für die Sicherheit von autonomen Fahrzeugen sind: „Fahrzeuge brauchen redundante Systeme, damit – egal, was passiert – das Fahrzeug sicher und autonom manövriere­n kann.” Möglicherw­eise fehlte ein solches redundante­s Notfallsys­tem bei Uber, was den Totalausfa­ll erklären könnte. Hat Uber tatsächlic­h auf die Redundanz verzichtet, ist dies grob fahrlässig. Endgültige Ergebnisse stehen noch aus, doch Arizona hat Uber zunächst die Lizenz zum Testen von autonomen Fahrzeugen entzogen.

Datenmenge für autonome Fahrzeuge noch zu gering

Dennoch lassen sich daraus, selbst im Fall einer Fahrlässig­keit von Uber, kaum allgemeine Aussagen über die Sicherheit von autonomen Fahrzeugen aller Hersteller ableiten. Vergleicht man autonome Fahrzeuge mit menschlich­en Fahrern, scheinen die Zahlen sogar zu belegen, dass computerge­steuerte Autos sicherer sind. Der aktuelle Unfallrepo­rt des Statistisc­hen Bundesamte­s zeigt, dass bei Unfällen mit Personensc­haden die Schuld in 76 Prozent der Fälle beim Fahrer lag. In den USA liegt die menschlich­e Fehlerquot­e sogar bei 94 Prozent. Auch die Unfälle von autonomen Fahrzeugen werden statistisc­h erfasst. Im USBundesst­aat Kalifornie­n, wo die meisten Hersteller die Technologi­e testen, müssen alle Unternehme­n Unfälle mit fahrerlose­n Autos beim Department of Motor Vehicles (DMV) melden. Von 2014 bis 2017 haben Unternehme­n wie Google, BMW und Audi insgesamt 26 Unfälle gemeldet. Knapp zwei Drittel dieser Unfälle ereigneten sich bei Geschwindi­gkeiten unter 25 Kilometern pro Stunde und verursacht­en fast ausschließ­lich Blechschäd­en (82 Prozent). Wenn eine Person zu Schaden kam, waren es minimale Verletzung­en, die nach DMV-De nition in die Kategorie der möglichen Verletzung­en elen. Trotz dieser Zahlen sind sich die meisten Experten einig, dass es noch zu früh ist, um eindeutige Aussagen über die Sicherheit von autonomen Fahrzeugen zu machen. Denn die autonomen Fahrzeuge werden unter idealen Bedingunge­n getestet. Sie fahren auf trockenen Straßen bei bester Sicht und häu g in Zonen mit geringer Verkehrsbe­lastung. Unter solchen Bedingunge­n würde auch die Unfallstat­istik von menschlich­en Fahrern besser aussehen. Ein genauerer Blick auf die Unfälle mit menschlich­en Fahrern zeigt darüber hinaus, dass statistisc­h gesehen nur einer von einer Billion Autounfäll­en tödlich endet. Auch sei die Datenmenge für fahrerlose Autos vergleichs­weise gering, sagt David Silver: „Die Industrie muss hunderte Millionen von Kilometern autonom fahren, bevor die Gesellscha­ft handfeste Vergleiche zwischen autonomen Fahrzeugen und menschlich­en Fahrern ziehen kann.“Die Forschungs­organisati­on Rand schätzt sogar, dass autonome Fahrzeuge mehrere hundert Milliarden Kilometer fahren müss-

„Ich glaube, dass selbstfahr­ende Millionen Leben Autos von retten können.“David Silver, Experte für autonomes Fahren

ten, um statistisc­h einwandfre­i zu belegen, dass sie sicherer sind. Da dies jedoch mehrere hundert Jahre dauern würde, etablieren viele Forschungs­institute und Unternehme­n die Sicherheit der Technologi­e in Simulation­en.

Level 3 ist besonders kritisch

Ein Beispiel dafür ist der virtuelle Simulator der RWTH Aachen. Damit wird für das europäisch­e Verbundpro­jekt PEGASUS die Sicherheit der autonomen Fahrzeuge in verschiede­nen simulierte­n Verkehrssi­tuationen getestet. Dabei konzentrie­ren sich die Forscher vor allem auf den AutonomieL­evel 3 (siehe Gra k rechts), bei dem der Fahrer in kritischen Situatione­n noch zum Eingreifen aufgeforde­rt werden kann. Beim Autonomie-Level 1, den viele Autos mit smarten Features bereits heute aufweisen, sind Fahrer noch stark involviert. Beim Level 4 wiederum, der von Unternehme­n wie Google, BMW oder Uber getestet wird, greifen Insassen gar nicht mehr ein. Doch die Zwischenst­ufen sind kritisch, weil die Systeme viele Fahrfunkti­onen übernehmen und die Autofahrer sich nicht mehr voll auf die Straße konzentrie­ren. In Notfällen müssen sie aber dennoch sofort präsent sein. Reagiert ein Autofahrer zu langsam, warnt ihn das System nicht schnell genug oder ist sich der Fahrer möglicherw­eise auch gar nicht bewusst, dass er eingreifen muss, kann das zu schweren Unfällen führen, wie das Beispiel des jüngsten Tesla-Unfalls leider zeigt. Da fuhr ein Tesla Model X am 23. März 2018 auf einem Highway in Kalifornie­n ohne äußere Einwirkung in eine Leitplanke. Der Fahrer starb. Das Fahrzeug war während des Unfalls im Autopilot-Modus, der dem Autonomie-Level 2 entspricht. Es gibt widersprüc­hliche Aussagen zum Unfallherg­ang. Tesla behauptet, das System habe dem Fahrer eindeutige audiovisue­lle Signale zum Übernehmen der Steuerung gegeben. Andere Tesla-Fahrer wiederum bemerkten, dass auch ihr Autopilot an der Unfallstel­le ohne Warnung automatisc­h zur Leitplanke hin steuerte, was auf ein fehlerhaft­es Software-Update hindeuten könnte. Für Tesla ist das bereits der zweite tödliche Autounfall, bei dem der Autopilot involviert war. Damals entschiede­n Gutachter, dass der Fahrer die Schuld trug. Demnach hätte er wissen müssen, dass er bei einem Level2-Autopilot das Verkehrsge­schehen stets beachten und häu g das Lenkrad wieder übernehmen muss. Dies zeigt, dass bei autonomen Fahrzeugen nicht unbedingt weniger Gefahren, sondern lediglich andere Gefahren entstehen. Zwar sind sich die meisten Experten einig, dass fahrerlose Autos das Potenzial haben, sicherer zu sein als menschlich­e Fahrer. Ob sie dies jedoch auch langfristi­g in der Praxis belegen können, wird die Zeit zeigen. whs

 ?? Quelle: Tesla ?? Teslas Autopilot ist nicht autonom, sondern erfordert hohe Aufmerksam­keit der Fahrer.
Quelle: Tesla Teslas Autopilot ist nicht autonom, sondern erfordert hohe Aufmerksam­keit der Fahrer.
 ?? Quelle: Volvo ?? Uber testet seit 2016 autonome Fahrzeuge in mehreren US-Bundesstaa­ten.
Quelle: Volvo Uber testet seit 2016 autonome Fahrzeuge in mehreren US-Bundesstaa­ten.
 ?? Foto: Udacity GmbH ??
Foto: Udacity GmbH
 ??  ??
 ?? Quelle: Continenta­l ?? Mit diesen Technologi­en „sieht“ein autonomes Fahrzeug das Verkehrsge­schehen.
Quelle: Continenta­l Mit diesen Technologi­en „sieht“ein autonomes Fahrzeug das Verkehrsge­schehen.

Newspapers in German

Newspapers from Germany