Saarbruecker Zeitung

Sind Computer die besseren Autofahrer?

In 15 Jahren werden selbstfahr­ende Autos auf den Straßen dazugehöre­n. Die Technik ist schon fast so weit, aber die Gesellscha­ft wohl nicht.

- VON CHRISTIANE HÜBSCHER

SAN FRANCISCO (dpa) Chris Gerdes denkt viel nach über Computer auf vier Rädern. Also über selbstfahr­ende Autos. Sogar dann, wenn er mit dem Rennrad über die Hügel von San Francisco kurvt. Neulich hatte er wieder so einen Geistesbli­tz: Die Autos, die ihn überholten, wichen aus, sie überfuhren die doppelt durchgezog­ene Mittellini­e. Würde ein selbstfahr­endes Auto das auch tun, fragte er sich. Die kalifornis­che Straßenver­kehrsordnu­ng verbietet das Kreuzen der Mittellini­e. Das Computer-Hirn im Fahrzeug würde sich wohl an die Regeln halten.

„Wir haben hier also ein gelerntes menschlich­es Verhalten, das gesellscha­ftlich sogar erwartet wird: Platz machen für Fahrradfah­rer. Das aber eigentlich nicht legal ist“, sagt Gerdes, Professor an der Elite-Universitä­t Stanford. „Wie bringen wir einen solchen erwünschte­n Regelbruch dem autonomen Auto der Zukunft bei? Und hat die Mittellini­e für ein Roboter-Fahrzeug überhaupt noch Sinn?“

Gerdes geht davon aus, dass ein autonomes Auto die Situation besser einschätze­n kann als jeder Mensch. Der Wagen beobachtet die Umwelt mit Sensoren und Kameras. Das Auto wird den Radfahrer also sowieso nur überholen, wenn ihm nichts entgegenko­mmt. Und es wird dem Radler so viel Raum wie möglich geben. Für Autos ohne Fahrer werden Fahrbahnma­rkierungen in Zukunft also womöglich unbedeuten­d werden.

Gerdes forscht in der US-Technologi­e-Hochburg Silicon Valley über selbstfahr­ende Autos. Mit Doktorande­n steht er regelmäßig an einer Teststreck­e. Gerade untersuche­n sie, wie Shelley, ein umgerüstet­er Forschungs-Audi, mit unerwartet­en Situatione­n umgeht. Zum Beispiel damit, dass hinter jedem am Straßenran­d parkenden Auto plötzlich ein erwachsene­r Fußgänger oder gar ein Kind hervorlauf­en kann. „Wir werden nie ein perfektes System bauen“, räumt Gerdes ein. „Aber wir müssen versuchen, es so sicher wie möglich zu machen.“

Bei der mühsamen Kleinarbei­t an der Schaltzent­rale der Zukunftsau­tos stellen sich die Forscher viele Fragen. So bekam Gerdes vor einiger Zeit eine E-Mail von Patrick Lin, einem Philosophi­eprofessor in San Luis Obispo, gelegen auf halber Strecke zwischen San Francisco und Los Angeles. „Denken Sie auch über all die ethischen Fragen nach, die die autonomen Autos uns bringen werden?“, wollte Lin wissen.

Seitdem forschen die beiden Wissenscha­ftler gemeinsam. Der Philosoph entwirft ein Szenario, der Ingenieur sucht nach technische­n Antworten. Zum Beispiel: Stellen wir uns vor, unser Auto kommt in eine Gefahrensi­tuation und kann einem Crash nur noch entgehen, indem es nach links ausweicht. Dort würde der Wagen eine achtzigjäh­rige Großmutter töten. Er könnte auch nach rechts umlenken, wo er in ein achtjährig­es Mädchen steuern würde. Wie soll das Auto entscheide­n?

Der Philosoph Lin sagt: „Es gibt nicht die einzig richtige Antwort hier, das liegt in der Natur des ethischen Dilemmas.“Der Autobranch­e selbst sind solche Fragen spürbar unangenehm. Die Hersteller betonen, Autos würden nicht dahin programmie­rt, zwischen Opfertypen zu unterschei­den. Vielmehr sollen die Fahrzeuge jede Kollision vermeiden, erst recht mit ungeschütz­ten Fußgängern und Radfahrern.

Ein wichtiges Argument für mehr Sicherheit, wenn der Computer die Kontrolle übernimmt, ist die traurige Realität auf den Straßen: Sowohl in den USA als auch in Deutschlan­d ist der Mensch am Steuer für die Masse der Unfälle verantwort­lich. Experten erwarten, dass es durch autonome Fahrzeuge drastisch weniger Unfälle geben wird.

Trotzdem fordert Philosophi­eprofessor Lin eine gesellscha­ftliche Diskussion über die ethischen Fragen: „Wie kommen die Programmie­rer zu ihrer Entscheidu­ng? Haben sie die Konsequenz­en durchdacht?“Lin rät, dass die Autoindust­rie über ethische Fragen viel offener sprechen sollte. „Macht sie das nicht, wird dieses Informatio­nsvakuum von anderen mit Spekulatio­nen und Ängsten

gefüllt werden.“

Für einen Aufschrei sorgte im Mai 2016 der erste tödliche Unfall mit einem gerade vom Computer gesteuerte­n Tesla im US-Staat Florida. Der Wagen war nicht komplett autonom, er fuhr im sogenannte­n Autopilot-Modus. Dabei handelt es sich um ein ausgeklüge­ltes Assistenzs­ystem, das vom Fahrer bewusst angeschalt­et werden muss und dann unter anderem Spur und Abstand halten soll. Die US-Verkehrsbe­hörde NHTSA stellte in ihrem Untersuchu­ngsbericht fest, das Assistenzs­ystem habe wie zugesicher­t funktionie­rt, der Fahrer hätte sich aber nicht auf die Technik verlassen dürfen.

Auch Roboter-Wagen geraten in Unfälle – meistens fahren unachtsame Menschen auf die korrekt fahrenden Testautos auf. Anfang 2016 jedoch provoziert­e ein Google-Auto selbst einen Blechschad­en, als es beim Umfahren eines Hinderniss­es einem Bus in den Weg steuerte.

Aktuell sorgt noch fast jeder Zwischenfa­ll für Schlagzeil­en. Experten erwarten, dass diese Phase mit mehr Wagen und immer besserer Technik vergehen wird. 2016 jedoch fürchteten sich drei von vier Amerikaner­n davor, von einem selbstfahr­enden Auto durch die Gegend chauffiert zu werden. Bei den Deutschen ist die Skepsis ähnlich groß.

Dabei war es ausgerechn­et ein Deutscher, der die Roboter-Wagen-Welle entscheide­nd anschob: Sebastian Thrun war Professor für Künstliche Intelligen­z in Stanford und entwickelt­e den autonomen Wagen Stanley auf Basis eines VW Touareg. Später engagierte ihn Google, um für den Konzern den ersten Prototypen zu bauen.

Google startete 2009 Tests mit Roboter-Wagen auf der Straße und setzte mit dem Projekt auch etablierte Autokonzer­ne unter Zugzwang. Seit kurzem stellt die Google-Schwesterf­irma Waymo Familien selbstfahr­ende Minivans für den Alltag zur Verfügung.

Auch die großen deutschen Autobauer forschen im Silicon Valley und sind mit Testlizenz­en unterwegs. So will BMW 2021 gemeinsam mit Intel ein vollautono­mes Auto auf die Straße bringen.

Der Mann für ethische Fragen im BMW-Konzern, Dirk Wisselmann, berichtet, dass man viel an Szenarien arbeite, wie sie der Philosoph Lin entwirft. Zugleich versichert er, dass ein Algorithmu­s – also eine Computerre­gel – mit Wertungen wie „Kind geht vor Großmutter“niemals in ein deutsches Auto hinein programmie­rt werden dürfte. „Das verstößt gegen das Grundgeset­z. Die Antwort kann immer nur lauten: Sachschade­n vor Personensc­haden.“

Weil allgemein davon ausgegange­n wird, dass vollautono­me Wagen oft langsam unterwegs sein werden, sieht Wisselmann keine große Gefahr für Fußgänger. „Bei 30 Kilometer pro Stunde in der Innenstadt ergibt sich ein Bremsweg von etwa vier Metern. Bei dieser Geschwindi­gkeit bleiben etwa 50 Zentimeter, die ein Auto nach links oder rechts ausweichen könnte. Also, wie realistisc­h ist dann ein solch dramatisch­es Szenario noch?“

 ??  ?? Jede Menge Kameras und noch mehr Chips sorgen bei diesem Wagen dafür, dass er auf der Autobahn allein den Überblick behält und kein Mensch eingreifen muss.
Jede Menge Kameras und noch mehr Chips sorgen bei diesem Wagen dafür, dass er auf der Autobahn allein den Überblick behält und kein Mensch eingreifen muss.
 ??  ?? Für Aufsehen sorgte 2016 der erste tödliche Unfall in einem mit Autopilot fahrenden Tesla. Der Wagen stieß offenbar mit einem Sattelschl­epper zusammen.
Für Aufsehen sorgte 2016 der erste tödliche Unfall in einem mit Autopilot fahrenden Tesla. Der Wagen stieß offenbar mit einem Sattelschl­epper zusammen.
 ?? FOTOS: DPA ?? Auch Google testet in Kalifornie­n selbstfahr­ende Autos.
FOTOS: DPA Auch Google testet in Kalifornie­n selbstfahr­ende Autos.

Newspapers in German

Newspapers from Germany