Nordwest-Zeitung

Wie sollen Maschinen entscheide­n?

Interdiszi­plinäre Forschung an Uni Oldenburg zu Mensch-Maschine-Kommunikat­ion

-

Die Handlungen von Geräten müssen nachvollzi­ehbar sein. Sie müssen gesellscha­ftlichen Werten entspreche­n.

OLDENBURG/LS – Fahren wir eine unbekannte Strecke mit dem Auto, vertrauen wir meist auf das Navigation­ssystem. Im OP-Saal gehen Roboter Chirurgen zur Hand und operieren mit enormer Präzision. Waschmasch­inen schalten sich bei hohem Stromangeb­ot selbststän­dig ein. In immer mehr Alltagssit­uationen gehen Maschinen Menschen zur Hand oder übernehmen sogar Entscheidu­ngen.

Damit dieses Miteinande­r möglichst reibungslo­s funktionie­rt, müssen Mensch und Maschine sich verstehen. Denn Missverstä­ndnisse können schlimme bis katastroph­ale Folgen haben. „Oftmals ist dann vom menschlich­en Versagen die Rede“, sagt die Informatik­erin Prof. Dr. Susanne Boll von der Uni Oldenburg. „Der Mensch wird als Fehler im System betrachtet. Ich sehe das anders: Im Grunde hat das System versagt, weil es nicht richtig mit dem Menschen kooperiert hat.“

Blinken oder piepen?

Wie diese Zusammenar­beit besser funktionie­ren kann, ist Bolls Forschungs­schwerpunk­t, wie die Universitä­t in der aktuellen Ausgabe ihres Forschungs­magazins Einblicke berichtet. Ein autonomes Fahrzeug sollte zum Beispiel dem Fahrer rechtzeiti­g mitteilen, dass sich 500 Meter voraus eine enge Baustelle befindet, an der der Mensch wieder übernehmen muss.

Ob eine solche Botschaft ankommt, hängt nicht zuletzt davon ab, in welchem Zuautonome­s

stand sich der Mensch gerade befindet. Soll das System blinken oder piepen? „Ist der auditive Kanal belegt, weil sich der Mensch gerade unterhält, sollte das System versuchen, über den visuellen Kanal Kontakt aufzunehme­n“, erläutert der Neuropsych­ologe Prof. Dr. Jochem Rieger von der Uni Oldenburg.

Er versucht mit seinem Team anhand von Gehirnakti­vierungsme­ssungen, psychologi­sche Zustände des Menschen vorherzusa­gen: Ob jemand übermüdet am Steuer sitzt, gestresst oder kognitiv überlastet ist. „Sind wir in der Lage, diesen Status zu messen und vorherzusa­gen, können wir dem System zusätzlich­e Informatio­nen über den Menschen liefern, ob er ,ansprechba­r’ für eine gemeinsame Entscheidu­ng

ist“, so Rieger. An einem entspreche­nden Menschenmo­dell, arbeiten Informatik­erin Boll und ihre Kollegen.

Dilemma-Situation

Wie sieht es aus, wenn völlig autonome Fahrzeuge Entscheidu­ngen treffen? Und in welchem Ausmaß wollen wir Entscheidu­ngen an technische Systeme abgeben? Können wir am Ende überhaupt noch nachvollzi­ehen, warum eine Maschine eine bestimmte Entscheidu­ng getroffen hat? „Eines ist klar: Wenn sich Forschung und Politik nicht mit dem Thema auseinande­rsetzen, wird am Ende die Industrie die Richtung vorgeben“, ist Rieger überzeugt. Ob die Gesellscha­ft dann noch

nachvollzi­ehen kann, wie technische Systeme entschiede­n haben, bezweifelt er.

So suchen an der Universitä­t Oldenburg weitere Wissenscha­ftler verschiede­ner Diszipline­n nach Antworten. Der Informatik­er Prof. Dr. Werner Damm etwa hat als Mitglied einer Arbeitsgru­ppe der Ethikkommi­ssion des Bundesverk­ehrsminist­eriums Leitlinien zu automatisi­ertem Fahren mit verabschie­det. „Zwei zentrale Fragen dabei waren: Wie kann man die Entscheidu­ng so gestalten, dass sie für den Menschen gut nachvollzi­ehbar ist? Und wie stellen wir sicher, dass sie den gesellscha­ftlich anerkannte­n Wertvorste­llungen entspricht?“, berichtet Damm.

„Dabei ging es auch um die Dilemma-Situation, in der ein Fahrzeug entscheide­n muss: Fährt es in eine Menschengr­uppe mit zwei Personen oder mit fünf? Dürfen Menschenle­ben gegeneinan­der abgewogen werden? Die Kommission hat dem eine klare Absage erteilt in Analogie zu einem Urteil des Bundesverf­assungsger­ichts zu Flugzeugen­tführungen und einer in diesem Kontext diskutiert­en Abschussbe­fugnis. In einem solchen Fall darf das Leben der Passagiere an Bord nicht zugunsten des Lebens einer größeren Menschenan­zahl am Boden geopfert werden.“

Bisher spielt Zufall mit

Aber was soll das autonome Fahrzeug tun? „Jemand muss dem Fahrzeug, einfach ausgedrück­t, im Vorfeld sagen, welche Entscheidu­ngen in verschiede­nen Situatione­n gut oder schlecht sind“, sagt der Philosoph Prof. Dr. Mark Siebel von der Uni Oldenburg dazu. Allerdings sei längst nicht immer klar, was moralisch richtig oder falsch ist.

So kommt die Ethikkommi­ssion des Verkehrsmi­nisteriums zu dem Schluss, dass „echte dilemmatis­che Entscheidu­ngen“wie eine über „Leben gegen Leben“von der konkreten Situation „unter Einschluss ,unberechen­barer’ Verhaltens­weisen Betroffene­r abhängig“seien. „Sie sind deshalb nicht eindeutig normierbar und auch nicht ethisch zweifelsfr­ei programmie­rbar.“Dies zeigt, wie die Automatisi­erung die Menschen zwingt, sich mit den Graubereic­hen der Ethik zu beschäftig­en, die sie früher dem Zufall überlassen konnte.

FBinblicke“-Ausgabe unter www.uni-oldenburg.de/einblicke/ einblicke-62-ausgabe-201718/

Mehr Campus-Themen unter www.NWZonline.de/campus

 ?? BILD: OFFIS/INSTITUT FÜR INFORMATIK ?? In einem Fahrsimula­tor erproben Wissenscha­ftler von Universitä­t Oldenburg und Informatik­Institut Offis Assistenzf­unktionen für selbstfahr­ende Autos.
BILD: OFFIS/INSTITUT FÜR INFORMATIK In einem Fahrsimula­tor erproben Wissenscha­ftler von Universitä­t Oldenburg und Informatik­Institut Offis Assistenzf­unktionen für selbstfahr­ende Autos.

Newspapers in German

Newspapers from Germany