Wie sollen Maschinen entscheiden?
Interdisziplinäre Forschung an Uni Oldenburg zu Mensch-Maschine-Kommunikation
Die Handlungen von Geräten müssen nachvollziehbar sein. Sie müssen gesellschaftlichen Werten entsprechen.
OLDENBURG/LS – Fahren wir eine unbekannte Strecke mit dem Auto, vertrauen wir meist auf das Navigationssystem. Im OP-Saal gehen Roboter Chirurgen zur Hand und operieren mit enormer Präzision. Waschmaschinen schalten sich bei hohem Stromangebot selbstständig ein. In immer mehr Alltagssituationen gehen Maschinen Menschen zur Hand oder übernehmen sogar Entscheidungen.
Damit dieses Miteinander möglichst reibungslos funktioniert, müssen Mensch und Maschine sich verstehen. Denn Missverständnisse können schlimme bis katastrophale Folgen haben. „Oftmals ist dann vom menschlichen Versagen die Rede“, sagt die Informatikerin Prof. Dr. Susanne Boll von der Uni Oldenburg. „Der Mensch wird als Fehler im System betrachtet. Ich sehe das anders: Im Grunde hat das System versagt, weil es nicht richtig mit dem Menschen kooperiert hat.“
Blinken oder piepen?
Wie diese Zusammenarbeit besser funktionieren kann, ist Bolls Forschungsschwerpunkt, wie die Universität in der aktuellen Ausgabe ihres Forschungsmagazins Einblicke berichtet. Ein autonomes Fahrzeug sollte zum Beispiel dem Fahrer rechtzeitig mitteilen, dass sich 500 Meter voraus eine enge Baustelle befindet, an der der Mensch wieder übernehmen muss.
Ob eine solche Botschaft ankommt, hängt nicht zuletzt davon ab, in welchem Zuautonomes
stand sich der Mensch gerade befindet. Soll das System blinken oder piepen? „Ist der auditive Kanal belegt, weil sich der Mensch gerade unterhält, sollte das System versuchen, über den visuellen Kanal Kontakt aufzunehmen“, erläutert der Neuropsychologe Prof. Dr. Jochem Rieger von der Uni Oldenburg.
Er versucht mit seinem Team anhand von Gehirnaktivierungsmessungen, psychologische Zustände des Menschen vorherzusagen: Ob jemand übermüdet am Steuer sitzt, gestresst oder kognitiv überlastet ist. „Sind wir in der Lage, diesen Status zu messen und vorherzusagen, können wir dem System zusätzliche Informationen über den Menschen liefern, ob er ,ansprechbar’ für eine gemeinsame Entscheidung
ist“, so Rieger. An einem entsprechenden Menschenmodell, arbeiten Informatikerin Boll und ihre Kollegen.
Dilemma-Situation
Wie sieht es aus, wenn völlig autonome Fahrzeuge Entscheidungen treffen? Und in welchem Ausmaß wollen wir Entscheidungen an technische Systeme abgeben? Können wir am Ende überhaupt noch nachvollziehen, warum eine Maschine eine bestimmte Entscheidung getroffen hat? „Eines ist klar: Wenn sich Forschung und Politik nicht mit dem Thema auseinandersetzen, wird am Ende die Industrie die Richtung vorgeben“, ist Rieger überzeugt. Ob die Gesellschaft dann noch
nachvollziehen kann, wie technische Systeme entschieden haben, bezweifelt er.
So suchen an der Universität Oldenburg weitere Wissenschaftler verschiedener Disziplinen nach Antworten. Der Informatiker Prof. Dr. Werner Damm etwa hat als Mitglied einer Arbeitsgruppe der Ethikkommission des Bundesverkehrsministeriums Leitlinien zu automatisiertem Fahren mit verabschiedet. „Zwei zentrale Fragen dabei waren: Wie kann man die Entscheidung so gestalten, dass sie für den Menschen gut nachvollziehbar ist? Und wie stellen wir sicher, dass sie den gesellschaftlich anerkannten Wertvorstellungen entspricht?“, berichtet Damm.
„Dabei ging es auch um die Dilemma-Situation, in der ein Fahrzeug entscheiden muss: Fährt es in eine Menschengruppe mit zwei Personen oder mit fünf? Dürfen Menschenleben gegeneinander abgewogen werden? Die Kommission hat dem eine klare Absage erteilt in Analogie zu einem Urteil des Bundesverfassungsgerichts zu Flugzeugentführungen und einer in diesem Kontext diskutierten Abschussbefugnis. In einem solchen Fall darf das Leben der Passagiere an Bord nicht zugunsten des Lebens einer größeren Menschenanzahl am Boden geopfert werden.“
Bisher spielt Zufall mit
Aber was soll das autonome Fahrzeug tun? „Jemand muss dem Fahrzeug, einfach ausgedrückt, im Vorfeld sagen, welche Entscheidungen in verschiedenen Situationen gut oder schlecht sind“, sagt der Philosoph Prof. Dr. Mark Siebel von der Uni Oldenburg dazu. Allerdings sei längst nicht immer klar, was moralisch richtig oder falsch ist.
So kommt die Ethikkommission des Verkehrsministeriums zu dem Schluss, dass „echte dilemmatische Entscheidungen“wie eine über „Leben gegen Leben“von der konkreten Situation „unter Einschluss ,unberechenbarer’ Verhaltensweisen Betroffener abhängig“seien. „Sie sind deshalb nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar.“Dies zeigt, wie die Automatisierung die Menschen zwingt, sich mit den Graubereichen der Ethik zu beschäftigen, die sie früher dem Zufall überlassen konnte.
FBinblicke“-Ausgabe unter www.uni-oldenburg.de/einblicke/ einblicke-62-ausgabe-201718/
Mehr Campus-Themen unter www.NWZonline.de/campus