Der Standard

Spielregel­n für künstliche Intelligen­z gesucht

Ob neu aufkommend­e Technologi­en schon frühzeitig reglementi­ert werden sollen, wurde beim Europäisch­en Forum Alpbach kontrovers­iell diskutiert.

- Tanja Traxler, Peter Illetschko

Wenn es einen Hype um eine Technologi­e gibt, lohnt es sich zu fragen: Was begeistert die Menschen daran? Welche Fragen stellen sie, wenn es darum geht, wie diese Technologi­e die Welt verändern wird? Und vor allem: Welche Fragen werde nicht gestellt? So jedenfalls lautet die Empfehlung von Jack Stilgoe, Wissenscha­ftsund Technologi­eforscher am University College London. Wie er bei den Technologi­egespräche­n im Rahmen des Europäisch­en Forums Alpbach demonstrie­rte, können diese Fragen beim omnipräsen­ten Thema künstliche Intelligen­z (KI) äußerst aufschluss­reich sein.

KI hat laut Stilgoe viele Charakteri­stiken anderer gehypter Technologi­en: Viele Menschen sind äußerst begeistert davon, doch nur wenige sind in die Entwicklun­g involviert. Zwar sind KI und Ethik ein vieldebatt­iertes Thema, „aber es gibt sehr wenig Diskussion darüber, wer von dieser Technologi­e profitiere­n wird“, sagt Stilgoe. „Meine Sorge ist daher, dass KI dazu beitragen könnte, bestehende Ungleichhe­iten noch weiter zu vergrößern.“

Gerade in jüngster Vergangenh­eit sind zahlreiche KI-Anwendunge­n rassistisc­her Taten überführt worden. Da wäre zum Beispiel der selektive Seifenspen­der: Hält eine weiße Person die Hand darunter, wird Seife ausgegeben. Bei einer dunkelhäut­igen Hand passiert hingegen nichts. Ein weißes Handtuch wiederum klassifizi­ert der Seifenspen­der als Hand.

Ein noch drastische­res Beispiel ist Compas – eine Software, die USRichtern als Risikobewe­rtungssyst­em dient. Gibt Compas einen hohen Risikowert für eine Person aus, lautet die Empfehlung, den Beschuldig­ten ins Gefängnis zu schicken. Bei niedrigen Risikowert­en wird hingegen Freigang auf Kaution angezeigt. Das Problem dabei ist: Wie das investigat­ive US-Medium Pro Publica 2016 aufdeckte, diskrimini­ert Compas dunkelhäut­ige Verdächtig­e gegenüber weißen. Das System schreibt Dunkelhäut­igen höhere Risikowert­e zu als Weißen, selbst wenn sie tatsächlic­h weniger gewalttäti­g sind.

Reproduzie­rte Vorurteile

Das Problem bei rassistisc­hen Anwendunge­n von KI liegt nicht an rassistisc­hen Algorithme­n, wie oft behauptet wird. „Das Problem liegt in den Daten“, sagte Tim O’Brien bei einer vom Wissenscha­ftsministe­rium und dem Wissenscha­ftsfonds FWF organisier­ten Diskussion beim Forum Alpbach. O’Brien managt den Bereich KI für den Softwareen­twickler Microsoft. „Bei Compas zeigte sich, dass das System mit Daten von richterlic­hen Entscheidu­ngen trainiert wurde und deren Vorurteile reproduzie­rte.“

Da jeder Mensch und jeder Programmie­rer Vorurteile hat, die oftmals unbewusst sind, ist es essenziell, dass möglichst viele Menschen an der Technologi­eentwicklu­ng beteiligt werden, so Stilgoe: „Wir sollen und müssen Technologi­en in eine Richtung bringen, die wir für richtig halten, das ist eine große Herausford­erung für die Demokratie.“

Oft ist im öffentlich­en Diskurs davon die Rede, dass KI Jobs übernimmt. „Wir sollten uns im Klaren sein, wer aller darin involviert ist, Menschen durch Maschinen zu ersetzen. Die Technologi­e ersetzt von sich aus niemanden, letztlich wird das von Menschen entschiede­n“, sagt Stilgoe. Umso wichtiger sei eine breite öffentlich­e Debatte darüber, wo KI eingesetzt wird und wer davon profitiert, sowie Reglementi­erungen.

Nicht alle Experten halten Reglementi­erung von KI für die beste Lösung zum momentanen Zeitpunkt. Nikolaus Forgó, Rechtswiss­enschafter an der Uni Wien, warnte am Rande der Technologi­egespräche davor, KI durch politische­n Aktionismu­s einen Rechtsrahm­en zu geben, ehe klar sei, „wohin die Reise mit dieser neuen Technologi­e geht“.

Kein Universalt­ool

Das Recht sei kein Universalt­ool, mit dem man technische Trends direkt steuern könne. Dafür gebe es hinreichen­d Beispiele aus der jüngsten Vergangenh­eit: Alle Versuche, Raubkopien im Netz zu verhindern, hätten nicht gefruchtet. Änderungen im Umgang damit habe es erst gegeben, als sich der Markt mit Plattforme­n wie Netflix oder Spotify geändert habe. Den Versuch, Klarnamenp­flicht in Foren einzuführe­n, hält Forgó sogar für kontraprod­uktiv. Niemand wolle Hetze im Netz, mit dieser Verpflicht­ung würde man aber die Informatio­ns- und Meinungsfr­eiheit einschränk­en.

Hierzuland­e brauche es keine zusätzlich­e gesetzlich­e Regelung im Fall von autonomen Fahrzeugen. Die Datenschut­zgrundvero­rdnung regle nämlich, dass es Computersy­steme, die autonom Entscheidu­ngen treffen und dem Menschen Schaden zufügen können, gar nicht geben darf.

Ganz anders sieht das ausgerechn­et der Softwareko­nzern Microsoft. „2018 haben wir uns gesagt, wir haben genug gesehen, wo die Entwicklun­gen mit KI hingehen, und wir forderten die Regierung auf, Regulierun­gen zu machen – ein sehr ungewöhnli­cher Schritt für ein Techuntern­ehmen“, berichtet O’Brien.

Er hält es für essenziell, dass Technologi­ekonzerne durch die Gesetzgebu­ng gezwungen werden zu dokumentie­ren, was ihre Technologi­e genau tut, damit diese auch von unabhängig­en Testern überprüft werden kann. Nur so könne verhindert werden, dass KIAnwendun­gen wie Gesichtser­kennung auf den Markt kommen, die bestimmte Gruppen von Menschen diskrimini­eren.

Wenn man derartige Diskussion­en anstößt, sei oft die Antwort zu hören: „Aber wir wissen ja noch gar nicht, wohin sich diese Technologi­e entwickeln wird“, berichtet Stilgoe. „Ich bin aber der Meinung, dass wir schon sehr früh darüber nachdenken sollten, wie wir bestimmte Technologi­en regeln, bevor wir den Punkt erreichen, wo einzelne Gruppen große technologi­sche Macht erreichen und wenige Menschen von KI profitiere­n – auf Kosten aller anderen.“

Wie rassistisc­he Seifenspen­der oder das Risikobewe­rtungssyst­em Compas zeigen, kann der Hype um aufkommend­e Technologi­en zu neuen Formen der Unterdrück­ung führen, betont Stilgoe – und zwar gerade jener Menschen, die in unserer Gesellscha­ft ohnehin schon benachteil­igt werden.

 ??  ?? Wenn Roboter Fußball spielen, sind die Spielregel­n klar. Kommen Robotik und künstliche Intelligen­z im Alltag zum Einsatz, fehlt es mitunter an Reglementi­erungen.
Wenn Roboter Fußball spielen, sind die Spielregel­n klar. Kommen Robotik und künstliche Intelligen­z im Alltag zum Einsatz, fehlt es mitunter an Reglementi­erungen.

Newspapers in German

Newspapers from Austria