Initiative will Maschinen die Vorurteile austreiben
Algorithmen erleichtern uns den Alltag. Ihr Einsatz birgt aber auch Probleme. Hier setzt die Equal AI an.
Wenn Netflix einen falschen Film vorschlägt, ist das kein Weltuntergang. Wenn aber eine künstliche Intelligenz (KI) darüber entscheidet, wie lange ein Gefängnisaufenthalt dauern soll, sieht es anders aus. In diesem Fall dürfen dem Algorithmus keine Fehler unterlaufen.
Dafür soll die Initiative Equal AI sorgen. Ins Leben gerufen wurde sie von Robert LoCascio, dem Gründer des KI-Entwicklers LivePerson. Die Initiative hat zum Ziel, Vorurteile und Voreingenommenheiten in künstlichen Intelligenzen ausfindig zu machen und zu eliminieren. «Dazu stellen wir ein Regelwerk zusammen, um die KIs und Algorithmen zu prüfen und herauszufinden, ob und wo eine Beeinflussung stattfindet», sagt Miriam Vogel, Leiterin von Equal AI. Sie war stellvertretende Direktorin für Justiz und Regulierung im Weissen Haus unter dem ehemaligen US-Präsidenten Barack Obama. «Dabei ist es wichtig, das menschliche Element nicht zu vergessen», erklärt Vogel weiter, denn Vorurteile von Programmierern können unbewusst in die KIs und Algorithmen einfliessen. LoCascio ergänzt: «Deshalb entwickeln wir auch ein Regelwerk, das die Vorurteile bei Personen testet.»
Ein weiterer wichtiger Punkt der Initiative ist Diversität. Sowohl Männer als auch Frauen mit unterschiedlichen ethnischen Hintergründen sollen zusammenarbeiten. Hierin unterstützt Equal AI Organisationen wie etwa AI4All, die vor allem auch Mädchen für Computerwissenschaften sensibilisieren und begeisteren will.
Was aber, wenn man nichts unternehmen würde? Würden die KIs von morgen rassistisches, ideologisches oder sexistisches Verhalten an den Tag legen? «Wir müssen sicherstellen, dass KIs uns nicht schaden, sondern helfen. Das ist das Ziel der Equal AI», sagt LoCascio.