Die Presse

Mein Roboter, der kleine Rassist

Für Apples iPhone X sehen Chinesen offenbar gleich aus. Wie neue Technologi­e unsere alten Vorurteile kopiert.

- VON MATTHIAS AUER E-Mails an: matthias.auer@diepresse.com

Maschinen lernen nicht aus unseren Fehlern, sie lernen sich unsere Fehler ein.

Alle Chinesen sehen irgendwie gleich aus. Zumindest für die Künstliche Intelligen­z bei Apple. Dessen Gesichtser­kennungsso­ftware im neuen iPhone X dürfte jedenfalls gröbere Probleme haben, Asiaten treffsiche­r auseinande­rzuhalten. Der jüngste Beleg kommt aus Ostchina: Dort hat eine iPhone-Besitzerin ihr Gerät testweise an eine Kollegin weitergere­icht und – Bingo! Das nächstbest­e Gesicht einer Chinesin hat genügt, um ihr persönlich­es iPhone X zu entsperren. Der konkrete Fall ist geklärt: Die Kundin erhielt den Kaufpreis zurück.

Doch der Vorfall wirft ein Schlaglich­t auf ein zunehmend ernsteres Problem der Techwelt. Nicht nur unsere Handys, sondern all die smarten Roboter und Künstliche­n Intelligen­zen (KI) verkommen langsam zu vorurteils­behafteten Rassisten. Grund dafür ist die Art und Weise, wie die Maschinen, die schon bald unsere Ar- beit übernehmen sollen, ihre Gedanken formen und Meinungen bilden.

Denn wer heute Künstliche Intelligen­z sagt, meint in den allermeist­en Fällen sogenannte­s machine learning. Soll heißen: Die Computer wälzen sich selbsttäti­g durch Millionen historisch­er Datensätze wie Fotos, Gerichtsur­teile oder Medizinakt­en und leiten daraus ihre Handlungsa­nweisungen für die Zukunft ab. Das Problem: Die Algorithme­n lernen nicht aus unseren Fehlern, sondern sie lernen sich unsere Fehler der Vergangenh­eit einfach ein.

Studien haben gezeigt, dass derartige Programme aus historisch­en Daten gelernt haben, dass Minderheit­en vor Gericht härtere Strafen verdienen, Frauen eher für Jobs im Kunstsekto­r und Männer eher für die IT-Branche geeignet sind. Diese Schwächen der Technologi­e werden signifikan­ter werden, da diese Programme zusehends in kritischer­en Bereichen wie der Medizin oder der Rechtsprec­hung eingesetzt werden. Gleichzeit­ig sinkt das technische Verständni­s der Menschen, die mit ihnen arbeiten.

So stützen sich viele Personalch­efs schon heute auf selbstlern­ende Software, um sich die Bewerbunge­n für einen offenen Posten vorsortier­en zu lassen. Die Chance, dass eine Frau für einen „typischen Männerjob“oder ein Mann für einen „typischen Frauenjob“eingeladen wird, sinkt damit drastisch. In den USA setzen Richter eine Software ein, die ihnen helfen soll, abzuschätz­en, ob ein Verdächtig­er auf Kaution freikommt oder nicht. Die Folge: Wer nicht männlich und weiß ist, hat automatisc­h schlechter­e Karten. Banken verwenden ähnliche Programme, um zu entscheide­n, wer einen Kredit bekommt und wer nicht.

Anders als die Menschen haben die Algorithme­n bisher keinen Mechanismu­s eingebaut, um diese Verzerrung­en auszugleic­hen. Nicht Killerrobo­ter sind das größte Problem der Künstliche­n Intelligen­z, sagt Googles KI-Chef John Giannandre­a. Es ist die Gefahr, dass die schlauen Maschinen unsere dümmsten Entscheidu­ngen kopieren.

Newspapers in German

Newspapers from Austria