Mein Roboter, der kleine Rassist
Für Apples iPhone X sehen Chinesen offenbar gleich aus. Wie neue Technologie unsere alten Vorurteile kopiert.
Maschinen lernen nicht aus unseren Fehlern, sie lernen sich unsere Fehler ein.
Alle Chinesen sehen irgendwie gleich aus. Zumindest für die Künstliche Intelligenz bei Apple. Dessen Gesichtserkennungssoftware im neuen iPhone X dürfte jedenfalls gröbere Probleme haben, Asiaten treffsicher auseinanderzuhalten. Der jüngste Beleg kommt aus Ostchina: Dort hat eine iPhone-Besitzerin ihr Gerät testweise an eine Kollegin weitergereicht und – Bingo! Das nächstbeste Gesicht einer Chinesin hat genügt, um ihr persönliches iPhone X zu entsperren. Der konkrete Fall ist geklärt: Die Kundin erhielt den Kaufpreis zurück.
Doch der Vorfall wirft ein Schlaglicht auf ein zunehmend ernsteres Problem der Techwelt. Nicht nur unsere Handys, sondern all die smarten Roboter und Künstlichen Intelligenzen (KI) verkommen langsam zu vorurteilsbehafteten Rassisten. Grund dafür ist die Art und Weise, wie die Maschinen, die schon bald unsere Ar- beit übernehmen sollen, ihre Gedanken formen und Meinungen bilden.
Denn wer heute Künstliche Intelligenz sagt, meint in den allermeisten Fällen sogenanntes machine learning. Soll heißen: Die Computer wälzen sich selbsttätig durch Millionen historischer Datensätze wie Fotos, Gerichtsurteile oder Medizinakten und leiten daraus ihre Handlungsanweisungen für die Zukunft ab. Das Problem: Die Algorithmen lernen nicht aus unseren Fehlern, sondern sie lernen sich unsere Fehler der Vergangenheit einfach ein.
Studien haben gezeigt, dass derartige Programme aus historischen Daten gelernt haben, dass Minderheiten vor Gericht härtere Strafen verdienen, Frauen eher für Jobs im Kunstsektor und Männer eher für die IT-Branche geeignet sind. Diese Schwächen der Technologie werden signifikanter werden, da diese Programme zusehends in kritischeren Bereichen wie der Medizin oder der Rechtsprechung eingesetzt werden. Gleichzeitig sinkt das technische Verständnis der Menschen, die mit ihnen arbeiten.
So stützen sich viele Personalchefs schon heute auf selbstlernende Software, um sich die Bewerbungen für einen offenen Posten vorsortieren zu lassen. Die Chance, dass eine Frau für einen „typischen Männerjob“oder ein Mann für einen „typischen Frauenjob“eingeladen wird, sinkt damit drastisch. In den USA setzen Richter eine Software ein, die ihnen helfen soll, abzuschätzen, ob ein Verdächtiger auf Kaution freikommt oder nicht. Die Folge: Wer nicht männlich und weiß ist, hat automatisch schlechtere Karten. Banken verwenden ähnliche Programme, um zu entscheiden, wer einen Kredit bekommt und wer nicht.
Anders als die Menschen haben die Algorithmen bisher keinen Mechanismus eingebaut, um diese Verzerrungen auszugleichen. Nicht Killerroboter sind das größte Problem der Künstlichen Intelligenz, sagt Googles KI-Chef John Giannandrea. Es ist die Gefahr, dass die schlauen Maschinen unsere dümmsten Entscheidungen kopieren.