De robot is een racist en seksist
Artificiële intelligentie neemt vooroordelen in taal over Als een artificiële intelligentie (AI) een taal leert, neemt ze meteen de impliciete vooroordelen over die altijd in een taal verborgen zitten.
In talen zitten altijd vooroordelen verstopt. Wat wij een ‘Franse wc’ noemen, heet in het Frans un wc turc. Of neem het mooie duo capote anglaise - French letter (condoom). En als een woord oorspronkelijk geen bijklank heeft, dan sluipt die er wel in. Met het gevolg dat dezelfde mensen achtereenvolgens aangeduid werden met gebrekkig, gehandicapt, mindervalide, andersvalide. Goedmenende mensen proberen geregeld om de gekleurde lading van een woord te bestrijden door het woord te bestrijden - zo deden de stad Gent en de krant De Morgen ‘allochtoon’ in de ban - maar de ervaring leert dat dit hopeloos is.
Betrapt
Bij mensen kun je, met een ‘impliciete associatietest’, achterhalen welke lading ze aan een woord geven. Je vraagt hen dan om woorden in paren bij elkaar te zetten. De kans is groter dat ze ‘roos’ paren met ‘aangenaam’ dan met ‘lelijk’. Hun responstijd hangt sterk af van hoe dicht twee woorden naar hun gevoel bij elkaar liggen.
Of je vraagt hen woorden in vier categorieën te plaatsen: mannelijk, vrouwelijk, helper en leider. Maar je geeft hen daar slechts twee knoppen voor. Als je ‘vrouw’ en ‘helper’ onder dezelfde knop stopt, zijn de proefpersonen veel sneller klaar dan wanneer ‘vrouw’ en ‘leider’ een knop delen. Betrapt. Drie onderzoekers van Princeton rapporteren nu in het wetenschappelijke tijdschrift Science dat ze bij een veelgebruikt AI-systeem, GloVe, nagegaan zijn hoe sterk het bepaalde woorden associeerde. Het systeem had zich een Engels woordenboek opgebouwd door op het internet 840 miljard woorden in menselijke teksten te bestuderen. Dat soort AI zit achter de digitale assistent in je smartphone, waartegen je kunt praten, en achter de spellingshulp die woorden al vervolledigt nog voor je ze getikt hebt. GloVe bleek netjes
Een Amerikaanse AI-systeem bleek ‘blanke’ namen beduidend vaker te associëren met woorden als ‘cadeautje’ of ‘gelukkig’ dan zwarte namen
de vooroordelen van zijn baasjes te hebben overgenomen.
Sollicitatie
Bij ons worden mensen met een Arabische naam veel minder vaak uitgenodigd voor een sollicitatiegesprek, ook al hebben ze dezelfde capaciteiten. In de VS treft dat lot mensen met een ‘zwarte’ - sorry, Afrikaans-Amerikaanse - naam. Het (Amerikaanse) AI-systeem bleek ‘blanke’ namen beduidend vaker te associëren met woorden als ‘cadeautje’ of ‘gelukkig’ dan zwarte namen. En het associeerde vrouwen en meisjes vaker met kunst en geesteswetenschappen, en mannen vaker met wiskunde.
De vooroordelen van de AI lagen dichter bij de onbewuste vooroordelen die bij mensen bovenkomen als je ze test, dan bij wat mensen antwoorden op vragenlijsten naar hun attitudes en ideeën. De jongste vijftien jaar zagen de onderzoekers in hun psychologische test de onbewuste vooroordelen in de VS tegen homo’s en lesbiennes traag maar gestaag dalen. Ze zouden nu wel eens willen weten of AI’s die hun woordenboek opbouwen met teksten uit verschillende perioden, ook steeds minder vooroordelen tegen holebi’s laten zien.
Schoonheidswedstrijd
Overigens pikken AI-systemen niet alleen de vooroordelen op die mensen in hun taal stoppen. In september vorig jaar vond de allereerste internationale schoonheidswedstrijd plaats die volledig door een robotjury beoordeeld zou worden. Zesduizend kandidaten uit honderd landen stuurden een foto van zichzelf in. Vijf robots bekeken die foto’s om er de mooiste vrouwen uit te halen. We gaan er nu even aan voorbij dat zo’n schoonheidswedstrijd op zich al flink seksistisch is. De robots bleken ook nog eens racistisch in hun oordeel. Elke robot gebruikte een andere, uit eerder onderzoek opgestelde formule over wat mensen mooi vinden in een gelaat. Genre: de oogafstand gedeeld door de neuslengte is 0,7 maal de dikte van de onderlip. Het programma Rynkl keek naar de rimpels. Pimpl zocht naar puistjes en taches de beauté. Madis vergeleek met bekende fotomodellen. Symmetry Master mat de symmetrie in het gelaat en AntiAgeist keek hoe oud je overkwam en vergeleek dat met je kalenderleeftijd.
De robots haalden er samen inderdaad de mooie vrouwen uit, maar het ging wel om de blanke mooie vrouwen. Blijkbaar heeft niemand ooit de moeite gedaan om formules voor andere rassen op te stellen. Betrapt.