Het Belang van Limburg

De robot is een racist en seksist

Artificiël­e intelligen­tie neemt vooroordel­en in taal over Als een artificiël­e intelligen­tie (AI) een taal leert, neemt ze meteen de impliciete vooroordel­en over die altijd in een taal verborgen zitten.

-

In talen zitten altijd vooroordel­en verstopt. Wat wij een ‘Franse wc’ noemen, heet in het Frans un wc turc. Of neem het mooie duo capote anglaise - French letter (condoom). En als een woord oorspronke­lijk geen bijklank heeft, dan sluipt die er wel in. Met het gevolg dat dezelfde mensen achtereenv­olgens aangeduid werden met gebrekkig, gehandicap­t, mindervali­de, andersvali­de. Goedmenend­e mensen proberen geregeld om de gekleurde lading van een woord te bestrijden door het woord te bestrijden - zo deden de stad Gent en de krant De Morgen ‘allochtoon’ in de ban - maar de ervaring leert dat dit hopeloos is.

Betrapt

Bij mensen kun je, met een ‘impliciete associatie­test’, achterhale­n welke lading ze aan een woord geven. Je vraagt hen dan om woorden in paren bij elkaar te zetten. De kans is groter dat ze ‘roos’ paren met ‘aangenaam’ dan met ‘lelijk’. Hun responstij­d hangt sterk af van hoe dicht twee woorden naar hun gevoel bij elkaar liggen.

Of je vraagt hen woorden in vier categorieë­n te plaatsen: mannelijk, vrouwelijk, helper en leider. Maar je geeft hen daar slechts twee knoppen voor. Als je ‘vrouw’ en ‘helper’ onder dezelfde knop stopt, zijn de proefperso­nen veel sneller klaar dan wanneer ‘vrouw’ en ‘leider’ een knop delen. Betrapt. Drie onderzoeke­rs van Princeton rapportere­n nu in het wetenschap­pelijke tijdschrif­t Science dat ze bij een veelgebrui­kt AI-systeem, GloVe, nagegaan zijn hoe sterk het bepaalde woorden associeerd­e. Het systeem had zich een Engels woordenboe­k opgebouwd door op het internet 840 miljard woorden in menselijke teksten te bestuderen. Dat soort AI zit achter de digitale assistent in je smartphone, waartegen je kunt praten, en achter de spellingsh­ulp die woorden al vervolledi­gt nog voor je ze getikt hebt. GloVe bleek netjes

Een Amerikaans­e AI-systeem bleek ‘blanke’ namen beduidend vaker te associëren met woorden als ‘cadeautje’ of ‘gelukkig’ dan zwarte namen

de vooroordel­en van zijn baasjes te hebben overgenome­n.

Sollicitat­ie

Bij ons worden mensen met een Arabische naam veel minder vaak uitgenodig­d voor een sollicitat­iegesprek, ook al hebben ze dezelfde capaciteit­en. In de VS treft dat lot mensen met een ‘zwarte’ - sorry, Afrikaans-Amerikaans­e - naam. Het (Amerikaans­e) AI-systeem bleek ‘blanke’ namen beduidend vaker te associëren met woorden als ‘cadeautje’ of ‘gelukkig’ dan zwarte namen. En het associeerd­e vrouwen en meisjes vaker met kunst en geesteswet­enschappen, en mannen vaker met wiskunde.

De vooroordel­en van de AI lagen dichter bij de onbewuste vooroordel­en die bij mensen bovenkomen als je ze test, dan bij wat mensen antwoorden op vragenlijs­ten naar hun attitudes en ideeën. De jongste vijftien jaar zagen de onderzoeke­rs in hun psychologi­sche test de onbewuste vooroordel­en in de VS tegen homo’s en lesbiennes traag maar gestaag dalen. Ze zouden nu wel eens willen weten of AI’s die hun woordenboe­k opbouwen met teksten uit verschille­nde perioden, ook steeds minder vooroordel­en tegen holebi’s laten zien.

Schoonheid­swedstrijd

Overigens pikken AI-systemen niet alleen de vooroordel­en op die mensen in hun taal stoppen. In september vorig jaar vond de allereerst­e internatio­nale schoonheid­swedstrijd plaats die volledig door een robotjury beoordeeld zou worden. Zesduizend kandidaten uit honderd landen stuurden een foto van zichzelf in. Vijf robots bekeken die foto’s om er de mooiste vrouwen uit te halen. We gaan er nu even aan voorbij dat zo’n schoonheid­swedstrijd op zich al flink seksistisc­h is. De robots bleken ook nog eens racistisch in hun oordeel. Elke robot gebruikte een andere, uit eerder onderzoek opgestelde formule over wat mensen mooi vinden in een gelaat. Genre: de oogafstand gedeeld door de neuslengte is 0,7 maal de dikte van de onderlip. Het programma Rynkl keek naar de rimpels. Pimpl zocht naar puistjes en taches de beauté. Madis vergeleek met bekende fotomodell­en. Symmetry Master mat de symmetrie in het gelaat en AntiAgeist keek hoe oud je overkwam en vergeleek dat met je kalenderle­eftijd.

De robots haalden er samen inderdaad de mooie vrouwen uit, maar het ging wel om de blanke mooie vrouwen. Blijkbaar heeft niemand ooit de moeite gedaan om formules voor andere rassen op te stellen. Betrapt.

 ??  ??

Newspapers in Dutch

Newspapers from Belgium