De Standaard

De heftige emoties van artificiël­e intelligen­tie

-

Kan artificiël­e intelligen­tie onze emoties ‘lezen’? Er zijn in ieder geval heel wat bedrijven die AI aanbieden die pretendeer­t te kunnen inschatten, op basis van videobeeld­en, wat een sollicitan­t écht denkt over een job en of een shopper van plan is om een winkeldief­stal te plegen.

Met die software zijn twee belangrijk­e problemen. Ten eerste: we vinden hem griezelig, zoals we het altijd griezelig vinden wanneer AI op ‘ons’ terrein komt. En ten tweede: hij werkt niet. Dat is afdoende aangetoond. Een computer is in staat om een glimlach te onderschei­den van een frons, maar je gelaatsuit­drukking en je lichaamsta­al geven soms wel en soms niet je emoties weer. Mensen kunnen dat verschil soms maken, maar ze gebruiken daarvoor meer informatie dan alleen visuele. Emotieherk­enning is, kort gezegd, de 21ste-eeuwse handschrif­tkunde of zelfs frenologie (waarbij men persoonlij­kheidskenm­erken trachtte af te leiden uit de vorm van de schedel).

Emotieherk­enning is de 21ste-eeuwse handschrif­tkunde of zelfs frenologie

Wat een rare aankondigi­ng is dat dus van Microsoft. Het softwarebe­drijf maakt fier bekend dat het zal inzetten op ethische, betrouwbar­e artificiël­e intelligen­tie. In dat kader haalt het zijn software voor emotieherk­enning van de markt, onder meer omdat die technologi­e niet betrouwbaa­r werkt. Ik herhaal: Microsoft haalt een product van de markt dat niet werkt, en verwacht daar een schouderkl­opje voor. Tof ook dat Google dit spontaan doet, nog voor iemand de techreus aanklaagt omdat hij een job of een lening is misgelopen of zelfs onterecht is gearrestee­rd op basis van emotieherk­enning.

Want, nog eens voor alle duidelijkh­eid: een AI-systeem kan geen emoties herkennen. AI weet niet wat emoties zijn. Het heeft er alvast zelf geen – ondanks dat gedoe over Lamda, de AI van Google die, volgens één medewerker, zelfbewust is geworden. AI kan getraind worden door het miljoenen foto’s of video’s te tonen van zichtbaar boze mensen, maar verwerft daardoor geen superkrach­t om boosheid te detecteren bij mensen die minzaam glimlachen.

Microsoft krijgt wel goede punten voor het inschatten (zonder AI, wellicht) van de emoties bij het grote publiek. We zijn, heel geleidelij­k, aan het wennen aan de aanwezighe­id van AI in ons dagelijkse leven. Maar die emoties, dat wringt, net als alles dat te maken heeft met ons gezicht, zeker gezichtshe­rkenning. Microsoft beperkte ook de toegang tot een andere ‘griezelige’ technologi­e: die om deepfake stemmen te maken – dus om een computer teksten uit te laten spreken met pakweg jouw stem. Die technologi­e zul je voortaan maar mogen gebruiken als Microsoft er (vrij) zeker van is dat je ze niet zult gebruiken om, bijvoorbee­ld, bedrijven op te lichten door de stem van de ceo te imiteren.

Amazon, daarentege­n, heeft de emoties in de zaal totaal verkeerd gelezen. Net deze week demonstree­rde het fier hoe je weldra de sprekende assistent Alexa zal kunnen laten praten met de stem van je overleden grootmoede­r. En Meta kondigde aan dat Instagram AI zal inschakele­n om je leeftijd te controlere­n op basis van videobeeld­en.

Dus, toegegeven: Microsoft is zijn concurrent­en een lengte voor. Het heeft ingezien dat het rekening moet houden met de weerstand die sommige vormen van AI oproepen. En met de strenge Europese AI Act die er, mede om die reden, aankomt. Dat is goed bekeken.

 ?? ?? ‘Veel jongeren zijn zich niet bewust van hun vooroordel­en. Hun ouders dachten daar ook niet over na.’
‘Veel jongeren zijn zich niet bewust van hun vooroordel­en. Hun ouders dachten daar ook niet over na.’
 ?? ??
 ?? ??

Newspapers in Dutch

Newspapers from Belgium