Quell’ombra di sessismo sull’intelligenza artificiale
Oltre a Donald Trump anche i padri dell’intelligenza artificiale possono essere accusati di sessismo? Se lo è chiesto la rivista Quartz e la domanda non è certo campata in aria (di certo non lo è nel caso di Trump). Le eccezioni esistono: come Watson, il software di Ai di Ibm, battezzato così in memoria di Thomas John Watson, il manager che tra le due guerre portò l’azienda a diventare una potenza economica. Ma in generale le interfacce con cui ci troviamo a dialogare — non solo quelle vocali — si presentano sotto le spoglie virtuali di una donna. Tay, la chat-bot della Microsoft bloccata due volte per avere «svalvolato» su Twitter, ha nel profilo il ritratto di una ragazza. Siri della Apple ha «rubato» la voce inglese a Susan Bennett (peraltro lei è contentissima e rilascia spesso interviste). Anche il cinema non a caso ha intercettato il fenomeno già nel 2013: nel film Her (voce di Scarlett Johansson) il protagonista Joaquin Phoenix inizia una relazione con la sua assistente virtuale. Per comprendere il dibattito bisogna collocarlo nel suo contesto socioeconomico: soprattutto negli Usa (e tutte queste società sono statunitensi) la voce femminile ricorda molto da vicino i call center che, nati con la prima campagna di marketing di massa della Ford nel 1962, sono stati sempre un bacino di lavoro per donne (non è un caso che ci tornino in mente fotografie in bianco e nero con solo donne nei call center). Tanto che negli Anni 80 vennero chiamati «pink collar ghetto», il ghetto dei colletti rosa, per evidenti motivi: da sempre il call center è stato sinonimo di condizioni di lavoro disagevoli. E ora quell’ombra ritorna anche sullo smartphone che pur non essendo antropomorfo riesce a essere femminile.