La Vanguardia (Català-1ª edició)
“La digitalització és més eficient també repartint desigualtat”
Virginia Eubanks, presideix Our Data Bodies; publica ‘La automatización de la desigualdad’
Tinc 49 anys: oberta al futur, però amb passat per no fer-me il·lusions. Visc a San Francisco, bressol de la digitalització que avui optimitza la segregació per riquesa. Casada amb en Jason, víctima de marginació datista. Crec en les persones i que ens hem d’organitzar perquè la tecnologia cregui en nosaltres
Per què va començar a investigar la desigualtat de la digitalització? Perquè la vaig patir personalment. De fet, el meu marit Jason i jo la vam patir junts. Què els va passar? Fa sis anys, un dia el meu home sortia de la botiga del barri quan se li va acostar un paio a demanar-li un cigarret...
No ens hem d’aturar mai en aquests casos.
Té raó, però ell es va aturar i li va caure la primera bufetada de seguida i després un munt de cops de tota una banda. I ja es va despertar a l’hospital amb la mandíbula destrossada i danys cranials. Tot pels 35 dòlars que portava, però el pitjor va començar llavors.
Què pot ser pitjor?
El segon calvari va ser enfrontar-se a la companyia d’assegurances que ens regatejava el cost de la cobertura sanitària.
Per què? Havien pagat les quotes?
Ho veu? Vostè actua com el software de la companyia d’assegurances: prejutja la nostra conducta. En realitat, jo havia canviat de feina i en algun moment el sistema digital ens va etiquetar, encara no sé per què, com a sospitosos de frau.
Per què s’equivocava?
Vaig estar hores i hores barallant-me amb tècnics, qüestionaris i telèfons fins que, només gràcies a la meva nova feina a la universitat i el suport dels seus tècnics informàtics, vaig aconseguir tirar endavant. I demostrar el seu error.
I es va posar a investigar?
Vaig escriure el llibre pensant com un algoritme pot marginar milers d’assegurats. I com la digitalització ens deixa indefensos, perquè no hi ha persones com abans gestionant tot el procés.
Abans no estàvem també marginats en qualsevol tràmit burocràtic?
Abans hi havia persones a l’altre costat del telèfon i podies parlar amb elles i els seus caps. I si no et feien cas els de baix, podies anar pujant en l’exigència i l’escalafó...
Fins on?
En les democràcies, en teoria almenys, tenies els teus representants polítics. És difícil que s’interessin en el teu cas privat tret que vegin oportunitat de servir-se’n, però és molt més difícil encara convèncer un tècnic que el seu algoritme imparteix desigualtat.
Per què un algoritme genera desigualtat si en teoria són matemàtiques?
Pot generar-la a partir d’un prejudici de qui ho va concebre i que avui s’aplica a milions d’administrats. I jo he volgut cridar l’atenció sobre tots els damnificats per aquests prejudicis magnificats ara per la intel·ligència artificial.
La conclusió és que la tecnologia no és mai neutral i no sempre eficient?
La conclusió és que la intel·ligència artificial és massa important per deixar-la només a les màquines i als seus programadors.
Com es pot exercir sobre ella un control social igualador i just?
Li donaré un exemple: la definició de “pobre” i com un programador acaba decidint quan una persona és o no pobre i, per tant, elegible per rebre beneficis socials.
On s’han de posar els límits?
Explico la història de famílies que van tenir la desgràcia de no encaixar en l’estret vestit que l’Administració havia previst per definir la pobresa i, tot i això, la patien. Abans un treballador social hauria manat més que la intel·ligència artificial i hauria visitat la família i corregit a la màquina.
Quants pobres pateixen aquesta discriminació?
Em vaig concentrar en un sol estat, el d’Indiana, on, després de l’aplicació del nou software a la concessió d’ajuts a la pobresa, van ser denegades un milió de sol·licituds en tres anys. Els rebutjos van augmentar un 50%.
El programador era més mesquí amb els recursos públics que els funcionaris?
I la intel·ligència artificial li permetia encobrir la seva miopia política amb la pretesa neutralitat de la màquina. Encara més preocupant és la projecció de dades passades en el futur que duen a terme.
Com?
Per exemple quan projecten els patrons d’abús infantil de la dècada passada en les famílies del futur quan són molt diferents.
No és un problema dels Estats Units?
Hem recollit exemples de mal govern algorítmic arreu del món i també a Espanya, especialment entre la gent més gran. No es pot projectar la realitat demogràfica de la dècada passada en la futura.
Quins altres defectes universals detecta?
Que els serveis d’assistència social cada cop exerceixen més de vigilants i menys de prestadors d’ajuda. I la intel·ligència artificial ajuda a canviar la seva funció.
Com?
Limitant la llibertat d’ús dels ajuts. De vegades els diners assignats per menjar poden servir si cal per a habitatge. Però la tecnologia n’augmenta el control i castiga el pobre.