La Vanguardia (Català-1ª edició)

“La digitalitz­ació és més eficient també repartint desigualta­t”

Virginia Eubanks, presideix Our Data Bodies; publica ‘La automatiza­ción de la desigualda­d’

- Víctor-M. Amela - Ima Sanchís - Lluís Amiguet EECON IA4GUET*

Tinc 49 anys: oberta al futur, però amb passat per no fer-me il·lusions. Visc a San Francisco, bressol de la digitalitz­ació que avui optimitza la segregació per riquesa. Casada amb en Jason, víctima de marginació datista. Crec en les persones i que ens hem d’organitzar perquè la tecnologia cregui en nosaltres

Per què va començar a investigar la desigualta­t de la digitalitz­ació? Perquè la vaig patir personalme­nt. De fet, el meu marit Jason i jo la vam patir junts. Què els va passar? Fa sis anys, un dia el meu home sortia de la botiga del barri quan se li va acostar un paio a demanar-li un cigarret...

No ens hem d’aturar mai en aquests casos.

Té raó, però ell es va aturar i li va caure la primera bufetada de seguida i després un munt de cops de tota una banda. I ja es va despertar a l’hospital amb la mandíbula destrossad­a i danys cranials. Tot pels 35 dòlars que portava, però el pitjor va començar llavors.

Què pot ser pitjor?

El segon calvari va ser enfrontar-se a la companyia d’asseguranc­es que ens regatejava el cost de la cobertura sanitària.

Per què? Havien pagat les quotes?

Ho veu? Vostè actua com el software de la companyia d’asseguranc­es: prejutja la nostra conducta. En realitat, jo havia canviat de feina i en algun moment el sistema digital ens va etiquetar, encara no sé per què, com a sospitosos de frau.

Per què s’equivocava?

Vaig estar hores i hores barallant-me amb tècnics, qüestionar­is i telèfons fins que, només gràcies a la meva nova feina a la universita­t i el suport dels seus tècnics informàtic­s, vaig aconseguir tirar endavant. I demostrar el seu error.

I es va posar a investigar?

Vaig escriure el llibre pensant com un algoritme pot marginar milers d’assegurats. I com la digitalitz­ació ens deixa indefensos, perquè no hi ha persones com abans gestionant tot el procés.

Abans no estàvem també marginats en qualsevol tràmit burocràtic?

Abans hi havia persones a l’altre costat del telèfon i podies parlar amb elles i els seus caps. I si no et feien cas els de baix, podies anar pujant en l’exigència i l’escalafó...

Fins on?

En les democràcie­s, en teoria almenys, tenies els teus representa­nts polítics. És difícil que s’interessin en el teu cas privat tret que vegin oportunita­t de servir-se’n, però és molt més difícil encara convèncer un tècnic que el seu algoritme imparteix desigualta­t.

Per què un algoritme genera desigualta­t si en teoria són matemàtiqu­es?

Pot generar-la a partir d’un prejudici de qui ho va concebre i que avui s’aplica a milions d’administra­ts. I jo he volgut cridar l’atenció sobre tots els damnificat­s per aquests prejudicis magnificat­s ara per la intel·ligència artificial.

La conclusió és que la tecnologia no és mai neutral i no sempre eficient?

La conclusió és que la intel·ligència artificial és massa important per deixar-la només a les màquines i als seus programado­rs.

Com es pot exercir sobre ella un control social igualador i just?

Li donaré un exemple: la definició de “pobre” i com un programado­r acaba decidint quan una persona és o no pobre i, per tant, elegible per rebre beneficis socials.

On s’han de posar els límits?

Explico la història de famílies que van tenir la desgràcia de no encaixar en l’estret vestit que l’Administra­ció havia previst per definir la pobresa i, tot i això, la patien. Abans un treballado­r social hauria manat més que la intel·ligència artificial i hauria visitat la família i corregit a la màquina.

Quants pobres pateixen aquesta discrimina­ció?

Em vaig concentrar en un sol estat, el d’Indiana, on, després de l’aplicació del nou software a la concessió d’ajuts a la pobresa, van ser denegades un milió de sol·licituds en tres anys. Els rebutjos van augmentar un 50%.

El programado­r era més mesquí amb els recursos públics que els funcionari­s?

I la intel·ligència artificial li permetia encobrir la seva miopia política amb la pretesa neutralita­t de la màquina. Encara més preocupant és la projecció de dades passades en el futur que duen a terme.

Com?

Per exemple quan projecten els patrons d’abús infantil de la dècada passada en les famílies del futur quan són molt diferents.

No és un problema dels Estats Units?

Hem recollit exemples de mal govern algorítmic arreu del món i també a Espanya, especialme­nt entre la gent més gran. No es pot projectar la realitat demogràfic­a de la dècada passada en la futura.

Quins altres defectes universals detecta?

Que els serveis d’assistènci­a social cada cop exerceixen més de vigilants i menys de prestadors d’ajuda. I la intel·ligència artificial ajuda a canviar la seva funció.

Com?

Limitant la llibertat d’ús dels ajuts. De vegades els diners assignats per menjar poden servir si cal per a habitatge. Però la tecnologia n’augmenta el control i castiga el pobre.

 ?? Barcel nIRALT / SHOOTING ??
Barcel nIRALT / SHOOTING
 ?? ??

Newspapers in Catalan

Newspapers from Spain