La Vanguardia (Català-1ª edició)

Qui et governa sense permís

- Ignacio Orovio

La ponent es diu Lucía Paz i té un discurs sobre algoritmes molt interessan­t. El seu cognom és... és... Et truco més tard, que ara no me’n recordo... L’Isaac m’està explicant alguns dels moments més interessan­ts d’una jornada celebrada fa pocs dies al Canòdrom de Barcelona, a Madrid i en format virtual sobre els algoritmes i la cada vegada més òbvia necessitat de regular-los i controlar-los.

Mentre fa memòria, i intentant que no noti que teclejo, ho provo... Lucía Paz és experta en algoritmes i, si la seva màgia no falla, Google la trobarà: eureka, miracle, bits. Lucía + Paz + algoritme = Lucía Paz Errandonea.

Lucía Paz Errandonea va ser, efectivame­nt, una de les ponents de la primera edició de les jornades Democràcia, algoritmes i resistènci­es, en què van participar unes tres-centes persones i en què el paper i les funcions de la futura Agència Espanyola de Supervisió d’Intel·ligència Artificial van centrar bona part del debat.

Pot semblar ciència o política ficció, o potser fa mandra, però ni parlem del futur ni parlem de techies friquis.

Feu servir Siri, Alexa o Google? Accepteu les cookies sense mirar-vos-les? Per descomptat que sí: ningú no entra a comprovar què regala quan pitja return.

Per descomptat que darrere de cada un d’aquests assistents hi ha un arsenal d’algoritmes. Són per tot arreu i, malgrat que els algoritmes no són nocius per se, governen les nostres vides sense que ningú els hagi votat, i no tenen pietat.

Les jornades celebrades la setmana passada es van tancar amb unes peticions que es consideren de mínims: la independèn­cia d’aquella agència, que pugui sancionar i que assessori el govern en matèria d’intel·ligència artificial; que s’obri un registre públic d’algoritmes i una finestreta única de denúncies contra els

Són a Siri, Alexa, Google... Els experts clamen per normes clares per als algoritmes

abusos; que es vetlli per uns estàndards, i que en la creació i funcioname­nt de l’agència hi intervingu­in les “comunitats afectades”.

Comunitats? Afectades?

Els intents de regulació es deuen als errors ja detectats en l’ús de molts algoritmes, que discrimine­n negres, dones, menors i discapa-citats.

Fa un any l’aplicació de cites Grindr, orientada a la comunitat LGTBI, va rebre una multa de més de 9 milions d’euros a Noruega per haver compartit dades d’usuaris. Les va cedir a almenys cinc empreses, entre d’altres MoPub, una gestora de publicitat a Twitter que al seu torn les podria haver compartit amb un centenar de firmes més. Sobretot amb les que l’algoritme podia entendre (sic) que tenien relació, vincle o interès en la comunitat LGTBI. El que no podia controlar cap d’elles, va considerar l’autoritat noruega, és que les dades esmentades podien arribar a països com Qatar, el Pakistan, Brunei o Somàlia, on la multa (sic) pel fet de ser gai pot ser la pena de mort.

 ?? ??

Newspapers in Catalan

Newspapers from Spain