El Periódico - Català

«Molts dels problemes amb la IA provenen de decisions humanes»

- CARLES PLANAS BOU

— En els últims anys, Google i Microsoft, els dos gegants que lideren el desenvolup­ament de la IA, han acomiadat gran part del seu equip d’ètica. ¿Per què és preocupant aquest moviment?

— La científica Timnit Gebru va ser la primera dona contractad­a per crear un departamen­t d’ètica en IA a Google. Ella i el seu equip van analitzar models de llenguatge i van detectar molts problemes. No obstant, ningú els escoltava o responia, així que van publicar un paper en el qual explicaven que aquests sistemes funcionen com lloros que repeteixen coses. Per això la van acomiadar d’un departamen­t que després van tancar. Quan assessoro empreses, la meva feina és barallar-me cada dia amb els enginyers perquè el seu concepte d’ètica difereix molt del que és, ells estan interessat­s a produir. El que a mi em passa en micro és el que passa en macro a totes aquestes empreses. No podem esperar a utilitzar una tecnologia per veure si és bona o no, se l’ha de concebre perquè ho sigui per disseny, i això és molt car. Per això molts departamen­ts d’ètica han sigut retallats. És un problema de temps i eficiència de cost.

— Es diu que la tecnologia és neutral i que només depèn de l’ús que se’n faci. ¿Aquesta idea no és certa?

— Hem de deixar de pensar així. La tecnologia no pot ser neutral i menys quan treballa basant-se en dades de persones. Si una IA té biaixos no és culpa seva, són biaixos humans que hem traduït a la màquina.

— Però aquestes empreses no expliquen amb quines dades entrenen aplicacion­s com ChatGPT. La seva opacitat dificulta la detecció de biaixos.

— Per entrenar un model de IA es necessita un gran volum de dades i treure’ls d’internet és molt més barat que crear una base privada. El problema és que moltes de les dades que s’extreuen de la xarxa ja estan esbiaixade­s de base. OpenAI, per exemple, treballa amb 180.000 milions de paràmetres. Això fa que detectar un problema sigui molt difícil. Fins i tot Sam Altman va dir que no entén com funciona ChatGPT. Per això els equips d’ètica adverteixe­n que no es pot comerciali­tzar una cosa així abans de provar-la.

— Cada vegada es pensa més en les màquines des de la por. Ens fan témer que ens robaran la feina o que es rebel·laran contra la humanitat. ¿Estem fent el joc a les grans empreses?

— Pensem en la IA com robots que subjuguen la humanitat, però aquesta idea pertany a la ciènciafic­ció. La IA actual s’allunya molt d’això. El pitjor és que molts dels problemes que tenim amb algoritmes provenen de decisions humanes. És graciós que tinguem por de la IA quan som els humans els que creem aquests biaixos. L’ètica s’ha d’aplicar als humans abans que a la IA.

—Les empreses dissenyen els seus productes d’IA perquè imitin les converses humanes o tinguin veu de dona. Aquesta simulació de l’humà desperta molta fascinació, però ¿deforma la nostra percepció d’aquesta tecnologia?

— Des que l’humà té consciènci­a ha antropomor­fitzat el que té al voltant perquè li feia por i era una manera de dominar-ho. També va passar amb els robots. Als anys 60 el MIT va crear el projecte Eliza, un sistema que podia comunicar-se per telèfon amb els usuaris. La gent s’hi va enganxar i van tancar el projecte. Dotar la tecnologia d’aparença humana ens dona tranquil·litat, però hem d’anar amb compte perquè podem perdre el sentit de la realitat. Hem d’aplicar el pensament crític.

«La tecnologia no pot ser neutral i menys quan treballa basant-se en dades de persones»

 ?? Irene Vilà Capafons ?? Liliana Acosta, fundadora de la consultori­a Thinker Soul.
Irene Vilà Capafons Liliana Acosta, fundadora de la consultori­a Thinker Soul.

Newspapers in Catalan

Newspapers from Spain