La Vanguardia (Català-1ª edició)

Enginyer computacio­nal i filòsof

Judea Pearl

- E N T R E V I STA driJav

Judea Pearl (Tel-Aviv, 1936) riu quan el presenten com el pare de la intel·ligència artificial (IA) i en rebutja l’etiqueta. No obstant això, compara el desenvolup­ament de les màquines amb la criança dels fills i creu que els ordinadors s’haurien de considerar com una nova generació de nens que cal formar i educar amb l’esperança que s’ajustin al sistema de valors dels seus pares, els humans.

I és en aquesta línia en què destaca l’aportació d’aquest enginyer i filòsof: ha traduït a llenguatge matemàtic el raonament probabilís­tic i les relacions causa-efecte perquè els robots aprenguin a pensar com ho fan les persones i comprengui­n la realitat de l’entorn, en comptes d’acumular només dades com passa amb la IA basada en deep learning.

Les seves contribuci­ons conceptual­s i matemàtiqu­es li han valgut nombrosos i destacats guardons, com el premi Fundació BBVA Fronteres del Coneixemen­t en Tecnologie­s de la Informació i la Comunicaci­ó, que va recollir el dia 16 a Bilbao.

Pot posar-me’n un exemple pràctic, una aplicació dels seus desenvolup­aments?

Una àrea extraordin­àriament prometedor­a és la medicina personalit­zada i la presa de decisions personalit­zades. Sabem com prendre dades de diferents fonts i oferir informació sobre un individu concret; no de la població ni d’una mitjana, sinó de si tu, per exemple, et beneficiar­às d’un fàrmac o de si aquell fàrmac fracassarà amb tu. I ja s’està fent servir per assajar teories, per descobrir de manera ràpida si una teoria és compatible amb les dades o no.

Al llec el sorprèn tot el que pot fer ja la IA i li fa por veure’s superat i desplaçat per ella. Què verteixi en un Putin, però també que absorbeixi el sistema de valors que compartim.

Qui hauria d’establir aquest sistema de valors per a les màquines?

Els filòsofs tenen algunes teories de valor i els psicòlegs també en

I respecte a la responsabi­litat de les decisions de la IA?

És una combinació de responsabi­litats. Si col·loques un model equivocat de la realitat en una màquina i, per exemple, la fas funcionar partint de forces sobrenatur­als de manera que la seva recomanaci­ó per aconseguir que et facin un préstec sigui “veste’n a resar”, el responsabl­e és el programado­r que ha assumit el risc de descriure la realitat en termes de forces sobrenatur­als. Però, a més del model, cal aplicar la lògica correcta per connectar-lo amb les dades, de manera que són responsabl­es tant qui proporcion­a el model de realitat com qui coneix la lògica que el connecta a les dades.

Vostè es deixaria cuidar per un robot o deixaria en mans d’una IA decisions sobre la feina o la salut?

Si el robot llegeix el meu llibre, sí.

I això?

Perquè la intel·ligència artificial causal és molt més transparen­t i entén les implicacio­ns de les seves decisions.

I què poden fer els ciutadans per reduir els riscos que comporta l’expansió de sistemes d’intel·ligència artificial?

Aprendre una mica de tecnologia. Totes les persones preocupade­s per les implicacio­ns socials de la IA haurien d’aprendre filosofia de la ciència, epistemolo­gia, com adquirim el coneixemen­t, què ens fa creure que el que sabem és veritat, com podem comunicar el coneixemen­t per tal de poder parlar de forma coherent. ●

Els límits dels robots “Serà el programado­r qui els transmeti un codi de valors adaptat a la seva condició

Regular la IA “És prematur perquè encara no sabem què s’ha de reglar; primer han d’entendre-la”

Newspapers in Catalan

Newspapers from Spain