La Vanguardia (Català-1ª edició)
Enginyer computacional i filòsof
Judea Pearl
Judea Pearl (Tel-Aviv, 1936) riu quan el presenten com el pare de la intel·ligència artificial (IA) i en rebutja l’etiqueta. No obstant això, compara el desenvolupament de les màquines amb la criança dels fills i creu que els ordinadors s’haurien de considerar com una nova generació de nens que cal formar i educar amb l’esperança que s’ajustin al sistema de valors dels seus pares, els humans.
I és en aquesta línia en què destaca l’aportació d’aquest enginyer i filòsof: ha traduït a llenguatge matemàtic el raonament probabilístic i les relacions causa-efecte perquè els robots aprenguin a pensar com ho fan les persones i comprenguin la realitat de l’entorn, en comptes d’acumular només dades com passa amb la IA basada en deep learning.
Les seves contribucions conceptuals i matemàtiques li han valgut nombrosos i destacats guardons, com el premi Fundació BBVA Fronteres del Coneixement en Tecnologies de la Informació i la Comunicació, que va recollir el dia 16 a Bilbao.
Pot posar-me’n un exemple pràctic, una aplicació dels seus desenvolupaments?
Una àrea extraordinàriament prometedora és la medicina personalitzada i la presa de decisions personalitzades. Sabem com prendre dades de diferents fonts i oferir informació sobre un individu concret; no de la població ni d’una mitjana, sinó de si tu, per exemple, et beneficiaràs d’un fàrmac o de si aquell fàrmac fracassarà amb tu. I ja s’està fent servir per assajar teories, per descobrir de manera ràpida si una teoria és compatible amb les dades o no.
Al llec el sorprèn tot el que pot fer ja la IA i li fa por veure’s superat i desplaçat per ella. Què verteixi en un Putin, però també que absorbeixi el sistema de valors que compartim.
Qui hauria d’establir aquest sistema de valors per a les màquines?
Els filòsofs tenen algunes teories de valor i els psicòlegs també en
I respecte a la responsabilitat de les decisions de la IA?
És una combinació de responsabilitats. Si col·loques un model equivocat de la realitat en una màquina i, per exemple, la fas funcionar partint de forces sobrenaturals de manera que la seva recomanació per aconseguir que et facin un préstec sigui “veste’n a resar”, el responsable és el programador que ha assumit el risc de descriure la realitat en termes de forces sobrenaturals. Però, a més del model, cal aplicar la lògica correcta per connectar-lo amb les dades, de manera que són responsables tant qui proporciona el model de realitat com qui coneix la lògica que el connecta a les dades.
Vostè es deixaria cuidar per un robot o deixaria en mans d’una IA decisions sobre la feina o la salut?
Si el robot llegeix el meu llibre, sí.
I això?
Perquè la intel·ligència artificial causal és molt més transparent i entén les implicacions de les seves decisions.
I què poden fer els ciutadans per reduir els riscos que comporta l’expansió de sistemes d’intel·ligència artificial?
Aprendre una mica de tecnologia. Totes les persones preocupades per les implicacions socials de la IA haurien d’aprendre filosofia de la ciència, epistemologia, com adquirim el coneixement, què ens fa creure que el que sabem és veritat, com podem comunicar el coneixement per tal de poder parlar de forma coherent. ●
Els límits dels robots “Serà el programador qui els transmeti un codi de valors adaptat a la seva condició
Regular la IA “És prematur perquè encara no sabem què s’ha de reglar; primer han d’entendre-la”