Un grup d’investigadors defensen que alguns avenços en IA siguin secrets Els delinqüents i els espies podrien fer un ús nefast d’aquesta tecnologia
Un grup de vint-i-sis investigadors pertanyents a les universitats d’Oxford, Cambridge, Bath, Stanford, Lousville, el Center for a New American Security i OpenAI, entre altres institucions, han presentat un manifest sobre la intel·ligència artificial (IA) en el qual plantegen que l’ús que delinqüents, espies i governs opressius poden fer d’aquesta tecnologia és tan nefast i comporta tants riscos que algunes de les investigacions i avenços en aquesta matèria s’han de mantenir en secret.
En el seu informe, basat en una jornada de dos dies que es va celebrar a Oxford el febrer de l’any passat, els experts il·lustren alguns dels riscos i amenaces que entreveuen a través de diferents escenaris que semblen trets de la sèrie Black mirror, com ara una epidèmia mundial d’un virus informàtic que obliga milions de persones a pagar un rescat de 300 euros per poder recuperar la funcionalitat dels seus dispositius digitals, un robot destinat a les tasques de neteja que fan servir al Ministeri de Finances alemany que gràcies al reconeixement facial identifica quan és a prop el ministre per fer esclatar una bomba, o atacs d’eixams de drons controlats per una sola persona a través de la intel·ligència artificial, entre altres coses.
També plantegen la facilitat amb què es pot manipular el comportament de les persones a través de notícies falses o enganyar o llançar atacs a persones, empreses o programes informàtics a través de bots que utilitzen la intel·ligència artificial per simular el comportament d’un vast grup d’usuaris d’internet.
La importància d’aquests riscos porta els autors de l’informe a reivindicar un codi d’ètica sòlid per als investigadors d’intel·ligència artificial i també que s’explorin maneres de restringir la informació potencialment perillosa relacionada amb aquesta tecnologia, de la mateixa manera que hi ha controls i restriccions per als que investiguen i treballen amb altres tecnologies considerades “de doble ús”, és a dir, que potencialment podrien ser utilitzades com a armes.
Ramón López de Mántaras, director de l’Institut d’Investigació en Intel·ligència Artificial del CSIC, assegura que fa temps que la comunitat d’investigació en intel·ligència artificial es planteja la necessitat de tenir en compte els aspectes ètics vinculats als seus desenvolupaments i de treballar sent conscients del doble ús que sempre tenen les tecnologies. “La novetat de l’informe que s’ha publicat ara és que insta a reflexionar sobre si, en certs aspectes molt concrets que poden afectar la seguretat de les persones, s’hauria d’evitar publicar en accés obert i posar els codis (els programes informàtics) a disposició de tothom, perquè ho podrien aprofitar, per exemple, grups terroristes”, apunta. Malgrat defensar la màxima transparència en matèria d’investigació, i especialment pel que fa als avenços en intel·ligència artificial perquè la societat conegui la realitat i l’abast d’aquesta tecnologia, López de Mántaras coincideix amb els autors de l’informe en la necessitat de posar sobre la taula el debat de com s’han d’afrontar els usos maliciosos d’uns desenvolupaments tecnològics que comencen a proliferar.
Els autors de l’informe L’ús maliciós de la intel·ligència artificial: previsió, prevenció i mitigació no amaguen que no tenen clar com es poden contrarestar les amenaces que comporta el desenvolupament de l’IA, però proposen d’investigar més sobre la matèria, que els polítics hi col·laborin i s’hi involucrin, i que els científics comparteixin obertament les seves descobertes només quan siguin capaços d’entendre’n –i de controlarne– els riscos.
Els autors de l’informe treballen a Oxford, Cambridge, Stanford i OpenAI, entre altres institucions