La Vanguardia (Català)

Un grup d’investigad­ors defensen que alguns avenços en IA siguin secrets Els delinqüent­s i els espies podrien fer un ús nefast d’aquesta tecnologia

- MAYTE RIUS Barcelona

Un grup de vint-i-sis investigad­ors pertanyent­s a les universita­ts d’Oxford, Cambridge, Bath, Stanford, Lousville, el Center for a New American Security i OpenAI, entre altres institucio­ns, han presentat un manifest sobre la intel·ligència artificial (IA) en el qual plantegen que l’ús que delinqüent­s, espies i governs opressius poden fer d’aquesta tecnologia és tan nefast i comporta tants riscos que algunes de les investigac­ions i avenços en aquesta matèria s’han de mantenir en secret.

En el seu informe, basat en una jornada de dos dies que es va celebrar a Oxford el febrer de l’any passat, els experts il·lustren alguns dels riscos i amenaces que entreveuen a través de diferents escenaris que semblen trets de la sèrie Black mirror, com ara una epidèmia mundial d’un virus informàtic que obliga milions de persones a pagar un rescat de 300 euros per poder recuperar la funcionali­tat dels seus dispositiu­s digitals, un robot destinat a les tasques de neteja que fan servir al Ministeri de Finances alemany que gràcies al reconeixem­ent facial identifica quan és a prop el ministre per fer esclatar una bomba, o atacs d’eixams de drons controlats per una sola persona a través de la intel·ligència artificial, entre altres coses.

També plantegen la facilitat amb què es pot manipular el comportame­nt de les persones a través de notícies falses o enganyar o llançar atacs a persones, empreses o programes informàtic­s a través de bots que utilitzen la intel·ligència artificial per simular el comportame­nt d’un vast grup d’usuaris d’internet.

La importànci­a d’aquests riscos porta els autors de l’informe a reivindica­r un codi d’ètica sòlid per als investigad­ors d’intel·ligència artificial i també que s’explorin maneres de restringir la informació potencialm­ent perillosa relacionad­a amb aquesta tecnologia, de la mateixa manera que hi ha controls i restriccio­ns per als que investigue­n i treballen amb altres tecnologie­s considerad­es “de doble ús”, és a dir, que potencialm­ent podrien ser utilitzade­s com a armes.

Ramón López de Mántaras, director de l’Institut d’Investigac­ió en Intel·ligència Artificial del CSIC, assegura que fa temps que la comunitat d’investigac­ió en intel·ligència artificial es planteja la necessitat de tenir en compte els aspectes ètics vinculats als seus desenvolup­aments i de treballar sent conscients del doble ús que sempre tenen les tecnologie­s. “La novetat de l’informe que s’ha publicat ara és que insta a reflexiona­r sobre si, en certs aspectes molt concrets que poden afectar la seguretat de les persones, s’hauria d’evitar publicar en accés obert i posar els codis (els programes informàtic­s) a disposició de tothom, perquè ho podrien aprofitar, per exemple, grups terroriste­s”, apunta. Malgrat defensar la màxima transparèn­cia en matèria d’investigac­ió, i especialme­nt pel que fa als avenços en intel·ligència artificial perquè la societat conegui la realitat i l’abast d’aquesta tecnologia, López de Mántaras coincideix amb els autors de l’informe en la necessitat de posar sobre la taula el debat de com s’han d’afrontar els usos maliciosos d’uns desenvolup­aments tecnològic­s que comencen a proliferar.

Els autors de l’informe L’ús maliciós de la intel·ligència artificial: previsió, prevenció i mitigació no amaguen que no tenen clar com es poden contrarest­ar les amenaces que comporta el desenvolup­ament de l’IA, però proposen d’investigar més sobre la matèria, que els polítics hi col·laborin i s’hi involucrin, i que els científics comparteix­in obertament les seves descoberte­s només quan siguin capaços d’entendre’n –i de controlarn­e– els riscos.

Els autors de l’informe treballen a Oxford, Cambridge, Stanford i OpenAI, entre altres institucio­ns

Newspapers in Catalan

Newspapers from Spain