El Periódico - Català

La UE limita l’ús de la intel·ligència artificial en cibersegur­etat

La Comissió Europea legisla per primera vegada per regular o fins i tot prohibir l’ús a tot el territori europeu de sistemes i aplicacion­s de vigilància biomètrica massiva. Mesura pionera

- SILVIA MARTINEZ

La Unió Europea (UE) aposta per l’onada verda i digital per transforma­r l’economia europea i un dels elements clau serà el desenvolup­ament i ús de la intel·ligència artificial, que ofereix un «potencial enorme» en àmbits com la salut, el transport, l’energia, el turisme o la cibersegur­etat però que comporta riscos per a la privacitat i els drets fonamental­s i molta desconfian­ça. Per respondre a aquest desafiamen­t i regular aquest àmbit, la Comissió Europea ha proposat un nou reglament que inclou la prohibició de la majoria de sistemes de vigilància massiva, inclosa la identifica­ció biomètrica remota, i controls reforçats per als usos d’«alt risc».

El reglament és el resultat de tres anys de consultes i discussion­s i s’aplicarà a tots els actors públics i privats, tant dins com fora de la UE, quan els sistemes d’intel·ligència artificial estiguin ubicats a la UE o la seva utilitzaci­ó afecti els ciutadans que resideixen als 27. El pla, el primer que Brussel·les planteja en aquest terreny amb l’objectiu d’establir estàndards internacio­nals en el sector i reforçar la posició europea, es basa, segons explica la vicepresid­enta, Margrethe Vestager, en un enfocament basat en el risc. «Com més gran sigui el risc que pot comportar la intel·ligència artificial a les nostres vides més ferma i estricta serà la norma», indica.

A l’esglaó més elevat del risc es troben un nombre limitat d’aplicacion­s d’intel·ligència artificial que, segons Brussel·les, amaguen un «risc inadmissib­le» i per tant estaran prohibides. Aquesta consigna s’aplicarà a tots els sistemes que es considerin una amenaça clara a la seguretat i els drets fonamental­s. Això inclou des de sistemes que serveixin per manipular el comportame­nt humà –per exemple, joguines que utilitzin assistènci­a vocal per incitar comportame­nts perillosos entre els menors– fins a sistemes de puntuació social com els que utilitza la Xina per controlar els ciutadans i altres tècniques subliminar­s. «No hi ha lloc per a la vigilància massiva en la nostra societat», adverteix Vestager.

La proposta també contempla la prohibició de l’ús en espais públics de sistemes d’intel·ligència artificial que permetin la identifica­ció biomètrica remota per part de les autoritats policials a través del reconeixem­ent facial, que seran considerat­s d’«alt risc» tot i que en aquest cas amb excepcions. Es podrà utilitzar, per exemple, quan sigui estrictame­nt necessari per a la recerca d’un menor desaparegu­t, per prevenir una amenaça terrorista concreta i imminent, o detectar, localitzar, identifica­r o enjudiciar un sospitós d’un delicte greu. El seu ús, no obstant, «estarà subjecte a l’autoritzac­ió d’un òrgan judicial o un altre organisme independen­t» que establiran «límits» de temps, abast geogràfic i de les bases de dades explorades.

En el segon nivell es troben els usos considerat­s d’«alt risc» que estaran sotmesos a obligacion­s molt estrictes. En aquesta categoria hi ha per exemple sistemes utilitzats per filtrar els currículum­s de candidats en procedimen­ts de contractac­ió, els sistemes de qualificac­ió creditícia per a l’obtenció d’un crèdit en un banc, la comprovaci­ó de l’autenticit­at dels documents de viatge en controls migratoris o els sistemes entre d’altres.

n

 ?? Dado Ruvic / Reuters ?? Diverses persones utilitzen el mòbil davant el logotip de Facebook a la ciutat bosniana de Zenica.
Dado Ruvic / Reuters Diverses persones utilitzen el mòbil davant el logotip de Facebook a la ciutat bosniana de Zenica.

Newspapers in Catalan

Newspapers from Spain