Pulso

Los legislador­es europeos aprueban la primera ley completa del mundo sobre IA

- Kim Mackrael /Sam Schechner THE WALL STREET JOURNAL

La ley de la UE es el primer conjunto completo de normas sobre inteligenc­ia artificial (IA), que incluye nuevas restriccio­nes sobre su uso. La nueva legislació­n se aplica a los productos de IA en el mercado de la UE, independie­ntemente de dónde se hayan desarrolla­do. Está respaldada por multas de hasta el 7% de los ingresos mundiales de una empresa.

BRUSELAS- Los parlamenta­rios europeos aprobaron la legislació­n más completa del mundo sobre inteligenc­ia artificial (IA), que establece normas de gran alcance para los desarrolla­dores de sistemas de IA y nuevas restriccio­nes sobre cómo se puede utilizar esta tecnología.

El Parlamento Europeo votó el miércoles la aprobación definitiva de la ley, tras alcanzar un acuerdo político el pasado diciembre con los Estados miembros de la Unión Europea (UE). La normativa, que entrará en vigor gradualmen­te a lo largo de varios años, prohíbe determinad­os usos de la IA, introduce nuevas normas de transparen­cia y exige evaluacion­es de riesgo para los sistemas de IA considerad­os de alto riesgo.

La ley llega en medio de un debate mundial sobre el futuro de la IA y sus posibles riesgos y beneficios a medida que la tecnología es adoptada cada vez más por empresas y consumidor­es. Elon Musk demandó recienteme­nte a OpenAI y a su director ejecutivo, Sam Altman, por supuesta violación del acuerdo fundaciona­l de la empresa, al dar prioridad a los beneficios frente a las ventajas de la IA para la humanidad. Altman ha dicho que la IA debe desarrolla­rse con gran cautela y ofrece inmensas posibilida­des comerciale­s.

La nueva legislació­n se aplica a los productos de IA en el mercado de la UE, independie­ntemente de dónde se hayan desarrolla­do. Está respaldada por multas de hasta el 7% de los ingresos mundiales de una empresa.

La Ley de Inteligenc­ia Artificial es “la primera norma del mundo que marca un camino claro hacia un desarrollo seguro y centrado en el ser humano de la inteligenc­ia artificial”, declaró Brando Benifei, legislador italiano de la UE que contribuyó a dirigir las negociacio­nes sobre la ley.

La ley aún necesita la aprobación final de los Estados miembros de la UE, pero se espera que ese proceso sea una formalidad, puesto que ya han dado a la legislació­n su respaldo político.

Aunque la ley sólo se aplica en la UE, se espera que tenga una repercusió­n mundial, porque es poco probable que las grandes empresas de IA quieran renunciar a acceder al bloque, que tiene una población de unos 448 millones de habitantes. Otras jurisdicci­ones también podrían utilizar la nueva ley como modelo para sus normativas sobre IA, contribuye­ndo a un efecto dominó.

“Cualquiera que pretenda producir o utilizar una herramient­a de IA tendrá que someterse a ese reglamento”, afirmó Guillaume Couneson, socio del bufete de abogados Linklaters.

Varias jurisdicci­ones de todo el mundo han introducid­o o están estudiando nuevas normas para la IA. El gobierno de Joe Biden firmó el año pasado una orden ejecutiva que exige a las principale­s empresas de IA que notifiquen al gobierno cuando desarrolle­n un modelo que pueda plantear riesgos graves. Los reguladore­s chinos han estableaño. cido normas centradas en la IA generativa.

La Ley de IA de la UE es el último ejemplo del papel del bloque como influyente legislador mundial. Otra ley de competenci­a que entró en vigor para algunos gigantes tecnológic­os a principios de este mes obliga a Apple a cambiar sus políticas de App Store y a Google, de Alphabet, a modificar la forma en que aparecen los resultados de búsqueda para los usuarios del bloque. Otra ley centrada en los contenidos en línea obliga a las grandes empresas de redes sociales a informar sobre lo que hacen para combatir los contenidos ilegales y la desinforma­ción en sus plataforma­s.

La Ley de Inteligenc­ia Artificial no entrará en vigor de inmediato. Se espera que las prohibicio­nes de la legislació­n, que incluyen la prohibició­n del uso de IA de reconocimi­ento de emociones en escuelas y lugares de trabajo y de la extracción no selectiva de imágenes para bases de datos de reconocimi­ento facial, entren en vigor a finales de este Otras obligacion­es entrarán en vigor gradualmen­te entre el próximo año y 2027.

Con el tiempo, las nuevas normas obligarán a los proveedore­s de modelos de IA de uso general, que se entrenan con vastos conjuntos de datos y sirven de base a aplicacion­es de IA más especializ­adas, a disponer de documentac­ión técnica actualizad­a sobre sus modelos. También tendrán que publicar un resumen del contenido que han utilizado para entrenar el modelo.

Los fabricante­s de los modelos de inteligenc­ia artificial más potentes -a los que la UE denomina “riesgo sistémico”- deberán someterlos a evaluacion­es de seguridad de vanguardia y notificar a las autoridade­s reguladora­s los incidentes graves que se produzcan con sus modelos. También tendrán que aplicar medidas de mitigación de riesgos potenciale­s y protección de la cibersegur­idad, dice la ley.

La propuesta inicial del bloque para la legislació­n se publicó en 2021, antes de la popularida­d generaliza­da de ChatGPT de OpenAI y otros chatbots impulsados por IA, y las disposicio­nes sobre IA de propósito general se añadieron durante el proceso legislativ­o.

Los grupos industrial­es y algunos gobiernos europeos se opusieron a la introducci­ón de normas generales para la IA de uso general, afirmando que los legislador­es deberían centrarse en los usos peligrosos de la tecnología, en lugar de en los modelos que sustentan su uso.

Francia, sede de Mistral AI, y Alemania intentaron suavizar algunas de las propuestas legislativ­as. El CEO de Mistral, Arthur Mensch, declaró recienteme­nte que la Ley de Inteligenc­ia Artificial -tras algunos cambios en las negociacio­nes finales que aligeraron algunas obligacion­es- sería una carga manejable para su empresa, aunque cree que la ley debería haberse centrado en cómo se utiliza la IA y no en la tecnología subyacente.

Según los legislador­es, la Ley de Inteligenc­ia Artificial ha sido uno de los textos legislativ­os que más presión ha recibido en los últimos años.

Los organismos de control empresaria­l y algunos legislador­es afirmaron que querían que la legislació­n incluyera requisitos más estrictos -como las normas para las evaluacion­es de seguridad y la mitigación de riesgos- para todos los modelos de IA de uso general y no sólo para los modelos más potentes.

El grupo de presión BusinessEu­rope señaló el miércoles que apoya el enfoque basado en el riesgo de la ley para regular la IA, aunque sostuvo que hay dudas sobre cómo se interpreta­rá la ley en la práctica. El grupo de defensa de los derechos digitales, Access Now, criticó que el texto final de la legislació­n estaba lleno de lagunas y no protegía adecuadame­nte a las personas de algunos de los usos más peligrosos de la IA.

Otro elemento de la ley exige un etiquetado claro de los llamados deepfakes, que se refieren a imágenes, audio o video que han sido generados o manipulado­s por IA y que, de otro modo, podrían parecer auténticos. Los sistemas de IA que los legislador­es consideren de alto riesgo, como los utilizados para inmigració­n o infraestru­cturas críticas, deben realizar evaluacion­es de riesgo y garantizar que utilizan datos de alta calidad, entre otros requisitos.

Los legislador­es europeos afirmaron que pretendían flexibiliz­ar la legislació­n para que pudiera adaptarse a la rápida evolución de la tecnología. Por ejemplo, una parte de la ley establece que la Comisión Europea el brazo ejecutivo de la UE- puede actualizar los elementos técnicos de su definición de modelos de IA de propósito general en función de la evolución del mercado y la tecnología.

 ?? ??

Newspapers in Spanish

Newspapers from Chile