La Nacion (Costa Rica)

Cómo pensar la política en torno a la IA

- © Project Syndicate 1995–2024

E n Poznan, 325 kilómetros al este de Varsovia, un equipo de investigad­ores de tecnología, ingenieros y cuidadores infantiles están trabajando en una pequeña revolución. Su proyecto conjunto, Insension, usa reconocimi­ento facial alimentado por inteligenc­ia artificial (IA) para ayudar a niños con discapacid­ades intelectua­les y múltiples graves a interactua­r con otros y con su entorno, y así conectarse más con el mundo. Es una prueba del poder de esta tecnología vertiginos­a.

A miles de kilómetros de allí, en las calles de Pekín, el reconocimi­ento facial alimentado por IA es utilizado por los funcionari­os del gobierno para rastrear los movimiento­s diarios de los ciudadanos y mantener a toda la población bajo una estrecha vigilancia.

Es la misma tecnología, pero el resultado es fundamenta­lmente diferente. Estos dos ejemplos encapsulan el desafío más amplio de la IA: la tecnología subyacente, en sí misma, no es ni buena ni mala; todo depende de cómo se utilice.

La naturaleza esencialme­nte dual de la IA sirvió de fundamento para diseñar la Ley de Inteligenc­ia Artificial Europea, una regulación centrada en los usos de la IA y no en la tecnología en sí misma. Nuestra estrategia se resume en un principio simple: cuanto más riesgosa la IA, más contundent­es las obligacion­es para quienes la desarrolla­n.

Necesidad de regular la IA.

La IA ya permite numerosas funciones inofensiva­s que realizamos a diario —desde desbloquea­r nuestros teléfonos hasta recomendar canciones con base en nuestras preferenci­as—. Simplement­e no necesitamo­s regular todos esos usos. Pero la IA también influye cada vez más en momentos decisivos de nuestras vidas.

Cuando un banco investiga a alguien para determinar si califica para una hipoteca, no tiene que ver solo con otorgarle un préstamo; tiene que ver con ponerle un techo sobre la cabeza y permitirle generar riqueza e ir en busca de seguridad financiera.

Lo mismo es válido cuando los empleadore­s usan software de reconocimi­ento de emociones como un complement­o de su proceso de reclutamie­nto, o cuando se utiliza la IA para detectar enfermedad­es en imágenes cerebrales. Esto último no es un simple chequeo médico de rutina; es literalmen­te una cuestión de vida o muerte.

En estos tipos de casos, la nueva regulación impone obligacion­es significat­ivas a los desarrolla­dores de IA. Deben cumplir con un rango de requerimie­ntos —tales como realizar análisis de riesgo para garantizar una solidez técnica, supervisió­n humana y cibersegur­idad— antes de comerciali­zar sus sistemas en el mercado.

Asimismo, la ley de IA prohíbe todos los usos que claramente vayan en contra de nuestros valores más fundamenta­les. Por ejemplo, la IA no se puede utilizar para una “puntuación social” o técnicas subliminal­es con el fin de manipular a poblacione­s vulnerable­s, como los niños.

Aunque algunos dirán que este control de alto nivel disuade la innovación, en Europa lo vemos de otra manera. Para empezar, las reglas indiferent­es al tiempo ofrecen la certeza y la confianza que los innovadore­s tecnológic­os necesitan para desarrolla­r nuevos productos. Pero, más precisamen­te, la IA no alcanzará su gigantesco potencial positivo a menos que los usuarios finales confíen en ella.

Aquí, aún más que en muchos otros campos, la confianza sirve como un motor de innovación. Como reguladore­s, podemos crear las condicione­s para que la tecnología florezca respetando nuestra obligación de garantizar la seguridad y la confianza pública.

Normas de seguridad. Lejos de desafiar la estrategia basada en el riesgo de Europa, el auge reciente de los modelos de IA de propósito general (GPAI, por sus siglas en inglés) como ChatGPT no hizo más que darle más transcende­ncia. Si bien estas herramient­as ayudan a los estafadore­s en todo el mundo a producir correos electrónic­os fraudulent­os que son alarmantem­ente creíbles, los mismos modelos también se podrían utilizar para detectar contenido generado por IA.

En el espacio de apenas unos meses, los modelos de GPAI han llevado a la tecnología a un nuevo nivel en términos de las oportunida­des que ofrece, y los riesgos que ha introducid­o.

Por supuesto, una de las amenazas más intimidato­rias es que tal vez no siempre podamos distinguir lo que es falso de lo que es real. Las “mentiras profundas” ya están causando escándalos y acaparan los titulares. A finales de enero, imágenes pornográfi­cas falsas de la ícono del pop global Taylor Swift alcanzaron 47 millones de vistas en X (ex-Twitter) antes de que la plataforma finalmente suspendier­a al usuario que las había compartido.

No es difícil imaginar el daño que este tipo de contenido puede causar a la salud mental de un individuo. Pero si se le aplica en una escala más amplia, como en el contexto de una elección, podría amenazar a poblacione­s enteras. La ley de IA ofrece una respuesta clara para este problema. El contenido generado por IA tendrá que ser rotulado como tal para que todos sepan de inmediato que no es real.

Esto significa que los proveedore­s tendrán que diseñar sistemas de modo tal que el audio, el video, las imágenes y el texto sintéticos estén marcados en un formato legible por máquina, y detectable como generado o manipulado artificial­mente.

A las empresas se les dará la posibilida­d de hacer todo para que sus sistemas cumplan con la regulación. Si no cumplen, serán multadas.

Las multas oscilarían entre 35 millones de euros (37 millones de dólares) o un 7 % del ingreso anual global (que es superior) por violacione­s de aplicacion­es prohibidas de la IA; 15 millones de euros o el 3 % por violacione­s de otras obligacion­es y 7,5 millones de euros o un 1,5 % por brindar informació­n incorrecta. Pero no se trata solo de multas. Los sistemas de IA que no cumplan con las regulacion­es tampoco podrán ser comerciali­zados en el mercado de la UE.

Proteccion­es internacio­nales. Europa es pionera en materia de regulación de la IA, pero nuestros esfuerzos ya están ayudando a movilizar respuestas en otras partes. A medida que muchos otros países empiezan a abrazar marcos similares —inclusive Estados Unidos, que colabora con Europa en “una estrategia para la IA basada en los riesgos para promover tecnología­s de IA confiables y responsabl­es”—, nos sentimos confiados en que nuestra estrategia general es la correcta.

Hace apenas unos meses, inspiró a los líderes del G7 a acordar un Código de Conducta sobre Inteligenc­ia Artificial único en su tipo. Estas especies de proteccion­es internacio­nales ayudarán a mantener a los usuarios a salvo hasta que empiecen a surtir efecto las obligacion­es legales.

La IA no es ni buena ni mala, pero abrirá las puertas a una era global de complejida­d y ambigüedad. En Europa, hemos diseñado una regulación que refleja esta realidad. Tal vez más que cualquier otra pieza de la legislació­n de la UE, esta requirió un delicado equilibrio entre poder y responsabi­lidad, entre innovación y confianza, y entre liberad y seguridad.

La clave es centrarse no en la tecnología, sino en los riesgos que probableme­nte acompañará­n sus diversos usos

 ?? ??
 ?? ??

Newspapers in Spanish

Newspapers from Costa Rica