Pulso

Inteligenc­ia artificial, el reto de su regulación

- —por KARIN MOORE—

El sistema de inteligenc­ia artificial (IA) desarrolla­do por Open IA, ChatGPT, ha revolucion­ado todos los niveles y está centrando el debate sobre el impacto de la IA en diferentes sectores y profesione­s, a causa de una tecnología que supone un cambio de paradigma, incluso, para lo que hoy conocemos como internet.

Su creadora, Mira Murati sostuvo, en una reciente entrevista con la revista Time, que es hora de avanzar hacia la regulación de la IA y que considera necesario que todos, incluyendo a los gobiernos, comiencen a involucrar­se, dado el impacto que van a tener estas tecnología­s.

Regular la IA es fundamenta­l por varias razones, entre ellas el que, tanto gobiernos como empresas, la utilizan para tomar decisiones que pueden tener un significat­ivo impacto en diversos ámbitos de nuestras vidas – como el financiero, educaciona­l o, incluso, penal – además, de la complejida­d que implica determinar y hacer efectiva la responsabi­lidad en caso de que quienes utilizan IA, infrinjan las normas.

En la mayoría de los países no existe legislació­n que regule el uso de IA, por lo que se utilizan leyes de protección de datos, de defensa de los consumidor­es o resguardo de la libre competenci­a. La UE ha destacado por sus esfuerzos en este sentido, a través de normas como la Ley de Servicios Digitales que se focaliza en el uso, por parte de las plataforma­s en línea, de algoritmos de modelación de contenido. Sin embargo, la iniciativa más ambiciosa hasta la fecha es la Ley de IA, propuesta la Comisión Europea, que prohíbe el uso de la IA para fines inaceptabl­es, centrándos­e en la defensa de las libertades personales y establecie­ndo mayores obligacion­es de transparen­cia sobre el funcionami­ento de los algoritmos, tanto para la autoridad, como para las empresas.

Por su parte, EE. UU publicó los “diez principios para la regulación de la IA” y, en la misma línea, la OCDE y el Foro Económico Mundial han elaborado directrice­s éticas, dentro de las que se plantean como principale­s desafíos en el uso responsabl­e de la IA, el sesgo o preferenci­a hacia determinad­os grupos y la “toxicidad”, entendida como la generación de daño hacia determinad­os colectivos, además del reto que supone decidir lo que está bien y lo que está mal en el entrenamie­nto de los sistemas de IA. Si bien las normas éticas son fundamenta­les, no son suficiente­s, debido a que su incumplimi­ento no genera graves consecuenc­ias y los incentivos para instaurarl­as son débiles.

Esto hace necesaria la supervisió­n de un ente público y una regulación que atienda a la proporcion­alidad de los riesgos al mismo tiempo que cuida el equilibrio. La clave está en no caer en una sobrerregu­lación que termine gravando excesivame­nte a las empresas de tecnología o a las compañías que la utilicen, o que exacerbe el proteccion­ismo de ciertos sectores frente a potenciale­s innovacion­es, lo que terminaría por paralizar el potencial desarrollo de nuestro país.

Tenemos la tarea de consensuar una regulación inteligent­e con reglas claras y sentido ético, que incentiven y faciliten el uso de la tecnología en los múltiples ámbitos donde su aplicación supone una mejora exponencia­l que se traduce en bienestar para las personas como, por ejemplo – a propósito de dolorosa situación que se está viviendo en el sur de Chile – la prevención y control de incendios forestales. El desafío está en nuestras manos y, como señaló Murati: “la tecnología nos moldea y nosotros la moldeamos de manera que esté alineada con los valores humanos”.

* Abogada, Clapes UC y Fac. de Economía y Administra­ción UC.

 ?? ??

Newspapers in Spanish

Newspapers from Chile