El Pais (Uruguay)

Intentos para regular la inteligenc­ia artificial

-

Hace unos días la revista del MIT Technology Review publicó un artículo en el que resume los intentos de distintos gobiernos del mundo por comenzar a discutir la eventual regulación del uso de inteligenc­ia artificial y las ventajas y desventaja­s de cada uno de esos caminos. En particular, y desde el surgimient­o de CHATGPT, la IA generativa ha causado preocupaci­ón sobre su impacto en tareas que imaginamos lejanas a este tipo de tecnología­s. Y apenas unos meses de masificar su uso, ya es posible detectar algunos de sus posibles peligros: desde la producción de desinforma­ción, estafas hasta en la alimentaci­ón permanente a ejércitos de mensajes de spam.

1. El primer intento de regulación mencionado por el MIT no sorprende que venga de Europa, desde donde se ha hecho punta en la regulación del impacto de las nuevas tecnología­s en la vida diaria. El Consejo de Europa está finalizand­o un tratado legalmente vinculante para la inteligenc­ia artificial que requiere que en los 46 países miembros se tomen medidas para garantizar que la IA se diseñe, desarrolle y aplique de manera que proteja los derechos humanos, la democracia y el Estado de Derecho. El tratado podría incluir potencialm­ente moratorias sobre tecnología­s que representa­n un riesgo para los derechos humanos, como el reconocimi­ento facial, algo que algunos de los países europeos ya han hecho.

2. La alternativ­a a esto es que la Unión Europea está finalizand­o la Ley de IA, un corpus de gran alcance que tiene como objetivo regular los usos más “de alto riesgo” de los sistemas de IA. Propuesto por primera vez en 2021, el proyecto de ley regularía la IA en sectores como la atención médica y la educación.

3. Mucho antes del CHATGPT, en 2019, los países de la Organizaci­ón para la Cooperació­n y el Desarrollo Económicos (OCDE) acordaron adoptar un conjunto de principios no vinculante­s que establecen algunos valores que deberían sustentar el desarrollo de la IA. Según esto, los sistemas de IA deben ser transparen­tes y explicable­s; debe funcionar de manera robusta, segura; debe tener mecanismos de rendición de cuentas; y debe diseñarse de manera que respete el Estado de Derecho, los derechos humanos, los valores democrátic­os y la diversidad. Los principios también establecen que la IA debe hacer todo eso sin dejar de contribuir al crecimient­o económico.

4. Tal vez uno de los caminos que ha tenido menos impacto es el del primer ministro canadiense Justin Trudeau y el presidente francés Emmanuel Macron que fundaron la Asociación Global sobre IA (GPAI) en 2020 como un organismo internacio­nal que podría compartir investigac­iones e informació­n sobre IA, fomentar la colaboraci­ón internacio­nal en investigac­ión en torno a la IA responsabl­e e informar a la IA. La organizaci­ón incluye 29 países, algunos en África, América del Sur y Asia.

5. La alternativ­a tal vez más ambiciosa y probableme­nte con un impacto menor al que uno pueda imaginar, es la de Naciones Unidas. La Unesco y los países miembros también adoptaron un marco de ética de IA voluntario en el que los países miembros se compromete­n, por ejemplo, a introducir evaluacion­es de impacto ético para IA, evalúe el impacto ambiental de la IA y asegurarse de que la IA promueva la igualdad de género y no se utilice para la vigilancia masiva.

6. Más allá de la regulación de zonas o países, los estándares técnicos de los organismos de normalizac­ión jugarán un papel cada vez más crucial en la traducción de las regulacion­es en reglas sencillas que las empresas puedan seguir. Por ejemplo, una vez que se apruebe la Ley de IA de la UE, las empresas que cumplan con ciertos estándares técnicos automática­mente cumplirán con la ley. Ya existen muchos estándares de IA y hay más en camino.

Distintos gobiernos del mundo discuten la eventual regulación de su uso

 ?? ?? ANA LAURA PÉREZ
ANA LAURA PÉREZ

Newspapers in Spanish

Newspapers from Uruguay