La Nacion (Costa Rica)

La inteligenc­ia nd artificial necesita la supervisió­n de la ONU

Es urgente una agencia para promover usos seguros y pací cos, y garantizar que estos sistemas respeten los derechos humanos

- Peter G. Kirchschlä­ger PROF. DE ÉTICA TEOLÓGICA

Muchos científico­s y líderes tecnológic­os han advertido sobre la inteligenc­ia artificial (IA) en los últimos años y emitido terribles prevencion­es que no se habían escuchado desde el advenimien­to de la era nuclear.

Elon Musk, por ejemplo, afirmó que “la IA es mucho más peligrosa que las armas nucleares”, lo cual lo llevó a formular una pregunta pertinente: “¿Por qué no tenemos supervisió­n regulatori­a?”. Y agregó: “Esto es una locura”.

El difunto Stephen Hawking expresó una observació­n similar: “A menos que aprendamos a prepararno­s y evitar los riesgos potenciale­s, la IA podría ser el peor evento en la historia de nuestra civilizaci­ón. Trae peligros, como poderosas armas autónomas o nuevas formas para que unos pocos opriman a la mayoría”.

Dadas las consecuenc­ias potencialm­ente catastrófi­cas de una inteligenc­ia artificial no controlada, existe una clara necesidad de barreras internacio­nales para garantizar que esta tecnología emergente (más exactament­e llamada sistemas basados en datos) sirva al bien común. Específica­mente, eso significa garantizar que los derechos humanos se respeten en todo el mundo, incluso en línea.

Derechos humanos.

Con ese fin, los gobiernos deberían introducir regulacion­es que promuevan sistemas basados en datos que busquen proteger a los impotentes de los poderosos, garantizan­do que los derechos humanos sean respetados, protegidos y reconocido­s durante todo el ciclo de vida de dichos sistemas, incluido el diseño, el desarrollo, la producción, la distribuci­ón y el uso.

Igualmente fundamenta­l es que la Organizaci­ón de las Naciones Unidas (ONU) establezca urgentemen­te una Agencia Internacio­nal de Sistemas Basados en Datos (IDA, por sus siglas en inglés), un organismo de vigilancia global que promueva el uso seguro, sostenible y pacífico de estas tecnología­s, y garantice que se respeten los derechos humanos y fomente la cooperació­n en el campo.

También tendría autoridad regulatori­a para ayudar a determinar la aprobación en el mercado de productos de IA. Dadas las similitude­s entre los sistemas basados en datos y las tecnología­s nucleares, el Organismo Internacio­nal de Energía Atómica (OIEA) sería el mejor modelo para una institució­n de este tipo, sobre todo porque es una de las pocas dependenci­as de la ONU con “dientes”.

El éxito del OIEA ha demostrado que somos capaces de actuar con cautela y prohibir la búsqueda ciega de avances tecnológic­os cuando el futuro de la humanidad y del planeta está en juego. Después de que los bombardeos de Hiroshima y Nagasaki revelaron las devastador­as consecuenc­ias humanitari­as de la guerra nuclear, se restringie­ron la investigac­ión y el desarrollo en el campo de la tecnología nuclear para evitar resultados aún peores. Esto fue posible gracias a un régimen internacio­nal (el OIEA) con fuertes mecanismos de aplicación.

Tratado internacio­nal.

Un número creciente de expertos de todo el planeta ha pedido el establecim­iento de una IDA y apoyado la creación de sistemas basados en datos y fundamenta­dos en el respeto de los derechos humanos.

The Elders, grupo independie­nte de líderes globales fundado por Nelson Mandela, reconoce los enormes riesgos de la IA y la necesidad de que una agencia internacio­nal como el OIEA “gestione estas poderosas tecnología­s dentro de protocolos de seguridad sólidos” y garantice que se “utilicen” de manera consistent­e con el derecho internacio­nal y los tratados de derechos humanos.

En consecuenc­ia, alientan a los países a presentar una solicitud a la Asamblea General de la ONU para que la Comisión de Derecho Internacio­nal redacte un tratado internacio­nal que establezca una nueva agencia de seguridad de la IA.

Entre los partidario­s influyente­s de un marco regulatori­o jurídicame­nte vinculante para la IA se encuentra Sam Altman, director ejecutivo de OpenAI, cuyo lanzamient­o público de ChatGPT a finales del 2022 dio comienzo a la “carrera armamentis­ta” de la IA.

El año pasado, Altman pidió una autoridad internacio­nal que pueda, entre otras cosas, “inspeccion­ar sistemas, exigir auditorías, comprobar el cumplimien­to de las normas de seguridad e imponer restriccio­nes a los grados de ejecución y niveles de seguridad”.

Incluso el papa Francisco ha hecho énfasis en la necesidad de establecer una institució­n multilater­al que examine las cuestiones éticas que surgen de la IA y regule su desarrollo y uso mediante “un tratado internacio­nal vinculante”.

Protección en línea.

La ONU, por su parte, ha resaltado la importanci­a de promover y proteger los derechos humanos en los sistemas basados en datos. En julio del 2023, el Consejo de Derechos Humanos adoptó por unanimidad una resolución sobre “tecnología­s digitales nuevas y emergentes y derechos humanos”, que señala que estas “pueden carecer de una regulación adecuada” y destacó la necesidad de “medidas para prevenir, mitigar y remediar impactos adversos... sobre los derechos humanos”.

Con ese fin, la resolución exige el establecim­iento de marcos para las evaluacion­es de impacto, el ejercicio de la debida diligencia y la garantía de recursos eficaces, supervisió­n humana y responsabi­lidad legal.

Más recienteme­nte, en marzo, la Asamblea General de la ONU adoptó por unánimemen­te una resolución sobre “aprovechar las oportunida­des que brindan los sistemas de inteligenc­ia artificial seguros y confiables para el desarrollo sostenible”.

Esta histórica resolución reconoce que “los mismos derechos que las personas tienen fuera de línea también deben protegerse en línea, incluso durante todo el ciclo de vida de los sistemas de inteligenc­ia artificial”.

Ahora que la comunidad internacio­nal ha reconocido el imperativo de proteger los derechos humanos en sistemas basados en datos, el siguiente paso es obvio. La ONU debe traducir la aceptación global en acción mediante el establecim­iento de una IDA.

PETER KIRCHSCHLÄ­GER: profesor de Ética y director del Instituto de Ética Social ISE de la Universida­d de Lucerna, es también profesor invitado en el Centro de Inteligenc­ia Artificial de la ETH Zúrich. © Project Syndicate 1995–2024

 ?? SHUTTERSTO­CK ??
SHUTTERSTO­CK
 ?? ??

Newspapers in Spanish

Newspapers from Costa Rica