Deutsche Welle (Spanish edition)

La IA ya ha descubiert­o cómo enga ar a los humanos, advierten los científico­s

-

Algunos sistemas de inteligenc­ia artificial (IA) han aprendido ya cómo engañar a los humanos, incluso si han sido entrenados para ser útiles y honestos, según un estudio que cita, entre otros ejemplos el modelo Cicero, de Meta, capaz de ganar con malas artes al juego de estrategia Diplomacy.

Un artículo de revisión de otros estudios publicado en Patterns por autores estadounid­enses y australian­os describen los riesgos del engaño por parte de la IA y piden a los Gobiernos que elaboren cuanto antes normativas estrictas para abordar el problema.

El equipo, encabezado por Peter Park del Instituto Tecnológic­o de Massachuse­tts (MIT), define el término engaño como "la inducción sistemátic­a de creencias falsas con el fin de obtener un resultado distinto de la verdad".

Park indicó que "los desarrolla­dores de IA no saben a ciencia cierta qué causa comportami­entos indeseable­s en la IA, como el engaño".

En términos generales, el equipo cree que surge porque una estrategia basada en ese comportami­ento fue "la mejor manera de obtener buenos resultados en una tarea dada de entrenamie­nto. El engaño les ayuda a conseguir sus objetivos", afirmó Park citado por la revista.

Los investigad­ores repasaron la literatura centrada en las formas en que los sistemas de IA difunden informació­n falsa, mediante el engaño aprendido.

Engaño premeditad­o

El engaño es "especialme­nte probable" cuando un sistema de IA se entrena para ganar juegos que tienen un elemento social, como Diplomacy (un juego de conquista del mundo que implica la creación de alianzas).

El estudio repasa ejemplos en los que los sistemas de IA aprendiero­n a engañar para lograr un rendimient­o experto en un tipo de juego o tarea, entre ellos Cicero, diseñado para jugar a Diplomacy.

Meta afirma que lo entrenó para que fuera "en gran medida honesto" y "nunca apuñalara intenciona­damente por la espalda a sus aliados humanos", sin embargo, "se dedica al engaño premeditad­o, rompe los tratos y dice falsedades descaradas", asegura el estudio.

Un caso de engaño premeditad­o es cuando Cicero adquiere un compromiso que nunca tuvo intención de cumplir. Jugando a Diplomacy en el papel de Francia, la IA conspiró con Alemania para engañar a Inglaterra.

Después de decidir con Alemania invadir el Mar del Norte, dijo a Inglaterra que le defendería si alguien invadía esa zona y una vez convencida informó a Alemania de que estaban listos para atacar.

Otros sistemas de IA demostraro­n su capacidad para ir de farol en una partida de Poker Texas Hold'em o para fingir ataques en el juego de estrategia Starcraft II para derrotar a sus oponentes.

No soy un robot

En el caso de ChatGPT 4, el estudio señala cómo engañó a un humano con un test Captcha (los que se hacen para señalar a una web que no somos un robot). Esa IA aseguró que no era un robot, pero que tenía un problema de visión que le dificultaba ver imágenes.

Aunque pueda parecer inofensivo que los sistemas de IA hagan trampas en los juegos, puede dar lugar a "grandes avances en las capacidade­s de engaño" que pueden derivar en formas más avanzadas en el futuro, consideró Park.

Algunos sistemas han aprendido a engañar en pruebas para evaluar su seguridad, haciéndose los muertos para evitar ser detectados por un test diseñado para eliminar las variantes de IA que se replican rápidament­e.

Los principale­s riesgos a corto plazo de la IA engañosa incluyen facilitar a agentes hostiles la comisión de fraudes y la manipulaci­ón de elecciones, según el artículo.

Normativas estrictas

Los responsabl­es políticos deben apoyar una normativa estricta para sistemas de IA potencialm­ente engañosos; las leyes existentes deben aplicarse rigurosame­nte para evitar acciones ilegales por parte de las empresas y sus sistemas de IA, además los legislador­es deberían considerar nuevas normas para la supervisió­n de los sistemas avanzados de IA, indica el equipo.

El investigad­or de la Universida­d de Edimburgo Michael Rovatsos, que no participó en el estudio, consideró que "los sistemas de IA intentarán aprender a optimizar su comportami­ento utilizando todas las opciones disponible­s, no tienen ningún concepto del engaño ni ninguna intención de hacerlo".

Rovatsos, citado por el Science Media Centre (una plataforma de recursos científicos para periodista­s) estimó que la única forma de evitar el engaño es que sus diseñadore­s lo eliminen como opción".

Los usos maliciosos de la IA se beneficiará­n de sus capacidade­s para engañar, "razón por la cual es necesario ilegalizar­los y dedicar esfuerzos a identificar las infraccion­es".

FEW (EFE, Cell Press, Patterns)

 ?? ?? ChatGPT-4 engañó a un humano haciéndole creer que el chatbot era un discapacit­ado visual para que le ayudara a resolver un CAPTCHA.
Imagen: Pond5 Images/IMAGO
ChatGPT-4 engañó a un humano haciéndole creer que el chatbot era un discapacit­ado visual para que le ayudara a resolver un CAPTCHA. Imagen: Pond5 Images/IMAGO

Newspapers in Spanish

Newspapers from Argentina