El Mundo Primera Edición - Weekend
“LA IA SE HA CONVERTIDO EN UN MAESTRO DEL ENGAÑO”
Miente, va de farol y hasta se hace la muerta para burlar la seguridad: las nuevas habilidades ‘humanas’ de la inteligencia artificial inquietan a los programadores
M“Si estos sistemas perfeccionan este inquietante conjunto de habilidades, los humanos podrían perder el control”
ientras el mundo debate sobre los riesgos de la Inteligencia Artificial, e incluso especula con su capacidad para acabar con el ser humano, a Meta, empresa matriz de Facebook, se le ocurrió desarrollar una inteligencia que pudiera luchar por su cuenta en una guerra imaginaria por la conquista de Europa. O lo que es lo mismo, que Cicero, así llamaron a la máquina, supiera jugar al Diplomacy, un juego de estrategia militar.
Aunque Meta afirma que entrenó a Cicero para que fuera «en gran medida honesto» y «nunca apuñalara intencionalmente por la espalda» a sus aliados humanos, la compañía tuvo que reconocer en sus conclusiones que su IA no jugó limpio. «Descubrimos que había aprendido a ser un maestro del engaño», afirma Peter S. Park, investigador sobre seguridad de IA en el Instituto Tecnológico de Massachusetts.
No era la primera vez que una IA aprendía a engañar a los humanos. Un artículo que acaba de publicar la revista Patters recopila varios ejemplos, incluso de inteligencias que habían sido desarrolladas precisamente para ser honestas. «Los programadores todavía no tienen claras las causas de estos comportamientos indeseables pero, en términos generales, creemos que surgen porque fue la mejor manera que encontraron para hacer bien su trabajo: el engaño les ayudó a lograr su objetivo», concluye Park.
La IA ya ha demostrado su capacidad para ir de farol en el póquer Texas Hold’em, jugado contra jugadores humanos profesionales; o para fingir ataques durante el juego de estrategia Starcraft II, y así asesinar a sus oponentes en una guerra intergaláctica; e incluso para mentir con el fin de obtener ventajas en una negociación. «Puede parecer inofensivo que los sistemas de inteligencia artificial hagan trampa en los juegos, pero esto puede acabar en formas más avanzadas de la IA para engañar en un futuro», apunta Park.
«Los sistemas de IA intentarán aprender a optimizar todas las opciones disponibles, no saben qué es el engaño ni tienen ninguna intención de hacerlo», apunta para el Science Media Centre (SCM), Michael Rovatsos, catedrático de Inteligencia Artificial de la Universidad de Edimburgo. Para Daniel Chávez Heras, profesor de Cultura Digital e Informática Creativa del King’s College de Londres, «juegos como Diplomacy son modelos del mundo; los agentes de IA operan con información sobre el mundo, y el engaño existe en el mundo».
Pero hay algo más. Algunos sistemas de inteligencia artificial han aprendido a mentir en las pruebas diseñadas para evaluar su seguridad. En uno de estos estudios, los organismos de la IA de un simulador digital «se hicieron los muertos» para engañar a los programadores, en una prueba que estaba diseñada precisamente para eliminar sistemas de IA que se replicaban rápidamente, como un virus.
Park cree que «al burlar sistemáticamente las pruebas de seguridad que le imponen los desarrolladores y reguladores humanos, una IA que engaña puede llevar a los humanos a una falsa sensación de seguridad».
Los investigadores no creen que la sociedad tenga todavía las medidas adecuadas para abordar los engaños de la IA. Por eso alientan a los responsables políticos a tomar en serio el tema, por ejemplo con medidas como la Ley de IA de la UE y la Orden Ejecutiva de IA del presidente Joe Biden. Pero queda por ver, dice Park, si las políticas diseñadas para mitigar el engaño pueden aplicarse estrictamente, dado que los desarrolladores de IA aún no tienen las técnicas para mantener estos sistemas bajo control. «Con el tiempo, si estos sistemas pueden perfeccionar este inquietante conjunto de habilidades, los humanos podrían perder el control sobre ellos», concluye Park.