Amenaza inteligente
Expertos advierten que los avances de la IA se pueden salir de control.
Los rápidos avances en la inteligencia artificial ( IA), si se salen de control, pronto podrían llevar a nuevos brotes malévolos de noticias falsas, ataques cibernéticos y a la infraestructura física del mundo, advierte un grupo de expertos.
Pero mientras señala el riesgo de amenazas inminentes, el grupo, compuesto por investigadores de IA y asociaciones de libertades civiles, no presenta sugerencias sólidas sobre cómo evitar el mal uso de una de las nuevas tecnologías más poderosas del mundo.
En un reciente informe, de nombre The
Malicious Use of Artificial Intelligence, los autores advierten que si los avances en la IA continúan a su ritmo actual, pronto la tecnología será tan poderosa que podría superar a muchos de los mecanismos de defensa que se incorporan en los sistemas digitales y físicos actuales.
“Lo que nos sorprende a muchos de nosotros es cuánto ha ocurrido en los últimos cinco años. Si eso continua, se verá la posibilidad de crear cosas realmente peligrosas”, dijo Jack Clark, director de políticas de OpenAI, un grupo de IA con sede en San Francisco, California, cuyos patrocinadores incluyen a Elon Musk y Peter Thiel.
La inteligencia artificial facilitará a los agresores reducir el costo para diseñar nuevas armas cibernéticas, al mismo tiempo que permitirá crear ataques dirigidos con una mayor precisión, advierten los expertos. En el campo de las armas cibernéticas, esto podría conducir a ataques mucho más efectivos de spear phishing, con ataques específicos por cada objetivo.
El informe también advierte que se podría tomar control sobre los drones y los coches de autoconducción y utilizarlos como armas, y que la IA maliciosa podría usarse para organizar enjambres de drones.
Mientras tanto, se podrían hackear los sistemas políticos mediante el uso de herramientas desarrolladas para la publicidad y el comercio en línea con la finalidad de manipular a los electores de cualquier país, aprovechando una “mejor capacidad para analizar el comportamiento humano, estados de ánimo y creencias sobre la base de los datos disponibles”.
Clark dijo que los primeros debates sobre la edición genética Crispr obligó al grupo, que incluye investigadores de la Universidad de Oxford y de la Electronic Frontier Foundation, a convocar a un debate público más general sobre las amenazas que representa la IA. Sin embargo, a pesar de instar a los investigadores a pensar sobre la naturaleza del “doble uso” de las tecnologías en las que trabaja — y llamar a una mayor discusión con los gobiernos sobre esos temas— no presenta recomendaciones específicas para emprender.
En un ejemplo sobre cómo los investigadores pueden comenzar a limitar su trabajo para tener en cuenta los riesgos potenciales, el año pasado OpenAI restringió el lanzamiento de una neurona de sentimiento sin supervisión, un algoritmo al que se entrenó para entender los sentimientos al leer las reseñas en Amazon. El grupo decidió mantener para el sistema privado el modelo de lenguaje que desarrolló, para evitar un mal uso del algoritmo que podría generar una tormenta en reseñas falsas.