Milenio - Mercados Milenio

Amenaza inteligent­e

Expertos advierten que los avances de la IA se pueden salir de control.

- RICHARD WATERS

Los rápidos avances en la inteligenc­ia artificial ( IA), si se salen de control, pronto podrían llevar a nuevos brotes malévolos de noticias falsas, ataques cibernétic­os y a la infraestru­ctura física del mundo, advierte un grupo de expertos.

Pero mientras señala el riesgo de amenazas inminentes, el grupo, compuesto por investigad­ores de IA y asociacion­es de libertades civiles, no presenta sugerencia­s sólidas sobre cómo evitar el mal uso de una de las nuevas tecnología­s más poderosas del mundo.

En un reciente informe, de nombre The

Malicious Use of Artificial Intelligen­ce, los autores advierten que si los avances en la IA continúan a su ritmo actual, pronto la tecnología será tan poderosa que podría superar a muchos de los mecanismos de defensa que se incorporan en los sistemas digitales y físicos actuales.

“Lo que nos sorprende a muchos de nosotros es cuánto ha ocurrido en los últimos cinco años. Si eso continua, se verá la posibilida­d de crear cosas realmente peligrosas”, dijo Jack Clark, director de políticas de OpenAI, un grupo de IA con sede en San Francisco, California, cuyos patrocinad­ores incluyen a Elon Musk y Peter Thiel.

La inteligenc­ia artificial facilitará a los agresores reducir el costo para diseñar nuevas armas cibernétic­as, al mismo tiempo que permitirá crear ataques dirigidos con una mayor precisión, advierten los expertos. En el campo de las armas cibernétic­as, esto podría conducir a ataques mucho más efectivos de spear phishing, con ataques específico­s por cada objetivo.

El informe también advierte que se podría tomar control sobre los drones y los coches de autoconduc­ción y utilizarlo­s como armas, y que la IA maliciosa podría usarse para organizar enjambres de drones.

Mientras tanto, se podrían hackear los sistemas políticos mediante el uso de herramient­as desarrolla­das para la publicidad y el comercio en línea con la finalidad de manipular a los electores de cualquier país, aprovechan­do una “mejor capacidad para analizar el comportami­ento humano, estados de ánimo y creencias sobre la base de los datos disponible­s”.

Clark dijo que los primeros debates sobre la edición genética Crispr obligó al grupo, que incluye investigad­ores de la Universida­d de Oxford y de la Electronic Frontier Foundation, a convocar a un debate público más general sobre las amenazas que representa la IA. Sin embargo, a pesar de instar a los investigad­ores a pensar sobre la naturaleza del “doble uso” de las tecnología­s en las que trabaja — y llamar a una mayor discusión con los gobiernos sobre esos temas— no presenta recomendac­iones específica­s para emprender.

En un ejemplo sobre cómo los investigad­ores pueden comenzar a limitar su trabajo para tener en cuenta los riesgos potenciale­s, el año pasado OpenAI restringió el lanzamient­o de una neurona de sentimient­o sin supervisió­n, un algoritmo al que se entrenó para entender los sentimient­os al leer las reseñas en Amazon. El grupo decidió mantener para el sistema privado el modelo de lenguaje que desarrolló, para evitar un mal uso del algoritmo que podría generar una tormenta en reseñas falsas.

 ??  ?? Los riesgos. Los avances tecnológic­os pueden llegar a reducir sustancial­mente los costos para producir armas cibernétic­as.
Los riesgos. Los avances tecnológic­os pueden llegar a reducir sustancial­mente los costos para producir armas cibernétic­as.

Newspapers in Spanish

Newspapers from Mexico