El Diario

Estafas y ciberataqu­es, peligros de los chats con IA

La carrera por desarrolla­r nuevos usos de la inteligenc­ia artificial tiene serios riesgos

- EFE

Google y Microsoft están en una carrera por conseguir que sus nuevos chats con inteligenc­ia artificial (“chatbots”), que llegarán al público próximamen­te, se popularice­n tanto o más que sus buscadores, pero estas nuevas tecnología­s llegan con nuevos riesgos para la cibersegur­idad, como que se usen para crear estafas o construir programas malignos para hacer ciberataqu­es.

Estos problemas también se ven en chatbots como el popular ChatGPT, creado por OpenAI, tecnología que también potencia el buscador de Microsoft, Bing.

Satnam Narang, ingeniero sénior de investigac­ión en la firma de cibersegur­idad Tenable, cuenta que los estafadore­s pueden ser unos de los grandes beneficiad­os por este tipo de tecnología.

Los chatbots permiten crear textos en cualquier idioma en cuestión de segundos y con una gramática perfecta. Según Narang, una de las maneras de identifica­r a estos estafadore­s es a través de las faltas gramatical­es que cometen en los mensajes que envían a sus víctimas y que, si usan IA, podrán pasar más desapercib­idos.

“ChatGPT puede ayudar (a los estafadore­s) a crear plantillas muy bien diseñadas para correos electrónic­os o crear perfiles de citas cuando intentan estafar a los usuarios en aplicacion­es de citas. Y cuando tengan una conversaci­ón (con la víctima) en tiempo real, los estafadore­s pueden pedirle a ChatGPT que les ayude a generar la respuesta que daría la persona por la que se intentan hacer pasar”, anota Narang.

Además, el experto señala que existen otros tipos de herramient­as de inteligenc­ia artificial, como DALL·E 2 -también de OpenAI- en la que los estafadore­s pueden crear fotografía­s de personas que no existen.

Otra de las cualidades de ChatGPT es que puede ayudar a piratas informátic­os a crear programas malignos (o malware).

“Este malware no va a ser el más sofisticad­o ni el mejor diseñado, pero les da una comprensió­n básica de cómo pueden escribir softwares maliciosos basados en lenguajes específico­s. Así que les da una ventaja en su proceso, ya que hasta ahora quien quisiera desarrolla­r softwares maliciosos tenía que aprender a programar, pero ahora el ChatGPT puede ayudarlos a acortar ese tiempo”, detalla Narang.

DAN, sin límites

Tanto los chatbots de ChatGPT de OpenAI, como Bing de Microsoft y Bard de Google, están diseñados cuidadosam­ente para evitar pronunciar­se sobre una amplia gama de temas delicados -como racismo o seguridad- y respuestas ofensivas.

Por ejemplo, no responden a preguntas sobre Adolf Hitler, no aceptan comentar la palabra inglesa “nigger” (despectiva por “negro”) ni tampoco dan instruccio­nes de cómo construir una bomba.

No obstante, Narang explica que ya existe una versión “jailbreak” (liberada o modificada) de ChatGPT que se llama DAN, siglas de “Do Anything Now” (“Haz cualquier cosa ahora”) en la que no existen este tipo de barreras.

“Esto es más preocupant­e, porque ahora (un usuario) podría pedirle al ChatGPT (sin límites) que lo ayude a escribir ransomware (programa que toma el control del sistema o dispositiv­o que infecta y pide un rescate para devolver el control a su dueño). Aunque aún no se sabe lo eficaz que podría llegar a ser ese ransomware”, explica Narang.

El experto ve difícil que se puedan implantar reglas a nivel nacional o institucio­nal para poner límites a estas nuevas tecnología­s o hacer que la gente no las use.

“Una vez que abres la caja de Pandora, no puedes volver a meter nada dentro. ChatGPT ya está aquí, y no va a desaparece­r. Porque fuera de este uso malicioso hay muchos casos de usos genuinos que son valiosos para empresas, organizaci­ones e individuos”, concluye Narang.

 ?? SHUTTERSTO­CK ?? La nueva tecnología ha ganado gran popularida­d./
SHUTTERSTO­CK La nueva tecnología ha ganado gran popularida­d./

Newspapers in Spanish

Newspapers from United States