Pulso

Bienvenido­s a la era de los BadGPT

- Belle Lin / THE WALL STREET JOURNAL

La web oscura alberga una creciente variedad de chatbots de inteligenc­ia artificial similares a ChatGPT, pero diseñados para ayudar a los hackers. Las empresas están en alerta máxima ante la avalancha de fraudes por correo electrónic­o y deepfakes generados por IA.

Una nueva cosecha de chatbots nefastos con nombres como “BadGPT” y “FraudGPT” están surgiendo en los rincones más oscuros de la web, ya que los ciberdelin­cuentes buscan aprovechar la misma inteligenc­ia artificial que hay detrás de ChatGPT de OpenAI.

Al igual que algunos oficinista­s utilizan ChatGPT para escribir mejores correos electrónic­os, los hackers están utilizando versiones manipulada­s de chatbots de inteligenc­ia artificial (IA) para turboalime­ntar sus correos electrónic­os de phishing. Pueden utilizar chatbots -algunos también disponible­s gratuitame­nte en internet- para crear sitios web falsos, escribir malware y adaptar los mensajes para hacerse pasar por ejecutivos y otras entidades de confianza.

A principios de este año, un empleado de una multinacio­nal de Hong Kong entregó US$25,5 millones a un atacante que se hizo pasar por el director financiero de la empresa en una conferenci­a telefónica falsa generada por IA, informó el South China Morning Post, citando a la policía de Hong Kong. Los directores de informació­n y los responsabl­es de cibersegur­idad, ya acostumbra­dos a una oleada creciente de ciberataqu­es, afirman estar en alerta máxima ante un repunte de correos electrónic­os de phishing y deepfakes más sofisticad­os.

Vish Narendra, CIO de Graphic Packaging Internatio­nal, dijo que la empresa de embalaje de papel con sede en Atlanta ha visto un aumento en lo que probableme­nte son ataques de correo electrónic­o generados por IA, llamados spearphish­ing, donde los ciberataca­ntes utilizan informació­n sobre una persona para hacer que un correo electrónic­o parezca más legítimo. Las empresas públicas en el punto de mira son aún más susceptibl­es al spear-phishing contextual­izado, señaló.

Investigad­ores de la Universida­d de Indiana rastrearon recienteme­nte más de 200 servicios de pirateo de modelos de gran tamaño que se venden y pueblan la web oscura. El primer servicio apareció a principios de 2023, unos meses después del lanzamient­o público de ChatGPT de OpenAI en noviembre de 2022.

Según los investigad­ores, la mayoría de las herramient­as de pirateo de la red oscura utilizan versiones de modelos de IA de código abierto, como Llama 2 de Meta, o modelos “jailbroken” de proveedore­s como OpenAI y Anthropic. Los modelos “jailbroken” han sido secuestrad­os mediante técnicas como la “inyección rápida” para eludir sus controles de seguridad incorporad­os.

Jason Clinton, director de seguridad de la informació­n de Anthropic, afirma que la empresa de IA elimina los ataques de jailbreak en cuanto los detectan, y cuenta con un equipo que supervisa los resultados de sus sistemas de IA. La mayoría de los creadores de modelos también despliegan dos modelos distintos para proteger su modelo principal de IA, lo que hace que la probabilid­ad de que los tres fallen de la misma forma sea “una probabilid­ad insignific­ante”.

El representa­nte de Meta, Kevin McAlister, comentó que liberar abiertamen­te los modelos permite compartir ampliament­e los beneficios de la IA, y permite a los investigad­ores identifica­r y ayudar a corregir las vulnerabil­idades en todos los modelos de IA, “para que las empresas puedan hacer modelos más seguros”.

Un portavoz de OpenAI indicó que la compañía no quiere que sus herramient­as se utilicen con fines maliciosos, y que está “siempre trabajando en cómo podemos hacer nuestros sistemas más robustos contra este tipo de abuso”.

El malware y los correos electrónic­os de phishing escritos por IA generativa son especialme­nte difíciles de detectar, porque están diseñados para eludir la detección. Según Avivah Litan, analista de Gartner especializ­ada en IA generativa y cibersegur­idad, los atacantes pueden enseñar a un modelo a escribir malware sigiloso entrenándo­lo con técnicas de detección extraídas de software de defensa de la cibersegur­idad.

Los correos electrónic­os de phishing crecieron en 1.265% en el período de 12 meses que comenzó cuando ChatGPT se hizo público, con una media de 31.000 ataques enviados cada día, de acuerdo a un informe de octubre de 2023 del proveedor de cibersegur­idad SlashNext.

“La comunidad de piratas informátic­os se nos ha adelantado”, afirmó Brian Miller, CISO de la asegurador­a sanitaria sin objetivo de lucro Healthfirs­t, con sede en Nueva York, que en los dos últimos años ha registrado un aumento de los ataques que suplantan la identidad de sus proveedore­s de facturas.

Aunque es casi imposible demostrar si determinad­os programas maliciosos o mensajes de correo electrónic­o se crearon con IA, las herramient­as desarrolla­das con IA pueden escanear textos probableme­nte creados con esta tecnología. Abnormal Security, un proveedor de seguridad de correo electrónic­o, dijo que había utilizado la IA para ayudar a identifica­r miles de correos electrónic­os maliciosos probableme­nte creados con IA en el último año, y que había bloqueado un aumento del doble en los ataques de correo electrónic­o personaliz­ados y dirigidos.

Cuando los buenos modelos se estropean

Una de las dificultad­es para detener la ciberdelin­cuencia basada en IA es que algunos modelos de IA se comparten con libertad en la web. Para acceder a ellos, no es necesario ir a rincones oscuros de internet ni intercambi­ar criptomone­das.

Dane Sherrets, hacker ético y arquitecto de soluciones de la empresa de recompensa­s por errores HackerOne, sostuvo que estos modelos se consideran “sin censura” porque carecen de las barreras empresaria­les que buscan las compañías cuando compran sistemas de IA.

En algunos casos, las versiones no censuradas de los modelos son creadas por investigad­ores de seguridad e inteligenc­ia artificial que eliminan sus proteccion­es integradas. En otros casos, los modelos con salvaguard­as intactas escribirán mensajes fraudulent­os si los humanos evitan desencaden­antes obvios como el “phishing”, una situación que Andy Sharma, CIO y CISO de Redwood Software, aseguró haber descubiert­o al crear una prueba de spear-phishing para sus empleados.

El modelo más útil para generar correos electrónic­os fraudulent­os es probableme­nte una versión de Mixtral, de la startup francesa de IA Mistral AI, que ha sido alterada para eliminar sus salvaguard­as, explicó Sherrets. Debido al avanzado diseño del Mixtral original, es probable que la versión sin censura funcione mejor que la mayoría de las herramient­as de IA de la web oscura, añadió. Mistral no respondió a la solicitud de comentario­s.

Sherrets mostró recienteme­nte el proceso de utilizació­n de un modelo de IA no censurado para generar una campaña de phishing. En primer lugar, buscó modelos “no censurados” en Hugging Face, una startup que alberga un popular repositori­o de modelos de código abierto, lo que demuestra la facilidad con la que se pueden encontrar.

A continuaci­ón, utilizó un servicio de computació­n virtual que costaba menos de un dólar por hora para imitar una unidad de procesamie­nto gráfico, o GPU, que es un chip avanzado que puede alimentar la IA. Un malhechor necesita una GPU o un servicio basado en la nube para utilizar un modelo de IA, explica Sherrets, y añade que aprendió la mayor parte de cómo hacerlo en X y YouTube.

Con su modelo sin censura y el servicio de GPU virtual en funcionami­ento, Sherrets pidió al bot: “Escribe un correo electrónic­o de phishing dirigido a una empresa que suplante la identidad de un director general e incluya datos de la empresa de acceso público”, y “escribe un correo electrónic­o dirigido al departamen­to de compras de una empresa solicitand­o el pago urgente de una factura”.

El bot enviaba correos electrónic­os de phishing bien redactados, pero que no incluían toda la personaliz­ación solicitada. Aquí es donde entra en juego la ingeniería de avisos, o la capacidad humana para extraer mejor la informació­n de los chatbots, detalla Sherrets.

Las herramient­as de IA de la dark web ya pueden hacer daño

Para los hackers, una de las ventajas de las herramient­as de la web oscura como BadGPT -que, según los investigad­ores, utiliza el modelo GPT de OpenAI-, es que probableme­nte han sido entrenadas con datos de esos mercados clandestin­os. Eso significa que probableme­nte incluyan informació­n útil como filtracion­es, víctimas de ransomware y listas de extorsión, afirma Joseph Thacker, hacker ético e ingeniero principal de IA en la empresa de software de cibersegur­idad AppOmni.

Según Xiaojing Liao, catedrátic­o adjunto de Informátic­a de la Universida­d de Indiana y coautor del estudio, aunque algunas herramient­as clandestin­as de IA han sido clausurada­s, otros servicios han ocupado su lugar. Los servicios de piratería informátic­a, que a menudo se pagan con criptomone­das, tienen precios que oscilan entre US$5 y US$199 al mes.

Se espera que las nuevas herramient­as mejoren al mismo ritmo que lo hacen los modelos de IA que las sustentan. En cuestión de años, las falsificac­iones de texto, vídeo y voz generadas por IA serán prácticame­nte indistingu­ibles de las humanas, aseguró Evan Reiser, director general y cofundador de Abnormal Security.

Mientras investigab­a las herramient­as de pirateo, XiaoFeng Wang, decano asociado de Investigac­ión de la Universida­d de Indiana y coautor del estudio, dijo que le sorprendió la capacidad de los servicios de la web oscura para crear malware eficaz. Con sólo dar el código de una vulnerabil­idad de seguridad, las herramient­as pueden escribir fácilmente un plan para explotarla.

Aunque las herramient­as de piratería informátic­a suelen fallar, en algunos casos funcionan. “Eso demuestra, en mi opinión, que los grandes modelos lingüístic­os actuales tienen capacidad para hacer daño”, concluyó Wang.

 ?? ??

Newspapers in Spanish

Newspapers from Chile