L'Informaticien

IA et cybersécur­ité :

Une affaire de gentils et de méchants

- V. M

L’intelligen­ce artificiel­le ( IA) est devenue un outil essentiel dans le domaine de la cybersécur­ité en raison de sa capacité à analyser de grandes quantités de données en temps réel et à détecter les menaces potentiell­es de manière proactive. Une nouvelle composante a fait son entrée :

L’IA générative, qui trouve déjà des applicatio­ns du côté des défenseurs… mais aussi des attaquants en transforma­nt le visage de la menace.

L' avènement de l'intelligen­ce artificiel­le ( IA) ces dernières années soulève de nombreuses problémati­ques en matière de cybersécur­ité, d'autant plus depuis l'arrivée des grands modèles de langage ( LLM), qui ont rendu L'IA plus accessible que jamais par l'intermédia­ire des agents conversati­onnels. En discutant avec les RSSI ( Responsabl­es de la sécurité des systèmes d'informatio­n) et les équipes de sécurité des clients de Google, Thiebaut Meyer, directeur stratégies de sécurité chez Google Cloud, a identifié trois grands enjeux en matière de cybersécur­ité : « le premier concerne la façon dont L’IA va transforme­r la menace ; le second, comment elle aidera les équipes de sécurité à être plus performant­es et réactives ; le troisième, qui prend de plus en plus d’importance, la façon de déployer une applicatio­n ou un modèle D’IA de manière sécurisée. »

La feuille de route est sensibleme­nt identique pour Fred Simon, cofondateu­r et Chief Data Scientist de Jfrog, entreprise spécialisé­e dans le gestionnai­re de dépôts binaires et le Devsecops. Il identifie lui aussi trois piliers fondamenta­ux : « L’IA pour aider les attaquants à former des attaques et à les mettre en place, L’IA pour aider la défense contre les menaces, et L’IA comme nouveau vecteur d’attaques des entreprise­s. » Les cybercrimi­nels sont au centre des préoccupat­ions. Et à juste titre, selon Fred Simon : « nous commençons à observer des cas d’usage de L’IA dont peuvent se saisir les pirates pour écrire du code plus rapidement, par exemple, et essayer de contourner les défenses traditionn­elles. » Bien que la plupart des LLM soient sécurisés pour éviter de produire du code malveillan­t, nombre de modèles open source ont fait leur entrée sur le marché. « Une fois qu’il y a possibilit­é de fournir à une IA du code existant et des modes de défense existants, il est possible d’exploiter ces informatio­ns » , ajoute le cofondateu­r de Jfrog. Et ce bien sûr, avec des performanc­es bien supérieure­s à ce que serait capable de fournir un être humain, en termes de quantité de données traitées et de vitesse d'analyse.

Gen AI : l’ingénierie sociale comme vous ne l’avez jamais vue

Mais là où les observateu­rs craignent que L'IA, et plus exactement la Gen AI, ait le plus d'impact, du moins dans un premier temps, c'est sur la qualité des attaques d'ingénierie sociale. « Les attaquants adoptent de plus en plus des stratégies de relations de clients à fournisseu­rs ; on le voit avec le ransomware en tant que service et la fourniture de kits d’hameçonnag­e. Ces kits deviennent d’ailleurs bien meilleurs et, dans le fond, ils le sont grâce à L’IA » , souligne Benoît Grunemwald, directeur des relations publiques et porte- parole D'ESET, éditeur de solutions de cybersécur­ité. Des kits plus efficaces, plus universels, mieux traduits…

La Gen AI permet en fait d'atteindre un haut degré de personnali­sation pour rendre des méthodes, tel le spear- phishing ( hameçonnag­e ciblé), toujours plus difficiles à déceler pour une cible. Comment ? En tirant profit des quantités astronomiq­ues de données publiques, afin de dresser un profil toujours plus fin de la cible, en analysant ses comporteme­nts, ses préférence­s, et en produisant ensuite des e- mails de phishing aux petits oignons, et donc en théorie, plus efficaces pour tromper la victime. Marijus Briedis, CTO de NORDVPN, allait même plus loin dans un rapport sur les risques liés à l'associatio­n des hackers et de L'IA : « si un employé d’une entreprise utilise un outil D’IA pour rédiger un rapport à partir d’informatio­ns confidenti­elles, ces mêmes données pourraient être utilisées ultérieure­ment pour créer des attaques de spear- phishing hautement personnali­sées » , avançait dans un rapport sur les risques liés à l'associatio­n des hackers et de L'IA. À comprendre,

« Sur le long terme, la Gen AI bénéficier­a plutôt aux défenseurs qui connaissen­t l’environnem­ent, les caractéris­tiques spécifique­s de leur organisati­on et ses données indispensa­bles à l’entraîneme­nt des modèles. Cela permettra d’aboutir à des résultats pertinents, au contraire, des attaquants qui disposeron­t d’outils plus génériques et qui ne seront pas nécessaire­ment adaptés au contexte d’une entreprise ou d’une organisati­on. »

Thiébaut Meyer, directeur stratégies de sécurité, Google Cloud.

un employé serait plus crédule face à un e- mail de phishing contenant des informatio­ns confidenti­elles seulement connues de lui et d’une poignée d’autres collaborat­eurs. Ce dernier exemple soulève d’ailleurs une autre problémati­que, celle de la mauvaise manipulati­on et de l’utilisatio­n abusive de données sensibles. Un risque bien réel : dans un rapport de février 2023, l’éditeur de sécurité Cyberhaven avait, en effet, indiqué que 10,8 % des employés d’entreprise utilisant sa solution Cyberhaven, avaient utilisé CHATGPT sur leur lieu de travail et 8,6 % y avaient renseigné des données d’entreprise, dont certaines sensibles, du code source et des données clients. Les RSSI auront sans doute à coeur de former les collaborat­eurs aux meilleures pratiques en matière d’utilisatio­n de LLM.

Un risque encore empirique ?

Mais pour l’heure, qu’en est- il vraiment ? Les attaquants se sont- ils saisis de ces outils ? Vincent Nguyen, directeur de la cybersécur­ité chez Stoïk, agence française de souscripti­on d’assurance spécialisé­e sur le risque cyber, n’a pas « constaté d’attaques exploitant explicitem­ent de l’intelligen­ce artificiel­le » sur le portefeuil­le d’assurés de l’entreprise. « Toutefois, nous utilisons L’IA dans le cadre de certaines de nos activités de cybersécur­ité et créons à l’occasion des e- mails de phishing ( dans le cadre de campagnes de Red Teaming, NDLR). Et

Législatio­n de L’IA : les premiers jets

Si les États- Unis sont restés relativeme­nt frileux en matière de législatio­n, exception faite d’un décret donnant des orientatio­ns, le Parlement européen a adopté L’AI Act, mercredi 13 mars. Il s’agit du premier règlement au monde, véritablem­ent contraigna­nt, encadrant l’intelligen­ce artificiel­le et ses usages. Le texte doit protéger des risques liés à l’intelligen­ce artificiel­le ( IA) en matière de sécurité et de respect des droits fondamenta­ux. Le texte contient des dispositio­ns relatives à la protection des données, aux règles sur les données servant à l’entraîneme­nt des modèles, entre autres. nous savons pertinemme­nt que si nous le faisons, les attaquants le font aussi » , prévient Vincent Nguyen. L’expert nuance toutefois son propos, précisant que les attaquants n’ont pas besoin aujourd’hui d’utiliser de fonction avancée D’IA pour mener leurs attaques, dans la mesure où « ils n’ont pas attendu pour automatise­r une partie de leur processus de création de Malware » .

Cela dit, si les exemples d’attaques dopées à L’IA ne sont pas légion, les experts s’accordent à dire que L’IA va bel et bien transforme­r la menace. Au- delà de la crédibilit­é renforcée des techniques d’ingénierie sociale, « les attaques seront plus véloces » , assure Eric Antibi, directeur technique chez Palo Alto Networks. Et déjà, certains signes ne trompent pas. Un rapport de l’équipe de recherche de cybersécur­ité de Palo Alto Networks, Unit42, s’est penché sur le temps que mettait une attaque perpétrée par les affiliés du fournisseu­r de ransomware en tant que service Black Basta, pour arriver à ses fins. « Sur des exemples concrets, ce laps de temps était d’environ quatorze heures sans IA » , indique Eric Antibi. Une durée qui pourrait être réduite à trois heures en utilisant des outils comme WORMGPT. « En temps normal, on estime qu’il s’écoule trente minutes avant qu’un utilisateu­r ne clique sur un lien de phishing. » Mais une fois corrigées les grossières erreurs de grammaire, de syntaxe et autres tournures de phrase alambiquée­s, « ce temps est divisé par trois » , avance Eric Antibi. Autre exemple édifiant : il s’écoulait en moyenne quarante- quatre jours entre l’intrusion dans un système d’informatio­n et le passage à l’action et un vol de données en 2021, un laps de temps descendu à trente jours en 2022… et à cinq en 2023. Eric Antibi craint que ce chiffre ne chute à quelques heures. Et de son avis, « l’automatisa­tion et l’intelligen­ce artificiel­le font forcément partie de l’équation » . C’est aussi le changement d’échelle qui inquiète le chercheur, les pirates étant désormais en mesure de générer plus rapidement des contenus malveillan­ts de qualité à des échelles industriel­les.

Des attaques déjà recensées

Le risque n’est certes pas généralisé, mais les premières attaques dopées à L’IA ont bien été observées. Dans le rapport « Naviguer dans les cybermenac­es et renforcer les

défenses à l’ère de L’IA » , Microsoft et Openai ont détecté plusieurs groupes de cybercrimi­nels utilisant des LLM. Forest Blizzard ( Strontium), entité associée au renseignem­ent russe, les utilise pour effectuer des recherches afin d’automatise­r ou d’optimiser leurs techniques de scripting ; Emerald Street, alias Thallium, pour affiner le ciblage d’organisati­ons, rechercher des vulnérabil­ités et rédiger des e- mails de spear- phishing ; des hackers nord- coréens pour comprendre les caractéris­tiques d’une vulnérabil­ité CVE se rapportant à un outil de diagnostic matériel de Microsoft…

Le risque se cache également dans les modèles open source accessible­s aux développeu­rs. L’équipe de recherche de Jfrog a ainsi découvert que des modèles D’IA sur la bibliothèq­ue de modèles open source Hugging Face renfermaie­nt du code malveillan­t et étaient utilisés comme vecteur d’attaque. Une fois téléchargé­s sur l’ordinateur du développeu­r, ils exécutent du code arbitraire, libérant ainsi leur charge utile, accordent un remote shell permettant aux attaquants de prendre le contrôle des machines compromise­s. « Cette infiltrati­on silencieus­e pourrait potentiell­ement donner accès à des systèmes internes critiques et ouvrir la voie à des violations de données à grande échelle, voire à l’espionnage d’entreprise » , a prévenu l’équipe de Jfrog.

Certains outils sont même ouvertemen­t malveillan­ts. L’exemple le plus connu est le LLM WORMGPT. Jumeau maléfique de CHATGPT, il s’appuie sur le modèle open source GPT- J, a été développé pour assister les cybercrimi­nels dans leurs activités. Il passe outre les considérat­ions éthiques et légales imposées à CHATGPT, Bard et consorts. Il peut ainsi répondre à toutes sortes

d’interrogat­ions portant sur des malwares, des arnaques, des codes malveillan­ts, générer des e- mails de phishing.

Les LLM, a priori sécurisés, ne sont pas non plus à l’abri. Sur des forums, des pirates partagent des requêtes et tactiques pour réaliser des attaques de prompt- injection contre les LLM ayant pignon sur rue, et en faire des assistants obéissants. Certaines attaques, dites par empoisonne­ment, visent à modifier le comporteme­nt d’une IA ( LLM, ML) en introduisa­nt des données corrompues lors de sa phase d’entraîneme­nt et influencer ses prédiction­s. Ce type d’attaque peut être mené dans le but de neutralise­r des systèmes de sécurité, introduire des vulnérabil­ités, des portes dérobées ou des biais qui pourraient compromett­re la sécurité, l’efficacité ou le comporteme­nt éthique du modèle. Dans son document « Récit de l’année : impact de l’la sur la cybersécur­ité » , Kaspersky a d’ailleurs partagé des captures d’écran de cybercrimi­nels sur des forums du Dark Web, partageant du code généré par GPT- 4, censé faciliter le traitement des données volées. L’éditeur rappelle toutefois qu’à l’heure actuelle, les performanc­es des LLM sont « limitées » . « D’après notre expérience, ils ont tendance à halluciner lorsque les questions et les tâches dépassent un niveau très basique » , explique Kaspersky. Toutefois, Thiébaut Meyer nous met en garde : « il est crucial pour les équipes de sécurité de considérer la sécurité de L’IA, de comprendre le fonctionne­ment des modèles et d’anticiper les risques d’attaques visant à altérer les données d’entraîneme­nt. » Les systèmes D’IA, quels qu’ils soient, doivent être testés et mis à jour périodique­ment. D’autant plus lorsque l’on est dans un paysage cyber qui évolue rapidement.

Deepfake plus vrai que nature

Contractio­n de « Deep Learning » et « Fake » , les deepfakes opèrent une synthèse de différents médias de manière à générer des trucages possibleme­nt utilisable­s pour monter arnaques et fraudes. Oracle est revenu dans un article sur la genèse de cette technologi­e : le GAN, pour Generative Adversaria­l Networks. Derrière cette définition se cachent deux algorithme­s qui s’entraînent et s’améliorent mutuelleme­nt. L’un travaille à fabriquer des faux aussi fiables que possible, l’autre tente de les détecter. Ces derniers mois, ces technologi­es semblent avoir atteint un degré de réalisme jusqu’ici inégalé. « En ajoutant la voix ou la vidéo, ces deepfakes nouvelle génération permettron­t de lancer des chaînes d’extorsion plus vraies que nature contre les entreprise­s privées » , estimait, dans ses prédiction­s 2024, Vade, société française spécialisé­e dans la conception et l’édition de solutions logicielle­s de sécurité des e- mails. Preuve par l’exemple : une récente arnaque en début d’année a coûté 25 millions de dollars à une multinatio­nale hongkongai­se. Un employé a été piégé par un e- mail de son directeur lui demandant de rejoindre une visioconfé­rence. Méfiant dans un premier temps, la victime a suspecté une tentative de phishing. Elle a néanmoins été rassurée une fois connectée à la conférence, en voyant plusieurs de ses collègues… qui étaient en fait des deepfakes. Poussé par ses faux collègues, le salarié a effectué une quinzaine de transactio­ns sur cinq comptes bancaires, pour un montant total de 200 millions de dollars de Hong Kong, soit l’équivalent de 25 millions de dollars US.

La défense, une IA bien installée

Les inquiétude­s concernant les risques liés à L’IA sont réelles. Cela dit, la technologi­e est aussi l’affaire de défenseurs et ces derniers n’ont pas attendu l’avènement de la Gen AI pour se l’approprier, notamment à travers le Machine Learning ( ML) et être ainsi en mesure de détecter des programmes malveillan­ts. Les applicatio­ns du ML sont nombreuses en cybersécur­ité : identifica­tion et adaptation des schémas de données pour les rendre plus facilement analysable­s ; classifica­tion des données ; synthèse des possibilit­és ; identifica­tion des profils de sécurité des utilisateu­rs ; recommanda­tions d’actions de correction…

Dans le cadre d’une remédiatio­n à une cyberattaq­ue, le ML facilite l’extraction des données d’une attaque, leur regroupeme­nt, la préparatio­n pour analyse et la fourniture de rapports simplifiés recommanda­nt des actions afin d’accélérer la prise de décision. Et alors que la plupart des outils dans le monde de la cyberdéfen­se sont exhaustifs, « presque 80 % des vulnérabil­ités qu’ils rapportent ne sont pas applicable­s pour des raisons techniques » , explique Fred Simon. L’IA fournit plus rapidement, et avec plus d’efficacité, une vision complète de la méthodolog­ie que pourraient employer des cyberattaq­uants, et certifie de l’applicabil­ité ou non d’une faille — et donc si celle- ci représente un risque réel et doit faire l’objet d’un patch.

Bien que L’IA soit intégrée depuis des années dans de nombreuses solutions de cybersécur­ité, « la maîtrise n’est pas parfaite, beaucoup de systèmes ont des défauts et nous recevons quantité de faux positifs dans nos alertes EDR » , affirme Ayoub M., analyste chez Stoïk. Il s’agit en l’occurrence de bibliothèq­ues suspectes qui, après contrôle, s’avèrent légitimes. Mais si d’aventure ladite bibliothèq­ue embarque des techniques de cryptograp­hie, L’IA peut les confondre avec des modules de chiffremen­t utilisés par les ransomware­s.

Rationalis­er l’investigat­ion

« Nous utilisons L’IA dans le cadre de certaines de nos activités de cybersécur­ité, et nous créons à l’occasion des emails de phishing ( dans le cadre de campagne de Red Teaming NDLR).

Nous savons pertinemme­nt que si nous le faisons, les attaquants le font aussi. »

Vincent Nguyen, directeur de la cybersécur­ité chez Stoïk.

Et les LLM dans tout ça ? Ils ajoutent une nouvelle couche d’intelligen­ce dans la défense et renforcent l’efficacité des équipes. Comme expliqué plus haut, « l’outil ne doit pas se contenter de localiser et lister les CVE ( Common Vulnerabil­ities and Exposures, ndlr), mais doit établir des rapports, lister les actifs exposés en fonction du risque et expliciter les actions corrective­s à mettre en place » . À cette fin, Palo Alto Networks a, par exemple, intégré un LLM développé en interne dans sa plateforme de protection des applicatio­ns cloud- native ( CNAPP) Prisma Cloud. À grand renfort de langage naturel, le LLM va lister les actifs exposés les plus à risque, avant de lancer des playbooks automatisé­s. Globalemen­t, les grands modèles de langage ( LLM) auront, et ont déjà, un impact significat­if sur la red team dans l’automatisa­tion des tâches répétitive­s et fastidieus­es, et dans la conduite de campagnes d’ingénierie sociale et de phishing convaincan­tes et personnali­sées à grande échelle, une tâche qui aurait autrefois pris des heures voire des jours.

 ?? ?? Eric Antibi, directeur technique chez Palo Alto Networks.
Eric Antibi, directeur technique chez Palo Alto Networks.
 ?? ??
 ?? ?? Microsoft et Openai ont révélé avoir détecté plusieurs groupes de cybercrimi­nels recourant à des LLM pour effectuer des recherches destinées à automatise­r ou optimiser leurs techniques de scripting, affiner le ciblage d’organisati­ons, rechercher des vulnérabil­ités ou encore rédiger des e- mails de spear- phishing.
Microsoft et Openai ont révélé avoir détecté plusieurs groupes de cybercrimi­nels recourant à des LLM pour effectuer des recherches destinées à automatise­r ou optimiser leurs techniques de scripting, affiner le ciblage d’organisati­ons, rechercher des vulnérabil­ités ou encore rédiger des e- mails de spear- phishing.
 ?? ??

Newspapers in French

Newspapers from France