L’in­tel­li­gence ar­ti­fi­cielle contre les cy­be­rat­taques

Face à l’ex­plo­sion des cy­be­rat­taques et à la pé­nu­rie de spé­cia­listes, l’in­tel­li­gence ar­ti­fi­cielle as­siste de plus en plus les hu­mains. Elle pour­rait même les sup­plan­ter d’ici cinq à dix ans.

Les Echos - - LA UNE - Pros­pec­tive par Jacques Hen­no

Face à l’ex­plo­sion des cy­be­rat­taques, l’in­tel­li­gence ar­ti­fi­cielle as­siste de plus en plus les hu­mains, constate Jacques Hen­no. Elle pour­rait même les sup­plan­ter d’ici de cinq à dix ans, pro­fi­tant d’une pé­riode où, faute de cur­sus uni­ver­si­taires adap­tés, le monde manque cruel­le­ment de spé­cia­listes pour faire face à ce fléau.

Les res­pon­sables de la sé­cu­ri­té in­for­ma­tique des grands groupes et des ad­mi­nis­tra­tions sont au bord de la noyade : ils doivent se dé­fendre de cy­be­rat­taques de plus en plus nom­breuses et so­phis­ti­quées, mais manquent de spé­cia­listes. En 2015, 8,19 mil­liards d’at­taques avec des « mal­wares » (lo­gi­ciels mal­veillants) avaient été re­pé­rées par le construc­teur in­for­ma­tique Dell, soit qua­si­ment le double de l’an­née pré­cé­dente. Et le pi­ra­tage peut prendre des formes in­at­ten­dues : trois cher­cheurs sin­ga­pou­riens ont dé­mon­tré qu’il était pos­sible de dé­tour­ner les don­nées en­voyées à une im­pri­mante connec­tée en wi-fi, vers... un drone équi­pé d’un smart­phone ! Pour se pro­té­ger, en­tre­prises et Etats cherchent donc à em­bau­cher. Entre 2014 et 2016, le nombre d’offres d’em­ploi en cy­ber­sé­cu­ri­té dif­fu­sées par l’Apec (As­so­cia­tion pour l’em­ploi des cadres) a été mul­ti­plié par quatre. Mais faute de cur­sus uni­ver­si­taires adé­quats, les can­di­dats ne se pré­ci­pitent pas…

Pour pa­rer à ce dé­fi­cit de com­pé­tences, cer­tains spé­cia­listes pa­rient sur le dé­ve­lop­pe­ment de l’in­tel­li­gence ar­ti­fi­cielle (IA) dans la cy­ber­sé­cu­ri­té. Ils ap­prennent à de nou­veaux sys­tèmes d’IA non seu­le­ment à dé­ce­ler les at­taques en cours à par­tir de si­gnaux faibles (une im­pri­mante si­gna­lée comme dé­faillante par exemple), mais aus­si à pré­dire les vé­ri­tables ob­jec­tifs des ha­ckeurs. D’autres en­sei­gnants, comme Joa­chim Meyer, de l’uni­ver­si­té de Tel-Aviv, en Is­raël, tra­vaillent sur les in­ter­faces qui per­met­tront une col­la­bo­ra­tion ef­fi­cace avec les hu­mains. « Par exemple, à par­tir de quel ni­veau d’alerte l’IA se­ra-t-elle au­to­ri­sée à dé­bran­cher des or­di­na­teurs at­ta­qués ? » dé­taille Joa­chim Meyer. « Au­jourd’hui, ce genre de dé­ci­sion re­vient à un hu­main, mais dans cinq ans ce ne se­ra plus le cas » , pré­dit Axel Le­gay, res­pon­sable de l’équipe Ta­mis (dé­ve­lop­pe­ment et test de cy­ber­tech­niques d’at­taque et de dé­fense) au sein dd l’In­ria, à Rennes.

Une pre­mière forme d’in­tel­li­gence ar­ti­fi­cielle est dé­jà lar­ge­ment uti­li­sée. « Nous dis­po­sons de mo­dules au­toap­pre­nants pour l’ana­lyse des “logs” de connexion de­puis bien­tôt cinq ans, rap­pelle Yan­nick Del­mont, res­pon­sable de la sé­cu­ri­té chez Cla­ra­net (hé­ber­ge­ment de sites Web, ser­vices de cloud et de cy­ber­sé­cu­ri­té). Ces ou­tils sur­veillent en per­ma­nence les ré­seaux, trient les in­ci­dents re­pé­rés et ne font re­mon­ter que les plus im­por­tants. » Même s’il y a en­core beau­coup de faux po­si­tifs, le tra­vail des ana­lystes s’en trouve sim­pli­fié.

Sto­ckage, ana­lyse, in­ter­pré­ta­tion

De­puis quelques mois, de nou­veaux ou­tils sont ve­nus les ai­der. Grâce à l’aug­men­ta­tion constante des ca­pa­ci­tés de sto­ckage et des puis­sances de cal­cul, l’in­tel­li­gence ar­ti­fi­cielle peut ava­ler de plus en plus de do­cu­ments dis­po­nibles sur le Web, faire le lien avec des évé­ne­ments en cours et pro­po­ser une in­ter­pré­ta­tion aux in­gé­nieurs. « Wat­son a in­gé­ré plus de 1 mil­lion de do­cu­ments de sé­cu­ri­té et tient compte de quelque 100.000 mises à jour par se­maine, cal­cule Agniesz­ka Bruyère, di­rec­trice de l’en­ti­té ser­vices de sé­cu­ri­té d’IBM France. Mais c’est juste un as­sis­tant : les ana­lystes doivent dé­ci­der sur la base de ces in­for­ma­tions et de leur ex­pé­rience. »

Cer­tains experts pensent que, dans quelques an­nées, l’IA sup­plan­te­ra to­ta­le­ment l’hu­main dans le do­maine de la cy­ber­sé­cu­ri­té. « C’est clai­re­ment l’ob­jec­tif des pro­grammes de re­cherche fi­nan­cés par les gou­ver­ne­ments amé­ri­cain, chi­nois et russe » , pré­vient Ro­man Yam­pols­kiy, di­rec­teur du la­bo­ra­toire de cy­ber­sé­cu­ri­té à l’uni­ver­si­té de Louis­ville (Ken­tu­cky), aux Etats-Unis. Dans l’Hexa­gone, l’Ans­si (Agence na­tio­nale de la sé­cu­ri­té des sys­tèmes d’in­for­ma­tion) sou­tient la thèse qu’une étu­diante, Anaël Bon­ne­ton, consacre à la dé­tec­tion des in­tru­sions avec des mé­thodes de « ma­chine lear­ning » (ap­pren­tis­sage au­to­ma­tique). « Ces tech­no­lo­gies au­toap­pre­nantes ouvrent des pers­pec­tives in­té­res­santes, mais il fau­dra me­ner de nom­breuses ex­pé­ri­men­ta­tions ter­rain avant de les ap­pli­quer à des sys­tèmes com­plexes in­dus­triels ou de trans­port » , re­la­ti­vise Gilles De­so­blin, di­rec­teur du pro­gramme In­ter­net de Confiance, chez Sys­temX, un ins­ti­tut de re­cherche tech­no­lo­gique (IRT) ins­tal­lé à Pa­ris-Sa­clay et spé­cia­li­sé dans la trans­for­ma­tion nu­mé­rique. « Res­tons mo­destes : même si les pre­mières ap­pli­ca­tions sont très en­cou­ra­geantes, il fau­dra faire en­core pas mal de re­cherche et dé­ve­lop­pe­ment avant que l’IA à base de “deep lear­ning” ne de­vienne aus­si cou­rante que les an­ti­vi­rus d’au­jourd’hui » , confirme Eric Bou­lay, di­rec­teur exé­cu­tif d’Ac­cen­ture Se­cu­ri­ty pour la France et le Be­ne­lux.

Les li­mites des sys­tèmes au­toap­pre­nants

D’ores et dé­jà, des cher­cheurs s’in­quiètent des nouvelles fra­gi­li­tés qu’in­dui­rait une trop grande confiance dans l’IA. « Je pense qu’il faut être pru­dent, ne pas confier toute la cy­ber­sé­cu­ri­té à des sys­tèmes au­toap­pre­nants, es­time Vé­ro­nique Le­grand, pro­fes­seur ti­tu­laire de la chaire de sé­cu­ri­té in­for­ma­tique au Con­ser­va­toire na­tio­nal des arts et mé­tiers. Ces al­go­rithmes ap­prennent à par­tir des don­nées mas­sives (Big Da­ta), les at­ta­quants pour­raient in­jec­ter des don­nées er­ro­nées afin qu’ils ap­prennent mal et de­viennent in­ef­fi­caces ou er­ra­tiques. » Avec plu­sieurs col­lègues, Dawn Song, pro­fes­seur au dé­par­te­ment d’élec­tro­tech­nique et d’in­for­ma­tique de l’uni­ver­si­té de Ber­ke­ley, en Ca­li­for­nie, a dé­mon­tré que les sys­tèmes au­toap­pre­nants pou­vaient être fa­ci­le­ment trom­pés : par exemple, il suf­fit d’in­tro­duire une mo­di­fi­ca­tion, im­per­cep­tible pour l’oeil hu­main, dans la pho­to d’un pan­neau rou­tier de Stop pour que l’IA l’iden­ti­fie comme un Cé­dez le pas­sage. « Ce genre d’at­taque – dite contra­dic­toire – est fré­quent au­jourd’hui » , ré­vèle Dawn Song.

En 2015, 8,19 mil­liards d’at­taques avec des « mal­wares » avaient été re­pé­rées par Dell, soit qua­si­ment le double de l’an­née pré­cé­dente.

Une so­lu­tion pour­rait être de faire tour­ner en pa­ral­lèle plu­sieurs in­tel­li­gences ar­ti­fi­cielles. « Les lo­gi­ciels que nous tes­tons ac­tuel­le­ment chez nos clients mettent en concur­rence 12 sys­tèmes au­toap­pre­nants » , af­firme Dave Pal­mer, di­rec­teur tech­nique de Dark­trace, un édi­teur bri­tan­nique spé­cia­li­sé dans la cy­ber­sé­cu­ri­té. « Res­te­ra à s’as­su­rer que le sys­tème d’IA qui ef­fec­tue­ra l’ar­bi­trage fi­nal n’au­ra pas été lui-même com­pro­mis » , s’in­quiète Joa­chim Meyer.

Autre hypothèse : les IA de­vien­dront tel­le­ment ef­fi­caces que les pi­rates ne pour­ront plus pas­ser par In­ter­net. Ils de­vront alors re­cou­rir à de bonnes vieilles mé­thodes, comme le chan­tage, pour obli­ger des hu­mains à re­co­pier ou com­pro­mettre des fi­chiers…

Pho­to DR

La dé­ci­sion de dé­bran­cher un or­di­na­teur à un cer­tain ni­veau d’alerte ap­par­tient à un hu­main mais, dans 5 ans, l’IA pour­rait être au­to­ri­sée à le faire.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.