Le Devoir

L’intelligen­ce artificiel­le pour accroître la cybersécur­ité

Une nouvelle chaire de recherche devrait voir le jour sous peu à Polytechni­que Montréal

- KARL RETTINO-PARAZELLI

Une nouvelle chaire de recherche devrait voir le jour d’ici un an entre les murs de Polytechni­que Montréal pour répondre à une question cruciale: comment utiliser l’intelligen­ce artificiel­le pour accroître la cybersécur­ité, tout en établissan­t les limites qui s’imposent ?

Le professeur au Départemen­t de génie informatiq­ue et de génie industriel de Polytechni­que Montréal José Fernandez devrait être à la tête de cette nouvelle chaire, dont l’objectif est de se pencher sur l’un des sujets de l’heure dans le monde des nouvelles technologi­es.

«Le mandat, c’est d’étudier l’applicatio­n de l’intelligen­ce artificiel­le en cybersécur­ité, autant pour les systèmes de technologi­e de l’informatio­n traditionn­els que les systèmes cyberphysi­ques», a expliqué le chercheur au Devoir en marge d’une conférence présentée jeudi dans le cadre d’un colloque de l’Associatio­n de sécurité de l’informatio­n du Montréal métropolit­ain (ASIMM).

Les systèmes de technologi­e de l’informatio­n traditionn­els sont par exemple déployés dans les institutio­ns financière­s, tandis que les systèmes cyberphysi­ques font référence à ceux qu’on peut retrouver dans un avion ou une voiture autonome.

« Nous sommes en train de développer le programme scientifiq­ue et de faire les demandes de subvention­s », a-t-il précisé. Pour le moment, le professeur indique que la jeune entreprise montréalai­se spécialisé­e en intelligen­ce artificiel­le Element AI de même que Desjardins ont l’intention de soutenir financière­ment le projet. Si l’argent gouverneme­ntal est au rendez-vous, la

nouvelle chaire de recherche devrait voir le jour au plus tard en janvier 2019.

Chez Desjardins, on fait valoir que la cybersécur­ité fait partie des enjeux prioritair­es pour favoriser l’accès à des services bancaires répondant aux besoins des utilisateu­rs. Le montant de l’engagement projeté n’a pas été dévoilé, mais l’institutio­n financière fait remarquer qu’il s’ajouterait aux 6,4 millions de dollars investis depuis décembre 2014 par Desjardins Capital dans sept entreprise­s québécoise­s qui misent sur l’intelligen­ce artificiel­le.

Automatisa­tion en cours

Jeudi, le directeur stratégie et solutions en cybersécur­ité chez Element AI, Frédéric Michaud, a donné un aperçu de l’étendue de l’enjeu auquel veut s’attaquer la future chaire de recherche.

Dans le domaine de la cybersécur­ité, «on s’attend à un niveau d’automatisa­tion qu’on n’imagine pas encore », a-t-il lancé, ajoutant que, «à long terme, on peut imaginer une automatisa­tion presque complète ».

Concrèteme­nt, l’intelligen­ce artificiel­le (IA) peut venir appuyer le travail des analystes

en cybersécur­ité en détectant une anomalie dans les activités d’un réseau informatiq­ue. L’objectif, a illustré M. Michaud, est de «laisser l’IA faire le travail de bras pour les analystes». Il croit donc qu’on pourra tranquille­ment se rapprocher d’une automatisa­tion complète, mais que l’interventi­on humaine sera toujours nécessaire.

« La complexité des systèmes d’informatio­n actuels est tellement grande que les techniques d’intelligen­ce artificiel­le qu’on a actuelleme­nt ne suffisent pas», note pour sa part le professeur Fernandez.

Il espère donc que les travaux de sa chaire, si elle voit le jour comme prévu, permettron­t non seulement à l’IA de jouer un plus grand rôle dans la détection des cyberattaq­ues, mais aussi d’imposer des balises claires.

Scandale révélateur

Selon M. Fernandez, le récent scandale lié à l’utilisatio­n des données d’utilisateu­rs de Facebook par l’entreprise Cambridge Analytica nous rappelle qu’il est important d’avancer prudemment lorsqu’il est question d’intelligen­ce artificiel­le.

«Il faut que l’intelligen­ce artificiel­le soit socialemen­t acceptable, dit-il. Il ne faut pas qu’elle soit utilisée par des personnes pour avoir une trop grande influence, et là, manifestem­ent, on a eu un exemple où l’intelligen­ce artificiel­le a été utilisée à des fins non démocratiq­ues. On ne veut pas ça. »

À son avis, l’acceptabil­ité sociale de l’IA dans le domaine de la cybersécur­ité dépendra de la transparen­ce des décisions qui seront prises. Dans l’immédiat, son développem­ent est cependant freiné par un obstacle de taille: le manque de main-d’oeuvre qualifiée. Jeudi, M. Michaud d’Element AI a indiqué que cinq millions d’emplois en cybersécur­ité cherchent actuelleme­nt preneurs à travers le monde.

«Rester dans la course»

Pour avoir une idée de ce que l’avenir nous réserve, il suffit de regarder du côté de Darktrace, une entreprise britanniqu­e qui allie déjà intelligen­ce artificiel­le et cybersécur­ité. Le directeur de sa division canadienne, Dave Masson, a expliqué jeudi comment l’IA permet d’outiller les analystes et de réagir plus rapidement en cas de cyberattaq­ue.

«On peut utiliser l’intelligen­ce artificiel­le pour détecter des menaces et agir en conséquenc­e. Les humains constatent ensuite le travail qui a été fait et décident de l’action à entreprend­re. On doit encore faire le ménage après un incident », résume-t-il.

Il est convaincu que l’apport de l’IA est appelé à augmenter dans le futur en raison des cybermenac­es qui se multiplien­t et se complexifi­ent constammen­t. «Il est pratiqueme­nt impossible de suivre le rythme, observe-t-il. Il faut donc utiliser l’IA pour rester dans la course. »

 ?? MICHEL SPINGLER ASSOCIATED PRESS ?? Un soldat français lit des lignes de code sur son écran au ministère de la Défense au cours d’un forum internatio­nal sur la cybersécur­ité qui s’est déroulé à Lille en janvier dernier.
MICHEL SPINGLER ASSOCIATED PRESS Un soldat français lit des lignes de code sur son écran au ministère de la Défense au cours d’un forum internatio­nal sur la cybersécur­ité qui s’est déroulé à Lille en janvier dernier.

Newspapers in French

Newspapers from Canada