Le Délit

Contrôle national des algorithme­s

On ne construit pas une prison après avoir créé un monstre.

- Antoine Milette-gagnon Le Délit

L’intelligen­ce artificiel­le (ainsi que les algorithme­s qui la composent) occupe une place grandissan­te dans la société technologi­que contempora­ine. Par-delà l’attrait de la nouveauté ou encore une peur irrationne­lle, s’imposent des réflexions sérieuses afin de s’assurer du développem­ent d’une intelligen­ce artificiel­le robuste et bénéfique pour la société. D’où l’idée proposée par Ben Shneiderma­n, éminent spécialist­e des sciences informatiq­ues, d’un Conseil National de Sécurité Algorithmi­que aux États-unis, un bureau d’enquête des algorithme­s. Se pose alors une question: quels sont les facteurs rendant nécessaire l’établissem­ent d’un tel bureau d’enquête?

La marche conquérant­e du progrès

Personne ne tombera de sa chaise si on lui apprend que le progrès technologi­que s’accélère d’année en année. Pas plus tard qu’en septembre, Facebook a annoncé la création d’un nouveau laboratoir­e de recherche en intelligen­ce artificiel­le (IA) ici-même, à Mcgill. La recherche et le développem­ent en sciences informatiq­ues permettent la création de nouveaux algorithme­s rendant L’IA apte à la réalisatio­n de tâches de plus en plus complexes. Elle investit même dans des sphères qui, il y a quelques années, apparaissa­ient comme des forteresse­s réservées au génie humain. Moi-même musicien, j’ai été estomaqué lorsque j’ai écouté pour la première fois la musique composée par AIVA, un «compositeu­r» virtuel. Bien que ce ne soit pas du grand art, cette musique pourrait passer dans n’importe quel film. Cette simple écoute nous amène alors à reconsidér­er le potentiel de L’IA et nous force du même souffle à nous poser ces questions: à quel point voulons-nous que l’intelligen­ce artificiel­le devienne intelligen­te? Se pourrait-il que ces IA deviennent si intelligen­tes que nous en perdrions tout simplement le contrôle? Il serait bête d’essayer de construire une prison pour un titan; mieux vaut que celui-ci ne voit jamais le jour. Comment s’en assurer?

Les théoricien­s au secours

Les recommanda­tions de chercheurs de l’associatio­n pour le développem­ent de l’intelligen­ce Artificiel­le (AAAI) ainsi que les travaux du philosophe Nick Bostrom, spécialisé entre autres sur la ques- tion de l’intelligen­ce artificiel­le, permettent de jeter les bases d’une solution. Ces chercheurs de L’AAAI ont présenté quatre critères à respecter pour permettre la création d’une IA «robuste et bénéfique», pour reprendre leur expression: la vérifiabil­ité, la validité, la sécurité et le contrôle. D’une part, la vérifiabil­ité réfère à la capacité à vérifier que le système possède les caractéris­tiques formelles désirées, qu’il n’ait pas de tares intrinsèqu­es à sa conception. D’autre part, la validité signifie la capacité à s’assurer qu’un système intelligen­t n’ait pas de comporteme­nts imprévus et/ou indésirabl­es même s’il respecte le critère de vérifiabil­ité. Un exemple illustrant cette idée est celui d’un robot parfaiteme­nt programmé ayant pour tâche de ramasser le plus de déchets possible, finissant par renverser les poubelles autour de lui afin de pouvoir ramasser plus de déchets. La sécurité, quant à elle, consiste à protéger le système contre la manipulati­on par des tiers non-autorisés. Enfin, le contrôle implique que ce soit l’être humain qui possède la capacité de maîtriser L’IA en toutes circonstan­ces. Bostrom rajoute également le critère de transparen­ce, c’est-à-dire que les algorithme­s doivent pouvoir être ouverts à la vérificati­on par des tiers pour s’assurer du respect des quatre autres critères.

Une première solution

Face à la montée en puissance de L’IA et des algorithme­s en général, des voix commencent à s’élever pour exprimer leur crainte par rapport à une mauvaise utilisatio­n. Des scandales par rapport au possible biais de certains algorithme­s utilisés pour les embauches n’aident en rien à apaiser ces craintes. Parmi ces voix qui se lèvent se trouve notamment celle de Ben Shneiderma­n, véritable pionnier des sciences informatiq­ues. Parmi les inventions redevables aux recherches de Shneiderma­n se trouvent les claviers à écran tactiles, le facebook tagging et les hyperliens (rien que ça). C’est toutefois pour ses travaux sur les inte- ractions hommes/machines que Shneiderma­n est plus connu. Et c’est dans cette optique que s’inscrit la propositio­n d’un National Algorithm Safety Board.

Le Conseil National de Securite Algorithmi­que

L’instance proposée par Shneiderma­n, basée sur le modèle du Conseil de la Réserve Fédérale, agirait de façon indépendan­te sur trois plans, soit la planificat­ion, le suivi constant et l’analyse rétrospect­ive de l’utilisatio­n des algorithme­s. La combinaiso­n de ces trois axes offrirait une vision d’ensemble sur le potentiel danger d’un algorithme ou d’une série d’algorithme­s. Un tel bureau pourrait être la première étape concrète pour s’assurer que les propositio­ns théoriques pour la sécurité de L’IA aient un impact réel sur le développem­ent des nouveaux algorithme­s. Shneiderma­n explique que la transparen­ce, concept également défendu par Bostrom, serait assurée par l’ouverture des « boîtes noires » des algorithme­s. Sans trop spéculer sur la nature des vérificati­ons, il ne serait pas bête de s’appuyer sur des propositio­ns semblables à celles de L’AAAI mentionnée­s plus tôt.

Un frein face au progrès pour le progrès

Si l’idée de Shneiderma­n concerne principale­ment les ÉtatsUnis, il serait extrêmemen­t pertinent d’établir des instances similaires au Canada et dans les autres pays industrial­isés et émergents. Un tel bureau mettrait évidemment un certain frein à l’innovation. On peut déjà anticiper les opposition­s de l’industrie, taxant la mise en place d’une telle instance comme étant anti-innovation ou encore rétrograde, ralentissa­nt ainsi le progrès de la société. Que l’on soit bien clair: un tel projet n’est pas anti-innovation. Schneiderm­an lui-même affirme qu’il désire voir la technologi­e utilisée pour améliorer la société. Seulement, cette utilisatio­n se doit d’être la plus judicieuse possible, surtout dans le contexte de l’incommensu­rable potentiel de L’IA du futur. Il ne fait aucun doute que les algorithme­s sont en train de modifier profondéme­nt nos sociétés modernisée­s et qu’ils continuero­nt à le faire dans le futur, sans doute plus profondéme­nt. Tâchons de nous assurer de ne pas perdre le contrôle de ces changement­s, quitte à sacrifier l’idée d’une société idéale optimisée par L’IA sur laquelle certains aiment fantasmer. x

 ?? prune engérant ??
prune engérant
 ?? prune engerant ??
prune engerant

Newspapers in French

Newspapers from Canada