L’IN­TEL­LI­GENCE AR­TI­FI­CIELLE N’A PLUS RIEN D’AR­TI­FI­CIEL

L'Informaticien - - ÉDITO -

Il est crous­tillant de consta­ter que le 4e vo­let des aven­tures de la sé­rie Mil­le­nium, re­pris après la mort du créa­teur ori­gi­nal, Stieg Larson, fait de la sin­gu­la­ri­té tech­no­lo­gique l’un des res­sorts du roman. Concept an­cien, la sin­gu­la­ri­té si­gni­fie­rait que, à par­tir d’un point hy­po­thé­tique de son évo­lu­tion tech­no­lo­gique, la ci­vi­li­sa­tion hu­maine pour­rait connaître une crois­sance tech­no­lo­gique d’un ordre su­pé­rieur. Ce­la sup­po­se­rait donc que les ma­chines de­vien­draient plus in­tel­li­gentes que les hommes et dé­ci­de­raient donc elles-mêmes de leur propre ave­nir. L’un des prin­ci­paux sup­por­ters de ce mo­dèle est le cher­cheur Ray Kurtz­weil, mul­ti-in­ven­teur, membre du con­seil d’ad­mi­nis­tra­tion du MIT et, de­puis 2012, di­rec­teur de l’ingénierie chez Google. M. Kurtz­weil est éga­le­ment le co-fon­da­teur de la Sin­gu­la­ri­ty University dont le slo­gan est « Édu­quer, ins­pi­rer et don­ner les moyens aux lea­ders afin qu’ils ap­pliquent des tech­no­lo­gies ex­po­nen­tielles pour ré­pondre aux grands dé­fis de l’Hu­ma­ni­té ».

DES RÉSULTATS DÉ­JÀ SPEC­TA­CU­LAIRES

S’il existe une contro­verse sur le concept même, il existe éga­le­ment des dif­fé­rences d’ap­pré­cia­tion sur le mo­ment où elle pour­rait sur­ve­nir. Cer­tains parlent de 2030. Voi­ci quelques an­nées, une telle date ap­pa­rais­sait hau­te­ment fan­tai­siste mais la ra­pi­di­té des pro­grès tech­no­lo­giques, no­tam­ment dans le do­maine de l’In­tel­li­gence ar­ti­fi­cielle font que cer­tains ré­visent leur ju­ge­ment. 2015 et 2016 sont les an­nées où l’IA et ses com­po­santes sont sor­ties de l’ano­ny­mat des la­bo­ra­toires. De Google à IBM en pas­sant par Fa­ce­book, Mi­cro­soft, Bai­du, Apple et d’autres géants, sans ou­blier les uni­ver­si­tés du monde en­tier, l’IA est de­ve­nue le ter­rain de jeu fa­vo­ri des cher­cheurs informatiques. Et les résultats com­mencent à être spec­ta­cu­laires, d’au­tant plus que la com­plexi­té in­hé­rente tend à se fondre dans les usages. De ma­nière sous­ja­cente, les as­sis­tants Cor­ta­na, Si­ri ou Now in­tègrent de l’IA. Les tra­vaux sur les vé­hi­cules au­to­nomes em­barquent éga­le­ment ces no­tions et, de ma­nière gé­né­rale, la plu­part des ap­pli­ca­tions informatiques à ve­nir pos­sé­de­ront de telles com­pé­tences. Ces avan­cées sus­citent de l’in­quié­tude de la part d’in­dus­triels, les Elon Musk, Bill Gates, mais éga­le­ment de scien­ti­fiques de très haut vol, dont le Pr Ste­phen Haw­king, les­quels sou­lignent les dan­gers pos­sibles d’une IA échap­pant à tout contrôle. Un pro­blème in­verse est lié à l’in­com­pré­hen­sion des pou­voirs pu­blics face à la vi­tesse de ces tech­no­lo­gies et no­tam­ment l’IA. Un exemple ré­cent de ce dé­ca­lage est la dé­ci­sion de la com­mis­sion dé­lé­guée à la Sécurité rou­tière de Ca­li­for­nie qui vient de dé­cré­ter que les voi­tures sans conduc­teurs de­vraient être équi­pées de vo­lants, pé­dales et d’un… conduc­teur !, dont la fonc­tion es­sen­tielle se­ra de ne sur­tout pas conduire la voi­ture. Après avoir in­ves­ti des cen­taines de mil­lions de dol­lars dans ce pro­jet, Google n’a donc plus qu’à tout re­com­men­cer si cette dé­ci­sion est main­te­nue.

Sté­phane Lar­cher, di­rec­teur de la ré­dac­tion

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.