L’ap­pren­tis­sage pro­fond bou­le­verse les sciences

Pour dé­tec­ter les can­cers de la peau, ana­ly­ser des dis­tor­sions de l’es­pace-temps ou pré­dire des phé­no­mènes cli­ma­tiques ex­trêmes, les tech­niques d’in­tel­li­gence ar­ti­fi­cielle, et en par­ti­cu­lier l’ap­pren­tis­sage pro­fond, com­mencent à faire leurs preuves. Elles

La Recherche - - Sommaire - Gau­tier Ca­riou

Cet été, les mé­dias ont re­layé une in­for­ma­tion pour le moins an­gois­sante. Des in­gé­nieurs de Fa­ce­book ont été obli­gés de « dé­bran­cher » deux in­tel­li­gences ar­ti­fi­cielles qui avaient in­ven­té leur propre lan­gage pour com­mu­ni­quer, échap­pant au contrôle de leurs concep­teurs. La fa­çon de mettre en scène cet in­ci­dent, en gros­sis­sant le trait, est symp­to­ma­tique de la com­mu­ni­ca­tion au­tour de l’in­tel­li­gence ar­ti­fi­cielle, tan­tôt alar­miste, tan­tôt em­pha­tique, sou­vent exa­gé­rée. Si l’in­tel­li­gence ar­ti­fi­cielle fait au­tant par­ler d’elle, c’est parce qu’elle a fait un bond en avant ces der­nières an­nées, en par­ti­cu­lier grâce aux al­go­rithmes (*) d’ap­pren­tis­sage sta­tis­tique, ca­pables d’ex­traire des in­for­ma­tions per­ti­nentes de grandes bases de don­nées nu­mé­riques. Par­mi eux, une classe par­ti­cu­lière, les ré­seaux de neu­rones pro­fonds, a per­mis d’amé­lio­rer consi­dé­ra­ble­ment la re­con­nais­sance au­to­ma­tique de la pa­role, la re­con­nais­sance vi­suelle et le trai­te­ment du lan­gage. L’ap­pren­tis­sage pro­fond gagne au­jourd’hui du ter­rain dans les la­bo­ra­toires de re­cherche. Pas une se­maine ne passe sans qu’une étude ne soit pu­bliée sur le sujet : en astrophysique, les ré­seaux de neu­rones pro­fonds per­mettent d’ana­ly­ser des dis­tor­sions de l’es­pace-temps – ap­pe­lées len­tilles gra­vi­ta­tion­nelles – dix mil­lions de fois plus vite que des mé­thodes tra­di­tion­nelles (1) ; en mé­de­cine, ils per­mettent de dé­tec­ter au­to­ma­ti­que­ment des can­cers de la peau avec un ni­veau de cer­ti­tude équi­valent à ce­lui des der­ma­to­logues (2) ; en mé­téo­ro­lo­gie, ils aident à pré­dire les phé­no­mènes ex­trêmes ; en sciences cog­ni­tives, ils servent de mo­dèles pour étu­dier le dé­ve­lop­pe­ment cog­ni­tif. Le champ des pos­sibles semble ain­si ver­ti­gi­neux, trop peut-être. Au point de s’in­ter­ro­ger sur leurs vrais pou­voirs. Pour quels pro­blèmes scien­ti­fiques sont-ils vrai­ment utiles ? Quelles sont leurs li­mites ? À quel point vont-ils ré­vo­lu­tion­ner la science ? Une chose est claire : « Dès que vous avez beau­coup de don­nées dis­po­nibles, ce qui est le cas dans de nom­breux pro­blèmes scien­ti­fiques ac­tuels, les al­go­rithmes d’ap­pren­tis­sage pro­fonds sont par­ti­cu­liè­re­ment ef­fi­caces », ré­sume Sté­phane Mal­lat, cher­cheur en ma­thé­ma­tiques ap­pli­quées à l’École nor­male su­pé­rieure et ti­tu­laire de la nou­velle chaire de sciences des don­nées, qui dé­bu­te­ra au Col­lège de France en jan­vier pro­chain. Ef­fi­cace, d’ac­cord, mais pour faire quoi ? Pour réa­li­ser des pré­dic­tions ! Les al­go­rithmes d’ap­pren­tis­sage sta­tis­tique ne pré­disent pas l’ave­nir au sens lit­té­ral : ils se ré­fèrent à des cas connus du pas­sé pour ex­tra­po­ler à de nou­veaux cas. En lan­gage ma­thé­ma­tique, on dit que l’al­go­rithme réa­lise une opé­ra­tion de ré­gres­sion sur les don­nées. En pra­tique, ce­la se fait en deux étapes. D’abord, l’al­go­rithme est « en­traî­né » à réa­li­ser des

pré­dic­tions sur des di­zaines de mil­liers, voire des mil­lions d’exemples an­no­tés par des ex­perts hu­mains. En mé­de­cine, on en­traîne le ré­seau de neu­rones à re­con­naître des tu­meurs sur une base de don­nées consti­tuée de mil­liers d’images de scan­ner ayant fait l’ob­jet d’une ex­per­tise hu­maine préa­lable. Pour chaque image, des on­co­logues ont ain­si pré­ci­sé le type de tu­meur (bé­nigne, ma­ligne, etc.) et sa lo­ca­li­sa­tion. Grâce à ces nom­breux exemples, l’al­go­rithme ap­prend à éta­blir un lien ma­thé­ma­tique entre une en­trée X (l’image du scan­ner) et une sor­tie Y (le type de tu­meur et/ou sa lo­ca­li­sa­tion). Au terme de cet ap­pren­tis­sage dit « su­per­vi­sé », on four­nit au ré­seau de neu­rones pro­fond une nou­velle don­née d’en­trée X in­con­nue, c’es­tà-dire une nou­velle image de scan­ner. Lors de cette se­conde étape, il est en me­sure de pré­dire avec pré­ci­sion la sor­tieY – le type de tu­meur ou sa lo­ca­li­sa­tion. Ces al­go­rithmes sont uti­li­sés dans d’autres pro­blèmes. En chi­mie quan­tique, on peut en­traî­ner un ré­seau de neu­rones à faire le lien entre la confor­ma­tion spa­tiale d’une mo­lé­cule et son éner­gie. À par­tir de mil­liers d’exemples d’en­traî­ne­ment, le sys­tème est ain­si ca­pable d’es­ti­mer l’éner­gie d’une nou­velle mo­lé­cule si­mi­laire mais de confor­ma­tion in­con­nue. Ces al­go­rithmes se ré­vèlent éga­le­ment très utiles pour les pré­vi­sions mé­téo­ro­lo­giques (lire p. 45).

Ana­lo­gie avec le cer­veau

Dans le do­maine des sciences cog­ni­tives, l’ap­pren­tis­sage pro­fond s’avère éga­le­ment très pro­met­teur. Il n’est pas uti­li­sé comme un ou­til de pré­dic­tion, mais comme un mo­dèle de l’in­tel­li­gence hu­maine, la ques­tion étant : le cer­veau fonc­tionne-t-il de la même fa­çon que ces al­go­rithmes ? « Les ré­sul­tats sont mi­ti­gés, mais de fa­çon in­té­res­sante, ex­plique Em­ma­nuel Du­poux, di­rec­teur d’études à l’EHESS et res­pon­sable de l’équipe Cog­ni­tive Ma­chine Lear­ning du CNRS-In­ria, à l’École nor­male su­pé­rieure de Pa­ris. En ef­fet, les tra­vaux en vi­sion ar­ti­fi­cielle montrent que le “code neu­ral” des ré­seaux de neu­rones pro­fonds en­traî­nés à clas­ser des images pré­sente de grandes si­mi­la­ri­tés avec le code neu­ral en­re­gis­tré dans le cor­tex vi­suel du ma­caque. Et les er­reurs de clas­si­fi­ca­tion du ré­seau concordent dans une cer­taine me­sure avec celles faites par les hu­mains (3). » Par ailleurs, des tra­vaux en trai­te­ment au­to­ma­tique du lan­gage montrent qu’un ré­seau ex­ploi­tant la co-oc­cur­rence des mots dans un texte peut re­pro­duire des ju­ge­ments d’ana­lo­gie entre les mots, comme le fait que les mots « homme » et « femme » semblent être re­liés de la même fa­çon que « gar­çon » et « fille ». La si­mi­li­tude entre les ju­ge­ments hu­mains et ceux is­sus du mo­dèle sta­tis­tique laisse à pen­ser que le cer­veau hu­main réa­lise lui aus­si de tels cal­culs sta­tis­tiques. Tou­te­fois, l’ana­lo­gie avec le cer­veau hu­main a ses li­mites, qui font que l’ap­pren­tis­sage pro­fond n’est pas une so­lu­tion mi­racle pour les pro­blèmes scien­ti­fiques. « Les al­go­rithmes d’ap­pren­tis­sage pro­fond sont en ef­fet très ef­fi­caces lorsque les don­nées sont struc­tu­rées spa­tia­le­ment et tem­po­rel­le­ment, dé­taille Pierre-Marc Jo­doin, spé­cia­liste d’ap­pren­tis­sage pro­fond à

l’uni­ver­si­té de Sher­brooke, au Ca­na­da. C’est le cas des images, des textes ou des si­gnaux tem­po­rels, comme les élec­troen­cé­pha­lo­grammes. En re­vanche, dans le cas contraire, ils ne sont pas du tout adap­tés. En mé­de­cine, on de­mande sou­vent l’âge du pa­tient, son dé­bit san­guin, son sexe. Si ces don­nées peuvent être utiles pour un mé­de­cin, elles ne le sont pas pour ces mé­thodes d’ap­pren­tis­sage pro­fond, en par­ti­cu­lier pour les ré­seaux de neu­rones convo­lu­tion­nels (*). » Autre li­mite : les ré­seaux de neu­rones pro­fonds ne savent pas du tout s’adap­ter à la nou­veau­té. Les mé­thodes neu­ro­nales pro­fondes sont spec­ta­cu­laires quand on s’en tient à des si­tua­tions proches de celles ap­prises par le sys­tème. Mais dès qu’on s’en écarte si­gni­fi­ca­ti­ve­ment, les ré­sul­tats peuvent être ab­surdes. « Pour des tâches cog­ni­tives comme la re­con­nais­sance vi­suelle, un al­go­rithme peut ain­si don­ner des ré­sul­tats com­plè­te­ment dif­fé­rents de ceux des hu­mains si l’image qu’on lui four­nit est trop éloi­gnée de celles ap­prises lors de sa phase d’en­traî­ne­ment », re­con­naît Em­ma­nuel Du­poux. « Nous avons en ef­fet une ap­ti­tude à ré­soudre des pro­blèmes nou­veaux, car nous avons une plas­ti­ci­té cé­ré­brale qui n’existe pas chez la ma­chine, ajoute Pierre-Marc Jo­doin. Notre cer­veau évo­lue avec le temps au fil de nos ap­pren­tis­sages. La struc­ture de l’al­go­rithme, elle, ne change pas. Seuls ses pa­ra­mètres va­rient. » En outre, ces al­go­rithmes ont be­soin de très nom­breuses don­nées pour être ef­fi­caces, là où le cer­veau hu­main est très éco­nome. Un sys­tème de re­con­nais­sance de la pa­role comme ce­lui de nos smart­phones ap­prend à par­tir d’en­re­gis­tre­ments vo­caux de di­zaines de mil­liers d’heures et de textes de plus d’un milliard de mots. En com­pa­rai­son, un en­fant ap­prend à par­ler en uti­li­sant deux à vingt fois moins d’heures de pa­role, et sans texte. Par ailleurs, les al­go­rithmes d’ap­pren­tis­sage pro­fond peuvent être du­pés fa­ci­le­ment, comme l’a mon­tré l’équipe de Ian Good­fel­low, cher­cheur en in­tel­li­gence ar­ti­fi­cielle à l’uni­ver­si­té de Mont­réal. Après avoir chan­gé quelques pro­prié­tés dans des images, des cli­chés qui ap­pa­raissent à l’oeil hu­main comme un chien de­ve­naient des au­truches pour la ma­chine (4 ) ! « Le pro­blème est tel­le­ment grave et gé­né­ra­li­sé qu’il pose de sé­rieux pro­blèmes de sé­cu­ri­té in­for­ma­tique sur les tech­no­lo­gies uti­li­sant l’ap­pren­tis­sage pro­fond », si­gnale Em­ma­nuel Du­poux. Il suf­fit pour s’en convaincre d’ima­gi­ner les dé­gâts que cau­se­raient de telles ma­ni­pu­la­tions sur des sys­tèmes de pi­lo­tage de voi­tures au­to­nomes ou de diag­nos­tics mé­di­caux… Pour évi­ter ce genre d’écueils, les cher­cheurs es­saient donc de per­cer à jour le fonc­tion­ne­ment in­time des ré­seaux de neu­rones pro­fonds. Ils ne connaissent que dans les grandes lignes leur fa­çon de trai­ter l’in­for­ma­tion, ins­pi­rée du cor­tex vi­suel des mam­mi­fères. Ces neu­rones sont en fait des en­ti­tés in­for­ma­tiques qui re­pro­duisent de fa­çon très sim­pli­fiée l’ac­tion d’un neu­rone bio­lo­gique. Ils se comptent par mil­lions et sont or­ga­ni­sés en plusieurs couches, plus ou moins nom­breuses, dé­fi­nis­sant la pro­fon­deur du ré­seau.

Poids sy­nap­tique

Chaque neu­rone est do­té de plusieurs en­trées et d’une sor­tie par les­quelles tran­site l’in­for­ma­tion nu­mé­rique. Les en­trées des neu­rones de la pre­mière couche re­çoivent des in­for­ma­tions élé­men­taires des don­nées (dans une image, ce sont des tri­plets de nombres réels cor­res­pon­dant aux cou­leurs rouges, vertes ou bleues des pixels). La sor­tie des neu­rones est quant à elle connec­tée aux en­trées des neu­rones de la se­conde couche, eux-mêmes connec­tés à une troi­sième couche, etc. La connexion entre les neu­rones est dé­fi­nie par un nombre réel cor­res­pon­dant au « poids sy­nap­tique ». Ce­lui-ci dé­fi­nit la force de la connexion. Se­lon la va­leur de ce poids, les si­gnaux en­voyés entre deux neu­rones sont soit am­pli­fiés soit at­té­nués. Le che­mi­ne­ment de l’in­for­ma­tion à tra­vers le ré­seau, et donc la pré­dic­tion ef­fec­tuée par le ré­seau, dé­pend de la va­leur de ces poids sy­nap­tiques. Chaque couche du ré­seau

Les ré­seaux de neu­rones pro­fonds ne savent pas s’adap­ter à la nou­veau­té

de neu­rones traite ain­si une in­for­ma­tion d’un ni­veau de re­pré­sen­ta­tion crois­sante. Pour re­prendre l’exemple des images, la pre­mière couche ex­trait des ca­rac­té­ris­tiques simples, comme la cou­leur des pixels, la se­conde couche ex­trait des in­for­ma­tions d’ordre su­pé­rieur, comme les contours, la troi­sième des formes, et ain­si de suite jus­qu’au plus haut ni­veau de re­pré­sen­ta­tion – l’image dans son in­té­gra­li­té. Au terme du pro­ces­sus d’ap­pren­tis­sage et grâce à une opé­ra­tion d’op­ti­mi­sa­tion ap­pe­lée des­cente de gra­dient sto­chas­tique, le ré­seau re­çoit un re­tour sur ses er­reurs de pré­dic­tion. Il ajuste en consé­quence les mil­lions de poids sy­nap­tiques qui consti­tuent les noeuds de son ré­seau, ce qui lui per­met de réa­li­ser des pré­dic­tions d’une in­croyable jus­tesse. Mais pré­dire n’est pas com­prendre ! « Quand vous faites une pré­dic­tion, vous ne dé­ga­gez pas de loi fon­da­men­tale, vous n’avez pas d’ex­pli­ca­tion théo­rique du phé­no­mène », abonde Sté­phane Mal­lat. Or l’ob­jec­tif des sciences est avant tout d’ex­pli­quer les phé­no­mènes, d’éta­blir des théo­ries, même si la no­tion d’ex­pli­ca­tion est com­plexe et met sou­vent en jeux des ar­gu­ments sta­tis­tiques. En phy­sique quan­tique, par exemple, il existe un mo­dèle théo­rique très pré­cis ré­gi par les équa­tions de Schrö­din­ger. Mais les phy­si­ciens sont ca­pables de cal­cu­ler des so­lu­tions ex­pli­cites seule­ment pour des cas simples, tel ce­lui de l’atome d’hy­dro­gène. « Lors­qu’on veut étu­dier des sys­tèmes plus com­plexes comme le gra­phène, dans le­quel des mil­lions d’atomes in­ter­agissent, on n’est plus ca­pable de le faire grâce aux équa­tions de Schrö­din­ger, qui de­viennent beau­coup trop com­plexes, pré­cise Sté­phane Mal­lat. On uti­lise sou­vent des ana­lyses plus glo­bales de phy­sique sta­tis­tique, no­tam­ment fon­dées

sur les sy­mé­tries du sys­tème, et des phé­no­mènes de concen­tra­tion dus au grand nombre de va­riables en in­ter­ac­tion. Cette ap­proche sta­tis­tique a beau­coup de liens avec l’ap­pren­tis­sage, y com­pris ce­lui des ré­seaux de neu­rones. » Ce pro­blème de com­plexi­té ap­pa­raît dans d’autres do­maines scien­ti­fiques, tels que la mé­téo­ro­lo­gie, où les in­ter­ac­tions mises en jeu sont très nom­breuses. Et c’est là que les al­go­rithmes d’ap­pren­tis­sage pro­fond de­viennent in­té­res­sants. Car s’ils ne four­nissent pas d’ex­pli­ca­tion théo­rique, ils pour­ront po­ten­tiel­le­ment ai­der à af­fi­ner les pré­dic­tions en uti­li­sant une connais­sance dé­duite des évé­ne­ments mé­téo­ro­lo­giques du pas­sé. De même, si l’on est ca­pable de pré­dire l’éner­gie d’une mo­lé­cule en fonc­tion de sa con­fi­gu­ra­tion, alors on peut avoir ac­cès aux forces et donc sa­voir si la mo­lé­cule est stable, ce qui est une in­for­ma­tion fon­da­men­tale en phar­ma­co­lo­gie. Cette ap­proche pré­dic­tive a un autre avan­tage : elle est beau­coup moins gour­mande en temps de cal­cul qu’une mo­dé­li­sa­tion nu­mé­rique is­sue d’un mo­dèle théo­rique. Mais la science peut-elle se pas­ser de théo­rie ? En par­tant des don­nées plu­tôt que de l’éla­bo­ra­tion d’une théo­rie, n’as­sis­tons-nous pas à un ren­ver­se­ment de la dé­marche scien­ti­fique ? Dès 2008, le ré­dac­teur en chef de l’époque du ma­ga­zine amé­ri­cain Wi­red pu­bliait un ar­ticle à fort écho, dans le­quel il ex­pli­quait qu’avec le dé­luge de don­nées pro­duites chaque jour et ces ou­tils d’ap­pren­tis­sage sta­tis­tique, la dé­marche scien­ti­fique al­lait de­ve­nir ob­so­lète, que les al­go­rithmes per­met­traient aux connais­sances scien­ti­fiques d’émer­ger des don­nées. « Nous pou­vons dé­sor­mais ana­ly­ser les don­nées sans faire des hy­po­thèses sur ce qu’elles vont pro­duire, écri­vait Ch­ris An­der­son. Nous pou­vons je­ter les nombres dans le plus grand ré­seau d’or­di­na­teurs que le monde ait ja­mais vu et lais­ser les al­go­rithmes trou­ver les mo­dèles que la science n’ar­ri­vait pas à trou­ver. » Pré­sen­té de la sorte, on a l’im­pres­sion qu’il suf­fit de ga­ver l’al­go­rithme de don­nées pour qu’il trouve lui-même un mo­dèle ex­pli­ca­tif du monde. En­core une fois, la réa­li­té est plus com­plexe que ce­la. Les al­go­rithmes d’ap­pren­tis­sage sta­tis­tique, et en par­ti­cu­lier les ré­seaux de neu­rones pro­fonds, ne partent ja­mais de zé­ro. Ils pos­sèdent une forme de connais­sance a prio­ri du pro­blème scien­ti­fique qu’ils doivent ré­soudre. Cette connais­sance ap­pa­raît en fi­li­grane dans la struc­ture même de l’al­go­rithme. Le scien­ti­fique

Struc­tu­rer un al­go­rithme re­vient à éta­blir un mé­ta­mo­dèle ” Sté­phane Mal­lat, cher­cheur en ma­thé­ma­tiques ap­pli­quées

in­ter­vient donc à tra­vers la struc­tu­ra­tion du ré­seau de neu­rones, qui doit être adap­tée au pro­blème (pré­dic­tion mé­téo, diag­nos­tic mé­di­cal, jeu de go…). Il peut choi­sir d’ajou­ter des couches, d’en re­ti­rer, d’aug­men­ter le nombre de neu­rones, de faire va­rier les pro­prié­tés de li­néa­ri­té du ré­seau, etc. Il dé­ter­mine aus­si la fonc­tion d’éner­gie qui doit être mi­ni­mi­sée par la des­cente de gra­dient sto­chas­tique lors de la phase d’ap­pren­tis­sage. « Ces choix ne sont pas ano­dins, as­sure Sté­phane Mal­lat. Ils cor­res­pondent à cer­taines hy­po­thèses sur la na­ture du pro­blème. En fait, struc­tu­rer un al­go­rithme re­vient à éta­blir un mé­ta­mo­dèle, ce qui est ana­logue au tra­vail que le théo­ri­cien va four­nir pour dé­fi­nir son mo­dèle et le pa­ra­mé­trer ». L’al­go­rithme ne « trouve » donc pas seul des « mo­dèles que la science n’ar­ri­vait pas à trou­ver » .

Sy­mé­tries com­plexes

En quoi la struc­tu­ra­tion d’un al­go­rithme s’ap­pa­rente-t-elle à l’éla­bo­ra­tion d’un mo­dèle ? En phy­sique, en chi­mie, en bio­lo­gie ou en re­con­nais­sance des images et des sons, le tra­vail de mo­dé­li­sa­tion né­ces­site de sim­pli­fier les phé­no­mènes en sé­pa­rant les échelles et en construi­sant ce que l’on ap­pelle des mo­dèles hié­rar­chiques. Ce qui se passe aux échelles très fines (le pixel pour la re­con­nais­sance des images, l’atome pour l’étude des ma­té­riaux, le pho­nème pour la re­con­nais­sance de la pa­role) est sou­vent ana­ly­sé sé­pa­ré­ment des échelles plus larges (un ob­jet, une mo­lé­cule, un mot…) ou des échelles en­core plus larges (une scène, un ma­té­riau, une phrase…). Un en­jeu scien­ti­fique fon­da­men­tal est de com­prendre com­ment ces échelles in­ter­agissent pour sai­sir les pro­prié­tés des grands sys­tèmes, ceux qui in­té­ressent les scien­ti­fiques : les pro­prié­tés des ma­té­riaux, etc. Or la struc­tu­ra­tion des ré­seaux de neu­rones pro­fonds suit le même prin­cipe. La pro­fon­deur du ré­seau – le nombre de couches – est di­rec­te­ment liée à l’échelle à la­quelle il ana­lyse le phé­no­mène et agrège pro­gres­si­ve­ment l’in­for­ma­tion. « En ma­thé­ma­tiques, ces dé­com­po­si­tions en mul­tiples échelles cor­res­pondent à ce que l’on ap­pelle les “trans­for­mées en on­de­lettes ”, pré­cise Sté­phane Mal­lat. Et jus­te­ment, on re­trouve ces on­de­lettes dans les poids ap­pris par les ré­seaux de neu­rones. Mon équipe a ain­si cons­truit des ré­seaux de neu­rones en cal­cu­lant ma­thé­ma­ti­que­ment leurs poids avec des on­de­lettes, sans pas­ser par une phase d’ap­pren­tis­sage. Ces ré­seaux ob­tiennent des ré­sul­tats au meilleur ni­veau de l’état de l’art pour cer­tains pro­blèmes de chi­mie quan­tique, de clas­si­fi­ca­tion d’image ou d’ana­lyse au­dio (5). » La le­çon à ti­rer de cette étude est qu’il y a un bien un lien di­rect entre, d’un cô­té, la struc­tu­ra­tion et les poids des ré­seaux neu­rones et, de l’autre, les théo­ries ma­thé­ma­tiques ou phy­siques qui ex­pliquent les phé­no­mènes sous-ja­cents. L’énigme ma­jeure des ré­seaux de neu­rones pro­fonds reste de com­prendre pour­quoi ils sont si ef­fi­caces pour ré­soudre des pro­blèmes aus­si va­riés que la re­con­nais­sance des images, la pré­vi­sion mé­téo­ro­lo­gique, l’ana­lyse des élec­troen­cé­pha­lo­grammes, la chi­mie quan­tique, la cos­mo­lo­gie, ou même la phy­sique des par­ti­cules. En fait, cette ap­pa­rente di­ver­si­té ne fait que ca­cher des pro­prié­tés ma­thé­ma­tiques ana­logues d’un pro­blème à l’autre. En phy­sique, toute la théo­rie a été construite au­tour du concept de sy­mé­trie. Les pro­prié­tés des in­ter­ac­tions phy­siques peuvent en ef­fet se dé­duire des dif­fé­rents types de sy­mé­tries d’un sys­tème. Ain­si, quel que soit le temps ou le lieu où se trouve le sys­tème, les lois phy­siques qui s’ap­pliquent sur lui res­tent in­va­riantes. Et l’on re­trouve cette in­va­riance dans la re­con­nais­sance de la pa­role : quel que soit le mo­ment où un mot est pro­non­cé, le si­gnal au­dio cor­res­pon­dant res­te­ra le même. « Cette in­va­riance par trans­la­tion est im­po­sée par les ré­seaux de neu­rones pro­fonds “convo­lu­tion­nels ”, dans les­quels les poids sont iden­tiques pour des neu­rones trans­la­tés dans le ré­seau, ce qui sim­pli­fie l’ap­pren­tis­sage, ex­plique Sté­phane Mal­lat. Tou­te­fois, pré­dire un phé­no­mène né­ces­site de dé­cou­vrir ses autres sy­mé­tries, et il sem­ble­rait que les ré­seaux de neu­rones aient la ca­pa­ci­té d’ap­prendre des sy­mé­tries com­plexes. C’est pro­ba­ble­ment la rai­son pour la­quelle ces ré­seaux sont ef­fi­caces pour au­tant de pro­blèmes scien­ti­fiques a prio­ri dif­fé­rents. » Et si le vrai pou­voir de ces al­go­rithmes était de mettre en lu­mière cette uni­ver­sa­li­té de la science ?

(1) Y. D. He­za­veh et al., Na­ture, 548, 555, 2017. (2) A. Es­te­va et al., Na­ture, 542, 115, 2017. (3) D.L Ya­mins et J.J. Di­car­lo, Na­ture Neu­ros­cience, 19, 356, 2016. (4 ) C. Sze­ge­dy et al., ArXiv :1312 . 6199, 2013. (5) M. Hirn et al., Mul­tis­cale Mod. Sim., 15, 827, 2017.

Des en­tre­prises comme Fa­ce­book ont fait de la re­cherche en in­tel­li­gence ar­ti­fi­cielle une prio­ri­té. En té­moignent leurs in­fra­struc­tures : d’im­menses ser­veurs (pho­to du haut) do­tés de pro­ces­seurs gra­phiques (mé­daillon) ca­pables de réa­li­ser des cal­culs en pa­ral­lèle de fa­çon mas­sive.

L’in­tel­li­gence ar­ti­fi­cielle per­met d’ana­ly­ser de fa­çon très ra­pide les len­tilles gra­vi­ta­tion­nelles, des dis­tor­sions de l’es­pace-temps mon­trées ici par le té­les­cope spa­tial Hubble.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.