« La­mi­cro-élec­tro­ni­que­doit s’ ins­pi­rer des neu­ros­ciences»

Electronique S - - Sommaire - PRO­POS RECUEILLIS PAR FRÉ­DÉ­RIC RÉ­MOND

Bar­ba­ra De Sal­vo, di­rec­trice ad­jointe du CEA-Le­ti, ex­plique dans quelle me­sure une meilleure com­pré­hen­sion du fonc­tion­ne­ment du cer­veau hu­main peut ai­der à fa­çon­ner des se­mi-conduc­teurs plus per­for­mants et moins gour­mands en éner­gie. Y a-t-il un lien entre d’une part les sciences cog­ni­tives étu­diant le fonc­tion­ne­ment du cer­veau, et d’autre part l’intelligence ar­ti­fi­cielle dé­ployée au­jourd’hui dans un nombre crois­sant d’ap­pli­ca­tions in­for­ma­tiques et élec­tro­niques?

BAR­BA­RA DE SAL­VO Grâce no­tam­ment à l’ima­ge­rie neu­ro­nale qui en per­met la car­to­gra­phie non in­va­sive et in si­tu, nous en avons plus ap­pris sur le cer­veau au cours des der­nières dé­cen­nies que dans tout le reste de l’his­toire hu­maine. Les scan­ners à ré­so­nance ma­gné­tique nous ont per­mis de com­prendre dans quelle me­sure le cer­veau s’est or­ga­ni­sé pour op­ti­mi­ser l’es­pace et la consom­ma­tion d’éner­gie tout en maxi­mi­sant sa ro­bus­tesse et sa ca­pa­ci­té d’adap­ta­tion. Les neu­rones y sont struc­tu­rés en ré­seaux modulaires hié­rar­chi­sés, des mo­dules très denses au ni­veau lo­cal étant en­cap­su­lés dans des en­sembles de plus en plus grands (co­lonnes du cor­tex, lobes en­tiers) avec très peu de connexions glo­bales. En pa­ral­lèle, de­puis les an­nées 1950, se sont dé­ve­lop­pées les sciences cog­ni­tives vi­sant à éta­blir des mo­dèles ma­thé­ma­tiques re­pré­sen­tant le fonc­tion­ne­ment de l’intelligence. On est ain­si pas­sé du com­por­te­men­ta­lisme clas­sique (qui table sur le rôle pré­pon­dé­rant de l’en­vi­ron­ne­ment sur les mé­ca­nismes men­taux) au cog­ni­ti­visme qui as­si­mile la pen­sée à une ma­ni­pu­la­tion lo­gique de sym­boles re­pré­sen­tant des phé­no­mènes ex­té­rieurs, puis, dans les an­nées 1980, à l’émer­gence de mo­dèles connexion­nistes. Ces der­niers re­posent sur le trai­te­ment pa­ral­lèle de mo­tifs d’ac­ti­va­tion non sym­bo­liques uti­li­sant des pro­prié­tés sta­tis­tiques et non plus lo­giques, et ont abou­ti aux ré­seaux neu­ro­naux tels qu’ils sont au­jourd’hui uti­li­sés en in­for­ma­tique. À no­ter qu’au cours des der­nières an­nées, une nou­velle ap­proche dite de cog­ni­tion énac­tive tend à sup­pri­mer la dis­tinc­tion in­té­rieur/ ex­té­rieur, et ne consi­dère plus l’es­prit comme une en­ti­té sé­pa­rée de son en­vi­ron­ne­ment, mais comme un sys­tème bio­lo­gique en­ra­ci­né dans un corps et in­ter­agis­sant avec son en­vi­ron­ne­ment et avec d’autres in­di­vi­dus.

BAR­BA­RA DE SAL­VO Oui, prin­ci­pa­le­ment en po­sant les bases de ré­seaux neu­ro­naux ap­pre­nant à four­nir les bonnes ré­ponses en fonc­tion de sti­mu­li d’en­trée et de règles d’ap­pren­tis­sage. La puis­sance crois­sante des pro­ces­seurs élec­tro­niques (via des ar­chi­tec­tures de plus en plus pa­ral­lèles) as­so­ciée à la mise à dis­po­si­tion d’énormes sources de don­nées a par exemple fait ex­plo­ser les per­for­mances du ma­chine lear­ning. Au­jourd’hui, ces sys­tèmes nu­mé­riques égalent et par­fois dé­passent les ca­pa­ci­tés hu­maines pour des tâches comme la re­con­nais­sance d’images ou l’ana­lyse du lan­gage. Mais ces sys­tèmes sont au­jourd’hui li­mi­tés par leur forte hié­rar­chi­sa­tion : l’es­sen­tiel du trai­te­ment de don­nées - en par­ti­cu­lier l’ap­pren­tis­sage - est ef­fec­tué dans le cloud ou au sein de ser­veurs cen­tra­li­sés, pas aux ex­tré­mi­tés du ré­seau, contrai­re­ment, on l’a vu, à ce qui se passe dans le cer­veau. Il s’agit donc dé­sor­mais d’ap­por­ter l’intelligence au plus près des ex­tré­mi­tés où sont col­lec­tées les don­nées (ty­pi­que­ment ce que l’on en­globe dans le concept d’In­ter­net des ob­jets) et de per­mettre à ces ex­tré­mi­tés de prendre des dé­ci­sions lo­ca­le­ment et de ma­nière se­mi-

au­to­nome. C’est es­sen­tiel pour des rai­sons de sé­cu­ri­té (en cas de perte de la liai­son avec le coeur du ré­seau par exemple), de confi­den­tia­li­té (ne pas lais­ser les don­nées de l’uti­li­sa­teur sor­tir de son ap­pa­reil no­made), de bande pas­sante, de coût… L’intelligence doit être in­té­grée aux ob­jets connec­tés.

Mais, en l’état, les se­mi­con­duc­teurs ne sont pas ca­pables de dé­cen­tra­li­ser cette intelligence pour des rai­sons de per­for­mances et de consom­ma­tion…

BAR­BA­RA DE SAL­VO Ef­fec­ti­ve­ment. Les ef­forts sont no­tables, par exemple dans le dé­ve­lop­pe­ment d’ac­cé­lé­ra­teurs pour ré­seaux neu­ro­naux à convo­lu­tion, mais le bud­get éner­gé­tique ex­trê­me­ment ser­ré de la plu­part des ap­pa­reils no­mades ne per­met pas d’im­plé­men­ter les ar­chi­tec­tures ac­tuelles d’intelligence ar­ti­fi­cielle. Les pro­grès pré­vi­sibles de la mi­cro­élec­tro­nique (via la di­mi­nu­tion des géo­mé­tries) ne suf­fi­ront pas à com­bler cet écart, a for­tio­ri avec le ra­len­tis­se­ment de la loi de Moore. Rap­pe­lons que le cer­veau hu­main dis­pose d’une puis­sance de cal­cul équi­valent à en­vi­ron 1011Gops/W et ne consomme que 20 W! Il faut donc op­ter pour des struc­tures et tech­no­lo­gies in­no­vantes pour mettre au point des cir­cuits in­té­grés op­ti­mi­sés pour l’intelligence ar­ti­fi­cielle. Dès lors, il pa­raît na­tu­rel de s’ins­pi­rer des ar­chi­tec­tures ob­ser­vées dans le cer­veau pour trou­ver ces struc­tures élec­tro­niques neu­ro­mor­phiques à même d’ému­ler à par­tir de tech­no­lo­gies Cmos le com­por­te­ment de ré­seaux neu­ro­naux, no­tam­ment leur fonc­tion­ne­ment asyn­chrone ba­sé sur des i mpul­sions ( STPD, spi­ke­ti­ming-de­pendent-plas­ti­ci­ty)

Pou­vez-vous don­ner des exemples de struc­tures élec­tro­niques in­no­vantes qui se rap­prochent de concepts « bio­lo­giques » ob­ser­vées par les neu­ros­ciences?

BAR­BA­RA DE SAL­VO En termes de dis­po­si­tifs, on peut pen­ser aux tech­no­lo­gies de type FDSOI qui af­fichent in­trin­sè­que­ment une f ai ble consom­ma­tion et se prêtent à la concep­tion de cir­cuits ana­lo­giques fonc­tion­nant sous la ten­sion de seuil ( sub-thre­shold). Pour si­mu­ler les sy­napses, les mé­moires ré­sis­tives ou RRAM offrent plu­sieurs ca­rac­té­ris­tiques in­té­res­santes: faible consom­ma­tion, ca­pa­ci­té à prendre plus de deux va­leurs, non­vo­la­ti­li­té. Les opé­ra­tions de convo­lu­tion peuvent théo­ri­que­ment y être ef­fec­tuées di­rec­te­ment au ni­veau ma­té­riel dans les cel­lules de mé­moire, et non pas au ni­veau lo­gi­ciel comme dans le cas d’un pro­ces­seur gra­phique. Les connexions tra­ver­santes de type TSV ( through si­li­con vias) peuvent, elles, être uti­li­sées pour s’ap­pro­cher au­tant que faire se peut des ni­veaux d’in- ter­con­nexion tri­di­men­sion­nelle in­ouïs du cer­veau, où le cor­tex com­porte des mil­liards de neu­rones com­mu­ni­quant cha­cun par l ’ i nter­mé­diaire d’une di­zaine de mil­liers de sy­napses. Ces TSV per­mettent dé­jà la mise en oeuvre de mo­dules mul­ti­puces à per­for­mances éle­vées (ima­geurs à em­pi­le­ment, Mems, mé­moires ver­ti­cales), et l ’ ar­ri­vée de tech­no­lo­gies comme l’hy­brid bon­ding et l’in­té­gra­tion 3D mo­no­li­thique per­mettent d’at­teindre un pas de connexion de 1 μm, voire même de pas­ser sous la barre des 100 nm. En­fin, la pho­to­nique in­té­grée sur si­li­cium convien­drait à la com­mu­ni­ca­tion des im­pul­sions STDP en termes de den­si­té, de vi­tesse, de bande pas­sante et de ro­bus­tesse, mais ces concepts sont plus loin de l’in­dus­tria­li­sa­tion que les pré­cé­dents.

Quels as­pects doivent être tra­vaillés en prio­ri­té pour rap­pro­cher les com­por­te­ments des « cer­veaux » élec­tro­niques et du cer­veau hu­main?

BAR­BA­RA DE SAL­VO Au ni­veau théo­rique, notre com­pré­hen­sion des sys­tèmes connexion­nistes est en­core loin d’être com­plète. Leur com­plexi­té est telle qu’il est sou­vent dif­fi­cile de sa­voir quel pa­ra­mètre est res­pon­sable d’un gain de per­for­mance, et leur uti­li­sa­tion pour l’ap­pren­tis­sage, l’abs­trac­tion et la prise de dé­ci­sion de­meure ex­trê­me­ment li­mi­tée. Des mo­dèles plus com­pré­hen­sibles doivent donc être re­cher­chés. De même, les cir­cuits neu­ro­mor­phiques au­ront beau­coup à ga­gner de l’étude de sys­tèmes plus simples que le cer­veau hu­main. C’est d’au­tant plus vrai lorsqu’on cherche à dé­ve­lop­per des sys­tèmes phy­siques au­to­nomes et non plus cen­tra­li­sés. L’étude des in­sectes ap­pa­raît très pro­met­teuse à cet égard, afin d’élaborer des in­tel­li­gences ar­ti­fi­cielles sys­té­miques. En­fin, la mise au point d’in­ter­faces hy­brides entre des or­ga­nismes bio­lo­giques et des cir­cuits in­té­grés de­vrait jouer un grand rôle. La so­phis­ti­ca­tion gran­dis­sante des com­po­sants neu­ro­mor­phiques rend pos­sible ces connexions, et ain­si des ap­pli­ca­tions cli­niques concrètes pour le diag­nos­tic et le trai­te­ment, y com­pris de pro­thèses in­tel­li­gentes, se­ront en­vi­sa­geables dans le fu­tur.

BAR­BA­RA DE SAL­VO, di­rec­trice ad­jointe du CEA- Le­ti

“Les ar­chi­tec­tures bio­lo­giques ob­ser­vées dans le cer­veau peuvent sug­gé­rer des struc­tures élec­tro­niques in­no­vantes, no­tam­ment pour

ar­ti­fi­cielle. ” l’intelligence

< Bar­ba­ra De Sal­vo est res­pon­sable de la stra­té­gie et des orien­ta­tions de re­cherche à long terme du Le­ti, ain­si que des par­te­na­riats aca­dé­miques.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.