Serge Tis­se­ron ( psy­chiatre, doc­teur en psy­cho­lo­gie) : « Je plaide pour que soit re­con­nu le droit des hu­mains de sa­voir à tout mo­ment s’ils in­ter­agissent avec un hu­main ou une ma­chine »

L'Informaticien - - SOMMAIRE - PRO­POS RECUEILLIS PAR SYLVAINE LUCKX

Psy­chiatre, doc­teur en psy­cho­lo­gie, Serge Tis­se­ron, membre de l’Aca­dé­mie des Tech­no­lo­gies de­puis 2015, est très in­ves­ti dans la ré­flexion que l’Être hu­main en­tre­tient avec les tech­no­lo­gies. Au­teur de nom­breux ou­vrages, il est le pion­nier d’une ré­flexion sen­ti­nelle sur les pos­sibles dé­rives d’une So­cié­té confron­tée, de­puis la nu­mé­ri­sa­tion ga­lo­pante de notre quo­ti­dien, à une déshu­ma­ni­sa­tion ex­ces­sive.

VOTRE ES­SAI TRANCHE AVEC LE MYTHE DE L’HOMME ANÉAN­TI PAR LES ROBOTS ET L’IDÉE D’UNE IN­TEL­LI­GENCE AR­TI­FI­CIELLE SU­PÉ­RIEURE À L’IN­TEL­LI­GENCE HU­MAINE. EN SOI, C’EST PLU­TÔT RAS­SU­RANT. QU’EST- CE QUI A GUI­DÉ VOTRE RÉ­FLEXION QUI TEM­PÈRE DES CRAINTES SÉCULAIRES DONT LA SCIENCEFICTION S’EST ABONDAMMENT FAIT L’ÉCHO DE­PUIS DES DÉ­CEN­NIES ? ❚ Serge Tis­se­ron : De Ma­ry Shel­ley – Fran­ken­stein – aux films ré­cents, comme Her, de Spike Jonze, avec Joa­chin Pheo­nix et Scar­lett Jo­hans­son, en pas­sant par les au­teurs de science- fic­tion, on a sou­vent mis en scène les rap­ports troubles entre l’homme et la ma­chine. Les robots et les dé­ve­lop­pe­ments de l’IA nour­rissent, au­jourd’hui plus que ja­mais, la crainte an­ces­trale de l’Oc­ci­dent qu’un « double » puisse un jour dé­pas­ser son créa­teur, prendre conscience de sa su­pé­rio­ri­té et l’anéan­tir. Ces craintes doivent être prises au sé­rieux pour ce qu’elles nous disent de nos in­quié­tudes, même si elles ne sont pas scien­ti­fi­que­ment fon­dées compte te­nu de l’état de la tech­no­lo­gie. Il existe d’ores et dé­jà des IA plus per­for­mantes que l’homme dans des do­maines pré­cis, mais au­cune n’est po­ly­va­lente, c’est- à- dire ca­pable de s’adap­ter à toutes les si­tua­tions comme un Être hu­main le fait. Il fau­dra en­core beau­coup d’an­nées avant que l’IA n’in­tègre le ni­veau d’adap­ta­tion et d’au­to­no­mie que per­met une in­tel­li­gence « vi­vante » . D’au­tant plus que beau­coup de cher­cheurs sont hé­si­tants quant à l’op­por­tu­ni­té de don­ner à une IA de telles com­pé­tences. Pour­quoi créer à l’homme

un concur­rent dan­ge­reux ? Mais ces pro­blèmes, qui se­ront cer­tai­ne­ment es­sen­tiels de­main, ne doivent pas ser­vir de ri­deau de fu­mée pour nous ca­cher ceux qui se posent au­jourd’hui. VOUS SOULIGNEZ DE RÉELS DANGERS PSYCHIQUES POUR L’ÊTRE HU­MAIN SUR LES ÉVO­LU­TIONS RÉ­CENTES DE LA ROBOTISATION ET DES DÉ­VE­LOP­PE­MENTS DE L’IA. POU­VEZ- VOUS NOUS EN PAR­LER ? ❚ Le prin­ci­pal dont je parle dans cet es­sai est la « dis­so­nance cog­ni­tive » . Elle consiste à sa­voir par exemple qu’une plante, ou une ma­chine n’a pas d’émo­tions sem­blables à celles des hu­mains, mais à ne pas pou­voir s’em­pê­cher de se com­por­ter comme si elle en avait. La dis­so­nance cog­ni­tive est en lien avec la ten­dance qu’a l’hu­main de pro­je­ter ses émo­tions, ses sen­ti­ments et même par­fois ses pen­sées sur son en­vi­ron­ne­ment. Et ce­la ne date pas de l’in­for­ma­tique ! L’Être hu­main a tou­jours eu cette re­la­tion an­thro­po­morphe avec son en­vi­ron­ne­ment. Ce­la a per­mis à l’es­pèce hu­maine de s’adap­ter à son en­vi­ron­ne­ment. Ima­gi­ner que chaque nou­vel ob­jet ou créa­ture que les hommes ren­con­traient puisse ré­agir comme eux aux mêmes si­tua­tions était le seul et unique moyen dont ils dis­po­saient pour ten­ter d’an­ti­ci­per leurs ré­ac­tions, et donc s’y pré­pa­rer le mieux pos­sible. Jusque dans les an­nées soixante, on pen­sait que cette ten­dance était celle des « peuples pri­mi­tifs » et des en­fants. On pen­sait qu’en gran­dis­sant, l’homme ac­cé­dait à une pen­sée « ra­tion­nelle » . En réa­li­té, l’hu­main est tou­jours par­ta­gé entre la pen­sée an­thro­po­morphe, qui est fon­dée sur l’in­tui­tion, et la pen­sée ra­tion­nelle, qui est fon­dée sur le sens cri­tique. Cette ten­dance à pro­je­ter ses émo­tions et ses pen­sées sur les ob­jets do­tés de mou­ve­ments est par­fai­te­ment illus­trée par l’im­por­tance de nos pro­jec­tions sur les au­to­mates. Mais il ne faut pas confondre an­thro­po­mor­phisme et ani­misme. L’ani­misme est une at­ti­tude d’es­prit dans la­quelle une per­sonne ne se contente pas de pro­jec­tions an­thro­po­morphes, mais où elle croit à la réa­li­té de ses pro­jec­tions. Avec les robots, le risque d’ani­misme se­ra consi­dé­ra­ble­ment aug­men­té. En ef­fet, ces ma­chines se­ront les pre­mières à créer deux illu­sions com­plé­men­taires : avoir be­soin de nous pour évo­luer, et se sou­cier de nos be­soins et de nos dé­si­rs. Ces deux ca­rac­té­ris­tiques crée­ront l’illu­sion d’une ré­ci­pro­ci­té com­plète, au­tre­ment dit d’une re­la­tion to­ta­le­ment hu­maine. Et les deux lettres « IA » , pour In­tel­li­gence ar­ti­fi­cielle, pour­raient bien dé­si­gner bien­tôt « In­for­ma­tique ani­miste » ! CER­TAINS ROBOTS ONT DES RÉ­AC­TIONS QUA­SI- HU­MAINES… ❚ C’est ici que nous par­lons de « dis­so­nance cog­ni­tive » . Il s’agit de croire que la ma­chine au­rait « en réa­li­té » les com­pé­tences émo­tion­nelles et em­pa­thiques qu’il nous plaît de lui prê­ter.

VERS UN « DROIT » ET UNE « IDEN­TI­TÉ » SO­CIALE DES ROBOTS ?

Cer­tains in­for­ma­ti­ciens vont hé­las dans ce sens, comme avec le ro­bot So­phia, dont des vi­déos tentent de nous faire croire qu’il au­rait une pen­sée propre !

EN QUOI CETTE DÉ­RIVE EST- ELLE UN DAN­GER ? ❚ Pour plu­sieurs rai­sons. La pre­mière est le risque d’ou­blier qu’il y a un pro­gram­meur der­rière chaque ro­bot. Le risque est d’au­tant plus grand que tous les films de science- fic­tion tendent à nous pré­sen­ter des « robots au­to­nomes » , à com­men­cer par ceux de la sa­ga Star Wars, R2D2 et C- 3PO. Tous les deux sus­citent une ré­ac­tion im­mé­diate d’em­pa­thie. Cette em­pa­thie est la pre­mière marche qui mène à la dis­so­nance cog­ni­tive, c’est- à- dire vers le fait de sa­voir que le ro­bot n’est pas ca­pable en réa­li­té de cette au­to­no­mie, mais être ten­té de le croire mal­gré tout parce que ce­la nous per­met d’ou­blier le pro­gram­meur qui se cache der­rière, et de cé­der au plai­sir de croire à la ma­gie. Un se­cond risque de la dis­so­nance cog­ni­tive est de croire qu’un ro­bot pour­rait vrai­ment avoir des émo­tions, et donc souf­frir. Ce­la pour­rait ame­ner son uti­li­sa­teur à ris­quer sa propre vie pour lui évi­ter des dom­mages, alors qu’une pièce de ro­bot peut fa­ci­le­ment être chan­gée. C’est ce qui est ar­ri­vé à cer­tains sol­dats uti­li­sant des robots dé­mi­neurs. Ils dé­ve­loppent avec leur ma­chine une re­la­tion d’em­pa­thie telle, que lors­qu’elle est en­dom­ma­gée en opé­ra­tion, ils peuvent se dé­pri­mer, dé­ve­lop­per des dou­leurs so­ma­tiques aux en­droits où le ro­bot a été en­dom­ma­gé, ou de­man­der que « leur » ro­bot, s’il a été dé­truit, bé­né­fi­cie d’une cé­ré­mo­nie sem­blable à celle qui ac­com­pagne la mort d’un sol­dat en mis­sion. Exac­te­ment comme s’ils avaient per­du un « frère d’armes » au com­bat. Hé­las, au lieu de faire tout pour s’op­po­ser à cette ten­dance an­thro­po­morphe, cer­tains fa­bri­cants de robots et d’IA ont ten­dance à « hu­ma­ni­ser » leurs créa­tions, de fa­çon à en­cou­ra­ger l’at­ta­che­ment des usa­gers. D’au­tant plus que le lan­gage em­ployé pour par­ler des robots et de l’IA fait écran à la réa­li­té et porte sans cesse la confu­sion. On parle d’In­tel­li­gence ar­ti­fi­cielle, de ré­seaux de neu­rones, d’em­pa­thie ar­ti­fi­cielle, d’ap­pren­tis­sage ma­chine et d’au­to­no­mie alors que ces ex­pres­sions ne dé­si­gnent rien de com­pa­rable à ce qu’elles si­gni­fient chez l’homme. Ce ne sont que des mé­ta­phores. Le pro­blème est qu’ils risquent de nous ca­cher que ces ma­chines sont pro­gram­mées par des hu­mains pour nous sé­duire et nous in­fluen­cer. Par exemple, der­rière l’ex­pres­sion « d’hu­mour ma­chine » se cachent des cen­taines d’in­gé­nieurs, d’écri­vains, d’hu­mo­ristes, payés pour créer des di­zaines de mil­liers d’his­toires drôles dans les­quelles l’IA n’au­ra qu’à pio­cher pour créer l’illu­sion, chez son uti­li­sa­teur, que la ma­chine que nous avons ache­tée est en par­faite conni­vence avec nous. Le troi­sième risque est de pré­fé­rer des robots pré­vi­sibles à des hu­mains im­pré­vi­sibles. Au­tre­ment dit, nous rendre moins to­lé­rants au ca­rac­tère im­pré­vi­sible de l’hu­main, voire créer des formes de « ro­bot dé­pen­dance » . Et à un de­gré de plus, ce se­rait le risque de consi­dé­rer que les qua­li­tés des robots de­vraient de­ve­nir celles de l’hu­main. L’homme se­rait in­vi­té à se « ro­bo­ti­ser » !

EN SOMME, NOUS, HU­MAINS, POUR­RIONS ÊTRE SEN­SIBLES À LA CONDI­TION DE NOS ROBOTS ? ❚ C’est très bien illus­tré dans le film 2001, l’Odys­sée de l’Es­pace, réa­li­sé en 1968 par Stan­ley Ku­brick. Le ro­bot est une ma­chine. La preuve : pour la rendre inerte, il suf­fit de la débrancher. La ma­chine re­prend son sta­tut d’ob­jet in­ani­mé… et in­of­fen­sif. Dans 2001, « HAL » est un ro­bot ul­tra per­fec­tion­né qui est ca­pable d’émo­tions. Il a com­mis une er­reur et craint d’être dé­bran­ché. Il ré­pète : « J’ai peur » . Et il dé­cide de de­ve­nir to­ta­le­ment au­to­nome en tuant les as­tro­nautes. Mais l’un d’entre eux en ré­chappe et « dé­con­necte » pe­tit à pe­tit HAL en ne lui lais­sant que les cir­cuits in­dis­pen­sables à sa mis­sion. La « conscience » de HAL re­tourne aux pre­miers âges de l’en­fance – il se met à fre­don­ner des comp­tines – pen­dant que le son de sa voie ar­ti­fi­cielle, au dé­but très hu­maine et dé­so­lée, se dés­in­carne peu à peu avant de se taire. Pou­voir débrancher son ro­bot est un droit qui doit être re­con­nu et fa­ci­li­té. Mais quand on dé­branche Pep­per, le ro­bot hu­ma­noïde fa­bri­qué par l’en­tre­prise ja­po­naise Soft­bank, sa tête tombe et pend la­men­ta­ble­ment sur son torse comme s’il mou­rait su­bi­te­ment. Du coup, on éprouve un choc émo­tion­nel in­tense. La ten­ta­tion est alors de le lais­ser bran­ché en per­ma­nence pour évi­ter de le voir « mou­rir » . Ce­la pré­sente des risques.

QUELS TYPES DE RISQUES ? ❚ On en re­vient aux dangers de la « dis­so­nance cog­ni­tive » qui fait qu’un Être hu­main prête à une ma­chine une conscience « au­to­nome » qui n’existe pas. Cette ten­dance na­tu­relle à l’homme est plus ou moins im­por­tante chez cha­cun. Mais elle est aus­si sous la dé­pen­dance de ce qui nous est dit et mon­tré des robots. Dans le cas de Pep­per, il y a cette mise en scène de la mort su­bite quand on le dé­branche, mais il y a aus­si les cam­pagnes de pu­bli­ci­tés qui visent à nous faire croire qu’il au­rait des émo­tions vé­ri­tables. Le but est que la confiance que nous au­rons en ces ma­chines nous amène non seule­ment à les lais­ser bran­chées en per­ma­nence, mais aus­si à les prendre comme té­moins de nos confi­dences. En ef­fet, les coûts de Re­cherche et Dé­ve­lop­pe­ment sont tels sur ces ma­chines, qu’ils ne peuvent être amor­tis que par l’ex­ploi­ta­tion des in­for­ma­tions des uti­li­sa­teurs qu’elles stockent et re­vendent à des an­non­ceurs et à des en­tre­prises. Les don­nées sont hé­ber­gées sur des ser­veurs cen­traux aux­quels per­sonnes n’a ac­cès, et qui sont gé­rés par des en­tre­prises dont le but n’est pas le bien­fait de l’hu­ma­ni­té, mais le pro­fit des ac­tion­naires. On en re­vient au dé­bat sur les don­nées per­son­nelles que le scan­dale Cam­bridge Ana­ly­ti­ca et le Rè­gle­ment gé­né­ral de pro­tec­tion des don­nées ( RGPD) adop­té par l’Eu­rope

UN RO­BOT RESTE UNE MA­CHINE QU’ON DOIT POU­VOIR ÉTEINDRE ET DÉBRANCHER

ont mis en lu­mière ces der­niers mois. Cette prise de conscience bru­tale, que les Eu­ro­péens dé­fendent de­puis des an­nées, est in­dis­pen­sable. Que se pas­se­rait- il si les pro­grammes étaient conçus par des in­di­vi­dus mal­veillants au ser­vice de puis­sances to­ta­li­taires ou ter­ro­ristes ?

L’UTI­LI­SA­TION DES ROBOTS POSENT DES QUES­TIONS D’ÉTHIQUE : COMME CES ROBOTSSOLDATS DO­TÉS D’IA, ET DONT LA RUS­SIE ET AUS­SI LES ETATS UNIS DÉ­FENDENT SANS TROP LE DIRE LE DÉ­VE­LOP­PE­MENT, SOUS COU­VERT DE VOU­LOIR RÉ­DUIRE LES DÉ­PENSES MI­LI­TAIRES ET D’ÉPARGNER DES VIES HU­MAINES. CE­LA VOUS INS­PIRE QUOI ? ❚ Beau­coup de crainte. Pour les par­ti­sans des robots tueurs, il y a deux avan­tages. Le pre­mier est que les robots n’ont pas d’em­bal­le­ment émo­tion­nel, et qu’ils ne com­met­tront donc pas de « ba­vure » comme les sol­dats qui tuent des ci­vils sous l’ef­fet de la douleur et de la co­lère après la mort de l’un de leurs ca­ma­rades. Le se­cond avan­tage est que ces ma­chines ne fe­ront fi­na­le­ment qu’ap­pli­quer le pro­gramme que des hu­mains y au­ront ren­tré, mais plus ra­pi­de­ment que ne peut le faire un hu­main. Les robots tueurs ne sont en ef­fet que des au­to­mates pro­gram­més pour prendre exac­te­ment les dé­ci­sions qu’un homme pren­drait à leur place. Un ro­bot mu­ni d’armes lé­tales peut ain­si être pro­gram­mé pour ti­rer sur tout ce qu’il voit bou­ger, ou bien uni­que­ment sur les cibles émet­tant un spectre ther­mique iden­tique à ce­lui d’un être hu­main, etc. Mais ces deux ar­gu­ments sont fal­la­cieux. Tout d’abord, la ca­pa­ci­té des robots à prendre la bonne dé­ci­sion est, en l’état ac­tuel de l’IA, très mince. Un ro­bot n’a pas à l’heure ac­tuelle la ca­pa­ci­té de dis­tin­guer vé­ri­ta­ble­ment un sol­dat d’un civil, sur­tout si le sol­dat se dé­guise en civil. Il ne suf­fit pas qu’un ro­bot n’ait pas d’émo­tions pour que ses choix soient tou­jours bons ! Quant au se­cond ar­gu­ment, il est plus per­ni­cieux en­core. Le pro­blème est qu’à par­tir du mo­ment où l’homme sort de la boucle des dé­ci­sions, il peut être ten­té de pro­gram­mer ces ma­chines tueuses en ac­cep­tant des « dom­mages col­la­té­raux » plus im­por­tants, au­tre­ment dit un plus grand nombre de morts ci­vils, dans le but de mieux pro­té­ger ses in­té­rêts. Il n’a fait que ré­gler un al­go­rithme. C’est la ma­chine qui est res­pon­sable de tout le reste.

POUR­TANT, ON SOU­LIGNE BEAU­COUP D’UTILISATIONS TRÈS BÉ­NÉ­FIQUES À L’IA ET À LA RO­BO­TIQUE, NO­TAM­MENT DANS LE DO­MAINE DE LA MÉ­DE­CINE… ❚ Bien sûr. Si ces tech­no­lo­gies peuvent per­mettre à des mé­de­cins de po­ser un diag­nos­tic plus pré­cis, d’opé­rer mieux et de pal­lier le dé­sert mé­di­cal de cer­taines zones ru­rales, dif­fi­ciles d’ac­cès, c’est une bonne chose. L’Ins­ti­tut pour l’étude des re­la­tions homme robots ( IERHR), que j’ai fon­dé, a d’ailleurs te­nu son pre­mier col­loque en oc­tobre 2017 sur le thème « Ro­bo­tique et san­té men­tale » , et il y a été beau­coup ques­tion de l’uti­li­sa­tion des robots avec les en­fants souf­frant de troubles en­va­his­sants du dé­ve­lop­pe­ment et par les per­sonnes âgées. Mais comme dans toutes les évo­lu­tions ex­trê­me­ment ra­pides – celle- ci l’est –, il faut vite ins­tal­ler des gar­de­fous et des li­mites. VOUS ALERTEZ EN PRÔ­NANT L’INS­TAU­RA­TION DE GARDE- FOUS ET DE LI­MITES, POUR DON­NER DES RE­PÈRES DANS LA FA­MILLE ET LA SO­CIÉ­TÉ. LES­QUELS ? ❚ La pre­mière règle est de po­ser comme prin­cipe que les robots ne rem­placent les hu­mains que pour des tâches dans les­quelles il n’y a pas d’in­ter­ven­tion au­près d’hu­mains. Des tâches dan­ge­reuses, sales, ré­pé­ti­tives… Mais dès qu’il y a une re­la­tion, les robots doivent être des ou­tils comme les autres : ils doivent ac­com­pa­gner et ai­der le pro­fes­sion­nel, pour lui per­mettre de faire mieux avec eux ce qu’il fai­sait au­pa­ra­vant sans eux. C’est no­tam­ment le cas dans les do­maines mé­di­cal et sco­laire. Les me­sures né­ces­saires concernent trois do­maines : lé­gis­la­tif, tech­no­lo­gique et édu­ca­tif. Les me­sures lé­gis­la­tives portent sur les em­plois – for­ma­tion et re­con­ver­sion pro­fes­sion­nelle –, sur la vie pri­vée – connais­sance par l’uti­li­sa­teur de ses don­nées pré­le­vées et de leur uti­li­sa­tion –, sur l’éco­no­mie – condam­na­tion de l’ob­so­les­cence pro­gram­mée et ré­cu­pé­ra­tion / re­con­ver­sion des ob­jets tech­niques vieillis et aban­don­nés – et sur le res­pect du libre choix ; par exemple, de­man­der l’au­to­ri­sa­tion des pa­tients dans le cas d’uti­li­sa­tion thé­ra­peu­tique. Il faut aus­si in­ter­dire les pu­bli­ci­tés mensongères qui pré­tendent vendre des « émo robots » , au­tre­ment dit des robots qui se­raient ca­pables d’émo­tions. Et même peut- être in­di­quer sur les pu­bli­ci­tés, que nous al­lons bien­tôt voir, que les robots sont des ma­chines à si­mu­ler, un peu comme il est rap­pe­lé sur les pu­bli­ci­tés pour les pro­duits ali­men­taires qu’il faut bou­ger… Les me­sures tech­no­lo­giques doivent évi­ter les risques psychiques de dis­so­nance cog­ni­tive. Pour ce­la, il se­rait utile qu’une par­tie des pro­tec­tions des robots soit trans­pa­rente afin de rendre vi­sibles les cir­cuits élec­tro­niques et les câbles, ce qui leur donne le sta­tut de ma­chine. Et, bien en­ten­du, fa­vo­ri­ser la pos­si­bi­li­té de l’éteindre. En­fin, il faut bien évi­dem­ment édu­quer, dès le plus jeune âge, et sen­si­bi­li­ser. In­tro­duire des cours de pro­gram­ma­tion et de mon­tage et dé­mon­tage de robots dans les écoles, dès le pri­maire. Et, comme par­tout, c’est d’abord la cel­lule fa­mi­liale, cel­lule de base d’or­ga­ni­sa­tion de la So­cié­té, qui doit don­ner les pre­miers re­pères in­tan­gibles. Je plaide pour que soit re­con­nu le droit des hu­mains de sa­voir à tout mo­ment s’ils in­ter­agissent avec un hu­main ou une ma­chine. ❍

IL FAUT IN­TER­DIRE LES PU­BLI­CI­TÉS MENSONGÈRES QUI PRÉ­TENDENT VENDRE DES « ÉMO ROBOTS » , SOIT DI­SANT CA­PABLES D’ÉMO­TION

1997- 2000 Réa­li­sa­tion d’une étude sur les consé­quences des images vio­lentes sur les en­fants de 11 à 13 ans, sou­te­nue par les mi­nis­tères de la Culture, de la Fa­mille et de l’Édu­ca­tion na­tio­nale.

2015 Élu membre de l’Aca­dé­mie des tech­no­lo­gies. Serge Tis­se­ron a pu­blié une qua­ran­taine d’ou­vrages. Il est éga­le­ment pho­to­graphe et des­si­na­teur de bandes des­si­nées. www. ser­ge­tis­se­ron. com

2013 Fonde avec Frédéric Tor­do l’ins­ti­tut pour l’Étude des re­la­tions Hommes Ro­bot ( IERHR).

1978 à 1997 Pra­ti­cien hos­pi­ta­lier, fon­da­teur d’une uni­té mo­bile de soins pal­lia­tifs à l’hô­pi­tal de Ville­neuve- Saint- Georges.

Serge Tis­se­ron a pu­blié avant l’été un es­sai pa­ru aux Édi­tions Le Pom­mier, « Pe­tit trai­té de cy­ber­psy­cho­lo­gie, pour ne pas prendre les robots pour des mes­sies et l’IA pour une lan­terne » . Un constat alar­mant, mais pas alar­miste, qui doit éclai­rer une ré­flexion en­tre­pre­neu­riale et ci­toyenne sur ces su­jets en ébul­li­tion constante.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.