« La vi­sion in­dus­trielle s’ouvre à de nou­velles ap­pli­ca­tions »

Mesures - - Front Page - Pro­pos re­cueillis par Pas­cal Coutance

Réunis par la re­vue­me­su­res­dans le cadre d’une table ronde lors de la der­nière édi­tion du sa­lon Eno­va, qui s’est te­nu dé­but oc­tobre à Pa­ris, Phi­lippe Ber­ger, di­rec­teur du dé­ve­lop­pe­ment de l’ac­ti­vi­té «au­to­ma­ti­sa­tion in­dus­trielle» de Pro­phe­see, Ar­naud Des­truels, di­rec­teur mar­ke­ting Eu­rope de la di­vi­sion «Image Sen­sing So­lu­tions» de So­ny, et Da­mien Le­grand, res­pon­sable des pro­jets de sys­tèmes de vi­sion chez ifm elec­tro­nic, ont ex­po­sé les avan­cées ac­tuelles dans le do­maine de la vi­sion in­dus­trielle et don­né quelques exemples de nou­velles ap­pli­ca­tions en la ma­tière.

Me­sures. Quelles grandes ten­dances tech­no­lo­giques avez-vous consta­té ces der­nières an­nées dans le do­maine de la vi­sion in­dus­trielle? Ar­naud Des­truels. Si je ne de­vais re­te­nir qu’une ten­dance au ni­veau des cap­teurs de vi­sion in­dus­trielle, ce se­rait la tran­si­tion qui a consis­té à pas­ser du cap­teur CCD à l’avè­ne­ment du cap­teur Cmos, très ré­pan­du dans le do­maine grand pu­blic, mais dont l’évo­lu­tion tech­no­lo­gique lui a éga­le­ment per­mis de ré­pondre aux be­soins de di­vers do­maines et ap­pli­ca­tions in­dus­trielles. On as­siste éga­le­ment à la mise en avant de cer­tains cap­teurs spé­ci­fiques qui per­mettent, par exemple, de trou­ver des élé­ments, des dé­tails à l’in­té­rieur même d’une image et, plus glo­ba­le­ment, tous les élé­ments dont on a be­soin pour ex­traire des in­for­ma­tions per­ti­nentes avec les ca­mé­ras équi­pées de ces nou­veaux types de cap­teurs. Phi­lippe Ber­ger. Avec l’ac­crois­se­ment des ré­so­lu­tions et des ca­dences des cap­teurs, la quan­ti­té de don­nées à trai­ter aug­mente de ma­nière im­por­tante, et je pense que tout ce qui concourt à ré- duire cette quan­ti­té de don­nées consti­tue une ten­dance im­por­tante à consi­dé­rer. C’est pour­quoi, chez Pro­phe­see, nous nous sommes in­té­res­sés à la trans­mis­sion des in­for­ma­tions per­ti­nentes d’une image en se concen­trant uni­que­ment sur les évé­ne­ments et les chan­ge­ments d’une scène spé­ci­fique re­cueillie par le cap­teur. Ce­la per­met de di­mi­nuer la quan­ti­té de don­nées à trans­mettre et à ana­ly­ser. Da­mien Le­grand. La vi­sion 3D est clai­re­ment une ten­dance à prendre en consi­dé­ra­tion dans des ap­pli­ca­tions liées

à la per­cep­tion d’un en­vi­ron­ne­ment ou lorsque l’on va réa­li­ser des opé­ra­tions de contrôle. Chez ifm elec­tro­nic, nous ne sommes pas fa­bri­cants de cap­teurs, mais de­si­gner fa­bless au tra­vers d’une fi­liale qui nous ap­par­tient à 100 %, et nous sommes en ca­pa­ci­té de pro­duire une tech­no­lo­gie qui per­met de dé­tec­ter l’en­vi­ron­ne­ment aus­si bien dans des té­lé­phones por­tables que dans des AGV [ Au­to­no­mous Gui­ded Ve­hi­cule, ou ro­bot mo­bile au­to­nome, ndlr] uti­li­sés dans les ate­liers de lo­gis­tique ou cer­taines uni­tés de pro­duc­tion in­dus­trielles. Grâce aux cap­teurs de vi­sion 3D, les AGV peuvent na­vi­guer dans un ate­lier de lo­gis­tique grâce à des fonc­tion­na­li­tés de per­cep­tion de l’en­vi­ron­ne­ment, d’an­ti-col­li­sion. Ce type de so­lu­tions de vi­sion 3D ap­porte vrai­ment beau­coup dans le do­maine de la lo­gis­tique. C’est aus­si le cas dans le sec­teur agri­cole, par exemple dans le do­maine des ma­chines à ven­dan­ger qui peuvent être do­tées d’un sys­tème de gui­dage au­to­nome à par­tir de cette même tech­no­lo­gie. Bien en­ten­du, ici, les pro­duits sont dif­fé­rents, les pro­blé­ma­tiques sont dif­fé­rentes, en par­ti­cu­lier pour ce qui concerne la te­nue aux fortes va­ria­tions de tem­pé­ra­ture, aux chocs et aux vi­bra­tions. Dans ce cas-là, nous ne sommes pas dans la pré­ci­sion, mais da­van­tage dans le do­maine de la per­cep­tion, de sorte qu’une ma­chine puisse se dé­pla­cer dans un en­vi­ron­ne­ment don­né et se re­pé­rer en temps réel dans l’es­pace. Nous sor­tons ici du sec­teur stric­te­ment pro­cess in­dus­triel, mais force est de consta­ter que ces ap­pli­ca­tions se dé­ve­loppent ra­pi­de­ment. Me­sures. Quelle tech­no­lo­gie 3D uti­li­sez-vous chez ifm elec­tro­nic et sur quel prin­cipe re­pose-t-elle? Da­mien Le­grand. Notre tech­no­lo­gie 3D four­nit à un sys­tème ou à un ap­pa­reil la ca­pa­ci­té de per­ce­voir son en­vi­ron­ne­ment en trois di­men­sions et, par ex­ten­sion, de ne plus être dé­pen­dant d’un sys­tème comme le GPS par exemple, ce­la quel que soit l’en­vi­ron­ne­ment dans le­quel ce dis­po­si­tif se trouve, qu’il pleuve, qu’il neige, etc. Elle re­pose sur des cap­teurs 3D dits TOF [ Time of Flight, ou temps de vol, ndlr] ba­sés sur l’en­voi d’une onde in­fra­rouge à 850 na­no­mètres, qui part avec une fré­quence de quelques di­zaines de mé­ga­hertz et re­vient au ni­veau du cap­teur avec un dé­pha­sage, une fois l’onde in­fra­rouge ren­voyée par l’ob­jet à dé­tec­ter et à ana­ly­ser. À par­tir de ce dé­pha­sage, il est pos­sible de re­mon­ter à une in­for­ma­tion de dis­tance de l’ob­jet, donc de lo­ca­li­ser cet ob­jet dans l’es­pace. La por­tée de dé­tec­tion d’un tel dis­po­si­tif peut al­ler jus­qu’à 40, 50, voire 60 mètres dans cer­tains cas. Il existe d’autres tech­no­lo­gies 3D, comme la tri­an­gu­la­tion ou la sté­réo­sco­pie, mais avec des fonc­tion­na­li­tés qui sont op­ti­mi­sées pour d’autres ap­pli­ca­tions que celles liées à la per­cep­tion. La tech­no­lo­gie 3DTOF s’ap­plique bien à la per­cep­tion, car elle offre une grande flexi­bi­li­té d’uti­li­sa­tion, qui per­met de l’in­té­grer dans dif­fé­rents types d’ap­pa­reils et de l’em­ployer dans des en­vi­ron­ne­ments très dif­fé­rents. Par ailleurs, on peut cou­pler ce sys­tème de vi­sion 3D à un sys­tème de vi­sion 2D, qui per­met de faire de la dis­cri­mi­na­tion, de voir, par exemple, si vous por­tez un gi­let de pro­tec­tion lorsque vous êtes

sur un en­gin de chan­tier. Dans le do­maine de l’au­to­mo­bile, on ima­gine sur­tout les sys­tèmes de vi­sion 3D à l’ex­té­rieur du vé­hi­cule, no­tam­ment avec les sys­tèmes d’aide à la condui­tea­das. Mais on peut aus­si ima­gi­ner de tels équi­pe­ments à l’in­té­rieur même des vé­hi­cules pour des usages tels que le ver­rouillage/ dé­ver­rouillage de la voi­ture, l’au­to­ri­sa­tion de dé­mar­rage, le ré­glage au­to­ma­tique de la hau­teur du siège du vé­hi­cule, etc., grâce à la per­cep­tion du conduc­teur par un dis­po­si­tif 3D.

Me­sures. So­ny étant pro­duc­teur de cap­teurs Cmos, pou­vez-vous nous par­ler des avan­cées tech­no­lo­giques dans ce do­maine, en par­ti­cu­lier dans les ap­pli­ca­tions dites in­dus­trielles? Ar­naud Des­truels. Comme je l’ai dé­jà dit, l’usage des cap­teurs en tech­no­lo­gie Cmos s’est for­te­ment dé­ve­lop­pé dans les ap­pli­ca­tions in­dus­trielles.ain­si, avec des ca­mé­ras Cmos glo­bal shut­ter do­tées de très grandes ré­so­lu­tions, il est pos­sible de dé­tailler une image, de col­lec­ter des don­nées afin d’ex­tra­po­ler et de four­nir des in­for­ma­tions très pré­cises sur le di­men­sion­ne­ment ou les dé­fauts de pièces en per­ce­vant des dé­tails très fins. Il s’agit là d’une ten­dance de fond. On peut mixer éga­le­ment dif­fé­rents types de cap­teurs, cette com­bi­nai­son pou­vant ap­por­ter dif­fé­rentes in­for­ma­tions de pré­ci­sion, de me­sure, et ain­si ap­por­ter une va­leur ajou­tée au sys­tème. En termes de per­for­mances pro­pre­ment dites, le cap­teur Cmos évo­lue vers une ca­dence éle­vée et une haute ré­so­lu­tion, des pa­ra­mètres qui cor­res­pondent à la de­mande ac­tuelle du monde in­dus­triel. Chez So­ny, il existe des cap­teurs, ac­tuel­le­ment en phase d’échan­tillon­nage, qui at­teignent des vi­tesses ver­ti­gi­neuses et qui per­met­tront dans un ave­nir proche de faire des trai­te­ments de don­nées et d’in­for­ma­tions le plus ra­pi­de­ment pos­sible. Dans le do­maine grand pu­blic, le cap­teur Cmos pré­sente un avan­tage en termes de prix, mais il s’est éga­le­ment fait une place de choix dans le do­maine in­dus­triel du fait de cer­taines fonc­tion- na­li­tés in­hé­rentes à ce type de cap­teurs et qui ont per­mis de pal­lier les dé­fauts des cap­teurs CCD. On peut tou­jours trou­ver des cap­teurs CCD dans cer­taines ap­pli­ca­tions in­dus­trielles, en par­ti­cu­lier du fait de leur grande sen­si­bi­li­té, mais So­ny, pour sa part, a pris le par­ti, il y a quelques an­nées, d’aban­don­ner la pro­duc­tion de tels cap­teurs. Au­jourd’hui, en termes de ré­so­lu­tion des cap­teurs Cmos, on peut dire que le 5 me­ga­pixels consti­tue la base et que le 12 me­ga­pixels de­vient qua­si­ment le ni­veau de ré­so­lu­tion stan­dard. Et on peut trou­ver sur le mar­ché des cap­teurs Cmos très haut de gamme al­lant jus­qu’à 20, voire même 30 ou 40 me­ga­pixels. Il y a cinq ans, nos clients au­raient été très heu­reux avec une ré­so­lu­tion de 2 me­ga­pixels. Les li­mites tech­no­lo­giques de ces cap­teurs sont liées à la gra­vure et la loi de Moore semble conti­nuer à avan­cer, donc on peut en­core al­ler plus loin.

Me­sures. Pro­phe­see a dé­ve­lop­pé une tech­no­lo­gie de cap­teurs de vi­sion tout à fait ori­gi­nale. De quoi s’agit-il? Phi­lippe Ber­ger. Pro­phe­see a conçu et dé­ve­lop­pé un cap­teur qui est ac­tif en per­ma­nence et, sur­tout, qui est dy­na­mique, c’est-à-dire que si au­cun mou­ve­ment, si au­cune dy­na­mique dans la scène ou l’image à ana­ly­ser n’est dé­tec­tée par le cap­teur, alors au­cune in­for­ma­tion ne se­ra trans­mise, con­trai­re­ment à une ca­mé­ra clas­sique qui en­voie toutes les quelques mil­li­se­condes une image ou une trame com­plète, c’est-à-dire 100% des pixels du cap­teur. Dans le cas des cap­teurs de Pro­phe­see, seuls les pixels concer­nés par un chan­ge­ment de contraste vont gé­né­rer des don­nées qui se­ront trans­mises et ex­ploi­tées. Notre but n’est pas de faire une belle image, mais de trou­ver les in­for­ma­tions per­ti­nentes dans une scène et de ne com­mu­ni­quer et ne trans­mettre que ces don­nées-là, et uni­que­ment ces don­nées-là. Ce type de fonc­tion­ne­ment est ba­sé sur une ap­proche de type neu­ro­mor­phique, c’est-à-dire ins­pi­rée du fonc­tion­ne­ment de l’oeil hu­main, en lien avec le cer­veau. Quand vous voyez une scène, votre cer­veau prend l’en­vi­ron­ne­ment en mé­moire et seules les choses en mou­ve­ment sont per­çues par votre oeil et trans­mises au cer­veau. L’in­té­rêt de cette so­lu­tion est sa ré­ac­ti­vi­té - on parle de temps réel - et la quan­ti­té de don­nées à trans­fé­rer est très faible.alors que quand on a une ca­mé­ra clas­sique à ré­so­lu­tion et ca­dence éle­vées, il faut que der­rière, la puis­sance de cal­cul suive. Dans notre cas, en li­mi­tant au strict mi­ni­mum les don­nées à trans­mettre, ça rend beau­coup plus simple la par­tie cal­cul et ex­ploi­ta­tion des don­nées. Comme pour tous les cap­teurs, la ré­so­lu­tion des cap­teurs «event ba­sed» de Pro­phe­see conti­nue à aug­men­ter, mais il y au­ra tou­jours moins d’in­for­ma­tions à trans­mettre que dans le cas d’un cap­teur clas­sique de type «full frame».

Me­sures. Avec l’amé­lio­ra­tion conti­nuelle des per­for­mances des cap­teurs de vi­sion et l’ar­ri­vée de nou­velles tech­no­lo­gies, de nou­veaux usages

“A par­tir de la dé­tec­tion par les cap­teurs de Pro­phe­see, de la si­gna­ture vi­bra­toire des élé­ments mo­biles d’une ma­chine, il est pos­sible de dé­ter­mi­ner si des opé­ra­tions de main­te­nance doivent être en­tre­prises sur cette ma­chine afin de pré­ve­nir les pannes et d’évi­ter les ar­rêts in­tem­pes­tifs. ” Phi­lippe Ber­ger, di­rec­teur du dé­ve­lop­pe­ment de l’ac­ti­vi­té « au­to­ma­ti­sa­tion in­dus­trielle » de Pro­phe­see

ap­pa­raissent pour les sys­tèmes de vi­sion in­dus­trielle. Pou­vez-vous nous don­ner quelques exemples de nou­veaux usages? Ar­naud Des­truels. Ce qui est in­té­res­sant, c’est de se dire que si vous aviez or­ga­ni­sé cette table ronde il y a seule­ment trois ou quatre ans, on au­rait in­di­qué que la pro­duc­tion in­dus­trielle re- pré­sen­tait la très grande ma­jo­ri­té des ap­pli­ca­tions de la vi­sion in­dus­trielle. Mais au­jourd’hui, on s’aper­çoit que les ap­pli­ca­tions qui ne sont pas di­rec­te­ment liées à la pro­duc­tion in­dus­trielle re­pré­sentent dé­jà la moi­tié des cas d’usage. On trouve de la vi­sion in­dus­trielle à la fois dans les drones, dans les vé­hi­cules au­to­nomes, dans des sys­tèmes marke- ting uti­li­sés pour la dé­tec­tion de l’ac­ti­vi­té dans un ma­ga­sin ou dans le do­maine de l’in­fo­di­ver­tis­se­ment. Dans l’agri­cul­ture éga­le­ment, la vi­sion est de­ve­nue pri­mor­diale, de même dans tout ce qui concerne les as­pects de sé­cu­ri­té comme la vi­déo­sur­veillance ou l’iden­ti­fi­ca­tion bio­mé­trique (re­con­nais­sance fa­ciale, par exemple). On peut éga­le­ment en­vi­sa­ger des péages au­to­rou­tiers do­tés de sys­tèmes de vi­sion pour dé­tec­ter les plaques d’im­ma­tri­cu­la­tion des vé­hi­cules, ou pour per­mettre à la so­cié­té d’au­to­route d’en­voyer les fac­tures aux au­to­mo­bi­listes ayant em­prun­té son ré­seau plu­tôt que de les faire payer au mo­ment de pas­ser le péage. Ces dis­po­si­tifs per­mettent éga­le­ment de contrô­ler si les oc­cu­pants des vé­hi­cules ont mis leur cein­ture de sé­cu­ri­té ou pas, ou de faire des sta­tis­tiques du taux de rem­plis­sage des vé­hi­cules afin d’éva­luer les ef­fets du co­voi­tu­rage. Da­mien Le­grand. Je suis tout à fait d’ac­cord avec ce qui vient d’être dit. D’ailleurs, si nous avions eu cette table ronde il y a trois ans, les choses que

vient de dé­crire Mon­sieur Des­truels au­raient fait par­tie du cha­pitre « Qu’est-ce qui va ar­ri­ver dans le fu­tur?», alors que ces so­lu­tions existent au­jourd’hui. Pour com­plé­ter, je di­rais que, dans le do­maine de la sé­cu­ri­té, la re­con­nais­sance fa­ciale fait par­tie des choses dont on parle énor­mé­ment en ce mo­ment et qui servent dé­jà à dé­ver­rouiller cer­tains smart­phones. Certes, on est un peu loin de l’in­dus­trie de pro­cess, mais les ap­pli­ca­tions de la vi­sion dans les do­maines de la sé­cu­ri­té, de l’agri­cul­ture, de la lo­gis­tique, etc., se mul­ti­plient. Dans un ate­lier lo­gis­tique, par exemple, on peut suivre un co­lis dans toutes les étapes de son pé­riple grâce à un sys­tème de vi­sion. On peut aus­si uti­li­ser la vi­sion dans le do­maine de la Sil­ver éco­no­mie, no­tam­ment en sur­veillant les per­sonnes âgées chez elles pour aler­ter les se­cours quand elles chutent, ain­si que dans les hô­pi­taux. La ges­tion des flux du comp­tage de per­sonnes est éga­le­ment, au­jourd’hui, une réa­li­té alors que c’était peu en­vi­sa­geable en­core ré­cem­ment. Phi­lippe Ber­ger. Il y a plu­sieurs nou­velles ap­pli­ca­tions que nous en­vi­sa­geons avec nos cap­teurs, no­tam­ment une ap­pli­ca­tion qui va prendre de plus en plus d’am­pleur dans le do­maine de l’in­dus­trie du fu­tur, à sa­voir la main­te­nance pré­dic­tive. Il se trouve que, quand on uti­lise un cap­teur de Pro­phe­see, il est pos­sible de faire du mo­ni­to­ring de vi­bra­tions d’une ma­chine et d’en dé­duire l’am­pli­tude et la fré­quence de ces vi­bra­tions. Or la si­gna­ture vi­bra­toire d’une ma­chine ou d’un équi­pe­ment est un in­di­ca­teur avan­cé de la dé­via­tion des per­for­mances de cette ma­chine par rap­port à ses per­for­mances stan­dards, grâce aux courbes PNF de mise en marche d’un équi­pe­ment, à par­tir du mo­ment où il est en pro­duc­tion et jus­qu’à sa dé­faillance. Donc à par­tir de la dé­tec­tion par des cap­teurs du type de ceux de Pro­phe­see, de la si­gna­ture vi­bra­toire des élé­ments mo­biles d’une ma­chine – c’est ce que l’on ap­pelle le mo­ni­to­ring ci­né­ma­tique -, on peut dé­ter­mi­ner à par­tir de quel mo­ment ces ca­rac­té­ris­tiques vi­bra­toires changent et, ain­si, aler­ter le per­son­nel de la main­te­nance qu’il est temps de chan­ger cer­tains élé­ments de la ma­chine mo­ni­to­rée, tel qu’un rou­le­ment, une cour­roie, etc., et ce­la avant la panne de la ma­chine en ques­tion. Et pour mon­trer que les sys­tèmes de vi­sion de Pro­phe­see sont suf­fi­sam­ment pré­cis pour dé­tec­ter et ana­ly­ser la si­gna­ture vi­bra­toire de ma­chines in­dus­trielles, nous en fe­rons une dé­mons­tra­tion lors du sa­lon Vi­sion de Stutt­gart [le sa­lon Vi­sion s’est dé­rou­lé dé­but no­vembre, soit après la te­nue de cette table ronde, ndlr]. Gé­né­ra­le­ment, pour ce genre d’ap­pli­ca­tions, ce sont des sys­tèmes pié­zo­élec­triques que l’on vient vis­ser sur la mé­ca­nique de la ma­chine que l’on uti­lise pour sur­veiller cette der­nière. Mais si vous de­vez mo­ni­to­rer plu­sieurs élé­ments mo­biles d’une même ma­chine, vous de­vez l’équi­per de plu­sieurs dis­po­si­tifs pié­zo­élec­triques, avec les câbles et ac­ces­soires as­so­ciés. Dans le cas d’une ma­chine son­dée avec un sys­tème de vi­sion, on peut avoir des ROI plus courts et une mise en oeuvre sim­pli­fiée compte te­nu de l’uti­li­sa­tion d’un seul dis­po­si­tif, sans câble ni ac­ces­soire.

Me­sures. Par­mi les autres grandes ten­dances dans le do­maine de la vi- sion in­dus­trielle, on évoque sou­vent la vi­sion dite em­bar­quée et l’in­tel­li­gence ar­ti­fi­cielle. Qu’en est-il ? Pour quels usages? Da­mien Le­grand. La vi­sion em­bar­quée consti­tue aus­si une ten­dance qui per­met de col­lec­ter un maxi­mum d’in­for­ma­tions et de don­nées et de com­men­cer à les ana­ly­ser au plus près de la ca­mé­ra, avant de les ex­traire et de les trans­mettre à une uni­té de cal­cul dé­por­tée. Dans ce do­maine, ifm elec­tro­nic s’oriente de plus en plus vers des ap­pli­ca­tions open source, afin que les gens puissent in­té­grer leur propre in­tel­li­gence dans les cap­teurs de vi­sion et les ca­mé­ras, comme par exemple faire du pro­ces­sing 3D di­rec­te­ment dans le cap­teur, avant même que le flux de don­nées ne soit en­voyé à l’ex­té­rieur. Dans le do­maine de la san­té et de l’hô­pi­tal, on peut très bien ima­gi­ner une struc­ture qui per­met de rem­pla­cer une ar­chi­tec­ture clas­sique avec un cap­teur de vi­sion et un PC par un ser­veur di­rec­te­ment

“Dans le do­maine de la sé­cu­ri­té, l’in­tel­li­gence ar­ti­fi­cielle ap­pli­quée à la vi­sion in­dus­trielle est par­ti­cu­liè­re­ment bé­né­fique. On peut ima­gi­ner par exemple qu’un pas­sa­ger pour­ra être sur­veillé par un sys­tème de re­con­nais­sance fa­ciale tout au long de son tran­sit dans un aé­ro­port. ” Ar­naud Des­truels, di­rec­teur mar­ke­ting Eu­rope de la di­vi­sion Image Sen­sing So­lu­tions de So­ny

im­plé­men­té dans le cap­teur. Ce­la per­met par exemple d’en­voyer un SMS pour aler­ter qu’une per­sonne est tom­bée de son bran­card sans avoir be­soin d’un or­di­na­teur à proxi­mi­té. En ce qui concerne l’in­tel­li­gence ar­ti­fi­cielle et le deep lear­ning [ap­pren­tis­sage pro­fond, ndlr], on peut avoir des ap­pli­ca­tions par exemple dans le do­maine des smart homes uti­li­sant un dis­po­si­tif de vi­sion et des al­go­rithmes de ma­chine lear­ning qui per­mettent de vé­ri­fier que c’est bien vous qui êtes dans votre mai­son et pas un in­trus. Par exemple, avec les cap­teurs de vi­sion 3D, il est pos­sible de vé­ri­fier que c’est bien votre sil­houette qui est per­çue par le sys­tème et non celle d’un in­con­nu. Ce type de dis­po­si­tif ar­rive aus­si au fur à me­sure dans le monde in­dus­triel, même si nous n’en sommes en­core qu’aux bal­bu­tie­ments. Le deep lear­ning est in­con­tes­ta­ble­ment in­té­res­sant dans le do­maine de la vi­sion, mais il faut sa­voir ce que l’on va faire avec. On peut ame­ner du dé­ter­mi­nisme, du temps réel, mais il faut vrai­ment sa­voir ce que veut faire le client pour sa­voir si c’est op­por­tun, ou non, d’uti­li­ser du deep lear­ning pour une ap­pli­ca­tion don­née. Ar­naud Des­truels. En ce qui concerne la vi­sion em­bar­quée, on peut dé­jà dire en pré­am­bule que la ca­mé­ra «in­tel­li­gente» est un pro­duit qui existe de­puis une bonne di­zaine d’an­nées. Ma­trox avait ini­tié ce­la avec un pro­duit qui était consti­tué d’un cap­teur et d’un PC à l’in­té­rieur d’une ca­mé­ra. Au­jourd’hui, ce qui change, c’est que, pre­miè­re­ment, les cap­teurs sont beau­coup plus évo­lués et plus com­pacts. La stra­té­gie de So­ny, no­tam­ment, est de four­nir d’abord des élé­ments ma­té­riels qui soient co­hé­rents, par exemple des ca­mé­ras réa­li­sées à par­tir de nos cap­teurs qui ne cessent d’évo­luer. Le der­nier cap­teur Cmos que nous ve­nons de sor­tir est un cap­teur po­la­ri­sé qui per­met de four­nir un cer­tain nombre d’in­for­ma­tions que l’on ne pou­vait pas ob­te­nir à par­tir d’un cap­teur tra­di­tion­nel, en par­ti­cu­lier en sup­pri­mant les ef­fets né­fastes de la lu­mière du so­leil (par exemple les re­flets sur un pare-brise). C’est la pre­mière évo­lu­tion des cap­teurs Cmos de So­ny spé­ci­fi­que­ment dé­ve­lop­pée pour le monde de la vi­sion in­dus­trielle. Par rap­port aux dé­buts des ca­mé­ra «in­tel­li­gentes» ca­mé­ras il y a dix ans, le deuxième as­pect qui change, c’est l’ac­com­pa­gne­ment des clients en vue de l’ex­ploi­ta­tion de ce type de cap­teurs et des ca­mé­ras qui en sont équi­pées dans dif­fé­rents cas d’usage. So­ny four­nit ain­si un lo­gi­ciel de dé­ve­lop­pe­ment adap­té au cap­teur pour al­ler dans un jeu par­ti­cu­lier d’ap­pli­ca­tions. Notre évo­lu­tion stra­té­gique, c’est vrai­ment de se concen­trer sur les élé­ments ma­té­riels et d’être un sup­port né­ces­saire pour le dé­ve­lop­pe­ment des dif­fé­rents cas d’usage in­dus­triels. On constate ef­fec­ti­ve­ment que l’in­tel­li­gence ar­ti­fi­cielle est en train de s’im­plé­men­ter dans le monde de la vi­sion in­dus­trielle. Mais ce­la im­plique im­man­qua­ble­ment des par­te­na­riats, de la stan­dar­di­sa­tion ain­si qu’un éco­sys­tème dé­dié qui fonc­tionne cor­rec­te­ment. Ce­la reste en­core as­sez flou et pren­dra pro­ba­ble­ment du temps pour se mettre vé­ri­ta­ble­ment en place, car ça part un

peu dans tous les sens en ce mo­ment. Le four­nis­seur a en ef­fet be­soin d’un re­tour d’ex­pé­riences pour pou­voir dé­fi­nir les di­rec­tions à prendre et sur les­quelles il pour­ra s’ap­puyer pour son dé­ve­lop­pe­ment. D’où l’im­por­tance de créer un éco­sys­tème au­tour de ce­la. Phi­lippe Ber­ger. Il y a un do­maine où le deep lear­ning a toute sa place : dans l’au­to­mo­bile et en par­ti­cu­lier dans les sys­tè­me­sa­das et, par ex­ten­sion, dans les vé­hi­cules au­to­nomes. Pour ce­la, nous avons be­soin d’énor­mé­ment de don- nées, par exemple pour dis­tin­guer de ma­nière claire et pré­cise si c’est un chien qui tra­verse la route de­vant la voi­ture ou un en­fant. Dans une telle si­tua­tion cri­tique, le deep lear­ning per­met de faire le dis­tin­guo et d’ai­der le sys­tème à prendre la bonne dé­ci­sion.

Me­sures. À quoi s’at­tendre à l’ave­nir dans le do­maine de l’in­tel­li­gence ar­ti­fi­cielle ap­pli­quée à la vi­sion in­dus­trielle ? Da­mien Le­grand. Dans le do­maine de l’au­to­ma­tisme, nous pou­vons four­nir des cap­teurs qui sont un peu éloi­gnés du do­maine de l’in­tel­li­gence ar­ti­fi­cielle, car tout le monde n’a pas l’ex­per­tise de la vi­sion pour com­men­cer à pro­gram­mer. Donc, on a juste des lo­gi­ciels de pa­ra­mé­trage simples avec une di­zaine de pa­ra­mètres à ren­sei­gner pour pou­voir dé­mar­rer fa­ci­le­ment une ap­pli­ca­tion de vi­sion sur une chaîne de pro­duc­tion. Mais notre rôle est aus­si d’ac­com­pa­gner les clients dans des ap- pli­ca­tions plus com­plexes. En par­ti­cu­lier, nous avons, par­mi nos clients, beau­coup de start-up qui peuvent ap­por­ter de nou­velles idées et de nou­velles ap­pli­ca­tions in­dus­trielles, mais qui n’ont pas l’ex­per­tise en vi­sion in­dus­trielle. Dans le do­maine agri­cole, il existe d’ores et dé­jà des so­cié­tés qui uti­lisent la vi­sion in­dus­trielle et le deep lear­ning pour dif­fé­ren­cier, par exemple, des cultures de bet­te­raves et des mau­vaises herbes qui se trouvent à proxi­mi­té. Ce­la per­met en­suite d’avoir une pul­vé­ri­sa­tion ul­tra sé­lec­tive des cultures afin de li­mi­ter l’usage de pes­ti­cides avec l’in­té­rêt que ce­la re­pré­sente en termes éco­lo­gique, de san­té pu­blique et aus­si de coût. Et là, le deep lear­ning a toute sa place. Ar­naud Des­truels. On ne va pas se men­tir. Ce qui fait avan­cer les choses dans l’in­dus­trie, c’est un gain de pro­duc­ti­vi­té, ce qui per­met de ga­gner de l’ar­gent. Mais c’est aus­si une amé­lio­ra­tion de la sé­cu­ri­té et du contrôle. On peut ima­gi­ner que dans peu de temps, peut-être d’ici quelques mois, une per­sonne dans un aé­ro­port pour­ra être sur­veillée par un sys­tème bio­mé­trique tout au long de son tran­sit à l’in­té­rieur du ter­mi­nal aé­ro­por­tuaire.vous n’au­rez alors plus be­soin d’avoir un billet d’avion pour em­bar­quer ou pour payer un achat dans une bou­tique de du­ty free, puisque c’est votre si­gna­ture bio­mé­trique, qui se­ra scan­née en per­ma­nence, qui fe­ra foi pour vous per­mettre d’ac­cé­der à cer­tains en­droits et/ou d’ache­ter cer­taines choses dans l’aé­ro- port. Donc, dans le do­maine de la sé­cu­ri­té, l’in­tel­li­gence ar­ti­fi­cielle ap­pli­quée à la vi­sion est par­ti­cu­liè­re­ment bé­né­fique. Dans le do­maine in­dus­triel, en termes de gain de pro­duc­ti­vi­té, on peut, avec un sys­tème de vi­sion et à dif­fé­rentes étapes de la chaîne de pro­duc­tion, sur­veiller un pro­duit et pré­ve­nir si un dé­faut de ce pro­duit est dé­tec­té en cours de fa­bri­ca­tion. Une fois le pro­duit dé­fec­tueux re­pé­ré, il se­ra ex­trait de la ligne de pro­duc­tion et pla­cé de cô­té, soit pour le mo­di­fier et en­suite le ré­in­jec­ter à un autre ni­veau de la ligne de pro­duc­tion, soit pour le mettre au re­but. Le tout en réa­li­sant ces dif­fé­rentes étapes de ma­nière la plus au­to­ma­ti­sée pos­sible. Avec l’ob­ten­tion de ce flux conti­nu au­to­ma­ti­sé, on entre de plain-pied dans l’usine du fu­tur. Et la vi­sion in­dus­trielle y joue un rôle ca­pi­tal, car les sys­tèmes de vi­sion, au­jourd’hui, per­mettent de dé­tec­ter en temps réel les ano­ma­lies des pro­duits en cours de fa­bri­ca­tion, de dé­ter­mi­ner la quan­ti­té de pro­duits sur les lignes de pro­duc­tion, voire même leurs di­men­sions.ain­si, pour faire fonc­tion­ner ra­pi­de­ment et ef­fi­ca­ce­ment la pro­duc­tion d’une usine et s’ap­pro­cher de l’usine du fu­tur, le pro­duit doit être sui­vi du dé­but à la fin de sa fa­bri­ca­tion, de sorte que le flux de pro­duc­tion soit conti­nu et fluide et que les er­reurs (pro­duits dé­fec­tueux) soient ré­pa­rées de ma­nière qua­si­ment « in­vi­sible » pour l’ex­ploi­tant, le tout en li­mi­tant au maxi­mum l’in­ter­ven­tion hu­maine. Phi­lippe Ber­ger. Au ni­veau du monde in­dus­triel, il y a une évo­lu­tion nette vers une au­to­ma­ti­sa­tion de plus en plus pous­sée, et il va fal­loir que l’homme et les ma­chines col­la­borent de ma­nière beau­coup plus étroite et ef­fi­cace. Le point cru­cial est donc d’amé­lio­rer la ma­nière dont les équi­pe­ments s’adaptent à l’homme (et non l’in­verse). Dans toutes les usines, vous avez des bar­rières phy­siques de sé­cu­ri­té, des bar­rières im­ma­té­rielles, des zones à ac­cès res­treint pour les opé­ra­teurs, des si­gna­lé­tiques, etc. En uti­li­sant un sys­tème de vi­sion avec in­tel­li­gence ar­ti­fi­cielle in­té­grée, il est pos­sible de don­ner une cer­taine in­tel­li­gence aux ro­bots qui vont pou­voir tra­vailler en har­mo­nie avec leur en­vi­ron­ne­ment et s’adap­ter au dé­pla­ce­ment et à la pré­sence des hommes à proxi­mi­té.

“Dans le do­maine agri­cole, cer­taines so­cié­tés uti­lisent dé­jà la vi­sion in­dus­trielle et le deep lear­ning, par exemple, pour dif­fé­ren­cier les cultures des mau­vaises herbes. Ce­la per­met d’ap­pli­quer une pul­vé­ri­sa­tion très sé­lec­tive afin de li­mi­ter l’usage de pes­ti­cides tels que le gly­pho­sate. ” Da­mien Le­grand, res­pon­sable des pro­jets de sys­tèmes de vi­sion chez ifm elec­tro­nic

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.