L’éclai­rage mul­tis­pec­tral

Mesures - - Solutions - An­toine Cap­pelle

L’éclai­rage est un élé­ment par­fois sous-es­ti­mé des sys­tèmes de vi­sion. Ce do­maine connaît éga­le­ment des évo­lu­tions, no­tam­ment avec l’éclai­rage mul­tis­pec­tral. Ce­lui-ci pro­duit une lu­mière à très large spectre, et per­met d’ana­ly­ser le re­tour se­lon les dif­fé­rentes lon­gueurs d’onde. Le sys­tème Mul­tis­pec­trum de Keyence, par exemple, dé­coupe le spectre en 8 plages de lon­gueurs d’onde, de l’in­fra­rouge à l’ul­tra-vio­let (UV). « Ce­la contri­bue à sim­pli­fier la vi­sion, es­time Brieuc Che­va­lier, res­pon­sable des ventes en vi­sion et en me­sure haute pré­ci­sion chez le fa­bri­cant. On peut ain­si ob­te­nir plu­sieurs images se­lon plu­sieurs éclai­rages, ce qui né­ces­si­tait au­pa­ra­vant un sa­voir-faire par­ti­cu­lier. » L’éclai­rage peut être pi­lo­té par un contrô­leur et syn­chro­ni­sé avec le cap­teur. L’ob­jec­tif est d’ob­te­nir une dis­tinc­tion plus fine des cou­leurs, par exemple dans les cos­mé­tiques ou pour cer­taines pein­tures. C’est éga­le­ment un moyen de rendre une ap­pli­ca­tion de vi­sion plus flexible, en n’ayant pas à chan­ger l’éclai­rage en fonc­tion du pro­duit.

tions en ro­bo­tique, confirme Da­vid La­croix (El­vi­tec). Ac­tuel­le­ment, lors­qu’un ob­jet doit être maintes fois dé­pla­cé dans une usine, les opé­ra­tions sont sou­vent ma­nuelles. Pour au­to­ma­ti­ser ces tâches, il faut que les ro­bots lo­ca­lisent fa­ci­le­ment les ob­jets et re­con­naissent leur po­si­tion. » L’ins­pec­tion est une autre ap­pli­ca­tion cou­rante : elle né­ces­site en ef­fet de me­su­rer des dia­mètres, des lon­gueurs, de com­pa­rer point à point un ob­jet pro­duit et son mo­dèle théo­rique pour en va­li­der la confor­mi­té. Cer­tains al­go­rithmes per­mettent même de com­pa­rer des sur­faces. Il existe dif­fé­rentes fa­çons de mettre en place de la vi­sion 3D. La tri­an­gu­la­tion la­ser consiste à pro­je­ter une ligne la­ser, sous la­quelle dé­filent les ob­jets. Le vo­lume est re­cons­ti­tué grâce à la dé­for­ma­tion de la ligne. La pro­jec­tion de franges est une autre mé­thode, qui re­pose éga­le­ment sur la dé­for­ma­tion d’un mo­tif pro­je­té: un ré­seau de lignes la­ser. Mais celle-ci ne né­ces­site pas de faire dé­fi­ler les ob­jets. La so­cié­té slo­vaque Pho­to­neo, par exemple, pro­pose ce type de tech­no­lo­gie, avec des cap­teurs 3D pour­vus d’une pla­te­forme em­bar­quée Nvi­dia Jet­son. Fin 2016, Co­gnex a ra­che­té l’en­tre­prise al­le­mande En­shape pour ajou­ter cette tech­no­lo­gie à son ca­ta­logue. La vi­sion sté­réo­sco­pique, elle, re­pro­duit le prin­cipe de la vi­sion hu­maine grâce à deux ca­mé­ras lé­gè­re­ment dé­ca­lées, dont l’orien­ta­tion est connue. Des al­go­rithmes ap­pa­rient les points ob­ser­vés de chaque cô­té et cal­culent leur co­or­don­nées dans l’es­pace. Ce­la peut être com­bi­né avec la pro­jec­tion d’un mo­tif la­ser: c’est le prin­cipe no­tam­ment de la gamme En­sen­so D’IDS. On peut éga­le­ment pro­duire une image 3D grâce à la tech­no­lo­gie de «temps de vol». ifm elec­tro­nic a mi­sé sur ce sys­tème: « On en­voie une onde, qui re­vient au cap­teur avec un dé­pha­sage, ex­plique Da­mien Le­grand, chef de pro­jets Sys­tèmes de vi­sion chez ifm elec­tro­nic. On ob­tient ain­si sur chaque pixel une in­for­ma­tion de dé­pha­sage dont on peut dé­duire une dis­tance. » En­fin, il est aus­si pos­sible de re­cons­ti­tuer un vo­lume à par­tir d’une image 2D, comme le pro­pose par exemple une fonc­tion de Po­li­ma­go, de Stem­mer Ima­ging. Se­lon la na­ture des ma­té­riaux, le dé­fi­le­ment de l’ob­jet, sa dis­tance ou en­core le vo­lume à trai­ter, l’une ou l’autre de ces tech­no­lo­gies se­ra mieux adap­tée. L’évo­lu­tion des sys­tèmes de vi­sion 3D va dans le sens d’une in­té­gra­tion de la puis­sance de calcul aux cap­teurs. C’est la stra­té­gie, entre autres, de Pho­to­neo avec ses scan­ners Phoxi, de Stem­mer Ima­ging avec la gamme LMI Go­ca­tor, ou en­core des cap­teurs O3D d’ifm elec­tro­nic. Ce­la peut al­ler de pair avec l’in­té­gra­tion de cer­taines fonc­tions lo­gi­cielles pré­pro­gram­mées : « Nous avons dé­ve­lop­pé nos propres firm­wares », in­dique Da­mien Le­grand (ifm elec­tro­nic). Ces firm­wares sont conçus pour des ap­pli­ca­tions simples, telles que le di­men­sion­ne­ment de co­lis, la dé­tec­tion de pré­sence ou de ni­veau. Ce­la in­té­resse les en­tre­prises n’ayant pas les moyens de dé­ve­lop­per leurs propres ap­pli­ca­tions, mais pas seule­ment : « comme nous maî­tri­sons en­tiè­re­ment la par­tie ma­té­rielle du sys­tème, nous sommes ca­pables d’op­ti­mi­ser com­plè­te­ment ces ap­pli­ca­tions, là où un client n’ex­ploi­te­rait peut-être pas les res­sources dis­po­nibles à 100 % », conti­nue Da­mien Le­grand. Or un temps de calcul trop long a un im­pact né­ga­tif sur la pro­duc­ti­vi­té. « Mais notre sys­tème est ou­vert et per­met éga­le­ment à l’uti­li­sa­teur de dé­ve­lop­per ses propres al­go­rithmes », pré­cise-t-il.

Les don­nées fu­sion­ne­ront

Tous les élé­ments né­ces­saires évo­luent dans un sens fa­vo­rable aux ap­pli­ca­tions 3D. Comme la ca­pa­ci­té de calcul, les in­ter­faces d’ac­qui­si­tion, par exemple, ont ga­gné en puis­sance. L’en­vi­ron­ne­ment dis­po­nible per­met donc la mise en place de fonc­tions tou­jours plus puis­santes. « On ob­tient des mil­lions de points lorsque l’on re­cons­truit un ob­jet en 3D, et il est pos­sible d’y re­cher­cher les dif­fé­rentes oc­cur­rences d’un mo­dèle, ex­plique Da­vid La­croix (El­vi­tec). Mais il faut des ca­pa­ci­tés de calcul suf­fi­santes. Le bin pi­cking, no­tam­ment, est une ap­pli­ca­tion gour­mande.

Mais le dé­lai lié au dé­pla­ce­ment du ro­bot per­met de ga­gner du temps de calcul ». À l’ave­nir, dif­fé­rents sys­tèmes de vi­sion, mais aus­si de dé­tec­tion, pour­raient col­la­bo­rer de plus en plus en plus sou­vent dans le cadre de la fu­sion de don­nées. « C’est une ten­dance claire, es­time Da­mien Le­grand (ifm elec­tro­nic). C’est le Graal en termes de sé­cu­ri­té in­tel­li­gente. » En ef­fet, avec un sys­tème clas­sique, un scru­ta­teur de sé­cu­ri­té coupe une mac­hine lors­qu’il dé­tecte quelque chose dans une zone dan­ge­reuse. Mais il n’est pas ca­pable de sa­voir s’il s’agit d’une per­sonne ou d’une mac­hine. La fu­sion de don­nées vise à ac­cé­der à ce ni­veau d’ana­lyse à par­tir d’in­for­ma­tions ti­rées de cap­teurs dif­fé­rents, pour pro­fi­ter des points forts de cha­cun. « Une autre ap­pli­ca­tion peut être de s’as­su­rer de voir un grillage, conti­nue Da­mien Le­grand. C’est quelque chose que l’on voit dif­fé­rem­ment avec un scru­ta­teur ou une ca­mé­ra 3D. » Un ro­bot ou vé­hi­cule au­to­nome pour­rait ain­si dé­ter­mi­ner l’ac­tion la plus co­hé­rente face à un obs­tacle, quel qu’il soit. Bien sûr, ce­la de­mande une puis­sance de calcul im­por­tante. Mais des cartes telles que les pro­duits de Nvi­dia de­vraient contri­buer à l’es­sor de la fu­sion de don­nées. La sim­pli­fi­ca­tion de l’uti­li­sa­tion est une autre ten­dance gé­né­rale dans l’in­dus­trie, et la vi­sion s’y conforme elle aus­si. « Le mot d’ordre est de rendre ac­ces­sible, ré­sume Brieuc Che­va­lier, res­pon­sable des ventes en vi­sion et en me­sure haute pré­ci­sion chez Keyence. Une usine doit pou­voir fonc­tion­ner sans spé­cia­listes de la vi­sion, les ap­pli­ca­tions doivent donc pou­voir être ins­tal­lées et mises en route sans né­ces­si­ter de connais­sances par­ti­cu­lières. » Ain­si, ifm elec­tro­nic met en avant la pos­si­bi­li­té de confi­gu­rer une ca­mé­ra 3D « en seule­ment 5 à 10 mi­nutes, sans avoir de for­ma­tion », se­lon Da­mien Le­grand. Même les ap­pli­ca­tions en ro­bo­tique évo­luent dans ce sens: « Nous avons mis au point un sys­tème avec au­to-ca­li­bra­tion, conti­nue le res­pon­sable des ventes de Keyence. La ca­mé­ra per­met la cor­rec­tion au­to­ma­tique des im­pré­ci­sions du ro­bot, là où au­pa­ra­vant il fal­lait re­ca­li­brer à chaque dé­via­tion, se­lon une mé­thode dé­pen­dante de l’in­té­gra­teur. » La par­tie ma­té­rielle se voit elle aus­si sim­pli­fiée : « les ca­mé­ras de notre gamme In­sight sont de plus en plus au­to­nomes et fa­ciles à uti­li­ser, avec par exemple la mise au point au­to­ma­tique », in­dique Abel Gagne (Co­gnex). L’in­té­gra­tion est éga­le­ment plus ai­sée, par la com­pa­ci­té, mais aus­si le fac­teur de forme. L’éclai­rage est in­té­gré, et le chan­ge­ment de filtre ou de len­tille est conçu pour être simple. » Les in­ter­faces des lo­gi­ciels suivent bien sûr cette ten­dance. « Notre in­ter­face uti­li­sa­teur est iden­tique sur toute la gamme, des ap­pli­ca­tions de base aux plus com­plexes », conti­nuea­bel Gagne. Sur de nom­breux pro­duits, la con­nexion à dis­tance est pos­sible via des in­ter­faces web, avec n’im­porte quel ter­mi­nal. Même pour les ou­tils de pointe, comme l’ap­pren­tis­sage au­to­ma­tique, les fa­bri­cants gardent ce sou­ci de sim­pli­ci­té. « Notre lo­gi­ciel de vi­sion Sher­lock est conçu comme un en­vi­ron­ne­ment où il suf­fit de poin­ter et cli­quer, et nous conti­nuons de le faire évo­luer vers une prise en main sim­pli­fiée, ex­plique Jo­na­than­vi­ckers (Stem­mer Ima­ging). Nous y avons in­té­gré l’ou­til Po­li­ma­go, pour que les non-spé­cia­listes puissent y ac­cé­der éga­le­ment, de la fa­çon la plus simple pos­sible, y com­pris pour la phase d’ap­pren­tis­sage du lo­gi­ciel ». Mal­gré ces fa­ci­li­tés d’usage, l’ac­com­pa­gne­ment reste un élé­ment im­por­tant des ap­pli­ca­tions de vi­sion. De nom­breuses tech­no­lo­gies per­mettent de mettre en place un sys­tème 3D, l’ap­pren­tis­sage au­to­ma­tique per­met de nou­velles ap­pli­ca­tions, la puis­sance de calcul em­bar­quée pousse à re­pen­ser cer­taines ar­chi­tec­tures. Face à ce­la, le choix d’un cap­teur ou d’un lo­gi­ciel peut être dif­fi­cile. « Si l’on veut qu’un sys­tème soit bien uti­li­sé, il faut ac­com­pa­gner les clients. Mal­gré les pos­si­bi­li­tés d’in­ter­ven­tions à dis­tance, les clients aiment être as­sis­tés lors­qu’ils sont confron­tés à des dif­fi­cul­tés, qui ne viennent par­fois pas du sys­tème de vi­sion. Les fa­bri­cants doivent s’y adap­ter », conclut Brieuc Che­va­lier (Keyence).

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.