Est-ce que ce se­rait vrai­ment plus sé­cu­ri­taire ?

Québec Science - - AÉRONAUTIQUE -

Il n’y a qu’à pen­ser à la ter­rible his­toire du pi­lote sui­ci­daire de Ger­man­wings qui, en 2015, a pré­ci­pi­té un avion et ses 150 pas­sa­gers sur une mon­tagne des Alpes pour se rendre à l’évi­dence : le pi­lote est faillible, et sou­vent à l’ori­gine d’ac­ci­dents évi­tables.

En ef­fet, 70 % à 80 % des écra­se­ments d’avion sont at­tri­buables à une er­reur hu­maine (de­puis le pi­lote jus­qu’aux mé­ca­ni­ciens, en pas­sant par les opé­ra­teurs aé­riens). Tou­jours se­lon le rap­port d’UB S, la fa­tigue de l’équi­page se­rait en cause dans 15 % à 20 % des ac­ci­dents.

Dans ce cas, les avions au­to­nomes se­raient-ils ga­rants d’une sé­cu­ri­té ab­so­lue ? L’implication d’une voi­ture au­to­nome Tes­la dans un ac­ci­dent mor­tel ré­cem­ment a re­lan­cé le dé­bat. Le hic, c’est que les hu­mains semblent – pour l’ins­tant – meilleurs que les ma­chines en cas d’im­pré­vu. « On parle des er­reurs hu­maines, mais il n’est ja­mais ques­tion des cen­taines d’autres si­tua­tions où des pi­lotes ont sau­vé des vols en pre­nant de bonnes dé­ci­sions », fait re­mar­quer Jean La­roche, di­rec­teur de la re­cherche et du dé­ve­lop­pe­ment au Centre qué­bé­cois de for­ma­tion aé­ro­nau­tique (CQFA).

En ef­fet, la tech­no­lo­gie ac­tuelle n’est pas en­core ca­pable de prendre des dé­ci­sions par elle-même et né­ces­site l’in­ter­ven­tion du pi­lote en cas de chan­ge­ment des condi­tions ini­tiales. Un avion sans pi­lotes de­vra donc dis­po­ser d’une in­tel­li­gence ar­ti­fi­cielle en me­sure d’ap­pré­hen­der et de ré­agir adé­qua­te­ment à n’im­porte quel pro­blème ren­con­tré en vol.

« Pour ce­la il fau­drait pro­gram­mer la ma­chine en en­re­gis­trant l’en­semble des scé­na­rios pos­sibles de per­tur­ba­tions en vol et toutes les dé­ci­sions qui y cor­res­pondent, ex­plique Da­vid Saus­sié, pro­fes­seur au dé­par­te­ment de gé­nie élec­trique à Po­ly­tech­nique Mon­tréal. On est ca­pable de le faire, mais pou­vons-nous prou­ver que ça mar­che­ra tout le temps et cer­ti­fier qu’une in­tel­li­gence ar­ti­fi­cielle se­rait à même de tou­jours prendre la bonne dé­ci­sion ? » s’in­ter­roge-t-il.

Dans le cas d’un avion en­tiè­re­ment au­to­ma­ti­sé en plein ciel, et confron­té à un dan­ger, la seule pos­si­bi­li­té d’in­ter­ven­tion hu­maine, s’il y en a une, se­rait alors faite de­puis le sol. «M ais cette per­sonne n’au­rait ni la connais­sance exacte du contexte, ni la vi­si­bi­li­té d’un pi­lote, ni la sen­sa­tion que le dan­ger lui ar­rive per­son­nel­le­ment et qu’elle doit sau­ver sa propre vie. Ce­la est d’au­tant plus vrai si l’opé­ra­teur au sol doit gé­rer plu­sieurs avions en même temps », ex­plique Kath­leen L. Mo­sier, psy­cho­logue et an­cienne cher­cheuse à l’uni­ver­si­té d’État de San Fran­cis­co.

Cette spé­cia­liste de l’avia­tion, qui col­la­bore avec la NA­SA, est for­melle : la ca­pa­ci­té hu­maine de ré­agir et d’éva­luer une si­tua­tion en cas de dan­ger ex­trême est su­pé­rieure à celle d’une ma­chine seule. Il n’y a qu’à pen­ser au com man­dant Sul­len­ber­ger qui a réus­si à se po­ser sur la ri­vière Hud­son en 2009, au mo­ment de la dé­faillance des mo­teurs du vol US Air­ways 1549. Au­cune vic­time n’a été à dé­plo­rer, ce qui n’au­rait pas été le cas si le pi­lote avait re­brous­sé che­min pour ten­ter d’at­teindre l’aé­ro­port comme lui in­di­quaient les opé­ra­teurs au sol, a ré­vé­lé l’en­quête.

«M ême après avoir pris la dé­ci­sion, la ma­chine n’était pas conçue pour se po­ser sur la ri­vière et agis­sait “contre” le com­man­dant en ne le lais­sant pas re­dres­ser l’avion au­tant qu’il le sou­hai­tait, ce qui a ren­du l’amer­ris­sage plus brusque. Un tel suc­cès au­rait été im­pos­sible, se­lon moi, sans la pré­sence d’un pi­lote à bord », dit Kath­leen L. Mo­sier.

Air­bus dé­ve­loppe Va­ha­na, une sorte de voi­ture vo­lante sans pi­lote, dont le pro­to­type dé­col­le­ra à la fin 2017.

Newspapers in French

Newspapers from Canada

© PressReader. All rights reserved.