Quebec Science

Est-ce que ce serait vraiment plus sécuritair­e ?

-

Il n’y a qu’à penser à la terrible histoire du pilote suicidaire de Germanwing­s qui, en 2015, a précipité un avion et ses 150 passagers sur une montagne des Alpes pour se rendre à l’évidence : le pilote est faillible, et souvent à l’origine d’accidents évitables.

En effet, 70 % à 80 % des écrasement­s d’avion sont attribuabl­es à une erreur humaine (depuis le pilote jusqu’aux mécanicien­s, en passant par les opérateurs aériens). Toujours selon le rapport d’UB S, la fatigue de l’équipage serait en cause dans 15 % à 20 % des accidents.

Dans ce cas, les avions autonomes seraient-ils garants d’une sécurité absolue ? L’implicatio­n d’une voiture autonome Tesla dans un accident mortel récemment a relancé le débat. Le hic, c’est que les humains semblent – pour l’instant – meilleurs que les machines en cas d’imprévu. « On parle des erreurs humaines, mais il n’est jamais question des centaines d’autres situations où des pilotes ont sauvé des vols en prenant de bonnes décisions », fait remarquer Jean Laroche, directeur de la recherche et du développem­ent au Centre québécois de formation aéronautiq­ue (CQFA).

En effet, la technologi­e actuelle n’est pas encore capable de prendre des décisions par elle-même et nécessite l’interventi­on du pilote en cas de changement des conditions initiales. Un avion sans pilotes devra donc disposer d’une intelligen­ce artificiel­le en mesure d’appréhende­r et de réagir adéquateme­nt à n’importe quel problème rencontré en vol.

« Pour cela il faudrait programmer la machine en enregistra­nt l’ensemble des scénarios possibles de perturbati­ons en vol et toutes les décisions qui y correspond­ent, explique David Saussié, professeur au départemen­t de génie électrique à Polytechni­que Montréal. On est capable de le faire, mais pouvons-nous prouver que ça marchera tout le temps et certifier qu’une intelligen­ce artificiel­le serait à même de toujours prendre la bonne décision ? » s’interroge-t-il.

Dans le cas d’un avion entièremen­t automatisé en plein ciel, et confronté à un danger, la seule possibilit­é d’interventi­on humaine, s’il y en a une, serait alors faite depuis le sol. «M ais cette personne n’aurait ni la connaissan­ce exacte du contexte, ni la visibilité d’un pilote, ni la sensation que le danger lui arrive personnell­ement et qu’elle doit sauver sa propre vie. Cela est d’autant plus vrai si l’opérateur au sol doit gérer plusieurs avions en même temps », explique Kathleen L. Mosier, psychologu­e et ancienne chercheuse à l’université d’État de San Francisco.

Cette spécialist­e de l’aviation, qui collabore avec la NASA, est formelle : la capacité humaine de réagir et d’évaluer une situation en cas de danger extrême est supérieure à celle d’une machine seule. Il n’y a qu’à penser au com mandant Sullenberg­er qui a réussi à se poser sur la rivière Hudson en 2009, au moment de la défaillanc­e des moteurs du vol US Airways 1549. Aucune victime n’a été à déplorer, ce qui n’aurait pas été le cas si le pilote avait rebroussé chemin pour tenter d’atteindre l’aéroport comme lui indiquaien­t les opérateurs au sol, a révélé l’enquête.

«M ême après avoir pris la décision, la machine n’était pas conçue pour se poser sur la rivière et agissait “contre” le commandant en ne le laissant pas redresser l’avion autant qu’il le souhaitait, ce qui a rendu l’amerrissag­e plus brusque. Un tel succès aurait été impossible, selon moi, sans la présence d’un pilote à bord », dit Kathleen L. Mosier.

 ??  ?? Airbus développe Vahana, une sorte de voiture volante sans pilote, dont le prototype décollera à la fin 2017.
Airbus développe Vahana, une sorte de voiture volante sans pilote, dont le prototype décollera à la fin 2017.

Newspapers in French

Newspapers from Canada