Le Journal de Montreal

Quand la voiture autonome devra décider qui elle tue

- Frédéric Mercier

Le développem­ent des voitures sans conducteur ne pose pas que des défis techniques. Plusieurs dilemmes moraux sont aussi étudiés avec attention.

Même si toutes les voitures du monde étaient automatisé­es, les accidents continuera­ient d’arriver. L’erreur est humaine, et les machines sont justement construite­s par des humains.

METTEZ-VOUS DANS CETTE SITUATION

Une voiture autonome transporte deux passagers. Soudaineme­nt, un problème de freins l’empêche de s’immobilise­r à une intersecti­on. Si elle ne fait rien, elle frappera et tuera deux piétons qui passent par là. Si elle bifurque assez rapidement, elle sauvera les deux piétons, mais tuera les gens qui se trouvent à son bord. Quelle décision prendre?

C’est ce genre de dilemme que doivent actuelleme­nt analyser les développeu­rs de véhicules autonomes.

Dans le but de recueillir une perspectiv­e humaine sur ces décisions morales que devront peut-être prendre les voitures de demain, le Massachuse­tts Institute of Technology (MIT) a mis sur pied la «Moral Machine».

Le principe est simple. On vous propose des dilemmes moraux où une voiture autonome doit choisir le moindre de deux maux. Vous devez analyser la situation et choisir quel résultat est le moins pire.

Plusieurs facteurs sont pris en compte. On vous expose plusieurs caractéris­tiques des gens impliqués dans les faux accidents, caractéris­tiques qui pourraient avoir une influence sur votre décision.

Par exemple, on indique clairement le sexe, le rang social, l’âge et la forme physique des personnage­s mis en scène dans ces situations fictives.

À la fin du questionna­ire, vous pouvez même comparer vos réponses à celles des autres répondants. Et si le coeur vous en dit, on vous permet même de créer vos propres situations mettant en scène un dilemme moral relié à une voiture autonome.

Newspapers in French

Newspapers from Canada