Quand la voiture autonome devra décider qui elle tue
Le développement des voitures sans conducteur ne pose pas que des défis techniques. Plusieurs dilemmes moraux sont aussi étudiés avec attention.
Même si toutes les voitures du monde étaient automatisées, les accidents continueraient d’arriver. L’erreur est humaine, et les machines sont justement construites par des humains.
METTEZ-VOUS DANS CETTE SITUATION
Une voiture autonome transporte deux passagers. Soudainement, un problème de freins l’empêche de s’immobiliser à une intersection. Si elle ne fait rien, elle frappera et tuera deux piétons qui passent par là. Si elle bifurque assez rapidement, elle sauvera les deux piétons, mais tuera les gens qui se trouvent à son bord. Quelle décision prendre?
C’est ce genre de dilemme que doivent actuellement analyser les développeurs de véhicules autonomes.
Dans le but de recueillir une perspective humaine sur ces décisions morales que devront peut-être prendre les voitures de demain, le Massachusetts Institute of Technology (MIT) a mis sur pied la «Moral Machine».
Le principe est simple. On vous propose des dilemmes moraux où une voiture autonome doit choisir le moindre de deux maux. Vous devez analyser la situation et choisir quel résultat est le moins pire.
Plusieurs facteurs sont pris en compte. On vous expose plusieurs caractéristiques des gens impliqués dans les faux accidents, caractéristiques qui pourraient avoir une influence sur votre décision.
Par exemple, on indique clairement le sexe, le rang social, l’âge et la forme physique des personnages mis en scène dans ces situations fictives.
À la fin du questionnaire, vous pouvez même comparer vos réponses à celles des autres répondants. Et si le coeur vous en dit, on vous permet même de créer vos propres situations mettant en scène un dilemme moral relié à une voiture autonome.