Una moral consensuada per a les màquines
Investigadors del MIT creen un sistema per decidir per votació ciutadana quines vides haurien de prioritzar els cotxes autònoms
Fa temps que els desenvolupadors de cotxes autònoms donen voltes al dilema moral sobre què fer en cas d’accident, quines vides ha de prioritzar el vehicle. Atropellar el nen que travessa la carretera sense mirar o salvar-lo malgrat els danys que puguin patir els passatgers? I si en comptes d’un nen és un avi? La resposta no és fàcil. I la dificultat de definir el codi ètic que ha de regir-los amenaça de detenir el progrés dels vehicles autònoms.
La solució, segons alguns investigadors, podria estar en consensuar una moral per a les màquines a partir de les preferències de la societat, de les decisions ètiques que prendrien milions de persones a tot el món davant circumstàncies determinades.
En concret, un grup d’investigadors del Institut de Tecnologia de Massachusetts (MIT) i del departament de Machine Learning de la Universitat Carnegie Mellon (CMU) ha proposat que els algoritmes dels cotxes autònoms aprenguin els principis ètics pels quals s’han de guiar a través de les opinions majoritàries de la gent, d’una moral “consensuada” a partir d’una àmplia votació.
Per aconseguir aquesta base formal de principis ètics proposen, en primer lloc, realitzar una espècie d’enquesta entre el major nombre de persones possible preguntant a qui veurien més ètic atropellar en determinades situacions en funció de vectors com el nombre de víctimes afectades, el seu gènere, la seva edat, la seva salut, la seva activitat econòmica o fins i tot l’espècie que pertanyen, així com si han comès o no alguna infracció de trànsit.
El segon pas que plantegen és crear models de preferència de cadascun dels votants per a, en una tercera fase, crear un model únic basat en les preferències generals, de manera que en cada una de les situacions plantejades es triaria l’opció més votada com “la més ètica” per consens social. L’últim pas, segons la proposta elaborada pels investigadors del MIT i de la CMU, seria afegir totes aquelles preferències ètiques als algoritmes dels cotxes autònoms perquè quan al vehicle se li plantegi un dilema moral similar actuï segons allò que ha decidit la majoria dels ciutadans votants.
El sistema no està exempt de polèmica. El fet mateix d’automatitzar les respostes a situacions complexes ja causa controvèrsia, perquè no tothom està d’acord que la reacció del cotxe no depengui de l’opinió de qui viatja dins. Però a més en qüestions de moral un pot no compartir la preferència ètica de la majoria sobre si ha d’anteposar-se la vida de les persones o la dels animals, dels joves o dels ancians, d’una d’embarassada o d’un indigent, de l’innocent o del culpable.
Per avaluar la viabilitat de la seva teoria i estudiar com automatitzar el procés d’enquestes per obtenir un resultat clar per a cada situació, els investigadors han creat un lloc web denominat Màquina Moral (Moralmachine.mit.edu), disponible en deu idiomes, en què els usuaris poden votar què hauria de fer el cotxe autònom davant determinats dilemes morals o fins i tot dissenyar nous escenaris o situacions conflictives que creuen que podrien presentar-se i sobre els quals caldria reflexionar i recollir opinions del màxim nombre d’individus.
“Aquest lloc pretén aprofundir en la discussió –sobre l’ètica que ha de regir a les màquines intel·ligents– proporcionant una plataforma per construir una imatge multitudinària (fent servir proveïment participatiu) de l’opinió dels humans sobre com les màquines han de prendre decisions quan s’enfronten a dilemes morals”, expliquen els autors.
Al web es presenta als votants una sèrie de situacions complexes en les quals han de decidir quin és el mal menor. En uns casos es tracta de decidir si el cotxe autònom hauria d’esquivar un obstacle perquè els passatgers no pateixin danys encara que això suposi atropellar uns animals. En d’altres el dilema obliga a posicionar-se sobre si valen més les vides d’unes dones o les d’uns homes, la d’unes persones atlètiques o la d’una persona gran, la d’un executiu o un metge que la d’uns lladres o uns indigents, la de dos gossos o la d’un gos i un gat... I també a ponderar la variable “culpabilitat”, ja que en algunes circumstàncies els afectats s’han saltat un senyal de circulació o un semàfor en vermell. L’enquesta està oberta i qualsevol persona hi pot votar. El sistema mostra després els resultats: quins personatges salva i quins sacrifica amb més freqüència l’usuari, les seves preferències de gènere o en relació amb el compliment de la llei, i el seu posicionament respecte a la mitjana votada pels altres usuaris.
Proposen que els algoritmes aprenguin els principis ètics a través de les opinions majoritàries de la gent
Al web de Màquina Moral es presenten dilemes morals perquè el votant decideixi quin és el mal menor