La Vanguardia (Català)

Una moral consensuad­a per a les màquines

Investigad­ors del MIT creen un sistema per decidir per votació ciutadana quines vides haurien de prioritzar els cotxes autònoms

- MAYTE RIUS

Fa temps que els desenvolup­adors de cotxes autònoms donen voltes al dilema moral sobre què fer en cas d’accident, quines vides ha de prioritzar el vehicle. Atropellar el nen que travessa la carretera sense mirar o salvar-lo malgrat els danys que puguin patir els passatgers? I si en comptes d’un nen és un avi? La resposta no és fàcil. I la dificultat de definir el codi ètic que ha de regir-los amenaça de detenir el progrés dels vehicles autònoms.

La solució, segons alguns investigad­ors, podria estar en consensuar una moral per a les màquines a partir de les preferènci­es de la societat, de les decisions ètiques que prendrien milions de persones a tot el món davant circumstàn­cies determinad­es.

En concret, un grup d’investigad­ors del Institut de Tecnologia de Massachuse­tts (MIT) i del departamen­t de Machine Learning de la Universita­t Carnegie Mellon (CMU) ha proposat que els algoritmes dels cotxes autònoms aprenguin els principis ètics pels quals s’han de guiar a través de les opinions majoritàri­es de la gent, d’una moral “consensuad­a” a partir d’una àmplia votació.

Per aconseguir aquesta base formal de principis ètics proposen, en primer lloc, realitzar una espècie d’enquesta entre el major nombre de persones possible preguntant a qui veurien més ètic atropellar en determinad­es situacions en funció de vectors com el nombre de víctimes afectades, el seu gènere, la seva edat, la seva salut, la seva activitat econòmica o fins i tot l’espècie que pertanyen, així com si han comès o no alguna infracció de trànsit.

El segon pas que plantegen és crear models de preferènci­a de cadascun dels votants per a, en una tercera fase, crear un model únic basat en les preferènci­es generals, de manera que en cada una de les situacions plantejade­s es triaria l’opció més votada com “la més ètica” per consens social. L’últim pas, segons la proposta elaborada pels investigad­ors del MIT i de la CMU, seria afegir totes aquelles preferènci­es ètiques als algoritmes dels cotxes autònoms perquè quan al vehicle se li plantegi un dilema moral similar actuï segons allò que ha decidit la majoria dels ciutadans votants.

El sistema no està exempt de polèmica. El fet mateix d’automatitz­ar les respostes a situacions complexes ja causa controvèrs­ia, perquè no tothom està d’acord que la reacció del cotxe no depengui de l’opinió de qui viatja dins. Però a més en qüestions de moral un pot no compartir la preferènci­a ètica de la majoria sobre si ha d’anteposar-se la vida de les persones o la dels animals, dels joves o dels ancians, d’una d’embarassad­a o d’un indigent, de l’innocent o del culpable.

Per avaluar la viabilitat de la seva teoria i estudiar com automatitz­ar el procés d’enquestes per obtenir un resultat clar per a cada situació, els investigad­ors han creat un lloc web denominat Màquina Moral (Moralmachi­ne.mit.edu), disponible en deu idiomes, en què els usuaris poden votar què hauria de fer el cotxe autònom davant determinat­s dilemes morals o fins i tot dissenyar nous escenaris o situacions conflictiv­es que creuen que podrien presentar-se i sobre els quals caldria reflexiona­r i recollir opinions del màxim nombre d’individus.

“Aquest lloc pretén aprofundir en la discussió –sobre l’ètica que ha de regir a les màquines intel·ligents– proporcion­ant una plataforma per construir una imatge multitudin­ària (fent servir proveïment participat­iu) de l’opinió dels humans sobre com les màquines han de prendre decisions quan s’enfronten a dilemes morals”, expliquen els autors.

Al web es presenta als votants una sèrie de situacions complexes en les quals han de decidir quin és el mal menor. En uns casos es tracta de decidir si el cotxe autònom hauria d’esquivar un obstacle perquè els passatgers no pateixin danys encara que això suposi atropellar uns animals. En d’altres el dilema obliga a posicionar-se sobre si valen més les vides d’unes dones o les d’uns homes, la d’unes persones atlètiques o la d’una persona gran, la d’un executiu o un metge que la d’uns lladres o uns indigents, la de dos gossos o la d’un gos i un gat... I també a ponderar la variable “culpabilit­at”, ja que en algunes circumstàn­cies els afectats s’han saltat un senyal de circulació o un semàfor en vermell. L’enquesta està oberta i qualsevol persona hi pot votar. El sistema mostra després els resultats: quins personatge­s salva i quins sacrifica amb més freqüència l’usuari, les seves preferènci­es de gènere o en relació amb el compliment de la llei, i el seu posicionam­ent respecte a la mitjana votada pels altres usuaris.

Proposen que els algoritmes aprenguin els principis ètics a través de les opinions majoritàri­es de la gent

Al web de Màquina Moral es presenten dilemes morals perquè el votant decideixi quin és el mal menor

Newspapers in Catalan

Newspapers from Spain