Una mo­ral con­sen­sua­da pa­ra las má­qui­nas

In­ves­ti­ga­do­res del MIT crean un sis­te­ma pa­ra de­ci­dir por vo­ta­ción ciu­da­da­na qué vi­das de­be­rían prio­ri­zar los co­ches au­tó­no­mos

La Vanguardia - - TENDENCIAS - MAYTE RIUS Bar­ce­lo­na

Ha­ce tiem­po que los desa­rro­lla­do­res de co­ches au­tó­no­mos dan vuel­tas al di­le­ma mo­ral so­bre qué ha­cer en ca­so de ac­ci­den­te, qué vi­das de­be prio­ri­zar el vehícu­lo. ¿Atro­pe­llar al ni­ño que cru­za la ca­rre­te­ra sin mi­rar o sal­var­lo a pe­sar de los da­ños que pue­dan su­frir los pa­sa­je­ros? ¿Y si en vez de un ni­ño es un an­ciano?

La res­pues­ta no es fá­cil. Y la di­fi­cul­tad de de­fi­nir el có­di­go éti­co que ha de re­gir­los ame­na­za con de­te­ner el pro­gre­so de los vehícu­los au­tó­no­mos. La so­lu­ción, se­gún al­gu­nos in­ves­ti­ga­do­res, po­dría es­tar en con­sen­suar una mo­ral pa­ra las má­qui­nas a par­tir de las pre­fe­ren­cias de la so­cie­dad, de las de­ci­sio­nes éti­cas que to­ma­rían mi­llo­nes de per­so­nas en to­do el mun­do an­te de­ter­mi­na­das cir­cuns­tan­cias.

En con­cre­to, un gru­po de in­ves­ti­ga­do­res del Me­dia Lab de Ins­ti­tu­to de Tec­no­lo­gía de l Massachusetts (MIT) y del de­par­ta­men­to de Ma­chi­ne Lear­ning de la Uni­ver­si­dad Car­ne­gie Me­llon (CMU) han pro­pues­to que los al­go­rit­mos de los co­ches au­tó­no­mos apren­dan los prin­ci­pios éti­cos por los que de­ben guiar­se a tra­vés de las opi­nio­nes ma­yo­ri­ta­rias de la gen­te, de una mo­ral “con­sen­sua­da” a par­tir de una am­plia vo­ta­ción.

Pa­ra con­se­guir es­ta ba­se for­mal de prin­ci­pios éti­cos pro­po­nen, en pri­mer lu­gar, rea­li­zar una es­pe­cie de en­cues­ta en­tre el ma­yor nú­me­ro de per­so­nas po­si­ble pre­gun­tán­do­les a quién ve­rían más éti­co atro­pe­llar en de­ter­mi­na­das si­tua­cio­nes en fun­ción de vec­to­res co­mo el nú­me­ro de víc­ti­mas afec­ta­das, su se­xo, su edad, su sa­lud, su ac­ti­vi­dad eco­nó­mi­ca o in­clu­so la es­pe­cie a que per­te­ne­cen, así co­mo si han co­me­ti­do o no al­gu­na in­frac­ción de trá­fi­co.

El se­gun­do pa­so que plan­tean es crear mo­de­los de pre­fe­ren­cia de ca­da uno de los vo­tan­tes pa­ra, en una ter­ce­ra fa­se, crear un mo­de­lo úni­co ba­sa­do en las pre­fe­ren­cias ge­ne­ra­les, de mo­do que en ca­da una de las si­tua­cio­nes plan­tea­das se ele­gi­ría la op­ción más vo­ta­da co­mo “la más éti­ca” por con­sen­so so­cial. El úl­ti­mo pa­so, se­gún la pro­pues­ta ela­bo­ra­da por los in­ves­ti­ga­do­res del MIT y de la CMU, se­ría agre­gar a los al­go­rit­mos de los co­ches au­tó­no­mos to­das esas pre­fe­ren­cias éti­cas pa­ra que cuan­do al vehícu­lo se le plan­tee un di­le­ma mo­ral si­mi­lar ac­túe se­gún lo que han de­ci­di­do la ma­yo­ría de los ciu­da­da­nos vo­tan­tes.

El sis­te­ma no es­tá exen­to de po­lé­mi­ca. El he­cho mis­mo de au­to­ma­ti­zar las res­pues­tas a si­tua­cio­nes com­ple­jas ya cau­sa con­tro­ver­sia, pues­to que no to­do el mun­do es­tá de acuer­do en que la reac­ción del co­che no de­pen­da de la opinión de quien via­ja den­tro. Pe­ro, ade­más, en cues­tio­nes de mo­ral uno pue­de no com­par­tir la pre­fe­ren­cia éti­ca de la ma­yo­ría so­bre si ha de an­te­po­ner­se la vi­da de las per­so­nas o la de los ani­ma­les, de los jó­ve­nes o de los an­cia­nos, de una em­ba­ra­za­da o de un in­di­gen­te, del inocen­te o del cul­pa­ble.

Pa­ra eva­luar la via­bi­li­dad de su teo­ría y es­tu­diar có­mo au­to­ma­ti­zar el pro­ce­so de en­cues­tas pa­ra ob­te­ner un re­sul­ta­do cla­ro pa­ra ca­da si­tua­ción, los in­ves­ti­ga­do­res han crea­do un si­tio web de­no­mi­na­do Má­qui­na Mo­ral (Mo­ral­ma­chi­ne.mit.edu), dis­po­ni­ble en diez idio­mas, don­de los usua­rios pue­den vo­tar qué de­be­ría ha­cer el co­che au­tó­no­mo an­te de­ter­mi­na­dos di­le­mas mo­ra­les o in­clu­so di­se­ñar nue­vos es­ce­na­rios o si­tua­cio­nes con­flic­ti­vas que creen que po­drían pre­sen­tar­se y so­bre los que ha­bría que re­fle­xio­nar y re­co­ger opi­nio­nes del má­xi­mo nú­me­ro de in­di­vi­duos.

“Es­te si­tio pre­ten­de pro­fun­di­zar en la dis­cu­sión –so­bre la éti­ca que de­be re­gir en las má­qui­nas in­te­li­gen­tes– pro­por­cio­nan­do una pla­ta­for­ma pa­ra cons­truir una ima­gen mul­ti­tu­di­na­ria (usan­do crowd­sour­cing) de la opinión de los hu­ma­nos so­bre có­mo las má­qui­nas de­ben to­mar de­ci­sio­nes cuan­do se en­fren­tan a di­le­mas mo­ra­les”, ex­pli­can sus au­to­res.

En la web se pre­sen­ta a los vo­tan­tes una se­rie de si­tua­cio­nes com­ple­jas en las que de­ben de­ci­dir cuál es el mal me­nor. En unos ca­sos se tra­ta de de­ci­dir si el co­che au­tó­no­mo de­be­ría es­qui­var un obs­tácu­lo pa­ra que los pa­sa­je­ros no su­fran da­ño aun­que ello su­pon­ga atro­pe­llar a unos ani­ma­les.

En otros, el di­le­ma obli­ga a po­si­cio­nar­se so­bre si va­len más las vi­das de unas mu­je­res o las de unos hom­bres, la de unas per­so­nas atlé­ti­cas o de la de un an­ciano, la de un eje­cu­ti­vo o un médico que la de unos la­dro­nes o unos in­di­gen­tes, la de dos pe­rros o la de un pe­rro y un gato... Y tam­bién a pon­de­rar la va­ria­ble “cul­pa­bi­li­dad”, pues en al­gu­nas cir­cuns­tan­cias al­gu­nos de los afec­ta­dos se han sal­ta­do una se­ñal de trá­fi­co o un se­má­fo­ro en ro­jo. La en­cues­ta es­tá abier­ta y cual­quier per­so­na pue­de vo­tar. Y el sis­te­ma mues­tra lue­go los re­sul­ta­dos: qué per­so­na­jes sal­va y cuá­les sacrifica con más fre­cuen­cia el usua­rio, sus pre­fe­ren­cias de gé­ne­ro o con re­la­ción al cum­pli­mien­to de la ley, y su po­si­cio­na­mien­to res­pec­to a la me­dia vo­ta­da por los otros usua­rios.

Pro­po­nen que los al­go­rit­mos apren­dan los prin­ci­pios éti­cos a tra­vés de las opi­nio­nes ma­yo­ri­ta­rias de la gen­te

En la web Má­qui­na Mo­ral se pre­sen­tan di­le­mas mo­ra­les pa­ra que el vo­tan­te de­ci­da cuál es el mal me­nor

Newspapers in Spanish

Newspapers from Spain

© PressReader. All rights reserved.