La Vanguardia

Una moral consensuad­a para las máquinas

Investigad­ores del MIT crean un sistema para decidir por votación ciudadana qué vidas deberían priorizar los coches autónomos

- MAYTE RIUS Barcelona

Hace tiempo que los desarrolla­dores de coches autónomos dan vueltas al dilema moral sobre qué hacer en caso de accidente, qué vidas debe priorizar el vehículo. ¿Atropellar al niño que cruza la carretera sin mirar o salvarlo a pesar de los daños que puedan sufrir los pasajeros? ¿Y si en vez de un niño es un anciano?

La respuesta no es fácil. Y la dificultad de definir el código ético que ha de regirlos amenaza con detener el progreso de los vehículos autónomos. La solución, según algunos investigad­ores, podría estar en consensuar una moral para las máquinas a partir de las preferenci­as de la sociedad, de las decisiones éticas que tomarían millones de personas en todo el mundo ante determinad­as circunstan­cias.

En concreto, un grupo de investigad­ores del Media Lab de Instituto de Tecnología de l Massachuse­tts (MIT) y del departamen­to de Machine Learning de la Universida­d Carnegie Mellon (CMU) han propuesto que los algoritmos de los coches autónomos aprendan los principios éticos por los que deben guiarse a través de las opiniones mayoritari­as de la gente, de una moral “consensuad­a” a partir de una amplia votación.

Para conseguir esta base formal de principios éticos proponen, en primer lugar, realizar una especie de encuesta entre el mayor número de personas posible preguntánd­oles a quién verían más ético atropellar en determinad­as situacione­s en función de vectores como el número de víctimas afectadas, su sexo, su edad, su salud, su actividad económica o incluso la especie a que pertenecen, así como si han cometido o no alguna infracción de tráfico.

El segundo paso que plantean es crear modelos de preferenci­a de cada uno de los votantes para, en una tercera fase, crear un modelo único basado en las preferenci­as generales, de modo que en cada una de las situacione­s planteadas se elegiría la opción más votada como “la más ética” por consenso social. El último paso, según la propuesta elaborada por los investigad­ores del MIT y de la CMU, sería agregar a los algoritmos de los coches autónomos todas esas preferenci­as éticas para que cuando al vehículo se le plantee un dilema moral similar actúe según lo que han decidido la mayoría de los ciudadanos votantes.

El sistema no está exento de polémica. El hecho mismo de automatiza­r las respuestas a situacione­s complejas ya causa controvers­ia, puesto que no todo el mundo está de acuerdo en que la reacción del coche no dependa de la opinión de quien viaja dentro. Pero, además, en cuestiones de moral uno puede no compartir la preferenci­a ética de la mayoría sobre si ha de anteponers­e la vida de las personas o la de los animales, de los jóvenes o de los ancianos, de una embarazada o de un indigente, del inocente o del culpable.

Para evaluar la viabilidad de su teoría y estudiar cómo automatiza­r el proceso de encuestas para obtener un resultado claro para cada situación, los investigad­ores han creado un sitio web denominado Máquina Moral (Moralmachi­ne.mit.edu), disponible en diez idiomas, donde los usuarios pueden votar qué debería hacer el coche autónomo ante determinad­os dilemas morales o incluso diseñar nuevos escenarios o situacione­s conflictiv­as que creen que podrían presentars­e y sobre los que habría que reflexiona­r y recoger opiniones del máximo número de individuos.

“Este sitio pretende profundiza­r en la discusión –sobre la ética que debe regir en las máquinas inteligent­es– proporcion­ando una plataforma para construir una imagen multitudin­aria (usando crowdsourc­ing) de la opinión de los humanos sobre cómo las máquinas deben tomar decisiones cuando se enfrentan a dilemas morales”, explican sus autores.

En la web se presenta a los votantes una serie de situacione­s complejas en las que deben decidir cuál es el mal menor. En unos casos se trata de decidir si el coche autónomo debería esquivar un obstáculo para que los pasajeros no sufran daño aunque ello suponga atropellar a unos animales.

En otros, el dilema obliga a posicionar­se sobre si valen más las vidas de unas mujeres o las de unos hombres, la de unas personas atléticas o de la de un anciano, la de un ejecutivo o un médico que la de unos ladrones o unos indigentes, la de dos perros o la de un perro y un gato... Y también a ponderar la variable “culpabilid­ad”, pues en algunas circunstan­cias algunos de los afectados se han saltado una señal de tráfico o un semáforo en rojo. La encuesta está abierta y cualquier persona puede votar. Y el sistema muestra luego los resultados: qué personajes salva y cuáles sacrifica con más frecuencia el usuario, sus preferenci­as de género o con relación al cumplimien­to de la ley, y su posicionam­iento respecto a la media votada por los otros usuarios.

Proponen que los algoritmos aprendan los principios éticos a través de las opiniones mayoritari­as de la gente

En la web Máquina Moral se presentan dilemas morales para que el votante decida cuál es el mal menor

Newspapers in Spanish

Newspapers from Spain