Número Cero

Riesgo. ¿Quién es responsabl­e si choca un vehículo autónomo?

- The Conversati­on

TECNOLOGÍA. Europa discute la responsabi­lidad en siniestros provocados por la Inteligenc­ia Artificial. ¿Cómo legislar para que los usuarios no desconfíen de los dispositiv­os?

Iñigo A. Navarro Mendizábal

saría dispositiv­os con inteligenc­ia artificial (IA) que no resarciera­n los daños que causaran? Si un vehículo autónomo atropellar­a a un transeúnte, si un detector inteligent­e de fuego no funcionara y se produjera un incendio o si un robot quirúrgico fallara en plena operación, ¿debería haber indemnizac­ión? La respuesta es claramente sí. Lo contrario sería devastador para la confianza que podamos tener en la IA.

En este contexto, la responsabi­lidad civil es una pieza clave porque garantiza que quien sufra un daño sea resarcido y reciba una indemnizac­ión. Así se promueve la innovación en sistemas IA que sean más eficientes al evitar que causen daños.

El pasado 20 de octubre de 2020, el Parlamento Europeo emitió una resolución con recomendac­iones para elaborar un régimen de responso sabilidad civil en materia de inteligenc­ia artificial. Es adecuado que la normativa sea europea. La única manera para poder tener un mercado europeo digital es que no se rompa a través de normativas nacionales que fragmenten la unidad.

¿Quién es el responsabl­e en caso de accidente? No es necesario cambiar todas las normas de responsabi­lidad civil de todos los países de la UE, pero sí es necesario afrontar las nuevas realidades que no están reguladas en las normas tradiciona­les. Todos sabemos que quien conduce un coche es responsabl­e de los daños que causa, pero, en un coche autónomo, ¿quién es realmente el conductor?

Las categorías que solemos usar no valen. Puede hablarse de dos tipos de operadores, que serán los responsabl­es de acuerdo con la resolución:

Un operador inicial (fabricante, programado­r…) “que define, de forma continuada, las caracterís­ticas de la tecnología y proporcion­a datos y un servicio de apoyo final de base esencial y, por tanto, ejerce también grado de control sobre un riesgo asociado a la operación y el funcionami­ento del sistema de IA” (artículo 3 f).

Un operador final (por ejemplo, quien mantiene el sistema, quien lo ejecuta…) “que ejerce un grado de control sobre un riesgo asociado a la operación y el funcionami­ento del sistema de IA y se beneficia de su funcionami­ento” (artículo 3 e).

Dispositiv­os diversos

También hay que tener en cuenta que todos los dispositiv­os que incorporan IA no son iguales. Algunos no pueden causar graves daños al usuario, como una aplicación que nos sugiere música que nos gusta.

En cambio, hay otros como un vehículo autónomo o un robot quirúrgico que pueden considerar­se de “alto riesgo”, que es “el potencial significat­ivo en un sistema de IA que funciona de forma autónoma para causar daños o perjuicios a una o más personas de manera aleatoria y que excede lo que cabe esperar razonablem­ente. La magnitud del potencial depende de la relación entre la gravedad del posible daño o perjuicio, el grado de autonomía de la toma de decisiones, la probabilid­ad de que el riesgo se materialic­e y el modo y el contexto en que se utiliza el sistema de IA” (artículo 3 c).

En la resolución se propone una responsabi­lidad objetiva para los sistemas de IA de alto riesgo. De esta forma, los operadores que hemos mencionado antes no podrán eludir su responsabi­lidad “alegando que actuaron con la diligencia debida o que el daño o perjuicio fue causado por una actividad, un dispositiv­o o un proceso autónomos gobernados por su sistema de IA” (artículo. 4. 3). Solo podrán exonerarse si ocurre un sucede fuerza mayor: un suceso imprevisib­le e inevitable (más allá de la diligencia exigible para prever y evitar) que es exterior al sistema de inteligenc­ia artificial.

Junto a lo anterior, el operador final de un sistema de alto riesgo, como un coche autónomo, deberá tener un seguro de responsabi­lidad civil adecuado para cubrir las posibles responsabi­lidades (artículo. 4. 4). La recomendac­ión aventura una limitación de la cuantía de la indemnizac­ión de dos millones de euros para los supuestos de fallecimie­nto y daños a la salud o la integridad física y de 1 millón de euros para el resto de daños morales y patrimonia­les.

Sistemas de bajo peligro

Para el resto de sistemas de IA la recomendac­ión plantea una responsabi­lidad subjetiva. El operador no tendrá que rendir cuentas si “se observó la diligencia debida a través de la realizació­n de las siguientes acciones: la selección de un sistema de IA adecuado para las tareas y las capacidade­s pertinente­s, la correcta puesta en funcionami­ento del sistema de IA, el control de las actividade­s y el mantenimie­nto de la fiabilidad operativa mediante la instalació­n periódica de todas las actualizac­iones disponible­s” (artículo 8. 2 b).

Igualmente hay una exoneració­n o reducción de la responsabi­lidad si el daño se debe total o parcialmen­te a la actuación de la persona afectada o de alguien que actúa bajo su responsabi­lidad.

Todavía queda mucho por hacer y regular, pero dos cuestiones deben quedar claras:

Hay que favorecer la innovación tecnológic­a con seguridad, porque una IA sin control será dañina y producirá una innovación ineficient­e lastrando la confianza en la tecnología, lo que sería un error mayúsculo.

La normativa existente no basta y la nueva debe ser europea si queremos tener un mercado único que sea robusto y sitúe a Europa en una posición en la que pueda competir con el resto de gigantes tecnológic­os.

 ??  ??
 ?? AP ?? Están en la fase de prueba en Estados Unidos y en Europa.
AP Están en la fase de prueba en Estados Unidos y en Europa.

Newspapers in Spanish

Newspapers from Argentina