Robótica y ética, una relación confusa
Los avances tecnológicos van más rápidos que la normativa y sectores como la robótica y la inteligencia artificial precisan de una regulación global
Hace tiempo que en los aeropuertos sacamos la tarjeta de embarque nosotros mismos y en los supermercados y grandes superficies podemos pasar la compra con los códigos de barras y pagar sin necesidad del cajero. Los robots están en nuestro día a día y la irrupción de la robótica no será de un día para otro, sino que se introducirá poco a poco en nuestras vidas. Para hablar de esta transformación y de la ética en la robótica la Fundació Ernest Lluch invitó a una charla en el Palau Macaya de ”la Caixa” a dos expertos internacionales en el tema, la profesora de Investigación del CSIC y jefa del Grupo de Percepción y Manipulación del Instituto de Robótica e Informática Industrial de Barcelona, Carme Torras, y el investigador en el elaw-center for Law and Digital Technologies de la Leiden University de Holanda, Eduard Fosch. Los dos conversaron alrededor de la Robo-ética. Nuevos consensos en la relación humano robot, dentro del ciclo de diálogos Democracias perplejas.
Eduard Fosch es también al colíder del Grupo de Trabajo sobre Ethical and Societal Aspects for Weareable Robots en el European COST Action y considera que por primera vez la robótica y la inteligencia artificial (IA) reciben bastante atención a nivel regulatorio a diferencia de otras tecnologías que se han desarrollado como el cloud computing, pero en las que no se ha hecho un esfuerzo legislativo. “Vengo del Derecho y creo que falta la parte ética y filosófica en la ecuación para poder enmarcar las discusiones”, asegura Fosch. Porque “cuando la legislación vigente no es suficiente para dar respuesta a estos avances tecnológicos, la ética es una muy buena herramienta para poder hablar de cosas que nos están escritas aún. Es decir, conceptos más abstractos y generales que ayudan a tener discusiones que conduzcan a una normativa”.
QUIÉN LIDERA LA REGULACIÓN
¿Pero quién escribe estos principios y quién debería hacerlo? Todavía no está claro, según el experto, pero sí lo es que la Unión Europea ha dado un paso importante a nivel formal con la Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica. “Básicamente no sabemos si será Europa la líder en establecer estos principios o deberíamos tener una discusión más global”, apunta el experto. “Porque si nos planteamos que la globalización nos está acercando más, deberíamos sentarnos todos a la mesa y decidir los principios que deberíamos respetar”. Corea del Sur ya elaboró la Carta ética
de los robots y el Reino Unido tiene desde 2010 una serie de directrices al respecto. “Será interesante ver hasta qué punto estas directrices son vinculantes y quién las tiene que seguir”, apunta Fosch.
El experto considera que “las normas técnicas funcionan bastante bien, y son más prácticas y aplicables que los principios generales”. Por ejemplo, la regulación de la protección de datos elaborada de manera tecnológicamente neutra. “No importa la tecnología que uses, la regulación se aplica igualmente”, recuerda. “En el caso de la robótica, necesitaremos diferentes perfiles profesionales en la discusión, dependiendo del contexto donde desarrollaremos el robot”. Y en este sentido, debería haber una normativa marco y otras sectoriales, “porque es lo que tiene más sentido. Al final, cada robot es diferente y no tiene nada que ver un exoesqueleto con un robot que lleva medicinas del punto A al punto B. Si hablamos de robots que no tienen cámaras, no graban ni escuchan nada, no tiene sentido aplicar ciertas regulaciones”, asegura Fosch.
Con el auge del big data y la IA podemos crear robots que interactúen con los humanos o que tomen decisiones, pero ¿cómo evitar el sesgo y cómo saber por qué toma una decisión y no otra? “Pensamos que hablamos con los robots, pero no sabemos qué hay detrás, los servicios en la nube que usa, las compañías que tienen acceso a estos datos o si se han usado para aprender ciertos comportamientos”, explica el investigador que considera que en estos sistemas complejos es difícil entender quién es el responsable cuando algo va mal. “Parece que hemos llegado a un punto en el que queremos enseñar moral a los robots, pero no se pide que sus diseñadores tengan moral”, defiende Fosch. “Podemos invertir tiempo en entrenar a esos robots, pero creo que es más interesante entrenar a la gente. Tenemos la tendencia de fomentar las vocaciones STEAM, pero si no enseñas ética o aspectos legales lo que ocurrirá al final es que no seremos capaces de responder a las preguntas éticas”.
En cualquier caso, el proceso de robotización es silencioso, “parece que no ocurra, pero hay signos de automatización que se están haciendo tan bien que se integran en nuestro día a día y dificultan que entendamos lo que realmente pasa”. La paradoja es que puede llegar un día en el que el contacto humano esté reservado solo a las personas más acomodadas. “Quizás llegará un punto en el que lo artesano, la interacción humana, lo que se perciba como más genuino sea solo para las personas ricas”, reflexiona Fosch.