Cambiar el futuro del sector legal
Atrás, pero avanza más pausada, mientras elabora una normativa sobre inteligencia artificial.
La Administración de Justicia ya está utilizando sistemas basados en algoritmos
Se ha observado en varios proyectos de IA que se perpetúan los prejuicios sobre raza o género
También tiene como objetivo generar conocimientos e ideas que puedan respaldar la formulación de políticas públicas en estos campos”.
De Elizalde destaca igualmente que, respecto a la administración de Justicia, el organismo pondrá en valor el potencial de la IA en la gestión de procedimientos y su posible utilización en la resolución de conflictos, incluyendo medios alternativos.
Situación actual
Hay que tener en cuenta que, según apuntan los expertos, el terreno de la inteligencia artificial todavía tiene que recorrer un largo camino antes de ser totalmente fiable. Al menos así lo entiende Mitisha Gaur, investigadora centrada en la inteligencia artificial de la Scuola Superiore Sant’Anna de Pisa (Italia), que afirma que en el estado actual de técnica en el ámbito de la justicia predictiva y los sistemas de IA no parece que puedan funcionar de forma racional, justa e imparcial, en la medida en que tienen que llevar a cabo tareas de alto riesgo como desempeñar funciones de adjudicación en los tribunales o proporcionar análisis precisos relativos a la posible reincidencia de delincuentes.
De hecho, apuntala Gaur, “en la mayoría de los casos,
Para alcanzar una justicia predictiva hay que contar con un gran número de datos y esto puede generar problemas. “La elaboración de perfiles de datos en el sistema judicial puede llevar a exacerbar la desigualdad o incluso la discriminación y puede utilizarse para manipular la información, e incluso, a personas. Con estas herramientas es posible seleccionar con precisión mensajes adaptados a una cierta audiencia y esto puede afectar a la imparcialidad de los jueces”, comenta Karolina OleksinskaGrabowska, especialista en protección de datos y tecnologías de la información de la Universidad de Varsovia. “Así que todo se ha observado que los proyectos basados en inteligencia artificial perpetúan los prejuicios sociales preexistentes relativos a la raza, el género, la situación económica, etcétera. Por lo tanto, en este momento, no creo que estos sistemas se puedan considerar como un punto de referencia en el ámbito de la justicia predictiva”.
En la misma línea se mueve la especialista de la Universidad de Varsovia (Polonia) en protección de datos y tecnología de la información, Karolina Oleksinska-Grabowska, que afirma que lo que parece peligroso y podría generar muchos riesgos es que los jueces se basen exclusivamente en estos sistemas para tomar decisiones y reduzcan su propia participación.
“Que un juez, debido a su gran confianza en inteligencia artificial, emita una sentencia basada únicamente en las sugerencias generadas por este tipo de herramienta sería un peligro. En mi opinión, los sistemas de IA deberían, en última instancia, apoyar el trabajo de los jueces, no sustituirlo”, añade la experta.
Está claro que todavía queda mucho trabajo por hacer para que este tipo de aplicación de la inteligencia artificial a la justicia sea justa y transparente, pero la investigación actual que profundiza en conceptos éticos y técnicos permitirá su llegada cuando lo pros superen a los contras. depende de la cantidad de datos, de la calidad de los mismos y de cómo vayamos a entrenar los algoritmos. A la hora de construir sistemas necesitamos abogados y jueces que también tengan conocimientos en otras ciencias”.
El debate sobre cómo debe ser la regulación de las nuevas tecnologías es complicado y lo mismo ocurre con la inteligencia artificial. “Aunque los reguladores tengan buenas intenciones, el problema es hacer cumplir las normas y aplicarlas a las soluciones tecnológicas existentes y nuevas”, dice Maciej Hulicki, profesor de la facultad de Derecho y Administración de la Universidad Cardenal Stefan Wyszyn (Polonia). “Debe evitarse la promulgación de leyes inaplicables en materia de regulación de las nuevas tecnologías, ya que sólo pueden constituir una carga para las empresas y no tendrán efectos positivos en la sociedad. Parece razonable empezar a regular la IA con
“La tarea de juzgar en los tribunal está limitada a los seres humanos con capacidades cognitivas avanzadas y experiencia relevante”, afirma Mitisha Gaur, investigadora centrada en la inteligencia atificial de la Escuela Superior Sant’Anna de Pisa. “Lo que pretendemos que logren y emulen los sistemas de inteligencia artificial que trabajan con la justicia predictiva es que tengan la capacidad de poder ir más allá de los cálculos estadísiticos basados en los datos que se han introducido en el sistema –que a menudo están inherentemente sesgados o se han recogido de manera inadecuada– y abarcar la singularidad de cada caso. El objetivo es que el
La inteligencia artificial tendrá un impacto en el conjunto de los sectores económicos. Uno de los más avanzados es el de la automoción con los vehículos autónomos. Sin embargo, ya se vislumbran posibles problemas legales, como cuando la aplicación de la IA afecte a la integridad física de una persona. Como indica Sara Sánchez, profesora de Derecho y codirectora de la IE Legal Clinic de IE Law School, “si una demanda por daños causados por un coche autónomo se planteara en los tribunales españoles, como nuestro país es parte del convenio internacional en esta materia, se determinaría un régimen jurídico de forma diferente que, normas básicas y flexibles, ya que un conjunto de regulaciones exhaustivas podría hacer descarrilar el desarrollo de la tecnología y ahogar la competencia y la innovación en el mercado”, concluye. sistema sea deliberativo, como un juez, y no predictivo por naturaleza”. Gaur habla igualmente de la necesaria lucha contra el sesgo, aunque sea imposible eliminarlo por completo. por ejemplo, en un juzgado germano, ya que Alemania no es parte y se aplicarían las normas europeas. El resultado final sería diferente en función de la jurisdicción en la que se demande”.