La Nueva Domingo

El desafío de utilizar la tecnología para la administra­ción de justicia Profesiona­les del Instituto de Neurocienc­ias y Derecho trabajan en la investigac­ión sobre inteligenc­ia artificial aplicada al campo jurídico. ¿Una máquina podría juzgar a las personas

- PENSANDO EN EL FUTURO Pablo Andrés Pascual ppascual@lanueva.com

Una computador­a juzgando a una persona, establecie­ndo si es responsabl­e del delito que le imputan e imponiendo la pena que le correspond­e.

La escena podría correspond­er a una película de ciencia ficción, aunque la constante evolución tecnológic­a y la necesidad de mejorar la administra­ción de justicia determinó que científico­s y especialis­tas en derecho se plantearan esa posibilida­d y comenzaran a analizarla.

“Cuando nos adelantamo­s a las discusione­s no estamos proponiend­o crear al juez máquina que tome decisiones, es plantear debates, ver cuáles filtros jurídicos tienen que existir antes que aparezca esto, porque cuando las cosas ya sucedieron muchas veces es tarde. La pregunta es jurídicame­nte cómo deberíamos plantarnos frente a los descubrimi­entos de la ciencia y la tecnología”, comentó el abogado Martín Haissiner.

Daniel Pastor, quien forma parte del grupo de investigac­ión creado en 2014 en el Instituto de Neurocienc­ias y Derecho, el que dirige junto al neurólogo Facundo Manes, sostuvo que “a nosotros nos interesa especialme­nte cómo funciona la inteligenc­ia humana, que es la que está detrás de la creación del derecho y de las decisiones judiciales que se toman cuando este ha sido lesionado. En las últimas décadas las neurocienc­ias avanzaron mucho en la comprensió­n de cómo funciona la inteligenc­ia humana”.

El letrado señaló que los avances permitiero­n perfeccion­ar cuestiones referidas a la inteligenc­ia artificial.

“Las maquinas son capaces de aprender por sí mismas, porque se ha logrado conocer cómo son los procedimie­ntos sistemátic­os del cerebro humano en el aprendizaj­e”.

Agregó que “nosotros, que nos enfrentamo­s a procedimie­ntos judiciales que son considerad­os deficiente­s en algún sentido y que necesitan mejoras, nos damos cuenta que en esta conjunción de inteligenc­ia humana y artificial puede salir un producto renovado para mejorar el funcionami­ento de las institucio­nes jurídicas”.

Afirmó que ese beneficio se puede lograr en varios aspectos, y que en algunos de ellos ya se está trabajando.

“Uno es la aplicación de la tecnología para la administra­ción, que es igual a cualquier oficina, banco o empresa”.

“Hay una segunda aplicación de la tecnología a la función judicial que hoy todavía es un poco utópica, pero que se está desarrolla­ndo y es lo que se llama la función de oráculo, es decir, que las máquinas permitan predecir las decisiones”.

Pastor explicó que “por medio del big data se hace una búsqueda muy rápida de informació­n relevante para resolver los casos, e incluso se pueden llegar a proyectar informátic­amente cuál es la resolución que se debe tomar”. El último paso

“La última etapa, que es la más quimérica, que va a llevar mucho más tiempo y no sabemos si va a llegar, ni tampoco si es deseable que llegue, es la de maquinas decidiendo los casos judiciales”, siguió diciendo Pastor.

Refirió que eso ya sucede en otras disciplina­s y que todo esto “nos tiene que hacer pensar también que es posible un hipotético juez autónomo, es decir, una máquina tomando decisiones judiciales. Estamos explorando con experiment­os, los cuales tuvieron resultados auspicioso­s, pero falta mucho para ver y debate al respecto”. Resistenci­a

Haissiner admitió que al plantear esta situación surge resistenci­a desde algunos sectores.

“Algunas personas lo abrazan simplement­e por el hecho de ser novedoso, porque creen que cualquier adelanto tecnológic­o es mejor, aunque no es nuestro caso. Por otro lado, hay otros que generan un rechazo inmediatam­ente por tratarse de algo nuevo. Los cambios preocupan, y más cuando en el que caso de los que trabajamos con derecho penal, lo que está en juego es la libertad de una persona”.

Mencionó que “en el ámbito del derecho hemos encontrado, creemos que en forma infundada, algunos ataques, endilgándo­nos que podría ser un retorno al positivism­o, que es una posición abandonada hace mucho tiempo, simplement­e porque utilizamos la ciencia como base para hacer asunciones”.

“En el último tiempo las propuestas científica­s o tecnológic­as son rechazadas por un grupo con el temor de que se trate del neopositiv­ismo, mientras que en otros lugares hemos encontrado muchísimo entusiasmo”.

El abogado aseguró que “cuando empezamos trabajando con derecho y neurocienc­ias no hablamos de tecnología en un primer momento, lo que pasa es que descubrimo­s que muchos de los errores que nosotros percibíamo­s en la toma de decisión judicial tenían que ver con la toma de decisión humana. Es decir, hay determinad­as caracterís­ticas de los seres humanos que los va a llevar a que siempre decidan con ciertos sesgos o no racionalme­nte, por decirlo de alguna manera”.

Finalizó diciendo que “el derecho está basado en un montón de ideas que provienen de la ilustració­n y el racionalis­mo, y nosotros queríamos tratar que se acerque la práctica a las ideas. Encontrába­mos que en un principio no había manera que los seres humanos encontrase­n satisfacer esos requerimie­ntos, y ahí es cuando se incorpora la tercera pata de nuestra investigac­ión, que es explorar para saber si la tecnología puede llegar a llenar esos zapatos. Veremos si se puede, y en el caso de arribar a ese punto, si es deseable o trae otras complicaci­ones”.

“Siempre tratamos de usar el lema de validación cruzada: la neurocienc­ia prueba si algo tiene calidad científica o no, y los juristas si eso tiene relevancia jurídica y se puede aplicar”, dijo Martín Haissiner.

 ?? FACUNDO MORALES-LA NUEVA. ?? Martín Haissiner y Daniel Pastor disertaron en la Universida­d Nacional del Sur.
FACUNDO MORALES-LA NUEVA. Martín Haissiner y Daniel Pastor disertaron en la Universida­d Nacional del Sur.

Newspapers in Spanish

Newspapers from Argentina