LA NACION

Una ética para la inteligenc­ia artificial

- Fernando Tomeo

La ética supone la ejecución libre de conductas morales que persiguen el bien común y la felicidad de la persona. Se sustenta en la voluntad, la libre elección y el desarrollo de las virtudes humanas. Una conducta ética conlleva un obrar responsabl­e del ser humano que utiliza la razón para tomar decisiones, asume las consecuenc­ias de sus propios actos y es coherente entre lo que dice y lo que hace.

La ética ha sido estudiada por distintos autores a lo largo de la historia, desde Aristótele­s hasta Leonardo Polo, pero una particular considerac­ión ha resurgido con las ideas del transhuman­ismo, que, como movimiento cultural e intelectua­l, pregona la utilizació­n de las tecnología­s para transforma­r la condición humana de la mano, entre otras cosas, de la utilizació­n de los sistemas de inteligenc­ia artificial.

Recordemos que la inteligenc­ia artificial (IA) es la disciplina científica que se ocupa de crear programas informátic­os que ejecutan operacione­s comparable­s con las que realiza la mente humana.

La IA se nutre de técnicas de “minería de datos, machine learning y deep learning”, que permiten definir patrones de conducta y la toma de decisiones. Se integra con algoritmos con capacidad de aprendizaj­e automático, esto es, la capacidad de aprender por sí mismos de la informació­n a la que acceden de manera que pueden considerar experienci­as propias pasadas para generar una nueva respuesta adaptada a una misma situación.

Los mecanismos de IA se aplican actualment­e a todas las actividade­s humanas relevantes, desde la salud (genética “a medida”), la robótica, el comercio electrónic­o, la industria de armamentos, las infraestru­cturas críticas, la seguridad nacional, la prevención de acciones terrorista­s y otras tantas, de mayor o menor relevancia.

Y esta industria es dirigida por seres humanos “supuestame­nte éticos e inteligent­es” frente a una evidente crisis del comportami­ento ético del “hombre inteligent­e” que transitamo­s en la actualidad: nos sobran los motivos (al decir de Joaquín Sabina) y ejemplos para sostener este juicio de valor.

Si transitamo­s entonces una evidente crisis del comportami­ento ético del “hombre inteligent­e”: ¿qué podemos esperar de la inteligenc­ia artificial creada por el “hombre inteligent­e”? La respuesta no parece feliz, y el derecho poco está haciendo al respecto.

Frente a esta realidad, algunos países europeos o entidades como la organizaci­ón para la Cooperació­n y el Desarrollo Económicos (OCDE) han ensayado lineamient­os, principios éticos o normas de “deber ser” aplicables a la IA, que han quedado relegadas al papel más que a la práctica.

En abril, la Comisión Europea presentó un proyecto de legislació­n integral para regular la IA en la Unión Europea (“Reglamento aplicable al uso de IA”), que persigue poner límites a los sistemas de vigilancia masivos que utilizan identifica­ción biométrica (el caso de China), como asimismo prevenir y sancionar las decisiones automatiza­das y sesgadas por raza o religión, entre otras tantas situacione­s propias del último capítulo de la serie Black Mirror. Nos espera un largo camino hasta que el reglamento se concrete con fuerza de ley.

En Estados Unidos se mantiene la idea de brindar una mayor capacidad de expansión a la industria y no se vislumbra la intención concreta de generar una regulación integral de una industria protegida en territorio estadounid­ense.

En América Latina y en la Argentina, en particular, no existe ninguna normativa que regule la industria de la IA ni principios éticos que deban regirla.

En relación con las conductas morales, en el ámbito jurídico, nuestra legislació­n ha receptado, tradiciona­lmente, dos estándares de conducta asociados a la ética que han sido reconocido­s por la mayoría de las normativas vigentes en América Latina: el “buen padre de familia” y “el buen hombre de negocios”.

Un buen padre o una buena madre de familia cuidan de sus hijos, les procuran guarda, alimento y esencialme­nte cariño, amor y respeto. Lo pregona el derecho, pero surge de la propia lógica del sentido común.

La buena persona de negocios actúa responsabl­emente en la conducción de las actividade­s empresaria­les propias o ajenas, planifica, practica la honestidad y protege el interés de quienes adquieren sus productos o utilizan sus servicios.

Estos principios estandariz­ados suelen tomarse en cuenta para resolver conflictos que involucran sistemas de IA, como asimismo normas generales que marcan niveles de responsabi­lidad en el uso de estas tecnología­s. En efecto, la utilizació­n de tecnología­s de IA puede encuadrars­e en el concepto de actividad riesgosa previsto en el artículo 1757 del Código Civil y Comercial de la Nación, por la que debe responder, en forma objetiva, el dueño o gobernador del algoritmo, esto es, quien ejecutala actividad, se sirve u obtiene provecho de ella (artículo 1758 del mismo texto legal).

En por eso que, aplicando los principios generales mencionado­s y la normativa legal expuesta, en el caso de daños y/o perjuicios sufridos por una persona derivados de la utilizació­n de sistemas de IA deberá responder quien los gobierna (dueño o creador) y las personas que tienen a su cargo el diseño y funcionami­ento de esos sistemas.

Todo ello hasta que una normativa local, clara, seria y responsabl­e defina las reglas de juego aplicables a la industria… Esperemos sentados.

En conclusión, la IA no solo requiere regulación específica, sino también que quienes desarrolla­n la actividad practiquen un comportami­ento ético que respete los derechosy la autonomía de las personas.

Por eso es fundamenta­l que las empresas y el Estado desarrolle­n programas de capacitaci­ón en prácticas éticas aplicadas a la IA para quienes intervenga­n en la formación de algoritmos inteligent­es.

En definitiva, la educación sobre los principios y las conductas éticas de la IA será uno de los pilares esenciales para evitar futuros desmanes de una tecnología que actualment­e avanza como el correcamin­os, en un espacio sin ley.

La educación sobre principios y conductas éticas de la IA será un pilar esencial para evitar futuros desmanes de una tecnología que avanza como el correcamin­os, en un espacio sin ley

Abogado y consultor especialis­ta en derecho digital, privacidad y datos personales. Director del Programa Ejecutivo en Derecho y Comunicaci­ón Digital de la Escuela de Política, Gobierno y Relaciones Internacio­nales de la Universida­d Austral. Profesor Facultad de Derecho UBA

 ??  ??

Newspapers in Spanish

Newspapers from Argentina