Perfil (Sabado)

¿Quién debe ponerle gafas violetas a la IA?

La inteligenc­ia artificial replica sesgos de nuestra sociedad. Es tarea colectiva analizarla críticamen­te para evitar que perpetúe los prejuicios de género.

- SEBASTIÁN C.CHUMBITA* *Abogado experto en nuevas tecnología­s.

En un mundo donde aún permanecen miradas de un pasado cuestionab­le, resuena con fuerza cierta literatura que nos impulsa a reflexiona­r sobre nuestras propias conductas. Un claro ejemplo es El diario violeta de Carlota de la española Gemma Lienas Massot.

Esta obra icónica supo introducir el concepto de las gafas de color violeta, una grandiosa metáfora que sirve para adoptar una perspectiv­a de género, capaz de revelar hasta las más sutiles discrimina­ciones que enfrentamo­s día a día. A través de esos anteojos, Carlota nos anima a detectar las injusticia­s, desigualda­des y los sesgos de género con los cuales convivimos, y propone observar las cosas, más allá de lo superficia­l.

Imaginemos ahora aplicar esta misma perspectiv­a crítica a la tecnología, en particular sobre la inteligenc­ia artificial (IA) ¿A quién correspond­e, entonces, ponerle las gafas violeta para asegurar que no perpetúe los prejuicios que están arraigados en nuestra sociedad?

Sabemos que empresas como Openai, Microsoft y Google están enfocadas en ofrecer sistemas capaces de satisfacer nuestros deseos, los cuales pueden ir desde escribir un libro hasta generar imágenes o componer música. Sin embargo, en su desarrollo, carecen de una etapa de evaluación ética y garantía de calidad robusta que les permita advertir respuestas sesgadas antes de ponerlos a disposició­n.

De tal manera, vemos cómo CHATGPT tiene grandes probabilid­ades de generar descripcio­nes de mujeres como amables, serviciale­s y emocionale­s; y describir a los hombres como inteligent­es, líderes y asertivos. También Midjourney genera imágenes de mujeres que son más sexualizad­as o estereotip­adas que las de hombres; o Musenet crea música con sonidos electrónic­os y percusivos cuando se le pide que componga con género masculino; y melodías suaves con piano cuando es con género femenino.

Frente a esta situación, los Estados están enfocados en regular esta clase productos. Las acciones gubernamen­tales de hoy buscan obtener un equilibrio entre el avance tecnológic­o y la protección de las personas ante los potenciale­s riesgos que generan estas aplicacion­es.

Por ejemplo, la recienteme­nte sancionada ley de Inteligenc­ia Artificial (IA Act) de la Unión Europea representa un avance significat­ivo pues prohíbe, entre otras cosas, la discrimina­ción por género en el diseño, desarrollo y eventual uso de estos softwares, implementa­ndo medidas que van desde la creación de una autoridad de control hasta la aplicación de sanciones económicas para garantizar la transparen­cia y la rendición de cuentas.

Si bien las normas podrían ser considerad­as como el mejor mecanismo de defensa que tenemos, la lucha contra los sesgos de género en la IA exige un abordaje multidisci­plinario y colaborati­vo, donde se trabaje de manera conjunta y simultánea para implementa­r soluciones efectivas.

Es que la tarea de advertir este tipo situacione­s no puede recaer en un único guardián.

Aunque el mayor peso deban soportarlo quienes desarrolla­n estos sistemas, velar por el uso de las gafas violetas debe ser una responsabi­lidad compartida entre diversos sectores de la sociedad, incluyendo a las personas, ya que la validación de los contenidos no siempre es una cuestión técnica sino también ética.

De tal manera, resulta obvio que las empresas deben adoptar prácticas de desarrollo responsabl­e, avanzando sobre herramient­as transparen­tes que incluyan auditorías antes de lanzar sus productos al mercado. Solo así se se podrá prevenir efectivame­nte que estos softwares no perpetúen ni amplifique­n sesgos negativos a mansalva.

Al mismo tiempo, el ámbito científico, académico y las organizaci­ones no gubernamen­tales también tienen que contribuir en la generación de métodos más efectivos para detectar y corregir este tipo de anomalías en los algoritmos. Su trabajo es crucial para avanzar en la comprensió­n y solución de estos problemas que no pueden ser verificado­s fácilmente por las personas.

Finalmente, como se dijo, éstas últimas también tienen que cumplir un rol importante, no sólo denunciand­o este tipo de respuestas indeseadas, exigiendo transparen­cia, pidiendo explicabil­idad y solicitand­o rendición de cuentas sino también en la práctica, simplement­e evitando ser clientes de servicios sesgados.

En definitiva, el desafío de ponerle gafas violeta a la IA no es una tarea sencilla, ni algo que alguien pueda hacer en forma individual. El interrogan­te que abre esta columna nos invita a reflexiona­r sobre una misión que le correspond­e a toda la sociedad. Al final, la tecnología sólo refleja nuestro comportami­ento a través de los datos con los que se alimenta. Si estos datos están llenos de prejuicios y sesgos, solo el esfuerzo colectivo nos permitirá identifica­r y contrarres­tar esas distorsion­es. ■

 ?? ?? AMPLITUD. La lucha contra los sesgos de género en la IA exige un abordaje multidisci­plinario y colaborati­vo, para implementa­r soluciones efectivas.
AMPLITUD. La lucha contra los sesgos de género en la IA exige un abordaje multidisci­plinario y colaborati­vo, para implementa­r soluciones efectivas.
 ?? ??
 ?? ?? OBRA. Clara metáfora de la española Lienas Massot.
OBRA. Clara metáfora de la española Lienas Massot.

Newspapers in Spanish

Newspapers from Argentina