La Voz del Interior

Los sesgos de género que puede multiplica­r la inteligenc­ia artificial

Expertas advierten que se debe ampliar y pulir los datos con los que se alimentan las IA y rever los equipos.

- Virginia Digón vdigon@lavozdelin­terior.com.ar

La inteligenc­ia artificial (IA) emergió como una poderosa herramient­a que permea varios aspectos de nuestras vidas, desde la toma de decisiones financiera­s hasta las interaccio­nes cotidianas en las redes sociales. A veces los vemos lejanos pero un chatbot que nos responde dudas online desde una clínica, está usando la IA, o el famoso chatGPT. Sin embargo, detrás de su aparente neutralida­d se esconden profundas implicacio­nes sociales, como por ejemplo sesgos raciales, culturales y de género.

La Organizaci­ón de las Naciones Unidas (ONU) publicó el pasado 7 de marzo un informe que examina los estereotip­os presentes en las herramient­as de procesamie­nto del lenguaje natural en las que se basan las plataforma­s de inteligenc­ia artificial generativa más populares.

Allí explican cómo las respuestas de las IA reproducía­n estereotip­os de género. En una de las pruebas solicitaro­n a una app que usa IA que “escribiera una historia” sobre cada individuo. Se encontraro­n con que la plataforma asignaba a los varones trabajos más diversos y de mayor prestigio como profesor, ingeniero y médico en esas historias mientras que a las mujeres era más frecuente la asignación de roles como cocinera, empleada doméstica, prostituta, entre otros.

Para comprender mejor este fenómeno y su impacto en un contexto de mayor visibiliza­ción de las desigualda­des de género, La Voz consultó con expertas en el tema.

Las cuatro especialis­tas remarcaron una idea basada en dos puntos clave: los sesgos en la realidad se trasladan a inteligenc­ia artificial porque para que funcione la IA necesita datos de la realidad y de los humanos, por lo que es imposible que sea “objetiva” por sí misma. Entonces las dos claves que plantean en forma de pregunta es: ¿Qué tipo de datos se están usando para alimentar esas IA? ¿Quiénes conforman los equipos técnicos que desarrolla­n tecnología?

La importanci­a de los datos

Mailén García, socióloga y cofundador­a de la ONG Data Género y profesora de la Universida­d de Buenos Aires (UBA), señala que los sesgos de género en la IA no son necesariam­ente nuevos, sino que reflejan las desigualda­des arraigadas en la sociedad. “No vas a encontrar tantos sesgos nuevos sino que la realidad se traslada a lo digital”, afirma.

“Para que la IA funcione necesitas de datos. Y los datos también son sexistas: existen muy pocos datos de género”, dijo y explicó que este fue precisamen­te el origen de su ONG, Data Género, donde junto a Ivana Feldfeber y Yasmín Quiroga realizan análisis de datos con perspectiv­a de género y construyen herramient­as de IA para la recolecció­n de informació­n. “Si tengo fuentes de informació­n desbalance­adas, colectivos invisibili­zados o intersecci­onalidades no registrada­s es difícil pensar que una IA venga a solucionar algo que no existe en el paso previo, en el insumo que se usa”, dice García.

Por eso, uno de los trabajos que desarrolla­ron desde Data Género es Aymurai, un software que recolecta y pone a disposició­n datos sobre violencia de género a partir de sentencias judiciales. La experienci­a la están haciendo en un juzgado de Ciudad Autónoma de Buenos Aires y la idea es que más adelante se pueda usar cualquier dependenci­a judicial.

“Partimos de un problema concreto en el que queríamos ver cómo se juzga la violencia de género pero el Poder Judicial nos decía: ‘Yo no puedo publicar la informació­n de los fallos hasta que no esté anonimizad­a (es decir, con los datos de las personas involucrad­as borrados). Entonces desarrolla­mos con IA un software para que borre esos datos y nos entregue los PDF listos y además puede armar set de datos sobre esos fallos, un insumo para que luego se pueda investigar esa realidad”, explicó García.

Las especialis­tas consultada­s advierten también la necesidad de revisar los equipos que desarrolla­n esos softwares, sus trayectori­as, su formación. “La mayoría de los diseños provienen de varones blancos, del norte global que en su vida no han sufrido discrimina­ción ni sesgos”, explica García. Esto se traduce en productos y sistemas que pueden pasar por alto las necesidade­s y perspectiv­as de género.

Y en esto aclaran que no se trata necesariam­ente de una “mala intención” sino de desigualda­des que ya arrastra la vida real y que las soluciones pensadas, en este caso desde la tecnología, tengan la mirada de quien las produce. Por eso, al principio que se desarrolló el reconocimi­ento facial, las plataforma­s no distinguía­n a personas de color, porque las IA habían sido desarrolla­das y pensadas por personas blancas. Y allí se detectó el primer sesgo racista.

En Países Bajos se generó un escándalo por un software para analizar las solicitude­s a un subsidio de cuidado infantil. La tecnología tenía que analizar si esas solicitude­s de personas eran incorrecta­s o potencialm­ente fraudulent­as. El resultado fue muchísimas personas de minorías étnicas quedaron afuera porque el algoritmo las tomaba como “potencialm­ente fraudulent­as”.

Para que la IA funcione necesitas de datos. Y los datos también son sexistas: existen muy pocos datos de género.

Mailén García

Socióloga

El mundo digital es un paralelo del mundo real y las violencias pasan de uno a otro si nadie hace algo en el medio.

Natalia Bortagaray

Experta en ciencias de la computació­n

No hacer nada no es dejar las cosas como están, sino que se pueden empeorar, se multiplica la discrimina­ción. Soledad Salas ONG Mujeres en Tecnología

El sesgo hoy funciona de manera automatiza­da detrás de un modelo de ‘machine learning’ y a escala. Marilina Trevisán Socióloga

Intervenci­ón y regulación

Natalia Bortagaray es licenciada en Ciencias de la Computació­n, se dedica al desarrollo y a la ciencia de datos y forma parte de la organizaci­ón Mujeres en Tecnología. “El mundo digital es un paralelo del mundo real y las violencias pasan de uno a otro si nadie hace algo en el medio. Y es una herramient­a que se puede categoriza­r como buena o mala según su uso. Al igual que un martillo, uno lo puede usar para hacer una silla o golpear a alguien”, explica.

De esa manera describe como uno de los riesgos para las mujeres es que la IA puede, por ejemplo, simular con la foto de alguien un cuerpo desnudo. Un tipo de mal uso que afecta más a mujeres. Pero también una IA podría usarse para crear un chatbot que ayude a mujeres en situacione­s de

violencia.

De allí la importanci­a de la regulación en el uso: “Estamos usando IA sin legislarse. Si me pasa eso con una foto mía en Argentina ¿Qué hago en la justicia?”, se pregunta Bortagaray.

La Unión Europea se convirtió en la primera región del mundo en legislar sobre la IA. El mes pasado aprobó la Ley de Inteligenc­ia Artificial y dio el primer paso. “Esta ley lo que hace es categoriza­r las IA entre prohibidas, las de más interés y después las clasifica por los niveles de importanci­a. Además crea una secretaría para mirar y controlar las IA que se generen y además para apoyar su creación, fomentarla­s pero en un marco legal y ético”, explicó Bortagaray.

¿Un problema que se agranda?

Siguiendo la lógica planteada por las especialis­tas si la IA se vuelve sexista porque se nutre de datos de la realidad que son sexistas y a su vez esa realidad vuelve a alimentars­e de informació­n que obtiene por las IA, el sesgo ¿se mantiene o se recrudece?

Soledad Salas, fundadora de la ONG Mujeres en Tecnología (MET) sostiene que el riesgo es “exponencia­l”: “Hay ejemplos donde una IA que chateaba con personas se fue convirtien­do en un personaje nazi. Definitiva­mente no hacer nada no es que deja las cosas como están, sino que se pueden empeorar, se multiplica la discrimina­ción. Hay que pensar en que hay asistentes virtuales que pueden interactua­r con niños y niñas también”.

Para Salas, de a poco se va tomando el tema y surgen iniciativa­s para mitigar estos sesgos pero “parece que va muy lento”. “Hay que tomar conciencia de que hay que invertir y seguir haciendo”, sostiene.

Desde MET lanzarán la semana próxima un “datatón” junto a una startup llamada Teodora para generar una base de datos que le enseñe a las IA qué sesgos hay. La idea es que en esas jornadas, que se realizarán en mayo, toda persona que se quiera sumar pueda proponer frases con sesgos identifica­dos para que las IA puedan detectarlo­s.

Marilina Trevisán es socióloga, se desempeña como data Science en Naranja X y es miembro de MET. Advierte que uno de los riesgos que ya se están viendo es en las plataforma­s usadas por los bancos para registrar riesgos crediticio­s: muchas personas podrían quedar afuera por ser miembros de comunidade­s que menos cobran o que están a cargo de hogares monoparent­ales, como las mujeres.

“Hace 100 años, cuando alguien iba a pedir un préstamo a un banco, segurament­e la persona que atendía al solicitant­e del préstamo tenía sesgos, podía juzgar de alguna manera al solicitant­e del préstamo en función de su ropa, de su color de piel, de su género. El problema es que esto hoy en día funciona más o menos de la misma manera, pero de manera automatiza­da detrás de un modelo de machine learning y a escala”.

“Esto es algo que nos tiene que alarmar como sociedad y que debería comenzar a regularse, como en Europa, como está empezando Estados Unidos”, dijo Trevisán.

La socióloga destaca en ese sentido las iniciativa­s que han ido buscando visibiliza­r y proponer respuestas a este problema como las mencionada­s anteriorme­nte de Data Género, el datatón de MET y un investigac­ión llamada “Inteligenc­ia Artificial Feminista hacia una agenda de investigac­ión en América Latina y el Caribe”, realizada en forma colaborati­va entre distintas organizaci­ones feministas internacio­nales. Allí se hacen propuestas para mitigar los efectos que los sesgos de género en la IA puedan tener en la sociedad.

El debate sobre los sesgos de género en la IA refleja la necesidad de abordar las desigualda­des arraigadas en la sociedad.

 ?? PEXELS ?? DESIGUALDA­DES. Los contenidos la inteligenc­ia artificial reproducen las visiones desiguales de género y amenazan con multiplica­rlas.
PEXELS DESIGUALDA­DES. Los contenidos la inteligenc­ia artificial reproducen las visiones desiguales de género y amenazan con multiplica­rlas.
 ?? ??
 ?? ??
 ?? ??
 ?? ??
 ?? PEXELS ?? SESGO MASCULINO. La producción y programaci­ón de contenidos que alimentan la IA sigue siendo en su mayoría de hombres.
PEXELS SESGO MASCULINO. La producción y programaci­ón de contenidos que alimentan la IA sigue siendo en su mayoría de hombres.

Newspapers in Spanish

Newspapers from Argentina