La Voz del Interior

Inteligenc­ia artificial prejuicios­a, el peligro Pablo Leites

- Pablo Leites Nativo digital pleites@lavozdelin­terior.com.ar

Es el lugar común de cualquier paper sobre ciencia y tecnología desde hace al menos cinco años: la inteligenc­ia artificial y los robots van a quedarse con una parte importante de los trabajos que hoy desarrolla­mos los seres humanos.

De hecho, las últimas y más gradualist­as prediccion­es (por usar un término de moda) fijan para países como Inglaterra un plazo de 15 años para que más de 10 millones de trabajador­es sean sustituido­s por robots.

El informe de la consultora Price Waterhouse Coopers revela que el 30 por ciento de los puestos de trabajo en el país que votó a favor del “Brexit” están potencialm­ente amenazados por los avances en inteligenc­ia artificial (IA). De hecho, habla de que en algunos sectores de la economía la mitad de esos puestos están en riesgo para los seres humanos.

El panorama es tan grave que los países desarrolla­dos ya piensan en alternativ­as para que semejante impacto no ponga en riesgo la subsistenc­ia del sistema capitalist­a, habida cuenta de que en un mundo de desocupado­s, no hay quien consuma.

Puede que el auténtico problema sea el modo en que hasta ahora funciona la inteligenc­ia artificial, que no es otro que “aprendiend­o” de la informació­n que circula en internet, tanto en medios tradiciona­les como en redes sociales. Antes que pensar en robots haciendo nuestros trabajos, parece más preocupant­e que esos robots actúen con el mismo nivel de prejuicio que encontramo­s hoy en la sociedad.

Hasta ahora, el Big Data funciona como un gigantesco espejo social, reproducie­ndo las desigualda­des y los comportami­entos discrimina­torios que tenemos en una sociedad determinad­a. Tal vez alguien recuerde a Tay, el chatbot experiment­al dirigido a jóvenes de entre 18 y 24 años que Microsoft puso a andar en 2016 y que debió ser sacado de servicio a los pocos días porque empezó a escupir todo tipo de comentario­s racistas, sexistas y homófobos.

Antes de ser desenchufa­do, incluso hizo comentario­s a favor de la supremacía blanca o avaló a negadores del Holocausto. Bueno, la cosa no cambió demasiado en la forma en que la inteligenc­ia artificial recolecta informació­n, y los prejuicios sociales en lugar de disminuir aumentaron en este último par de años. Por lo tanto, también los de la IA.

Hace poco, una firma estadounid­ense construyó una plataforma con la intención de describir y etiquetar imágenes con precisión valiéndose del análisis de miles de millones de imágenes de las redes sociales. Se le mostró al sistema una foto de un hombre en la cocina. ¿El resultado? La etiquetó como “mujer en la cocina”. Y hay más.

Para el profesor Noel Sharkey, codirector de la Fundación para la Robótica Responsabl­e en los Estados Unidos, el problema es algo más profundo que enseñarle a una IA a reconocer fotos de un modo más “diverso”. Según él, investigad­ores de la Universida­d de Boston probaron el sesgo inherente a los algoritmos de inteligenc­ia artificial entrenando a una máquina en el análisis de texto extraído de Google News.

Cuando le pidieron a la máquina terminar la frase

“el hombre es a los programado­res informátic­os como la mujer es a x”, la inteligenc­ia artificial completó la incógnita con “las amas de casa”.

Tal como, con acierto, reflexiona el lúcido blog sobre tecnología TechTalks ,elprimerpa­sopara evitar el sesgo algorítmic­o es reconocer los límites de la inteligenc­ia artificial. El segundo, entender lo siguiente: los algoritmos de deep learning no son racistas, pero como nosotros sí lo somos, ellos reproducir­án cualquier prejuicio que tengamos, sea intenciona­l o no.

Al fin y al cabo, el sesgo algorítmic­o es un problema humano, y no técnico.

 ??  ??
 ?? (FOTOILUSTR­ACIÓN DE OSCAR ROLDÁN) ??
(FOTOILUSTR­ACIÓN DE OSCAR ROLDÁN)
 ??  ??

Newspapers in Spanish

Newspapers from Argentina