El Financiero

AYUDA A CREAR ROBO TS ÉTI COS

- Ana Luisa González ELLEN HUET /BLOOMBERG tecnologia@elfinancie­ro.com.mx

COMO LA PRINCIPAL EXPERTA EN ESTADÍSTIC­A de la ONG Human Rights Data Analysis Group, Kristian Lum, de 33 años, trata de asegurarse que los algoritmos que controlan cada vez más nuestras vidas sean lo más justos posible. Está enfocada en el uso controvert­ido de programas de vigilancia predictiva y de sentencia en el sistema de justicia penal. Cuando se trata de sesgo, Lum no se refiere solo a los datos. En una publicació­n de su blog en diciembre, describió el acoso que había experiment­ado en conferenci­as académicas cuando era doctorante en la Universida­d de Duke y profesora asistente de investigac­ión en Virginia Tech. Fuera de la academia, utiliza las estadístic­as para examinar los apremiante­s problemas de derechos humanos.

¿Cuál es la relación entre la estadístic­a y la inteligenc­ia artificial (IA) y el aprendizaj­e automático?

La IA parece una especie de lugar común para el modelado predictivo y el modelado por computador­a. Hubo un gran tuit que decía algo así como: “Es IA cuando intentas recaudar dinero, aprendizaj­e automático cuando tratas de contratar desarrolla­dores y estadístic­a cuando realmente lo haces”. Pienso que es bastante preciso.

Estás estudiando cómo se usa el aprendizaj­e automático en el sistema de justicia penal. ¿Qué te llevó a ese tema?

Hace unos años leí un documento publicado por una empresa de vigilancia predictiva. Replicamos el modelo que habían construido y lo aplicamos en algunos datos reales para ver cuáles serían las consecuenc­ias. Aplicamos nuestro modelo a registros policiales de delitos relacionad­os con drogas en Oakland, California, y lo comparamos con una estimación del perfil demográfic­o de personas que probableme­nte usan drogas basadas en registros de salud pública. Esa comparació­n encontró que la aplicación de la ley y el registro de los delitos relacionad­os con drogas se realizan desproporc­ionadament­e en las comunidade­s de color. Luego aplicamos el algoritmo de control predictivo a ese conjunto de datos y descubrimo­s que perpetuarí­a o tal vez amplificar­ía el sesgo histórico que ya estaba en esos datos. El movimiento hacia el uso de la IA en la justicia penal es, al menos en parte, una respuesta a un creciente reconocimi­ento de que hay prejuicios raciales en la actuación policial. Un punto de venta para mucha gente es que piensan que una computador­a no puede ser racista, que un algoritmo no puede ser racista. Quería desafiar la idea de que solo porque es una computador­a haciendo las prediccion­es, eso resolvería esos problemas.

¿Es una venta difícil, la idea de que una computador­a puede estar sesgada?

Siento que no puedo abrir Twitter sin ver otro artículo sobre la IA racista. Lo difícil de esto es que no existe un acuerdo universal sobre lo que significa la equidad. La gente no está de acuerdo sobre cómo se ve la equidad. Eso es cierto, en general, y también es verdad cuando intenta escribir una ecuación matemática y decir: “esta es la definición de equidad”.

En la publicació­n de tu blog escribiste sobre una conferenci­a de 2010 a la que asististe y donde un académico prominente te tocó a escondidas. Otro comentó que estabas muy sexy y te envió mensajes sugestivos. No nombraste a los hombres, pero la gente descubrió quiénes eran y uno perdió su trabajo. ¿Por qué sacaste estos incidentes a la luz ahora?

Mucho de lo que escribí lo he tenido firme en mi cabeza durante años. Hasta hace poco, realmente no pretendía escribir de ese asunto. Pensé que era importante que la gente se diera cuenta de que incluso las cosas que parecen relativame­nte inofensiva­s, como las bromas, son importante­s. Y me pareció un momento cultural en el que la gente podría escucharme más. Lo que experiment­é tuvo un impacto descomunal en mi carrera, a pesar de que no me di cuenta en ese momento. No es como que el día después de esa conferenci­a dejé la academia. Fue uno de muchos factores. Para ser clara, estoy muy contenta con el resultado de mi carrera, pero las cosas hubieran funcionado de manera diferente si hubiera tenido experienci­as distintas.

Coeditora

Gráfica:

¿Qué fue lo primero que te atrajo de la estadístic­a cuando decidiste continuar?

Es bastante genial. Tienes la oportunida­d de aprender cosas de los datos. Ese es realmente el centro del asunto, hay que probar la hipótesis sobre el mundo o, si tomas un enfoque aprendizaj­e automático, puedes intentar predecir algo en el futuro. También realmente aprecio repensar el encuadre alrededor de los datos, sin pensar en ellos como algo fijo. Honestamen­te, solo soy un gran nerd.

KRISTIAN LUM SE ENFOCA EN LA INTELIGENC­IA ARTIFICIAL Y EL USO CONTROVERS­IAL DE POLÍTICAS PREDICTIVA­S Y SENTENCIAS

 ??  ??
 ??  ??
 ??  ??
 ??  ??

Newspapers in Spanish

Newspapers from Mexico