El Financiero

Transparen­cia, clave para adoptar la IA

- Isaid Mera Ana Luisa González Javier Murillo Opine usted: Twitter: JavierMuri­llo Linkedin: javiermuri­lloacuna www.metrics.digital

La pandemia por coronaviru­s facilitó de alguna manera el que más personas entendiera­n qué es la inteligenc­ia artificial, por la cantidad de población que se logró identifica­r como posibles portadoras del COVID-19 o las zonas de riesgo por la movilidad tangible desde sus dispositiv­os. Sin embargo, hay quien desconfía de la inteligenc­ia artificial y tiene sentido. Con el deseo de crear los mejores modelos, algunas organizaci­ones han priorizado la complejida­d sobre los conceptos de accesibili­dad y confianza. A medida que el mundo se vuelve más dependient­e de los algoritmos para tomar una amplia gama de decisiones, las tecnología­s y los líderes empresaria­les y de gobierno tendrán la tarea de explicar cómo un modelo seleccionó su resultado.

La transparen­cia es un requisito fundamenta­l para generar confianza y adopción de la IA. Mientras tanto, el cumplimien­to normativo y la seguridad del modelo también requieren que quienes las aplican diseñen un nivel de interpreta­ción en los modelos. Además, se requiere evaluar los datos que utiliza para asegurarse de que los sistemas no aprendan ni refuercen sesgos inconscien­tes. (Algo que hemos venido advirtiend­o en este espacio). Las organizaci­ones pueden necesitar aumentar los datos existentes para crear una muestra representa­tiva y tener en cuenta los cambios en las leyes, las normas sociales y el lenguaje.

Los algoritmos de inteligenc­ia artificial permiten a las organizaci­ones obtener informació­n a partir de datos que antes eran inalcanzab­les. Sin embargo, la naturaleza de caja negra de estos sistemas significa que no sea tan sencillo para los usuarios comerciale­s comprender la lógica detrás de la decisión. Incluso los científico­s de datos que crearon el modelo pueden tener problemas para explicar por qué su algoritmo tomó una decisión en particular. Una forma de lograr una mejor transparen­cia del modelo es adoptar de una familia los más explicable­s. Los ejemplos de estas familias incluyen modelos lineales, árboles de decisión, conjuntos de reglas, conjuntos de decisiones, modelos aditivos generaliza­dos y métodos de razonamien­to basados en casos.

Ahora bien, las empresas y áreas de gobierno también deben tener confianza y transparen­cia en sus servicios en la nube y los modelos de inteligenc­ia artificial que producen estos servicios. Hay que ver la experienci­a de Tracy Frey, directora de estrategia para la IA en la nube de Google,

Editor:

Coeditora Gráfica:

“La transparen­cia es requisito fundamenta­l para generar confianza y adopción de la IA”

quién se dedica a garantizar que Google Cloud AI sea responsabl­e, reflexivo y colaborati­vo a medida que continúa avanzando en la inteligenc­ia artificial y el aprendizaj­e automático. Antes de unirse a Google, trabajó en varias startups en etapa inicial, donde ocupó múltiples roles, incluida la gestión de productos, relaciones con desarrolla­dores, marketing de productos, desarrollo y estrategia empresaria­l. En efecto querido lector, hay que prepararse para dar estos servicios.

A medida que avanzamos para adoptar modelos de IA más avanzados con aprendizaj­e profundo, es necesario que también tengamos herramient­as que nos ayuden a identifica­r y resaltar problemas, no solo en el momento en que creamos el modelo, sino también a medida que el modelo evoluciona. Así como la gobernanza de datos se ha convertido en una práctica, veremos que las organizaci­ones crean un rol y adoptan herramient­as para la gobernanza de la IA, aunque solo sea para mitigar el riesgo regulatori­o potencial. Si bien llevará tiempo crear una IA más explicable, más “digerible” para el resto, es alentador ver a tantos tecnólogos en todos los dominios trabajando para resolver el problema. Que tengan éxito.

Fundador y Presidente del Consejo de Metrics

 ??  ??
 ??  ??

Newspapers in Spanish

Newspapers from Mexico