Infotechnology

Que no baje la calidad

-

Si en algo coinciden todos, es en la necesidad de hacer un diagnóstic­o y, sobre todo, comenzar con un proceso de integració­n de los sistemas. Gabriel Katz, gerente de Desarrollo de negocios de Econat, sostiene que uno de los orígenes más comunes de errores en los datos es la convivenci­a de plataforma­s y sistemas diversos en una misma empresa. “El caso más frecuente, después del de los bancos —plantea—, es el de las telcos que, por ejemplo, tienen informació­n de los sistemas de comunicaci­ón fijos, móviles, de voz, de datos y con diferentes sistemas operativos según los dispositiv­os que se manejan.” Por su parte, el gerente de Nube y Cognitiva de IBM Argentina, Agustín Bellido, relata: “Una organizaci­ón típica puede alojar cientos, o incluso miles, de diferentes sistemas. Entonces, los mismos datos sobre una persona —un cliente, un empleado, un socio, por ejemplo— pueden provenir de muchas fuentes, y esa informació­n termina en muchos informes y aplicacion­es”. La mayoría de los problemas de calidad de datos “surgen de la falta de estándares de informació­n en toda la empresa sobre cómo se almacenan los datos y se identifica­n de manera única”, dice. Es por esto que Ortiz agrega que “una de las causas más importante­s de errores en los datos proviene de la persona que ingesta los datos, así como de permisos mal asignados”. Menciona además que, entre las causas no humanas de descenso de calidad, están la falta de integració­n de sistemas, la restauraci­ón de backups no actualizad­os y las réplicas de bases de datos que agregan campos, entre otras. Giraudo, en tanto, destaca: “Uno pensaba que, con IOT, el problema iba a ser menor, porque los datos de sensores serían más confiables que los ingresados por un ser humano. La realidad es que no lo son, tienen sus propios problemas, medición, comunicaci­ón; no por ser generados por una máquina son más consistent­es. Por eso hay que seguir monitorean­do y cuidarse de que no haya datos erróneos”. Es por esto que Katz comenta que “DQ es un esfuerzo continuo, el costo de la pobre calidad de datos es muchísimo mayor de lo que tienen que invertir en la limpieza”, mientras que Giraudo refuerza: “El costo de tener malos datos siempre termina superando al costo de la solución”. La tendencia actual es hacer herramient­as más visuales, que estén más incorporad­as a los procesos de negocios y que la calidad sea en streaming. Que pueda estructura­r y analizar directamen­te dentro de la base, que trabaje en memoria. En los Estados Unidos ya existen desde hace tiempo posiciones como CDO (Chief Data Officer) y áreas de gestión de datos. Aquí están recién asomando, pero es muy probable que el futuro esté en lo que algunos analistas del mercado llaman “Data Science”, una disciplina que Harvard Business Review denominó “el empleo más sexy del siglo 21”

 ??  ??

Newspapers in Spanish

Newspapers from Argentina