Que no baje la calidad
Si en algo coinciden todos, es en la necesidad de hacer un diagnóstico y, sobre todo, comenzar con un proceso de integración de los sistemas. Gabriel Katz, gerente de Desarrollo de negocios de Econat, sostiene que uno de los orígenes más comunes de errores en los datos es la convivencia de plataformas y sistemas diversos en una misma empresa. “El caso más frecuente, después del de los bancos —plantea—, es el de las telcos que, por ejemplo, tienen información de los sistemas de comunicación fijos, móviles, de voz, de datos y con diferentes sistemas operativos según los dispositivos que se manejan.” Por su parte, el gerente de Nube y Cognitiva de IBM Argentina, Agustín Bellido, relata: “Una organización típica puede alojar cientos, o incluso miles, de diferentes sistemas. Entonces, los mismos datos sobre una persona —un cliente, un empleado, un socio, por ejemplo— pueden provenir de muchas fuentes, y esa información termina en muchos informes y aplicaciones”. La mayoría de los problemas de calidad de datos “surgen de la falta de estándares de información en toda la empresa sobre cómo se almacenan los datos y se identifican de manera única”, dice. Es por esto que Ortiz agrega que “una de las causas más importantes de errores en los datos proviene de la persona que ingesta los datos, así como de permisos mal asignados”. Menciona además que, entre las causas no humanas de descenso de calidad, están la falta de integración de sistemas, la restauración de backups no actualizados y las réplicas de bases de datos que agregan campos, entre otras. Giraudo, en tanto, destaca: “Uno pensaba que, con IOT, el problema iba a ser menor, porque los datos de sensores serían más confiables que los ingresados por un ser humano. La realidad es que no lo son, tienen sus propios problemas, medición, comunicación; no por ser generados por una máquina son más consistentes. Por eso hay que seguir monitoreando y cuidarse de que no haya datos erróneos”. Es por esto que Katz comenta que “DQ es un esfuerzo continuo, el costo de la pobre calidad de datos es muchísimo mayor de lo que tienen que invertir en la limpieza”, mientras que Giraudo refuerza: “El costo de tener malos datos siempre termina superando al costo de la solución”. La tendencia actual es hacer herramientas más visuales, que estén más incorporadas a los procesos de negocios y que la calidad sea en streaming. Que pueda estructurar y analizar directamente dentro de la base, que trabaje en memoria. En los Estados Unidos ya existen desde hace tiempo posiciones como CDO (Chief Data Officer) y áreas de gestión de datos. Aquí están recién asomando, pero es muy probable que el futuro esté en lo que algunos analistas del mercado llaman “Data Science”, una disciplina que Harvard Business Review denominó “el empleo más sexy del siglo 21”