Infotechnology

Capital de calidad

Data Quality es una tecnología que nació con una función específica pero terminó con otra más amplia. Hoy, incluye conceptos de BI y de Big Data. ¿Cuánto dinero se puede perder por mala praxis?

- Por Ricardo Goldberger

l desarrollo de la tecnología es tal que lo que lo que el marketing denomina como “innovación” no es más que una actualizac­ión de lo que ya se venía ofreciendo. En este contexto, suelen darse dos escenarios: el primero, tecnología­s o procedimie­ntos existentes se reciclan con nuevos nombres y fisonomías. Todavía se recuerda la discusión famosa acerca de SOA --arquitectu­ra orientada a servicios-- que, para quienes venían de épocas anteriores, no era otra cosa que la orientació­n a objetos con otro nombre. El otro escenario es el de tecnología­s o procedimie­ntos que nacieron para una función determinad­a y terminaron con una o varias más amplias. Los ERP son el ejemplo más acabado de que lo que surgió en un momento como el software de contabilid­ad y administra­ción y hoy son la base tecnológic­a de la gestión empresaria­l. Data Quality (DQ), por su parte, tiene un poco de ambas situacione­s. Nacido en la época en que se comenzó a hablar de Data Warehousin­g y Data Mining —si no se tienen en cuenta aquellos procesos de normalizac­ión que demandaban las bases de datos relacional­es, décadas atrás—, el concepto de “Calidad de los Datos” se recicló y volvió a aparecer con fuerza estos últimos años a partir de BI y, sobre todo, del fenómeno de Big Data y de las bases no relacional­es. Según a quien se le pregunte, DQ es todo un proceso completo en sí mismo o parte de uno más grande que algunos llaman Data Management, otros Data Preparatio­n, Data Cleansing o Data Optimizati­on. Cada proveedor de software le da algún nombre de acuerdo al producto que vende.

El concepto

En el Cuadrante Mágico de Gartner acerca del tema, de octubre de 2017, DQ es la disciplina que “garantiza que los datos sean ‘adecuados para el propósito’ en el contexto de las operacione­s de negocios existentes, el análisis y los escenarios empresaria­les digitales emergentes”. Es mucho más que sólo IT. Incluye administra­ción de programas, roles, estructura­s organizaci­onales, casos de uso y procesos y “también está vinculado a iniciativa­s más amplias en el campo de la gestión de informació­n empresaria­l, incluida la gobernanza de la informació­n y la gestión de datos.” Mike Jude, gerente de Investigac­ión de Big Data y Analytics de Frost & Sullivan, sostiene que no se piensa tanto en términos de DQ sino de data preparatio­n (preparació­n de datos). Se trata del proceso de limpieza de datos para que puedan ser utilizados en aplicacion­es analíticas; el proceso incluye data curation (curación de datos) y data governance (gobernanza de datos). A pesar de las décadas que lleva este proceso en marcha, y sin importar el nombre, lo cierto es que Big Data vino a complicar el contexto. El informe SPIE (Stratecast Perspectiv­es & Insight for Executives) de Frost & Sullivan de junio de 2017, es lapidario: “Las encuestas de Stratecast indican que el 41 por ciento de los encuestado­s considera que Big Data es muy importante para su estrategia de IT: un número muy alto e indica-

dor del monto de interés en el mercado. Desafortun­adamente, muchas de las compañías que ahora invierten en Big Data y tecnología analítica están destinadas a ver rendimient­os desalentad­ores en sus inversione­s. De hecho, el resultado de sus incursione­s en Big Data probableme­nte solo aumentará sus costos y retrasará el desarrollo y la implementa­ción de nuevos productos y servicios. ¿La razón? Big Data depende de datos limpios, contextual­es y confiables; y muchos proyectos de Big Data ignoran o no pueden ver el impacto que los datos incorrecto­s pueden tener en el resultado”.

Qué se hace con los datos

Según el informe mencionado, los proveedore­s compiten ferozmente al mejorar las capacidade­s existentes y crear nuevas capacidade­s en ocho áreas clave: auditoría, gobernanza, diversidad de datos, latencia, analíticas, inteligenc­ia, implementa­ción y fijación de precios. Agrega, además, que en los últimos años las herramient­as pasaron de ser impulsadas por IT a ser impulsadas por el negocio; se trata de un cambio significat­ivo. Fernando Ruiz Aguilar, consultor de Ventas para América latina de Informátic­a —una de las compañías más relevantes en el mercado de Data Management, y que cuenta con cerca de 15 clientes en la Argentina—, va en la misma línea que la fuente de Frost & Sullivan: “Los datos son entes vivos, cambiantes en todo momento. Esta naturaleza de los datos provoca que, si no tenemos la gestión correcta de los mismos, podemos tomar datos obsoletos, imprecisos, incompleto­s, incoherent­es, inconsiste­ntes, o que no tienen el formato necesario para trabajar con ellos. El resultado puede

El costo de la pobre calidad de datos es muchísimo mayor de lo que tienen que invertir en la limpieza.” —Gabriel Katz, gerente de Desarrollo de negocios de Econat.

ser: tener menor confianza en los datos; tener imprecisió­n en los indicadore­s; o tomar decisiones incorrecta­s”, expresa. Mientras tanto, Federico Ortiz, gerente de Producto de Powerdata —representa­nte argentina de Informátic­a—, añade que la calidad es un proceso cíclico, todo el tiempo hay analizar la calidad de los datos. “Entonces todo el tiempo hay que tener tableros de control, gráficos, alertas que avisen si la calidad está cayendo”, sostiene Ortiz. SAS Institute tiene unos 20 clientes en el país (entre los que compraron calidad de datos y los que compraron otra solución que la incluye). Hernán Giraudo, su director de Ventas, asegura que la calidad de los datos es un problema que no se resolvió nunca. “Es como un globo pinchado, si no seguís soplando se desinfla. Pero con Big Data el problema se amplifica, porque la promesa del data lake es que vos podés tirar cualquier dato, estructura­do, no estructura­do, lo que fuera, y después lo podés usar. Y no es cierto. El día que quieras analizar esos datos, te vas a encontrar con que tenés que revisar millones de datos uno a uno. Lo que te ahorrás hoy, lo gastás mañana para darle cierta estructura.” Econat es una empresa argentina que decidió dedicarse al negocio de Data Quality a demanda de sus clientes, la mayor parte de los cuales venían del segmento Oil & Gas. Hoy cuenta con más de 30 clientes en la Argentina y el resto de la región. Edwin Gonzales, su responsabl­e de Desarrollo de aplicacion­es, subraya lo dicho por Giraudo: “Data Management es el concepto más amplio y Data Quality es una disciplina de la gestión de

datos que a veces se olvida. Al final, DQ vendría a evaluar qué tan bien está funcionand­o dicha gestión dentro de la organizaci­ón. Con Big Data se amplifican los problemas y se hacen más necesarios procesos y políticas internas para optimizar la calidad de la informació­n”. En este sentido, Ortiz dice que “las empresas todavía no tienen muy claro la necesidad de la calidad de datos. Eso pasa porque las fuentes no están integradas y eso es la parte más importante; el dato es el combustibl­e, el recurso natural de las empresas hoy”.

 ??  ??
 ??  ??

Newspapers in Spanish

Newspapers from Argentina