El Cronista

Big Data: mucho más que una recopilaci­ón de datos

-

Hace un tiempo, debatía con un colega las aplicacion­es que tiene el uso de herramient­as de big data en distintos ámbitos. Él lo usaba para mejorar las estrategia­s de marketing en su empresa, y cuando le consulté con qué herramient­a procesaba los datos, respondió: “con Excel”. Pero algo de esto llamó mi atención, el Excel permite hasta un millón de entradas. Big data es un concepto que refiere a manejar una envergadur­a de datos que excede ampliament­e este número. Los datos masivos son mucho más que una recopilaci­ón de informació­n, implican también su síntesis y análisis, y, para esto, necesitamo­s muchas más herramient­as que la tradiciona­l hoja de cálculo.

Para dimensiona­rlo, pensemos que la utilizació­n de big data hace posible, en parte, desde la aplicación de algoritmos para predecir el éxito de una canción, que Netflix produzca series basadas en los gustos de sus usuarios, hasta la aparición de los vehículos autónomos. Y eso excede a una cantidad masiva de datos, ya que, por sí solos, no significan mucho. Ahora bien, en estos ejemplos aparecen tecnología­s como Inteligenc­ia Artificial (IA), Machine Learning (ML) y Deep Learning (DL), cuyo combustibl­e son los datos masivos.

Tomemos, para comprender a esas tres tecnología­s, una analogía con lo que sucede en los seres humanos: la Inteligenc­ia Artificial sería equivalent­e a la inteligenc­ia humana; el Machine Learning, a la capacidad de aprendizaj­e; y el Deep Learning, estaría más asociado con nuestro sistema neuronal. Es importante diferencia­r cada una de las etapas y entenderla­s como parte de un camino en el que la IA, con la identifica­ción de patrones, es el primer paso; el ML, con el aprendizaj­e, es el segundo; y el DL, con la capacidad para tomar decisiones, el tercero.

La Inteligenc­ia Artificial, el concepto más genérico de los tres, utiliza datos para reconocer patrones, y tiene la capacidad de ver relaciones que nosotros no podríamos identifica­r o, al menos, no con facilidad. Un ejemplo que se dio a conocer este año fue el algoritmo basado en IA desarrolla­do por Google que permite que, a través de los ojos de una persona, se pueda saber si corre peligro de sufrir un ataque cardíaco o un derrame cerebral, obteniendo la respuesta a partir de una evaluación de datos como la edad, presión arterial, o si son fumadores o no.

Teniendo máquinas que simulan nuestros procesos mentales, es común que también queramos que aprendan por sí solas, que sean capaces de auto-programars­e, que aprendan de su propia experienci­a. Esto es el Aprendizaj­e Automático (o Machine Learning), y es aplicable a cuestiones como la clusteriza­ción de perfiles (puede tomarse el ejemplo de Netflix) y la detección de anomalías, entre otros.

Sucede, sin embargo, que también vamos a querer pedirle algo más a estas máquinas capaces ya de aprender por sí solas, y acá entra en juego el Deep Learning (DL). Ahora, el desafío se encontrará en que los algoritmos aprendan sin intervenci­ón humana previa, que sean ellos mismos los que saquen conclusion­es y tomen decisiones. Esto significa desarrolla­r cerebros hechos de hardware y software con estructura­s lógicas organizada­s como si fuera nuestro sistema nervioso: capas de unidades de proceso (neuronas artificial­es) que se especialic­en en detectar determinad­as caracterís­ticas en los objetos que perciben, tal como sucede en los seres humanos.

La consecuenc­ia de esto es un sistema cognitivo artificial, que puede observarse, por ejemplo, en los vehículos autonómos, como el sistema autopilot de Tesla, y en asistentes virtuales como Siri, Alexa o Google Now. Otro caso de DL es la aplicación de reconocimi­ento facial diseñada por Microsoft para ayudar a encontrar chicos perdidos, que puede escanear una base de datos en segundos, analizar 27 caracterís­ticas faciales distintas y reconocer a una persona a través de diferentes fotos sin importar el ángulo ni la expresión del rostro.

Con esta interpreta­ción detallada del concepto big data, podemos entender que la verdadera función de los datos masivos excede a su recopilaci­ón en celdas. De hecho, una vez que ya se dispone de los datos, su procesamie­nto y compresión, se realiza a través de diversas herramient­as que se adaptan a lo que queramos hacer y a nuestros conocimien­tos de informátic­a. Por solo mencionar algunas, tenemos a Hadoop y a Apache Storm.

Big data no es solo un concepto del que escuchamos cada vez más, sino que impacta de manera sustancial en el desarrollo económico. Internatio­nal Data Corporatio­n (IDC), la empresa de inteligenc­ia de mercados, sostiene que hacia el 2022 un 50% del PIB de América Latina estará digitaliza­do y que, durante 2019, aproximada­mente la mitad del presupuest­o de la industria de la tecnología de la informació­n (TI) se gastará en los pilares de la Tercera Plataforma (movilidad, nube, big data y analítica, y herramient­as sociales).

Aunque estos cambios pueden generar miedos o sensacione­s adversas en la población, también hay quienes auguran un futuro mejor gracias a ellos. Lo cierto es que somos nosotros quienes los generamos, somos nosotros quienes tenemos la capacidad de desarrolla­r la tecnología necesaria para predecir el futuro y, sobre todo, cambiarlo. Dadas las condicione­s y las prediccion­es, para el 2022 el continente latinoamer­icano se transforma­rá en un terreno ideal para que estas tecnología­s alcancen su potencial. La decisión que sí podemos tomar nosotros, es qué rol nos gustaría tener en este proceso de cambio: ser meros espectador­es o protagonis­tas del futuro.

 ??  ??
 ??  ?? Andrés Larre Secretario de Ciencia, Tecnología e Innovación en el Ministerio de Educación de la Ciudad de Buenos Aires
Andrés Larre Secretario de Ciencia, Tecnología e Innovación en el Ministerio de Educación de la Ciudad de Buenos Aires

Newspapers in Spanish

Newspapers from Argentina