Data Management y hadoop: claves para una integración de datos exitosa

0

hadoop 2 sas2

La integración del Big Data en los procesos y programas de gestión de datos existentes se ha convertido en algo así como una llamada de alerta para las organizaciones en su afán de convertirse en empresas del siglo XXI. Jim Harris, blogger y obsesivo-compulsivo del Data Quality, nos da estos consejos y reflexiones para tener éxito en la integración de Big Data.

Recolección no es Integración

Hadoop ofrece una forma barata y rápida para capturar datos de una gran variedad de fuentes, muchas de las cuales se originan fuera de la empresa, permitiendo encontrar un verdadero tesoro con posibles ideas de negocio. Sin embargo, para que las organizaciones se den cuenta de su potencial, esta información externa debe integrarse con datos de la empresa bajo la supervisión del gobierno de datos. Aunque Hadoop es muy bueno para la recopilación de datos, no los integra automáticamente. Así, mientras que el lago de datos se ha convertido en un término popular asociado al Big Data y Hadoop es la herramienta más popular para la extracción de datos, un lago de datos es más parecido a un mar de datos desordenados si no se hace su integración.

Lea porque Hadoop ya no es sólo un tema de TI, ahora es un aliado para su negocio.

Dominar los metadatos primero

La implementación de Big Data en los procesos de Master Data Management (MDM) es una prioridad muy mencionada en el entorno empresarial. Sin embargo, es más importante dominar primero dominar los metadatos. La integración de datos, en esencia, se trata de relacionar múltiples fuentes de datos y juntarlos para hacer obtener información valiosa. Los metadatos proporcionan una definición a través de fuentes de datos que hacen que esto sea posible. Además, los metadatos permiten rastrear cuáles datos se mueven y cómo, en el momento en que se aplican las reglas de negocio, así mismo permite ver el efecto que dichos cambios podrían tener. No hacer suficiente énfasis en los metadatos, se podría traducir en problemas más adelante.

La limpieza del elefante

No sólo Hadoop no integra los datos por defecto, la funcionalidad de Data Quality tiene que ser incluida en todos los procesos de integración de datos para que funcione. Los principales proveedores de gestión de datos ofrecen soluciones para la limpieza del elefante (es decir, la mejora de la calidad de Big Data en Hadoop) con lo cual usted debe familiarizarse. Vea la que ofrece SAS en el reciente post que Guido Oswald escribió en su blog.

Por último, es importante que las empresas vean el real valor de tomar decisiones a partir de información y cómo la integración de datos es el camino para lograrlo. Descubra porque las empresas que toman decisiones a partir de sus datos son 4% más productivas y 6% más rentables.

Share

About Author

SAS Colombia

Leave A Reply

Back to Top