Entendiendo cada componente del proceso de Data Management

0

shutterstock_174380087

Si se desea comprender cómo se desarrollan los procesos de Data Management y con ello poder hacer uso de todos los beneficios que éstos ofrecen, como primera instancia debemos clarificar qué es el Data Management y cómo está integrado.

De acuerdo a la DAMA, Data Management Association, este concepto engloba el desarrollo y ejecución de arquitecturas, políticas, prácticas y procedimientos que gestionan apropiadamente las necesidades del ciclo de vida de los datos de una empresa. Es decir, la gestión de datos abarca todos los pasos que conllevan la recolección y análisis de datos que se generan dentro de las compañías.

Una vez determinado qué es el data management prosigamos a analizar cómo es que éste está integrado por seis pilares principales:

Data integration

Es la vertical de la gestión de información que permite la integración de la misma generada por la compañía desde un sinfín de dispositivos, y se realiza bajo los siguientes lineamientos:

  • Accessibility: Contar con gran adaptabilidad para recibir información desde diversas fuentes y medios, tales como bases de datos, datos estructurados, datos relacionales e incluso fuentes de datos transmitidas, solo por mencionar algunas.
  • Transformation, exchange and delivery: Una vez recibida la información es necesario tener un vasto marco de integración que permita transportar la data eficientemente de origen a destino, transformando los datos desde su formato original hasta uno compatible y unificado para su posterior análisis.
  • Replication and change data capture: es necesario poseer soportes que nos permitan la transferencia masiva de data sin presentar cuellos de botella que mermen la efectividad de la recolección, por ello se han desarrollado sistemas de alimentación denominados “change data capture”, los cuales permiten la actualización de los sistemas destino a medida que el proceso lo amerite.

Data virtualization

Si la recolección de data puede representar un aspecto complejo dentro del data management cuando se presentan problemas con la extracción y transformación de los datos de forma sincrónica el panorama represente aún mayor complejidad, ya que se presenta el riesgo de tener inconsistencias y por tanto tener un análisis viciado.

Sin embargo, para evitar este hecho se han generado técnicas de virtualización de datos que cumplen con estos 3 propósitos principales:

  • Federation: Determinar un modelo estándar de datos para los métodos de acceso de la data.
  • Caching: Administración de datos accesibles dentro de un entorno virtual que permite aumentar el rendimiento del sistema.
  • Consistency: Validación, limpieza y unificación de la data posterior a los dos pasos anteriores.

Event stream processing

La insuficiencia de los sistemas tradicionales para abarcar la recolección, monitoreo y análisis de la data generada de eventos en tiempo real ha propiciado el nacimiento del procesamiento de flujo de eventos o event stream processing (ESP), que se destaca por monitorear en tiempo real de patrones y secuencias de eventos a través de flujos de información.

El ESP puede monitorear en real time el flujo relevante de eventos contra los patrones esperados, de forma que cuando exista una variación de las expectativas o la identificación de nuevas oportunidades, los sistemas pueden generar alertas para su puntual análisis.

Metadata management

La recolección de datos multifuncionales diseñados, desarrollados e implementados por separado al sistema de recolección también representa un fuerte reto en el éxito del data magement, debido a que al tratar de unir aspectos que nacieron bajo enfoques separados o sin un mismo objetivo su homologación resulta altamente complicada. No obstante, actualmente se cuenta con una gestión de metadatos orientada a las empresas e incluye métodos para generar aspectos como:

  • Estándares de datos, nomenclatura y data de referencia definida
  • Parámetros para almacenamiento e intercambio
  • Linaje de datos para relacionar conceptos a través de diferentes modelos y aplicaciones
  • Integración con políticas de gobierno de datos para apoyar validación, cumplimiento y control

Data quality management

Los principales objetivos de es este aspecto son:

  • Ayudar a las compañías a mejorar la presión dentro de sus procesos de identificación de fallas de datos y errores
  • Simplificar el análisis y la corrección de las causas que generan dichos defectos
  • Señalar problemas cuando sean identificados
  • Facilitar la comunicación de posibles problemas de datos a los proveedores de data de origen.

Con ayuda de dichos objetivos es posible realizar limpieza de datos, eliminar incoherencias, gestionar los requisitos y normas de calidad de validación de data, determinar anomalías, verificar los procesos de integración de datos, entre otros.

Data governance

Esta vertical hace posible la validación de las reglas de datos y el cumplimiento de las políticas establecidas para asegurar que las conclusiones arrojadas por el análisis sean completamente certeras y beneficiosas para el negocio.

¿Requiere más información sobre los procesos de Data Management y sus beneficios? Acérquese a nosotros y uno de nuestros ejecutivos con gusto lo asesorará.

Share

About Author

Iván López

Experto en Data Management, SAS Latinoamérica

Ivan López es Data Management Domain Expert siendo su responsabilidad el brindar soporte tecnológico y de negocio a las propuestas en esta disciplina, gracias a que ha sido el experto en la implementación de soluciones para el soporte de toma de decisiones durante casi 10 años en la industria de Tecnologías de la Información. En su trayectoria profesional, ha realizado implementaciones exitosas de Master Data Management, Data Quality y diseño de soluciones con diferentes componentes de la plataforma SAS. En los años recientes ha participado en la implementación de soluciones en proyectos de Fraude en México y Estados Unidos. Asimismo, cuenta con experiencia en la creación de repositorios de datos para soporte a estrategias utilizando técnicas analíticas para interpretar datos operacionales que se conviertan en resultados de negocio.

Leave A Reply

Back to Top