Tag: data quality

Data Management
Joyce Norris-Montanari 0
Clean-up woman: Part 1

If your enterprise is working with Hadoop, MongoDB or other nontraditional databases, then you need to evaluate your data strategy. A data strategy must adapt to current data trends based on business requirements. So am I still the clean-up woman? The answer is YES! I still work on the quality of the data.

Hartmut Schroth 0
Don't let your data warehouse be a data labyrinth!

Auditability and data quality are two of the most important demands on a data warehouse. Why? Because reliable data processes ensure the accuracy of your analytical applications and statistical reports. Using a standard data model enhances auditability and data quality of your data warehouse implementation for business analytics.

Analytics
Ralf Storch 0
Recht auf Vergessen und Portabilität – die neue Datenschutzverordnung und ihre Folgen

Das „Recht auf Vergessen“ hat nichts mit der Demenzerkrankung Alzheimer tun und betrifft auch nicht nur Personen im fortgeschrittenen Alter. Das „Recht auf Vergessen“ und „Portabilität“ bezeichnen Rechte im Rahmen der neuen europäischen Datenschutzverordnung, die nach vier Jahren Arbeit die nun doch schon 20 Jahren alte Verordnung ablöst, und die

Leo Sadovy 0
Big: Data, model, quality and variety

The “big” part of big data is about enabling insights that were previously indiscernible. It's about uncovering small differences that make a big difference in domains as widespread as health care, public health, marketing and business process optimization, law enforcement and cybersecurity – and even the detection of new subatomic particles.

Data Management
Jim Harris 0
MDM intersections, Part 1: Data quality

Master data management (MDM) is distinct from other data management disciplines due to its primary focus on giving the enterprise a single view of the master data that represents key business entities, such as parties, products, locations and assets. MDM achieves this by standardizing, matching and consolidating common data elements across traditional and big

Data Management
Patryk Choroś 0
Data Governance - pierwsze kroki - część 4 z 4

Na tym etapie nasza organizacja posiada określone dla programu Data Governance cele biznesowe oraz zarządza i współdzieli definicje pojęć biznesowych, którymi się posługuje. Ten logiczny obszar zarządzania danymi i informacją uzupełniony został o pomost do metadanych technicznych - w poprzednim kroku uzyskaliśmy jedno miejsce łączące informacje o technicznym przepływie danych w organizacji

Data Management
Jim Harris 0
Where should data quality happen?

In my previous post I discussed the practice of putting data quality processes as close to data sources as possible. Historically this meant data quality happened during data integration in preparation for loading quality data into an enterprise data warehouse (EDW) or a master data management (MDM) hub. Nowadays, however, there’s a lot of

Analytics
Ralf Storch 0
Gute Qualität der Produktstammdaten erhöht die Trefferquote

In erster Linie wird der Begriff Datenqualität mit Kunden- und Adressinformationen in Zusammenhang gebracht. Neben der Dublettensuche und Bereinigung von Adressdatenbeständen ist die Qualität der Produktstammdaten aber ebenfalls äußert wichtig, um automatisierte Prozessabläufe zu verbessern oder beispielsweise die Trefferquote bei Suchanfragen im Onlineshop zu erhöhen.

Ralf Storch 0
Tabellenverknüpfung: Self-Service für Fachbereiche

Anwender in Risiko- oder Controlling-Abteilungen haben – in aller Regel – keine tiefer gehenden Kenntnisse in Abfragen von Datenbanken. Excel ist die Welt, in der sie zu Hause sind und sich wohlfühlen. Komplexe Datenbankfragen, wenn etwa Zusammenhänge zwischen Datenbanktabellen identifiziert werden sollen, führt die IT-Abteilung durch und stellt die Ergebnisse

Data Management
Jim Harris 0
Pushing data quality beyond boundaries

Throughout my long career of building and implementing data quality processes, I've consistently been told that data quality could not be implemented within data sources, because doing so would disrupt production systems. Therefore, source data was often copied to a central location – a staging area – where it was cleansed, transformed, unduplicated, restructured

1 2 3 4 5 8