Schlechte Datenqualität kostet die US-Wirtschaft jedes Jahr 600 Milliarden Euro, schreibt D&B Kanada in einem in Zusammenarbeit mit der Richard Ivey School of Business (University of Western Ontario) erstellten Whitepaper unter Berufung auf das Data Warehousing Institute. Dennoch waren nach Angaben des Marktforschers Gartner 2007 mehr als 25 Prozent der entscheidungsrelevanten Daten der amerikanischen Fortune-1000-Unternehmen fehlerhaft.
Ein gute Datenqualität bildet indes die Grundlage für faktenorientierte Entscheidungen, ohne die jeder Unternehmenserfolg fraglich wird, wie D&B einen Artikel der Forschungspublikation Harvard Business Review zitiert. Die Verbesserung der Datenqualität, behauptet nun D&B, kann zu immensen Einsparungen und zur wesentlichen Verbesserung bestehender Geschäftsprozesse führen. In seinem Whitepaper beschreibt D&B den Weg zur Optimierung der Datenqualität in sieben Schritten:
Zur Sicherung der Datenqualität muss die Qualitätsverbesserung in den Prozess der Datengewinnung eingebunden werden. Das Thema Datenqualität wird so als Geschäftsprozess und nicht als rein technische Angelegenheit betrachtet, weshalb die Verankerung in der Geschäftsführung unerlässlich ist. Die Lösung liegt indes in der Mobilisierung des gesamten Unternehmens.
Datenqualität von anderen Abteilungen überprüfen lassen
Unternehmen sollten nach neuere Definitionen den Schwerpunkt von Datenqualität nicht mehr nur auf Fehlerfreiheit setzen, sondern auf ihren konkreten Wert für den praktischen Einsatz. Einige Unternehmen beurteilen ihre eigenen Daten bereits danach, wie einfach und effektiv sie von anderen Unternehmensabteilungen zur Geschäftsanalyse und bei Entscheidungsprozessen verwendet werden können.
Der Prozess qualitätsorientierter Datenbereitstellung gliedert sich in drei Phasen: Erfassung, Integration und Einsatz. Ziel sollte dabei sein, alle Mitarbeiter in die Lage zu versetzen, mit richtigen Daten bessere Entscheidungen zu treffen.
Erfassung: Die meisten Unternehmen verfügen über hunderte potenzieller Datenquellen von den Medien über Industrieverzeichnisse bis hin zu Zahlungsinformationen. Oftmals ist es wichtig, auch grafische oder gar historische Informationen zu erfassen, um Daten einordnen zu können.
Integration: Die Aufnahme neuer Informationen kann zur Überforderung von Systemen, Prozessen und Personal führen. Neue Daten sollten daher unter drei Aspekten untersucht werden: Richtige Zuordnung: Welche Daten müssen untersucht werden / sind betroffen? Auswirkungen: Müssen aufgrund der neuen Daten andere bereinigt werden (etwa Bonität bei Insolvenz eines Kunden)? Bereinigung: Lassen sich bestehende Datensätze mit den neuen Daten ergänzen oder aktualisieren (etwa bei potenziellen Neukunden)?
Wertvolle Analysedaten mittels D-U-N-S
Einsatz: Zur Optimierung eines aktualisierten Datenbestandes ist es erforderlich, die Beziehungen zwischen den Daten zu erkennen und sie entsprechend zu verknüpfen. Beispiel: Dubletten, die unter verschiedenen Unternehmensbezeichnungen erfasst sind.
D-U-N-S: Die D-U-N-S Nummer wurde 1963 im Zuge der fortschreitenden computergestützten Kommunikation eingeführt. Sie wird einem Unternehmen als weltweit eindeutiger Identifikationsschlüssel zugeteilt und ermöglicht die Verknüpfung und Analyse von Daten. Die wenigsten Geschäftsführer erkennen auf Anhieb die Vorteile der D-U-N-S Nummer - sie ist jedoch der Schlüssel für eine konsistente Datendarstellung: mit ihr lassen sich Dubletten erkennen und Unternehmensverflechtungen entschlüsseln, außerdem vereinfacht das D-U-N-S System die Integration von Neudaten.
Das komplette Whitepaper erhalten Sie bei D&B.