Am besten wäre es, wenn BI direkt auf den aktuellsten operativen Datenbestand zugreifen könnte. Dieser Ansicht ist der Berater Wolfgang Zinke, Experte für Datenbank-Management und Data Warehousing: "Das ist aber mit der heutigen Datenbank-Technologie nicht praktikabel." Seiner Meinung nach führt aber nur die Integration von operativem und analytischem Processing auf ein und derselben Datenbasis zum Erfolg.
Das eliminiert langwierige und fehleranfällige Prozesse bei der Archivierung und beim ETL (Extract, Transform, Load), die heute noch zwischen operativen und BI-Systemen stattfinden. Darüber hinaus werden der allgegenwärtigen Redundnaz und Ressourcenverschwendung Einhalt geboten. Das Ergebnis sind dafür aktuellere und zuverlässigere BI-Auswertungen.
Bisher stellt sich das Kernproblem, dass Daten in operativen Systemen und in BI-Systemen meist nicht zueinander passen. Das liegt daran, dass sie unterschiedliche Datenmodelle erfordern.
Außerdem behindert Large-Scale Query Processing beim BI die operative Verarbeitung. Erschwerend kommt noch hinzu, dass BI-Systeme häufig auf Datenhistorie angewiesen sind, während operative Systeme Momentaufnahmen der Daten bearbeiten und diese auch überschreiben.
"Die Nichtvolatilität, die von Bill Inmon bereits in den Achtziger-Jahren als eine der Grundeigenschaften eines Data Warehouse gefordert wurde, ist mit traditionellem Daten-Management nicht zu gewährleisten", sagt Zinke. Der Preis, sie nachträglich zu erreichen, ist hoch: Nur die Datenstände an bestimmten Fixpunkten in der Bearbeitung einer solchen Datenbank bleiben bestehen. Zwischenstände dagegen gehen verloren, obwohl auch sie wichtig sind, um entscheidende Informationen zu erhalten.
Die heute übliche Lösung ist, ein Data Warehouse für BI aufzubauen und aus den operativen Systemen wie auch anderen Quellen in ETL-Prozessen mit Daten zu füllen. Hauptquelle sind meist archivierte Datenbestände operativer Systeme. "Das bedeutet unter anderem, dass wertvolle Informationen über das dynamische Verhalten operativer Systeme gar nicht erst in das Data Warehouse gelangen, weil sie schon im archivierten Datenbestand verlorengehen", kritisiert Zinke.
Der Nachteil von Data Warehouse
Ein weiterer Nachteil ist, dass ein Data Warehouse nur mit zeitlicher Verzögerung die aktuellen Daten erfährt. Außerdem enthalten die gelieferten Daten oft keine immanente Information über ihre Qualität wie zum Beispiel ihre Aktualität. Wenn doch, so ist die Information nicht einheitlich dargestellt und hat eine unterschiedliche sowie oft unklare Semantik.
Um die Defizite auszuräumen, muss nach Meinung von Zinke auf Ebene des Datenbank-Managements angesetzt werden. Er stellt sechs Forderungen auf:
1. Informationen nicht überschreiben
Das Datenbanksystem darf nie Informationen überschreiben. Stattdessen muss es diese in Versionen mit definierten Gültigkeitszeiträumen und Aktualitätskriterien fortschreiben.
2. Änderungen bei Daten analysieren
Es muss außerdem möglich sein, Daten aus beliebigen, jedoch definierten Datenständen wiederzugewinnen und auch über Zeiträume zu verknüpfen. Das ist nötig, um zum Beispiel Änderungen in Merkmalen zu analysieren.
3. Datenmodell muss fortschreibbar sein
Als weiterer Punkt muss das Datenmodell der Datenbank selbst fortschreibbar sein. Nur so kann es mit Änderungen der Realität Schritt halten.
4. Daten müssen reproduzierbar sein
Dennoch müssen Auswertungen aus der Datenbank, die mit einem bestimmten Datenstand und Version des Datenmodells zustande gekommen sind, später reproduzierbar sein.
5. Alle Informationen verwalten
Um ein lückenloses Prozess-Management zu ermöglichen, darf sich die Verwaltung außerdem nicht nur auf die traditionellen, in Form von Tabellensätzen organisierten Daten beschränken. Es muss auch möglich sein, beliebig komplex strukturierte sowie beliebig lange Informationsobjekte wie Textdokumenten oder Pläne mit den gleichen Mitteln zu verwalten.
6. Schnittstellen zum Datenbank-Management
Auf jeden Fall sollen die Schnittstellen zum heutigen Datenbank-Management erhalten bleiben.
"Dass die Erfüllung dieser Anforderungen technisch möglich ist, ist erwiesen", meint Zicke und verweist auf Unternehmen, die diese Anforderungen durch eigenentwickelte Software bereits erfüllt haben. So sei eines der beeindruckendsten Beispiele das Warenwirtschaftssystem von Wal-Mart. Es verfügt über ein integriertes Warehouse, dem eine Datenbank von vielen Terabyte zugrunde liegt.
Wolgang Zinke befasst sich seit über 20 Jahren mit Datenbank-Management und Data Warehousing. Er war unter anderem technischer Leiter und Systemarchitekt in der Geschäftsführung eines Softwarehauses und Manager Produktplanung für Europa bei einem amerikanischen Datenbanksystemhersteller.