„Shooting Star SAP“ – so formulieren es die Experten vom Business Application Research Center (Barc) in Würzburg. In einer breit angelegten Untersuchung, deren Ergebnisse im Mai veröffentlicht werden, haben sie Datenintegrationswerkzeuge und Data-Warehouse-Plattformen verglichen. „SAP ist es innerhalb weniger Jahre gelungen, einen bedeutenden Teil ihrer Bestandskundschaft neben dem operativen ERP-System auch mit der Data-Warehouse-Komponente auszustatten“, sagt Carsten Bange, Geschäftsführer bei Barc. Nach den Zahlen der Markforscher von IDC ist SAP inzwischen auf dem deutschen BI-Markt auf den zweiten Platz hinter Business Objects vorgerückt.
„Dabei handelt es sich bei dem in SAP Netweaver integrierten Business Information Warehouse (BW) nicht um eine typische Data-Warehouse-Plattform, sondern um eine analytische Applikation auf Basis einer relationalen Datenbank von Microsoft, Oracle oder IBM“, sagt Bange. Den von SAP aufgezeigten Weg zu analytischen Applikationen verfolgen auch andere Anbieter: Während IBM vordefinierte Branchendatenmodelle anbietet, hat SAS Anwendungen im Portfolio, die sich durch besondere Stärken im Bereich komplexer Analytik auszeichnen, wie etwa zum Kampagnen-Management, zur Vertriebssteuerung oder zum Einkauf. Auch Oracle hat mit der Übernahme von Peoplesoft und Siebel zahlreiche vordefinierte Anwendungen im Angebot. NCR Teradata bietet verstärkt Lösungen für High-End-Data-Warehouse-Technologie, etwa für Telekommunikationsund Handelsunternehmen. Und auch Frontend- und Datenintegrationsanbieter wie Cognos und Business Objects haben vordefinierte Datenmodelle und Datenintegrationslösungen im Programm.
Software-Riesen mischen Markt auf
Der Erfolg des Software-Riesen SAP im BI-Markt belegt einen Trend: Die großen Player der IT-Branche mischen zunehmend mit im BI-Markt, der bisher hauptsächlich von Spezialisten und Nischenanbietern geprägt war. Und auch Microsoft tritt in den Ring: Der neue SQL Server 2005 enthält zahlreiche neue Funktionen für den Einsatz der relationalen Datenbank in großen Data-Warehouse-Umgebungen. Ebenso wurden die Datenintegrationswerkzeuge und Data-Mining-Möglichkeiten verbessert. „Mit der multidimensionalen Datenbank Analysis Services bietet Microsoft inzwischen die marktbeherrschende Engine in diesem Segment an“, sagt Barc-Experte Bange.
Das Segment ist attraktiv. Nach einer von IDC im Dezember 2005 durchgeführten Studie wollen mehr als 60 Prozent der befragten Unternehmen in Deutschland dieses Jahr erstmals in BI-Lösungen investieren (23 Prozent) oder ihre Ausgaben für bestehende BI-Systeme erhöhen (42 Prozent). Für den Zeitraum bis 2009 prophezeien die IDC-Martkforscher ein Wachstum von jährlich 4,9 Prozent und einen Umsatz von über 360 Millionen US Dollar im Jahre 2009.
Softwarelandschaft unüberschaubar
Den Kuchen teilen Anbieter unterschiedlichster Provenienz unter sich auf, denn BI ist ein weites Feld und die Softwarelandschaft kaum überschaubar. Rund um die zentrale Instanz Data Warehouse gruppiert sich eine Vielzahl von Werkzeugen und funktionalen Ergänzungen, die von Datenintegration und Datenqualitäts-Management über OLAP-, Report- und Metadaten-Management bis zu Data Mining Workbenches und Analytical Process Controlling reichen. Dabei haben die Werkzeuge unterschiedlichste Reifegrade, die von praxiserprobten Systemen bis zu Modulen reichen, die auf absehbare Zeit das Stadium des produktiven Unternehmenseinsatzes kaum erreichen werden (siehe Diagramm Gartner Hype Cycle BI).
Eine besondere Rolle nimmt hier das Corporate-Performance-Management (CPM oder auch BPM = Business-Performance-Management) ein. Während Business Intelligence üblicherweise als die Umwandlung von operativen Daten in entscheidungsrelevantes Wissen definiert wird, geht CPM darüber hinaus. „Die grundlegende Idee von CPM ist es, Unternehmensziele und Geschäftsprozesse kontinuierlich zu überwachen, aufeinander abzustimmen und konsistent zu halten“, sagt Wolfgang Martin, Analyst und Experte für IT-Strategie. Ein klassisches BI-System ist dabei unverzichtbar: Ihm fällt die Rolle des Überwachens zu. Das Planen und Steuern gerät erst unter dem CPM-Blickwinkel in den Fokus. Denn während BI-Systeme zwar differenzierte Analysen, Modellrechnungen und Simulationen erlauben, sind sie grundsätzlich auf die Auswertung vergangener Ereignisse gerichtet. In BI-Systemen fehlt es aber sowohl an einem strukturierten Regelwerk als auch an Softwarelösungen, um die Ergebnisse für die zeitnahe Planung nutzbar zu machen.
Damit fügt CPM der retrospektiven BI-Sicht den Aspekt der künftigen Planung hinzu. CPM gilt als Schlüsselstrategie, um die Geschäftsprozesse effizienter und produktiver zu machen. Damit bekommt auch die Anforderung an die Datenqualität im Data Warehouse eine neue Dimension.„Wesentlicher Treiber für BI- und auch CPM-Lösungen sind die wachsenden Anforderungen an die Transparenz des Unternehmens- und Marktgeschehens vor dem Hintergrund sich immer schneller ändernder Geschäftsanforderungen. Im Kern dieser IT-Architekturen steht das Data Warehouse als integrierte und qualitätsgesicherte Datenbasis zur Unterstützung dispositiver und operativer Prozesse“, sagt Barc-Experte Bange.
Schlechte Datenqualität
Denn das Data Warehouse (DW) ist häufig der Ort der höchsten Datenqualität im Unternehmen. Der Vorgang der Datenintegration nimmt beim Aufsetzen eines DW den größten Teil des Projekts in Anspruch. 50 bis 80 Prozent des Projektaufwandes steckten in der Aufbereitung der Daten, schätzt Bange. „Meist ist die Datenqualität der Vorsysteme weit schlechter, als die Verantwortlichen vermuten.“ Durch Zentralisierung und Kontrolle der Datenflüsse können beim Befüllen des Data Warehouse Plausibilitätsprüfungen und Routinen zur qualitativen Datenverbesserung installiert werden. Diese Funktionen zur Verbesserung der Datenqualität sind dabei immer häufiger in Datenintegrationssoftware eingebunden.
Meist verstärken sich die Anbieter durch den Zukauf von Unternehmen mit spezialisierten Softwarewerkzeugen für das Messen der Qualität vorhandener Daten (Data Profiling) und die Verbesserung der Datenqualität durch Konsolidierung, regelgesteuerte Transformation oder den Abgleich mit Referenzdatenbeständen (Data Cleansing). Schon 2000 hatte SAS DataFlux übernommen, Ascential (jetzt bei IBM) hatte Vality und MetaGenix im Jahre 2002 zugekauft. In einem umgekehrten Fall hat der Anbieter von Datenqualitätssoftware Group1 2003 den ETL-Anbieter Sagent übernommen. Anfang 2006 haben auch Informatica und Business Objects durch Akquisition der Datenqualitätsspezialisten Similarity Systems und Firstlogic ihre Produktpalette erweitert. Andere Datenintegrationsanbieter komplettieren ihr Angebot durch Eigenentwicklungen. So sind Data-Profiling-Methoden inzwischen auch im Oracle Warehouse Builder oder bei Ab Initio zu finden.
ERP- wie Datenbankanbieter sehen im Data Warehousing einen wichtigen Teil ihres Lösungsangebotes. „Der Markt wird daher heute von so gut wie allen großen Softwareanbietern adressiert. Vor allem die Datenbankanbieter Oracle und Microsoft verfolgen eine hybride Strategie zur Kombination von relationalen und multidimensionalen Datenbanken“, hat Bange beobachtet. Zudem existierten zahlreiche spezialisierte Anbieter für multidimensionale Datenbanken, die vor allem für Data Marts in Fachabteilungen oder für Planungsanwendungen eingesetzt werden, wie Applix, MIS oder Hyperion.
Besonders die umsatzstärksten Datenbankanbieter IBM, Oracle und Microsoft forcieren den Ausbau ihrer Datenbanken zu umfassenden Data-Warehouse-Plattformen, die Datenintegrationswerkzeuge, relationale und multidimensionale Speicherkomponenten, Data-Mining-Workbenches sowie weitere Werkzeuge und Komponenten enthalten.
Kampf um Datenintegration
In klassischen BI-Systemen werden zu definierten Zeitintervallen – stündlich, täglich, monatlich – die relevanten Daten aus den operativen Systemen extrahiert und in das Data Warehouse geladen. Die dafür verfügbaren Werkzeuge bilden in vielen Unternehmen inzwischen das Rückgrat einer Datenintegrationsschicht, die nicht mehr nur Data Warehouses befüllt, sondern prinzipiell alle Systeme verbinden kann. Damit fallen den Datenintegrationswerkzeugen weitere Aufgaben zu wie etwa Migration, Synchronisation oder Replikation. Anbieter wie Data Mirror oder Syncsort, die traditionell auf diese Themen spezialisiert waren, werden so zu Wettbewerbern im Bereich der Datenintegration.
Mit der Vision des Real-Time-Business und im Zuge eines zeitnahen CPM gerät auch die „Real-Time-Integration“ ins Blickfeld, also die direkte Übernahme von Daten sofort nach ihrer Erzeugung im operativen System. Diese Anforderung erfüllen traditionell Technologien der Applikationsintegration (EAI, Enterprise Application Integration). Spezialanbieter wie Tibco, SeeBeyond oder WebMethods verbinden sich über Partnerschaften mit ETL-Anbietern oder integrieren ETL-Funktionen in ihre Produktpaletten. So kann zum Beispiel IBM nach dem Kauf von Ascential in diesem Bereich ein breites Angebot aufweisen, Iway bietet neben Adaptern auch einen Transaktionsmonitor und ein ETL-Werkzeug an.
Auch das SAP BW mit den Integrationskomponenten innerhalb der Netweaver-Platform zeigt, dass die ehemals getrennten Bereiche der Integration operativer Systeme durch EAI auf der einen, der Überführung von Daten in dispositive Systeme durch ETL-Werkzeuge und Methoden auf der anderen Seite, zu einem universellen Funktionsbereich „Datenintegration“ zusammenwachsen.
Ein Ende der Konsolidierung bei den BI-Anbietern ist nicht in Sicht. Und sie werden auch künftig ihre Systeme mit weiteren Funktionen verbessern. Denn es gibt viele weitere ungelöste Aufgaben: „Data Warehouses geben heute einen Einblick in das Geschäftsgeschehen auf Basis von Kennzahlen und Metriken, also strukturierter Daten. Schätzungsweise 80 Prozent aller Daten im Unternehmen liegen aber in unstrukturierter Form, also als Text, Bild oder Tondateien vor. In diesen stecken noch große Potenziale zur Unterstützung von Entscheidungsträgern, die momentan noch nicht integriert mit den strukturierten Daten verfügbar gemacht werden“, merkt BI-Experte Bangean.