Die meisten Unternehmen kämpfen schon heute mit komplexen BI-Lösungen und zugrundeliegenden Data Warehouse-Landschaften. Lösungsansätze, wie zum Beispiel Enterprise Data Warehouse, Analytical Data Marts oder Real Time Dashboards standen daher auch im scheinbar schon längst vergessenen Zeitalter von 'Small' Data auf der Agenda des CIO. Aber trotz reifer BI-Technologien und hoher Investitionen, sind in der Regel die in der Planung einhergehenden Versprechungen entsprechender Lösungsansätze nicht realisiert worden.
Denn entlang der klassischen Paradigmen, wie beispielsweise der physischen Datenintegration in einem zentralem (Core) Data Warehouse zur Schaffung eines Single Point of the Truth, sind in der Regel zentralistische und starre Lösungen zur Datenbereitstellung und Datenanalyse entstanden. Sind entsprechende Lösungen im Anwendungsfeld des klassischen Reportings noch adäquat, zeigt sich, dass die Komplexität der Gesamtlösung durch die Anzahl der darüber hinaus gehenden analytischen Anwendungen jedoch überproportional steigt.
So bestehen zwischen flexiblen Ad-hoc-Analysen, dem Erfüllen feststehender regulatorischer Berichtspflichten oder dem sekundengenauen Logistik-Tracking große Unterschiede hinsichtlich Reaktionszeiten, Datenvolumen, Änderungsdynamik, der Anzahl an nötigen Datenquellen und dem benötigten BI-Funktionsbedarf. Mit der Zeit entstand neben der zentralistischen Lösung eine Vielzahl von zusätzlichen analytischen Silos - in der Regel aufgrund der Heterogenität der Anforderungen.
Einhaltung derDogmen im BI-Umfeld immer schwieriger
Dadurch wird die Einhaltung der aus der Theorie bekannten klassischen Dogmen im BI-Umfeld immer schwieriger. Vielmehr findet man in der Realität regelmäßig Informationssilos und heterogene Architekturen sowie ein unkontrolliertes Wachstum von Spread Marts. In Folge dessen entwickeln sich Inkonsistenzen, und die fachliche und technische Transparenz über die Datenbewirtschaftung und Datenauswertung nimmt kontinuierlich ab.
Die Gesamtlösung verliert in den Augen der Endanwender die notwendige Akzeptanz und die Bereitschaft sinkt, in weiteren BI-Projekten mitzuwirken. Im Gegenteil: Aus der Unzufriedenheit heraus entstehen neue isolierte Bypass-Lösungen für weitere spezielle Anwendungsfelder, die die Komplexität und Intransparenz weiter steigern.
Für die BI-Verantwortlichen ergibt sich daraus eine besonders herausfordernde Situation: Zeigt der Blick in den Rückspiegel, dass die Versprechen auf Basis einer idealistischen Theorie leider nicht gehalten werden können, steigt hinsichtlich der Zukunft die Unsicherheit, wie der zu erwartende Tsunami an Informationen beherrschbar bleibt und die richtige Roadmap zwischen nachhaltigen Innovationen und übertriebenen Hypes gefunden werden kann.
Big Data dehnt analytische Spielwiese weiter aus
Unter Big Data versteht man Methoden und Technologien für die hochskalierbare Erfassung, Speicherung und Analyse polystrukturierter Daten. Aus dieser Definition wird deutlich, dass Big Data nicht ausschließlich auf Volumen abzielt. Variety und Velocity bilden weitere Charakteristika. Durch das Sammeln großer Datenmengen sowie die komplexe Analyse und Echtzeitintegration von Daten verschiedenster Struktur und Herkunft werden die Herausforderungen von 'Small' Data jedoch verschärft und offenkundig.
Mit dem Einsatz analytischer Plattformen jenseits der klassischen relationalen Datenbanksysteme wird die Gesamtarchitektur heterogener und das Spektrum der Anwendungsgebiete wird mit den Möglichkeiten durch Social Media Analytics weiter ausgedehnt.
Lösung: "Analytical Ecosystem of the Future" aufbauen
Um in Zukunft neben Small auch Big Data gerecht zu werden, ist es an der Zeit bestehende Paradigmen auf den Prüfstand zu stellen und sich neuen Denkmustern zu widmen. Abstrakt braucht es ein neues analytisches Ökosystem, das aus flexiblen Elementen besteht, die bei definierten Freiheitsgraden miteinander agieren. Die dispositiven BI-Systeme sollten sich demzufolge in der Zukunft von starren und zentralistischen Strukturen und IT-Architekturen lösen.
Technische Auswirkungen neuer Denkmuster
Der Ansatz von mehr Freiheit und Heterogenität wirkt sich auf alle Dimensionen bestehender BI-Landschaften aus. Die technische Architektur erlaubt bewusst mehrere analytische Datenpools. Unterschiedliche Anwendungen können auf die polystrukturierten Daten in unterschiedlich benötigter Granularität zugreifen. So können zum Beispiel auch unstrukturierte Daten in Analysen einfließen und nicht alltägliche Nutzeranforderungen erfüllt werden. Es gibt nicht mehr die eine BI-Lösung, mit der alle Anwender klarkommen müssen ('One Size fits all').
Die physische Integration der Daten wird dabei zugunsten einer logischen Integration nicht mehr zwingend vorgeschrieben. Damit steigt die Bedeutung der Metadaten und kann sich nicht mehr nur auf die Ablage von allein technischen Metadaten beschränken.
BI-Systeme der Zukunft werden mit vielen optionalen Komponenten zur Verfügung gestellt. Sie bieten bestimmte Leistungen zur Datenbereitstellung und -analyse in Form definierter Services. Je nachdem, was ein Anwender vorhat, stellt er eine Lösung durch eine Kombination einzelner Bausteine zusammen. Dies bedingt eine definierte technische Heterogenität mit unterschiedlichen Speicher-, Integrations- und Analysetechnologien.
Eine übergreifende Governance verwaltet diese Technologien und sorgt für Transparenz. Die technische Standardisierung wird Bottom-up organisiert. Definierte Frameworks übernehmen die Datenintegration. Oberstes Ziel bleibt die Flexibilität der Lösung, so dass auch temporäre Lösungen und Prototypen ihre Existenzberechtigung im "Analytical Ecosystem" besitzen und sich neue Datenquellen und -typen schnell einpassen lassen.
Servicekatalog als fest definierte BI-Grundlage
Um die internen BI-Dienstleistungen flexibel zu strukturieren und trotzdem keinen Wildwuchs zu schaffen, bietet es sich an, feste Angebote in einem Servicekatalog zusammenzustellen. Sie bilden eine definierte Grundlage, um daraus individuelle BI-Services anzubieten. Einzelne User-Gruppen erhalten entsprechend ihrer organisatorischen Rolle ausgesuchte Servicepakete.
Es gibt eine klare Definition definierter Leistungen und Verantwortlichkeiten. Dieses Vorgehen spart Kosten, da spezialisierte Services in den Katalog aufgenommen werden und sich so wiederverwenden lassen. Das schafft Flexibilität, um Anforderungen rasch und effizient umsetzen zu lassen.
Selbst ist der BI-User
Noch flexibler wird das Analytical Ecosystem im Big Data-Zeitalter, wenn fachliche Nutzer in bestimmten Fällen selbst auf Quelldaten zugreifen und Auswertungen durch eigene Daten anreichern können.
Umsetzen lässt sich das durch Self Service BI. Dabei wird Self Service BI ganz unterschiedlich interpretiert. Reicht für manch einen Hersteller schon die Tatsache, dass der Endanwender Berichte oder Dashboards selber im definierten Rahmen modifizieren oder selbst ad-hoc erzeugen kann, sehen andere die Möglichkeiten zur Integration von privaten, lokalen Daten bis hin zur Modifikation und Erzeugung von eigenen Datenmodellen als entscheidendes Kriterium für Self Service BI.
Welche Variante auch immer gewählt wird, dahinter steht immer der Wunsch der Fachanwender auf "ihre" Daten selbst mit hohen Freiheitsgraden zuzugreifen und nicht den gegebenenfalls mühsamen, abstimmungsintensiven und vor allem langwierigen Weg über das offiziellen Demand Management zu gehen.
In dem Zusammenhang werden häufig für dedizierte Anwendungsfälle sogenannte (temporäre) Sandboxes erstellt. Mit ihnen werden bestimmte Anwendungen bewusst vom Rest der übrigen BI-Systeme getrennt. In dieser Umgebung können Anwender ihre Auswertungen frei ddurchführen und mit den Daten interaktiv ohne Auswirkungen auf den übrigen analytischen Plattformen arbeiten. Diese technische Methode eignet sich beispielsweise für Ad-hoc-Reports und Monitorings, bei denen die Anforderungen schnell wechseln oder im Sinne des Prototyping erst noch konkretisiert werden müssen.
Dies ist ein wichtiger Schritt von der standardisierten Berichterstattung hin zu maßgeschneiderten Lösungen. Er bietet dem Business-Anwender Flexibilität bei der Verknüpfung neuer Daten. Die Zahl der erstellten Standard-Reports, die gegebenenfalls ihren ursprünglichen Sinn schon nicht mehr decken wenn sie im Betrieb ausgeliefert werden, reduziert sich dadurch.
Vier Typen von Sandboxes
|
|
|
|
Analytical Sandboxes erlauben temporäre Datenbereitstellung für BI Self Services
Damit keine BI-Schattensysteme entstehen und die Mitarbeiter lieber die vorhandene Infrastruktur nutzen, sollte der Aufbau von Sandboxes definierten Regeln unterliehen. Eine solche BI Governance schafft die notwendige Transparenz. Self Service BI-Anwendungen sollten zudem keine direkte Anbindung an OLTP-Systeme besitzen und keine Daten an andere IT-Anwendungen weitergeben.
Fazit: Entscheidungsfähigkeit über die Informationsvielfalt stellen
Ob Big Data oder Small Data, letztendlich verfolgen alle Unternehmen ein Ziel: aus der Vielfalt gesammelter Daten klug werden, um daraus eine wirtschaftlichen Nutzen zu erzielen. Damit Analysten durch das Plus an Informationen, die Tools für sie sammeln, auch nützliche Erkenntnisse gewinnen und nicht bloß immer neue Datensilos entstehen, braucht es mehr Flexibilität und Effizienz im Datenmanagement.
Es kommt darauf an, die Entscheidungsfähigkeit über die Informationsvielfalt zu stellen. Die Herausforderung liegt im Umgang mit den Informationen. Die Frage, mit welchen Kennzahlen die Manager ihr Unternehmen steuern wollen, ist eine fachliche Herausforderung und keine technische.
Häufig kommt es vor, dass zwei Manager über die Cross-Selling-Quote sprechen, aber beide verschiedene Definitionen im Kopf haben und so zu unterschiedlichen Schlussfolgerungen kommen. In den entsprechenden BI-Programmen sollten deshalb die Dimensionen Organisation und Fachlichkeit die Technik dominieren.
Der Weg zum "Analytical Ecosystem of the Future" ist lang und nur mit vielen kleinen Umbauschritten zu erreichen. Der erste beginnt in den Köpfen mit einer Veränderung des BI- und DW-Verständnisses.
5 Tipps zum Herangehen an das Thema Big Data
1. Zeitliche Relevanz prüfen. Ist Big Data jetzt schon ein Thema für uns?
Bei einem mittelständischen Maschinenbau-Unternehmen besteht dagegen womöglich im Moment noch keine Relevanz. Insofern ist eine breite Adaption und Produktivität erst in einigen Jahren zu erwarten. Laut Gartner werden 2015 erst rund 15 Prozent der Unternehmen ihre Dateninfrastruktur anpassen, um sich für die Nutzung extrem großer polystrukturierter Datenmengen zu rüsten. |
2. Inhaltliche Relevanz prüfen: Welche Daten brauche ich, und woher stammen sie?
Für Händler ist die Quellenauswahl und -analyse zur Sammlung von Netzinhalten zudem eine zentrale Fragestellung für die Suchmaschinenoptimierung und die Clickstream-Analyse. Interessant ist zudem zu wissen, wie verlässlich die Quellen sind und wie häufig sich Inhalte und Community ändern. |
3. Rechtliche Hürden bei Integration von Big und Small Data beachten
|
4. Analyse von Big Data benötigt Kontextbezug
|
5. Den Business Case für Big Data suchen
|
Klaus-Dieter Schulze ist Senior Executive Manager und Carsten Dittmar Senior Manager - Enterprise Information Management bei Steria Mummert Consulting.