Unternehmen werden in den kommenden Jahren viel Geld in die Hand nehmen, um ihre Geschäfte mit Hilfe von Daten und Datenanalysen voranzutreiben – so zumindest lauten die Prognosen. Beispielsweise gehen die Analysten von IDC davon aus, dass das globale Business mit Big Data und Analytics bis 2020 um 11,7 Prozent jährlich zulegen werde – von gut 130 Milliarden Dollar im laufenden Jahr auf über 203 Milliarden Dollar im Jahr 2020. "Die wachsende Verfügbarkeit von Daten, neue technische Möglichkeiten sowie der kulturelle Wandel in den Unternehmen, Entscheidungen zunehmend Daten-basiert zu treffen, treiben die Nachfrage nach Big-Data- und Analytics-Technik und -Services", konstatierte Dan Vesset, Group Vice President für den Bereich Analytics und Information Management bei IDC.
Von einem boomenden Markt darauf zu schließen, dass die Geschäfte mit Big Data und Analytics ein Selbstläufer sind, ist allerdings ein Trugschluss. Auf Anwenderseite weiß man zwar um die Notwendigkeit, stärker auf Daten und Analytics zu bauen. Vielerorts sind jedoch noch grundlegende Hausaufgaben zu erledigen – Datensilos einreißen, Systeme konsolidieren oder sich um die Datenqualität kümmern. Zudem hinterfragen die Verantwortlichen genau, welchen Nutzen neue Analytics-Lösungen und -Dienste bringen und ob es sich lohnt, entsprechende Investitionen zu tätigen.
Herkömmliche BI-Strategien reichen nicht mehr
Da die Verantwortlichen jedoch merken, dass sie mit ihren klassischen Business-Intelligence-(BI-)Ansätzen nicht mehr weiterkommen, dürfte kein Weg daran vorbei führen, neue Analytics-Strategien aufzusetzen und auch Geld dafür in die Hand zu nehmen. Carsten Bange, Gründer und Geschäftsführer des Business Application Research Center (BARC), mahnte auf dem Jahreskongress des Analystenhauses am 8. und 9. November in Würzburg, dass herkömmliche Strategien nicht ausreichten, um die künftigen Herausforderungen zu meistern.
Der Analyst spricht von Excel-Manufakturen und Informationsfabriken, deren primäre Ziele darin beständen, stabile und gesicherte Daten sowie weitgehend automatisierte Prozesse bereitzustellen, die Kosten zu optimieren und klare Service-Levels zu definieren. In der künftigen Analytics-Welt werde das allein aber nicht mehr funktionieren. "Gerade durch die Digitalisierung ändert sich das Bild derzeit massiv", sagt Bange.
Data as a Product
Diese Veränderungen beträfen das Fundament der Unternehmen, erklärt der BARC-Experte und nennt Management-Prozesse, operative Prozesse sowie Produkte und Geschäftsmodelle. Beispielsweise würden Planung, Steuerung und Kontrolle der Unternehmensleistung künftig wesentlich stärker auf Daten basieren als auf Erfahrung, Intuition und Bauchgefühl. Es gelte, Forecasting und Analysen mit Algorithmen zu unterlegen. Teilweise lieferten diese schon heute bessere Ergebnisse als Menschen, stellt Bange fest.
Auch die Steuerung der Abläufe werde künftig stärker auf Datenanalysen und daraus abgeleiteten Modellen basieren statt auf vordefinierten Prozessen und Regeln. Grundsätzlich dürfte darüber hinaus der Anteil von Datenanalysen an der Wertschöpfung von Produkten wachsen. Der Analyst sieht in diesem Zusammenhang auch vollständig daten-basierte Produkte – Data as a Product.
Angesichts dieser Entwicklungen muss sich Business Intelligence und Analytics in den Unternehmen neu justieren, drängt Bange die Verantwortlichen. Dabei identifiziert er vier Herausforderungen:
1. Was in den Firmen heute an Daten ausgewertet werde, sei nur die Spitze des Eisbergs. Das Datenspektrum werde sich in Zukunft noch deutlich erweitern, beispielsweise durch Sensordaten beziehungsweise verschiedenste Geräte und Maschinen. Zusätzlich entständen regelrechte Daten-Ökosysteme rund um die Unternehmen: Beteiligt seien unter anderen Partner, Lieferanten und Kunden. Darüber hinaus könnten sich Unternehmen bei kommerziellen Datenlieferanten sowie im Zuge von Open Data mit zusätzlichem Datenmaterial eindecken.
Als Beispiel für das Potenzial, das hinter einem solchen mit Open Data erweiterten Datenspektrum steckt, führte Bange das Würzburger Startup Green Spin an. Auf Basis von frei verfügbaren Satelliten-Bildern haben die Entwickler das "Modern Farmer's Tool" (mofato) gebaut. Damit könnten Bauern anhand von Bodenbeobachtungen genau die ertragsreichen und ertragsarmen Bereiche auf Äckern identifizieren. Durch eine entsprechend optimierte Bewirtschaftung ließen sich in der Folge die Erträge steigern.
Open-Data-Portale seien zwar noch etwas unübersichtlich, lieferten aber "unglaublich viele Daten", sagt Bange. Der Phantasie seien an dieser Stelle kaum Grenzen gesetzt. Der Analyst verweist unter anderem darauf, dass sämtliche Zoll-Informationen der USA im Netz zugänglich sind. Damit lasse sich beispielsweise feststellen, wie viele Produkte ein Konkurrent in einem bestimmten Zeitraum in die Vereinigten Staaten eingeführt habe.
2. Außerdem verändere sich die Gravitation der Analytik, sagt der BARC-Mann. So bewege sich die Analytik hin zu den Daten, in die operationalen Systeme. Der Trend gehe dahin, Analysen direkt in den Prozessen zu verankern. An dieser Stelle würden Konzepte wie Edge Computing zunehmend interessanter. Dabei laufen erste Analysen bereits direkt dort, wo Daten produziert werden – als eine Art Filter, der nur die wirklich relevanten Daten weiterreicht. Auch die Cloud verändert die Anziehungskräfte. Wenn immer mehr Anwendungen und Daten in die Cloud verlagert werden, dann sei es aus Sicht von Bange nur logisch, wenn auch die Analysen in der IT-Wolke abliefen.
3. Die Technik rund um Big Data und Analytics entwickelt sich rasant weiter, beschreibt Bange eine weitere Herausforderung für die Anwenderunternehmen. Er verweist darauf, dass es beispielsweise rund um NoSQL- und Graph-Datenbanken viele neue Ansätze und Ideen gibt, Daten nicht mehr nur relational zu betrachten. So habe sich die Zahl der NoSQL-Datenbanken in den vergangenen Jahren auf 225 verdoppelt. Auch auf dem Open-Source-System Hadoop setzten immer mehr Initiativen auf. Zwar sei das Ganze noch etwas unreif – gerade auch mit Blick auf den Business-Einsatz –, aber die innovative Dynamik in diesem Umfeld sei noch lange nicht am Ende.
4. Als größte Herausforderung in einem sich stetig wandelnden BI-Markt sieht Bange, die Anwender mitzunehmen. In einem klassischen Szenario habe man von diesen Wohlverhalten erwartet – brav warten, bis sie aus der BI-Abteilung die angeforderten Berichte und Reports erhielten. Doch die Anwender helfen sich in Sachen Analytik zunehmend selbst. Das sei ein Hilfeschrei, weil ihre Anforderungen von den eigenen BI-Abteilungen nicht erfüllt würden.
Die entscheidende Frage lautet aus Sicht von Bange: "Wie kann man Anwendern Flexibilität bieten, aber trotzdem die Kontrolle behalten?" Letzteres sei notwendig, um nicht in das gleiche Chaos wie beim Excel-Wildwuchs abzudriften. Der Analyst plädiert dennoch für mehr Exploration. Unternehmen sollten die Anwender lernen lassen und ihnen mehr Freiheiten lassen. In Datenlaboren ließen sich über Versuch und Irrtum explorative Datenanalysen ausprobieren.
Aber, so Bange: "Hier lässt sich kein Return on Investment ausrechnen." Ergebnisse seien nicht vorhersagbar. Ein solches Umfeld bedeute allerdings einen Kulturwandel in den Unternehmen. "Dafür sind viele Unternehmen nicht vorbereitet." Mit einer derartigen Situation zurecht zu kommen, erfordere ein regelrechtes Innovations-Management.
Zudem brauche es neue Rollen. Der Experte nennt dafür neben den Data Scientists und Data Engineers, die auf einer technischen Ebene mit Daten hantierten, auch den Data Artist. Dessen Aufgabe sei es, das Thema Analytics zu kommunizieren und letztlich auch in den Produktivsystemen und -prozessen umzusetzen. Man könne die besten Analysen haben, sagt Bange, wenn sie keiner verstehe, nutzten sie gar nichts.
Two-Speed-IT für BI ist grober Unfug
Ferner geht es aus Sicht des Analysten auch um Geschwindigkeit. Unternehmen bräuchten die notwendige Performance bei der Integration, Speicherung, Verarbeitung und Bereitstellung von Daten und Analysen. Konzepten wie einer Two-Speed-IT erteilt Bange jedoch eine klare Absage. Das passe für BI schlichtweg nicht und sei "grober Unfug". Der Analyst warnt davor, die Informationsfabrik könnte zusammenbrechen, wenn man sie auf dem Gleis der alten IT abstelle. Das klassische Kern-BI werde in Zukunft weiter benötigt, auch wenn man agiler und beweglicher werden müsse. Im BI-Kosmos von Bange gruppieren sich um einen stabilen BI-Core als Gravitationszentrum neue agile Analytics-Services.
Die BI-Realität in den Unternehmen scheint dem BARC-Analysten recht zu geben. Viele Initiativen drehen sich nach wie vor um diesen Kern. Es geht darum, Daten- sowie Analytics-Systeme aufzuräumen, zu ordnen und zu konsolidieren.
CERN: Datensilos aufbrechen
So beschrieb beispielsweise Jan Janke vom Cern auf dem BARC-Kongress seine BI-Ambitionen als "ganz klassisch". Das Problem seien vor allem Datensilos gewesen, die suboptimal verbunden waren. Sein Ziel sei es, einen Single Point of Truth aufzubauen. Daran arbeitet Janke seit 2012, im kommenden Jahr soll die Neuausrichtung der BI-Strategie abgeschlossen sein. Im Rahmen des Projekts Iris bauen die Analytics-Experten im Cern an einem zentralen Echtzeit-Data-Warehouse, auf dem eine einheitliche Analyseplattform aufsetzen soll. Damit würden Janke zufolge mehrere bis dato domänenspezifisch organisierte Data Warehouses in einem zentralen System konsolidiert.
Für Janke geht es zudem darum, die Kontrolle in seinem Analytics-Kosmos zu behalten. Rund 200 Fachleute würden direkt mit Abfrage-Cubes arbeiten, die mehrere Tausend anderen Mitarbeiter am CERN müssten dagegen die gewünschten Datenanalysen beantragen. Zwar tastet sich Janke vorsichtig an neue Methoden heran. So gibt es ein Werkzeug für Predictive Analytics, mit dessen Hilfe Betrugsversuche im Abrechnungssystem effizienter erkannt werden sollen. Doch der Cern-Mann stellt klar: "Ohne klassische BI geht bei uns gar nichts."
Lufthansa: Mehr Zeit für Analysen
Auch Heiko Merten, Senior Manager Business Intelligence Applications bei der Lufthansa, ist dabei, seine BI-Landschaft aufzuräumen. "Wir kamen aus einer unintegrierten Silo-Welt", erzählt der Manager. Berichte und Forecasts seien in weiten Teilen überfrachtet und unlesbar gewesen. Außerdem seien oft "Äpfel mit Birnen" verglichen worden.
Um Ordnung in diesem Informations-Overkill zu schaffen, hat Merten anhand der Kernprozesse zunächst ein klares System von Key Performance Indicators (KPIs) geschaffen. Darüber hinaus wurde das Reporting, das mit Excel aufgrund der Datenmengen und steigender Leistungsanforderungen ans Limit stieß, auf eine völlig neue Basis gestellt. Nun werden sämtliche Daten in einem zentralen Data Warehouse gesammelt und aufbereitet. Die Visualisierung der Analyseergebnisse funktioniert über einen Tableau-Server. Ziel sei es, nur noch 20 Prozent des Aufwands in die Vorbereitung der Daten zu stecken und 80 Prozent für Analysen verfügbar zu haben – "heute ist es oft noch umgekehrt".
Prinzipiell sollen alle Daten frei verfügbar sein, postuliert Merten und orientiert sich damit durchaus an den neuen Analytics-Paradigmen. Aber zu viele Freiheiten will der Manager dann doch nicht zulassen. Die Account-Manager sind angehalten, die vorkonfigurierten Berichte zu nutzen. Ihr Job sei es schließlich, sich um das Business zu kümmern und nicht mit Daten zu experimentieren.
Casinos Austria und M-Net: Mehr Daten in das System integrieren
Die Beispiele Cern und Lufthansa belegen, dass in Sachen Analytics noch einige Basisarbeit ansteht. Dennoch sind die Unternehmen offen für neue Methoden wie Predictive Analytics oder die Erkenntnis, wie wichtig die Visualisierung von Analyseergebnissen ist. Letzteres haben auch die Casinos Austria erkannt.
Geschäftsbereichsleiter Christian Schütz hat ein Balanced-Scorecard-System entwickelt, mit dessen Hilfe das Management auf einen Blick erkennen könne, wie das Geschäft läuft. Dabei geht es auch um nicht monetäre Kennzahlen wie beispielsweise die Kundenzufriedenheit. Schütz denkt zudem bereits daran, zusätzliche Daten zu berücksichtigen wie zum Beispiel Informationen über Wetter und Verkehr. Sein Credo: "Wir wollen mehr Daten, die unser Geschäft beeinflussen, im System integrieren."
Das hat auch Markus Kolb von M-Net in seinem Business Intelligence Competence Center umgesetzt. Für die 800 Mitarbeiter des Netzbetreibers wurde ein Cockpit entwickelt, das anzeigt, wie rentabel einzelne Gebiete laufen. Anhand der Abbildung der Netztopologie im System bekommen die M-net-Mitarbeiter dabei Einblicke bis auf die Ebene einzelner Kunden.
Audi: Komplexität beherrschen
Detailliertere Einsichten erlaubt auch Dieter Joenssen, Data Scientist bei Audi. Das System "Vera" bildet für die Ingenieure des Autobauers in einem Variantenbaum sämtliche möglichen Konfigurationen der Fahrzeuge ab und zeigt an, wie beliebt bestimmte Zusammenstellungen sind. Damit könnten wenig nachgefragte Variationen aus dem Programm genommen werden – das spart Geld. „Varianz beherrschen, Komplexität beherrschen“, lautet dabei das Motto von Joenssen.
Dass in den Unternehmen rund um Daten und Analytics einiges in Bewegung gekommen ist, spiegelt sich auch in der Organisation wider. BI-Vorhaben sind längst nicht mehr isolierte IT-Angelegenheit. Jankes Analytics-Team gehört zur Finance-Abteilung im Cern, Lufthansa-Mann Merten zählt zum Vertrieb. Wobei natürlich alles in enger Abstimmung mit den eigenen IT-Organisationen laufe, wie die Manager beteuern. Auch die Geschäftsführungen nähmen schärfer wahr, wie wichtig Analytics für die künftigen Geschäfte sei. Die Lufthansa habe in der Vergangenheit eher technik- und weniger datengetrieben agiert, erzählt Merten. Das habe sich in den zurückliegenden Monaten grundlegend gewandelt.
Training und Management of Change nicht vergessen
Das bringt allerdings auch neue Herausforderungen mit sich. Aspekte wie das Training und Management of Change seien nicht zu unterschätzen, warnt Merten. Es gelte den Know-how-Austausch zu organisieren und zu kommunizieren – damit nicht wieder neue Inseln entstehen. Auch Schütz von den Casinos Austria betont die Bedeutung der menschlichen Komponente: "So ein Projekt funktioniert nicht nur mit Bits und Bytes." Es gehe darum, auch die Menschen mitzunehmen.
Barc-Analyst Bange mahnt ebenfalls die BI-Abteilungen, sich für Veränderungen zu öffnen und sich von althergebrachten Gewohnheiten zu verabschieden. Habe man mit einem zentralen Data Warehouse noch die Kontrolle über Daten und Datenanalysen gehabt, müsse man sich in Zukunft damit abfinden, dass es eine solche zentrale Kontrolle nicht mehr geben wird.
Big-Data-Technik ist reif, den Nutzen zu ernten
All diese aktuellen Entwicklungen machen deutlich, dass es für die Unternehmen jetzt darum geht, konkreten Nutzen aus neuen Analytics- und Big-Data-Szenarien zu ziehen. Die Zeit dafür scheint reif, wie Holm Landrock, Analyst der Experton Group, feststellt: "Die Big- Data-Technologien haben jetzt die Reife, um einen wirklichen Nutzen zu schaffen." Aber: "Was derzeit noch fehlt, ist die Verknüpfung mit einem tatsächlichen Anwenderbedarf." Nur wenige Anbieter schafften es, ihre Technologie mit einem konkreten Nutzenversprechen zu verknüpfen. "Dabei wird genau dies in den kommenden Jahren den Erfolg von Big-Data-Technologien bestimmen", prognostiziert Landrock.
Auch Gartner sieht diesen Wendepunkt erreicht. "Wenn es um Big Data geht, finden sich viele Unternehmen derzeit in einer Art Herstellungsphase", sagt Jim Hare, Research Director bei Gartner. Das belegen auch aktuelle Zahlen. Knapp die Hälfte von rund 200 befragten Unternehmen hat bereits in Big Data investiert. Das sind drei Prozentpunkte mehr als in einer vergleichbaren Umfrage aus dem Jahr 2015. Allerdings sehen die Gartner-Analysten die Marktprognose nicht ganz so positiv wie ihre Kollegen von IDC. So werde der Anteil der Firmen, die in den kommenden Jahren weiter investieren wollen, von 31 auf 25 Prozent fallen.
Das Problem liege darin, wie Big Data umgesetzt werden soll, konstatiert Nick Heudecker, Research Director von Gartner. Die Unternehmen hätten verstanden, dass es bei Big Data nicht um eine spezifische Technik geht. Allerdings dürften sie Big Data auch nicht als isolierte Initiative betrachten. "Der Erfolg hängt an einer ganzheitlichen Strategie, die den Business-Nutzen, die Skills der Mitarbeiter, die Daten und die Infrastruktur einbezieht."