Der Markt für Big Data und Data Analytics boomt. Das Marktforschungs- und Beratungshaus IDC prognostiziert bis 2019 ein durchschnittliches jährliches Umsatzwachstum von 23 Prozent. Das weltweite Umsatzvolumen soll sich von 122 Milliarden Dollar in 2015 auf 187 Milliarden im Jahr 2019 vergrößern. Getragen wird das Wachstum häufig von "Early Adopters", die ihr Unternehmen oder wenigstens ihre Abteilung mit Analytics-Systemen voranbringen wollen. In der Praxis ist der Weg zum datengetriebenen Unternehmen allerdings oft weit. Besonders zu schaffen macht den Protagonisten häufig der Zugang zu wichtigen Daten, der Bedarf an leistungsstärkeren IT-Ressourcen und die Akzeptanz der Benutzer. Vor allem in deutschen Unternehmen spielen zudem Datenschutzbedenken noch immer eine wichtige Rolle.
Lesen Sie dazu auch:
Analytics in der Finanzbranche
Der amerikanische Finanzdienstleister BNY Mellon etwa stand vor der Herausforderung, unterschiedliche Datentypen aus rund 100 Märkten in 35 Ländern zu erfassen und auszuwerten. Schon 2013 plante das Management ein Analytics-System, das jedes einzelne Datenpaket vom ersten Kontakt mit dem Unternehmen über den gesamten Lebenszyklus hinweg verfolgen sollte, eine Art Tracking-System, wie es von Paketzustelldiensten bekannt ist. Für sein "NEXEN Digital Ecosystem" entwickelte BNY Mellon die Big Data-Lösung Digital Pulse . Die Plattform extrahiert Daten aus allen Unternehmensbereichen und speichert sie zentral. Im nächsten Schritt wendet das System Visualisierungs-, Predictive-Analytics-, und Machine-Learning-Algorithmen an.
"Analytics ist heute in unsere tägliche Arbeit eingebettet", erklärt Jennifer Cole, Managing Director für den Bereich Client Experience Delivery. In drei Kontrollräumen etwa könnten Mitarbeiter in Echtzeit wichtige Finanzdaten über riesige Monitore verfolgen. Das sei vorher nicht möglich gewesen. Doch trotz aller Begeisterung der Protagonisten gehöre die Benutzerakzeptanz noch immer zu den größten Herausforderungen, so die Managerin. Erst als den Endbenutzern Analyseergebnisse visuell aufbereitet präsentiert werden konnten, habe man diesbezüglich echte Fortschritte gemacht. Ihr Rat an andere Projektverantwortliche lautet deshalb: "Bereiten Sie so viel wie möglich grafisch auf, um Endbenutzer und Experten aus Fachabteilungen ins Boot zu holen. Verkürzen Sie die Feedback-Schleifen, um das System kontinuierlich zu verbessern."
Datenanalyse im VMware-Sales
Einen anderen Ansatz verfolgt der Softwarehersteller VMware mit seinem Analytics-System. Um die Verkaufsziele für die rund 400 Sales-Mitarbeiter weltweit festzulegen, verließen sich die Planungs-Teams lange Zeit auf Tabellen, manuelle Prozesse und nicht selten schlicht auf ihr Bauchgefühl, berichtet Avon Singh Puri, Vice President der Sparte IT Enterprise Applications and Platforms. Um die Sales-Prozesse für das ganze Unternehmen zu verbessern, entwickelten Puri und sein Team ein multidimensionales Modellierungs-System, das Daten aus unterschiedlichsten Quellen zusammenbringt. Dazu gehören CRM-, MDM- und ERP-Daten ebenso wie externe Informationen beispielsweise von Marktforschern.
In der technischen Umsetzung erfand VMware das Rad nicht neu, sondern nutzte ein bereits bestehendes Data Warehouse auf Basis von Pivotals Greenplum-System. Dieses übernimmt die Daten-Aggregation und kann schnelle Analysen großer Datenmengen fahren. Die aggregierten Daten speist das Data Warehouse in ein Business-Modellierungs- und Sales-Planungs-Tool von Anaplan. Aus Performance-Gründen zog IT-Manager Puri noch eine zusätzliche Softwareschicht zwischen das Data-Warehouse- und das Datenmodellierungs-System ein. Der Clou dabei: Business-User können selbst Einfluss auf Modellierungsparameter nehmen und auch selbständig What-if-Analysen anstoßen. Dieses Vorgehen habe sich auch bezüglich der Benutzerakzeptanz bewährt, so Puri: "Wir versuchen, so viele Selbstbedienungsfunktionen wie mögliche zu implementieren." So müsse sich die IT auch nicht um jeden kleinen Änderungswunsch kümmern.
Big Data bei der amerikanischen Umweltbehörde EPA
Die Big-Data-Reise der US-amerikanischen Umweltbehörde EPA begann, als die Verantwortlichen versuchten, manuelle Prozesse durch elektronische Reports zu ersetzen. Viele EPA-Daten werden über Sensoren generiert, die beispielsweise die Qualität von Böden, Luft und Wasser messen. Im September 2015 engagierte die Behörde mit Robin Thottungal den ersten Chief Data Scientist. In weniger als acht Monaten stellte er eine Analytics-Plattform auf die Beine und orientierte sich dabei am Vorgehen schlanker Startups: rasch Innovationen nutzen und aus Fehlern lernen.
Um sein Analytics-Projekt zu skalieren, fährt er zweigleisig: "Ich habe Data Scientists, die sich all die neuen Plattformen und Technologien von Google, Facebook, Twitter oder LinkedIn ansehen und sich überlegen, wie wir davon profitieren könnten." Daneben arbeitet er mit rund zehn Gruppen zusammen, die innerhalb der EPA als "Early Adopter" gelten und an den Wert von Analytics-Systemen glauben. "Diese Gruppen kommen auf mich zu, sind bereit, ihre Daten zu teilen und dazu noch Ressourcen und Personal zur Verfügung zu stellen, so der Manager. Inzwischen habe man eine Community aus rund 200 Analytics-Praktikern aufgebaut, die ihre Erfahrungen wöchentlich austauschten. Thottungal: "Ich möchte, dass daraus ein Ökosystem entsteht, in dem sich Experten gegenseitig helfen."
Mit Material der COMPUTERWOCHE-Schwesterpublikation Computerworld.