Big Data
Wie große Analytics-Projekte gelingen
Der Markt für Big Data und Data Analytics boomt. Das Marktforschungs- und Beratungshaus IDC prognostiziert bis 2019 ein durchschnittliches jährliches Umsatzwachstum von 23 Prozent. Das weltweite Umsatzvolumen soll sich von 122 Milliarden Dollar in 2015 auf 187 Milliarden im Jahr 2019 vergrößern. Getragen wird das Wachstum häufig von "Early Adopters", die ihr Unternehmen oder wenigstens ihre Abteilung mit Analytics-Systemen voranbringen wollen. In der Praxis ist der Weg zum datengetriebenen Unternehmen allerdings oft weit. Besonders zu schaffen macht den Protagonisten häufig der Zugang zu wichtigen Daten, der Bedarf an leistungsstärkeren IT-Ressourcen und die Akzeptanz der Benutzer. Vor allem in deutschen Unternehmen spielen zudem Datenschutzbedenken noch immer eine wichtige Rolle.
Lesen Sie dazu auch:
Analytics in der Finanzbranche
Der amerikanische Finanzdienstleister BNY Mellon etwa stand vor der Herausforderung, unterschiedliche Datentypen aus rund 100 Märkten in 35 Ländern zu erfassen und auszuwerten. Schon 2013 plante das Management ein Analytics-System, das jedes einzelne Datenpaket vom ersten Kontakt mit dem Unternehmen über den gesamten Lebenszyklus hinweg verfolgen sollte, eine Art Tracking-System, wie es von Paketzustelldiensten bekannt ist. Für sein "NEXEN Digital Ecosystem" entwickelte BNY Mellon die Big Data-Lösung Digital Pulse . Die Plattform extrahiert Daten aus allen Unternehmensbereichen und speichert sie zentral. Im nächsten Schritt wendet das System Visualisierungs-, Predictive-Analytics-, und Machine-Learning-Algorithmen an.
"Analytics ist heute in unsere tägliche Arbeit eingebettet", erklärt Jennifer Cole, Managing Director für den Bereich Client Experience Delivery. In drei Kontrollräumen etwa könnten Mitarbeiter in Echtzeit wichtige Finanzdaten über riesige Monitore verfolgen. Das sei vorher nicht möglich gewesen. Doch trotz aller Begeisterung der Protagonisten gehöre die Benutzerakzeptanz noch immer zu den größten Herausforderungen, so die Managerin. Erst als den Endbenutzern Analyseergebnisse visuell aufbereitet präsentiert werden konnten, habe man diesbezüglich echte Fortschritte gemacht. Ihr Rat an andere Projektverantwortliche lautet deshalb: "Bereiten Sie so viel wie möglich grafisch auf, um Endbenutzer und Experten aus Fachabteilungen ins Boot zu holen. Verkürzen Sie die Feedback-Schleifen, um das System kontinuierlich zu verbessern."
Datenanalyse im VMware-Sales
Einen anderen Ansatz verfolgt der Softwarehersteller VMware mit seinem Analytics-System. Um die Verkaufsziele für die rund 400 Sales-Mitarbeiter weltweit festzulegen, verließen sich die Planungs-Teams lange Zeit auf Tabellen, manuelle Prozesse und nicht selten schlicht auf ihr Bauchgefühl, berichtet Avon Singh Puri, Vice President der Sparte IT Enterprise Applications and Platforms. Um die Sales-Prozesse für das ganze Unternehmen zu verbessern, entwickelten Puri und sein Team ein multidimensionales Modellierungs-System, das Daten aus unterschiedlichsten Quellen zusammenbringt. Dazu gehören CRM-, MDM- und ERP-Daten ebenso wie externe Informationen beispielsweise von Marktforschern.
In der technischen Umsetzung erfand VMware das Rad nicht neu, sondern nutzte ein bereits bestehendes Data Warehouse auf Basis von Pivotals Greenplum-System. Dieses übernimmt die Daten-Aggregation und kann schnelle Analysen großer Datenmengen fahren. Die aggregierten Daten speist das Data Warehouse in ein Business-Modellierungs- und Sales-Planungs-Tool von Anaplan. Aus Performance-Gründen zog IT-Manager Puri noch eine zusätzliche Softwareschicht zwischen das Data-Warehouse- und das Datenmodellierungs-System ein. Der Clou dabei: Business-User können selbst Einfluss auf Modellierungsparameter nehmen und auch selbständig What-if-Analysen anstoßen. Dieses Vorgehen habe sich auch bezüglich der Benutzerakzeptanz bewährt, so Puri: "Wir versuchen, so viele Selbstbedienungsfunktionen wie mögliche zu implementieren." So müsse sich die IT auch nicht um jeden kleinen Änderungswunsch kümmern.
Big Data bei der amerikanischen Umweltbehörde EPA
Die Big-Data-Reise der US-amerikanischen Umweltbehörde EPA begann, als die Verantwortlichen versuchten, manuelle Prozesse durch elektronische Reports zu ersetzen. Viele EPA-Daten werden über Sensoren generiert, die beispielsweise die Qualität von Böden, Luft und Wasser messen. Im September 2015 engagierte die Behörde mit Robin Thottungal den ersten Chief Data Scientist. In weniger als acht Monaten stellte er eine Analytics-Plattform auf die Beine und orientierte sich dabei am Vorgehen schlanker Startups: rasch Innovationen nutzen und aus Fehlern lernen.
Um sein Analytics-Projekt zu skalieren, fährt er zweigleisig: "Ich habe Data Scientists, die sich all die neuen Plattformen und Technologien von Google, Facebook, Twitter oder LinkedIn ansehen und sich überlegen, wie wir davon profitieren könnten." Daneben arbeitet er mit rund zehn Gruppen zusammen, die innerhalb der EPA als "Early Adopter" gelten und an den Wert von Analytics-Systemen glauben. "Diese Gruppen kommen auf mich zu, sind bereit, ihre Daten zu teilen und dazu noch Ressourcen und Personal zur Verfügung zu stellen, so der Manager. Inzwischen habe man eine Community aus rund 200 Analytics-Praktikern aufgebaut, die ihre Erfahrungen wöchentlich austauschten. Thottungal: "Ich möchte, dass daraus ein Ökosystem entsteht, in dem sich Experten gegenseitig helfen."
Mit Material der COMPUTERWOCHE-Schwesterpublikation Computerworld.
- Datenanalyse als Service
Analytics Tools aus der Cloud können den Einstieg in die Datenanalyse erleichtern. Sie erfordern keine Vorabinvestitionen im fünf- oder sechsstelligen Bereich und besitzen teilweise grafische Benutzeroberflächen, die es auch dem weniger versierten Anwender ermöglichen, Analyseprozeduren zu erstellen, die zu aussagefähigen Ergebnissen führen. Wir stellen fünf wichtige Big-Data-Tools vor, die Sie als Service aus der Cloud nutzen können. - AWS Elastic MapReduce
Seit der Version 4.1.0 von Amazon Elastic MapReduce lassen sich Cluster im laufenden Betrieb verkleinern. - Google Cloud Platform
Mit dem Google Cloud Launcher lässt sich ein Hadoop-Cluster mit wenigen Klicks einrichten. - Microsoft Azure
Ein Hadoop-Cluster ist in HDInsight von Microsoft in zirka 10 bis 15 Minuten verfügbar. - IBM Analytics
Beim Einrichten eines Hadoop-Clusters auf IBM Bluemix hat der Anwender die Wahl zwischen drei Cluster-Größen. - SAP HANA Cloud Platform
LubeInsights verknüpft Hadoop im SAP HANA und lädt nur aktuell benötigte Daten in die In-Memory-Datenbank.