Big Data Analytics
Wie Datenanalyse zum Fiasko wird
Florian Maier beschäftigt sich mit diversen Themen rund um Technologie und Management.
Data Analytics befähigt Organisationen, tiefgehenden Einblick in nahezu jeden Aspekt ihrer Struktur zu bekommen. Daraus kann wiederum ein Wettbewerbsvorteil erwachsen. Kein Wunder, dass viele Unternehmen massiv in Data Analytics Tools investieren.
IDC geht in einer Prognose vom März 2017 davon aus, dass sich die weltweiten Ausgaben für Big DataBig Data und Business Analytics in diesem Jahr auf satte 150,8 Milliarden Dollar summieren werden. Im Vergleich zum Vorjahr ist das ein Zuwachs von zwölf Prozent. Bis zum Jahr 2020 erwarten die Analysten weiteres Wachstum: Mehr als 210 Milliarden Dollar sollen dann aus dem Unternehmensumfeld in die Technologie fließen. Alles zu Big Data auf CIO.de
Dem Data-Analytics-Boom zum Trotz tappen aber immer noch viele Unternehmen in Fallen, die den Mehrwert der Datenanalyse zunichtemachen können. Wir haben mit verschiedenen Experten gesprochen und zeigen Ihnen sieben Wege, wie Ihr Data-Analytics-Projekt ganz sicher zur Katastrophe wird. In diesem Sinne: Don’t try this at work!
1. Suchen, ohne zu wissen wonach
Wenn Sie die Trends oder Signale die Sie aus Ihren Daten ziehen möchten, überhaupt nicht kennen, wie können Sie dann erwarten damit Mehrwert zu erzeugen?
"Das größte Problem im Datenanalyse-Prozess ist, wenn man keine Ahnung hat, wonach man in den Daten überhaupt suchen soll", weiß Tom Davenport, Berater bei Deloitte und Autor von "Competing on Analytics: The New Science of Winning". "Diese Interpretation von Data Mining, dass man wie durch Zauberhand schon etwas Interessantes in seinen Daten findet, hat in den letzten Dekaden bereits viele Unternehmen auf Abwege geführt. Auch in Zeiten von Machine LearningMachine Learning ist es hilfreich zu wissen wonach man sucht, wenn es um die Relation zwischen den Daten geht." Alles zu Machine Learning auf CIO.de
Bei The Weather Company legt man seinen Fokus deshalb darauf, "Mitarbeiter zu finden, die wissen wie man unsere Daten durchsucht und auf Grundlage dessen eine vollständige und akkurate Interpretation der Daten liefern können", wie QA-Manager Todd Eaton verrät. "Die richtigen Leute haben eine Leidenschaft dafür, mit Hilfe von Daten Fragen zu beantworten und ihre Erkenntnisse kontinuierlich zu hinterfragen. Es ist unabdingbar für unser Unternehmen, dass jeder Mitarbeiter nicht nur unsere allgemeinen Ziele kennt, sondern auch weiß, was wir in unseren Daten finden wollen. Nur so ist es uns möglich, konsistente Messungen und Daten zu sammeln."
- Datenmanagement: Ungenutztes Potenzial
Eine aktuelle IDC-Studie zum Thema Data Mining will zeigen, dass bei vielen Unternehmen Nachholbedarf in Sachen Datenmanagement herrscht. Dabei kann ein effektiver Datenarchivierungsprozess sowohl für mehr Umsatz, als auch für Kosteneinsparungen sorgen. Mit diesen drei Tipps holen Unternehmen das Maximum aus ihren Datenarchiven. - 1. Chief Data Officer
Ein Chief Data Officer sorgt dafür, dass mehr Kontrolle über die Datenarchive erlangt wird. In Zusammenarbeit mit COO und CIO sollte er langfristige Geschäfts- und Datenstrategien festlegen. - 2. Informationslandkarte
Eine Informationslandkarte gibt Aufschluss über alle Datenquellen eines Unternehmens, deren Aufbewahrungsorte und Wert. - 3. Ganzheitliche Archivierungsstrategie
Eine ganzheitliche Archivierungsstrategie, die auch die Punkte Datenaufbewahrungsfristen, Anwendungsfälle, Wert der Daten, notwendige Zugänge und Archivkosten abdeckt.
Besonders rapide nähert man sich einem Data-Analytics-Fiasko, wenn der Fokus fehlt, meint Christina Clark, CDO bei General Electric: "Data-Analytics-Teams sind am erfolgreichsten, wenn sie auf einige priorisierte Ziele hinarbeiten. Oft scheitern Datenanalyse-Projekte daran, dass die Teams zu viele Geschäftsziele auf einmal erreichen müssen."
2. Die eigene Infrastruktur aufbauen (und warten)
Es mag verführerisch auf Sie wirken, Ihre eigene Big-Data-Infrastruktur aufzubauen und auf dem neuesten Stand zu halten. Damit könnten Sie allerdings auch den Erfolg Ihrer Datenanalyse-Initiative aufs Spiel setzen. Warum, erklärt Oliver Tavakoli, CTO beim Security-Anbieter Vectra: "Das führt dazu, dass Data Scientists in aller Regel jede Menge wertvolle Zeit auf viele Dinge verwenden - nur nicht darauf, die Datenanalyse selbst besser zu machen."
Dabei spricht Tavakoli aus Erfahrung: "Nach vielen Hardware- und noch mehr Software-Fehlern haben wir uns letztlich dazu entschlossen, diesen Teil des Problems mit Outsourcing zu lösen." Seitdem arbeitet Vectra in Sachen Infrastruktur mit einem externen Dienstleister zusammen. Und die Data Scientists verbringen nach Auskunft von Tavakoli ihre Zeit nun in erster Linie damit, das System mit Daten zu füttern und diese zu analysieren.
3. Zum Data Divider mutieren
Das Problem der Datensilos bestand und besteht in vielen Unternehmen weltweit. Diese Silos verhindern den Informationsaustausch zwischen Abteilungen und schmälern damit die Erfolgschancen der gesamten Organisation. Geht es um (Big) Data Analytics, ergibt sich exakt dieselbe Problemstellung, beziehungsweise Herausforderung.
Jeffry Nimeroff, CIO bei Zeta Global, hat deswegen eine wirksame "Best Practice" auf Lager: "Jedes Datensilo erzeugt eine Barriere zwischen Verbindungsstellen, die Mehrwert generieren könnten. Stellen Sie sich ein umfangreiches Userprofil vor. Wenn dieses Profil nicht mit den Aktivitätsdaten der Website verknüpft ist, lassen sich auch keine prädiktiven Aussagen treffen."
Das bedeutet aber auch nicht, dass Sie jetzt all Ihre Daten in einen Monolithen schmeißen. Nimeroff zeigt eine Alternative auf: "Wir setzen stattdessen auf moderne Integrationstechnologien, die uns eine ganzheitliche Sicht auf die Daten ermöglichen. Diese verbleiben dabei aber in ihren derzeitigen Systemen."
4. Datenhygiene vermeiden
Wenn Sie Daten analysieren, die nicht akkurat, veraltet oder unorganisiert sind, kann der Wert Ihrer Data-Analytics-Bemühungen drastisch absinken.
"Die 'Vermüllung' der Systeme potenziert sich durch die schiere Masse von Geschäftsdaten noch", weiß Nimeroff. "Gute Datenanalyse-Teams wollen aber mit qualitativ hochwertigen Daten arbeiten. Deshalb müssen Prozesse und Technologien installiert werden, um sicherzustellen, dass die Datenqualität stimmt."
Insbesondere die Wiederholbarkeit der Prozesse und die Möglichkeit zur Auditierung ihrer Ergebnisse sei von großer Bedeutung, so der CIO weiter. Auf technologischer Seite könnten hingegen Data-Quality-Tools für eine bessere Datenqualität sorgen.
- Datenqualität lässt in vielen Firmen zu wünschen übrig
Im Big-Data-Zeitalter spielt Datenqualität in vielen Unternehmen noch nicht die Rolle, die ihr zukommen sollte, bilanziert eine Studie. Das Thema werde nicht als "strategisch relevant" verstanden. - Wie hoch ist Ihrer Einschätzung nach die Datenqualität in Ihrem Verantwortungsbereich?
- Wer sind Ihre Treiber beim Thema Datenqualität?
- Wer sind Ihre Bremser beim Thema Datenqualität?
- Was sind die hauptsächlichen Gründe, warum faktisch gebremst wird?
Auch nach Meinung von CTO Tavakoli müssen Unternehmen Software-Tools dazu nutzen, unvollständige und unbrauchbare Daten auszumerzen. Nur so sei es möglich, die Datenanalyse so einfach wie möglich zu halten: "Wenn die Daten so selbstbeschreibend wie möglich sind, können alle Mitglieder des Teams die Bedeutung jedes einzelnen Bits erfassen."
"High-Quality-Daten sind der Schlüssel für brauchbare Insights", ist auch TP Miglani, CEO bei Incedo, überzeugt: "Data Warehouses und Data Lakes aufzubauen ist ein Muss, um strukturierte und unstrukturierte Daten zusammenbringen zu können. Erfolgreiche Unternehmen achten deshalb darauf, die Qualität ihrer Daten zu verbessern."
Gute Datenhygiene bedeutet aber auch, die Daten so aktuell wie möglich zu halten, verdeutlicht Nimeroff: "Je mehr 'real-time' ein System arbeitet, desto aktueller sind auch die Daten. Für dieses Unterfangen empfiehlt sich unter Umständen auch ein Service-Anbieter."
5. Auf eigene Faust
Wie bei jedem anderen größeren IT-Projekt gilt auch in Sachen Datenanalyse: Ohne den Rückhalt der Chefetage bleiben Erfolge in aller Regel aus.
"Die Aufgabe des Analytics-Teams ist es, Insights zu generieren, indem die Daten aus taktischen und strategischen Unternehmensentscheidungen miteinander verbunden werden. Wenn das Team eine superbe Datenanalyse betreibt und zuverlässige prädiktive Modelle entwickelt, ist das am Ende trotzdem nichts wert, wenn der nötige Kulturwandel innerhalb der Organisation ausbleibt", erklärt Miglani.
Das Data Management auf ein solides Fundament zu stellen, erfordere nachhaltige Bemühungen und dauere unter Umständen Jahre, weiß Christina Clark: "Einige Aufgaben, die das Data-Analytics-Team übernimmt, führen nicht unbedingt zu direkt sichtbaren Ergebnissen. Das könnte unter Umständen den Erwartungen von möglichen Partnerunternehmen zuwiderlaufen. Ein starkes persönliches Engagement der Führungsebene ist deshalb für eine datengetriebene Zukunft genauso unabdingbar, wie die offene Kommunikation mit externen Stakeholdern."
6. Mitarbeiter außen vor lassen
Werden Daten in einem Vakuum ausschließlich von Data Scientists und anderen Experten analysiert und bleibt dabei der Input von anderen Managern aus, die den Bedarf an Analytics am besten beurteilen können, wirkt sich das auf den Erfolg aus.
"Ohne die aktive Einbindung des unteren und mittleren Managements, wird die Unterstützung, die das Analytics-Team liefern will, ins Leere laufen", meint David Giannetto, COO bei Astea International. "Zwar enthalten diese Daten dann Informationen über Schwachstellen in Prozessen und anderen Bereichen, die verbessert werden können, aber das Management kümmert sich erst darum, wenn einmal Zeit ist. Also nie. Nur wenn das Data-Analytics-Team aus Leuten zusammengestellt wird, die das Business und den echten Bedarf für Information kennen, können positive Effekte für das Unternehmen entstehen."
7. Kultur- und Skill-Mangel
Data Scientists sind schwer zu finden. Wer welche hat und seine Unternehmenskultur dennoch nicht in Richtung Data fokussiert, steigert seine Misserfolgschancen erheblich.
"Für Menschen die mit Analytics nichts zu tun haben, ist Data Science eine Art Problemlösungs-Zauber", meint CEO Miglani. "Konzepte wie Predictive Analytics und selbstlernende Algorithmen sind für viele Menschen nur schwer greifbar. Es könnte schwer werden, Ihre Geschäftspartner von undurchsichtigen Algorithmen zu überzeugen. Sie müssen diese erst einmal aufklären."
Und dann wäre da noch das Problem mit dem Fachkräftemangel, wenn es um Big Data und Analytics geht. TP Miglani weiß auch in diesem Fall Rat: "Entwickeln Sie Ihre Fachkräfte und Talente einfach selbst, statt Star-Data-Scientists außerhalb Ihres Unternehmens nachzujagen. Viele Analytics-Projekte gehen deshalb in die Binsen, weil das Unternehmen daran scheitert (rechtzeitig) Spezialisten für die Datenanalyse anzuheuern. Oder die eigenen an die Konkurrenz verliert."
Dieser Artikel basiert auf einem Beitrag unserer US-Schwesterpublikation CIO.