Wie aktuelle Umfragen zeigen, werden mehr als die Hälfte aller Big-Data-Vorhaben abgebrochen. Zudem bezeichnet kaum mehr als ein Viertel der Befragten die laufenden oder abgeschlossenen Projekte als erfolgreich. Mehr als die Hälfte ist mit den Projektergebnissen "mäßig" zufrieden.
Die Hauptursachen für das Scheitern beziehungsweise die Unzufriedenheit sind:
-
unzureichende Ausrichtung auf die Unternehmensstrategie,
-
unzulänglicher oder fehlender Business Case,
-
ungenügende Planung,
-
Kommunikationsprobleme,
-
fehlendes Wissen und
-
mangelhafte Datenintegration.
Das Thema Big Data gilt als Hebel für mehr Wettbewerbsfähigkeit. Doch neben technischen und wirtschaftlichen Aspekten stellen sich vermehrt Fragen zur Vertraulichkeit und Sicherheit von Daten sowie zu ethischen Aspekten. Big Data ist Teil der öffentlichen Diskussion geworden. Einer Umfrage von Kapow Software zufolge sind 85 Prozent der Unternehmen vom Big-Data-Nutzen überzeugt. Und gemäß einer Studie von Infochimps gehört Big Data nur für sechs Prozent der Befragten nicht zu den zehn IT-Prioritäten.
Vier Thesen
-
Die Beschäftigung mit Erfolgsgeschichten reicht nicht aus, um das Scheitern von Big-Data-Projekten zu verhindern. Wer sich auch mit den Misserfolgen befasst, erhält wertvolle Hinweise auf vermeidbare Fehler, die den Projekterfolg gefährden.
-
Big-Data-Projekte scheitern oft infolge von Mängeln in der Ausrichtung auf die Unternehmensstrategie, im Business Case, in der Planung, in der Kommunikation, im Wissen und in der Datenintegration.
-
Gezielte Maßnahmen in diesen Bereichen helfen, das Scheitern von Big-Data-Projekten zu bekämpfen.
-
Erfolgreiche Big-Data-Vorhaben sind strategisch ausgerichtet, durch einen Business Case untermauert und sorgfältig geplant. Die Teams kommunizieren ständig, verfügen über solides Wissen und haben ungehinderten Zugang zu den Daten. Kreativität, Neugier und Experimentierfreude leisten ebenfalls einen wichtigen Beitrag zum Erfolg.
Anzeichen für eine Hysterie
Für manche Beobachter ist bereits eine "Big-Data-Blase" auszumachen. Folgt man manchen Beratern und Fachmedien, entsteht der Eindruck, Big Data sei immer ein Erfolgsgarant, und auf die Einführung entsprechender Technologien folge zwangsläufig eine tiefere, nutzbringende Einsicht in das Unternehmen und seine Geschäfte.
Doch das entspricht nicht der Realität: Der Umfrage von Infochimps zufolge werden rund 55 Prozent der Big-Data-Projekte nicht zum Abschluss gebracht. Unter den wichtigsten Gründen sehen 58 Prozent der Befragten einen unklaren Projektumfang, 41 Prozent nennen technische Schwierigkeiten, 39 Prozent bemängeln Datensilos und mangelhafte Kooperation.
Häufigste Ursache für das Versagen von Analytics-Projekten ist das fehlende Fachwissen, das nötig wäre, um aus den Daten Schlüsse für das Business zu ziehen, sowie die ungenügende Relevanz der Daten. Das zeigt eine Erhebung der Economist Intelligence Unit. Ihr zufolge mangelt es 45 Prozent der Marketing-Fachleute an Know-how, um Big Data zu analysieren. Die Hälfte der Befragten vermisst ein ausreichendes Budget für Datenbank-Management. Die Folge: Drei Viertel können mit den gewonnenen Einsichten nichts anfangen.
Allerdings unterscheiden sich Big-Data-Projekte in dieser Hinsicht nicht wesentlich von anderen großen IT-Projekten. Wie McKinsey und die Universität Oxford durch Untersuchung von mehr als 5400 IT-Projekten herausfanden, verursachen Vorhaben mit einem Budget von über 15 Millionen Dollar im Durchschnitt Mehrkosten von 45 Prozent. Zudem weisen sie Verzögerungen um sieben Prozent auf. Und sie erbringen nicht einmal die Hälfte des erwarteten Nutzens. Dafür nennt die Studie unter anderem folgende Ursachen: unklare Ziele und fehlender geschäftlicher Fokus, unrealistische Terminplanung, wechselnde Anforderungen und technische Komplexität.
Was Versagen bedeutet
Wann gilt ein Projekt eigentlich als misslungen oder gescheitert? Ganz einfach: Sobald die erwarteten und die erreichten Projektresultate inakzeptabel voneinander abweichen. Big-Data-Projekte haben "versagt", wenn sie abgebrochen werden beziehungsweise Mehrkosten verursachen, deutlich verspätet abgeschlossen werden oder ungenügende Funktionalität erbringen.
Big-Data-Projekte sind oft kompliziert und teuer. Neben den technischen Herausforderungen sind fachliche, organisatorische und kulturelle Hürden zu nehmen. Hinzu kommt die ungleiche Verteilung von Aufgaben zwischen den Projektteilnehmern: Auftraggebern, Projekt-Managern, Entwicklern, Analysten und Nutzern. Der Kommunikations-, Koordinations- und Kontrollaufwand steigt mit Offshoring und Outsourcing weiter an.
Prävention
Öffentlich zugängliche Fallstudien und statistische Untersuchungen erwähnen als Hauptursachen für das Misslingen von Big-Data-Projekten immer wieder die eingangs genannten Gründe. Daraus lassen sich folgende vorbeugende Massnahmen ableiten.
-
Ausrichtung auf die Unternehmensstrategie:
Big-Data-Vorhaben dienen der zielgerichteten Umsetzung einer übergeordneten Unternehmensstrategie. Erforderlich ist dafür Big-Data-, Business-Analytics- und Management-Wissen. Das ist in den Unternehmen jedoch nicht gleichmäßig verteilt. Deshalb empfiehlt es sich, diese Vorhaben in interdisziplinären, abteilungsübergreifenden Workshops gemeinsam zu erarbeiten. So lassen sich in mehreren Iterationen die Ziele der Big-Data-Vorhaben an denen der übergeordneten Unternehmensstrategie ausrichten. Typische Beispiele für strategisch ausgerichtete Big-Data-Vorhaben sind Systeme, die den Umsatz aufgrund von Cross Selling steigern, die betrügerische Transaktionen identifizieren (Anomalienerkennung) oder die maßgeschneiderte Produkte und Dienstleistungen in Echtzeit entwickeln (Mikrosegmentierung). -
Überzeugender Business Case:
Der geschäftliche Nutzen eines Big-Data-Projekts wird im Rahmen eines Business Case nachgewiesen. Der beschreibt das geschäftliche Problem, das Big Data lösen soll. Am besten wird dieses Problem als Frage formuliert, die mit Hilfe von Business Analytics beantwortet werden soll. So lässt sich im Vorfeld schon prüfen, ob diese Frage überhaupt zu beantworten ist und die erforderlichen Daten vorhanden sind. Der Business Case muss realistisch sein und Simulationen verschiedener Szenarien beinhalten. Am besten wird der Return on Investment (RoI) des Projekts mit einem Nutzen-Management-System kontinuierlich gesteuert. Während der Projektaufwand vor allem in der IT-Abteilung entsteht, ist der Ertrag eher in den Fachabteilungen zu finden. Detaillierte Einsichten zu Entstehung und Zusammensetzung des Nutzens kann ein Nutzen-Review liefern. Der Nutzen ist auch das Kriterium für die Priorisierung bei schrittweiser Einführung. -
Klare Anforderungen:
Umfang und Komplexität von Big-Data-Projekten erfordern ein detailliertes Pflichtenheft. Es dient der Fokussierung von knappen Ressourcen auf konkrete Projektergebnisse. Damit lässt sich die Zielerreichung prüfen. Ein System für das Change-Request-Management erleichtert Dokumentation, Genehmigung und Überwachung von beantragten Änderungen. So wird das unkontrollierte Anwachsen des Projektumfangs vermeidbar. -
Pragmatische Planung:
Allzu optimistische Erwartungen an Big Data führen oft zu Kostenüberschreitungen und Verzögerungen. Die für die Umsetzung Verantwortlichen schätzen deshalb Aufwände und Termine bottom-up. Die Schätzungen basieren auf Erfahrungswerten und realistischen Annahmen. Ausreichende Reserven helfen, unvorhergesehene Probleme zu lösen, ohne das Budget zu überschreiten. -
Überschaubarer Projektumfang:
Die Gefahr eines Misserfolgs ist bei großen, komplexen Big-Data-Projekten besonders evident. Dauert ein Projekt mehrere Jahre, so können sich zum Projektende wichtige Rahmenbedingungen wesentlich geändert haben. Große Vorhaben werden deshalb am besten in mehrere kleine zu jeweils höchstens sechs Monaten aufgeteilt. Das agile Projekt-Management kann helfen, Projekte flexibel und unbürokratisch in mehreren Iterationen zum Erfolg zu führen. -
Schrittweises Vorgehen:
Von einer Big-Bang-Einführung von Big-Data-Systemen ist abzuraten. Umfangreiche, komplexe, unternehmensweite Systeme werden am besten schrittweise eingeführt. Damit kann die Funktionalität etappenweise überprüft und erweitert werden. Für die ersten Vorhaben ist es ratsam, zunächst kleine und klar umrissene Probleme auszuwählen. Prototypen helfen, die Zweckmäßigkeit des gewählten Vorgehens zu bestätigen. -
Kontinuierliche Kommunikation:
Die Mitglieder des interdisziplinären, abteilungsübergreifenden Projektteams treffen sich regelmäßig, um technische, fachliche und organisatorische Probleme gemeinsam an zugehen und veränderte Rahmenbedingungen in der Planung zu berücksichtigen. -
Wissen nach Maß:
Big-Data-Projekte umfassen oft nicht nur den Einsatz neuer Techniken wie Hadoop, sondern auch den Gebrauch innovativer Problemlösungs-Methoden wie Business Analytics. Erfahrene Fachpersonen, die die technischen Aspekte von Big Data beherrschen, sind schwer zu finden. Dasselbe gilt für Data-Mining-Spezialisten. Noch schwerer dürfte es sein, Data Scientists aufzutun, die Big-Data-, Business-Analytics- und Management-Wissen in einer Person vereinen. Eine pragmatische Lösung kann die Gründung eines Big Data Competence Centers (BDCC) sein. Dort sollen Big-Data-, Problemlösungs- und Management-Spezialisten ihr Know-how bündeln, Standards und Best Practices setzen sowie den Einsatz von Big Data firmenweit fördern. Big Data bewirkt einen Kulturwechsel, da Entscheidungen noch stärker datenbasiert getroffen werden und proaktiv statt reaktiv gehandelt wird. -
Zugängliche und geeignete Daten:
Datensilos erschweren das Zusammenführen von Daten zu analytischen Zwecken. Aus diesem Grund ist die Datenintegration ein wichtiger Projektbestandteil. Die Daten sollen einen zielgerichteten Beitrag zur Lösung des geschäftlichen Problems leisten, das im Mittelpunkt steht. Das unüberlegte Sammeln von Daten führt hingegen selten zum Erfolg; daraus entstehen oft Heuhaufen ohne Nadeln. Zudem sollen die gesetzlichen Vorschriften hinsichtlich Vertraulichkeit und Sicherheit der Daten eingehalten werden. Ein Data Audit hilft prüfen, ob die zur Lösung des geschäftlichen Problems notwendigen Daten in Form und Umfang vorhanden sind.