Was nur anfangen mit Big Data? CIOs scheinen angezogen und abgestoßen zugleich. Einerseits verrieten Umfragen im vergangenen Jahr ein massives Desinteresse auf Seiten der Anwender – wenig Lust offenbar, sich vom durchschaubaren Marketinggeklingel der Anbieterseite locken zu lassen. Zumal dem Begriff immer noch etwas Undefiniertes anhaftet. Ja, schon klar, es geht bei Big Data irgendwie um die unfassbar nützliche Analyse riesiger Datenmengen in Höchstgeschwindigkeit – und unstrukturiert dürfen die dann auch sein. Aber das Etikett scheint plötzlich überall drauf zu kleben. Nur, andererseits, will ja gerade im Zeitalter der Cloud und von Social Media nix verpasst werden. Und Technologien wie Hadoop wecken dann doch größtes Interesse.
Eine technologische Revolution womöglich doch? Kaum überraschend proklamiert John Schroeder, CEO des Anbieters MapR Technologies für unsere amerikanische Schwesterpublikation Network World genau das. In Anlehnung an George Gilder, der jeweils beim Aufkommen von Mikrochips und Breitband-Netzwerken die technologischen Revolutionen des „Microcosm“ und „Telecosm“ ausrief, ruft Schroeder nun die Ära des „Datacosm“ aus.
„Hadoop – ein Framework, der die Analyse riesiger Mengen an strukturierten und unstrukturierten Daten in einem Cluster von handelsüblichen Servern ermöglicht – ist als wichtigste Technologie für den Datenkosmos entstanden“, so Schroeder. Um Big Data wirklich zu heben, benötigten Unternehmen die besten und neuesten Tools zur Analyse ihrer enormen Datenmengen.
Ein paar Tools anschaffen also und Big Data läuft. Dass es so einfach selten funktioniert, wissen CIOs aus einer Fülle von IT-Projekten mittlerweile. Die Experton Group hat vor diesem Hintergrund einen Leitfaden für Big Data entwickelt, der die Akzente gänzlich anders setzt als Schroeder diese tut.
Ein Bewusstsein für Big Data sei mittlerweile vorhanden, so Analyst Holm Landrock. „Damit Big-Data-Projekte in den Anwenderunternehmen tatsächlich etwas erreichen und zum Erfolg führen – das heißt die Wettbewerbsposition dauerhaft verbessern –, müssen sie jedoch sorgfältiger geplant werden als die Anschaffung eines Stücks Technik“, erläutert Landrock. Allererste Aufgabe sei es, für das eigene Unternehmen eine geeignete Definition von Big Data festzulegen. „Erst auf der Basis dieser unternehmensspezifischen Definition ergeben sich dann die weiteren Schritte auf dem Weg der Umsetzung“, so der Experton-Analyst weiter.
3 Merkmale für Big Data-Szenarien
Landrock benennt vier entscheidende Merkmale für Big Data-Szenarien:
-
Erstens eine große Anzahl von Datenquellen – egal ob Datenbanken oder mobile Endgeräte
-
Zweitens eine sehr schnelle Verarbeitungszeit
-
Drittens eine Datenmenge im Terabytes- oder Petabytes-Bereich sowie viertens sehr hohe Anzahl an Nutzern von Berechnungsergebnissen. Auch hier sei die Zahl der benutzten Endgeräte zu berücksichtigen.
Wer alles das nicht in seinem Unternehmen hat, kommt wohl gut ohne Big Data aus. Ansonsten folgt Expertons nächster Schritt: „Aufbauend auf dieser Definition bestimmen die Unternehmen die Ressourcen und deren Rollen. “Die Komplexität der Big-Data-Projekte setze jedoch auch einen Kulturwandel in den Unternehmen voraus. „Ohne Kulturwandel und mit dem Hoffen auf den schnellen Euro werden Big-Data-Projekte, wie sie sich heute abzeichnen, nicht den erwarteten Erfolg bringen“, so Landrock.
Kulturwandel in 5 Schritten
Den Kulturwandel beschreibt Experton in fünf Schritten:
-
Erstens sei ein Umdenken dahingehend nötig, dass sich Big Data nicht als ROI über eine bestimmte Zahl von Jahren darstellen lasse.
-
Zweitens verlange Big Data Ausbildung und Weiterbildung sowie Investitionen in neue Berufe und in den BI-Bereich, um die Informationen in großen Datenmengen zu explorieren.
-
Drittens brauche es Keimzellen, in denen Big-Data-Ideen zu Big-Data-Szenarien werden. Mitarbeiter benötigten dafür Freiräume.
-
Viertens sei eine Leitungsentscheidung darüber zu treffen, ob die Fachabteilung oder die IT-Abteilung für die Exploration von Daten und den Aufbau von Big-Data-Szenarien zuständig ist. Möglicherweise sei auch eine Stabsfunktion für das Unternehmen hilfreich.
-
Fünftens seien neue Algorithmen vonnöten.
Die aus der Arbeit mit den Daten gezogenen Szenarien sollen laut Landrock zeigen, wie die Daten des Unternehmens mit Daten aus externen Ressourcen kombiniert werden können und welche neuen Informationen aus den Daten gewonnen werden könnten. Dabei sei Fantasie gefragt – ein visionärer Ansatz also.
„Selbstverständlich werden solche Big-Data-Szenarien deutlich komplexer als die Verarbeitung der bislang genutzten Datenbanken mit beschleunigten, aber im Wesen herkömmlichen Business-Intelligence-Lösungen“, erläutert der Experton-Analyst. „Dafür führen solche grundsätzlichen Überlegungen aber auch zu Informationen, die dem Unternehmen deutliche Wettbewerbsvorteile verschaffen können.“
Big-Data-Angebote der Dienstleister werden besser
Das geschieht demnach keineswegs durch das bloße Anschaffen neuer Tools. Immerhin sieht Experton deutliche Fortschritte in der Angebotslandschaft. Derzeit entstehende Big-Data-Plattformen helfen den Anwendern demnach dabei, sich mit vergleichsweise günstigen an Big-Data-Aufgaben heran zu wagen. „Dazu gehören beispielsweise Plattformen rund um die MapReduce-/Hadoop-Lösungen, fortgeschrittene Reporting-Tools, Plattformen für die Speicherung großer Datenmengen in spaltenorientierten Datenbanken einschließlich der In-Memory-Konzepte oder Adaptionen aus dem Supercomputing-Umfeld“, führt Experton aus.
„Der Markt für Big Data wird 2013 stürmisch“, prognostiziert Landrock. Der CIO muss dabei offenbar ein Fels in der tosenden Brandung sein. „Auch weiterhin werden BI-Projekte und Big-Data-Projekte von den Fachabteilungen getrieben“, so Landrock. Die IT-Abteilungen würden aber – zumindest in großen Unternehmen – miteinbezogen. CIOs könnten so zeigen, welches Potenzial und welche Geschäftsinformationen in den Daten verborgen sind.
„Big-Data-Projekte sind komplex“, warnt Experton. Das Speichern und Auswerten von einigen hundert Terabytes sei dabei nur die „Einstiegsdroge“ zu immer komplexeren Szenarien. Gerade in der Komplexität lägen aber die eigentlichen Wettbewerbsvorteile für die Anwender.