Im Sommer 1988 erreichte die Scheibe „Don’t Believe the Hype“ von Public Enemy Platz 18 der britischen Single-Charts. IT-Manager waren sicherlich nicht die Zielgruppe der Hip-Hopper aus New York City. Aber mittlerweile sind vielleicht gerade CIOs diejenigen, die sich am beständigsten mit dem Wortsinn des Titels auseinandersetzen müssen. Aktuelles Beispiel: Big Data. Die Tendenz einer CIO.de-Umfrage dazu vor wenigen Wochen ist klar: tendenziell eine Blase, mit der sich die meisten Entscheider aktuell nicht substanziell befassen. 70 Prozent der Befragten erteilten Big Data jedenfalls eine Absage.
Seither ist in den vergangenen Wochen eine ganze Reihe von Studien renommierter Analystenhäuser erschienen, die sich ebenfalls mit dem Thema beschäftigen. Gartner analysiert den weltweiten Markt, IDC und die Experton Group befragten deutschsprachige Anwender, in Großbritannien hörte sich Freeform Dynamics um. Keine dieser Studien kommt zu dem Ergebnis, dass Big Data das große neue Ding ist, auf das sich die IT-Chefs aktuell stürzen. Gleichwohl ist es nicht so, dass gar nichts hinter dem Phänomen steckt.
Nicht einmal die Hälfte der 500 Befragten wisse genau, was „Big Data“ überhaupt ist, berichtet Freeform Dynamics. Und das, obwohl man sich in einem Kreis von für innovative Ansätze aufgeschlossenen Anwendern umgehört habe. „Heute wird der Begriff ‚Big Data‘ in myriadenfacher Art und Weise gebraucht und missbraucht“, urteilt Analyst Tony Lock.
In diesem scharfen Urteil findet sich der Ansatzpunkt, mit dessen Hilfe sich der gemeinsame Nenner der Studien herausfiltern lässt. Der Begriff „Big Data“ ist tatsächlich unscharf, in jedem Fall zweischneidig – und genau deshalb wirkt das Thema momentan wie ein aufgeblasener Hype, der konkrete Entwicklungen eher überdeckt.
Einerseits nämlich beschreibt „Big Data“ ein von vielen Anwendern durchaus erkanntes Problem samt neuer Lösungen dafür. Es wird kaum bestritten, dass das Volumen an Daten enorm ansteigt und neben den strukturierten Daten durch unstrukturierte Daten wie E-Mails und Video-Files vielfältige Gestalt annimmt. Die Analyse und Nutzbarmachung dieses Datenmeeres mit immer höherem Pegel für geschäftliche Zwecke erscheint weithin lohnend und vielversprechend. Die Bedeutung auf Anwenderseite ist zum guten Teil erkannt – ebenso, dass erheblicher Nachholbedarf herrscht.
Einfallstor Social Media
Technologisch gibt es seit kurzem eine Reihe von neuen Entwicklungen, die mittelfristig Abhilfe schaffen können. Die Anwender verschließen sich diesem Potenzial durchaus nicht, wobei ihnen nachvollziehbarerweise an konkreten Lösungen für die tatsächlichen individuellen Anforderungen gelegen ist. Analyse-Tools für die Social-Media-Kommunikation sind ein Beispiel dafür, wie so ein Einfallstor für manche Firmen aussehen kann.
Andererseits propagieren einige Anbieter ihre jeweiligen Produkte unter dem plakativen Etikett „Big Data“ – in offenkundig gesuchter Abgrenzung zum etablierten, aber aufgrund vieler schlechter Erfahrungen zum Teil schlecht beleumundeten Begriff „Business Intelligence“ (BI). Dieser Marketingschachzug verfängt nicht wirklich, denn ohne konkrete Anwendungsbeispiele wollen die gegenüber Hypes kritisch gewordenen Firmen nicht auf einen Zug mit unklarer Destination aufspringen.
So gesehen existiert die von Anbieterseite erhoffte Big-Data-Begeisterung nicht. Gleichzeitig gibt es im weiten Feld Big Data sehr vielfältige Aktivitäten, die zusammen betrachtet doch die Rede von einem Trend rechtfertigen. Dieses Bild zeichnen in jedem Fall die neuen Studien, wenn man sie zu einem Puzzle zusammenzufügen versucht.
Wie vertrackt die Lage ist, macht schon Gartners Analyse des weltweiten Marktes deutlich. Big Data trage 28 Milliarden US-Dollar zu den weltweiten IT-Ausgaben in diesem Jahr bei, lautet die Schlagzeile der Analysten. Im kommenden Jahr steige die Summe sogar auf 34 Milliarden Dollar an, bis 2016 auf 55 Milliarden. Das ist eine Größenordnung, die den Skeptiker erst einmal staunen lässt.
Die Relativierung erfolgt allerdings prompt. Das Gros der derzeitigen Ausgaben werde dafür verwendet, traditionelle Lösungen für Big-Data-Anforderungen auszubauen, so Gartner. Nur 4,3 Milliarden Dollar für Software-Käufe seien direkt getrieben von der Nachfrage nach neuen Big Data-Funktionalitäten.
Sammelsurium an Software
Der Löwenanteil der von Big Data getriebenen Ausgaben entfällt laut Gartner auf den Bereich IT-Services. Gemeint sind hier die Dienstleistungen sowohl der IT-Abteilungen als auch von externen Experten zur Unterstützung von Big-Data-Use-Cases. 44 Milliarden US-Dollar macht dieser Bereich laut Prognose der Analysten 2016 aus. Vier Milliarden beziehen sich im Kern auf den Social-Media-Bereich, getrieben durch den Bedarf an Big Data Analytics in diesem Feld.
Fast 6,5 Milliarden Dollar weltweit geben die Firmen 2016 laut Gartner – wiederum getrieben von Big Data – für Software aus. Dahinter verbirgt sich indes ein ganzes Sammelsurium an Software-Arten: jeweils ein kleiner Anteil an BI, Tools für Datenintegration und Datenqualität, Supply Chain Management (SCM) sowie Big Data Social & Content Analytics. Jeweils größer ist der Anteil für Application Infrastructure & Middleware, Database Management Systems (DMS) und Storage Management. Alles in allem also ein großflächiges Szenario, das allerhand Lösungen für unter „Big Data“ fassbare Anforderungen umfasst – keinesfalls nur genuin als „Big Data“ vermarktete Tools der einschlägigen Hersteller.
„Trotz des Hypes ist Big Data kein abgrenzbarer, für sich alleine stehender Markt“, urteilt entsprechend Gartner-Analyst Mark Beyer. „Stattdessen handelt es sich um eine industrieweite Marktkraft, die mit dem Liefern von Produkten, Praktiken und Lösungen adressiert werden muss.“
„Der Wert von Big-Data-Initativen lässt sich letztendlich nur im konkreten Business Case fassen“, heißt es von IDC – letztlich ein Schlag in die gleiche Kerbe. Man beobachte eine rasch wachsende Zahl von Anwendungsfällen, die durch die Aussagen der Befragungsteilnehmer untermauert werden. Zu den am häufigsten genannten Einsatzszenarien zählen Controlling, Finanzplanung und Budgetierung, Preisoptimierung, Kundenrentabilität und Kundenverhalten, Vertriebssteuerung, Maschinenauslastung, Betrugserkennung, Wettbewerberanalysen und Simulationen.
Aber auch zur Verbesserung der eigenen IT kommt Big-Data-Technologie zur Anwendung, beispielsweise zur Messung und Optimierung von IT Traffic, zur besseren Auslastung von ICT-Infrastruktur oder zum effizienteren Betrieb von Webanwendungen. Somit könnten sowohl das Business als auch die IT von Big-Data-Lösungen profitieren, so IDC.
Auslastung verhindert Innovation
Die Umfrage der Analysten unter 254 deutschen Unternehmen mit mehr als 100 Mitarbeitern ergab ferner, dass drei Viertel für die kommenden beiden Jahre mit einem Datenzuwachs von bis zu einem Viertel rechnen. Weitere 13 Prozent halten sogar eine Steigerung um bis zu 50 Prozent für möglich. Jeweils mehr als ein Drittel der Befragten nennt als Wachstumsfelder mobile Anwendungen, Daten aus IT- und TK-Systemen, Daten aus Anwendungen in der Cloud sowie unstrukturierte Daten.
Allerdings seien die IT-Abteilungen durch operative Aufgaben so sehr ausgelastet, dass kaum Zeit für Innovation bleibe. 46 Prozent nennen als Herausforderung den Datenschutz, 43 Prozent die effiziente Speicherung, 39 Prozent die mit der Beherrschung der Daten verbundenen Kosten.
Alles in allem hätten die Verantwortlichen erkannt, dass akuter Handlungsbedarf bestehe. „Die in den Firmen installierten Lösungen und die genutzen Konzepte stoßen zunehmend an ihre Grenzen, um die Daten ausreichend zu erschließen“, konstatiert IDC-Berater Matthias Zacher. Es seien strategische Ansätze gefragt, ansonsten sei ein Scheitern programmiert. „Wir erwarten, dass viele Organisationen hybride Szenarien aus vorhandener und neuer Technologie entwicklen, um sich der Herausforderung Big Data zu nähern“, prognostiziert Zacher. Die ersten Ansätze seien bereits sichtbar.
Diese sind wiederum äußerst vielfältig. Am häufigsten kommen laut IDC-Studie In-Memory-Datenbanken, High Perfomance Computing und Enterprise Content Management zum Einsatz. Zu den weiteren von den Befragten genannten technologischen Ansätzen zählen Spalten-orientierte Datenbanken, Software Caching, verteilte Architekturen, Dokumenten-orientierte Datenbanken und paralleles Processing.
„Dies zeigt deutlich die Dimensionen von Big Data, die sich über die Infrastruktur, das Datenmanagement und Analysetools bis hin zur Präsentationsebene erstreckt“, kommentiert IDC. Technologie bedeute in diesem Zusammenhang Hardware und Software sowie die damit verbundenen Services.
"Zugpferd der IT-Konjunktur"
Obwohl mehr als zwei Fünftel der Befragten durch Big Data Potenzial für Kostenoptimierung und schnellere Informationsgewinnung sehen, benennt die IDC-Studie auch hohe Hürden. 34 Prozent der Befragten bemängeln eine unzureichende Skalierbarkeit der vorhandenen IT-Infrastruktur, 33 Prozent sehen Performance-Probleme der Netze. Weitere 29 Prozent sind der Ansicht, dass Big-Data-Technologie noch nicht vollständig verstanden worden ist.
Zudem hätten die Unternehmen erkannt, dass Datenkonsolidierung eine permanente Aufgabe ist und dass sie die Speicherung und den Zugriff auf strukturierte und unstrukturierte Daten verbessern müssen, so IDC: „Organisationen, die hier im Status Quo verharren, werden sich schwer tun, ihr Datenhandling von der Datenerzeugung bis zur Umsetzung in einen geschäftlichen Mehrwert sicher zu beherrschen.“
Die Experton Group beziffert die Investitionen in Big Data in diesem Jahr auf 350 Millionen Euro deutschlandweit. Der Anteil werde in den kommenden Jahren im europäischen Vergleich stark ansteigen. Weltweit beobachtet Experton einen Anstieg der Ausgaben von 3,3 Milliarden Euro im vergangenen Jahr auf 4,5 Milliarden Euro in diesem Jahr. „Der Markt für Big Data zählt somit zu den wachstumsstärksten Segmenten des gesamten IT-Marktes und entwickelt sich zum Zugpferd der IT-Konjunktur“, kommentiert Experton-Analyst Steve Janata.
Die Anwender hätten verstanden, dass selbst Maschinen- und Betriebsdaten auch Daten sind, aus denen sich wichtige Geschäftsinformationen und Erkenntnisse ableiten lassen, ergänzt sein Kollege Holm Landrock. Allerdings seien sie mit vielen klassischen Analytics-Lösungen nicht wirklich zufrieden. „Die Anbieter von Big-Data-Lösungen müssen sich hier viel mehr als bisher um die Bedarfe der Anwender kümmern, statt Lösungen mit einem Big-Data-Etikett zu versehen, nur weil die Rechentechnik leistungsfähiger geworden ist“, moniert Landrock.
Eine Experton-Umfrage unter 155 IT-Chefs deutscher Firmen unterstreicht das zweigeteilte Bild. Obwohl die Anwender im Durchschnitt einen Anstieg ihres Datenvolumens um 29 Prozent in 2013 und 34 Prozent in 2014 erwarten, herrscht erkennbare Skepsis gegenüber dem Marketingphänomen Big Data. Nur fünf Prozent haben bereits Big Data-Systeme im Einsatz, weitere 16 Prozent befinden sich in der Planungs- oder Implementierungsphase. Acht Prozent arbeiten eine Strategie aus.
Cloud nicht attraktiv
Während 43 Prozent Big Data entweder überhaupt nicht kennen oder sich nicht damit befassen, denken 27 Prozent über einen Einsatz nach. Am empfänglichsten für Big Data sind Firmen der Größenordnung zwischen 500 und 999 Mitarbeitern.
Dies wiederum spiegelt nur die eine Seite des Phänomens wider. Denn – unabhängig vom Label „Big Data“ – verstärken die Firmen laut Experton-Studie erkennbar ihr Engagement im Bereich Analytics. Ob Enterprise Reporting, Ad-hoc-, Echtzeit- und In-Memory-Analysen oder Website Analytics – für jedes einzelne Feld verzeichnen die Analysten einen Anstieg. Zugleich sinkt der Einsatz relationaler Datenbanken laut Studie künftig von 84 auf 72 Prozent, während es einen Anstieg bei Objekt- und Spalten-orientierten Datenbanken gibt – zum Teil verbunden mit In-Memory-Einsatz.
Als Treiber für den Ausbau der Datenanalyse nennen 81 Prozent die Analyse von bisher manuellem Reporting, 68 Prozent das Qualitätsmanagement und 63 Prozent Datenwachstum. Social Media – von Gartner als besonderer Treiber für Big Data herausgeschält – nennen nur 27 Prozent der Befragten. Keinen Hehl machen die Anwender aus ihrer Unzufriedenheit mit den eingesetzten Tools – insbesondere hinsichtlich Nutzerakzeptanz, Datenqualität, Performance bei Abfragen und Änderungsgeschwindigkeit.
Die Nutzung von Cloud Services im Bereich Datenanalyse und –management kann sich laut Experton nur jeder Vierte als Option vorstellen. Fünf Prozent nutzen bereits derartige Dienste. Als zentrale Hemmnisse für Big Data im weitesten Sinne nennt jeweils etwa die Hälfte der Befragten fehlende Ressourcen, ein zu knappes Budget und die Komplexität in der Entwicklung.
Freeform Dynamics macht zwei weitere Bremsklötze aus. Zum einen sei die Herausforderung enorm, bestehende BI-Systeme und neue Big-Data-Tools zu integrieren. Dies sei aber eine Voraussetzung dafür, einen echten Mehrwert zu erreichen. Zudem fehle es an den benötigten Datenanalysten. „Es ist unschwer festzustellen, dass es heute eine erkennbare Knappheit an Leuten gibt, die gute Resultate aus den Datensammlungen generieren können und verstehen, was die Zahlen für das Business bedeuten“, so Analyst Lock.
2020 ist Big Data Standard
Alles in allem verschwimmen die Grenzen zwischen dem Hype um Big Data und der Weiterentwicklung klassischer BI- und Analytics-Ansätze. Laut Experton-Studie wenden sich 55 Prozent der im Bereich Big Data aktiven Firmen an etablierte BI-Anbieter, aber nur 22 Prozent an neue und innovative Big-Data-Anbieter. Dazwischen rangieren noch Komplettlösungsanbieter, IT-Berater und Systemintegratoren sowie Datenbank-Anbieter.
Quo vadis, Big Data? „Big Data zählt wie Cloud Computing, Mobility und Social Media zu den universellen Fragestellungen, die die IT-Entwicklung derzeit prägen und in den nächsten Jahren bestimmen werden“, stellt IDC fest. Viele Firmen stünden noch am Anfang. „Die Schwierigkeit dürfte vielfach darin bestehen, einen ersten Schritt zu gehen und zugleich strategischen Überlegungen zu folgen“, so IDC weiter. Nur ein langfristiger und ganzheitlicher Ansatz führe zum Erfolg: „Daten werden mehr und mehr zum Produktionsfaktor, darüber besteht kein Zweifel.“
Diese Einschätzung widerspricht der Vorstellung von einer Hype-Technologie, die rasant alles überrollt. Big Data als Problem und Feld vielfältiger Lösungsansätze hingegen wird die Anwender noch viele Jahre beschäftigen. Gartner zeichnet ein dazu passendes Szenario. Ab Ende 2015 begännen führende Unternehmen damit, ihre Big Data-Erfahrungen in Architekturen und Praktiken einzubetten. „Bis 2020 werden Big-Data-Features und -Funktionalitäten kein Differenzierungsmerkmal mehr sein“, so Analyst Beyer. Das, was heute unter diesem Etikett vermarktet wird, werde dann als technologische Selbstverständlichkeit von den Anwendern erwartet werden.
Weitere Information sind in folgenden Studien zu finden: „Big Data in Deutschland 2012“ von IDC, „Big Data“ von Experton, „Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016“ von Gartner, „The Big Data Revolution“ von Freeform Dynamics.