"Big Data hat den Zenit des Hype-Zyklus´ überschritten", stellt das Marktforschungs- und Beratungsunternehmen Experton-Group im aktuellen "Big Data Vendor Benchmark 2015 für Deutschland" fest. Die Analysten untersuchten 121 Anbieter in diesem Markt und gehen davon aus, dass "Anwenderunternehmen schon in kurzer Zeit Big-Data-Szenarien in ihre Geschäftsprozesse implementieren" werden.
Der deutsche Big-Data-Markt wird demzufolge bis 2019 auf ein Volumen von 3.198 Milliarden Euro wachsen. Das entspricht einem durchschnittlichen jährlichen Wachstum von 23,75 Prozent. "Damit ist Big Data weiterhin eines der wichtigsten IT-Themen für die kommenden Jahre", sagt Holm Landrock, Senior Advisor Experton Group.
Er geht davon aus, das Big Data eine "Weiterentwicklung vorhandener Technologien" ist und es sich um einen Markt handle, der sich in einem Wandel befinde. Landrock: "Durch Industrie 4.0 entstehen beispielsweise neue Daten, die in komplexe Nutzungsszenarien eingebunden werden können. Somit wird auch das Thema Industrie 4.0 den Big-Data-Markt in den nächsten Jahren deutlich treiben."
Kulturwandel: "Die Anwender haben verstanden…"
Es setzt sich bei den Anwendern offensichtlich auch immer stärker die Erkenntnis durch, dass Big Data nicht nur eine neue Technologie darstellt, sondern dass damit völlig neue Nutzungsmöglichkeiten entstehen, die Unternehmen ein großes Potenzial für neue Anwendungen und Geschäftsmöglichkeiten bieten.
Landrock: "Die Anwender haben verstanden, dass ein Kulturwandel eine essentielle Voraussetzung für erfolgreiche Big-Data-Szenarien ist. Dann liefert eine vertiefte Sicht auf riesige Datenmengen nicht nur Kennzahlen schneller und besser, sondern es entstehen Erkenntnisse und Einsichten, die das Unternehmen revolutionieren können. Die Anbieter sind auf dem richtigen Weg und fokussieren ihre Lösungen und Services auf diese Ziele."
Die Ära der Geschäftsentscheidungen aufgrund von Reports geht damit zu Ende. "Es geht nicht mehr um das bloße Zählen und Vergleichen von KPIs (Key Performance Indicator, Anm. d. Red.), sondern darum, die KPIs in einen statistisch relevanten und statistisch signifikanten Zusammenhang mit allen zugehörigen Informationen zu bringen. Durch eine neuartige Sicht auf große strukturierte, unstrukturierte und teilstrukturierte Daten lassen sich wirklich neue Erkenntnisse gewinnen", so Landrock weiter.
Der Markt ist beratungsintensiv
Das macht den Markt auch sehr beratungs- und supportintensiv, denn etablierte Prozesse und Arbeitsweisen werden durch neue ersetzt. Außerdem brauchen die Verantwortlichen auch visionäre Fähigkeiten, um neue Geschäftsmodelle zu erkennen.
Als große Herausforderung bezeichnet Landrock den Umgang mit der großen Datenmenge und der Überprüfung der aus Big-Data-Analysen gewonnenen Erkenntnisse auf ihre Relevanz hin. Dabei käme es darauf an, dass statistische Fallstricke von Data Scientists erkannt werden. "Sonst hören wir demnächst, dass das Abschneiden bei PISA-Tests mit der in Facebook bekanntgegebenen Schuhgröße zusammenhängt", scherzt Landrock.
Technisch betrachtet ist eine Implementierung relativ einfach, da sie auf Standardanwendungen basiert. Die Einführung von Big-Data-Technologien kann durch spezielle Beratungs-Tools methodisch unterstützt werden. "Templates für typische Einsatzszenarien helfen dem Kunden, seine Ausgangssituation mit möglichen Zielsituationen abzugleichen", sagt Prof. Dr. Andreas Gadatsch, Senior Advisor Experton Group.
Wo stehen die Anbieter?
Die Experton-Group hat die Anbieter in dem Benchmark nach elf verschiedenen Kriterien beurteilt, getrennt nach Beratung, Lösungen, IT-Operations, Datenbanken Storage, Analytics und weiteren mehr bis zur Sicherheit.
Einen Gesamtsieger über alle Kategorien haben die Analysten nicht gekürt, sondern in Anlehnung an das Magic-Quadrant-Modell von Gartner in Leader, Market Challenger, Product Challenger und Follower unterteilt. Erstmals wurden den etablierten Anbietern auch Rising Stars gekürt, wobei diese mit ihren Angeboten in keiner Kategorie den Leader-Quadranten erreichten.
Bei den Angeboten der Anbieter stellt Experton-Group fest, dass "viele noch immer internationale Use-Cases und Pilotprojekte als Referenz anführen. Dies kann ein Indiz dafür sein, dass es keine deutschen Referenzen gibt oder aber der Reifegrad noch nicht als ´vorzeigbar´ betrachtet wird". Es bestehe jedoch auch die Möglichkeit, dass deutsche Unternehmen ihren Wettbewerbsvorsprung nicht publiziert sehen möchten, spekulieren die Analysten.
Sie bemängeln, dass in den eingereichten Unterlagen Antworten auf die spezifischen Bedarfe des deutschen Mittelstands und der deutschen Weltmarktkonzerne - von individuellen Befindlichkeiten bis hin zu gesetzlichen Anforderungen - nicht oder schwerlich zu finden seien. Das führe konsequenterweise zu einer Verschiebung der Darstellung des deutschen Marktes gegenüber einer weltweiten Sicht.
Sehr groß sei auch die Zurückhaltung bei der Preisgabe von Projekten und Projektdetails. Nachfragen bei den Anwenderunternehmen hätten gezeigt, dass manche Projekte durchaus als Pilotprojekte endeten und nicht in den Produktivbetrieb übernommen worden sind.
Herausforderungen für Anwender
Laut Experton-Group liegt die größte Herausforderung der Anwender darin, aus der gigantischen Menge an Informationen die relevanten Erkenntnisse richtig herauszuziehen und für die eigenen Geschäftsziele sinnvoll zu verwenden. "Weil nicht alle Erkenntnisse eine Relevanz haben, gewinnt die Prüfung und Begründung von Erkenntnissen erheblich an Bedeutung", sagt Landrock.
Das sei für Big-Data-Szenarien deshalb relevant, weil durch die reine Betrachtung von beispielsweise statistischen Erkenntnissen Fehlinterpretationen entstehen können, wie ein Beispiel mit einem Verkehrsleitsystem einer Großstadt zeige: Dort entstand der Eindruck, dass die Sensoren für einen längeren Straßenabschnitt defekt sein müssten, weil alle Sensoren eine mittlere gefahrene Geschwindigkeit von nahezu 70 km/h anzeigten, obwohl die Geschwindigkeit auf dieser Straße auf 50 km/h begrenzt ist.
Tatsache war, dass die typische Ausfallstraße ohne Verkehrsüberwachung von nahezu allen Verkehrsteilnehmern deutlich schneller als mit 50 km/h befahren wurde. "Das heißt, die mögliche und die wahrscheinliche Erklärung für aus Big-Data-Analysen gewonnene Erkenntnisse benötigt Domänenwissen und mathematische Kenntnisse", schreibt Landrock im Vendor-Benchmark.
Ausblick: Big Data wird normales Projektgeschäft
In ihrem Ausblick sehen die Analysten Big Data perspektivisch als Normalfall, "ohne dass man den Begriff Big Data überhaupt noch erwähnt". Denn Big Data werde sich zum normalen Projektgeschäft entwickeln.
Einigen Anbietern gibt die Experton-Group mit auf den Weg, ihre eigene Kompetenz sichtbarer herauszustellen, "am besten in der Sprache und im Wording der potenziellen Kunden". Hierzu gehören auch aussagekräftige Referenzprojekte aus verschiedenen Branchen.
Weil Big-Data-Produkte sehr erklärungsbedürftig sind und es für Kunden nicht einfach ist, die Potenziale und den Nutzen für ihr eigenes Geschäft zu erkennen, sei es für die Projektbegleitung wichtig, Frameworks, Vorgehensmodelle, Templates und andere Hilfsmittel bereitzustellen, die den gesamten Lebenszyklus unterstützen. Außerdem appellieren die Experten an die Anbieter, ihre Angebote zu standardisieren, "damit diese auch flächendeckend zum Einsatz kommen können."
Anwender finden im aktuellen Vendor-Benchmark ein differenziertes Anbieterbild und können dank der Bewertung einzelner Kategorien wie Strategie, Prozesse, Hard- und Softwaresysteme die für sie geeigneten Anbieter auswählen.