Big Data komme allmählich bei den Anwendern an, so heißt es. Das Interesse am Thema wächst in jedem Fall, darin sind sich die Marktbeobachter einig. Gleichwohl scheint der Begriff, der seit nun auch schon ein paar Jahren den Hype-Hautgout nicht loswerden will, immer noch schwer greifbar. Das ist man dankbar für Handfestes. Und was könnte dieses Bedürfnis besser erfüllen als eine unverschnörkelte Bestandsaufnahme des hiesigen Marktes? Exakt das legt die Experton Group mit der Studie "Big Data Vendor Benchmark" nun vor.
68 Anbieter sind präsent
Es handle sich immer noch um einen "sehr jungen, man könnte auch sagen unreifen" Markt, schreiben die Analysten Holm Landrock und Andreas Zilch: "Die bewerteten Firmen bewegen sich in einem nur schmalen Wettbewerbsfeld." Experton unterfüttert diesen Befund mit einigen klaren Zahlen. Nach eigenen Angaben handelt es sich beim Benchmark um die erste unabhängige Anbieterbewertung für Deutschland. Bewertet haben Landrock und Zilch nach 100 gewichteten Merkmalen. Knapp 140 Anbieter kamen zunächst für eine Bewertung in Frage. Letztlich erfüllten aber nur 68 Firmen die Experton-Definition von Big Data und wurden Teil der Untersuchung.
"Im Benchmark wurden Unternehmen bewertet, deren Lösungen in der Hauptsache über die Verarbeitung von Daten klassischer Business-Warehouses bzw. Facebook-Daten und Social-Media-Daten hinaus gehen oder dem Anwender helfen, auch völlig neue Fragestellungen zu formulieren", erläutern die Autoren ihre Auswahlkriterien. "Und es zeigt sich, dass es hier durchaus spannende technologische Ansätze und anwenderfreundliche Market-Approaches gibt, die bis hin zur Ausbildung von Data-Scientists beim Anwender reichen."
Gegliedert nach 8 Segmenten
Das ändert indes nichts daran, dass der Markt sehr überschaubar ist. Vor allem, weil Experton den Big Data-Kuchen methodisch in klar umrissene Stückchen unterteilt, bleibt von den knapp 70 Anbietern in manchen Segmenten nur eine Handvoll übrig. Besonders gering entwickelt ist das Angebot für die Datenaggregation. Die weiteren sieben Segmente sind: Analytics, Datenbanken, Appliances, Storage, Operations, Consulting und Visualisierung.
4 Selektionskriterien
Vier Selektionskriterien waren für die Aufnahmen in den Benchmark zu erfüllen: ein dezidiertes Big-Data-Angebot in den genannten Bereichen, Verfügbarkeit des Angebots im deutschen Markt, realisierte Projekte, Umsätze und Referenzen in der Bundesrepublik sowie technologische Reife respektive Innovationspotenzial. Eingeordnet werden die Anbieter nach zwei Parametern: Wettbewerbsstärke und Portfolio-Attraktivität.
1. Datenaggregation
Im bereits erwähnten Mini-Segment Aggregation tummeln sich lediglich vier Anbieter: Splunk, Hortonworks, Talend und Progress. Allesamt kommen diese Spezialisten hinsichtlich ihrer Marktmacht erwartungsgemäß schwachbrüstig daher. Ihre Produkte werden von Experton hingegen als durchaus gut eingeordnet. "Das Grundprinzip ist mit dem ETL-Prozess klassischer Data Warehouses vergleichbar", erklären Zilch und Landrock. "Daten werden identifiziert, erfasst, gegebenenfalls umgewandelt und gespeichert."
2. Analytics
Mit knapp 30 Anbietern ist der Bereich Analytics deutlich breiter aufgestellt, was nicht Wunder nimmt. Zur Abgrenzung von klassischen Lösungen aus den Feldern Business Intelligence und Business Analytics nennt Experton, dass größere Datenmengen und eine Vielzahl unterschiedlicher Formate verarbeitet werden können. Zudem werden die Berechnungsergebnisse schneller als in der Vergangenheit geliefert.
Drei Anbieter führen dieses Feld laut Benchmark klar an: Teradata, SAS und IBM. IBM ist marktmäßig am stärksten positioniert, Teradata erhält aber von Experton die beste Produktbewertung. Qualitativ ist mit Revolution Analytics ein kleinerer Anbieter auf Augenhöhe mit IBM und schneidet besser ab als Riesen wie SAP, Oracle und Microsoft.
3. Datenbanken
Ein Dutzend Anbieter hat Experton im Bereich Datenbanken erfasst. Die Hälfte davon darf man ohne gravierende Unterschiede als Marktführer benennen: IBM, Teradata, SAP, Oracle, Microsoft und EMC. Immerhin ein kleinerer Spezialist bewegt sich bei der Portfolio-Attraktivität auf vergleichbarem Niveau, nämlich Parstream.
4. Appliances
Appliances werden von den Autoren als eine der wichtigsten Produktkategorien ausgemacht. "Sie ermöglichen es Anwendern, mit einem Komplettsystem ohne über die Änderungen in den Geschäftsprozessen hinausgehende Eigenleistungen in die Big-Data-Analyse einzusteigen", so Landrock und Zilch. "Damit stellen sie geradezu das Gegenteil der Implementierung einer Open-Source-Lösung auf Standardservern oder in der Cloud dar." Erneut fährt Teradata hier die beste Bewertung ein, gefolgt von IBM und EMC. HP, Exasol, Oracle und SGI zeigen immerhin Präsenz.
Schadlos als eindeutige Nummer Eins hält sich IBM in zwei weiteren Kategorien: Projects & Consulting als vergleichsweise umkämpftes Segment sowie Operations als kleineres Terrain. Auch Atos, T-Systems und HP sind in beiden Bereichen gut positioniert.
5. Projektberatung
Das junge Segment der Projektberatung wird von Experton als Indiz dafür betrachtet, dass das Bewusstsein für Big-Data-Analytics auch auf der Anwenderseite noch wachsen und eine Nachfrage noch generiert werden muss." So fehle es oftmals an Angeboten für die Anonymisierung und Psedonymisierung von Daten, die von den Anwendern in der Praxis gezielt nachgefragt würden.
6. Operations
Skeptischer noch klingt das Verdikt für das Segment Operations. "Mögen gegenwärtig die Implementierung und der Betrieb eines Hadoop-Clusters einen ersten Einblick in die Idee von Big-Data-Analysen liefern, wird dies mittelfristig nicht ausreichen", befinden die Analysten. Es bahnten sich auf Anwenderseite angesichts allzu einfacher Ansätze Enttäuschungen an wie in den Anfangsjahren von Linux.
7. Syndizierung, Reporting und Visualisierung
Empolis, Qliktech und Mellmo überzeugen - in dieser Reihefolge - laut Studie am meisten in der Rubrik Syndizierung, Reporting und Visualisierung. Mit zehn gelisteten Anbietern erscheint dieser Bereich als durchschnittlich groß. Laut Experton kann es zum Leistungsumfang der Lösungen gehören, dass eigenständige Berechnungen mit großen Datenmengen oder die Aggregation und Aufbereitung von Informationen ausgeführt werden.
"Die Anwender werden sich bei der Analyse ihrer Datenbestände mehr und mehr bewusst, dass ihre bestehenden Lösungen für die Unternehmens-IT nicht alle Informationen umfassen, die im Unternehmen vorhanden sind", lautet das Fazit der Experton-Analysten. Analyse und ein erweitertes Datenverständnis bildeten deshalb auf absehbare Zeit den Fokus der Anwender. Auf Anbieterseite sei oftmals lediglich eine Erweiterung vorhandener Produkte um das Label "Big Data" zu erwarten. Gleichwohl gebe es auch Raum für neue Initiativen.