Im Rahmen der Analysen zum vorliegenden "Big Data Vendor Benchmark 2013" der Experton Group wurde deutlich, dass dieser Erkenntniskreislauf von einigen Lösungen schon unterstützt wird. Grundlage für die Bewertung sind 100 Einzelkriterien, die mit Einzelgewichtung und in gewichteten Gruppen für alle bewerteten Unternehmen erfasst werden. Daraus ergibt sich eine unabhängige und neutrale Positionierung in den jeweiligen Kategorien.
Big-Data-Dienstleistungen
Big-Data-Vorhaben können von großen und mittleren Organisationen durchaus in eigener Regie entwickelt und umgesetzt werden. Aufgrund der zunehmenden Komplexität sind aber auch immer stärker Dienstleister gefragt, die beim Anwender entsprechende Lösungen implementieren oder ihn beim Betrieb der IT (gegebenenfalls auch durch Outsourcing) unterstützen. Dementsprechend wurden die beiden Kategorien "Project & Consulting" sowie "IT-Operations" in den Anbieter-Benchmark aufgenommen.
Das Bewusstsein für Big-Data-Analytics muss auf der Anwenderseite noch wachsen, eine Nachfrage erst noch entstehen. Die Grafik zeigt, wie dicht sich die Anbieter drängen. Vor allem bei den Projektdienstleistern zeigen sich typische Symptome eines noch jungen Marktes, beispielsweise fehlen den internationalen Anbietern oft die wichtigen lokalen Referenzen. Themenbereiche wie Datenschutz und Anonymisierung werden von den Anbietern überwiegend pauschal beantwortet, zum Beispiel im Rahmen eines Security-Beratungsportfolios. Konkrete Beschreibungen und Lösungsansätze fehlen jedoch.
Lässt sich ein Angebot finden, so stützt man sich auf Betriebssystem-Eigenschaften oder Funktionen wie das Hashing, das aber nur ein Grundelement sein kann. Die Unternehmen müssen ihr Angebot zudem deutlich von Social Media Mining, Location Based Services und Cloud Computing trennen oder solche Offerten kombiniert als Bausteine für komplexe Big-Data-Szenarien darstellen.
Big Data Operations
Die Kategorie Big Data Operations umfasst Anbieter, die Dienstleistungen rund um den Betrieb von IT-Systemen, auf denen Big-Data-Probleme analysiert und gerechnet werden, anbieten. Besonders auffällig ist hier das schmale Delta zwischen dem attraktivsten und dem unattraktivsten Portfolio. Tatsächlich beträgt diese Differenz nur 23 Prozentpunkte. Für Experton ist auch das eine Bestätigung für einen noch jungen Markt. Eine Rolle spielt hier, wie die Unternehmen ihr Big-Data-Angebot von einem allgemeinen Cloud-Angebot unterscheiden und welche technischen Grenzen derzeit zum Beispiel hinsichtlich der verarbeitbaren Datenvolumina bestehen.
Big-Data-Infrastruktur
Die schnelle Analyse von großen Mengen strukturierter, teilweise strukturierter und unstrukturierter Daten setzt sehr leistungsfähige Hardware und Software voraus. Industrie-Standard-Server, wie sie für Business Intelligence und Business Analytics geeignet sind, können an den Herausforderungen, die sich aus den neuen Dimensionen hinsichtlich Datenmenge, Datenquellen, Verarbeitungszeit und Nutzerzahlen ergeben, durchaus scheitern. Auch hinsichtlich Datensicherheit und -qualität ergeben sich teilweise neue Herausforderungen.
Die Experton Group hat entsprechend ihrer Big-Data-Definition drei Infrastrukturthemen als entscheidend identifiziert: Datenbanken, Appliances und Storage. Für den Big Data Vendor Benchmark wurden Unternehmen bewertet, die mit spezifischen Angebotens in den Kategorien Datenbanken, Appliances und Storage in Deutschland aktiv sind.
Big-Data-Datenbanken
Unabhängig von den Quellen werden Daten für komplexe Analysen überwiegend in Datenbanken gespeichert. Die lange für Business-Analytics typischen SQL-Datenbanken und Data Warehouses werden im Big-Data-Zeitalter durch alte und neue Datenbankkonzepte ersetzt, wobei auch spaltenorientierte Datenbanken keine neue Erfindung sind, da es sie schon seit den 70er Jahren gibt. Neben SQL-basierenden Lösungen spielen die sogenannten Not-only-SQL-(NoSQL-)Datenbanken eine wichtige Rolle. Sie ermöglichen die geordnete Ablage von Daten, die sich nicht in typischen Tabellen abbilden lassen.
Big Data Appliances
Appliances gehören zu den wichtigsten Produktangeboten im Markt für Big-Data-Lösungen: Sie ermöglichen es Anwendern, mit einem Komplettsystem ohne über die Änderungen in den Geschäftsprozessen hinausgehende Eigenleistungen in die Big-Data-Analyse einzusteigen. Damit stellen sie geradezu das Gegenteil der Implementierung einer Open-Source-Lösung auf Standard-Servern oder in der Cloud dar. Appliances im Sinne dieser Analyse sind einsatzbereite Komplettsysteme aus Rechner, Speicher-system, Netz, Datenbank, Middleware und Applikationen.
Big Data Software
Die Experton Group hat drei Anwendungsbereiche identifiziert, in die sich die vielfältigen Angebote an Big-Data-Software-Applikationen einteilen lassen: erstens die Aggregation von Daten, zweitens die Analyse und Verarbeitung der Daten und drittens das Reporting, die Visualisierung und die Syndizierung, also das Ausspielen der Berechnungsergebnisse.
Bei der Untersuchung hat sich gezeigt, dass von den heute verfügbaren Analyse-Tools die Berechnungsergebnisse noch immer überwiegend an die traditionelle Anwendergruppe, meist Geschäftsführung und Controlling, verteilt werden. Die Anwendungsszenarien bestehen in der Regel nach wie vor aus Diagrammen mit attraktiv dargestellten und intuitiv verständlichen Key Performance Indicators (KPIs) und anderen Ergebnissen aus dem heute typischen Geschäftsalltag.
Big Data Analytics
Die Angebote im Bereich der Analytics-Software sind meist dadurch gekennzeichnet, dass sie an eine bereits existierende und vermarktete Software weitere Analyse-Tools andocken. Um diese Werkzeuge herum werden dann oft Beratungsangebote entwickelt, die mit der Komplexität der Anwenderprobleme auch selbst anspruchsvoller werden. Das kann auf Anwender mitunter verwirrend wirken. Einzelne Anbieter liefern ihre Lösung zusätzlich als Appliance-Lösung, die die eigentliche Analytics-Anwendung in ein vorkonfiguriertes System mit Server, Storage, Netz, Datenbank und Middleware integriert.
Die betrachteten Big-Data-Analytics- Lösungen zeichnen sich dadurch aus, dass sie im Unterschied zu den klassischen Analytics- und BI-Lösungen nicht nur größere Datenmengen, sondern mehr unterschiedliche Formate verarbeiten können und Berechnungsergebnisse schneller liefern. Historisch bedingt und auf Basis der ersten großen Erfolge liegt der Schwerpunkt häufig in einem bestimmten Marktsegment wie zum Beispiel dem Handel. Indem das Verständnis der Anwender für die Arbeit mit großen Datenmengen wächst, werden sich auch einige Anbieter, die heute noch eine starke Position haben, anstrengen müssen, um diese Position zu halten.
Grundsätzlich haben sie erst einmal die Aufgabe, den Big- Data-Begriff zu positionieren und die verborgenen Potenziale aufzudecken. Die Anbieter, die die Mehrwerte aus immer größeren Datenmengen am ehesten und am anschaulichsten darstellen können, werden im Wettbewerb nachhaltig die Spitzenpositionen einnehmen. Auch in diesem Markt wird eine Konsolidierung eintreten, in der sich Spreu und Weizen trennen. Dazu gehört mehr als eine seit Jahren bewährte Daten-Management- Software, die nur dank leistungsstärkerer Server- und Speichersysteme mehr Daten verarbeiten kann.
Die Anbieter werden nicht umhinkommen, ihr Know-how in Schulungsprogrammen und Ausbildungswegen für Data Scientists und Data Artists (für die Visualisierung) an die Anwender zu übermitteln. Zu den Gewinnern des noch lang anhaltenden Big-Data-Trends werden vor allem auch die Systemintegratoren gehören.