Anbieter-Benchmark für Big-Data-Analytics

IBM vor SAS und Teradata

18.09.2013 von Andreas Schaffry
Die Experton Group bewertete in einem Big-Data-Benchmark auch die Analytics-Lösungen der Anbieter. IBM und SAS schlagen Oracle, SAP, Microsoft und Co.
Experton-Analyst hat in einem Benchmark die Anbieter von Lösungen für Big-Data-Analytics untersucht. Sein Fazit: Der Markt ist noch volatil, Veränderungen an der Tagesordnung.
Foto: Experton Group

Die Experton Group veröffentlicht für den Bereich Big-Data-Analytics erste Detailergebnisse aus ihrem "Big Data Vendor Benchmark 2013". Für die Untersuchung hat das Münchner IT-Beratungshaus 68 Anbieter von Big-Data-Lösungen unter die Lupe genommen. Neben Analytics wurden auch die Bereiche "Appliances" und "Operations" beurteilt. Zu den Marktführern bei Big-Data-Analytics zählen derzeit neben IBM, Microsoft, Microstrategy, Oracle, SAP und SAS auch Teradata sowie Terracotta, das jüngst die Software AG übernahm.

Da der Markt noch sehr jung sei, könne es bei den Anbietern in den nächsten Jahren zu deutlichen Verschiebungen kommen, schreibt Studienautor Holm Landrock in einem Newsletter-Beitrag. Die Grundlage für die Bewertung bildet der "Experton Group Market Insight"-Quadrant mit 100 gewichteten Einzelkriterien.

Dazu zählen unter anderem Strategie, Produkt- und Service-Portfolio, Technologie und Ökosystem, Innovationstärke, Beratung und Services, Preisgestaltung und Nutzungsbedingungen sowie finanzielle Stabilität. Die Anbieter sind auf den zwei Achsen "Wettbewerbsstärke" und "Portfolio-Attraktivität" eingeordnet. Das Ganze ähnelt dem magischen Quadranten von Gartner.

Mehr Leistung durch Hadoop und BLU

Big-Data-Anwenderbeispiele
Big Data in der Praxis
Big Data klingt cool und ist technologisch sexy. Viele CIOs wissen aber nicht so recht, was sich damit in der Praxis sinnvolles anstellen lässt. Unsere Bildergalerie zeigt deshalb einige Anwenderbeispiele.
American Airlines
Wie Forrester Research berichtet, machte American Airlines kürzlich auf einer Konferenz in Texas einige eigene Daten publik. Die Fluglinie zeigte, wie diese sich Routenoptimierung in Echtzeit nutzen lassen. Profitieren können die Passagiere. Sie können sich berechnen lassen, ob und wie sie noch zum gewünschten Gate schaffen können. Den Service soll es künftig auf der Website der Fluglinie und als mobile App geben.
NASDAQ/NYSE Euronext
Gartner geht davon aus, dass sich Firmen zunehmend gegenseitig mit Informationen versorgen, so dass beide Seiten profitieren. Die Börsen NASDAQ und NYSE machen schon vor, was das konkret heißen kann. Über den cloud-basierten Datenaggregator Xignite beliefern sie Investment-Firmen mit Echtzeit- und Referenz-Daten sowie mit historischen Informationen. Die Kunden können auf diese Weise bessere Handelsalgorithmen erstellen und Risiken genauer abschätzen. Das hilft beim Entwickeln neuer Services und Produkte für die jeweiligen Zielgruppen.
New York City
Die Stadt New York teilt zunehmend Daten mit der Öffentlichkeit. Das Kalkül dahinter: Engagierte IT-Experten nutzen das Material, um Innovationen für einen besseren Lebensraum zu entwickeln. Laut Forrester Research konnten auf diesem Wege beispielsweise die Müllentsorgung und die Sicherheitslage verbessert werden. Zwei Apps sind offenbar besonders populär: WorkPlus und ParkAlley helfen bei der Suche nach Parkplätzen und geeigneten Lokalen für die mobile Arbeit.
dm
Die Filialmanager der Drogeriekette dm erledigten früher ihre Mitarbeiterplanung auf Basis einfacher Hochrechnungen - ein Verfahren, das immer an seine Grenzen stieß. Mittlerweile führte man für die Vorhersage der Tagesumsätze die Predictive-Analytics-Suite des Anbieters Blue Yonder ein. Vier bis acht Wochen im Voraus tragen sich die Mitarbeiter der jeweiligen Filiale jetzt nach ihren persönlichen Präferenzen in die anstehenden Tagespläne des Unternehmens ein. Kurzfristige Änderungen sind laut Bitkom selten geworden.
Macys
Die US-amerikanische Handelskette Macy's verarbeitet für die wöchentliche Preisfestsetzung ihrer Produkte rund zwei Terabyte an Daten, die in den Filialen gesammelt wurden. An Rechenzeit nahm das stets an die 30 Stunden in Anspruch. Wie der Bitkom berichtet, war es durch die Umstellung der vorhandenen Infrastruktur auf optimierte Datenhaltung und den Einsatz von In-Memory-Technologie möglich, die Analyse über das gesamte Sortiment auf eine Zeit unter zwei Stunden zu drücken.

IBM habe derzeit drei Big-Data-Analytics-Engines am Markt platziert: BigInsights, das auf dem Hadoop-Framework basiert, InfoSphere Streams zur Verarbeitung von Streaming-Daten sowie die PureData-Systeme für komplexe Analysen. Positiv bewertete der Benchmark, dass mit der Blu-Technologie von IBM für den Datenbankserver DB2 SQL-Abfragen nicht nur "in-memory", sondern auch auf komprimierte Daten durchgeführt werden können. Das soll einen "enormen Leistungsschub" bringen schreibt Landrock. Ebenso sei IBM mit seinem Big-Data-Produktportfolio weitgehend unabhängig von Dritten.

SAS habe hinsichtlich Advanced Analytics mit seiner Big-Data-Perspektive überzeugt und die klassischen BI-Lösungen frühzeitig in diese Richtung weiterentwickelt. Die Nutzungsszenarien seien vielfältig und zudem mit Referenzen belegt.

Bei Teradata wiederum stimmten Vision und Strategie überein. Der Softwarehersteller habe mit der Unified Data Architecture eine Analyse-Plattform geschaffen, unter deren Dach die erforderlichen Komponenten für komplexe Analysen integriert sind. Diese kann sowohl Daten aus einer Hadoop-Datenbank wie auch aus einem relationalen Datenbankmanagementsystem (RDBMS) verarbeiten.

Zur Spitzengruppe zählen im Benchmark auch die Big-Data-Lösungen von Oracle wie Advanced Analytics, Oracle OLAP und der Oracle RT Decision Server. Positiv werde von Anwendern bewertet, dass Oracle "R" als Werkzeug zur statistischen Datenanalyse und grafischen Visualisierung mit seiner Datenbank in den Versionen 11g und 12c verknüpft. Hinzu komme, dass Oracle mit der Engineered-Systems-Produktfamilie eine "fortschrittliche Grundlage für Big-Data-Analysen liefern kann", wie Landrock formuliert.

HANA stark bei komplexen Daten

SAP biete mit HANA eine Technologie, die große Datenmengen in-memory verarbeiten kann. Speziell bei der Analyse und dem Management komplexer Unternehmensdaten könne der Softwarehersteller aus Walldorf punkten. Das Unternehmen habe in Zusammenarbeit mit dem Hasso-Plattner-Institut eine Pilotanwendung entwickelt, mit der sich die komplette Lieferkette eines Pharma-Herstellers in Quasi-Echtzeit auswerten ließe. HANA bilde in Kombination mit den Datenbankmanagementsystemen Sybase IQ und ASE sowie Hadoop zudem eine Plattform für komplexe Analysen großer Datenmengen, die auch Szenarien für Predictive Analytics erlaube.

Bei der Big-Data-Strategie von Microsoft mit den Produkten HDInsight, Microsoft SQL Server PDW (= Parallel Data Warehouse) in Verbindung mit der Polybase-Engine stünden die Weiterentwicklung der Data-Warehouse- und Business-Intelligence-Stacks zur Einbindung neuer Big-Data-Technologien im Vordergrund.

Im Big-Data-Analytics-Benchmark von Experton hat IBM die Nase vorn. Es folgen SAS, Teradata, Oracle und dann SAP.
Foto: Experton Group

Landrock zufolge verdankt Microstrategy seine Positionierung im Leader-Quadranten unter anderem der Vollständigkeit des Angebots an Big-Data-Analytics, das auch Cloud-Services für die Arbeit mit großen Datenmengen umfasst. Bei Teradata wiederum stimmten Vision und Strategie überein. Der Softwarehersteller habe mit der Unified Data Architecture eine Analyse-Plattform geschaffen, unter deren Dach die erforderlichen Komponenten für komplexe Analysen integriert sind. Diese kann sowohl Daten aus einer Hadoop-Datenbank wie auch aus einem relationalen Datenbankmanagementsystem (RDBMS) verarbeiten.

Cloud-Angebote noch nicht ausgereift

Die Gruppe der Herausforderer führt die IT-Firma Blue Yonder aus Karlsruhe mit ihrer Predictive Analytics Suite an. Das Unternehmen habe ein solides Verständnis für eine komplexere Big-Data-Vision, verknüpfe seine Lösungen mit konkreten Nutzungsszenarien und könne auch Referenzbeispiele vorweisen. In diesem Feld tummelt sich mit Google auch ein reiner Cloud-Anbieter. Trotz seiner hohen Marktpräsenz in Deutschland müsse der Internetkonzern im Hinblick auf den Big-Data-Markt noch mehr an Aufmerksamkeit gewinnen und Referenzkunden entwickeln, kritisiert Landrock.

Generell sieht die Experton Group bei Cloud-basierenden Analytics-Lösungen für Big Data noch eine Anzahl ungelöster beziehungsweise unbeantworteter technischer Herausforderungen. Dazu zähle die Übertragungszeit für große Datenmengen. Auch der IT-Konzern Hewlett Packard (HP), der im Leader-Quadranten eingestuft ist, bietet mit der Big Data Discovery Experience eine vorintegrierte Cloud-gestützte Lösung auf der Basis von Autonomy, Vertica und Hadoop an. Bei HP trügen die langjährigen strategischen Partnerschaften im Analytics-Bereich mit Anbietern wie SAP und SAS zur positiven Positionierung im Benchmark bei.

Big Data: Vier Tipps für Anwender

Laut Experton ist Big Data ein Zukunftsthema, das Unternehmen die nächsten zehn bis 15 Jahre beschäftigen wird. Analyst Landrock hat daher noch folgende vier Tipps parat.

1. Big Data als Evolution von Business Intelligence und Data Warehousing positionieren und nicht als Wundermittel sehen

2. Komplexe Big-Data-Szenarien mit Partnern in der Supply-Chain und mit IT-Partnern entwickeln

3. Appliances und Lösungspakete erwerben statt Produkte und Service-Projekte

4. Ausbildungsweg zum Data Scientist schaffen