Einen mittleren Reifegrad bei der Nutzung von analytischen Plattformen attestiert eine Studie von Sopra Steria den meisten deutschen Unternehmen.
IT-Chefs wollen durch analytische Plattformen vor allem große Datenmengen analysieren und verarbeiten können, das Thema Echtzeit steht auf Rang zwei
Mangelnde Erfahrung sowie unklare Analyse- und Verwertungsmöglichkeiten hemmen In-Memory
Die berühmte Glaskugel bleibt der Esoterik-Szene vorbehalten, die IT kann immerhin mit In-Memory arbeiten. Die Berater von Sopra Steria Consulting legen mit ihrer "Potenzialanalyse In-Memory-Analytics 2015" eine aktuelle Bestandsaufnahme vor. Diese basiert auf Angaben von 100 IT-Chefs aus Unternehmen mit mehr als 500 Mitarbeitern.
Der Report zeigt, dass es ganz ohne Kaffeesatzleserei wohl doch nicht geht. Konkret: Die Unklarheiten beginnen bereits bei der Definition des Begriffs In-Memory-Analytics. Eine knappe Mehrheit von 53 Prozent der Befragten versteht darunter analytische Plattformen zur Speicherung und Verarbeitung großer, polystrukturierter Daten (Backend). Knapp jeder Vierte (23 Prozent) verbindet den Begriff mit modernen Analysewerkzeugen zur unmittelbaren Auswertung und Analyse von Daten (Methodik). Die restlichen 24 Prozent wenden In-Memory-Analytics auf beides an.
Trotz dieser definitorischen Schwierigkeiten legen die Berater einen Reifegrad für den Einsatz analytischer Plattformen fest. Dieser ergibt sich aus der Frage, inwieweit sich Entscheider bereits mit diesem Thema beschäftigt haben, und den daraus folgenden Konsequenzen für die Business Intelligence-Architektur (BI) des Unternehmens.
Dazu dokumentieren die Consultants folgende Zahlen: Eine relative Mehrheit von 37 Prozent sieht sich in der Implementierungs- beziehungsweise Testphase. 27 Prozent geben an, eine unternehmensweite Strategie auszuarbeiten. Weitere 23 Prozent setzen solche Plattformen bereits ein. Die verbleibenden dreizehn Prozent beschäftigen sich nicht oder noch nicht mit dem Thema.
Analytische Plattformen lösen Datenbanken ab
Zu den Konsequenzen für die BI-Architektur: 60 Prozent der Entscheider lösen einen Teil ihrer Datenbanken durch analytische Plattformen ab. 33 Prozent setzen sie ausschließlich additiv als Stand-alone-Datenplattformen ein und sieben Prozent ersetzen alle ihre bisherigen Datenbanken vollständig durch analytische Plattformen.
Aufgrund dieser Daten sprechen die Berater 61 Prozent der Unternehmen einen mittleren Reifegrad zu. 19 Prozent attestieren sie einen hohen Reifegrad und 21 Prozent einen niedrigen.
Glossar zu Big Data und Data Analytics
Predictive Analytics das Treffen von Prognosen durch die Analyse von Daten. Im Gegensatz zur Analyse historischer Zusammenhängen und Erkenntnissen; auch durch die Analyse von Daten, die möglicherweise urächlich nicht miteinander in Zusammenhang stehen (Quelle: Bitkom)
Open Source quelloffene Werke, zum Beispiel Software bei der man den Quellcode erhält (Quelle: Bitkom)
Open Data Konzept zum Zugang zu hoheitlichen Daten zu jedermann, beispielsweise Auskunft über die bei einer Meldestelle gespeicherten Daten über einen Bürger und die Einrichtungen, an die die Daten übermittelt worden sind. (Quelle: Bitkom)
Metadaten Daten zur Beschreibung von Daten, unter anderem, um Datenmodelle zu entwickeln. (Quelle: Bitkom)
Mahout wörtlich: Elefantentreiber; hier: eine Apache-Komponente zum Aufbau von Bibliotheken für das Machine Learning MapReduce Verfahren zur Datenverwaltung und Indizierung (Quelle: Bitkom)
Machine Learning Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann nach Beendigung der Lernphase verallgemeinern. Das System „erkennt“ Gesetzmäßigkeiten und kann somit auch unbekannte Daten beurteilen. (siehe Wikipedia). (Quelle: Bitkom)
Lustre Linux-basierendes Betriebssystem für den Betrieb von Cluster-Architekturen (Quelle: Bitkom)
Lambda-Architektur Eine konstruktiv nutzbare Vorlage für den Entwurf einer Big-Data-Anwendung. Die in der Architektur vorgesehene Modularisierung spiegelt typische Anforderungen an Big-Data-Anwendungen wider und systematisiert sie. (Quelle: Bitkom)
In-Memory Bei In-Memory werden die Daten nicht physisch auf Datenträger gespeichert und wieder ausgelesen, sondern im Arbeitsspeicher gehalten und dadurch mit sehr hoher Geschwindigkeit verarbeitet. (Quelle: Bitkom)
HANA Ursprünglich: High-Performance Analytical Appliance; ein von SAP entwickeltes Produkt zum Betrieb von Datenbanken im (sehr großen) Hauptspeicher eines Computersystems (Quelle: Bitkom)
Hadoop Open-Source-Version des MapReduce-Verfahrens, in verschiedenen Distributionen erhältlich. (Quelle: Bitkom)
Fraud Detection Erkennung von Betrugsversuchen durch die Analyse von Transaktionen und Verhaltensmustern (Quelle: Bitkom)
Eventual Consistency Eine Schnittmenge des CAP-Modells hinsichtlich der ereignisbezogenen Konsistenz von Modellen. (Quelle: Bitkom)
Data Science Datenkunde: die Kenntnis bzw. Anwendung neuer Verfahren zur Arbeit mit Daten und Informationen, z.B. Verwendung semantischer Verfahren oder die Erschließung neuer Datenquellen (Sensordaten) und die Erarbeitung von Mustern oder statistischen Verfahren zur Auswertung solcher Daten. (Quelle: Bitkom)
Data Mining Anwendung statistischer Methoden auf sehr große Datenmengen, bspw. Im Gegensatz zur manuellen Auswertung über Funktionen eines Tabellenkalkulationsprogrammes (Quelle: Bitkom)
Data Management Methoden und Verfahren zur Verwaltung von Daten, oft über Metadaten (Daten, die Daten beschreiben) (Quelle: Bitkom)
Customer Analytics Gewinnung von Erkenntnissen über das Kundenverhalten (überwiegend in Consumer-orientierten Unternehmen), beispielsweise mit dem Ziel der Entwicklung massenindividualisierter Produkte und Dienstleistungen (Quelle: Bitkom)
CEP Sammelbegriff für Methoden, Techniken und Werkzeuge, um Ereignisse zu verarbeiten, während sie passieren. CEP leitet aus Ereignissen höheres Wissen in Form von komplexen Ereignissen ab, d. h. Situationen, die sich nur als Kombination mehrerer Ereignisse erkennen lassen (vgl. Wikipedia). (Quelle: Bitkom)
Complex Event Processing (CEP) Complex Event Processing (CEP, Verarbeitung komplexer Ereignisse) ist ein Themenbereich der Informatik, der sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung voneinander abhängiger Ereignisse beschäftigt. (Quelle: Bitkom)
CEPH ein Dateisystem, das gleichzeitig Objekte, Dateien und Datenblöcke verwalten kann (Quelle: Bitkom)
CAP-Theorem Laut dem CAP-Theorem kann ein verteiltes System zwei der folgenden Eigenschaften erfüllen, jedoch nicht alle drei: C = Consistency = Konsistenz, A = Availability = Verfügbarkeit, P = Partition Tolerance = Partitionstoleranz (siehe Wikipedia)
Business Intelligence Gewinnung von Erkenntnissen über Zusammenhänge zwischen Informationen aus polystrukturierten Daten aus unterschiedlichsten Quellen (Quelle: Bitkom)
Broker Makler/Buchmacher, hier: Rolle des Übermittlers von Daten zwischen Quelle und Anwender Business Analytics Ermittlung von Kennzahlen für Unternehmen, durch die Analyse größerer Datenmengen mit dem Ergebnis neuer Erkenntnisse aufgrund einer breiteren Datenbasis. (Quelle: Bitkom)
Big Data die Gewinnung neuer Informationen – die in kürzester Zeit sehr vielen Nutzern zur Verfügung stehen müssen – mittels enorm großer Datenbestände aus unterschiedlichsten Quellen, um dadurch schneller wettbewerbskritische Entscheidungen treffen zu können. (Quelle: Bitkom)
Analytics Appliance vorkonfigurierte oder paketierte Lösungen aus Hardware und Software für die Koordinierung von polystrukturierten Daten, die Ausführung von Analysen und die Präsentation der Erkenntnisse. (Quelle: Bitkom)
Analytics Analyse Gewinnung von Erkenntnissen durch komplexe Abfragen auf polsystrukturierte Daten, Datenbanken und Data-Warehouses mit spezifischen Abfragesprachen wie SQL oder Pig. (Quelle: Bitkom)
Erwartungen und Treiber bei In-Memory
Auf die Frage der Erwartungen der IT-Chefs schlägt Masse den Faktor Zeit: 74 Prozent ist es am wichtigsten, große Datenmengen analysieren und verarbeiten zu können. Die Möglichkeit der Echtzeit-Analyse steht für 43 Prozent an erster Stelle. 37 Prozent nennen die Möglichkeit der Verarbeitung und Analyse polystrukturierter Daten.
Als wichtigster Treiber für analytische Plattformen gilt denn auch der Anstieg des Datenvolumens (69 Prozent). Weiter nennen die Befragten die zunehmende Komplexität (46 Prozent), die steigenden Anforderungen an die Analysemöglichkeiten (41 Prozent) und den schnelleren Zugriff als bei traditionellen Datenbanken (39 Prozent).
Probleme wegen mangelnder Erfahrung
Außerdem haben sich die Consultants nach den Problemen erkundigt, die mit In-Memory verbunden sind. Hier führen die Befragten zunächst ihre mangelnde Erfahrung im Umgang mit neuen Technologien und Verfahren an (50 Prozent). Auch seien die Analyse- und Verwertungsmöglichkeiten der Daten unklar (49 Prozent). Technologisches wie Probleme bei der Integration in die bestehende IT-Infrastruktur folgt mit 36 Prozent der Nennungen erst auf Platz drei.
Ein Blick auf die einzelnen Branchen zeigt, dass Finanzdienstleister und das verarbeitende Gewerbe bei der Nutzung von In-Memory-Datenbanken vorne liegen. Gleichzeitig klagen Vertreter dieser Unternehmen aber auch am stärksten darüber, dass der Wert der neuen Analysemöglichkeiten in ihrem Haus unterschätzt werde.
Robert Hänsel, Experte für Business Intelligence und Big Data Analytics bei Sopra Steria Consulting, rät Unternehmen, eine fachbereichsübergreifende Initiative oder Task Force zu initiieren, die unternehmensindividuelle Anwendungsfälle entwickelt. "Die IT ist technisch der Enabler, der Erfolg wird allerdings erst über die passenden analytischen Anwendungsfälle hergestellt", sagt Hänsel.
Die Big-Data- und Analytics-Trends 2015
Self-Service Analytics bauen die vorherrschende Rolle der Daten aus Ähnlich wie sich die Landschaft der Business Intelligence von statischen Reports zur interaktiven Self-Service Daten verändert hat, so wandelt sich deren Herrschaft. Ansätze wie die Isolation der Daten in einem Unternehmen oder Neutralisation der gesamten Prozesse haben ausgedient. Unternehmen müssen lernen, was Führung bedeutet in einer Welt der Self-Service Analytics. Neue Prozesse und beste Methoden werden sich etablieren, um die Daten zu schützen, während Geschäftsleute ihre Antworten von den Daten bekommen.
Vermarkter und Verkäufer nutzen Social Intelligence 2014 haben Unternehmen erstmals angefangen soziale Daten ernsthaft analysiert. Im kommenden Jahr werden die Verantwortlichen aus diesem Potential ihren Vorteil ziehen. Durch das Beobachten von Online-Unterhaltungen von Beginn an, werden Unternehmen in der Lage sein, wann ein Thema beginnt ein Trend zu werden und worüber die Kunden reden. Soziale Analytics öffnen die Tür zu bedarfsgesteuerter Produktoptimierung. Und als weiteres Resultat wird dieser soziale Vorteil den Wettbewerb vermitteln, dass solche Unternehmen eine unheimliche Fähigkeit haben, in die Zukunft zu schauen.
Die Analytic-Kompetenzen innerhalb eines Unternehmens wachsen Der heutige Datenanalyst ist vielleicht ein operativer Manager, ein Verantwortlicher der Lieferkette oder eine Vertriebsperson. Neue Technologien, die einfache Nutzung und Browser-basierte Analytics erlauben, lassen Menschen unmittelbar Geschäftsfragen beantworten, während Daten-Analysten weiterhin die komplexen und hochentwickelten Datenanalysen bearbeiten und die Ergebnisse in das Tagesarbeit einfließen lassen. Unternehmen, die diese Entwicklung als strategischen Vorteil erkennen, werden anfangen, den "Alltaganalysten" bei seiner Arbeit mit Daten, Werkzeug und Training zu unterstützen.
Nutzer-Communities im Bereich Software machen den Unterschied Die Consumerization of IT ist nicht länger eine Theorie, sie ist Fakt. Menschen gebrauchen Technologie, die ihnen Spaß macht und Analyse-Software gehört dazu. Der Wunsch, sich im Unternehmen und außerhalb mit anderen Nutzern auszutauschen und zu sprechen, nimmt enorm zu. Die Unternehmen, die diese Entwicklung unterstützen, haben eine wachsende Gemeinde. Und für potenzielle Kunden wie der Blick auf zufriedene und gesunde Produkt-Gemeinden zu einem wichtigen Entscheidungsaspekt auf dem überfüllten Marktplatz der Angebote.