Das Schlagwort Big Data scheint nach wie vor eine große Unbekannte zu umschreiben. Ein einheitliches Begriffsverständnis hat sich noch nicht etabliert. Das geht aus der Studie "Big Data und Datenstrategien in Deutschland 2013" hervor, für die der Frankfurter Marktforscher IDC 282 IT- und Fachbereichsentscheider befragt hat.
Darin schreibt Analyst Matthias Zacher: "Big Data ist weder ein Produkt noch eine Kundenanforderung, sondern ein Konzept und eine Vorgehensweise." In dieser Betrachtung liege jedoch "eine der größten Schwierigkeiten für Initiativen und Projekte, denn unter den Begriff Big Data fallen unterschiedliche Lösungsansätze und Technologien im Kontext Datenbereitstellung und Datenanalyse, die von Anbietern mit einer Vielzahl von Produkten belegt werden."
Die Big-Data-Definition nach IDC
Folgt man der Darstellung von IDC, gibt es Methoden der Daten-Analyse und -bewertung seit fast vierzig Jahren. Heute reiche das von Excel über komplexere Standardwerkzeuge bis zu anwendungsspezifischen Individual-Lösungen. Zacher will Big Data verstanden wissen wie folgt: als neuartige Ansätze und Architekturen für den Umgang mit großen Datenmengen, unterschiedlichen Datenformaten und Datenquellen, die mit herkömmlichen Methoden und Vorgehensweisen nur unzulänglich bearbeitet werden können. Unter "herkömmlichen Methoden" subsummiert Zacher Datenarchitektur, -organisation, -management, -analyse und -präsentation.
Klar ist jedenfalls eines: Die Menge an Daten, die Entscheider zu bewältigen haben, nimmt zu. Jeder zweite Befragte beziffert das jährliche Datenwachstum in den kommenden 24 Monaten auf 15 bis 25 Prozent, jeder Siebte schätzt es noch höher.
Ausrichtung und Ziele von Big-Data-Projekten
Die Analysten haben zunächst nach der Ausrichtung von Big Data-Projekten in den Unternehmen gefragt. Die meisten Entscheider (52 Prozent) wollen denn auch in erster Linie große Datenmengen speichern können. Fast ebenso viele (47 Prozent) zielen auf die Datenanalyse ab.
Weitere Ziele folgen erst mit deutlichem Abstand. Dazu zählen der Wunsch, schnellere Entscheidungen treffen zu können (31 Prozent), Entscheidungsunterstützung/-interpretation (29 Prozent) und die Auswahl der richtigen Daten (28 Prozent).
Außerdem wollte IDC wissen, wo Big Data-Projekte eingesetzt werden. Am häufigsten nennen die Befragten die Optimierung der IT und das Controlling (jeweils 35 Prozent). Darüber hinaus versprechen sich die Fachabteilungen Vertrieb, Marketing, Services und teilweise auch Personal Innovationspotenzial von Big Data. Damit zeige sich insgesamt eine "konstante Sicht", wie Zacher schreibt. Die Themen hätten sich in den vergangenen 15 Monaten kaum geändert.
Stichwort Fachbereiche: Sie verlangen nach schnellerer Informationsgewinnung, präziseren Reportings und detaillierteren Informationen. "Es gilt immer, dem Wettbewerber, sei es intern oder extern, eine Nasenlänge voraus zu sein", kommentiert der IDC-Analyst.
Viel Geduld mitbringen
Zacher mahnt Entscheider zur Geduld. "Big Data manifestiert sich nicht so schnell in Lösungen und Projekten, wie manch einer gehofft hat", schreibt er. Nichtsdestoweniger zähle Big Data mit Cloud Computing, Mobility und Social zu den prägenden Kernthemen der IT in den kommenden Jahren.
Dass Anwender Geduld brauchen, zeigt sich auch bei der Frage nach den aktuellen Problemen mit Big Data. Jeder Dritte beklagt, der Zugriff auf die Daten sei zu langsam. Fast ebenso viele (30 Prozent) fürchten, dass der Datenschutz nicht ausreicht. Jeweils 28 Prozent bemängeln veraltete Daten sowie zu wenig Speicherplatz.
Aktuelle Trends: visualisieren und automatisieren
Big Data bleibe also "eine Herausforderung", so Zacher. Unternehmen brauchten eine stringente Vorgehensweise, um Businesswissen aus den Daten zu ziehen. Als aktuelle Trends nennt er die Visualisierung von Daten und Zusammenhängen, das Automatisieren von Analyse-Prozessen, die Ad-hoc-Nutzung unterschiedlicher Datenquellen sowie die Themen Entscheidungsunterstützung und Predictive Analytics. Von technologischer Seite her ist mobile BI (Business Intelligence) im Kommen.
Nicht einfacher wird die Situation durch den aktuellen Fachkräftemangel, sagt Zacher weiter. Zu wenige Experten überschauen die Komplexität von Datenquellen und analytischen Prozessen.