Tipps von McKinsey
Wie ein Big-Data-Plan aussehen muss
Über das Stichwort "Big DataBig Data" wird innerhalb der Unternehmen viel diskutiert. Das heißt allerdings nicht, dass jedes Unternehmen einen Plan für den Umgang mit der Datenflut hätte, erklären die Berater von McKinsey in dem Papier "Big Data: What’s your plan?". Sie raten zu einem Vorgehen, das sich auf die Kernbereiche Daten, Analyse-Modelle und ToolsTools konzentriert. Alles zu Big Data auf CIO.de Alles zu Tools auf CIO.de
Im Einzelnen heißt das:
1. Die Daten: In vielen Unternehmen liegen die Daten noch immer in Silos, die horizontal über verschiedene Abteilungen und vertikal über verschiedene Funktionen verteilt sind. Entscheider werden Geld in die Hand nehmen müssen, um die Daten-Architektur grundlegend neu zu organisieren. Das beinhaltet Governance und Standards, die für Systematik und Genauigkeit sorgen sollen. Alternative für Unternehmen, die das nicht selbst erledigen können oder wollen: Outsourcen an Daten-Spezialisten.
2. Die Analyse-Modelle: Das Integrieren der Daten allein generiert noch keinen Mehrwert. Den bringt erst der Einsatz intelligenter Analysen. Entscheider müssen bestimmen, welchen Zweck Daten-Analysen erfüllen sollen und wer welche Modelle nutzen wird.
Darüber hinaus geht es um die Frage, wie die unterschiedlichen Analyse-Modelle kombiniert werden sollen. McKinsey sieht hier Potenzial für intelligente Daten-Nutzung, warnt aber zugleich vor zu hohen Ansprüchen. Zuviele Variablen machen die Dinge so komplex, dass sie schwer zu managen sind.
- Die vier Herausforderungen von Big Data
Das Thema Big Data befasst sich eigentlich mit vier Herausforderungen: - Die schiere Menge:
Das für Unternehmen relevante Datenvolumen steigt weiter drastisch an. Heute schon werden Datenmengen im Terabyte-Bereich analysiert, in Kürze dürften Petabyte und Exabyte auf der Agenda stehen. - Der Zeitdruck:
Analysen der gewaltigen Datenberge sollten idealerweise in Echtzeit zur Verfügung stehen. Denn die Unternehmen stehen vor der Aufgabe, dass sie zeitnah auf Marktänderungen reagieren müssen. - Die mangelnde Struktur:
Die Analysen müssen immer häufig Datenquellen mit kaum strukturierten Beständen berücksichtigen. Das heißt: die Komplexität der Datenanalysen steigt. Neben den bekannten Datenquellen, etwa den vorhandenen ERP-Systemen, kommen neue hinzu. Dazu zählen Daten aus M-to-M-Applikationen, also beispielsweise Sensordaten, Daten aus On-Board-Systemen, RFID-Daten aus der Logistikkette, aber auch Daten aus Weblogs und Social-Media-Plattformen etc. - Die wachsende Anwenderzahl:
Die potenziellen internen und externen User werden immer mehr. Sie kommen beispielsweise über Self-Service-Portale, die im Web zugänglich sind.