Big Data ist ein aktueller IT-Hype. Und Big Data ist das Versprechen an die Anwender, ihre Geschäftsprozesse signifikant zu verbessern. Wie stets bei jungen Technologien, für die noch keine Business Cases auf breiter Basis vorhanden sind, gibt es aber auch eine Menge Unsicherheit, ob und wie man sich dem Thema annähern soll. Für unsere amerikanische Schwesterpublikation CIO.com beantwortet Reda Chouffani die vier wichtigsten Fragen in diesem Zusammenhang. Chouffani ist Vice President beim Anbieter Biz Technology Solutions, der Unternehmen in den südöstlichen USA mit Business Intelligence (BI), Enterprise Resource Planning (ERP) und IT-Infrastruktur ausstattet.
1. Welche Daten kommen in Frage?
Chouffani klärt erst einmal über die drei verschiedenen Datenformate auf. Erstens strukturierte Daten, die so aufbereitet sind, dass sowohl Rechner als auch Menschen sie lesen können – zum Beispiel das Material einer relationalen Datenbank. Zweitens halbstrukturierte Daten, denen es an einer solchen formalen Struktur fehlt, die aber dennoch Tags enthalten, die semantische Elemente separieren. Der Autor nennt als Beispiele XML, E-Mail und Electronic Data Interchange (EDI). Drittens unstrukturierte Daten wie Bilder, Videos und Audio-Dateien, die nicht Teil von Datenbanken sind.
„Die dringlichste Herausforderung ist die Notwendigkeit, diese Daten freizugeben und Zugang zu ihnen zu gewinnen, um sie speichern und verwenden zu können“, so Chouffani. Dabei könnten die Daten im Rohzustand verbleiben und zugleich in Echtzeit ins Analyse-System einfließen, wo sie analysiert werden und als Basis für Berichte dienen können. Bei strukturierten Daten verlaufe dieser Prozess recht geradlinig; bei unstrukturierten Daten seien fortgeschrittene Algorithmen und starke Engines nötig.
2. Wie werden die Daten gesammelt?
Der Autor verweist auf eine ganze Fülle von Datenquellen. Zu entscheiden sei, welche Daten tatsächlich benötigt werden. Eine der meistdiskutierten Quellen sei Social Media, weil Firmen sich Erkenntnisse über ihre Kunden und ihre Marken erhoffen. In Frage kommt dieses Material deshalb, weil Facebook, Twitter und andere große Social Media-Seiten in der Regel durch ein Application Programming Interface (API) Zugang zu dieser Sorte Daten gewähren.
Als weitere besondere Datenquelle führt Chouffani Orts- und Bewegungsmuster an. Weil RFID sowie Infrarot- und Wireless-Technologien kleiner und günstiger werden, erhalten Unternehmen immer mehr Möglichkeiten, Berichte über die Aufenthaltsorte von Mitarbeitern und Kunden in ihre Business-Applikationen einfließen zu lassen.
Vorteile und Rentabilität
„Sobald Unternehmen Daten aus diesen Quellen sammeln und mit den strukturierten und unstrukturierten Daten kombinieren, die sie On-Site oder in der Cloud gespeichert haben, müssen sie deren Verwendung in einer Weise sicherstellen, die sich auszahlt“, kommentiert Chouffani.
3. Welche Vorteile kann eine Big Data-Initiative meinem Unternehmen bringen?
Nach diesen beiden eher allgemeinen Fragen und Antworten geht es jetzt ans Eingemachte. Chouffani entscheidet sich konsequenterweise für eine Gliederung nach Branchen. Denn: In den meisten Branchen sei der Großteil der für eine Big Data-Initiative benötigten Daten mittlerweile verfügbar – in manchen Fällen mangele es aber noch an Volumen und Standardisierung.
„Viele Firmen stehen vor der Herausforderung, schnell die richtige Plattform implementieren zu müssen, mit der sich Daten aus verschiedenen Anwendungssilos extrahieren und für eine Analyse zugänglich machen lassen“, beobachtet der Big Data-Fachmann.
Marketing-Firmen und interne Marketing-Abteilungen stehen laut Chouffani vor der Aufgabe, mit Hilfe nutzbar gemachter Daten die Reichweite ihrer Kampagnen zu erhöhen und ihre Effektivität zu messen. Hinzu komme der verlockende Versuch, durch die Analyse von Tweets, User-Kommentaren und „Gefällt mir“-Bekundungen die Wahrnehmung von Marken im Social Web nachvollziehen zu können. In jedem Fall könnten mit Hilfe von Big Data die verfügbaren Informationen aus dem Web 2.0 für Kunden-Einblicke und Echtzeit-Analyse genutzt werden.
Im Retail-Segment gebe es unzählige Online-Datenquellen, die angezapft werden können. Vieles davon beziehe sich auf das Browsing-Verhalten von Kunden und die allgemeine Beliebtheit von Marken. Mit Hilfe von APIs können neben Social Media-Seiten auch Daten von Google und Web Server-Logs gezogen werden. Hinzu komme die Analyse von Daten innerhalb der Kaufhäuser, etwa durch Kundenkarten, die das Kaufverhalten transparent machen.
Citigroup ist Vorreiter
Healthcare-Firmen können Daten aus Systemen für elektronische Gesundheitsaufzeichnungen verwenden. Der CIO.com-Autor verweist ferner auf verschiedene Neuerungen in den USA, die Ärzten zusätzliche Daten zugänglich machen, und auf tragbare medizinische Geräte sowie mobile Health-Applikationen, die immer populärer würden. Insgesamt gebe es einen kontinuierlichen Fluss an Patientendaten, die zur Analyse bereit stehen. Das gelte ebenso für die pharmazeutische Wissenschaft, die Arzneimittel an Patientengruppe mit besonderen genetischen Merkmalen teste.
Für weltweit tätige Logistik-Firmen, die mit Supply Chain Management (SCM) und der Kontrolle von Gütern zu tun hätten, könne Big Data entscheidende Erkenntnisse und Unterstützung für Re-Engineering-Prozesse liefern. Als Quellen nennt Chouffani GPS-Technologie, EDI-Nachrichten von Zulieferern und Transportfirmen, Mobilgeräte mit Kundendaten, interne ERP-Systeme und Social Media-Quellen.
Auch Finanzdienstleister wie die Citigroup hätten sich auf den Weg Richtung Big Data gemacht. „Hier sind die Angelpunkte die Reduzierung von Betrug und das Sichtbarmachen von Mustern, die zunächst in Datensätzen versteckt waren, das Aufdecken von Aktivitäten wie beispielsweise Geldwäsche und das Sicherstellen von Compliance mit amerikanischen und internationalen Bankregeln“, heißt es im Artikel.
Auch die Regierung Obama habe sich zum Ziel gesetzt, Big Data innerhalb des Behördenapparats zu unterstützen. Hauptstoßrichtung dabei sei, die Bürger mit Services und Informationen zu versorgen, zum Beispiel via mobile Endgeräte. Bundes-CIO Steven VanRoekel beaufsichtige die „Roadmap for a Digital Government“, dem privaten und dem öffentlichen Sektor freien Zugang zu Daten verschaffen soll. „Das würde vielen Firmen dabei helfen, ihre Big Data-Initiativen voranzutreiben“, so Chouffani.
4. Lässt sich der ROI von Big Data-Initiativen leicht messen?
Nicht wirklich, urteilt Chouffani – auch wenn manche Anbieter das Gegenteil versprächen. Man müsse für die einzelnen Datentypen den spezifischen Wert einer Analyse bestimmen. Zudem gebe es bei Big Data-Initiativen nicht messbare Aspekte. „Wenn man sich Unmengen von Daten in der Absicht ansieht, um Anhaltspunkte für mögliche Veränderungen von Geschäftsprozessen zu finden, wird man kaum vorher sagen können, welchen Wert die späteren Entdeckung am Ende haben“, erläutert der Experte.
ROI schwer zu bestimmen
Vor diesem Hintergrund sollte man einige Regeln im Hinterkopf behalten. Die Kosten einer Big Data-Initiative steigen laut Chouffani in der Regel nicht mit wachsendem Datenvolumen an, weil die Technologie in hohem Maße skalierbar sei. Zudem könne die Implementierung und Wartung von Plattformen, die Hadoop unterstützen, im Vergleich zu traditionellen Management-Systemen für Datenbanken für mehr Kosteneffektivität sorgen. „Das liegt daran, dass neue Lösungen auf handelsüblicher Hardware mit Open Source-Software laufen können“, erklärt der Experte.
Fazit: In der Vergangenheit nutzten viele Firmen große Data Warehouses für Datenanalyse und evidenz-basierte Entscheidungen. Big Data bringt laut Chouffani zusätzliche Information etwa aus der Social Media-Welt in diesen Kreislauf – und das dank Cloud Computing für den Bruchteil der einst anfallenden Kosten. Um aus diesen Voraussetzungen das Beste zu machen, müsse herausgefunden werden, was Big Data für das eigene Unternehmen bedeuten kann und welche konkreten Ziele mit einer Initiative erreicht werden sollen.