Wer die Nase vorne haben wird, ist zurzeit noch nicht auszumachen. Denn erst langsam setzt sich das Bewusstsein durch, dass sich die nächste Phase der IT vor allem um die Auswertung und Nutzbarmachung der riesigen digitalen Datenmengen drehen wird.
"Big Data" ist ein Terminus, den bis jetzt vor allem der Speicherhersteller EMC und das Beratungshaus McKinsey verwenden. Damit ist nicht nur das Wachstum der unstrukturierten Daten gemeint, die mit digitalen Musik-, Foto- oder Videoaufnahmen entstehen, sondern zugleich auch das exponentielle Wachstum von Informationen aller Art und in fast allen Branchen. So werden im Gesundheitswesen heute mit PACS-Bildsystemen und elektronischen Patientenakten bereits zig Millionen Daten erfasst und gespeichert.
Doch mit der Auswertung hapert es. Dies liegt an fehlenden oder nur unzulänglich genutzten technischen Mitteln auf Hardware- und Software-Seite, aber auch am fehlenden Bewusstsein und an der kaum entwickelten Bereitschaft, dies in einem größeren Kontext durchzuführen. Zudem ist bisher sehr viel Spezialwissen nötig, um Daten zu durchforsten und allgemeinverständlich aufzubereiten.
Das alles ändert sich jetzt. Dieser Ansicht ist man zumindest bei McKinsey. Bei dem amerikanischen Consulting-Unternehmen glaubt man, dass nun die technischen Mittel vorhanden sind, um große Datenmengen für Geschäftszwecke zu erschließen. In dem Report "Big Data: The Next Frontier for Innovation, Competition and Productivity" äußern sich die McKinsey-Berater optimistisch über die Chancen, mit Daten-Research die Umsätze zu erhöhen.
McKinsey hat zum Beispiel ermittelt, dass das Gesundheitswesen in den USA pro Jahr 300 Milliarden Dollar zusätzlich erwirtschaften könnte, wenn man die vorhandenen digitalen Daten effektiver nutzen würde. Die Methoden, Daten zu erfassen, zu verfolgen und zu analysieren, seien vorhanden. Und sie seien nicht mehr so kompliziert wie die klassischen Methoden von Data Warehousing und Business Intelligence.
Datenausbeute braucht Spezialisten
Doch gibt es noch immer zu wenig Spezialisten, die mit den Techniken von "Data Exploitation" vertraut sind. Laut McKinsey fehlen allein in den USA 140.000 bis 190.000 Personen, die genug mathematisches Wissen im Bereich statistische Methoden und Datenanalyse besitzen. Außerdem bemängelt man eine Lücke auf der Leitungsebene der Unternehmen: In den USA bräuchte man zusätzlich 1,5 Millionen Führungskräfte, die sich mit Dateninterpretation auskennen.
Wie die New York Times berichtet, geht Michael Chui vom McKinsey Global Institute davon aus, dass "jede Führungskraft etwas von Statistik und der Auswertung des Zahlenmaterials verstehen muss".
Im Gesundheitswesen kommt es vor allem auf die Auswertung der überall erhobenen Patientendaten an, die zunächst konsolidiert werden müssen. Aus eingehenden Datenanalysen können dann zum Beispiele Rückschlüsse auf die Behandlungsmethoden gezogen werden. Ärzte könnten sich "auf Knopfdruck" an ihrem Computer über die erfolgreichsten Behandlungsmethoden und deren Details informieren.
Das würde den Patienten zugute kommen, aber auch den medizinischen Institutionen, die zielgerichteter und mit geringeren Kosten planen könnten. Doch ein notwendiger Datenaustausch auf elektronischem Weg scheitert in vielen Fällen noch daran, dass die Ärzte wie eh und je alles per Handschrift auf Papier festhalten. Außerdem überwiegen im Healthcare-Bereich noch immer viele proprietäre Programme, mit denen ein Datenaustausch nicht möglich ist.
Der Storage-Anbieter EMC setzt inzwischen voll auf "Big Data" und bereinigt deshalb auch sein Produktportfolio, wie sich auf der diesjährigen Kundenveranstaltung EMC World zeigte, die vom 9. bis 12. Mai in Las Vegas stattfand. Neben klassische Hardware-Linien wie die Symmetrix (jetzt VMax) treten Isilon-Produkte für beliebig skalierbare unstrukturierte Daten. Gleichzeitig wird aber der Fokus auf Datenanalyse stark erweitert, wie sich besonders an der Greenplum-Akquisition zeigt. Mit der Greenplum-Software soll es möglich sein, strukturierte und unstrukturierte Daten in einer gemeinsamen Datenbank zu erfassen und auszuwerten.
Wolken und Budget-Grenzen
Im Bereich Healthcare-IT, in dem besonders viele Daten anfallen, bietet EMC inzwischen ein ausgefeiltes Programm unter dem Oberbegriff "Private Cloud for Healthcare" an. Es sieht mehrere Phasen der Implementierung vor, darunter Konsolidierung der physikalischen Infrastruktur, Aufbau eines virtualisierten Rechenzentrums mit anschließender Private Cloud. Diese soll über abrufbare Services und Portale oder Kataloge organisiert werden. Doch setzt dies größere Investitionen seitens der Krankenhäuser voraus, was angesichts der allgemeinen Budgetsituation schwierig werden dürfte. Schon jetzt sind Krankenhäuser chronisch unterausgestattet mit Hardware und Software sowie mit IT-Stellen. Doch wären mehr Möglichkeiten zur Analyse der Patientendaten sicher sinnvoll.
Nur nach der Definition von "Big Data" und ihren technischen Implikationen zu fragen, wäre ein verkürzter Ansatz. Strukturierte oder unstrukturierte Daten, große oder kleine Dateien, viel oder wenig Wachstum der Datenhaufen – alles ist nur von vordergründigem Interesse. Bei Big Data geht es um mehr: Darum, was man aus ihnen herausholen oder wie man sie im Sinn des jeweiligen Geschäftsumfeldes maximal ausschöpfen kann.
Angesichts der optimistischen Zukunftsaussichten, die McKinsey oder EMC in die Nutzbarmachung der "Big Data" setzen, sollte nicht vergessen werden, dass es schon einmal ab etwa Mitte der 90er Jahre eine Welle gab, bei der die Datenauswertung im Mittelpunkt stand – von Customer Relationship Management (CRM) über Supply Chain Management (SCM) bis hin zu Data Warehouses und Business Intelligence. Für viele Unternehmen waren diese Programme aber eine Nummer zu groß – zu aufwendig, zu kompliziert, zu teuer. Es wird spannend werden, ob der neue Anlauf mit den "Big Data" dieses Mal auf breiter Front einschlagen wird.