CIO von Roche Diagnostics
"Big Data - nehme ich nicht mehr in den Mund!"
35 Petabyte - "weiter wachsend"
Ganz genau kennt niemand die Zahl, selbst bei Roche nicht, denn nicht alle Beteiligten spielen ihre anonymisierten Blutzucker-, Lipid-, Vitamin- und Blutgaswerte zurück an das Unternehmen. Messwerte von HIV-,Hepatitis- oder Krebspatienten genießen obendrein besondere Vertraulichkeit. Trotzdem hat sich schon jetzt ein solcher Datenberg aufgetürmt, dass selbst die NSA ein Weilchen zur Auswertung bräuchte. Auf 35 Petabyte schätzt Boeing die derzeitige Größe der internen elektronischen Speichermöglichkeiten. Tendenz: "Weiter wachsend".
Ein ideales Forschungsfeld für Hubert Österle und seine Kollegen vom Kompetenzzentrum "Corporate Data Quality": Sie untersuchen dort Methoden und Referenzarchitekturen in großen Anwenderunternehmen (siehe Kasten unten oder Uni St. Gallen - Best Practices aus dem Kompetenzzentrum "Corporate Data Quality").
Und am allerliebsten verweisen sie auf Best Practices, bei denen neue Geschäftsmodelle durch sauber gepflegte Daten entstehen. Da passt Werner Boeing gerade super ins Konzept. "Roche versucht, den VersicherungenVersicherungen eine Gesundung des Patienten zu verkaufen", erklärt Österle. Schließlich gehe es nicht darum, einfach nur Daten zu sammeln. Vom Messen sei noch kein Mensch gesund geworden. Top-Firmen der Branche Versicherungen
Uni St. Gallen: Best Practices aus dem Kompetenzzentrum "Corporate Data Quality" |
Professor Hubert Österle (Foto) forscht seit mehr als 30 Jahren nach den richtigen Referenzarchitekturen für Big Data in großen Anwenderunternehmen. Im Folgenden sind einige namhafte Beispiele genannt. Weitere Referenzen unter: http://cdq.iwi.unisg.ch
Johnson & Johnson (USA)
2008 fing sich Johnson & Johnson harsche Kritik durch einen seiner größten Kunden ein: Ein Einzelhandelskonzern bemängelte Angaben zu Gewicht und Abmessungen von Artikeln. Weniger als 40 Prozent sämtlicher Artikel lagen innerhalb der erlaubten fünfprozentigen Fehlertoleranz. Kundenrechnungen waren falsch, Lkws warteten an der Warenannahme, ohne dass der Wareneingang gebucht werden konnte. Infolgedessen zentralisierte Johnson & Johnson das Daten-Management, schuf klare Verantwortlichkeiten für den Umgang mit Daten und automatisierte die Neuanlage von Artikeln mithilfe eines Workflow-Management-Systems, das die Qualität der Daten bereits bei der Erfassung sicherstellt. Im zweiten Schritt wurden die Bestandsdaten bereinigt. Dazu konnten die Geschäftsregeln wiederverwendet werden, die bereits bei der Neuanlage von Artikeln genutzt wurden. Heute haben die Artikeldaten von Johnson & Johnson ein Six-Sigma-Niveau erreicht, das heißt, es treten praktisch keine fehlerhaften
Bosch (Deutschland)
Als Großunternehmen besitzt Bosch Millionen von Daten zu Produkten, Kunden, Lieferanten, Mitarbeitern und Rohmaterialien. Und täglich kommen neue hinzu. Das Unternehmen nutzt eine gemeinsame Datenqualitätsplattform auf Basis von SAP HANA. Bosch stellt mit der In-Memory-Technologie sicher, dass die Datenbestände schnell und kontinuierlich bereinigt werden. Duplikate und Fehleingaben werden vermieden, die "First-time-Right"-Quote steigt. Das spart dem Unternehmen mühselige Aufräumarbeiten in den Datenbeständen, und die Mitarbeiter können sich auf das Wesentliche konzentrieren.
Migros (Schweiz)
Ein Ziel im größten Einzelhandelsunternehmen der Schweiz ist die intensive Interaktion mit dem Konsumenten. Dazu lancierte Migros die Internet-Plattform Migipedia, auf denen umfangreiche Angaben zu sämtlichen Produkten von Migros enthalten sind. Beispielsweise sind bei Lebensmitteln Angaben zu Inhaltsstoffen, Allergieinformationen und "Fairtrade"-Daten verfügbar. Die Kunden haben auf Migipedia zum Beispiel die Möglichkeit, Produkte zu bewerten und darüber zu diskutieren. Das Feedback der Kunden lässt Migros direkt in seine Sortimentsplanung einfließen. Beispielsweise wurde die Verpackung einer erfolgreichen Eisteesorte, die ursprünglich lediglich im TetraPak verfügbar war, um eine doppelt so teure PET-Variante ergänzt, nachdem man die Präferenzen der Konsumenten auf Migipedia erfragt hatte. Voraussetzung für die Akzeptanz von Migipedia sind aktuelle, vollständige und fehlerfreie Produktdaten. Zudem bietet Migros neben dem klassischen stationären Handel den Online-Kanal "LeShop" an. Die Befürchtung der Kanalkannibalisierung erwies sich als unbegründet. Denn insgesamt ließ sich der Umsatz im Stammkundensegment um 30 Prozent steigern. Voraussetzung dafür sind qualitative Artikeldaten, die in allen Kanälen (beispielsweise LeShop, Supermarkt oder Promotion-Materialien) konsistent sind.
Geberit (Schweiz)
Der Anbieter von Sanitärtechnologie konnte vor wenigen Jahren die Komplexität seines stetig wachsenden Produktsortiments kaum noch bewältigen. Neue Produkte wurden in das Sortiment aufgenommen, ohne dass Produkte, die am Markt nicht mehr nachgefragt waren, aussortiert wurden. Daraufhin führte das Unternehmen ein zentrales Anwendungssystem und eine Abteilung ein, die sich um die Optimierung des Verkaufssortiments kümmert. Die Beweislast wurde umgekehrt: Während üblicherweise zu begründen ist, warum Artikel zu deaktivieren sind, nutzte Geberit "Lean Management"-Konzepte und drehte den Spieß um. Produkt-Manager in den einzelnen Ländern mussten begründen, warum ein bestimmtes Produkt im Sortiment verbleiben sollte. Außerdem ermittelte das Unternehmen die Gemeinkosten, die jährlich für die Pflege eines Produktdatensatzes in den verschiedenen Abteilungen des Unternehmens anfallen. Diese betragen durchschnittlich 3000 Schweizer Franken. Weil das aktive Sortiment um zwei Drittel reduziert werden konnte, spart Geberit jährlich Gemeinkosten in zweistelliger Millionenhöhe.
Corning Cable Systems (USA)
Corning Cable Systems versorgt Telekommunikationsanbieter mit Glasfaserkabeln und Kupferproduktlösungen, die kundenindividuell konfiguriert werden müssen. Der Prozess der Neuanlage von Produkten erwies sich als zu langsam und dauerte im Schnitt zwei Wochen. Hauptgrund war die Vielzahl der verschiedenen Rollen im Unternehmen, die bei der Neuanlage zu involvieren sind, und das Fehlen eines durchgängigen "End to End"-Prozesses. Durch Einführung von Data Governance, also eindeutige Verantwortlichkeiten für Produktdaten, klare Definition des Anlageprozesses sowie Teilautomatisierung durch ein Workflow-Management-System, konnte die "Time-to-Market" neuer Produkte um mehr als 80 Prozent auf zwei Tage gesenkt werden. |