COMPUTERWOCHE Round Table
Predictive Analytics - wo Mehrwert noch an Grenzen stößt
Daten sind das neue Gold. Doch im Gegensatz zu dem Edelmetall sind sie wertlos, wenn man sie einfach nur in einen Schrank sperrt und liegen lässt. Eine Wertsteigerung des rasend schnell nachwachsenden Rohstoffs tritt erst durch Aufbereitung, Analyse und Nutzung ein. Wer es versteht, aus den Ergebnissen die richtigen Schlüsse zu ziehen, dem fällt es leicht, Entscheidungen zu treffen, die das Unternehmen nach vorne bringen.
Doch sind die Daten in den Unternehmen auch schon so vorhanden, dass sie sich für Predictive Analytics eignen? Die Methode dahinter ist ja schließlich nicht neu. Zu den Experten, die das Thema diskutierten, gehören Tom Becker (Alteryx), Michael Zielinski (Sycor), Daniel Eiduzzis (Datavard), Stefan Herbert (IBM), Christoph Elsas (Adastra), Otto Neuer (Talend) und Thomas Ulrich (DextraData).
Data Science ist ein Teamsport
Beobachtungen der Round-Table-Teilnehmer zeigen, dass es gerade in großen Unternehmen durchaus noch Datenqualitätsprobleme gibt. Zum einen, weil sie zu viele Systeme im Einsatz haben, die eine Harmonisierung der Daten erschweren. Zum anderen ist Data Quality im Fachbereich noch nicht verankert. Vielen ist nicht klar, warum manche Felder in den Systemen ausgefüllt werden müssen, weil sie nicht wissen, was man hinterher daraus machen kann.
Dabei ist es gerade der Fachbereich, der sowohl über die Daten als auch über die Fragestellungen verfügt, die eine Analyse erlauben. Den Daten-Ball der IT zuzuspielen ist deshalb wenig zielführend. Was es braucht ist die Erkenntnis, dass Data Science ein Teamsport ist, der andere Skills voraussetzt. Es braucht Leute, die sich sowohl mit der Datenaufbereitung auskennen, als auch den fachlichen Background von Daten verstehen. Das sind die Voraussetzungen, um aus den Analyseergebnissen einen Mehrwert erhalten zu können.
Zum Thema Predictive Analytics führt die COMPUTERWOCHE derzeit eine Multiclient-Studie unter IT-Entscheidern durch. Die Studie soll zeigen, wie deutsche Manager das Thema Predictive Analytics in ihren Unternehmen angehen. Haben Sie Fragen zu dieser Studie oder wollen Sie Partner werden, dann hilft Ihnen Frau Jessica Schmitz-Nellen (jschmitz-nellen@idg.de, Telefon: 089 36086 745) gerne weiter. Informationen zur Predictive-Analytics-Studie finden Sie auch hier zum Download. |
Die IT als Enabler für den Data-Scientist im Fachbereich - im Vergleich zum technischen Reifegrad wird diese Kruste eher langsam aufgebrochen. Und auch die Voraussetzungen auf Skill-Ebene zu schaffen braucht etwas mehr Zeit, was aber kein Hindernis sein sollte, jetzt schon mit Data Science und Data Analytics loszulegen. Und das ist laut der Expertenrunde ein Muss, denn wer heute nicht mit Daten arbeitet, verschläft den Markt und wird ziemlich schnell abgehängt. Doch wie fängt man an? Nur die Werkzeuge zu ändern bringt nichts. Alter Wein in neuen Schläuchen sieht zwar besser aus, das Ergebnis ist aber das gleiche.
Der Rat der Runde: Erste Gehversuche über ein Projekt initialisieren und Use Cases finden, anhand derer sich relativ schnell ein Mehrwert ergibt, um der Geschäftsführung gegenüber einen ROI nachweisen zu können. Beispiele hierfür wären unter anderem höhere Gewinne durch Kunden- oder Marketingkampagnen-Analyse oder eine Qualitätssteigerung durch Predictive Maintenance.
Zudem brauchen Unternehmen Impulse von außen, die ihnen aufzeigen, was mit Datenanalyse alles möglich ist, wie etwa das Erkennen von Betrug. Versicherungsunternehmen sollen durch eine entsprechende Datenanalyse schnell erkennen können, wo es sich lohnt, den Fall zu bearbeiten. Gleiches gilt auch für Banken, die durch Realtime Analytics Kreditkartentransaktionen überwachen und schnell reagieren können.
Use Cases entstehen nicht an der Spitze
Natürlich ist der Nutzen von Data Analytics nicht in jedem Unternehmen gleich. Diejenigen, die daraus aber einen echten Mehrwert generieren können, müssen auch den zweiten Schritt gehen: ein organisatorischer Umbruch mit geänderten Unternehmensprozessen.
Dazu muss, und darüber waren sich alle einige, der Ansatz Bottom-up in den Unternehmen verbreitet werden, gleichzeitig braucht es die Unterstützung der Geschäftsführung. Die Grundlage für die Generierung neuer Use Cases auf den unteren Ebenen zu schaffen liegt oftmals schon darin, dem Mitarbeiter aus dem Fachbereich Werkzeuge zur Verfügung zu stellen, mit denen er die Daten so aufbereiten kann, dass er sie auch versteht.
Informationen zu den Partner-Paketen der Predicitve-Analytics-Studie finden Sie hier
Obwohl dies einfach klingt, wird oft festgestellt, dass die Quellen zwar vorliegen, die Daten aber nicht abgerufen werden, weil die Werkzeuge dazu entweder nicht eingeführt oder schlichtweg nicht genutzt werden. Die Gründe dafür sind nicht immer einer mangelnden Usability geschuldet, sondern auch den unterschiedlichen Anforderungen an die Werkzeuge. So steht die IT nun vor der Herausforderung, sich zu öffnen und nach passenden Lösungen zu suchen, die am Markt On-Premises, Cloud-basiert oder on Demand verfügbar sind.
Passende Tools müssen bedienbar sein
Fakt ist, dass es mittlerweile für keinen Anwendungsfall das richtige Tool gibt. Die IT-Abteilung "von gestern" muss nur heute dazu bereit sein, statt einer allumfassenden Standardrezeptur die beste Lösung für die jeweilige Aufgabenstellung zu finden. Der Anspruch an das Werkzeug ist immer unterschiedlich: Für das Management soll es einfach zu nutzen sein, um sich die benötigten Informationen möglichst auf einen Blick holen zu können. Für eine Analyse hingegen müssen die Daten sichtbar sein. Der Detailgrad und die Art der Visualisierung sind hier völlig anders. Dennoch sollen die Tools intuitiv und ohne Schulungen nutzbar sein.
Gespalten waren die Meinungen am runden Tisch hinsichtlich dem Ansatz, der hinter den Tools steckt. Proprietäre Lösungen in den Fachbereichen können zur Silo-Problematik führen. Best-of-Breed wäre ein Ansatz, um einzelne Nischen besonders gut abzudecken. Allerdings muss hier der Use Case des Kunden genau betrachtet werden, um eine angemessene Kosten/Nutzen-Situation zu schaffen. Soll Predictive Analytics in Unternehmen eingepflanzt werden, dann muss der Gedanke bis zum Ende geführt werden, damit keine Data Lakes entstehen, auf die niemand zugreifen kann.
Eine Cloud-basierte Plattform mit Open Source-Schnittstellen, die auch einer Data-Governance unterliegt, kann dabei helfen, die einzelnen Silos wieder zusammenzuführen. Wie auch immer die Lösung am Ende aussehen mag, entscheidend ist, dass jeder, vom Fachbereich bis zur IT, mit dieser neuen Technologie arbeiten kann. Auch der Umgang mit den Daten muss von der Erfassung über den Zugriff bis hin zur Archivierung geregelt sein.
Technisch ist alles möglich, gesellschaftlich nicht
Dass sich der Aufwand für Data Science lohnt, zeigen einige Beispiele aus der Praxis. Künstliche Intelligenz analysiert für Steuerberater oder Rechtsanwälte Dokumente, fasst diese zusammen und übernimmt bei Bedarf die Compliance-Prüfung. Der Mehrwert daraus, die Zeitersparnis, liegt auf der Hand.
Auch im Servicebereich spart KI in Form von Chatbots Zeit und Geld: Dank diesen muss ein Mitarbeiter eines Callcenters ein und dieselbe Frage am Tag nicht zig Mal beantworten. Auch auf Online-Anfragen zu Produkten können Chatbots rund um die Uhr Auskunft geben. Allerdings auch nur, weil ein Mensch dahinter steht, der dieses System trainiert. Künstliche Intelligenz wird immer eine Ergänzung zu menschlichen Tätigkeiten sein, denn eine KI kann die Ergebnisse noch nicht interpretieren.
Was sie ebenfalls nicht kann: ethische Entscheidungen treffen. In der Medizin zum Beispiel ist Predictive Analytics eine große Chance, um Krankheiten vorauszusehen. Doch will das unsere Gesellschaft und darf man in diesen Bereich überhaupt so weit vordringen? Beratungsunternehmen und Softwarehersteller können dies nur bedingt beantworten. Deshalb verlangen einige der Experten am Tisch selbst nach unabhängigen Instanzen, die helfen, dass die Nutzung von Analytics transparenter wird und die Daten für den Kunden sicherer.