Künstliche Intelligenz (KI oder AI für Artificial Intelligence) bildet den Rahmen um die Machine-Learning- und Deep-Learning-Modelle. Neben diesen Modellen enthalten AI-Anwendungen auch eine Regelbasis, die die Ergebnisse der Machine-Learning- und Deep-Learning-Modelle korrekt interpretiert und kombiniert, so dass sinnvolle Aussagen und Entscheidungen generiert werden. Aus dem Privatleben kennt man die Assistenzsysteme von Amazon, Apple, Google und Microsoft, bei denen die Spracherkennung über ein Deep-Learning-Modell ein wesentlicher Bestandteil der Anwendung ist.
Die Assistenzsysteme sind so konzipiert, dass neue Machine-Learning- oder Deep-Learning-Modelle gewissermaßen als neue Fähigkeiten aufgenommen und integriert werden können. Das Ziel ist - analog zum App Store, ein AI Feature Store von einer breiten Community entwickeln zu lassen, um darüber ein breites Spektrum an AI Features anbieten zu können.
Hohe Einstiegshürde
Basierend auf den Erfahrungen von Amazon & Co. mit ihren diversen Assistenzsystemen für den Konsumentenbereich werden in naher Zukunft Assistenzsysteme für die unterschiedlichsten Geschäftsfelder im Business-Bereich entwickelt werden. Entscheidend bei deren Entwicklung sind die damit erzielbaren Produktivitäts- und Qualitätszuwächse. Allerdings ist die Einstiegshürde für viele Unternehmen noch zu hoch. Es fehlt nicht nur an der geeigneten IT-Infrastruktur und gut ausgebildetem und erfahrenem Personal.
Oft mangelt es auch an einer Vision, beziehungsweise einer klaren Vorstellung dessen, was machbar ist und was in den Bereich der Science Fiction gehört. Darüber hinaus haben die meisten Unternehmen nicht den geeigneten Datenbestand, um zum Beispiel Deep- Learning-Modelle für Natural Language Processing (NLP) trainieren zu können.
AI Cloud Services können diese Einstiegshürde für Unternehmen wesentlich senken. So werden beispielsweise bereits vorkonfektionierte und voll austrainierte Deep-Learning-Modelle für NLP oder Optical Character Recognition (OCR) angeboten, die von Unternehmen eingesetzt und entsprechend ihrer Nutzung mit dem Provider abgerechnet werden können. Anbieter hierfür sind die üblichen Kandidaten - etwa Amazon Web Services, Google Cloud Plattform, IBM BlueMix und Microsoft Azure.
Technische Weiterentwicklung von Algorithmen und Verfahren
Methodisch trugen in den letzten Jahren insbesondere die Einführung von Convolutional Neural Networks (CNNs) für die Bildverarbeitung und Long Short-Term Memory - Recurring Neural Networks (LSTM-RNNs) für die Spracherkennung zur rasanten Entwicklung des AI- und Machine-Learning-Bereichs bei. Neben der Sprach- und Bildererkennung lassen sich aber auch ganz andere Anwendungsbereiche mit diesen neuen Methoden erschließen, wie dies Google mit der Entwicklung von AlphaGo gezeigt hat. Das ist das erste Computerprogramm, das die weltbesten professionellen Go-Spieler mehrmals hintereinander schlagen konnte.
Im Vergleich zu Schach gibt es bei Go wesentlich mehr Zugmöglichkeiten. Deswegen musste für die Entwicklung von AlphaGo eine grundsätzliche andere Herangehensweise gewählt werden als für Schachprogramme. AlphaGo basiert auf drei CNNs, zwei für die Spiel-Policy und eins für die Bewertung der Züge. Neben der Spracherkennung lassen sich mit LSTM-RNNs auch Zeitreihen sehr elegant und effizient modellieren, zum Beispiel zur Prognose von Aktien- und Währungskursen oder Stromverbrauch bei Energieversorger.
Technologisch war die Einbeziehung von GPUs (Graphics Processing Units) in das Modelltraining ausschlaggebend. Dadurch konnten Modelle mit einer komplexen tiefen Struktur in angemessener Zeit ausreichend trainiert werden, um gute Ergebnisse zu erzielen. Weiterhin wurden Software Packages wie etwa TensorFlow, Theano oder Caffee - alle basierend auf Python - als Open Source zur Verfügung gestellt. Sie ermöglichen es einem breiten Publikum, Deep-Learning-Technologien einzusetzen und weiterzuentwickeln.
Anwendungsszenarien bei Banken und Versicherungen
Im Bereich der Finanzdienstleistungen gibt es zahlreiche Möglichkeiten für den Einsatz von Machine Learning, Deep Learning und KI-Technologien. Die Use Cases sind rein hypothetisch, demonstrieren aber die Einsatzmöglichkeiten gängiger Methoden und Verfahren.
• Kreditwürdigkeit eines Bankkunden prüfen
Ein Bankkunde beantragt einen Privatkredit bei seiner Hausbank. Entsprechend regulatorischer Vorgaben muss die Bank die Kreditwürdigkeit des Kunden überprüfen. Dafür setzt die Bank in der Regel eine Scorecard ein, über die die Ausfallwahrscheinlichkeit eines Kundenkredits ermittelt wird. Die Scorecard basiert auf einem statistischen Prognosemodell, das mit historischen Daten der Bank trainiert wurde. Das zu modellierende Ereignis ist der Kreditausfall. Abhängig von der prognostizierten Ausfallwahrscheinlichkeit erhält der Kunde den Kredit zu bestimmten Konditionen. Bei Bedarf ist auch ein Retraining der Modelle vorgesehen, so dass diese immer auf dem aktuellsten Datenstand gehalten werden können.
• Auswertung von Nachrichten zur Prognose von Aktienkursen oder Indizes
Mit Hilfe von Deep-Learning-Modellen können Nachrichten ausgewertet und deren Einfluss auf Aktienkurse oder Indizes analysiert werden. Aus der Flut der vorhandenen Informationen werden die Signale identifiziert und extrahiert, die mit einer Kursänderung einer Aktie oder eines Index einhergehen, um die eigene Anlagestrategie beziehungsweise die der Kunden zu verbessern.
• Unterstützung von Bankmitarbeitern bei der Finanzberatung und Vermögensverwaltung
Es gibt viele Finanzdienstleistungen, bei denen die Beobachtung des Kundenverhaltens und die detaillierte Analyse der Handlungen und Entscheidungswege durch maschinelles Lernen den Geldinstituten helfen kann, bessere Empfehlungen abzugeben. So können sie dem Kunden relevante Produkte präsentieren. Eine KI-Applikation kann komplexe Finanztransaktionen analysieren, indem sie entweder aus historischen Transaktionsdaten oder durch die Beobachtung von Bankmitarbeitern lernt. Durch die Auswertung großer Datenmengen liefert die Applikation dem Bankmitarbeiter Empfehlungen zur Anlagestrategie und unterstützt ihn dabei, besser fundierte Entscheidungen zu treffen.
• Versicherungsbetrug frühzeitig erkennen
Ein Versicherer überprüft eingehende Schadensmeldungen im Bereich Haftpflicht, um Betrugsversuche frühzeitig zu erkennen. Dazu wird das System mit historischen Daten trainiert und ein Prognosemodell erstellt, das jede Schadensmeldung bewertet und dafür eine Betrugswahrscheinlichkeit errechnet. In dem Workflow ist ein Schwellwert für die Betrugswahrscheinlichkeit definiert, ab dem Mitarbeiter eine Schadensmeldung manuell weiter untersuchen. In allen anderen Fällen kann der Workflow automatisch ablaufen.
• Autoversicherer nutzen Assistenzsysteme zur Verbesserung des Kunden-Managements
Das Assistenzsystem hat Zugriff auf alle für das Kunden-Management relevanten Daten, erstellt Bewertungen und liefert Empfehlungen, trifft aber keine konkreten Entscheidungen. Das Assistenzsystem enthält unter anderem Komponenten zur Bewertung des Fahrverhaltens aus den Telematik-Daten. Sie dienen zur Bestimmung des Telematik-Tarifs und zum Erstellen eines Kunden-Feedbacks bezüglich der Fahrweise des Nutzers. Weiterhin werden Berichte, Bilder, Telematik- und Kundendaten ausgewertet, um bei einem Unfall die Schuld und Schadenshöhe zu bewerten. Dazu kommen beispielsweise auch Funktionen zur Bestimmung des Kundenwerts, die Ermittlung der Kündigungswahrscheinlichkeit und die Bestimmung der Next Best Action zur Vermeidung der Kündigung.
Rahmenbedingungen für den KI-Einsatz
Für eine erfolgreiche Implementierung von Machine-Learning-, Deep-Learning- oder Artificial-Intelligence-Anwendungen sind drei wesentliche Aspekte zu berücksichtigen: Technologische Voraussetzungen, organisatorische Bedingungen und mentale Einstellungen. AI-, Deep-Learning- und Machine-Learning-Anwendungen benötigen viel Rechenleistung, wenn auch nicht ganz so viel wie AlphaGo bei den Siegen im Winter 2016. AlphaGo lief mit 1.202 CPUs und 176 GPUs.
Die konkrete Konfiguration eines AI-Systems ist - wie in andern Fällen auch - von den Use Cases abhängig. Ergänzend dazu benötigen Entwickler beispielsweise Erfahrungen mit Softwarepaketen wie Python Scikit-Learn für Machine Learning oder Python Keras, TensorFlow oder Caffee für Deep Learning.
Von entscheidender Bedeutung für den Projekterfolg ist das Vorhandensein der notwendigen Strukturen in den Daten. Projektteams sollten die Daten in allen Phasen intensiv mit Hilfe von Datenexplorationen untersuchen. Auf diese Weise können sie erkennen, ob überhaupt ein Potenzial für Deep-Learning- oder Machine-Learning-Szenarien vorhanden ist und welche Datenquellen dazu angezapft werden können/sollten.
Projekte im AI-Umfeld, insbesondere in der Anfangsphase, sollten als Forschungsprojekte verstanden werden, deren Ausgang nicht mit Sicherheit bestimmt werden kann. Nach unseren Erfahrungen aus der Projektpraxis reicht für Machine-Learning-Anwendungen in der Regel ein überschaubares Forschungsbudget aus. Deutlich aufwendiger und entsprechend teurer sind Deep-Learning- und AI-Applikationen, insbesondere wenn sie zur funktionalen Erweiterung der Kernanwendungen eines Unternehmens zum Einsatz kommen sollen.