Künstliche Intelligenz und Machine Learning (ML) sind keine neuen Technologien, doch im praktischen Einsatz spielen sie erst jetzt eine wichtige Rolle. Woran liegt das? Wichtigste Voraussetzung für lernende Systeme und entsprechende Algorithmen sind ausreichende Rechenkapazitäten und der Zugriff auf riesige Datenmengen - egal ob es sich um Kunden-, Log- oder Sensordaten handelt. Sie sind für das Training der Algorithmen und die Modellbildung unverzichtbar - und sie stehen mit Public- und Private-Cloud-Infrastrukturen zur Verfügung.
Die Analysten von Crisp Research sind im Rahmen einer umfassenden Studie gemeinsam mit The unbelievable Machine Company und Hewlett-Packard Enterprise (HPE) der Frage nachgegangen, welche Rolle Machine Learning heute und in Zukunft im Unternehmenseinsatz spielen wird. Dabei zeigt sich, dass deutsche Unternehmen hier schon recht weit fortgeschritten sind. Bereits ein Fünftel setzt ML-Technologien aktiv ein, 64 Prozent beschäftigen sich intensiv mit dem Thema und vier von fünf Befragten sagen sogar, ML werde irgendwann eine der Kerntechnologien des vollständig digitalisierten Unternehmens sein.
Muster erkennen und Vorhersagen treffen
ML-Algorithmen helfen den Menschen, Muster in vorhandenen Datenbeständen zu erkennen, Vorhersagen zu treffen oder Daten zu klassifizieren. Mit mathematischen Modellen können neue Erkenntnisse auf Grundlage dieser Muster gewonnen werden. Das gilt für viele Lebens- und Geschäftsbereiche. Oftmals profitieren Internet-Nutzer längst davon, ohne über die Technologie im Hintergrund nachzudenken.
Das Spektrum der Anwendungen reicht von Musik- und Filmempfehlungen im privaten Umfeld bis hin zur Verbesserung von Marketing-Kampagnen, Kundenservices oder auch Logistikrouten im geschäftlichen Bereich. Dafür steht ein breites Spektrum an ML-Verfahren zur Verfügung, darunter Lineare Regression, Instanzenbasiertes Lernen, Entscheidungs-Baum-Algorithmen, Bayesche Statistik, Clusteranalyse, Neuronale Netzwerke, Deep Learning und Verfahren zur Dimensionsreduktion.
Die Anwendungsbereiche sind vielfältig und teilweise bekannt. Man denke etwa an Spam-Erkennung, die Personalisierung von Inhalten, das Klassifizieren von Dokumenten, Sentiment-Analysen, Prognosen der Kundenabwanderung, E-Mail-Klassifizierung, Analyse von Upselling-Möglichkeiten, Stauprognosen, Genomanalysen, medizinische Diagnostik, Chatbots und vieles mehr. Für nahezu alle Branchen und Unternehmenstypen ergeben sich also Gelegenheiten.
Moderne IT-Plattformen unterstützen KI
Machine Learning ist laut Crisp Research idealerweise Bestandteil einer modernen, skalierungsfähigen und flexiblen IT-Infrastruktur - einer "Digital Infrastructure Platform". Diese zeichnet sich durch Elastizität, Automatisierung, eine API-basierte Architektur und Agilität aus. Eine solche Plattform ist in der Regel Cloud-basiert aufgesetzt und dient als Grundlage für die Entwicklung und den Betrieb neuer digitaler Anwendungen und Prozesse. Sie bietet eine offene Architektur, Programmierschnittstellen (APIs), um externe Services zu integrieren, die Unterstützung von DevOps-Konzepten sowie moderne Methoden für kurze Release- und Innovationszyklen.
Die Verarbeitung und Analyse großer Datenmengen ist eine Kernaufgabe einer solchen Digital Infrastructure Platform. Deshalb müssen die IT-Verantwortlichen Sorge tragen, dass ihre IT mit unterschiedlichen Verfahren der Künstlichen Intelligenz umgehen kann. Server-, Storage- und Netzwerk-Infrastrukturen müssen auf neue ML-basierte Workloads ausgelegt sein. Auch das Daten-Management muss vorbereitet sein, damit ML-as-a-Service-Angebote in der Cloud genutzt werden können.
Im Kontext von ML haben sich in den vergangenen Monaten auch alternative Hardwarekomponenten durchgesetzt, etwa GPU-basierte Cluster von Nvidia, Googles Tensor Processing Unit (TPU) oder IBMs TrueNorth-Prozessor. Unternehmen müssen sich entscheiden, ob sie hier selbst investieren oder die Angebote entsprechender Cloud-Provider nutzen wollen.
Einer der großen Anwendungsbereiche für ML ist die Spracherkennung und -verarbeitung. Amazons Alexa zieht gerade in die Haushalte ein, Microsoft, Google, Facebook und IBM haben hier einen Großteil ihrer Forschungs- und Entwicklungsgelder investiert sowie spezialisierte Firmen zugekauft. Es lässt sich absehen, dass natürlichsprachige Kommunikation an der Kundenschnittstelle selbstverständlicher wird. Auch die Bedienung von digitalen Produkten und Enterprise-IT-Lösungen wird via Sprachbefehl möglich sein. Das hat sowohl Auswirkungen auf das Customer-Frontend als auch auf das IT-Backend.
Niedrige Einstiegshürden in Machine Learning
Da die großen Cloud-Anbieter ML-Services und -Produkte in ihr Leistungsportfolio aufgenommen haben, ist es für Anwender relativ einfach, einen Einstieg zu finden. Amazon Machine Learning, Microsoft Azure Machine Learning, IBM Bluemix und Google Machine Learning erlauben einen kostengünstigen Zugang zu entsprechenden Diensten über die Public Cloud. Anwender brauchen also keinen eigenen Supercomputer, kein Team von Statistikexperten und kein dediziertes Infrastruktur-Management mehr. Mit ein paar Kommandos über die APIs der großen Public-Cloud-Provider können sie loslegen.
Sie finden dort unterschiedliche Machine-Learning-Verfahren sowie Dienste und Tools wie etwa grafische Programmiermodelle und Storage-Dienste vor. Je mehr sie sich darauf einlassen, desto größer wird allerdings das Risiko eines Vendor-Lock-ins. Deshalb sollten sich Anwender vor dem Start Gedanken über ihre Strategie machen. IT-Dienstleister und Managed-Service-Provider können ebenso ML-Systeme und Infrastrukturen bereitstellen und betreiben, so dass Unabhängigkeit von den Public-Cloud-Providern und ihren SLAs ebenso möglich ist.
Verschiedene Spielarten der KI
Machine Learning, Deep Learning, Cognitive Computing - derzeit kursieren eine Reihe von KI-Begriffen, deren Abgrenzung voneinander nicht ganz einfach ist. Crisp Research wählt dafür die Dimensionen "Clarity of Purpose" (Orientierung am Einsatzweck) und "Degree of Autonomy" (Grad der Autonomie). ML-Systeme sind derzeit größtenteils auf Einsatzzwecke hin entwickelt und trainiert. Sie erkennen beispielsweise im Fertigungsprozess fehlerhafte Produkte im Rahmen einer Qualitätskontrolle. Ihre Aufgabe ist klar umrissen, es gibt keine Autonomie.
Deep-Learning-Systeme hingegen sind in der Lage, mittels Neuronaler Netze eigenständig zu lernen. Simulierte Neuronen werden in vielen Schichten übereinander modelliert und angeordnet. Jede Ebene des Netzwerks erfüllt dabei eigenständig bestimmte Aufgaben, etwa das Erkennen von Kanten. Diese Information wird eigenständig an die nächste Ebene weitergegeben und fließt dort in die Verarbeitung ein. Im Zusammenspiel mit großen Mengen an Trainingsdaten lernen solche Netzwerke, bestimmte Aufgaben zu erledigen - etwa das Identifizieren von Krebszellen in medizinischen Bildern.
Deep-Learning-Systeme arbeiten autonomer
Deep-Learning-Systeme arbeiten also deutlich autonomer als ML-Systeme, da die Neuronalen Netzwerke darauf trainiert werden, selbständig zu lernen und Entscheidungen zu treffen, die von außen nicht unbedingt nachvollziehbar sind.
Als dritte Spielart der KI gilt das Cognitive Computing, das insbesondere von IBM mit seiner Watson-Technologie propagiert wird. Solche Systeme zeichnen sich dadurch aus, dass sie in einer Assistenzfunktion oder gar als Ersatz des Menschen Aufgaben übernehmen und Entscheidungen treffen und dabei mit Ambiguität und Unschärfe umgehen können. Als Beispiele können das Schadensfall-Management in einer Versicherung dienen, eine Service-Hotline oder die Diagnostik im Krankenhaus.
Auch wenn hier bereits ein hohes Maß an Autonomie erreicht werden kann, ist der Weg zu echter Künstlicher Intelligenz mit autonomen kognitiven Fähigkeiten noch weit. Die Wissenschaft beschäftigt sich aber intensiv damit und streitet darüber, ob und wann dieses Ziel erreicht werden kann. Derweil sind Unternehmen gut beraten, sich mit den machbaren Use Cases zu beschäftigen, von denen es bereits eine Menge gibt.
Teil 2: Machine Learning - das haben deutsche Unternehmen vor
Teil 3: Machine Learning - die Technik