Die Beraterfirma PwC widmet Künstlicher Intelligenz (KI oder AI für Artificial Intelligence) einen eigenen Accelerator. Dessen Mitarbeiter formulieren zehn Trends für 2018. Salopp ausgedrückt: Mensch und Maschine rücken näher zusammen. Die Trends im Einzelnen:
1. Mehr Compliance durch besseren Einblick in neuronale Netze
Sogenannte Deep Neural Networks (DNS) imitieren das Lernverhalten des menschlichen Gehirns. Sie "lernen" von Audio-, Bild- und Textdateien. Bisher verstehen Anwender vergleichsweise wenig davon, wie das genau vor sich geht. Forscher gewinnen aufgrund neuer Theorien über Deep Learning mehr und mehr Einblick, beobachtet PwC. Den Nutzen für Unternehmen sehen die Analysten in mehr Transparenz in firmeneigene Netze und Architektur, was wiederum zu mehr Compliance führen soll.
2. Bessere Datenklassifikation durch Capsule Networks
Sogenannte Capsule Networks bilden einen neuen DNS-Typus, der visuelle Informationen ähnlich dem menschlichen Gehirn verarbeitet. Das Besondere: Capsule Networks "verstehen" besser als bisherige Convolutional Neural Networks, in welcher Hierarchie sie die Informationen anordnen sollen. PwC sieht hier Potenzial für die genauere Klassifikation von Daten. Konkret seien bis zu 50 Prozent weniger Fehler möglich.
3. Deep Reinforcement Learning (DLR) schlägt den Menschen im Go-Spiel
Bereits die ersten Schachcomputer, die den Menschen besiegten, galten als Sensation. Für 2018 erwartet PwC weitere Fortschritte bei Deep Reinforcement Learning (DLR). Dessen Potenzial liegt im Lernfortschritt aufgrund von Beobachtung, Interaktion mit der Umwelt und Belohnung. Diese Form Künstlicher Intelligenz können Entscheider künftig in verschiedensten Anwendungen einsetzen.
4. Generative Adversarial Networks (GAN) im Kampf gegen Cyber-Betrug
In einem sogenannten Generative Adversarial Networks (GAN) treten zwei Netzwerke gegeneinander an, der Generator und der Unterscheider (Discriminator). Der Generator kreiert gefälschte Daten, die wie echte aussehen, der Unterscheider grenzt sie voneinander ab. Das soll Unternehmen beispielsweise gegen Cyber-Kriminalität helfen.
5. Mehr Verfügbarkeit geeigneter Daten durch Lean und Augmented Data Learning
Das größte Problem rund um Deep Learning und Machine Learning sieht PwC in der Verfügbarkeit geeigneter Daten, mit denen man das System trainieren kann. Es gibt zwei Möglichkeiten: Daten synthetisch herzustellen und bewährte Lernmodelle von einer Aufgabe zur nächsten zu schieben. PwC spricht hier von "Lean Data" oder "Augmented Data"-Technologien.
6. Neue Sprachen für Probabolistic Programming
Die Analysten erwarten für 2018 einen wachsenden Nutzungsgrad von Programmiersprachen zur Beschreibung probabilistischer Modelle (Wahrscheinlichkeitsmodelle). Das wird das Entwickeln von Modellen erleichtern. Konkret unterstützen diese Sprachen im Umgang mit unsicheren und fehlenden Informationen.
7. Hybride Lernmodelle verbessern den Umgang mit Wahrscheinlichkeiten
Künftig werden Unternehmen verschiedene Typen neuronaler Netze miteinander kombinieren, um sicherere Vorhersagen treffen zu können. Dabei stehen sogenannte Bayesian Conditional GANs im Mittelpunkt. Deren Namensgeber, der britische Mathematiker Thomas Bayes (1701 - 1761), prägte die Wahrscheinlichkeitsrechnung.
8. Automated Machine Learning (AutoML) automatisiert die Modell-Entwicklung
Automated Machine Learning (AutoML) trägt zur Demokratisierung von Künstlicher Intelligenz bei, schreibt PwC. Denn AutoML zielt darauf ab, Workflows zur Entwicklung intelligenter Modelle zu automatisieren. Die Analysten erwarten, dass AutoML-Tools künftig Bestandteile größerer Machine Learning-Plattformen sein werden.
9. Digitale Zwillinge stabilisieren das Internet of Things (IoT)
Die Idee kommt eigentlich von großen Anlagen wie etwa Windparks: Ein physisches Objekt bekommt seinen virtuellen Zwilling, um Wartung und Betrieb störungsfreier und effizienter zu machen. 2018 weitet sich das Ganze auch auf nicht-physische Objekte und Prozesse aus. Ziel ist Ausbau und Stabilisierung des Internet of Things (IoT).
10. Einblicke in die Black Box der Künstlichen Intelligenz
Viele Experten sprechen mit Blick auf AI von einer Black Box, weil sie nicht immer verstehen, auf welchen Wegen genau die Ergebnisse zustande kommen. Künstliche Intelligenz soll aber erklärbar, transparent und beweisbar sein. Aus diesem Widerspruch resultiert eine neue Bewegung, wie PwC schreibt. Sie nennt sich Explainable AI. Dabei geht es nicht "nur" darum, dass der Mensch die intelligente Maschine besser verstehen will. Sondern auch um konkreten Nutzen für Unternehmen, beispielsweise bei der Einhaltung regulatorischer Vorgaben.