Artificial Intelligence
12 dunkle KI-Geheimnisse
Schon immer hat die Menscheit von einem allmächtigen Flaschengeist geträumt, der ihnen mühsame Aufgaben abnimmt. Dieser Traum rückt nun in Form der künstlichen Intelligenz (KI) in greifbare Nähe. Lässt man sich vom Hype vereinnahmen, wird KI mit so ziemlich allem fertig, was in einem Unternehmen anfällt - oder zumindest vorübergehend mit Teilen davon.
KI-Innovationen können verblüffen. Virtuelle Helfer wie Siri, Alexa oder der Google Assistant wären einem Zeitreisenden noch vor zehn oder 15 Jahren geradezu magisch erschienen: Das gesprochene Wort der Nutzer ist den Virtual Assistants Befehl und im Gegensatz zu Spracherkennungs-Tools aus den 1990er Jahren geben sie auch oftmals die passende Antwort - vorausgesetzt, man vermeidet verfängliche Fragen.
Trotz all dieser "Magie" sind KI-Instanzen auf Programmierarbeit angewiesen. Folglich gelten für sie dieselben Einschränkungen, wie für den vergleichsweise anspruchslosen Programmcode von Kalkulationstabellen oder Textverarbeitungsprogrammen. Obwohl sie besser mit den statistischen Unwägbarkeiten der Welt jonglieren kann, steckt hinter KI letztendlich ein Computer, der Entscheidungen auf der Grundlage von Rechenoperationen trifft. Hinter all den ausgeklügelten Algorithmen verbirgt sich eine Reihe von Transistoren, die "Wenn-Dann"-Entscheidungen treffen.
Können wir damit leben? Haben wir überhaupt eine Wahl? Da künstliche Intelligenzkünstliche Intelligenz in allen Wirtschaftszweigen an Bedeutung gewinnt, müssen wir uns der folgenden dunklen Geheimnisse der KI bewußt sein. Alles zu Künstliche Intelligenz auf CIO.de
1. KI-generierte Banalitäten
Eine der undankbarsten Aufgaben für einen KI-Experten ist es, dem Chef mitteilen zu müssen, dass die durch KI gewonnen Erkenntnisse leider bereits allgemein bekannt sind. Möglicherweise hat die KI zehn Milliarden Fotos ausgewertet und entdeckt, dass der Himmel blau ist. Waren im Trainingsdatenset allerdings keine Nachtaufnahmen enthalten, bleibt die Tatsache, dass es nachts dunkel ist, der künstlichen Intelligenz vorbehalten.
Wie lässt sich also vermeiden, dass die KI Offensichtliches schlussfolgert? Die stärksten Signale in den Daten sind immer die offensichtlichsten, ob für einen Mitarbeiter oder für die Algorithmen, die sich durch die Daten wühlen. Folglich sind das auch die ersten Antworten, die zurückgespielt werden.
2. Differenziert lohnt nicht immer
Selbstverständlich erkennen gute KI-Instanzen bei präziser Datenlage auch kleine Unterschiede. Um solche Detail-Insights gewinnbringend nutzen zu können, müssen Unternehmen allerdings häufig tiefgreifende, strategische Veränderungen in ihrem Workflow vornehmen.
Einige dieser Details werden auch schlicht zu subtil sein, als dass es sich lohnen würde, ihnen nachzugehen. Die Rechner werden sich dennoch die Prozessoren darüber "zerbrechen". Das Problem liegt einfach darin, dass kleine Signale zu kleinen - oder gar keinen - Erträgen führen können.
3. Mysteriöse Computer wirken bedrohlicher
Die Wissenschaftler der Informatik-Frühzeit hofften, der mathematische Ansatz eines Algorithmus würde der endgültigen Entscheidung einen Hauch von Seriosität verleihen. Dennoch sind viele Menschen auf der Welt nicht bereit, sich dem "Gott der Logik" zu unterwerfen.
Wenn überhaupt, spielen die Komplexität und das Mysterium der künstlichen Intelligenz all jenen in die Karten, die mit den gelieferten Antworten nicht einverstanden sind. Das lässt Spielraum für Kritik: War der Algorithmus voreingenommen? Je mehr Komplexität unter der "KI-Haube" steckt, desto mehr Gründe gibt es für Misstrauen und Wut.
4. KI ist nur Kurvenanpassung
Wissenschaftler beschäftigen sich seit Jahrhunderten mit verrauschten Datenbeständen und verbinden Datenpunkte. Das Gros der heutigen KI-Algorithmen, die für Machine LearningMachine Learning zur Anwendung kommen, tut im Grunde nichts anderes: Sie analysieren Datenbestände und verbinden Datenpunkte. Ein großer Teil des Fortschritts beruht darauf, dass man Wege gefunden hat, dieses Verfahren in Tausende, Millionen oder gar Milliarden kleiner Teilprobleme zu zerlegen und diese dann miteinander zu verbinden. Alles zu Machine Learning auf CIO.de
Das ist keine Magie, sondern eine Art Fließbandarbeit von dem, was in der Wissenschaft schon seit Jahrhunderten praktiziert wird. Menschen, die künstlicher Intelligenz skeptisch gegenüberstehen, heben gerne die Tatsache hervor, dass es weder eine wissenschaftliche Theorie, noch ein philosophisches Gerüst gibt, das den Antworten der KI Glaubwürdigkeit verleiht. Für sie handelt es sich nur um eine Schätzung der Steigung irgendeiner Linie.
5. Datensammeln ist die echte Arbeit
Jeder Data-Science-Anfänger stellt schnell fest, dass für Wissenschaft nicht viel Zeit bleibt. Die Kernaufgabe besteht darin, Daten zu finden und zu sammeln. Das Feld der künstlichen Intelligenz ist eng mit der Datenwissenschaft verwandt und steht vor den gleichen Herausforderungen: Es besteht zu 0,01 Prozent aus Inspiration und zu 99,99 Prozent aus Transpiration beim Tüfteln über Dateiformate, fehlende Datenfelder und Zeichencodes.
6. Riesige Datensätze, fundierte Schlussfolgerungen
Während einige Problemlösungen leicht zu finden sind, brauchen komplexere Fälle oft mehr und mehr Daten. Dieser Datenhunger kann sich exponentiell steigern und bis ins Unermessliche wachsen.
- 1. Datenmangel
Datenprobleme gehören zu den häufigsten Gründen für das Scheitern von Artificial-Intelligence-Initiativen. Das belegt auch eine Studie des Beratungsunternehmens McKinsey, die zu dem Schluss kommt, dass die beiden größten Herausforderungen für den KI-Erfolg mit Daten in Zusammenhang stehen. <br /><br /> Demnach haben viele Unternehmen einerseits Probleme damit, ihre Daten richtig einzuordnen, um die Machine-Learning-Algorithmen korrekt programmieren zu können. Wenn Daten nicht richtig kategorisiert werden, müssen sie manuell richtig klassifiziert werden – was oft zu zeitlichen Engpässen und einer erhöhten Fehlerrate führt. Andererseits stehen viele Unternehmen vor dem Problem, nicht die richtigen Daten für das anvisierte KI-Projekt zur Verfügung haben. - 2. Training, das ins Leere läuft
Laut einer Untersuchung von PricewaterhouseCoopers verfügt mehr als die Hälfte der befragten Unternehmen über keinen formalen Prozess für das vorurteilsfreie Training von KI-Systemen. Schlimmer noch: Nur 25 Prozent der befragten Unternehmen würden demnach die ethischen Implikationen eines Artificial-Intelligence-Systems vor der Implementierung priorisieren. <br /><br /> Unternehmen steht eine Vielzahl von Bilddaten-Sets zu Trainingszwecken zur Verfügung – sowohl auf kostenloser als auch auf kommerzieller Basis. Dabei sollten Firmen allerdings unbedingt darauf achten, dass ein solches Datenset auch die für ihre Zwecke relevanten Daten enthält. - 3. Problemfall Datenintegration
In manchen Fällen ist nicht Datenmangel die wesentliche Hürde für den Einsatz von Künstlicher Intelligenz, sondern das genaue Gegenteil: zu viele Daten – an zu vielen Orten. <br /><br /> Solche Datenintegrations-Fauxpas können sich nachhaltig negativ auswirken. Dabei geht es nicht in erster Linie um technische Hürden, sondern beispielsweise darum, Compliance- und Datenschutzanforderungen gerecht zu werden. - 4. Datenunterschiede
Wenn Unternehmen für das Training von Artificial-Intelligence-Systemen nicht auf aktive, transaktionale sondern auf historische Daten zurückgreifen, entstehen Probleme. Denn ein System, das auf Grundlage eines historischen Snapshots trainiert wurde, wird im Zusammenspiel mit Echzeit-Daten nicht besonders zuverlässig performen. <br /><br /> Nach Ansicht von Andreas Braun, Managing Director und Partner bei der Boston Consulting Group, können Sie diese Problemstellung vermeiden, indem Sie Ihre Data Scientists aus dem Silo holen: Insbesondere wenn es um KI-Modelle geht, die mit Live-Daten arbeiten, bietet sich eine direkte Integration in die Produktionsumgebung an – diese geht im Regelfall auch wesentlich schneller vonstatten. - 5. Unstrukturierte Daten
Laut einer aktuellen Umfrage von Deloitte verlassen sich 62 Prozent der Unternehmen immer noch auf Spreadsheets – nur 18 Prozent profitieren bereits von unstrukturierten Daten wie Produktbilder, Audiodateien von Kunden oder Social-Media-Kommentare. Dazu kommt, dass viele der historischen Datensätze in Unternehmen den für den KI-Einsatz nötigen Kontext vermissen lassen. <br /><br /> Dabei kommt das Beratungsunternehmen auch zu der Erkenntnis, dass Unternehmen, die unstrukturierte Daten nutzen, ihre Geschäftsziele im Schnitt um 24 Prozent übertreffen konnten. - 6. Kulturelle Mangelerscheinungen
Daten außen vorgelassen, sind es vor allem organisatorische Herausforderungen, die dem Erfolg mit Künstlicher Intelligenz entgegenstehen. Die Mitarbeiter aus den Fachbereichen müssen direkt mit den Kollegen aus der Technik zusammenarbeiten und der übergeordnete Kontext sollte dabei stets im Fokus stehen.
7. Bias Lock-In
Genau wie in Platons Höhlengleichnis sind wir alle durch das bestimmt, was wir sehen und wahrnehmen können. Das ist bei künstlicher Intelligenz nicht anders: Ihre Wahrnehmung wird durch den Trainingsdatensatz explizit limitiert. Wenn es Verzerrungen in den Daten gibt - und davon wird es einige geben - übernimmt die KI diese . Das Problem: Datenlücken führen dazu, dass auch das Weltverständnis der KI lückenbehaftet ist.
8. KI ist ein Stromfresser
Die meisten guten Spiele haben ein Endlevel oder ein ultimatives Ziel. Künstliche Intelligenz kann hingegen immer komplexer werden. Solange Sie willens sind, die Stromrechnung zu bezahlen, bildet die KI immer komplexere Modelle aus, deren Knoten, Ebenen und internen Zustände sich vervielfachen. Vielleicht gewinnt das Modell durch diese zusätzliche Komplexität an Nutzwert. Vielleicht sind dazu aber auch noch mehr GPUs nötig, die dann die Nacht durchlaufen.
9. Von wegen Explainable AI
KI-Forscher haben in letzter Zeit mehr Aufmerksamkeit darauf verwendet, zu erklären, was genau künstliche Intelligenz eigentlich tut. Wir können in den Daten stöbern und feststellen, dass das trainierte Modell stark auf Parameter angewiesen ist, die aus einer bestimmten Ecke des Datensatzes stammen. Oft genug ähneln solche Erklärungen jedoch denen von Zauberern, die einen Trick durch das Vorführen eines anderen erläutern.
Die Frage nach dem "Warum" zu beantworten, gestaltet sich erstaunlich schwer, selbst wenn man sich die einfachsten linearen Modelle und Parameter vornimmt. Wenn das Modell vorgibt, die Anzahl der jährlich gefahrenen Kilometer mit dem Faktor 0,043255 zu multiplizieren, fragen Sie sich vielleicht, warum gerade dieser und nicht 0,043256 oder 0,7. Sobald Sie ein Kontinuum verwenden, könnten alle Zahlen entlang des Zahlenstrahls geeignet sein.
10. Fairness ist eine Herausforderung
Selbst wenn man die Körpergröße aus dem Trainingsdatenset entfernt, stehen die Chancen gut, dass eine KI einen anderen Wert findet, um die großgewachsenen Menschen für Ihre Basketballmannschaft herauszupicken. Vielleicht die Schuhgröße oder die Reichweite. Die Menschen haben davon geträumt, dass die Welt gerechter wird, wenn man eine neutrale KI bittet, eine unvoreingenommene Entscheidung zu treffen. Manche Probleme sind allerdings so tief in der Realität verankert, dass auch die Algorithmen sie nicht besser bewältigen können.
11. Verschlimmbesserungen
Kann es tatsächlich eine Lösung sein, eine KI zur Fairness zu "zwingen"? Einige Menschen versuchen zu erzwingen, dass künstliche Intelligenz Ergebnisse mit bestimmten, vorgegebenen Prozentsätzen generiert. Sie schreiben die Algorithmen um, damit sich der Output verändert. Das wirft allerdings die Frage auf, warum man sich die Mühe machen sollte, KI-Instanzen zu trainieren oder Daten zu analysieren, wenn die Antwort ohnehin bereits feststeht.
12. Der Mensch - das eigentliche Problem
Im Allgemeinen sind wir mit KI zufrieden. Zumindest solange die Risiken gering sind. Wer zehn Millionen Bilder zu sortieren hat, wird froh sein, wenn die KI über einen längeren Zeitraum hinweg einigermaßen genaue Ergebnisse liefert. Sicher, Schwierigkeiten und Fehler sind dabei nicht zu vermeiden. Einige dieser "Glitches" könnten sogar auf tiefgreifende Bias-Probleme hindeuten, die eine haarspalterische, 200-seitige Dissertation wert sind.
Aber die künstliche Intelligenz ist nicht das Problem. Sie tut, was man ihr sagt. Wenn zu viele Fehlermeldungen auflaufen, können wir diese ausblenden. Wenn das Trainingsdatenset keine perfekten Ergebnisse liefert, können wir weiteren Daten fordern. Wenn die Genauigkeit zu wünschen übrig lässt, können wir das Ergebnis einfach verwerfen. Die KI wird wieder an die Arbeit gehen und ihr Bestes tun.
Der Mensch ist jedoch ein völlig anderes Geschöpf: Künstliche Intelligenz ist sein Werkzeug, um sich Vorteile zu verschaffen und zu profitieren. Während einige KI-Vorhaben vergleichsweise harmlos sind, sind andere von Böswilligkeit geprägt. Wenn wir auf eine schlechte KI stoßen, dann liegt das in den meisten Fällen daran, dass sie die Marionette an der Schnur eines Menschen ist, der sich an ihren Unzulänglichkeiten bereichert. (fm)