AI braucht Daten mehr als die Daten AI. Das schrieb im Herbst 2023 Rohit Sehgal, Gründer und CEO von Vincilium, eines Anbieters von Datenmanagement-Lösungen, in einem Beitrag für das Forbes-Magazin. Die Vorstellung, künstliche Intelligenz sei eine Art Zaubermittel, mit dessen Hilfe sich sämtliche Unzulänglichkeiten der zugrunde liegenden Datenbasis überwinden ließen, sei ein Irrglaube. das Gegenteil sei der Fall, warnte der Manager. Gerade im aufziehenden neuen KI-Zeitalter werde es immer wichtiger, sich um ein solides Datenfundament inklusive der notwendigen Datenqualität zu kümmern.
Es geht immer noch um Daten
Diese Erkenntnis dürfte in den meisten Unternehmen längst angekommen sein. Schließlich ist es nichts Neues, Analytics-Tools einzusetzen. Auch im klassischen Business-Intelligence- (BI-)Umfeld war es essenziell, die eigenen Datenlandschaften zu pflegen. Vernünftige Ergebnisse ihrer Analytics-Initiativen durften nur die Betriebe erwarten, die sich um eine valide Datenbasis von hoher Qualität gekümmert haben.
Daran hat sich grundsätzlich bis heute nichts geändert. garbage in, garbage out - dieses Prinzip gilt für Bots wie ChatGPT genauso wie für jedes Analytics-Tool des klassischen BI-Zeitalters. Die Qualität und Quantität der Daten, die in Large Language Models (LLMs) verarbeitet werden, sind wichtig, damit das mit ihnen verbundene zusammenhängende Gesamt-KI-System effektiv funktioniert.
Daten sind das Lebenselixier, das KI-Algorithmen antreibt. Damit lernen die Systeme, passen sich laufend neu an und liefern auf dieser Basis Ergebnisse und Einsichten, die letzten Endes in kritische Business-Entscheidungen münden können.
Technik allein reicht nicht
Was bedeutet das für die Unternehmen? Um die Effektivität von KI-Tools der GenAI-Klasse sicherzustellen, müssen die Verantwortlichen in den Betrieben eine robuste Datenarchitektur aufbauen. Die Qualität und Quantität der Daten, mit denen KI-Modelle trainiert werden, korrelieren direkt mit der Genauigkeit der KI-Antworten. Einfach gesagt: Je besser die Daten, desto exakter fallen die Antworten der KI-Tools aus.
Generative AI: ChatGPT – sag mir, wo die Daten liegen
Ein solides Datenfundament muss man sich jedoch erst einmal erarbeiten. Nach wie vor liegen viele Daten in abgetrennten Silos, verteilt über das gesamte Unternehmen. Auch in Sachen Datenqualität gibt es in den meisten Betrieben noch Luft nach oben. Um an dieser Stelle Fortschritte zu erzielen, braucht es jedoch mehr als Technik. Auch in der Organisation und der Firmenkultur muss ein Bewusstsein für den Wert von Daten wachsen und sich etablieren.
Netze, Bürger und Gesetze
Zwar bilden klassische Datenbanken beziehungsweise Data Warehouses nach wie vor eine wichtige Datenbasis. Von der Idee, hier mit viel Aufwand eine Art Single Source of Truth zu schaffen, haben sich die meisten Unternehmen mittlerweile aber verabschiedet - verständlich angesichts der ständigen Veränderungen. Heute geht es vielmehr darum, im Sinne eines Data Mesh mit verteilten Datenlandschaften zu hantieren. Es gilt, Datenflüsse zu modellieren und mit Hilfe flexibel angelegter Datenplattformen immer wieder neue Quellen anzubinden. Data Fabric und DataOps sind die dazu passenden Konzepte.
Auch an den notwendigen Skills müssen die Unternehmen arbeiten. Wenn in den Fachabteilungen immer mehr Mitarbeitende mit KI-Tools experimentieren, muss gleichzeitig auch das Bewusstsein für die dafür notwendige Datenbasis geschärft werden. Sogenannte Data Stewards und Data Citizens werden Experten zufolge immer wichtiger. Ihre Hauptaufgabe: Auf der Ebene der Teams und Fachabteilungen die datenzentrierte Entwicklung in der Fläche vorantreiben.
Parallel gilt es für die Verantwortlichen, die Data Governance sicherzustellen. Dafür muss klar geregelt sein, wer wie auf welche Daten zugreifen und diese nutzen darf. Die Regulatorik bietet dafür die erforderlichen Leitplanken. Mehr und mehr setzt sich das Bewusstsein durch, dass gesetzliche Regeln für die Datennutzung kein Hemmschuh sind. Im Gegenteil: Sie bieten Orientierung und geben den Verantwortlichen einen Leitfaden an die Hand, mit dessen Hilfe die Unternehmen ihre Daten- und KI-Strategie ausrichten könnten.
Zentrales Thema in Hamburg
Das Thema Daten steht in fast allen Unternehmen wieder ganz oben auf der Agenda. Auch auf den Hamburger Strategietagen wird die Technical Excellence hinsichtlich KI-reifer Datenplattformen eine zentrale Rolle spielen: Wie muss der Technik-Stack aussehen, um den neuen Anforderungen gewachsen zu sein? Wie sieht die richtige Mischung aus Experimentierfeldern und Governance aus? Das sind Fragen, die auf der großen Bühne wie auch in kleineren Runden im Rahmen von Panels und Roundtables eifrig diskutiert werden dürften.
Zu den Hamburger IT-Strategietagen 2024, der größten IT-Fachkonferenz Deutschlands, werden vom 21. bis 23. Februar mehr als 800 Teilnehmer vor Ort erwartet. Wer es nicht nach Hamburg schafft, kann die wichtigsten Inhalte digital mitverfolgen. In den Vorträgen, Panels, Foren und Roundtables stehen auch 2024 die wichtigsten Themen der CIOs auf dem Programm: Artificial Intelligence, Security, New normal Work, Women in Tech, Sustainability versus Greenwashing, Cloud versus On Premises, Digital Mindset, Talent-Scouting sowie Technical und Operational Excellence.
Zudem gibt es wie gewohnt viel Raum für individuelles Networking. So startet etwa am ersten Abend wieder die Kneipentour im Hamburger Schanzenviertel, am Donnerstagabend folgt die große Strategietage-Party.
Mehr Informationen und die Möglichkeit zur Anmeldung finden Sie auf: it-strategietage.de