KI in der Industrie
So testen Sie, ob Ihre KI vertrauenswürdig ist
KI besitzt großes Potenzial für die industrielle Produktion, sei es in der Automatisierung, der Qualitätsprüfung oder der Prozessoptimierung. Doch viele Unternehmen stehen vor der Frage, so Maximilian Poretschkin, Teamleiter KI-Absicherung und Zertifizierung am Fraunhofer IAIS, ob der selbst entwickelte KI-Prototyp vertrauenswürdig genug ist, um ihn in der Serienproduktion einsetzen zu können.
KI skalieren
Damit diese Skalierung gelingt, müssen Poretschkin zufolge, "diese KI-Lösungen systematisch getestet werden, um auch Schwachstellen erkennen zu können, die im Prototypen nicht zu Tage getreten sind". Auf der Hannover Messe 2024 präsentieren das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS und die Institute der Fraunhofer-Allianz Big Data AI verschiedene Ansätze rund um vertrauenswürdige KI-Lösungen.
KI-Modelle prüfen
Ein Beispiel, wie vertrauenswürdige KI sicher in Betriebsabläufe integriert werden kann, ist ein Prüfwerkzeug für KI-Modelle. Es kann in der Produktion sowie im Maschinen- und Anlagenbau eingesetzt werden.
Systematisch Schwachstellen suchen
Das Tool ermöglicht die systematische Schwachstellensuche von KI-Systemen, um so deren Zuverlässigkeit und Robustheit sicherzustellen. Wie Poretschkin erklärt, beruht die Methodik beruht darauf, den Anwendungsbereich des KI-Systems genau zu spezifizieren.
Konkret geht es darum, den Raum der möglichen Eingaben, die das KI-System verarbeitet, zu parametrisieren und mit einer semantischen Struktur zu versehen. "Mit den KI-Prüfwerkzeugen, die wir unter anderem im KI.NRW-Flagships-Projekt "Zertifizierte KI" entwickelt haben", so Poretschkin, "lassen sich dann Fehler der KI-Systeme erkennen."
Was darf KI entscheiden?
Der Frage, was KI entscheiden kann und was noch nicht, geht die Fraunhofer-Allianz Big Data AI unter dem Titel "Who's deciding here?!" nach. Dabei greift die Big-Data-AI-Allianz - ein Zusammenschluss aus über 30 Fraunhofer-Instituten - verschiedene Fragen auf: Wie beeinflussen Technologien wie Künstliche IntelligenzKünstliche Intelligenz die Entscheidungsfreiheit? Wie vertrauenswürdig sind die KI-Systeme, die in immer mehr sensiblen Anwendungen wie beispielsweise Kreditwürdigkeitsprüfungen zum Einsatz kommen sollen? Alles zu Künstliche Intelligenz auf CIO.de
Hierzu präsentiert die Allianz mehrere Uses Cases aus verschiedenen Anwendungsbereichen. Dabei steht bei allen Anwendungsbeispielen laut Fraunhofer eine Frage im Vordergrund: Wie lässt sich KI kontrolliert und sicher einsetzen?
Sicheres Autofahren: Uncertainty Wrapper
Der verlässliche Umgang mit Unsicherheiten stellt bei der Nutzung von KI-Vorhersagen in vielen Anwendungsbereichen einen entscheidenden Faktor dar. Der Uncertainty Wrapper des Fraunhofer-Instituts für Experimentelles Software Engineering IESE prüft, wie sicher oder unsicher die Aussage einer KI ist - etwa am Beispiel der Objekterkennung von Straßenschildern.
Fake News erkennen: DisCo
Fake News verbreiten sich über Social Media in rasender Geschwindigkeit. Mithilfe textforensischer Methoden des Fraunhofer-Instituts für Sichere Informationstechnologie SIT werden im Zuge von DisCo Texte für Journalistinnen und Journalisten so aufbereitet, dass prüfwürdige Textpassagen farbig hervorgehoben werden.
Große KI-LLMs für Unternehmen: OpenGPT-X
Im Rahmen des Projekts OpenGPT-X trainieren Expertinnen und Experten aus Forschungsorganisationen und Wirtschaftsunternehmen LLMs mit bis zu 24 europäischen Sprachen. Sie sollen Unternehmen künftig als Open Source zur Verfügung stehen. Auf diese Basis sollen sie dann generative KI-Anwendungen entwickeln und Prozesse optimieren können. Ein Whitepaper zum Thema "Vertrauenswürdige KI-Anwendungen mit Foundation-Modellen entwickeln" ist hier zu finden.
Vertrauenswürdigkeit sensibler Produktionsdaten: DigiWeld
Das Fraunhofer IPA hat mit DigiWeld eine Lösung entwickelt, die es Maschinen- und Anlagenbauern ermöglicht, die Vorteile Künstlicher Intelligenz zu nutzen, ohne sensible Produktionsdaten der Kunden erfassen zu müssen.
KI-Akzeptanz: ADA Lovelace Center
Der Frage, warum Menschen KI akzeptieren oder auch nicht und welche Folgen die Nutzung für den Einzelnen mit sich bringt, geht das ADA Lovelace Center for Analytics, Data and Applications des Fraunhofer IIS nach. Durch einen sozial- und verhaltenswissenschaftlichen Zugang wollen die Forscher diese Frage klären.
Beitrag zum AI Act
Bei Fraunhofer betrachtet man in diese Lösungen auch als einen Beitrag dazu, Unternehmen zu helfen, die Vorgaben des EU AI Act einzuhalten. Denn die europäische KI-Verordnung sieht auch eine Durchführung von KI-Prüfungen vor. Bei der Umsetzung dieser Anforderung könnten, so Fraunhofer, die entsprechenden Prüf-Tools hilfreich sein.