Die Software öffne die "Black Box" der KI und erkenne automatisch mögliche Verfälschungen bei den Ergebnissen, teilte das Unternehmen mit. "Alle Entscheidungen, die Künstliche Intelligenz trifft, haben ihre Basis in den eingegebenen Daten", erklärte Wolfgang Hildesheim, der bei IBM in Deutschland für KI zuständig ist. "Da kann der Algorithmus so gut sein, wie er will." IBMs neue Technologie überprüfe etwa, ob eine ausgewogene und signifikante Datenbasis vorliege und damit auch tatsächlich verlässliche und relevante Ergebnisse geliefert werden können.
Das Werkzeug soll in Echtzeit Licht ins Dunkel bringen, wie eine KI-Anwendung zu ihren Entscheidungen kommt. Soll sie etwa den Bankberater dabei unterstützen, über die Kreditwürdigkeit eines Kunden oder geeignete Finanzprodukte zu entscheiden, müsse die entsprechende KI-Datenbasis so neutral und ausgewogen wie möglich sein. Der Service lasse sich auf verschiedenen Plattformen für maschinelles Lernen innerhalb IBMs Cloud-Angebot nutzen, sagte Hildesheim. Einen Teil der Lösung will das Unternehmen zudem allen Entwicklern aus der Open-Source-Gemeinde zur Verfügung stellen.
Ohne Transparenz kein Vertrauen
IBM wolle damit vor allem auch das Vertrauen in KI-Systeme stärken. "Ohne Transparenz gibt es kein Vertrauen", sagte Hildesheim. Eine Studie des Unternehmens habe jüngst herausgefunden, dass 82 Prozent der Unternehmen gerne Künstliche Intelligenz zur Umsatzsteigerung nutzen würde. 60 Prozent der insgesamt 5.000 befragten Entscheider hätten allerdings angegeben, dass sie Sorge haben, für mögliche Fehlentscheidungen der Systeme zur Verantwortung gezogen zu werden. 63 Prozent fehlt nach eigener Einschätzung das Know-how. (dpa/rs)