KI und Produkthaftung
Wer haftet für Künstliche Intelligenz?
Wer in Sachen KI-Nutzung auf einen rechtlich stabilen und für die Wirtschaft planbaren Zustand warten möchte, wird nach meiner Prognose vor dem Ende der 2020er Jahre keine Beiträge dieser Art mehr lesen müssen. Selbst etliche der hier gemachten Aussagen dürften bereits Ende dieses Jahres sicherlich an der einen oder anderen Stelle neu interpretiert werden.
Wer sich davon nicht abschrecken lässt, wird feststellen, dass sich die rechtliche Sicherheit rund um Künstliche Intelligenz (KI) und deren Herstellung und Nutzung als ein Problem aller Beteiligten darstellt. Nichtsdestotrotz existieren bereits heute Leitplanken, an denen aktuelle und zukünftige Überlegungen ausgerichtet werden können.
KI und die ungeklärte Definitionsfrage
Zunächst sind einige Begrifflichkeiten zu klären. Künstliche Intelligenz wird häufig als selbstlernend verstanden. Sie ist deswegen aber noch lange nicht autonom in ihren Entscheidungen. Umgekehrt sind auch nicht alle autonom entscheidenden Systeme selbstlernend: Das wäre etwa bei einem autonomen Fahrzeug sicherlich nicht im Sinne vieler Verkehrsteilnehmer. Wer politische Konzepte zum Umgang mit Künstlicher Intelligenz liest, stellt häufig fest, dass dort Künstliche Intelligenz sehr häufig mit den Charakteristika autonom und selbstlernend belegt ist. Das ist aus Sicht der Praktiker nicht richtig, erklärt aber die sich daraus ergebenden Regulierungsgedanken.
Wegen der zwingenden Annahme von selbstlernenden Mechanismen ist rechtlich auch immer die Frage nach den verwendeten Daten von Interesse, die auch als Lernmaterial verwendet werden. Hierum kreisen viele Gedanken des Gesetzgebers, vor allem unter ethischen Gesichtspunkten wie Diskriminierung und natürlich auch Datenschutz. Für die nachfolgenden Überlegungen spielen diese ethischen Aspekte aber keine Rolle, da es als Hersteller und Betreiber von KIKI darum geht, über existierende rechtliche Rahmenbedingungen Bescheid zu wissen. Alles zu Künstliche Intelligenz auf CIO.de
Künstliche Inztelligenz sucht rechtliche Basis
Die Suche nach solchen Regelungen führt zwar schnell zum Ergebnis, ernüchtert aber ebenso zügig: Weder in Deutschland noch in der EU existiert eine gesetzliche Basis, die Herstellung und Betrieb von KI auch nur ansatzweise regelt. Es gibt mehrere Projekte, in denen dieses Thema politisch getrieben wird; so hat sich beispielsweise in Deutschland die Enquete-Kommission des Bundestages mit dem Thema befasst. In ihrem Abschlussbericht Ende Oktober 2020 prägte sie das Leitbild einer "Menschenzentrierten KI". Eine Kurzfassung des über 700 Seiten langen Abschlussberichts der "Enquete Kommission Künstliche Intelligenz" finden Sie hier. Die Europäische Kommission hat das in einem Whitepaper Anfang des Jahres schon getan. Diese Regelungen zeigen zumindest ansatzweise, welche gedankliche Richtung der Gesetzgeber in Zukunft einschlagen wird.
Es gibt auch heute Regelungen für die Haftung von Hersteller und Betreiber, wenn Produkte Personen- oder auch Sachschäden verursachen. Diese Regelungen gelten für Toaster ebenso wie für Systeme mit KI. Die vom Hersteller fehlerhaft programmierte KI, das Embedded Product mit fehlerhaft angelernter KI und auch die Angreifbarkeit von KI aufgrund fehlender Sicherheitsstandards sind produkthaftungsrechtlich genauso zu behandeln wie die fehlerhafte Lötstelle in einem Toaster. Dasselbe gilt für den Betreiber von Produkten und Systemen mit KI. Die Betreiber haften, wenn Produkte aufgrund inkorrekter Einstellungen, falscher und nicht fachgerechter Umgebung sowie unzureichender und fehlerhafter Daten in einem möglichen Lernprozess zu Schäden bei den Kunden führen. Hierfür existieren allgemein gültige Haftungsregelungen.
Vielfach werden allerdings Beweisschwierigkeiten bei KI vermutet, weil die Entscheidung der KI nicht transparent ist. Diese sogenannte Opazität entsteht, da üblicherweise viele Beteiligte an Herstellung und Vertrieb von Produkten mit KI mitwirken. Somit kann keine Ursächlichkeit auf ein Unternehmen oder eine Person bezogen nachgewiesen werden. Diese Vermutungen sind zum Teil berechtigt, auch wenn das bei vielen anderen Produkten - und ein Fahrzeug ist mit 35.000 Komponenten und einem Steuergerät mit über 50.000 Parametern sicherlich keine einfach nachweisbare Fehlerquelle - ähnlich ist.
Daraus schlussfolgert die Politik in der EU und auch in Deutschland einen speziellen Ansatz für KI. Der Blick in die gesetzgeberische Glaskugel lässt vermuten, dass die zukünftige rechtliche Basis für die Herstellung und den Einsatz von KI auf einem anderen Ansatz als dem bisherigen produkthaftungsrechtlichen Rahmen beruht.
Gefährdungshaftung und neue Versicherungen für KI?
Die Bestrebungen laufen dabei in Richtung eines risikobasierten Ansatzes: Risikoarme KI-Produkte unterliegen wenigen Regelungen, riskantere Lösungen jedoch erheblichen Anforderungen bis hin zu einer externen Fremdüberwachung und Zertifizierung. Um die Geltendmachung von Schäden zu erleichtern, wird es eine Gefährdungshaftung geben - also ohne Verschulden oder sogar ohne unerlaubte Handlungen. Ob die Gefährdungshaftung beim Hersteller, beim Betreiber oder sogar bei beiden verankert wird, ist noch nicht abzusehen.
Weiterhin gibt es Bestrebungen, den Betreiber wie etwa auch den Fahrzeughalter in Anspruch zu nehmen. Allerdings ist zu bezweifeln, dass sich diese Ansicht durchsetzen wird. Unabhängig davon soll über eine Pflichtversicherung beim Betreiber nachgedacht werden. In dem Fall können sich die Geschädigten an den nächstgreifbaren Verursacher wenden, der außer durch das Betreiben der KI keine schadensrelevante Ursache gesetzt hat. Der Regress der gezahlten Summe läuft dann zwischen Versicherer und Hersteller ab. Erste Reaktionen aus der Versicherungswirtschaft lassen allerdings nicht den Schluss zu, dass hier schnell die ersten Policen-Modelle entstehen werden.
KI-Anforderungen bereits heute implementieren
Was bedeutet das für Unternehmen, die KI herstellen und nutzen wollen? Die wichtigste Erkenntnis aus diesen Ausführungen ist wohl, dass die heutigen Regelungen auch für KI, für Software, als auch für autonome, selbstlernende Systeme gelten. Die Anforderungen, die die Rechtsprechung an die fehlerfreien Produkte und die Organisation von Unternehmen stellt, sollten bereits heute implementiert werden.
Die sich abzeichnenden speziellen Regelungen für KI werden vielfach auf Standards und Normen basieren, von der Einschätzung der Risikostufe bis zu den Mindestvorgaben an Programmierung und Tests sowie deren Zertifizierung. Je früher und stärker sich die Wirtschaft in diese zukunftsorientierte Prozesse einbringt, desto wahrscheinlicher ist eine praxisgerechte rechtliche Ausgestaltung. (hi/fm)