Im Mai letzten Jahres verschob Google die Maxime "Don't be evil" vom Anfang seines Verhaltenskodex' ans Textende. Die ursprüngliche Version am Textanfang lautete: "Don't be evil." Googlers generally apply those words to how we serve our users. (Deutsch:"Sei nicht böse." Googlers wenden diese Worte generell auf die Art und Weise an, wie wir unsere Nutzer bedienen.) Jetzt heißt es: And remember… don't be evil, and if you see something that you think isn't right - speak up! (Deutsch: Und denk daran… sei nicht böse, und wenn Du etwas bemerkst, von dem Du denkst, dass es nicht richtig ist - sag etwas!)
Warum ist das von Bedeutung? Weil sich die Gewichtung änderte. Was zunächst als ethische Grundlage für alle Geschäfte gültig war, ist jetzt eine nachgelagerte Verhaltensrichtlinie, an die am Textende erinnert wird. Zudem kritisieren Beobachter, dass Google diese Änderung stillschweigend vollzogen habe.
Fakt ist, dass zum fraglichen Zeitpunkt viele Mitarbeiter Anstoß am Projekt "Marven" genommen hatten. Google hatte mit dem US-Militär einen Deal geschlossen, demzufolge der Internet-Gigant Kampf-Drohnen mit künstlicher Intelligenz ausstatten sollte. Das hielten mehr als 3.000 Google-Mitarbeiter nicht mit den Unternehmensleitlinien vereinbar. Manche verließen das Unternehmen. Google hat mittlerweile von dem Projekt Abstand genommen.
Hat Google gegen seine eigene Maxime verstoßen? Oder haben die Mitarbeiter das Motto einfach nur falsch verstanden? Eike Kühl, Autor von Zeit Online, vertrat in einem Kommentar für Golem bereits 2015 die Meinung, dass "Don't Be Evil nie als moralischer Kompass [getaugt habe], sondern […] die Rechtfertigung der eigenen [Googles - Anm. d. A.] Taten und Entwicklungen [war]."
Den Handlungen des Konzerns liege kein selbstauferlegtes moralisches Fundament zugrunde. Vielmehr sollte alles, was Google tut, durch den Verhaltenskodex von vornherein als "nicht böse" gelten. Das moralische Motto sei also vor allem als Signal an die Außenwelt zu verstehen gewesen.
Ob Kühls Interpretation den Tatsachen entspricht, liegt im Auge des Betrachters. In jedem Fall wirft das Beispiel einige Fragen auf: Brauchen Unternehmen einen digitalen Verhaltenskodex? Wenn ja, woran können sich die Verantwortlichen orientieren, wenn sie ihn definieren? Und schließlich: Wie lässt sich ein solcher Verhaltenskodex durchsetzen?
Brauchen Unternehmen einen digitalen Verhaltenskodex?
Digitale Technologien verändern die Welt, in der wir leben, arbeiten und konsumieren von Grund auf. Die Schnittmenge zwischen Mensch und Technologie wird immer größer. Das eröffnet zum einen nie dagewesene wirtschaftliche Chancen, zum anderen werden Menschen abhängiger von Technologie.
Deshalb spielt es natürlich eine Rolle, ob Unternehmen, die digitale Technologien entwickeln und einsetzen, deren Auswirkungen auf die Gesellschaft bedenken und sich an ethische Maßstäbe halten. Der Protest der oben erwähnten Google-Mitarbeiter zeigt, dass Menschen wissen wollen, woran sie für wen arbeiten und welche Auswirkungen das hat. Es gibt viele Berichte, wonach Top-Talente sich weigern, für Technologieanbieter zu arbeiten, weil sie deren Geschäftspraktiken nicht mit ihrem Gewissen vereinbaren können.
Zudem zeigen regulatorische Maßnahmen wie die Datenschutz-Grundverordnung (DSGVO), dass es Regeln braucht für die Art und Weise, wie Unternehmen Technologien nutzen und mit Daten umgehen. Digitale Informationsbeschaffung und -verarbeitung durch Unternehmen muss anscheinend unter Androhung harter Strafen reguliert werden, weil Unternehmen nicht automatisch das "Richtige" tun. So machen sich laut einer Umfrage von Selligent 75 Prozent der Befragten Sorgen darum, inwieweit Unternehmen ihr Online-Verhalten nachverfolgen können. Der belgische Anbieter einer Marketing-Automation-Plattform erhob die Meinungen von 7.000 Endkunden weltweit.
Die ethische Dimension des Business zu vernachlässigen, kann konkrete negative Konsequenzen haben. Know-how-Träger zu verlieren, führt möglicherweise dazu, dass das Unternehmen weniger wettbewerbsfähig ist, Marktanteile einbüßt und weniger Umsatz macht. Mindestens ebenso schädlich ist das Misstrauen der Kunden, die Zweifel am Umgang mit ihren Daten hegen.
Das Ethikproblem endet nicht an den Grenzen des eigenen Unternehmens. In einem globalisierten Markt können Services und Lösungen aus Komponenten verschiedener Anbieter bestehen. Daher haben auch Zulieferer und Geschäftspartner Anteil daran, wie ein Unternehmen wahrgenommen wird. Ein Verhaltenskodex, dem alle Beteiligten der Lieferkette verbindlich zustimmen, schafft Vertrauen der Mitarbeiter und Kunden in das Unternehmen.
Die Antwort lautet also: Unternehmen sollten über einen digitalen Verhaltenskodex nachdenken.
Daran sollte sich ein Verhaltenskodex orientieren
Das Google-Beispiel lässt ahnen, dass der Entwurf eines digitalen Verhaltenskodex' keine oberflächliche Angelegenheit ist. Welches Wertegerüst bildet die Grundlage der Regeln?
Gartner prognostiziert, dass künstliche Intelligenz (KI) im kommenden Jahr die Grenzen des Möglichen im digitalen Geschäft verschieben wird. Anwendungen, Services und Objekte im Internet of Things (IoT) werden durch KI intelligenter. Daher stößt diese Technologie momentan zahlreiche Diskussionen und Initiativen im Bereich der Unternehmens-Ethik an und ist ein guter Kandidat, um diese Fragestellungen zu konkretisieren.
Auf globaler Ebene werden Forderungen nach einem Werte-System für KI laut. So gründete sich Anfang August im Wien die internationale Open Community for Ethics in Autonomous and Intelligent Systems (OCEANIS). Die Motivation dahinter erklärte Michael Teigeler, Geschäftsführer des Verbands VDE/DKE: "Letztlich führt kein Weg daran vorbei, dass sich die internationale elektrotechnische Community Gedanken über das 'richtige' und 'falsche' Verhalten macht, auf das eine KI trainiert werden soll."
Dies zwinge Ingenieure dazu, Entscheidungen zu diskutieren, um die sie sich bisher "drücken" konnten. Die Branche müsse raus aus der technischen Komfortzone und in den Dialog mit Experten anderer Disziplinen, um gemeinsam ethische Leitlinien für KI zu entwickeln, die weltweit in der Elektro- und Informationstechnik akzeptiert würden.
Einen Versuch dieses "Richtig" und "Falsch" zu definieren unternahm der Europäische Wirtschafts- und Sozialausschuss (EWSA) bereits im Mai 2017 in Form einer Stellungnahme (PDF) zu den "Auswirkungen der künstlichen Intelligenz auf den (digitalen) Binnenmarkt sowie Produktion, Verbrauch, Beschäftigung und Gesellschaft". Darin fordert der Ausschuss explizit einen Verhaltenskodex für die Entwicklung, den Einsatz und die Nutzung von KI. Dieser soll gewährleisten, dass die folgenden Dinge während der gesamten Nutzungsdauer von KI-Systemen gewahrt bleiben:
Menschenwürde
Integrität
Freiheit
Schutz der Privatsphäre und Datenschutz
kulturelle und Geschlechtervielfalt
grundlegende Menschenrechte
Freiheit sowie grundlegende Menschenrechte sind relativ selbsterklärend und Datenschutz ist unter anderem durch die DSGVO umfassend geregelt. Die anderen drei Begriffe bedürfen jedoch näherer Betrachtung - sei es, weil ihre Bedeutung schwierig zu fassen ist oder aktuelle Entwicklungen sie in den Fokus der Aufmerksamkeit rücken.
Gemäß dem ersten Artikel des Grundgesetzes spielt die Menschenwürde in Deutschland eine zentrale Rolle. In seiner Eröffnungsrede zur Jahrestagung des Deutschen Ethikrates in diesem Jahr sagte Bundestagspräsident Wolfgang Schäuble, die Würde des Menschen stehe bei technologischen Fortschritten - unter anderem im Bereich KI - "über allem". Eine genaue Definition des Begriffs sprengt den Rahmen dieses Artikels und soll Rechtsexperten vorbehalten bleiben.
Wichtig ist aber, dass es der Grundsatz der unantastbaren Menschenwürde verbietet, den Menschen als Objekt zu betrachten. Das Bundesverfassungsgericht hat den Begriff Menschenwürde in einer Reihe von Entscheidungen detaillierter umrissen: sie bedeute einen Wert- und Achtungsanspruch, der dem Menschen kraft seines Menschseins zukommt, unabhängig von seinen Eigenschaften, seinem körperlichen oder geistigen Zustand, seinen Leistungen oder sozialem Status. Es geht also um die prinzipielle, unvoreingenommene Wertschätzung des Menschen.
Unter Integrität im ethischen Sinn versteht man die Übereinstimmung des eigenen Wertesystems mit dem tatsächlichen Handeln. Genau dieses Kriterium war scheinbar in den Augen der Google-Mitarbeiter im obigen Beispiel nicht gegeben.
Der Aspekt der kulturellen und Geschlechtervielfalt verdient an dieser Stelle gesonderte Aufmerksamkeit, da ein aktuelles Beispiel mögliche Tücken von KI aufzeigte. Amazons Personalabteilung wollte über ein KI-System Bewerbungen automatisiert vorsortieren. Der Algorithmus wurde mit den Bewerbungen der letzten zehn Jahre gefüttert. Da sich hauptsächlich Männer beworben hatten, schlussfolgerte die KI, dass die bevorzugten Kandidaten männlich seien und benachteiligte daher Frauen.
Um diese und ähnliche Probleme anzugehen, gründete sich dieses Jahr beispielsweise die Equal-AI-Initiative mit dem Ziel, bewusste und unbewusste geschlechtsspezifische Vorurteile in der KI zu beseitigen. Auch die französische Datenschutzbehörde Commission Nationale de l'Informatique et des Libertés (CNIL) sieht das Risiko solcher wertenden Tendenzen kritisch. Unter den ethischen Herausforderungen von KI, die die CNIL 2017 definierte, steht mögliche Diskriminierung an prominenter Stelle.
SAP subsummierte seinen Ansatz für einen Verhaltenskodex für KI in einem Satz: "Baue keinen Algorithmus, der etwas tut, was auch Menschen nicht tun sollten."
Beispiel für die Umsetzung
Um diesen Vorsatz in die Tat umzusetzen, gründeten die Walldorfer ein sogenanntes AI Ethics Steering Committee aus neun hochrangigen Führungskräften. Es soll im Austausch mit den Mitarbeitern sicherstellen, dass die internen Prozesse und Produkte mit den ethischen Prinzipien, die sich SAP gesetzt hat, übereinstimmen. Diese Prinzipien hat das Komitee in sieben Richtlinien formuliert:
Unsere Werte treiben uns an.
Wir entwickeln für Menschen.
Wir ermöglichen Business ohne Vorurteile.
Wir streben nach Transparenz und Integrität in allem was wir tun.
Wir wahren Qualitäts- und Sicherheitsstandards.
Datensicherheit und Datenschutz sind für uns zentral.
Wir beschäftigen uns mit den größeren gesellschaftlichen Herausforderungen von KI.
Die sieben Punkte orientieren sich an den oben genannten Vorschlägen der ESWA. Ein 14-seitiges Dokument definiert die Aussagen näher und beschreibt, worauf sie sich beziehen. Darunter sind beispielsweise das eigene Commitment für Menschenrechte und Qualitätssicherung, aber auch UN-Richtlinien. Außerdem beschreibt SAP die Struktur, wie die Vorsätze umgesetzt werden.
Unternehmen, die Verhaltenskodizes definieren, müssen sich oft den Vorwurf anhören, dass es keine Kontrollinstanz gäbe. SAP hat daher als erstes europäisches Unternehmen einen Ethik-Beirat einbezogen. Das Gremium besteht aus externen Fachleuten aus Wissenschaft, Politik und Industrie. Komitee und Beirat tauschen sich vierteljährlich zu den Aktivitäten im Unternehmen aus.
Der Beirat berät das Komitee, überprüft die Einhaltung der Leitlinien und hilft bei der Weiterentwicklung des Regelwerks. Zwar besitzt er nur beratende Funktion und hat keinerlei Entscheidungsgewalt - die behält sich weiterhin das Unternehmen vor - aber seine Beteiligung ist ein erster Schritt in Richtung einer unabhängigen Kontrolle.
Sind die Richtlinien wie im Beispiel SAP definiert, gilt es, sie in der Praxis umzusetzen. Da sich die Technologie und ihre Möglichkeiten rasend schnell weiterentwickeln, ist es praktisch unmöglich, nachhaltige Regeln auf einer technischen Ebene zu realisieren. Sie würden immer einen Schritt hinterherhinken. Lorena Jaume-Palasí, Mitgründerin der Initiative "Algorithm Watch", sagte in einem Interview mit der FAZ, dass sich das umgehen ließe "indem man nicht die Technik reguliert, sondern die menschlichen Konflikte und Risiken, die sich aus dem Umgang mit Technologie ergeben." Als Beispiel führt sie das Auto an: Gesetze begrenzten nicht die Anzahl der PS, sondern die Geschwindigkeit auf der Straße. Nicht die Technik werde reguliert, sondern der menschliche Einsatz.
Es geht also nicht darum, was Technik kann, sondern was der Mensch damit macht beziehungsweise machen darf. Vor diesem Hintergrund gilt es, Mitarbeiter in Schulungen für den verantwortungsvollen Umgang mit KI zu sensibilisieren. Laut einer weltweiten Studie von Forbes Insights unter 305 Geschäftsführern führen 70 Prozent der Unternehmen, die KI einsetzen, ethische Trainings für ihre Mitarbeiter in der IT durch. 63 Prozent besitzen Ethikkommissionen ähnlich der von SAP.
Bei Unternehmen, die bisher keine KI einsetzen, fehlt es allerdings noch an Bewusstsein. Hier trainieren lediglich 48 Prozent ihre Belegschaft in ethischen Fragen. Angesichts der Tatsache, dass KI laut Gartner bald allgegenwärtig sein soll, werden auch diese Unternehmen nicht umhinkommen, ihre Mitarbeiter ethisch zu schulen.
Bei allen Maßnahmen ist es wichtig, dass die Führungsebene voll dahinter steht. Gerade weil Ethik ein relativ uneindeutiges Thema ist, muss sie in der Praxis vorgelebt werden.
Langfristigen Erfolg sicherstellen
Wissen in der Breite zu vermitteln und Integrität zu demonstrieren ist der erste Schritt. Der zweite besteht darin, die Regeln langfristig durchzusetzen. Hierzu kann es sinnvoll sein, bestimmte Mechanismen im Unternehmen einzusetzen.
Die einfachste Methode ist es, ein Verhalten, das den Richtlinien zuwiderläuft, zu bestrafen. So könnte beispielsweise ein Mitarbeiter seinen Jahresbonus verlieren, wenn er versuchen würde, auf eine Art und Weise Umsatz aus Daten zu generieren, die gegen den Kodex verstößt. Dazu gilt es, Wege zu eröffnen, über die Richtlinienverstöße aufgedeckt werden können. Das ist besonders schwierig, wenn Mitarbeiter mit ethischen Verstößen von Vorgesetzten konfrontiert sind.
Als Anlaufstelle für die Mitarbeiter können Ethikbeauftragte in den Geschäftsbereichen oder eine zentrale Ethik-Abteilung eingesetzt werden. Sie sorgen dafür, dass die Belegschaft die Richtlinien kennt und weiß, wie sie im Alltag anzuwenden sind. Sie prüfen auf unethisches Verhalten, fungieren als Ansprechpartner bei Fragen und vermitteln bei Vorfällen.
Es besteht auch die Möglichkeit, die Mitarbeiter aktiv in den Prozess einzubinden. Das Unternehmen kann sie anhalten, unethisches Verhalten über eine Hotline oder ähnliches zu melden. Allerdings ist diese Methode selbst ethisch fragwürdig. Es besteht die Gefahr, Denunziantentum in der Belegschaft zu forcieren.
Entscheidet sich ein Unternehmen dennoch, die Mitarbeiter aktiv einzubeziehen, sollten einige Maßnahmen ergriffen werden. Katie Smith, Chief Ethics and Compliance Officer des auf Compliance-Programme spezialisierten Unternehmens Convercent, nennt drei Strukturen um so eine "Speak-Up-Kultur" zu schaffen:
1. Klarheit von Anfang an - Alle Mitarbeiter sollten genau wissen, wie sie Verstöße melden können. Um beurteilen zu können, welches Verhalten als unethisch gilt, sollte der Kodex in schriftlicher Form zugänglich sein. Neue Kollegen sollten beim Arbeitsantritt mit den Richtlinien im Detail vertraut gemacht werden.
2. Offene Kanäle - Mitarbeiter müssen sich laut Smith sicher fühlen, dem Prozess vertrauen und überzeugt sein, dass ihrer Meldung auch konkrete Maßnahmen seitens des Unternehmens folgen. Es gilt aktiv zu kommunizieren, dass die Initiative der Mitarbeiter begrüßt und ihre Anliegen ernst genommen werden. Der Prozess, um einen Vorfall zu melden, sollte klar definiert und vor allem so einfach wie möglich sein. Es ist wichtig, bei den Meldemöglichkeiten viele verschiedene Kommunikationskanäle anzubieten. So steht den Mitarbeiter derjenige offen, mit dem sie sich am wohlsten fühlen - zum Beispiel Telefon, Internet, anonyme SMS oder Chatbot.
3. Schutz für Whistleblower - Sobald ein Mitarbeiter einen Verstoß gemeldet hat, müssen Systeme greifen, die ihn vor möglichen Racheakten schützen. Ist der Mitarbeiter, der eine Anzeige stellte, bekannt, sollten die Ethikverantwortlichen nach beendeter Untersuchung regelmäßig - beispielsweise nach 30, 60 und 120 Tagen - den Kontakt suchen und ihn nach möglichen Repressalien fragen. Daneben gibt die Prüfung der Vergütungs- und Leistungsbeurteilungs-Daten des Melders Aufschluss über negative Entwicklungen.
Diesseits von Gut und Böse
Die Forderungen nach Verhaltensregeln für Forschung und Wirtschaft werden in Zeiten der Digitalisierung immer lauter. Es braucht einen Rahmen, damit technische Innovationen nicht in das Wertegerüst unserer Gesellschaft eingreifen können. Ethik und Geschäft rücken - angefeuert durch anhaltende Diskussionen über Möglichkeiten und Grenzen der KI - enger zusammen. Hält sich ein Unternehmen nicht an gesellschaftliche Normen, oder besteht auch nur der Verdacht, können daraus handfeste wirtschaftliche Nachteile entstehen. Ein Verhaltenskodex ist ein Weg für Unternehmen, dieses Risiko abzuwenden.