Algorithmen übernehmen
Führung mittels Künstlicher Intelligenz
Frank M. Scheelen ist Experte für Leadership und Kompetenzmanagement sowie Gründer der Scheelen AG.
Wo die Reise gerade hingeht, zeigt das Unternehmen Bridgewater Associates - mit weit mehr als 100 Milliarden Dollar verwaltetem Vermögen der größte Hedgefonds weltweit. Die digitale Transformation ist hier - wie bei vielen technologieaffinen Finanzdienstleistungsunternehmen - weit fortgeschritten.
Das äußert sich unter anderem folgendermaßen: Jeder Mitarbeiter ist bei Bridgewater Associates gezwungen, eine App namens "Dots" auf dem firmeneigenen iPad zu installieren. Im Sinne einer totalen Transparenz enthält die Software die Profile aller Mitarbeiter, die nach 100 Kategorien bewertet werden können. Dabei geht es nicht wirklich um die Förderung einer Feedback-Kultur im Unternehmen - diese wäre ja wünschenswert - und schon gar nicht um individuelle Kompetenzentwicklung oder Unterstützung des Mitarbeiters.
Im Wesentlichen geht es darum, dass sich alle Mitarbeiter ständig gegenseitig bewerten, was sie in großem Umfang tun. Daraus werden dann öffentliche Ratings und Rankings erstellt: Der steht oben, die rutscht in der Performance ab, der da wird gefeuert. Ein weiteres Beispiel liefert JP Morgan. Mit einem neuen Tool erhalten und senden die 243.000 Mitarbeiter ständig Feedback und Kritik, die Informationen werden mit dem Vergütungssystem verknüpft - das totale Mitarbeiter-Rating.
Aus Rating wird Hire and Fire
Hier wird etwas bewusst missverstanden: Klar, die Generationen X und Y wollen Feedback und Austausch, auch den Vergleich untereinander. Das sind sie gewohnt aus ihrer Umgebung. Sobald sie sich im Wettbewerb befinden, interessiert sie sozusagen der Punktestand. Doch eine Auswertung auf rein digitaler Basis, mit allen Konsequenzen für Karriere und Einkommen - das ist wohl nicht das, was sie wollen.
Letztlich reißt die digitale Transformation alle (ethischen) Grenzen in dieser Hinsicht nieder. Denn mit der DigitalisierungDigitalisierung scheint alles kinderleicht zu werden: Ich ziehe Daten, mache ein Ranking und lasse Algorithmen die Schlussfolgerungen ziehen. Aus Rating wird Ranking, wird Hire and Fire. Alles zu Digitalisierung auf CIO.de
AI-Systeme übernehmen Chefaufgaben
Offensichtlich jedoch befindet sich der Personal- und FührungsbereichPersonal- und Führungsbereich erst am Anfang der Reise in die Welt der künstlichen Intelligenz. So hat Bridgewater verkündet, unter dem Namen PriOS ein System künstlicher Intelligenz aufzubauen, das Personalentscheidungen und alltägliche Management-Aufgaben gleich ganz alleine übernimmt. PriOS soll dabei von den Entscheidungsstrukturen des Gründers Ray Dalio sowie seiner Top-Manager lernen, um das Unternehmen auch später in seinem "Principle-Style" zu führen. Man könnte auch sagen, genormte Entscheidungen - oder kein Platz mehr für Kreativität und Einzigartigkeit. Alles zu Personalführung auf CIO.de
Auch weitere Unternehmen beginnen Artificial-Intelligence-(AI-)Systeme aufzubauen, die Personalentscheidungen und Management-Aufgaben gleich ganz alleine übernehmen. Automatisiertes, AI-unterstütztes "Decision Making" gilt schon länger als ökonomisch interessantes Anwendungsfeld der Artificial IntelligenceArtificial Intelligence. Algorithmen werten alle verfügbaren Daten aus, analysieren Risiken und Szenarien und geben Vorgehensweisen vor. An manchen Vorstandstischen sitzt bereits ein "Artificial Manager", der nach Datenmodellen entscheidet. Alles zu Artificial Intelligence auf CIO.de
Auch im RecruitingRecruiting macht man sich die Künstliche IntelligenzKünstliche Intelligenz zunutze. Über die digitale Bewerbermappe hinaus versuchen Firmen, Menschen immer stärker unter das Verdikt von Algorithmen zu stellen. Das beginnt mit dem Einsatz von Chatbots respektive Jobbots auf der Karriereseite der Unternehmen: Der Bewerber sieht sich die Website des Unternehmens an und wird dort "abgeholt": Ein Feld ploppt auf, "Guten Tag, Du interessierst Dich für einen Job bei uns? Dann melde Dich doch gleich hier über das XY-Formular an". So oder so ähnlich wird versucht, den Bewerber auf der Seite zu halten und seine Kontaktdaten zu erhalten. Alles zu Künstliche Intelligenz auf CIO.de Alles zu Recruiting auf CIO.de
Der Einzug der Bots macht aber auch vor den Auswahlgesprächen im Bewerbungsverfahren keinen Halt. In den USA gibt es bereits Firmen, die Bewerbungsgespräche von einem programmierten Gesprächspartner führen lassen. Der Kandidat sitzt vor der Webcam, eine Software mit sogenannter Applied Predictive Technology analysiert, was er sagt. Auch Stimme und Mimik werden erfasst. Im Anschluss wird eine Empfehlung ausgeworfen, ob man den Bewerber einstellen sollte oder nicht; beziehungsweise es wird angezeigt, zu wie viel Prozent der Kandidat für die Stelle geeignet ist.
Tim Weitzel, Professor für Wirtschaftsinformatik an der Universität Bamberg, der zum Thema "Robot Recruiting" forscht, hat jüngst die Vorzüge solcher digitalen Vorstellungsgespräche beschrieben und angemerkt: "Der Algorithmus" diskriminiere nicht. Der Computer habe keine Vorurteile, er achte allein auf Eignung und Fähigkeiten des jeweiligen Kandidaten, komplett frei von den menschlichen Verzerrungen wie Attraktivität, Sympathie, Antipathie, Vorurteilen.
Gleichzeitig räumt Weitzel aber ein: Man könne nicht wirklich sicher sein, dass Algorithmen nicht auch diskriminieren. Denn bevor der Arbeitgeber sie einsetzt, werden sie "gefüttert" mit den Informationen, die für die Stelle relevant sind. Dabei werden sie "angelernt" von Personalern, sie trainieren nach statistischen Mustern, wie diese entscheiden. Das heißt: Der Computer lernt vom Menschen - und übernimmt auch automatisch dessen Vorurteile.
Verzerrungen führen zu grotesken Ergebnissen
Es stellt sich außerdem die Frage: Wie real sind die Daten, wie viel haben sie mit der wirklichen Leistung des Einzelnen zu tun? Und sind die Daten für den Job relevant? Laut Experten kann das "Eigenleben" der computergestützten Auswahl aus dem Ruder laufen, sie entwickelt dann Auswahlkriterien, die keinen Sinn ergeben. Denn ihr Auswahlprinzip für geeignete oder ungeeignete Kandidaten beruht auf der Korrelation der gefütterten Daten - Korrelation aber bedeutet noch lange nicht Kausalität.
Was eine solche Verzerrung anrichten kann, zeigt ein Fall bei Xerox Services aus den USA: Das Unternehmen hatte einen Algorithmus im Recruiting-Verfahren eingesetzt. Eines der Selektionskriterien für die positive Bewertung der Kandidaten war, Mitarbeiter zu finden, die möglichst lange im Unternehmen bleiben. Ergebnis: Potenzielle Mitarbeiter aus Außenbezirken wurden seltener eingestellt - unabhängig von ihrer Qualifikation. Das System hatte einen langen Anfahrtsweg als häufigen Kündigungsgrund festgestellt. Nun ist es so, dass gerade arme Menschen oft außerhalb der Stadt leben. Durch den Einsatz des "Robot Recruiters" wurden sie diskriminiert - ungewollt, aber systematisch und vor allem: grotesk!
Es lässt sich feststellen, dass "die kalte Logik des Algorithmus" der "menschlichen Unzuverlässigkeit" vorgezogen wird. Lernende Systeme werden nicht nur von möglichen Fehlern, Trugschlüssen und vielleicht Problemen der grundsätzlichen Programmierung bestimmt, sondern sie lernen - im negativen Sinne - auch noch im Einsatz aus "fehlerhaften Datenbasen" und der Herstellung "fehlerhafter Korrelationen". Das aber wird kaum bedacht und in den Personalabteilungen noch weniger diskutiert.