KI als Klotz am Bein
Wie Sie sich mit KI mehr Arbeit aufhalsen
Maria Korolov berichtet seit über zwanzig Jahren über aufstrebende Märkte und Technologien. Sie schreibt für die US-amerikanische IDG-Publikation CSO.
Der KI-Einsatz trage nur dazu bei, dass wir das Gefühl hätten, es gäbe noch mehr für uns zu tun: "So laufen wir Gefahr, auszubrennen." Wenn unsere Aufmerksamkeit zu sehr fragmentiert sei, könnten die Menschen anfangen, schlechte Entscheidungen zu treffen.
Aufmerksamkeit teilen?
Einige Unternehmen setzen Grenzen für die Anzahl der Projekte, mit denen sich Mitarbeiter gleichzeitig beschäftigen können. "Jeder ist um seine Karriere besorgt, und niemand ist sich wirklich sicher, was für seine Leistungsbewertung ausschlaggebend sein wird. Daher versuchen die Leute, mehr Aufgaben zu übernehmen."
Die Lösung bestehe nach Meinung von Woolley darin, dass Unternehmen klare Ziele und Leistungskriterien festlegen. Sie wollen eine explosionsartige Zunahme von Projekten, Initiativen und Teams unterbinden, die keinen Mehrwert schaffen, sondern nur Arbeit verursachen. "Vor allem in einer verteilten Umgebung ist es wichtiger denn je, von Besprechungen wegzukommen, die nur dazu da sind, zu zeigen, dass man arbeitet."
Tools beschränken
Hinzu kommt: Jedes der vielen neuen KI-Tools erfordert eine gewisse Zeit, bis es tatsächlich einen Nutzen bringt. Woolley empfiehlt Unternehmen, sich auf eine Anzahl von Tools zu beschränken, die sie benötigen, um ihre Aufgaben zu erledigen. Zudem sollten sie einen Prozess zum Testen und Bewerten neuer KI-Systeme einrichten, um Mitarbeiter nicht von der eigentlichen Arbeit abzuhalten.
Auch sei es empfehlenswert, wenn die Mitarbeitenden über ein gewisses Maß an persönlicher Autonomie verfügen. "Gibt es geprüfte Tools, mit denen ich nach eigenem Ermessen probieren und dadurch meine Arbeit besser erledigen kann - großartig!"
Halluzinationen und Ungenauigkeiten
Laut der oben erwähnten Slack-Umfrage sagen nur sieben Prozent der Büroarbeiter, dass KI-Ergebnisse für ihre Aufgaben völlig vertrauenswürdig sind. Mehr als ein Drittel gibt an, dass KI-Ergebnisse nur wenig oder gar nicht vertrauenswürdig sind.
In einer aktuellen Studie von Forschern der Cornell University und weiterer Institute wurde festgestellt, dass selbst die leistungsstärksten KI-Modelle nur in einem Drittel der Fälle völlig korrekte Antworten geben konnten.