Eine "Hitliste" der Managementmethoden (basierend auf einer weltweiten Umfrage unter Führungskräften) veröffentlichte der die Zeitschrift "Harvard Business Manager" vor einigen Wochen. Das Benchmarking - 1998 noch an zweiter Stelle - hat mittlerweile den Spitzenplatz erobert. Was hat diesen Erfolg begründet?
Mit kumulierten Erfahrungen den Wandel managen
Zuerst ist sicherlich der stetige Wandel des wirtschaftlichen Umfelds zu nennen. Bei neuen Herausforderungen helfen oft Analogien zu Erfahrungen in vergleichbaren Situationen. Mit Benchmarking lassen sich solche Erfahrungen kurzfristig kumulieren - und zwar in strukturierter Form.
Während herkömmliche Methoden zum Anstoß von Veränderungen häufig entweder an mangelnder Akzeptanz leiden (beim Top-down-Ansatz) oder in endlosen Diskussionen versanden (beim Bottom-up-Ansatz), bringt Benchmarking mit seinem Outside-Inside-Ansatz eine ganz neue Perspektive ein. Praktiken, die sich am Markt als die Besten bewährt haben, werden in Metamodellen - sozusagen kondensierten Erfahrungen - standardisiert.
Durch IT Benchmarking zu besserer IT Performance
|
Indem die erhobenen eigenen Daten auf diese Modelle abgebildet und so an den Werten passender Referenzgruppen gemessen werden können, erhält ein Unternehmen sehr schnell Indikatoren für einen Veränderungsbedarf: zum Beispiel deutliche Abweichungen bei der Personalstärke und dem Automatisierungsgrad eines Prozesses, den Kosten der Leistungserbringung oder der Fehlerquote.
Entscheidend ist, dass die Struktur des Benchmarks zugleich die Rahmen bildet, in denen die abgeleiteten Veränderungen vorgenommen werden. Da Maßnahmen nicht auf Meinungen oder dem berühmten "Bauchgefühl" basieren, sondern auf Tatsachen ("an-dere haben dieses Ziel bereits erreicht"), der Beweis also nicht erst am Schluss, sondern bereits am Anfang steht, wird die Akzeptanz erhöht. Viele Diskussionen ("Rechnet es sich? Bringt das was?") erübrigen sich.
Dadurch werden schnelle Ergebnisse erzielt. Und nicht zuletzt liegt der Charme der Methode darin, dass sie sich auf alle Situationen anwenden lässt: So können sich CIOs in einem noch unbekannten Umfeld - etwa beim Antritt einer neuen Position - zunächst einen generellen Überblick verschaffen und dann an den Schwachstellen per Drilldown tiefer nachforschen, aber ebenso bereits bekannte Probleme sofort gezielt angehen.
Die Zielsetzung hat sich umgekehrt
So sind wir beim zweiten Erfolgsfaktor angelangt: Damit IT-Benchmarking die Rolle als Katalysator rascher Veränderungen überhaupt einnehmen konnte, musste sich seine eigene Zielsetzung deutlich wandeln. Denn begonnen hat es eher als Instrument der Selbstbestätigung.
Nicht nur, aber insbesondere in Konzernbeziehungen wollten sich viele CIOs ursprünglich in erster Linie ein "TÜV-Gutachten" für ihre IT anfertigen lassen, das einen Freibrief für ihr bisheriges Handeln darstellen sollte. Argumente für Budgetanträge zu gewinnen oder zu zeigen, "dass wir uns mit unserer IT im marktüblichen Rahmen bewegen", war oft das Hauptmotiv, einen Benchmark durchzuführen. Daher wählte man meist Referenzgruppen aus der eigenen Branche, mit ähnlichen Herausforderungen - etwa den gleichen Standardapplikationen und Kundenstrukturen - und ähnlichen Lösungsansätzen. Maßstäbe, die zwar eine Einordnung der eigenen Leistung erlaubten, aber nicht unbedingt wirklich innovative Impulse mit sich brachten.
Noch vor fünf Jahren war in der Beratungspraxis in zwei Dritteln der Fälle eine solche Bestätigung das primäre Ziel. Heute hat sich das Verhältnis genau umgekehrt. Das Interesse von CIOs konzentriert sich darauf, tatsächlich aus kumulierten Markterfahrungen zu lernen, neue Ansätze zu erfahren, um die eigenen Prozesse und Strukturen zu verbessern und Veränderungen anzustoßen.
Damit hat das IT-Benchmarking sozusagen durch die Hintertür seine eigentliche Stärke entfaltet. Vor allem der zunehmende Druck auf die IT, sowohl ihre Effizienz in der Leistungserbringung als auch ihre Effektivität in den gesamten Geschäftsprozessen des Unternehmen zu steigern, lenkte nach und nach den Blick vom Bestätigungs- auf das Optimierungspotenzial eines Benchmarks - und damit vom Marktdurchschnitt auf die Spitzengruppe, das beste Quartil.
Was hatten diese Unternehmen anders gemacht, um sich so weit abzusetzen? Der reine Zahlenvergleich wurde ergänzt durch die Auswertung der Erfahrungen der Besten und die Übernahme von (auf das eigene Unternehmen abgestimmten) "Leading Practices" - mit dem Ziel, kurzfristig konkrete Maßnahmen anzustoßen und umzusetzen.
Diese Entwicklung brachte wiederum eine neue Herausforderung mit sich: War bei einer Selbstbestätigung die Motivation des eigenen Teams quasi automatisch Teil des Ergebnisses ("Wir sehen: wir müssen uns nicht verstecken"), so musste der CIO nun verkünden, dass das bisher Geleistete eben nicht ausreicht, sondern Neues gewagt werden muss. Damit diese Botschaft die eigene Mannschaft nicht frustriert, sondern anspornt, musste die Methodik weiterentwickelt werden: kontinuierliches Management und Monitoring aller Maßnahmen, die Präsentation der Erfolge auf verschiedenen Ebenen und eine intensivere Kommunikation.
Die neue Rolle als Initialzündung von Veränderungen erweiterte zugleich das Blickfeld. Übergreifende Benchmarks ergänzen Branchenvergleiche, neue Felder werden untersucht (was neue Modelle und eine erweiterte Methodik voraussetzt), und neben der IT werden zunehmend die Schnittstellen zu den angrenzenden Bereichen - Business und Dienstleister - einbezogen.
Innovative Impulse kommen oft aus anderen Branchen
Innerhalb derselben Branche liefert ein Marktvergleich erfolgreiche Praktiken und Zielwerte für typische Gesamtprozesse, etwa zum Grad der Automatisierung, Standardisierung und Zentralisierung oder zur Fertigungstiefe. Allerdings besteht auch die Gefahr, dass branchentypische Fehler oder blinde Flecken reproduziert werden. Zudem sind viele Innovationen - wie beispielsweise das E Banking im Finanzsektor - bereits Standard in der gesamten Branche.
Deshalb sind zusätzlich branchenübergreifende Vergleiche sinnvoll – sowohl innerhalb des gleichen Industrietyps (zum Beispiel Serien- oder Auftragsfertigung) als auch mit der Gesamtwirtschaft
(siehe Grafik 1).
Hier sind weniger konkrete Zielwerte zu erwarten als vielmehr Anregungen, wie sich Optimierungsstrategien zwischen Branchen transferieren lassen. Beispielsweise kann die IT bei der Projektabwicklung von großen Anlagenbauern lernen, wie Lieferanten zum richtigen Zeitpunkt eingesetzt werden; bei der Festlegung der Fertigungstiefe und Methoden der Softwareherstellung von der industriellen Produktion. Umgekehrt versuchen derzeit einige Unternehmen der Automobilindustrie, das gesamte Change Management beim Modellwechsel mit den in der IT entwickelten Methoden des Prozessreifegrades und des Benchmar-kings zu verbessern.
"Weiche" Faktoren rücken in den Vordergrund
Standen bei IT-Benchmarks früher vorwiegend quantitative "Hard Facts" wie Zahl der Mitarbeiter pro Server, notwendiger technischer Support pro Desktop usw. im Fokus, so sind es heute zunehmend qualitative, damit auch (vermeintlich) weichere Faktoren: Governance- und Organisations-Strukturen, Prozesse, Strategien und Skill-Profile (siehe Grafik 2).
So erkennen zum Beispiel immer mehr CIOs, welch entscheiden-den Einfluss der richtige Skill-Mix auf die Produktivität ihrer IT hat. Auch hier können sie von den Besten im Markt lernen: Nicht nur, wie viele Mitarbeiter in bestimmten Organisationseinheiten und Projekten typischerweise eingesetzt werden, sondern auch, welche Zusammensetzung in punkto Qualifikationslevel, Erfahrung, Spezialisten/Generalisten etc. die optimale Struktur ergibt, um qualitativ hochwertige Ergebnisse bei besten Kostenstrukturen zu erbringen (siehe Grafik 3).
Solche erweiterten Benchmarks sind möglich geworden, weil die Methodik ausgebaut wurde. Neben den ursprünglichen Hard-Fact-Modellen - etwa für Data Center - verfügen wir heute über neue Modelle, die es früher schlicht und einfach nicht gab. Dazu gehört zum Beispiel SFIA (Skills Framework for the Information Age). Es definiert in einer Matrix sieben Management- beziehungsweise Erfahrungs-Level sowie sechs Skill-Klassen, die wiederum in Sub-Kategorien aufgegliedert sind. Ihnen werden dann die einzelnen IT-Skills zugeordnet. So lassen sich unternehmensübergreifend Kompetenzprofile vergleichen.
Auch im Bereich der Prozesse wurden Modelle weiterentwickelt, etwa zum Messen der ITIL-Compliance, der Übereinstimmung von Geschäftszielen und IT-Prozessen (COBIT), der Prozessreife (CMMI) und andere. Durch Verfeinerung der Benchmark-Methode mit solchen Modellen können immer komplexere Felder untersucht und standardisiert verglichen werden.
Schnittstellen sind nicht mehr blinde Flecken
Nicht nur für die IT selbst, auch für die Business-Seite sind heute geeignete Modelle verfügbar. Aus IT-Sicht sind hierbei die früher weniger beachteten Schnittstellen zu angrenzenden Bereichen interessant. Benchmarks des Interfaces zum Business haben sich in den letzten zwei bis drei Jahren sehr stark entwickelt und werden heute bei über 80 Prozent der durchgeführten Untersuchungen betrachtet. Diese Schnittstelle ist insbesondere durch das Outsourcing in den Fokus geraten.
Dabei hat man erkannt, dass solche Benchmarks auch bei internen Kunden sinnvoll sind – insbesondere, wenn die Geschäftsseite überdimensionierte Anforderungen stellt. Servicelevel, Reaktionszeiten, maximale Ausfallzeiten etc. können den Aufwand enorm treiben. Die reine Effizienzsteigerung der IT-Prozesse bringt meist weit weniger Einsparmöglichkeiten als die Anpassung überhöhter Anforderungen. Und was am Markt üblich ist, stellt ein starkes Argument gegenüber dem Business dar. Dabei lässt sich auch gleich die Fertigungstiefe überprüfen. Erfahrungsgemäß hat ein Benchmark der Schnittstelle zwischen Business und IT ein Optimierungspotenzial von 20 bis 30 Prozent
Auch die Schnittstelle zu IT-Dienstleistern steht zunehmend im Fokus von Benchmarks. Trotz aller Standardisierung sind diese Leistungsbeziehungen deutlich komplexer als etwa der Kauf eines Servers oder Druckers, wo es meist genügt, das günstigste Angebot herauszusuchen. Bei Dienstleistern hingegen handelt es sich um langfristige Beziehungen, in der Regel drei bis fünf Jahre, oftmals auch darüber hinaus. In dieser Zeit braucht das Unternehmen Kontroll- und Justierungsmechanismen.
Zum einen gilt es, die Preisgestaltung vor dem Hintergrund der Marktentwicklung zu überprüfen. Jedes Jahr eine Ausschreibung durchzuführen, würde einen unvertretbaren Aufwand nach sich ziehen; ein Benchmark ist hier der sinnvollere Weg. Das Ziel - im Sinne einer fruchtbaren Kooperation - sollte dabei stets beiderseitige Zufriedenheit sein. Zum anderen erlaubt es ein Benchmark auch, durch das Betrachten und die Verbesserung der Schnittstellen weitere Optimierungspotenziale auf beiden Seiten zu heben.
Demand-Supply-Kette
Ansatzpunkte findet man in der gesamten Demand-Supply-Kette: dem Anforderungs- und Vertragsmanagement, der Abrechnung, dem Reporting und der Kommunikation. Überall kann man Daten erheben und diese mit Hilfe entsprechender Modelle vergleichen: wie viele Personen eingesetzt werden, welcher finanzielle Aufwand betrieben wird, welche Ergebnisse geliefert werden, wie oft Meetings stattfinden, wer teilnimmt, wie aktuell die Verträge sind, wie oft diese angepasst werden, ob sie überhaupt allen Betroffenen bekannt sind, wie sie in der täglichen Praxis gelebt werden, wie sich dieKundenzufriedenheit entwickelt und anderes mehr.
Keine andere Methode liefert heute so schnell und konkret Hinweise, wo etwas zu tun und wie es anzupacken ist. Ihre Einsatz-möglichkeiten sind durch stetige Weiterentwicklung immer breiter geworden. Das ist das eigentliche Erfolgsgeheimnis des Benchmarking.
Jörg Hild ist Geschäftsführer der Compass Deutschland GmbH.