Offenbar ist es in der IT nicht anders als in der Gesamtwirtschaft und der Politik. In Krisenzeiten rücken alle zusammen, sind bereit, an einem Strang zu ziehen und diszipliniert Sanierungsmaßnahmen umzusetzen. Kaum zieht jedoch die Konjunktur an, macht wieder jeder, was er will. Noch vor einem halben Jahr zählte "Standardisierung" bei 75 Prozent der CIOs zu den drei wichtigsten Themen. Heute müssen wir beobachten, dass dieses Ziel wieder sukzessive nach unten rutscht.
Die Ursache: Anstrengungen zur Standardisierung werden primär aus Kostenerwägungen vorangetrieben. In Zeiten knapper Budgets genießen sie hohe Priorität. Doch kaum lässt der Kostendruck nach, werden sie rasch vernachlässigt. Das ist durchaus nachvollziehbar: Unternehmen sehen wieder die Chance, mehr Umsatz zu generieren, und wollen schnell agieren. Das Ziel "Time-to-Market" rückt in den Vordergrund. Das Business kann mehr Projekte initiieren, die auch verstärkt genehmigt werden.
Dabei werden leider die alten Fehler wiederholt. Die Fachseite begreift Standardisierung eher als Hindernis zu diesem Ziel und versucht, sie mit altbekannten, aber immer noch wirksamen Argumenten abzuwehren: Das eigene Geschäft sei nun mal ganz speziell und nicht mit Standardlösungen zu bewältigen. Deshalb sei es keinesfalls mit anderen Unternehmen - und schon gar nicht mit anderen Branchen - vergleichbar. Als Folge werden immer wieder kurzfristige Lösungen realisiert, die nicht in ein Gesamtkonzept integriert sind, dann aber lange Bestand haben.
Zum Beispiel wurde so manche schnell gestrickte Kontaktdatenbank, die anfangs nur als Provisorium gedacht war, immer weiter ausgebaut - bis schließlich das gesamte Marketing auf einem halbgaren Konzept basierte. Auf diese Weise wird der Optimierungsbedarf der nächsten Jahre von Beginn an implementiert.
Auch werden die Anforderungen der Fachseite oft nicht hinreichend abgestimmt: Ein Bereich verlangt Servicezeiten bis 18 Uhr, ein anderer bis 20 Uhr, die gewünschte Systemverfügbarkeit variiert ebenfalls - und die IT muss auf diese individuellen Wünsche eingehen.
Das alles erhöht die Komplexität (damit die Kosten) und schränkt die Flexibilität ein. Zudem gibt es oft keine klare Abgrenzung der Zuständigkeiten, so dass die Business-Seite letztendlich der IT die vermeintlich richtigen technischen Lösungen und Applikationen vorschreibt.
Diese Vorgaben erweisen sich als Komplexitätstreiber. Sie sind neben dem wachsenden Volumen die wesentliche Ursache dafür, dass die IT-Gesamtkosten in den letzten Jahren stetig gestiegen sind - trotz sinkender Stückkosten infolge effizienterer Informationstechnik (siehe Grafik 1).
Standardisierung als strategisches Ziel begreifen
Stehen Standard und Wachstum tatsächlich im Widerspruch? Die Antwort: Das muss keineswegs so sein, eine Standardisierung kann durchaus auch in Wachstumsphasen vorangetrieben werden. Die Voraussetzung ist allerdings ein neuer Ansatz, eine Wende im Denken: dass die Verantwortlichen sie nicht allein unter Kostenaspekten betrachten, sondern sie als strategisches Ziel begreifen.
Zunächst sollten sich Unternehmensleitungen und Business vergegenwärtigen, dass eine Standardisierung allen Bereichen Vorteile bringt. Infolge größerer Skaleneffekte sinken die Kosten der Infrastruktur. Effizienz und Flexibilität nehmen zu, denn bei klaren Schnittstellen und sauberer Abgrenzung zwischen den Systemen lassen sich diese bei Änderungen leichter und schneller anpassen. Der Aufwand für Support verringert sich; zum Beispiel wird beim Problem Management die Fehlerbehebung einfacher, ebenso das Testen und der Rollout neuer Software.
Die so entstandenen Freiräume erlauben es, Mittel anderweitig zu verwenden. Die IT kann bei unveränderten Budgets die Fachseite besser unterstützen. Vielfach ist eine Standardisierung auch Voraussetzung, um überhaupt neue technische Lösungen einzuführen, die dem Business wesentlich mehr Flexibilität verschaffen. So ist das Thema "Cloud Computing" bei Entscheidungsträgern mittlerweile an die erste Stelle der Themenagenda gerückt.
Vielen ist vermutlich gar nicht bewusst, dass diese Technik - wie auch das ebenfalls stark diskutierte SaaS - eine Standardisierung voraussetzt. Wenn Applikationen und Strukturen nicht portabel, wenn Business-Prozesse nicht an Standards angepasst sind, werden beide Konzepte nicht erfolgreich sein.
Automobil-Industrie verbindet Individualität und Standards
Auch Individualität muss kein Widerspruch zu Standards bilden. Betrachten wir die Autoindustrie, die schon früh viele Trends eingeführt hat, die die IT später kopierte. Man denke nur an das Thema Outsourcing, das sie lange vorwegnahm, indem sie große Teile ihrer Produktion an Zulieferer delegierte. Sie demonstriert seit geraumer Zeit, wie sich mit Standardplattformen, bei denen viele Komponenten wiederverwendet werden, eine große Zahl individueller Lösungen und damit eine beachtliche Modellvielfalt realisieren lässt.
Auch hiervon kann die IT lernen. Das betrifft nicht nur die Infrastruktur. Auch individuelle Softwarelösungen lassen sich - etwa auf der Basis von SOA - aus standardisierten, wieder verwendbaren Funktionsmodulen zusammensetzen.
Die zahlreichen Rückrufaktionen in der Autoindustrie zeigen allerdings zugleich: Treten in einer einzigen Komponente Fehler auf, zieht sich dieser durch die ganze Produktpalette. Deshalb müssen Planung, Design, Qualitätssicherung, Überwachung und Management wesentlich höheren Anforderungen genügen als bisher. Individualität ist also kein Argument gegen die Standardisierung, sondern lediglich gegen Konzeptionslosigkeit.
Lasst die IT endlich "von der Leine"
90 Prozent der IT sind identisch. Rechner und Server funktionieren unabhängig davon, welche Applikationen darauf laufen. Das Storage-Equipment hängt nicht davon ab, welche Daten darin gespeichert sind. Auch die Anforderungen an Sicherheit, Verfügbarkeit, Ausfallsicherheit, Desaster-Recovery, Reaktions- und Antwortzeiten sind in vielen Branchen vergleichbar (und deshalb auch adaptierbar).
Ob beispielsweise Bankschalter, Airline-Schalter oder Call-Center - die Anforderungen an die Verfügbarkeit sind weitgehend identisch. Insbesondere Verwaltungsarbeitsplätze im Backoffice-Bereich unterscheiden sich kaum, ob sie nun in Chemieunternehmen, bei Automobilherstellern oder in Banken angesiedelt sind.
Die IT könnte unter diesen Voraussetzungen ihre Produktion wesentlich stärker optimieren als bisher. Unternehmensleitung und Fachbereiche müssen ihr allerdings erlauben, Kosten und Qualität optimal zu erbringen - sie müssen sie endlich "von der Leine lassen".
Insbesondere muss die IT von den zahlreichen Einschränkungen befreit werden, die häufig als "Rahmenbedingungen" vermeintlich unabdingbar vorgegeben sind. Dazu ist ein neues Verständnis von Optimierung erforderlich.
Der klassische Optimierungsansatz akzeptiert die vielfältigen Einschränkungen der IT wie etwa historische Investitionen, vertragliche Bindungen und kundenspezifische Wünsche (siehe Grafiken 2 und 3). Die möglichen Veränderungen beschränken sich auf den verbliebenen Sektor. Benchmarks vergleichen das Unternehmen nur innerhalb der Branche. Damit ist heute noch eine Optimierung bis maximal 20 Prozent möglich.
Notwendig ist ein neuer Ansatz, der diese vermeintlich fixen Rahmenbedingungen aufbricht, sie erst einmal in Frage stellt. Er setzt das Ziel an den Anfang - und unternimmt alle Maßnahmen, um es zu erreichen, wobei er sich auch an anderen Branchen orientiert (siehe das Beispiel Automobilindustrie). Mit diesem Ansatz lässt sich auch unter heutigen Bedingungen ein Optimierungspotenzial von 40 bis 50 Prozent heben.
Restriktionen ohne Tabus in Frage stellen
Die wichtigste Voraussetzung ist, dass Auftraggeber und Berater zunächst die erforderliche Distanz schaffen, um wirklich frei prüfen zu können:
-
Was sind die generellen Anforderungen des Unternehmens an die IT?
-
Wo führt die heutige Struktur zu ineffizienten Prozessen?
-
Welche Rahmenbedingungen sind lediglich historisch oder vertraglich bedingt?
Besonders bei Outsourcing-Projekten besteht eine Vielzahl solcher "Erblasten", etwa in Form alter Investitionen (beispielsweise ein Rechenzentrum in einem eigens dafür errichteten Gebäude, das unbedingt weiter genutzt werden soll), überzogenen Haftungsregelungen oder durch Arbeitsverträge und Organisationsstrukturen: Mitarbeiter arbeiten in bestimmten Abteilungen und können (angeblich) nicht anderswo beschäftigt werden.
Dem stellen sie gegenüber: Welche Fortschritte brächte eine von solchen Erwägungen unbeeinflusste Standardarchitektur? Die Erfahrung zeigt: Werden die tatsächlich unternehmensspezifischen Vorgaben konsequent eingegrenzt, ist ihr Anteil selten größer als zehn Prozent. Für den Rest können die Verantwortlichen bedenkenlos eine Standardisierung anstreben.
Diese Transparenz ist der Anfang einer neuen Optimierungsstrategie. Der nächste Schritt ist dann eine sorgfältige Konzeption und Planung. Die IT-Landschaft der Zukunft wird entworfen. Die Kunst besteht darin, konsequent die Komplexitätstreiber zu reduzieren, dabei mögliche künftige Anforderungen zu antizipieren und in das Design einzubeziehen. Neue Investitionen müssen in diese Architektur passen.
Heute betreiben viele Unternehmen noch immer parallel verschiedene Desktop-Systeme: Windows XP, Windows Vista, Windows 7 und andere. Die IT ist dabei oft gebunden, weil die Fachbereiche bestimmte Applikationen fordern, die wiederum nur auf bestimmten Systemen laufen. Auch bei den Arbeitsplatzsystemen ist die Vielfalt hoch: Spezielle Anwendungen, verschiedene Monitorgrößen oder besondere Drucker sind beispielsweise häufig anzutreffen.
Zwei Beispiele aus der Praxis sollen dies illustrieren: Bei einem großen Unternehmen durften die Anwender aus 17 verschiedenen Hardware-Konfigurationen wählen, in einem anderen waren 300 verschiedene Desktop-Anwendungen im Einsatz. Besonders nach Mergern ist die Infrastruktur in der Regel äußerst heterogen. Auch beim Thema PDA wird oft unterschiedlichen Wünschen Rechnung getragen.
Ziel: Komponenten müssen sich der IT-Architektur unterordnen
All diese Entscheidungen werden jetzt umgekehrt: Die IT-Architektur wird - auch mit Blick auf künftige Anforderungen - entworfen, und neue Komponenten müssen sich einordnen. Dieser Ansatz ist leichter durchzuhalten, wenn er von Governance-Strukturen abgesichert wird.
Unterstützt von der Unternehmensleitung, sollten Fachbereiche und IT in gemeinsamen Gremien die individuellen von standardisierbaren Anforderungen abgrenzen, sich auf die neue Architektur verständigen und sich verpflichten, künftige Investitionen nur in diesem Rahmen zu tätigen.
Manchmal sind zentrale Vorgaben nicht möglich. So greifen etwa im Versicherungsumfeld neben den eigenen Mitarbeitern oft auch Makler, die auch für andere Unternehmen arbeiten, auf die IT-Systeme zu; Kunden nutzen einen Internetzugang für Self-Service-Funktionen und den Informationsaustausch. Hier werden sich heterogene Anwenderplattformen kaum ausschließen lassen.
Umso wichtiger ist dann eine offene Architektur. Sie muss gewährleisten, dass nicht jede Plattform eine eigene Applikation benötigt, sondern verschiedene Frontends auf die gleichen Fachapplikationen zugreifen können.
Standardisierung verändert auch das Outsourcing
Die neue Optimierungsstrategie wird auch das Outsourcing verändern. Bei der Auswahl des Dienstleisters sollte der Kunde darauf achten, dass dessen Delivery-Modell optimal zu seinen eigenen Anforderungen passt.
Wenn er versucht, dessen vorhandenen Prozesse und Strukturen zu "verbiegen" und den eigenen Anforderungen anzupassen, wird meist das Ziel verfehlt. Beispielsweise hatte ein Dienstleister die IT eines Logistikunternehmens übernommen. Bedingung war, dass dessen bisherigen Strukturen beibehalten wurden. Das Ergebnis: Das Outsourcing brachte kaum Synergie-Effekte.
Der Kunde kann bereits den Ausschreibungsunterlagen einen Fragenkatalog beifügen, in dem der Dienstleister erklären muss, wie er die angebotenen Services liefern wird. Im Dialog sollte dann geklärt werden:
-
Welche Standard-Delivery-Prozesse hat der Service Provider?
-
Was sind Standard-SLA-Klassen?
-
Wie sehen die Schnittstellen und Abgrenzungen in den Gewerken aus?
-
Wie würde der Dienstleister die Gewerke liefern: welche davon onsite oder offsite, welche Strukturen hat er aufgebaut, wo betreibt er Call Center?
Zusammen mit dem Angebot für die ausgeschriebenen Services unterbreitet der Service Provider zugleich Vorschläge, wie sie optimal zu seinem Standard-Delivery-Modell passen und welche Preisreduktion damit verbunden wäre. Der Kunde entscheidet dann, was ihm diese Kongruenz wert ist, und wählt danach den Outsourcing-Partner aus.
Strukturen an Standard des Dienstleisters anpassen
Die zweite Option: Der Kunde nutzt das Outsourcing als Gelegenheit, um eigene Strukturen an den Standard des Dienstleisters anzupassen. Auch diese Strategie kann funktionieren. Sie erfordert aber die klare Verpflichtung des Kundenmanagements, diesen Weg auch konsequent einzuhalten - so-wohl auf der Business- als auch der IT-Seite des Auftraggebers.
Jörg Hild ist Geschäftsführer der Compass Deutschland GmbH.