Der CIO wird zum Leiter der IT-Fabrik. In der IT-Fabrik werden auf vollautomatisierten Produktionsstraßen vordefinierte Services nach einem unternehmensweiten Standard produziert und automatisch in den Betrieb übergeben. Die für die Serviceproduktion benötigten Einzelteile (Teilservices) können dabei selbst produziert und verbaut oder durch einen Dritthersteller beigesteuert werden. Die Dritthersteller in diesem Bild sind die externen Cloud Service Provider.
Sie bieten vorkonfektionierte Services mit klar definierten Schnittstellen, Kosten und Betriebsmodellen an, die eindeutig mit SLAs (Service Level Agreements) abgesichert sind. Der CIO muss also zum Service Orchestrator werden, der anhand der Business-Anforderungen bestimmt, welche Services wie, wo und in welcher Qualität bezogen werden. Dabei trägt er die Verantwortung dafür, dass die unterschiedlichen Services, egal, wo sie im Endeffekt betrieben werden, sicher laufen und untereinander effizient kommunizieren können.
IT muss sich um 180 Grad wandeln
Um dies zu bewerkstelligen, muss sich die IT um 180 Grad wandeln. Hierbei kann nicht immer der Greenfield-Approach genutzt werden, bei dem die neue IT die alte Umgebung komplett ersetzt. Es muss präzise zwischen bestehenden und neuen Services unterschieden werden. Dabei ist es einfacher, die neuen Services mit Hilfe neuer Technologien bereitzustellen und zu betreiben, als die alten. Denn sie lassen sich von Anfang an agil konzipieren und voll automatisch betreiben und überwachen. Um diese neue IT aufzusetzen, muss der CIO konsequent auf eine Standardisierung der vorhandenen Services und Infrastrukturen setzen. Dies bildet die Basis für den Weg in die Cloud.
Das Software Defined Data Center
Im nächsten Schritt muss die Virtualisierung auf allen Ebenen weiter vorangetrieben werden. Hierbei sollten neben der Server-Virtualisierung auch der Storage und das Netzwerk komplett von der Hardware entkoppelt werden. Dies erlaubt es, alle verfügbaren Ressourcen flexibel über Software provisionieren und steuern zu können. Software Defined Data Center (SDDC) ist hier das Schlagwort. Ein SDDC ermöglicht eine feingranulare Aufteilung der verfügbaren physischen Ressourcen und somit eine anforderungsgerechte Zuweisung und Verrechnung von Ressourcen auf Services. Dies hilft dem CIO, die Kosten verursachergerecht auf die Fachabteilungen umzulegen und somit transparent und vergleichbar zu Cloud-basierten Diensten zu werden.
Ein weiterer großer Vorteil einer komplett Software-basierten RZ-Umgebung ist es, dass aufbauend auf die bereits definierten Standards für Betriebssysteme, Middlewares und Applikationen alle Prozesse von der Erstellung einer neuen virtuellen Maschine (VM), über die Zuweisung der benötigten Ressourcen wie CPU, RAM und Festplatte auch direkt die gesamte Integration in das Netzwerk voll automatisiert werden können.
Die Automatisierung hört aber hier nicht auf. Den größten Vorteil bringt die Automatisierung von wichtigen Prozessen während der eigentlichen Laufzeit eines Services. Hierzu zählen das Patch Management, das Incident Management, das Change Management, das Backup und Restore und natürlich der Prozess, um den Service geregelt außer Betrieb zu nehmen. Hierfür wird nicht nur ein SDDC benötigt, sondern auch ein präzise aufgesetztes und betriebenes Service Management mit eindeutig definierten Services, Verantwortlichkeiten und Prozessen. Das SDDC bildet aber eine optimale Grundlage für einen vollautomatisierten IT-Betrieb.
Nächster Schritt Hyperconverged Systems
Der nächste Trend lautet Hyperconverged Systems und treibt den Gedanken des SDDCs noch weiter. Hyperconverged Systems sind betriebsfertige Hardware- und Software-Systeme, die sich sehr schnell in den Betrieb überführen lassen. Sie beinhalten neben allen für den Betrieb benötigten Ressourcen wie RAM, CPU, Festplatten und Netzwerk-Konnektoren auch direkt einen vorinstallierten Hypervisor für die Virtualisierung und bereits ein komplettes Monitoring. Außerdem liefern sie eine vollintegrierte Automatisierungslösung, die zum Beispiel über einen zentralen Orchestrierer angesprochen werden kann.
Somit kann die IT bedarfsgerecht wachsen, da zusätzliche Systeme nach dem Kauf einfach dem bestehenden System hinzugefügt werden können und alle weiteren Konfigurationen vom System automatisch durchgeführt werden. Die neuen Ressourcen stehen sofort bereit und die vorhandenen VMs können automatisch auf der neuen Hardware betrieben werden.
Interne Dienste auslagern und externe Services integrieren
Nachdem sich das interne Rechenzentrum Schritt für Schritt als interner (Cloud-) Service Provider aufgestellt hat, kann in einem nächsten Schritt damit begonnen werden, interne Dienste in die Cloud auszulagern oder externe Dienste in den lokalen IT-Stack zu integrieren. Dazu müssen CIOs erneut umdenken, da neue, teilweise weniger im Fokus stehende Themen in den Vordergrund rücken: Welche Schnittstellen stehen zur Verfügung? Dies ist ein wichtiges Thema, da externe Cloud-Services über klar definierte Schnittstellen angeboten werden.
Diese Schnittstellen müssen in die lokale IT eingebunden werden. Ist dies nicht möglich oder gewollt, bleibt nur die Suche nach einem weiteren Anbieter oder die Möglichkeit, den Service doch intern zu betrieben, da die Cloud-Service-Provider ihre Schnittstellen nicht für einen einzelnen Kunden anpassen werden.
Zugriffsrechte regeln
Wie ist also sichergestellt, dass nur berechtigte Nutzer die Services nutzen können? Dies kann nur mit einem eindeutig definierten Access Management durchgesetzt werden. Es sollte so konfigurierbar sein, dass es Zugriffsrechte nicht nur für intern erbrachte Services auf Gruppen-, Rollen- und auch auf Personenebene verwalten kann, sondern auch Zugriffe auf externe Cloud-Services. Auch der Umgang mit Daten sollte hier feingranular konfigurierbar sein, da ansonsten interne Firmendaten auf externen Servern abgelegt und verarbeitet werden könnten.
Zentrales End-to-End-Monitoring wichtig
Wie überwacht der CIO nun die interne und externe IT ganzheitlich? Hierfür sollte ein zentrales End-to-End-Monitoring eingesetzt werden, das nicht nur die interne IT mit ihrer Hardware und den darauf betriebenen Services überwacht, sondern auch externe Service-Provider und ihre Services über die angebotenen Schnittstellen überwacht.
Change-Management wird oft vergessen
Eine oft unterschätzte oder gar vergessene Herausforderung ist das interne Change-Management. Denn es ist die Aufgabe des CIOs, seine Mitarbeiter in dem hier beschriebenen Veränderungsprozess mitzunehmen, ihnen die Vorteile aufzuzeigen und ihnen die Ängste vor einer Rationalisierung zu nehmen. Außerdem muss das Silodenken der Mitarbeiter in ein Service-orientiertes Denken überführt werden, das zum Ziel hat, einen optimalen Service über präzise definierte Schnittstellen bereitzustellen.
Fazit
All dies liegt heute in der Verantwortung des CIOs. Er hat es in der Hand, das Unternehmen zukunftsweisend auszurichten. Dabei sollte die notwendige Veränderung nicht singulär gesehen werden, sondern ein permanenter Bestandteil der IT-Strategie sein. Die Firmenziele müssen in einem permanenten Prozess an den Kundenbedürfnissen gemessen und die technologischen Rahmenbedingungen geschaffen werden, die eine optimale Positionierung am Markt ermöglichen. Dazu sollte, wie in ITIL gefordert, ein kontinuierlicher Verbesserungsprozess eingeführt werden. Das Ziel muss also eine Lean-IT sein, die sich agil am Kunden ausrichtet und mit den Bedürfnissen wachsen kann.
Der CIO von morgen darf sich also nicht länger als reinen Verwalter von IT-Systemen definieren, sondern sich als zentralen Innovator positionieren, dessen Aufgabe darin besteht, aus intern produzierten Services mit Hilfe von Cloud-Angeboten einen optimalen Business-Service anzubieten. Dazu muss er zum Dirigenten eines großen Service-Orchesters werden, der es schafft, die Begeisterung für die neuen Möglichkeiten an die Geschäftsführung und an seine Mitarbeiter zu übertragen. Nur so ergibt sich im Zusammenspiel eine Symphonie, die das Geschäft in eine sichere Zukunft führt.