Die Cloud managen
Wie sich CIOs künftig definieren müssen
- Services und Infrastrukturen müssen konsequent standardisiert werden, das ist die Basis für den Weg in die Cloud
- Die IT muss ein Software Defined Data Center (SDDC) schaffen und in einem weiteren Schritt Hyperconverged Systems einführen
- Wenn das Rechenzentrum wie ein interner Cloud-Provider aufgestellt ist, kann man interne Dienste in die Cloud auszulagern oder externe Dienste in den lokalen IT-Stack zu integrieren
- Der CIOs muss das unterschätzte Change Management selbst in die Hand nehmen, um Mitarbeitern die Ängste vor den Veränderungen zu nehmen
Der CIO wird zum Leiter der IT-Fabrik. In der IT-Fabrik werden auf vollautomatisierten Produktionsstraßen vordefinierte Services nach einem unternehmensweiten Standard produziert und automatisch in den Betrieb übergeben. Die für die Serviceproduktion benötigten Einzelteile (Teilservices) können dabei selbst produziert und verbaut oder durch einen Dritthersteller beigesteuert werden. Die Dritthersteller in diesem Bild sind die externen Cloud Service Provider.
Sie bieten vorkonfektionierte Services mit klar definierten Schnittstellen, Kosten und Betriebsmodellen an, die eindeutig mit SLAs (Service Level Agreements) abgesichert sind. Der CIO muss also zum Service Orchestrator werden, der anhand der Business-Anforderungen bestimmt, welche Services wie, wo und in welcher Qualität bezogen werden. Dabei trägt er die Verantwortung dafür, dass die unterschiedlichen Services, egal, wo sie im Endeffekt betrieben werden, sicher laufen und untereinander effizient kommunizieren können.
- Der Cloud-Readiness-Check
Bevor sich CIO und die IT-Abteilung für eine Cloud-Lösung entscheiden, muss sie unter speziellen Gesichtspunkten wie Strategie, Prozesse, Organisation, Technik und Sicherheit genau unter die Lupe genommen werden. - 1. Cloud-Integration prüfen
Im ersten Schritt gilt es zu prüfen, wie sich eine potenzielle Cloud-Lösung in die bereits bestehende IT-Infrastruktur, das Finanz-Management sowie Multivendor-fähige Prozesse einfügt. - 2. Mitarbeiter-Skills verbessern
Mit der Frage nach einer Cloud-Anwendung geht auch die Frage einher, ob Mitarbeiter-Skills auf- oder ausgebaut werden müssen, und ob ein Wandel in der Unternehmenskultur erfolgen sollte. - 3. IT-Kapazitäten ausloten
Im Vorfeld muss vom technologischen Standpunkt aus unbedingt Augenmerk auf Zugriffsmöglichkeiten, abgesicherte Anbindungen sowie auf Kapazitäten und Varianzen der benötigten Rechenleistung gelegt werden. - 4. Rechtliche Aspekte abklären
Der rechtliche Aspekt ist ein wesentlicher und nicht zu vergessender Analysepunkt. Er sollte klare Antworten auf die Fragen nach der Absicherung von Service-Level-Agreements, die Sicherheit vor der Deaktivierung der Cloud-Dienste durch den Anbieter sowie über ausländische Vertragsstrukturen geben. - 5. Transparenz sicherstellen
Wer Cloud-Lösungen anstrebt, muss bereits im Vorfeld die Transparenz hinsichtlich der Speicherungsorte und der Sicherheit in der Datenverarbeitung untersuchen und einfordern.
IT muss sich um 180 Grad wandeln
Um dies zu bewerkstelligen, muss sich die IT um 180 Grad wandeln. Hierbei kann nicht immer der Greenfield-Approach genutzt werden, bei dem die neue IT die alte Umgebung komplett ersetzt. Es muss präzise zwischen bestehenden und neuen Services unterschieden werden. Dabei ist es einfacher, die neuen Services mit Hilfe neuer Technologien bereitzustellen und zu betreiben, als die alten. Denn sie lassen sich von Anfang an agil konzipieren und voll automatisch betreiben und überwachen. Um diese neue IT aufzusetzen, muss der CIO konsequent auf eine StandardisierungStandardisierung der vorhandenen Services und Infrastrukturen setzen. Dies bildet die Basis für den Weg in die Cloud. Alles zu Standardisierung auf CIO.de
Das Software Defined Data Center
Im nächsten Schritt muss die Virtualisierung auf allen Ebenen weiter vorangetrieben werden. Hierbei sollten neben der Server-Virtualisierung auch der Storage und das Netzwerk komplett von der Hardware entkoppelt werden. Dies erlaubt es, alle verfügbaren Ressourcen flexibel über Software provisionieren und steuern zu können. Software Defined Data Center (SDDC) ist hier das Schlagwort. Ein SDDC ermöglicht eine feingranulare Aufteilung der verfügbaren physischen Ressourcen und somit eine anforderungsgerechte Zuweisung und Verrechnung von Ressourcen auf Services. Dies hilft dem CIO, die Kosten verursachergerecht auf die Fachabteilungen umzulegen und somit transparent und vergleichbar zu Cloud-basierten Diensten zu werden.
- Hans Schramm, Field Product Manager Enterprise, Dell
"Es ist sicherlich unumstritten, dass Software heute eine tragende Rolle bei allen Storage-Themen spielt, das wird sich zukünftig weiter verstärken." - Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Die Storage-Hardware besteht bei EMC schon heute fast ausschließlich aus Commodity Komponenten. Selbst die High-End Speichersysteme wie EMC VMAX oder Scale-Out-NAS Islilon Systeme bestehen mit wenigen Ausnahmen vollständig aus Commodity Komponenten." - Robert Guzek, Senior Alliance Manager CE FTS CE ISS Market Operations, Fujitsu Technology Solutions
"Nur wenn die Hardware selbst über eine gewisse Intelligenz verfügt, ist sie in der Lage, unmittelbar zu reagieren und die erwünschten kurzen Antwortzeiten zu liefern. Die Hardware muss in Zukunft deshalb eher an Intelligenz gewinnen, sie muss sich selbst besser verwalten und sich flexibler an die Geschäftsprozesse und betrieblichen Anforderungen anpassen können." - Thomas Meier, Chief Technologist Storage, Hewlett-Packard
"Das Software Defined Data Center ist bei HP bereits Realität: Die Cloud-Management-Lösung Cloud Service Automation, das offene Cloud-Betriebssystem Cloud OS sowie Lösungen für Software Defined Networking und Software Defined Storage sind bereits Bestandteil von HPs Portfolio für das Rechenzentrum der Zukunft.“ - Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
"Hardware wird im professionellen Umfeld auf absehbare Zeit mehr sein als bloße Commodity. Das gilt für 2014 und auch noch darüber hinaus." - Michael Achtelik, Storage Business Leader DACH, IBM Deutschland
"Bei der Umsetzung der Konzepte rund um den Begriff Software Defined Data Center engagiert sich IBM sehr stark. IBM verfolgt hier einen eher noch umfassenderen Ansatz als SDDC und hat hierzu den Begriff Software Defined Environments (SDE) geprägt.“ - Johannes Wagmüller, Director Systems Engineering, NetApp
"Commodity-Hardware mag für Betreiber wie Amazon AWS und Google eine Option darstellen, da sie mit eigenen Entwicklungsabteilungen für Integration und Qualitätssicherung sorgen. Im Enterprise- und KMU-Markt, wo diese mächtigen Entwicklungs-Ressourcen nicht zur Verfügung stehen, wird weiterhin auf die Betriebssicherheit von Enterprise Speichersystemen Wert gelegt werden." - Vincenzo Matteo, Disk Product Management Director, Oracle
"Wir halten Software Defined Storage aufgrund der verdeckten Kosten für kein wirklich vorteilhaftes Konzept. Weil alle Integrations-, Prüfungs- und Wartungsaufgaben für das System vollständig auf den Anwender übergehen, erhöht sich der Aufwand in diesen Bereichen signifikant, die Ausgaben steigen deshalb gleichermaßen."
Ein weiterer großer Vorteil einer komplett Software-basierten RZ-Umgebung ist es, dass aufbauend auf die bereits definierten Standards für Betriebssysteme, Middlewares und Applikationen alle Prozesse von der Erstellung einer neuen virtuellen Maschine (VM), über die Zuweisung der benötigten Ressourcen wie CPU, RAM und Festplatte auch direkt die gesamte Integration in das Netzwerk voll automatisiert werden können.
Die Automatisierung hört aber hier nicht auf. Den größten Vorteil bringt die Automatisierung von wichtigen Prozessen während der eigentlichen Laufzeit eines Services. Hierzu zählen das Patch Management, das Incident Management, das Change Management, das Backup und Restore und natürlich der Prozess, um den Service geregelt außer Betrieb zu nehmen. Hierfür wird nicht nur ein SDDC benötigt, sondern auch ein präzise aufgesetztes und betriebenes Service Management mit eindeutig definierten Services, Verantwortlichkeiten und Prozessen. Das SDDC bildet aber eine optimale Grundlage für einen vollautomatisierten IT-Betrieb.
Nächster Schritt Hyperconverged Systems
Der nächste Trend lautet Hyperconverged Systems und treibt den Gedanken des SDDCs noch weiter. Hyperconverged Systems sind betriebsfertige Hardware- und Software-Systeme, die sich sehr schnell in den Betrieb überführen lassen. Sie beinhalten neben allen für den Betrieb benötigten Ressourcen wie RAM, CPU, Festplatten und Netzwerk-Konnektoren auch direkt einen vorinstallierten Hypervisor für die Virtualisierung und bereits ein komplettes Monitoring. Außerdem liefern sie eine vollintegrierte Automatisierungslösung, die zum Beispiel über einen zentralen Orchestrierer angesprochen werden kann.
Somit kann die IT bedarfsgerecht wachsen, da zusätzliche Systeme nach dem Kauf einfach dem bestehenden System hinzugefügt werden können und alle weiteren Konfigurationen vom System automatisch durchgeführt werden. Die neuen Ressourcen stehen sofort bereit und die vorhandenen VMs können automatisch auf der neuen Hardware betrieben werden.