CIO-Tipps aus der Praxis
Infrastructure as a Service - eine Herausforderung für den CIO
René Büst ist Research Director in Gartners Managed Business and Technology Services Team mit Hauptfokus auf Infrastructure Services & Digital Operations. Er analysiert Entwicklungen im Bereich Cloud Computing (Anbieter von Managed Cloud-Services und Public Cloud sowie Cloud-Strategien wie IaaS, PaaS und Multicloud), digitale Infrastrukturen und Managed Services sowie den Einfluss der digitalen Transformation auf die IT. Seit Mitte der 90er Jahre konzentriert sich Herr Büst auf den strategischen Einsatz der IT in Unternehmen und setzt sich mit deren Einfluss auf unsere Gesellschaft sowie disruptiven Technologien auseinander.
Beim Aufbau moderner IT-Infrastrukturen gelten Infrastructure-as-a-Service Umgebungen (IaaS) als gesetzter Standard. Sie bilden die notwendige Grundlage, um Unternehmensapplikationen zukunftsorientiert, skalierbar und ausfallsicher zu betreiben. Jedoch stellt sich die Frage, ob Entscheider dabei Kompromisse hinsichtlich Governance, Kontrolle und ComplianceCompliance eingehen müssen. Alles zu Compliance auf CIO.de
Infrastructure-as-a-Service in der Praxis
Infrastructure-as-a-Service (IaaS) ist der Wegbereiter des Cloud ComputingCloud Computing und bildet für eine Vielzahl von Web-Applikationen und Geschäftsmodellen die technische Basis. Per Definition stellen IaaS-Plattformen IT-Infrastruktur-Ressourcen wie Rechenleistung, Speicherplatz und Netzwerk bereit, die über eine API angesprochen und genutzt werden können, ohne vorab kapitalintensiv in entsprechende IT-Ressourcen zu investieren. Alles zu Cloud Computing auf CIO.de
Allerdings zeigt der Markt, dass es heute nicht mehr ausreicht, sich als IaaS-Anbieter lediglich auf diese reinen Infrastruktur-Ressourcen zu konzentrieren. Plattform-Services oder Microservices sind das Mittel der Wahl, um Marktanteile zu gewinnen. Da der Cloud-Markt mittlerweile eine hohe Reife erreicht hat, verschiebt sich der Kundenfokus von Early Adoptern wie Startups und Entwicklern immer mehr in Richtung der Unternehmensanwender im Mittelstand und in Großunternehmen.
Zu Beginn richteten Public-Cloud-Anbieter ihren Fokus primär auf Entwickler und stellten diesen eine Spielwiese auf Basis ihrer Infrastruktur-Plattform bereit. Der Zugriff auf die Plattform ist einfach und erfolgt über einen Self-Service unter der Angabe von Kreditkarteninformationen. Typischerweise profitieren Public IaaS-Anbieter von den "Economies of Scale", also Skaleneffekten, indem die Infrastruktur mit möglichst vielen Kunden ausgelastet wird, um darüber kostengünstig Infrastruktur-Ressourcen anzubieten. Der Haken: In diesem Fall ist es sehr schwierig, auf die speziellen Bedürfnisse einzelner Kunden einzugehen.
Auch besteht in diesem Modell ein Risiko, dass die Überbelegung durch virtuelle Maschinen die physikalischen Hosts der Public IaaS-Plattform negativ beeinflusst (Noisy Neighbors). Werden Ressourcen vorab also nicht fest geplant, kann es zu mangelhafter I/O-Performance kommen, wenn zu viele Applikationen auf der zugrundeliegenden physikalischen Maschine betrieben werden. Zudem sind in diesem Modell die gesamte Infrastruktur und das Service-Portfolio weitgehend standardisiert.
Enterprise-ready IaaS aus CIO-Perspektive
Die Planung moderner IT-Umgebungen stellt CIOs vor große Herausforderungen. Einerseits müssen sie ihre Applikationen mit skalierbaren und ausfallsicheren Infrastrukturen unterstützen. Andererseits dürfen sie dabei nicht die Kontrolle über ihre Daten und Systeme verlieren, um rechtliche Rahmenbedingungen und Compliance-Regelungen zu erfüllen.
Ausfallsicherheit: Kernvoraussetzung fürApplikationen auf IaaS-Umgegungen
Werden Enterprise Applikationen von einer On-Premise- oder dedizierten Umgebung auf eine IaaS-Umgebung verlagert, steht eines im Mittelpunkt: die Ausfallsicherheit. Hierbei spielt insbesondere die Stabilität und Geschwindigkeit der Infrastruktur, des Netzwerks sowie der Anbindung der Infrastruktur eine zentrale Rolle. Cloud-basierte Applikationen erfordern eine zuverlässige und vor allem stabile Konnektivität, um zu jeder Zeit einen Zugriff auf die Daten und Informationen zu gewährleisten.
Noch wichtiger wird es, wenn geschäftskritische Prozesse und Applikationen auf der IaaS- Umgebung betrieben werden. Eine hohe und konstante Performance der ServerServer und Infrastrukturen sowie eine geringe Latenz zwischen verschiedenen Standorten und gegenüber dem Kunden sind das A und O für einen modernen Infrastrukturbetrieb auf Enterprise-Niveau. Alles zu Server auf CIO.de
Grundsätzlich sind IaaS-Umgebungen (die Basis-Infrastruktur des Cloud-Anbieters) mittlerweile als ausfallsicher einzustufen. Allerdings hat der Kunde im Rahmen der Shared-Responsibility seine Hausaufgaben zu erledigen. Und dazu gehört es insbesondere, das "Design for Failure" zu berücksichtigen. Denn "everything fails, all the time", wie es Amazon-CTO Werner Vogels einmal ausdrückte. Das Design einer Cloud-Applikation muss den Regeln und Eigenschaften der IaaS-Umgebung folgen und die Hochverfügbarkeit berücksichtigen.
Hierbei muss grundsätzlich darauf geachtet werden, einen Single Point of Failure zu vermeiden und zu berücksichtigen, dass zu jedem Zeitpunkt etwas passieren kann. Das Ziel muss daher darin bestehen, dass eine Anwendung zu jederzeit funktioniert, auch dann, wenn die darunterliegende physikalische Infrastruktur des Anbieters in einen Fehlerzustand gerät. Die notwendigen Mittel und Services stehen dafür zur Verfügung.
Kontrolle: Management & Governance von Cloud-Umgebungen
Mit dem Auslagern der eigenen IT-Umgebung auf eine Cloud-Infrastruktur stellt sich parallel die Frage nach dem Erhalt des Kontroll-Levels. Im Vergleich zu einer On-Premise-Umgebung führt der Einsatz einer verteilten Cloud-Infrastruktur prinzipiell zu einer Verringerung des Einflussbereiches über die unterschiedlichen Ebenen, zum Beispiel im RechenzentrumRechenzentrum, auf physikalischen Infrastrukturen und in virtuellen Umgebungen. Dies führt automatisch zu Fragen in Bezug auf Compliance-Richtlinien, gesetzlichen Rahmenbedingungen und Datenschutzthemen. Besonders kritisch wird es, wenn unternehmensrelevante Vermögensgegenstände wie das geistige Eigentum und F&E-Daten ins Spiel kommen. Alles zu Rechenzentrum auf CIO.de
Eine weitere Herausforderung besteht im Management der IaaS-Umgebung und hier insbesondere bei der Zugriffskontrolle auf die Infrastruktur. Cloud-Umgebungen verschaffen Mitarbeitern deutlich mehr Freiheiten und Flexibilität, als sie es von typischen On-Premise-Infrastrukturen kennen. Auf der einen Seite erhalten Mitarbeiter dadurch Möglichkeiten agiler zu handeln, indem sie zum Beispiel Server nach Bedarf selbst starten können.
Auf der anderen Seite müssen sie selbstverantwortlicher agieren, um Daten nicht willkürlich verteilt zu speichern und nicht unnötige Kosten zu verursachen. Gut funktionierende interne Kontrollmechanismen verlieren somit auch in der Cloud nicht an Bedeutung. Im Gegenteil, ein kontrollierter Zugriff in Verbindung mit einem Self-Service ermöglicht die Einhaltung von Governance-Richtlinien und bietet Mitarbeitern gleichzeitig mehr Freiheit und Auswahl.
An dieser Stelle zeigt sich, dass die beiden führenden Public Cloud Anbieter AmazonAmazon Web Services (AWS) und MicrosoftMicrosoft Azure ihre Hausaufgaben gemacht haben, um Unternehmen mit Platform-Services wie AWS "CloudTrail" oder Azure "Log Analytics" zu unterstützen. Aus dieser Perspektive betrachtet ist die GoogleGoogle Cloud Platform (GCP) aktuell hingegen noch ein gutes Stück davon entfernt, den Status Enterprise-ready zu erhalten. Die GCP Services "Monitoring" und "Logging" tendieren zwar in diese Richtung, sind aber noch nicht mächtig genug, um mit den Services von AWS und Azure hinsichtlich Compliance und Governance mithalten zu können. Alles zu Amazon auf CIO.de Alles zu Google auf CIO.de Alles zu Microsoft auf CIO.de
Flexibilität: Mix und Skalierung von virtuellen und dedizierten Ressourcen
Ein Großteil aller CIOs und Infrastrukturmanager kennt die vorhandenen Applikationen und deren Bedarf sehr gut. Speziell für überwiegend statische Systeme, bei denen die Anforderungen an die Infrastruktur weitestgehend bekannt sind, eignet sich eine Kombination aus dedizierten und dynamischen Ressourcen sehr gut. Damit lassen sich periodisch auftretende Schwankungen etwa durch geplante Marketingaktionen oder bekannte Saisongeschäfte abfangen.
Hierbei wird eine "statische" Infrastruktur dynamisch um weitere IT-Ressourcen ergänzt, um den zusätzlichen Bedarf abzudecken. Ein weiteres Szenario besteht im Aufbau einer IaaS-Architektur, bei der Teilbereiche auf eine hohe und stabile Rechenleistung angewiesen sind, andere wiederum nur "gewöhnliche" Anfragen verarbeiten. Ein Beispiel liefert eine Real-Time-Collaboration-Platform: Für Chats und die gemeinsame Bearbeitung von Dokumenten reicht im Normalfall die Unterstützung durch einfache virtuelle Server aus. Bei der Echtzeit-Kommunikation, beispielsweise über Video-Chats, wo Streaming-Prozesse verarbeitet werden, wird deutlich mehr Leistung benötigt. Deshalb kommen dafür bevorzugt physikalische Server zum Einsatz.