Beim Aufbau moderner IT-Infrastrukturen gelten Infrastructure-as-a-Service Umgebungen (IaaS) als gesetzter Standard. Sie bilden die notwendige Grundlage, um Unternehmensapplikationen zukunftsorientiert, skalierbar und ausfallsicher zu betreiben. Jedoch stellt sich die Frage, ob Entscheider dabei Kompromisse hinsichtlich Governance, Kontrolle und Compliance eingehen müssen.
Infrastructure-as-a-Service in der Praxis
Infrastructure-as-a-Service (IaaS) ist der Wegbereiter des Cloud Computing und bildet für eine Vielzahl von Web-Applikationen und Geschäftsmodellen die technische Basis. Per Definition stellen IaaS-Plattformen IT-Infrastruktur-Ressourcen wie Rechenleistung, Speicherplatz und Netzwerk bereit, die über eine API angesprochen und genutzt werden können, ohne vorab kapitalintensiv in entsprechende IT-Ressourcen zu investieren.
Allerdings zeigt der Markt, dass es heute nicht mehr ausreicht, sich als IaaS-Anbieter lediglich auf diese reinen Infrastruktur-Ressourcen zu konzentrieren. Plattform-Services oder Microservices sind das Mittel der Wahl, um Marktanteile zu gewinnen. Da der Cloud-Markt mittlerweile eine hohe Reife erreicht hat, verschiebt sich der Kundenfokus von Early Adoptern wie Startups und Entwicklern immer mehr in Richtung der Unternehmensanwender im Mittelstand und in Großunternehmen.
Zu Beginn richteten Public-Cloud-Anbieter ihren Fokus primär auf Entwickler und stellten diesen eine Spielwiese auf Basis ihrer Infrastruktur-Plattform bereit. Der Zugriff auf die Plattform ist einfach und erfolgt über einen Self-Service unter der Angabe von Kreditkarteninformationen. Typischerweise profitieren Public IaaS-Anbieter von den "Economies of Scale", also Skaleneffekten, indem die Infrastruktur mit möglichst vielen Kunden ausgelastet wird, um darüber kostengünstig Infrastruktur-Ressourcen anzubieten. Der Haken: In diesem Fall ist es sehr schwierig, auf die speziellen Bedürfnisse einzelner Kunden einzugehen.
Auch besteht in diesem Modell ein Risiko, dass die Überbelegung durch virtuelle Maschinen die physikalischen Hosts der Public IaaS-Plattform negativ beeinflusst (Noisy Neighbors). Werden Ressourcen vorab also nicht fest geplant, kann es zu mangelhafter I/O-Performance kommen, wenn zu viele Applikationen auf der zugrundeliegenden physikalischen Maschine betrieben werden. Zudem sind in diesem Modell die gesamte Infrastruktur und das Service-Portfolio weitgehend standardisiert.
Enterprise-ready IaaS aus CIO-Perspektive
Die Planung moderner IT-Umgebungen stellt CIOs vor große Herausforderungen. Einerseits müssen sie ihre Applikationen mit skalierbaren und ausfallsicheren Infrastrukturen unterstützen. Andererseits dürfen sie dabei nicht die Kontrolle über ihre Daten und Systeme verlieren, um rechtliche Rahmenbedingungen und Compliance-Regelungen zu erfüllen.
Ausfallsicherheit: Kernvoraussetzung fürApplikationen auf IaaS-Umgegungen
Werden Enterprise Applikationen von einer On-Premise- oder dedizierten Umgebung auf eine IaaS-Umgebung verlagert, steht eines im Mittelpunkt: die Ausfallsicherheit. Hierbei spielt insbesondere die Stabilität und Geschwindigkeit der Infrastruktur, des Netzwerks sowie der Anbindung der Infrastruktur eine zentrale Rolle. Cloud-basierte Applikationen erfordern eine zuverlässige und vor allem stabile Konnektivität, um zu jeder Zeit einen Zugriff auf die Daten und Informationen zu gewährleisten.
Noch wichtiger wird es, wenn geschäftskritische Prozesse und Applikationen auf der IaaS- Umgebung betrieben werden. Eine hohe und konstante Performance der Server und Infrastrukturen sowie eine geringe Latenz zwischen verschiedenen Standorten und gegenüber dem Kunden sind das A und O für einen modernen Infrastrukturbetrieb auf Enterprise-Niveau.
Grundsätzlich sind IaaS-Umgebungen (die Basis-Infrastruktur des Cloud-Anbieters) mittlerweile als ausfallsicher einzustufen. Allerdings hat der Kunde im Rahmen der Shared-Responsibility seine Hausaufgaben zu erledigen. Und dazu gehört es insbesondere, das "Design for Failure" zu berücksichtigen. Denn "everything fails, all the time", wie es Amazon-CTO Werner Vogels einmal ausdrückte. Das Design einer Cloud-Applikation muss den Regeln und Eigenschaften der IaaS-Umgebung folgen und die Hochverfügbarkeit berücksichtigen.
Hierbei muss grundsätzlich darauf geachtet werden, einen Single Point of Failure zu vermeiden und zu berücksichtigen, dass zu jedem Zeitpunkt etwas passieren kann. Das Ziel muss daher darin bestehen, dass eine Anwendung zu jederzeit funktioniert, auch dann, wenn die darunterliegende physikalische Infrastruktur des Anbieters in einen Fehlerzustand gerät. Die notwendigen Mittel und Services stehen dafür zur Verfügung.
Kontrolle: Management & Governance von Cloud-Umgebungen
Mit dem Auslagern der eigenen IT-Umgebung auf eine Cloud-Infrastruktur stellt sich parallel die Frage nach dem Erhalt des Kontroll-Levels. Im Vergleich zu einer On-Premise-Umgebung führt der Einsatz einer verteilten Cloud-Infrastruktur prinzipiell zu einer Verringerung des Einflussbereiches über die unterschiedlichen Ebenen, zum Beispiel im Rechenzentrum, auf physikalischen Infrastrukturen und in virtuellen Umgebungen. Dies führt automatisch zu Fragen in Bezug auf Compliance-Richtlinien, gesetzlichen Rahmenbedingungen und Datenschutzthemen. Besonders kritisch wird es, wenn unternehmensrelevante Vermögensgegenstände wie das geistige Eigentum und F&E-Daten ins Spiel kommen.
Eine weitere Herausforderung besteht im Management der IaaS-Umgebung und hier insbesondere bei der Zugriffskontrolle auf die Infrastruktur. Cloud-Umgebungen verschaffen Mitarbeitern deutlich mehr Freiheiten und Flexibilität, als sie es von typischen On-Premise-Infrastrukturen kennen. Auf der einen Seite erhalten Mitarbeiter dadurch Möglichkeiten agiler zu handeln, indem sie zum Beispiel Server nach Bedarf selbst starten können.
Auf der anderen Seite müssen sie selbstverantwortlicher agieren, um Daten nicht willkürlich verteilt zu speichern und nicht unnötige Kosten zu verursachen. Gut funktionierende interne Kontrollmechanismen verlieren somit auch in der Cloud nicht an Bedeutung. Im Gegenteil, ein kontrollierter Zugriff in Verbindung mit einem Self-Service ermöglicht die Einhaltung von Governance-Richtlinien und bietet Mitarbeitern gleichzeitig mehr Freiheit und Auswahl.
An dieser Stelle zeigt sich, dass die beiden führenden Public Cloud Anbieter Amazon Web Services (AWS) und Microsoft Azure ihre Hausaufgaben gemacht haben, um Unternehmen mit Platform-Services wie AWS "CloudTrail" oder Azure "Log Analytics" zu unterstützen. Aus dieser Perspektive betrachtet ist die Google Cloud Platform (GCP) aktuell hingegen noch ein gutes Stück davon entfernt, den Status Enterprise-ready zu erhalten. Die GCP Services "Monitoring" und "Logging" tendieren zwar in diese Richtung, sind aber noch nicht mächtig genug, um mit den Services von AWS und Azure hinsichtlich Compliance und Governance mithalten zu können.
Flexibilität: Mix und Skalierung von virtuellen und dedizierten Ressourcen
Ein Großteil aller CIOs und Infrastrukturmanager kennt die vorhandenen Applikationen und deren Bedarf sehr gut. Speziell für überwiegend statische Systeme, bei denen die Anforderungen an die Infrastruktur weitestgehend bekannt sind, eignet sich eine Kombination aus dedizierten und dynamischen Ressourcen sehr gut. Damit lassen sich periodisch auftretende Schwankungen etwa durch geplante Marketingaktionen oder bekannte Saisongeschäfte abfangen.
Hierbei wird eine "statische" Infrastruktur dynamisch um weitere IT-Ressourcen ergänzt, um den zusätzlichen Bedarf abzudecken. Ein weiteres Szenario besteht im Aufbau einer IaaS-Architektur, bei der Teilbereiche auf eine hohe und stabile Rechenleistung angewiesen sind, andere wiederum nur "gewöhnliche" Anfragen verarbeiten. Ein Beispiel liefert eine Real-Time-Collaboration-Platform: Für Chats und die gemeinsame Bearbeitung von Dokumenten reicht im Normalfall die Unterstützung durch einfache virtuelle Server aus. Bei der Echtzeit-Kommunikation, beispielsweise über Video-Chats, wo Streaming-Prozesse verarbeitet werden, wird deutlich mehr Leistung benötigt. Deshalb kommen dafür bevorzugt physikalische Server zum Einsatz.
IaaS: Architekturen und Betriebskonzepte
Abhängig von der jeweiligen Applikation oder dem zu unterstützenden Geschäftsmodell beziehungsweise dem Geschäftsprozess kommen unterschiedliche Architekturen und Betriebskonzepte zum Einsatz. Im Laufe der letzten Monate ist ein Trend hin zu Multi-Cloud-Architekturen zu erkennen, weiterhin ist ein Multi-Regionen-Betrieb mittlerweile unerlässlich. Dies lässt sich zum einen mit der Risikoverteilung über mehrere Regionen erklären. Zum anderen wird die Präsenz mit lokalen (virtuellen) Infrastrukturumgebungen in einzelnen Ländermärkten aus technischer und rechtlicher Perspektive zunehmend wichtiger.
Tipps zum Design von Hybrid- und Multi-Cloud-Konzepten
Hybride und Multi-Cloud Design-Konzepte bieten sich für unterschiedliche Szenarien an. Eine weit verbreitete Anwendung findet sich bei hoch frequentierten E-Commerce-Plattformen, deren Lastspitzen im Jahresmittel bekannt sind und die größtenteils auf eine längere Historie zurückblicken. Infrastrukturmanager solcher E-Commerce-Plattformen haben einen guten Überblick und Kenntnisse über den Bedarf an Performance und Stabilität der Plattform. Dabei setzen insbesondere über mehrere Jahre gewachsene Webshops primär auf eine statische Hosting-Infrastruktur mit physikalischen Servern als Basis. Ein Grund für den bevorzugten Einsatz von physikalischen Systemen besteht in der Sicherstellung einer dedizierten und stabilen Geschwindigkeit für die Payment-Systeme.
Um einen einwandfreien Betrieb in Spitzenzeiten zu gewährleisten, wurden große E-Commerce-Infrastrukturen in dedizierten Hosting-Umgebungen, basierend auf Erfahrungswerten, traditionell so dimensioniert, dass sie bei Anfragestürmen gut standhalten konnten. Dieses geht jedoch zu Lasten der Kosten und Effizienz. Denn eine Überdimensionierung der Infrastruktur ist auf Dauer sehr kapitalintensiv und senkt die Wettbewerbsfähigkeit eines Anbieters in diesem ohnehin schon margenschwachen Geschäftsumfeld nachhaltig.
Aus diesem Grund sind immer mehr Infrastrukturmanager gefordert, ihre Sourcing-Strategie und Architekturkonzepte zu verändern. Statt eines vollständig statischen und auf die Bedarfsspitzen ausgelegten Infrastrukturdesigns gehen sie zu hybriden Szenarien über, die eine Kombination aus klassischem Hosting und Cloud-Ressourcen abbildet. Hierbei wird eine statische Basisinfrastruktur aus physikalischen Servern betrieben, um die bekannte Grundlast zu bedienen - hierauf können etwa auch die Payment-Systeme laufen. Nehmen die Anfragen saisonal bedingt oder auch unerwartet zu, schaltet die E-Commerce-Plattform automatisch weitere Ressourcen aus einer IaaS-Umgebung (virtuelle Maschinen) hinzu, um die Lastspitze abzufangen.
Nimmt die Belastung ab, werden die virtuellen Maschinen wieder heruntergefahren bis das Normalniveau erreicht ist. Dieses On-Demand-Modell befähigt Betreiber von E-Commerce-Plattformen zu einer flexiblen und ressourcenschonenden Nutzung ihrer Infrastruktur und führt zugleich zu einem ausfallsicheren Betrieb. Solch ein hybrides Szenario kann zudem dabei unterstützen, die Transaktionssicherheit für etwaige Applikationen sowie eine hohe I/O-Leistung sicherzustellen. So werden etwa Datenbankserver bevorzugt auf physikalischen Maschinen betrieben und die korrespondierenden verteilten Systeme wie Applikations- und Web-Server auf virtuellen Maschinen.
Mit einem Multi-Regionen-Design auf Expansionskurs
Im Hinblick auf einen Expansionskurs lässt sich das oben beschriebene Szenario von einem Rechenzentrum auf beliebig viele Standorte ausweiten. Voraussetzung dafür: Der IaaS-Anbieter verfügt über entsprechende Rechenzentrumsstandorte, um eine Skalierbarkeit zum Beispiel auf europäischer oder globaler Ebene zu ermöglichen. Hierzu werden die Kundeninfrastrukturen an einem Standort über eine schnelle dedizierte Verbindung um weitere Standorten erweitert, um eine einheitliche Datenbasis sicherzustellen und den konsistenten Zugriff auf Kernsysteme (zum Beispiel Payment, Warenbestand) zu gewährleisten.
Damit lässt sich zum Beispiel ein E-Commerce-Angebot, das ursprünglich in Deutschland gestartet ist, schnell auch in Frankreich, Spanien, Großbritannien und den USA ausrollen. Aufgrund der Lokalität der Daten in den einzelnen Ländermärkten kann der E-Commerce-Anbieter seine Plattform mit einer niedrigen Latenz und somit mit einer höheren Geschwindigkeit bereitstellen. Zudem bringt er die Daten in die direkte Nähe der Kunden. Gleichzeitig kann er etwaige rechtliche Rahmenbedingungen erfüllen und Kundendaten, Payment-Systeme oder anderweitige Backend-Systeme zum Beispiel in Deutschland speichern und betreiben. Hingegen werden die Warendaten, etwa konkrete Informationen, Bilder, Rezensionen sowie sämtliche Frontend-Systeme, im entsprechenden Ländermarkt lokal vorgehalten.
Enterprise IaaS: Empfehlungen für den CIO
Im Kontext ihrer Cloud-Strategie stehen CIOs vor der Herausforderung, das passende Angebot für ihre individuellen Anforderungen zu finden. Insbesondere unternehmenskritische Applikationen gilt es sensibel zu behandeln. Für die Auswahl eines Enterprise-ready IaaS-Angebots hat es sich bewährt, die folgenden Kriterien zu berücksichtigen:
Sicherheit: Ein hohes Sicherheitsniveau ist Hauptbestandteil einer Enterprise-ready IaaS-Umgebung. Dies sollte sich auf allen Ebenen, bis hinunter ins Netzwerk, zeigen. Regelmäßige, unabhängige Audits und eine Offenlegung der Sicherheitsarchitektur gegenüber dem Kunden sind das A und O eines IaaS-Angebots.
Compliance: Kontrolle und Transparenz der Nutzeraktivitäten sind essentiell wichtig, um für die erforderliche Compliance zu sorgen. Hierzu ist es erforderlich zu erkennen und festzuhalten, wie sich Nutzer auf der IaaS-Umgebung bewegen. Das bedeutet, zu verstehen und aufzuzeichnen, welche Ressourcen (Server, Storage, Service, API usw.) zu welcher Zeit von welchem Nutzer verwendet wurden.
Integration und API-Zugriff: Die Einbindung in eine hybride Cloud-Umgebung ist für die Mehrheit der deutschen Unternehmen die favorisierte Cloud-Strategie. Während des zukünftigen Ausbaus sollte jedoch strikt eine nahtlose Integration berücksichtigt werden, um keine System- und Datensilos entstehen zu lassen. Die Nutzung einer API unterstützt hierbei eine automatisierte Steuerung der Infrastruktur auf Skriptbasis oder direkt aus den Anwendungen heraus.
Hybrid Cloud: Moderne IT-Infrastrukturen können von vielen unterschiedlichen Cloud-Formen profitieren. Zum einen existieren Bereiche wie ERP-Systeme, die innerhalb einer Private Cloud-Infrastruktur betrieben werden sollten. Zum anderen stehen Web-Server bevorzugt innerhalb einer Public-Cloud-Infrastruktur. Eine Hybrid-Cloud-Umgebung, basierend auf Private- und Public-Cloud-Ressourcen, unterstützt deshalb bei einer ganzheitlichen Integration.
Disaster Recovery: Ein Backup-Service zur Notfallwiederherstellung (Disaster Recovery) ist ein elementarer Bestandteil einer Enterprise-ready IaaS-Umgebung. Zugleich sollte das Daten-Backup über mehrere Rechenzentrumsstandorte verteilt gespeichert werden, um eine geringe Fehlertoleranz und hohe Verfügbarkeit sicherzustellen.
Multi-Regionen-Betrieb: Ein europaweites oder globales Netzwerk von Rechenzentrumsstandorten hilft global tätigen Unternehmen dabei, schnell in weitere Ländermärkte vorzudringen, um auf einer einheitlichen Technologiebasis und mit einer geringen Latenz, ein lokales Angebot bereitzustellen.
Fazit
Cloud-basierte Infrastructure-as-a-Service Umgebungen gelten als gesetzter Standard für den Aufbau und Betrieb moderner IT-Infrastrukturen. Nur mit ihrer Hilfe lassen sich die notwendige Skalierbarkeit und Stabilität erzielen, um Applikationen zukunftsorientiert und ausfallsicher zu betreiben.
Im Zuge der voranschreitenden digitalen Transformation und dem immer größer werdenden Momentum des Internet of Things (IoT) rücken IaaS-Plattformen weiter in den Mittelpunkt, um als Infrastruktur-Backend zu dienen. Insbesondere die gute Konnektivität, aber auch die Möglichkeit des Multi-Cloud-Betriebs
helfen Anbietern von IoT-Services dabei, ihre Lösungen zeitnah und mit einer geringen Latenz schnell in weitere Ländermärkte auszuliefern.