Es dürfte kaum noch Unternehmen geben, deren IT-Organisation sich nicht mit dem Gedanken an Virtualisierungs- und (Re-)Zentralisierungsprojekten befasst hat - nicht zuletzt deshalb, weil es zunehmend wirtschaftlich sinnvoll ist. Virtualisierung liefert heute immer häufiger die technische Basis für den Betrieb dynamischer Infrastrukturen und schafft beste Voraussetzungen für die Integration von Cloud Computing. Doch derartige Projekte gehen zwangsläufig immer auch mit einer deutlich größeren Abhängigkeit von der Netzwerkinfrastruktur einher. Folgende Schritte sind dabei unerlässlich:
Konsolidierung und Optimierung
Um Risiken von vornherein zu vermeiden, ist es nötig, den Blick auf die gesamte Netzwerkinfrastruktur zu richten: also vom Client u¨ber die LAN- oder WAN-Anbindung einschließlich der verwendeten Übertragungsprotokolle bis hin zur Serverseite. Dabei sind vor allem die kritischen Aspekte Hochverfügbarkeit, Performance, Latenz, Datenhaltung und Sicherheit zu berücksichtigen. Denn der Business-Nutzen einer virtuellen Umgebung hängt letztlich davon ab, ob Anwender jederzeit und - trotz der im WAN unvermeidlichen Latenzzeiten - schnell und problemlos auf ihre Desktops zugreifen können. Dieser Zugriff muss außerdem stets abgesichert erfolgen, wie auch die Informationssicherheit durch zentrale und Compliance-gerechte Datenhaltung gewährleistet sein sollte.
Die genaue Betrachtung einer virtuellen Infrastruktur offenbart schnell einige Stellen, die aus Sicht des Endanwenders die Performance negativ beeinflussen könnte. Daraus ergeben sich ganz konkrete Ansatzpunkte für Optimierungseingriffe: Natürlich muss die CPU- und Grafikleistung des Endgeräts den Anforderungen an die geforderte Leistung und Darstellung entsprechen - unabhängig davon, ob es sich um einen Thin Client, einen Zero Client oder ein Smartphone handelt. Hier ist Software gefragt, die eine Applikation dynamisch an die Gegebenheiten auf Client-Seite anpasst. Auf der Serverseite wiederum muss die Dimensionierung gleichermaßen der CPU-Power und insbesondere des Arbeitsspeichers der Zahl der gehosteten Benutzerinstanzen entsprechen - und letztlich darf auch Storage dabei nie zum Engpass werden. Die serverseitige Virtualisierung ermöglicht hier eine mitunter signifikant höhere Auslastung der Hardware - sprich: mehr Serverinstanzen pro physische Maschine - und vor allem die dynamische Zuweisung dieser Ressourcen.
Heutige Virtualisierungslösungen bieten in der Regel ein umfassendes Portfolio von Werkzeugen und Methoden zur Optimierung von zentralisierten Umgebungen - sei es für die standortübergreifende Nutzung von Hosted Virtual Desktops, für schnelle Datenübertragungen in dezentralen Windows-Umgebungen oder für performante Web- und Cloud-Services. Diese Techniken greifen dabei im Idealfall nahtlos ineinander und bilden so eine durchgängige Optimierungsinfrastruktur.
Unterstützung mobiler Endgeräte
Da mit der Zahl der mobilen Benutzer heute auch die Zahl der Orte, Endgeräte und Netzwerke zunimmt, wird das Management des Remote-Zugriffs naturgemäß ebenfalls immer komplexer. Es genügt nicht, wenn die IT ihre Remote-Access-Strategie nur unter Administrations- und Sicherheitsaspekten überdenkt. Ebenso wichtig ist es, in allen Situationen einen beständig hohen Benutzerkomfort zu gewährleisten. Um so produktiv wie möglich zu sein, wollen Mitarbeiter jederzeit und überall mit den Endgeräten ihrer Wahl auf Daten zugreifen können - ohne jegliche Einschränkungen.
Eine mobile Strategie muss daher einige wichtige Aspekte immer miteinbeziehen: So sollte etwa ein zentraler Self-Service-Zugriff auf alle benötigten Apps und Daten standortunabhängig und mit einheitlicher Benutzeroberfläche auf allen Endgeräten realisiert werden. Dazu zählt auch die Möglichkeit des Zugriffs auf IT-Services über jede beliebige Netzwerkverbindung - ohne zusätzliche Komplexität für Benutzer und IT. Wichtig ist zudem die komfortable Bedienbarkeit von Windows-Anwendungen und -Desktops auf Touchscreen-Geräten - etwa durch angepasste und intuitive Gestensteuerung.
Diese Beispiele zeigen, dass der ausschließliche Fokus auf die Steuerung und Kontrolle mobiler Endgeräte mittels einer Mobile-Device-Management-Lösung allein oft nicht ausreicht. Die Umsetzung einer ganzheitlichen Mobility-Strategie erfordert heutzutage vielmehr den Einsatz einer vollwertigen Enterprise-Mobility-Management-Lösung. Diese sollte eine Vielzahl von Funktionen bieten, die vom Management der Endgeräte, Apps und Daten über das Monitoring der Mobilfunknutzung bis hin zum Support von Prozessen wie dem On-/Off-Boarding von Mitarbeitern oder deren Unterstützung beim Fernzugriff durch den Helpdesk reichen.
Cloud Briding von Cloud-Diensten und Anwendungen
Wer heute über eine Anpassung seiner Infrastruktur für künftige Herausforderungen nachdenkt, kann die Cloud dabei natürlich nicht außen vor lassen. Klar, einige Daten sind vermutlich noch auf lange Sicht im eigenen Rechenzentrum deutlich besser aufgehoben. Für unkritische Anwendungen oder solche, die eher selten gebraucht werden, bietet sich ein Cloud-Hybridmodell aber geradezu an. Sie lassen sich problemlos, parallel zum hausinternen Angebot, über Public-Cloud-Dienste von Drittanbietern beziehen - schnell, flexibel und nur bei Bedarf.
Um dennoch auf eine nahtlose Anbindung setzen zu können, ist das sogenannte Cloud Bridiging eine Lösung, die geeignet ist, externe Clouds an das eigene Rechenzentrum anzubinden. Die in der Cloud gehosteten Anwendungen fügen sich dabei perfekt in die bestehende Infrastruktur ein. Das Netzwerk des Cloud-Providers erscheint dann wie die natürliche Erweiterung des eigenen Rechenzentrums, sodass größere Änderungen bei der Anwendungskonfiguration überflüssig sind. Die ideale Lösung verbindet eine sichere und transparente Cloud-Anbindung gleich mit Funktionen zur WAN-Optimierung. Darüber hinaus sorgt die Verschlüsselung der Verbindung zwischen Unternehmen und Cloud Provider dafür, dass der Datentransfer über die gesamte Strecke gesichert ist. Unternehmen sind außerdem in der Lage, Rechenzentren über öffentliche und private Netzwerke miteinander zu verbinden, um wichtige Daten kostengünstig zu replizieren.
Software Defined Networks
Mit aktuellen Entwicklungen und Trends wie der "Consumerization" bewegt sich die IT weiter vom traditionellen Desktop weg. Immer mehr Unternehmen haben daher begonnen, zunehmend SDN-fähige Hardware in ihr bestehendes Netzwerk zu integrieren. Mit SDN, also Software Defined Networks, kann das Netzwerk deutlich einfacher verwaltet werden, indem einzelne Funktionen als virtuelle Services bereitgestellt werden.
Einen wesentlichen Anteil am erfolgreichen Einsatz von SDN haben Application Delivery Controller (ADCs): Sie sorgen für die Überwachung der Back-End-Dienste und die Verfügbarkeit von Applikations- und Webservern. Zudem bieten ADCs einen logischen, zentralen Kontrollpunkt für den Zugriff auf alle Dienste, die den Nutzern angeboten werden.
Heutige Lösungen sind für SDN vorbereitet und haben API-Schnittstellen, die programmgesteuerten Zugriff auf den ADC erlauben. Damit ermöglichen sie es, dass Anwendungen ihre Anforderungen stellen können und das Netzwerk diese mit Freigabe der entsprechenden Ressourcen erfüllen kann. Hohe Skalierung bedeutet in dem Fall, dass Netzwerkanforderungen als Teil des Anwendungsprofils mit jeder zugrunde liegenden Hardware definiert werden. Bei der Bereitstellung einer App sollte bekannt sein, welcher Netzwerkdienst benötigt wird und welche Auswirkungen die neue App auf Bandbreite und Netzwerkauslastung hat. Diese Anforderungen lassen sich optimalerweise in Richtlinien abbilden und dann auch auf Clouds ausweiten.