Egal ob Server, Storage oder Netze: Der einfachste und schnellste Weg zu neuen oder zusätzlichen Ressourcen liegt für viele Firmen bereits heute in der Cloud. Für Wolfgang Schwab, Lead Advisor Platforms & Infrastructure bei der Experton Group, ist dies die logische Folge der fortgeschrittenen Virtualisierung von Servern und Storage. "Bei den Netzen sind wir heute noch nicht so weit, doch auch hier wird die Virtualisierung weiter fortschreiten", sagt er.
Die Allgegenwärtigkeit des Cloud Computing ist so groß, dass der Berater und "InfoWorld"-Blogger David Linthicum vor kurzem vorschlug, den Begriff "Cloud" einfach durch Computing zu ersetzen. Ob diese Idee sich 2016 durchsetzen wird, darf angesichts der Popularität des Cloud-Begriffs und der dafür aufgewendeten Marketingausgaben allerdings bezweifelt werden.
Die Omnipräsenz der Cloud trägt ihren Teil dazu bei, die Grenzen zwischen den verschiedenen Bereichen der Infrastruktur zu verwischen. Denn, da ist sich Wolfgang Schwab sicher: "Die Administratoren haben erkannt, dass die herkömmliche Silo-Sichtweise, die Server, Storage und Netze getrennt behandelt, den Anforderungen durchgängiger Unternehmensabläufe nicht mehr gerecht wird."
Was die Unternehmen brauchen und auch 2016 zunehmend schaffen werden, ist ein integriertes Management sämtlicher internen und externen Infrastruktur-Komponenten. Das betont auch Carlo Velten, CEO der Crisp Research AG: "Die allermeisten Unternehmen werden auch in Zukunft nicht alle Infrastruktur-Services aus einer Hand beziehen, sondern aus einer wachsenden Zahl unterschiedlicher Quellen. Die damit verbundene Komplexität zu managen, wird 2016 und lange darüber hinaus eine der zentralen Herausforderungen für die IT bleiben."
Alles wird Software
Die Virtualisierung von Server-, Speicher-, und Netzwerk-Technologie läuft unabhängig voneinander und mit unterschiedlicher Geschwindigkeit. Dennoch sind in allen drei Bereichen vergleichbare technologische Entwicklungen zu beobachten. Sie alle laufen darauf hinaus, dass die Intelligenz der Systeme zunehmend von der Hardware abstrahiert und in eine Software-Schicht ausgelagert wird, die auf Standard-Hardware ausgeführt wird. Die Folgen beschreibt Carlo Velten so: "Der Admin der Zukunft programmiert seine Infrastruktur. Dadurch lassen sich die benötigten Dienste automatisiert in Echtzeit gemäß den Anforderungen der Geschäftsprozesse bereitstellen, wenn sie gebraucht werden und wieder abschalten, wenn der Bedarf sinkt."
In der Praxis können jedoch viele Firmen heute noch gar nicht sagen, welche Prozesse wann welche Ressourcen benötigen. Damit fehlt ihnen die wichtigste Voraussetzung, um eine Software-definierte Infrastruktur zu betreiben. Aber auch auf der technischen Ebene sind noch längst nicht alle Bedingungen erfüllt. Wolfgang Schwab meint deshalb: "Im Detail wird man nicht alles mit Software erledigen können." So fehlt es in vielen Bereichen weiterhin an der nötigen Standardisierung der Komponenten. Anwender und Hersteller haben also 2016 alle Hände voll zu tun, um sich für die neuen Möglichkeiten und Herausforderungen Software-definierter Infrastruktur fit zu machen.
Appliances für bestimmte Anwendungen vs. Standard-Hardware
Vor dem Hintergrund der genannten Entwicklungen erscheint es nur logisch, dass "intelligente" Appliances einerseits und "dumme" Hardware andererseits sich wachsender Beliebtheit erfreuen. Generell ist jedoch abzusehen, dass die Trennung der Intelligenz von der Hardware und ihre Zentralisierung sich ausbreiten werden, während die Appliances auf spezialisierte Bereiche - wie etwa Firewalls - begrenzt bleiben.
Schwab begründet seine Einschätzung so: "Angesichts der zunehmenden Verbreitung der Standard-Hardware lassen sich die Aufwände für spezialisierte Appliances wirtschaftlich immer schwieriger rechtfertigen." Insbesondere die Kosten für Wartung und Support werden für die Unternehmen zum Problem. Andererseits sprechen Performance-, Verfügbarkeits- und datenschutzrechtliche Gründe beispielsweise in bestimmten Szenarien im Gesundheitswesen, in der Finanzwirtschaft oder in Versorgungsunternehmen dafür, analytische Anwendungen auf personenbezogenen Daten nicht mit Hardware aus der Cloud, sondern mit hoch integrierten Appliances im eigenen Rechenzentrum zu unterstützen.
Daten-Management-Funktionen gewinnen an Bedeutung
Das rasante Datenwachstum in den Unternehmen verlangt nach Lösungen, die nicht nur den Bestand sichern, sondern vor allem die wirtschaftliche Nutzung der Daten erleichtern. Über Jahre hinweg haben viele Firmen das Problem des Datenwachstums einfach durch den Zukauf von Speichermedien zu beherrschen versucht.
Fallende Preise für Festplatten und SSDs haben sie dazu ermutigt. Doch damit aus den teilweise teuer erkauften Daten wirtschaftlicher Nutzen wird, müssen sie nicht nur im technischen Sinne verfügbar, sondern jederzeit schnell abrufbar und auswertbar sein. Dabei spielen auch 2016 Dokumente und Multimedia-Dateien eine wachsende Rolle. Hier erwarten die Anwender von ihrer IT konkrete Unterstützung.
Software-definierter Speicher statt Appliances
Der Kostenvorteil der Standard-Hardware wird im kommenden Jahr für die meisten Unternehmen den Ausschlag bei der Kaufentscheidung geben, da ist sich Experton-Analyst Wolfgang Schwab sicher. Sinnvolle Einsatzbereiche für Storage-Appliances, sieht er überall da, wo es auf ein Höchstmaß an Zuverlässigkeit und Sicherheit ankommt. "Andererseits muss man sehen: Die Bereiche, in denen sich der damit verbundene Mehraufwand bei der Anschaffung, aber auch im laufenden Betrieb einer heterogenen IT-Landschaft wirklich auszahlt, schwinden im gleichen Maß, wie sich Standardgeräte mit Hilfe von spezialisierter Software immer besser für anspruchsvolle Speicheranwendungen eignen", so Schwab. In diesem Zusammenhang verweist er auf die Open-Source-Verfügbarkeit der Storage-Management-Software von EMC.
Flash wird Standard - in hybriden Speicherlandschaften
"Ja, aber ..." lautet die Antwort vieler Entscheider, wenn es um die Frage geht, ob sie Flash-Speicher als Alternative zu herkömmlichen Speicherplatten im Rechenzentrum sehen. Daran wird sich nach Einschätzung von Wolfgang Schwab auch 2016 nichts grundsätzlich ändern.
Zwar begeistern Solid-State-Disks (SSD) viele Anwender durch ihre hohe Performance und in puncto Zuverlässigkeit haben die Speicherchips gegenüber Festplatten (HDD) deutlich aufgeholt. Doch der höhere Preis werde dafür sorgen, dass sie auf absehbare Zeit nur in Szenarien mit besonderen Anforderungen an die Geschwindigkeit der Lese- und Schreibgeschwindigkeit eingesetzt werden. Dort allerdings werde ihr Marktanteil angesichts der sinkenden Preise rasch steigen. Dazu Schwab: "Flash-only sehe ich derzeit nicht als Option für die breite Masse, aber im Hybrid-Betrieb wird die Verbreitung von SSD-Speicher auch 2016 fortschreiten."
Skalieren mit Servern von der Stange
Die Skalierbarkeit der IT-Systeme wird angesichts der zunehmenden Beschleunigung und Vernetzung der Geschäftsprozesse immer wichtiger für die Unternehmen. Dazu Carlo Velten: "Die Anforderung an sich ist natürlich nichts Neues. Was wir aber derzeit erleben, ist ein Wandel von der vertikalen zur horizontalen Skalierung. Dabei wird nicht die Leistung eines einzelnen Rechners gesteigert, sondern die Last wird auf mehrere parallel geschaltete Rechner verteilt. Und diese Entwicklung wird 2016 deutliche Fortschritte machen."
Ein Grund dafür ist die Möglichkeit, Server in der Cloud per Mausklick aufzusetzen. "Aber das funktioniert natürlich nicht mit monolithischen Anwendungen. Deshalb ist die Modularisierung der Software eine zentrale Voraussetzung, um Infrastructure as a Service (IaaS) sinnvoll nutzen zu können", so Velten. Und die Entwicklung geht weiter in Richtung Atomarisierung der Software: Mit Microservices, die sich dank neuer Container-Technologien wie Docker auf den unterschiedlichsten Plattformen ausführen lassen. Das wird die Nutzung von IaaS Velten zufolge mittel- bis langfristig enorm vorantreiben.
Derzeit allerdings ist IaaS in vielen Firmen noch kein großes Thema, meint Wolfgang Schwab: "Viele Unternehmen verfügen über hohe Server-Kapazitäten, die sie mit beträchtlichem Investment aufgebaut haben. Für sie ist IaaS derzeit nur für Einzelprojekte und Test-Szenarien ein Thema. Bei Ersatzinvestitionen wird IaaS aber durchaus ins Kalkül gezogen."
Infrastructure as Code
Die IT-Infrastruktur programmieren zu können, eröffnet Unternehmen ein bislang ungeahntes Maß an Flexibilität bei der Unterstützung ihrer Geschäftsprozesse mit IT. Das gilt nicht nur für die Bereitstellung der Services, sondern auch für Versionierung, Tests und Reproduktion. Das hat drastische Auswirkungen auf den Umgang mit Serverkapazitäten, wie Carlo Velten erklärt: "Folgt man bei der Planung der Infrastruktur und der Anwendungsentwicklung dem Konzept des "Immutable-Server" und lagert Daten, die auch nach der Lebenszeit eines Servers zur Verfügung stehen müssen - wie beispielsweise Datenbanken oder Log-Daten - einfach aus, wird der Server zum Recyclingprodukt. Er kann einfach abgeschaltet und anschließend für andere Zwecke verwendet werden - ganz automatisch."
Converged-Infrastructure wächst weiter
Das sprunghafte Wachstum von SAP-Hana hat es gezeigt: Der Markt für konvergente Infrastrukturen aus einer Hand ist da. Unternehmen wissen es zu schätzen, wenn sie sich mit der Komplexität der Infrastruktur nicht befassen müssen. Davon profitieren auch andere große Anbieter wie HP, Dell, IBM, Oracle oder Fujitsu, die im Verbund mit ihren Partnern schlüsselfertige Infrastrukturen für Unternehmen anbieten.
"Wenn man Converged-Infrastructure nutzt, sollte man das Konzept möglichst flächendeckend nutzen. Das scheidet jedoch in den meisten Unternehmen aus, weil sie eine bestehende Infrastruktur besitzen, die sie nicht von heute auf morgen komplett ablösen wollen. Und im Parallelbetrieb mit Standard-Hardware entstehen zusätzliche Kosten", so Wolfgang Schwab. Langfristig jedoch rentieren sich die Investitionen in Converged Infrastructure seiner Ansicht nach. So wird das Konzept 2016 wohl viele neue Freunde in deutschen Unternehmen gewinnen, vor allem als Lösung für komplexe Analyse-Aufgaben.
Das Internet of Things bringt die Netze an ihre Grenzen
Die Vision einer vernetzten Welt (Internet of Things), in der Autos, Gebäude, Haushaltsgeräte, Produktionsanlagen und irgendwann vermutlich auch der Mensch selbst mit Chips ausgestattet und digital vernetzt sind, hat es 2015 bis in die Hauptnachrichten aller großen TV-Sender geschafft. Im Blickpunkt der Öffentlichkeit stehen dabei zumeist rechtliche und moralische Fragen im Zusammenhang mit dem Datenschutz. Die Voraussetzungen für die weitere Entwicklung des Netzes in Form von leistungsfähigen Internet-Verbindungen hingegen sind kaum Thema.
Dabei gehen Experten davon aus, dass das Internet bereits in wenigen Jahren zusammenbricht. 2016 könnte deshalb das Jahr des Erwachens werden, in dem vielen Verantwortlichen bewusst wird, dass die flächendeckende Versorgung mit schnellen Internetverbindungen kein Luxus ist, sondern eine Grundvoraussetzung, die zumindest außerhalb der Ballungszentren noch längst nicht erfüllt ist. Das könnte die Entwicklung neuer Geschäftsmodelle auf Internetbasis schon 2016 deutlich bremsen.
Software-defined Networking (SDN) wird Realität
Anders als bei Servern und Storage ist die Technologie der Software-definierten Netzwerke noch im Entstehen. Auch Dan Pitt, CEO der Open Networking Foundation (ONF) räumte auf dem SDN und Openflow World Congress 2015 in Düsseldorf ein, dass es zwar große Fortschritte bei der Virtualisierung von Netzwerkfunktionen gebe, die Umsetzung in SDN jedoch noch fehle.
Hier soll es 2016 ein gutes Stück vorangehen, vor allem mit der Entwicklung von Schnittstellen für die Integration von Anwendungen und SDN-Controllern.
Nachdem bereits 2015 einige Service Provider in Asien auf SDN setzten, werden Pitt zufolge im kommenden Jahr Service Provider weltweit diesem Beispiel folgen. Wolfgang Schwab sieht SDN in Weitverkehrsnetzen ebenfalls kurz vor der Umsetzung. Er weiß: "Die Anforderungen aus den Unternehmen sind da."
5G bleibt Zukunftsmusik
Damit Konzepte wie Industrie 4.0 und das Internet der Dinge realisierbar werden, ist ein neuer Mobilfunkstandard erforderlich. Denn mit den bestehenden mobilen Infrastrukturen lassen sich beispielsweise Echtzeit-Analysen zur Fertigungsoptimierung nicht umsetzen. Latenzzeiten von 20 bis 80 Millisekunden, die LTE mit sich bringt, sind in der Industrieautomatisierung schlicht ungenügend.
Beim Nationalen IT-Gipfel 2015 Anfang November in Berlin wurde deshalb einmal mehr 5G als "Schlüsseltechnologie für die vernetzte Gesellschaft" propagiert. Doch die Implementierung von 5G, das unter anderem die Latenzzeiten auf weniger als eine Millisekunde senken soll, wird erst für 2020 erwartet.