Technologien wie Virtualisierung oder Cloud Computing prägten in den vergangenen Jahren die Entwicklung von neuen IT-Infrastrukturen und Lösungen in Serverräumen und Data Centern. Doch schon arbeiten die Entwickler in den Development- und Research-Abteilung der großen IT-Hersteller an den künftigen Innovationen. Auf dem Solution Summit 2014 in Brüssel gab der IT-Infrastruktur-Hersteller Dell einen Einblick, welche Neuerungen die IT-Verantwortlichen in den nächsten Monaten und Jahren auf dem Radar haben sollten.
Vom Software-Defined Data Center zum Software-Based-Rechenzentrum
Um auch künftig die steigenden Datenberge im Rechenzentrum zu bewältigen, wird das Software-Defined Data Center (SDDC) zum Maß aller Dinge. In diesem werden alle Schichten des Rechenzentrums wie Server-, Netzwerk- und Speicherebene wie auch das Management zentral per Software gesteuert. Die Hardwareebene bildet dabei zwar immer noch ein wichtiges Element, doch die Software übernimmt die Hauptaufgaben als zentrale Steuereinheit.
Auf der Serverebene existieren bereits Virtualisierungslösungen, die den Servermarkt verändert haben. So können unabhängig von der Hardware Softwarelösungen wie vSphere von VMware, Hyper-V von Microsoft oder Xen von Citrix nahezu beliebig viele softwarebasierte Serversysteme auf einer physischen Maschine erzeugen und verwalten. Auch entsprechende Storage-Lösungen mit Software-Defined-Storage-Technologie (SDS) existieren bereits. Software-Defined Networking (SDN) befindet sich noch in der Entwicklungsphase, da es weitaus komplexer ist als die Server- oder Speichervirtualisierung.
Greifen alle diese Software-Defined-Verfahren nahtlos ineinander, so erreicht man einen sehr hohen Automatisierungsgrad im Rechenzentrum. Das sorgt für hohe Effizienz und niedrige Kosten. Doch der größte Vorteil liegt in der schnellen Bereitstellung von Ressourcen aus dem Bereich Server, Storage und Netzwerk bis hin zu komplexen Services und Cloud-Lösungen.
Flash ist die neue HDD, und die Festplatte mutiert zum neuen Tape
Im Enterprise-Storage-Bereich vollzieht sich ein deutlich sichtbarer Wandel. So gewinnt Flash-Speicher in Storage-Systemen immer mehr an Bedeutung. Gerade wenn es um hoch-I/O-lastige Anwendungen wie im Bereich Datenbanken geht, gehört diese Technologie zur ersten Wahl. Flash-Speicher ist zwar noch wesentlich teurer als herkömmliche Festplatten, doch der problemlose Umgang mit massiven Datenvolumen macht diesen Nachteil wieder wett.
Diesen Marktbereich deckten bisher schnelle 15K-HDDs ab. Diese werden künftig noch in Systemen eingesetzt, um mittlere Datenlasten zu bewältigen, jedoch verlieren sie immer mehr an Bedeutung. Dagegen wird der Markt im Bereich "langsamer Datenspeicher" weiter wachsen, insbesondere bei hochvolumigen Festplatten oder Cloud-Speichern. Diese entwickeln sich quasi als "dauerhafte Datenspeicher" zur Archivierung großer Datenmengen, ähnlich dem Tape heutzutage.
In einem Vergleich stellt Dell einen Datenspeicher mit herkömmlichen 15K-Festplatten einer Tiered-Storage-Konfiguration, bestehend aus Read-Intensive- und Write-Intensive-Flash-Speicher, gegenüber. Die Basisanforderung: Eine Datenbankanwendung benötigt 20 TByte Speicher und eine Verarbeitungsgeschwindigkeit von 40.000 Ops/s.
Im direkten Vergleich ergeben sich daraus eine Platzersparnis von mehr als 80 Prozent, eine Reduzierung der Latenzzeit von zirka 90 Prozent sowie ein um 50 Prozent höherer Datendurchsatz zugunsten des Flash-Speichers. Zudem ist der Preis deutlich attraktiver gegenüber einem System mit 15K-HDDs. Der Hersteller beziffert den Kostenvorteil auf mehr als 50 Prozent.
Doch bereits jetzt arbeiten die Entwicklungslabors an neuen Speichertechnologien wie NVM (Non-Volatile-Memory). Im Vergleich zur herkömmlichen NAND-Flash-Technologie verspricht diese einen Geschwindigkeitszuwachs um den Faktor 50 bis 1000, je nach Anwendung. Darüber hinaus sinken die GByte-Preise von Festplatten drastisch weiter, sodass HDDs künftig als Ersatz für die Tape-Technologie dienen können.
Neu entwickelte IT-Systeme für Big Data und Mobility
Laut Dell gewinnt Real Time Analytics immer mehr an Bedeutung. So prophezeit Gartner, dass künftige Business-Prozesse mit einem 25-prozentigen Anteil auf Basis von Business Analytics arbeiten. Dabei entwickelt sich diese Technologie mehr und mehr zu einem aktiven Tool, das selbstständig Business-Prozesse in einem Unternehmen in Echtzeit analysieren kann und entsprechende Maßnahmen initiiert. Je nach Business-Modell kann zum Beispiel in Echtzeit die Herstellung von Produkten so an die aktuelle Marktlage angepasst werden, um mögliche Verluste zu vermeiden.
Eine große Beschleunigung von Big-Data-Prozessen sollen künftig FPGA-basierte Memcache-Architekturen erreichen. Neben der Geschwindigkeit soll diese Technologie auch eine Energieersparnis von mehr als 80 Prozent mit sich bringen.
Neue Kühlkonzepte im RZ für extreme Leistungsdichte in Racks
Immersion Cooling soll in Zukunft herkömmliche Luft- oder Wasserkühlkonzepte ablösen, so Dell. Nach Experteneinschätzung besitzt die Kühltechnologie das Potenzial, ein Rack mit einer Energieaufnahme von bis zu 6 Megawatt zu betreiben. Die Kühlfunktion übernimmt dabei eine dielektrische Flüssigkeit, in der die Baugruppen eingetaucht werden. Das erfordert allerdings hermetisch abgeschlossene Rack-Container. Die elektrisch nicht leitende Flüssigkeit erreicht dabei Leistungsdichten bis zu 16 Kilowatt pro Liter.
Mit dieser Technologie lassen sich alle Kühlkomponenten wie Chip-Kühlkörper, Lüfter oder Pumpen aus dem Rack und aus dem Data Center auslagern. Im Vergleich zu konventionellen Systemen, die auf Luft oder Wasser basieren, ergeben sich dadurch enorme Kostenvorteile. Server lassen sich auf diese Art so ausschließlich passiv kühlen.
Internet of Things
Mit Internet of Things (IoT) verändert sich die gesamte Sichtweise auf die IT. Diese Technologie generiert neue Herausforderungen in Hinblick auf Sicherheit, Management und Datenmengen, steckt allerdings noch in den Kinderschuhen. Dennoch wird in den nächsten Jahren die Vernetzung von Alltagsgeräten in enormem Maße zunehmen, prognostizieren die Analysten von IDC und Gartner.
Auch Netzwerkhersteller und Mobilfunkausrüster wie Cisco oder Ericsson erwarten einen explosionsartigen Anstieg an miteinander kommunizierenden Geräten aus unterschiedlichen Bereichen wie Haustechnik, Industrie oder Automotive. Allerdings fehlt es derzeit noch an übergreifenden Standards für den einheitlichen und sicheren Datenaustausch. So können heute Geräte von verschiedenen Anbietern oder aus unterschiedlichen Bereichen in der Regel keine Daten untereinander austauschen geschweige denn miteinander "kommunizieren".