Hausmesse EMC World
42 neue Produkte und eine Übernahme
Unter dem Motto "Transform IT + Business" präsentierte EMC auf seiner jährlich stattfindende IT-Konferenz "EMC World" in Las Vegas insgesamt 42 neue Produkte und Funktionen. Diese betreffen das komplette Produktportfolio - von Speicherlösungen über Backup bis hin zu Virtualisierungs- und Managementwerkzeugen. Ziel von EMC sei es, den Cloud- und Big-Data- Markt weiter auszubauen und es für Kunden einfacher zu machen, von der Hybrid Cloud zu profitieren, erklärte das Management. Außerdem verkündete EMC die nächste Übernahme - diesmal handelt es sich um den Cloud-Synchronisations- und Datei-Sharing Anbieter Syncplicity.
Neue Storage Arrays EMC VMAX
Als Höhepunkt der Konferenz gilt die neue EMC VMAX Familie. Die Speicher-Arrays für Unternehmen aller Größen bestehen aus den Modellen VMAX 10K, VMAX 20K und der VMAX 40K. Sie sollen zum Aufbau von Hybrid Clouds genutzt werden. EMC stellt besonders die überlegenen Leistungen des VMAX 40K im Vergleich zur Konkurrenz heraus. So soll es bis zu dreimal mehr Leistung bei doppelter Kapazität im Vergleich zu allen anderen Produkten auf dem Markt bieten. Dabei soll sich dank Unisphere für VMAX das Betriebsmanagement vereinfachen.
EMC VPLEX
Außerdem zeigte EMC Erweiterungen für seine die EMC VPLEX Umgebung. Dadurch soll sich die Leistungsfähigkeit um 40 Prozent erhöhen und die Skalierbarkeit verdoppeln lassen. EMC hebt die verbesserte Verfügbarkeit, Leistung und Verwaltung hervor. Die neue EMC VPLEX Umgebung soll damit die erste hochverfügbare Data Protection Lösung für Activ/Activ-Hybrid Cloud-Implementierungen sein. EMC VPLEX soll nun mit Storage-APIs für Storage-Awareness (VASA) und Storage-APIs für Array Integration (VAAI) von VMware vSphere integriert werden können.
- Fünf Thesen zur Virtualisierung
Virtualisierungstechniken sind vielerorts installiert, schöpfen aber ihr Potential zur Effizienzsteigerung und Kostenersparnis nicht aus. - These 1: Die zweite Virtualisierungswelle steht noch bevor
Virtualisierungstechnologien haben eine Revolution in der IT bewirkt. Zwei Hauptfaktoren haben sie zum festen Bestandteil in der Planung von IT-Infrastrukturen gemacht: die Basistechnologien für Virtualisierung sind zur Reife gelangt, woraus eine großen Produktauswahl für die Anwender hervorgegangen ist; zugleich sind die Rechnerkapazitäten durch Multicore-Server so stark gestiegen, dass diese ohne geeignete Techniken gar nicht ausgelastet werden können. - These 2: Ein Hypervisor macht noch keine moderne IT-Umgebung
Stellt sich die Frage, warum die Erneuerung der IT bislang stecken geblieben ist. Das Angebot ist da, es reicht von umfassenden Lösungen bis hin zu kostenlosen Produkten und Open-Source-Projekten. Sie erlauben es, eine stabile und zuverlässige virtualisierte Umgebung aufzubauen. Die Erkenntnis setzt sich durch, dass Technik - also der Hypervisor - allein noch keine Revolution im Rechenzentrum bewirken und quasi im Vorbeigehen Kosten sparen kann. - These 3: Storage-Virtualisierung ist der nächste logische Schritt
Server-Virtualisierung kann nicht gelingen ohne ein ausgefeiltes Storage-System. Lokaler Festplatten-Speicher genügt dabei nicht den Anforderungen an Hochverfügbarkeit, dynamischer Lastverteilung und hochgradiger Automatisierung. Shared Storage ist daher unabdingbare Voraussetzung. Speichersysteme müssen zuverlässig, ausfallsicher und flexibel sein. Sie müssen aber auch Kostenkontrolle bieten, denn gerade in virtualisierten Server-Umgebungen kann der Speicherbedarf explodieren. Gefragt sind Konzepte zur effizienten Speichernutzung sowie zur transparenten Integration verschiedener Systeme auch unterschiedlicher Hersteller zu einem Gesamtsystem. - These 4: Desktop-Virtualisierung nur betriebswirtschaftlich angehen
Trotz vieler Herausforderungen und noch verbesserungswürdiger Durchdringung in der aktuellen IT-Landschaft ist die Server-Virtualisierung eine akzeptierte Technik, die viele Unternehmen auf dem Radar ihrer anstehenden Investitionen haben. Zunehmend rückt darüber hinaus die Virtualisierung von Desktops in den Fokus der IT-Verantwortlichen. Denn auch hier locken ähnliche Vorteile wie für die Server. - These 5: Die Cloud braucht noch Zeit
Cloud Computing ist der nächste folgerichtige Evolutionsschritt der Virtualisierung in der Unternehmens-IT. Cloud Computing wird dabei häufig irrigerweise synonym mit Virtualisierung verwendet, meint aber vor allem die automatisierte und standardisierte Bereitstellung abstrahierter IT-Infrastrukturen wie zum Beispiel Rechenkapazität, Datenspeicher, fertige Programmpakete, die ein Anbieter dynamisch an den Bedarf angepasst auf Basis von Virtualisierungstechnologien über ein Netzwerk zur Verfügung stellt. Die Abrechnung erfolgt dabei meist nutzungsabhängig.
VNX
Eine Erweiterung der VNX-Familie soll neben einer Leistungs- und Effizienzerhöhung vor allem die Anschaffungskosten senken. So werden die Speicher für Flash-Laufwerke bis zu 38 Prozent günstiger. Der neue VNXe3150 soll bis zu 50 Prozent mehr Leistung und Kapazität pro Rack-Einheit bieten. Die dazu gehörige Appsync-Software soll die virtualisierten Microsoft-Applikationen in VNX-Umgebungen mit nur einem Mausklick schützen.