Umzug ins Rechenzentrum
Wichtige Kriterien bei der Auswahl eines Data Centers
Für Dienste-Anbieter und Systemhäuser werden die Anforderungen an die Verfügbarkeit und Sicherheit von Netzen und Anwendungen immer sicherheitskritischer. Gleichzeitig wird der Aufwand für den Betrieb eigener Infrastrukturen mit Servern, TK-Anlagen, IT-Security-Architekturen und qualifizierten Mitarbeitern immer größer. Viele Unternehmen haben sich deshalb für ein externes Datacenter entschieden. NetTask, ein Anbieter von Cloud-Services, benennt in diesem Anwenderbericht die wichtigsten Anforderungen und warum ein Datacenter wirtschaftlicher und zudem sicherer ist.
Die NetTask GmbH, ein junges Unternehmen im sächsischen Hohenstein-Ernstthal, entwickelt unternehmensorientierte "Cloud Services". Sie ermöglichen Geschäftskunden im europäischen Wirtschaftsraum "ein Büro, das zu jeder Zeit an jedem Ort verfügbar ist", so Marco Rutzke, Managing Partner bei NetTask.
"Wir verlagern mit unseren Cloud Services die gesamte Office-Umgebung unserer Kunden einfach in die Cloud. Das macht die Kommunikation effizienter, ermöglicht neue Dienste ohne eigene Investitionen und verringert so die Kosten." Die Cloud-Dienste umfassen Telefonie-, Konferenz- und Zusammenarbeits-Funktionen, Instant Messaging (Chat) oder stellen über das Internet eine professionelle Telefonanlage zur Verfügung.
- 8 Trends bei Servern und Data Center
Forrester erwartet für die nächste Zeit Bewegung im Server- und Rechenzentrums-Markt - darunter neue x6 CPU-Angebote und Druck, den Energieverbrauch zu senken. - 1. Nächster größerer x86-Server-Zyklus:
Gegen Ende des Jahres rechnet Fichera mit dem einflussreichsten Ereignis: der nächsten Generation an CPUs und Servern, die auf der Ivy Bridge-Architektur von Intel basieren. Es werde zunächst eine Überlappung mit den derzeitigen E5 CPUs geben. Die neuen E7 CPUs hingegen machten voraussichtlich einen Sprung hin zu einer neuen Architektur und einem 22 nm-Prozess. Forrester prognostiziert, dass dabei ein Teil der Ressourcen für eingebaute Beschleuniger wie Kryptographie und Virtual Machine Acceleration sowie in zusätzliche Sicherheitsfeatures, die bereits von anderen Ivy-Bridge-Chips bekannt sind, verwendet werden. - 2. Entschleunigung bei den ARM-Servern:
Der ARM-Gegenpol Cortex A53/A57 werde vermutlich erst Ende des Jahres erhältlich sein, die ersten Systeme sogar erst im kommenden Jahr. Für einen Schub sorgten immerhin die Aktivitäten vom AMD, das eine ARM-Architektur-Lizenz angeschafft und SeaMicro übernommen hat. - 3. Auch AMD bleibt Nischenspieler:
Wenn AMDs neue Piledriver-CPUs die Vorgänger der Bulldozer-Serie nicht mehr als deutlich übertreffen, tut sich dieser Anbieter laut Forrester im Mainstream-Server-Geschäft schwer. Es verbleibt die Nische der hohen Taktfrequenz bei geringer Power und niedrigem Preis. Unbekannte in dieser Kalkulation bleiben laut Studie vorerst das erwähnte neue ARM-Standbein und die integrierte CPU/GPU-Technologie für Laptop- und Desktop-Produkte. - 4. Hybrid Scalar/GPU wird Mainstream:
Nach den ersten Erfolgen von Nvidia und AMD im GPU-Segment mischt Intel hier seit 2012 mit dem Intel Xeon Phi mit. In Sachen Performance hinkt man laut Forrester zwar hinterher, aber der Trumpf ist die Kompatibilität mit x86-Codes. Dieses Scharnier lässt die GPU-Technologie nun wirklich im Mainstream ankommen, insbesondere in der hybriden System-Form mit x86- und GPU-Prozessoren. - 5. Konvergente Infrastrukturen entwickeln sich weiter:
Alle Anbieter haben die neue Intel-Technologie in ihr Portfolio an Blade Servern und Converged Infrastructures (CIs) aufgenommen. Laut Forrester wird nach IBMs PureSystems-Produktlinie in diesem Jahr HP im Blade-Bereich nachziehen. Schneller voran soll es aber vor allem auch bei den Storage-zentrierten CIs gehen, die teilweise für virtualisierte Umgebungen optimiert werden, teilweise zur Basis-Technologie für die Private Cloud getrimmt werden. Forrester nennt hierzu als Beispiele die teilweise modularen Angebote von Nutanix, SimplVity und HDS. - 6. Mehr DCIM-Lösungen:
Der Anspruch von DCIM-Lösungen ist es, die physische Umwelt im Rechenzentrum ganzheitlich zu erfassen und Zukunftsszenarien fassbar zu machen. Forrester macht Schneider und Emerson als vorerst wichtigste Anbieter aus und nennt einige grundlegende Funktionen für DCIM-Software: Inventory & Discovery, eine fortlaufende Sammlung von Daten, konsolidiertes Display, Trend-Analyse und Modell-Lösungen für die Implementierung. - 7. Fortschritte beim modularen Rechenzentrum:
Die herausragenden Vorzüge modularer Rechenzentren bleiben laut Studie vorerst bestehen. Erstens sind sie etwas günstiger als konventionelle Data Center, zweitens sehr viel schneller zu erwerben. Die Hülle gibt es in der Regel binnen sechs bis zwölf Wochen. In höchstens zwei Jahren sollte auch die Infrastruktur eines klassischen Rechenzentrums installiert sein. - 8. SDDC gewinnt an Bedeutung:
Das Software-Defined Data Center (SDDC), ursprünglich von VMWare propagiert, gewinnt laut Studie als Organisationskonzept für komplexe virtualisierte Infrastrukturen an Gewicht. Bereitgestellt werde eine komplett Software-basierte Abstraktion des Rechenzentrums, die alle Server, Speicherkapazitäten und Netzwerke beinhalte.
Zu den Kunden zählen die Innovationsführer ihrer jeweiligen Branche, berichtet der CEO. Sie erwarten Dienste in größtmöglicher Qualität. Sie müssen jederzeit reibungslos zur Verfügung stehen, den deutschen Datenschutzanforderungen entsprechen und komplett sicher sein. Das setzt eine besonders abgesicherte Infrastruktur in einem Hochleistungs-Rechenzentrum voraus. Hier vertraut NetTask auf die Datacenter-Leistungen von envia TEL.