Online-Speicher
Amazon, Google und Microsoft im Cloud-Test
Christoph Lixenfeld, seit 25 Jahren Journalist und Autor, vorher hat er Publizistik, Romanistik, Politikwissenschaft und Geschichte studiert.
1994 gründete er mit drei Kollegen das Journalistenbüro druckreif in Hamburg, schrieb seitdem für die Süddeutsche Zeitung, den Spiegel, Focus, den Tagesspiegel, das Handelsblatt, die Wirtschaftswoche und viele andere.
Außerdem macht er Hörfunk, vor allem für DeutschlandRadio, und produziert TV-Beiträge, zum Beispiel für die ARD-Magazine Panorama und PlusMinus.
Inhaltlich geht es in seiner Arbeit häufig um die Themen Wirtschaft und IT, aber nicht nur. So beschäftigt er sich seit mehr als 15 Jahren auch mit unseren Sozialsystemen. 2008 erschien im Econ-Verlag sein Buch "Niemand muss ins Heim".
Christoph Lixenfeld schreibt aber nicht nur, sondern er setzt auch journalistische Produkte ganzheitlich um. Im Rahmen einer Kooperation zwischen Süddeutscher Zeitung und Computerwoche produzierte er so komplette Zeitungsbeilagen zu den Themen Internet und Web Economy inklusive Konzept, Themenplan, Autorenbriefing und Redaktion.
Googles Speicher sind am schnellsten
Die CW-Schwesterpublikation betrieb die insgesamt 14 DaCapo-Tests mit drei verschiedenen Linux-Konfigurationen in jeder Cloud und benutzte dabei die Java-Standardeinstellungen. Natürlich waren die Angebote nicht völlig identisch, aber in Sachen Größe und Preis absolut vergleichbar. Wie nicht anders zu erwarten, produzierten 14 Tests von neun Angeboten (drei Anbieter mit jeweils drei unterschiedlich großen Wolken) Unmengen von Daten, aus denen sich erst nach genauer Analyse aussagekräftige Ergebnisse herausfiltern ließen. Hier die wichtigsten:
1. Googles Clouds arbeiten am schnellsten, die von Windows Azure am langsamsten. 13 von 14 Tests absolvierte eine Google-Maschine am schnellsten. Windows war einmal am schnellsten, Amazon nie.
2. Google entpuppte sich insgesamt auch als der günstigste Anbieter, dicht gefolgt von Windows Azure. Acht von 14 Testanwendungen ließen sich auf einer Google-Maschine am billigsten ausführen. Amazon war nur bei einem Test am preiswertesten.
3. Wer nur auf die Kosten schielt und mit vergleichsweise wenig Leistung zufrieden ist, fährt mit Windows Azure Small VM (Einkernprozessor, sechs Cents pro Stunde) am besten. Diese Lösung absolviert alle 14 Tests zu einem Preis von 0,67 US-Cent. Allerdings ist diese Lösung auch eine der langsamsten. Googles n1-highcpu-2-Dienst brauchte für den gesamten Job nur halb so lange - und das zum Preis von nur 0,70 Cent.
4. Wenn Speed das wichtigste Kriterium ist, führt Googles "n1-standard-8"-Maschine die Tabelle an. Elf von 14 Tests erledigte sie am schnellsten, und alle Prüfungen zusammen in nur 101 Sekunden zum Preis von 2,32 Cent. Das heißt, diese Maschine ist genau viermal schneller als Windows Azure Small VM und dreieinhalb Mal so teuer.
5. Amazons Angebote waren selten wirklich günstig. Im Gegenteil: Unter den Angeboten für Einkernprozessoren lag Amazons m1.medium sowohl beim Preis als auch beim Tempo ganz hinten. Die c3.large-Maschine mit zwei Kernen war hingegen die zweitschnellste von allen, aber auch die teuerste.
- Checkliste Cloud-SLAs
Um zu beurteilen, ob ein Cloud-Provider kundenfreundliche SLAs anbietet, lassen sich folgende Kriterien anlegen und überprüfen: - Punkt 1:
Kurze und klare Gestaltung von Inhalt, Struktur und Formulierung. - Punkt 2:
Version in der Landessprache des Kunden. - Punkt 3:
Klare Definitionen von Fach- und Produktbegriffen zu Beginn. - Punkt 4:
Detaillierte Ankündigung und Planung der Wartungsfenster (Beispiel: "Viermal im Jahr an vorangemeldeten Wochenenden"). - Punkt 5:
Leistungsbeschreibung in Tabellenform (Übersicht!). - Punkt 6:
Klar definierte Bereitstellungszeiträume für neue Ressourcen (Beispiele: Bereitstellung virtueller Server bei Managed Cloud in maximal vier Stunden; Bereitstellung kompletter Umgebungen oder dedizierter Server in fünf bis zehn Tagen). - Punkt 7:
Bereitstellung von klar abgegrenzten Konfigurationsoptionen für Ressourcen (Beispiel: Konfiguration von Servern nach Gigahertz, Gigabyte). - Punkt 8:
Einfach unterscheidbare Service-Levels (Beispiel: Silber, Gold, Platin); Abgrenzungskriterien können sein: Verfügbarkeit, Bereitstellungszeiten, fest reservierte Kapazitäten ja/nein, Support-Level (Telefon, E-Mail). - Punkt 9:
Bei IaaS-Angeboten unbedingt auf Netzwerk-Konfigurationsmöglichkeiten und Bandbreite achten (Volumen? Im Preis inkludiert ja/nein?). - Punkt 10:
Kundenfreundlicher Reporting- beziehungsweise Gutschriftenprozess (am besten aktive Gutschriften auf Kundenkonto; kein bürokratischer, schriftlicher Prozess; möglichst einfache Beweis- und Nachweispflicht für Kunden). - Punkt 11:
Reaktionszeiten und Serviceverfügbarkeit klar beschreiben (zentrale Hotline; Reaktionszeiten auf Incidents in Stunden). - Punkt 12:
Nennung der Rechenzentrumsstandorte mit Adresse und sonstigen Informationen wie Zertifizierungen und Tier. - Punkt 13:
Definition der Verfügbarkeiten: Unterschiede hinsichtlich Verfügbarkeit Server/VM und Verfügbarkeit Admin-Konsole definieren. - Punkt 14:
Erläuterung zu Möglichkeiten der SLA-Überwachung beziehungsweise des Incident-Reportings für den Anwender (Beispiel: Link auf Monitoring-Dashboard).