Integration unterschätzt
6 Irrtümer bei der Cloud-Integration
Genau diese Flexibilität ist aber zwingend erforderlich.
Fehler vier: CIOs unterschätzen Kosten
Ein Mythos von Cloud ComputingCloud Computing ist, dass Lizenzkosten für Software und Hardware entfallen, weil nur nach Verbrauch abgerechnet wird. In der Tat gibt es preislich attraktive Starterpakete mit einer begrenzten Anzahl an Funktionen und Services. Allerdings tappen viele CIOs hier in die Kostenfalle. Steigende Datenvolumina, mehr Datenquellen und die benötigten Konnektoren für deren Integration treiben die Preise nämlich drastisch in die Höhe. Die Autoren des Whitepaper bezeichnen dies als "Data Tax". Den IT-Leitern bleibt dann nur die Wahl, den kompletten Stack mit allen Funktionen zu beziehen und zu bezahlen oder den Cloud-Anbieter zu wechseln. Alles zu Cloud Computing auf CIO.de
Fehler fünf: Bedeutung von Visionen wird unterschätzt
Häufig klaffen die Visionen von Unternehmen und Software-Anbietern im Hinblick auf die Integration und Cloud Computing auseinander. Das ist der Hauptgrund, warum es in Projekten hakt und Ursache für Frustrationen und Fehler. Etablierte Software-Anbieter sind oft zu behäbig, um speziell kleinere Kunden mit den richtigen Cloud-Angeboten zu versorgen. Neuen Marktteilnehmern wiederum fehlen ausgefeilte Modelle für das Lebenszyklus-Management von Cloud-Lösungen und Kompetenzen bei Fragen zur Datenqualität und zum Master Data Management (MDM).
Fehler sechs: CIOs ignorieren Open-Source-Angebote
CIOs beziehen bei der Cloud-Integration kaum Open-Source-Angebote in den Auswahlprozess ein. Diese können einen Ausweg aus der Data Tax sein. Open-Source-Software kann frei weiterentwickelt werden, zudem entfallen Kosten bei der Skalierung des Datenvolumens. Hinzu kommt, dass Open-Source-Komponenten bereits die Grundlage für viele Cloud-Projekte bilden. Die Linux-Kernel-Infrastruktur KVM wird zur Virtualisierung eingesetzt und der Hypervisor Xen ermöglicht den Betrieb mehrerer virtueller Maschinen auf einem physischen Server. Mit Hilfe des Hadoop-Framework lassen sich große Datenmengen speichern, verwalten und analysieren. Darüber hinaus gibt es quelloffene Cloud-Betriebssysteme, Infrastruktur-Layer, Datenbanken und Applikations-Server.