Das Cloud Computing hat den Einsatz von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) revolutioniert, denn es hat es erschwinglich gemacht. Branchenkenner beobachten in den USA dennoch ein Umdenken bei der Frage, wo KI/ML-Verarbeitung und KI/ML-gekoppelte Daten gehostet werden sollen. Lange Zeit war es selbstverständlich, öffentliche Cloud-Anbieter zu nutzen. Mittlerweile werde das Hosting von KI/ML und der benötigten Daten bei Cloud-Hyperscalern in Frage gestellt. Doch warum?
Die Cloud ist zu teuer
Die Antwort ist einfach: Die Kosten explodieren. So haben viele Unternehmen schnell und kostengünstig dedizierte, auf ihre Zwecke zugeschnittene KI/ML-Systeme in der Cloud entwickelt. Doch im Regelbetrieb sieht das schnell anders aus, wenn am Ende des Monats die Cloud-Rechnungen eintreffen. KI/ML-Systemen, einschließlich Terabytes oder Petabytes an Daten zu hosten, ist teuer. Außerdem treiben die Kosten für die Übertragung der Daten zu und vom Cloud-Anbieter, die Rechnung in die Höhe.
Unternehmen sehen sich deshalb anderen, kostengünstigeren Optionen um. Sie wenden sich an Managed-Service- und Co-Location-Provider (Colos) oder verlagern die Systeme sogar zurück in den alten Serverraum on-premises. Diese letzte Gruppe kehrt vor allem aus zwei Gründen zu "eigenen Plattformen" zurück.
Zum einen sind die Kosten für herkömmliche Rechen- und Speichergeräte in den letzten fünf Jahren stark gesunken. So stellen viele IT-Verantwortliche fest, dass traditionelle IT-Ansätze, einschließlich der Belastung, eigene Hardware und Software warten zu müssen, häufig günstiger sind als die ständig steigenden Cloud-Rechnungen.
Die Latenz bremst
Zum anderen haben viele im Zusammenhang mit der Cloud mit Latenzzeiten zu kämpfen. Abläufe verlangsamen sich, weil die meisten Unternehmen Cloud-basierte Systeme über das offene Internet nutzen. Zudem bedeutet das Modell der Mehrfachvermietung, dass Prozessoren und Speichersysteme in der Cloud mit vielen anderen zur gleichen Zeit geteilt werden. Gelegentliche Latenzzeiten können zu Umsatzeinbußen von mehreren Tausend Dollar pro Jahr führen, je nachdem, wozu die spezifischen Cloud-basierten KI/ML-System in der Cloud dienen.
Viele der KI/ML-Systeme, die von Cloud-Anbietern zur Verfügung gestellt werden, sind allerdings auch für herkömmliche Systeme verfügbar. Die Migration von einem Cloud-Anbieter auf einen lokalen Server ist meist billig und schnell zu bewerkstelligen. Sie ähnelt eher einem Lift-and-Shift-Prozess - vorausgesetzt, der Anwender ist nicht an ein KI/ML-System gebunden, das nur bei einem einzigen Cloud-Anbieter läuft.
Fazit
Das Cloud Computing wird auch weithin wachsen. Allerdings sind einige Applikationen, insbesondere KI-/ML-Systeme, die große Datenmengen und Verarbeitungsprozesse nutzen und empfindlich auf Latenzzeiten reagieren, in der Cloud nicht so kosteneffizient zu betreiben wie on-premsies. Dies könnte auch bei einigen größeren analytischen Anwendungen wie Data Lakes und Data Warehouses der Fall sein.
Verlagern Unternehmen KI/ML-Systeme ins eigene RZ vor Ort, können sie im Vergleich zum Hosting bei einem öffentlichen Cloud-Anbieter etwa die Hälfte ihrer jährlichen Kosten einsparen. Ein Business Case der überzeugend ist. So ist in den USA bereits zu beobachten, dass viele Arbeitslasten erst gar nicht in die Cloud verlagert werden. Die Cloud für KI/ML zu nutzen ist auf jeden Fall keine Selbstverständlichkeit mehr.