Hewlett Packard Enterprise (HPE) hat auf seiner Kundenkonferenz Discover in Las Vegas HPE GreenLake for Large Language Models (LLMs) angekündigt. Bei dem KI-Service handele es sich um das erste Angebot aus der neuen Supercomputer-Cloud des Anbieters, hieß es. Kunden erhielten damit ein sofort einsatzfähiges LLM für Anwendungsfälle, die Text- und Bildverarbeitung sowie entsprechende Analysen erforderten. HPE kooperiert an dieser Stelle mit dem deutschen KI-Anbieter Aleph Alpha.
"Wir befinden uns mit der KI in einem Wandel, der den Markt ebenso stark verändern wird wie vorher das Web, Mobile Computing und die Cloud", sagte Antonio Neri, President und CEO von HPE. KI sei bis dato die Domäne von staatlich finanzierten Institutionen und Cloud-Giganten gewesen. HPE mache die Technik nun mit einer Reihe von KI-Anwendungen allen zugänglich. "Jetzt können Organisationen KI nutzen, um Innovationen voranzutreiben und Märkte zu verändern."
KI-Native Supercomputing-Architektur in der Cloud
HPE verfolgt dabei einen anderen Ansatz als die Hyperscaler. "Im Gegensatz zu General-Purpose-Clouds, die mehrere Anwendungen parallel ausführen, läuft HPE GreenLake for LLMs auf einer KI-nativen Architektur, die speziell für die Ausführung einer großen KI-Trainings- und Simulations-Umgebung entwickelt wurde", heißt es in einer Mitteilung des Konzerns. KI-Workloads würden auf Hunderten oder sogar Tausenden CPUs oder GPUs parallel bearbeitet. Das sei HPE zufolge wesentlich effektiver, zuverlässiger und effizienter für das KI-Training und erlaube die Entwicklung präziserer KI-Modelle. Kunden könnten damit ihren Weg vom Proof of Concept bis zum produktiven Einsatz beschleunigen und Probleme schneller lösen.
Lesen Sie, wie Greenlake zum Dreh- und Angelpunkt in HPEs Produktstrategie wird:
Unified Analytics & Data Protection: Neue Cloud-Dienste für HPE GreenLake
Network as a Service in GreenLake: HPE im As-a-Service-Endspurt
HPE Discover Frankfurt: Mangelnde Datenreife bremst Organisationen aus
Zentraler Bestandteil von HPE GreenLake for LLMs ist Luminous, ein vortrainiertes LLM von Aleph Alpha, das in mehreren Sprachen angeboten wird: Englisch, Französisch, Deutsch, Italienisch und Spanisch. Kunden könnten darauf aufsetzend ihre eigenen Daten nutzen, um individuelle Modelle zu trainieren und zu optimieren, versprechen die HPE-Verantwortlichen.
Luminous - LLM für geschäftskritische Workloads
"Mithilfe von HPEs Supercomputern und KI-Software haben wir Luminous effizient und schnell trainiert - als großes Sprachmodell für geschäftskritische Abläufe beispielsweise in Banken, Krankenhäusern oder Anwaltskanzleien", sagte Jonas Andrulis, Gründer und CEO von Aleph Alpha. Luminous könne als digitaler Assistent eingesetzt werden, um die Entscheidungsfindung zu beschleunigen sowie Zeit und Ressourcen zu sparen.
HPE GreenLake for LLMs wird dem Anbieter zufolge auf HPE-Cray-XD-Supercomputern laufen. Zum Angebot gehört außerdem das HPE Cray Programming Environment, eine Software-Suite zur Optimierung von HPC- und KI-Anwendungen. Es bietet unter anderem Werkzeuge für die Entwicklung, Portierung, Fehlersuche und Optimierung von Softwarecode. Darüber hinaus unterstützt die Supercomputing-Plattform HPE zufolge die eigene KI/ML-Software, darunter das HPE Machine Learning Development Environment zum schnellen Trainieren großer Modelle und die HPE Machine Learning Data Management Software. Letztere dient dazu, mithilfe von KI-Funktionen Daten zu integrieren, nachzuverfolgen und zu prüfen. Das helfe Anwendern, vertrauenswürdige und präzise Modelle zu bauen.
High Performance Computing: HPE übernimmt Cray
HPE will seine neuen KI-Dienste über Colocation-Rechenzentren anbieten. Ein erster Partner ist die Firma QScale aus dem kanadischen Quebec. QScale stellt eine spezielle Umgebung für Supercomputer bereit, die mit nahezu 100 Prozent erneuerbarer Energie betrieben werden. HPE GreenLake for LLMs kann laut HPE ab sofort geordert werden, ist aber erst einmal nur in Nordamerika verfügbar. Europa soll Anfang 2024 folgen.
HPE plant branchenspezifische KI-Anwendungen
Das LLM und die Kooperation mit Aleph Alpha soll nur der Anfang sein. HPE spricht von einer Reihe weiterer branchen- und domänenspezifischer KI-Anwendungen, die der Anbieter über seine multimandantenfähige Supercomputer-Cloud auf den Markt bringen will. Dazu gehörten beispielsweise Klimamodellierung, Gesundheitswesen und Biowissenschaften, Finanzdienstleistungen, Fertigung und Transportwesen.
Für Andrulis, der Aleph Alpha 2019 zusammen mit Samuel Weinbach gegründet hatte, ist die Kooperation mit HPE ein wichtiger Schritt. Der US-Konzern helfe mit seiner Vertriebsmacht und kenne aus Erfahrung viele Probleme bei den Kunden, sagte der Manager im Gespräch mit der "WirtschaftsWoche". Die Partnerschaft sei aber nicht exklusiv, und man wolle auch weiterhin an einem eigenen Rechenzentrum festhalten. HPE werde auch mit anderen KI-Anbietern kooperieren, sagte Andrulis der WiWo. "Und wir können mit anderen Hardwarelieferanten und Cloud-Betreibern arbeiten."
Erst Anfang Mai sickerte durch, dass sich SAP an Aleph Alpha beteiligen will. Auf der Digitalkonferenz OMR in Hamburg hatte SAP-Chef Christian Klein durchblicken lassen, dass Aleph Alpha einen guten Job mache, jetzt aber auch gute Partner brauche. Auch über einen Einstieg Intels beim deutschen KI-Startup wird seit Wochen spekuliert. Andrulis wurde vor wenigen Tagen in das neu zusammengestellte Präsidium des Digitalverbands Bitkom gewählt.