Cloud Provider locken Kunden mit Machine Learning und KI
Google attackiert Amazon und Microsoft
Das Wettrüsten im Cloud-Computing-Marktdreht sich längst nicht mehr nur um Rechenleistung. Vor allem die großen Public-Cloud-Provider wollen es ihren Kunden einfacher machen, intelligente Anwendungen mit Machine-Learning-Features zu nutzen. AWS beispielsweise offeriert den "Amazon Machine Learning"-Service. Er verspricht Entwicklern unter anderem Visualisierungstools und Assistenten, die sie beim Aufbau von Machine Learning-Modellen (ML) unterstützen, ohne dass Sie dafür komplexe ML-Algorithmen und Technologien erlernen müssten.
Erst im Oktober erklärte Microsoft-CEO Satya Nadella Machine Learning zu einem Schlüsselthema für den Cloud-Computing-Markt.MicrosoftMicrosoft arbeite intensiv daran, einschlägige Techniken und Features in alle seine Cloud-Produkte zu integrieren - von Infrastruktur- und Plattform-Diensten im Rahmen von Azure bis hin zur Business-Software Dynamics und der Büro-Suite Office 365. Alles zu Microsoft auf CIO.de
Der CRM-Spezialist Salesforce setzt ebenfalls verstärkt auf Künstliche Intelligenz (AI, Artficial Intelligence) in seinen Cloud-Services, während IBM massiv in seine AI-Produkte rund um Watson investiert. Aber auch Industriekonzerne wie GE und Siemens nutzen für branchenspezifische Aufgaben verstärkt Cloud-Plattformen, die mithilfe vonMachine LearningMachine Learning und Künstlicher Intelligenz beispielsweise Energie sparen oder Wartungskosten senken sollen. Alles zu Machine Learning auf CIO.de
Besonders intensiv arbeiten die Cloud-Verantwortlichen von GoogleGoogle unter Führung der VMware-Mitgründerin Diane Greene an diesem Thema. Erst kürzlich gab der Suchmaschinenkonzern bekannt, zwei der weltweit führenden AI-Expertinnen angeworben zu haben: Fei-Fei Li, die an der Stanford University als Spezialistin für Machine Learning arbeitet, und Jia Li, Forschungsleiterin bei Snap, dem Unternehmen, das die erfolgreiche Social-Network-Plattform SnapChat betreibt. Zugleich kündigte Google eine ganze Reihe neuer Machine-Learning-Dienste und -Features sowie spezialisierte Hardware auf Basis von Grafikprozessoren an. Der Konzern will damit vor allem neue Business-Kunden auf seine Cloud-Plattform locken und gegenüber den Platzhirschen AWS und Microsoft Azure Boden gutmachen. Alles zu Google auf CIO.de
Google Cloud Jobs API findet die richtigen Bewerber
Zu den Neuerungen in Googles Cloud-Portfolio gehört etwa die "Cloud Jobs API". Unternehmen sollen damit ein Cloud-basiertes Tool erhalten, mit dem sie beispielsweise die besten Bewerber für eine bestimmte Stelle finden können. Der Service nutzt dabei unter anderem Daten zur Qualifikation der Kandidaten. Umgekehrt könnten auch Bewerber nach Eingabe ihrer Daten Jobangebote finden, die exakt zu ihrem Profil passen, verspricht Google. Cloud Jobs API befindet sich noch in der Alpha-Phase. Potenzielle Kunden aus den USA und Kanada testen das System derzeit, darunter etwa FedEx oder Career Builder. Wann der Service allgemein verfügbar sein wird, ist offen.
Cloud Translation Premium verspricht weniger Fehler
Ein weiterer neuer Google-Service heißt "Cloud Translation API Premium". Im Vergleich zur bereits angebotenen Variante sollen sich damit die Geschwindigkeit und Genauigkeit von Übersetzungen verbessern lassen, sodass der Dienst für Business-Kunden attraktiver werden könnte. Die neuen Modelle hinter der API ermöglichen es laut Google, Übersetzungsfehler um 55 bis 85 Prozent gegenüber der älteren API zu reduzieren.
Unternehmenskunden fragen in diesem Kontext zunehmend fortgeschrittene Features nach, erklärte Rob Craft, Googles Group Product Manager für Cloud Machine Learning, in einem Interview. Dazu gehöre beispielsweise die Option, Übersetzungsmodelle mithilfe von fachspezifischen Wörterbüchern zu trainieren. Interessant sei dies beispielsweise für Unternehmen, die bestimmte Dokumententypen wie Verträge oder Finanzinformationen übersetzen müssen. Mithilfe spezifischer Dictionaries lasse sich die Genauigkeit entscheidend verbessern. Google Cloud Translation Premium soll in Kürze allgemein verfügbar sein. Die Preise werden laut Anbieter über dem Niveau der bisher offerierten Übersetzungsdienste liegen.
Cloud Natural Language API überzeugt Evernote von der Google Cloud
Bereits nutzbar ist die "Cloud Natural Language API". Der Dienst soll von Menschen geschriebene Sätze verstehen und maschinell analysieren können. Dabei ist es laut Google sogar möglich, jeden einzelnen Satz einer Sentiment-Analyse zu unterziehen. Bisher konnte ein Sentiment Score jeweils nur für den Inhalt eines ganzen Dokuments generiert werden.
Mit derartigen Features konnte der Internet-Konzern beispielsweise den populären Web-Dienst Evernote überzeugen, seine gesamte IT-Infrastruktur in die Google Cloud zu verlagern. Die Migration begann im Oktober und soll Ende des Jahres abgeschlossen sein. Evernote-CTO Anirban Kundu machte in einem Interview deutlich, dass es bei der Entscheidung für einen Public-Cloud-Provider nicht nur um die Infrastruktur gegangen sei. Vielmehr plane Evernote, die Machine-Learning-Services von Google für die Weiterentwicklung der eigenen Produkte zu nutzen.
Bilderkennung als Service kostet 80 Prozent weniger
Zu den populärsten Machine-Learning-basierten Diensten im Google Portfolio gehört "Cloud Vision API". Damit lassen sich etwa Bildinhalte erkennen und analysieren, ohne dass Benutzer für entsprechende Anwendungen eigene Algorithmen entwickeln müssen. Der amerikanische Disney-Konzern nutzt Cloud Vision API beispielsweise, um ein eigenes Marketing-Tool zu entwickeln. Google hat das Potenzial des Produkts erkannt und adressiert damit verstärkt Business-Kunden. Für diese Klientel koste der Service künftig 80 Prozent weniger, erklärte Cloud-Manager Craft. Google gehe es darum, solche Dienste für unterschiedlichste Business-Anwendungen und Unternehmenskunden erschwinglicher und einfacher zu machen.
GPUs beschleunigen die Google Cloud
Geht es um die Infrastruktur für Machine Learning und Künstliche Intelligenz (KI), setzt nun auch Google verstärkt auf Grafikprozessoren statt auf klassische CPUs. Die Graphics Processing Units (GPUs) eignen sich besonders für leistungshungrige Workloads, wie sie etliche Machine-Learning-Anwendungen erzeugen. Ab dem kommenden Jahr offeriert Google deshalb für seine Cloud-Infrastruktur- sowie für seine Managed-Machine-Learning Services auch GPU-Ressourcen. Kunden sollen je nach Bedarf GPUs für ihre Infrastruktur-Instanzen hinzubuchen können. Googles "Cloud Machine Learning"-Services nähmen beispielsweise automatisch GPUs in Anspruch, wenn ein entsprechender Bedarf erkannt werde.
Ähnliche Optionen haben indes auchAmazonAmazon und Microsoft für ihre Cloud-PlattformenCloud-Plattformen im Programm. Im Gegensatz zu diesen Anbietern, die beide Nvidia-GPUs nutzen, setzt Google auf AMDs Radeon-basierte GPUs vom Typ "FirePro S9300 x2". AMD ist kein Neueinsteiger, wenn es um Hardware für die Public Cloud geht. So kooperiert der US-Hersteller beispielsweise auch mit Alibaba, um die Cloud-Plattformen des chinesischen Konzerns mit GPUs auszustatten. Alles zu Amazon auf CIO.de Alles zu Cloud Computing auf CIO.de
- Apache Spark MLlib
Früher als Teil des Hadoop-Universums bekannt, ist Apache Spark mittlerweile ein bekanntes Machine-Learning-Framework. Sein umfangreiches Angebot an Algorithmen wird ständig überarbeitet und erweitert. - Apache Singa
Singa, seit kurzem Teil des Apache Incubator, ist ein Open-Source-Framework, das Deep-Learning-Mechanismen auf große Datenvolumen hin „trainieren“ soll. Singa stellt ein simples Programmierungsmodell für Deep-Learning-Netzwerke bereit und unterstützt dabei diverse Entwicklungsroutinen. - Caffe
Caffe umfasst ein ganzes Set von frei verfügbaren Referenzmodellen für gängige Klassifizierungsroutinen; die gewachsene Caffe-Community steuert weitere Modelle bei. Caffe unterstützt die Nvidia-Programmiertechnik CUDA, mit der Programmteile wahlweise auch durch den Grafikprozessor (GPU) abgearbeitet werden können. - Microsoft Azure ML Studio
Weil die Cloud also die ideale Umgebung für ML-Anwendungen darstellt, hat Microsoft seine Azure-Cloud mit einem eigenen ML-Service auf der Basis von „pay as you go“ ausgestattet: Mit Azure ML Studio können Nutzer KI-Modelle entwickeln und trainieren und anschließend in APIs umwandeln, um diese wiederum Anderen zur Verfügung zur stellen. - Amazon Machine Learning
Amazon Machine Learning arbeitet mit Daten, die in einer Amazon-Cloud wie S3, Redshift oder RDS liegen und kann mithilfe binärer Klassifizierungen und Multiklassen-Kategorisierung von vorgegebenen Daten neue KI-Modelle bauen. - Microsoft DMTK
Das DMTK (Distributed Machine Learning Toolkit) von Microsoft soll ML-Anwendungen über mehrere Maschinen hinweg skalieren. Es ist eher als "Out of the Box"-Lösung gedacht und weniger als Framework - entsprechend gering ist die Anzahl der unterstützten Algorithmen. - Google TensorFlow
TensorFlow basiert auf sogenannten Data-Flow-Graphen, in denen Bündel von Daten („Tensors“) durch eine Reihe von Algorithmen verarbeitet werden, die durch einen Graph beschrieben sind. Die Bewegungsmuster der Daten innerhalb des Systems heißen „Flows“. Die Graphen lassen sich mittels C++ und Python zusammenbauen und via CPU oder GPU verarbeiten. - Microsoft CNTK
Das Microsoft Computational Network Toolkit funktioniert ähnlich wie Google TensorFlow: Neuronale Netze lassen sich durch gerichtete Graphen erzeugen. Microsofts eigener Beschreibung zufolge lässt sich CNTK außerdem mit Projekten wie Caffe, Theano und Torch vergleichen – sei aber schneller und könne im Gegensatz zu den genannten gar parallel auf Prozessor- und Grafikprozessorleistung zugreifen. - Samsung Veles
Das Samsung-Framework ist dazu gedacht, Datensätze zu analysieren und automatisch zu normalisieren, bevor sie in den Produktivbetrieb übergehen – was wiederum durch eine eigene API namens REST sofort möglich ist – vorausgesetzt, die eingesetzte Hardware hat genügend Power. Der Python-Einsatz in Veles umfasst auch ein eigenes Analyse- und Visualisierungstool namens Jupyter (früher IPython) für die Darstellung einzelner Anwendungs-Cluster. - Brainstorm
Brainstorm setzt auf Python, um zwei Data-Management-APIs („Handers“ genannt) bereitzustellen – eine für CPU-Prozessing durch die Bibliothek „Numpy“ und eine für GPU-Verarbeitung via CUDA. Eine benutzerfreundliche GUI ist in Arbeit. - mlpack 2
Die neue Version der in C++ geschriebenen Machine-Learning-Bibliothek mlpack, die erstmals im Jahr 2011 erschien, bringt eine Menge Neuerungen mit – darunter neue Algorithmen und überarbeitete alte. - Marvin
Der Quellcode von Marvin ist sehr übersichtlich - die enthaltenen vortrainierten Modelle (siehe Bild) ermöglichen aber bereits eine umfangreiche Weiterentwicklung. - Neon
Neon von NervanaSystems ist ein Open-Source-Framework, das auf ein- und abschaltbaren Modulen basiert und KI-Prozesse via CPU, GPU oder Nervanas eigener Hardware ermöglicht.