Geht es um digitale Transformation oder Industrie 4.0, kommt die Rede schnell auf Künstliche Intelligenz (KI) und deren Unterkategorien Machine Learning (ML) und Deep Learning (DL). Besonders viel Aufmerksamkeit erfährt aktuell die Deep-Learning-Technik, die auf selbstlernenden, neuronalen Netzwerken basiert.
Deep Learning liefert beispielsweise die Grundlage für die Spracherkennung und -steuerung von Smartphones, Tablets und Fernsehern oder sorgt in autonomen Fahrzeugen für die automatische Erkennung von Fußgängern und Objekten wie Verkehrszeichen. Deep-Learning-Technologien eröffnen aber auch Unternehmen vielfältige Anwendungsmöglichkeiten, zum Beispiel im Service, im Callcenter oder zu Predictive-Maintenance-Zwecken in der Produktion.
Im Rahmen von Deep-Learning-Analysen werden die Daten, die unaufhörlich aus Sensoren, Steuerungen und Leitständen einströmen, untersucht. Auf dieser Grundlage ermitteln die Systeme eigenständig, ob eine Anlage in naher Zukunft Ausschuss produzieren wird oder Bauteile ausfallen werden - eine Definition von Schwellenwerten ist dazu nicht nötig. Machen die Algorithmen ein erhöhtes Ausfallrisiko aus, wird umgehend die Reparatur oder der Austausch der betroffenen Komponente empfohlen.
Diese vorausschauende Instandhaltung reduziert kostspielige Stillstandzeiten deutlich und erhöht die Verfügbarkeit und die Leistung der Anlagen. Im Lauf der Zeit entstehen so selbstlernende und selbststeuernde Regelkreise, über die die Fabrikationsanlagen weitgehend autonom agieren und sich selbst optimieren.
Deep Learning transformiert Callcenter
Im Kundenservice kann die Effizienz und die Qualität mit Hilfe von Deep Learning erhöht werden. Durch den Einsatz entsprechender Software für Sprach- und Texterkennung (und in Verbindung mit Chatbot-Services) lassen sich Standardanfragen von Kunden automatisiert, rund um die Uhr und auf dem jeweils gewünschten Kontaktkanal beantworten. Den Mitarbeitern im Service bleibt so mehr Zeit für komplexe oder kritische Anfragen.
Callcenter-Betreiber können mit Deep Learning auch alle aufgezeichneten Anrufe präzise erfassen und automatisch bewerten, was ein umfassendes Audio-Scoring ermöglicht. Das ist wiederum eine wichtige Grundlage, um die Lead-Qualifizierung deutlich verbessern und zusätzliches Umsatzpotenzial erkennen und erschließen zu können.
Auf Grundlage der Erkenntnisse aus dem Audio-Scoring könnten Sie aber beispielsweise auch das Kommunikationstraining Ihrer Mitarbeiter sehr gezielt steuern, was sich positiv auf deren Motivation auswirken und so gleichzeitig die Kundenzufriedenheit erhöhen würde. Ein entsprechendes Szenario haben Experten aus dem Bechtle Competence Center Deep Learning, High Performance Computing und GRID bereits mit Erfolg implementiert.
Kostengünstiger KI-Einstieg für den Mittelstand
Diese Beispiele zeigen exemplarisch das Wertschöpfungspotenzial von Deep Learning für die Wirtschaft. Das McKinsey Global Institute wird in einer aktuellen Untersuchung von 400 Deep-Learning-Anwendungsfällen aus unterschiedlichen Branchen konkret und beziffert dieses Potenzial auf 5,8 Milliarden Dollar pro Jahr.
Mittelständische Unternehmen in Deutschland halten sich mit Investitionen in Deep Learning derzeit hingegen noch zurück. Laut der Studie "Machine Learning / Deep Learning 2018", für die IDG Research rund 350 IT-Verantwortliche und -Entscheider befragte, nutzen lediglich 15 Prozent der Mittelständler hierzulande entsprechende Technologien.
Um diese Zurückhaltung abzulegen, brauchen mittelständische Unternehmen einen kostengünstigen und schnellen Einstieg in die Deep-Learning-Welt - der ebenso schnell zu Erfolgen führt. Der lässt sich am besten durch ein überschaubares Projekt und mit einem Prototyp herstellen: eine DL-basierte Predictive-Maintenance-Lösungen etwa würden Sie hierbei zunächst nur für eine Fabrikationsanlage, zum Beispiel eine Spritzgießmaschine, umsetzen.
Das ist in der Regel binnen weniger Monate und unter überschaubarem Kostenaufwand möglich. Erreichen Sie damit die Ziele, die Sie sich gesetzt haben, können Sie dieses Szenario Schritt für Schritt und in der Geschwindigkeit, die zu Ihrem Unternehmen passt, auf weitere Anlagen des Maschinenparks übertragen.
Deep-Learning-Erfolgsfaktoren
Ein wichtiger Erfolgsfaktor für Deep-Learning-Projekte ist eine möglichst große Anzahl qualitativ hochwertiger Daten für das Training der neuronalen Netze. Ebenso wichtig ist dabei ein ausgewogener Mix aus "positiven" und "negativen" Trainingsdaten. Die Einbeziehung "negativer" Daten, wie sie im Fall einer Störung oder Fehlfunktion anfallen, ermöglicht exakte und realitätsnahe Analysen. Für die Gewinnung, Aufbereitung und Optimierung der Trainingsdaten braucht es jedoch auch speziell qualifizierte IT-Fachkräfte wie Data Scientists.
Ein weiterer Punkt, der über Erfolg oder Misserfolg einer Deep-Learning-Initiative entscheiden kann, ist der Einsatz leistungsstarker, extrem schneller Hardware. Diese Anforderungen erfüllen beispielsweise Grafikprozessoren (GPUs), die nahezu in Echtzeit kommunizieren oder auch Massenspeicher und Server aus dem Hause Nvidia, die speziell auf Deep-Learning-Techniken ausgelegt sind.
Auch die Wahl des passenden Betriebsmodells - on-premise, Cloud, oder hybrid - ist ein wichtiger Aspekt:
On-Premise ist die erste Wahl für sofortige Produktivität, besonders schutzwürdigen Daten, die nicht außer Haus gegeben werden dürfen oder sollen, aber auch in Bezug auf eine abgestimmte bzw. optimierte Performance.
Cloud-Infrastrukturen bietet hohe Flexibilität, denn Rechenleistung lässt sich bei Bedarf nahezu beliebig erhöhen und wieder verringern. Darüber hinaus besteht hier die Möglichkeit, vortrainierte Deep-Learning-Modelle bereitzustellen. Die Kosten sind in diesem Fall ebenfalls klar kalkulierbar, denn Services werden über ein Mietmodell bezogen und eine monatliche Gebühr abgerechnet.
Auch das Hybrid-Modell ist flexibel: Hierbei kann in der Cloud zunächst der Proof-of-Concept (PoC) eines DL-Szenarios aufgebaut und trainiert werden. Anhand des PoC führt der Kunde die Inferenz für die trainierten Modelle im eigenen Rechenzentrum durch. Das Ganze funktioniert auch umgekehrt: Der Aufbau des PoC erfolgt im eigenen Rechenzentrum, die Inferenz in der Cloud.
Auf den richtigen KI-Partner kommt's an
Die mit einem Deep-Learning-Projekt verbundenen Anforderungen sind enorm komplex und erfordern umfassendes Experten-Knowhow.
Mittelständische Unternehmen sollten deshalb auf den Rundum-Support eines kompetenten Partners wie Bechtle setzen, der Sie bei Ihren KI-Vorhaben von A bis Z unterstützt. Das traditionsreiche IT-Systemhaus begleitet und berät Sie umfassend in allen Deep-Learning-Belangen:
Bestandsaufnahme
Design und Auswahl der Deep-Learning-Netzwerke und -Frameworks
Implementierung
Training der Netzwerke
Trainingsdatenanalyse
Modellübertragung
Deep-Learning-Inferenz
Performance-Überwachung
Setzen Sie sich noch heute mit den KI-Experten von Bechtle in Verbindung und gestalten Sie die Zukunft Ihres Unternehmens erfolgreich.