Mehr Rechenpower für Endgeräte
Edge Computing statt Zentralisierung
Cloud ComputingCloud Computing basiert heute maßgeblich auf einem zentralistischen Technologieansatz. Sogenannte Edge Devices wie Sensoren, Smartphones oder Laptops produzieren Daten und schicken diese zur Verarbeitung durch Cloud-Services in die zentralen Rechenzentren der Cloud-Provider. Die Ergebnisse dieser Verarbeitung werden dann an die Geräte zurück übertragen. Das funktioniert in allen Fällen gut, in denen es nicht auf eine Reaktion in Echtzeit ankommt, wie dem Austausch und der Synchronisation von Daten, Konversationen im Stil von Siri und Alexa oder der Nachrichtenübermittlung. Alles zu Cloud Computing auf CIO.de
Bei Echtzeitdiensten stört jedoch die Latenz, die durch den zweimaligen Datentransfer über das Netzwerk entsteht. Autonome Fahrzeuge, etwa, müssen in Gefahrensituationen blitzschnell innerhalb von Mikrosekunden reagieren können. Das fahrerlose Automobil muss sofort bremsen, wenn die Ampel auf Rot schaltet oder eine Person auf die Straße läuft. Die Daten zur Analyse und Verarbeitung erst an einen Cloud-Service zu schicken und auf die Antwort zu warten, würde viel zu lange dauern.
Deshalb müssen die neuen Echtzeittechnologien in der Lage sein, Informationen unmittelbar und selbständig zu verarbeiten. Nur so können sie - vergleichbar mit Reflexen im menschlichen Körper - rechtzeitig und angemessen reagieren.
Mobile Rechenzentren notwendig
Gefragt sind also Edge Computing Devices - Geräte, die sich quasi am Rand des Cloud-Netzwerks befinden und Informationen selbstständig erfassen, auswerten sowie komplexe Entscheidungen treffen. Das erfordert mehr Rechenleistung innerhalb der einzelnen Geräte - und das auf kleinstem Raum. Möglich machen dies neue Entwicklungen wie leistungsfähigere CPUs und Machine LearningMachine Learning. Alles zu Machine Learning auf CIO.de
So werden in den künftigen Edge Devices sehr performante LowEngergy CPUs (ARM-Prozessoren) verbaut sein, wodurch sie in der Lage sind, komplexe Sachverhalte selbst zu lösen.
Das bedeutet, dass Rechenleistung nicht ausschließlich in zentralen Cloud-Systemen weiter aufgebaut wird, sondern auch an der Quelle der Informationssammlung für die verteilte Verarbeitung. Zudem ist es nicht mehr notwendig, alle Daten zur Verarbeitung in die Cloud zu schicken, sondern lediglich ausgewählte Ergebnisse oder aggregierte Daten zur Erfahrungssicherung.
In der zentralen Cloud hingegen, werden nur noch die Entscheidungen geteilt, die auf Basis von lokal vorhandenen Daten und Berechnungen erfolgen. Dadurch ist die Cloud nicht obsolet, es ändern sich schlicht und ergreifend ein spezifischer Teil ihrer Aufgaben.
Im Beispiel "Autonomes Fahren" ist die Cloud nur noch zur übergreifenden Datenanalyse, Verbesserung der Software, Testing und Steuerung oder für das Reporting zuständig. Ähnliche Mechanismen gibt es heutzutage bei den Virenscan-Systemen, die immer aus einer dezentralen Client- und einer zentralen Cloud-Komponente bestehen.
Datenmenge erfordert mehr Rechenleistung
Um Entscheidungen in der geforderten Geschwindigkeit treffen zu können, benötigt jedes Edge Device quasi einen eigenen "ServerServer". Teilweise ist dies heute bereits der Fall. So stecken in einem Langstreckenflugzeug an die 100 TB Speicherkapazität und zirka 50 Server-Komponenten, weil unzählige Applikationen gehostet sind, deren Daten gesammelt und verarbeitet werden müssen. Alles zu Server auf CIO.de
Damit besitzt ein Flugzeug schon heute ähnlich viele IT-Ressourcen wie ein mittelständisches Unternehmen. Dieses mobile RechenzentrumRechenzentrum kann selbstständig Entscheidungen fällen und sowohl dem Piloten als auch der Crew Informationen zur Verfügung stellen oder das Flugverhalten per Autopilot selbstständig steuern. Alles zu Rechenzentrum auf CIO.de
Die Daten werden für einen begrenzten Zeitraum im Datacenter der Maschine vorgehalten und dann wieder überschrieben. Nur die wichtigsten Informationen werden als Telemetriedaten in die zentrale Cloud der Fluggesellschaft und der Servicepartner (zum Beispiel Motorenhersteller) übertragen und dort weiterverarbeitet. Allerdings ist künftig je nach Kritikalität noch viel mehr Rechenleistung erforderlich, um in einem solchen Edge Device weiterführende analytische Entscheidungen zu treffen.
Daten- und Erfahrungsaustausch: Edge Devices lernen voneinander
Um autonome, selbstlernende Edge Devices mit mehr Rechenpower auszustatten, lassen sie sich in Peer-to-Peer-Netzwerken zusammenschließen. Dadurch wird ein direkter Austausch von Daten mit lokaler Relevanz möglich, gleichzeitig lässt sich nicht nur die Leistung eines Autos für die Informationsverarbeitung nutzen, sondern die aller Fahrzeuge, die sich in unmittelbarer Nähe befinden und mit denen sich eine gesicherte Verbindung herstellen lässt.
Aufgrund dieser verteilten Prozesse entsteht zwar eine gewisse Latenz, diese ist aber deutlich geringer als bei einer Verbindung mit der Cloud. Hinzu kommt, dass zum Beispiel das vorherfahrende Fahrzeug an das Auto dahinter direkt übermitteln kann, wie schnell es fährt, ob es die Spur wechseln oder bremsen möchte. Diese Informationen müssen nicht mehr durch Sensorik berechnet werden, so dass sich die dafür notwendige Rechenleistung für andere Aktivitäten nutzen lässt.
Darüber hinaus ist es auf Basis der Erfahrungswerte einer großen Anzahl von Edge Devices viel genauer möglich, Vorhersagen zu treffen - beispielsweise, wann ein Bremsvorgang bei bestimmten Witterungsbedingungen eingeleitet werden muss, damit ein Auto zum Stillstand kommt, wenn in einer bestimmten Entfernung eine Person die Straße betritt.
Diese "Learnings" der Peer-to-Peer-Netzwerke werden nach der Entscheidungsfindung als Ergebnis zur Erfahrungssicherung und Weiterentwicklung der Algorithmen mit der Cloud geteilt. Dadurch lässt sich das Datenvolumen in der Wolke erheblich verringern. Dort wiederum sorgen Deep-Learning-Mechanismen für eine Verbesserung der Software-Algorithmen und stellen diese den Edge Devices in Form von Updates zur Verfügung. Der zentrale Zugriff auf Daten von vielen Edge Devices ermöglicht es, eine solche Erfahrungssicherung und Verbesserung des Software-Codes schneller sowie effektiver voranzutreiben.
Fazit
Künftige Echtzeittechnologien erfordern deutlich mehr Rechenleistung. Nur so sind Edge Devices in der Lage, Informationen zu verarbeiten, analytische Auswertungen durchzuführen und innerhalb von Mikrosekunden eigene Entscheidungen zu treffen. Künftig werden dann lediglich selektierte Daten, die der Erfahrungssicherung und Weiterentwicklung der Algorithmen dienen sollen, in die Cloud transferiert. So sichert die Cloud das nötige Wissen, um Edge Devices schneller und treffsicherer entscheiden lassen zu können.