Künstliche Intelligenz (KI) und die Cloud-basierten IoT-Lösungen gingen schon immer Hand in Hand. Die Cloud stellt Ressourcen für das Daten-Training komplexer IoT-Systeme bereit. Und die KI-Technologie wiederum aktiviert verfeinert und aktualisiert Algorithmen, die die Autonomie der vernetzten Lösungen optimieren.
Die Datenübertragung in die Cloud ist allerdings nicht mehr die allerneuste Technologie in der IoT-Softwareentwicklung. Es gibt kritische Probleme: unkontrollierte Latenzzeiten, instabile Netzwerkverbindungen und die geringe Zuverlässigkeit des Gesamtsystems. Um diese Risiken zu minimieren, kann die Verlagerung von KI-relevanten Operationen an die jeweilige Datenquelle, d. h. an den Edge (Rand) eines Netzwerks, eine gute Lösung darstellen. Und zwar eine so gute, dass Google, Apple und Amazon derzeit viele Millionen in Edge-Computing investieren, damit ihre Produkte schnell auf die eingehenden Anfragen reagieren können.
Einer der aktuellsten Trends im Internet of Things ist also eine dezentralisierte Netzwerkarchitektur mit Edge Computing, bei dem die Daten so nah wie möglich an der Datenquelle verarbeitet werden.
Wie funktionieren Edge-Computing und KI zusammen? Was sind potenzielle Anwendungsfälle für Unternehmen und welche Vorteile bringt diese Kombination? Und nicht zuletzt: Wie kann man mit Edge AI loslegen?
Dank einer Kombination aus Edge-Computing und KI-Technologien (Edge AI) können Entwickler Daten, die von Geräten lokal oder auf dem Server in ihrer Nähe erstellt werden, mit KI-Algorithmen verarbeiten. So treffen die Geräte Entscheidungen in wenigen Millisekunden, ohne sich mit der Cloud verbinden oder Daten an andere Network Edges übertragen zu müssen.
Ein KI-Modell wird in der Regel auf einem geeigneten Datensatz trainiert, um bestimmte Aufgaben auszuführen. Schritt für Schritt lernt das Modell, ähnliche Muster in anderen Datensätzen mit ähnlichen Charakteristiken zu finden.
Sobald es in einer unbekannten Umgebung gut genug funktioniert und die gewünschte Leistung erbringt, wird das Modell in der Praxis eingesetzt. Es erstellt Prognosen, gibt diese an andere Softwarekomponenten weiter oder visualisiert sie auf einer Frontend-Schnittstelle für Endbenutzer.
Mit der Cloud können Entwickler Technologien der Künstlichen Intelligenz in großem Maßstab nutzen. Das Training eines Modells erfordert enorme Rechen- und Datenspeicher-Ressourcen und die Cloud wird zu einer natürlichen Lösung. Die Cloud hat KI in den Mainstream gebracht — aber jetzt stellt sie die weitere Entwicklung der Technologie vor große Herausforderungen.
Im Kontext von Industrie 4.0 wächst der Bedarf an Echtzeit-Computing rasant — und die Cloud kann ihn nicht mehr decken.
Die eigentliche Idee der Cloud wird mit der sich ständig verändernden digitalen Umgebung inkompatibel. Die benötigten Daten werden zunächst in die Cloud übertragen, wo sie nach dem vorgegebenen Modell verarbeitet und erst dann zurück an das Endgerät übermittelt werden. Dabei können zahlreiche Herausforderungen entstehen:
Das sind nur einige Aspekte, bei denen Spezialisten im Bereich KI-Technologien und Cloud-Infrastrukturen ihre Bedenken haben.
"Kosten, Leistung, Workload-Management und Datenzugriff. All dies sind Herausforderungen, denen sich Datenwissenschaftler bei ihrer Arbeit in der Cloud stellen müssen."
Bret Greenstein, Vizepräsident und Global Head of Artificial Intelligence bei Cognizant
Stellen Sie sich nun eine smarte Fabrik vor, in der Spezialisten vernetzte Handgeräte für den täglichen Betrieb verwenden. Die Geräte sammeln, verarbeiten und analysieren Daten in Echtzeit. Sie stellen bei Bedarf die erforderlichen Informationen bereit und senden in Notfällen sofortige Benachrichtigungen. Am Ende eines Arbeitstages übertragen sie die Daten in die Cloud: zur tieferen Analyse und für andere Prozesse, wie vorausschauende Wartung oder weitere Produktentwicklung.
Dies ist möglich, weil die Datenverarbeitung lokal am Edge erfolgt: Ein konsolidierter Datensatz wird zum Training eines Modells verwendet, das lernt, Entscheidungen zu treffen, zu agieren und anderes selbstständig zu tun. KI-basierte Techniken ermöglichen die Automatisierung komplexer Entscheidungen direkt am Edge für schnellere, vertrauliche und kontextbezogene Anwendungen.
"Edge AI wird eingesetzt, wenn KI-Techniken in Internet of Things ( IoT)-Endpunkte, Gateways und andere Geräte am Ort der Nutzung eingebettet werden."
Jason Mann, Vizepräsident für IoT bei SAS
Eine immer größere Zahl der Edge Devices — Sensoren, Mobiltelefone, Edge-Knoten — erfordert eine Verlagerung von Netzwerken (Cloud-Rechenzentren) zum Netzwerkrand, um riesige Datenmengen in der Nähe zu verarbeiten.
In einer Edge-Computing-Architektur erfolgt Datenverarbeitung auf Geräten (Endknoten) und an Gateways (Edge-Knoten).
Edge AI wird typischerweise in einem hybriden Modus eingesetzt, der den dezentralisierten Trainingsmodus "am Edge" mit einem zentralisierten überarbeiteten Modus kombiniert, wo die Algorithmen überarbeitet und aktualisiert werden.
In einer Architektur, wo KI-Algorithmen mit Edge Computing kombiniert werden, erreichen wir eine geringere Übertragungslatenz, einen höheren Datenschutz und reduzierte Bandbreitenkosten. Dies erhöht jedoch die Rechenlatenz und den Energieverbrauch.
Deshalb ist die Verteilung zwischen dem KI-Computing am Edge und dem in der Cloud flexibel und von der Anwendung abhängig. Bei der Wahl des Levels der Edge-Intelligenz muss man mehrere Faktoren berücksichtigen: Latenz, Energieeffizienz, Datenschutz und Bandbreite-Kosten.
Fabrikarbeiter müssen sich in Echtzeit mit unzähligen Fertigungsprozessen auseinandersetzen: Gerätebewegungen optimieren, Temperatur reduzieren, Schwingungen kontrollieren und so weiter. Unter diesen Bedingungen muss die Latenzzeit minimiert werden, und Edge AI trägt dazu bei, Datenverarbeitung näher an die Fertigungsanlage heranzuführen und die Gesamtanlageneffektivität (GAE) zu verbessern.
Mit Edge AI können Betreiber das Gerät in der tatsächlichen Umgebung und unter realen Bedingungen trainieren: Liniengeschwindigkeit, Arbeitsstil, Umgebungstemperatur und -feuchtigkeit usw.
Daihen Corp., ein japanisches Unternehmen für Industrieelektronik, ist ein gutes Beispiel für eine effektive Implementierung der Edge KI. Es wollte die Daten von vielen Geräten, die den Materialzustand bewerten, analysieren, und den Bedarf an manueller Überwachung reduzieren. Das Unternehmen verwendet Machine-Learning-Modelle auf seinen stark eingeschränkten Geräten und es gelingt ihm, Überwachung und Steuerung des gesamten Herstellungsprozesses von industriellen Transformatoren zu automatisieren.
Außerdem installierten sie neue Sensoren mit Edge AI-Algorithmen. Die Sensoren generieren in Echtzeit Daten über alle Teile der elektrischen Transformatoren: wie sie zusammengebaut und gelagert werden. Sie verfolgen auch, wie lange jede Etappe dauert, und geben Aufschluss über alle Änderungen, die sich auf die Qualität der produzierten Komponenten auswirken könnten.
McLaren Racing ist ein Teil der McLaren Group, die mit Grand-Prix-Rennen und Weltmeisterschaften arbeitet. Jeder Formel-1-Rennwagen ist mit mehr als 200 Sensoren ausgestattet, die an einem Rennwochenende 100 Gigabyte Daten produzieren und mehr als 100.000 Datenpunkte pro Sekunde übertragen.
Um ein Rennen zu gewinnen und Sicherheit des Teams zu gewährleisten, benötigen Ingenieure und Crew-Mitglieder von McLaren sofortigen Echtzeit-Zugriff auf die generierten Daten. So können sie entscheiden, wann ein Reifen gewechselt werden muss, Sicherheit der Strecke bewerten usw. Es gibt keine Zeit zu warten, bis die Daten in die Cloud und zurück übertragen werden.
So hat McLaren Edge Computing und die Edge-Core-Cloud-Strategie eingeführt: Die Crew erhält verwertbare Daten in Echtzeit während eines Rennens, gleichzeitig werden dieselben Daten an das McLaren Technology Centre gesendet. Dort werden sie eingehend analysiert und in einen mit ML ausgestatteten Rennsimulator eingespeist, um die KI-Algorithmen zu verbessern und zu verfeinern.
Edge AI in Videokameras kann zur Verfolgung der Kundenfrequenz und zur Analyse des Kaufverhaltens verwendet werden. NVIDIAs EGX AI-Plattform für Ladengeschäfte und Lager unterstützt Videoanalyse-Anwendungen, die Einkaufsstandorte digitalisieren, anonymes Käuferverhalten in Geschäften analysieren und Gestaltung der Ladenflächen optimieren.
Obwohl Spezialisten Edge-Intelligenz nicht als vollwertigen Ersatz für Cloud Computing behandeln, entwickelt sich das System bereits zu einem wirksamen Instrument zur Förderung und Verbesserung von KI-Technologien in verschiedenen Bereichen. Das Hauptproblem bei der künstlichen Intelligenz ist die Latenz zwischen einem bestimmten Rechner und dem System als Ganzes. Edge Computing kann dieses Problem beseitigen, eine Anomalie korrigieren, sobald sie entdeckt wird, und sofortige Maßnahmen ergreifen.