Wie Edge-Computing die IT umkrempelt

10


11

Cloud-Computing-Bereitstellungen sind häufig mit hohen Latenzen verbunden. Um dieses Problem in den Griff zu bekommen, haben sich Unternehmen in den letzten Jahren vermehrt auf Edge-Computing verlegt.

Und dieser Trend scheint schnell an Fahrt zu gewinnen: Im Jahr 2020 hatte das Edge-Computing-Segment weltweit ein Marktvolumen von etwa 4 Milliarden USD. Prognosen zufolge soll es bis zum Jahr 2026 auf 17,8 Milliarden USD wachsen, so das Marktforschungsunternehmen StrategyR.

Welche Vorteile bietet Edge und wann sollte Edge-Computing eingesetzt werden?

Warum sollten sich CIOs also mit dem Thema Edge-Computing beschäftigen? Vereinfacht gesagt: Wenn Unternehmen ihre Rechenleistung skalieren, ist diese Leistung oft auf einen Punkt konzentriert. Dies belastet wiederum die Netzwerkkapazität und führt somit zu Schwierigkeiten bei der Infrastrukturarchitektur.

Edge-Computing löst diese Probleme. Die Verarbeitungsgeschwindigkeit konzentriert sich auf den „Edge“, also den Rand eines Netzwerks, sodass Daten lokal verarbeitet werden können und nicht erst über ein WAN-Netz übertragen werden müssen. Darin besteht auch der zentrale Unterschied zum Cloud-Computing, bei dem Daten an eine zentrale Stelle weitergeleitet werden. Beim Edge-Computing werden Daten vor Ort verarbeitet, was zu weniger Datenübertragung und kürzeren Antwortzeiten führt.

Besonders der letzte Punkt ist entscheidend. Beispielsweise können selbstfahrende Autos Daten nicht erst an ein weit entferntes Rechenzentrum schicken, um dann erst nach ein paar Millisekunden entscheiden zu können, ob an einer Ampel angehalten werden muss oder nicht. Systeme zur Überwachung der Herzfunktion müssen eine dauerhafte Verbindung mit den Geräten zur Aufzeichnung der Herzaktivität aufrechterhalten, um bestimmen zu können, ob ein Patient stabil ist oder ärztliche Hilfe benötigt. Kassensysteme müssen Kartenzahlungen verarbeiten können, selbst wenn die Verbindung zu den relevanten Stellen schlecht oder nicht vorhanden ist. Wenn es in einer Firma zu einem Gasleck kommt, wird dieses ohne eine bestehende Netzwerkverbindung überhaupt entsprechend registriert?

Die Daten in solchen Fällen erst an die Cloud zu senden wäre nicht praktikabel – die Latenz wäre zu hoch und die Bandbreite zu gering, um die entsprechende Datenmenge rechtzeitig zu übertragen. Verzögerungen in der Datenverarbeitung und im Entscheidungsprozess könnten unter Umständen also verheerende Folgen haben.

Zu berücksichtigende Faktoren

Wenn Ihr Unternehmen Latenz- und Bandbreitenprobleme hat, kann der Einsatz von Edge-Computing die passende Lösung für Sie sein. Allerdings gibt es mehrere Faktoren, die berücksichtigt werden sollten.

Erstens wird Ihre Cloud oder Ihr zentrales Rechenzentrum nicht über Nacht redundant. Edge-Computing ist eine Komplementärtechnologie, die so nah wie möglich an den zu verarbeitenden Daten eingesetzt werden sollte, um beste Ergebnisse zu erzielen.

Sicherheit – Sicherheit ist ein entscheidender Faktor bei der Bereitstellung von Edge-Computing. Daten werden in der Nähe der Sensoren gesammelt und verarbeitet, die diese Daten erzeugen, aber gleichzeitig anfällig für Hacker sein können. Sie benötigen ein starkes End-to-End-Sicherheitssystem, das sich von den Sensoren zum Rechenzentrum erstreckt, um Sicherheitsbedrohungen abwehren zu können.

Interoperabilität – Da sich die Bereitstellung von Edge-Computing je nach Sensoren, Geräten und Konnektivität unterscheidet, ist Interoperabilität von zentraler Bedeutung. Für Sensoren in einer Fabrik gelten gänzlich andere Anforderungen als für Systeme zur Überwachung der Herzfunktion in Krankenhäusern. Unternehmen brauchen einen Edge-Anbieter, der sie nicht nur bei der Implementierung von Endpunktsensoren unterstützt, sondern auch für deren Sicherung und Verbindung mit der Cloud sorgt.

Support – Rechenzentren am Edge befinden sich geografisch betrachtet an weit voneinander entfernten Standpunkten, was die Wartung erschwert. Managementsysteme für Edge-Computing müssen daher in hohem Maße automatisiert und orchestriert sein.

Einrichtung von Edge-Computing und damit verbundene Herausforderungen

Beim Edge-Computing geht es darum, Sensoren, Geräte und Server so an Remotestandorten zu implementieren, dass sie komplett in die IT-Infrastruktur des jeweiligen Unternehmens integriert sind.

Die am Edge benötigten Grundfunktionalitäten sind zunächst einmal die gleichen wie bei herkömmlicher IT-Infrastruktur. Aber das ist noch nicht alles. Diese Infrastruktur muss außerdem über ein gewisses Maß an Robustheit verfügen, da sie auch in witterungsabhängigen Umgebungen zum Einsatz kommen kann. Dies bedeutet, dass Geräte und Systeme widerstandsfähig gemacht oder mit speziellen Ummantelungen versehen werden müssen. Zudem müssen Systeme über physische Sicherheitsmaßnahmen verfügen.

Obwohl sich Edge-Anwendungen an Remotestandorten befinden, sind sie oftmals entscheidend für den Geschäftsbetrieb. Dies bedeutet, dass sie in hohem Maße ausfallsicher sein müssen und eine spezielle Wartungsplanung erfordern.

Es kann vorkommen, dass keine direkte Verbindung zwischen der Infrastruktur am Edge und dem Unternehmensnetzwerk vorhanden ist. In diesem Fall können Unternehmen auf externe Konnektivitätsoptionen, wie beispielsweise 5G, angewiesen sein. Edge-Sensoren können sich auch an Orten mit störungsanfälliger Verbindung befinden. Anwendungen am Edge müssen aber weiterlaufen, selbst wenn keine Verbindung zum Hauptnetzwerk besteht.

Ausrichtung von Systemarchitekturen auf Edge-Computing

Für die Einführung von Edge-Computing muss eine Systemarchitektur geschaffen werden, die sowohl die Anforderungen von NutzerInnen als auch von Anwendungen erfüllt. CIOs muss daher klar sein, welche Komponenten des Systems in der Cloud laufen und welche am Edge. Beim Entwurf von auf Edge-Computing ausgerichteten Architekturen sind daher gewisse Faktoren zu berücksichtigen.

Datenantwortzeiten – Wie schnell müssen Daten an der Quelle zur Entscheidungsfindung analysiert werden? Maschinensteuerungen und systemkritische Systeme sollten sich stets am Edge befinden. Bei allen anderen Komponenten kommt es darauf an, was für Antwortzeiten sie erfordern. Je weiter der Edge von den Rechenressourcen entfernt ist, desto länger ist die Datenantwortzeit und Analysedauer.

Datenübertragung und Konnektivität – Welche Daten müssen zentral verarbeitet werden und welche am Edge? Wenn Konnektivität und Bandbreite begrenzt sind, sollte die Datenverarbeitung verstärkt am Edge erfolgen. Wenn die Bandbreite zuverlässig und schnell ist, kann die Verarbeitung zentral in die Cloud verlagert werden.

Cybersicherheit und gesetzliche Bestimmungen – Wenn eine Systemarchitektur mit Edge-Computing-Ressourcen entworfen wird, müssen CIOs sicherstellen, dass diese Architektur den Best Practices im Bereich Cybersicherheit entspricht und alle geltenden Datenschutzbestimmungen eingehalten werden. CIOs sollten außerdem eine Zero-Trust-Richtlinie für alle Systeme und Geräte am Edge einrichten und bei der Zugriffskontrolle Berechtigungen so gering wie möglich halten.

Wie kann KI am Edge eingesetzt werden?

Künstliche Intelligenz hat sich in den letzten Jahren enorm weiterentwickelt. Cloud-Umgebungen bieten dabei ein massives Datenvolumen, das als Lerngrundlage verwendet werden kann und so zur besseren Entscheidungsfindung für Unternehmen beiträgt. Wenn sich Rechenleistung immer mehr zum Edge hin verlagert, sollte dasselbe auch für KI gelten, denn dort befinden sich die entscheidenden Daten. Vereinfacht gesagt macht es wenig Sinn, beispielsweise gestreamte Video- oder Audioinhalte für jeden Endpunkt oder jede Situation in die Cloud und wieder zurück zu senden.

Welche Anbieter gibt es für Edge-Computing?

Der vermehrte Einsatz von Edge-Computing blieb auch den Anbietern nicht verborgen. So führte beispielsweise Dell VxRail-Satellitenknoten ein, die „die nächste große technologische Hürde“ nehmen sollen, um es mit den Worten von Michael Dell zu sagen. Durch diese Technologie können die Vorteile von Core-Rechenzentren auf die meisten Edge-Anwendungsfälle ausgeweitet werden. Der Edge erhält damit die gleichen Management-, Sicherheits- und Automatisierungsfunktionen wie der Core.

Die digitale Transformation in Unternehmen schreitet voran, Workloads gehen über herkömmliche Rechenzentren hinaus und das 5G-Netz wird immer weiter ausgebaut – aus diesen Gründen brauchen Unternehmen platzsparende, kostengünstige und einfach zu managende Infrastrukturlösungen. Mit standardisierten Architekturen wie VxRail können die üblichen IT-Silos aufgebrochen werden. Damit gehören ungeplante (oder ausufernde) Architekturen der Vergangenheit an.

Dell hat bereits tausende Unternehmen bei der Modernisierung ihrer Infrastruktur und der Bereitstellung von geschäftskritischen Edge-Lösungen unterstützt.

Erfahren Sie mehr über Dell Technologies und VMware-Lösungen APEX Cloud Services – Cloud as a Service | Dell Technologies Germany