Edge-Computing wird zur Brücke zwischen Maschinen- und IT-Welt

am 17. Dezember 2018
Beim Edge Computing werden Daten von Maschinen und Sensoren direkt vor Ort verarbeitet. Das macht die Analyse von IoT-Daten einfacher und sicherer – erfordert aber, dass Maschinen- und IT-Welt näher zusammenrücken.

Roboter als Service zu betreiben und im Pay-per-Use-Stil abzurechnen ist kein Zukunftsszenario, sondern schon heute üblich. Bei Fujitsu unterstützt beispielsweise ein Kuka-Roboter in der Mainboard-Fertigung das Testen der Boards. Die speziell für die IT vor Ort ausgelegte IntelliEdge-Plattform verarbeitet und analysiert die für die optimale Produktion erforderlichen Daten - direkt am Fertigungsband bei Fujitsu. Allein die für den reibungslosen Betrieb der Roboter notwendigen Daten verlassen das Unternehmen und werden via Cloud an den Hersteller Kuka weitergeleitet.

Die Datenverarbeitung direkt am Ort der Entstehung - in den Fertigungshallen, Verkaufsräumen oder Container-Schiffen im Meer - hat sich unter dem Label Edge-Computing etabliert. Bei dieser "IT in der Nähe der Dinge" müssen die meisten Daten von Sensoren oder Maschinen nicht mehr zur Weiterverarbeitung in die Cloud geschickt werden. Das erleichtert vieles im IoT-Umfeld:

  • Analytics ist auch bei schmalen Cloud-Bandbreiten - etwa auf Containerschiffen - möglich.

  • Datenbasierte Entscheidungen können sofort getroffen werden - ohne Cloud-typische Latenzzeiten in Kauf nehmen zu müssen.

  • Netzwerkausfälle stören den reibungslosen Betrieb nicht weiter.

Hinzu kommt die Sicherheit: Werden sensitive Produktionsdaten direkt in die Cloud geschickt ist die Gefahr groß, dass sie von Hackern gekapert werden. Bleiben die Daten hingegen am Ort ihres Entstehens, sind sie auch sicher.

Daten-Splitting

Welche Daten vor Ort verarbeitet werden und welche das Unternehmen verlassen, entscheiden die IT-Verantwortlichen und der Use Case. Sensible oder schnell benötigte Fertigungsdaten wie im Robotics-Beispiel werden intern vorgehalten und ausgewertet. Weniger sensible und unkritische Daten können in die Cloud wandern. Dieses Daten-Splitting macht schon in den einfachsten Fällen Sinn: So müssen die Daten eines Temperatursensors beispielsweise nicht nahtlos in die Cloud geschickt werden. In der Regel bildet man "an der Edge" einen Mittelwert über eine bestimmte Zeitspanne, wie 5 oder 10 Sekunden, und leitet nur diesen Mittelwert extern weiter.

Vor allem komplexere Berechnungen profitieren vom Daten-Splitting. Datenintensive maschinelle Lernmodelle werden beispielsweise zunächst einmal in der Cloud trainiert. Erst die fertigen Modelle werden dann zur Ausführung an die Edge gebracht. Der Vorteil: Die kritischen Daten bleiben im Unternehmen und es lässt sich trotzdem modernste Technologie nutzen.

Edge Computing als neues IT-Paradigma hat allerdings auch mit einigen Hürden zu kämpfen. Noch die leichteste: Für die rauen Umgebungen vor Ort braucht es spezielle Server. "Wenn in der Werkhalle Holz gesägt wird oder draußen im Windpark chaotische Wetterverhältnisse herrschen benötige ich robuste Systeme", sagt Nils Wittler, Senior Manager Client Computing bei Fujitsu. "Speziell für die Edge ausgelegte Plattformen wie Fujitsu IntelliEdge enthalten keine drehenden Teile, werden passiv gekühlt und laufen auch bei hohen Umgebungstemperaturen problemlos."

Daten als Herausforderung

Eine zweite Herausforderung sind die Maschinen- und Sensordaten selbst. Sie müssen zunächst einmal intelligent getrennt und gefiltert werden nach Informationen, die vor Ort bleiben von jenen, die in die Cloud wandern. Heutzutage wird diese Aufteilung oft noch manuell etwa vom Data Scientist erledigt. Doch dies kann keine Dauerlösung sein.

Die Daten, die lokal bleiben, müssen anschließend vor einer Analyse bereinigt und normalisiert werden. "Wenn Sie Analytics, AI oder auch nur ganz einfache Statistiken machen wollen, muss die Datenqualität stimmen, sonst kommen Sie zu falschen Ergebnissen", erklärt Thomas Bechtel, Program Manager Smart Factory bei Fujitsu. "Ein Sensor misst schon mal 85 statt 25 Grad. Solche eindeutig falschen Messwerte müssen entfernt werden." Diese Datenbereinigung und Normalisierung ist in der Fertigungsbranche keineswegs simpel, weil es dort sehr viele historisch gewachsene Datenquellen von Maschinen und Sensoren gibt.

Für Nils Wittler ist es deshalb auch wichtig, dass die Daten einen korrekten Zeitstempel und eine Quellenangabe bekommen, von welcher Maschine sie stammen. So lassen sich die Maschinendaten nach der Auswertung wieder richtig zuordnen. "Diese Prozesse kann man sehr leicht an der Edge durchführen. Dort befinde ich mich in einem lokalen Netzwerk und in einer gemeinsamen Infrastruktur, in der ich aus Big Data Smart Data machen kann. Dann kann ich die Analyse guten Gewissens auf die bereinigten Daten ansetzen."

Das OT-Dilemma

Aktuell ist die größte Hürde beim Edge Computing aber die mangelhafte Integration der OT-Welt in die IT-Welt. Die "Operational Technology" unterscheidet sich grundsätzlich von der Informationstechnik. In der Welt der Maschinensteuerung herrscht eine kaum standardisierte, stark historisch gewachsene und isolierte Landschaft vor. Die heutigen Maschinen sprechen zwar über proprietäre Protokolle und Kommunikationsstandards untereinander, lassen aber kaum einen Austausch mit der IT-Welt zu.

"Grundsätzlich ist die OT-Welt von der Auffassung geprägt 'never change a running system'," sagt Thomas Bechtel. "Entsprechend stecken in heutigen Maschinen oft Rechner mit 15 Jahre alten Windows XP-Systemen - mit allen Sicherheitslücken, die ein Windows XP eben hat." Diese OT-Denkweise prallt nun auf die aktuelle IT-Anschauung: Einen 15 Jahre alte XP-Rechner will die IT niemals in ihrem Netzwerk haben.

Um das Dilemma zu lösen ist einerseits eine gewisse Abschottung notwendig, andererseits müssen diese Welten irgendwie zusammengebracht werden. "Die Edge kann hier als Brücke dienen", erklärt Nils Wittler. "Den unsicheren OT-Bereich unterhalb der Edge macht man am besten dicht. Nur dedizierte Kommunikationswege öffnet man dann ganz gezielt und in einer sicheren Weise - so dass die IT-Seite damit leben kann."

OPC-UA vereint IT- und OT-Welt

Künftig soll die mangelhafte Vereinbarkeit der IT- und OT-Welt mit dem OPC-UA-Framework behoben werden. OPC-UA ist eine standardisierte Software-Schnittstelle, die sich bei europäischen Maschinenherstellern immer mehr etabliert und den Datenaustausch zwischen Anwendungen unterschiedlichster Automatisierungshersteller ermöglicht. Als OPC-UA ermöglicht das Framework auch Zugriffsbeschränkungen auf Daten.

Damit lässt sich das Problem der Datentrennung - Cloud versus on-premise - lösen. Über Zertifikate kann sichergestellt werden, dass der Empfänger nur denjenigen Teil der Maschinendaten sehen kann, den er sehen soll. So sorgt im eingangs vorgestellten Robotik-Beispiel OPC-UA dafür, dass Kuka als Robotik-Anbieter nur die für den Betrieb der Roboter relevanten Daten zu Gesicht bekommt.

"In vielen Bereichen ist der Standard bereits üblich", sagt Nils Wittler. "Aktuell produzierte Maschinen beherrschen in der Regel auch OPC-UA". OPC-UA kann aber auch bei Bestandsmaschinen eingesetzt werden. "Dabei versteckt man diese Maschinen hinter der Edge, setzt auf der Edge einen OPC-UA Server auf und koppelt die Maschinen. Dann kann ich oben bereits die moderneren Techniken aufbauen. Wenn die Maschinen später ihr eigenes OPC-UA mitbringen kann ich sie direkt an meine OPC-UA Infrastruktur hängen."

Alles in allem sollten sich IT-Verantwortliche im IoT-Umfeld klar sein, dass die Schritte bei einem Digitalisierungsprozess recht ähnlich sind. "Zuerst müssen Sie überhaupt mal die OT an die IT heranbringen. Das sollten Sie in einer sicheren Weise tun. Mit Edge-Computing können Sie viele Anforderungen in der IT erfüllen und die OT ankoppeln. Dann sammeln Sie die Daten, bereinigen sie und visualisieren sie. Das sind alles Themen, bei denen ein Edge-Computing helfen kann. Und so können Sie die Digitalisierung im Maschinenumfeld Schrift für Schritt aufbauen."