So gelingt der Aufbau einer verteilten hybriden Landschaft

am 25. September 2019
Der Trend geht zu verteilten und hybriden IT-Infrastrukturen, die sich vom Data Center (Core) über die Public Cloud bis zu den Edge-Lokationen erstrecken. Wie sich Core, Cloud und Edge mit vorgefertigten, integrierten Systemen und Appliances aus der Hand eines einzigen Anbieters durchgängig verknüpfen lassen und Sie dadurch an Agilität und Flexibilität gewinnen, erfahren Sie hier.

Schon heute verarbeiten, verwalten und analysieren zahlreiche Unternehmen ihre Daten nicht mehr allein in einem lokalen Rechenzentrum (Core-IT), in der Regel einem Software Defined Data Center, sondern nutzen zusätzlich Public-Cloud-Angebote. Auf diese Weise können sie bei Spitzenlasten schnell Extrakapazität beziehen oder ihre internationale Expansion unterstützen. Die lokale Infrastruktur wird also nach dem "Inside out"-Ansatz in die Cloud erweitert.

Hybride IT-Infrastrukturen sind die Zukunft

Umgekehrt ergänzen Unternehmen, die in erster Linie Public-Cloud-Angebote nutzen, diese durch eine On-Premises-Infrastruktur. Das ist der der "Outside in"-Ansatz. Er kommt zum Tragen, da wo die Public Cloud an Grenzen stößt: zum Beispiel, wenn kurze Latenzzeiten einzuhalten sind, hohe Konnektivität erforderlich ist oder aus Gründen der Sicherheit, der Compliance und des Datenschutzes.

Hybride Cloud-Szenarien wie diese - darin besteht Einigkeit unter den namhaften Marktanalysten - sind inzwischen bereits das neue Normal. Sie schaffen genau die Agilität und Flexibilität, die das Business benötigt und von der Unternehmens-IT fordert.

OT- und IT-Welt verschmelzen

Gleichzeitig verschwimmt die Trennlinie zwischen der Informationstechnologie (IT) und der Operational Technology (OT). Vor allem IoT-basierte Geschäftsszenarien, ob in der Fertigungs- oder Pharmaindustrie, im Transportwesen, im Handel, im Finanzsektor, im Gesundheitswesen oder im öffentlichen Sektor (Smart City), tragen zu einer immer stärkeren Vernetzung beider Welten bei.

Werden die IoT-Daten im Sinne von Edge Computing dort verarbeitet und bei Bedarf vorab analysiert werden, wo sie entstehen, ist das ein großer Vorteil. Werden die Daten nämlich in das Data Center oder in eine Public Cloud übertragen, drohen wegen der großen Entfernung lange Latenz- bzw. Antwortzeiten. Entscheidungen können dadurch nicht mehr in Echtzeit erfolgen.

Herausforderungen verteilter Infrastrukturen

Der Paradigmenwechsel zu einer verteilten hybriden Infrastrukturlandschaft von der Edge über den Core zur Public Cloud ist also bereits eingeläutet. Der Weg dahin ist für die IT- und Rechenzentrumsverantwortlichen jedoch mit zahlreichen Herausforderungen gespickt.

Jede hybride Landschaft basiert auf einer softwaredefinierten Infrastruktur im Rechenzentrum. Eine solche Infrastruktur zu realisieren ist zeitraubend, teuer und erfordert umfassendes Know-how. Das gilt sowohl in Bezug auf die Auswahl der passenden Komponenten - Server, Speicher, Netzgeräte - und ihre Implementierung und Verwaltung wie auch im Hinblick auf die nötige Middleware für die Virtualisierung und das hybride Cloud-Management.

Integrated Systems, also zertifizierte, sofort einsatzfähige und skalierbare integrierte Infrastruktursysteme, die aus einer vorkonfigurierten und getesteten Kombination von Infrastruktur- und Softwarekomponenten für die Virtualisierung und das Cloud-Management bestehen, leisten dabei wertvolle Dienste. Und für das Edge-Computing empfiehlt sich der Einsatz einer speziellen Appliance.

Verteilte Infrastruktur "end to end" verwalten

Dabei ist es von Vorteil, wenn alle Systeme von einem einzigen Anbieter stammen, zum Beispiel von Fujitsu, der auf Wunsch sämtliche Services sowie den Support aus einer Hand erbringt und dem Kunden als kompetenter Trusted Advisor und Single Point of Contact zur Seite steht. Der Aufbau einer verteilten hybriden Infrastruktur wird dann "end to end", das heißt durchgängig, unterstützt - von der Core-IT über die Public Cloud bis zum Edge Computing.

Die softwaredefinierten konvergenten oder hyperkonvergenten und Hybrid-IT-fähigen PRIMEFLEX Integrated Systems von Fujitsu verknüpfen On-Premises- und Infrastrukturen in der Public Cloud so, dass sich Workloads hin- und herschieben oder auch Live-Migrationen durchführen lassen. Fester Bestandteil der PRIMEFLEX-Systeme, die als Appliance oder in Form einer flexibel anpassbaren Referenzarchitektur bereitgestellt werden, sind Software-Suiten für die Virtualisierung und das Cloud Management von strategischen Partnern wie VMware, Microsoft oder Nutanix.

Infrastrukturkomponenten und Clouds effizient verwalten

Für den effizienten Betrieb der Integrated Systems und das komfortable Management der Infrastrukturkomponenten auf einer einzigen Oberfläche und über den gesamten Lebenszyklus hinweg sorgt der Infrastructure Manager (ISM) von Fujitsu. Der Fujitsu Enterprise Service Catalog Manager stellt ein Selfservice-Portal zur Verfügung, das dem Benutzer sämtliche Dienste, die er verwendet, einheitlich und konsistent zur Verfügung stellt, unabhängig davon, auf welcher Plattform, an welchem Ort oder in welcher Cloud diese Dienste ablaufen. Zahlreiche vordefinierte Adapter ermöglichen die schnelle und einfache Einbindung aller gängigen IaaS-, PaaS- und SaaS-Dienste.

Robuste Appliance für Edge Computing

Für das Edge Computing eignet sich die robuste INTELLIEDGE-Appliance von Fujitsu. Sie schließt die Lücke zwischen OT und IT und hat sich selbst in rauen Industrieumgebungen bewährt. Die Appliance erfasst die in OT-Systemen an der Edge erzeugten IoT-Daten, eliminiert nicht benötigte Daten und regelt den Datenfluss in das Rechenzentrum oder die Public Cloud. Dort werden die IoT-Daten weiterverarbeitet, sinnvoll mit Informationen aus anderen IT-Systemen zum Beispiel aus einem ERP verknüpft und umfassend analysiert.

Die Appliance bietet dem Kunden die Möglichkeit, eigene Applikationen, zum Beispiel ein Manufacturing-Execution-System (MES), aber auch Anwendungen von Fujitsu auszuführen, die in Form eines Blueprints bereitgestellt werden. Ein hybrider Container- und Virtualisierungs-Ansatz sorgt dafür, dass sämtliche Anwendungen strikt voneinander getrennt jeweils in einer eigenen Sandbox-Umgebung laufen.

Sie stellt zugleich Funktionen bereit, um einfache Analysen direkt an der Edge zu erledigen. Komplexere Analysen, die an der Edge durchzuführen sind und für die eine hohe Computing- und Storagekapazität benötigt wird wie bei der Bilderkennung, erfolgen dann entweder auf einem Server oder auf einem hyperkonvergenten Cluster, das sich für diesen Zweck besonders gut eignet.

Wird dann noch das Datenmanagement von der Edge über den Core bis zur Public Cloud durch eine intelligente Data-Fabric-Architektur vereinheitlicht und vereinfacht, ist das ein weiteres großes Plus.