Mit BI, KI und Co. Datenfriedhöfe abschaffen

am 03. September 2019
Durch die Digitalisierung unterliegen Unternehmen einem beständigen Wandel, der immer wieder neue Themen in den Fokus rückt. In unserer Serie „3 Fragen an …“ geben Experten von Fujitsu Einblicke in aktuelle Problemstellungen in der IT. In unserer ersten Folge erläutert Storage-Experte Frank Reichart, wie Storage-System beschaffen sein müssen, um mit dem aktuellen Datenwachstum Schritt halten zu können.

Herr Reichart, Big Data und Datenwachstum prägen weiterhin die Storage-Diskussionen in Unternehmen. Sind Firmen überhaupt in der Lage nützliche und überflüssige Daten auseinander zu halten?

Frank Reichart: Die Trennung von nützlichen von weniger wichtigen Daten war schon immer ein fast unlösbares IT Problem. Der Grund dafür ist, dass diese Differenzierung nur von Fachabteilungen getroffen werden kann und nicht von der IT. Da diese ihre Daten nicht mit Metainformationen versehen, hat die IT keine Anhaltspunkte zur Kategorisierung. Deshalb bleibt ihr nur die Einführung von Hilfsparametern, wie zum Beispiel wie oft vorhandene Daten gelesen oder geändert werden.

Je nachdem werden sie dann von Primär-Storage auf Archivsysteme ausgelagert und gegebenenfalls auf Tape migriert. Auf keinen Fall können aber damit Entscheidungen getroffen werden, Daten zu löschen. Die resultierenden "Datenfriedhöfe" werden so immer größer und verschlingen mehr IT Budget als es sinnvoll ist. Es werden beispielsweise Kopien von alten Datenbanken aufgehoben, für die nicht mal mehr Programme zu Verfügung stehen, um sie lesen zu können. Mit moderneren Business-Intelligence-, Data-Insight- und AI-Applikationen wird es auf mittlere Sicht möglich, in diesem Themenbereich wesentlich effizienter zu werden.

Wie lassen sich die riesigen Datenmengen überhaupt verfügbar halten?

Frank Reichart: Hierfür stehen mehre Hebel zur Verfügung. Einerseits wachsen die Kapazitäten der Medien immer weiter. Eine Festplatte kann schon bis zu 14 TB an Daten fassen und eine SSD bis zu 32 TB. 64 TN SSDs werden bald verfügbar sein und höhere Kapazitäten sind bereits am Horizont zu sehen. Weiterhin entwickeln sich klassische Storage-Architekturen in Richtung scale-out weiter. So kann beispielsweise ein Fujitsu ETERNUS DX8900 System von 2 Controllern bis auf 24 erweitert werden und kommt damit schon in den dreistelligen Petabyte-Bereich. Darüber hinaus können neue Software-definierte und verteilte Storage-Architekturen schon heute bis in den Exabyte-Bereich skalieren. Und selbst bei der totgesagten Tape-Technologie ist noch unheimlich viel Leben. LTO 8 hat hier einen großen Booster gezündet.

Welche Technologien können hier helfen?

Frank Reichart: Datereduktionstechnologien wie Deduplizierung und auch die gute alte Kompression werden immer leistungsfähiger damit lassen sich bei der gleichen Storage Rohkapazität effektiv um einige Faktoren an Daten unterbringen. Weiterhin können durch ein intelligentes Storage Tiering, Daten, die nur selten genutzt werden von einem teuren aber schnellen Medium auf ein günstigeres mit langsamerer Zugriffsgeschwindigkeit verlagert werden.

Frank Reichart leitet das globale Produktmarketing bei Fujitsu. Er begann seine Karriere 1987 als Produkt-Marketier für Telekommunikations-Endgeräte. Es folgten Produktmarketing-Aktivitäten im Umfeld von PCs, Datenbanksystemen, Client-Server-Software und Großrechnern. Er führte Produktmarketing-Teams für x86- und Unix-Server, Automatisierungs- und Virtualisierungssoftware Converged Infrastructures und Storage-Systeme.
Frank Reichart leitet das globale Produktmarketing bei Fujitsu. Er begann seine Karriere 1987 als Produkt-Marketier für Telekommunikations-Endgeräte. Es folgten Produktmarketing-Aktivitäten im Umfeld von PCs, Datenbanksystemen, Client-Server-Software und Großrechnern. Er führte Produktmarketing-Teams für x86- und Unix-Server, Automatisierungs- und Virtualisierungssoftware Converged Infrastructures und Storage-Systeme.
Foto: Fujitsu