Flash sorgt für Leistungssprung im Data Center

am 22. November 2017
Wachsende Datenmengen und immer höhere Performance-Anforderungen erfordern heute effiziente Storage-Konzepte. Bei leistungskritischen Anwendungen nimmt Flash-basierter SSD-Speicher eine immer bedeutendere Rolle ein.

In Zeiten zunehmenden Datenwachstums und steigender Mengen unstrukturierter Daten kommen die klassischen Storage-Lösungen immer mehr an ihre Grenzen. Multimedia-Inhalte wie Bilder und Videos, riesige Mail-Attachments und rigorose Aufbewahrungsbestimmungen sorgen dafür, dass die Datenberge gewaltig zunehmen - und die Datenspeicher aus allen Nähten platzen.

Die Datenflut mit immer größeren Speichersystemen zu bewältigen reicht heute allerdings nicht mehr aus. Anstelle des reinen Hochrüstens gilt es verschiedene Technologien möglichst kostengünstig zu ganzheitlichen Lösungen zu verbinden, sie beherrschbar und einfach bedienbar zu machen. Dazu steht heute eine breite Vielfalt von Storage-Architekturen bereit - von klassischen Festplatten über Flash-Speicher und Hybrid-Systeme bis hin zu Cloud-Speicher.

Welche Storage-Lösungen dabei für ein konkretes Unternehmen in Frage kommen, hängt von vielen Faktoren ab wie der Größe des Unternehmens, der Datenmenge und dem Typus der Daten. Im Wesentlichen bestimmen aber vor allem die Anwendungen und Wirtschaftlichkeitsüberlegungen die Speicherarchitektur.

Unternehmenskritische Business- und Analytics-Applikationen etwa verlangen eine hohe Performance mit entsprechend schnellen Speicher-Bausteinen.

Auch in Transaktionssystemen kommt es auf Geschwindigkeit an, weil zum Beispiel Kunden bei Anfragen nicht lange auf Antworten warten möchten. Hier sind flotte Storage-Systeme angebracht, die möglichst viele Transaktionen parallel verarbeiten und diese schnell abschließen können. Bei anderen Applikationen wie Batch-Prozessen oder Data Warehousing steht weniger die Geschwindigkeit, als Durchsatz und Bandbreite im Vordergrund - die eine völlig andere Speicherarchitektur verlangen.

Das massive Datenwachstum wird laut einer von Fujitsu in Auftrag gegebenen Studie für viele Unternehmen zum Problem.
Das massive Datenwachstum wird laut einer von Fujitsu in Auftrag gegebenen Studie für viele Unternehmen zum Problem.

Was müssen Datenspeicher bieten?

"Neuere Speichersysteme verfügen über Technologien, die den Speicherplatz besser ausnutzen, den Betrieb optimieren, sicherer sind und im laufenden Betrieb kostengünstiger eingesetzt werden können", sagt René Hübel, EMEIA Product Management Storage bei Fujitsu. Für die Evaluierung von Storage-Systemen haben sich laut Hübel insbesondere folgenden Kriterien bewährt.

Hohe Performance: Bei unternehmenskritischen Transaktionssystemen sollten die Input-Output Prozesse pro Sekunde (IOPS) möglichst hoch sein, um schnell reagieren zu können. Bei Anwendungen wie Data Warehousing drückt sich Performance in möglichst großer Bandbreite aus, um umfangreiche Datenmengen kontinuierlich lesend und schreibend von den Servern auf den Storage und zurück zu bringen.

Extreme Skalierbarkeit:Storage-Systeme sollten keine Einbahnstraße sein, sondern in jeder Beziehung ausbaufähig: Insbesondere sollten sie innerhalb der jeweiligen Systemklasse skalierbar sein, aber auch von einer Systemklasse auf die nächst höhere erweiterbar sein.

Hohe Verfügbarkeit:Storage-Technologien müssen auf zwei Standorten synchron spiegeln und transparent umschalten können. Fällt Storage auf einer Seite komplett aus sollten die Applikationen ohne Unterbrechung weiterlaufen. Dies sollte nicht nur für Systeme gleichen Typus oder der gleichen Klasse, sondern über alle Storage-Familien hinweg möglich sein.

Hohe Sicherheit:Datenverluste sind unbedingt zu verhindern. Je wichtiger Daten sind und je häufiger sie sich verändern, desto öfter sollten beispielsweise Snapshots gezogen werden. Wie kurz die Abstände zwischen den einzelnen Snapshots sein dürfen, ist ein wichtiges sicherheitsrelevantes Qualitätsmerkmal von Storage-System

Moderne Datenspeicher müssen heute eine Vielzahl von Kriterien erfüllen.
Moderne Datenspeicher müssen heute eine Vielzahl von Kriterien erfüllen.

Automatisierung nutzt Storage effizient

Wenn man alle Anforderungen gleichzeitig mit einer Infrastruktur abdecken will muss man Kompromisse eingehen - oder eine Architektur haben, die diese Anforderungen in einer sehr fortschrittlichen Weise realisiert. Automatisierung spielt hier eine entscheidende Rolle.

Damit der Storage im Unternehmen möglichst effektiv genutzt werden kann, sollten die vorhandenen Ressourcen dynamisch und abhängig vom Einsatzgebiet bereitgestellt werden (Stichwort: Quality of Service). Mit einer weitgehenden Automatisierung erhalten Anwendungen dann ohne menschlichen Eingriff so viel Rechenleistung und Speicher, wie sie benötigen.

"Moderne Storage-Systeme lassen sich dazu mit Hilfe von Regeln zur Festlegung von Tiering und Performance wie ein Tempomat im Auto steuern", erklärt Storage-Spezialist Hübel. Betriebswirtschaftlich optimal ist es beispielsweise, teurere und schnellere Platten im Rahmen von Storage-Tiering nur für wichtige und hoch performante Daten zu nutzen und die selten verwendeten, unkritischen Daten auf den kostengünstigen, langsamen Medien abzulegen.

Im laufenden Betrieb lassen sich mit Hilfe von Regeln Systemressourcen automatisch verteilen und optimal auslasten. "Man kann so beispielsweise dafür sorgen, dass Kernapplikation, die essenziell für das Geschäft ist - beispielsweise SAP- oder Oracle-Anwendungen - hohe Prioritäten bekommen und andere Applikationen weniger Prioritäten", sagt René Hübel. "So lassen sich die unwichtigeren Anwendungen unter Kontrolle bringen und es wird verhindert, dass sie zu viele Ressourcen verschlingen."

Wenn das Speichersystem Daten automatisch dem optimalen Speicherplatz zuweist, hat Automatisierung den zusätzlichen Effekt, dass IT-Administratoren von lästigen Routinearbeiten befreit werden und sich auf die Dinge konzentrieren können, die für das Business wichtig sind.

Flash-Speicher ist hoch performant

Klassische Festplatten bilden in vielen Unternehmen immer noch die Standard-Speichertechnologie. Sie bieten hohe Zuverlässigkeit bei gleichzeitig hohen Datenraten - und das bei steigender Speicherkapazität. Steht allerdings die Performance im Vordergrund und sollen unternehmenskritische Tier-0-Applikationen bedient werden sind inzwischen Flash-Systeme das Mittel der Wahl.

Flash-basierte Solid State Disks (SSDs) können die Geschwindigkeit um den Faktor 100 oder mehr steigern und bieten damit deutlich mehr Leistung als Festplatten. "Die sehr kurzen Zugriffszeiten von Flash-Speicher tragen direkt zu der hohen Leistungsfähigkeit eines Systems unter hohen Arbeitslasten bei", sagt Hübel. "Die Fähigkeit, jeden Speicherbereich nahezu ohne Wartezeiten ansprechen zu können bedeutet, dass zahlreiche Anwendungen ohne Verzögerungen gleichzeitig aktiv sein können."

Die wichtigste Kennzahl für die Bewertung der Performance und Reaktionsfähigkeit eines Storage-Mediums ist die Leistungsfähigkeit beim Lesen oder Schreiben zufälliger, kleiner Blöcke. Diese wird angegeben in Input/Output Operationen pro Sekunde, kurz: IOPS. Je größer der IOPS-Wert ist, desto schneller ist der Datenträger. Klassische Festplatten bieten hier zwischen 50 und 100 IOPS während SSDs mit 10.000 IOPS ein deutlich höheres Performance-Plus bieten.

Nicht nur die Lese- und Schreibgeschwindigkeit einer SSD ist schneller, auch die Zugriffszeiten verringern sich drastisch. Eine HDD braucht zwischen 3 und 20 Millisekunden, wohingegen eine SSD nur Bruchteile Millisekunden benötigt.

Der Flash-Effekt - ein Anwendungsbeispiel

Das folgende Beispiel veranschaulicht den Flash-Effekt: Die Grafik zeigt eine typische Storage-Anforderung, wie sie im mittelständischen Bereich üblich ist: 35 TB Nutzkapazität bei einer Performance von 90.000 (d.h. 90K) IOPS.

HDD versus SSD: Der flash-basierte SSD-Storage liefert deutlich bessere Werte.
HDD versus SSD: Der flash-basierte SSD-Storage liefert deutlich bessere Werte.

Soll die erste Anforderung - 35 TB Kapazität - mit Festplatten realisiert werden bräuchte man 260 15K-Platten mit je 300 GB. Die zweite Forderung nach 90.000 IOPS lässt sich im HDD-Modell nur mit dem Vorschalten von 2 SSDs realisieren, die als Cache dienen. Das ergibt eine durchschnittliche Antwortzeit von 10 Millisekunden bei einem gut gefüllten Shelf. Solche rein diskbasierten Systeme sind bei sehr vielen Unternehmen heute noch in Betrieb.

Bei einem modernen, SSD-basierten Storage-System ist die Basis-Architektur die gleiche. Allerdings kommt man hier bereits mit 12 SSDs zu je 4 TB auf 38 TB Nutzkapazität. Mit den aktuell bereits erhältlichen 16 TB SSDs kann man schon mit drei oder vier Einheiten dasselbe an Nutzkapazität erreichen, für das man bis vor kurzem noch 260 Festplatten benötigte.

"Bei der Performance sprechen die Messwerte eine klare Sprache", sagt Fujitsu-Experte Hübel. "Beim SSD-basierten System ist die Leistung mit 350K IOPS im Vergleich zu 90K IOPS beim Plattensystem um den Faktor 4 deutlich besser. Ebenso verringert sich die Latenzzeit von 10 Millisekunden beim Plattensystem auf 0,2 Millisekunden beim SSD-Storage. Jede produktive Applikation antwortet damit deutlich schneller, nämlich um den Faktor 50."

Und das Flash-System erzielt weitere positive Effekte. So ist die Energieeffizienz deutlich besser als beim Festplattensystem, es braucht erheblich weniger Platz im Rechenzentrum und die Servicekosten sind deutlich geringer.

Fazit

Für unternehmens- und performancekritische Applikationen ist flashbasierter SSD-Storage heute Standard. Die Flash-Speichertechnologie ist zwar noch etwas teurer als die klassische Festplatte, glänzt aber mit deutlich höheren Lese- und Schreibgeschwindigkeiten und IOPS. Die höhere Leistung von Flash-Storage ist von enormer Wichtigkeit für Branchen mit kritischem Informationsbedarf - gerade bei Tier-0-Applikationen mit geschäftskritischen Datenbank-Anwendungen und Transaktionen.

»

Jetzt runterladen

Bei aktuellen IT-Entwicklungen wie Cloud, Big Data, Social Media und Mobility greifen in der Vergangenheit bewährte Muster der Problembewältigung nicht mehr. Insbesondere reicht heute ein einfaches Hinzufügen von immer mehr Komponenten nicht mehr aus. Dieses Whitepaper stellt Lösungen von Fujitsu und NetApp vor. Sie sind auf dem stabilen Fundament eines intelligenten Datenmanagements den steigenden Anforderungen rund um Disaster Recovery, Back-Up und Datensicherheit ebenso gewachsen wie den Ansprüchen, die Virtualisierung und Cloud, Big Data und Analytics, SAP- und Microsoft-Umgebungen mit sich bringen.