Turbo für die Business-IT

SSDs beschleunigen Storage-Systeme

Donnerstag den 26.09.2013 um 10:18 Uhr

von Kriemhilde Klippstaetter

Bildergalerie öffnen Storage-Systeme beschleunigen
© Smart Storage Systems
SSD-Komponenten (Solid State Disk) machen Storage- und Server-Systeme leistungsfähiger. Wir geben einen Überblick über die Speicherhersteller, die SSDs für Storage-Systeme verwenden.
Anders als in klassischen Rechnern nutzen Hersteller im Storage-Umfeld keine flüchtigen RAM-Bausteine sondern Flash-Chips, die zu Solid State Disks (SSDs) aggregiert werden. Laut Gartner erreichte der Umsatz mit SSDs für Server und Speicher im vergangenen Jahr ein Volumen von 2,6 Milliarden Dollar. 2016 sollen es bereits 14,2 Milliarden Dollar sein. Angesichts solcher Wachstumsprognosen ist es kein Wunder, dass sich in diesem Markt immer mehr Anbieter tummeln. Weil die Technik noch längst nicht ausgereizt ist, haben sich außerdem Spezialisten wie Smart Storage Systems auf die Optimierung von Flash-Bausteinen und SSDs verlegt.

K.o.-Kriterien: Preis und Haltbarkeit von SSDs

Zum einen geht es darum, die Haltbarkeit der Chips insbesondere bei Schreibvorgängen zu verbessern. Das zweite Kriterium ist der Preis, denn SSDs sind in der Anschaffung noch immer teuer. Laut IDC musste man 2011 für 1 GB Speicherkapazität auf den hochwertigen SLC-basierenden SSDs noch rund 11 Dollar bezahlen (SLC = Single Level Cell). Bis 2016 soll es einen Preisabschlag von gut 30 Prozent pro Jahr geben, bis dann nur mehr zwei bis 3 Dollar für 1 GB zu berappen sind.

Den „Xceed Stor 500S“- SSD-Speicher von Smart Storage
Systems gibt es mit 60, 120, 240 und 480 GB Kapazität und soll
trotz kostengünstiger MLC-Bausteine unternehmenstauglich
sein.
Vergrößern Den „Xceed Stor 500S“- SSD-Speicher von Smart Storage Systems gibt es mit 60, 120, 240 und 480 GB Kapazität und soll trotz kostengünstiger MLC-Bausteine unternehmenstauglich sein.
© Smart Storage Systems

Auf der diesjährigen Fachmesse Storage Networking World (SNW) in Frankfurt am Main zeigte das Angebot des US-Unternehmens Smart Storage Systems, dass man kostengünstige Multi-Level-Cell-(MLC-) Flash-Chips dank Veredelung nahe an die Zuverlässigkeit und Haltbarkeit von Single-Level-Cells (SLCs) bringen kann. Die patentierte „Guardian“-Technik ändert die Flash-Parameter der NAND-Chips und setzt Fehlerkorrekturmechanismen ein, die die kostengünstigen MLC-Bausteine tauglich für den Einsatz in Unternehmen machen sollen.

Mittlerweile ist man bei der Fertigung der Chips beim 19-Nanometer-Fertigungsprozess angekommen, was die Bauteile nochmals verbilligen wird. Smart gibt fünf Jahre Garantie auf die Produkte. Unter anderem nutzen der Newcomer X-IO sowie die IBM die Produkte von Smart. Allerdings übernahm Big Blue kürzlich das US-Unternehmen Texas Memory Systems, das Flash-Controller und –Anwendungsbeschleuniger herstellt.

Auch in puncto Haltbarkeit gibt es laufend Verbesserungen, was insbesondere für die Beschreibbarkeit der SSDs wichtig ist: soll ein Datum in einer Zelle gespeichert werden, dann muss sie zuerst gelöscht werden, fabrikneue Teile ausgenommen. Herkömmliche Festplatten dagegen überschreiben einfach. Das Löschen der Flash-Chips lässt diese aber altern. Für eine Arbeitslast von 70:30 (70 Prozent Lesen, 30 Prozent Schreiben) liegen die Durchschnittswerte in puncto Haltbarkeit derzeit für SLCs bei 100.000 Zyklen, für MLCs bei 3000 und für enhanced MLCs (eMLC) bei 30.000 Program-Erase Cycles (P/E cycles). Man darf in Zukunft auf noch bessere Werte hoffen.

Die optimale Platzierung: SSD als Tier-0-Speicher

Noch spannender als die Technik der Bausteine ist die Frage nach dem optimalen Ort für SSDs. Im Rahmen von Tiered-Storage-Konzepten werden sie am häufigsten als Tier-0-Speicher im Speicherverbund aus schnellen, langsamen und Archivmedien eingesetzt. Die wichtigsten und aktuellsten Informationen und die mit den meisten Zugriffen sollen im SSD abgelegt werden. Das senkt Zugriffs- und Latenzzeiten enorm. Wenn sich die Daten in der SSD „abkühlen“, sprich weniger aktuell sind, wandern sie auf kostengünstigere Festplatten ab, in der Speicherhierarchie also nach unten.

Dells „Equallogic ps6100“ kann mit bis zu 9,6 TB an
SSD-Speicher aufgerüstet werden.
Vergrößern Dells „Equallogic ps6100“ kann mit bis zu 9,6 TB an SSD-Speicher aufgerüstet werden.
© Dell

Dell nutzt dieses Verfahren beispielsweise für alle hauseigenen Speichersysteme und setzt in den Powervault-, Equallogic- und Compellent-Speichern Solid-State-Disks mit Kapazitäten zwischen 200 und 400 GB ein. „SSDs müssen unbedingt in eine mehrstufige Speicherlandschaft eingebunden werden“, propagiert auch Hans Schramm, Field Product Manager Enterprise bei Dell. Denn die automatische Verlagerung der Informationen empfiehlt sich - um Platz für neue Daten zu schaffen - schon wegen der knappen Kapazitäten, mit denen SSDs meist ausgestattet sind.

Automatisches Tiering, da sind sich die Speicherhersteller einig, muss sein, wenn SSDs verwendet werden sollen. Doch was bedeutet in diesem Zusammenhang automatisch? Wann wird geprüft, ob Daten noch „heiß“ sind, also oft gebraucht werden oder ob sie bereits den Weg hinab in der Speicherhierarchie antreten sollen? Meist untersuchen die Softwareroutinen nur alle acht, zwölf oder gar nur 24 Stunden, wie es um die Bedeutung der Informationen bestellt ist. Automatisch ist also relativ.

Automatisches Tiering im 5-Sekunden-Takt liefert das
„Assured SAN Pro5000“ von Dot Hill.
Vergrößern Automatisches Tiering im 5-Sekunden-Takt liefert das „Assured SAN Pro5000“ von Dot Hill.
© Dothill

Anders macht es der Hersteller Dot Hill. Dessen „Realtime-Data-Movement“-Technik überprüft alle fünf Sekunden, ob sich schon etwas auslagern lässt. „Die Daten werden aber nur dann verlagert, wenn wichtigere und aktuellere reinkommen“, beschreibt Warren Reid, Dot Hills Director Marketing Emea, das Vorgehen. Tests der Enterprise Strategie Group haben gezeigt, dass sich mit der Echtzeitverlagerung der Daten die Leistung um das 2,5-fache steigern lässt. Parallel dazu erhöht sich die Anzahl der möglichen Datenbanktransaktionen um mehr als das Doppelte während die I/O-Antwortzeiten um zwei Drittel sinken.

Algorithmen stellen sicher, dass nicht immer die gleichen Zellen der SSD beschrieben werden, was die Güte und Lebenszeit der Bausteine verlängert. Manager Reid erwartet, dass die neue Technik die hauseigenen „AssuredSAN Pro 5000“-Arrays in die Mittelklasse des Speicherangebots befördern wird, und das bei einem Einstiegspreis von 50.000 Euro für 20 TB Speicherkapazität und vier SSDs mit je 200 GB. Zu beziehen sind die Produkte über HP (OEM-Version) und den Handel, beispielsweise bei Avnet.

Gegen den Flaschenhals: SSDs als Cache-Speicher

HDS liefert jetzt den eigens entwickelten
Flash-Accelerator.
Vergrößern HDS liefert jetzt den eigens entwickelten Flash-Accelerator.
© HDS

Hitachi Data Systems (HDS) nutzt SSDs außer als Tier-0-Speicher auch als Beschleuniger für das Speichersystem, denn das stellt vielfach einen Flaschenhals dar. „Der Server hat dank Flash-Erweiterung mehr Dampf erhalten und kann die Daten schnell entladen, aber die Entladung im Speicher passt nicht mehr dazu“, beschreibt Jürgen Krebs, Director Business Development und Field Marketing bei HDS, die aktuellen Sorgen von Herstellern und Betreibern.

HDS hat deshalb eine Flash-Erweiterung entwickelt, die als Cache-Speicher für „Highspeed-Beschleunigung“ verwendet wird. „Die Flash-Acceleration mit 1,6 TB wird wie ein Festplatten-Array angeschlossen“, beschreibt Krebs das Produkt. „Durch das Asic erkennt der Speicher-Controller, dass darin ein Cache-Speicher enthalten ist.“ Bei schnellen Applikationen sollen sich damit Transaktionsraten von einer Million I/O in der Sekunde (IOPS) erreichen lassen. Der Preis für die Erweiterung, die in die VSP- und HUS-VM-Modelle passt und bei der keine Änderungen im System vorgenommen werden müssen, soll laut Krebs deutlich unter 50.000 Euro liegen.

Auch zum automatischen Verlagern von Daten hat sich HDS Gedanken gemacht. Die Company nennt ihre Lösung „Dynamic Tiering“. Sie erlaubt es, Daten zu definieren, die in 42-MB-Paketen auf eine höhere Ebene der Speicherhierarchie verschoben werden sollen – automatisch und ohne das sonst übliche Kopieren der Daten. Der Vorteil ist unter anderem, dass ein Look-ahead-Buffer alle verwandten Informationen erkennt und nach oben expediert. Normalerweise kopiert man Daten, wenn sie etwa aus dem Archiv aktuell gebraucht werden. Das kostet Zeit und ist auch fehleranfällig.

Donnerstag den 26.09.2013 um 10:18 Uhr

von Kriemhilde Klippstaetter

Kommentieren Kommentare zu diesem Artikel (0)
1648995