storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler...

35
storage-magazin.de Eine Publikation von speicherguide.de Ausgabe 3-2014 Storage für den Mittelstand All-Flash - Cloud - Soſtware-defined - SSDs

Transcript of storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler...

Page 1: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

storage-magazin.deEine Publikation von speicherguide.deAusgabe 3-2014

Storage für den MittelstandAll-Flash - Cloud - Software-defined - SSDs

Page 2: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

2 Editorial

Wer bestimmt die Storage-Zukunft?Liebe Leserinnen und Leser,

an dieser Stelle möchte ich auf eine coole wie auch gewagte These von den Kollegen von storagenewsletter.com eingehen. Ihrer Ansicht nach müssen wir uns bald keine Gedanken mehr über die großen Storage-Hersteller machen: »Die Storage-Zukunft liegt nicht mehr in den Händen der großen, sondern der kleineren Firmen.« Wie kom-men die Kollegen darauf?

Fest steht, der Markt ist rückläufig. Laut IDC »Global Disk Storage Systems Revenue« wird 2013 weltweit ein Minus von 2,7 Prozent verbucht. Der Umsatz fällt von 32,654 auf 31,688 Milliarden US-Dollar. Und auch das Q1/2014 endet im Jahresvergleich mit einem 5-prozen-tigen Minus. Der weltweite Festplattenmarkt ist bereits im dritten Jahren rückläufig, ohne Aussicht auf Besserung.

Die weltweite Wirtschaft und speziell einige europäische Ländern sind nicht in guter Verfassung, doch ist dies nicht der Hauptgrund für die schlechten Marktzahlen. Die großen, proprietären, monolithi-schen Speicherinfrastrukturen verkaufen sich nur langsam. Betroffen sind davon vor allem EMC, HDS und IBM.

Hinzukommt, es gibt immer weniger große Übernahmen. Früher haben die großen Hersteller ihr Wachstum mit gezielten Akquisitio-nen forciert. Im ersten Halbjahr 2014 waren es bisher lediglich 24 Übernahmen. Die größten davon: Seagate kauft Avago LSI für 450 Millionen US-Dollar und Sandisk/Fusion-io für 1,1 Milliarden US-Dol-lar. Der einstige Einkaufskönig EMC – 73 Übernahmen seit 1994 – kaufte zuletzt nur noch zwei, drei kleinere Firmen pro Jahr. Das Resultat für den Markt: Die nicht übernommenen B-Brands und

Karl Fröhlich, Chefredakteur speicherguide.de

kleineren Hersteller sind mit guten Produkten sehr aggressiv im Markt unterwegs.

Außerdem etablieren sich die in den letzten Jahre stark gehypten Speichertechnologien. Virtualisierung, Deduplizierung und auch Kompression helfen Unternehmen das Speichervolumen zu reduzie-ren. Big Data unterstützt den Verkauf von Storage-Systeme, ist aber nicht explizit eine Speichertechnologie. Software-defined Storage hat zum Ziel, große Systeme durch günstigere Standard-Hardware zu ersetzen. Und zu guter Letzt wildern SSDs in den angestammten Festplatten-Regionen. Hier werden zwar gute Umsätze erzielt, doch kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader in einem harten Wettbe-werb mit kleineren Herstellern.

Ich bin geneigt den Kollegen recht zu geben, zumindest teilweise. Wobei man EMC und IBM nicht abschreiben darf. Die haben schon eine klare Vorstellung von künftigen Technikgenerationen. Im Prinzip tut es dem Markt und der Entwicklung auch ganz gut, dass Firmen wie Pure Storage, Nimbus oder Nexenta eben noch nicht gekauft wurden. Mittelfristig werden sich Käufer finden. Auch Seagate und WD schauen nicht einfach zu, wie ihnen SSDs den Rang ablaufen. Am Ende »gewinnen« doch die Großen. Oder?

Ihr Karl Fröhlich, Chefredakteur speicherguide.de

Page 3: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

3 Service

Inhalt

Service

Editorial . . . . . . . . . . . . . . . . . . . . . . . . . Seite 2

Inhalt . . . . . . . . . . . . . . . . . . . . . . . . . . . Seite 3

Hochverfügbarkeit

Datenverlust und Stillstandzeiten nicht tolerierbar . . . . . . . . . . . . . . . . . . . . . . . Seite 4

Datensicherung

Wie viel Backup braucht das Rechenzentrum. . . . . . . . . . . . . . Seite 7

KMUs sollten sich mit Cloud-Backup befassen . . . . . . . . . . Seite 9

Cloud-Backup bringt bereits Vorteile. . . . . . . . . . . . . . . . . .Seite 13

Cloud

IT-Transformation benötigt die dritte Plattform. . . . . . . . . . . . . .Seite 14

Advertorial

Mittelstand im Vorteil mit virtuellen SANs . . . . . . . . . . . . . .Seite 17

Storage-Management

Software transformiert das Rechenzentrum. . . . . . . . . . . . .Seite 20

SSD & Flash

All-Flash-Systeme im Überblick. . . . . . . . . . . . . . . . . . . .Seite 23

1-TByte-SSDs nicht mehr unerschwinglich . . . . . . . . . . . . . . . .Seite 29

SSD muss zu den Anforderungen passen . . . . . . . . . .Seite 31

Marktübersicht SSDs ab 500 GByte . . . . . . . . . . . . . . . . . . .Seite 33

Service

Impressum . . . . . . . . . . . . . . . . . . . . .Seite 35

Obwohl All-Flash-Arrays noch relativ neu auf dem Markt sind, gab es bei den Anbietern bereits Konsolidierungen. Nicht nur Startups, sondern auch etablierte Hersteller offerieren Flash-Syste-me. Die Vorteile von höherer Performance, geringeren Latenzen und einem zusätzlichen Storage-Tier können in allen Umgebungen erzielt werden.

Wenn bei kleineren und mittelständischen Unternehmen (KMU) die Erneuerung der Backup-Infrastruktur ansteht, dann sollten sie Cloud-Backup als Alternative mal ernsthaft in Betracht ziehen. Es gibt mittlerweile viele probate Lösungen. Es sollte aber nicht die alleine Backup-Lösung sein, sondern nur ein weiterer Pfeiler in der Datensicherungsstrategie.

Für die aktuell gültigen SSD-Preise erhalten Anwender heute fast die doppelte Kapazität als noch vor einem Jahr. Wir erwarten, dass 1-TByte-SSDs bis Jahresende die 300-Euro-Marke passieren werden.

All-Flash-Systeme im Überblick

KMUs sollten sich mit Cloud-Backup befassen

Marktübersicht SSDs ab 500 GByte

Seite 23

Seite 33

Seite 9

Page 4: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

4 Hochverfügbarkeit

Foto: N-Tec

Erschwingliche Hochverfügbarkeits-Lösungen

Datenverlust und Stillstandzeiten nicht tolerierbarMit Standard-Hardware und einer plattformunabhängigen Software lassen sich auch mit begrenzten finanziellen Mitteln Speichersysteme hochverfügbar aufbauen. Und dies mit annähernd hohem Funktionsumfang wie in Enterprise-Lösungen. Wichtig ist dabei eine durchdachte Planung und dedizierte Fehlerquellen konsequent zu erkennen.

Karl Fröhlich

Die Verfügbarkeit der Daten ist und bleibt in Rechenzentren Brandherd Nummer eins. »Ein Datenverlust ist nicht hinnehmbar und bedeutet für viele Unternehmen, auch im Mittelstand, das Aus«, unterstreicht Bernd Meyer, Marketingleiter bei Starline Com-puter. Der Mittelstand benötige daher ebenso Hochverfügbarkeits-Features und diese sind längst nicht mehr nur in Produk-ten der A-Brands integriert. »Zumal Enter-prise-Produkte meist ungenutzte Funktio-nen enthalten, die für mittlere und kleine Unternehmen irrelevant sind, aber trotz-dem mit bezahlt werden müssen«, ergänzt Michael Essig, Enterprise Storage Solu-tions bei Starline.

Der in Kirchheim ansässige Distributor geht hier einen anderen und aus seiner Sicht kostengünstigeren Weg. Starline bie-ten in diesem Segment unter anderem ska-lierbare und hochverfügbare Aktiv/Aktiv Storage-Cluster-Lösungen auf Basis der »NASdeluxe NDL-3000R/L«-Serie an, mit 40-Gbit/s-Ethernet-Technologie. Eigenen

Angaben zufolge sind die Vorteile unter an-derem die Erweiterbarkeit mit Standard-Hardware-Komponenten sowie günstige Li-zenzkosten für Speicherkapazitäten.

Sicherheit benötigt ein gutes Konzept»Hochverfügbarkeit ist niemals die Sache eines einzelnen Produktes, sondern immer das Ergebnis eines guten Lösungskonzep-

tes«, hebt Wolfgang Bauer, Technischer Leiter bei EUROstor, hervor. »Natürlich lässt sich schon durch die Wahl der richti-gen Hardware eine hohe Ausfallsicherheit erzielen. So zum Beispiel durch eine Clus-ter-Lösung, idealerweise verteilt auf zwei Brandschutzzonen. Das muss nicht einmal teuer sein.« Eurostor bietet beispielsweise

Zusammen mit Datacores »SANsymphony-V« bieten die »rapidCore«-Systeme Hochverfügbarkeit mit Enterprise-Funktionalitäten zum Midrange-Preis ab ca. 17.500 Euro.

Page 5: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

5 Hochverfügbarkeit

serverbasierte Speicherlösungen wie das »ES-8700« auf der Basis von »Open-E DSS« bzw. das »ES-2000« mit »Windows Storage Server 2012 R2« an. Zusammen mit zu-verlässiger Server-Hardware ist dies laut Bauer eine gute Basis für eine Hochverfügbarkeitslösung.

»Allerdings ist das allein nicht ausrei-chend«, mahnt Bauer. »Werden die Daten verfälscht auf dem Storage-System, dann hilft auch die Redundanz nichts. Daher ist ein ausgefeiltes System von Snapshots und Backup unbedingt erforderlich. Bei Daten-banksystemen beispielsweise sollten die Transaktionen immer in sehr kurzen Ab-ständen gesichert werden und sinnvoller-weise auf ein zweites System, um auch im Falle einer Datenkorruption den aktuellen Stand wieder nachziehen zu können.« Für Bauer ist Sicherheit nicht in erster Linie eine Preisfrage, sondern Ergebnis eines guten Konzepts.

Zentraler Speicher darf keine Fehlerquelle seinMit der Server-Virtualisierung geht in der Regel auch die Speicherkonsolidierung auf ein zentrales Storage-System einher. »Da-bei wird jedoch leider oft übersehen, dass gerade dieser zentrale Speicher besonde-ren Anforderungen unterliegt«, moniert Martin Huber, Geschäftsführer bei N-TEC.

»Auf der Server-Seite wird mit Cluster-Kon-figurationen für die Verfügbarkeit und Aus-fallsicherheit der Server gesorgt. Alle Sys-teme greifen dann jedoch oft auf einen zentralen Speicher zu, der eine nur unzu-reichende oder trügerische Verfügbarkeit bietet, da entweder der Speicher selbst, der Pfad zum Speicher oder auch die vorhan-dene Infrastruktur einen Single-Point-of-Failure (SPoF) darstellt.« Hier begehen Un-ternehmen die meisten Fehler in der Projektierung.

Echte Hochverfügbarkeit lässt sich nur er-reichen, wenn sämtliche SPoF eliminiert werden. Im Optimalfall sind alle Kompo-nenten redundant ausgelegt und aufgeteilt in unterschiedliche Brandabschnitte.

»Letzteres ist jedoch gerade für kleinere Unternehmen nicht immer möglich und das ist auch der einzige Kompromiss, der eingegangen werden kann, wenn ein paar zentrale Punkte beachtet werden«, erklärt Huber.

Die hochverfügbare Mittelstandlösung von N-Tec reicht vom Einstiegsmodell »ra-pidCore ECO« mit fix 2x zwei TByte gespie-gelter Kapazität bis hin zum »rapidCore Ul-tra« mit 2x 64 TByte gespiegelter Kapazität. Alle Rapidcore-Systeme arbeiten mit Data-Core »SANsymphony V«, sind entsprechend zertifiziert und werden vorinstalliert gelie-fert. Die Disk-Subsysteme unterstützen

� Ein einzelnes, in der Regel preisgünstiges Speichersystem, selbst ausge-

stattet mit redundanten Controllern, stellt einen SPoF dar. Das wird von

vielen Herstellern gerne verschwiegen und Firmen merken es erst, wenn

der Speicher, aus welchem Grunde auch immer (technischer Defekt, Fehl-

bedienung), einmal ausgefallen ist und der gesamte Betrieb steht. Im Nach-

gang wird dann oft noch einmal kräftig investiert, für ein zusätzliches Spei-

chersystem plus Infrastruktur plus Software-Pakete und Maintenance,

damit echte Hochverfügbarkeit erreicht werden kann. Der ursprüngliche

Preisvorteil verkehrt sich dadurch in einen deutlichen Preisnachteil. Zu-

mal der Kunde dann an den jeweiligen Hersteller gebunden ist.

� Gerne übersehen wird auch die Anbindung des Speichers an die Host-Sys-

teme. Egal ob FC, iSCSI oder einfach über LAN – auch die Switche und Da-

tenkabel müssen redundant ausgelegt sein, damit eine permanente Ver-

bindung zum Storage gewährleistet ist.

� Alle Komponenten sind zwar redundant ausgelegt, allerdings in einem ein-

zigen Schrank montiert, der im schlechtesten Fall dann auch nur über eine

USV abgesichert ist. Fällt dann die USV aus, geht nichts mehr.

� Nicht zu vergessen ist der menschliche Faktor, der in allen diesen Fällen

oft der Auslöser für Systemausfälle ist. Sei es auch nur, wenn Wartungsar-

beiten an den Systemen anstehen und der Speicher dafür heruntergefah-

ren werden muss. Viele Unternehmen müssen dafür langfristig Wartungs-

fenster planen, weil der Betrieb rund um die Uhr laufen muss und

»Downtime« eigentlich nicht möglich ist

� Und zu guter Letzt der Hinweis, dass ein gespiegeltes System kein Ersatz

für ein funktionierendes Backup ist. Auch dies wird gerne übersehen. Ein

redundantes Speichersystem spiegelt alle Daten die es vom Host bekommt

– auch Viren, Datenlöschung, Datenkorruption

Quelle: N-Tec

Hochverfügbarkeit: Häufige Fehler in der Konzeption

Page 6: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de

6 Hochverfügbarkeit

Enterprise-Funktionen, wie Thin-Provisio-ning, Auto-Tiering (Tiered Storage), CDP so-wie eine breite Auswahl an Hardware Opti-onen wie unter anderem Fibre-Channel, 10-Gbit-Ethernet, SSDs (SAS/SATA) und PCI-to-Flash Accelerator.

Einstandskosten vs. Gesamtkosten»Wir oder einer unserer Partner überneh-men die Installation und Einbindung beim Kunden, inklusive einer ausführlichen, ein-tägigen Schulung auf das System«, erläu-tert N-Tec-Manager Huber. »Natürlich ist die Konzeption solch eines HA-Systems immer mit einer gewissen Grundinvestition ver-bunden. Wenn sich ein Unternehmen je-doch einmal ins Bewusstsein ruft, welche finanziellen Auswirkungen auch nur weni-ge Stunden oder ein Tag Stillstand hätte, so macht sich die Investition schnell bezahlt.« Oft genug berücksichtigen Unternehmen nur den vermeintlichen Einstandspreis. Die

Gesamtkosten unterschätzen viele. »Gera-de im öffentlichen Bereich werden Preise verglichen, die nur die Anschaffungskosten berücksichtigen und die vermeintlich bil-ligste Lösung erworben«, sagt Starline-Ma-nager Essig. »Doch dann kommen die Fol-gekosten für Service, Support, Lizenzen, Upgrades, Erweiterungen und Wartungs-verträge hinzu, die solche Lösungen mas-siv verteuern. Diese Folgekosten fallen oft erst Jahre später an und schränken den Handlungsspielraum der Unternehmen ein.«

Oft genug zeige sich erst relativ spät, dass sich die vermeintlich billige Lösung nur mit spezieller und hochpreisiger Hardware er-weitern lässt. Der allgemeine Rat an kleine und mittelständische Unternehmen lautet daher, auf plattformunabhängige Lösun-gen zu setzen, die sich in bestehende Um-gebungen integrieren und auch später mit überschaubaren Kostenaufwand erweitern lassen. K

Der Eurostor »ES-8700 iSCSI/NFS«-Cluster

gewährleistet den Datenzugriff im Fehlerfall durch ein

automatisches Failover.

Foto

: Eur

osto

r

Hochverfügbarkeit

Speichernetze

New

sD

isk-

Sub

syst

eme

NAS-Systeme

Ban

dlau

fwer

ke

Virtu

alis

ieru

ng

Festplatten

Optical-Storage

DatenrettungMarktübersichten

Solid-State-Disk

Dis

k-B

acku

pW

is-

BandroboterStorage-Security

Storage-Hardware

SoH

o-N

AS

Big-Data

Backup/Recovery

Arc

hivi

erun

g

CloudStorage-Management

Specials

Man

agem

ent

Controller & Interfaces

Pro

duk

t-R

evie

ws

iSC

SI-S

AN

NA

S-S

yste

me

Hochverfügbarkeit

Speichernetze

New

sD

isk-

Sub

syst

eme

NAS-Systeme

Ban

dlau

fwer

ke

Virtu

alis

ieru

ng

Festplatten

Optical-Storage

DatenrettungMarktübersichten

Solid-State-Disk

Dis

k-B

acku

pW

is-

BandroboterStorage-Security

Storage-Hardware

SoH

o-N

AS

Big-Data

Backup/Recovery

Arc

hivi

erun

g

CloudStorage-Management

Specials

Man

agem

ent

Controller & Interfaces

Pro

duk

t-R

evie

ws

iSC

SI-S

AN

NA

S-S

yste

me

Optical-Storage

Solid-State-DiskBig-DataSpecialsAktuelle Storage-Meldungen und die neuesten Beiträge kompakt serviert auf

speicherguide.deUnser Newsletter erscheint immer Mittwochs und Freitags.

Storage-Newsletter

Hier abonnieren ›

KOSTENLOSER

Page 7: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

7 Datensicherung

Hochverfügbarkeit vs. Backup

Wie viel Backup braucht das RechenzentrumNeue, hochleistungsfähige Technologien mit zahlreichen Funktionen bringen Hochverfügbarkeit in Rechenzentren. Darüber hinaus verändern Replikationen an Zweitstandorte und eine wachsende Always-On-Mentalität die Sicherungsstrategien. Mancher IT-Manager könnte darüber nachdenken, wie sinnvoll sein Backup noch ist.

Ulrike Rieß

Backup schien schon immer das ungelieb-te Stiefkind der IT. Die Budgets nie groß ge-nug, der Sicherungszeitraum immer am Li-mit und die Verantwortlichen immer in der Bringschuld, falls es zu Systemausfällen und Datenverlusten kommt. Um bei der Da-tensicherung nicht nur auf einem Bein zu stehen, haben viele Unternehmen zusätz-liche Strategien wie Hochverfügbarkeits-konzepte und Replikationspläne entwi-ckelt, um ihre Geschäftstüchtigkeit nonstop aufrecht zu halten. Mit der stetig wachsen-den Erwartung, stets verfügbare Daten an jedem Ort zu haben, werden diese Siche-rungspraktiken immer wichtiger.

Wer bei einem Systemausfall oder Daten-verlusten auf ein Zweitsystem mit identi-schen Datensätzen zugreifen kann, hat

scheinbar eigentlich keinen Bedarf mehr an einem Backup. Das klassische Backup durch Redundanzen, Always-On und mehr-fach verteilte Informationsbestände zu er-setzen liegt nahe, ist aber nur auf den ers-ten Blick eine verlockende Option, dem Backup-Aufwand zu entgehen.

Doppelt hält besser – schon seit JahrenDie Technologien, die für eine mehrfache synchrone Speicherung von Daten an ent-fernte Standorte notwendig sind, sind gar nicht so neu. Große Hersteller haben diese bereits in der zweiten Hälfte der 90er Jah-re eingeführt, unter anderem um die da-mals aufkommenden Regelungen von Ba-sel II im Bankenbereich erfüllen zu können. Schon zu dieser Zeit war es möglich, zwei Speichersysteme auf eine Distanz von ca.

100 Kilometern synchron zu halten, so dass am zweiten Standort mit demselben Da-tenbestand weitergearbeitet werden konn-te. Inzwischen, mit verbesserter Netzwerk-technologie, hat sich dieser Wert von 100 Kilometer auf unter 5 Millisekunden geän-dert, was in der Realität um die 200 Kilome-ter bedeutet. Da heutzutage im Enterprise- und hochwertigen Midrange-Bereich mehr als zwei Arrays gekoppelt werden können, lässt sich auch mehr als eine Kopie der Pro-duktionsdaten an entfernten Standorten anfertigen, so dass auch nach Ausfall eines Rechenzentrums mit geschützten Bestän-den weitergearbeitet werden kann. Hiermit lässt sich »Always-On« durchgängig unterstützen.

Mittlerweile sind diese Funktionen auch in kleineren Umgebungen möglich, da be-reits Einstiegssysteme oder Lösungen für

den kleineren Mittelstand Replikation und Hochverfügbarkeit mittels redundanter Komponenten und Systemkopplung er-möglichen. Meist reichte diesen Unterneh-men einfach ein klassisches Backup, aber auch hier liegen die Anforderungen mittler-weile bei 24/7-Verfügbarkeit. Es stellt sich die Frage, ob die herkömmliche Datensi-cherung nicht ausgedient hat und nun an-dere Strategien erforderlich sind.

Replizieren allein reicht nichtFailover-Schwenks, Zweitstandorte, Repli-kation: all dies sind wichtige Mechanismen für eine dauerhafte Verfügbarkeit von Da-ten und somit des Geschäfts. Ein Backup können diese Verfahren aber nicht wirklich ersetzen. Denn zum einen, sind die Datei-en bei Übernahme der Produktion in einen zweiten Standort tatsächlich synchron, das bedeutet, dass viele Dateien, Datenbanken oder andere Informationstypen im ge-öffneten Zustand auf den Datenträgern stehen. Somit müssen diese auf der Sekun-därseite nachbearbeitet und wieder zu-griffsfähig gemacht werden. Das ist ein nicht unerheblicher Aufwand, der bei den meisten Failover-Szenarien nicht bedacht wird.

Zum anderen befinden sich im Moment des Umschaltens in den anderen Standort noch I/Os auf der Leitung, die zwar bereits

Page 8: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

8 Datensicherung

im Rechner als gesendet gelten, aber im Pri-märsystem noch nicht geschrieben wur-den. Nach dem Failover muss also das feh-lende »Acknowledge«-Paket vom Primärsystem eine Anforderung desselben Blockes vom Rechner auslösen, um diesen I/O regelrecht in die Datei bzw. den Daten-satz schreiben zu können. Passiert dies nicht, ist der I/O verloren und die Datei bzw. der Datensatz ist inkonsistent und somit unbrauchbar.

Nicht zuletzt darf der IT-Manager nicht vergessen, dass die beiden genannten Vor-gänge auch für den Rückfall ins Primärre-chenzentrum gewährleistet sein müssen, um dort wieder problemlos nach Behebung der Fehler weiterarbeiten zu können. Dar-über hinaus kann es im schlimmsten Falle zu einem Fehler des Microcodes der ver-wendeten Arrays kommen. Das würde be-deuten, dass im selben Moment oder in ei-nem sehr engen Zeitraum alle verwendeten Systeme die Produktion einstellen und nicht mehr verwendbar sind. Schlussend-lich heißt das, dass eine zweite Datensiche-rung notwendig ist, um einen konsistenten Datenbestand vorzuhalten, da aus einer Re-

plikation nur bedingt alle Informationen wiederhergestellt werden können.

Fehler im Microcode mit Backups vermeidenDer Verlust einiger weniger Daten, IOPS oder kleinere Inkonsistenzen sind sicher nicht zu dramatisch anzusehen. Sie erfor-dern im Zweifel Aufwand, der mit Zeit verbunden ist. IT-Verantworliche sollten wissen, was auf sie zukommt und ihre Spei-cherlandschaften so planen, dass entspre-chende Auswände einkalkuliert sind und die Technik keine Überraschungen parat hat.

Das Vermeiden von Microcode-Fehlern ist allerdings das wichtigste Argument für ein regelmäßiges Backup. Dies sollte genau zwei Kriterien erfüllen: es muss auf einem anderen Systemtyp erfolgen als auf dem Produktions-Array. Nicht im RAID selbst –aufgrund der beschriebenen Szenarien sind weder physikalische Clones noch logische Snapshots im schlimmsten Falle als Siche-rung zu gebrauchen. Und es muss einen so-fort nach Kopie zugriffsfähigen Stand der Produktionsdaten enthalten, der keine Nachbearbeitung mehr erfordert. Nur eine solche Infrastruktur und Logik gewährleis-

tet den schnellsten Weg zurück in die Pro-duktion, wenn tatsächlich auf allen verwen-deten Arrays nichts mehr geht und komplett neue Systeme aufgesetzt werden müssen.

Und trotz aller Automatismen und Re-geln, passieren solche Fehler noch immer, auch den größten Unternehmen mit den besten Datenschutz- und Recovery-Strate-gien. Moderne Arrays sind die bei weitem komplexesten Maschinen mit den umfang-reichsten Betriebssystemen in der EDV, we-der ein Mainframe noch irgendwelche Ser-verfarmen im virtualisierten Bereich kommen dort heran. Dass etwas kaputtge-hen kann, ist nicht die Frage. Nur das »wann« und das »was« stehen zur Diskussi-on. Und Firmen, die hier vorsorgen sowohl mit Backup als auch mit HA, denen kann das eine so egal wie das andere sein.

Auch Virtualisierung ist kein AllheilmittelEin gewisses Maß an Datensicherheit lässt sich auch durch Virtualisierung erreichen. Hier gibt es zum Beispiel die Möglichkeit, aus mehreren Standorten gleichzeitig auf dasselbe logische Volumen zuzugreifen. Und es gibt die Möglichkeit, dieses logische Volumen synchron zu spiegeln und damit die Produktion auch mit geöffneten Datei-en oder Datensätzen sofort und ohne Un-terbrechung fortzusetzen. Damit ließen sich die Zeitaufwände bei inkonsistenten Daten und Ähnlichem vermeiden. Was diese Inf-rastrukturen nicht können, ist das gleich-zeitige Versagen gleicher Typen von Spei-chersystemen auszuschließen. Und für diesen Fall benötigen wir immer noch das klassische Backup.

Die herkömmliche Datensicherung – sprich das Backup – ist also noch lange nicht vom Aussterben bedroht. Es muss nur andere Arten von Ausfällen abpuffern. So-lange wir in Rechenzentren von Menschen entworfene, gebaute und programmierte Systeme einsetzen, ist Always-On keine Mentalität, sondern ein Hype, dem die Un-ternehmen glauben folgen zu müssen. Je-des Rechenzentrum, jede Maschine, jede Anwendung benötigt Service-Zeiten. Und Stand heute, wird dies auf absehbare Zeit auch so bleiben. K

HA und Zweitstandorte können ein hoch funktionales Backup wie beispielsweise mit Data-Domain-

Systemen nicht ersetzen.

Disk-Backup-Systeme setzen sich seit Ende der 1990er Jahre in den

Unternehmen durch.

Foto: EMC

Foto

: Qua

ntum

Page 9: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

9 Datensicherung

Cloud-Backup sollte immer nur einer von mehreren Pfeilern bei der Datensicherung sein

KMUs sollten sich mit Cloud-Backup befassenWenn bei kleineren und mittelständischen Unternehmen (KMU) die Erneuerung der Backup-Infrastruktur ansteht, dann sollten sie Cloud-Backup als Alternative mal ernsthaft in Betracht ziehen. Es gibt mittlerweile viele probate Lösungen. Es sollte aber nicht die alleinige Backup-Lösung sein, sondern nur ein weiterer Pfeiler in der Datensicherungsstrategie.

Engelbert Hörmannsdorfer

Backup-Daten in die Cloud auslagern – noch tun sich Abteilungsleiter, Sicherheits-verantwortliche und IT-Administratoren schwer damit. Denn auch wenn Cloud-Computing unschlagbare betriebswirt-schaftliche Vorteile zu bieten hat, macht es Unternehmen verwundbarer. Dabei gibt es erprobte Lösungen. Aber eines ist freilich klar: Um die Sicherheit der Backup-Daten in der Wolke zu gewährleisten, müssen Un-ternehmen und Cloud-Anbieter gemein-sam ihren Teil dazu beitragen, um Daten vor Hackern und Wirtschaftsspionen zu schützen. Denn in den Backup-Daten lagert normalerweise das gesamte geistige Eigen-

tum eines Unternehmens. »Unternehmens-lenker stellen sich deshalb die berechtigte Frage, wie sie ihr geistiges Eigentum in die-sem Fall überhaupt noch schützen können, vor allem wenn sich dieses Seite an Seite mit den ausgelagerten virtuellen Maschi-nen anderer Firmen befindet, deren Infek-tion womöglich gar auf die eigenen Res-sourcen übergreifen kann«, sagt Udo Schneider, Sicherheitsexperte und Presse-sprecher beim Cloud-Storage-Anbieter Trend Micro (»SafeSync for Business«).

An Schneider werden von Kunden des-halb immer wieder Fragen wie diese ge-stellt: »Was kann gegen neu bekannt gewor-dene Sicherheitslücken getan werden, wenn die eigenen Systeme und Daten bei

Dienstleistern betrieben und gelagert wer-den? Wie verhindern diese, dass Kriminel-le an die Daten herankommen und nicht im schlimmsten Fall gar verschlüsselte Da-

ten auslesen können?« Verstärkt würden Problematiken wie diese noch durch die Gefahr, dass die eigenen Daten eventuell auf Servern außerhalb des deutschen Rechtsraums landen können, für die unter Umständen weitaus lockerere Datenschutz-bestimmungen gelten.

Wichtiger ist: Welche Daten sind geschäftskritisch?Bei all den möglichen Sicherheitsbedenken – Stephane Estevez, Sr. Product Marketing Manager EMEA/APAC beim Storage-Spezi-alisten Quantum, sieht Cloud-Backup trotzdem bereits als »eine lohnenswerte In-vestition« an. Kunden würden sehr oft sehr technische Fragen stellen, dabei gehe es seiner Meinung nach beim Cloud-Backup

Preispläne der für KMUs konzipierten Online-Backup-Services »MozyPro«, in diesem Fall 250 GByte

Gra

fik: M

ozy

Page 10: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

10 Datensicherung

– was auch sehr oft mit Schlagwörtern wie BaaS (Backup-as-a-Service) und DRaaS (Di-saster-Recovery-as-a-Service) vermarktet wird – eher darum, »die größtmögliche Ef-fizienz zu erzielen«, weshalb Daten und Ap-plikationen vorab klassifiziert werden sollten.

Kunden sollten sich nach Ansicht von Es-tevez vielmehr mit solchen Fragen beschäf-tigen: »Welche sind geschäftskritisch? Welche unterliegen strengen Compliance-Vorgaben und dürfen nicht außer Haus ge-langen? Und welche Daten müssen unbe-dingt in DRaaS einbezogen werden?« Danach erst gelte es, sich Gedanken über

das Datenvolumen und die Bandbreite zu machen, die den Flaschenhals beim Cloud-Backup bilden. »Dieser lässt sich«, betont Estevez, »ohnehin durch Deduplizierung ef-fektiv überwinden, indem mehrfach vor-handene redundante Daten beseitigt und das zu übertragende und zu speichernde Datenvolumen deutlich reduziert wird.«

Quantum hält nichts von »One Solution Only«-StrategieVon Cloud-Backup als eine »One Solution Only«-Strategie rät Estevez übrigens ab. Zwar bringe Cloud-Backup erhebliche Vor-teile für die Backup- und DR-Strategie, aber

es sollte immer nur einer von mehreren Pfeilern bei der Datensicherung sein. »Oft basiert das Cloud-Backup auf Replikation und/oder Object-Storage, doch wenn auch nur ein Datensatz bei der Replikation zwi-schen verschiedenen Rechenzentren kor-rupt ist, kommt es zu einer bösen Ketten-reaktion, so dass letzten Endes keine der Kopien nutzbar ist«, erläutert der Quantum-Manager. »Es sollte zunächst immer der komplette Workflow analysiert werden, wo-bei wir unseren Kunden immer zur 3-2-1-Re-gel raten: Minimum drei Kopien auf Mini-mum zwei verschiedenen Datenträgern und ein Backup außer Haus.«

Auch Arne Stieghorst, Technical Consul-ting vom Cloud-Storage-Anbieter Norman Data Defense Systems, hält nichts von al-leine stehenden Cloud-Backup-Ansätzen. Das Rechenzentrum eines Cloud-Storage-Providers sollte stattdessen sowohl als zu-sätzlicher sicherer Off-Site-Speicherort ge-nutzt werden, als auch als Ersatz für ein nicht mehr ausreichendes Backup-System: »KMUs, die in der Regel keinen Zugriff auf eine eigene Rechenzentrums-Infrastruktur haben, profitieren davon durch Cloud-Sto-rage-Dienste mit einer Backup-Anwen-dung, die automatisch die zu sichernden Daten sammelt, komprimiert und ver-schlüsselt und sie täglich auf den Servern des Anbieters speichert.«

Immer noch Scheu vor den Kosten eines neuen Backup-VerfahrensSowohl Norman als auch Trend Micro so-wie andere Cloud-Storage-Provider stellen zwar inzwischen umfassende Maßnahmen zum Schutz der Integrität und Vertraulich-keit der Daten sicher. Aber die aktuelle Skepsis hinsichtlich der Datensicherheit ist jedoch nicht der einzige Vorbehalt gegen-über Cloud-Storage-Angeboten. »Viele KMUs scheuen die Kosten, die die Neuaus-richtung des Backup-Verfahrens mit sich bringt«, meint Stieghorst. »Wenn man ein-mal davon absieht, dass auch die Pflege und die Erweiterung eines Alt-Systems nicht umsonst zu haben sind, sollte man sich klarmachen, dass sich die meisten klei-neren Unternehmen von einem größeren Datenverlust nicht mehr erholen.«

Stieghorst empfiehlt übrigens KMUs, mal genau hinzuschauen, ob überhaupt alle Un-ternehmensdaten in einem Cloud-Backup enthalten sein müssten. Müssen es kom-plette Images sein? Oder reicht auch die Si-cherung der Nutzerdaten aus? »Bei der File-Sicherung wird die Konfiguration der Systeme nicht erfasst, der Rechner muss ge-gebenenfalls neu aufgesetzt werden«, erläu-tert der Norman-Manager. »Allerdings las-sen sich einzelne Dateien oder Elemente erheblich schneller und Ressourcen-scho-nender wiederherstellen als aus Images.«

So funktioniert im Prinzip die Quantum-Cloud-Backup-Lösung »Q-Cloud«

Gra

fik: Q

uant

um

Page 11: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

11 Datensicherung

Reicht File-Sicherung? Gar nicht teuer mit agentenlosen Verfahren!Wenn die File-Sicherung in der Cloud aus-reicht, dann empfiehlt Stieghorst, dass sich KMUs die günstigeren, agentenlosen Ver-fahren ansehen sollten: »Denn die Software wird auf einem einzigen Server installiert, die Sicherung aller weiteren gleichartigen Systeme erfolgt dann remote über Stan-dard-APIs.« Die Anzahl der eingebundenen Systeme und Geräte spiele für die Kosten dann keine Rolle; die Berechnungsgrund-lage sei lediglich der Speicherplatzbedarf.

Online-Backup ist auch für ungeübte Benutzer einfachFür Cloud-Backup spricht nach Meinung des Bremer Managed-Service-Providers Plutex auch die komfortable Bedienung, die besonders die Verantwortlichen von kleineren Unternehmen anspricht. »Einmal eingerichtet ist das Online-Backup auch für ungeübte Benutzer einfach und durch we-nige Klicks zu bedienen. Wenn gewünscht, arbeitet das Backup vollkommen autonom mittels Taskplaner«, heißt es aus Bremen. »Auf Wunsch erhalten Kunden von unserem System nach jeder Sicherung eine Status-Meldung mit allen wichtigen Informationen zu ihren Daten.«

Plutex argumentiert, dass für ihre Online-Backup-Lösung weder eine interne IT-Ab-

teilung noch ein Administrator notwendig sei. Denn mittels sehr einfach zu bedienen-der Software (Backup-Client oder Web-In-terface) würden sich einzelne Daten oder der ganze Computer sichern und wieder-herstellen lassen. Betont wird natürlich auch Verschlüsselung und der Sicher-heitsaspekt, damit Fremde die Backup-Da-ten nicht einsehen können: Es sei alles »Made and hosted in Germany«. An Plutex scheint was dran zu sein: Das Oldenburger ECM-Software-Haus (Enterprise Content Management) Amagno hostet seit kurzem die Daten ihrer ECM-Cloud-Lösung »amagno Network« in Bremen.

Um KMUs das Online-Backup wirklich schmackhaft zu machen, lassen sich ent-sprechende Service-Provider allerhand ein-fallen. So propagiert die EMC-Tochter Mozy das Konzept »Mozy 2xProtect«. Bei diesem Backup-Konzept schickt die dazugehörige Backup-Software die Daten weiterhin auf ein externes Medium – und parallel in die Cloud des Mozy-Rechenzentrums. Bedeu-tet doppelte Sicherheit.

Nach dem Desaster kommt die Restore-KürDoch was ist, wenn im eigenen Rechenzen-trum der schlimmste aller Fälle eintritt,

die Daten weg sind, und alles neu aufge-spielt werden muss? Ist Cloud-Backup da-für schon gerüstet? Denn jetzt geht es schließlich darum, extrem viele Daten extrem schnell ins Rechenzentrum zurückzuspielen.

Um es ganz vereinfacht zu sagen: Nein, hier ist selbst eine Bündelung von schnel-len Datenleitungen überfordert. Cloud-Backup-Anwender sollten sich also darauf einstellen, ihre Backup-Daten in irgendei-ner Form auf einem klassischen, elektroni-schen Speichermedium angeliefert zu be-kommen. Die Bandbreite reicht hier von der USB-Festplatte über Tape-Cartridges bis zu mobilen Festplatten-Arrays. »Der DHL-Pa-ketversand ist manchmal schneller als je-der VPN-Zugang«, süffisiert Quantum-Ma-nager Estevez.

Auch Mozy ist sich darüber bewusst, dass der Versand extrem großer Datensätze – also beim ersten Sichern der Daten in die Cloud, und beim möglichen Rücksichern ins RZ des Anwenders – bandbreitenbedingt ein ext-rem zeitaufwändiges Unterfangen ist. Dafür wird gleich ein »Data Shuttle«-Service mit ei-nem speziellen Data-Shutte-Gerät offeriert. Preise beginnen bei 199 Euro (für 1,8 TByte) bis 449 Euro (für 7,2 TByte). Verfügbar ist dies für die Unternehmenskunden konzipierten Online-Backup-Services »MozyPro« und »MozyEnterprise«. K

Cloud-Backup einrichten mit der Lösung »Norman SecureBackup«

Bild

: Nor

man

Page 12: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Storage Competence Partner ist eine Kooperation des VAD TIM AG mit führenden Herstellern und Systemhäusern in Deutschland. Storage Competence Partner stehen für:

❙ herstellerübergreifende Lösungskompetenz

❙ hochqualifizierten Support und Professional Service

❙ methodische, technologische und kaufmännische Beratungskompetenz für Storage und DataCenter Lösungen

Kontaktieren Sie uns: 0611 2709-222 oder [email protected]

C o n d o r C o m p u t e r

73479 [email protected]

74172 [email protected]

82178 [email protected]

70563 [email protected]

90449 Nü[email protected]

70499 [email protected]

55543 Bad [email protected]

59469 Ense [email protected]

63303 [email protected]

45131 [email protected]

51063 Kö[email protected]

54343 Fö[email protected]

04109 [email protected]

01277 [email protected]

65520 Bad [email protected]

TIM AG Schoßbergstraße 2165201 Wiesbaden www.tim.de www.storagecompetencepartner.de

57072 [email protected]

72186 [email protected]

64625 [email protected]

94315 [email protected]

Page 13: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

13 Datensicherung

Cloud-Backup – immer nur einer von mehreren Pfeilern bei der Datensicherung

Cloud-Backup bringt bereits VorteileIst Cloud-Backup bereits eine lohnenswerte Investition? Stephane Estevez, Sr. Product Marketing Manager EMEA/APAC bei Quantum, erklärt im Interview, warum sich Cloud-Backup als ein Pfeiler bei der Datensicherung auszahlt, Deduplizierung Kosten spart und welche Vorkehrungen bei einem Katastrophenfall getroffen werden müssen.

Welche Vorbereitungen müssen getrof-fen werden, um von BaaS/DRaaS profi-tieren zu können?

Estevez: Um die größtmögliche Effizienz zu erzielen, sollten vorab Daten und Appli-kationen klassifiziert werden: Welche sind geschäftskritisch? Welche unterliegen strengen Compliance-Vorgaben und dür-fen nicht außer Haus gelangen? Und wel-che Daten müssen unbedingt in DRaaS ein-bezogen werden? Danach gilt es, sich Gedanken über das Datenvolumen und die Bandbreite zu machen, die den Flaschen-hals beim Cloud-Backup bilden. Dieser lässt sich durch Deduplizierung effektiv überwinden, indem mehrfach vorhandene redundante Daten beseitigt und das zu übertragende und zu speichernde Daten-volumen deutlich reduziert wird.

Ist der Restore nicht üblicherweise der Flaschenhals?

Estevez: In Punkto Restore ist ein Plan B durchaus ratsam: Kann der Cloud-Provider das Recovery auf Disk oder anderen Spei-chermedien frei Haus versenden? Denn manchmal ist der DHL-Paketversand schneller als jeder VPN-Zugang!

Wie ist die übliche Kostenstruktur bei BaaS/DRaaS?

Estevez: Das Kostenmodell funktioniert nach GByte/Monat mit einer vertraglich ge-regelten Laufzeit und ist entsprechend ka-pazitätsabhängig. Allerdings gelten nicht automatisch dieselben Preise für physische und virtuelle Server. Verschlüsselung ist ebenfalls nicht immer inbegriffen, sondern bildet oft nur ein optionales Feature.

Wo können versteckte Kosten lauern?Estevez: Versteckte Kosten können beim

Restore lauern, etwa wenn zusätzliche Ser-ver eingesetzt werden müssen, oder der Kunde für den Restore-Traffic zahlen soll. Zudem sollte man auf das Backup-Format achten: ob nativ oder proprietär. Denn die Wiederherstellung von nicht-nativen For-maten kann ebenfalls anders abgerechnet werden. Und dann wäre da noch die Frage, ob BaaS/DRaaS mit meiner existierenden Backup-Software kompatibel ist, oder ob man mehr CPUs oder Bandbreite benötigt.

Ist eine Cloud-only-Strategie beim The-ma Backup ratsam und umsetzbar?

Estevez: Das Cloud-Backup bringt zwar erhebliche Vorteile für die Backup- und DR-Strategie, aber es sollte immer nur einer

von mehreren Pfeilern bei der Datensiche-rung sein. Eine »One Solution Only«-Strate-gie ist niemals ratsam. Oft basiert das Cloud-Backup auf Replikation und/oder Object-Storage, doch wenn auch nur ein Datensatz bei der Replikation zwischen ver-schiedenen Rechenzentren korrupt ist, kommt es zu einer bösen Kettenreaktion, so dass letzten Endes keine der Kopien nutzbar ist. Es sollte zunächst immer der komplette Workflow analysiert werden, wo-bei wir unseren Kunden immer zur 3-2-1-Re-gel raten: Minimum drei Kopien auf Mini-mum zwei verschiedenen Datenträgern und ein Backup außer Haus. K

Stephane Estevez, Sr. Product Marketing Manager EMEA/APAC, Quantum

Ein ausführlicheres Interview mit Stephane Estevez finden Sie auf speicherguide.de » .

Foto

: Qua

ntum

Page 14: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

14 Cloud

Wandel im Rechenzentrum

IT-Transformation benötigt die dritte PlattformHerkömmliche IT stößt bei den Anforderungen der neuen digitalen Welten – Big Data Analytics, BYOD, Cloud – an ihre Grenzen. Gefragt ist, was flexibel, funktionell, schnell, skalierbar und verwaltbar ist. Dies bedarf einer grundlegenden Transformation des RZ und eine neue Basis, mit der sich die Herausforderungen meistern lassen.

Ulrike Rieß

Die große Zeit der Hardware scheint vorbei. Kein endloses »Pizzaboxen« hinzufügen, keine umständlichen Konfigurationen, um Interoperabilität zu gewährleisten und kei-ne Ausfallsituationen aufgrund von Syste-merweiterungen oder ähnliches. So wünscht es sich derzeit der IT-Manager, denn Cloud Computing, Big Data, Bring Your Own Device (BYOD) und die Verbrei-tung sozialer Netzwerke sowie mobiler Ge-räte haben seine technologische Welt in den vergangenen Jahren maßgeblich ver-ändert. Applikationen, Workloads und Pro-

zesse stehen nun im Vordergrund und nicht einfach die Frage der Kapazität, des Netz-werkanschlusses oder der Leistung.

»Die Cloud hat sich in Unternehmen stark etabliert, Big Data gewinnt immer mehr an Bedeutung«, erklärt Daniel Pelke, CTO bei EMC Deutschland. »Parallel dazu ist auf-grund des enormen Zuwachses von Smart-phones, Tablets, Notebooks und Hybrid-Ta-blets der Alltag viel mobiler geworden; auch gibt es bereits seit einiger Zeit starke Impul-se zur Etablierung mobiler Endgeräte im ge-schäftlichen Umfeld. Diese Entwicklungen haben zu einem verstärkten Daten- und Nutzeraufkommen geführt und die IT der-

art beeinflusst, dass wir heute von einer neuen, »dritten Plattform« sprechen. Diese unterzieht auch die IT-Organisationen ei-nem grundlegenden Wandel. Denn her-kömmliche IT-Infrastrukturen können die Herausforderungen in puncto Leistungsfä-higkeit und Skalierbarkeit kaum noch be-wältigen.«

Von der ersten zur dritten PlattformDie »erste Plattform« sieht das Unterneh-men geprägt durch Mainframes, Terminals sowie einer geringen Anzahl an Lösungen und Nutzern; quasi die Anfänge der Unter-nehmens-IT. Als »zweite Plattform« ist die Ära ab Mitte der 1980er anzusehen, in der der Personal Computer eingeführt wurde und sich die Server-Umgebungen sowie LAN/Internet rasant verbreiteten. Die altbe-währten Technologien und Konzepte reichen nun aber nicht mehr aus, um den neuen, datenhungrigen und applikations-getriebenen IT-Infrastrukturen gerecht zu werden. Hier soll die »dritte Plattform« Ab-hilfe schaffen.

Diese soll Mobile, Social, Cloud und Big Data vereinen und die Veränderungsge-schwindigkeit in vielen Branchen durch ver-mehrte Startup-Intensität und neue Tech-nologien weiter drastisch steigern. Zudem

Daniel PelkeCTO, EMC Deutschland.

Foto

: EM

C

Page 15: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

15 Cloud

verschärft sich die Wettbewerbssituation in vielen Industriezweigen durch neue, IT-ba-sierte Geschäftsmodelle und -prozesse, so-ziale Medien beschleunigen die Kommuni-kation der Kunden und Interessenten untereinander. Unternehmen sind somit unmittelbar angreifbar und müssen ent-sprechend schnell handeln, um weiter er-folgreich zu sein. Die notwendige schnelle Reaktion setzt eine intelligente Nutzung der

verfügbaren, unterschiedlichsten Daten-quellen und eine hohe Agilität und Flexibi-lität der eigenen IT-Systeme voraus.

»Etablierte Unternehmen werden sich nicht mehr allein durch ihre Größe und Er-fahrung behaupten können, sondern müs-sen mit der Geschwindigkeit der neuen Mit-spieler mithalten«, erklärt Sabine Bendiek, Geschäftsführerin EMC Deutschland. »Die strategische Ausrichtung der Unternehmen

sollte daher nicht allein darauf abzielen, auf Produktneuerungen der Konkurrenz zu re-agieren. Vielmehr geht es darum, die dritte Plattform wahrzunehmen und pro-aktiv neue, innovative Instrumente und Produk-te zu entwickeln, um der Konkurrenz immer einen Schritt voraus zu sein. Eines der Hauptanliegen von EMC besteht darin, Un-ternehmen dabei zu unterstützen, die ver-änderten Anforderungen an ihre IT-Organi-sation und -Landschaft zu adressieren und ihnen den Übergang zur dritten Computing-Plattform zu ermöglichen.«.

Die dritte Plattform verspricht zahlreiche neue Geschäftschancen, doch viele Unter-nehmen nutzen weiterhin eine vorhande-ne IT-Infrastruktur, die ursprünglich auf Umgebungen der zweiten Plattform bei-spielsweise für Client-Server ausgelegt wur-de und den gewandelten Kontext nicht mehr ausreichend reflektiert.

Der Bostoner IT-Riese bietet seinen Kun-den als Pfad zur dritten Plattform die »EMC SRM Suite« (Storage Ressource Manage-ment) und die SDS-Plattform »ViPR« (Soft-ware-defined Storage) an. Diese sollen Un-ternehmen nicht nur die erforderlichen Tools zur technischen und wirtschaftlichen Optimierung ihrer Umgebung der zweiten Plattform an die Hand geben, sondern ih-nen auch den Weg zur nächsten Plattform ebnen.

Flexible Infrastruktur kann Wettbewerbsvorteile bringenUnternehmen verfügen heutzutage über sehr umfassende Datenbestände, deren richtige Auswertung neue betriebswirt-schaftliche Chancen eröffnen könnte. Da ist es gerade in Zeiten des starken Wettbe-

Sabine Bendiek Geschäftsführerin, EMC Deutschland

Foto

: EM

C

Gra

fik: E

MC

Page 16: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

16 Cloud

werbs entscheidend, die vorhandenen In-formationen für neue Erkenntnisse zu nut-zen, die beispielsweise Aufschluss über künftige Trends, erfolgreiche Produkte, Wettbewerber und Ähnliches geben und damit zentrale Geschäftsentscheidungen unterstützen.

Um das Business-Potenzial aus den stei-genden Workloads und Datenmengen wirk-lich zu erschließen, muss die Komplexität von IT-Infrastrukturen deutlich entzerrt wer-den. Der Schlüssel hierfür ist das Software-definierte Rechenzentrum (SDDC), dessen Komponenten – vom Server über das Netz-werk bis hin zum Speichersystem – vollstän-dig virtualisiert sind und mittels Software automatisiert gesteuert werden. Damit lässt sich eine effizientere Infrastruktur auf-bauen, die unabhängig von der Hardware flexibel und bedarfsgerecht agieren kann.

Ein wesentliches Element für den Aufbau eines solchen modernen, leistungsfähige-ren Rechenzentrums ist der Software-defi-nierte Speicher (SDS). Dieser ermöglicht es verantwortlichen IT-Managern, benötigte Speicherressourcen zu definieren, zur Ver-fügung zu stellen und in eine bestehende Architektur zu integrieren, ohne dafür ein dediziertes Speichersystem beschaffen zu müssen. Die Software hilft unter anderem, festzulegen, wie der Speicher eingesetzt werden soll, ob nun beispielsweise lokal oder doch als gemeinsam genutzter Ar-beitsspeicher. Die Bereitstellung erfolgt da-bei vollautomatisiert.

Unaufhaltsamer Trend in Richtung neuer RechenzentrenDie Herausforderungen der neuen Arbeits- und Datenwelten machen den Trend hinzu Rechenzentren der neuen Generation un-umgänglich. Unternehmen, die diese Tat-sache ignorieren, vergeben nicht nur eine technische Chance auf Transformation, sondern auch eine geschäftliche Neuaus-richtung, mit der neue Märkte und neues Business-Potenzial erschlossen und erfolg-reich genutzt werden kann. Software-defi-nierte Umgebungen, hybride Cloud-Archi-tekturen und Flash-optimierte Speicher sind dabei nur einige Elemente, die der Transformation mittels dritter Plattform auf den Weg helfen. K

Der Webauftritt von EMC ist ganz auf die Cloud ausgerichtet.(www.germany.emc.com/cloud)

Mit Best-of-Breed-Komponenten von EMC und Vmware realisiert das Lotus F1 Team

ein »As-a-Service«-Bereitstellungsmodell als Grundlage für eine Hybrid-Cloud.

Foto

: EM

C

Page 17: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

17 Advertorial

Leistungsstarker und hochverfügbarer Shared Storage

Mittelstand im Vorteil mit virtuellen SANsVirtuelle SANs bieten eine kosteneffiziente Möglichkeit, Speicheranforderungen in virtualisierten Server-Umgebungen abzubilden, ohne Investition in kostspielige SAN-Hardware und -Infrastruktur zu tätigen. Dabei erstellt eine Virtual-SAN-Software aus HDDs, SSDs und Flash-Speichern einen leistungsstarken, hochverfügbaren Shared Storage für virtuelle Maschinen.

Robert Thurnhofer, Datacore Software

Im Storage-Markt sind derzeit zwei Entwick-lungen zu erkennen, die für kleine und gro-ße mittelständische Unternehmen interes-

sante Möglichkeiten für den Einstieg in das Storage-Networking bieten. Software-defi-ned Storage (SDS), inzwischen übrigens auch von etablierten Hardware-Herstellern vorangetrieben, beschreibt generell den Trend, statt kostspieliger, proprietärer Hardware Standardkomponenten einzu-setzen, die über eine übergeordnete intel-ligente Software-Schicht kompatibel und leistungsfähig gemacht werden. Der zwei-te Trend besteht darin, System-Perfor-mance durch den zusätzlichen Einsatz von Flash- und SSD-Ressourcen zu erzielen.

Beide Entwicklungen zusammen machen ein virtuelles SAN zu einer attraktiven Alter-native für mittelständische IT-Budgets, die bei richtiger Technologiewahl folgendes leisten kann:

� Shared Storage für VMware- und »Hyper-V«-Umgebungen,

� Leistungssteigerung geschäftskritischer Anwendungen,

� Ausfallsicherheit für Applikations-Clus-ter ohne externes SAN,

� höhere Dichte virtueller Desktops pro Server,

� reduzierte Kosten und Komplexität ge-genüber dezentralem Speicher.

Virtual SAN als mittelständischer SDS-EinstiegDementsprechend hat etwa DataCore Software die zehnte Version seiner kürzlich vorgestellten SDS-Plattform »SANsympho-ny-V« entscheidend um eine virtuelle SAN-Funktionalität erweitert: Neben der Virtua-

lisierung physikalischer SAN-Ressourcen, werden nun auch Ressourcen aus den Anwendungsservern in den zentralen Spei-cher-Pool integriert und mit Enterprise Storage-Service optimiert. Umgekehrt funk-tioniert dieses Virtual SAN ebenso allein ste-hend ohne SAN-Infrastruktur, wobei dieses bei Bedarf jederzeit nachträglich erweitert werden kann.

Mit diesem Alleinstellungsmerkmal erzie-len zukunftsgerichtete und dynamische IT-Entscheider für ihr Unternehmen einen op-timalen Investitionsschutz: Unmittelbar wird die Anforderung nach performantem Shared Storage im virtualisierten Umfeld kosteneffizient erfüllt, zeitgleich erfolgt der Einstieg in eine stufenlos skalierbare Soft-ware-defined Storage-Architektur.

Einsatzgebiete des virtuellen SpeichernetzwerksNicht nur als Teil einer unternehmenswei-ten SDS-Architektur unterscheidet sich das Datacore Virtual SAN von anderen Lösungs-ansätzen vieler Wettbewerber, da es auch

Plattformübergreifende Speicherdienste erleichtern das Storage-Management.

Gra

fik: D

atac

ore

Page 18: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

18 Advertorial

als reines virtuelles SAN nicht ausschließ-lich für kleine Unternehmen oder Abteilun-gen konzipiert ist. Ideale Anwendungsbe-reiche für virtuelle SANs von Datacore sind:

� Latenzempfindliche Anwendungen: Antwortzeiten und Datendurchsatz wer-den durch die Nutzung von Flash-Spei-cher sowie durch Caching im DRAM-Ar-beitsspeicher eines oder mehrerer Server beschleunigt.

� Ausfallsicherheit an »Unternehmens-rändern«: Kleinere Server-Verbände an Remote-Standorten, in Zweigstellen und kleinen Rechnerräumen können interne Speicherkapazitäten der Server als ge-meinsame, hochverfügbare Ressource nutzen.

� Bereitstellung von Virtual Desktop In-frastrukturen (VDI): Ohne die Komple-xität und Ausgaben eines aufwendigen externen SANs in Kauf nehmen zu müs-sen, können mittelständische Unterneh-men virtuelle Desktops über zahlreiche Server skalieren.

Nicht nur im Betrieb mit einer VDI ist Per-formance – gemessen in IOPS (Input/Out-put Operations Per Second) – und damit der intelligente Einsatz von Flash ein wich-tiges Auswahlkriterium für eine Virtual-SAN-Software. Das Datacore Virtual SAN skaliert bis zu 50 Millionen IOPS, unterstützt bis zu 32 PByte Kapazität und integriert plattform-

übergreifend Server-Hypervisoren wie Hy-per-V oder Vmware »vSphere«. Im Vergleich dazu wird für letzteres laut Hersteller ein Hypervisor-spezifisches virtuelles SAN mit zwei Millionen IOPS angeboten.

Aufbau eines virtuellen SANBeim Design eines virtuellen SANs ist zu be-achten, auf welcher Instanzebene die Vir-tualisierung der Speicher-Ressourcen und die Speicherfunktionalität erfolgen. Ist die Speicherfunktionalität Bestandteil des Hy-pervisors, ergeben sich Nachteile bei der Kompatibilität und Portabilität. Diese Be-schränkungen umgeht Datacore, indem es einfach auf Industriestandards aufsetzt. Ein virtuelles SAN von Datacore besteht aus mindestens zwei physikalischen x86-64-Servern mit lokalem Speicher und ge-hosteten Anwendungen, wobei sich grund-sätzlich drei Installationsmöglichkeiten je nach Einsatzgebiet anbieten:

� physikalischer Windows Server ohne Hypervisor,

� Windows Server mit Hyper-V, � virtuelle Maschine unter Vmware »ESXi«

und anderen Hypervisoren.Bis zu 32 Server lassen sich innerhalb einer zentral verwalteten Gruppe konfigurieren. Jeder Server, der Teil des virtuellen SANs ist, führt eine Instanz von Sansymphony-V aus. Diese physikalischen Server bzw. Kno-

ten im virtuellen SAN tragen Speicher zum gemeinsamen Pool der Gruppe bei, in die jede Kombination aus Flash-Spei-cher, SSD und Plattenspeicher integriert werden.

Diese Ressourcen organisieren sich übli-cherweise in mehreren Datenträger-Pools. Hieraus wird bestimmt, wie jeder Ressour-cen-Pool, etwa für Test- oder Produktions-zwecke, zu verwenden ist.

Hochverfügbarkeit und Highend-FunktionenDa das virtuelle SAN von Datacore auf der in zehnter Generation vorliegenden SAN-Virtualisierung basiert, bietet es trotz die-ser vergleichsweise einfachen Topologie umfangreiche Enterprise-Speicherfunktio-nen. Dabei ist es von besonderem Vorteil, dass der Nutzer weder an Hersteller noch Modell gebunden ist, wodurch eine Integ-

ration in bestehende und eine Erweiterung um neue Ressourcen entscheidend be-günstigt wird.

Sansymphony-V bietet auch dann konti-nuierlichen Zugriff auf die gemeinsamen Speicher-Pools, wenn ein Knoten im virtu-ellen SAN ausfällt. Kritische Daten werden zwischen Knotenpaaren im virtuellen SAN synchron gespiegelt, um hohe Verfügbar-keit zu erreichen. RAID-Schutz innerhalb je-des Knotens bietet zusätzlichen Schutz vor Fehlern auf Komponentenebene.

Skaliert wird diese Ausfallsicherheit nach dem Prinzip »N+1«. Dies ist beachtenswert, da andere Lösungen zwingend einen drit-ten Knoten voraussetzen, um Hochverfüg-barkeit sicherzustellen. Die maximal 32 Da-tacore-Knoten arbeiten dagegen mit Lastverteilung wie ein echtes Speichernetz-werk »metro-wide«. Darüber hinaus kön-nen auch komplette Pools, etwa von Au-

Datacores Virtual SAN skaliert bis zu 50 Millionen IOPS und unterstützt eine Speicherkapazität von bis zu 32 PByte.

Gra

fik: D

atac

ore

Page 19: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

19 Advertorial

ßenstellen oder Abteilungen, synchron gespiegelt oder über große Entfernungen asynchron repliziert werden.

Zu weiteren Hauptfunktionen für die Ver-waltung von Kapazität, Performance und Sicherheit im virtuellen SAN gehören Auto-Tiering (Speicherklassen), Continuous Data Protection (CDP), High-Speed Caching, Mi-grationsunterstützung, Snapshots, Thin Provisioning sowie Analyse und Berichter-stattung. Gerade für die IT-Abteilungen und -Beauftragte in mittelständischen Unter-nehmen ist dabei von Vorteil, dass sämtli-che Ressourcen und Funktionen über nur eine übersichtliche, in der Handhabung an Windows angepasste und mit Automati-onsroutinen ausgestattete Verwaltungs-oberfläche gesteuert werden können.

Top-Speed durch SSD und DRAM-CachingEine besondere Rolle spielt das Auto-Tie-ring für die Nutzung der hochperforman-ten, aber im Vergleich zur Festplatte auch kostspieligeren Flash-Speicher und SSDs. Die Mitglieder eines Datenträger-Pools kön-nen sich hinsichtlich ihrer Leistungscharak-teristiken unterscheiden, weswegen von Sansymphony-V dynamisch die am besten geeignete Ressource angesteuert wird. So wird sichergestellt, dass Daten, auf die häu-figer zugegriffen wird, sich auf schnelleren Datenträgern wie SSDs innerhalb des Pools befinden, während Daten, auf die seltener zugegriffen wird, auf langsameren Daten-trägern lagern. Dies führt zu einer Perfor-mance-Beschleunigung im Gesamtsystem

und gleichzeitig zum effizienten Einsatz teu-rer Ressourcen, von denen dann auch we-niger eingesetzt werden müssen.

Jeder Host im virtuellen SAN steuert ne-ben den Speicher-Ressourcen auch einen Teil seines RAM als Cache bei. Generell wer-den mindestens vier GByte bzw. zehn Pro-zent des insgesamt verfügbaren RAMs des Hosts empfohlen. Der schnelle Cache dient als Puffer zum Performance-Abgleich bei Schreibzugriffen und als großer Cache für Lesezugriffe. So lässt sich eine Steigerung der nativen Leistung von Plattenspeichern um mindestens das Drei- bis Fünffache er-zielen. Diese Verwendung von DRAM als Lese-/Schreib-Cache bei der Datacore-Lö-sung bedeutet einen erheblichen Leis-tungsvorteil gegenüber virtuellen SANs, von denen als Lese-Cache nur langsamerer Flash-Speicher verwendet wird. Daher ist der Einsatz von Flash-basierten Speicher-systemen mit Sansymphony-V nicht zwin-gend nötig, um einen hohen Datendurch-satz zu erzielen. Zudem kommt es auf den SSD-Medien zu weniger Schreib- und Lese-zyklen, was somit deren Haltbarkeit erhöht.

Skalierbarkeit und FlexibilitätEin virtuelles SAN kann vielfach die richti-ge, weil kosteneffizienteste Antwort auf heutige Anforderungen in einer virtuellen Infrastruktur sein. Angesichts der besonde-

ren Geschäftsdynamik, Internationalisie-rung und Zentralisierung im Mittelstand müssen hier IT-Entscheider Investitionen vor allem auf die Zukunft richten. So sind neben dem Preis-/Leistungsverhältnis wei-tere Kriterien in Betracht zu ziehen:

� (künftige) Integration in SANs, � Physikalische Anforderung (2 oder mehr

Hosts), � N+1-Skalierbarkeit, � effektiver Ressourcen-Einsatz, Flash/SSD

optional, � intelligentes Performance-Management

mit Caching, � metro-weites Konzept für Auto-Tiering

und Hochverfügbarkeit, � Unterstützung lokaler/integrierter und

externer Speicher-Ressourcen, � Hypervisor-übergreifende Portabilität, � unternehmensweite und Hardware-

unabhängige Storage-Services. K

Datacore Software GmbHBahnhofstraße 18, D-85774 UnterföhringTel. +49 (0)89 - 46 13 57 00Fax +49 (0)89 - 461 35 70 90E-Mail: [email protected]

Weitere Informationen

Kritische Daten werden auch zwischen Knotenpaaren im virtuellen SAN synchron gespiegelt, um hohe Verfügbarkeit zu erreichen.

Gra

fik: D

atac

ore

Page 20: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

20 Storage-Management

Software-definierte Lösungen hoch im Kurs

Software transformiert das RechenzentrumSoftware-definierte Lösungen sollen einen Umbruch im Rechenzentrum bringen. Derzeit definiert jeder Hersteller noch seinen eigenen Standard an Software-defined, allerdings propagieren alle Anbieter die gleichen Vorteile: größere Flexibilität, mehr Freiheit bei der Hardware-Wahl und mehr Funktionen für die Verwaltung. Der Anwender muss aber auch offen für neue Prozesse und Strukturen sein.

Ulrike Rieß

Rechnervirtualisierung allein definiert noch keine »Software Defined«-Umgebung. Aller-dings wird in diesen Bereichen deutlich, was das Ziel zukünftiger IT-Architekturen ist, nämlich die Einsatzfähigkeit aller denk-baren Anwendungen unabhängig von phy-sikalischen Gegebenheiten in allen Berei-chen des Rechenzentrums und weit darüber hinaus. Vom Weg dorthin haben allerdings alle Beteiligten in diesem Bereich eine ei-gene Auffassung.

Umdenken und neue Prozesse sind gefragt»Software Defined« ist grundsätzlich nichts anderes als die Verbreitung der Virtualisie-rungsidee über Rechner und Speichersys-teme hinaus. Alle bislang physikalischen Dienste, also beispielsweise Sicherheitssys-teme oder Netzwerk, sollen in möglichst plattformunabhängige Software umgewan-delt werden. Dies wird auf längere Sicht die Infrastruktur, also Rechner-, Netzwerk- und Speichertechnik, zu Startplattformen für »Software Defined«-Dienste machen, wo-mit der operative Betrieb vollständig vom Betrieb der Systeme abgekoppelt wäre. Die-se Entwicklung wird den Gedanken der Fachabteilung, die Bildung von Dienstgrup-pen wie Backup, Netzwerk oder Speicher-

Gra

fik: E

MC

Page 21: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

21 Storage-Management

betrieb im Rechenzentrum obsolet machen und für völlig neue, an den geschäftlichen Prozessen orientierte, Arbeitsweisen sor-gen. Darüber hinaus ermöglicht erst diese Trennung die vollständige Automatisierung aller Systeme.

Durch die Unabhängigkeit der Anwen-dungen von der zugrundeliegenden Hard-ware, können neue Anwendungen, neue Prozesse oder ganze Prozeßketten wesent-lich schneller und effizienter eingeführt werden. Diese Einführung lässt sich sogar soweit automatisieren, dass Selbstbedie-nungsportale die Installation und spätere Nutzung von Diensten bereitstellen. Dies erhöht nicht nur die Agilität einer Organisa-tion, sondern fördert auch die Zufrieden-heit der Nutzer durch Beteiligung am Erstel-lungsprozess. Das gesamte Unternehmen kann schneller auf interne oder noch wich-

tiger auf Marktanforderungen reagieren und hat damit ganz neue Möglichkeiten der Kunden- und Umsatzakquise. Neben die-sen neuen Quellen bietet Software-definiert auch wesentlich bessere Übersichten über die Nutzung und die Effizienz der Systeme. Die Kosten werden transparent, die zukünf-tigen Bedarfe wesentlich besser planbar.

Vorteile flächendeckend im Rechenzentrum ausrollenDurch Software-definierte Infrastrukturen können die von virtuellen Serverumgebun-gen oder Speichervirtualisierung her be-kannten Effekte auf das gesamte Rechen-zentrum ausgedehnt werden. Selbst der Beschaffung neuer Hardware, die sich auch in Zukunft niemand wird ersparen können, wird der Schrecken durch wesentlich preis-wertere Systeme genommen. Und ein Ven-

dor-Login, also die Beschränkung auf nur einen Hersteller, wird dadurch ebenso ver-mieden, wodurch sich bessere Preise von den Anbietern aushandeln lassen.

Alle bisher in Anwendungssilos verkap-selten Kombinationen aus Rechner, Spei-cher, Netzwerk und anderen Komponenten werden durch ein SDDC aufgebrochen und in Pools für eben diese Infrastrukturdiens-te überführt. Kein Rechner, kein Array und kein Router ist mehr nur für eine Anwen-dung zuständig, sondern alle Ressourcen innerhalb der Hardware können jeglichem Prozess zur Verfügung gestellt werden, wenn ein solcher mehr Leistung oder zu-sätzliche Funktionalitäten benötigt. Damit können nun alle Komponenten, nicht nur Rechner und Speicher, wesentlich effizien-ter und damit kostensparender eingesetzt werden.

Keine Angst vor MigrationenMigrationen wird durch Software-definier-te Lösungen weitestgehend der Schrecken genommen. Da in einer solchen Umgebung alle Dienste auf jeglicher Hardware laufen, hin- und hergeschoben, gestartet und ge-stoppt werden können, stellt der Anwender einfach bei Bedarf neue oder zusätzliche Hardware auf und verteilt die Anwendun-gen auf diese zusätzlichen Systeme. Ab-schaltungen wegen Systemumzügen gehö-

ren damit in die graue Vorzeit. Durch den Wegfall dieser Herausforderungen, lässt sich die zum Betrieb benötigte Mitarbeiter-zahl drastisch reduzieren. Das noch verblie-bene Personal sollte dadurch Zeit und Muße für die wesentlichen Aufgaben der Datenverarbeitung erhalten, nämlich den Entwurf und die Einführung gewinnbrin-gender neuer Anwendungen.

Gute Idee, aber noch ein langer WegLeider ist reines Software-definiertes RZ wie bisher beschrieben noch eine Utopie. Aller-dings beschäftigen sich alle großen Anbie-ter mit einem deutlichen Teil ihrer Entwick-lungsmannschaften mit Volldampf mit der Implementierung der ersten Komponen-ten. Und rennen damit bei den Anwendern prinzipiell offene Türen ein. Zwei Drittel bis vier Fünftel aller Open-Systems-Rechner in den IT-Abteilungen sind zwischenzeitlich virtualisiert, bei Speichersystemen im Enterprise-Bereich annähernd 100 Prozent. Nun gilt es, das bewährte Prinzip auf alle anderen Infrastrukturteile des Rechenzen-trums anzuwenden. Zumindest sollte sich jeder mit der Anschaffung neuer Systeme befaßte Verantwortliche bei jeder Kompo-nente fragen, ob diese denn in Zukunft in ein Software-definiertes Konzept passen könnte. K

speicherguide.de sprach mit Stefan von Dreusche, Sales Manager EMEA bei DataCore Software über den Hinter-grund von Software-defined Storage und welche Vorteile sich für IT-Abteilungen dadurch ergeben. Sehen Sie mehr im Video-Interview.

Software-defined Storage: »Trend ja, aber nichts Neues«

Page 22: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

TIM AG | Schoßbergstraße 21 | 65201 Wiesbaden | Tel. 0611 2709-0 | [email protected] | www.tim.de

Effizient | Innovativ | Performant

IT-STORAGE LÖSUNGEN

IHRE PARTNER FÜR :

STORAGE VIRTUALISIERUNGAGILE DATA INFRASTRUCTUREDATACENTER-LÖSUNGEN

Aktuelle E-Series und Flash Promotions finden Sie auf:

www.tim.de

Page 23: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

23 SSD & Flash

Der noch junge All-Flash-Markt konsolidiert sich bereits

All-Flash-Systeme im ÜberblickObwohl All-Flash-Arrays noch relativ neu auf dem Markt sind, gab es bei den Anbietern bereits Konsolidierungen. Nicht nur Startups, sondern auch etablierte Hersteller offerieren Flash-Systeme. Die Vorteile von höherer Performance, geringeren Latenzen und einem zusätzlichen Storage-Tier können in allen Umgebungen erzielt werden.

Ulrike Rieß

Komplexe Datenbanken, anspruchsvolle Anwendungen, soziale Netzwerke und vie-les mehr verlangen den Speicherumgebun-gen heute mehr Leistung ab als je zuvor. Festplatten-Arrays gelangen hier schnell an ihre Grenzen. Damit dieser Flaschenhals für I/O-starke Umgebungen nun bedient wer-den kann, kommen Solid-State-Drives (SSD) zum Einsatz. Diese wurden zunächst als PCIe-Steckkarten oder im Mix mit Fest-platten verbaut. Seit geraumer Zeit aber ha-ben einige Startups den Trend des All-Flash-Arrays gesetzt, auf den nun auch traditionelle Hersteller setzen. Dabei sind die Systeme ausschließlich mit SSDs be-stückt. Diese sollen dann hohe Perfor-mance und geringe Latenzen gewährleis-ten. Mit den neuesten Generationen an

SSDs kommen nun auch Kapazitäten in die-se Modelle, die den herkömmlichen Spei-chergeräten echte Konkurrenz machen, auch wenn sie preislich noch durchaus mehr kosten.

SSD ist nicht gleich SSDEin Solid-State-Drive, auch Flash-Speicher, ist ein so genannter nichtflüchtiger Spei-cher, der auf Halbleitertechnologie basiert. Er verfügt nicht über bewegliche Kompo-nenten und bietet höhere Robustheit, schnellere Reaktionszeiten, niedrigen Stromverbrauch sowie kaum Geräuschent-wicklung. Zunächst kamen diese Speicher nur in Consumer-Produkten wie Kameras, Handys oder Laptops zum Einsatz. Mit zu-nehmender Weiterentwicklung und dem Eliminieren der größten Nachteile – gerin-gere Kapazitäten, höherer Preis und gerin-

gere Lebensdauer – gelangen diese Medi-en nun fast flächendeckend in professionelle Rechenzentren. Dadurch erhielt die Spei-cherwelt ein weiteres Storage-Tier, das die Verteilung der Daten noch einmal effizien-ter macht. So genannte »heiße« Daten lan-

den zunächst auf der SSD; Daten, auf die wenig zugegriffen wird, kommen auf die HDD. Zunächst kamen die Flash-Speicher als Komponenten ins RZ. PCIe-Steckkarten als Accelerator oder optimierter Cache so-wie Systeme mit einer Mischung aus SSDs und Festplatten sind hier schnell die Norm geworden. Junge Unternehmen wie Fusi-on-IO oder Violin Memory gingen hier ei-nen Schritt weiter und führten Speichersys-teme ein, die nur mit SSDs bestückt sind. Diese Systeme verfügen über einen Cont-roller, der auf SSDs abgestimmt bzw. dafür entwickelt wurde. Das soll die Systeme zu-verlässiger, leistungsstärker und effizient nutzbar machen. Mittlerweile gibt es eini-ge dieser Startups, die sich auf All-Flash- Arrays spezialisiert haben, aber auch eini-

Foto: IBM

Früher nur im Consumer-Segment zu finden, bringen SSDs

bzw. All-Flash-Systeme die Performance ganzer RZs auf Trab.

Page 24: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

24 SSD & Flash

ge der alteingesessenen Firmen haben die-ses Segment für sich entdeckt.

Flash: SLC oder MLCGrundsätzlich gibt es dabei zu beachten, dass sich alle Anbieter an unterschiedlichen SSDs bedienen können. Derzeit kommen MLC/eMLC- und SLC-Medien zum Einsatz. Neue Alternativen wie NVMe oder vertika-ler NAND werden schon für künftige Syste-me evaluiert.

Bei der Single-Level-Cell-Technologie (SLC) ist nur ein Bit innerhalb einer Spei-cherzelle gesichert. Dies bringt eine schnel-lere Reaktionszeit und höhere Lebensdau-er. Aus diesem Grund finden sich SLC-SSDs in vielen Speichersystemen der Enterprise-Klasse. Im Gegensatz dazu wird bei der Mul-ti-Level-Cell-Technologie (MLC) mehr als nur ein Bit innerhalb einer Speicherzelle gesichert. Dies bringt eine höhere Speicher-dichte als bei SLC-Medien, erreicht aber geringere Lese- und Schreibgeschwindig-keiten. Zudem erhöht sich bei einem Aus-fall der Zelle die Bitfehlerrate. Aus diesem Grund sind komplexere Fehlerkorrekturver-fahren zum Sichern des Informationsge-halts der Daten erforderlich. MLC-Medien kamen vor allem in Produkten wie Laptops zum Einsatz, sind nun aber auch Standard für die All-Flash-Arrays. Darüber hinaus ist auch die Enterprise MLC (eMLC) auf dem

Flash-Markt zu finden. Es steht für eine be-sondere Art der Multi-Level-Cell-SSD. Sie wurde für Enterprise-Anwendungen konzi-piert und unterscheidet sich dadurch von der MLC, dass sie mehr Schreibzyklen ab-arbeiten kann. Eine herkömmliche MLC-SSD hat eine Lebensdauer von etwa 3.000 bis 10.000 Schreibzyklen, eMLC-SSDs kön-nen 20.000 bis 30.000 Schreibprozesse ver-arbeiten. Im Enterprise-Segment dient die eMLC-Technik als Kompromiss zwischen kostengünstigen MLC-Medien und teuren, leistungsstarken SLC-Flashs. Dabei arbei-tet eMLC mit nur zwei Bits, während norma-le MLC-Drives mit drei oder vier Bits operie-ren. Je weniger Bits prozessiert werden, desto mehr Schreibzyklen schafft die SSD. Ziel ist es, die eMLC-Technik so weit zu trei-ben, dass sie so langlebig und zuverlässig wie ihre SLC-Brüder wird. Es gibt verschie-dene Ansätze, die SSDs zu verbessern. Dazu gehören unter anderem Wear-Levelling oder optimierte Algorithmen zum Auffin-den von Bit-Fehlern.

Anbieter und ihre LösungenDer Markt der All-Flash-Anbieter ist derzeit überschaubar, nicht zuletzt, weil große IT-Konzerne das Potenzial des Marktes er-kannt und ein paar der Startups akquiriert haben. Momentan sind einige namhafte Unternehmen mit reinen SSD-Modellen am

Markt. Hier gilt es aber zu beachten, dass es zum einen die originären All-Flash-Arrays gibt, also die der Newcomer, die auf das Medium optimierte Systeme bieten, zum anderen die alteingesessenen Speicheran-bieter, die existierende Lösungen mit Flash bestücken und als neu und hipp anpreisen. Startups, die gekauft wurden bzw. deren Produkte finden sich dann zusätzlich auf der Produktliste der großen Speicherfir-men, wobei hier oftmals noch die Integra-tion mit bestehenden Lösungen fehlt.

Die All-Flash-Arrays verfügen natürlich auch über Funktionen wie Datendedupli-kation und Kompression, um die Speicher-dichte wesentlich zu erhöhen. Das ist gera-de bei SLC-Modellen wichtig, da sich dadurch das Preis-Leistungsverhältnis nachhaltig verbessern lässt. Zudem greifen auch auf den Flash-Medien RAID-Verfahren, damit die Daten bei einem Ausfall sicher und wiederherstellbar sind.

Cisco/WhiptailCisco hat im zweiten Halbjahr 2013 die Übernahme von Whiptail angekündigt, ei-nem amerikanischen Unternehmen mit All-Flash-Produkten. Whiptail hatte drei Mo-delle im Portfolio: das »Accela« und »Accela-D« sowie »Invicta«. Accela-Modelle werden zwar noch unterstützt und gewar-tet, der Hauptaugenmerk liegt allerdings

auf den Invicta-Systemen, was unlängst der Launch von zwei dieser Serienmodelle be-stätigte. Das »UCS Invicta C3124SA« ist eine zwei HE große Appliance mit 3 bis 24 TBy-te an 2,5-Zoll-SATA-SSDs. Das »UCS Invicta Scaling System« ist ein Basismodul (acht HE), das sich von sechs TByte auf 720 TBy-te erweitern lässt. Beide Modelle werden über den »UCS Director« verwaltet und ge-währen Host-Konnektivität via 8-Gbit/s-FC- oder 10 Gbit/s-Ethernet-Interfaces. Ausge-stattet mit dem Invicta-Betriebssystem erlauben die Arrays unter anderem asyn-chrone Replikation, Deduplikation, Thin Provisioning und Multi-Tenancy.

Das C3124SA leistet 250.000 IOPS (ran-dom read) mit 4-k-Blöcken und einer Band-breite von 1,9 GByte/s. Die Latenz liegt bei 100 Mikrosekunden. Das Scaling-System kommt auf bis zu 4 Millionen IOPS bei einer Bandbreite von 40 GByte/s und einer 200 Mikrosekunden dauernden Latenz. Darü-ber hinaus kann das Scaling-Modell bis zu sechs System-Router und 30 System-No-des zusammenfassen.

Nach wie vor kommt bei den Arrays MLC zum Einsatz und zwar in 1-TByte-SSDs. Wie der Name schon sagt, integrieren sich die Modelle in die Unified Computing Systems (UCS) von Cisco und sollen in der Verbin-dung vor allem EMC mit seinem XtremIO-Angebot ins Geschäft grätschen.

Page 25: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

25 SSD & Flash

Dell Compellent Storage SystemDell ist einer der Hersteller, die ein her-kömmliches Festplattensystem in ein rei-nes SSD-Modell ummünzen. Dafür wurde aber auch keine Eigenentwicklung genutzt, sondern die hinzugekaufte Speicherplatt-form von Compellent. Mit dem »SC220« präsentiert sich der Hersteller als Flash-op-timiert und erlaubt die Option nur SSDs oder einen Mix aus SSDs und HDDs zu nut-zen. Eine eher ungewöhnliche Funktion bei Dell ist die Möglichkeit, ein Tiering zwischen SLC- und MLC-Medien einzurichten. Hier soll der Anwender ein volles Flash-System erhalten, aber preislich ein wenig mehr Spielraum gewinnen. Das Modell fasst 24 2,5-Zoll Medien. Skaliert werden kann im Sechserpack. Dabei können 400-GByte-SLCs für schreibintensive Anwendungen oder 1,6-TByte-MLCs für lesehungrige Ap-plikationen zum Einsatz kommen. Regulär kann der Kunde mit einem Gehäuse mit je sechs 400-GByte-SLCs und sechs 1,6-TBy-te-MLC starten und modular erweitern. Laut Dell lassen sich mit der All-Flash-Lösung bis über 300.000 IOPS erreichen. Offizielle La-tenzzeiten gibt es derzeit nicht.

Wer einen dritten Speicher-Tier haben will und eine hybride Lösung bevorzugt, kann das mit dem 220 ebenso tun. Zum ei-nen lassen sich in den Enclosures auch HDDs verbauen, zum anderen lässt sich das

Array durch SC200-Enclosures mit 7,2k-, 10k- oder 15k rpm-Drives oder durch SC280-Gehäuse mit 4-TByte-Festplatten ausbau-en. Die unterschiedlichen Speicherebenen werden durch individuelle RAID-Level ge-schützt. Tier-1 mit schreibintensiven SSDs erhält RAID 10, Tier-2 für SSDs mit vielen Le-seaufrufen hat RAID 5 und – falls vorhan-den – werden Festplatten unter Tier-3 mit RAID 6 abgesichert. Insgesamt sollen sich bis zu 960 Drives verbinden lassen. Die Sys-teme können Block- und File-Protokolle be-dienen und finden so Einsatzmöglichkei-ten in SAN- und NAS-Umgebungen.

EMC/XtremIOZusätzlich dazu, dass EMC seinen Kunden altbewährte Systeme wie »VMAX«, »VNX« oder »Isilon« mit SSDs offeriert, schnappte sich der Bostoner Konzern Anfang 2012 All-Flash-Spezialist Xtremio. Seitdem nun Projekt X am Start ist, wurden die gehypten Eigenentwicklungen »Thunder« und »Light-ning« klammheimlich über Bord geworfen. Dafür bietet EMC nun die Xtremio-Lösung an. Diese basiert auf MLC-Medien und stellt eine Scale-Out-Lösung dar, die sich mittels so genannter »X-Bricks« skalieren lässt. Laut Hersteller kommt das System auf 1,3 Milli-onen IOPS. Ein X-Brick fasst 25 SSDs, beispielsweise 400-GByte-eMLCs.Als Inter-faces stehen je vier 8-Gbit/s-FC und

10-Gbit/s-Ethernet zur Verfügung. Bis zu vier Bricks lassen sich clustern, demnächst soll dies auch mit acht und 16 Modulen möglich sein. Die Latenz soll unter einer Mil-lisekunde liegen. Thin Provisioning, Dedu-plikation und VMware-Integration gehören zur Standardfunktionalität, die am Markt erwartet wird. EMC ist so überzeugt von der Performance des Systems, dass es eine Ga-rantie über eine Million Dollar versprach, falls Kunden unzufrieden sein sollten.

FujitsuDer Hersteller Fujitsu geht zusätzlich zu sei-nem Violin-Angebot mit seinem »ETERNUS DX200 S3« und »ETERNUS DX200 F« ins Ren-nen um den Flash-Markt. Das S3 kommt vor-konfiguriert mit 24 400-GByte-SSDs und 9,6 TByte Speicherkapazität. Im Benchmark-Test kam das Array auf 200.500 IOPS bei ei-ner Antwortzeit von 0,63 Millisekunden. Der Preis liegt bei knapp 50.000 Euro. Aufgrund der Eternus-Basis finden sich bereits in der Einstiegsklasse der Systeme Software-Op-tionen wie Thin Provisioning, automati-sches Storage-Tiering und QoS-Manage-ment. Modell F ist baugleich, fasst 24 SSDs und lässt sich auf 384 TByte ausbauen.

HDSHDS bietet für den All-Flash-Markt sein »Hi-tachi Unified Storage VM« (HUS VM) All-

Flash-System an. Es basiert auf den »Acce-lerated Flash«-Speichermodulen, von denen 12 in ein 2 HE großes Flash-Gehäu-se passen. Von diesen lassen sich wieder-um acht in eine HUS VM integrieren und so eine maximale Kapazität von 154 TByte pro System erreichen. Die Performance liegt laut Hersteller bei 500.000 IOPS und die Antwortzeit unter einer Millisekunde. Als Schnittstellen kommen 32 8-Gbit/s-FC- Host-Anbindungen zum Einsatz. Darüber hinaus bringt das All-Flash-System alle Funktionalitäten mit, die man von HDS- Systemen kennt: Multiprotokoll-Support, Tiering (bei Hinzufügen von HDD-Speicher), Thin Provisioning, zentrale Verwal- tung, Analytics sowie Vmware- und Microsoft-Integration.

HP 3ParAuch Hewlett-Packard hat sich beim inter-nen Speicher bedient und offeriert nun ein Modell der vor Jahren erworbenen Spei-cherplattform »3Par«. Das System »3PAR StoreServ 7450 Storage« gibt es als 2-Node- oder 4-Node-Version. Bei beiden kann aus einer umfassenden Reihe an SLC- oder MLC-Medien gewählt werden. Die Modelle fas-sen jeweils 24 SSDs als Basis, wobei sich das 2-Node-Modell bis auf 120 Medien, das 4-Node auf 240 ausbauen lässt. Mit 400-GByte-MLCs kann der IT-Verantwortli-

Page 26: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

26 SSD & Flash

che Kapazitäten von bis zu 48 bzw. 96 TBy-te erreichen. Die Kapazitätsauswahl bei den Medien beläuft sich auf bis zu 1,9 TByte. Standard-Anschluss ist 8-Gbit/s-FC, optio-nal sind zusätzliche FC-Interfaces oder 10-Gbit/s-Ethernet-Schnittstellen. Die Cache-Größe liegt bei 64 bzw. 128 GByte und der Durchsatz bei bis zu 550.000 IOPS. Der Einstiegspreis liegt allerdings bei sat-ten 99.000 US-Dollar.

IBM Texas Memory SystemsIT-Riese IBM verleibte sich 2012 Texas Me-mory Systems und damit die »Ramsan«-Produktpalette ein, die nun unter dem Na-men »FlashSystem« angeboten wird. Hier stehen zwei Modelle zur Verfügung: »Flash-System 840« und »FlashSystem V840«, bei-de verwenden eMLC. Das 840 lässt sich von 2 auf 48 TByte innerhalb des zwei HE gro-ßen Gehäuses skalieren. Davon sind in ei-

ner RAID-5-Konfiguration etwas mehr als 41 TByte nutzbar. Die Leistung lesend wird mit bis zu 1,1 Millionen IOPS und schrei-bend mit bis zu 750.000 IOPS bei einer La-tenz von 90 (Write) bzw. 135 (Read) Mikro-sekunden angegeben. Das V840 ist eine Software-definierte Lösung, die sich über externe Speicher auf 32 PByte ausbauen lässt. Konzipiert für alle transaktionsrei-chen Anwendungen und Umgebungen, will IBM damit unter anderem Datenbank-kunden für sich gewinnen. Angebunden werden die Systeme ebenso über FC, FCoE, iSCSI oder Infiniband.

KaminarioHersteller Kaminario ist ein noch relativ unbekannter Anbieter auf dem deutschen Markt. Seine »K2«-Lösung, mittlerweile in fünfter Generation, hat eine Scale-Out-Ar-chitektur und lässt sich in verschiedenen

Versionen zusammenkonfigurieren, die der Hersteller jeweils als »K-Block« bezeichnet. Alle Blöcke verwenden eMLCs. Der K1-Block kann von 7 auf 180 TByte erweitert werden und leistet bis zu 250.000 IOPS. Der Dual-Block bietet von 14 bis 360 TByte und eine Performance von bis zu 500.000 IOPS. Im K4-Modell kommen 28 bis 720 TByte sowie eine Leistung von bis zu einer Million IOPS zusammen. Die Latenz liegt bei allen drei Blöcken bei etwa 35 Millisekunden. Als An-schlüsse stehen sowohl FC als auch Gbit-Ethernet zur Verfügung. Inline-Deduplizie-rung, Kompression, Replikation, Thin Provisioning, Snapshots, RAID-Schutz und Datensicherheit gehören zum Funktions-umfang. Bleibt abzuwarten, ob es Kamina-rio alleine schafft oder das nächste Kauf-objekt eines größeren Herstellers wird.

NetappNetApp ist ein weiterer Hersteller, der ein existierendes Speichergerät zum All-Flash-System transformiert. In diesem Falle han-delt es sich um ein ehemaliges »Engenio«-Modell, das durch die LSI-Akquise in Netapps Produktportfolio gelangte. Daraus sind nun das »EF540« und das »EF550« ent-standen. Das EF540 kann im Basis-System 12 oder 24 eMLCs aufnehmen und ist um 24 SSDs erweiterbar. Insgesamt lassen sich so mit 800-GByte-Medien bis zu 38 TByte

an Bruttokapazität erlangen. Schnittstellen sind 8-Gbit/s-FC, 6-Gbit/s-SAS, 10-Gbit/s- iSCSI und 40-Gbit/s-Infiniband. Bis zu 300.000 IOPS sowie Latenzen von weniger als einer Millisekunde sollen sich mit dem System gewährleisten lassen.

Der Modellbruder arbeitet mit den glei-chen Basismodulen, lässt sich aber auf 96 TByte skalieren. Als Spitzenleistung gibt der Hersteller bis zu 900.000 IOPS an, als kon-tinuierliche Performance 400.000 bei einer Reaktionszeit von unter einer Millisekunde.

Nimbus Data SystemsBereits seit 2006 ist Nimbus Data Systems mit seinem »Gemini«-Produkt unterwegs, das in den Modellen F610/620 und F410/420 erhältlich ist. Die Arrays unterscheiden sich im Wesentlichen in der Portzahl. Sie basie-ren auch auf MLC-Technologie und fassen bis zu 24 Medien in einer Einheit. Ausgestat-tet mit 2-TByte-SSDs sind so Gesamtkapa-zitäten von bis zu 48 TByte möglich. Leis-tungswerte gibt der Hersteller mit bis zu 2 Millionen IOPS und einer Latenz von 50 Mi-krosekunden an. Mindestkapazität sind drei TByte in einem System. Hervorstechend beim Nimbus-Angebot ist die so genannte End-to-End-Garantie von zehn Jahren. Mit FC- und Ethernet-Ports und Support für die Protokolle FC, iSCSI, NFS, SRP, iSER, RDMA und SMB fügt sich das System in NAS-, SAN-

Einige Unternehmen wie Netapp nutzen bestehende Plattformen, um Flash-optimierte Systeme anzubieten.

Foto

: Net

app

Page 27: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

27 SSD & Flash

oder DAS-Umgebungen ein. Der Preis liegt für drei TByte bei etwas unter 60.000 US-Dollar.

Pure StoragePure Storage bietet als Nachfolger seiner »FA-300 Series Controller« drei Modelle der »FA-400 Series Controller«. Das »FA-405« bezeichnet der Hersteller als »Small and Mighty«, das »FA-420« hat den Beinamen »Data Center Workhorse« und das »FA-450« steht als »Consolidation King« im Produkt-portfolio. In der Reihenfolge bieten diese eine Kapazität von 40, 125 und 250 TByte, wobei der Kunde mit kleineren Spei-chermengen starten und schrittwese skalieren kann. So kann er beim FA-420 mit 35 TByte einsteigen und, wie die Serienbrü-der auch, diesen Speicher durch Dedupli-kation zunächst effizienter nutzen bevor er erweitern muss.

Das kleinste Gerät kommt auf etwa 100.000 IOPS mit 32k-Blöcken und eine Bandbreite von 3 GByte/s. Das Workhorse erreicht rund 150.000 IOPS bei 5 GByte/s und das königliche Array schafft 200.000 IOPS bei 7 GByte/s Bandbreite. Die Latenz-zeit liegt bei allen Modellen unter einer Mil-lisekunde. Jeweils vier 8-Gbit/s-FC- oder 10-Gbit/s-iSCSI- Schnittstellen stehen im FA-405 zur Verfügung. Als Preis gibt der Her-steller rund 3 bis 4 Euro pro GByte an.

SkyeraSkyera setzt in seinen Produkten »Sky-hawk« und »Skyeagle« auch die günstige-ren MLC-Medien ein. Dank spezieller Sto-rage-Blades passen beim Skyhawk 12, 22 oder 44 TByte Bruttospeicher in ein Gehäu-se von nur einer Höheneinheit. Bis zu 400.000 IOPS sind mit dem System zu errei-chen. Anschluss bieten entweder 40 1-Gbit/s-Ethernet-Anschlüsse oder drei 10-Gbit/s-Ethernet-Interfaces. Unterstützt werden die Protokolle NFS und iSCSI. Das größere Skyeagle stellt Kapazitäten von 60, 120, 250 und 500 TByte zur Verfügung und verfügt über 16 16-Gbit/s-FC- oder 16 10-Gbit/s-Ethernet-Ports, wodurch es zu-sätzlich CIFS- und FC-Unterstützung erhält. Beim Leistungswert gibt der Hersteller bis zu 5 Millionen IOPS an. Beim Preis wird es eher schwammig, der liegt laut Anbieter bei etwa zwei US-Dollar pro GByte, je nach Kon-figuration versteht sich.

SolidfireDer Hersteller SolidFire hat drei Produkte im Köcher: »SF3010«, »SF6010« und »SF9010«. Die Modelle lassen sich zu einem Cluster zusammenfassen, beispielsweise mit fünf, 20, 40 oder 100 Nodes. Damit kön-nen dann Kapazitäten im PByte-Bereich er-reicht werden. Bei Solidfire kommen so-wohl MLCs als auch SLCs zum Einsatz. Alle

Modelle fassen pro Node 10 Medien, wobei das 3010 SSDs mit 300 GByte aufnimmt, das 6010 Medien mit 600 GByte und das 9010 Flash-Drives mit 960 GByte. Pro Node sind Leistungen von bis zu 50.000 IOPS möglich, was bei einer Mindestkonfiguration von fünf Nodes 250.000 IOPS bedeutet. Als An-schluss steht 10-Gbit/s-iSCSI zur Verfügung, und optional auch Fibre Channel.

TegileEin ebenso unbekannterer Mitspieler auf dem deutschen Flash-Markt ist Tegile, der den früheren Modellnamen »Zebi« in »In-telligent Flash Storage Array« änderte und neun Flash-Arrays und acht Erweiterungs-module anbietet. Die HA-Serie umfasst »HA2100«, »HA2100EP«, »HA2130«, »HA2130EP«, »HA2300«, »HA2400« und »HA2800«. Sie bieten je nach Modell 600 GByte, 1,2 TByte, 2,2 oder 4,4 TByte an Flash-Speicher. Mit Erweiterungseinheiten lassen sich Kapazitäten von 500, 600, 695,

720, 750 und 900 TByte erreichen. Das »T3400« und das »T3800« bringen 28,8 bzw. 48 TByte an Flash mit und können bis 1 bzw. 1,68 PByte skalieren. Standardgemäß lassen sich die Systeme mittels 1-Gbit/s-Eth-ernet integrieren, optional stehen noch 8-Gbit/s-FC- oder 10-Gbit/s-Ethernet-Ports zur Auswahl. Zudem kann der Anwender die Modelle auch als hybride Systeme nut-zen. Genaue Angaben zu Latenzen oder IOPS macht der Hersteller nicht.

Violin MemoryViolin Memory verfügt nach wie vor über ein gutes Flash-System-Angebot, auch wenn der Hersteller derzeit ein wenig ins Straucheln geraten ist. Lösungen sind die »6600 Series« mit SLCs, die »6200 Series« mit MLCs und die »Maestro 2510«, die ehe-mals »Force 2510 Memory Appliance« hieß. Die 6000-Serie umfasst insgesamt sechs Modelle, zwei mit SLC-Drives, vier mit MLC-Medien. Kapazitäten liegen hier zwischen

Kleinere Startups wie Tegile, Kaminario oder Skyera

kämpfen gegen große Konkurrenz auf dem

Trend-Markt des All-Flash.

Foto: Tegile

Page 28: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

28 SSD & Flash

6,5 und 70 TByte. Bei den SLC-Systemen lie-gen die Leistungswerte bei 450.000 und ei-ner Million IOPS sowie bei Latenzen von un-ter 250 Mikrosekunden. Die MLC-Modelle schaffen 200.000, 350.000, 500.000 und 750.000 IOPS bei Latenzen von unter 500 Mikrosekunden. Anschlussoptionen sind 4- und 8-Gbit/s-FC, 10-Gbit/s-iSCSI und 40-Gbit/s-Infiniband. Die Serie 6000 wird auch vom Speicheranbieter Fujitsu vertrieben.

Neu im Portfolio ist ein All-Flash-System für »Windows Storage Server 2012R«, das Violin »Windows Flash Array«, kurz WFA. Das bietet auch 70 TByte auf drei Höheneinhei-ten, bis zu 750.000 IOPS und Latenzen un-ter 500 Mikrosekunden. Das Gerät hat den Windows-Server voll integriert und verfügt über zwei Blades, so dass Anwendungen schneller betrieben werden können. Laut Hersteller erreicht die Lösung bis zu zwei-mal schnellere SQL-Writes, anderthalb Mal schnellere SQL-Reads und Hyper-V-Writes, die 1,4-Mal zügiger sein sollen.

Um herkömmliche SAN-Landschaften auf Trab zu bringen, bietet Violin seine Appli-ance Maestro 2510. Diese verfügt über 192 GByte DRAM sowie acht TByte Flash-Spe-icher in einer Einheit, die sich durch ex-ternen Speicher (z.B. 6000 Series) auf 256 TByte aufstocken lässt. Beim Backend-Stor-age ist eine Skalierbarkeit auf 160 TByte mit

16-TByte-Flash-Modulen oder auf ein PByte mit 6000-Modellen möglich. Die Leistung liegt bei bis zu einer Million IOPS bei einer Bandbreite von 4 GByte/s und einer Reak-tionszeit von unter einer Millisekunde.

Wenige Anbieter, viel AuswahlDie Anzahl der Anbieter ist durchaus noch überschaubar in einem so heißen Trend-markt, dafür sind die Angebote und Syste-mauswahl mannigfaltig. Je nach Spielart der eigenen Umgebung und Pläne kann der IT-Verantwortliche reine Block-basierte oder konvergente SAN/NAS-System erwer-ben. Dabei kann er sich auf leistungsstar-ke, jedoch etwas teurere SLC verlassen oder aber den kostengünstigeren Weg mit MLC oder eMLC einschlagen. Funktionsreich sind alle Systeme. Gerade datenreduzieren-de Verfahren und Datenschutzmechanis-men liegen bei diesen Produkten hoch im Kurs – kein Wunder, kosten sie doch er-klecklich mehr als herkömmliche Speicher-systeme. Unternehmen, die mit OLAP han-tieren, Hadoop zum Fliegen bringen wollen, stets wachsende Datenbanken beherr-schen müssen oder eben einfach durch stark virtualisierte und interaktive IT-Umge-bungen eine hohe Transaktionslast herauf-beschwören, profitieren von All-Flash-Ar-rays. Dabei ist für jeden Geschmack etwas dabei. Leider muss der geneigte und poten-

zielle Käufer erst einmal seine Hausaufga-ben machen, um aus der aufgeführten Viel-falt das optimale Modell für sich zu finden. Performance und Funktionen müssen hier ebenso stimmen wie Latenzzeiten, Zuver-lässigkeit und Garantie.

Flash der nächsten GenerationNeben den bereits zum Einsatz kommen-den Technologien stehen künftige Alterna-tiven wie vertikaler NAND (3D NAND) sowie NVMe vor der Tür und dürften auch für die Hersteller der Full-Flash-Modelle interes-sant werden. Der 3D-NAND bietet derzeit zwar nur 128 Gbit Speicherkapazität auf ei-nem Chip, ist aber von der Technologie her interessant. Dabei kommt eine vertikale Zellenstruktur zum Einsatz, die auf der 3D-Charge-Trap-Flash-Technik und einer verti-kalen Interconnect-Prozesstechnik basiert. Hier wird eine elektrische Ladung tempo-rär in einer Haltekammer des nichtleiten-den Flash-Layers platziert. Dies dient zur Verhinderung von Interferenzen zwischen benachbarten Zellen. Dadurch lassen sich bis zu 24 Zellen-Layer vertikal übereinan-der stapeln, was hohe Zuverlässigkeit, schnelle Schreibgeschwindigkeit und in Zu-kunft vielleicht auch größere Speicherka-pazitäten garantiert.

NVMe steht für Non-Volatile Memory Ex-press und ist kein neues Speichermedium

als solches. Vielmehr eliminiert diese Tech-nologie das größte Problem bisheriger Flash-Medien, den viel zu schmalen Bus. Herkömmliche SSDs verfügen entweder über einen SATA- oder einen SAS-Anschluss, beide bieten einen Datendurchsatz von maximal 6 Gbit/s, also rein rechnerisch 768 MByte/s (landläufig und der Einfachheit halber auf 600 MByte/s reduziert). Dieser Wert liegt jedoch weit unter den theoretisch machbaren Durchsätzen des Mediums und stellt damit einen Flaschenhals dar.

NVMe nutzt stattdessen den PCIe-Bus der Definition 3.0 und kann damit theoretisch bis zu 32 GByte/s (auf 32 Leitungen á 1 GByte/s) erreichen. Damit sollen diese neuen Speichermedien bis zum sechs-fachen der bisherigen Durchsätze und bis zum 15fachen der bekannten I/O-Leistung bieten. Allerdings stellt dies keinen neuen Standard dar, sondern lediglich die Kom-bination zweier existierender Lösungen zur Erreichung höherer Leistungen.

Bislang eignen sich die NVMe-Laufwerke nur zum Einsatz in Einzelsystemen mit entsprechendem PCIe-Bus. Kein Hersteller wird so schnell auf PCIe im Backend um-stellen, vor allen nicht in Erwartung der neuen SAS- und SATA-Definitionen. Nichts-destotrotz ist dies eine weitere Alternative, um die SSDs und somit auch damit aus-gerüstete Systeme zu optimieren. K

Page 29: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

29 SSD & Flash

SSD-Preise halbieren sich im Jahresrhythmus

1-TByte-SSDs nicht mehr unerschwinglichFür die aktuell gültigen SSD-Preise erhalten Anwender heute fast die doppelte Kapazität als noch vor einem Jahr. Für etwas über 100 Euro erhalten Nutzer mittlerweile bereits 250 GByte. Wir erwarten, dass 1-TByte-SSDs bis Jahresende die 300-Euro-Marke passieren werden. Im Business-Bereich sind vor allem PCIe-Flash-Speicher stark im Kommen.

Karl Fröhlich

Im direkten Vergleich werden zwar immer noch mehr Festplatten verkauft, jedoch er-reichen Solid-State-Drives (SSDs) zuneh-mend den Massenmarkt. »Sehr deutlich wird dies, wenn man die SSD-Verkaufszah-len der GfK (GfK Panel Markt Stand März 2014) aus dem ersten Quartal 2011 (rund 152.000) mit dem ersten Quartal 2014 (etwa 634.000) vergleicht«, erklärt Sun Spornraft, Head of Product Management IT Storage bei Samsung Electronics.

Den Marktforschern von Trendfocus zu-folge wurden im ersten Quartal 2014 welt-

weit mehr als 15 Millionen SSDs abgesetzt. Gegenüber dem vierten Quartal 2013 ent-spricht dies allerdings einem Rückgang um rund neun Prozent. Zwar ist das Q4 in der Regel traditionell das stärkste Quartal, eine leichte Sättigung des Marktes ist jedoch schon zu erkennen. Die Analysten begrün-den den Rückgang mit einem starken Ein-bruch des PC-Marktes.

Mit zirka 32 Prozent führt Samsung das Segment an. Auf Rang zwei rangiert San-Disk mit einem sehr starken Zuwachs auf knapp 26 Prozent, vor Intel mit einem Marktanteil von rund zehn Prozent.

Auch hierzulande bezeichnen Händler und Hersteller das erste Quartal als eher ru-hig. Steigend ist jedoch die Nachfrage nach mSATA und PCIe-SSDs. »Gerade leistungs-hungrige Applikationen sowie die Preisent-wicklung von SSDs unterstützen nach wie vor den Trend, Enterprise-Umgebungen mit SSDs aufzurüsten und mit deren Einsatz die hohe Latenz der langsameren (mechani-schen) Festplatten (ca. 300 IOPS) zu kom-pensieren«, erläutert Marina Zec, Marke-tingmanager DACH bei OCZ Storage Solutions. »Damit entsteht jedoch ein po-tentiell neues I/O-Problem – der Flaschen-hals SATA. Mit PCIe lassen sich diese Daten-transferengpässe beheben und mit PCIe x4 beispielsweise Geschwindigkeiten von bis zu 3.900 GByte/s erzielen.« PCIe werde da-Fo

to: s

peic

herg

uide

.d

Page 30: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

30 SSD & Flash

her speziell für den Enterprise-Bereich, aber auch für Enthusiasten und Workstation-An-wender, ein immer wichtigeres Segment.

PCIe-Flash-Speicher stark im KommenDen mit Abstand größten Markt für PCIe-ba-sierte Flash-Technologie stellten in den letz-ten Jahren große Web-2.0-Unternehmen bzw. Hyperscale-Rechenzentren wie Ama-zon, Facebook oder Google dar. »Diesen Firmen geht es in erster Linie um Latency außerhalb klassischer Hochverfügbarkeits-szenarien, zum Beispiel im Bereich Caching von Web-Content«, sagt Zec. »Mit Ausnah-me dieser Special-Purpose-Designs fand Server-Side-Flash bei Unternehmen bis-lang nur sporadisch Anwendung, beispiels-weise als Read-Cache-Device. Als entschei-dende Inhibitoren wurden insbesondere die schwierige Integration in Hochverfüg-barkeitsszenarien genannt sowie der Nach-teil des Local- vs. Shared-Storage.« Eine neue Generation von Software- und Virtu-alisierungs-Lösungen, angeboten von eini-gen Flash-Herstellern oder als funktionale Erweiterung der Server-Virtualisierung, soll nun genau diese Situation adressieren und verändert grundlegend das künftige Zu-sammenspiel von Server-Side-Flash und konventionellem, HDD-basiertem Storage. Software-defined lassen sich nun Flash-Vo-

lumes zwischen Servern synchron spiegeln. Bei Ausfall einer Komponente erfolgt ein transparenter Failover. Zudem können wei-tere Server im Netz auf das Flash-Volume zugreifen.

»Die PCIe-Flash-Karte entwickelt sich vom Local-Storage zum Shared-Device«, meint OCZ-Managerin Zec. »Damit wird für viele Anwender die Grundlage geschaffen, leistungshungrige und gleichzeitig busi-nesskritische Applikationen komplett aus dem SAN auf Flash zu verlagern. Die resul-tierende Reduzierung des I/O-Load im Ba-ckend stellt in vielen Umgebungen einen zusätzlichen Mehrwert dar.«

Kaufkriterium: Preis oder PerformanceEiner der Verkaufsmotoren ist natürlich die Preisentwicklung. Kostete beispielsweise Samsungs »SSD 840 EVO« mit 250 GByte zur Markteinführung im Juli 2013 zirka 249

Euro, beginnt der Internetpreis Mitte Juni 2014 bei nicht ganz 105 Euro.

»Wir sehen weiterhin zwei klare Faktoren bei der Kaufentscheidung, nämlich Preis oder Performance«, ergänzt Christian Mar-höfer, Geschäftsführer bei Kingston Tech-nology Deutschland. »Während für viele SSD-Einsteiger, die ein System-Upgrade weg von der HDD planen, eher der Preis als die höchste Performance im Vordergrund steht, spielt beim Neuaufbau eines Sys-tems, wie bei Gamern, eher die höchst mög-liche Performance der SSD eine Rolle.« Hier sei die Zielgruppe dann auch bereit, mehr für eine entsprechend leistungsstärkere SSD auszugeben.

»Vor dem Kauf sollte jedoch eine genaue Analyse der Bedürfnisse des Anwenderpro-fils erfolgen«, meint auch Sumru Gerken, Business Group Manager Components bei Ingram Micro. »Kommt die SSD in einem System zum Einsatz, bei dem man Zugriff-zeiten verbessern möchte, alternativ im Ga-ming-Umfeld, wo schnelles Laden relevant ist, oder in einer Umgebung, in der beson-dere Robustheit benötigt wird (z.B. ständi-ge Vibrationen)? Wird die SSD im Office-Um-feld eingesetzt, in Workstations oder im Enterprise-Umfeld?«

Im Detail sind für Gerken die wichtigsten Faktoren die Art des verbauten Controllers, die verwendete Firmware sowie die Art des

NAND-Speichers (MLC oder SLC). Neben dem Preis entwickelt sich auch die Kapazi-tät zu Gunsten des Anwenders.

Vor zwei, drei Jahren lag der erschwing-liche »Sweetspot« noch bei unter 100 GByte. Für etwas aktivere Nutzer war diese Größe schlichtweg nicht ausreichend. Mit Anschaf-fungskosten ab etwas über 100 Euro liegt die Einstiegsgröße mittlerweile bei 250 GByte. Für zusätzliche 100 Euro erhält man bereits 500-GByte-SSDs. Zur Erinnerung, noch vor nicht ganz zwölf Monaten gab es dafür nur die halbe Kapazität.

1-TByte-SSDs immer erschwinglicherFür eine 1-TByte-SSD wie der Samsung »840 EVO« sind derzeit 389 Euro fällig. Crucials »M550«, kostet beispielsweise bei Alterna-te rund 385 Euro. Damit liegt der Preis pro GByte bereits jetzt nur noch bei 38 Cent. Im Juni 2013 kostete das Samsung-Laufwerk noch 499 Euro und im Jahr davor wurde diese Größe im Mainstream noch gar nicht wirklich angeboten. Die Redaktion von speicherguide.de geht davon aus, dass spätestens zum Weihnachtsgeschäft die Preise für eine 1-TByte-SSD unter die 300-Euro-Marke fallen werden. Ab diesem Zeitpunkt muss dann auch nicht mehr zwingend eine herkömmliche Festplatte parallel betrieben werden. K

SSD-Markt Q1/2014

Hersteller ausgelieferte SSDs (in Mio.)

Marktanteilin Prozent

1 Samsung 4,904 32,02 SanDisk 4,016 26,23 Intel 1,550 10,14 Micron 0,966 6,35 Toshiba 0,803 5,26 SK Hynix 0,506 3,37 HGST 0,135 0,98 OCZ 0,041 0,39 sonstige 2,411 15,7

Gesamt 15,332 100,0

Quelle: Trendfocus

Page 31: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

31 Storage-Performance

Marktübersicht SSDs

SSD muss zu den Anforderungen passenNoch sind vor allem SSDs mit 128 GByte im Einsatz, der Trend geht aber zu Kapazitäten ab 250 GByte und mehr. Vor allem im Business-Bereich sollte beim Kauf nicht nur der Preis als Indikator gelten, sondern auch die gebotene Leistung, der Lieferumfang und die Garantie.

Karl Fröhlich

SSDs sind längst kein teures Vergnügen mehr. Ein 250-GByte-Laufwerk kostet heu-te nur noch etwas über 100 Euro. Bei Con-sumer-Produkten liegt der Preis pro GByte im Schnitt bei 50 Cent. Vor einem Jahr lag das Investment noch bei zirka 137 Euro. Im Mai 2010 mussten Anwender für ein 256-GByte-SSDs fast 600 Euro investieren. Für 128 GByte waren knapp 300 Euro fällig. Seit damals ist der Preis pro GByte von zum Teil über drei Euro auf durchschnittlich 50 Cent gefallen.

Samsungs 500-GByte-SSD »840 EVO« ge-hört ab 204 Euro mit zu den günstigsten Dri-ves seiner Klasse. Aber auch das TByte-Mo-dell ist mit einem Internetpreis ab 327 Euro nicht mehr unerschwinglich.

speicherguide.de-Leser lieben SSDsSSDs sind auf jeden Fall im Kommen. Dies ergab eine Umfrage unter den Lesern von speicherguide.de im Frühjahr 2014: 75 Prozent nutzen eine SSD in ihrem PC, Note-book sowie in mehreren Rechnern (21 Pro-zent). Ein Viertel der Befragten plant noch in diesem Jahr die Anschaffung einer SSD. Bei 26 Prozent der Leser sind vor allem 128-GByte-SSDs im Einsatz, gefolgt von Mo-dellen bis 256 GByte (16 Prozent). Zusam-

mengerechnet nutzen bereits 15 Prozent SSDs größer als 256 GByte.

Für die Mehrheit sind SSDs in Kombina-tion mit einer internen Festplatte die Ideal-lösung. 14 Prozent setzen nur noch SSDs ein. Genau so viele bemängeln allerdings die geringe Kapazität. Insgesamt fünf Pro-zent hatten sich mehr versprochen und sind nicht zufrieden. Auf den ersten Blick über-rascht, dass 30 Prozent offensichtlich kei-ne konkrete Meinung haben. In der Praxis ist es allerdings so, dass der anfängliche Wow-Effekt relativ rasch verpufft, weil sich der Anwender an den Performance-Ge-winn, gegenüber HDDs, schnell gewöhnt.

Hier verhält es sich nicht anders, als mit ei-nem neuen, leistungsfähigeren Rechner. In den ersten Tagen freut man sich noch, dass die Programme so schnell starten und im Vergleich zu vorher viel kürzere Wartezeiten auftreten. Irgendwann ist das dann aber der Normalzustand.

Qualität und PerformanceIm Vergleich zu Festplatten verfügen SSDsüber keine beweglichen Teile und gelten daher als robuster, zuverlässiger und leise. SSDs werden nicht so heiß und benötigen weniger Kühlung. Was wiederum zu einem geringeren Energieverbrauch führt – spezi-

ell bei Notebooks ein großer Vorteil. Ent-scheidendes Kaufkriterium ist aber sicher-lich die Geschwindigkeit. »Dabei sollte eine SSD nicht nur sequenzielle Spitzenwerte er-reichen, sondern dauerhaft auf hohem Leis-tungsniveau arbeiten«, mahnt Sun Sporn-raft, Head of Product Management IT Storage bei Samsung Electronics. »Das setzt eine optimale Abstimmung zwischen Hardware und Software sowie eine hohe Qualität der eingebauten Komponenten voraus. Daher sollte man beim Kauf einer SSD in erster Linie auf die Qualität achten. Oft sind Garantiebedingungen ein guter Pa-rameter und auch Produkt-Tests sind gute Indikatoren.«

Enterprise- vs. Consumer-SSDsOCZ Marketingmanagerin Marina Zec zu-folge gilt es zwischen Consumer und Enter-prise-Kunden unterscheiden: »Konsumen-

nein, ist aber in Planung (noch dieses Jahr)ja, in mehreren Rechnernja, in einem Notebookja, in einem Desktop-PC

30 %

25 % 21 %

24 %

weiß nichtkeine SSD im Einsatzgrößer 512 GBytebis 512 GByte

bis 400 GBytebis 256 GBytebis 128 GBytebis 60 GByte

26 %

5 %

1 %5 %

1 %

16 % 9 %

37 %

weiß nichtnicht zufriedenhatte mir mehr von SSD-Einsatz versprochenKapazität ist zu geringIdeallösung in Kombination mit einer internen HDDsetze nur noch SSDs ein

14 % 30 %

3 % 2 %

37 %

14 %

Nutzen Sie privat in Ihrem Computer bereits

eine SSD?

Grafik: speicherguide.de

Page 32: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

32 Storage-Performance

ten-SSDs für den privaten Gebrauch sollen in erster Linie günstig zu erstehen sein. Mainstream-Anwender möchten sich nicht zwingend mit den erforderlichen Fachbe-griffen auseinandersetzen, um das für sie optimale SSD-Laufwerk zu finden. Einfach gesagt: Der Preis muss passen. Die Be-schleunigung ist bereits auf einem so ho-hen Niveau, dass die Unterschiede für ei-nen Endkunden kaum fühlbar sind.«

Demgegenüber sei die Datenbe- und -ver-arbeitung in einem Rechenzentrum gegen-über der in einer privaten Endanwender-umgebung ein Unterschied wie Tag und Nacht. Zudem werden nicht nur die Daten unterschiedlich verarbeitet, sondern auch die Last steht in keinem Vergleich zueinan-der. »Besonders die Input/Output-Belas-tung kann bei Server-Anwendungen sehr hoch sein«, sagt Zec. »Die Hardware muss in der Lage sein, diese konstant, sicher und schnell zu handhaben. Um diese Art der Be-lastung bewältigen zu können, benötigt die Hardware eine andere Klasse von Kompo-nenten, welche optimale Sicherheit garan-

tieren können.« Allerdings müsse nicht nur die Hardware angepasst werden, wie zum Beispiel mit Overprovisioning oder sehr kur-zen Latenzzeiten. Die Anpassung betreffe auch die Firmware-Programmierung, Kom-patibilitätstests sowie Service-Support (SLA), für Enterprise-SSDs.

Beispiele für spezielle Enterprise-Merk-male sind »Power Failure Protection« und 256-Bit-Encryption. »Während die höhere Datenverschlüsselungsstufe für höchste Datenintegrität und -sicherheit steht, stellt die Power-Fail-Protection sicher, dass bei einem Stromausfall alle Datenschreibvor-gänge abgeschlossen werden können, so dass keine wichtigen Informationen verlo-ren gehen«, erklärt Zec.

Was zeichnet eine gute SSD aus?Die SSD-Anbieter vertreten die These, dass Anwender noch mehr als bei Festplatten darauf achten sollten, dass die SSD zu den gewünschten Anforderungen passt. Letzt-endlich ist dies aber nur Marketing. Im Ga-ming-Umfeld benötigt der Nutzer schnelle Zugriffszeiten, da hilft eine SSD ungemein. Der User hätte sich aber sicherlich auch die schnellste Festplatte gegönnt. Ein Umfeld mit ständig auftretenden Vibrationen be-nötigt ein robustes Speichermedium. Hier würde man auch bei Festplatten ein spezi-elles Augenmerk darauf legen – SSDs redu-zieren jedoch den sonst nötigen Aufwand.

»Grundsätzlich sollte der Qualitätsan-spruch gegenüber dem Preis im Vorder-grund stehen, vor dem Kauf sollte jedoch eine genaue Analyse der Bedürfnisse des Anwenderprofils erfolgen«, rät Sumru Gerken, Business Group Manager Com ponents bei Ingram Micro. Ein pro-fessionelles Umfeld benötigt professionel-le Komponenten.

»Ein Low-End-Drive wird selbst im Ein-stiegsserver bei schreibintensiven Anwen-dungen nicht lange halten«, warnt OCZ-Ma-nagerin Zec. »Dort werden Enterprise-SSDs eingesetzt, die über spezielle NAND-Spei-cher und Enterprise-Controller verfügen. Richtig eingesetzt bieten sie eine sofortige Performance-Steigerung, dank ihrer Fähig-keit eine IOPS-Rate zu liefern, wie tausen-de von HDDs.« Anderenfalls bleibt viel Po-tenzial ungenutzt.

Garantie und LieferumfangDie Qualität und Zuverlässigkeit sieht man einem Produkt von außen nicht an. Hier helfen nur Erfahrungswerte. Ein sinnvoller Indikator ist generell die Garantielaufzeit. Die meisten SSDs werden momentan mit drei Jahren geliefert. Vereinzelt finden sich Modelle mit fünf Jahren.

Zu einem sinnvollen Lieferumfang gehö-ren zudem Einbaumaterialien und eine Cloning-Software. Diese hilft vor Inbetrieb-nahme das Betriebssystem und die vorhan-denen Daten auf die SSD zu migrieren. Als kostenlosen Download bietet Samsung bei-spielsweise die »Data Migration«-Software an, mit der sich die Daten von der Festplat-te auf die neue SSD in drei Schritten mig-rieren lassen sollen. Auf Acronis »True Image« setzen unter anderem A-Data, Kingston und Plextor. K

nein, ist aber in Planung (noch dieses Jahr)ja, in mehreren Rechnernja, in einem Notebookja, in einem Desktop-PC

30 %

25 % 21 %

24 %

weiß nichtkeine SSD im Einsatzgrößer 512 GBytebis 512 GByte

bis 400 GBytebis 256 GBytebis 128 GBytebis 60 GByte

26 %

5 %

1 %5 %

1 %

16 % 9 %

37 %

weiß nichtnicht zufriedenhatte mir mehr von SSD-Einsatz versprochenKapazität ist zu geringIdeallösung in Kombination mit einer internen HDDsetze nur noch SSDs ein

14 % 30 %

3 % 2 %

37 %

14 %

Wie groß ist die SSD-Kapazität in Ihrem

Hauptrechner?

Grafik: speicherguide.de

nein, ist aber in Planung (noch dieses Jahr)ja, in mehreren Rechnernja, in einem Notebookja, in einem Desktop-PC

30 %

25 % 21 %

24 %

weiß nichtkeine SSD im Einsatzgrößer 512 GBytebis 512 GByte

bis 400 GBytebis 256 GBytebis 128 GBytebis 60 GByte

26 %

5 %

1 %5 %

1 %

16 % 9 %

37 %

weiß nichtnicht zufriedenhatte mir mehr von SSD-Einsatz versprochenKapazität ist zu geringIdeallösung in Kombination mit einer internen HDDsetze nur noch SSDs ein

14 % 30 %

3 % 2 %

37 %

14 %

Wie zufrieden sind Sie mit Ihrer SSD

(in Ihrem Rechner)?

Grafik: speicherguide.de

Page 33: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

33 SSD & Flash

Hersteller Produktname SerieSpeicher­kapazität (in GByte)

Speichertyp Schnitt ­stelle(n) Controller

max. Transferrate

Lesen (in MByte/s)

max. Transferrate Schreiben

(in MByte/s)

AES­ Verschlüsselung

(Bit)

Hersteller­ garantie

(in Monaten)

Preis in Euro (brutto)

A­Data ASP610SS3-512GM-C Premier SP610 512 MLC SATA/600 Silicon Motion SM2246EN 560 450 k.A. 36 210

www.adata.com.tw/de XPG SX900 XPG SX900 512 MLC SATA/600 Sandforce SF-2281 550 520 k.A. 36 223

XPG SX910 XPG SX910 512 MLC SATA/600 Sandforce SF-2281 540 465 k.A. 60 278

Crucial CT960M500SSD1 M500 960 MLC SATA/600 Marvell 88SS9187 500 400 256 36 368

eu.crucial.com/ CT1024M550SSD1 M550 1.000 MLC SATA/600 Marvell 88SS9189 550 500 256 36 384

CT512M550SSD1 M550 512 MLC SATA/600 Marvell 88SS9189 550 500 256 36 218

CT512MX100SSD1 MX100 512 MLC SATA/600 Marvell 88SS9189 550 500 256 36 168

Intel SSDSC2BB600G401 S3500 600 MLC SATA/600 Intel 500 410 256 60 521

www.intel.de SSDSC2BB800G401 S3500 800 MLC SATA/600 Intel 500 450 256 60 686

SSDSC2BA800G301 S3700 800 MLC SATA/600 Intel 500 460 256 60 1.879

Intenso Top SSD Premium 512 MLC SATA/600 k.A. 540 470 k.A. k.A. 219

www.intenso.de

Kingston Technology SVP100S2B/512GR V+ Series 512 MLC SATA/600 k.A. 230 180 k.A. 36 721

www.kingston.com/de

Mushkin MKNSSDCL960GB-DX Callisto Deluxe 960 MLC SATA/300 Sandforce SF-1200 285 275 k.A. 36 470

www.mushkin.com

OWC Mercury Electra 6G Mercury Electra 960 MLC SATA/600 Sandforce SF-2281 556 523 k.A. k.A. 579

www.macsales.com

OCZ VTX450-25SAT3-512G Vertex 450 512 MLC SATA/600 Indilinx Barefoot 3 M10 540 530 k.A. 36 318

www.ocztechnology.com

Plextor PX-512M5P M5Pro 512 MLC SATA/600 Marvell 88SS9187 540 450 256 60 325

www.plextor-digital.com PX-512M6S M6S 512 MLC SATA/600 Marvell 88SS9183 520 440 k.A. 36 304

Samsung MZ-7TE1T0BW 840 EVO 1.000 MLC SATA/600 Samsung MEX 540 520 256 36 327

www.samsung.de MZ-7TE500BW 840 EVO 500 MLC SATA/600 Samsung MEX 540 520 256 36 219

MZ-7TE500LW 840 EVO 500 MLC SATA/600 Samsung MEX 540 520 256 36 204

MZ-7PD512BW 840 Pro 512 MLC SATA/600 Samsung MDX 540 520 256 60 301

Sandisk SD6SB2M-512G-1022I X210 512 MLC SATA/600 Marvell 88SS9187 505 470 k.A. 60 260

www.sandisk.de SD7SB2Q-010T-1022 X300s 1.000 MLC SATA/600 k.A. 520 460 256 36 535

Super Talent FTM12S425H SuperNova III 512 MLC SATA/600 LAMD LM87800 550 350 k.A. 48 249

www.supertalent.com

Toshiba HDTS251EZSTA Q-Series 512 MLC SATA/600 Toshiba 534 482 k.A. 36 222

www.toshiba.eu/hard-drives/solid-state/ HDTS351EZSTA Q-Serie Pro 512 MLC SATA/600 Toshiba 554 512 k.A. 36 239

Transcend TS512GSSD320 SSD320 512 MLC SATA/600 Sandforce SF-2281 550 500 128 36 190

www.transcend.de

Marktübersicht 2,5 Zoll SATA-SSDs ab 500 GByte

Quelle: speicherguide.dek.A. = keine Angabe; Alle Angaben ohne Gewähr

Page 34: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Hochverfügbarkeit

Speichernetze

New

sD

isk-

Sub

syst

eme

NAS-SystemeB

andl

aufw

erke

Virtu

alis

ieru

ng

Festplatten

Optical-Storage

DatenrettungMarktübersichten

Solid-State-Disk

Dis

k-B

acku

p

BandroboterStorage-Security

Storage-Hardware

SoH

o-N

AS

Big-Data

Backup/Recovery

Arc

hivi

erun

g

CloudStorage-Management

Specials

Man

agem

ent

Controller & Interfaces

Pro

duk

t-R

evie

ws

iSC

SI-S

AN

NA

S-S

yste

me

Aktuelle Storage-Meldungen und die neuesten Beiträge kompakt serviert auf

speicherguide.deUnser Newsletter erscheint immer Mittwochs und Freitags.

Storage-Newsletter

Hier abonnieren ›

KOSTENLOSER

Page 35: storage-magazin...kommen in Enterprise-Umgebungen nun einige wenige SSDs zum Einsatz, anstatt vieler rotierender HDDs. Und im All-Flash-Bereich stehen die vermeintlichen Storage-Leader

Eine Publikation von speicherguide.de Ausgabe 3-2014

35 Impressum

storage-magazin.de eine Publikation von speicherguide.de GbRKarl Fröhlich, Ulrike Haak, Engelbert HörmannsdorferAuf der Grün 8, D-83714 MiesbachTel. 080 25-51 79, Fax: 080 25-51 71E-Mail: [email protected]

Chefredaktion, Konzept:Karl Fröhlich (verantwortlich für den redaktionellen Inhalt)Tel. 089-740 03 99, Fax: 089-740 03 98E-Mail: [email protected]

Redaktion: Karl Fröhlich, Engelbert Hörmannsdorfer, Ulrike Rieß

Schlussredaktion: Karl Fröhlich, Brigitte Scholz

Layout/Grafik:Uwe Klenner, Layout und Gestaltung, Rittsteiger Str. 104, 94036 Passau, Tel. 08 51-9 86 24 15www.layout-und-gestaltung.de

Titelbild: © iStockphoto.com, Chesky_W© iStockphoto.com, frankpetersCollage: Uwe Klenner

Mediaberatung: Claudia Hesse, Tel. +41 (0) 41 - 780 04 86E-Mail: [email protected]

Webkonzeption und Technik:Günther SchmidlehnerE-Mail: [email protected]

Urheberrecht: Alle in »storage-magazin.de« erschienenen Beiträge sind urheberrechtlich geschützt. Alle Rechte (Übersetzung, Zweitverwertung) vorbehalten. Reproduktion, gleich welcher Art, sowie elektronische Auswertungen nur mit schriftlicher Genehmigung der Redaktion. Aus der Veröffentlichung kann nicht geschlos-sen werden, dass die verwendeten Bezeich-nungen frei von gewerblichen Schutzrechten sind.

Haftung: Für den Fall, dass in »storage-magazin.de« unzutreffende Informationen oder Fehler enthalten sein sollten, kommt eine Haftung nur bei grober Fahrlässigkeit der Redaktion oder ihrer Mitarbeiter in Betracht.

Unser TeamKarl Fröhlich, Chefredakteur speicherguide.de

Engelbert Hörmannsdorfer, News-Editor speicherguide.de

Ulrike Rieß, Redaktion speicherguide.de

Claudia Hesse, Mediaberatungspeicherguide.de

Wir empfehlen zur vollständigen Funktionalität des eBooks »Acrobat Reader«, ab Version 9

Die nächste PDF-Ausgabe von storage-magazin.de erscheint voraussichtlich am 28.10.2014

mit dem Thema »Einkaufsführer Storage«.Newsletter-Abonnenten erhalten die neue Ausgabe jeweils »linkfrisch«

an ihren Mail-Account. Registrieren Sie sich bitte hier.

Beachten Sie auch unser Archiv im Download-Bereich.