2-2011 storage-magazin · sen. Der Versatz hängt somit von der Stri-pe-Size des Arrays ab. In der...

19
storage-magazin.de Eine Publikation von speicherguide.de Ausgabe 2-2011 Tuning für SAN-Storage & Recoverys Special: Marktübersicht SLC-SSDs Mehr Performance für Speichersysteme

Transcript of 2-2011 storage-magazin · sen. Der Versatz hängt somit von der Stri-pe-Size des Arrays ab. In der...

  • storage-magazin.deEine Publikation von speicherguide.de

    Ausgabe 2-2011

    Tuning für SAN-Storage & Recoverys

    Special:

    Marktübersicht SLC-SSDs

    Mehr Performance für Speichersysteme

    http://www.storage-magazin.dehttp://www.speicherguide.de

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    2 Editorial

    InhaltEditorial� Seite�2

    DatenspeicherungPerformance-Tuning�für��SAN-Speicher� Seite�3

    AdvertorialAuf�drei�Ebenen�zu�mehr��Storage-Leistung� Seite�6

    Schneller�Speicher�dank��Solid-State-Disk� Seite�8

    DatenspeicherungSSDs�–�Vorteile�überwiegen��eindeutig�� Seite�10

    Storage-InfrastrukturHochgeschwindigkeits-Ethernet��forciert�Netzwerkkonvergenz� Seite�13

    AdvertorialFünf�Tipps�für�schlanke��Primärspeicher� Seite�15

    DatensicherungRecoverys�fix�und�flink�mit��Bare-Metal-Recovery� Seite�17

    Impressum� Seite�19

    Geschwindigkeit ein entscheidender IT-FaktorLiebe�Storage-Community,

    das�Datenwachstum�ist�ein�gern�genommenes�Argument,�um�neue�Speichersyste-me�zu�rechtfertigen.�Mittlerweile�gibt�es�jedoch�sinnvolle�Mechanismen�wie�Dedup,�Thin-Provisioning�oder�Virtualisierung,�die�den�Wildwuchs�eindämmen.�Zum�Teil�we-nig�beachtet�wird�aber�das�sich�ändernde�Zugriffsprofil.�Die�Daten�sollen�nicht�nur�ständig�im�Zugriff�ste-hen,�sondern�auch�viel�besser�miteinander�verknüpft�sein.�Das�bedeutet,�auch�wenn�eventuell�der�Anteil�der�aktiven�Dateien�sinkt,�steigt�die�I/O-Last�weiter�an.

    Hier�gilt�es�gegenzusteuern.�Daher�gewinnt�die�Performance�von�Storage-Systemen�wieder�an�Bedeu-tung.�Bisher�war�es�ein�probates�Mittel�die�Anzahl�der�rotierenden�Spindeln,�sprich�Festplatten�zu�erhöhen.�Dies�ist�jedoch�auf�die�Dauer�weder�effizient�noch�bezahlbar,�geschweige�denn�zu�verwalten.�Die�Lösung:�Solid-State-Disks�(SSDs).�SSDs�überbieten�die�I/O-Leistung�von�Festplatten�um�ein�Vielfaches.�Zudem�ver-brauchen�sie�bei�weitem�weniger�Energie�und�benötigen�im�Vergleich�so�gut�wie�keine�Kühlleistung.�Noch�steckt�die�Technik�in�den�Kinderschuhen.�Nachdem�aber�die�ersten�Kinderkrankheiten�ausgemerzt�wurden,�sind�sie�für�Rechenzentren�eine�echte�Alternative.

    Lesen�Sie�mehr�zu�»Mehr�Performance�für�Speichersysteme«�in�der�aktuellen�Ausgabe�des�Storage-�Magazin�02/2011.�Selbstverständlich�begleitet�die�Redaktion�dieses�Thema�zudem�online�mit�neuen�Beiträgen.�Beachten�Sie�zudem�die�Erfahrungsberichte�im�Blog�»SSDs�im�Feldversuch«��auf�speicherguide.de.

    Ihr�Karl�Fröhlich,Chefredakteur�speicherguide.de

    Karl�Fröhlich,��Chefredakteur��speicherguide.de

    http://www.speicherguide.de/shortUrl.asp?id=951

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    3 Datenspeicherung

    Max Lessel

    Bevor sich ein Systemverwalter überhaupt daran macht, an den Performance-Schrau-ben seiner Infrastruktur zu drehen, muss er erst einmal wissen, was er möchte. Per-formance ist eben nicht gleich Perfor-mance. Bei Massenspeichern gibt es lei-der zwei Arten von Geschwindigkeit und häufig lässt sich das SAN nur auf eine der beiden optimieren.

    Megabytes gegen IOPsDer bekannteste Messwert bei Massen-speichern ist der Datendurchsatz, gemes-sen in MByte/s. Hier gilt es möglichst gro-ße Blöcke in möglichst kurzer Zeit zu

    verschieben. In der Praxis braucht jedoch die Minderheit der Applikationen eine maximale Bandbreite. Dazu zählen File-server, Videoschnitt und -Broadcast so-wie Backup-Prozesse via SAN.

    In der Mehrzahl der Fälle kommt es je-doch auf die IOPs/s an. Ein I/O-Paket be-schreibt dabei einen 8-KByte-Block, wie er bei Applikationen auf Datenbankbasis zum Einsatz kommt. Die IOPs/s beziffern die Zahl der 8-KByte-Pakete, welche pro Sekunde vom Server zum Storage wandern. Ein Exchange-Server für 100 Benutzer fordert in etwa 500 IOPs/s vom Storage. Dieser Wert beruht auf Praxiser-fahrung und basiert auf Exchange 2007 mit intensiven Benutzern – Anwendern,

    die das volle Programm mit E-Mails, Shared-Folders, Kalendern und Adressbü-chern verwenden. Die maximale Kapazi-tät einer einzelnen 1-GBit/s-Leitung be-trägt 10.000 IOPs/s.

    Eine nahezu unberechenbare Ausnah-me ist natürlich die Virtualisierung. Hier muss ein Speichersystem IOPs für virtuel-le SQL-Server ebenso zur Verfügung stel-len wie eine hohe Bandbreite für die Plat-tenzugriffe der virtuellen Maschinen.

    Flaschenhals FestplatteZweifellos spielt der Controller eines SAN-Speichersystems eine Rolle in Sachen Per-formance. In erster Linie kommt es jedoch auf die Platten und RAID-Gruppen an. Die nebenstehende Tabelle listet die groben Leistungsdaten aktueller Platten auf:

    Datendurchsatz versus I/O-Leistung

    Performance-Tuning für SAN-SpeicherDas neue SAN läuft oft überraschend langsamer als vom Hersteller versprochen. Ein paar kleine Einstellungsänderungen können wahre Wunder bewirken. Zudem gilt es festzulegen, ob der Datendurchsatz oder die I/O-Leistung höher zu gewichten ist.

    Performance-Werte aktueller Festplatten*Formfaktor Drehzahl MByte/s IOPs/s3,5-Zoll 15.000 170 2003,5-Zoll 10.000 150 1503,5-Zoll 7.200 100 1002,5-Zoll 15.000 140 2002,5-Zoll 10.000 110 1502,5-Zoll 7.200 90 1002,5-Zoll Flash 240 2.500* gerundet und basierend auf Herstellerangaben bei 24x7-zertifizierten Disks

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    4 Datenspeicherung

    Arrays aus mehreren Laufwerken stei-gern natürlich die Leistung. Ein Richtwert dessen, was ein RAID-System theoretisch leisten kann, lässt sich einfach berechnen: Platten abzüglich RAID-Verschnitt mal IOPs oder MByte/s. Ein Vier-Platten-RAID-5-Array mit 15k-SAS-Laufwerken (3,5-Zoll) liefert folglich 3 x 200 = 600 IOPs/s bei 3 x 170 = 510 MBytes/s. Ein Sechs-Platten-RAID-6-System mit 2,5-Zoll-SATA-Drives kommt auf 4 x 100 = 400 IOPs bei 4 x 90 = 360 MBytes/s. Allerdings gelten diese Wer-te erst einmal nur für Lesezugriffe.

    RAID: Strafe fürs SchreibenBeim Lesen sind alle RAID-Level gleich, da hier keine Paritätswerte errechnet, ge-schrieben oder verifiziert werden müssen. Anders sieht es beim Schreiben aus: Hier benötigt ein Array jeweils mehrere IOPs. Bei RAID 1 oder dem Verwandten RAID 10 braucht ein Schreibzugriff zwei IOPs. Das

    ist vergleichsweise günstig und schnell, das System verliert dabei aber 50 Prozent der Kapazität. RAID 5 und 6 verlieren we-niger Kapazität, dafür mehr Performance. RAID 5 braucht vier IOPs/s pro Schreiben. Bei RAID 6 hängt die »Penalty«, die Schreib-Strafe, vom verwendeten Controller ab. Ältere Modelle benötigen fünf bis sechs IOPs, moderne RAID-6-Implementierun-gen erreichen bereits die Geschwindig-keit von RAID 5 und schaffen das mit vier IOPs/s.

    Aus der Schreib/Lese-Rate der Anwen-dung kann nun jeder Verwalter errechnen, wie viele IOPs/s er von welcher Disk-Kon-figuration erhält. Eine Praxisregel legt nahe, dass alle Einsatzgebiete mit einem Verhältnis von 30/70 (30% Schreiben, 70% Lesen) oder besser (noch weniger Schreib-zugriffe) gut auf ein RAID-5- oder -6- Verband passen. Schreibintensive Appli-kationen mit 50/50 oder noch mehr

    Schreiboperationen sollten hingegen RAID-10-Gruppen verwenden.

    Die Schreib-Strafe klingt in der Theorie allerdings schlimmer, als sie in der Praxis zum Tragen kommt. Jedes SAN-Speicher-system verfügt über einen mehr oder we-niger voluminösen RAM-Cache. Dieser wiederum beherrscht Schreibzugriffe sehr gut. Alles was reinkommt geht erst einmal ins RAM und dann auf Disk – da kann auch ein simpler Controller kaum etwas falsch machen.

    Platten-Aufteilung: Abkehr von Klein-KleinViele Software-Anbieter listen »empfoh-lene« Plattenkonfigurationen auf. Da heißt es: Gespiegelte Laufwerke für die Daten-bank und ein physisch getrenntes Array für die Log-Partition. Die Empfehlung geht also hin zu mehreren kleinen Arrays. Bei der Umsetzung von Speicher-Projek-

    ten halten sich viele Service-Kräfte und Verwalter direkt an diese Vorgaben, um sich selbst aus der Schusslinie zu bringen, wenn irgendetwas nicht funktioniert.

    In der Praxis gilt die »Klein-Klein«-Rege-lung für Arrays als überholt und zu lang-sam. Richtig bleibt die Empfehlung ge-trennter virtueller Disks für Datenbanken und Log-Partitionen. Mehrere LUNs dür-fen sehr wohl auf einem einzigen physi-schen Array liegen, sofern es mehrere Da-tenpfade dorthin gibt und sich damit die Zugriffe parallelisieren lassen. Etliche vir-tuelle LUNs eines großen 12-Disk-Arrays werden immer schneller laufen als LUNs, die auf einigen getrennten 2-Platten-Spie-geln liegen.

    Während die physischen Arrays durch-aus sehr groß ausfallen dürfen, sollten die virtuellen Laufwerke im Gegenzug kleiner oder zumindest in größerer Zahl zur Ver-fügung stehen. Alle SAN-Technologien

    http://www.speicherguide.de/Magazin/DocStorage/tabid/282/Default.aspx

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    5 Datenspeicherung

    profitieren davon, wenn sich Zugriffe auf möglichst viele SAN-Leitungen verteilen lassen und damit die Last pro Datenver-bindung gering bleibt.

    Besonders bei virtualisierten Umgebun-gen kommt es gerne zum populären Feh-ler, dass der Verwalter auf einem SAN-Ar-ray lediglich ein einziges riesiges LUN (bei VMware mit VMFS) erstellt und darauf alle virtuellen Maschinen (VMs) sichert. Jedem Virtualisierungs-Host bleibt somit nur ein aktiver Datenpfad zu allen VM-Daten. Schließlich lassen sich Datenpakete eines Threads nicht auseinanderbrechen und

    parallel über mehrere Leitungen versen-den. Hier ist es auf jeden Fall besser und schneller, wenn den Virtualisierungs-Ser-vern mehrere Volumes zur Verfügung ste-hen und sie die VMs aufteilen können. Pro aktiver SAN-Verbindung zwischen Host und Storage sollte es mindestens eine LUN geben.

    Dateisysteme: Blöcke richtig ausrichtenRAID-Controller verteilen die Daten nicht auf Sektorebene (512 Bytes) sondern in größeren Blöcken von 16 bis 512 KBytes

    auf die Disks eines Arrays. Auch Dateisys-teme wie NTFS, ext3/4, xfs oder VMFS or-ganisieren sich in größeren Blöcken. Wenn die Blöcke des Dateisystems mit denen des RAID übereinstimmen, liefert das Ar-ray die bestmögliche Performance. Bei nicht ausgerichteten Blöcken jedoch überlappt ein Dateisystemblock über zwei Array-Blöcke, was mehr Array-Zugriffe als nötig verursacht. Viel schlimmer kann das Ganze unter Vmware werden. Hier liegt auf dem Array das VMFS-Dateisystem und darauf dann beispielsweise das NTFS-Dateisystem eines Windows-Gastes. Der Effekt kann sich dabei potenzieren: Ein NTFS-Zugriff verursacht zwei VMFS-Zu-griffe und die wiederum stolze vier Array-Zugriffe (siehe Grafik links).

    Ohne bewusstes Eingreifen wird es in der Praxis häufig zu einer Verschiebung der Blöcke und damit massiven Perfor-mance-Einbußen kommen. Schuld daran ist der unter x86 übliche Master-Boot-Be-reich jeder Platte. Der braucht 63 Sekto-ren und erst danach fängt das Dateisys-tem mit seiner größeren Block-Ordnung an. Das Array beginnt jedoch ab Sektor 0 mit gleichmäßigen Blöcken.

    Das »Alignment« – wie die Blockausrüs-tung genannt wird – muss daher über Tools des Datei- und Betriebssystems er-folgen. Bei Vmware/Linux übernimmt das

    Partition-Tool »fdisk« diese Aufgabe. Über die erweiterten Optionen verschiebt Fdisk den Anfang der ersten Partition auf den vorgegebenen Sektor. Ziel des Align-ments ist es, die erste Partition auf dem zweiten Block des Arrays beginnen zu las-sen. Der Versatz hängt somit von der Stri-pe-Size des Arrays ab.

    In der Praxis ist Sektor 8.192 als Partiti-onsanfang eine gute Wahl. Damit trifft das Dateisystem genau auf einen Array-Block, wenn das System Segmentgrößen von 16, 32, 64, 128, 256 oder auch 512 KByte verwendet.

    Bei Vmware muss dann auch jedes Gast-system seine Partition anpassen. Ein Whitepaper über Alignments findet sich beispielsweise auf der Webseite von Vmware.

    Eine manuelle Anpassung sollte bei Vm-ware, Windows 2003 und Linux erfolgen. Laut Microsoft passen sich GPT-Datenträ-ger unter Windows 2008 automatisch an.

    FazitBereits bei der Grundkonfiguration eines Arrays kann der Anwender – in gutem Glauben – viele Fehler begehen und da-mit die Speicher-Performance verringern. Oftmals wirken sich auch die gut gemein-ten Array-Vorgaben von Software-Herstel-lern in der Praxis negativ aus. K

    MBR Block Block Block

    MBR Block Block Block

    VMFS

    VM NTFS

    SAN-Speicher mit Vmware ohneAlignment Access

    Block Block Block BlockArray

    MBR Block Block

    SAN-Speicher mit Vmware mitAlignment Access

    Block Block Block Block

    MBR Block Block Block

    MBR Block Block

    Array

    VMFS

    VM NTFS

    Grafik: speicherguide.de

    Ausgerichtete Blöcke ergeben die

    bestmögliche Performance. Sich

    überlappende Blöcke verursachen

    zusätzliche Array-Zugriffe.

    http://www.vmware.com/vmtn/resources/608http://www.vmware.com/vmtn/resources/608

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    6 Advertorial

    Foto

    : Hew

    lett

    -Pac

    kard

    Das Blade-System »StorageWorks P4800 G2« ist mit 140 SAS-Festplatten mit jeweils 450 GByte und 15.000 U/min ausgestattet.

    Peter Gottwalz, Hewlett-Packard

    Die Infrastruktur der Rechenzentren hat sich in relativ kurzer Zeit stark gewandelt. Server-Virtualisierung, Cluster-Konfigura-tionen sowie veränderte Zugriffs- und Ver-linkungsmuster von Informationen for-dern eine schnelle Speicher-Performance. Hinzu kommt der Kostendruck, mit den derzeit existierenden Technologien das Optimum aus einer Storage-Lösung her-auszuholen. Es gibt drei Wege bzw. Ebe-nen, auf denen sich eine Leistungssteige-rung erreichen lässt. Der technologische, der konzeptionelle sowie der organisato-rische oder auch Datenmanagement-An-satz. Natürlich ist ebenso eine Kombina-tion möglich, aber bereits jeder einzelne Ansatz hebt das Leistungsprofil.

    Die Technologie-EbeneAuf Technologie-Seite wird die Backend- oder Storage-Virtualisierung seit Jahren angewendet. Dabei trennt man sich von den physikalischen Beschränkungen der einzelnen Platte und verteilt die Daten auf alle verfügbaren Laufwerke, die einen Speicher-Pool bilden. Diese Technologie findet sich beispielsweise in den Systemen »EVA«, von Hewlett-Packard (HP) sowie in 3Par- und LeftHand-Modellen. Um die-se Leistungssteigerung noch zu erhöhen, kann sich der Anwender heute auch von der einschränkenden drehenden Physik einer herkömmlichen Festplatte trennen. Durch den Einsatz von Solid-State-Disks (SDDs) erreichen Speichergeräte eine Ver-vielfachung der I/O-Leistung (Faktor 20 bis 50). SSDs sind zwar teurer, werden aber

    dementsprechend nicht flächendeckend, sondern nur als zusätzliche Speicherstu-fe eingesetzt. Zudem wäre es falsch, das Preis-Leistungs-Verhältnis nach dem be-kannten Euro/TByte-Prinzip zu bewerten. Betrachtet man stattdessen die I/O-Leis-tung im Verhältnis zum Preis, so zeigt sich auch die SSD effizient.

    Durch die SSD gibt es nun den so ge-nannten Tier-0. Tiers sind Speicherklassen, auf denen sich die Daten entsprechend ihrer Zugriffe und Leistungsanforderun-gen speichern lassen. »Smart Tiering« bringt Performance-Verbesserungen, in-dem die Datenblöcke einer LUN stets ent-sprechend ihrer Zugriffshäufigkeit analy-siert und dann automatisch zwischen den unterschiedlichen Speicherklassen – also Plattentypen – transferiert werden. Durch den Einsatz dieser Methode entsteht so-mit eine intelligente, automatisierte Ge-schwindigkeits-Optimierung, die den Be-triebsaufwand des Speichers signifikant reduziert und eine Maximierung der I/Os sicherstellt. So werden zum Beispiel häu-fig genutzte Daten automatisch auf SSDs gelegt, weniger oft benötigte auf eine

    SAS-Platte mit 15.000 U/min und Online-Archivdaten auf eine hochkapazitive SATA-Disk mit 7.200 U/min. In der HP »X9500« ist diese Funktionalität als Smart-Tiering und im HP/3PAR-Umfeld als »Au-tonomic Tiering« bekannt.

    Darüber hinaus bringen optimierte Quality-of-Service-Einstellungen (QoS) eine Verbesserung der Performance. HP bietet hierfür seinen »Application Perfor-mance Extender« (APEX). Damit lassen sich QoS-Einstellungen für Server/Sto-rage-Latenzzeiten, Durchsatz und Sche-duling-Zeiten für Applikationen festlegen. Dadurch können die Unternehmen bei-spielsweise unternehmenskritischen SAP-Anwendungen eine höhere Priorität mit

    Performance-Optimierung durch Technologie, Konzept und Verwaltung

    Auf drei Ebenen zu mehr Storage-LeistungVeränderte IT-Umgebungen treiben die Leistungsanfor-derungen an Speichersysteme nach oben. Um die Geschwin-digkeit dementsprechend zu steigern, anzupassen und skalierbar zu halten, sieht Hewlett-Packard grundsätzlich drei Ansätze: technologisch, konzeptionell und organisatorisch.

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    7 Advertorial

    einem definierten Antwortverhalten einräumen als weniger kritischen Anwen-dungen. Auf der Grundlage der Latenz-zeiten und Durchsatzraten auf der Ser ver-Seite werden verschiedene »P9500«-Parameter zur Performance-Op-timierung angepasst, um gemäß der selbst definierbaren SLAs (Service-Level-Agreements) bestimmte Applikationen zu priorisieren. Weniger wichtige Program-me erhalten eine reduzierte Performance. Die Anpassung der I/O-Rate an die Appli-kation ist zeitlich einstellbar. So sind beispielweise tagsüber wichtige OLTP- Anwendungen gemäß definierter Latenz-zeiten zu beschleunigen, nachts können die Durchsatzraten von Backup-Zugriffen optimiert werden. APEX erlaubt damit eine Priorisierung der Datenzugriffe und Speicheroperationen der Applikationen. Andere Speichersysteme legen die QoS-Definitionen für einen gesamten Speicher-bereich oder eine logische Einheit (LUNs) fest. Die dynamische Abstimmung mit den Applikationen in Abhängigkeit von Durchsatz und Latenzzeiten ist dabei nicht vorhanden.

    Die konzeptionelle EbeneAuf konzeptioneller Ebene lassen sich die Leistungssteigerungen über die Definiti-on der Speicherarchitekturen und opti-

    mierte Backup- und Recovery-Prozesse re-alisieren. Bei den Architekturen gibt es die Scale-Out- und die Scale-Up-Konfigurati-on. Scale-Up ist monolithisch und skaliert meist über die Plattenanzahl, Größe des Caches und Anzahl der Storage-Control-ler wie beispielsweise in der P9500. Wer gleichzeitig Performance und Kapazität steigern will, kann über Scale-Out- oder Grid-Architekturen nachdenken. Grid-ba-sierte Speicher skalieren über die Anzahl der Nodes. Jede Node fügt nicht nur wei-teren Speicherplatz, sondern auch Prozes-sorkraft und Connectifity hinzu. Solche Ar-chitekturen eignen sich besonders für Umgebungen, deren Wachstum schwer einzuschätzen ist. Lösungen sind zum Bei-spiel die »P4000«-Serie (Lefthand) von HP oder 3Par-Systeme.

    Auch File-basierende Umgebungen müssen nicht auf die Vorteile von Scale-Out verzichten. Dafür steht das »X9000« zur Verfügung – eine Kombination aus »ProLiant«-Server und Festplatten. Das Modell fungiert als ein File-Service-Layer vor dem Speicher, der auch blockbasie-rend sein kann. Die Vorteile der Scale-Out-Architektur sind, dass sich durch die auto-matische und intelligente Verteilung der Daten über alle Nodes eine nahezu linea-re Skalierbarkeit der Files-Services bis in den PByte-Bereich sicherstellen lässt. Die

    kompletten File-Daten werden in einem »Single Name Space« verwaltet. Erweite-rungen und Daten-Mangement-Aktivitä-ten erfolgen Online und ohne Ausfallzeit. Somit liefert auch eine Scale-Out-Architektur auf Basis HP/X9000 IT- Abteilungen einen skalierbaren, schnel-len und verfügbaren File-Service-Dienst.

    Des Weiteren kann der IT-Verantwortli-che seine Backup- und Recovery- Prozesse so optimieren, dass sie die Per-formance-Verbesserungen für den Online-Bereich stützen. So zum Beispiel durch Disk-Backup. Dabei geht es darum Laufzeiten zu reduzieren, indem platten-basierte Caches in den Sicherungsprozess integriert werden. Mögliche Methoden hierzu sind HP »DataProtector Advanced Backup to Disk« (Backup erfolgt in erster Stufe auf Platte, nicht auf Tape), oder eine Virtual-Tape-Library (VTL).

    Die Datenmanagement-EbeneNicht zuletzt lässt sich die Performance der Speicherumgebung auch durch orga-nisatorische Maßnahmen, sprich über das Datenmanagement verbessern. Im Fokus stehen hier vor allem unstrukturierte Da-ten. Mit einer intelligenten Datenverwal-tung entlasten IT-Manager den Online-Speicher von weniger genutzten Daten und erhöhen somit die Performance. Das

    kann beispielsweise durch eine Kategori-sierung der Informationen und durch ein automatisiertes Management nach Kate-gorie geschehen, zum Beispiel nach Da-tentyp. Einen Lösungsansatz zeigt die HP-Software »Windows Storage Server FCI«, die zunächst eine logische Sicht der Din-ge bietet und dank des integrierten Ana-lyse-Tools die Daten automatisch verla-gert. Da oftmals bis zu 70 Prozent an Datenaltlasten im Primärspeicher liegen, bedeutet das Verlagern einen enormen Performance-Boost mit wenigen Mitteln. Nutzt man die Möglichkeiten der Spei-chertechnologien, der Architektur und der Datenmanagement-Prozesse lässt sich eine in Bezug auf Kosten, Perfor-mance, Skalierbarkeit und Betrieb opti-mierte Speicherlandschaft etablieren, die heutigen und zukünftigen Anforderun-gen gerecht wird. K

    Hewlett-Packard GmbHHerrenberger Straße 130D-71034 BöblingenTel.: +49 (0) 7031 - 14-0Fax: +49 (0) 7031 - 14-2999http://welcome.hp.com/country/de/de/smb/storage.html

    Weitere Informationen

    http://welcome.hp.com/country/de/de/smb/storage.html

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    8 Advertorial

    Robert Guzek, Fujitsu

    Mit seiner etablierten Produktpalette der »ETERNUS«-Systeme erfüllt Fujitsu alle Anforderungen der heutigen IT. Die Plat-tenspeicher bieten zuverlässige und si-chere Datenspeicherung: Vom Online-Backup bis zu geschäftskritischen Anwendungen liefern »ETERNUS DX60«, »DX80« und »DX90« schnell zugängliche und hochverfügbare Daten. Für Midran-ge- und Enterprise-Kunden, die eine si-chere und flexible Integration in ihr Re-chenzentrum wünschen, bietet Fujitsu die Eternus-Serien »DX400« und »DX8000«.

    Die gesamte Storage-Familie nutzt das gleiche Software-Paket und dieselben Funktionen, um Anwendern höchstmög-

    liche Benutzerfreundlichkeit und Effizienz zu bieten. Diese Generation von RAID-Sys-temen setzt neue Standards im Hinblick auf Qualität, Zuverlässigkeit, Innovation und Leistung. Die Eternus DX440 ist bei-spielsweise das schnellste Midrange-Sys-tem, das derzeit auf dem Markt ist. Dies hat der SPC-1-Test ermittelt (siehe SPC-Webseite).

    Um mit dem Wachstum und der Kom-plexität der sich ständig verändernden Speicheranforderungen Schritt zu halten, bietet Eternus DX400/DX8000 eine Kom-bination aus hochentwickelten Funktio-nen. Dazu gehören Data-Block-Guard, Data-Encryption, Redundant-Copy, RAID-Migration, Thin-Provisioning mit Midran-ge- und Enterprise-Systemen, Eco-Mode

    mit MAID-Technologie (»drive spin down«), »AdvancedCopy-Manager« (ACM) und Storage-Cruiser (SC).

    Mehr Flexibilität und Performance durch SSDDie Eternus-Familie eignet sich für einen Mischbetrieb unterschiedlicher Festplat-ten innerhalb eines Disk-Drawer. So lassen sich SSDs, Fibre-Channel- und SATA-Laufwerke nutzen. Diese Option er-möglicht eine größtmögliche Flexibilität bei der Planung sowie bei der Bestückung der Gehäuse. Auf diese Weise können Da-ten in Abhängigkeit vom geforderten Ser-vice-Level auf dem geeigneten Medium gespeichert werden, um die Anforderun-gen hinsichtlich Kosten, Geschwindigkeit,

    Zugriffszeit, Lebensdauer und leichter Be-dienbarkeit genau zu erfüllen.

    Meist werden im Rechenzentrum Leis-tungssteigerungen durch den Einsatz von mehr Hardware erzielt, die dann in den häufigsten Fällen gar nicht ausgelastet wird. Die Daten werden gespiegelt und über viele Festplatten verteilt. Auf diese Weise lassen sich die Zugriffe besser ver-teilen. Jedoch fallen bei dieser Methode nicht nur für die neue Hardware die An-schaffungskosten an, sondern auch Platz- und Energiebedarf für Betrieb und Küh-lung steigen.

    Durch die Einbindung performanterer Systeme sparen Unternehmen viel Geld. Fujitsu bietet über die Integration von SSD-Modulen in seine Eternus-Systeme eine Alternative zur Beschleunigung von ein- und ausgabeintensiven Anwendun-gen. SSDs verarbeiten intern mehrere Zu-griffe parallel und beschleunigen damit die Lesevorgänge. Für Unternehmen mit

    Maximale Geschwindigkeit und Kosteneffizienz

    Schneller Speicher dank Solid-State-DiskDas ständige Datenwachstum und ressourcenhungrige Anwendungen zählen zu den Herausforderungen der heutigen Geschäftswelt. Schnelle Speicherarchitekturen dank integrierter Disk-Technologien wie Solid-State-Disks (SSD) holen das Maximum aus dem Speicher heraus und helfen gleichzeitig, die Kosten in den Griff zu bekommen.

    Foto

    : Fuj

    itsu

    http://www.storageperformance.org/results/benchmark_results_spc1

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    9 Advertorial

    hohen Performance-Ansprüchen ist SSD die derzeit beste Lösung für mehr Leis-tung und niedrigeren Energieverbrauch. Auch preislich sind SSDs mittlerweile eine attraktive Alternative zu den herkömmli-chen Lösungen geworden.

    Sicherheit innerhalb und außerhalb des Rechenzentrums Auch wenn Datenverschlüsselung in vie-len Unternehmen nur eine nachrangige oder gar keine Bedeutung hat, gilt es be-stimmte Aspekte unbedingt zu berück-

    sichtigen. So werden alte ausgemusterte IT-Geräte häufig weiterverkauft oder ver-schrottet. In beiden Fällen sind die oft ver-traulichen Daten, die sich zu diesem Zeit-punkt noch auf den Laufwerken befinden, eine Sicherheitslücke. Um diese zu schlie-

    ßen, schützt die Eternus DX400/DX8000 vertrauliche Daten vor unerlaubtem Zu-griff durch Verschlüsselung, sobald Fest-platten aus dem System entfernt werden. Der unbefugte Zugriff auf vertrauliche Da-ten wird somit effektiv verhindert – auch nach Abschaltung des Speichers.

    Energieeffizienz als zentrale Anforderung im RechenzentrumDie Systeme Eternus DX400 und DX8000 zählen zu den energieeffizientesten Spei-chersystemen ihrer Klasse. Ihr Eco-Mode nutzt die MAID-Technik. Aktuell nicht be-nötigte Festplatten wie beispielsweise Platten, die für die tägliche Datensiche-rung am Abend eingesetzt werden, schal-tet das Gerät automatisch ab. Im norma-len Arbeitsbetrieb verbrauchen die Arrays daher weniger Energie. Zudem sinkt auch die Wärmeabstrahlung. Die Systeme leis-ten somit einen wesentlichen Beitrag zu einem »grünen« Rechenzentrum. K

    Fujitsu Eternus-DX-Familie im Detail

    Familien-Konzept Fujitsu Eternus-DX-Familie von Entry-Level bis zu Enterprise-Level

    K  Erleichtert die Administration: Kennt man ein Modell, kennt man die ganze Familie.K  Gleicher SW-Stack und HW-FunktionenK  Highend-Funktionen in Entry-Level- und Midrange-Modellen – ohne

    Highend-KostenPerformance und Kapazität Hohe Performance K  Gutes Preis-Leistungs-Verhältnis

    Skalierbarkeit K  Große Speicherkapazität zum Wachsen (SATA, FC und Enterprise-SSD mischbar im Shelf )

    Multi-Platform- Unterstützung

    Multi-Platform Unterstützung für Server und Operating-Systems

    K  Perfekt geeignet für heterogene Umgebungen

    Datenintegrität Data-Block-Guard K  Für maximale Datenintegrität im Cache auf der Festplatte und beim TransferK  Gewährleistet die Konsistenz aller gespeicherten Daten

    Datensicherheit Data-Encryption K  Schutz vertraulicher Daten K  Einfach und kosteneffizient

    Data-Protection und Verfügbarkeit

    Große Auswahl an schnellen Volume-Copy-Funktionen

    K  Hochverfügbarkeit und Business-ContinuityK  Disaster-Recovery-Szenarios

    Redundant-Copy K  Stellt Datenredundanz sicher und löst das Problem langer Wiederherstellungszeiten innerhalb einer RAID-Gruppe.

    Flexibles Management RAID-Migration K  Verschieben von Daten je nach Anforderung auf schnelle oder kostengünstige Platten

    K  Verwendung des passenden RAID-Levels Thin-Provisioning mit Midrange- und Enterprise-Systemen

    K  Virtualisierung der Speicherkapazität zur besseren Auslastung der Ressourcen ohne Unterbrechung des Geschäftsbetriebs.

    Green IT Eco-Mode mit MAID-Technologie (drive spin down)

    K  Einfache HandhabungK  Reduziert den Energieverbrauch und die Kosten

    Eternus SF AdvancedCopy-Manager (ACM), Storage-Cruiser (SC), Express

    K  Eternus SF reduziert TCO durch Management der Eternus-DX-Speicher. Eternus SF verwirklicht Business-Continuity und optimiert die Speicher-Ressourcen in komplexen IT-Umgebungen.

    Dynamic-Infrastructures Umfassendes IT- Portfolio (Server, Speicher, Netzwerk, Lösungen, Services und flexible Bereitstellungsmodelle)

    K  Optimierung der Infrastruktur des Kunden durch den Fokus auf die jeweiligen individuellen Bedürfnisse.

    K  Umfassender Blick auf das gesamte Rechenzentrum – zur Optimierung des Rechenzentrums und zur Unterstützung des Geschäfts des Kunden.

    Fujitsu Technology SolutionsHildesheimer Straße 25, 30880 Laatzen/HannoverTel.: +49 (0)511 - 84 89 10 40E-Mail: [email protected]://de.ts.fujitsu.com/storage

    Weitere Informationen

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    10 Datenspeicherung

    Karl Fröhlich

    Bei Power-Usern und in Rechenzentren haben sich Solid-State-Disks (SSDs) 2010 schnell etabliert. Noch haben sie nicht im Alltag Einzug gehalten und auch die An-bieter sind weit von einem Massenge-schäft entfernt. Erste Erfahrungsberichte deuten aber darauf hin, dass das Potenzi-al der Technik längst nicht erschlossen ist. Der Geschwindigkeitsgewinn ist jeden-falls enorm.

    Vor- und Nachteile der SSDKritiker – vor allem angestammte Festplat-ten-Hersteller – führen als Nachteil die ge-ringe Speicherkapazität, die begrenzten Schreibvorgänge sowie die noch hohen Anschaffungskosten an. Die angeblich li-mitierten Schreibzyklen sind heute jedoch

    kein Argument mehr (siehe Doc Storage). Labortests haben bereits Anfang 2010 er-geben, dass Enterprise-SSDs auch bei sehr schreiblastigen Anwendungen ebenso lange halten wie die bewährten FC-Lauf-werke. Intels »X25-M Postville«-Serie ist beispielsweise für eine MTBF von 1,2 Mil-lionen Stunden ausgelegt.

    Gegenüber herkömmlichen Festplatten sind SSDs in Punkto Preis und Kapazität im Nachteil. Aktuelle Mainstream-SSDs für den Einsatz in Desktop bzw. Notebook verfügen über 128 GByte (ab 170 Euro) oder weniger. Für ein 256-GByte-Drive müssen Interessenten derzeit ab 500 Euro veranschlagen. Es gibt aber auch TByte-Laufwerke: Die »Colossus OCZSSD2-1CLS1T« von OCZ Technology ist eine 3,5-Zoll-SSD für den 24x7-Betrieb mit ei-nem TByte. Laut Hersteller liest und

    schreibt sie mit jeweils 260 MByte/s, kos-tet allerdings zirka 2.500 Euro.

    SSDs mit 40 bis 60 GByte belaufen sich auf zirka 75 bis 100 Euro. Für ein schnelles Boot-Laufwerk ist dieser Preis fast schon akzeptabel. Experten bezweifeln jedoch,

    ob Anwender auf Dauer damit glücklich werden. Die SSD soll nämlich nicht voll be-schrieben werden. Der »c‘t«-Redaktion zu-folge ergeben sich mit einem halben Füll-stand die besten Ergebnisse. Mit dieser Vorgabe kommen eigentlich nur Laufwer-ke mit mindestens 128 GByte in Frage, vor allem in Notebooks. In einem Desktop-Rechner stellt eine zweite interne oder ex-terne Festplatte jederzeit genügend Spei-chervolumen parat. Bei mobil genutzten Notebooks ist es eher unpraktisch ständig seine Daten auf einer externen Platte mitzuführen.Enterprise-SSDs für den Einsatz in SpeichersystemenWährend man von Consumer-SSDs sehr viel liest und hört, blühen Enterprise-Pro-

    Produktivitätssteigerung rechtfertigt höhere Anschaffungskosten

    SSDs – Vorteile überwiegen eindeutigNoch lebt die Festplatte von ihrer enormen Kapazität zu relativ günstigen Preisen. Im Vergleich dazu sind SSDs immer noch immens teuer. Doch die Vorteile der neuen Speichertechnik summieren sich. Angesichts der gebotenen Leistung und der damit verbundenen Produktivitätssteigerung sind die höheren Anschaffungskosten mehr als gerechtfertigt.

    Foto

    : Ste

    c

    In der Praxis erreichen Enterprise-SSDs eine bis zu 20-fach höhere I/O-Leistung und verbrauchen zirka ein Drittel weniger Strom als FC-Festplatten.

    http://www.speicherguide.de/Magazin/DocStorage/tabid/282/articleType/ArticleView/articleId/13509/default.aspx

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    11 Datenspeicherung

    dukte im Verborgenen. Als OEM-Produ-zent beliefert aktuell STEC die Storage-Branche mehr oder weniger exklusiv. In der Regel kommen hier die Laufwerke der »ZeusIOPS«-Serie zum Einsatz, die es sonst nicht im freien Handel zu kaufen gibt. Her-stellerangaben zufolge erreichen die Drives bei einem wahlfreien Zugriff bis zu zirka 45.000 IOPS. Zum Vergleich: 15K-Festplatten liegen hier bestenfalls bei 200 bis 300 IOPS.

    2011 ist die Alleinherrschaft von Stec aber in akuter Gefahr. Ende letzten Jahres hat Hitachi GST die Reihe »Ultrastar SSD400S« mit SAS und FC-Anschluss an-gekündigt. Die Enterprise-Serie positio-

    niert der Hersteller als Alternative zu Fest-platten mit 15.000 U/min. Zum Einsatz kommen SLC-Flash-Chips, die im 34-nm-Prozess gefertigt wurden und mit bis zu 46.000 Lese- sowie 13.000 »Sustained«-Schreib-IOPS arbeiten sollen. Die SAS-Laufwerke erreichen eine Leserate von bis zu 535 MByte/s bzw. einen Schreib-Durch-satz von 500 MByte/s. Bei FC sind es 390 und 340 MByte/s Lese- bzw. Schreib-Per-formance. Die Serienproduktion wird aber erst im Laufe des ersten Halbjahres anlaufen.

    Gegen Ende des ersten Quartals soll da-gegen die Familie »MKxx01GRZB« von Toshiba erhältlich sein. Diese basiert auf SLC-Chips und ist für den Einsatz im Ser-ver-Umfeld oder in DAS- und NAS-Umge-bungen konzipiert. Sie bietet laut Herstel-lerangaben Datenübertragungsraten von 510 MByte/s (Lesen) bzw. 230 MByte/s (Schreiben) und einen Datendurchsatz von 90.000 IOPS bei Lese- und 17.000 bei Schreibvorgängen.

    Das Resultat der hohen Leistung sind neben schnellen Reaktionszeiten zur Da-tenverarbeitung bzw. -transaktion eine höhere Produktivität und Arbeitseffizienz. In der Praxis glänzen Enterprise-SSDs mit einer bis zu 20-fachen I/O-Leistung und verbrauchen zirka ein Drittel weniger Strom als FC-Platten. Zudem geben sie

    dementsprechend weniger Wärme ab und bedürfen eines weitaus geringeren Kühlaufwands, was sich ebenfalls auf das Energiesparkonto addiert.

    SLC hochwertiger als MLCIm Rechenzentrum sind SSDs mit SLC-Flash-Chips (Single-Level-Cells) die erste Wahl. Sie gelten als hochwertiger, zuver-lässiger und schneller als MLC (Multi-Le-vel-Cell). Im Gegensatz zu SLC, die ein Bit pro Zelle abspeichern, sind MLC-Chips in der Lage, zwei Bit pro Speicherzelle abzu-legen. Ermöglicht wird dies durch die un-terschiedliche Struktur der NAND-Baustei-ne. Mit MLCs lässt sich die doppelte Informationsdichte auf gleicher Fläche unterbringen. Auf Grund des geringeren Abstands zum Schwellenwert sind MLCs aber auch fehleranfälliger. Deshalb ist eine zusätzliche Fehlerkorrektur nötig. Insge-samt führt dies zu einer langsameren Ab-arbeitung des Speicherinhalts. Das schnel-lere Auslesen von SLC-SSDs macht sich vor allem bei I/O-kritischen Workloads wie in Datenbanken positiv bemerkbar.

    Samsung versucht trotzdem mit MLC-Laufwerken in Storage-Systemen Fuß zu fassen. Die kürzlich angekündigte neue »470«-Serie soll mit 43.000 IOPs beim Le-sen und 11.000 IOPS beim Schreiben ei-nen Kompromiss in Punkto Preis/Leistung

    bieten. Die 256-GByte-Variante ist im In-ternet bereits ab knapp 600 Euro erhält-lich. In Enterprise-Systemen sehen Exper-ten die Samsung-Produkte nicht. Für Disk-Arrays der Einstiegsklasse könnten sie jedoch eine sinnvolle Geschwindig-keitserweiterung sein.

    RAID auch mit SSDs unerlässlichAuch wenn SSDs deutlich robuster sind als Festplatten und mittlerweile nahezu identische MTBF-Zeiten vorweisen, ein Ausfall hat unweigerlich einen Datenver-lust zur Folge. Daher empfiehlt sich in Ser-vern und Arrays der Einsatz einer RAID-5-Anordnung. Der Geschwindigkeitsvorteil von RAID 1 fällt bei den Leistungswerten von SSDs nicht ins Gewicht und ein RAID 6 ist wegen der Zuverlässigkeit von SSDs nicht notwendig.

    Mehr Wettbewerb: SSDs bald günstigerAuf Grund des steigenden Wettbewerbs dürfte 2011 viel Bewegung in den Markt kommen. Im Consumer-Umfeld sind alle namhaften Speicherproduzenten mit ei-genen Produkten vertreten. Momentan übersteigt die Nachfrage immer noch das Angebot. Sobald sich aber hier ein ausge-glichenes Verhältnis einpendelt, greifen die üblichen Marktmechanismen. K

    + mehr als 3x schnellere Lese/Schreib-Geschwindigkeit als HDDs

    + mehr als 17x schnellere Zugriffsge-schwindigkeit als HDDs

    + keine beweglichen Mechanikbauteile

    + 25x stoßfester im Betrieb+ geringerer Energieverbrauch+ geringerer Kühlaufwand nötig+ bis zu 50% leichter als HDDs+ geräuschloser Betrieb

    - begrenzte Speicherkapazität- ungünstiges Preis/GByte-Verhältnis

    Vor- und Nachteile einer SSD

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    8 Datenspeicherung

    Hersteller Produktname Kapazität in GByte

    Speicher-typ

    Schnittstelle Formfaktor in Zoll

    Transfer Lesen in MByte/s

    Transfer Schreiben in MByte/s

    Besonderheiten Preis in Euro

    Adaptec MaxIQ SSD Kit 32GB 32 SLC SATA II 2,5 250 170 MTBF: 2 Mio. Stunden, schockres. bis: 1.000 G, vibrationsres. bis: 3 G 952MaxIQ SSD Kit 64GB 64 SLC SATA II 2,5 250 170 1.319

    Fujitsu S26361-F3298-L32 32 SLC SATA II 2,5 k.A. k.A. k.A. 698S26361-F3998-L64 64 SLC SATA II 2,5 k.A. k.A. k.A. 1.319

    Hewlett-Packard NW778AA 64 SLC SATA II 2,5 250 170 k.A. 1.120Intel X25-E 32 SLC SATA II 2,5 250 170 MTBF: 2 Mio. Stunden 319

    X25-E 64 SLC SATA II 2,5 250 170 MTBF: 2 Mio. Stunden 616Innodisk SSD SATA 6000 Standard 32 SLC SATA II 2,5 60 40 MTBF: 3 Mio. Stunden 450

    SSD SATA 6000 Standard 64 SLC SATA II 2,5 60 40 MTBF: 3 Mio. Stunden 845SSD SATA 6000 Standard 128 SLC SATA II 2,5 60 40 MTBF: 3 Mio. Stunden 2.090SSD SATA 6000 Extended 32 SLC SATA II 2,5 60 40 MTBF: 3 Mio. Stunden 521SSD SATA 6000 Extended 64 SLC SATA II 2,5 60 40 MTBF: 3 Mio. Stunden 972SSD SATA 6000 Extended 128 SLC SATA II 2,5 60 40 MTBF: 3 Mio. Stunden 2.404SSD SATA 10000 Standard 64 SLC SATA II 2,5 160 140 MTBF: 4 Mio. Stunden, schockres. bis: 1.500 G, vibrationsres. bis: 20 G 890SSD SATA 10000 Standard 32 SLC SATA II 2,5 160 140 MTBF: 4 Mio. Stunden, schockres. bis: 1.500 G, vibrationsres. bis: 20 G 474SSD SATA 10000 Standard 64 SLC SATA II 2,5 160 140 MTBF: 4 Mio. Stunden, schockres. bis: 1.500 G, vibrationsres. bis: 20 G 890SSD SATA 10000 Standard 128 SLC SATA II 2,5 160 140 MTBF: 4 Mio. Stunden, schockres. bis: 1.500 G, vibrationsres. bis: 20 G 2.200SSD SATA 10000 Extended 32 SLC SATA II 2,5 160 140 MTBF: 4 Mio. Stunden, schockres. bis: 1.500 G, vibrationsres. bis: 20 G 545SSD SATA 10000 Extended 64 SLC SATA II 2,5 160 140 MTBF: 4 Mio. Stunden, schockres. bis: 1.500 G, vibrationsres. bis: 20 G 1.023SSD SATA 10000 Extended 128 SLC SATA II 2,5 160 140 MTBF: 4 Mio. Stunden, schockres. bis: 1.500 G, vibrationsres. bis: 20 G 2.531SSD SATA 20000-R Standard 32 SLC SATA II 2,5 235 160 MTBF: 6,9 Mio. Stunden, schockres. bis: 1.500 G, vibrationsres. bis: 20 G 521SSD SATA 20000-R Standard 64 SLC SATA II 2,5 235 160 MTBF: 6,9 Mio. Stunden, schockres. bis: 1.500 G, vibrationsres. bis: 20 G 979SSD SATA 20000-R Standard 128 SLC SATA II 2,5 235 160 MTBF: 6,9 Mio. Stunden, schockres. bis: 1.500 G, vibrationsres. bis: 20 G 2.420

    Imation Pro 7500 32 SLC SATA II 3,5 130 120 MTBF: 1 Mio. Stunden 485Pro 7500 64 SLC SATA II 3,5 130 120 MTBF: 1 Mio. Stunden 906Pro 7500 128 SLC SATA II 3,5 130 120 MTBF: 1 Mio. Stunden 1.756

    Marktübersicht SLC-SSDs – (1/2)

    Quelle: speicherguide.de

    mehr ...

    Foto

    : Ste

    c

    Marktübersicht SLC-SSDs – (2/2)

    Hersteller Produktname Kapazität in GByte

    Speicher-typ

    Schnittstelle Formfaktor in Zoll

    Transfer Lesen in MByte/s

    Transfer Schreiben in MByte/s

    Besonderheiten Preis in Euro

    Imation S-Class 32 SLC SATA II 3,5 130 120 k.A. 473S-Class 64 SLC SATA II 3,5 130 120 k.A. 731S-Class 128 SLC SATA II 3,5 130 120 k.A. 1.485

    Kingston SSDNow E SNE125-S2/32GB 32 SLC SATA II 2,5 250 170 MTBF: 2 Mio. Stunden, schockres. bis: 1.000 G 319SSDNow E SNE125-S2/64GB 64 SLC SATA II 2,5 250 170 MTBF: 2 Mio. Stunden, schockres. bis: 1.000 G 617

    Mtron Pro 7525-032 32 SLC SATA II 2,5 130 120 MTBF: 1 Mio. Stunden 599Pro 7525-064 64 SLC SATA II 2,5 130 120 MTBF: 1 Mio. Stunden 841Pro 7525-128 128 SLC SATA II 2,5 130 120 MTBF: 1 Mio. Stunden 1.563Pro MSP-SATA7535-64 64 SLC SATA II 3,5 130 120 k.A. 865Pro MSP-SATA7535-128 128 SLC SATA II 3,5 130 120 k.A. 1.299

    OCZ Agility 2EX 50 SLC SATA II 2,5 285 275 MTBF: 2 Mio. Stunden, schockres. bis: 1.500 G, vibrationsres. bis: 20 G 625Vertex EX 60 SLC SATA II 2,5 260 200 MTBF: 1,5 Mio. Stunden, schockres. bis: 1.500 G 449Vertex EX 120 SLC SATA II 2,5 260 210 MTBF: 1,5 Mio. Stunden, schockres. bis: 1.500 G 1.145Vertex 2 EX 50 SLC SATA II 2,5 285 275 MTBF: 10 Mio. Stunden, schockres. bis: 1.500 G 795Vertex 2 EX 100 SLC SATA II 2,5 285 275 MTBF: 10 Mio. Stunden, schockres. bis: 1.500 G 1.409Vertex 2 EX 200 SLC SATA II 2,5 285 275 MTBF: 10 Mio. Stunden, schockres. bis: 1.500 G 3.113Z-Drive e84 256 SLC SATA II 2,5 800 750 MTBF: 900.000 Stunden, Cache: 256 MByte 3.999Z-Drive e84 512 SLC SATA II 2,5 800 750 MTBF: 900.000 Stunden, Cache: 256 MByte 8.889Z-Drive R2 e84 256 SLC SATA II 2,5 900 900 MTBF: 900.000 Stunden, Cache: 512 MByte 3.969Z-Drive R2 e88 512 SLC SATA II 2,5 1.400 1.400 MTBF: 900.000 Stunden, Cache: 512 MByte 8.794

    Samsung MCBQE32G8MPP 32 SLC SATA II 1,8 k.A. k.A. k.A. 273MCCOE64G8MPP-0VA 64 SLC SATA II 1,8 k.A. k.A. k.A. 399FlashSSD 2.5 SATA 32GB 32 SLC SATA II 2,5 130 76 k.A. 340MCCOE64G5MPP 64 SLC SATA II 2,5 100 80 MTBF: 2 Mio. Stunden, schockresisdent: 1.500 G, vibrationsresisdent: 20 G 611

    Stec Mach 16 IOPS 200 SLC SATA II 2,5 240 180 k.A. k.A.Solidata K5 SSD 32GB 32 SLC SATA II 2,5 250 200 MTBF: 2 Mio. Stunden, schockresisdent: 1.500 G, vibrationsresisdent: 20 G 159

    K5 SSD 64 GB 64 SLC SATA II 2,5 250 200 MTBF: 2 Mio. Stunden, schockresisdent: 1.500 G, vibrationsresisdent: 20 G 189Super Talent Ultradrive GX SLC 32GB 32 SLC SATA II 2,5 230 170 MTBF: 1 Mio. Stunden, schockresisdent: 1.500 G, vibrationsresisdent: 16 G 338

    Ultradrive GX SLC 64GB 64 SLC SATA II 2,5 230 170 MTBF: 1 Mio. Stunden, schockresisdent: 1.500 G, vibrationsresisdent: 16 G 551Ultradrive GX SLC 128GB 128 SLC SATA II 2,5 230 170 MTBF: 1 Mio. Stunden, schockresisdent: 1.500 G, vibrationsresisdent: 16 G 1.024Teradrive FT2 50 SLC SATA II PCIe-Karte 285 200 Sandforce SF-1500 922RAIDdrive WS 256GB 256 SLC SATA II PCIe-Karte 1.400 1.200 Intel IOP348 SAS 1,2 GHz 5.723

    Western Digital Silicondrive N1X 32 SLC SATA II 2,5 240 140 k.A. 199Silicondrive N1X 64 SLC SATA II 2,5 240 140 k.A. 478Silicondrive N1X 128 SLC SATA II 2,5 240 140 k.A. 1.536

    « zum Tabellenanfang

    Quelle: speicherguide.de

    http://www.adaptec.com/de-de/http://de.fujitsu.com/products/storagehttp://welcome.hp.com/country/de/de/smb/storage.htmlhttp://www.intel.dehttp://www.innodisk.comhttp://www.imation.com/en-eu/http://www.imation.com/en-eu/http://www.kingston.dehttp://www.mtron.net/English/Product/overview.asphttp://www.ocztechnology.com/products/solid_state_drives/http://www.samsung.com/eu/business/semiconductor/de/products/ssd/Products_ssd.htmlhttp://www.stec-inc.comhttp://www.solidatum.comhttp://www.supertalent.com/products/ssd.phphttp://www.wdc.com/de

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    13 Storage-Infrastruktur

    Rainer Huttenloher

    Viele Unternehmen haben in ihren Re-chenzentren und Serverräumen zwar noch Industrie-Standardserver mit 1-GbE-Netzwerkschnittstellen im Einsatz, doch es werden sehr viele dieser Systeme »pa-rallel« eingesetzt. Inzwischen verfügen die neueren Generationen der Industrie-Stan-dardserver bereits über Schnittstellen mit 10 GbE, denn diese Technologie wird zum einen deutlich günstiger. Zum anderen bringt der massive Einsatz der Server-Vir-tualisierung mit Lösungen von Citrix, Mi-crosoft oder VMware eine Änderung in der Serverkonfiguration mit sich: Deutlich

    mehr Arbeitsspeicher ist gefragt und zu-dem kommt ein steigender Bedarf an Ein/Ausgabe-Durchsatz ins Spiel, um die vie-len virtuellen Maschinen auf einem Host vernünftig betreuen zu können. Sind die Industrie-Standardserver weitgehend auf 10-GbE-Interfaces umgestellt, lässt sich nur mit einem Einsatz von 100 GbE das Übertragungspotenzial der Systeme ver-nünftig ausnutzen.

    In der Diskussion zu der nächsten Ether-net-Generation stellte sich heraus, dass eine Normierung von zwei Stufen sinnvoll ist: 40 und 100 Gigabit pro Sekunde (Gbit/s). Der Grund dafür ist in der ver-schieden schnellen Entwicklung im Be-

    reich der Core-Bandbreiten und der Über-tragungsbandbreiten der Server zu suchen: Im Bereich der Übertragungsra-ten für das Core-Netzwerk verdoppelt sich die Anforderung an die Übertragungsra-ten alle 18 Monate. Dagegen besagt »Moore’s Law«, dass sich die Entwicklung der Ein/Ausgabe-Leistung von Servern alle zwei Jahre verdoppelt. Daher bringt das günstigere 40 GbE im Bereich der Ser-veranschlüsse eine Zukunftssicherheit, wie sie in vielen – vor allem kleineren – Rechenzentren ausreicht. Wogegen die Core-Netzwerke schon 100 GbE benöti-gen. Schätzungen aus dem Umfeld der Standardisierungsbehörde IEEE gehen

    davon aus, dass die Server 100 GbE erst 2017 benötigen – daher auch die Idee mit dem Zwischenschritt auf 40 GbE. Denn das soll schon 2015 erforderlich sein.

    Beim Aufbau eines Netzwerks in einem Unternehmen sind zukunftsfähige Konfi-gurationen gefragt. Generell eignet sich die Regel, dass die Verkabelung möglichst für die aktuelle und zudem noch für die kommende Übertragungstechnologie passen soll. Hier gilt es mit wenig Ände-rungen und Investitionen auch kommen-de Transfertechniken abzudecken.

    Speziell bei 40 und 100 GbE einigte sich die Standardisierungsgruppe, dass die Ebenen »LLC« (Logical Link Control) und »MAC« (Media Access Control) gleich blei-ben. Für die MAC- und die übergeordne-te LLC-Ebene gibt es dabei keine Ände-rungen. Die Modifikationen betreffen die drei Sublayer:

    � »PCS« (Physical Coding Sublayer): Da-mit wird die physikalische Codierung abgehandelt.

    � »PMA« (Physical Media Attachment): Mit diesem Sublayer wird die Informa-

    40- und 100-Gbit-Ethernet lösen Netzwerk-Aggregation im Rechenzentrum ab

    Hochgeschwindigkeits-Ethernet forciert NetzwerkkonvergenzMit der Vorstellung der finalen Spezifikation durch das Standardisierungs-Gremium IEEE unter der Bezeichnung »P802.3ba« für 40- und 100-Gbit-Ethernet (40 und 100 GbE) im Verlauf des letzten Jahres hat sich das Umfeld für Hochgeschwindigkeitsübertragung geändert. Viele Unternehmen, die sich bislang noch mit der »Netzwerk Aggregation« behelfen mussten, stei-gen bei ihren Verkabelungen zumindest im RZ auf die schnelleren Gbit-Ethernet-Versionen um.

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    14 Storage-Infrastruktur

    Anz

    eige

    tion auf das Übertragungsmedium gegeben.

    � »PMD« (Physical Media Dependency): Die-ser Sublayer ist dafür verantwortlich, wie die Signale auf den verschiedenen Übertra-gungsmedien getrieben werden.

    Vom Prinzip her gibt es bei 40 GbE mehrere Möglichkeiten, um Informationen mit einer Rate von 40 Gbit/s zu übertragen: Dazu könn-te man viermal 10 Gbit/s pro »Lane« (also pro Leitung) übertragen. Dafür haben viele Kom-ponentenhersteller bereits Chips entworfen, die vier Kanäle zu je 10 Gbit/s abdecken. Will man dagegen auch das 40 GbE auf nur einer Lane übertragen, dann sind bereits zwei Im-plementierungen für den 40-GbE-Standard zu spezifizieren.

    Komplexer erweist sich dann die Angelegen-heit bei 100 GbE: Beim Start des Normierungs-projekts durch die IEEE war noch nicht abzu-sehen, wie die Verteilung auf verschiedene Leitungen aussehen wird, sprich wie die Sig-nale auf dem Medium zu treiben sind. Es gibt theoretisch fünf Optionen:

    � 1 x 100 Gbit/s � 2 x 50 Gbit/s � 4 x 25 Gbit/s � 5 x 20 Gbit/s � 10 x 10 Gbit/s Der Physical-Coding-Sublayer zeichnet für

    die Unterstützung der verschiedenen Skalie-rungsoptionen mit verantwortlich. Hier sind

    zum einen das Codieren der Datenbits und zum anderen das Zusammenfassen in Code-Gruppen zu finden, die letztendlich den seri-ellen Datenstrom bilden. Als Codierung kommt das 64B/66B-Verfahren zum Einsatz, das be-reits bei 10 GbE seine Eignung beweisen konn-

    te. Damit sich die Informationen, also die Code-Blöcke, über mehrere Leitungen vertei-len lassen, wird in vordefinierten Lane-Anzah-len die Verteilung nach einem Round-Robin-Verfahren abgewickelt. Dabei sind für 40 GbE bis zu vier Lanes vorgegeben. Dasselbe Prin-zip gilt auch für 100 GbE, allerdings sind dabei bis zu 20 PCS-Lanes vorgesehen. Im Empfangs-kanal des PCS-Sublayers wird zudem noch si-chergestellt, dass die Laufzeitunterschiede der einzelnen Code-Blöcke – auch als Skewing be-zeichnet – kompensiert werden. Dazu lassen sich bei der Übertragung in regelmäßigen Abstän den noch Markierungsinfos pro Leitung einbetten.

    Im PMA-Sublayer wird das Umstellen von der Anzahl der verwendeten Lanes und der Übertragungsrate pro Lane abgewickelt. Das ist nötig, um mehrere Spezifikationen für die physikalischen Ebenen zu bieten. Damit wird eine Abbildung von m Eingangs-Lanes zu n Ausgangs-Lanes erreicht, je nachdem wie vie-le man für seine Übertragungsstrecke braucht. Für 100 GbE ist zehnmal 10 Gbit/s heute Stand der Technik (etwa bei Multimode-Glasfasern, bei denen zehn parallele Pfade jeweils 10 Gbit/s übertragen: 100GBASE-SR10. Die Vari-ante mit viermal 25 Gbit/s ist die zweite gän-gige Verteilung, etwa bei einer Singlemode-Glasfaser, bei der vier Wellenlängen mit jeweils 25 Gbit/s zum Einsatz kommen (als 100GBA-SE-LR4 bezeichnet). �

    Die Architektur von 40 und 100 GbE: Der LLC- und der MAC-Layer bleiben unverändert.

    Que

    lle: F

    orce

    10

    Net

    wor

    ks

    http://www.speicherguide.de/Community/StorageBlog/tabid/66/articleType/CategoryView/categoryId/409/default.aspx

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    15 Advertorial

    Bild

    : Ate

    mpo

    Atempos Digital Archive lässt sich via Browser-Oberfläche per Drag-and-Drop bedienen.

    Matthias Hintenaus, Atempo

    »Weniger ist mehr« lautet das Motto fast aller IT-Abteilungen. Davon unbeein-druckt entwickelt sich der Speicherplatz-bedarf unaufhaltsam weiter, was die Un-ternehmen selbst in Krisenzeiten zu einem beispiellosen Kauf von Storage-Systemen veranlasste. Zwei Faktoren haben diese Entwicklung beeinflusst: Die Preise aller Arten von Speicher sind drastisch gesun-ken. Diese Entwicklung macht es einfach, Schritt für Schritt immer mehr Speicher im Server-Raum anzuhäufen, ohne an die langfristigen Folgen für das Speicherma-nagement zu denken.

    Gleichzeitig generieren und nutzen die Anwender immer größere Dateien. Die Konsequenzen:

    � Die Kosten für zusätzlichen Bedarf an Speicherplatz übersteigen bei Weitem die Kosteneinsparungen durch den Preisver-

    � Zunehmender Speicherplatzbedarf macht Vorhersagen zur Herausforderung: Die Kapazitäten sind in der Regel schnel-ler ausgelastet als prognostiziert.

    � Oft reichen die Nächte für das Backup nicht mehr aus, was die Netzwerk-Perfor-mance während der Arbeitszeit beein-trächtigt oder unvollständige Datensiche-rungen nach sich zieht.

    � Je länger der Backup-Lauf, desto länger dauert auch die Wiederherstellung der Daten. Das erhöht die Ausfallzeit und verursacht zeitweisen Produkti-vitätsstillstand.

    � Umso größer die Festplatte, desto langwieriger gestaltet sich die Suche nach bestimmten Dateien.

    � Speicherwildwuchs verschwendet Kosten und Energie. Zu jedem Watt für den Betrieb des Speichersystems gesellt sich ein weiteres Watt für die Kühlung.

    Archivierung entlastet den PrimärspeicherArchivierung – intelligent eingesetzt – trägt zur Entlastung des Primärspeichers bei. Doch welche Faktoren sollten Unter-nehmen beachten?1. Schritt: Automatisch archivierenArchivierungsregeln und automatische Archivierungsprozesse tragen zur Effizi-enz bei. Administratoren können vorab anhand von Parametern wie dem letzten Zugriff, dem Alter der Datei oder dem Da-tentyp festlegen, zu welchem Zeitpunkt die Daten archiviert werden sollen – und sogar unterschiedliche Kriterien für ver-schiedene Unternehmensbereiche anset-zen. Um die Daten schnell auffindbar zu machen, ersetzt Atempo »Digital Archi-ve« die Originale auf dem Primärspeicher durch so genannte Stubs auf dem Fileser-ver, dem Client-Computer oder dem pro-prietären NAS-Device, welche mit einem Link zum Archivspeicherplatz versehen sind. Ein Doppelklick im Datei-Browser ge-nügt, um die Datei wiederherzustellen. Die Automatismen lassen sich dabei ein-fach an sich ändernde unternehmensspe-zifische und technische Voraussetzungen anpassen.2. Schritt: Anwender an die MachtDer Urheber weiß am besten, welche Da-teien nicht mehr verändert werden und

    Intelligente Archivierung bietet dem Datenwachstum die Stirn

    Fünf Tipps für schlanke PrimärspeicherMit der Software »Digital Archive« beschleunigt Atempo die Arbeit mit und Pflege von elektronischen Unternehmensarchiven. Das Tool eliminiert Duplikate, spart dadurch Speicherplatz und erlaubt Anwendern selbst Dateien nach Firmenrichtlinien zu archivieren bzw. wiederherzustellen. Zudem ist die IT-Abteilung flexibel in der Wahl der Datenträger.

    fall bei Speichern. Die Ausgaben für die Storage-Struktur gehen deshalb weiter bergauf.

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    16 Advertorial

    deshalb ins Archiv gehören. Dafür müs-sen die Nutzer jedoch Inhalte selbst archi-vieren und wiederherstellen können. Die beste Voraussetzung ist eine Software wie Atempo Digital Archive mit einer Benut-zeroberfläche, bei der die Anwender mit-hilfe eines Browsers Dateien per Drag-and-Drop in private oder öffentliche Archivordner verschieben können. Über dieselbe Oberfläche können sie die Datei-en durch umfassende Suchfunktionen wiederfinden sowie Unterordner anlegen und umbenennen. Dabei werden dem An-wender sowohl die eigene Datei- als auch die Archivstruktur angezeigt. Um Unter-nehmensrichtlinien für Zugriffsrechte Rechnung zu tragen, sollten vorhandene LDAP (Lightweight Directory Access Pro-tocol) oder Active-Directorys in das Ar-chivsystem integriert werden.3. Schritt: Duplikate eliminierenEine einzige Präsentation mit zehn MByte kann in einem globalen Unternehmen in zehn-, hundert- oder tausendfacher Aus-führung vorhanden sein, falls sie jeder Mit-arbeiter einzeln speichert. Dieses Beispiel zeigt die Ausmaße, die Duplikate auf dem Primärspeicher annehmen können. Archi-vierungslösungen wie Digital Archive kön-nen mit Algorithmen doppelte Inhalte im Archiv erkennen und mit einem Pointer zur Originalversion ersetzen – so genann-

    tes Single-Instance-Storage. Darüber hin-aus lässt sich jedes Exemplar über seine Metadaten wie dem Autor, der primären Ablagestelle der Datei oder dem Erstel-lungsdatum suchen und wiederherstellen.4. Schritt: Archivierte Dateien leicht wiederfindenFür einen schnellen Datenzugriff sollten die Anwender in der Lage sein, die archi-vierten Daten auch ohne Kenntnis über ihren originären Ablageort wiederher-zustellen. Das wird bei der Digital- Archive-Software durch umfassende Such-funktionen möglich, die neben den Standardeigenschaften wie Dateiname oder Erstellungsdatum auch den Inhalt mit einbezieht. Darüber hinaus gibt das Atempo-Tool Anwendern die Möglichkeit, Metadaten-Tags für die Suche nach gan-zen Dokumentgruppen zu vergeben, zum Beispiel »Rechnungen 2011« oder »Ange-bote 2011«.5. Schritt: Flexible Wahl des Speicher-mediumsDie Wahl des Speichermediums beein-flusst die Leistungsfähigkeit und Kosten des Archivs. Administratoren sollten des-halb unbedingt darauf achten, dass die Archivierungs-Software ihnen im Hinblick auf den Speichertyp freie Hand lässt.

    � Tape ist für viele Unternehmen die erste Wahl: Das Angebot an Bandmedien

    ist groß, sie sind kostengünstig und ver-fügen über hohe Speicherkapazitäten. Diese zeichnen sich zwar durch eine La-tenz beim Schreiben aus, doch sie liefern eine hohe Performance vor allem bei gro-ßen Dateien.

    � Disk-Speicher eigenen sich vor allem als Archivmedium für Applikationen, die keine Latenz erlauben. MAID-Systeme (Massive Arrays of Idle Discs) sind eine leis-tungsfähige und energiesparendere Vari-ante zu traditionellen Disk-Arrays, da Lauf-werke sich nur dann drehen, wenn auf die darauf abgelegten Daten zugegriffen wird.

    � CAS (Content-Addressed-Storage) speichert Informationen nicht über ihren Ablageort, sondern über ihren Inhalt. CAS verfügt über eine strikte Datenzugriffs- und Änderungskontrolle - ideal für Unter-nehmen in regulierten Industrien.

    � Cloud-Storage liefert unbegrenzte Skalierbarkeit ohne Hardware-Investitio-nen und Administrations-Aufwand. Be-zahlt wird nur, was man wirklich braucht. Außerdem können die anfallenden Kos-ten durch das Pay-per-Use-Modell gege-benenfalls weiterberechnet oder einer be-stimmten Abteilung zugeordnet werden. Atempo Digital Archive ist derzeit die ein-zige Archivierungs-Software, die Cloud-Storage unterstützt.

    Darüber hinaus sollte die Archivierungs-Software eine Reihe von Hardware-Platt-formen und Betriebssystemen unterstüt-zen – Windows, Mac, Linux und Unix sind Pflicht. Mit Digital Archive ist es sogar möglich, verschiedene Dateien innerhalb derselben Umgebung auf unterschiedli-chen Speichermedien abzulegen, bei-spielsweise Videos auf Band und Ge-schäftsdokumente auf CAS.

    Durch intelligente Archivierung redu-zieren Unterneh men nicht nur die Kosten für Hard- und Software, sondern sparen auch Ener gie. Kürzere Backup-Läufe sor-gen dafür, dass wirklich alle Daten zuver-lässig gesichert werden. Außerdem führt das schnelle Finden und Wiederherstellen von Daten zu geringeren Ausfallzeiten und minimiert Produktivitätseinbußen. Archivierung wird damit zur Antwort auf den Anstieg von Kosten, Komplexität und Risiko, der mit erhöhtem Bedarf an Primär-speicher einhergeht. �

    Atempo Deutschland GmbHCuriestraße 2, 70563 StuttgartTel.: +49 (0) 711 - 67400 330, Fax: +49 (0) 711 - 67400 200E-Mail: [email protected]://de.atempo.com/

    Weitere Informationen

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    17 Datensicherung

    Ulrike Rieß

    Recoverys können nur so gut sein wie das davor angefertigte Backup. Kommt es zum Ausfall von Systemen, so muss der IT-Verantwortliche eben nicht nur einzelne Daten wieder dem Geschäftsbetrieb zur Verfügung stellen, sondern auch komplet-te Server oder Speichereinheiten. In einem solchen Fall fehlen neben den Da-teien auch Rechnereinstellungen, Be-triebssysteme oder Anwendungen, mit denen sich die wiederherzustellenden Da-ten bearbeiten oder lesen lassen.

    Bare-Metal-Recovery – Wieder-her stellen auf »nacktem Blech«»Bare Metal Recovery« (BMR) bedeutet die Rekonstruktion eines kompletten Systems auf Basis des nackten Blechs. Das heißt, BMR-Software sichert eine existierende Installation inklusive aller Einstellungen bzw. Anwendungen und macht diese Ko-pie installationsfähig auf einem anderen Rechner.

    Viele herkömmliche Backup-Produkte sichern Daten auf Bänder oder Festplat-ten, von denen ein schnelles Wiederher-stellen einzelner Dateien möglich ist. Schwieriger erweisen sich hier Recoverys ganzer Festplatten oder Volumes. Noch problematischer ist der Ausfall von Be-

    triebssystem oder Applikation, da diese meist nicht so zügig von Disk oder Tape rekonstruierbar sind. Beispielsweise kön-nen sich Schreib-I/Os während des Aus-falls im Cache der Platte oder des Control-lers befinden und verloren gehen, die durch ein Backup von Band sicher nicht rekonstruierbar sind.

    Bei älteren Backup-Lösungen musste der Administrator zunächst das kaputte System reparieren oder austauschen, da-nach das Betriebssystem neu installieren, booten und im Anschluss daran Einstel-lungen und Anwendungen neu einpfle-gen. Dieser Prozess ist zeitraubend, ganz abgesehen davon, dass der IT-Verantwort-liche erst dann einzelne Dateien zurück-spielen kann. Unternehmen verlieren hier

    ein bis zwei Tage an Zeit, bis der Betrieb wie im Urzustand wiederhergestellt ist. Mittlerweile können sich selbst kleinere und mittlere Firmen solche Ausfallzeiten nicht mehr leisten.

    Beim Bare-Metal-Recovery installiert der Administrator zunächst das Betriebssys-tem, danach die Backup-Software und kann dann seine Daten wiederherstellen. Anschließend muss er lediglich die Funk-tionalitäten einstellen, in dem er die Kon-figuration, Einstellungen und Rechte be-stätigt. Die dazu benötigten Daten wie ein bootbares Live-Betriebssystem, Applika-tionen oder Metadaten müssen zuvor als Image auf einem Sicherungsmedium ab-gespeichert sein. Gerade KMUs profitie-ren davon, in BMR-Lösungen zu investie-

    ren. Große Unternehmen leisten sich den Luxus des zweiten Rechenzentrums, eines Clusters oder eines Ausfallsystems mit exakt der gleichen Konfiguration und sämtlichen Anwendungen wie am Pro-duktionsort. Somit können sie bei Syste-mausfällen mittels Fernspiegelung auf Standort zwei zurückgreifen und mit der dortigen Umgebung arbeiten, während die Probleme am ersten Standort beho-ben werden können. Diese Lösung ist kostspielig und KMUs bleibt hier nur die Suche nach Alternativen. Unternehmen mit mittleren Umgebungen umgehen mit einer BMR-Software die Kosten der abso-luten Redundanz, ohne auf Sicherheit ih-rer Geschäftsprozesse verzichten zu müssen.

    Schnelle Datenwiederherstellung

    Recoverys fix und flink mit Bare-Metal-RecoveryBei Systemausfällen müssen in jeder IT-Umgebung nicht nur Dateien, sondern produktive Systeme, Einstellungen und Anwendungen oder virtuelle Maschinen schnell wieder im Zugriff sein. Ausfallzeiten sind überall unerwünscht. Reicht das Budget nicht für redundante Sekun-därsysteme und teure Schwenk-Konfigurationen, ist Bare-Metal-Recovery das Mittel der Wahl.

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    18 Datensicherung

    Schnelles Software-Recovery für MittelstandEin klassisches Umfeld für BMR-Lösungen sind Rechner, die vor allem auf Windows-, allerdings auch auf Linux- oder Unix-Ba-sis laufen. Eine solche Umgebung kann beispielsweise aus einem Rechnersystem mit zwölf Nutzern und einem Microsoft »Windows Server« bestehen. Im Backup befindet sich nur der Server, der mit den Workstations via LAN verbunden ist und Daten austauscht und sichert. Darüber hi-naus liegen unter anderem SQL- und Ex-change-Anwendungen auf diesem Server.

    Am Beispiel dieses Windows-Servers lässt sich erklären, wie eine solche Soft-ware arbeitet. Eine Installation besteht im-mer aus drei Bestandteilen, die zu sichern sind: erstens den auf jedem Windows-Host absolut gleichen Dateien, zweitens den auf jeder Installation angepassten bzw. hardwareabhängigen Dateien und drittens den installierten Anwendungen. Intelligente Recovery-Programme sichern nur die Punkte zwei und drei und weisen den Anwender darauf hin, dass zur Wie-derherstellung auch ein Datenträger mit dem Betriebssystem vonnöten ist. Man startet den neuen Rechner dann über eine CD oder DVD, die Betriebssystemdateien kopiert, die angepassten und hardwareab-

    hängigen Inhalte an den richtigen Platz stellt und die Anwendungen im installier-ten Zustand kopiert. Nun startet das Sys-tem neu und ist dann wieder wie im Sta-tus vor dem Desaster verfügbar. Eine weitere Voraussetzung dieser Vorgehens-

    weise ist, dass das Ersatzsystem möglichst nah an die technische Ausrüstung des Ausgangsrechners heranreicht. Nur mit derselben Grafik- und Soundkarte, dem-selben Platten-Controller und denselben Netzwerk- und SAN-Controllern lässt sich das System mit der beschriebenen Metho-de sofort wieder in Gang setzen. Falls eine oder mehrere Komponenten abweichen, kommt »Plug & Play« zum Tragen und zwingt nach der eigentlichen Recovery-

    Session zu Umkonfigurationen und damit auch zum ein- oder mehrfachen Neustart des Systems.

    Als Anbieter in diesem Markt tummeln sich unter anderem Firmen wie Acronis mit »Backup & Recovery 10«, BakBone mit »NetVault«, Cristie mit »CBMR«, EMC mit »HomeBase for NetWorker and Avamar«, gingcom mit »gcBMR«, Symantec mit »NetBackup« oder sonicWall mit »CDP Ba-re-Metal-Recovery Software«. Diese Tools bieten zahlreiche zusätzliche Funktiona-litäten zur Optimierung von Sicherungs-prozessen. Dazu gehört beispielsweise Deduplizierung oder Komprimierung der Daten. Auch die Unterstützung von ver-schiedenen Betriebssystemen wie AIX, HP-UX, Linux, Windows und Solaris sowie Snapshot-Funktionalität können dazu zählen.

    Günstige Alternative zu aufwendigem WiederherstellenWer sich gegen einen Crash und die da-mit verbundenen Ausfallzeiten bei klei-nen und mittleren Installationen schützen will, ohne gleich Zweitsysteme oder gar Cluster anschaffen zu müssen, der liegt bei den oben beschriebenen Anwendun-gen zur Wiederherstellung auf neuer Hardware richtig. Mühsame Installations-prozesse entfallen, das neue System kann

    die Produktion schnell wieder aufneh-men. Allerdings kann nicht oft genug auf die mit dieser Methode verbundenen Ge-fahren des I/O- und damit Datenverlust hingewiesen werden.

    Wer sich jedoch den Kopf nicht mehr über Bare-Metal-Recovery und die damit bedingten Einschränkungen und mögli-chen Inkonsistenzen zerbrechen will, für den gibt es seit einiger Zeit eine wesent-lich elegantere und weniger zeitrauben-de Methode der Wiederherstellung. Mi-crosoft, VMware und andere bieten virtualisierte Systeme an, auf die immer wieder gleiche Installationen vorgenom-men werden können. Die virtuellen Ma-schinen setzen entweder auf Windows oder Linux bzw. kommen mit einem eige-nen kleinen Programm, das deren Start ermöglicht. Sie simulieren immer die glei-che Hardware und lassen sich zwischen physisch getrennten Servern austauschen und bei Ausfällen somit auch auf beliebi-gen neuen Rechnern starten. Hiermit ent-fällt der Aufwand, den das Erstellen eines Bare-Metal-Images darstellt.

    Eines hat das Bare-Metal-Recovery mit allen anderen Wiederherstellungsarten gemeinsam: IT-Abteilungen sind gut be-raten das Verfahren ausgiebig zu testen, damit im Notfall keine bösen Überra-schungen entstehen. K

    Ein BMR-Tool hilft komplette Systeme nach einem Katastrophenfall binnen weniger Minuten wiederherzustellen.

    Gra

    fik: E

    MC/

    spei

    cher

    guid

    e.de

  • Eine Publikation von speicherguide.de Ausgabe 2-2011

    19 Impressum

    storage-magazin.de eine Publikation von speicherguide.de GbRKarl Fröhlich, Ulrike Haak, Engelbert HörmannsdorferAuf der Grün 8, D-83714 MiesbachTel. 080 25/51 79, Fax: 080 25/51 71E-Mail: [email protected]

    Chefredaktion, Konzept:Karl Fröhlich (verantwortlich für den redaktionellen Inhalt)Tel. 089/740 03 99, Fax: 089/740 03 98E-Mail: [email protected]

    Redaktion: Karl Fröhlich, Rainer Huttenloher, Max Lessel, Ulrike Rieß

    Schlussredaktion: Karl Fröhlich, Brigitte Scholz

    Layout/Grafik:Uwe Klenner, Layout und Gestaltung, Rittsteiger Str. 104, 94036 Passau, Tel. 08 51/9 86 24 15www.layout-und-gestaltung.de

    Titelbild: iStockphoto.de

    Mediaberatung: Claudia Hesse, Tel. 00 41 41/761 32 47E-Mail: [email protected]

    Webkonzeption und Technik:Günther SchmidlehnerE-Mail: [email protected]

    Urheberrecht: Alle in »storage-magazin.de« erschienenen Beiträge sind urheberrechtlich geschützt. Alle Rechte (Übersetzung, Zweitverwertung) vorbehalten. Reproduktion, gleich welcher Art, sowie elektronische Auswertungen nur mit schriftlicher Genehmigung der Redaktion. Aus der Veröffentlichung kann nicht geschlossen werden, dass die verwendeten Bezeichnungen frei von gewerblichen Schutzrechten sind.

    Haftung: Für den Fall, dass in »storage-magazin.de« unzutreffende Informationen oder Fehler enthalten sein sollten, kommt eine Haftung nur bei grober Fahrlässigkeit der Redaktion oder ihrer Mitarbeiter in Betracht.

    Die nächste PDF-Ausgabe von storage-magazin.de erscheint am 31. März 2011 mit dem Thema »bedarfsgerechte und flexible Speicher«.

    Newsletter-Abonnenten erhalten die neue Ausgabe jeweils »linkfrisch« an ihren Mail-Account. Registrieren Sie sich bitte hier.

    Beachten Sie auch unser Archiv im Download-Bereich.

    Unser Team

    Karl Fröhlich, Chefredakteur speicherguide.de

    Engelbert Hörmannsdorfer, News-Editor speicherguide.de

    Rainer Huttenloher, Chefredakteur virtualisierungs-guide.de

    Ulrike Rieß, Redaktion speicherguide.de

    Claudia Hesse, Mediaberatungspeicherguide.de

    Wir empfehlen zur vollständigen Funktionalität des eBooks »Acrobat Reader«, ab Version 9

    mailto:redaktion%40speicherguide.de?subject=mailto:redaktion%40speicherguide.de?subject=http://www.layout-und-gestaltung.demailto:media%40speicherguide.de%20?subject=mailto:webmaster%40speicherguide.de?subject=http://www.speicherguide.de/Service/Newsletter/tabid/64/Default.aspxhttp://www.speicherguide.de/Service/eBooks/tabid/304/Default.aspxhttp://get.adobe.com/de/reader/otherversions/

    TitelseiteInhalt / EditorialDatenspeicherung: Performance-Tuning für SAN-SpeicherAdvertorial: Auf drei Ebenen zu mehr Storage-LeistungAdvertorial: Schneller Speicher dank Solid-State-DiskDatenspeicherung: SSDs – Vorteile überwiegen eindeutigStorage-Infrastruktur: Hochgeschwindigkeits-Ethernet forciert NetzwerkkonvergenzAdvertorial: Fünf Tipps für schlanke PrimärspeicherDatensicherung: Recoverys fix und flink mit Bare-Metal-RecoveryImpressum