3-2012 storage-magazin

12
storage-magazin.de Eine Publikation von speicherguide.de Ausgabe 3-2012 Kostentreiber vermeiden Dynamische Verwaltung Efzient Speichern

Transcript of 3-2012 storage-magazin

storage-magazin.deEine Publikation von speicherguide.de

Ausgabe 3-2012

Kostentreiber vermeidenDynamische Verwaltung

Ef zient Speichern

Eine Publikation von speicherguide.de Ausgabe 3-2012

2 Editorial

Inhalt

Editorial Seite 2

Storage-Strategie

Mit weniger mehr erreichen Seite 3

Virtualisierung

Im Trend: virtuelle NAS/SAN-Lösungen Seite 4

Advertorial

NAS global vernetzen – aber lokal verwalten Seite 6

Datenspeicherung

Effizienz ohne Deduplizierung? Seite 8

Storage-Hardware

Virtueller SAN-Speicher Seite 10

Storage-Strategie

Strom bleibt einer der Kostentreiber Seite 11

Impressum Seite 12

Effizienz immer auch eine Kostenfrage

das Thema Effizienz kann man von verschiedenen Seiten aus betrachten und angehen. Drei wichtige Bausteine sind unter anderem die effiziente Ausnutzung vorhandener Ressourcen bzw. Kapazitäten, eine einfache und zentrali-sierte Verwaltung sowie ein optimaler Energieverbrauch. Die höchste Effizienz erreicht, wer diese drei Aspekte über-greifend auf Speicher, Netzwerk und Server anwendet. Wo-bei das Storage-Umfeld ein guter Ansatzpunkt ist.

Wer effizient arbeitet, macht sich im Prinzip das Leben leichter. In der Praxis sind Effizienz-Funktionen aber vor al-lem gleichbedeutend mit Kosteneinsparungen. Zwar pro-gnostizieren Marktforscher wie IDC ein Wachstum der IT-Ausgaben für 2012 um fünf Prozent. Diese reichen aber längst nicht aus, um das Datenwachstum und den aktuel-len Anforderungen an die IT gerecht zu werden.

Glücklich kann sein, wer den Energieverbrauch nicht in seinem Budget mit drin hat. Zwischen 2008 und 2012 sind in Deutschland die Stromkosten um zwölf Prozent gestie-gen. Im vergangenen Jahr mussten Rechenzentren in Deutschland 1,2 Milliarden Euro an Stromkosten berap-pen. Bis 2015 soll sich dieser Betrag um weitere 200 Milli-onen Euro erhöhen. Für Unternehmer ist diese Entwick-lung eine Enttäuschung. Zeigt doch die vor Jahren angeleierte Green-IT-Diskussion erfreuliche Ergebnisse.

Neue Speichersysteme und Server arbeiten heute mit einem spürbar reduzierten Energieverbrauch. Ne-ben dem Einsatz moderner Geräte, gilt es aber auch deren Anzahl ein-zuschränken.

Lesen Sie in unserem Special »Effizient Speichern« auch einige Ideen, abseits der bekannten Main-stream-Maßnahmen. So kann es auch ein Weg sein, nicht auf neue moderne und meist teure Techno-logie zu setzen, sondern sich mit Bordmitteln und im Ver-gleich preiswerteren Standardkomponenten zu behelfen. Auch stellen wir die Frage, ob es Sinn macht, mit verhält-nismäßig viel Aufwand Festplatten einzusparen, der mit-unter billigsten Ressource im Speichersystem.

Wie begegnen Sie dem Thema? Mit welchen Maßnah-men versuchen Sie Ihre IT-Landschaft effizienter zu gestal-ten? Wir sind wie immer sehr an Ihren persönlichen Fall-berichten interessiert.

Ihr Karl Fröhlich,Chefredakteur speicherguide.de

Karl Fröhlich, Chefredakteur speicherguide.de

Liebe Leserinnen und Leser,

Eine Publikation von speicherguide.de Ausgabe 3-2012

3 Storage-Strategie

Effizient speichern

Mit weniger mehr erreichenEffizienz definiert jeder IT-Manager anders. Grundsätzlich beschreibt es das Verhältnis zwischen einem definierten Nutzen und dem notwendigen Aufwand, dieses Ziel zu erreichen. Im Rechenzentrum geht es unter anderem darum, Ressourcen zu schonen sowie Leistung und Speicherplatz automatisiert und bedarfsgerecht parat zu halten.

Karl Fröhlich

Der Auftrag an die IT-Abteilung lautet: »Mit weniger mehr erreichen«. Klingt zu-nächst seltsam, ist aber durchaus möglich. Im Prinzip läuft alles darauf hinaus, Pro-zesse zu vereinfachen, Abläufe zu auto-matisieren und letztendlich mit effizien-ten Strukturen möglichst große Einsparungen zu erreichen. Einen Königs-weg gibt es nicht, denn Rechenzentren sind eine große Spielwiese und bieten ein breites Spektrum an Maßnahmen. Diese reichen von einer einfachen Konsolidie-rung, einer Verbesserung der Verwaltung bis hin zu einem effizienteren Arbeiten durch die Vermeidung von Ausfällen.

Effizient zu arbeiten bedeutet auch, für eine gleichmäßige Auslastung der Spei-chersysteme zu sorgen. »Active-Active-Controller mit Load-Balancing-Funktio-nen überwachen automatisch die

CPU-Auslastung der Controller und sorgen für einen Leistungsausgleich zwischen den Systemen«, erklärt Dr. Georgios Rimikis, Manager Solutions Strategy bei Hitachi Data Systems (HDS). »Dies stabilisiert die Belastung im Betrieb der beteiligten Server- und Storage-Systeme.« Bei HDS ist bei-spielsweise die »AMS2000« mit einem symmetrischen Active-Active-Controller aus gestattet und unterstützt einen auto-matischen Lastenausgleich.

Dynamic TieringDie »Dynamic Tiering«-Funktion migriert Daten automatisch und zwar dorthin, wo sie faktisch benötigt werden. »Diese Da-tenverschiebung ist automatisiert und sie erfolgt auf Page-Größe«, sagt HDS-Mana-ger Rimikis. »Sie bietet Unternehmen alle Optionen für eine automatische, kosten-effiziente Datenverwaltung über die ver-

schiedenen Speicherschichten hinweg. Während auf Tier 0 die ultraschnellen SSD-Speicher für den hochperformanten Zu-griff auf die ganz aktuellen Informationen sorgen, werden auf Tier 1 und 2 mit SAS-Platten mit unterschiedlichen Kapazitäts- und Leistungsmerkmalen weiterhin die preiswerteren Medien verwendet, für Da-ten, auf die nicht sehr oft zugegriffen wird.« Automatisch verschiebt dieser Me-chanismus die Daten dorthin, wo sie ge-braucht oder abgelegt werden sollen.

Dynamic ProvisioningDen technischen Standpunkt einmal au-ßen vor gelassen, stellt sich das Prinzip des »Dynamic Provisioning« alltagsprak-tisch recht einfach dar. Den Anwendun-gen wird sozusagen »vorgegaukelt«, dass ausreichend Kapazitäten zur Verfügung stehen. Tatsächlich steht nur das wirklich notwendige Volumen bereit. »Auf den

Punkt gebracht: Mehr Performance, we-niger Verwaltung, weniger Festplatten, weniger Stellplatz, weniger Strom/Küh-lung und Lizenzen«, beschreibt Rimikis die Vorteile der dynamischen Provisionie-rung. »So konnte beispielsweise die W&W Informatik bei kompletter Verfügbarkeit sämtlicher Applikationen das Speicher-wachstum um etwas mehr als 45 Prozent reduzieren. Statt 464 TByte wurden nur 248 TByte tatsächlich beschafft und installiert.«

Konsolidierung und Virtualisierung eng verbundenDer wichtigste Baustein für mehr Ökono-mie und um vorhandene Ressourcen op-timal zu nutzen, ist die Speichervirtuali-sierung. »In unserer realen Welt, die immer virtualisierter wird, ist Storage-Virtualisie-rung nach wie vor ein bedeutendes Fun-dament oder Instrument für die Bildung flexibler Speicher- und Cloud-Lösungen«, meint HDS-Manager Rimikis. »Nicht weil es schick ist. Es bringt echte Wirtschaft-lichkeit und gewährleistet langlebige und zukunftstaugliche IT-Prozesse im Unter-nehmen.« Eng damit verbunden ist auch die Konsolidierung. Anstelle mehrere ein-zelne Inseln zu unterhalten, agieren Un-ternehmen mit wenigen großen Syste-men deutlich effizienter. K

Eine Publikation von speicherguide.de Ausgabe 3-2012

4 Virtualisierung

Effizienz durch Abschaffung des SANs an sich

Im Trend: virtuelle NAS/SAN-LösungenSANs zählen nach wie vor zu den teuren und komplexen Hardware-Komponenten eines Rechenzentrums. Um Kosten und Verwaltungsaufwand zu minimieren, suchen Firmen nach effizienten Speichermethoden. Lösungsansätze gibt es viele verschiedene – bis hin zur Abschaffung des SANs an sich.

Max Lessel

Im direkten Vergleich zu den Anschaf-fungskosten eines SANs wirken die ei-gentlich arbeitenden Server geradezu bil-lig. Alleine für den Preis eines einzigen Fibre-Channel-Switches könnten Admi-nistratoren zwei moderat ausgerüstete x86-Rack-Server anschaffen. Daher ist es im Interesse der IT-Verwalter, die Speicher-systeme so effizient wie es nur irgend geht auszulasten, um nicht noch größere an-schaffen zu müssen.

Die technischen Raffinessen, welche den Speicher tatsächlich »effizient« ge-stalten, entwickeln sich laufend weiter. So galten iSCSI-Arrays vor Jahren als effizient,

da sie ohne FC auskamen und Subsyste-me mit SATA konnten die Effizienz mit viel Kapazität auf wenigen günstigen Platten steigern.

Viele der Effizienz-Technologien des Jahres 2012 hat die Redaktion von speicherguide.de schon in aller Ausführ-lichkeit beschrieben. Dazu zählt die dyna-mische Provisionierung als Weiterent-wicklung des Thin-Provisioning. Die Technik erlaubt, vom Dateisystem gelöschte Daten auch auf der Ebene des

Blockspeichersystems frei zu geben. Allerdings ist Dynamic-Provisioning eine Funktion, welche sich nicht alleine auf dem Speichersystem umsetzen lässt. Es erfordert die Kooperation der jeweiligen

Dateisysteme, welche das Speichersystem über frei gewordene Blöcke informieren müssen.

Das Storage-Tiering verlagert Blöcke gemäß ihrer Nutzung auf verschiedene Festplattenklassen. Blöcke mit viel I/O lan-den auf SSDs oder schnellen SAS-Laufwer-ken, selten benutzte Daten auf SATA-Disks. Schnelle und dennoch geräumige Speichersysteme lassen sich so mit gerin-gerer Anzahl an günstigeren Disks umset-zen. Tiering verlangt jedoch von den Speicherherstellern gänzlich neue Sub-system-Architekturen. Aktuell kristallisie-ren sich neue effiziente Speicheransätze heraus, die weitaus radikaler vorgehen, als nur Disks im Subsystem anders zu ad-

ressieren und freie Blöcke wieder nutzbar zu machen.

Die Software macht das SANWer ein Speicher-Array in seine Bestand-teile zerlegt, trifft auf altbekannte Server-Komponenten: Disks, RAID-Controller, Prozessoren und Speichermodule – es gibt kaum noch proprietäre »SAN-Rake-tentechnik« und Custom-Asics. Auch der Prozessoren-Wildwuchs schrumpft. Wo frühere SAN-Controller spezielle RISC-CPUs auf besonderen Boards verwende-ten, sitzen heute x86-CPUs auf Standard-Server-Motherboards. Etliche moderne SAN-Lösungen verzichten bereits auf den RAID-Controller und lassen die CPU die Paritäten errechnen und die Datenblöcke auf die Platten verteilen. Anders ausge-drückt: Viele moderne Speichersysteme sind aus Sicht der Hardware nicht viel mehr als ein simpler PC-Server welcher eine Gruppe von Platten in einem JBOD adressiert. Die komplette Logik läuft im jeweiligen Storage-Betriebssystem. Und auch hier geht der Wildwuchs an Basis-Be-triebssystemen zurück. Wo früher eigene Real-Time-Kernel auf RISC-CPUs werkel-ten, verrichtet heute zunehmend BSD-, Windows- oder Linux-OS ihren Dienst. Ein paar Beispiele: Compellent (BSD), Data-Core (Windows), EMC »CLARiiON Flare«

Eine Publikation von speicherguide.de Ausgabe 3-2012

5 Virtualisierung

(Windows), FalconStor (Linux), HP Left-hand (Linux), NetApp »ONTAP« (BSD), Nexenta (Solaris) und Open-E »DSS« (Linux).

Die Storage-Features eines Speichersys-tems hängen heute alleine von der Soft-ware ab. Und die Software nebst Betriebs-system lässt sich problemlos auf einem Hypervisor virtualisieren.

SAN virtuellNahezu alle Rechenzentren arbeiten heu-te ganz oder teilweise virtualisiert. Aktu-elle Lösungen setzen Server ohne Daten-platten ein, welchen ein Shared-Storage zur Seite steht. Aus Redundanzgründen arbeiten größere Unternehmen mit ge-spiegelten SAN-Speichersystemen.

Erste Lösungen verzichten nun gänzlich auf einen Shared-Storage und kehren zu Servern voller lokaler Platten zurück. Eine VM betreibt dann das virtuelle SAN-Sto-rage mit allen lokalen Platten des Hosts. Für die Redundanz lassen sich die virtuel-len SAN-Filer in den Hosts spiegeln und sorgen damit für die nötige Ausfallsicher-heit. Für die Spiegelung wiederum reichen virtuelle LAN-Kanäle auf der Netzwerkan-bindung der Hosts aus, ein eigenes SAN braucht es hier nicht mehr.

Mit der Einführung von »ESX5« hat auch VM ware erstmals eine eigene Virtual-Sto-

rage-Appliance auf den Markt gebracht. Die aktuelle Version 1.0 kann noch nicht ganz überzeugen. Die Architektur ver-schleudert noch 75 Prozent der Brutto-Plattenkapazität für RAID 10 und Spiege-lung und unterliegt auch sonst diversen Funktionseinschränkungen. Doch mit dem anstehenden Update auf das Release ESX 5.1 soll auch eine überarbeitete virtu-elle Storage Applaince 1.5 folgen, die vor allem mehr Nettokapazität liefert und kein komplexes Management erfordert.

Neben Vmware haben auch Speicher-hersteller erste virtuelle Arrays im An-gebot. HP nutzte seine virtuelle Left - hand-Lösung für Tests und um einen Quo-rum-Node in einem Speichercluster mit einer geraden Anzahl physischer Storage-Arrays einzufügen. In der Zwischenzeit ist die HP VSA ein vollwertiges virtuelles Sto-rage-Array für produktive Virtualisierungs-Lösungen ohne Shared-Storage.

Auch Netapp hat die Zeichen der Zeit erkannt und einen virtuellen Filer veröf-fentlicht. Der ist zwar aktuell noch an die Server-Hardware eines Anbieters gebun-den, jedoch ist es nur eine Frage der Zeit, bis es die virtuelle FAS als eigenständige SAN-Lösung zu kaufen gibt. Anbieter wie Datacore, Open-E, Nexenta und Falcons-tor als klassische SAN-Software-Hersteller haben schon länger passende Lösungen

für virtualisierte Filer im Angebot: Gerade bei kleineren Virtualisierungs-Installatio-nen und Außenstellen dürfte sich der Trend zu den virtuellen SAN-Appliances zügig durchsetzen, da Anwender hier viel Geld einsparen können.

NAS als das neue SANVmware »vSphere«-Installationen akzep-tieren als Shared-Storage neben Block-De-vices mit SAS, iSCSI und FC auch NFS-Frei-gaben. Anfangs setzten diese Option nur wenige IT-Manager ein, da es hier und da Performance-Probleme gab. Doch mit NFS v4 und verbesserten NFS-Client-Rou-tinen im ESX5-Hypervisor können NFS-NAS-Filer in Vmware-Umgebungen prob-lemlos Block-Storages ersetzen. Besonders in Kooperation mit 10-Gbit/s-Netzwerken erscheint NFS als interessante Alternative zum deutlich teureren 8 Gbit/s FC-SAN. Auch hier kann der NFS-Filer selbst als vir-tuelle Maschine auftreten und die Disk-Ressourcen der zugrunde liegenden Hosts verwenden.

Microsoft springt ebenfalls auf diesen Zug auf. »Hyper-V V3« soll ohne shared Block-Storage und Clustere-Shared-Volu-mes auskommen, indem es die VHD-Da-teien der virtuellen Maschinen einfach auf CIFS-Freigaben platziert. Etwas Ähnliches setzen viele Unternehmen bereits mit Ex-

change-Clustern ein. Auch die Zweckent-fremdung von NAS als SAN spart Kosten ein, denn die Lösung kommt ohne ein se-parates SAN aus und liefert trotzdem ge-nug Performance für kleine und mittel-große Unternehmen.

Virtuelle und physische Speicher müssen kompatibel seinDer Trend zu virtuellen NAS/SAN-Lösun-gen wird sicher nicht von heute auf mor-gen alle großen SAN-Systeme erübrigen. Speziell für den Betrieb kleinerer Installa-tionen in Außenstellen scheinen virtuelle SAN-Lösungen jedoch sehr attraktiv. Her-steller mit zueinander kompatiblen, virtu-ellen und physischen Speicherlösungen können hier besonders punkten. Ihre SAN-Funktionen wie Spiegelung und Replika-tion binden von einem zentralen Datacen-ter mit physischem SAN alle Außenstellen einheitlich an. Auch wenn diese selbst über kein physisches SAN verfügen. K

Doc Storage: Was ist Dynamic- Provisioning?

Storage Tiering

Weitere Informationen

Eine Publikation von speicherguide.de Ausgabe 3-2012

6 Advertorial

Effizient mit »Active Cloud Engine«

NAS global vernetzen – aber lokal verwalten

Mit Lösungen wie der »Active Cloud Engine« von IBM lassen sich große Mengen an Dateien effizient verwalten, global im Zugriff halten sowie nahtlos dort bereitstellen. Diese Funktionen sind nicht mehr nur dem Enterprise-Segment vorbehalten, sondern stehen mit der »Storwize V7000 Unified« nun auch dem Mittelstand zur Verfügung.

Goetz Mensel, IBM Systems Technology Group

Nutzbringende Funktionen, die hohe Fle-xibilität und Effizienz in die Speicherum-gebung bringen, sind mittlerweile sowohl bei den Enterprise- als auch mittelständi-schen Unternehmen hoch im Kurs. Ver-bessertes Management, optimale Res-sourcen-Nutzung, Verwaltung mehrerer Standorte sind zwingend notwendig, um dies zu erreichen. IBM hat mit der »Acti-ve Cloud Engine« (ACE) eine Lösung ent-wickelt, die diese Funktionalität in mittel-große Umgebungen zusammen mit der »Storwize V7000 Unified« transportiert.

Active Cloud Engine mit bewährter BasisDie Basis der Active Cloud Engine (ACE) ist das IBM »General Parallel File System« (GPFS). GPFS ist ein geclustertes File, das bewährte Funktionen in die ACE ein-

bringt. Dazu gehören unter anderem In-formation-Lifecycle-Management (ILM), schnelle Scan Engine und das Caching von entfernten Standorten. Darüber hinaus of-feriert das File-System intelligente Tools für die Verwaltung und Administration von Speichersystemen sowie einen »Sin-gle Namespace«.

IBM bietet für ihre Storage-Systeme inzwischen zwei intelligente Daten-platzierungs systeme, »Easy Tier«, ein au-tomatisches Tiering für die Datenplatzie-rung im Block-Umfeld und ACE für die Dateiplatzierung im File-Umfeld. Derzeit findet die ACE in Systemen der IBM »SO-

NAS« und der Storwize V7000 Unified ihre Anwendung. In dieser Kombination bie-ten die Modelle zahlreiche Funktionen für File-Umgebungen. Dazu gehören unter anderem bei SONAS die hohe Skalierbar-keit für Bandbreiten und Kapazitäten im zweistelligen PByte-Bereich sowie die in-telligente Datenplatzierung (Tiering) mit hierarchischem Speichermanagement (HSM) bis auf Bandarchive. Die ACE er-laubt die Definition von Placement-Poli-cys auf File-Level-Ebene, bei der der Ad-ministrator bestimmt, wohin die Dateien physisch gespeichert werden, unabhän-gig vom Ort in der logischen Verzeichnis-

Struktur. Das heißt, die Informationen können auf unterschiedlichen Fest-plattenty pen (SSD, SAS, SAS-NL) gespei-chert sein, obwohl sie sich im gleichen Directory befinden.

Neben den Placement-Policys lassen sich ebenfalls Migrations- oder auch De-letion-Policys definieren. In der Praxis wer-den Dateien so nach ihrer Wertigkeit für das Unternehmen abgelegt, auf hoch-per-formante Platten oder auf hoch-kapaziti-ve Platten, die langsamer und nicht so teu-er sind. Wird dann die Migration-Policy aktiv, beispielsweise wenn ein Platten Pool über 95 Prozent gefüllt ist oder größere, ältere Files länger nicht mehr angefasst wurden, schiebt das System die Dateien automatisch und transparent in den nächsten Pool.

MP3-Files werden gleich auf SAS-NL-Laufwerke abgelegt, obwohl sie sich zu-sammen mit anderen Projektdateien im gleichen Ordner befinden, die wiederum auf höherwertigen Medien wie SSDs lie-gen. Hohe Skalierbarkeit und flexible Hardware-Konfigurationen bietet SONAS auch als Gateway für andere Speichersys-teme wie die Storwize V7000 und die »XIV«, ohne dabei auf die Funktionalitäten von ACE verzichten zu müssen. ACE er-leichtert die Verwaltung von mehreren PByte Speichern und Milliarden von Da-

Eine Publikation von speicherguide.de Ausgabe 3-2012

7 Advertorial

teien in einem einheitlichen Dateisystem mit einem Single Namespace.

Backup- und Restore- Performance Ein weiterer Vorteil der ACE ist die Back-up-und Restore Performance. Der Backup Scanprozess wird deutlich dadurch ver-kürzt, dass nur Metadaten gelesen wer-den und nicht auf die Datei selber zuge-griffen werden muss. Dabei können bei SONAS alle Storage-Nodes des File-Sys-tems gleichzeitig den Scanprozess unter-stützen. Es gibt keinen »Metadata Server« der ein Engpass oder Single-Point-of-Fai-lure sein könnte, sondern alle Storage-Knoten haben Zugriff auf die Metadaten. Die Storage-Policys, die vorher definiert wurden, werden der Reihe nach abgear-beitet. Das können Regeln fürs Tiering, die Migration, das Löschen, Backup oder für Füllgrade sein.

Globale Active Cloud EngineBei der globalen Active Cloud handelt es sich um einen echten verteilten »World Wide Single Namespace«, der effizientes File-Management über verschiedene Standorte hinweg erlaubt. Diese Funkti-on hilft bei der Umsetzung von Außen-stellenkonzepten oder weltweit verteilten Niederlassungen, die gemeinsame Daten-

bestände nutzen möchten. Hier sind un-terschiedliche Szenarien möglich. Zum ei-nen kann eine remote Niederlassung die Dateien bei Bedarf abholen lassen (On-Demand Pull), zum anderen ist aber auch ein direktes Verteilen der Daten auf die Niederlassungen nach dem Schreiben in der Zentrale möglich (Push). Darüber hi-naus ist ein kaskadiertes Verteilen der Da-teien realisierbar, ebenso wie ein lokales Update. Das Ganze wird in einer zentralen virtualisierten Sicht abgebildet, die von den physikalischen Systemen getrennt ist.

Die Vorteile des globalen ACE liegen auf der Hand. Dateien, Images und Anwen-dungs-Updates lassen sich schnell und ef-fizient an andere Standorte verteilen. Ein vorbereiteter Datentransfer auf entfernte Außenstellen erhöht zudem die Zugriffs-geschwindigkeit vor Ort, reduziert Netz-

werkkosten und erlaubt eine Mischung aus lokalen Daten und Cache, sowie einen zentralen Backup.

Vorteile und EinsatzgebieteDie Implementierung einer IBM-Lösung mit Active Cloud Engine birgt zahlreiche Vorteile. Für den IT-Manager ist es einfa-cher einen Projektordner zu verwalten und nicht unterschiedliche Ordner für un-terschiedliche Plattentypen zu haben. Der Administrator reduziert seine Aufwände durch das einmalige Anlegen von Policys, die unternehmensweit gelten können, aber auch sehr granular, durch die Aus-wahl der Metadaten, gestaltet werden kann. Speicherplatz wird optimal genutzt. Die Lösung trägt mit der Bereitstellung ei-nes automatisierten ILM, einer automati-schen Speicherzuweisung, der Benutzer-verwaltung über Speicherquoten und einem universellen Berichts- und Perfor-mance-Management dazu bei, die Pro-duktivität zu erhöhen.

Ein Auftreten von Speicherplatzmangel kann durch Verlagern bis auf Band vermie-den sowie die Leistungsfähigkeit des Sys-tems durch Verlagerung der Dateien auf schnellere Platten verbessert werden. Die Lösung minimiert die Zugriffszeiten für Daten über das Wide-Area-Network (WAN) und ermöglicht eine echte unterneh-

mensweite Filesystem-Sicht. Es können dadurch ganz unterschiedliche Einsatzge-biete und deren Anforderungen bedient werden. Überall dort, wo ein System ver-walteter Speicher und hierarchisches Speichermanagement von der Platte bis zum Band Kosten optimieren kann, ist ein Einsatzgebiet für die ACE lokal. Dazu ge-hört beispielsweise die Verarbeitung und Archivierung medizinischer Bilder; digita-le Simulationen von Anwendungen in den Bereichen Pharmazeutik, Automobil und Luft- und Raumfahrt sowie Datensät-ze von Versicherungen zu speichern und verwalten.

ACE zeigt seine Stärken überall dort, wo Dateien von verschiedenen Lokationen zugegriffen oder verteilt werden sollen. Bespielsweise ein Dienstleister, der Kun-densupport 24 Stunden bieten möchte und seine Call/Support-Center auf 3 Kon-tinenten hat, die nach dem »follow the sun«-Prinzip nach und nach auf die aktu-ellen Kundendaten zugreifen müssen. K

Foto

: IBM

Die » Storwize V7000 Unified« ermöglicht eine automatische Daten-platzierung (Tiering) mit hierarchischem Speichermanagement.

IBM Deutschland GmbHD-71137 EhningenTel. +49 (0) 800/784 39 77www-03.ibm.com/systems/de/storage/

Weitere Informationen

Eine Publikation von speicherguide.de Ausgabe 3-2012

8 Backup-Hardware

Speichersysteme effizient nutzen

Effizienz ohne Deduplizierung?Deduplizierung und Kompression haben es von der neuen Technologie zum Standard geschafft. Fast jeder setzt entsprechende Systeme ein. IT-Manager sollten jedoch hinterfragen, ob sich die Anschaffung und der Betrieb einer zusätzlichen Schicht im Speichernetz tatsächlich lohnen.

Ulrike Rieß

Deduplizierung machte den Anfang, die Kompression und intelligente/dynami-sche Datenplatzierung zogen nach. Im-mer mehr Daten im Speichernetz durch-laufen einen Reduzierungsprozess, ob nun auf Basis von gefundenen Redundan-zen oder mit Hilfe von altgedienten Algo-rithmen. Vor wenigen Jahren begann die technische Entwicklung dieser Geräte-klassen mit neuem Speicheransatz.

Mit ihrer Hilfe sollen und können mehr-fach abgelegte Dateien oder Dateifrag-mente aufgespürt und durch ein einziges tatsächlich abgespeichertes Element er-setzt werden. Alle anderen nochmals ge-speicherten Elemente derselben Art wer-den mit wesentlich platzsparenden Zeigern verbunden, den so genannten

»Pointern«. Wirklich neu war der Ansatz allerdings nicht, da er bereits in ähnlicher Form in Objektspeichern vorkam und vor-kommt. Hersteller von Deduplizierungs-lösungen versprechen nicht nur verlo-ckende Reduzierungsraten von bis zu 95 Prozent des genutzten Speichers, sondern mehr oder weniger die eierlegende Woll-milchsau in Sachen Speichereffizienz. Allerdings müssen für solch hohe Redu-zierungsraten auch entsprechende Vor-aussetzungen geschaffen werden, die die-ser oftmals nicht so offen legt. Je nach Datenbeschaffenheit, Anwendungen und internen Prozessbedingungen erreichen viele IT-Verantwortliche nur ein Drittel oder ein Viertel der versprochenen Redu-zierungen in ihrer Speicherumgebung. Deshalb sollte sich der IT-Leiter durchaus die Frage stellen, ob er nicht ähnliche oder

bessere Effizienzergebnisse erhält, wenn er andere Methoden umsetzt.

speicherguide.de beschäftigt sich hier mit drei Hauptargumenten der Hersteller für Deduplizierung und Co und stellt Überlegungen an, ob diese wirklich be-rechtigt sind.

Plattenplatz sparenDas Argument: »Durch diese Technologi-en kann wertvoller Speicherplatz einge-spart und anderen Anwendungen freige-geben werden.« Dies stimmt jedoch nur bedingt. Zwar lässt sich zunächst physi-kalisch genutzter Speicherplatz reduzie-ren. Allerdings empfehlen die Hersteller solcher Systeme selbst, Deduplizierung oder Kompression nur für ruhende, also wenig oder gar nicht mehr genutzte Da-ten im Array zu nutzen. Diese liegen bei

Anwendung moderner Multi-Tiering-Soft-ware sowieso irgendwo auf SATA-Platten, verschwenden also kaum noch allzu wert-vollen Speicherplatz. Man sollte tatsäch-lich einmal gegenrechnen, was teurer kommt: die Anschaffung eines weiteren Systems zur Datenreduzierung oder der Einsatz weniger hochkapazitiver SATA-Laufwerke im bestehenden Array. Platten-platz sparen heißt nicht gleich mehr Effizienz. Wer bestehende Systeme bei-spielsweise mit 3-TByte-SATA-Drives aus-statten kann, kommt – trotz Hochwasser-preise – häufiger günstiger weg als mit einem dedizierten Dedup-System.

Kleinere Datenmenge, kleineres Backup-FensterDas Argument: »Durch diese Technologi-en kann die Menge der zu sichernden Da-ten reduziert und das benötigte Backup-Fenster verkleinert werden.« Das ist sicher richtig und für viele ein wichtiges Argu-ment. Allerdings lässt sich hier ketzerisch fragen, ob diese Strategie heute noch für viele Unternehmen ein effizienter und nützlicher Weg ist. Viele Anwender haben durchaus das Problem, im Notfall kaum noch etwas mit dem tagtäglich mühsam angefertigten Backup anfangen zu kön-nen. Hier könnte es durchaus preiswerter und effizienter sein, statt eines teuren zu-

Eine Publikation von speicherguide.de Ausgabe 3-2012

9 Backup-Hardware

sätzlichen Gerätes, auf weitere Platten im bereits vorhandenen System zurückzu-greifen. Hierauf lassen sich Snapshots oder besser Clones der Produktivlaufwer-ke ablegen und zur entsprechenden Zeit vom Betrieb abkoppeln. Mit dieser Kopie hat man nicht nur alle Zeit der Welt, um das Backup anzufertigen; die Daten liegen im sofort brauchbaren Format vor und können im Notfall direkt an die Produkti-onsrechner angekoppelt werden. Weite-rer Vorteil: Der IT-Verantwortliche braucht zur Wiederherstellung der Daten weder eine teure Backup-Software noch eine entsprechend teuer geschulte Mann-schaft. Das kann der Speicheradministra-

tor mit seinen gewohnten Werkzeugen gleich mit erledigen.

Dieser Herangehensweise stehen sicher viele gegenüber, für die das Backup ein-fach zum IT-Alltag gehört und sei es aus Routine. »Ich will mein Backup, ich brau-che mein Backup, ich hatte immer ein Backup und ich will immer ein Backup ha-ben« ist hier meist der Tenor, oft von Ver-tretern der Tape-Fraktion geäußert. Auch das Clones und Snapshots ein Backup nicht ersetzen, da häufig auf ein und dem-selben Rechner gespeichert, ist ein Ge-genargument. Snapes und Clones sind wirklich kein Backup, aber das macht sie nicht zwangsweise schlechter. Die Effizi-enz entsteht dadurch, dass eben keine ei-gene Software, eigene Mannschaft und eigene hochkomplexe Verfahren benötigt wird, die im Notfall zu komplex, aufwen-dig und riskant sein könnte. Auch Medi-enbrüche sind nicht zu fürchten. Wer schnell und sicher zurückkommen will, sollte Clones oder Snaps und eine Spiege-lung auf ein in einem entfernten Standort

platziertes zweites System einsetzen, ohne Deduplizierung.

Zweigstellendaten schneller speichernDas Argument: »Durch diese Technologi-en können die aus Zweigstellen zur zent-ralen DV geschickten Daten reduziert und damit Bandbreite geschont, Übertragun-gen beschleunigt und Backup-Fenster verkürzt werden.« Auch diese Aussage ist korrekt. Es erhebt sich aber durchaus die berechtigte Frage, warum der Betreiber nicht alle wichtigen und somit zu sichern-den Daten gleich im zentralen Rechenzen-trum abgelegt hat und auf diese über ent-sprechende Leitungen zugreifen muss. Vielleicht sollten wichtige oder geschäfts-relevante, also offensichtlich Backup-wür-dige Informationen nicht außerhalb des zentralen Standorts liegen. Hier ist even-tuell eine Prüfung der grundsätzlichen Konzepte notwendig. Es kann eine preis-werte Alternative sein, über Terminals in Echtzeit auf zentrale Datenbestände zu-

zugreifen als Daten auch nur teilweise in Geschäftsstellen zu transportieren, über Tag zu bearbeiten und dann wieder zurückzuschicken.

Prüft die »Lohnt’s sich’s?«-FrageIT-Verantwortliche sollten sich vor dem Einsatz von Deduplizierung oder Kom-pression eine Frage stellen: Lohnt es sich wirklich, den Preis für diese Systeme zu in-vestieren, um die billigste Ressource im Speichersystem, nämlich die hochkapazi-tive Festplatte, zu schonen? Im Zeitalter von 2- oder gar 3-TByte-Laufwerken kann diese Frage getrost verneint werden. Schon zumal dann der bremsende Effekt der Anwendung der entsprechenden Al-gorithmen wegfällt. Deduplizierung und Kompression lohnt sich vor allem dort, wo viele Daten über entsprechend dünne Lei-tungen von Geschäftsstellen oder ande-ren entfernten Installationen eingeholt werden müssen. Den Standplatz im zent-ralen Rechenzentrum hingegen wird man zunehmend hinterfragen müssen. K

Mehr zu Disk-Backup und Dedup

Backup für den Mittelstand

Doc Storage: Gibt es Unterschiede bei Daten-Reduktionstechniken?

Weitere Informationen

Eine Publikation von speicherguide.de Ausgabe 3-2012

10 Storage-Hardware

Hands-on-Test: HP »P4000 VSA«

Virtueller SAN-SpeicherAußenstellen und kleinere Unternehmen benötigen oft nicht zwingend ein physikalisches SAN. Hier genügt kann auch eine virtuelle Lösung wie die »Virtual SAN Appliance« von HP genügen. Diese stellt die lokalen Platten des Virtualisierungs-Hosts im Cluster bereit.

Max Lessel

Im Herbst 2008 übernahm Hewlett-Packard ein Unternehmen namens Left-hand Networks. Diese Firma schmiedete die auf Linux basierende iSCSI-Storage-Software »SAN-IQ«. Das besondere an den Systemen: Es fasst mehrere iSCSI-Storage-Nodes unter einer einzigen virtuellen IP-Adresse zusammen, verteilt die IOPs auf den kompletten Storage-Cluster und spie-gelt die Volumes synchron (Network RAID). Der Ausfall eines einzelnen Nodes innerhalb des Clusters geht somit ohne Datenverlust vonstatten. Neben den phy-sischen »P4xxx«-Speicher-Arrays vertreibt HP mittlerweile auch eine virtuelle Versi-on »Virtual SAN Appliance« (VSA). Ein-satzgebiete für die VSA gibt es genug. Klei-

nere Datacenter und Außenstellen mit zwei bis drei Hyper-V oder ESX-Nodes kommen damit ohne ein physisches SAN aus. Je eine VSA pro Node stellt die lokalen Platten des Virtualisierungs-Hosts im Clus-ter bereit. Zwar gehen dabei 50 und mehr Prozent der Brutto-Kapazität für RAID und Network-RAID verloren. Dennoch fällt eine Konfiguration mit lokalen Platten in mehreren Servern günstiger aus, als ein dezidiertes SAS- oder iSCSI-SAN-System. Die Redaktion von speicherguide.de un-terzieht die »P4000 VSA 9.5« in einem »vSphere5«-Cluster mit zwei ESXi-5-Servern einem Hands-on-Test.

Deployment in wenigen MinutenHP liefert die VSA als OVF-Vorlage (»Open Virtualization Format«). Die Verwaltung ei-

nes VSA-Clusters übernimmt das Java-Tool »Central Management Console« (CMC). Beim Deployment der OVF-Vorla-ge auf den ESX-Server kann der Verwalter der VSA-VM bis zu fünf Daten-Disks über-geben. Das dürfen sowohl virtuelle Lauf-werke eines lokalen VMFS-Dateisystems als auch RAW-Disk-Mappings sein. Zwei virtuelle LAN-Adapter übernehmen die redundante LAN-Anbindung.

In Installationen mit einer geraden Zahl von VSAs bedarf es eines zusätzlichen Nodes. Der so genannte »Failover Manag-er« (FOM) ist eine VSA ohne Storage. Der FOM sorgt für die in Cluster-Setups benötigte ungerade Zahl an Nodes und fungiert als Quorum.

Auf der Linux-Konsole der VSA konfigu-riert der Verwalter lediglich die IP-Adres-se des jeweiligen Nodes, alles weitere übernimmt die Central-Management-Console. Dort stellt der Administrator den Cluster zusammen, konfiguriert Disks und RAID-Level, die virtuelle IP des iSCSI-Tar-gets und die Server-Zuweisung. In unser-em Setup verwalten die VSA-Nodes kein Disk-RAID, da dieses vom physischen RAID-Controller im ESX-Host bereits über-nommen wird.

In einem produktiven Setup muss der Verwalter ein getrenntes iSCSI-Netz mit eigenen Switches oder zumindest einem

separaten VLAN einrichten, so dass sich Network-RAID-Traffic und LAN-Daten nicht ins Gehege kommen.

In den Tests schalten wir unter anderem ohne Vorwarnung einen VSA-Node ein-fach ab und das Failover-Setup funktion-iert wie erwartet. Die VMs arbeiten ein-fach weiter und nachdem der Node zurückkehrt, synchronisiert sich der VSA Cluster binnen weniger Minuten.

FazitHPs VSA kann in kleinen Installationen oder Filialen tatsächlich ein physisches SAN-Array ersetzen. Bei der Konfigurati-on der Hosts ist jedoch Vorsicht geboten. Es bedarf eines lokalen RAID-Arrays für die ESX-Konfiguration und die VSA-System-platte. Getrennt davon kommen Daten-volumes zum Einsatz.

An der CMC-Anwendung darf HP aber noch ein wenig optimieren. Die Bedie-nung ist nicht immer schlüssig und das Tool an sich wenig überschaubar. Der Preis beginnt bei rund 5.000 Euro pro VSA. K

Lesen Sie auf speicherguide.de die Langfassung des Hands-on-Test: HP »P4000 VSA«

Weitere Informationen

Eine Publikation von speicherguide.de Ausgabe 3-2012

11 Storage-Strategie

Cloud und Outsourcing verbessern Energieeffizienz

Strom bleibt einer der KostentreiberEiner Bitkom-Studie zur Folge sank der Stromverbrauch in deutschen Rechenzentren in den letzten vier Jahren um vier Prozent. Während moderne Techniken die Energieeffizienz verbessern, belasten allerdings steigende Stromkosten weiter die Budgets. Der Trend geht dahin, kleinere IT-Umgebungen in größere Rechenzentren zu konsolidieren.

Karl Fröhlich

Wie teuer die Energie für IT sein kann, zeig-te Anfang des Jahres das Beispiel Megau-pload. Im Rahmen der Schließung der In-ternetplattform wurde bekannt, dass die Bereitstellung des 25 PByte großen Be-weismaterials durch den Provider Car-phatio Hosting rund 6.800 Euro pro Tag verschlingt. Dies klingt zunächst nach ei-nem relativ hohen Posten, tatsächlich ist diese Größenordnung aber am unteren Ende einzuschätzen (siehe Blog Doc Storage). Es macht also durchaus Sinn, sich mit seiner eigenen Stromrechnung zu befassen.

Im Jahr 2011 lag der Stromverbrauch von Rechenzentren und Server in Deutsch-land bei 9,7 Terawattstunden (TWh). Das entspricht der Stromproduktion von vier mittelgroßen Kohlekraftwerken und ei-

nem Anteil von rund 1,8 Prozent am ge-samten Stromverbrauch hierzulande. Ob-wohl die Zahl der installierten Server zwischen 2008 und 2011 um sieben Pro-zent auf gut 2,3 Millionen gestiegen ist, sank der gesamte Stromverbrauch in die-sem Zeitraum um vier Prozent. Zu diesem Ergebnis kommt eine aktuelle Untersu-chung des Borderstep Institut im Auf-trag des BITKOM.

Durch die Steigerung der Energieeffizi-enz konnten allein im vergangenen Jahr insgesamt 1,4 TWh eingespart werden. Insbesondere Server arbeiten mittlerwei-le deutlich effizienter und verbrauchen weniger Strom, wenn sie nicht voll ausge-lastet sind. Zudem ist weniger Energie für die Klimatisierung der Rechenzentren so-wie die dazugehörigen unterbrechungs-freien Stromversorgungen (USV) nötig. »In einem durchschnittlichen Rechenzent-

rum verbrauchen Klimatisierung und USV zirka 40 Prozent des gesamten Stroms«, sagt Bitkom-Vizepräsident Volker Smid. »Durch konsequente Nutzung von Green-IT wird der Stromverbrauch in Zukunft um rund ein weiteres Viertel gesenkt.«

Grund zum Jubeln haben Unternehmen allerdings noch nicht, denn die steigen-den Strompreise haben zwischen 2008 und 2012 für einen zwölfprozentigen An-stieg der Stromkosten in den Rechenzen-tren gesorgt. Laut Studie mussten Firmen hierzulande 1,2 Milliarden Euro ausgege-ben, um ihre IT mit Strom zu versorgen. Der Studie zufolge muss bis 2015 mit ei-nem Anstieg um weitere 200 Millionen Euro gerechnet werden. »Stromkosten sind mittlerweile mit Abstand der größte Kostenblock in Rechenzentren«, erklärt Smid. Entsprechend hoch ist die Wirkung auf die Wettbewerbsfähigkeit der Rechen-

zentrumsbetreiber. Obwohl sich durch Techniken wie zum Beispiel Virtualisie-rung viele kleine Server zu wenigen grö-ßeren Einheiten reduzieren lassen, geht der Trend in Deutschland zu größeren Re-chenzentren mit mehr Servern. Laut Bit-kom sank die Zahl der – aus wenigen Ser-verschränken bestehenden – kleineren Rechenzentren zwischen 2008 und 2011 um fünf Prozent auf rund 31.500. Die Zahl der größeren und mittleren Rechenzent-ren mit mindestens 500 physikalischen Servern stieg hingegen um 15 Prozent auf rund 500. »Der Trend zu Cloud-Com-puting und Outsourcing sorgt auch hierzulande für die Zusammenlegung kleiner Einheiten zu größeren Rechenzen-tren«, meint Smid. Knapp zwei Drittel aller Server waren 2011 in Rechenzentren installiert, der Rest wurde als Stand- Alone-Rechner betrieben. K

Kurzstudie »Energieverbrauch und Energiekosten von Servern und Rechenzentren in Deutschland« als kostenloser PDF-Download

Doc Storage: Wie berechnen sich Speicherkosten?

Weitere Informationen

Eine Publikation von speicherguide.de Ausgabe 3-2012

12 Impressum

storage-magazin.de eine Publikation von speicherguide.de GbRKarl Fröhlich, Ulrike Haak, Engelbert HörmannsdorferAuf der Grün 8, D-83714 MiesbachTel. 080 25-51 79, Fax: 080 25-51 71E-Mail: [email protected]

Chefredaktion, Konzept:Karl Fröhlich (verantwortlich für den redaktionellen Inhalt)Tel. 089-740 03 99, Fax: 089-740 03 98E-Mail: [email protected]

Redaktion: Karl Fröhlich, Max Lessel, Ulrike Rieß

Schlussredaktion: Karl Fröhlich, Brigitte Scholz

Layout/Grafik:Uwe Klenner, Layout und Gestaltung, Rittsteiger Str. 104, 94036 Passau, Tel. 08 51-9 86 24 15www.layout-und-gestaltung.de

Titelbild: iStockphoto.com

Mediaberatung: Claudia Hesse, Tel. +41 (0) 41 - 780 04 86E-Mail: [email protected]

Webkonzeption und Technik:Günther SchmidlehnerE-Mail: [email protected]

Urheberrecht: Alle in »storage-magazin.de« erschienenen Beiträge sind urheberrechtlich geschützt. Alle Rechte (Übersetzung, Zweitverwertung) vorbehalten. Reproduktion, gleich welcher Art, sowie elektronische Auswertungen nur mit schriftlicher Genehmigung der Redaktion. Aus der Veröffentlichung kann nicht geschlossen werden, dass die verwendeten Bezeichnungen frei von gewerblichen Schutzrechten sind.

Haftung: Für den Fall, dass in »storage-magazin.de« unzutreffende Informationen oder Fehler enthalten sein sollten, kommt eine Haftung nur bei grober Fahrlässigkeit der Redaktion oder ihrer Mitarbeiter in Betracht.

Unser Team

Karl Fröhlich, Chefredakteur speicherguide.de

Engelbert Hörmannsdorfer, News-Editor speicherguide.de

Rainer Huttenloher, Redaktionvirtualisierungs-guide.de

Ulrike Rieß, Redaktion speicherguide.de

Claudia Hesse, Mediaberatungspeicherguide.de

Wir empfehlen zur vollständigen Funktionalität des eBooks »Acrobat Reader«, ab Version 9

Die nächste PDF-Ausgabe von storage-magazin.de erscheint voraussichtlich am 26.07.2012 mit dem Thema

»Modernes Storage-Management«.Newsletter-Abonnenten erhalten die neue Ausgabe jeweils »linkfrisch«

an ihren Mail-Account. Registrieren Sie sich bitte hier.

Beachten Sie auch unser Archiv im Download-Bereich.