Microsoft Hyper-V – Das Handbuch für Administratoren · manchmal auch bezogen auf andere Virt...
Transcript of Microsoft Hyper-V – Das Handbuch für Administratoren · manchmal auch bezogen auf andere Virt...
LeseprobeUmfangreiches Praxiswissen für Admins, direkt von den Hyper-V- Experten – das bietet Ihnen dieses umfassende Handbuch. Lesen Sie hier, wie Sie einen Host-Server einrichten, und verschaffen Sie sich einen allgemeinen Überblick über Hyper-V und seine Möglich-keiten.
Nicholas Dille, Marc Grote, Nils Kaczenski, Jan Kappen
Microsoft Hyper-V – Das Handbuch für Administratoren
948 Seiten, gebunden, 3. Auflage, Mai 2017 69,90 Euro, ISBN 978-3-8362-4327-8
www.rheinwerk-verlag.de/4229
»Hyper-V im Überblick« »Host-Server einrichten«
Inhaltsverzeichnis
Index
Die Autoren
Leseprobe weiterempfehlen
Wissen aus erster Hand.Wissen, wie’s geht.
57
2
Kapitel 2
Hyper-V im Überblick
Sicherheit, Qualitätsstandards und Hochverfügbarkeit sind ein »Must-
have« in moderner IT-Infrastruktur. Nur wer Server virtualisiert und
Infrastruktur als Code begreift, kann das erreichen. Die Autoren
beleuchten anschaulich und fachlich auf den Punkt zunächst das Prin-
zip der Virtualisierung mit HyperV und zeigen dann, wie sich Virtua-
lisierung mit PowerShell-Code zentral steuern, überwachen und
verwalten lässt. Eine Pflichtlektüre für jeden Windows-Administrator.
– Dr. Tobias Weltner, Microsoft MVP Cloud & Datacenter
Hyper-V lässt sich zwar Windows-typisch recht leicht bedienen und verwalten, doch
unter der Haube ist es natürlich ein sehr komplexes Produkt. Es ist hilfreich, die
Grundlagen, einige Hintergründe und die Architektur des Hypervisors zu kennen,
um besser verstehen zu können, was im Einzelfall geschieht. Besonders beim Ent-
wurf einer Virtualisierungsinfrastruktur und bei der Problemanalyse sind solche
Kenntnisse nützlich.
Der Begriff Hypervisor, der vielleicht nicht jedem Leser geläufig ist, bezeichnet die
Software-Komponente, die auf einem physischen Server läuft und die virtuellen Ma-
schinen steuert, die auf derselben Server-Hardware in Betrieb sind. Es ist Aufgabe des
Hypervisors, die Ressourcen der Hardware bedarfsgerecht an die virtuellen Maschi-
nen (VM) zu verteilen. Zu diesen Ressourcen zählen vor allem die Rechenleistung der
CPUs, der Arbeitsspeicher, die Speichersysteme (oft pauschalisierend als »Festplat-
ten« bezeichnet, obwohl das in größeren Umgebungen zu ungenau ist) und der Zu-
griff auf das Netzwerk. Vereinfacht gesagt, sorgt der Hypervisor über eine Zeitpla-
nung dafür, dass er alle VMs abwechselnd versorgt – das Zeitscheibenprinzip, das in
der IT oft zur Anwendung kommt, ist auch hier relevant. Manchmal wird der Hyper-
visor auch als Virtual Machine Monitor bezeichnet, was dieselbe Kontrollfunktion
ausdrückt.
Es gibt eine Reihe von Begriffen und Konzepten, mit denen Server-Virtualisierung
beschrieben wird. Im Folgenden beschränken wir uns auf einen Ausschnitt, der aus
unserer Sicht für das Verständnis von Hyper-V wichtig ist.
4327.book Seite 57 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
58
Wichtige Begriffe für Hyper-V
An dieser Stelle geben wir Ihnen einen kurzen Überblick über wichtige Begriffe in
Hyper-V, die Sie einordnen können sollten. Sie werden feststellen, dass diese Begriffe
im Web, in Artikeln oder Vorträgen nicht immer ganz korrekt verwendet werden. Zu
vielen der Begriffe finden Sie im Verlauf dieses Kapitels und auch im ganzen Buch
weitere Erläuterungen. Die Reihenfolge der Ausdrücke ist nicht alphabetisch, son-
dern an inhaltlichen Zusammenhängen orientiert.
� Host, Host-Server: Als Host oder Host-Server bezeichnet man in der Virtualisie-
rung meist den physischen Server, auf dem die Virtualisierungs-Software und
eine oder mehrere virtuelle Maschinen laufen. Manchmal wird als Host auch die
Virtualisierungs-Software selbst, also der Hypervisor, bezeichnet, aber das ist
eigentlich nicht richtig.
� Hypervisor: Der Hypervisor ist die Software-Komponente, die für den Betrieb von
virtuellen Maschinen auf einem Host-Server zuständig ist.
� Hyper-V-Server: Der Begriff wird uneinheitlich verwendet. Oft ist damit ein Host-
Server gemeint, der mit Hyper-V läuft. Manche bezeichnen mit diesem Ausdruck
eine virtuelle Maschine innerhalb von Hyper-V. Vor allem aber gibt es ein eigenes
Produkt namens Hyper-V Server 2016. Das ist die kostenlose Fassung von Micro-
softs Virtualisierungs-Software.
� Parent-Partition: In Hyper-V ist die Parent-Partition die erste Instanz des Server-
Betriebssystems, in der die Steuerung der gesamten Virtualisierung stattfindet.
Der Begriff gilt als veraltet und sollte nicht mehr genutzt werden.
� Root-Partition: Das ist ein weiterer Ausdruck für die Parent-Partition, der aber
weniger gebräuchlich ist.
� Management-OS: Dies ist der aktuelle Ausdruck für die Parent-Partition. Manche
Autoren unterscheiden auch zwischen der Parent-Partition als virtueller Instanz
und dem Management-OS als dem Betriebssystem, das in der Parent-Partition
läuft. In diesem Buch verwenden wir aber beide Begriffe synonym.
� Host-Betriebssystem: Das ist ein anderer Ausdruck für das Management-OS,
manchmal auch bezogen auf andere Virtualisierungsprodukte oder als allgemei-
ner Begriff verwendet.
� Child-Partition: Dies ist ein anderer Ausdruck für eine virtuelle Maschine, die als
eigene Instanz separat zur Parent-Partition auf Hyper-V läuft.
� Virtuelle Maschine oder virtueller Computer: Das ist eine virtuelle Instanz eines
Computers, die innerhalb eines Hypervisors läuft.
� Gast: Eine virtuelle Maschine wird manchmal als Gast oder Guest bezeichnet
(denn der englische Ausdruck Host bedeutet »Gastgeber«).
� Integrationsdienste: Dies sind die Treiber, Dienste und Anpassungen, die inner-
halb einer virtuellen Maschine in Hyper-V laufen und für eine optimale Zusam-
menarbeit des VM-Betriebssystems mit dem Hypervisor sorgen. Sie werden
4327.book Seite 58 Montag, 8. Mai 2017 4:03 16
2.1 Die Architektur
59
2
manchmal auch als Integrationskomponenten bezeichnet, weil Microsoft auf
Englisch etwas uneinheitlich mal Integration Components und mal Integration
Services verwendet.
� Virtueller Server: Dieser Ausdruck wird leider sehr uneinheitlich verwendet.
Manche meinen damit den Host-Server, andere meinen eine virtuelle Maschine.
Diesen Begriff sollten Sie vermeiden.
� VOSE: Das ist ein Ausdruck aus den Microsoft-Lizenzbestimmungen. Inhaltlich
bezeichnet VOSE eine virtuelle Maschine (Virtual Operating System Environment).
� POSE: Das Gegenstück aus den Microsoft-Lizenzbestimmungen bezeichnet das
Betriebssystem, das direkt auf einem physischen Server installiert ist (Physical
Operating System Environment).
2.1 Die Architektur
Genau wie die anderen wichtigen Produkte auf dem Markt für Server-Virtualisierung
gehört auch Hyper-V zur Kategorie der Typ-1-Hypervisoren. Diese Klassifikation
finden Sie in den folgenden Abschnitten erläutert. Ebenso stellen wir Ihnen einige
weitere Beschreibungskategorien vor, durch die sich Hyper-V teilweise von seinen
Mitbewerberprodukten unterscheidet.
2.1.1 Hypervisor Typ 1
Hypervisoren vom Typ 1 sind eine Software, die direkt auf Basis der Server-Hardware
läuft. Sie bauen nicht auf einem allgemeinen Betriebssystem auf, sondern sind als
relativ »schmale« Software-Schicht implementiert, die sich auf das Wesentliche
konzentriert (siehe auch Abbildung 2.1). Dadurch, dass die gesamte Hardware so der
Kontrolle des Hypervisors unterliegt, ist gewissermaßen der gesamte Server für die
Virtualisierung reserviert und muss sich um keine anderen Aufgaben kümmern. Auf
diese Weise können Typ-1-Hypervisoren sehr effizient die Leistung der Hardware an
die virtuellen Maschinen weitergeben.
Beispiele für diese Kategorie sind neben Hyper-V die Produkte VMware vSphere Hy-
pervisor (früher als ESX Server bzw. ESXi bekannt), Citrix XenServer und sein Open-
Source-Verwandter Xen sowie zahlreiche andere Vertreter.
Ein anderer Begriff für diese Kategorie ist Bare-Metal-Hypervisor, weil die Kontroll-
instanz direkt auf der Hardware, also dem »nackten Blech«, installiert ist. Manchmal
findet man auch den Ausdruck nativer Hypervisor.
4327.book Seite 59 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
60
Abbildung 2.1 Architektur eines Hypervisors vom Typ 1: Der Hypervisor ersetzt das Betriebs-
system auf der Hardware und kontrolliert alle Vorgänge von Grund auf.
2.1.2 Hypervisor Typ 2
Die Typ-2-Hypervisoren sind keine eigenständigen Produkte in dem Sinne, dass man
sie direkt auf einem Server installiert. Sie benötigen ein separates Betriebssystem
als »Unterlage« und setzen als Applikation oder als Dienst darauf auf (siehe Abbil-
dung 2.2). Aus diesem Grund bezeichnet man sie auch als Hosted Hypervisors.
Da in diesem Fall das unterliegende Betriebssystem auch andere Zwecke erfüllen
kann, ist die Gesamtumgebung weniger stark für den Betrieb der Server-Virtualisie-
rung optimiert. In manchen Situationen ist das durchaus erwünscht, aber es hat den
Nachteil, dass die Typ-2-Virtualisierung weniger effizient ist und daher die dort be-
triebenen virtuellen Maschinen weniger performant sind.
Abbildung 2.2 Architektur eines Hypervisors vom Typ 2: Auf der Hardware läuft ein All-
zweck-Betriebssystem, und der Hypervisor ist eine von mehreren Anwendungen.
Hardware
Hypervisor
VM1 VM2 VM3 VM4
Hardware
Hypervisor
App1
App2
VM1 VM2
Betriebssystem
4327.book Seite 60 Montag, 8. Mai 2017 4:03 16
2.1 Die Architektur
61
2
In der Server-Virtualisierung spielen Typ-2-Hypervisoren seit einigen Jahren prak-
tisch keine Rolle mehr. Bekannte Vertreter aus diesem Bereich waren VMware Server
(vorher als GSX Server vermarktet) und Microsoft Virtual Server.
Recht weit verbreitet sind diese Hypervisoren aber immer noch bei der clientseitigen
Virtualisierung, beispielsweise in der Software-Entwicklung oder für Demonstrati-
onszwecke. In solchen Fällen läuft die Virtualisierungs-Software auf einem »allge-
meinen« PC parallel zu Standardapplikationen wie etwa Microsoft Office, und der
Anwender nutzt virtuelle Maschinen auf seinem Computer eher sporadisch, etwa
um Vorgänge auszuprobieren. Wichtige Produkte für diesen Einsatzzweck sind
VMware Workstation, Oracle VirtualBox und einige andere. Das Produkt Virtual PC
von Microsoft gilt hier als technisch überholt.
In einem Spezialfall hat diese Form der Virtualisierung aber eine etwas größere Ver-
breitung, nämlich für den Betrieb älterer Software, die mit einem modernen Be-
triebssystem inkompatibel ist. Ein Beispiel dafür ist der sogenannte XP Mode von
Windows 7 (siehe Abbildung 2.3), in dem im Hintergrund (auf Basis von Virtual PC)
eine VM mit Windows XP werkelt. Windows 8 und alle späteren Versionen bieten die-
se Funktion nicht mehr, bei Bedarf kann man sie über Zusatzprodukte nachbilden.
Die integrierte Virtualisierungslösung Hyper-V bietet zwar eine Lösung zur Virtuali-
sierung von weiteren Betriebssystemen, bringt aber keinen »XP Mode« mit.
Abbildung 2.3 Der »XP Mode« in Windows 7 beruht auf einem Typ-2-Hypervisor. Er stellt
eine VM mit Windows XP bereit, in der ältere Anwendungen als Fenster laufen können. Ab
Windows 8 gibt es den »XP Mode« nicht mehr.
4327.book Seite 61 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
62
Innerhalb der Typ-1-Hypervisoren hilft noch ein zweiter Ansatz dabei, die Produkte
grundlegend voneinander zu unterscheiden. Hier gibt es vor allem eine technische
Trennung zwischen dem langjährigen Marktführer VMware und den beiden anderen
wichtigen Produkten Hyper-V und XenServer.
2.1.3 Monolithischer Hypervisor
VMwares vSphere betrachtet man oft als einen monolithischen Hypervisor, weil er ge-
wissermaßen »aus einem Block« besteht. Das bedeutet vereinfacht, dass alle hard-
warespezifischen Treiber direkt innerhalb der Hypervisor-Schicht implementiert
sein müssen, damit der Hypervisor mit einer bestimmten Hardware-Ausstattung zu-
sammenarbeitet (siehe Abbildung 2.4).
Abbildung 2.4 Im monolithischen Hypervisor sind alle Treiber und Komponenten in den
Hypervisor integriert, er bildet also einen zusammenhängenden Block.
Ein Vorteil dieser Konstruktion besteht darin, dass der Hypervisor in seinem Kom-
munikationsaufbau relativ einfach sein kann, weil er alle Treiber und Komponenten
direkt kontrolliert und keine aufwendige Infrastruktur zur Steuerung benötigt.
Der wesentliche Nachteil besteht darin, dass alle Treiber ausdrücklich für den Hyper-
visor entwickelt und mit diesem getestet werden müssen. Das hält die Auswahl an
Komponenten gering, die direkt mit dem Hypervisor zusammenarbeiten können,
weil der Entwicklungsaufwand diese teuer macht. Bei einer neuen Generation von
Hardware kann es vorkommen, dass sie erst nach einem Update des Hypervisors
genutzt werden kann. Zudem muss der Hersteller der Virtualisierungs-Software aus
eigenem Interesse eine intensive Qualitätsprüfung externer Treiber vornehmen,
weil Fehler in dieser Art von Software schnell die ganze Infrastruktur in Mitleiden-
schaft ziehen. Das wäre nicht nur schlecht für die Betreiber, sondern wirft auch ein
Hardware
Hypervisor
VM1 VM2 VM3 VM4
Treiber
4327.book Seite 62 Montag, 8. Mai 2017 4:03 16
2.1 Die Architektur
63
2
schlechtes Licht auf den Virtualisierungsanbieter, auch wenn er selbst vielleicht gar
nicht die Verantwortung für die fehlerhafte Komponente trägt. In der Praxis ist dies
der Hauptgrund für das restriktive Hardware-Zertifizierungsprogramm von
VMware.
2.1.4 Microkernel-Hypervisor
Im Gegensatz dazu verstehen sich einige andere Produkte als Microkernel-Hypervi-
sor, weil sie die Software-Schicht des eigentlichen Hypervisors bewusst »schmal« hal-
ten und die Spezifika der Hardware außerhalb des eigenen Kernels behandeln. Solche
Virtualisierer benötigen parallel zum eigentlichen Hypervisor eine separate Instanz,
die die Hardware-Treiber enthält und über diese eine Abstraktionsebene in Form
einer standardisierten Kommunikationsschnittstelle legt. Der Hypervisor und die
virtuellen Maschinen sprechen damit die Treiber (und die Hardware) nicht direkt an,
sondern nur über die Schnittstelle (siehe Abbildung 2.5).
Vertreter dieser Gattung sind Citrix XenServer und Microsoft Hyper-V. In XenServer
heißt die steuernde Instanz Dom0, bei Hyper-V bezeichnet man sie als Management-
OS. Beide sind für den Betrieb der Virtualisierungsplattform unverzichtbar.
Abbildung 2.5 Der Microkernel-Hypervisor setzt den Hypervisor als sehr »schmale«
Komponente um, die keine Treiber und Ergänzungen enthält. Alle hardware-spezifi-
schen Elemente sind Teil einer speziellen virtuellen Maschine.
Der Vorteil, den besonders Hyper-V aus dieser getrennten Konstruktion zieht, be-
steht in einer hohen Kompatibilität mit Treibern und Komponenten. Da das Manage-
ment-OS ein Windows-Betriebssystem ist, können die Hardware-Hersteller auf eine
vertraute Umgebung bei der Entwicklung von Treibern zurückgreifen und benötigen
keine separaten Prozesse, um für Hyper-V zu entwickeln. Das sorgt für eine sehr brei-
te Basis an einsetzbarer Hardware in der Server-Virtualisierung.
Hardware
Hypervisor
VM2 VM4
Treiber
VM Parent
VM3
4327.book Seite 63 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
64
Zusätzlich bietet diese Trennung eine ergänzende Schutzebene. Die Treiber bei den
Microkernel-Hypervisoren müssen eine sehr hohe Qualität aufweisen, um das Sys-
tem stabil zu halten. Da aber Windows (bzw. im Fall von XenServer Linux) bereits
über sehr ausgereifte Techniken für Fehlerbehandlung, Prozessisolation etc. verfügt,
müssen die Entwickler des Hypervisors nicht selbst für den Schutz vor Fehlern oder
Angriffen sorgen. Darüber hinaus sorgt ein Zertifizierungsprogramm dafür, dass die
zur Verfügung gestellten Treiber ausgiebig getestet werden.
2.2 Paravirtualisierung und Emulation
Eine weitere Unterscheidung von Virtualisierungstechniken bezieht sich auf die In-
tegration von Hardware und Betriebssystemen der virtuellen Maschinen. Die Frage
ist dabei, welche Hardware dem Betriebssystem innerhalb der virtuellen Maschine
präsentiert wird, wie der Hypervisor damit umgeht und welche Performance dies am
Ende der virtuellen Maschine ermöglicht. Hier gibt es eine große Bandbreite an Tech-
niken, die die Virtualisierungshersteller zunehmend parallel einsetzen.
Ein großer Nutzen der Virtualisierung besteht in einer Abstraktion der Hardware: Da
die virtuelle Maschine unter Kontrolle eines Hypervisors läuft, das heißt mit der tat-
sächlichen Hardware keinen direkten Kontakt hat, kann man die Details der Gerät-
schaften vor ihr verbergen. Dadurch benötigt die VM selbst keine speziellen Treiber –
das erhöht die Kompatibilität und sorgt dafür, dass man eine VM auch von einem
physischen Server auf einen anderen übertragen kann und sie dort trotzdem ohne
Anpassung läuft: Sie »sieht« ja weiterhin nicht die echte, sondern die abstrahierte
Hardware.
Wenn man allerdings in jedem Fall einen bestimmten Satz an »klassischer« Hard-
ware emuliert, um ihn den virtuellen Maschinen zu präsentieren, beschneidet man
die Leistungsfähigkeit der VMs. Zum einen ist es sehr aufwendig, Geräte zu emulie-
ren, denn der Hypervisor muss dann zwischen denjenigen Befehlen übersetzen, die
die VM absetzt, und denen, die die echte Hardware wirklich versteht. Zum anderen ist
es auf diese Weise nicht möglich, neue Funktionen oder Leistungsmerkmale zur Ver-
fügung zu stellen.
Aus diesem Grund nutzen heutige Virtualisierer das Prinzip der Emulation nur mög-
lichst selten. Oft greifen sie auf das Prinzip der Paravirtualisierung zurück: Zwischen
der realen Hardware des Host-Servers und der virtuellen Hardware der VM gibt es
eine weitere Schicht, die zwischen beiden vermittelt. Damit dies möglichst effizient
geschieht, muss das Betriebssystem innerhalb der VM von dieser Schicht wissen,
man muss es daher anpassen. Bei den meisten kommerziellen Produkten geschieht
dies, indem man einen Satz spezieller Treiber innerhalb der VM installiert.
4327.book Seite 64 Montag, 8. Mai 2017 4:03 16
2.3 Hardware-Virtualisierung
65
2
Tatsächlich vermeiden die meisten Hersteller den Ausdruck Paravirtualisierung,
denn eigentlich versteht man darunter eher eine Anpassung der Betriebssysteme auf
der Code-Ebene. Da kommerzielle Betriebssystem-Hersteller eine derartige Anpas-
sung aber kaum erlauben würden, soll die genutzte Technik auch gar nicht erst so
klingen, als täten sie dies.
Während XenServer und Hyper-V von Anfang an primär auf das Prinzip der Para-
virtualisierung setzten, hat VMware lange Zeit nur den Emulationsweg beschritten
und Paravirtualisierung erst recht spät eingeführt (mit Version ESX 3.5 Update 1).
Man erkennt den Ansatz der Paravirtualisierung oft einfach daran, dass für den leis-
tungsfähigen und effizienten Betrieb einer VM spezielle Treiber nötig sind, die keine
herkömmliche Hardware ansprechen. Bei aktuellen VMware-Systemen sind das bei-
spielsweise die VMNet-Netzwerkkarten sowie die VMI-Schnittstelle, in Hyper-V die
Integration Services und in XenServer die Enlightenments.
Keines der genannten Produkte setzt aber ausschließlich auf einen technischen Weg,
sondern alle Hersteller setzen Techniken verschiedener Art und Herkunft (Emula-
tion, Paravirtualisierung, Hardware-Virtualisierung) nebeneinander ein, um für ver-
schiedene Situationen passende Lösungen bieten zu können.
2.3 Hardware-Virtualisierung
In ernst zu nehmender Größenordnung hielt die Server-Virtualisierung Einzug in die
Welt der Client-Server-Umgebungen, als VMware sein Produkt ESX Server am Markt
etablierte. Dessen Version 2, eingeführt im Sommer 2003, verfügte bereits über eini-
ge Merkmale, die heutige virtuelle Infrastrukturen auszeichnen: Mechanismen für
Clustering und Hochverfügbarkeit, SAN-Integration und vor allem eine Live-Migrati-
on-Technik namens vMotion, mit der man laufende virtuelle Maschinen von einem
physischen Host-Server auf einen anderen verschieben konnte, ohne sie anzuhalten
oder die Benutzerverbindungen zu unterbrechen.
In der gesamten Frühzeit der Server-Virtualisierung (bezogen auf die Client-Server-
Welt mit Intel-basierten Rechnern) beruhte die Technik nur auf Software. Zwar gab es
in anderen Rechnerarchitekturen, beispielsweise in der IBM-Großrechner-Welt, teils
schon jahrzehntelang Hardware, die sich unterhalb der Software-Ebene in mehrere
logische Systeme (dort meist Partitionen genannt) aufteilen ließ. Doch es dauerte bis
zum Jahreswechsel 2005/2006, bis Intel und sein Mitbewerber AMD die ersten Pro-
zessoren auf den Markt brachten, die auf der Hardware-Ebene Unterstützung für
Virtualisierung enthielten.
Durch diese erweiterten Prozessorfunktionen, die auf dem Markt als Intel-VT und
AMD-V bekannt sind, lassen sich Hypervisoren wesentlich effizienter und sicherer
betreiben als auf Basis der vorherigen CPUs. Durch einen neuartigen Aufbau sind die
4327.book Seite 65 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
66
Prozessoren in der Lage, Befehle aus den virtuellen Maschinen auch dann direkt um-
zusetzen, wenn sie den Protected Mode der CPU voraussetzen. Dadurch ist es für den
Hypervisor unnötig, diese Befehle abzufangen und zur Ausführung zu übersetzen
(was manchmal als Maskieren bezeichnet wird). Dies entlastet die CPU, weil sie für
denselben Vorgang weniger Arbeit aufwenden muss.
Hyper-V setzt diese Prozessorfunktionen zwingend voraus, denn die Software ist von
vornherein für diese CPU-Integration entwickelt worden. Andere Virtualisierungs-
produkte profitieren ebenfalls von den Funktionen, können in anderen Betriebs-
modi aber auch mit einfachen Prozessoren arbeiten. Zwar mag dies wie ein konzepti-
oneller Nachteil von Hyper-V erscheinen, doch sind alle Server, die in der Praxis für
eine Virtualisierung infrage kommen, ohnehin seit vielen Jahren mit den nötigen
Funktionen ausgestattet.
Sowohl AMD-V als auch Intel-VT bedienen sich eines speziellen architektonischen
Kniffs, um die Kontrolle der CPU über die Virtualisierung zu ermöglichen. Schon im
Grundprinzip der x86-Prozessorarchitektur gibt es in der CPU mehrere sogenannte
Ringe, über die ein Betriebssystem Berechtigungen umsetzen kann. Jeder Ring stellt
eine Berechtigungsstufe dar, in der bestimmte CPU-Befehle möglich sind. Ein Be-
triebssystem kann diese Ringe nutzen, um Prozesse voneinander zu trennen und
vorzugeben, welche Aktivitäten ein Prozess ausführen kann und welche nicht.
Die x86-Architektur kennt die Ringe 0, 1, 2 und 3, doch alle relevanten Betriebssys-
teme nutzen nur den Ring 0 (den sogenannten Kernel Mode) und den Ring 3 (den so-
genannten User Mode). Prozesse des User Mode dürfen keine Funktionen des Rings 0
nutzen.
Die Virtualisierungsprozessoren haben nun einen neuen Ring –1 eingeführt, der so-
zusagen »unterhalb« des Rings 0 liegt. Auf diesem Ring –1 arbeitet der Hypervisor. Er
behält so die Kontrolle über alle höheren Ringe. Durch diesen Trick können die virtu-
ellen Betriebssysteme ohne weitere Anpassung den Ring 0 für Kernel-Operationen
nutzen. Der Hypervisor ist in der Lage, von seinem hoch privilegierten Ring –1 aus
mehrere Betriebssystem-Kernel im Ring 0 zu verwalten.
Mehr zu dem Konzept der CPU-Ringe lesen Sie in einem knappen, aber guten Wiki-
pedia-Artikel unter http://de.wikipedia.org/wiki/Ring_(CPU) (Kurzlink: http://qccq.de/
s/h201).
Hyper-V unterstützt optional weitere Techniken der Hardware-Virtualisierung,
unter anderem Single-Root I/O Virtualization (SR-IOV; seit Windows Server 2012)
oder Discrete Device Assignment (DDA; seit Windows Server 2016). Mithilfe dieser
Techniken lassen sich Hardware-Komponenten direkt in eine virtuelle Maschine
durchreichen, sodass die Hardware am Hypervisor vorbei angesteuert werden kann.
Dies führt zwar zu einem Verlust des Managements auf Hypervisor-Ebene, sorgt aber
4327.book Seite 66 Montag, 8. Mai 2017 4:03 16
2.4 Der VMBus und die Integration Services
67
2
für einen sehr effizienten Zugriff auf Netzwerkkarten, Speicherkarten oder andere
Geräte. Eine genaue Beschreibung der Techniken finden Sie im weiteren Verlauf.
2.4 Der VMBus und die Integration Services
Wie in Abschnitt 2.2, »Paravirtualisierung und Emulation«, dargestellt, ist für die
Technik der Paravirtualisierung eine Kommunikationsschicht nötig, über die das Be-
triebssystem einer virtuellen Maschine auf die Hardware zugreifen kann. Im Fall von
Hyper-V nennt man diese Komponente VMBus (siehe Abbildung 2.6).
Abbildung 2.6 Das Hyper-V-Architekturschema. Für Hyper-V optimierte VM-Betriebs-
systeme nutzen den VMBus und die Integrationsdienste (Integration Components, IC)
zur Kommunikation.
Vereinfacht können Sie sich diese Komponente wie einen virtualisierten Hardware-
Bus vorstellen, wie ihn etwa der PCI-Bus darstellt. Das virtuelle Betriebssystem kann
über seinen Treiber-Stack seine Zugriffe auf die Hardware auf diesen Bus legen und
erhält von dort die jeweiligen Daten bzw. Funktionen zurück. Den tatsächlichen Auf-
bau des VMBus kontrolliert das Management-OS, denn nur dort sind die hardware-
spezifischen Treiber für die tatsächlich vorhandenen Geräte installiert. Abbildung 2.6
stellt diesen Aufbau dar.
Hardware
Hypervisor
VM Parent VM Child 1 VM Child 2 VM Child 3
Treiber IC IC Treiber
Emulierte Geräte
VSP VSC VSC
Virt.Stack
Ring -1
Ring 0 Kernel
Ring 3 User
VMBus VMBusVMBus
4327.book Seite 67 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
68
Um auf den VMBus zugreifen zu können, bedarf es aber einiger Anpassungen im
Gast-Betriebssystem. Dazu dienen die Integrationsdienste (Integration Services, manch-
mal auch Integration Components, IC genannt), die Sie sich wie einen Satz von Trei-
bern und Werkzeugen vorstellen können, die im Betriebssystem der virtuellen Ma-
schine laufen. In XenServer sind diese Dienste als Enlightenments bekannt, bei
VMware als VMware Tools. In Abbildung 2.6 verfügen die VM Child 1 und VM Child 2
über diese Dienste.
Neben dem reinen Hardware-Zugriff steuern diese Dienste auch noch einige weitere
Funktionen der Virtualisierung. Dazu zählen einfachere Vorgänge wie der Zeitab-
gleich der virtuellen Maschine mit dem Host-Server oder auch komplexere wie der
Heartbeat zur Überwachung der Hyper-V-Dienste innerhalb der VM oder die Kom-
munikation mit dem Host-Server über die Verwendung des Arbeitsspeichers im
Fall von Dynamic Memory. Details zu den Integrationsdiensten lesen Sie in Ab-
schnitt 6.2.10, »Integrationsdienste«.
Sofern die virtuellen Maschinen auf Ihrem Host-Server dasselbe Windows-Betriebs-
system ausführen wie der Host selbst, enthalten sie bereits die passenden Integra-
tionsdienste. Ältere Windows-Versionen innerhalb einer VM sollten Sie auf den je-
weils neuesten Stand der Integrationsdienste bringen, um Stabilität, Leistung und
Funktionsumfang zu gewährleisten. Seit dem Windows Server 2016 hat sich die Art
des Updates verändert. In den vorherigen Versionen von Hyper-V war es so, dass die
Integrationskomponenten auf dem Hyper-V Host unter C:\Windows\System32 in
einer .iso-Datei mit dem Namen vmguest.iso gespeichert waren. Diese Datei konnte
im Hyper-V-Manager über die Remote-Verbindungskonsole mit dem Menüpunkt
Aktion • Installationsdatenträger für Integrationsdienste einlegen an-
gehängt werden (siehe auch Abbildung 2.7). Seit dem aktuellen Release von Hyper-V
werden die Treiber nun per Windows Update verteilt und aktualisiert. Dies verbes-
sert das Management und die Art der Verteilung ungemein.
Die Integrationsdienste gibt es auch für andere Betriebssysteme, vor allem für Linux.
Einige Distributionen haben eine Version der Komponenten bereits in ihrem Liefer-
umfang, für andere können Sie diese selbst einbinden. Da die Entwicklung schnell
voranschreitet, sollten Sie bei der Installation und später regelmäßig prüfen, welche
Version für welche Distribution verfügbar ist und unterstützt wird.
Sofern in einer VM unter Hyper-V ein Betriebssystem läuft, in dem die Integrations-
dienste nicht vorhanden sind, stellt Hyper-V emulierte Geräte zur Verfügung. Das
Prinzip finden Sie in Abbildung 2.6 in der VM Child 3 dargestellt. Diese emulierten Ge-
räte sind weit weniger leistungsfähig als ihre »paravirtuellen« Pendants. Besonders
beim Netzwerkverkehr lässt sich dies oft beobachten: Ein virtueller Server, der unter
Hyper-V mit einer »älteren Netzwerkkarte« (Legacy Network Adapter) ausgestattet ist
– so lautet hier die Bezeichnung für eine emulierte, nicht paravirtualisierte Karte –,
zeigt oft Ping-Rundlaufzeiten im Bereich von Sekunden statt der üblichen Milli-
4327.book Seite 68 Montag, 8. Mai 2017 4:03 16
2.5 Das Management-OS
69
2
sekunden (in einem Fall haben wir mehr als 30 Sekunden beobachten können). In-
stalliert man die Integrationsdienste und stattet die VM mit einer synthetischen
Netzwerkkarte aus, ändert sich die Netzwerkperformance üblicherweise schlagartig
auf die erwarteten Werte.
Abbildung 2.7 Die Integrationsdienste ließen sich über die Verbindungs-
konsole im Hyper-V-Manager installieren oder aktualisieren.
2.5 Das Management-OS
Das Management-OS spielt in der Virtualisierung mit Hyper-V eine besondere Rolle.
Manchmal bezeichnet man diese Instanz auch vereinfachend als »den Host«, wobei
das nicht ganz richtig ist – der Host wäre eher der ganze Hardware-Server mitsamt
dem Hypervisor und der Parent-Partition. Auch der Ausdruck Parent-Partition ist
weiterhin verbreitet, gilt aber als veraltet.
Wie wir in Abschnitt 2.1.4, »Microkernel-Hypervisor«, erwähnt haben, dient diese
spezielle Instanz dazu, den Hardware-Zugriff aller virtuellen Maschinen zu steuern
und die Gerätetreiber für die tatsächliche Hardware bereitzuhalten.
Technisch gesehen ist das Management-OS die erste virtuelle Maschine auf dem
Hyper-V-Host. Dieses spezielle System kommt dabei auf eine spezielle Weise zustan-
de, von der Sie sich nicht auf eine falsche Fährte führen lassen sollten. Um die Vor-
gänge zu erläutern, schauen wir uns den Installationsprozess eines Hyper-V-Hosts
genauer an.
Zunächst installieren Sie Windows Server 2016 »ganz normal« auf dem Server. Wäh-
rend der Installation stellen Sie die nötigen Treiber zur Verfügung, spielen die aktuel-
len Updates ein und führen die Grundkonfiguration durch. Erst wenn Sie dies abge-
4327.book Seite 69 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
70
schlossen haben, richten Sie die Server-Rolle Hyper-V über den Server-Manager oder
die Windows PowerShell ein. Das erfordert wenige Angaben und zwei Neustarts, und
danach sieht Ihr Server aus wie vorher – ein ganz normaler Windows Server.
Tatsächlich ist nun aber Gravierendes geschehen: Der Hypervisor ist gewissermaßen
nachträglich unter das bereits laufende Windows geschoben worden und hat die
Kontrolle über das gesamte System übernommen. Dadurch ist der eben erst auf der
Hardware installierte Windows Server zur ersten virtuellen Maschine geworden, die
»nur noch« der Steuerung des Hypervisors dient und ihm einige wichtige Funktio-
nen bereitstellt.
Lasst die Eltern in Ruhe!
Die Sonderfunktionen des Management-OS sind der Grund, warum Sie innerhalb
dieses Systems auf keinen Fall weitere Dienste einrichten sollten. In der Projektpraxis
diskutieren wir immer wieder mit Kunden, die »den Host« noch besser ausnutzen
möchten und daher direkt in dem Management-OS zusätzlich Dienste wie Active
Directory, Dateidienste oder gar Applikationen wie SQL Server installieren möchten.
Das ist aber überhaupt keine gute Idee.
Halten Sie sich Folgendes vor Augen: Das Management-OS ist an jedem Ein- und
Ausgabevorgang beteiligt, zu dem irgendeine virtuelle Maschine auf die Hardware
zugreifen muss. Denn nur in dem Management-OS laufen die dazu nötigen Treiber.
Das bedeutet aber, dass dieses System auch die nötigen Ressourcen braucht, um
seine wichtige Aufgabe zu erfüllen.
Jeder Dienst, den das Management-OS daneben noch ausführt, belegt dieselben Res-
sourcen und schränkt damit alle laufenden VMs ein. Würden Sie einen Dateiserver,
einen SQL Server oder eine andere Applikation direkt innerhalb dieser Instanz laufen
lassen, kann dieser durchaus unter Last stehen, und dann hat das Management-OS
einfach keine Ressourcen mehr für ihre eigentliche Funktion frei, nämlich die Unter-
stützung der virtuellen Maschinen.
Die Empfehlung lautet daher: Installieren Sie alle produktiven Funktionen nur inner-
halb von virtuellen Maschinen, denn dafür sind diese da. Richten Sie keine produkti-
ven Dienste in dem Management-OS ein, sondern beschränken Sie diese auf das,
was für die Virtualisierung wirklich nötig ist. Dies kommt Ihnen auch bei der Siche-
rung und Wiederherstellung des Hosts zugute.
In dem Management-OS legen Sie einige zentrale Konfigurationsparameter für
Hyper-V fest, die wir in Kapitel 3, »Host-Server«, genauer vorstellen. Ebenso finden
Sie hier die Einstellungen für »den Host« selbst, also etwa das Teaming für die phy-
sischen Netzwerkkarten oder die Anbindung des Festplattenspeichers, der die vir-
tuellen Festplatten für die VMs bereitstellt.
4327.book Seite 70 Montag, 8. Mai 2017 4:03 16
2.6 Der Virtualisierungs-Stack
71
2
Ein Umstand führt allerdings immer wieder zu Missverständnissen: Die meisten Be-
triebssystem-Einstellungen des Management-OS beziehen sich nur auf diese eine
»virtuelle Maschine« und haben mit den anderen VMs, die der Server hostet, nichts
zu tun. Legen Sie etwa in diesem speziellen Betriebssystem eine IP-Adresse für eine
Netzwerkverbindung fest, gilt diese ausschließlich für die Netzwerkkommunikation
des Management-OS – die IP-Konfigurationen der VMs auf demselben Host sind da-
von völlig getrennt, auch wenn sie durch die Virtualisierung vielleicht über dieselbe
physische Karte laufen.
2.6 Der Virtualisierungs-Stack
Innerhalb des Management-OS läuft der sogenannte Virtualization Stack. Das ist ein
Satz von Komponenten, Diensten und Treibern, die die virtuelle Infrastruktur auf
dem Host-Server bereitstellen und steuern. Erst durch diesen Aufbau wird das Ma-
nagement-OS zur Management-Instanz, denn hier finden sich die nötigen Schnitt-
stellen und Funktionen, um virtuelle Maschinen zu erzeugen, zu konfigurieren und
zu betreiben.
Abbildung 2.8 Der Virtualization Stack stellt innerhalb des Management-OS
einige wichtige Funktionen für den Betrieb virtueller Maschinen bereit.
VM Parent
VMBus
Treiber
VSP
Virt. Stack
Ring 0 Kernel
Ring 3 User
VMMS
VMWP
VID
4327.book Seite 71 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
72
Sie haben bereits gelesen, dass das Management-OS grundsätzlich alle Hardware-
Zugriffe der virtuellen Maschinen kontrolliert. Das gilt mit zwei Ausnahmen: Die
Zuweisung von CPU-Ressourcen – also »Rechenzeit« – und Arbeitsspeicher ist Kern-
aufgabe des Hypervisors. Das bedeutet, dass auch das Management-OS seine CPU-
Leistung und seinen Arbeitsspeicher vom Hypervisor zugewiesen bekommt und
nicht selbst darüber bestimmt. Dies ist ein wichtiger Faktor, den Sie beim Sizing der
Umgebung beachten sollten – mehr darüber lesen Sie in Abschnitt 3.1.5, »Die Host-
Reserven«.
2.6.1 Virtual Machine Management Service
Der Virtual Machine Management Service (VMMS) ist verantwortlich für den Zustand
jeder einzelnen virtuellen Maschine auf dem betreffenden Host-Server. Dabei gibt er
einige Aufgaben an den Virtual Machine Worker Process (VMWP) ab, den Sie im fol-
genden Abschnitt kennenlernen.
Folgende Zustände einer VM kontrolliert der VMMS:
� Starten
� Wird ausgeführt (aktiv)
� Aus (nicht aktiv)
� Snapshot wird erstellt
� Snapshot wird angewendet
� Snapshot löschen
� Zusammenführung wird ausgeführt (Snapshot zusammenführen)
Die Aktionen Anhalten, Pausieren und Abschalten steuert hingegen der jeweili-
ge VMWP.
Der VMMS bietet Automatisierungsschnittstellen für WMI, die PowerShell oder COM-
Programme wie VBScript. Außerdem lässt er sich natürlich über die grafische Ober-
fläche des Management-OS ansprechen. Ebenso bietet er die Grundlage für die Ver-
waltung mit übergeordneter Software wie etwa dem System Center Virtual Machine
Manager.
2.6.2 Virtual Machine Worker Process
Sobald der Virtual Machine Management Service eine konkrete virtuelle Maschine
startet, erzeugt er für diese einen separaten Prozess, den man als Virtual Machine
Worker Process (VMWP) bezeichnet. Dieser Prozess läuft im Kontext des eingebauten
Systemkontos Netzwerkdienst, das heißt mit reduzierten Berechtigungen. Dadurch,
dass jede VM einen separaten VMWP hat, ist eine hohe Isolation der virtuellen Ma-
schinen gewährleistet.
4327.book Seite 72 Montag, 8. Mai 2017 4:03 16
2.6 Der Virtualisierungs-Stack
73
2
Neben den Basisoperationen für den Betrieb der virtuellen Maschine stellt der VMWP
auch das virtuelle Motherboard bereit, in dem Funktionen wie das BIOS, der Zugriff
auf den Arbeitsspeicher und einige andere systemnahe Elemente implementiert
sind, die nicht über den Virtual Machine Bus laufen.
Eine VM gewaltsam beenden
Sehr selten kann es vorkommen, dass eine virtuelle Maschine unter Hyper-V nicht
mehr auf Steuerungsanforderungen reagiert. Als Administrator haben Sie in einer
solchen Situation keine Möglichkeit mehr, auf das Gast-Betriebssystem zuzugreifen.
Ebenso gelingt es Ihnen dann nicht, die VM über die Steuerungsfunktionen des
Management-OS zu beeinflussen, um sie etwa zu beenden.
In solchen Situationen ist manchmal das »gewaltsame« Beenden der letzte Ausweg.
Dazu erzwingen Sie das Abschalten des zugehörigen VM-Worker-Prozesses. Vorsicht
aber: Das Verfahren ist nicht offiziell unterstützt.
So können Sie vorgehen:
� Identifizieren Sie den GUID (Globally Unique Identifier) der virtuellen Maschine,
indem Sie im Dateisystem der Parent-Partition den Ordner öffnen, in dem die
Konfiguration der VM gespeichert ist. Notieren Sie sich den (etwas kryptischen)
Namen des Unterordners – die ersten fünf bis zehn Zeichen reichen normaler-
weise aus.
� Rufen Sie im Management-OS den Task-Manager auf, und öffnen Sie dort die
Registerkarte Details.
� Sortieren Sie die Ansicht nach Name, und scrollen Sie zu den Einträgen namens
vmwp.exe.
� Identifizieren Sie den zugehörigen vmwp-Prozess über den GUID, der in der Zeile
Benutzername steht – er muss dem Ordnernamen entsprechen, den Sie im ers-
ten Schritt notiert haben.
� Diesen Prozess können Sie per Rechtsklick beenden. Vorsicht: Die virtuelle
Maschine wird hart abgeschaltet, als wäre bei einem echten Server der Strom
ausgefallen!
� Sollte Ihr Host-Server Teil eines Failover-Clusters sein, wird dieser die virtuelle
Maschine sofort neu starten. Meist sollte sie dann aber auch wieder ordnungs-
gemäß arbeiten.
2.6.3 Virtual Devices
Die virtuellen Geräte oder Virtual Devices (VDev) stellen den virtuellen Gast-Syste-
men den Zugriff auf »Hardware« bereit, die aber in Form von Software-Modulen im-
plementiert ist. Die VDevs befinden sich je nach ihrem Typ an verschiedenen Stellen
im Virtualisierungs-Stack.
4327.book Seite 73 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
74
Hyper-V unterscheidet folgende Gerätetypen:
� Core VDevs stehen allen virtuellen Maschinen zur Verfügung, weil die System-
architekturen, die sich mit Hyper-V virtualisieren lassen, diese voraussetzen. Hier-
bei gibt es zwei Untertypen:
– Emulierte Geräte: Dieser Typ bildet das Verhalten eines konkreten Gerätemo-
dells nach, sodass vorhandene Treiber in einem Gast-Betriebssystem ord-
nungsgemäß arbeiten. Es ist dabei nicht nötig, dass das zugehörige Gerät auch
tatsächlich im Host-Server vorhanden ist. Die meisten Core VDevs gehören die-
sem Typ an. Dazu zählen unter anderem das BIOS, der ISA- und der PCI-Bus, die
Tastaturschnittstelle und viele andere. Auch die ältere Netzwerkkarte (Legacy
Network Adapter), die Sie optional in eine virtuelle Maschine einbinden kön-
nen, gehört dazu.
– Synthetische Geräte: Dieser Typ stellt kein konkretes Gerät bereit, sondern
eher eine Geräteklasse. Tatsächlich handelt es sich hier um paravirtualisierte
Geräte (siehe dazu Abschnitt 2.2, »Paravirtualisierung und Emulation«), das
heißt, es handelt sich um einen Durchgriff auf die echte Hardware im Host-Ser-
ver. Da diese Technik den Virtual Machine Bus (VMBus) nutzt, steht sie nur Gast-
Betriebssystemen zur Verfügung, in denen die Integrationsdienste installiert
sind (siehe dazu Abschnitt 2.4, »Der VMBus und die Integration Services«). Typi-
scherweise ist die Performance synthetischer Geräte höher als die von emulier-
ten Geräten.
� Plug-in VDevs: Diese VDevs bilden ebenfalls keine konkreten Geräte nach und
sind größtenteils nicht einmal »Geräte« im vertrauten Sinn. Sie bilden eine
Schnittstelle für verschiedene Virtualisierungsdienste und ermöglichen die Kom-
munikation über den VMBus.
2.6.4 Virtualization Service Providers und Virtualization Service Clients
Die Virtualization Service Providers (VSP) und die Virtualization Service Clients (VSC)
gehören zusammen und bilden gewissermaßen die Endpunkte im Virtual Machine
Bus (VMBus). Ein VSP ist eine Server-Schnittstelle in der Parent-Partition, die be-
stimmte Gerätefunktionen zur Verfügung stellt. Ein VSC läuft in dem Gast-Betriebs-
system einer VM und kann über den VMBus auf einen VSP zugreifen.
Hinter VSPs und VSCs verbergen sich die paravirtualisierten Geräte, die Sie auch
schon als synthetische Geräte kennengelernt haben. Da der Zugriff auf solche virtuel-
len Hardware-Komponenten meist wesentlich schneller vonstattengeht als die Nut-
zung eines emulierten Geräts, stellt der Aufbau aus VSP, VMBus und VSC das zentrale
Leistungselement eines Hyper-V-Systems dar.
4327.book Seite 74 Montag, 8. Mai 2017 4:03 16
2.7 Child-Partitionen
75
2
2.7 Child-Partitionen
Als Child-Partionen bzw. Child-Partitions bezeichnet man in Hyper-V die virtuellen
Maschinen (VMs). Sie stehen im Gegensatz zum Management-OS, das eine privile-
gierte Stellung im System innehat und als einzige Instanz die Konfiguration des
Host-Servers sowie den Zugriff auf die Hardware steuert (siehe Abschnitt 2.5, »Das
Management-OS«). Da die VMs keine Verwaltungsaufgabe für das Virtualisierungs-
system übernehmen, sind sie für die produktiven Zwecke eines Unternehmens ge-
dacht.
Die virtuellen Maschinen lassen sich in zwei Klassen unterscheiden, je nachdem, ob
sie für Hyper-V angepasst sind oder nicht.
2.7.1 An Hyper-V angepasste Gast-Systeme
Wenn in einem Betriebssystem, das in einer virtuellen Maschine unter Hyper-V läuft,
die Integrationsdienste (Integration Services) installiert sind (siehe Abschnitt 2.4,
»Der VMBus und die Integration Services«), ist es an die Besonderheiten von Hyper-
V angepasst. Man spricht hier auch von Hyper-V-Aware, denn das VM-Betriebssystem
»weiß« gewissermaßen, dass es innerhalb von Hyper-V läuft. Die Integration Services
stellen die nötigen Funktionen, Anpassungen und Treiber bereit, damit die virtuelle
Maschine optimal mit Hyper-V zusammenarbeitet. Vor allem sind dies die Kompo-
nenten, die Sie in Abschnitt 2.6, »Der Virtualisierungs-Stack«, kennengelernt haben.
Seit Windows Server 2008 und Windows Vista ist die jeweils aktuelle Fassung der In-
tegrationsdienste (zum Release-Zeitpunkt) bereits im Betriebssystem enthalten. Für
Windows-Betriebssysteme ab Windows Server 2008 SP2 bzw. ab Windows Vista SP2
stehen für den Betrieb unter Windows Server 2016 aktualisierte Treiber zur Verfü-
gung. Sie können diese über Windows Update in einer VM installieren (siehe dazu
Abschnitt 6.2.10, »Integrationsdienste«). Wenn Sie in einer VM dasselbe Betriebs-
system ausführen wie auf dem Host-Server (etwa Windows Server 2016), sind die
Integrationsdienste meist auf dem aktuellen Stand und müssen nicht nachträglich
installiert werden. Führt der Host-Server hingegen eine neuere Windows-Version aus
als die VM, sollten Sie deren Integrationsdienste aktualisieren. Wie das funktioniert,
beschreiben wir ebenfalls in Kapitel 6, »Virtuelle Maschinen«.
Integrationsdienste für einige Nicht-Windows-Systeme finden Sie nur im Einzelfall.
Microsoft selbst entwickelt aktiv die betreffenden Komponenten für Linux, sodass
die Integration Services in vielen Linux-Distributionen bereits enthalten sind. Die
jeweils aktuelle Fassung finden Sie über den Download-Bereich der Microsoft-Web-
seite.
4327.book Seite 75 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
76
2.7.2 Nicht an Hyper-V angepasste Gast-Systeme
Die Anpassung des Gast-Betriebssystems an Hyper-V ist keine zwingende Vorausset-
zung. Technisch können Sie problemlos etwa Windows 2000 oder sogar Windows NT
4.0 in einer virtuellen Maschine unter Hyper-V betreiben. Für diese und andere Be-
triebssysteme gibt es keine Integrationsdienste, sodass dort nur emulierte Geräte be-
reitstehen (siehe dazu Abschnitt 2.6.3, »Virtual Devices«). Diese Geräte sind teilweise
weit weniger leistungsfähig als die synthetischen Geräte, wie sie die Integrations-
dienste zur Verfügung stellen. Dadurch müssen Sie beim Betrieb derartiger virtueller
Maschinen oft deutliche Einschränkungen in der Leistungsfähigkeit hinnehmen.
2.7.3 VMs der Generation 2
Seit Hyper-V unter Windows Server 2012 R2 gibt es zwei Generationen von VMs. Die
unter Hyper-V bei Windows Server 2008, 2008 R2 und 2012 einfach als »virtueller
Computer« bekannte VM ist nun eine VM der Generation 1; hinzugekommen ist die
VM der Generation 2. Diese Art von virtuellem Computer kommt komplett ohne
Emulation aus und ist ausschließlich unter Windows Server 2012 R2 und Windows
Server 2016 nutzbar. Statt eines BIOS wird eine UEFI-Firmware genutzt. Dies ermög-
licht unter anderem die Nutzung von Secure Boot, dem Booten von Festplatte und
DVD-Laufwerk über den SCSI-Controller und die Nutzung eines PXE-Boots über die
Netzwerkkarte. Die Anzahl der »Hardware«-Komponenten einer VM der Generation
2 ist deutlich geringer als die der Hardware einer VM der Generation 1. Es fehlen z. B.
der IDE-Controller sowie die ältere Netzwerkkarte. Durch den neuen Unterbau bei
dieser Art der VM haben Sie hier den Vorteil, dass eine Installation des Betriebssys-
tems sowie ein Start der VM sehr schnell durchgeführt werden können. Teilweise
brauchen die VMs keine vier Sekunden, bis sie anmeldefertig am Lockscreen stehen.
Ein weiterer Vorteil dieser Art von VM ist, dass Sie hier die Maximalwerte in Bezug
auf RAM und vCPUs nutzen können. Eine VM der Generation 1 ist hier beschränkt.
2.8 Best Practices Analyzer
Seit Windows Server 2008 R2 enthalten die Windows-Server-Betriebssysteme eine
Funktion namens Best Practices Analyzer oder kurz BPA. Dabei handelt es sich um
eine ganze Infrastruktur, die Administratoren dabei unterstützen soll, die Konfigura-
tion ihres Servers nach Empfehlungen von Microsoft einzurichten.
Den Kern des BPA-Systems bildet das Produktwissen aus dem technischen Support
des Herstellers. Dort haben sich in teilweise jahrelanger Support-Praxis Empfehlun-
gen angesammelt, die insbesondere für größere und anspruchsvolle sowie eigene
Implementierungen der Microsoft-Produkte gelten. Viele dieser Hinweise lassen sich
4327.book Seite 76 Montag, 8. Mai 2017 4:03 16
2.8 Best Practices Analyzer
77
2
durchaus als Regeln formulieren und automatisiert auf eine real vorhandene Infra-
struktur anwenden. Genau dies tun die Best Practices Analyzers: Sie sammeln Infor-
mationen über die Konfiguration einer bestimmten Server-Applikation und ihrer
Umgebung und überprüfen diese anhand vorab festgelegter Regeln.
Den ersten BPA gab es bereits vor etwa zehn Jahren für Microsofts Exchange Server.
Zunächst war das Analysewerkzeug als separates, kostenloses Produkt erhältlich. Die
Entwicklung war in enger Zusammenarbeit zwischen Microsofts technischem Sup-
port, der Entwickler-Produktgruppe und der Microsoft-nahen Community vollzogen
worden. Da der Exchange-BPA schnell sehr erfolgreich war und dazu beitrug, die
technische Qualität von Kundenumgebungen zu verbessern – was natürlich auch
den Support-Aufwand für Microsoft verringerte –, entwickelte man in Redmond wei-
tere BPA-Fassungen für andere Produkte. Seit Windows Server 2008 R2 ist die gesam-
te Struktur nun auf einheitlicher Basis zum Teil des Betriebssystems geworden. In
unregelmäßigen Abständen aktualisiert Microsoft das Regelwerk für bestimmte
BPA-Funktionen. Es lohnt sich also, auch nach den optionalen Windows-Updates
Ausschau zu halten.
Natürlich enthält Windows Server 2016 auch wieder einen Best Practices Analyzer für
Hyper-V (ebenso wie für zahlreiche weitere Dienste wie DNS, Active Directory etc.).
Sie finden den BPA im Server-Manager auf der Rollen-Seite für Hyper-V (siehe Abbil-
dung 2.9). Sofern Ihnen dort unter der Überschrift Best Practices Analyzer keine
Ergebnisdaten angezeigt werden, ist die Funktion noch nie gelaufen. In diesem Fall
klicken Sie auf die Schaltfläche Aufgaben und führen über BPA-Überprüfung
starten den Analyzer aus. Nach einiger Zeit wird Ihnen das Ergebnis direkt im Ser-
ver-Manager angezeigt.
Abbildung 2.9 Der Best Practices Analyzer für Hyper-V findet sich im Server-Manager.
4327.book Seite 77 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
78
Der BPA teilt seine Ergebnisse in verschiedene Kategorien ein und bietet Filteroptio-
nen für die Anzeige. Auf diese Weise können Sie sich etwa auf »Fehler« und »Warnun-
gen« konzentrieren. Halten Sie sich dabei vor Augen, dass ein »Fehler« im BPA nicht
unbedingt auf einen echten technischen Fehler im Sinne etwa des Ereignisprotokolls
hinweist. Gemeint ist hier eher, dass eine bestimmte Konfiguration nicht den Regeln
entspricht, die Microsoft für eine Hyper-V-Umgebung vorschlägt.
Es besteht kein Zwang, jede dieser Regeln genau umzusetzen. Microsoft wird Sie bei
technischen Problemen grundsätzlich auch unterstützen, wenn es BPA-Fehler gibt.
Es kann allerdings sein, dass man Sie im Rahmen eines technischen Support-Calls im
Einzelfall zur Korrektur auffordert.
Auf jeden Fall aber bilden die BPA-Regeln eine sehr gute Orientierung für den Aufbau
und die Detailkonfiguration eines Hyper-V-Systems, zumal die Ergebnisse meist gut
erläutert sind. Es empfiehlt sich durchaus, die BPA-Analyse regelmäßig auszuführen,
besonders nach Änderungen der Konfiguration oder Updates des Regelwerks durch
Microsoft.
Regelmäßige Überprüfungen können Sie beispielsweise mit der PowerShell automa-
tisieren. Dazu dienen Ihnen die Commandlets des Moduls BestPractices (siehe Abbil-
dung 2.10).
Abbildung 2.10 Die PowerShell-Cmdlets für den BPA gehören dem Modul
»BestPractices« an.
Mit folgendem Kommando führen Sie auf dem lokalen Server einen BPA-Scan der
Hyper-V-Rolle aus:
Invoke-BpaModel Microsoft/Windows/Hyper-V
Windows speichert dieses Ergebnis, und im Server-Manager können Sie es im Bereich
Best Practices Analyzer über den Befehl Aufgaben • Aktualisieren anzeigen.
Direkt in der PowerShell geben Sie die Ergebnisse mit diesem Kommando aus:
Get-BpaResult Microsoft/Windows/Hyper-V
4327.book Seite 78 Montag, 8. Mai 2017 4:03 16
2.9 Vergleich mit Hyper-V unter Windows Server 2012 R2
79
2
2.9 Vergleich mit Hyper-V unter Windows Server 2012 R2
Mit dem Windows Server 2016 hat Microsoft erneut einiges an den Zahlen und Maxi-
malwerten gegenüber dem Windows Server 2012 (R2) angepasst. Neben den reinen
Zahlen und Fakten gibt es auch einige Funktionen, die verbessert oder erweitert wur-
den, ohne dass sich diese Verbesserungen in Zahlen ausdrücken lassen. Dieser Ab-
schnitt zeigt die Unterschiede zwischen den beiden Versionen auf und beschreibt die
Änderungen sowie Erweiterungen der einzelnen Features.
2.9.1 Zahlen, Daten, Fakten
Da unterschiedliche Lösungen gern über die maximalen Werte verglichen werden,
finden Sie in Tabelle 2.1 eine Auflistung der Betriebsgrenzen von Hyper-V unter
Windows Server 2012 R2 sowie Windows Server 2016.
Wie Sie in Tabelle 2.1 erkennen können, ist keiner der Werte gleich geblieben. Die
Menge an logischen CPUs, die verwaltet werden kann, ist von 320 auf 512 gestiegen,
mit dem Faktor 1,6 der kleinste Wert in dieser Auflistung. Ein Host kann in der aktu-
ellen Version die sechsfache Menge an Arbeitsspeicher verwalten als Windows Server
2012 (R2), eine VM kann sogar das Sechszehnfache an RAM nutzen (16 TB statt 1 TB in
der Vorgänger-Version) sowie 240 vCPUs (statt bisher 64; dies ist eine Steigerung um
das nahezu Vierfache).
Funktion Windows Server 2012 (R2)
Windows Server 2016
Anzahl logischer Prozessoren im Host 320 512
Physikalischer Arbeitsspeicher 4 TB 24 TB
Virtuelle Prozessoren 2.048 2.048
CPUs pro virtuelle Maschine 64 240
RAM pro virtuelle Maschine 1 TB 12 TB
Aktive virtuelle Systeme 1.024 1.024
Maximale Cluster-Knoten 64 64
Virtuelle Systeme pro Cluster 8.000 8.000
Tabelle 2.1 Maximalwerte der jeweiligen Funktionen unter Windows Server 2012 (R2) und
Windows Server 2016
4327.book Seite 79 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
80
2.9.2 Die großen und kleinen Erweiterungen
Im Bereich des Netzwerks gab es mit der Veröffentlichung des Windows Server 2012
die größten Neuerungen. Vor dieser Version gab es lediglich eine Möglichkeit der Iso-
lierung mit der Funktion Virtual Local Area Networks (VLAN). Ab Windows Server
2012 steht Ihnen eine vollständig isolierte Netzwerkschicht zur Verfügung, die für
einen sicheren und komplett voneinander getrennten Netzwerkverkehr genutzt
werden kann. Ermöglicht wird dies durch den Hyper-V Extensible Switch, einen virtu-
ellen Layer-2-Switch. Diese Schicht kann durch Erweiterungen angepasst und erwei-
tert werden. Hierbei gibt es keine Herstellerbegrenzungen. Das heißt, die Erweiterun-
gen müssen nicht von Microsoft veröffentlicht oder geprüft werden. Jeder Hersteller
kann eine entsprechende Erweiterung entwickeln und anbieten. Ein Beispiel für
solch eine Erweiterung ist ein Virenscanner, der sämtlichen Netzwerkverkehr aus
und in die VM scannt und Schadcodes automatisch erkennt und blockiert. Dies er-
spart unter Umständen den Einsatz von Virenscannern in jeder VM, was sich in Be-
zug auf die Performance positiv auswirkt. Jeder Hyper-V-Switch kann seine eigene
Konfiguration haben. Das heißt, Erweiterungen sind pro Switch aktiv, nicht pro Host.
Dies ermöglicht den Einsatz mehrerer Hyper-V-Switches mit unterschiedlichen Er-
weiterungen und Konfigurationen. Pro Hyper-V-Switch können mehrere Erweite-
rungen aktiviert werden.
Erweiterungen sind zum Beispiel in der Lage, das Verhalten der VMs (in Bezug auf
den Netzwerkverkehr) zu lernen, um so das virtuelle Netzwerk optimal anpassen zu
können. Sie wären in der Lage, verdächtiges Verhalten zu erkennen und entspre-
chend ihrer Konfiguration zu reagieren. Zum Beispiel werden bei dauerhaft stark er-
höhtem Traffic innerhalb einer VM automatisch eine Bandbreiten-Regulierung und
ein Virenscanner aktiv, die den Traffic untersuchen.
Die Virtualisierung des Netzwerks ermöglicht den Betrieb mehrerer VMs in einem
Subnetz über Hosts hinweg, selbst mit einem privaten Netzwerk. Die Nutzung von
VLANs ist nicht mehr zwingend notwendig. Dies erleichtert das Management und er-
höht die Anzahl der möglichen Gast-Netzwerke auf über 4.096. (Pro Netzwerk kön-
nen maximal 4.096 VLANs vergeben werden, dies ist technisch die Grenze.)
Mithilfe von Private Virtual Local Area Network (PVLAN) können Sie kontrollieren,
welche VMs miteinander kommunizieren dürfen. Diese Funktion ermöglicht einen
Betrieb von VMs mit denselben privaten IP-Bereichen. Dies macht eine Nutzung für
Hoster sehr interessant, da die Systeme des Kunden den gewünschten privaten IP-
Bereich haben können, unabhängig davon, ob dieser auf benachbarten Systemen
ebenfalls genutzt wird.
Unter Windows Server 2012 gab es zwei Techniken, mit denen eine Virtualisierung
des Netzwerks erreicht wird: IP Address Rewrite und Generic Routing Encapsulation
(NVGRE). Unter Windows Server 2012 R2 wurde die Anzahl der nutzbaren Techniken
4327.book Seite 80 Montag, 8. Mai 2017 4:03 16
2.10 Virtuelle Gäste
81
2
auf NVGRE reduziert, IP Address Rewrite ist nicht mehr enthalten. Mit dem Windows
Server 2016 kommt ein weiteres Protokoll hinzu: Virtual eXtensible Local Area Net-
work (VXLAN) .
Ebenfalls neu in dem aktuellen Release ist die Möglichkeit, die Namen der Netzwerk-
karten in der Hyper-V-Konfiguration in die VM hineinzureichen. Dies sorgt z. B. bei
einer automatisierten Installation dafür, dass selbst bei mehreren Netzwerkkarten
immer die korrekte Netzwerkkarte angesprochen und konfiguriert werden kann.
Auf einige dieser Funktionen gehen wir in den folgenden Kapiteln noch näher ein.
Daher verzichten wir an dieser Stelle auf eine ausführliche Erklärung.
2.10 Virtuelle Gäste
Damit Sie Ihre virtuellen Betriebssysteme zuverlässig betreiben können, müssen Sie
gewisse Regeln einhalten. Wir zeigen Ihnen, wie Sie mit unterstützten Betriebssyste-
men und Konfigurationen einen stabilen Betrieb erreichen.
2.10.1 Funktionierende und unterstützte VM-Betriebssysteme
Unter Hyper-V können sehr viele Betriebssysteme betrieben werden, aber nur einige
von ihnen werden von Microsoft unterstützt. Dies liegt unter anderem daran, dass
die Systeme ab einem gewissen Alter nicht mehr unterstützt werden und keinen
Support mehr erfahren. Ab dem Windows Server 2016 werden die Betriebssysteme
Windows Server 2003 und Windows XP offiziell nicht mehr unterstützt, da mittler-
weile der offizielle Support für diese alten Systeme eingestellt wurde. Eine aktuell ge-
pflegte und zuverlässige Quelle zu diesem Thema sind die Seiten von Microsoft:
https://technet.microsoft.com/en-us/windows-server-docs/compute/hyper-v/
supported-windows-guest-operating-systems-for-hyper-v-on-windows
(Kurzlink: http://qccq.de/s/v601)
Zu den offiziell unterstützten Systemen gehören:
Unterstützte Gast-Betriebssysteme (Server)
� Windows Server 2016
� Windows Server 2012 R2
� Windows Server 2012
� Windows Server 2008 R2 mit Service Pack 1
� Windows Server 2008 R2
� Windows Server 2008 mit Service Pack 2
� Windows Small Business Server 2011 (Essentials)
4327.book Seite 81 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
82
� Windows Small Business Server 2011 (Standard)
� CentOS/Red Hat Enterprise Linux
� Open SUSE/SUSE Linux Enterprise Server
� Ubuntu/Debian
� Oracle Linux
� FreeBSD
Die Versionen der Linux- und FreeBSD-Distributionen aufzuzählen, würde an dieser
Stelle den Rahmen sprengen, schauen Sie am besten einfach unter dem weiter vorne
aufgeführten Link nach. Microsoft entscheidet übrigens nicht allein, welche Version
unterstützt wird; der Linux-Distributor ist hier aktiv beteiligt und gibt an, was unter-
stützt wird und was nicht.
Unterstützte Gast-Betriebssysteme (Client)
� Windows 10
� Windows 8
� Windows 7 mit Service Pack 1
� Windows 7
� Windows Vista mit Service Pack 2
� CentOS/Red Hat Enterprise Linux
� Open SUSE/SUSE Linux Enterprise Server
� Ubuntu/Debian
� Oracle Linux
� FreeBSD
Neben diesen offiziell unterstützten Systemen gibt es noch einige andere Betriebs-
systeme, die als VM problemlos betrieben werden können, auch wenn Sie im Prob-
lemfall nicht auf den Support von Microsoft zurückgreifen können. Hierzu zählen
unter anderem die zuvor genannten Betriebssysteme ohne den entsprechenden Ser-
vice-Pack-Level, Betriebssysteme von Microsoft, die keinen offiziellen Support mehr
erfahren (Windows Server 2003, Windows 2000 Server, Windows 98 etc.), sowie älte-
re Linux-Distributionen.
Je nach Betriebssystem gibt es hinsichtlich der Konfiguration und des Betriebs des
virtuellen Computers gewisse Bedingungen. Zur Unterstützung und Nutzung von
synthetischer Hardware werden Treiber benötigt, die entweder im Betriebssystem
direkt enthalten sind oder alternativ nachträglich installiert werden können. Sind
diese Treiber nicht verfügbar oder lassen sie sich nicht installieren, muss die VM mit
emulierter Hardware arbeiten (zum Beispiel mit der älteren Netzwerkkarte). Dies ist
4327.book Seite 82 Montag, 8. Mai 2017 4:03 16
2.10 Virtuelle Gäste
83
2
mittlerweile bei allen Microsoft-Betriebssystemen ab Windows Server 2003 und älter
der Fall, wobei sich ein Windows 2003 auch mit den Integrationskomponenten von
Windows Server 2012 oder Windows Server 2008 R2 betreiben lässt. (Hier gibt es aber
noch weitere Einschränkungen, zum Beispiel den Betrieb mit maximal zwei vCPUs.)
Wenn Sie ein Unix-Betriebssystem einsetzen, können Sie auf die Integrationsdienste
für Linux zurückgreifen oder sich alternativ einen Kernel kompilieren, der die ent-
sprechenden Treiber beinhaltet. Ob die Treiber vorhanden sind oder die Möglichkeit
einer Kernel-Kompilierung in Ihrem speziellen Fall gegeben ist, müssen Sie selbst
herausfinden, da die Anzahl an Distributionen und Versionen nahezu unüberschau-
bar ist.
2.10.2 Technische Limits
Bei dem Betrieb von virtuellen Betriebssystemen gibt es einige Einschränkungen, auf
die wir in diesem Abschnitt eingehen. Die meisten dieser Einschränkungen sind für
die meisten Szenarien nicht relevant, in der einen oder anderen Situation kann es
allerdings trotzdem vorkommen, dass Sie an diese Grenzen stoßen.
Die CPU
Sie können in einer VM maximal 240 vCPUs verwenden, sofern das Betriebssystem
dies unterstützt und Sie eine VM der Generation 2 einsetzen. Diese Begrenzung wird
in den meisten Anwendungsfällen niemals erreicht, allerdings gibt es noch eine wei-
tere Begrenzung bzw. Abhängigkeit: Die Anzahl der vCPUs kann die Anzahl der logi-
schen Prozessoren nicht übersteigen. Dies bedeutet, dass Sie bei einem Server mit
zwei CPUs und jeweils acht Kernen ohne Hyper-Threading nur maximal 16 vCPUs pro
VM zuweisen können; eine höhere Anzahl lässt der Wizard nicht zu. Bedenken Sie
dies, wenn Sie eine bestimmte Anzahl an vCPUs innerhalb Ihrer VM benötigen. Eben-
falls zu bedenken ist, dass die reine Anzahl nicht vollständig ausschlaggebend ist,
sondern dass teilweise auch die Geschwindigkeit von einem Kern viel wichtiger ist
als die reine Menge.
Der Arbeitsspeicher
Sie können einer VM maximal 12 TB an Arbeitsspeicher zuweisen. Diese Zahl ist aktu-
ell nahezu unerreichbar hoch; allein die Kosten für diese Anzahl an RAM sind enorm.
Ein weiterer Punkt, der neben der maximalen Größe bedacht werden muss, ist die
Zuweisung von dynamischem Arbeitsspeicher. Behalten Sie hier immer im Hinter-
kopf, dass Sie keine (!) Überprovisionierung technisch nutzen können.
Natürlich können Sie für jede VM (bei der Nutzung von Dynamic Memory) einen Ma-
ximalwert von 12 TB eintragen, technisch nutzt Ihre VM allerdings immer nur das,
4327.book Seite 83 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
84
was auch zur Verfügung steht. Dies ist zwar eine Einschränkung, wir sehen diese al-
lerdings sehr positiv. Sollte es bei einer Überprovisionierung einmal dazu kommen,
dass RAM-Inhalte auf die Festplatte ausgelagert werden müssten, wäre das in etwa so,
als wenn Sie in einem Formel-1-Wagen bei 300 km/h schlagartig auf die Bremse tre-
ten und maximal 2 km/h fahren. Hyper-V hat solch eine Technik nicht implemen-
tiert – in unseren Augen eine kluge Entscheidung.
Die Netzwerkkarten
Sie haben bei der Anzahl der physischen Netzwerkkarten in Ihrem Host keine direkte
Begrenzung, allerdings werden Sie ab einer gewissen Anzahl an Karten keinen Platz
mehr in Ihrem Server haben, um weitere Karten einbauen zu können. In der Realität
sieht es allerdings eher so aus, dass Sie die Bandbreite der Karten steigern, nicht die
Menge an Ports generell.
Aufseiten der VM sieht das Ganze schon »ein wenig« begrenzter aus: Sie können eine
VM mit maximal zwölf Karten ausstatten. Die Anzahl von synthetischen und emu-
lierten Karten ist hierbei nicht gleichgültig – Sie können maximal acht synthetische
und vier emulierte Karten pro VM zuweisen. Beachten Sie bei einer VM der Generati-
on 2, dass hier nur synthetische Netzwerkkarten zum Einsatz kommen können, da
keine emulierte Hardware eingesetzt werden kann.
Aufseiten des Hosts können Sie eine unendliche Anzahl an virtuellen Switches erstel-
len, die Anzahl externer Switches ist hierbei auf die Anzahl an Karten bzw. Ports
begrenzt. (Eine Karte kann natürlich mehrere Ports besitzen.) Interne oder private
Netzwerke können in einer unendlichen Anzahl erstellt werden.
Fibre Channel
Sie können mit Hyper-V ab dem Windows Server 2012 erstmals innerhalb einer VM
einen Fibre Channel Host Bus Adapter (FC-HBA) verwenden. Bedingung für die Nut-
zung ist hierbei die Funktion N_Port ID Virtualization (NPIV), die es erlaubt, dass jede
VM eigene Worldwide Names (WWN) erhält, da nur so eine Kommunikation mehre-
rer VMs über einen Adapter möglich ist. Diese Funktion muss nicht nur vom FC-HBA
unterstützt werden, sondern von allen Geräten, die in die Fibre-Channel-Kommuni-
kation involviert sind. Microsoft selbst unterstützt nicht alle möglichen Szenarien;
prüfen Sie dies am besten vor der Umsetzung.
Lokale Schnittstellen
Bei der Nutzung der lokalen Schnittstellen hat sich gegenüber den vorherigen Versi-
onen nichts geändert. Es ist weiterhin nicht möglich, lokal angeschlossene USB-Gerä-
4327.book Seite 84 Montag, 8. Mai 2017 4:03 16
2.10 Virtuelle Gäste
85
2
te oder Geräte am COM- sowie Parallel-Port zu nutzen. Wir hören oft Beschwerden
über diese »Einschränkung«. Die Begründung von Microsoft erscheint allerdings
schlüssig und sinnvoll: Lokale Geräte stören oder verhindern den Umzug einer VM
auf einen anderen Host, somit wird keine Technik implementiert, die die Nutzung
von lokalen Komponenten wie USB-Sticks oder -Festplatten ermöglicht, die wiede-
rum einen Transfer der VM verhindert.
Ein wenig aufgeweicht wird diese Aussage, wenn man sich die Funktion Discrete De-
vice Assignment (DDA) anschaut, die unter Windows Server 2016 Einzug gehalten hat.
Mithilfe dieser Funktion ist es möglich, lokale Geräte 1:1 in eine virtuelle Maschine hi-
neinzureichen. Einer der Gründe für diese Funktion ist die Nutzung von NVMe-Da-
tenträgern (Flashspeicher, der unter anderem per PCIe angesprochen werden kann)
innerhalb einer VM. Durch die fehlende Hypervisor-Schicht kann so auch in der VM
eine sehr hohe Performance erreicht werden. Im Gegenzug muss man aber auf die
Möglichkeit einer Live-Migration verzichten.
2.10.3 Alte Betriebssysteme betreiben
Möchten Sie ein oder mehrere Betriebssysteme virtualisieren, die bereits eine gerau-
me Zeit auf dem Markt sind und schon vor der Virtualisierungstechnik erschienen
sind, dann kann es zu Problemen mit der emulierten Hardware kommen. Dies liegt
daran, dass die Betriebssysteme zu einer Zeit entwickelt wurden, in der ein Prozessor
auch wirklich nur ein Prozessor war und sich die Größen von Arbeitsspeicher in MB
oder sogar KB beschreiben ließen. Solche Systeme kommen nicht mit den aktuellen
Mehrkern-CPUs zurecht und verweigern auch als VM den Betrieb.
Hier konnten Sie sich unter Windows Server 2008 oder Windows Server 2008 R2
eventuell behelfen, indem Sie in den Eigenschaften einer VM unter Prozessor die
Option Prozessorfunktionen einschränken aktiviert haben. Diese Option gibt
es ab Windows Server 2012 nicht mehr, zumindest nicht im GUI. Falls Sie die vCPU für
den Betrieb einer VM einschränken müssen, können Sie dies nur noch über die
PowerShell tun (siehe Abbildung 2.11). Der Befehl dazu lautet:
Get-VM VM_Name | Get-VMProcessor | Set-VMProcessor ¿-CompatibilityForOlderOperatingSystemsEnabled $true
Abbildung 2.11 Nutzung der PowerShell zur Aktivierung der eingeschränkten Prozessor-
funktionen
4327.book Seite 85 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
86
Um diese Änderung wieder rückgängig zu machen, führen Sie folgenden Befehl aus:
Get-VM VM_Name | Set-VMProcessor ¿-CompatibilityForOlderOperatingSystemsEnabled $false
2.11 Allgemeine Administration
Zur Administration der Hyper-V-Umgebung stellt Windows eine Reihe von Werk-
zeugen zur Verfügung. Leider gibt es im Lieferumfang kein einzelnes integriertes
Verwaltungsprogramm, sondern Sie müssen je nach Aufgabe mit verschiedenen
Konsolen parallel arbeiten. Details zu den jeweiligen administrativen Arbeiten fin-
den Sie im gesamten Buch an der Stelle, die das Thema behandelt. In diesem Kapitel
stellen wir Ihnen zunächst die Verwaltungsprogramme grundsätzlich vor.
Die meisten dieser Werkzeuge können Sie auch remote von einem Administrations-
PC oder -Server aus nutzen, indem Sie dort die Remote Server Administration Tools
(RSAT) installieren. Das ist meist sinnvoller, als sich direkt auf dem Server anzumel-
den. Achten Sie darauf, stets die neueste RSAT-Version einzusetzen; einen Windows
Server 2016 sollten Sie nur von Windows 10 oder einem anderen Windows Server
2016 aus verwalten. Die aktuellen RSAT für Windows 10 finden Sie unter:
https://www.microsoft.com/de-de/download/details.aspx?id=45520
(Kurzlink: http://qccq.de/s/v201)
2.11.1 Grafische Oberfläche
Die alltägliche Arbeit lässt sich mit den grafischen Werkzeugen gut erledigen. Die fol-
genden Abschnitte geben einen Überblick.
Server-Manager
Wie schon in Windows Server 2012 und 2012 R2 dient der Server-Manager in erster Li-
nie als Überblicksportal über den Server (siehe Abbildung 2.12). Administrative Auf-
gaben können Sie von hier aus nur in Einzelfällen erledigen. Über das Menü Tools
am rechten oberen Rand können Sie die anderen Verwaltungsprogramme aber auf-
rufen.
Von Interesse ist aber der Bildschirm Lokaler Server (siehe Abbildung 2.13), weil er
einen schnellen Überblick über die Grundkonfiguration des Systems gibt. Wenn Sie
in diesem Bildschirm etwas nach unten scrollen, gelangen Sie zum Bereich Best
Practices Analyzer, wo Sie eine automatisierte Kurzanalyse des Systems ausfüh-
ren können, die Ihnen einige Hinweise zu möglichen Optimierungen gibt.
Der Abschnitt Hyper-V enthält hingegen kaum nützliche Punkte.
4327.book Seite 86 Montag, 8. Mai 2017 4:03 16
2.11 Allgemeine Administration
87
2
Abbildung 2.12 Das Menü »Tools« im Server-Manager gewährt Zugriff auf die installierten
Verwaltungsprogramme.
Abbildung 2.13 Die Ansicht Lokaler Server im Server-Manager gibt Ihnen einen schnellen
Überblick über die Grundkonfiguration.
4327.book Seite 87 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
88
Hyper-V-Manager
Der Hyper-V-Manager ist das wichtigste Verwaltungsprogramm, mit dem Sie die
meisten laufenden Arbeiten gut erledigen können. Behalten Sie aber im Blick, dass ei-
nige komplexere Aufgaben sich dort nicht erledigen lassen – hier müssen Sie in der
Regel auf die PowerShell ausweichen.
PowerShell-Konfigurationen nicht grafisch nachbearbeiten
Sobald Sie eine komplexere Änderung über die PowerShell erledigt haben, die Sie im
Hyper-V-Manager nicht ausführen können, sollten Sie die betreffende Einstellung
hinterher nicht mehr im Hyper-V-Manager bearbeiten. Da der Hyper-V-Manager nur
für einfache Arbeiten vorgesehen ist, würden Sie sonst Ihre detaillierten Einstellun-
gen zunichtemachen. In Einzelfällen kann es sogar dazu führen, dass das betreffende
Objekt beschädigt wird – so etwa bei virtuellen Switches, für die Sie per PowerShell
erweiterte Anpassungen vorgenommen haben.
Der Hyper-V-Manager in Windows Server 2016 kann auch ältere Hyper-V-Versionen
verwalten, namentlich Windows Server 2012 und 2012 R2 sowie die entsprechenden
Client-Hyper-V-Versionen von Windows 8 bis Windows 10. Wenn Sie über den
Hyper-V-Manager eine Verbindung zu einem anderen Computer herstellen, können
Sie jetzt ein alternatives Anmeldekonto dafür angeben (siehe Abbildung 2.14).
Abbildung 2.14 Wenn Sie sich über den Hyper-V-Manager mit einem anderen Host-Server
verbinden, können Sie jetzt ein anderes Konto für den Zugriff angeben.
4327.book Seite 88 Montag, 8. Mai 2017 4:03 16
2.11 Allgemeine Administration
89
2
Im Aktionsbereich des Hyper-V-Managers am rechten Fensterrand finden Sie meist
eine zweiteilige Ansicht. Dabei bezieht sich der obere Teil auf den Host-Server und
der untere auf die VM, die Sie im Inhaltsbereich markiert haben. Die Befehle, die der
Aktionsbereich anbietet, finden Sie auch im Kontextmenü des betreffenden Objekts.
Failovercluster-Manager
Sobald Sie einen Failovercluster eingerichtet haben, finden Sie auf den Cluster-Ser-
vern den Failovercluster-Manager (siehe Abbildung 2.15). Auch diesen können Sie
remote von einem Admin-PC aus verwenden.
Abbildung 2.15 Der Failovercluster-Manager dient zur Konfiguration und Verwaltung des
Clusters. Er lässt aber auch Detailarbeiten an VMs zu.
Der Failovercluster-Manager dient zur Administration des gesamten Clusters, bietet
aber im Fall von Hyper-V auch umfangreiche Funktionen, um die Hyper-V-Objekte
zu verwalten. So können Sie von dieser Konsole aus auch die Details von virtuellen
Maschinen bearbeiten, sobald diese dem Cluster hinzugefügt wurden. In früheren
4327.book Seite 89 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
90
Versionen von Windows Server war es zwingend erforderlich, dass Sie geclusterte
VMs nur noch über den Failovercluster-Manager bearbeiteten. Nahmen Sie stattdes-
sen den Hyper-V-Manager, so konnte es vorkommen, dass die Änderungen nicht auf
Clusterebene aktiv wurden. Dies hat Microsoft mittlerweile korrigiert. Trotzdem soll-
ten Sie sich angewöhnen, Arbeiten, die sowohl der Hyper-V-Manager als auch der
Failovercluster-Manager zulassen, stets vom »höherwertigen« Werkzeug aus durch-
zuführen, also vom Failovercluster-Manager aus.
Auch im Aktionsbereich des Failovercluster-Managers finden Sie eine Zweiteilung
vor. Diese ist jedoch nicht so eindeutig wie beim Hyper-V-Manager. Grundsätzlich ist
der obere Teil dem »übergeordneten« Objekt zugeordnet (in Abbildung 2.15 etwa den
Rollen) und der untere dem »untergeordneten« Objekt (im Beispiel einer konkreten
VM). Je nach Arbeitsbereich kann sich dies jedoch unterscheiden, sodass Sie stets die
Überschrift des jeweiligen Teils prüfen sollten.
Leider neigt der Failovercluster-Manager zu enormer Unübersichtlichkeit. An wel-
cher Stelle Sie eine bestimmte Einstellung finden, erschließt sich nicht immer von
selbst. Manche Dinge erreichen Sie nur über das Kontextmenü, weitere sind auf
mehrere Registerkarten verteilt. Auch die Bezeichnungen der Befehle sind nicht
immer hilfreich. Wenn Sie also nach längerer Suche die Stelle gefunden haben, die
eine bestimmte Konfiguration steuern sollte, dann bleiben Sie wachsam und prüfen
Sie (spätestens) hinterher, ob es wirklich das Gemeinte war.
Netzwerkübersicht
Eine Netzwerkkonfiguration benötigen Sie hauptsächlich bei der Ersteinrichtung des
Systems. Die Übersicht kann aber auch später für eine Diagnose oder eine Fehler-
suche nützlich sein. Gemeint ist die Übersicht der Netzwerkverbindungen des Host-
Servers.
Am einfachsten rufen Sie diese über einen Rechtsklick auf den Start-Knopf auf. Im
Kontextmenü (das Sie übrigens auch mit (é) + (X) öffnen können) klicken Sie dann
auf Netzwerkverbindungen (siehe Abbildung 2.16).
Dann öffnet sich ein Fenster mit Symbolen für jede Netzwerkverbindung. Was Sie
dort genau vor sich sehen, erläutern wir in Kapitel 5, »Netzwerk«, näher. Zur Verwal-
tung von Hyper-V sollten Sie sich jedoch angewöhnen, dieses Fenster in der Detailan-
sicht zu verwenden. Dazu finden Sie am unteren rechten Rand zwei unscheinbare
Icons (siehe Abbildung 2.17). Eines schaltet in die Symbolansicht um, das andere in
die Listenansicht. Wir empfehlen die Liste, denn sie gibt einen recht guten Überblick
über die Objekte mit wichtigen Detailinformationen.
4327.book Seite 90 Montag, 8. Mai 2017 4:03 16
2.11 Allgemeine Administration
91
2
Abbildung 2.16 Die Netzwerkübersicht des Host-Servers öffnen
Sie über das Kontextmenü des Start-Knopfes.
Abbildung 2.17 Die Übersicht der Netzwerkverbindungen ist sehr nützlich, wenn Sie die Lis-
tenansicht einschalten (Schalter am unteren rechten Rand).
2.11.2 PowerShell
Die grafischen Werkzeuge für Hyper-V hat Microsoft leider seit Windows Server 2008
kaum weiterentwickelt. Wie so oft bieten die mitgelieferten Programme nur grundle-
gende Funktionen an – sobald Sie Komplexeres vorhaben, kommen Sie damit nicht
recht weiter.
4327.book Seite 91 Montag, 8. Mai 2017 4:03 16
2 Hyper-V im Überblick
92
Den vollen Funktionsumfang von Hyper-V (einschließlich Clustering, Storage, Netz-
werk und allen weiteren Einstellungen) können Sie aber über die PowerShell nutzen.
Nun ist die kommando- und skriptorientierte Arbeit nicht jedes Administrators Lieb-
lingsverfahren, aber solche Vorlieben zählen hier bedauerlicherweise nicht.
Im folgenden Abschnitt 2.12 finden Sie eine kurze Einführung in die Arbeit mit der
PowerShell, daher soll an dieser Stelle ein knapper Überblick über die beiden mögli-
chen Programmfenster reichen. Eine simple PowerShell-Konsole öffnen Sie über das
Icon PowerShell, das standardmäßig im Windows-Startmenü vorhanden ist. Alter-
nativ drücken Sie (é) + (R) und tippen powershell ein.
Diese Standardkonsole ist jedoch nicht besonders komfortabel. Wesentlich mehr Un-
terstützung bei der Arbeit erhalten Sie mit der PowerShell ISE (Integrated Scripting En-
vironment), die in Windows Server 2016 und Windows 10 standardmäßig installiert
ist (siehe Abbildung 2.18). Auch hierzu findet sich ein Icon im Startmenü des Servers.
Alternativ drücken Sie (é) + (R) und tippen powershell ein. Falls Sie bereits eine »nor-
male« PowerShell-Konsole offen haben, tippen Sie dort einfach ise – auch dies öffnet
die leistungsfähigere Variante.
Abbildung 2.18 Für die PowerShell enthält Windows Server 2016 gleich zwei Konsolen:
die einfache (hier im Hintergrund) und die komfortable ISE-Umgebung (im Vordergrund
mit einem geöffneten Skript).
4327.book Seite 92 Montag, 8. Mai 2017 4:03 16
111
3
Kapitel 3
Host-Server
Hyper-V ist mittlerweile bei vielen Kunden »State of the Art«, was das
Thema Virtualisierung angeht. Ein wichtiger Punkt einer funktionie-
ren Hyper-V-Infrastruktur ist das Sizing der Hyper-V-Cluster, um einen
optimalen Betrieb sicherzustellen. Windows Server 2016 bringt hier
einen weiteren Quantensprung von Hyper-V-Cluster-Umgebungen.
– Markus Klein, MVP Cloud & Datacenter Management
Der Aufbau einer Hypervisor-Infrastruktur wird oft unterschätzt. Die Aspekte der In-
stallation und Einrichtung sind mittlerweile so umfangreich, dass die ausführliche
Einarbeitung in die Konzepte unerlässlich ist. Daher widmet sich dieses Kapitel die-
sen Themen besonders ausführlich. Neben den Anforderungen an die Hardware
behandeln wir die Einrichtung und Wartung der Systeme, ihrer Komponenten und
verschiedene Aspekte der Sicherheit.
Schon vor der Installation ist eine detaillierte Planung sinnvoll, um die richtige Hard-
ware-Konfiguration zusammenzustellen. Hyper-V soll nicht nur optimal funktio-
nieren, sondern auch das Zusammenspiel mehrerer Hosts soll reibungslos vonstat-
tengehen. In diesem Kapitel erhalten Sie auch wichtige Informationen über die
Dimensionierung einer Umgebung aus Hyper-V-Hosts.
3.1 Die Grundinstallation
Schon vor der Installation eines Servers ist einiges zu beachten. Die erste Entschei-
dung ist die Sprache des Betriebssystems. Gern wird die vereinfachte Fehlersuche als
Grund dafür genannt, die englische Fassung zu wählen. Allerdings gibt es mittlerwei-
le mehrere deutsche Communitys, die sehr gute Unterstützung für das deutsche
Windows leisten. In mehrsprachigen Umgebungen wird oft zum englischen Betriebs-
system gegriffen, um mithilfe von Sprachpaketen die geforderte Lokalisierung be-
reitzustellen.
Der vorrangige Grund für den Einsatz des deutschsprachigen Windows ist aber die
geringe Einstiegshürde für den hiesigen Kunden. Insbesondere im Umfeld der öf-
4327.book Seite 111 Montag, 8. Mai 2017 4:03 16
3 Host-Server
112
fentlichen Auftraggeber ist eine deutsche Fassung explizit erwünscht. Daher nutzen
wir die deutschsprachige Variante des Betriebssystems.
3.1.1 Festplatten richtig aufteilen
Eine wichtige Entscheidung ist die Wahl des Betriebssystem-Volumes. Dieses sollte
nicht als eine Partition auf einem Verbund aller Festplatten in dem Server angelegt
werden, sondern aus dedizierten Festplatten bestehen, die zu einem eigenen Ver-
bund zusammengeschlossen werden. Eine gute Wahl ist hier die Nutzung eines
RAID-1-Volumes, das exklusiv für das Betriebssystem zur Verfügung steht und auf
dem keine weiteren Daten oder VMs gespeichert oder ausgeführt werden. Aktuelle
Festplatten überschreiten die Installationsgröße von Windows Server 2016 bei Wei-
tem. Daher bestimmen primär Verfügbarkeit und Preis der Festplatten die Größe die-
ses Volumes.
SATA-Festplatten sind als Betriebssystem-Festplatten für Server nicht geeignet und
als Speicher für die VMs noch viel weniger. Grundlage sollten grundsätzlich SAS-Fest-
platten oder Solid State Drives (SSD) mit Freigabe für die Nutzung in Server-Systemen
sein. Weitere Informationen zu diesem Thema finden Sie in Kapitel 4, »Storage«.
3.1.2 Die CPU auswählen
Bei der Wahl des Prozessors müssen Sie unbedingt darauf achten, dass dieser für die
Virtualisierung geeignet ist. Bei Intel-Prozessoren heißt die erforderliche Technik In-
tel Virtualization Technology (Intel VT). Bei Prozessoren aus dem Hause AMD heißt
diese Technik AMD Virtualization (AMD-V). Falls die eingesetzte CPU das Virtualisie-
rungs-Feature nicht unterstützt, funktioniert die Installation bzw. der Betrieb von
Hyper-V nicht.
Mit Windows Server 2016 ist eine weitere Anforderung an die Host-CPU hinzuge-
kommen, die es vorher nur für Client Hyper-V gab. So muss die CPU nun Second-Le-
vel Address Translation (SLAT) unterstützen. Hierbei wird die CPU-Last im Host durch
eine intelligente Zuordnung des VM-Arbeitsspeichers innerhalb des Host-Arbeits-
speichers reduziert. Dies macht sich besonders auf Hosts mit vielen VMs oder bei
VMs mit einer hohen RAM-Änderungsrate bemerkbar. Bei aktuellen Server-CPUs
können Sie davon ausgehen, dass dies gegeben ist, ebenso bei leistungsfähigeren
Client-CPUs. Wollen Sie die Eignung des Prozessors auf einem System überprüfen, so
können Sie dies in einem laufenden Windows tun. Starten Sie dazu ein CMD-Fenster,
und geben Sie systeminfo ein. Nach wenigen Momenten sehen Sie einen Report, der
unten einen Abschnitt zu Hyper-V enthält.
Viele CPUs unterstützen die Funktion Hyper-Threading. Durch diese Funktion er-
scheint ein Kern einer CPU im Betriebssystem als zwei logische Prozessoren. Eine
4327.book Seite 112 Montag, 8. Mai 2017 4:03 16
3.1 Die Grundinstallation
113
3
Quad-Core-CPU mit aktiviertem Hyper-Threading zeigt zum Beispiel im Task-Mana-
ger acht logische Prozessoren an. Trotz der Verdopplung der logischen Prozessoren
dürfen Sie aber nicht davon ausgehen, dass sich automatisch die Leistung verdop-
pelt. Bei der Hyper-Threading-Technik wird nur die Anzahl der Threads verdoppelt,
die zur Verfügung stehen. Die CPU ist so in der Lage, mehr Prozesse parallel auszu-
führen. Dies führt oft zu einer Verbesserung der Performance, allerdings nicht zu
einer Verdopplung.
In früheren Versionen von Hyper-V gab es eine Support-Aussage von Microsoft, die
eine maximale »Überbuchung« der CPU beschrieb. Hier war ein Verhältnis von
höchstens 8:1 zugelassen. Das bedeutete, dass alle laufenden VMs zusammen höchs-
tens achtmal so viele virtuelle CPUs haben durften wie das Hostsystem CPU-Kerne
hatte. Seit Windows Server 2012 hat Microsoft diese Begrenzung komplett aufgeho-
ben, sodass das Verhältnis beliebig groß werden kann. Ab einer gewissen Überbu-
chung sinkt die Performance der VMs allerdings so stark, dass eine Art natürliche
Grenze existiert. Irgendwann kann selbst die stärkste CPU mit der Last nicht mehr
performant umgehen. Zudem kann es sein, dass Applikationshersteller Maximalvor-
gaben machen, wenn ihre Software virtualisiert läuft. Für einige wichtige Applikatio-
nen finden Sie in Kapitel 6, »Virtuelle Maschinen«, weitere Hinweise dazu.
Wie Sie eine sinnvolle Reserve für Ihr Management-OS einplanen, erfahren Sie in Ab-
schnitt 3.1.5, »Die Host-Reserven«.
3.1.3 GUI vs. Server Core vs. Nano Server
Schon vor der Installation des Betriebssystems müssen Sie sich entscheiden, ob Sie
die schlanke Variante ohne Desktop (also Windows Server Core) oder das System mit
Desktopdarstellung und den grafischen Administrationswerkzeugen verwenden
wollen.
Anders als bei Windows Server 2012 ist es nun nicht mehr möglich, nach der Installa-
tion zwischen den Installationsvarianten zu wechseln. Die Windows-Features für die
minimale Server-Benutzeroberfläche und die Desktopdarstellung wurden entfernt.
Dadurch gibt es keinen Kompromiss mehr zwischen den Installationsvarianten. Das
heißt, ein Windows Server Core kann nicht zur Ausführung grafischer Verwaltungs-
werkzeuge und auch nicht zur Desktopdarstellung aufgerüstet werden.
Bei der Nutzung der Desktopdarstellung müssen Sie einen größeren Bedarf an Fest-
plattenspeicher sowie eine erhöhte Frequenz verfügbarer Windows-Updates einkal-
kulieren. Die Nutzung der Variante Windows Server Core ist sinnvoll, wenn Sie mög-
lichst wenige Updates einspielen möchten und das System so selten wie möglich neu
starten soll. Tabelle 3.1 zeigt eine Gegenüberstellung des Funktionsumfangs.
4327.book Seite 113 Montag, 8. Mai 2017 4:03 16
3 Host-Server
114
Nano Server
Mit Windows Server 2016 hat Microsoft eine weitere Möglichkeit geschaffen, wie ein
Windows Server betrieben werden kann. Microsoft führt damit den Weg der Mini-
malisierung weiter fort, der mit Windows Server Core begonnen wurde. Das Ziel ist
die Nutzung eines Betriebssystems, das möglichst klein ist, möglichst selten mit
Updates versorgt werden muss und dabei möglichst stabil läuft. Um dieses Ziel zu
erreichen, ist der Ansatz bei einem Nano Server ein etwas anderer als bei der Core-
Variante.
Voraussetzungen für den Betrieb
Um einen Windows Server 2016 in der Nano-Variante betreiben zu dürfen, benötigen
Sie neben einer Windows-Server-2016-Lizenz in der Standard- oder Datacenter-Edi-
tion zusätzlich noch eine Wartung für die Software, die von Microsoft als Software
Assurance (SA) bezeichnet wird. Dies hat den Hintergrund, dass die Funktionalitäten
dieser Variante erweitert werden und die Entwicklung zum aktuellen Zeitpunkt noch
nicht abgeschlossen ist.
Windows Server Core
Server mit Desktopdarstellung
Eingabeaufforderung
Windows PowerShell/Windows .NET
Server-Manager
Microsoft Management Console
Systemsteuerung
Systemsteuerungs-Applets
Windows Explorer
Task-Leiste
Infobereich
Internet Explorer
Integriertes Hilfesystem
Desktop-Darstellung (Designs, Metro-
Apps, Windows Media Player)
Tabelle 3.1 Features der Installationsoptionen
(Legende: = verfügbar; = nicht verfügbar)
4327.book Seite 114 Montag, 8. Mai 2017 4:03 16
3.1 Die Grundinstallation
115
3
Sie können bei der Installation eines Nano Servers nicht wie gewohnt die DVD oder
die .iso-Datei einlegen und bei der Art der Installation die Nano-Edition auswählen.
Dies liegt daran, dass Sie das Betriebssystem selbst kompilieren und zusammenset-
zen müssen. Diese Art der »Installation« sorgt dafür, dass Sie das Image für den ge-
nauen Anwendungszweck bauen können – mit ausschließlich dem Treibersatz, den
Ihre Hardware benötigt. Sämtliche weitere Ressourcen sind nicht enthalten. Dies
macht den Betrieb sehr effizient und stabil.
Während wir ihnen diese neue Art der Betriebsmöglichkeit vorstellten, haben sich ei-
nige unserer Kunden überlegt, ob sie in ihrem Unternehmen Dienste über einen
oder mehrere Nano-Server anbieten sollten. Die meisten haben sich dagegen ent-
schieden, nachdem mehr und mehr klar wurde, wie der Betrieb aussieht und welche
Voraussetzungen gelten. Der Nano Server wurde von Microsoft primär für einen
Kunden entwickelt: Microsoft selbst. Der Nano Server ist einer der strategischen Eck-
pfeiler in der Microsoft Azure Cloud, wo eine so hohe Automatisierung stattfindet,
dass der Austausch von einem kompletten OS auf einer Server-Hardware kein Pro-
blem darstellt, da dieser Vorgang eingeplant und kalkuliert ist.
Installiere nur, was du auch brauchst
Bei der Erstellung eines Nano-Server-Images müssen Sie konfigurieren, welchen
Zweck dieses Betriebssystem erfüllt. Dies kann durch unterschiedliche Pakete festge-
legt werden, die bei der Erstellung hinzugefügt werden. Zum aktuellen Zeitpunkt gibt
es bereits einige Pakete, wie Sie in Abbildung 3.1 erkennen können.
Abbildung 3.1 Aktuell verfügbare Pakete zum Erstellen eines Nano-Server-Images
Die Namen der Pakete sind teilweise recht selbsterklärend: Das Compute-Package
wird z. B. bei der Nutzung der Hyper-V-Rolle benötigt. FailoverCluster wird ebenfalls
4327.book Seite 115 Montag, 8. Mai 2017 4:03 16
3 Host-Server
116
häufig verwendet, ebenso Storage zur Erstellung von einem Scale-Out File Server. DCB
kommt bei der Nutzung von RDMA-fähigen Netzwerkkarten zum Einsatz, das Guest-
Paket wird bei dem Betrieb des Servers innerhalb einer VM benötigt.
Einschränkungen bei der Nutzung eines Nano Servers
Bevor Sie mit der Planung für Ihre neuen Server beginnen und für diesen Fall den
Nano Server in Betracht ziehen, sollten Sie sich über die Einschränkungen im Klaren
sein.
Sie können einen Nano Server nicht mit Windows-Updates versorgen, wie Sie es bis-
her kennen. Die Installation von Windows-Updates im Betrieb ist nicht vorgesehen.
Sie müssen bei einem Update den gesamten Nano Server neu kompilieren und das
bzw. die Updates während der Kompilierung mit aufnehmen. Da voraussichtlich alle
paar Monate ein neues Update erscheint, das sicherheitskritische Lücken stopft oder
betriebsrelevante Funktionen aktualisiert, müssen Sie alle paar Monate Ihr komplet-
tes Betriebssystem neu erstellen und austauschen.
Eine weitere Einschränkung ist, dass auf einem Nano Server keine Gruppenrichtlini-
en angewandt werden. Setzen Sie Einstellungen per GPO, so müssen Sie diese Konfi-
guration bei einem Nano Server über einen anderen Weg realisieren, z. B. über die
Windows PowerShell.
Haben Sie ein Image kompiliert, können Sie keine weiteren Rollen oder Funktionen
nachträglich aktivieren. Haben Sie ein Paket vergessen, müssen Sie erneut eine Kom-
pilierung starten.
Einen Nano Server erstellen
Auf dem Installationsdatenträger von Windows Server 2016 gibt es einen Ordner mit
dem Namen NanoServer, in dem sowohl die benötigten Daten als auch ein eigenes
PowerShell-Modul enthalten sind, das Sie bei der Erstellung eines Nano Servers un-
terstützt. Kopieren Sie den Ordner NanoServer auf Ihre Festplatte, und öffnen Sie eine
Windows-PowerShell-Konsole. Die Einrichtung beginnt mit dem Import des Nano-
Server-Moduls:
Import-Module E:\temp\NanoServer\NanoServerImageGenerator
Nun haben Sie die Möglichkeit, mit einem einzigen Befehl ein vollständiges Image zu
erzeugen. Wir gehen die Befehle einzeln durch, danach sehen Sie den kompletten
Befehl.
Die Erstellung beginnt mit dem Befehl New-NanoServerImage. Nun definieren Sie mit
-DeploymentType Guest, dass Sie ein Image für den Betrieb in einer VM erstellen
möchten. Mit -Edition geben Sie an, ob Sie die Standard- oder die Datacenter-Edition
installieren möchten. Dies hat Einfluss auf die Funktionen, die nutzbar sind, z. B.
Storage Replica oder Storage Spaces Direct. Der Parameter -MediaPath F:\ zeigt auf
das Windows Server 2016 Installationsmedium. -TargetPath E:\Temp\JansErster-
4327.book Seite 116 Montag, 8. Mai 2017 4:03 16
3.1 Die Grundinstallation
117
3
Nano.vhdx gibt an, wo die finale Datei erstellt werden soll. Handelt es sich um eine
VHDX-Datei, müssen Sie eine VM der Generation 2 erstellen. Eine VHD-Datei kann
nur bei einer Generation-1-VM genutzt werden. Die maximale Größe der VHDX-
Datei kann mit -MaxSize 20GB definiert werden. Die Größe nach der Erstellung liegt
meist zwischen 600 und 700 MB. -ComputerName JansErsterNano gibt den Namen in-
nerhalb der VM an, -DomainName powerkurs.local definiert die Windows-Domäne.
Während der Erstellung des Images wird das neue System direkt in der AD bekannt
gemacht, es ist kein manueller Beitritt notwendig. Nun können Sie direkt die Einstel-
lungen im Netzwerk konfigurieren: Dies geschieht mit den Optionen -Interface-
NameOrIndex Ethernet -Ipv4Address 192.168.209.120 -Ipv4SubnetMask 255.255.254.0
-Ipv4Dns 192.168.209.2. Die Optionen -Compute und -Clustering aktivieren die
Hyper-V- und Failover-Clustering-Möglichkeiten. Abbildung 3.2 zeigt den vollstän-
digen Befehl.
Abbildung 3.2 Ein neues Nano-Server-Image mit der PowerShell erstellen
Sind die Einstellungen korrekt, wird der Befehl ausgeführt. Anschließend werden Sie
nach dem Passwort für das Administrator-Konto gefragt. Nach einigen Minuten der
Kompilierung bekommen Sie eine VHDX-Datei, die Sie mit einer VM der Generation
2 starten können. Nach dem Start und einer Anmeldung erscheint die Wiederherstel-
lungskonsole (Recovery Console) mit einer Übersicht über die grundsätzlichen Ein-
stellungen und Informationen (siehe Abbildung 3.3).
Abbildung 3.3 Ein Nano Server innerhalb einer Hyper-V-VM
4327.book Seite 117 Montag, 8. Mai 2017 4:03 16
3 Host-Server
118
Die Erstellung mithilfe des Nano Server Image Builders
Microsoft hat ein weiteres Hilfsmittel zum Erstellen eines Nano Servers veröffent-
licht, den Nano Server Image Builder. Sie bekommen dieses Tool kostenfrei direkt auf
den Seiten von Microsoft:
https://www.microsoft.com/en-us/download/details.aspx?id=54065
(Kurzlink: http://qccq.de/s/v301)
Nach einem Download und der Installation (beachten Sie, dass Sie zusätzlich das ADK
installieren müssen. Ist dies aktuell nicht installiert, werden Sie automatisch zu
einem Download und einer Installation geleitet) können Sie wählen, ob Sie ein neues
Image erstellen möchten oder ob Sie einen bootbaren USB-Stick erstellen möchten,
der Sie bei der Erstellung eines Images für einen Hardware-Server unterstützen soll
(siehe Abbildung 3.4).
Abbildung 3.4 Screenshot des Nano Server Image Builders. Sie haben die Wahl zwischen
einem neuen Image oder einem USB-Stick, der booten kann.
Sie können sich mit diesem Programm ein Image Ihrer Wahl zusammenstellen. Zu-
nächst geben Sie dazu die Windows-Server-Ressourcen an und konfigurieren die Edi-
tion und die Rollen bzw. Funktionen. Danach können Sie grafisch Treiber, Updates
und weitere Dinge wie Skripte usw. hinzufügen. Final bekommen Sie die Einstellun-
gen und Optionen als PowerShell-Befehl angezeigt (siehe Abbildung 3.5).
4327.book Seite 118 Montag, 8. Mai 2017 4:03 16
3.1 Die Grundinstallation
119
3
Abbildung 3.5 Die Erstellung eines Nano-Server-Images beginnt.
3.1.4 Die Speicherpfade
Bereits während der Installation der Hyper-V-Rolle fragt der Installations-Wizard
nach den Speicherpfaden für die Daten der virtuellen Systeme (siehe Abbildung 3.6).
Dieser Pfad sollte so konfiguriert werden, dass er nicht auf dem System-Volume liegt.
Somit ist sichergestellt, dass die Daten der virtuellen Systeme standardmäßig direkt
auf dem gewünschten Volume abgelegt werden. Diese Vorgabe können Sie bei jeder
VM-Erstellung auch manuell anpassen, falls die Daten der VM an einer anderen Stelle
abgelegt werden sollen.
Neben den lokalen Speicherpfaden ist es seit Windows Server 2012 möglich, die
Daten der virtuellen Systeme auf ein Netzlaufwerk zu legen. Eine Bedingung hierfür
ist, dass das Protokoll Server Message Block wenigstens in der Version 3.0 (SMB 3.0)
vorhanden ist. Es ist seit Windows Server 2012 enthalten. Um diese Funktion nutzen
zu können, benötigen Sie also einen File Server als Basis, auf dem wenigstens
Windows Server 2012 läuft (oder eine alternative Implementierung von SMB 3.0
eines namhaften Storage-Herstellers); ältere Betriebssysteme funktionieren nicht.
Mehr zu diesem Thema finden Sie in Kapitel 4, »Storage«.
4327.book Seite 119 Montag, 8. Mai 2017 4:03 16
3 Host-Server
120
Abbildung 3.6 Standardspeicherorte bei der Installation der Hyper-V-Rolle
Den Speicherort bei der Erstellung einer VM wählen
Während der Erstellung eines virtuellen Computers fragt der Assistent nach dem
Speicherpfad. Standardmäßig ist diese Option nicht aktiviert und zeigt grau hinter-
legt den bei der Installation definierten Standardpfad an (siehe Abbildung 3.7).
Abbildung 3.7 Auswahl des VM-Namens und des Speicherorts
4327.book Seite 120 Montag, 8. Mai 2017 4:03 16
3.1 Die Grundinstallation
121
3
Wenn Sie die Option Virtuellen Computer an einem anderen Speicherort
speichern nicht aktivieren, speichert Hyper-V die Daten des virtuellen Computers
ohne eine Unterstruktur in dem angezeigten ausgegrauten Pfad. Bei mehr als einer
VM wird dies schnell sehr unübersichtlich, da die Konfigurationsdateien der VMs kei-
nen sprechenden Namen haben, sondern nach ihrer Objekt-ID benannt werden, wie
Abbildung 3.8 zeigt.
Abbildung 3.8 Konfigurationsdateien eines virtuellen Computers
Es empfiehlt sich daher, bei der Erstellung von VMs diese Option grundsätzlich aus-
zuwählen, damit pro VM ein eigener Ordner angelegt wird.
3.1.5 Die Host-Reserven
Der größte Anteil der zur Verfügung stehenden Ressourcen wird von den virtuellen
Gästen genutzt. Trotzdem benötigt das Management-OS seinen eigenen Anteil, um
die Verwaltung und den Betrieb performant ermöglichen zu können.
CPU
Da das Management-OS an jedem I/O-Vorgang der VMs beteiligt ist, benötigt es
einen Anteil an den Ressourcen der CPU-Kapazitäten. Diesen Wert können Sie nicht
direkt konfigurieren. Sie müssen ihn bereits in der Planung der Hardware berück-
sichtigen und auch im späteren Betrieb mit einkalkulieren, wenn Sie Ihren Host mit
VMs bestücken. In der Praxis hat sich die folgende Rechnung bewährt:
Pro physikalisch vorhandenem Kern können Sie etwa acht vCPUs annehmen (siehe
hierzu auch Abschnitt 3.1.2, »Die CPU auswählen«). Zwei der so ermittelten vCPUs re-
servieren Sie gedanklich für das Management-OS, die restlichen können Sie auf die
VMs verteilen. Bei Systemen mit einem Sockel reicht es oft aus, wenn rechnerisch ein
logischer Prozessor für das Management-OS reserviert wird. Dieser liegt leistungs-
technisch oft noch über dem Wert, den zwei vCPUs ergeben.
Seit Windows Server 2012 wird Hyper-Threading nicht mehr in die Kalkulation einbe-
zogen, da es sich nicht um vollwertige CPU-Kerne handelt. Das folgende Rechenbei-
spiel zeigt den Zielkorridor auf:
Nehmen wir an, Ihre Hardware besitzt eine Vier-Kern-CPU. Gehen Sie daher von we-
nigstens vier und maximal acht logischen Prozessoren aus. Diese Grenzen multi-
4327.book Seite 121 Montag, 8. Mai 2017 4:03 16
3 Host-Server
122
plizieren Sie mit dem Faktor acht und erhalten 32 bis 64 vCPUs. Zwei dieser vCPUs re-
servieren Sie für das Management-OS, die restlichen können Sie den VMs zuordnen.
Wichtig: Die Anzahl von vCPUs, die einer VM zugeordnet werden, ist abhängig von
der Last, die das System erzeugt. Es gibt keine pauschalen Aussagen, welche Art von
Dienst wie viele Ressourcen verbraucht. Dies hängt stark von Ihrer persönlichen Um-
gebung ab. Deswegen ist ein durchdachtes und entsprechend geplantes Sizing not-
wendig.
Arbeitsspeicher
Das Management-OS benötigt für den Betrieb der virtuellen Systeme eine gewisse
Anzahl an verfügbarem Arbeitsspeicher, um ohne Performanceprobleme arbeiten zu
können. Dieser Wert liegt zwischen 2 und 8 GB für den reinen Grundbetrieb, abhän-
gig von der I/O-Last des Systems.
3.1.6 Die Auslagerungsdatei im Management-OS
Im Management-OS wird, wie bei allen anderen Systemen auch, eine Auslagerungs-
datei erstellt. Standardmäßig wird die Größe dieser Datei, abhängig von der Größe
des physikalisch vorhandenen Arbeitsspeichers, automatisch berechnet.
Generell gilt die Aussage, dass Sie die Größe der Auslagerungsdatei nicht manuell
festlegen sollten, weil die voreingestellte Automatik in den meisten Situationen zu
einer optimierten Leistung führt. Eine manuelle Anpassung würde erfordern, dass
Sie das Verhalten der Applikationen auf dem System genau einschätzen und daraus
den optimalen Wert ableiten können. In der Regel erfordert dies Detailkenntnisse der
Anwendungsarchitektur und aufwendige Messreihen.
Diese Aussage hat auch Gültigkeit für einen Host-Server mit Hyper-V. Bei vielen Sys-
temen ist es die beste Wahl, die Standardeinstellung Auslagerungsdatei für alle
Laufwerke automatisch anpassen beizubehalten. Dies gilt umso mehr, als Hy-
per-V die Auslagerungsdatei nur für den Speicherbedarf des Management-OS ver-
wendet und niemals für die virtuellen Maschinen – effektiv nutzt das Management-
OS selten mehr als 4 GB Arbeitsspeicher.
Allerdings erzeugt Windows bei der Installation des Betriebssystems standardmäßig
eine Auslagerungsdatei, die etwas größer ist als der Arbeitsspeicher des Systems,
damit bei Bedarf genügend Platz für einen Crash Dump bleibt (siehe dazu https://
support.microsoft.com/en-us/kb/2860880, Kurzlink: http://qccq.de/s/v302). Bei ei-
nem Host-Server mit sehr viel Arbeitsspeicher kann es also sein, dass die Auslage-
rungsdatei einen Großteil der Systemplatte belegt. Dies ist nicht notwendig, weil
Hyper-V die Datei ja normalerweise nur für den RAM-Anteil des Management-OS be-
4327.book Seite 122 Montag, 8. Mai 2017 4:03 16
3.2 Hyper-V-Server
123
3
nötigt. In solchen oder ähnlichen Situationen können Sie die Auslagerungsdatei also
manuell anpassen.
Bei Systemen mit grafischer Oberfläche kann die Größe der Auslagerungsdatei wie
gewohnt in der Systemsteuerung unter System und Sicherheit • System • erwei-
terte Systemeinstellungen • Leistung • Einstellungen • erweitert • Ändern
angepasst werden. Bei Core-Systemen ohne grafische Oberfläche funktioniert die
Umstellung mit den folgenden beiden Befehlen:
wmic computersystem where name="%computername%" set ¿AutomaticManagedPagefile=Falsewmic pagefileset where name="C:\\pagefile.sys" set ¿InitialSize=4096,MaximumSize=4096
Der erste Befehl setzt die Größenbestimmung der Auslagerungsdatei auf manuell,
mit dem zweiten Befehl wird die Größe auf 4.096 MB festgelegt.
3.2 Hyper-V-Server
Der Hyper-V Server 2016 ist eine Fassung des Hypervisors, die Microsoft kostenfrei
zur Verfügung stellt. Das System ist eine im Umfang reduzierte Version von
Windows Server 2016, bei der nach der Installation direkt die Hyper-V-Rolle aktiv ist.
Auf einem Hyper-V Server 2016 können – bis auf den Failover-Cluster – keine weite-
ren Rollen oder Features installiert werden; alle benötigten Features sind bereits ak-
tiviert. Von der Bedienung her verhält sich Hyper-V Server 2016 wie ein in der Core-
Variante installierter Windows Server 2016. Er ist also nur bedingt lokal administrier-
bar. In den Möglichkeiten der Virtualisierung steht der Hyper-V Server 2016 seinem
»großen Bruder« unter Windows Server 2016 aber in nichts nach. Alle Funktionen
und Möglichkeiten, die Sie mit Hyper-V als Rolle in den kostenpflichtigen Versionen
haben, haben Sie auch im Hyper-V Server 2016.
Was Sie beachten müssen: Sie erwerben mit diesem Produkt keine Lizenzen oder
Lizenzrechte. Alle Betriebssysteme, die nicht kostenfrei erworben werden können
und die auf einem Hyper-V-Server betrieben werden, müssen laut ihren Bedingun-
gen lizenziert werden. Zudem ist der Support durch Microsoft für diese Version ein-
geschränkt.
3.2.1 Installieren und einrichten
Die Installation von Hyper-V Server 2016 gestaltet sich recht einfach. Die Software
kann nach einer kurzen Registrierung kostenlos von Microsoft heruntergeladen wer-
den und ist ca. 2,5 GB groß. Nachdem die .iso-Datei auf einen Datenträger gebrannt
und in das System eingelegt wurde, beginnt das bekannte Windows-Setup. Bei der
4327.book Seite 123 Montag, 8. Mai 2017 4:03 16
3 Host-Server
124
Einrichtung und dem Betrieb eines Hyper-V-Servers gelten die gleichen Bedingun-
gen und Empfehlungen wie bei der Nutzung von Windows Server 2016 Standard oder
Datacenter.
Die Installation auf USB-Stick wird nicht unterstützt
In den beiden vorangegangenen Auflagen dieses Buchs haben wir beschrieben, wie
Sie den Hyper-V Server 2012 bzw. 2012 R2 auf einem USB-Stick installieren können.
Diese Art der Installation wird bisweilen von Administratoren nachgefragt, die aus
der VMware-Welt kommen.
Hyper-V Server 2016 unterstützt diese Art der Installation nicht. Daher verzichten wir
auf diese Anleitung.
Die weitere Konfiguration des Hyper-V-Servers geschieht mit Kommandozeilentools
wie bei einer Core-Installation. Der Grundgedanke dieser Administrationsform be-
steht darin, dass Sie den Server auf diese Weise nur grundlegend einrichten, bis Sie
ihn aus dem Netzwerk erreichen. Von da an können und sollten Sie die weitere Ein-
richtung und Verwaltung über Remote-Programme vornehmen. Nur in speziellen
Fällen empfiehlt es sich, den Hyper-V-Server lokal zu verwalten, etwa wenn es sich
um einen Einzel-Host für die DMZ handelt, den Sie nicht in Ihre produktive Domäne
aufnehmen.
Nach der erfolgreichen Installation erwartet Sie ein etwas ungewohntes Bild bei der
Anmeldung: Sie sehen nur ein CMD-Fenster mit der Aufforderung Benutzer aus-
wählen (siehe Abbildung 3.9).
Abbildung 3.9 Nach der Installation wählen Sie den anzumeldenden Benutzer aus.
Drücken Sie hierzu »Strg« + »Alt« + »Entf«.
Hier drücken Sie (Strg) + (Alt) + (Entf) und sehen dann die Aufforderung, das Kenn-
wort zu ändern. Auch dies erledigen Sie in dem CMD-Fenster (siehe Abbildung 3.10).
Abbildung 3.10 Auch die weitere Einrichtung des Administrator-Benutzers
geschieht über ein Konsolenfenster.
4327.book Seite 124 Montag, 8. Mai 2017 4:03 16
3.2 Hyper-V-Server
125
3
Danach erwartet Sie das von den vorherigen Versionen bekannte Bild (siehe dazu Ab-
bildung 3.11). Die Serverkonfiguration leitet Sie durch die Ersteinrichtung.
Abbildung 3.11 Der Hyper-V-Server nach dem ersten Start
Das System wird primär über die Serverkonfiguration verwaltet. Die Aufgaben, die Sie
mit diesem Tool erledigen können, sind:
� Wechsel zwischen Domäne und Arbeitsgruppe
� Ändern des Computernamens
� Management der lokalen Administratoren
� Konfiguration des Remote-Managements
� Konfiguration des Windows-Update-Verhaltens
� Konfiguration von Remote Desktop
� Konfiguration des Netzwerks
� Konfiguration von Datum und Uhrzeit
� Teilnahme am Programm zur Verbesserung der Software
� Abmelden des aktuellen Benutzers
4327.book Seite 125 Montag, 8. Mai 2017 4:03 16
3 Host-Server
126
� Neustart des Servers
� Herunterfahren des Servers
� Schließen des Fensters und Wechsel zur Befehlszeile
Ping einschalten
Nachdem Sie die grundlegenden Netzwerkeinstellungen vorgenommen haben, ant-
wortet der Server zunächst nicht auf Ping-Anforderungen. Die Windows-Firewall ver-
hindert dies standardmäßig. Sie sollten sie aber nicht abschalten, sondern besser die
Konfiguration anpassen. Meist reicht es völlig aus, Ping freizugeben, weil die Regeln
für den Hyper-V-Betrieb schon vorkonfiguriert sind.
Hierzu rufen Sie vom Hauptfenster der Serverkonfiguration den Punkt 4 (Remotever-
waltung konfigurieren) auf. Im folgenden Menü finden Sie den Eintrag 3 (Server-
antwort für Ping konfigurieren). Wählen Sie diesen aus, so fragt Windows noch
einmal nach und konfiguriert nach der Bestätigung die Firewall, sodass sie Ping
zulässt. Diese Anpassung kann ebenfalls per Skript oder per Gruppenrichtlinie ange-
wendet werden.
Kleiner Tipp: Falls Sie die Serverkonfiguration versehentlich schließen, können Sie sie
durch den folgenden Aufruf wieder öffnen:
C:\Windows\System32\sconfig.cmd
Neben der Möglichkeit, das System lokal über die Konsole zu verwalten, steht Ihnen
auch eine Verwaltung per PowerShell oder per MMC zur Verfügung. Hierzu muss die
Remote-Verwaltung aktiviert sein, was standardmäßig der Fall ist. Falls sie ausge-
schaltet werden soll, können Sie dies über den Punkt Remoteverwaltung konfi-
gurieren vornehmen. Sobald mehrere Hosts gemeinsam verwaltet werden sollen,
kommen in der Regel Management-Lösungen zum Einsatz, die solch einen Betrieb
deutlich vereinfachen. Ein Beispiel wäre der System Center Virtual Machine Manager
oder der 5Nine Manager.
Die Hyper-V-Rolle muss bei einem Hyper-V Server 2016 nicht manuell aktiviert wer-
den, da das System nach der Installation direkt im Management-OS-Betrieb läuft. Das
bedeutet, die Virtualisierung ist bereits aktiv und kann genutzt werden. Und da es
sich beim Hyper-V Server um einen Windows Server Core handelt, ist die Verwaltung
der VMs und eine Konfiguration des Systems per GUI nicht möglich. Hierzu muss
entweder ein Windows Server 2016 mit den Hyper-V-Verwaltungstools oder ein
Client-Betriebssystem mit den Remoteserver-Verwaltungstools, kurz RSAT, genutzt
werden. Dazu sollten Sie den Host-Server in Ihre Domäne aufnehmen, denn sonst
wird die Anbindung sehr umständlich. Näheres zu den Domänen-Überlegungen fin-
den Sie in Abschnitt 3.7.9, »Sollen die Hyper-V-Hosts in die Domäne?«.
4327.book Seite 126 Montag, 8. Mai 2017 4:03 16
3.2 Hyper-V-Server
127
3
3.2.2 Dritthersteller-Tools zur Verwaltung nutzen
Neben der Administration über ein anderes System gibt es auch die Möglichkeit, auf
dem Hyper-V-Server selbst ein Programm zur Administration zu installieren. Der
wohl bekannteste Vertreter dieser Art ist das Programm 5nine Manager, das von der
Firma 5Nine vertrieben wird. Es gibt sowohl eine kostenfreie als auch eine kosten-
pflichtige Variante. In der kostenfreien Variante können Sie Ihre VMs anpassen und
»von außen« administrieren, eine Verbindung mit der Konsole und eine lokale Ad-
ministration des Systems ist nur in der kostenpflichtigen Variante möglich.
Nachdem Sie das Paket heruntergeladen und entpackt haben, kopieren Sie es auf den
Host-Server. Führen Sie danach über die Kommandozeile die Datei 59Manager.exe
aus, um die Installation zu starten. Nach dem erfolgreichen Setup können Sie das
Programm starten, indem Sie im Hauptverzeichnis (standardmäßig wird das Pro-
gramm nach C:\Program Files\5nine\59Manager for Hyper-V\ installiert) die Datei
5nine.Manager.exe starten. In dem Programm, das sich daraufhin öffnet, können Sie
Ihre VMs einsehen und grundlegende Aufgaben erledigen. Abbildung 3.12 zeigt einen
Screenshot des Programms direkt nach dem Aufruf.
Abbildung 3.12 »5nine Manager« auf einem Hyper-V Server 2016
Das Programm kann nicht nur auf einem Hyper-V-Server oder der Core-Variante
eines Windows Servers ausgeführt werden. Wenn Sie Gefallen an dem Programm fin-
den, können Sie die Administration auch komplett auf dieses Programm verlagern.
4327.book Seite 127 Montag, 8. Mai 2017 4:03 16
3 Host-Server
128
3.3 Client Hyper-V
Seit Microsoft in Windows 8 erstmals Hyper-V im Clientbetriebssystem bereitstellte,
hat es weite Verbreitung für Evaluierungen und Weiterbildung gefunden. Damit ist
es möglich, auf dem eigenen PC oder Notebook virtuelle Systeme mithilfe der Hyper-
V-Technologie zu betreiben. Auch in Windows 10 ist Hyper-V als optionale Funktion
enthalten, die Sie ab der Pro-Edition aktivieren können.
3.3.1 Anforderungen und Einschränkungen
Die Funktion der Virtualisierung mit Hyper-V ist unter Windows 10 nur in den Ver-
sionen Pro, Enterprise und Education möglich. Die Hardware-Voraussetzungen sind
identisch mit der Serverversion. Im Rechner muss also eine CPU mit Hardware-Virtu-
alisierung und mit Second Level Address Translation (SLAT) vorhanden sein.
Im Funktionsumfang wurde Hyper-V ebenfalls leicht beschränkt. Mit einem Hyper-
visor auf Client-Basis ist keine komplette Live-Migration einer VM möglich, lediglich
eine Verschiebung der Dateien einer VM (Storage-Migration) ist erlaubt. In einen
Failover-Custer können Sie Windows 10 ebenfalls nicht einbinden.
Dies sind die einzigen beiden Einschränkungen. Alle anderen Funktionen, die man
mit Windows Server 2016 nutzen kann, sind auch im Client vorhanden.
3.3.2 Besonderheiten in Client Hyper-V
Umgekehrt gibt es aber Eigenschaften der Client-Version von Hyper-V, die im Server
nicht vorhanden sind. Dazu zählt die neue Funktion Schnellerstellung (Quick Create),
die mit dem Creators Update im Frühjahr 2017 ins Betriebssystem Einzug hält. Zudem
verhält sich ab dieser Version Hyper-V auf dem Client bei der RAM-Zuweisung anders
als der große Bruder auf dem Server.
Die folgenden Informationen beruhen auf einer Vorabversion von Windows 10, die
bei Drucklegung dieses Buches aktuell war. Weil das Client-Betriebssystem laufend
aktualisiert wird, was als Windows as a Service bekannt ist, neigen Funktionsbeschrei-
bungen von Windows 10 leider dazu, schnell überholt zu sein. Daher beschränken
wir uns hier auf einen knappen Überblick.
Hyper-V arbeitet in Windows 10 mit der Funktion Connected Standby zusammen, die
auf modernen Clientrechnern oft aktiv ist. Hierbei hält das Betriebssystem im Ener-
giesparmodus einige grundlegende Kommunikationen aufrecht, um dem Anwender
möglichst aktuelle Informationen bereitstellen zu können. Frühere Versionen von
Hyper-V kamen damit nicht klar.
Die Funktion Schnellerstellung findet sich als oberste Option im Aktionsmenü des
Hyper-V-Managers (siehe Abbildung 3.13). Sie erlaubt es, sehr schnell eine neue VM
4327.book Seite 128 Montag, 8. Mai 2017 4:03 16
3.3 Client Hyper-V
129
3
zu erzeugen und dabei nicht mehr als den VM-Namen sowie die Installationsquelle
anzugeben. Hyper-V nutzt dann Standardeinstellungen, damit der Anwender schnell
zu einem arbeitsfähigen Ergebnis kommt.
Abbildung 3.13 Mit der »Schnellerstellung« erzeugen Sie schnell eine VM mit Standard-
einstellungen (hier in einer Vorabversion von Windows 10).
Hyper-V verhält sich unter Windows 10 anders als auf einem Server, weil die typi-
schen Anwendungsfälle anders sind. So nutzen besonders Softwareentwickler die
Funktion oft, um ihre Programme auf verschiedenen Betriebssystemen zu testen.
Dabei hat sich das »konservative« Ressourcen-Management von Hyper-V oft als hin-
derlich herausgestellt, weil beispielsweise nicht genügend RAM bereitstand, um eine
VM zu starten.
Client Hyper-V geht daher »aggressiver« bei der RAM-Zuweisung vor und ermöglicht
einer VM auch dann Zugriff auf den Arbeitsspeicher, wenn das Host-Betriebssystem
nur noch wenig davon hat. Auf einem Clientrechner laufen ja oft Anwendungen, die
man auf einem Host-Server nie starten würde, etwa Browser, Mail und Textverarbei-
tung oder sogar komplexe Entwicklungsumgebungen. Daher unterscheiden sich die
Umgebungen deutlich. Um hier mehr Flexibilität zu ermöglichen, hat Microsoft in
Windows 10 das Verhalten des Hypervisors geändert. Aber Achtung: Dies kann zulas-
ten der Systemstabilität gehen! Sie sollten die Ressourcen also nur in Ausnahmefäl-
len ausreizen.
4327.book Seite 129 Montag, 8. Mai 2017 4:03 16
3 Host-Server
130
3.3.3 Client Hyper-V installieren und nutzen
Die Installation von Hyper-V erfolgt über Systemsteuerung • Programme • Pro-
gramme und Features • Windows-Features aktivieren oder deaktivieren.
In dem Fenster mit den verfügbaren Features können Sie unter Hyper-V das Feature
Hyper-V-Plattform installieren. Falls diese Option ausgegraut ist, können Sie mit dem
Mauszeiger über das Feature fahren. Sie sehen dann eine kurze Information mit dem
Grund, warum die Hyper-V-Plattform nicht installiert werden kann. In den meisten
Fällen wird dies daran liegen, dass die CPU nicht den Anforderungen entspricht. Die
Fehlermeldung lautet in diesem Fall: Hyper-V kann nicht installiert werden. Der Pro-
zessor hat keine SLAT-Fähigkeiten (Second Level Address Translation).
Ein System lässt sich sehr einfach darauf hin testen, ob es mit Hyper-V zusammenar-
beiten kann. Hierzu müssen Sie in einer Eingabeaufforderung den Befehl systeminfo
eingeben. Nach einem kurzen Moment werden Ihnen einige Informationen zu Ihrem
System angezeigt, unter anderem, ob Ihr System den Anforderungen entspricht. Ins-
gesamt werden im Bereich Anforderungen für Hyper-V vier Eigenschaften abge-
fragt:
� Erweiterungen für den VM-Überwachungsmodus
� Virtualisierung in Firmware aktiviert
� Adressübersetzung der zweiten Ebene
� Datenausführungsverhinderung verfügbar
Steht hinter allen vier Eigenschaften ein Ja, können Sie Hyper-V auf Ihrem Gerät nut-
zen. Ist mindestens eine der Optionen mit einem Nein versehen, lässt sich Hyper-V
nicht nutzen.
Neben der Hyper-V-Plattform können Sie die Hyper-V-Verwaltungstools installieren.
Bei der Aktivierung von Hyper-V-Plattform werden Sie gefragt, ob diese Tools au-
tomatisch mit installiert werden sollen; sie können aber auch separat installiert wer-
den, zum Beispiel, wenn Sie über Ihren Client einen oder mehrere Hosts mit Hyper-V
administrieren möchten. Die Gruppe Hyper-V-Verwaltungstools enthält die
Hyper-V-GUI-Verwaltungstools und das Hyper-V-Modul für Windows
PowerShell (siehe Abbildung 3.14).
Wenn Sie die Hyper-V-Plattform zur Installation ausgewählt und bestätigt haben,
fordert das System Sie zu einem Neustart auf. Danach ist Hyper-V aktiv, und Sie kön-
nen es nutzen. Im Startmenü befinden sich zwei neue Symbole: Hyper-V-Manager
und Hyper-V-Verbindung mit virtuellem Computer.
Nach dem ersten Aufruf des Hyper-V-Managers wird versucht, eine Verbindung mit
dem Hyper-V-Dienst herzustellen. Dies ist allerdings nur dann erfolgreich, wenn Sie
als Administrator an dem System angemeldet sind. Bei der Verwendung eines Benut-
zerkontos ohne Administrationsrechte erhalten Sie die folgende Meldung:
4327.book Seite 130 Montag, 8. Mai 2017 4:03 16
3.3 Client Hyper-V
131
3
Sie besitzen nicht die erforderliche Berechtigung für diese Aufgabe. Wenden Sie
sich an den Administrator der Autorisierungsrichtlinie für den Computer »local-
host«.
Abbildung 3.14 »Windows-Features aktivieren oder deaktivieren«: In der Abbildung
sehen Sie die »Hyper-V-Plattform« und die »Hyper-V-Verwaltungstools«.
Dieses Problem können Sie umgehen, indem Sie sich entweder als Administrator an
Ihrem System anmelden, den Hyper-V-Manager als Administrator starten oder in
der Verwaltung Ihres Systems das betreffende Benutzerkonto in die lokale Gruppe
Hyper-V-Administratoren aufnehmen (siehe Abbildung 3.15). Mitglieder dieser
Gruppe erhalten uneingeschränkten Zugriff auf alle Funktionen von Hyper-V, ohne
direkt Administrator des gesamten Betriebssystems zu werden.
Abbildung 3.15 Eigenschaften der lokalen Gruppe »Hyper-V-Administratoren«
in Windows 10
4327.book Seite 131 Montag, 8. Mai 2017 4:03 16
3 Host-Server
132
3.3.4 Ein NAT-Netzwerk für VMs einrichten
Client Hyper-V nutzt dieselben Techniken wie Hyper-V auf einem Host-Server. Es
unterscheidet sich daher grundlegend von bekannten Desktop-Virtualisierungs-
programmen wie Oracle VirtualBox oder VMware Workstation. Einer der Punkte, an
denen dieses deutlich wird, ist die Netzwerkanbindung.
Desktop-Virtualisierer bieten hier einen großen Komfort. Sie ermöglichen es, VMs
»nahtlos« in das Netzwerk einzubinden, indem sie diese bei Bedarf per NAT (Network
Address Translation) ansprechen und ihnen mit einer eigenen DHCP-Funktion pas-
sende IP-Adressen geben. Diesen Komfort bietet Client Hyper-V nicht, hier ist mehr
Handarbeit nötig.
In Windows 10 (und auch in Windows Server 2016) können Sie immerhin eine NAT-
Anbindung vorsehen, damit Ihre VMs mit »lokalen« IP-Adressen arbeiten können,
die sich von denen Ihres produktiven Netzwerks unterscheiden. So erzeugen Sie mit
VMs, die Sie auf einem Client betreiben, keine Engpässe im LAN Ihres Unternehmens
oder zu Hause, und auch eine Abstimmung mit den Netzwerkadministratoren ist
nicht zwingend notwendig.
Die NAT-Funktion hat folgende Einschränkungen:
� Windows erlaubt nur ein einziges NAT-Netzwerk auf einem Hostcomputer. Sie
müssen also vorab den Adressbereich planen und können nicht mehrere Segmen-
te parallel betreiben.
� Die NAT-Funktion können Sie nur per PowerShell einrichten und verwalten.
� Es gibt keine DHCP-Funktion, um VMs automatisch mit IP-Adressen zu versorgen.
Mit den folgenden Schritten können Sie ein NAT-Netzwerk anlegen. Zuerst sollten Sie
ein wenig planen: Identifizieren Sie einen IP-Adressbereich für Ihr »lokales« VM-
Netzwerk. Die Adressen sollten sich deutlich von denen im produktiven Netz unter-
scheiden. Innerhalb dieses Adressbereichs legen Sie dann eine Gateway-Adresse fest,
die der »virtuelle NAT-Router« erhält. Orientieren Sie sich dabei an eigenen Stan-
dards; viele Administratoren geben als Gateway-Adresse etwa die .1 im jeweiligen
Segment an (etwa 10.10.10.1). Schließlich legen Sie noch einen logischen Namen für
das NAT-Netzwerk sowie für den zugehörigen virtuellen Switch in Hyper-V fest.
Die Einrichtung nehmen Sie per PowerShell vor. Starten Sie am besten die Power-
Shell ISE ausdrücklich als Administrator.
Prüfen Sie immer zuerst, ob es eventuell schon ein NAT-Netzwerk auf Ihrem Rechner
gibt. Windows erlaubt nur ein einziges Netzwerk dieser Art, hindert Sie aber tech-
nisch nicht daran, mehrere zu erzeugen. Sollten Sie versehentlich mehrere NAT-
Netzwerke einrichten, so gerät der Computer in einen undefinierten Zustand, für den
Microsoft auch keinen Support mehr leisten wird. Folgendes Cmdlet gibt die nötige
Auskunft:
4327.book Seite 132 Montag, 8. Mai 2017 4:03 16
3.3 Client Hyper-V
133
3
Get-NetNat
Sie sollten keine Ausgabe zurückbekommen. Zeigt die PowerShell ein vorhandenes
NAT-Netzwerk an, so können Sie dieses verwenden, oder Sie löschen es mit:
Get-NetNat | Remove-NetNat
Abbildung 3.16 Die NAT-Anbindung in Hyper-V hat eine gewisse Komplexität. Sie erlaubt
es, VMs mit internen IP-Adressen ans externe Netzwerk anzubinden.
Das folgende Skript erzeugt die nötigen Komponenten. Sie können es nach Ihrem
Bedarf anpassen. Die Vorgaben sind hier folgende:
� Das NAT-Netzwerk trägt den logischen Namen VM-NAT.
� Der interne Adressbereich ist 10.10.10.0 mit einer Subnetzmaske von 255.255.255.0.
Aus diesem Bereich müssen die VMs manuell eine IP-Adresse erhalten.
� Die IP-Adresse des Standard-Gateways lautet 10.10.10.1. Sie ist einer virtuellen
Netzwerkkarte auf dem Host-Computer zugewiesen.
� Der virtuelle Switch, der die NAT-Verbindung herstellt, trägt den Namen vSw-NAT.
New-VMSwitch -SwitchName 'vSw-NAT' -SwitchType Internal$NICNo = (Get-NetAdapter | where { $_.Name -like '*vSw-NAT*' }).ifIndexNew-NetIPAddress -IPAddress 10.10.10.1 -PrefixLength 24 -InterfaceIndex $NICNoNew-NetNat -Name 'VM-NAT' -ExternalIPInterfaceAddressPrefix 10.10.10.0/24
Listing 3.1 Dieses Skript erzeugt ein NAT-Netzwerk für virtuelle Maschinen.
4327.book Seite 133 Montag, 8. Mai 2017 4:03 16
3 Host-Server
134
Sie können dann eine VM (oder auch mehrere) mit dem NAT-Switch verbinden. Tei-
len Sie den VMs IP-Adressen aus dem NAT-Segment zu (in unserem Beispiel aus
10.10.10.0/24), und tragen Sie die NAT-Gateway-Adresse (hier: 10.10.10.1) als Stan-
dard-Gateway ein. Falls Ihre VMs auch ins Internet sollen, denken Sie daran, einen
DNS-Server einzutragen, der Webadressen auflöst.
3.3.5 Windows Server 2016 remote verwalten
Mit Windows 10 und den installierten Hyper-V-Verwaltungstools ist es möglich,
einen oder mehrere Windows-Server-2016-Hosts mit aktivierter Hyper-V-Rolle zu ad-
ministrieren. Allgemein ist zur Remote-Administration die Installation der Remote-
server-Verwaltungstools (RSAT) notwendig. Unter Windows 10 ist das nur erforder-
lich, wenn Rollen oder Features administriert werden sollen, die nicht in Windows 10
enthalten sind. Da dies bei Hyper-V nicht der Fall ist, müssen Sie in der Systemsteue-
rung lediglich das Feature Hyper-V-GUI-Verwaltungstools aktivieren.
Der Zugriff auf einen Host per Hyper-V-Manager ist standardmäßig nur lokalen Ad-
ministratoren erlaubt. Allerdings gibt es auf den Windows-Server-2016-Systemen
ebenfalls eine Gruppe Hyper-V-Administratoren. Hier können Sie bei Bedarf Benutzer
eintragen, die keine lokalen Administratoren sind, aber trotzdem das Hyper-V-Ma-
nagement übernehmen sollen.
Mit dem Hyper-V-Manager von Windows 10 können Sie auch Hosts unter Windows
Server 2012 und 2012 R2 verwalten. Bedenken Sie, dass auch hierfür natürlich die pas-
senden administrativen Rechte nötig sind.
3.4 Umgang mit der Host-CPU
Das Wichtigste, was Sie über die CPU Ihres Host-Servers wissen müssen, finden Sie
weiter vorn in diesem Kapitel in Abschnitt 3.1.2, »Die CPU auswählen«. In Windows
Server 2016 hat Hyper-V für die CPU zwei neue interessante Funktionen bekommen,
die wir im Folgenden vorstellen.
3.4.1 Host Resource Protection
Es kann vorkommen, dass Sie innerhalb einer VM eine Applikation betreiben, die
»unbotmäßig« mit den Ressourcen des Host-Servers umgeht. Hyper-V enthält hier-
für Schutzmechanismen: Sollte eine VM zu viel RAM benötigen, können Sie die RAM-
Ausstattung der VM begrenzen. Gegen zu intensive Storage-Zugriffe kann es im Ein-
zelfall helfen, Storage-QoS zu aktivieren. Ähnlich ist es bei der Netzwerkkarte: Lastet
eine VM-Applikation das Netzwerk zu stark aus, können Sie in der VM-Konfiguration
4327.book Seite 134 Montag, 8. Mai 2017 4:03 16
3.4 Umgang mit der Host-CPU
135
3
eine Bandbreitenbeschränkung setzen. Details hierzu finden Sie in Abschnitt 6.2.7,
»Festplatten«.
Bislang konnte es allerdings geschehen, dass eine Applikation die virtuellen Prozes-
soren einer VM völlig auslastet und damit auch den Host und alle anderen VMs in
Mitleidenschaft zieht. Dem konnten Sie bislang nur vorbeugen, indem Sie die CPU-
Leistung für eine VM pauschal begrenzten. Das hat allerdings Nebenwirkungen, weil
es dauerhaft wirkt. Hier hat Microsoft in Windows Server 2016 nun eine neue, dy-
namische »Bremse« eingebaut: Die Host Resource Protection setzt kein pauschales
Limit für die CPU-Versorgung, sondern greift dann ein, wenn der Host feststellt, dass
eine VM über Gebühr Rechenleistung beansprucht.
Die Funktion können Sie pro VM aktivieren; standardmäßig ist sie abgeschaltet. Um
sie zu aktivieren, nutzen Sie den Schalter -EnableHostResourceProtection des Cmd-
lets Set-VMProcessor:
Set-VMProcessor -VMName 'SRV01' -EnableHostResourceProtection
Näheres dazu lesen Sie in Abschnitt 6.2.6, »Prozessor«.
3.4.2 Nested Virtualization
Eine Funktion, die von vielen Administratoren seit Jahren gefordert wurde, ist die
Nested Virtualization. Das bedeutet näherungsweise übersetzt »verschachtelte Virtu-
alisierung«. Damit können Sie einen Hyper-V-Host betreiben, der selbst eine virtuel-
le Maschine innerhalb von Hyper-V ist. Bisweilen bezeichnet man dies auch als mehr-
schichtige Virtualisierung.
VMware vSphere und einige andere Hypervisoren beherrschen dies schon länger.
Microsoft hatte sich bislang geweigert, diese Funktion zu implementieren, und zwar
durchaus aus gutem Grund: Es gibt kaum praktische Anwendungsfälle dafür. Es liegt
auf der Hand, dass eine VM, die innerhalb einer VM läuft, nicht besonders leistungs-
fähig ist. Auch die Stabilität eines solchen Systems kann eingeschränkt sein. Tatsäch-
lich findet die Technik vor allem in Testlabors und für Schulungen ihren Einsatz.
Mit Windows Server 2016 hat Microsoft allerdings ein neues Anwendungsgebiet
ersonnen, das von der Nested Virtualization profitiert: Hyper-V-Container. Dabei
handelt es sich um die Container-Virtualisierung, die wir in Kapitel 7 ausführlich vor-
stellen. Windows bringt gleich zwei Varianten davon mit: Windows-Container nut-
zen die »native« Container-Technik, bei der alle Container innerhalb desselben Host-
Betriebssystems laufen. Für eine stärkere Isolation lassen sich aber auch Hyper-V-
Container definieren, bei denen jeder Container in einer eigenen, rudimentären
Hyper-V-VM läuft.
Damit man nun trotzdem die Möglichkeit hat, einen Container-Host als virtuelle Ma-
schine zu betreiben (dies ist beispielsweise in der Azure-Cloud unabdingbar), sahen
4327.book Seite 135 Montag, 8. Mai 2017 4:03 16
3 Host-Server
136
die Entwickler in Redmond plötzlich Bedarf nach einer verschachtelten Virtualisie-
rung. Daher bringt Hyper-V dieses Feature nun mit, und man kann es tatsächlich
auch außerhalb der Container-Technik einsetzen. Damit eröffnen sich auch in der
Microsoft-Welt neue Möglichkeiten für Labor und Training.
In der aktuellen Fassung müssen folgende Voraussetzungen erfüllt sein, damit Sie
die Funktion nutzen können:
� Der (physische) Hyper-V-Host muss eine Intel-CPU mit der Funktion VT-x haben.
(AMD-Prozessoren werden derzeit nicht dafür unterstützt.)
� Das Host-Betriebssystem und das Betriebssystem des virtuellen Hosts muss
Windows Server 2016 (oder höher) bzw. Windows 10 sein.
� Der virtuelle Host (also die VM) muss als Generation-2-VM eingerichtet sein und
mindestens 4 GB RAM zur Verfügung haben. Dynamic Memory ist nicht erlaubt.
� Die virtuellen Netzwerkkarten müssen das MAC-Adress-Spoofing erlauben.
� Die VM darf keine Checkpoints und keinen gespeicherten Systemstatus haben
und darf nicht per Live-Migration auf einen anderen Host verschoben werden.
� Zusätzlich muss der physische Host die Virtualisierungsfunktionen seiner CPU an
die VM weiterreichen.
Abbildung 3.17 Eine VM in einer VM: Hyper-V läuft hier als virtueller Host und verwaltet
seinerseits virtuelle Maschinen.
4327.book Seite 136 Montag, 8. Mai 2017 4:03 16
3.5 Arbeitsspeicher
137
3
Wenn Ihr Host-Server die Voraussetzungen erfüllt, legen Sie eine passende VM an
(siehe Abbildung 3.17). Bevor Sie sie starten, reichen Sie die CPU-Virtualisierung an
diese VM durch:
Set-VMProcessor 'Gen-2' -ExposeVirtualizationExtensions $true
Wenn Sie die VM nun starten, installieren Sie Windows Server 2016 als Gast-Betriebs-
system. Danach aktivieren Sie im Server-Manager (oder per PowerShell) die Rolle
Hyper-V. Hat alles geklappt, dann lässt Windows dies zu. Nach der Grundkonfigura-
tion können Sie in der so eingerichteten VM (die jetzt ein virtueller Host ist) eine VM
der »zweiten Ebene« einrichten und installieren.
Unter folgendem URL finden Sie ein umfangreiches PowerShell-Skript, das die Vo-
raussetzungen für eine vorhandene VM prüft und sie, wenn möglich, für die ver-
schachtelte Virtualisierung vorbereitet:
https://raw.githubusercontent.com/Microsoft/Virtualization-Documentation/
master/hyperv-tools/Nested/Enable-NestedVm.ps1 (Kurzlink: http://qccq.de/s/v303)
3.5 Arbeitsspeicher
Der Arbeitsspeicher ist in der Server-Virtualisierung eine besondere Ressource. Das
liegt daran, dass er sich als einziger der vier Kernkomponenten – Prozessor, Arbeits-
speicher, Netzwerkkarte, Speichersystem – nicht wirksam überbuchen lässt. Einige
Virtualisierungshersteller behaupten allerdings, dass sie genau dies könnten. Daher
lohnt ein näherer Blick.
Beginnen wir dazu mit den anderen drei Komponenten und sehen wir uns an, wie
dort die Überbuchung funktioniert:
� Der Prozessor kann von einer Aufgabe auf eine andere umschalten. In modernen
Betriebssystemen tut er dies auch sehr häufig, denn diese Betriebssysteme haben
einen eigenen Zeitplaner, der die verschiedenen Aufgaben, die »parallel« zu erledi-
gen sind, abwechselnd an den Prozessor weiterleitet. Dazu unterteilen Software-
Entwickler ihre Programme in Prozesse und Threads, die der Prozessor als Einhei-
ten bearbeiten kann. Systeme mit mehr als einem Prozessor (bzw. mit mehr als
einem Prozessorkern oder Core) können je CPU einen Thread bearbeiten, also ef-
fektiv mehrere gleichzeitig.
In der Server-Virtualisierung bildet jede virtuelle Maschine eine solche Einheit, die
durch den Hypervisor mit Prozessorzeit versorgt wird. Moderne CPUs gehen dabei
sehr effizient vor: Ältere Prozessorsysteme benötigten relativ lange, um von
einem virtuellen Server auf einen anderen umzuschalten. Genau diese »Kontext-
wechsel« laufen mit heutiger Hardware sehr schnell ab.
4327.book Seite 137 Montag, 8. Mai 2017 4:03 16
3 Host-Server
138
Genau genommen lässt sich eine CPU also auch nicht überbuchen, denn sie kann
immer nur eine Aufgabe erledigen. Da CPUs aber sehr schnell arbeiten, können sie
problemlos zwischen vielen Aufgaben wechseln und so die Arbeit gewissermaßen
parallel erledigen.
� Die Netzwerkkarte arbeitet ohnehin »häppchenorientiert«, denn sie verarbeitet
Netzwerkpakete (Frames bzw. Packets) verschiedener Herkunft. Bei ausgehendem
Netzwerkverkehr können die Daten von verschiedenen Applikationen stammen,
bei eingehendem Verkehr von verschiedenen anderen Systemen. Es sind hier also
kaum besondere Vorkehrungen nötig, um eine physische Netzwerkkarte »paral-
lel« für mehrere virtuelle Server bereitzustellen.
Eine Ausnahme bilden hier spezielle Hardware-Merkmale wie etwa die MAC-
Adresse der Netzwerkkarte. Diese wird normalerweise von der Firmware der Karte
vorgegeben. Das lässt sich aber umgehen, und so definiert der Hypervisor für jede
virtuelle Netzwerkkarte eine eigene, unabhängige MAC-Adresse, die von der
physischen Netzwerkkarte ohne Rücksicht auf ihre eigene Identität einfach wei-
tergegeben wird.
� Auch das Speichersystem (im Sinn einer Festplatte) kann problemlos mit »Über-
buchung« umgehen und mehrere virtuelle Server parallel bedienen. Der Trick be-
steht hier darin, dass nicht die ganze Festplatte einer VM zugeteilt wird, sondern
nur eine Datei. Spezielle Treiber sorgen dann dafür, dass diese Datei für die VM wie
eine eigene Festplatte »aussieht«.
Da es zu den Kernaufgaben eines Speichersystems gehört, viele verschiedene Da-
teien möglichst performant zu verarbeiten, stellt also auch die Speichervirtualisie-
rung kein grundsätzliches Problem dar.
� Völlig anders verhält sich dies aber beim Arbeitsspeicher. Er lässt sich zwar in ein-
zelne Abschnitte aufteilen, die man einzelnen VMs zuweisen kann. Eine Überbu-
chung wie bei den anderen Komponenten ist hier aber prinzipiell nicht möglich.
Hat eine virtuelle Maschine Daten im Arbeitsspeicher abgelegt, ist dieser Speicher
mit den Daten belegt. Ein Prozessor kann einfach auf die nächste VM umschalten,
der Speicher kann das aber nicht – wo sollte er schließlich mit den Daten hin, die
er gerade hält? Den Inhalt des Arbeitsspeichers kann man nicht einfach gegen
einen anderen austauschen.
3.5.1 Arbeitsspeicher »überbuchen«?
Tatsächlich gibt es natürlich Methoden, um belegten Arbeitsspeicher zugunsten an-
derer Daten freizugeben, ohne die ursprünglichen Daten zu verlieren. Nicht zuletzt
beruht das gesamte Windows-Speicher-Management auf diesem Prinzip, das als Aus-
lagerung oder Paging bekannt ist: Der Speicherbereich, den das Betriebssystem ver-
4327.book Seite 138 Montag, 8. Mai 2017 4:03 16
3.5 Arbeitsspeicher
139
3
waltet, ist viel größer als der real eingebaute Arbeitsspeicher. Daten, die nicht in das
RAM passen, schreibt Windows daher auf die Festplatte. Optimierungsmechanismen
sorgen dafür, dass aktuell benötigte Daten möglichst im RAM bleiben und eher sol-
che Daten, die momentan nicht im Zugriff stehen, auf der Platte landen. Da die Infor-
mationen im Arbeitsspeicher in sogenannten Speicherseiten oder Pages organisiert
sind, bezeichnet man diesen Vorgang als Paging.
Genau diesen Trick wenden auch einige andere Virtualisierungshersteller an, um
ihren Host-Servern ein »Überbuchen« (im Englischen: Overcommit) des knappen Ar-
beitsspeichers zu ermöglichen. Der Nachteil dabei ist: Dies beeinträchtigt die Leis-
tung der virtuellen Maschinen sehr stark, und der Nachteil ist dabei erheblich größer
als beim Paging, das Sie von Windows kennen. Denn Windows weiß selbst, welche
Daten »heiß« sind und welche »kühler«. Das heißt, Windows weiß, welche Priorität es
setzen muss, denn das Betriebssystem hat hier eine »Innensicht«. Der Hypervisor
allerdings kann nur »von außen« auf die Betriebssysteme der virtuellen Maschinen
schauen und hat keine Kenntnis davon, welche Daten im RAM gerade aktiv sind und
welche eine Auslagerung besser vertragen. Man spricht hierbei auch vom Second
Level Paging, weil der Hypervisor den Speicher nur indirekt verwalten kann.
Diese Misere ist auch den anderen Herstellern bekannt. Daher wenden sie noch eine
Reihe anderer Tricks und Techniken an, um möglichst selten Arbeitsspeicher auf die
Festplatte auslagern zu müssen. Eine Tatsache bleibt aber bestehen: Nichts ist so
schnell wie der Zugriff auf »echten« Arbeitsspeicher.
Eine kurze Webrecherche zeigt Ihnen erbitterte Debatten über die Frage, ob Arbeits-
speicher in einer virtualisierten Umgebung »überbucht« werden soll oder nicht.
Auch Microsoft und seine Mitbewerber haben sich intensiv an dieser Diskussion be-
teiligt. Folgende Argumente haben sich dabei herausgebildet:
� Ein wesentlicher Vorteil der »Überbuchung« des RAMs ist eine hohe Flexibilität.
Auch wenn ein Host-Server beispielsweise über 64 GB an RAM verfügt, ist es mit
diesem Ansatz möglich, mehrere virtuelle Maschinen dort zu starten und zu be-
treiben, denen zusammen mehr als 64 GB Arbeitsspeicher zugewiesen wurde. In
der Praxis wird jeder Server meist weniger RAM benötigen, als er nutzen könnte,
daher reichen die Ressourcen aus. Paging oder andere Kniffe sind nur sehr selten
nötig.
� Der wichtigste Nachteil der Technik: Genau wie bei Flugbuchungen oder bei einer
Sparkasse besteht das Problem nicht im Normalbetrieb, sondern in der Ausnah-
mesituation. Da fast nie alle Passagiere zum Flug erscheinen, kann man durchaus
mehr Tickets verkaufen, als das Flugzeug Plätze hat. Ebenso kann eine Sparkasse
einen Großteil des eingelegten Geldes verleihen, weil nicht alle Kunden gleichzei-
tig ihre Ersparnisse abheben möchten.
4327.book Seite 139 Montag, 8. Mai 2017 4:03 16
3 Host-Server
140
Sollte nun aber doch der Fall eintreten, dass mehr Passagiere kommen, als es Sitze
gibt, oder dass die Kunden mehr Geld abheben möchten, als die Bank in bar gerade
zur Verfügung hat, dann wird es schwierig. Im Fall der Server-Virtualisierung be-
deutet das, dass meistens die gesamte Umgebung langsam wird, gleichgültig, ob
es sich um wichtige oder weniger wichtige Systeme handelt. Dann hilft nur noch,
Systeme gar nicht erst zu starten, nachträglich auf andere Hosts zu verschieben
oder ungenutzte Systeme herunterzufahren.
Pro oder kontra?
Wie Sie leicht erkennen können, haben beide Seiten ihre Berechtigung. Microsoft hat
sich ebenso deutlich auf der Kontra-Seite positioniert wie seine Mitbewerber die Pro-
Seite vertreten. Im Rahmen dieses Buches werden wir an der Diskussion nicht teil-
nehmen, sondern Ihnen die Grundlagen vermitteln, um den technischen Ansatz von
Hyper-V zu verstehen und für sich zu nutzen.
3.5.2 Hyper-V und der statische Arbeitsspeicher
Mit Hyper-V hat Microsoft sich zum Zeitpunkt des ersten Auftritts im Frühjahr 2008
in der Position des Angreifers befunden. Ein Urteil über seinen Hypervisor konnte
das Unternehmen sich auf keinen Fall erlauben: dass er langsam sei. Genau darin
liegt der wichtigste Grund dafür, dass Hyper-V keine Überbuchung des Arbeitsspei-
chers zulässt. Die Menge an RAM, die der Administrator einer virtuellen Maschine
zuweist, ist fest für sie reserviert, solange diese VM läuft. Dadurch kann sich die VM
stets auf die ungeschmälerte Leistung dieser Ressource verlassen.
Durch diese statische Zuweisung allerdings ist ein Hyper-V-System oft sehr unflexi-
bel. Kaum ein Administrator kann wirklich genau einschätzen, wie viel RAM ein
virtueller Server benötigt – im Zweifelsfall wird er mehr Speicher zuweisen, als not-
wendig ist. Das führt dazu, dass der verfügbare Arbeitsspeicher des Host-Servers
schnell ausgebucht ist, aber vielleicht ein größerer Teil gar nicht genutzt wird.
Besonders in Cluster-Umgebungen entsteht daraus bisweilen ein Problem. Ein Clus-
ter sollte immer so dimensioniert sein, dass ein oder mehrere Host-Server ausfallen
können, ohne dass die Anwender auf die produktiven VM-Systeme verzichten müs-
sen. Im Normalbetrieb müssen daher immer Ressourcen frei bleiben. Bei einem Clus-
ter aus zwei Servern bedeutet dies, dass jeder der Server genügend Arbeitsspeicher
haben muss, um alle virtuellen Maschinen gleichzeitig zu betreiben, falls der andere
Server ausfällt. Das bedeutet aber auch, dass im Normalfall, in dem beide Server feh-
lerfrei laufen, jeder Server über ungenutzte RAM-Reserven von 50 Prozent oder mehr
verfügt.
4327.book Seite 140 Montag, 8. Mai 2017 4:03 16
3.5 Arbeitsspeicher
141
3
3.5.3 Dynamic Memory – ein Ausweg?
Mit dem Service Pack 1 für Windows Server 2008 R2 hat Microsoft eine neue Technik
eingeführt, die das bisher starre System der Speicherzuweisung zumindest teilweise
flexibler gestaltet. Unter dem Namen Dynamic Memory steht eine Funktion zur Ver-
fügung, mit der eine virtuelle Maschine und der Host-Server gemeinsam aushandeln
können, wie viel RAM die VM zur Nutzung erhält (siehe Abbildung 3.18).
Abbildung 3.18 Dynamic Memory (»Dynamischer Arbeitsspeicher«) können Sie für einzelne
virtuelle Maschinen einrichten und konfigurieren.
Dynamic Memory ausdrücklich einschalten
Wichtig dabei: Dynamic Memory ist nur eine Option, und sie ist nicht standardmäßig
aktiv. Sofern Sie diese Technik für eine bestimmte VM nutzen möchten, müssen Sie
sie ausdrücklich einschalten. Das erfordert bei einer bereits existierenden VM, dass
Sie diese herunterfahren und nach der Änderung neu starten.
Bevor Sie dies tun, sollten Sie sich daüber informiert haben, ob die Anwendungen,
die in der VM laufen, mit dynamischem Speicher kompatibel sind.
4327.book Seite 141 Montag, 8. Mai 2017 4:03 16
3 Host-Server
142
Für Dynamic Memory verwaltet das Management-OS den Arbeitsspeicher des Host-
Servers als Speicher-Pool. Ein Host könnte beispielsweise mit 144 GB an Arbeitsspei-
cher konfiguriert sein. Von diesem Pool zieht Hyper-V zunächst den Speicher ab, der
den laufenden VMs statisch zugewiesen ist. Laufen in unserem Beispiel etwa ein
Exchange Server mit 24 GB, ein Domänencontroller (DC) mit 4 GB, vier Applikations-
Server mit je 8 GB und drei weitere Server mit je 4 GB an fester Speicherzuordnung,
so stehen im dynamischen Pool noch 72 GB an Speicher zur Verfügung. Die Reserve,
die das Management-OS selbst benötigt, wird ebenfalls dynamisch bestimmt. Der
Einfachheit halber gehen wir daher von etwa 70 GB aus, die noch für VMs bereit-
stehen.
Eine virtuelle Maschine, die Dynamic Memory nutzt, erhält drei Vorgabewerte (siehe
Abbildung 3.19):
� Minimaler RAM
Dieser Wert gibt an, wie viel RAM auf jeden Fall für die betreffende VM reserviert
ist. Diesen Arbeitsspeicher belegt die VM also minimal, auch wenn sie nach dem
Startvorgang weniger Speicher benötigt. Der Wert muss so groß sein, dass das vir-
tuelle System und all seine Applikationen im Normalbetrieb ohne größere Last-
situation stabil und zufriedenstellend laufen.
� Maximaler RAM
Bis zu diesem Wert kann die VM ihren Arbeitsspeicher maximal ausbauen, wenn
der Minimalwert nicht ausreicht. In Zeiten großer Last kann das Gast-System also
zusätzlichen Speicher anfordern, um weitere Daten im RAM ablegen zu können.
Mehr als diese Menge an RAM wird der VM von der Parent-Partition nicht zuge-
wiesen, selbst wenn hohe Last auf dem Gast-System liegt. Voreingestellt ist 1 TB,
wenn Sie die VM über den Hyper-V-Manager erzeugt haben.
Abbildung 3.19 Mit Dynamic Memory lässt sich eine virtuelle Maschine flexibel mit Arbeits-
speicher versorgen. Der Host passt die RAM-Ausstattung an den Bedarf an.
Physischer Arbeitsspeicher im Host
VM1 »Balloon«
MinimalerRAM
Start-RAM
MaximalerRAM
4327.book Seite 142 Montag, 8. Mai 2017 4:03 16
3.5 Arbeitsspeicher
143
3
� Start-RAM (Arbeitsspeicher beim Start)
Diese Menge an Arbeitsspeicher reserviert Hyper-V für die VM, wenn diese startet.
Da manche Applikationen beim Starten deutlich mehr Speicher benötigen als im
laufenden Betrieb – etwa weil sie während des Startvorgangs ihre Daten überprü-
fen müssen –, ist es so möglich, dass eine VM nach dem Hochfahren wieder Spei-
cher freigibt und auf den Minimal-RAM-Wert zurückfällt. Weniger als dieser Wert
wird einem Anwender oder einer Applikation innerhalb der VM nie angezeigt.
Würde in unserem Beispiel die Administratorin Anna Logie bei rein statischer Spei-
cherzuweisung noch vier Server à 16 GB Arbeitsspeicher starten, stünden nur noch
etwa 6 GB zur Verfügung. Den Versuch, dann noch eine VM mit 8 GB an RAM zu star-
ten, würde Hyper-V mit einer Fehlermeldung quittieren. Das wäre besonders dann
ärgerlich, wenn Anna Logie dabei feststellt, dass sie die bisher gestarteten Server ei-
gentlich viel zu großzügig dimensioniert hat und alle vier VMs durchaus mit 8 GB
Speicher auskämen.
Mit Dynamic Memory könnte die Situation folgendermaßen aussehen:
� Die vier genannten VMs sind nun nicht statisch mit 16 GB, sondern mit jeweils
8 GB als Minimalspeicher konfiguriert. Anna startet diese, sodass aus dem Spei-
cher-Pool weitere 32 GB reserviert sind.
� Zwei der VMs (nennen wir sie VM-47 und VM-11) benötigen mehr Speicher. Über
die Integrationsdienste melden sie diesen Bedarf an das Management-OS, das im
Pool noch etwa 40 GB vorfindet. Die VMs können daher mehr RAM erhalten, bei-
spielsweise jeweils 4 GB.
� Anna startet nun noch drei weitere Server à 8 GB. Fest zugewiesen sind nun 128 GB
des insgesamt 144 GB großen Arbeitsspeichers. Weitere 8 GB sind dynamisch an
die beiden VMs VM-47 und VM-11 zugeteilt. Es verbleiben also noch 8 GB im Pool.
� Nun startet Anna eine weitere VM namens VM-99, die 8 GB als Minimal-RAM ein-
getragen hat. Im statischen Modell könnte Hyper-V diese VM nicht mehr starten.
Dank Dynamic Memory prüft die Parent-Partition, ob in dem dynamisch zugewie-
senen Bereich aktuell Speicher ungenutzt ist. Dazu kommuniziert sie über den
VMBus mit den Integrationsdiensten der beiden VMs VM-47 und VM-11.
� Sofern diese VMs momentan ihre zusätzlichen 4 GB nicht vollständig benötigen,
geben sie diese ganz oder teilweise wieder zurück. Das Management-OS weist den
Speicher an VM-99 zu, die nun genügend RAM zum Starten vorfindet.
Abbildung 3.20 zeigt die Speicherbelegung eines Hyper-V-Hosts zu drei unterschied-
lichen Zeitpunkten. Durch die Nutzung von Dynamic Memory ist Hyper-V in der
Lage, den verfügbaren Speicher umzuverteilen. Dabei werden die konfigurierten
Speichergrenzen und der aktuelle Bedarf der virtuellen Maschinen beachtet.
4327.book Seite 143 Montag, 8. Mai 2017 4:03 16
3 Host-Server
144
Abbildung 3.20 Durch Dynamic Memory erhalten virtuelle Maschinen bei Bedarf mehr
Speicher. Benötigt der Host später RAM, um ihn anderen VMs zuzuteilen, kann er vergebe-
nen Speicher wieder zurückfordern, wenn dieser nicht verwendet wird.
3.5.4 Wie Dynamic Memory funktioniert
Es ist kaum bekannt, dass Windows bereits seit Windows Server 2003 SP1 die Funk-
tion Hot-Add Memory unterstützt (siehe »Hot-Add Memory Support in Windows Ser-
ver«, http://msdn.microsoft.com/en-us/library/windows/hardware/gg487553.aspx, Kurz-
link: http://qccq.de/s/h301).
Zunächst gab es diese Funktion nur in der Enterprise und der Datacenter Edition, weil
der Bedarf für dieses Feature aus großen Rechenzentren kam. In solchen Umgebun-
gen war Server-Hardware teilweise bereits so aufgebaut, dass ein Administrator im
laufenden Betrieb Speichermodule einbauen konnte. Zudem gab es Konfigurationen
mit Speicherspiegelung, also einer Art RAID-1 für RAM-Module.
Dieses Merkmal bildet die Grundlage von Dynamic Memory. Wenn eine virtuelle Ma-
schine in Hyper-V für Dynamic Memory konfiguriert ist und ihr Betriebssystem Hot-
Add Memory sowie eine passende Version der Integrationsdienste unterstützt, kann
diese VM bei der Parent-Partition zusätzlichen Arbeitsspeicher anfordern, sofern der
Bedarf daran besteht. Falls noch genügend physischer Speicher vorhanden ist, kann
das Management-OS der VM mehr RAM zuteilen, den das Gast-Betriebssystem dank
der Hot-Add-Memory-Funktion auch umgehend nutzen kann.
Wenn später die Situation eintritt, dass die Parent-Partition Arbeitsspeicher an ande-
re VMs zuweisen muss (dies nennt man Memory Pressure, weil das RAM gleichsam
Physischer Arbeitsspeicher im Host
VM1 VM2
Physischer Arbeitsspeicher im Host
VM1 VM2 VM3
VM1 VM2 VM3
Physischer Arbeitsspeicher im Host
VM4
4327.book Seite 144 Montag, 8. Mai 2017 4:03 16
3.5 Arbeitsspeicher
145
3
unter Druck steht), kann sie von einer virtuellen Maschine nicht genutztes RAM zu-
rückfordern. Es gibt allerdings im Betriebssystem kein Gegenstück zu Hot-Add Me-
mory, das Speicher wieder entfernen würde. Stattdessen bedient Hyper-V sich hier
eines Tricks, den auch andere Virtualisierungsanbieter nutzen: Ballooning.
Mit dieser Technik teilt das Management-OS den Integrationsdiensten der VM mit,
dass diese einen Teil ihres Arbeitsspeichers wieder abgeben muss. Die Integrations-
dienste kennzeichnen nun genau diesen Teil des Arbeitsspeichers als »belegt«, ob-
wohl tatsächlich gar keine Daten darin liegen. Das ist wie ein Ballon, der im Speicher
aufgeblasen wird: Man kann an das Innere nicht heran, obwohl der Ballon hohl ist.
Das Betriebssystem »sieht« weiterhin die große Menge an Speicher, kann aber einen
Teil davon nicht nutzen, als wären dort Daten einer Applikation gespeichert. Genau
diesen »Balloninhalt« an freiem Speicher nimmt sich nun das Management-OS, um
ihn einer anderen VM zuzuteilen.
Entspannt sich die Situation auf der Host-Ebene und wird wieder physischer Arbeits-
speicher frei, kann die VM bei Bedarf erneut zusätzlichen Speicher anfordern. Wird
ihr dieser zugesprochen, wird sie den »Ballon« zunächst verkleinern und den Spei-
cherbereich wieder nutzen, den sie eigentlich schon hatte. Ist der Bedarf noch größer,
kann die VM auch erneut per Hot-Add Memory ihre RAM-Menge erhöhen.
Wie die VM auf Dynamic Memory reagiert
Die Auswirkungen von Dynamic Memory können für viele Applikationen, aber auch für
Anwender unerwartet sein und zu Irritation oder sogar zu Ausfällen führen. Dies ist ein
Grund dafür, dass Dynamic Memory keineswegs ein »Problemlöser« für alles ist.
Stellen Sie sich einen virtuellen Client mit Windows 8 vor, den Sie mit einer Start-
Arbeitsspeichergröße von 512 MB konfiguriert haben. Nach dem Starten der VM ruft
der Anwender eine Applikation auf, und der Client fordert zusätzlichen Arbeitsspei-
cher an, sodass beispielsweise 680 MB zur Verfügung stehen. Der Anwender öffnet
den Task-Manager und sieht genau diesen Wert von 680 MB. Er ist aber Werte von
4 GB oder 8 GB gewohnt.
Obwohl die momentane Ausstattung für seine Aufgaben völlig ausreicht (und
obwohl sein Client bei Bedarf auch mehr Speicher erhalten könnte), könnte der
Anwender verärgert sein, dass er mit so geringen Ressourcen bedacht wird.
Denken Sie nun an einen neuen virtuellen Server, den Sie im Vertrauen auf Dynamic
Memory ebenfalls für eine Startgröße von 512 MB eingerichtet haben. Sie möchten
dort SQL Server 2016 installieren – doch das Setup-Programm bricht ab, weil es min-
destens 1 GB an Arbeitsspeicher voraussetzt, um die Software überhaupt einzurich-
ten. Von Dynamic Memory weiß Setup nichts, es sieht nur den momentanen Wert
von 512 MB.
Hat Dynamic Memory hingegen aufgrund einer vorübergehenden Lastsituation für
eine VM viel Speicher angefordert, etwa 20 GB, werden jeder Applikation, die die
4327.book Seite 145 Montag, 8. Mai 2017 4:03 16
3 Host-Server
146
RAM-Größe abfragt, immer 20 GB berichtet. Und zwar auch dann, wenn die VM
längst wieder auf einen Bedarf unterhalb von 2 GB zurückgefallen ist. Solange das
Betriebssystem der VM nicht neu startet, wird es immer von 20 GB Speicher ausge-
hen, von denen ein Großteil »belegt« ist – durch das Ballooning.
3.5.5 Dynamic Memory konfigurieren
Auf einem Host-Server mit Windows Server 2016 ist Dynamic Memory immer ver-
fügbar, denn es handelt sich um eine Grundfunktion des Betriebssystems. Die Konfi-
guration geschieht auf der Ebene einzelner virtueller Maschinen und kann direkt
beim Erzeugen einer neuen VM oder auch jederzeit nachträglich erfolgen. Beachten
Sie dabei aber, dass einige Änderungen an der Speicherkonfiguration einen Neustart
der betreffenden VM erfordern.
Wenn Sie die Einstellungen einer virtuellen Maschine per Rechtsklick oder über
den Bereich Aktionen im Hyper-V-Manager aufrufen, finden Sie im Abschnitt Ar-
beitsspeicher die folgenden Einstellungsmöglichkeiten:
� Statisch
Wählen Sie diese Option aus, bleibt Dynamic Memory für die virtuelle Maschine
deaktiviert. Sie erhält beim Starten die hier angegebene Menge an RAM und belegt
diese, bis Sie diese VM herunterfahren oder ihren Zustand speichern.
Eine kleine Ausnahme von diesem Prinzip gibt es neu in Windows Server 2016: Sie
können den statischen Arbeitsspeicher ändern, während die betreffende VM läuft.
Der neue Wert ist dann aber auch wieder statisch reserviert und gilt so lange, bis
Sie ihn erneut ändern oder die VM herunterfahren oder ihren Zustand speichern.
� Dynamisch
In diesem Bereich legen Sie die Vorgaben für Dynamic Memory in der VM fest. Die
Bedeutung der Werte Start-RAM, Minimaler RAM und Maximaler RAM haben wir
in Abschnitt 3.5.3, »Dynamic Memory – ein Ausweg?«, bereits erläutert. Folgende
Werte können Sie einstellen:
– Arbeitsspeicher beim Start: Wählen Sie diesen Wert so, dass die VM und all ihre
Applikationen fehlerfrei starten können.
– Minimales RAM: Diesen Wert sollten Sie so setzen, dass alle Applikationen ord-
nungsgemäß laufen, wenn keine Last auf dem System herrscht. Sofern die VM
gerade läuft, können Sie den Wert nur verkleinern.
– Maximales RAM: Wählen Sie diese Einstellung so, dass die VM in allen relevan-
ten Situationen zufriedenstellend arbeitet. Sollte der Maximalwert höher lie-
gen als der im Hotsystem verfügbare physische Speicher, wird das Maximum
4327.book Seite 146 Montag, 8. Mai 2017 4:03 16
3.5 Arbeitsspeicher
147
3
niemals ausgeschöpft. Im laufenden Betrieb können Sie das Maximum nur ver-
größern.
– Arbeitsspeicherpuffer: Der Puffer soll Latenzen bei der Zuweisung von Arbeits-
speicher umgehen. Zwar reagiert Dynamic Memory üblicherweise sehr schnell,
doch es kann sein, dass eine Applikation schneller Speicher anfordert, als die
Parent-Partition und die Integrationsdienste der VM diesen bereitstellen. Um
hier Engpässe zu vermeiden, reserviert die Parent-Partition für die VM also
mehr RAM, als diese eigentlich angefordert hat. Der Prozentwert bezieht sich
dabei auf die Menge an angefordertem und bestätigtem Speicher (im Original
bezeichnet als Committed Memory). Daraus ergibt sich folgende Formel:
VM-Speicher = angeforderter Speicher + angeforderter Speicher × Memory Buffer
Hat die VM etwa 4 GB an Dynamic Memory erhalten und beträgt der Puffer 50
Prozent, so reserviert Hyper-V weitere 2 GB für die VM, die im Betriebssystem
aber nicht sichtbar sind. Bei der nächsten Erweiterung kann die VM auf diese
2 GB aber sehr schnell zugreifen.
Der Puffer kann höher liegen als 100 Prozent (bis 2000 Prozent, also das Zwan-
zigfache), wobei Werte oberhalb von 50 Prozent praktisch nie sinnvoll sind.
– Arbeitsspeicherumfang: Hier liegt wieder eine irreführende Übersetzung vor:
Der Originalbegriff lautet Memory Weight und bezeichnet die Gewichtung für
den Arbeitsspeicher (nicht den Umfang). Mit diesem Schieberegler können Sie
die Priorität einzelner VMs untereinander steuern, wenn es sich um die Vertei-
lung von Arbeitsspeicher aus dem Pool handelt. Je höher der Wert ist, desto
wahrscheinlicher wird die betreffende VM zusätzlichen Speicher erhalten, falls
die Parent-Partition nur noch wenig RAM zu verteilen hat. Hinter dem Regler
verbirgt sich eine Skala von 0 bis 100. Bei Bedarf können Sie die Werte per
PowerShell mit dem Cmdlet Set-VMMemory numerisch setzen.
3.5.6 Smart Paging
Eine weitere Einstellung in der VM-Konfiguration hat ebenfalls mit Dynamic Memo-
ry zu tun. Im Abschnitt Speicherort für die Smart Paging-Datei der VM-Einstel-
lungen können Sie einen Speicherpfad angeben. An diesen Ort kann Hyper-V dann
beim Neustarten der VM Teile des VM-Arbeitsspeichers auslagern, falls nicht genü-
gend physischer Arbeitsspeicher verfügbar ist.
Beachten Sie, dass es sich dabei nicht um Second Level Paging handelt, das wir in Ab-
schnitt 3.5.1, »Arbeitsspeicher ›überbuchen‹?«, vorgestellt haben. Im Unterschied
zum dort beschriebenen Verfahren deckt das Smart Paging ausschließlich den Neu-
startvorgang einer VM ab, und zwar nur in der folgenden Situation:
4327.book Seite 147 Montag, 8. Mai 2017 4:03 16
3 Host-Server
148
� Die virtuelle Maschine wird aus dem laufenden Betrieb neu gestartet.
� Es ist genügend Arbeitsspeicher für das Minimal-RAM verfügbar.
� Es ist aber nicht ausreichend Speicher für das Start-RAM vorhanden, und andere
VMs können per Dynamic Memory keinen Speicher zurückgeben.
Sobald der Neustart abgeschlossen ist und die VM im Normalbetrieb weniger RAM
benötigt, wird sie über das Ballooning ihren Speicherbedarf reduzieren, und das
Management-OS löscht die Smart-Paging-Datei.
3.5.7 NUMA-Einstellungen
In modernen Servern finden Sie eine Hardware-Funktion vor, die in seltenen Situati-
onen die Leistung virtueller Systeme beeinträchtigen kann – obwohl sie eigentlich zu
hoher Performance beitragen soll. Die Rede ist von der NUMA-Architektur (Non-Uni-
form Memory Access).
In einem NUMA-System sind die RAM-Speicherbänke des Motherboards den einzel-
nen Prozessorsockeln zugeordnet (siehe Abbildung 3.21). Hierbei spricht man dann
von NUMA-Knoten (NUMA Nodes). Der Zugriff eines Prozessors auf »seine« Speicher-
module verläuft dabei besonders schnell, während dies langsamer abläuft, wenn ein
Prozessor auf Speicherbereiche zugreifen muss, die einem der anderen Prozessoren
zugeordnet sind. Aus diesem Grund ist es sehr wichtig, die RAM-Module beim Hard-
ware-Aufbau eines Servers exakt so einzubauen, wie der Hersteller es vorgibt.
Abbildung 3.21 Die NUMA-Architektur bindet einzelne Speicherbänke über
einen direkten Bus sehr schnell an bestimmte CPUs an. Der Zugriff auf RAM
einer anderen CPU ist dann möglich, aber deutlich langsamer.
Moderne Betriebssysteme und Applikationen sind für NUMA optimiert. Das heißt,
sie versuchen, ihre Prozesse und Threads so zu organisieren, dass Prozessor- und
CPU1 CPU2
CPU3 CPU4
RAM-Bank 1
RAM-Bank 2
RAM-Bank 3
RAM-Bank 4
RAM-Bank 5
RAM-Bank 6
RAM-Bank 7
RAM-Bank 8
4327.book Seite 148 Montag, 8. Mai 2017 4:03 16
3.5 Arbeitsspeicher
149
3
Speicheraufrufe immer über denselben NUMA-Knoten erfolgen. Auch Hyper-V ar-
beitet auf diese Weise und erreicht so in den meisten Situationen Performance-
vorteile: Der Host versucht, VMs so auf die NUMA-Knoten aufzuteilen, dass sie mit
»lokalem« Speicher einen schnellen RAM-Zugriff haben.
Seit Windows Server 2012 kann Hyper-V zudem die NUMA-Topologie an die VMs
durchreichen (Virtual NUMA). Dadurch ist deren Betriebssystem in der Lage, Pro-
zesse und Applikationen gezielt an NUMA-Grenzen auszurichten. Nicht jede An-
wendung beherrscht dies, doch gerade performancehungrige Applikationen wie SQL
Server können davon profitieren.
Es kann aber natürlich Situationen geben, in denen diese Optimierung nicht gelingt
– dann ist der Speicherzugriff langsamer. Durch Dynamic Memory steigt die Wahr-
scheinlichkeit, dass dies geschieht: Die dynamische Zuweisung von Arbeitsspeicher
an verschiedene VMs (an verschiedene Prozesse) führt zu einer starken Fragmentie-
rung des RAM-Adressbereichs. Hier kann es leichter geschehen, dass eine VM bei der
Erweiterung des Speichers RAM zugewiesen bekommt, der zu einem anderen Prozes-
sor gehört und damit langsamer im Zugriff ist (man spricht hier von NUMA Span-
ning). Wenn Sie für eine VM Dynamic Memory aktivieren, so erhält sie keinen Zugriff
auf Virtual NUMA.
Auch die Live-Migration laufender VMs kann sich beim NUMA-Zugriff negativ be-
merkbar machen. Wenn Sie eine VM, die auf dem Quell-Host in NUMA-optimierter
Zuweisung läuft, auf einen anderen Host verschieben, dessen NUMA-Struktur anders
aufgebaut ist oder dessen NUMA-Knoten bereits ausgelastet sind, dann wird die VM
auf dem Ziel-Host nicht optimiert laufen.
Wie Hyper-V sich verhält, können Sie festlegen. Wenn Sie im Hyper-V-Manager per
Rechtsklick auf den Hyper-V-Server die Hyper-V-Einstellungen aufrufen, finden
Sie unter Aufteilung auf NUMA ein Kontrollkästchen namens Aufteilung
virtueller Computer auf physische NUMA-Knoten zulassen. Wenn Sie dieses
aktivieren (was die Standardeinstellung ist), kann Hyper-V in der beschriebenen Situ-
ation einer VM zusätzlichen Speicher zuordnen, auf den dann aber langsamer zuge-
griffen wird. Deaktivieren Sie das Kästchen, erhält die VM keinen zusätzlichen Spei-
cher. Gleichzeitig bedeutet dies, dass Hyper-V eine VM nicht starten wird, wenn es sie
nicht vollständig einem NUMA-Knoten zuordnen kann.
Effektiv haben Sie also die Auswahl aus zwei Möglichkeiten:
� Aktivieren Sie die Option (NUMA-Spanning ist erlaubt), so kann Hyper-V einer VM
Arbeitsspeicher zuteilen, der zu einem anderen Host-Prozessor gehört. Einzelne
VMs können dadurch (etwas) langsamer laufen, als es möglich wäre. Dafür können
Sie tendenziell auf diesem Host mehr VMs gleichzeitig betreiben, weil Hyper-V
keine Rücksicht auf die NUMA-Grenzen nehmen muss.
4327.book Seite 149 Montag, 8. Mai 2017 4:03 16
3 Host-Server
150
� Deaktivieren Sie die Option (NUMA-Spanning ist nicht erlaubt), dann teilt Hyper-
V die VMs so auf die Host-Prozessoren auf, dass sie nur mit »lokalem« Speicher ar-
beiten. Diese VMs können dann also auf maximale RAM-Performance zugreifen.
Hierbei kann es aber passieren, dass Hyper-V eine VM nicht startet, wenn sie nicht
von einem NUMA-Knoten mit »lokalem« RAM versorgt werden kann. In dieser Si-
tuation können Sie also unter Umständen weniger VMs auf dem Host betreiben.
Ebenso kann es sein, dass Sie VMs mit großer RAM-Konfiguration nicht starten
können.
Hier lässt sich keine pauschale Empfehlung aussprechen. Die Konfigurationsoption,
die für Ihre Umgebung passt, können Sie im Zweifel nur durch aufwendige Testrei-
hen identifizieren. Behalten Sie dabei im Blick, dass Sie zur vollen Ausnutzung der
NUMA-Vorteile sowohl die RAM-Topologie des Host-Servers als auch die Konfigura-
tion der VMs genau kennen und aufeinander abstimmen müssen. Ebenso sollten Sie
sich bewusst sein, dass wir in diesem Abschnitt zwar von »schnellen« und »langsa-
men« RAM-Zugriffen sprechen, aber es geht hier eher um die Unterscheidung zwi-
schen »schnell« und »noch schneller«. NUMA-Optimierung ist dann ein Thema,
wenn Ihre Applikationen die Performance-Spitzen ausnutzen müssen.
Standardmäßig ist die Option NUMA Spanning aktiviert. Das bietet Ihnen die Mög-
lichkeit, prinzipiell mehr VMs parallel zu betreiben als bei deaktivierter Option, denn
so ist Hyper-V in der Lage, den verfügbaren Arbeitsspeicher auch über die Grenzen
der NUMA-Knoten hinweg zu adressieren. In den meisten Umgebungen mit »allge-
mein« genutzten VMs ist dies die erwünschte Konfiguration.
Weitere Informationen zu diesem Thema finden Sie unter:
https://technet.microsoft.com/en-us/library/dn282282(v=ws.11).aspx
(Kurzlink: http://qccq.de/s/v304)
http://www.benjaminathawes.com/2011/11/09/determining-numa-node-boundaries-
for-modern-cpus/ (Kurzlink: http://qccq.de/s/v305)
3.5.8 Arbeitsspeicher und das Storage-System
Eigentlich ist das Design des Festplatten-Speichersystems für den Host-Server eine
Angelegenheit, die mit dem Arbeitsspeicher kaum zu tun hat. Hierbei geht es eher
um die Datenmenge, die Applikationen verwalten müssen, sowie um die Leistung im
Sinne des Disk-I/O. Zwei direkte Abhängigkeiten bestehen aber zur RAM-Konfigura-
tion und zu Direct Memory.
Sobald Sie nämlich eine VM in den gespeicherten Zustand versetzen oder einen Prüf-
punkt (Snapshot) von einer VM erzeugen, muss Hyper-V den Inhalt des Arbeitsspei-
chers dieser VM auf der Festplatte ablegen. Dazu erzeugt das Management-OS eine
BIN-Datei (bei VMs mit Version 5.0) bzw. eine VMRS-Datei (bei VMs mit Version 8.0),
4327.book Seite 150 Montag, 8. Mai 2017 4:03 16
3.5 Arbeitsspeicher
151
3
sobald eine VM startet (siehe Abbildung 3.22). Diese Datei ist so groß wie der zugewie-
sene Arbeitsspeicher, damit der nötige Platz auf jeden Fall reserviert ist.
Eine Besonderheit tritt auf, wenn Sie für eine VM in deren Einstellungen die Auto-
matische Stoppaktion auf Status des virtuellen Computers speichern stel-
len. In diesem Fall legt Hyper-V die BIN- bzw. VMRS-Datei schon beim Start der VM in
der nötigen Größe an.
Abbildung 3.22 Beim Start einer VM mit der Stopp-Aktion »Speichern« erzeugt Hyper-V
stets eine BIN- bzw. VMRS-Datei, um bei Bedarf den Inhalt des Arbeitsspeichers auf die
Festplatte zu bannen.
Durch Dynamic Memory entsteht hierbei eine besondere Situation: Wenn die VM
von der Parent-Partition mehr RAM erhält, vergrößert sich auch die BIN- bzw. VMRS-
Datei. Trotzdem bleibt der Speicherplatz stets planbar, denn Hyper-V kann niemals
mehr RAM vergeben, als physisch im Host-Server vorhanden ist. Hat ein Host also
144 GB an Arbeitsspeicher, werden alle BIN- bzw. VMRS-Dateien zusammen niemals
mehr als 144 GB belegen, unabhängig davon, wie das RAM an die virtuellen Maschi-
nen verteilt ist.
Der zweite direkte Zusammenhang zwischen Arbeitsspeicher und Festplattensystem
besteht im Fall von Smart Paging, das wir in Abschnitt 3.5.6, »Smart Paging«, be-
schrieben haben. Hier erzeugt das Management-OS bei Bedarf eine Auslagerungs-
datei für die virtuelle Maschine, die nur während eines Neustarts verwendet wird
und den Größenunterschied zwischen dem »Minimal-RAM« und dem »Start-RAM«
abdeckt. Ist eine VM also für 1.024 MB Minimal-RAM und für 8.192 MB Start-RAM
konfiguriert, könnte in einer starken Lastsituation eine Smart-Paging-Datei von
7.168 MB notwendig sein.
4327.book Seite 151 Montag, 8. Mai 2017 4:03 16
3 Host-Server
152
Sie werden bisweilen die Empfehlung sehen, für Smart Paging und für die Ablage der
BIN- bzw. VMRS-Dateien möglichst schnelle Plattensysteme zu nutzen, beispielswei-
se SSD-Speicher. Hierbei sollten Sie aber im Blick behalten, dass sich dies nur aus-
zahlt, wenn Ihre virtuellen Maschinen oft neu starten, während der Host-Server stark
unter Last steht, oder wenn Sie oft mit gespeicherten Systemzuständen arbeiten. Bei-
des würde aber eher darauf hindeuten, dass die Umgebung insgesamt zu wenige Res-
sourcen hat.
3.5.9 Einschränkungen von Dynamic Memory
Wie Sie diesem Abschnitt bisher entnehmen konnten, ist Dynamic Memory eine
interessante und leistungsfähige Technik, aber kein universaler »Problemlöser«.
Keineswegs sollten Sie Dynamic Memory pauschal für all Ihre virtuellen Maschinen
aktivieren. Viele Systeme werden nicht davon profitieren, andere laufen damit sogar
weniger stabil. Für einige wichtige Anwendungsszenarien geben wir Ihnen daher im
Folgenden einige Einschätzungen aus der Praxis bzw. auf der Basis von Hersteller-
empfehlungen.
Virtuelle Clients
Virtuelle Clients unter Windows 7, Windows 8 bzw. 8.1 oder Windows 10 sind sozusa-
gen das Kernszenario, für das Dynamic Memory überhaupt erst entwickelt wurde.
Durch Dynamic Memory können Sie die »Dichte« von virtuellen Maschinen auf Ih-
ren Host-Servern deutlich erhöhen, das heißt mehr VMs gleichzeitig betreiben als
ohne Dynamic Memory. Ein typischer Anwendungsfall für diese Anforderung ist
eine virtuelle Desktop-Infrastruktur (VDI).
Hyper-V-Clustering
Nachdem Dynamic Memory als neue Funktion für das Service Pack 1 von Windows
Server 2008 R2 angekündigt wurde, hielten viele Kunden es für eine Möglichkeit, ihre
Host-Cluster flexibler und kostengünstiger zu planen. In einem Cluster muss jeder
Host-Server nämlich so viel Arbeitsspeicher freihalten, dass er nach einem Failover
auch die VMs eines ausgefallenen Servers übernehmen kann. Durch Dynamic Me-
mory könnte man dies nun so planen, dass einer »übernommenen« VM weniger
Speicher zur Verfügung steht als im Normalbetrieb – sie läuft dann vielleicht langsa-
mer, aber sie ist erreichbar.
Dies sollten Sie aber nicht grundsätzlich so einplanen, sondern bestenfalls in Aus-
nahmefällen damit kalkulieren. Ob dieser Plan aufgeht, hängt nämlich von der jewei-
ligen Applikation ab, die Sie in einer VM betreiben. Zu wichtigen Anwendungen lesen
Sie im Folgenden mehr.
4327.book Seite 152 Montag, 8. Mai 2017 4:03 16
3.5 Arbeitsspeicher
153
3
Kein VM-Start ohne Arbeitsspeicher
Behalten Sie Folgendes im Blick: Sollte eine virtuelle Maschine auf einem Hyper-V-
Host nicht genügend Arbeitsspeicher zum Starten vorfinden, wird sie nicht starten.
Das gilt auch in einem Cluster – ist nach dem Failover auf dem Ziel-Host nicht genü-
gend RAM verfügbar, wird die betreffende VM nicht hochfahren!
Remote Desktop Services
Die Remote Desktop Services (früher unter dem Namen Terminal-Dienste bekannt)
führen mehrere Benutzersitzungen parallel aus. Das beinhaltet natürlich auch die
Applikationen, die die jeweiligen Anwender einsetzen. Vereinfacht kann man davon
sprechen, dass der Remotedesktop-Server die Arbeit mehrerer PCs parallel betreibt.
Natürlich benötigt ein solcher Server vor allem viel Arbeitsspeicher. Grundsätzlich
kann ein solches System von Dynamic Memory profitieren, wenn genügend Res-
sourcen auf dem Host-Server bereitstehen. Setzt ein Unternehmen die Remote-
desktopdienste allerdings strategisch ein, wird es eher nicht in die Situation geraten
wollen, dass Benutzersitzungen in einem virtuellen Server eingeschränkt werden,
weil ein Dienst in einer anderen VM gerade viel RAM benötigt. Daher wird man in sol-
chen Umgebungen eher auf Dynamic Memory für die Remote Desktop Services ver-
zichten oder aber die virtuellen Server so auf die Hosts verteilen, dass negative Effek-
te nicht auftreten.
Exchange Server 2010 bis 2016
Moderne Exchange Server benötigen viel Arbeitsspeicher. Viele Administratoren er-
warten, dass gerade diese Server gut mit Dynamic Memory konfigurierbar sind. Lei-
der ist das aber nicht der Fall.
Exchange Server 2010 bis 2016 prüfen beim Start, wie viel RAM verfügbar ist, und pas-
sen diese Konfiguration später nicht mehr an. Die Dynamik würde hier also ins Leere
laufen. Daher wird der Einsatz von Dynamic Memory mit Exchange Server 2010 bis
2016 ausdrücklich nicht unterstützt.
SQL Server
SQL Server war eine der ersten Applikationen, die Hot-Add Memory unterstützte. Das
verwundert nicht, wenn man bedenkt, dass Datenbank-Server in großen Rechenzen-
tren den größten Bedarf an Arbeitsspeicher erzeugen. Daher gehört Microsofts SQL
Server ab Version 2005 zu den Applikationen, die Dynamic Memory tatsächlich nut-
zen können.
Beachten Sie dabei allerdings, dass dies nur für die jeweiligen Enterprise- und Data-
center-Fassungen des Produkts gilt. Die weit verbreiteten Express- und Standard-Edi-
4327.book Seite 153 Montag, 8. Mai 2017 4:03 16
3 Host-Server
154
tionen nutzen nur den Arbeitsspeicher, der beim Start der jeweiligen Dienste verfüg-
bar ist, und erfahren nichts von einem Speicherzuwachs.
Lync und Skype for Business
Lync 2010 und 2013 sowie Skype for Business sind nicht mit Dynamic Memory getes-
tet worden. Es kann funktionieren, und Microsofts Support wird nicht pauschal die
Unterstützung verweigern, jedoch kann es sein, dass der Support verlangt, die Dyna-
mik abzuschalten.
Small Business Server
Keine Version von Small Business Server ist mit Dynamic Memory getestet worden,
und es gibt von Microsoft keinen Support für eine solche Konfiguration. Mit der Ge-
neration Windows Server 2012 ist das Produkt eingestellt worden, daher wird sich an
der Situation auch nichts ändern.
Andere Produkte
Für alle Server-Applikationen gilt, dass Sie bei deren Herstellern erfragen sollten, ob
sie für eine Dynamic-Memory-Konfiguration Unterstützung gewähren. Sofern die je-
weilige Applikation für Ihre Geschäftsprozesse wichtig ist, sollten Sie die Dynamik
nur bei einer positiven Support-Aussage aktivieren.
Viele Anwendungen beruhen auf einem Datenbank-Backend unter SQL Server. Auch
für dieses gilt unabhängig von der zugreifenden Applikation diese Aussage.
Weitere Hinweise zu einzelnen Applikationen und deren Einsatz in virtuellen Ma-
schinen finden Sie in Kapitel 6, »Virtuelle Maschinen«.
3.5.10 Empfehlungen zu Dynamic Memory
Ob und wie Sie Dynamic Memory nutzen, sollten Sie genau prüfen und planen. Da-
bei steht der Bedarf der Applikationen im Vordergrund, die Sie in virtuellen Maschi-
nen nutzen möchten. Die folgenden Hinweise sollen Sie bei der Begutachtung un-
terstützen.
Dynamic Memory ersetzt keinen Speicher
Wie Sie erfahren haben, hat Microsoft die Technik von Dynamic Memory für einige
ganz konkrete Situationen entworfen. Zwar stand dabei im Vordergrund, die verfüg-
bare Hardware von Host-Servern besser auszunutzen und eine höhere »Packungs-
dichte« von virtuellen Maschinen zu ermöglichen. Trotzdem sollten Sie sich nicht
verleiten lassen, Ihre Host-Server deshalb zu knapp zu dimensionieren.
4327.book Seite 154 Montag, 8. Mai 2017 4:03 16
3.5 Arbeitsspeicher
155
3
Dynamic Memory ersetzt keinen Arbeitsspeicher. Wenn Ihre Server-Applikationen
viel RAM benötigen, planen Sie dies als Ressource im Host-System ein.
Die anderen können es nicht besser
Die Empfehlung, den physischen Arbeitsspeicher in einem Host-Server so zu dimen-
sionieren, dass alle virtuellen Server und Applikationen ohne Optimierungstricks wie
Speicherdynamik, Ballooning, Speicher-Deduplizierung oder Paging laufen, sprechen
auch alle anderen Virtualisierungshersteller aus. Zwar enthalten die meisten ande-
ren Produkte die genannten Tricks in ihrem Funktionsumfang, sodass der VM-Admi-
nistrator scheinbar mehr RAM verteilen kann, als im Server steckt. Tatsächlich aber
sind diese Features immer nur für den Notfall da und nicht für den Normalbetrieb.
Wenn man so will, ist Microsoft an dieser Stelle nur ehrlicher und bezüglich der Per-
formance zuverlässiger.
Grenzwerte realistisch konfigurieren
Wenn Sie eine neue virtuelle Maschine einrichten, schlägt der Hyper-V-Assistent
einen Ausgangswert von 512 MB für den Arbeitsspeicher vor. Setzen Sie dies als Un-
tergrenze für Dynamic Memory, wird das meist sogar funktionieren. Sinnvoll ist es
aber nur in Ausnahmefällen.
Definieren Sie den Minimalwert und den Startwert für Dynamic Memory in einer VM
so, dass die VM im Normalbetrieb gut damit arbeiten kann. So vermeiden Sie häufi-
ges Hoch- und Herunterskalieren der Speicherressourcen, und Sie erhalten bei der
Planung von Erweiterungen ein realistisches Bild. Als Referenz für Minimal- und
Startwerte können die empfohlenen Ressourcen des Herstellers herangezogen wer-
den. Eine Überprüfung und Anpassung der Werte im laufenden Betrieb ist aber zwin-
gend notwendig.
Bedenken Sie dabei auch, dass viele Applikationen wie beschrieben nur einmal beim
Start prüfen, wie viel Speicher vorhanden ist. Auch wenn später viel mehr RAM er-
hältlich ist, können solche Programme nicht davon profitieren.
Wie Sie den Speicherbedarf einfach bestimmen
Wenn Sie nicht wissen, wie viel RAM eine VM für eine Anwendungssoftware
benötigt, können Sie die Dokumentation des Herstellers konsultieren. Alternativ
können Sie auch einen Hyper-V-Test-Server nutzen: Richten Sie dort eine VM mit
Ihrer Applikation ein, und aktivieren Sie Dynamic Memory. Beobachten Sie dann die
VM im laufenden Betrieb. Über die Hyper-V-Konsole sehen Sie, wie viel RAM die vir-
tuelle Maschine tatsächlich verwendet.
4327.book Seite 155 Montag, 8. Mai 2017 4:03 16
Auf einen Blick
Auf einen Blick
1 Einleitung ...................................................................................................... 17
2 Hyper-V im Überblick .................................................................................. 57
3 Host-Server ................................................................................................... 111
4 Storage ........................................................................................................... 201
5 Netzwerk ....................................................................................................... 317
6 Virtuelle Maschinen .................................................................................... 413
7 Container ....................................................................................................... 609
8 Host-Farmen und Verfügbarkeit ............................................................... 659
9 Backup, Monitoring und Migration .......................................................... 813
10 Fallbeispiele .................................................................................................. 913
11 Finale .............................................................................................................. 923
4327.book Seite 3 Montag, 8. Mai 2017 4:03 16
Inhalt
5
Inhalt
1 Einleitung 17
1.1 Was wir Ihnen bieten ........................................................................................................ 18
1.1.1 Das Buch als Ganzes ........................................................................................... 19
1.1.2 Die elf Kapitel ........................................................................................................ 20
1.2 Die Autoren ............................................................................................................................ 27
1.3 Warum virtualisieren wir eigentlich? ........................................................................ 29
1.3.1 Ein Projekt ohne Ziel kann nur scheitern ..................................................... 31
1.3.2 Vor- und Nachteile abwägen ........................................................................... 32
1.3.3 Stolperfallen vermeiden .................................................................................... 34
1.4 Virtuelle Welten: Die Fallstudien ................................................................................. 37
1.4.1 Die A. Datum GmbH ............................................................................................ 38
1.4.2 Die Contoso AG ..................................................................................................... 40
1.4.3 Die Fabrikam AG ................................................................................................... 43
1.5 Hyper-V und der Virtualisierungsmarkt ................................................................... 44
1.5.1 Server-Virtualisierung: Eine Historie ............................................................. 46
1.5.2 Die Großen am Markt ......................................................................................... 48
1.5.3 Microsofts Virtualisierungsweg ...................................................................... 52
2 Hyper-V im Überblick 57
2.1 Die Architektur ..................................................................................................................... 59
2.1.1 Hypervisor Typ 1 ................................................................................................... 59
2.1.2 Hypervisor Typ 2 ................................................................................................... 60
2.1.3 Monolithischer Hypervisor ............................................................................... 62
2.1.4 Microkernel-Hypervisor ..................................................................................... 63
2.2 Paravirtualisierung und Emulation ............................................................................. 64
2.3 Hardware-Virtualisierung ............................................................................................... 65
2.4 Der VMBus und die Integration Services .................................................................. 67
4327.book Seite 5 Montag, 8. Mai 2017 4:03 16
Inhalt
6
2.5 Das Management-OS ........................................................................................................ 69
2.6 Der Virtualisierungs-Stack .............................................................................................. 71
2.6.1 Virtual Machine Management Service ......................................................... 72
2.6.2 Virtual Machine Worker Process ..................................................................... 72
2.6.3 Virtual Devices ...................................................................................................... 73
2.6.4 Virtualization Service Providers und Virtualization Service Clients .... 74
2.7 Child-Partitionen ................................................................................................................. 75
2.7.1 An Hyper-V angepasste Gast-Systeme ......................................................... 75
2.7.2 Nicht an Hyper-V angepasste Gast-Systeme .............................................. 76
2.7.3 VMs der Generation 2 ......................................................................................... 76
2.8 Best Practices Analyzer ..................................................................................................... 76
2.9 Vergleich mit Hyper-V unter Windows Server 2012 R2 .................................... 79
2.9.1 Zahlen, Daten, Fakten ......................................................................................... 79
2.9.2 Die großen und kleinen Erweiterungen ....................................................... 80
2.10 Virtuelle Gäste ...................................................................................................................... 81
2.10.1 Funktionierende und unterstützte VM-Betriebssysteme ...................... 81
2.10.2 Technische Limits ................................................................................................. 83
2.10.3 Alte Betriebssysteme betreiben ...................................................................... 85
2.11 Allgemeine Administration ............................................................................................ 86
2.11.1 Grafische Oberfläche .......................................................................................... 86
2.11.2 PowerShell .............................................................................................................. 91
2.12 Mit der PowerShell administrieren ............................................................................. 93
2.12.1 Der Einstieg ............................................................................................................ 94
2.12.2 PowerShell Remoting ......................................................................................... 99
2.12.3 PowerShell Direct ................................................................................................. 101
2.12.4 Beispiel-Skripte ..................................................................................................... 102
2.12.5 PowerShell Desired State Configuration ...................................................... 105
2.13 Zusammenfassung ............................................................................................................. 109
3 Host-Server 111
3.1 Die Grundinstallation ........................................................................................................ 111
3.1.1 Festplatten richtig aufteilen ............................................................................ 112
3.1.2 Die CPU auswählen ............................................................................................. 112
3.1.3 GUI vs. Server Core vs. Nano Server ............................................................... 113
3.1.4 Die Speicherpfade ................................................................................................ 119
4327.book Seite 6 Montag, 8. Mai 2017 4:03 16
Inhalt
7
3.1.5 Die Host-Reserven ............................................................................................... 121
3.1.6 Die Auslagerungsdatei im Management-OS .............................................. 122
3.2 Hyper-V-Server ..................................................................................................................... 123
3.2.1 Installieren und einrichten ............................................................................... 123
3.2.2 Dritthersteller-Tools zur Verwaltung nutzen ............................................. 127
3.3 Client Hyper-V ...................................................................................................................... 128
3.3.1 Anforderungen und Einschränkungen ......................................................... 128
3.3.2 Besonderheiten in Client Hyper-V .................................................................. 128
3.3.3 Client Hyper-V installieren und nutzen ........................................................ 130
3.3.4 Ein NAT-Netzwerk für VMs einrichten .......................................................... 132
3.3.5 Windows Server 2016 remote verwalten .................................................... 134
3.4 Umgang mit der Host-CPU .............................................................................................. 134
3.4.1 Host Resource Protection .................................................................................. 134
3.4.2 Nested Virtualization .......................................................................................... 135
3.5 Arbeitsspeicher .................................................................................................................... 137
3.5.1 Arbeitsspeicher »überbuchen«? ...................................................................... 138
3.5.2 Hyper-V und der statische Arbeitsspeicher ................................................. 140
3.5.3 Dynamic Memory – ein Ausweg? ................................................................... 141
3.5.4 Wie Dynamic Memory funktioniert ............................................................... 144
3.5.5 Dynamic Memory konfigurieren ..................................................................... 146
3.5.6 Smart Paging ......................................................................................................... 147
3.5.7 NUMA-Einstellungen .......................................................................................... 148
3.5.8 Arbeitsspeicher und das Storage-System .................................................... 150
3.5.9 Einschränkungen von Dynamic Memory ..................................................... 152
3.5.10 Empfehlungen zu Dynamic Memory ............................................................ 154
3.6 Discrete Device Assignment ........................................................................................... 156
3.7 Sicherheit beginnt beim Design ................................................................................... 158
3.7.1 VM-Umgebungen multiplizieren Nachlässigkeiten ................................. 160
3.7.2 Ganzheitliche Sicherheitskonzepte ............................................................... 163
3.7.3 Den Host absichern ............................................................................................. 170
3.7.4 Firewall-Virtualisierung ..................................................................................... 173
3.7.5 Port ACLs ................................................................................................................. 173
3.7.6 Hyper-V-Switch-Erweiterungen ...................................................................... 174
3.7.7 CSV und BitLocker ................................................................................................ 174
3.7.8 Administration mit JEA delegieren ................................................................ 175
3.7.9 Sollen die Hyper-V-Hosts in die Domäne? ................................................... 188
3.7.10 Shielded Virtual Machines ................................................................................ 192
3.8 Zusammenfassung ............................................................................................................. 200
4327.book Seite 7 Montag, 8. Mai 2017 4:03 16
Inhalt
8
4 Storage 201
4.1 Grundlagen ............................................................................................................................ 201
4.1.1 Crashkurs Storage: DAS, NAS, SAN oder was? ............................................ 202
4.1.2 Welches Speichersystem brauche ich wann? ............................................. 212
4.1.3 Speicherpfade ....................................................................................................... 215
4.2 DAS: Direct Attached Storage ........................................................................................ 216
4.3 ReFS ........................................................................................................................................... 224
4.3.1 Die Maximalwerte ............................................................................................... 225
4.3.2 Die Arbeit mit Metadaten ................................................................................. 225
4.3.3 Integrity Streams .................................................................................................. 226
4.3.4 Block Cloning ......................................................................................................... 226
4.4 SAN ............................................................................................................................................ 228
4.4.1 Server mit iSCSI anbinden ................................................................................. 229
4.4.2 Server mit Fibre Channel anbinden ............................................................... 230
4.4.3 vSAN einrichten .................................................................................................... 231
4.5 Storage Spaces ..................................................................................................................... 235
4.5.1 Alles eine Frage des Designs ............................................................................ 235
4.5.2 Storage Spaces mit DAS ..................................................................................... 258
4.5.3 Storage Spaces im Shared-JBOD-Design ...................................................... 266
4.5.4 Storage Spaces Direct (S2D) ............................................................................. 282
4.6 Storage Replica ..................................................................................................................... 305
4.6.1 Grundsätzliche Überlegungen ........................................................................ 305
4.6.2 Die Replikation zwischen zwei Servern ........................................................ 309
4.6.3 Die Replikation innerhalb eines Stretch-Clusters ..................................... 314
4.6.4 Die Replikation zwischen zwei Failover-Clustern ..................................... 315
5 Netzwerk 317
5.1 Netzwerkgrundlagen ........................................................................................................ 317
5.1.1 Wie funktioniert das Netzwerk in Hyper-V? ............................................... 319
5.1.2 Virtuelle Switches einrichten ........................................................................... 328
5.1.3 Netzwerktypen in Hyper-V ............................................................................... 335
5.1.4 Hyper-V-Netzwerke konfigurieren ................................................................. 340
5.1.5 Sprechende Namen wählen ............................................................................. 346
5.1.6 Hardware-Spezialitäten ..................................................................................... 349
5.1.7 Netzwerkkarten-Teams einrichten ................................................................ 358
5.1.8 Switch Embedded Teaming (SET) ................................................................... 364
4327.book Seite 8 Montag, 8. Mai 2017 4:03 16
Inhalt
9
5.1.9 SET-Modi und -Einstellungen .......................................................................... 367
5.1.10 SET verwalten ........................................................................................................ 367
5.1.11 Den Lastenausgleichsmodus für SET ändern ............................................. 368
5.1.12 Remote Direct Memory Access (RDMA) ....................................................... 368
5.1.13 Erweiterbare Netzwerk-Switches ................................................................... 372
5.1.14 10-Gigabit-Netzwerke und mehr ................................................................... 381
5.1.15 Hyper-V-Netzwerkvirtualisierung .................................................................. 391
5.1.16 Empfehlungen zu Netzwerken in Hyper-V .................................................. 400
5.1.17 Fallbeispiele für das Netzwerk ........................................................................ 402
5.2 Herkömmliche Designs ..................................................................................................... 404
5.3 Converged Designs ............................................................................................................. 404
5.4 Neuerungen in Windows Server 2016 ....................................................................... 405
5.4.1 Datacenter Firewall ............................................................................................. 405
5.4.2 Netzwerkcontroller ............................................................................................. 406
5.4.3 Software Load Balancer ..................................................................................... 408
5.4.4 Virtual Extensible LAN (VXLAN) ...................................................................... 409
5.5 Netzwerkprobleme ermitteln und Netzwerkoptimierung .............................. 410
5.6 Zusammenfassung ............................................................................................................. 412
6 Virtuelle Maschinen 413
6.1 Design und Sizing ................................................................................................................ 414
6.2 Ressourcen einer VM ......................................................................................................... 415
6.2.1 Hyper-V und die USB-Schnittstelle ................................................................ 416
6.2.2 Virtuelle Maschinen der »Generation 1« und »Generation 2« ............. 417
6.2.3 VM erzeugen mit dem Assistenten ................................................................ 419
6.2.4 VM-Eigenschaften bearbeiten ......................................................................... 423
6.2.5 Arbeitsspeicher ..................................................................................................... 432
6.2.6 Prozessor ................................................................................................................. 437
6.2.7 Festplatten ............................................................................................................. 449
6.2.8 LUNs in einer VM .................................................................................................. 468
6.2.9 Netzwerkkarten .................................................................................................... 475
6.2.10 Integrationsdienste ............................................................................................. 486
6.2.11 VMs der Generation 2 ......................................................................................... 494
6.3 VM-Gruppen .......................................................................................................................... 502
6.4 Ressourcen-Pools und Verbrauchsmessung ........................................................... 505
6.4.1 Verbrauchsmessung für einzelne VMs ......................................................... 507
4327.book Seite 9 Montag, 8. Mai 2017 4:03 16
Inhalt
10
6.4.2 Ressourcen-Pools als Abrechnungsbasis ..................................................... 508
6.4.3 Ressourcen-Pools einrichten ............................................................................ 510
6.5 VM-Versionen ....................................................................................................................... 517
6.6 VM-Konfigurationsdaten auf dem Host ................................................................... 518
6.6.1 Dateipfade .............................................................................................................. 519
6.6.2 Konfigurationsdateien ....................................................................................... 520
6.6.3 Konfigurationsdateien wiederfinden ............................................................ 521
6.7 VM-Verwaltung mit VMConnect ................................................................................. 522
6.7.1 VMConnect nutzen ............................................................................................. 522
6.7.2 Erweiterte Sitzung ............................................................................................... 527
6.7.3 Datenaustausch mit einer VM ........................................................................ 530
6.8 Einstellungen innerhalb einer VM ............................................................................... 534
6.8.1 Remote Desktop aktivieren .............................................................................. 534
6.8.2 Netzwerkkarten benennen ............................................................................... 535
6.8.3 Den Host identifizieren ...................................................................................... 536
6.9 Arbeiten mit Vorlagen ...................................................................................................... 538
6.9.1 Sysprep .................................................................................................................... 539
6.9.2 Sicherer Umgang mit VM-Vorlagen .............................................................. 541
6.10 VM-Prüfpunkte .................................................................................................................... 541
6.10.1 Was ist ein Prüfpunkt? ....................................................................................... 542
6.10.2 Standardprüfpunkte ........................................................................................... 542
6.10.3 Produktionsprüfpunkte ..................................................................................... 544
6.10.4 Einen Prüfpunkt erzeugen ................................................................................ 548
6.10.5 Die Eigenschaften eines Prüfpunkts .............................................................. 549
6.10.6 Zurück in der Zeit: Einen Prüfpunkt anwenden ........................................ 551
6.10.7 Entfernen eines Prüfpunkts .............................................................................. 552
6.10.8 Einen Prüfpunkt exportieren ............................................................................ 554
6.11 VMs exportieren und importieren .............................................................................. 554
6.11.1 Der Export ............................................................................................................... 554
6.11.2 Der Live-Export ...................................................................................................... 555
6.11.3 VM-Prüfpunkte exportieren ............................................................................. 555
6.11.4 Nur die VM-Konfiguration exportieren ........................................................ 556
6.11.5 Der Import .............................................................................................................. 557
6.12 Offline-VMs verwalten ..................................................................................................... 561
6.12.1 Windows ohne Setup installieren .................................................................. 561
6.12.2 Rollen in VHDs installieren ............................................................................... 564
6.12.3 Windows-Updates in VHDs installieren ....................................................... 566
6.12.4 Unbeaufsichtigte Konfiguration einer VHD ............................................... 569
6.12.5 VHDs optimieren .................................................................................................. 569
4327.book Seite 10 Montag, 8. Mai 2017 4:03 16
Inhalt
11
6.13 Linux-VMs installieren ...................................................................................................... 570
6.13.1 Die Integration Services für Linux .................................................................. 570
6.13.2 Eine Linux-VM installieren ................................................................................ 573
6.13.3 Erfahrungen mit dem Betrieb .......................................................................... 575
6.14 Server-Applikationen in VMs betreiben ................................................................... 576
6.14.1 Microsofts Support-Policy ................................................................................. 577
6.14.2 Gast-Cluster ........................................................................................................... 578
6.14.3 Active Directory .................................................................................................... 579
6.14.4 Exchange Server ................................................................................................... 589
6.14.5 SQL Server ............................................................................................................... 595
6.14.6 Oracle Database ................................................................................................... 600
6.14.7 SharePoint .............................................................................................................. 601
6.14.8 Skype for Business Server 2015 und Lync Server 2013 ............................ 603
6.14.9 Remote Desktop Services .................................................................................. 604
6.15 Zusammenfassung ............................................................................................................. 607
7 Container 609
7.1 Prozessisolierung mit Containern ............................................................................... 609
7.2 Container – Hype oder Realität? .................................................................................. 610
7.3 Funktionsweise .................................................................................................................... 612
7.4 Container unter Windows ............................................................................................... 613
7.4.1 Windows-Server-Container .............................................................................. 613
7.4.2 Hyper-V-Container .............................................................................................. 614
7.4.3 Lizenzierung ........................................................................................................... 614
7.4.4 Basis-Images .......................................................................................................... 615
7.5 Einen Container-Host einrichten .................................................................................. 616
7.5.1 Windows Server 2016 als Container-Host .................................................. 616
7.5.2 Windows 10 als Container-Host ..................................................................... 617
7.6 Docker einrichten ................................................................................................................ 618
7.6.1 Installation ............................................................................................................. 619
7.6.2 Grundlagen ............................................................................................................ 620
7.6.3 Netzwerk ................................................................................................................. 621
7.6.4 Daten ........................................................................................................................ 622
7.6.5 PowerShell für Docker ........................................................................................ 622
4327.book Seite 11 Montag, 8. Mai 2017 4:03 16
Inhalt
12
7.7 Container verwenden ....................................................................................................... 623
7.7.1 Container ausführen ........................................................................................... 623
7.7.2 Interaktiv oder als Dienst? ................................................................................ 624
7.7.3 Container verwalten ........................................................................................... 625
7.7.4 Hyper-V-Container starten ............................................................................... 628
7.7.5 Docker Hub verwenden ..................................................................................... 628
7.7.6 Netzwerk verbinden ............................................................................................ 630
7.7.7 Umgebungsvariablen übergeben ................................................................... 631
7.7.8 Daten persistieren ............................................................................................... 632
7.7.9 Container debuggen ........................................................................................... 632
7.7.10 Daten austauschen ............................................................................................. 634
7.8 Images erstellen .................................................................................................................. 634
7.8.1 Wichtige Befehl im Dockerfile ......................................................................... 636
7.8.2 Container-Images wiederverwenden? ......................................................... 637
7.8.3 Images versionieren ............................................................................................ 638
7.8.4 Images verwalten und aufräumen ................................................................ 639
7.8.5 Images veröffentlichen ...................................................................................... 639
7.9 Remoting mit Docker ........................................................................................................ 640
7.9.1 Konfiguration des Hosts .................................................................................... 640
7.9.2 Konfiguration des Clients .................................................................................. 641
7.9.3 Container verwalten ........................................................................................... 642
7.9.4 Images bauen ........................................................................................................ 642
7.9.5 Cross-Platform ...................................................................................................... 642
7.10 Tipps und Tricks ................................................................................................................... 643
7.10.1 Container-Images sind statisch ...................................................................... 643
7.10.2 Container-Images sind minimalistisch ......................................................... 643
7.10.3 PowerShell statt Cmd ......................................................................................... 644
7.10.4 ENTRYPOINT und CMD ....................................................................................... 645
7.10.5 Das Bauen beschleunigen ................................................................................. 645
7.10.6 Den Betrieb beschleunigen ............................................................................... 646
7.10.7 Lesbarkeit von Dockerfiles ................................................................................ 647
7.10.8 Versionierung ........................................................................................................ 649
7.10.9 Micro-Labelling ..................................................................................................... 650
7.11 Sicherheit ................................................................................................................................ 652
7.11.1 Absichern des Docker-Dienstes ....................................................................... 652
7.11.2 Privilegierte Container vermeiden ................................................................. 654
7.12 Ausblick ................................................................................................................................... 655
7.12.1 Noch mehr Docker ............................................................................................... 655
7.12.2 Andere Orchestrierungslösungen .................................................................. 656
7.12.3 Grafische Container-Verwaltung ................................................................... 656
4327.book Seite 12 Montag, 8. Mai 2017 4:03 16
Inhalt
13
8 Host-Farmen und Verfügbarkeit 659
8.1 Warum ist Verfügbarkeit ein Thema? ....................................................................... 659
8.1.1 Was ist überhaupt Verfügbarkeit? ................................................................. 660
8.1.2 Wie abhängig sind wir wirklich? ..................................................................... 662
8.1.3 Was ist eigentlich ein Ausfall? ......................................................................... 663
8.1.4 Wenn Redundanz zum Problem wird ........................................................... 665
8.1.5 Grenzen des Clusterings .................................................................................... 668
8.1.6 Das Konzept entscheidet ................................................................................... 668
8.2 Failover-Clustering ............................................................................................................. 670
8.2.1 Überblick ................................................................................................................. 671
8.2.2 Terminologie .......................................................................................................... 671
8.2.3 Cluster-Arten ......................................................................................................... 674
8.2.4 Historie des Windows-Clusterings ................................................................. 675
8.2.5 Neuerungen im Failover-Cluster ..................................................................... 676
8.2.6 Virtual Machine Compute Resiliency ........................................................... 678
8.2.7 Hardware für einen Cluster .............................................................................. 688
8.2.8 Cluster-Validierung ............................................................................................. 689
8.2.9 Best Practices für Cluster ................................................................................... 693
8.2.10 Cluster-Quorum .................................................................................................... 697
8.2.11 Cluster-Speicher ................................................................................................... 700
8.2.12 Einen Cluster einrichten .................................................................................... 703
8.2.13 Gast-Cluster ........................................................................................................... 709
8.2.14 Cluster-Rollen ........................................................................................................ 710
8.2.15 Failover-Cluster verwalten ................................................................................ 715
8.2.16 Cluster-fähiges Aktualisieren .......................................................................... 726
8.2.17 Arten von Cluster-Aktualisierungen .............................................................. 728
8.2.18 Die Aufgabenplanung einbinden ................................................................... 730
8.2.19 Node Vote Weights ............................................................................................. 731
8.2.20 Node Drain ............................................................................................................. 732
8.2.21 Virtual Machine Monitoring ............................................................................. 734
8.2.22 Failover-Cluster per PowerShell verwalten ................................................. 736
8.2.23 Cluster ohne Active-Directory-Namensobjekte ......................................... 741
8.3 Speicher-Cluster mit Windows Server 2016 ........................................................... 746
8.3.1 Storage Spaces im Cluster ................................................................................. 747
8.3.2 iSCSI-Target als Cluster-Rolle ........................................................................... 749
8.4 NAS statt SAN ....................................................................................................................... 750
8.4.1 Authentifizierung mit CredSSP ....................................................................... 750
8.4.2 Authentifizierung mit Kerberos ...................................................................... 751
8.5 Host-Cluster mit Hyper-V ................................................................................................ 753
4327.book Seite 13 Montag, 8. Mai 2017 4:03 16
Inhalt
14
8.6 Live-Migration ...................................................................................................................... 759
8.6.1 Funktionsweise ..................................................................................................... 759
8.6.2 Einsatzszenarien .................................................................................................. 760
8.6.3 Voraussetzungen ................................................................................................. 760
8.6.4 Konfiguration ........................................................................................................ 761
8.6.5 Die VM-Replikation verwenden ...................................................................... 764
8.6.6 Speicher-Live-Migration .................................................................................... 768
8.6.7 Bandbreiten-Management ............................................................................... 771
8.6.8 Storage Quality of Services (QoS) ................................................................... 772
8.6.9 Storage-QoS unterstützt zwei Bereitstellungsszenarien ....................... 773
8.6.10 Live-Migration im Failover-Cluster ................................................................. 775
8.7 VM-Replikation .................................................................................................................... 776
8.7.1 Funktionsweise ..................................................................................................... 777
8.7.2 Die Hosts konfigurieren ..................................................................................... 778
8.7.3 Die VM-Replikation aktivieren ......................................................................... 780
8.7.4 Replikation in virtuellen Maschinen konfigurieren .................................. 787
8.7.5 Das Replikat ........................................................................................................... 790
8.7.6 Replizierte VMs testen ....................................................................................... 791
8.7.7 Geplantes Failover ............................................................................................... 793
8.7.8 Das Replikat in Betrieb nehmen ...................................................................... 794
8.7.9 Wiederherstellungspunkte ............................................................................... 796
8.7.10 Microsoft Azure Site Recovery ......................................................................... 797
8.8 Failover-Cluster-Protokollierung und Fehleranalyse .......................................... 803
8.8.1 Ereignisse im Cluster von der Failover-Cluster-Verwaltungs-
konsole anzeigen lassen .................................................................................... 806
8.8.2 Failover-Cluster -Fehlersuche und -Fehlerbehebung ............................... 806
8.9 Rolling Cluster Update ...................................................................................................... 808
8.9.1 Ablauf einer Cluster-Migration ....................................................................... 809
8.9.2 Einschränkungen des Rolling Cluster Updates .......................................... 810
8.10 Zusammenfassung ............................................................................................................. 811
9 Backup, Monitoring und Migration 813
9.1 Daten sichern und wiederherstellen .......................................................................... 814
9.1.1 Restore ist mehr als Backup! ............................................................................ 814
9.1.2 Anforderungen klären ........................................................................................ 815
9.1.3 Methoden auswählen ........................................................................................ 818
9.1.4 Ebenen des Backups ............................................................................................ 819
9.1.5 Die Wiederherstellung planen ........................................................................ 833
4327.book Seite 14 Montag, 8. Mai 2017 4:03 16
Inhalt
15
9.1.6 Backup-Techniken in Hyper-V .......................................................................... 840
9.1.7 Windows Server-Sicherung .............................................................................. 842
9.1.8 Drittanbieter-Software ...................................................................................... 860
9.2 Probleme erkennen und bearbeiten .......................................................................... 861
9.2.1 Ereignisprotokolle nutzen ................................................................................. 862
9.2.2 Aufgaben an Ereignisse koppeln .................................................................... 868
9.2.3 Mit Operationsbesteck Probleme bearbeiten ............................................ 871
9.3 Virtuelle Umgebungen überwachen .......................................................................... 875
9.3.1 Performance-Überwachung und -Tuning von Windows Server 2016 876
9.3.2 Leistungsüberwachung von Hyper-V-Hosts ............................................... 876
9.3.3 Microsoft-nahe Werkzeuge .............................................................................. 877
9.3.4 Hyper-V mit Drittanbieter-Tools überwachen ........................................... 878
9.3.5 Die Performance von Hyper-V-Systemen überwachen ........................... 879
9.3.6 Die Funktion der Umgebung überwachen .................................................. 879
9.3.7 VM-Monitoring ..................................................................................................... 881
9.4 Hosts und VMs migrieren ................................................................................................ 884
9.4.1 Von früheren Hyper-V-Versionen umstellen .............................................. 884
9.4.2 Von VMware vSphere zu Hyper-V migrieren .............................................. 897
9.4.3 Physische Server virtualisieren ........................................................................ 903
9.5 Zusammenfassung ............................................................................................................. 911
10 Fallbeispiele 913
10.1 Die Fallbeispiele im fertigen Zustand ........................................................................ 913
10.1.1 Die A. Datum GmbH ............................................................................................ 914
10.1.2 Die Contoso AG ..................................................................................................... 915
10.1.3 Die Fabrikam AG ................................................................................................... 919
11 Finale 923
11.1 Lizenzierung für Hyper-V ................................................................................................. 923
11.1.1 Server: Das Betriebssystem .............................................................................. 924
11.1.2 Applikationen: Lizenzmobilität ....................................................................... 926
11.2 Werkzeugkasten für Hyper-V ........................................................................................ 927
11.3 Community und Quellen ................................................................................................. 929
Index ........................................................................................................................................................ 933
4327.book Seite 15 Montag, 8. Mai 2017 4:03 16
Index
933
Index
00-15-5D .................................................................. 483
5Nine Manager ..................................................... 126
802.1ax-2008 � IEEE 802.1ax-2008
802.1Qau � IEEE 802.1Qau
802.1Qaz � IEEE 802.1Qaz
802.1Qbb � IEEE 802.1Qbb
802.1X � IEEE 802.1X
802.3ad � IEEE 802.3ad
A
A. Datum GmbH, Vorstellung ........................... 38
Access Control List .............................................. 166
ACPI ........................................................................... 486
Acropolis � Nutanix Acropolis
Addresshash .......................................................... 360
Admin-based Attestation ................................. 193
Aktiv/Aktiv-Cluster ............................................ 674
Allgemeine Anwendung ................................... 711
Allgemeiner Dienst ............................................. 711
Allgemeines Skript .............................................. 711
Ältere Netzwerkkarte ......................................... 475
AMD Virtualization ..................................... 65, 112
AMD-V .............................................................. 65, 112
Amin-based Attestation ................................... 195
Anbieteradresse .......................................... 395, 397
Application Consistency .................................. 830
Application-Level-Backup ................................ 819
Arbeitsspeicher
dynamisch ......................................................... 434
NUMA .................................................................. 447
Virtual NUMA .................................................. 448
ASR � Azure Site Recovery
Ausfall, Definition ............................................... 663
Ausfallrechenzentrum ...................................... 667
Ausfallsicherheit, Konzept .............................. 668
Ausfallwahrscheinlichkeit ............................... 659
Ausfallzeit
geplante .............................................................. 664
tolerierbare ....................................................... 662
ungeplante ........................................................ 664
Wartungsvorgang .......................................... 663
Auslagerung .......................................................... 138
Auslagerungsdatei ..................................... 122, 217
Authoritative Restore ........................................ 840
AVHD(X)-Datei ..................................................... 543
Azure Quorum ...................................................... 677
Azure Site Recovery ................................... 798, 898
B
Backing Storage File ............................................ 461
Backup � Datensicherung
Backup-Server ....................................................... 835
Ballooning .............................................................. 145
Bandbreiten-Management .............................. 771
Bandbreitenverwaltung .................................... 377
Bare Metal Hypervisor ......................................... 59
Baseline Security Analyzer .............................. 167
Best Practices Analyzer ..................... 76, 166, 754
Bestmöglicher Knoten ...................................... 721
Bevorzugter Besitzer .......................................... 673
BitLocker .............................................. 175, 192, 495
Blockorientierter Speicher ............................... 465
Blockorientiertes Protokoll ............................. 208
Boot from SAN ...................................................... 216
BPA � Best Practices Analyzer
C
CAB-Datei ................................................................ 567
CAU � Cluster Aware Updating
CBT � Changed Block Tracking
CCR � Cluster Continuous Replication
CDN � Consistent Device Naming
Changed Block Tracking ................................... 841
CheckDisk ............................................................... 909
Checkpoint ............................................................. 162
Child-Partition � Virtuelle Maschine
CiB � Cluster in a Box
CIFS � Common Internet File System
Citrix
XenApp .................................................................. 50
XenMotion ............................................................ 50
XenServer ............................................. 48, 49, 451
Citrix XenApp .......................................................... 50
Citrix XenMotion ................................................... 50
Citrix XenServer ............................................... 48, 49
Client Hyper-V ............................................. 128, 200
Clientzugriffspunkt ................................... 712, 714
Cloud Witness ....................................................... 700
Cluster Aware Updating ....... 677, 726, 733, 760,
775, 809
4327.book Seite 933 Montag, 8. Mai 2017 4:03 16
Index
934
Cluster Continuous Replication .................... 675
Cluster in a Box .................................................... 260
Cluster Name Object .......................................... 672
Cluster Node Weight .......................................... 732
Cluster Shared Volume .......... 55, 216, 259, 274,
275, 278, 339, 401, 459, 672, 676, 684, 701,
712, 731, 754, 861, 875
Block Cache ....................................................... 275
Cluster Shared Volume File System ............. 701
Cluster.exe ............................................................. 688
Cluster-Aware Updating ................................... 760
Cluster-Netzwerk ........................................ 338, 343
Cluster-Shared Volume .................. 743, 748, 875
Cache ................................................................... 744
CN � Congestion Notification
CNO � Cluster Name Object
Column Count ...................................................... 248
Common Internet File System .............. 207, 752
Compute-Cluster ................................................. 674
Congestion Notification ................................... 357
Connectix ................................................. 44, 47, 451
Connectix Virtual PC ............................................ 44
Consistent Device Naming ..................... 330, 347
Container ................................................................ 609
anzeigen ............................................................. 625
ausführen ........................................................... 623
benennen ........................................................... 625
Daten persistieren .......................................... 632
debuggen ........................................................... 632
Docker ................................................................. 619
Docker installieren ......................................... 619
Dockerfile .................................................. 634, 636
Host ............................................................. 612, 616
Host einrichten ................................................ 616
Hyper-V-Container ...................... 614, 617, 628
Image ....................................... 612, 615, 622, 628
Images erstellen .............................................. 634
Images filtern ................................................... 639
Images löschen ................................................ 639
Images veröffentlichen ................................. 640
Layer .................................................................... 622
Lizenzierung ..................................................... 614
Micro-Labelling ............................................... 651
NAT ....................................................................... 621
Netzwerk ................................................... 621, 630
Port ....................................................................... 631
Registry ............................................................... 612
Remoting ........................................................... 640
Tag ............................................................... 622, 640
transparentes Netzwerk ............................... 621
Container (Forts.)
Umgebungsvariablen ................................... 631
untersuchen ...................................................... 625
Versionierung .......................................... 638, 649
Volume ....................................................... 622, 632
Windows-Server-Container ......................... 613
Contoso AG
Vorstellung ........................................................... 40
Converged ........................................... 282, 290, 291
Converged Netzwerk .............. 209, 357, 382, 404
Copy on Write ....................................................... 821
CPU ............................................................................ 437
Begrenzung ....................................................... 441
Core ............................................................. 414, 437
für SQL Server ................................................... 598
Hyper-Threading ............................. 83, 437, 598
Kern ................................................... 137, 355, 437
Kompatibilität ........................................ 443, 761
Kontextwechsel ............................................... 137
logische ................................... 121, 438, 442, 877
Oracle Database .............................................. 601
Prozess ................................................................ 137
Reserve ................................................................ 441
Ring ......................................................................... 66
Second Level Address Translation .... 128, 810
Second Level Paging ...................................... 139
Secure Boot ..................................... 494, 498, 573
Sockel .......................................................... 414, 437
Thread ................................................................. 137
Version ....................................................... 443, 445
Virtual ........................................................ 550, 570
virtuelle ............................ 83, 121, 438, 442, 877
Crash Consistency ............................................... 829
Credential Security Support Provider 750, 762
CredSSP � Credential Security Support
Provider
CSS � Customer Support Service
CSV File System .................................................... 274
CSV � Cluster-Shared Volume
CSV-Cache ............................................................... 744
CSVFS � CSV File System
CSV-Netzwerk .................................... 339, 343, 383
Customer Support Service ............................... 690
D
Daisy Chaining ..................................................... 236
DAS � Direct Attached Storage
Data Center Bridge ........................... 297, 318, 771
4327.book Seite 934 Montag, 8. Mai 2017 4:03 16
Index
935
Data Center Bridging ...................... 356, 365, 366
Data Center Bridging Capabilities
Exchange Protocol ......................................... 357
Database Availability Group .............................. 42
Datacenter Firewall ............................................. 405
Dateiorientiertes Protokoll ............................. 207
Datenbank, Konsistenz ..................................... 820
Datensicherung ........................................... 813, 814
Agent ................................................................... 820
Altaro ................................................................... 861
Anforderung ..................................................... 815
Application-Level-Backup ........................... 819
Ebene ................................................................... 819
Failover-Cluster ............................................... 860
Image ................................................................... 818
Image-Level-Backup ...................................... 821
Konsistenz ......................................................... 822
Methode ............................................................. 818
Snapshot ............................................................ 818
Storage Area Network .................................. 818
Veeam ................................................................. 861
Werkzeuge ......................................................... 816
Wiederherstellung .......................................... 814
Datenspeicher
Performance ..................................................... 213
Datenträger überprüfen (Befehl) .................. 457
Datenverlust .......................................................... 814
Datenwiederherstellung ......................... 814, 818
Methode ............................................................. 818
DCB Capabilities Exchange Protocol
� Data Center Bridging Capabilities
Exchange Protocol
DCB � Data Center Bridge
DCB � Data Center Bridging
DCBX � Data Center Bridging Capabilities
Exchange Protocol
DCOM � Distributed Component Object
Model
dcpromo.exe ......................................................... 828
DDA � Discrete Device Assignment
Demilitarisierte Zone ...... 42, 124, 163, 189, 918
Device Specific Module .................. 212, 229, 471
DFS � Distributed File System
DFS-Namespaceserver ....................................... 711
DHCP Guard .......................................................... 484
DHCP � Dynamic Host Configuration Protocol
DHCP-Server .......................................................... 711
DHCP-Wächter ..................................................... 484
Differentiated Services Code Point .............. 771
Dille, Nicholas .......................................................... 27
Direct Attached Storage ......... 50, 203, 216, 258,
267, 694
Direct Memory Access ....................................... 353
Disaster Recovery ....................................... 828, 904
Discrete Device Assignment .................... 66, 156
Disk2Vhd ................................................................ 907
Diskless Server ...................................................... 216
Distributed Component Object Model ....... 764
Distributed File System .............................. 42, 305
Distributed Management Task Force .......... 505
Distributed Network Name ............................. 688
Distributed Resource Scheduling .................... 49
DMA � Direct Memory Access
DMTF � Distributed Management Task Force
DMZ � Demilitarisierte Zone
DNN � Distributed Network Name
DO � Dynamic Optimization
Docker ...................................................... 48, 610, 619
.dockerignore .................................................... 646
attach .................................................................. 633
build ..................................................................... 634
Cattle ................................................................... 656
Clientzertifikat ................................................. 653
Compose ............................................................. 655
cp ........................................................................... 634
DOCKER_CERT_PATH ................................... 654
DOCKER_HOST ................................................ 641
DOCKER_TLS_VERIFY ................................... 653
Dockerfile .................................................. 634, 636
exec ....................................................................... 633
Hub ....................................................................... 628
images ................................................................. 639
info ....................................................................... 653
inspect ................................................................. 625
Konfigurationsdatei ...................................... 640
Kubernetes ......................................................... 656
Layer ........................................................... 622, 646
login ..................................................................... 640
logs ....................................................................... 633
Machine .............................................................. 655
Named Pipe ....................................................... 640
Netzwerkzugriff ...................................... 640, 652
Portainer ............................................................ 657
ps ........................................................................... 625
pull ............................................................... 630, 640
push ...................................................................... 640
Rancher ............................................................... 656
Remoting ............................................................ 640
rm .......................................................................... 627
rmi ........................................................................ 639
run ........................................................................ 623
4327.book Seite 935 Montag, 8. Mai 2017 4:03 16
Index
936
Docker (Forts.)
search .................................................................. 628
Serverzertifikat ................................................ 652
Swarm ................................................................. 656
Tag ........................................................................ 629
tag ......................................................................... 640
version ................................................................. 641
Volume ....................................................... 622, 632
Dockerfile
ENTRYPOINT ..................................................... 645
Escape Character ............................................ 637
SHELL ................................................................... 644
Domäne
separate .............................................................. 190
Downtime .............................................................. 890
geplante .............................................................. 664
ungeplante ........................................................ 664
DRS � Distributed Resource Scheduling
DSC � PowerShell Desired State Configuration
DSCP � Differentiated Services Code Point
DSM � Device Specific Module
Dynamic Host Configuration Protocol ...... 132
Dynamic Memory 136, 141, 143, 434, 591, 597
soziale Auswirkung ........................................ 145
Dynamic Optimization ..................................... 683
Dynamischer Arbeitsspeicher ................. 83, 434
Dynamisches Team ............................................ 359
E
E/A-Virtualisierung mit Einzelstamm 372, 377
Eingeschränkte Kerberos-Delegation � Ker-
beros Constraint Delegation
Empfangsseitige Skalierung � Receive Side
Scaling
Emulation .................................................................. 64
Emuliertes Gerät ..................................................... 74
Endpoint Protection � System Center End-
point Protection
Enhanced Transmission Selection ............... 357
Enlightenment ................................................. 65, 68
Ereignis-ID .............................................................. 866
Erweiterbare Netzwerk-Switches .................. 372
ESXi � VMware ESXi
ETS � Enhanced Transmission Selection
Exchange � Microsoft Exchange
Extensible Switch ................................................... 80
Externes Netzwerk .............................................. 333
F
Fabrikam AG
Vorstellung ........................................................... 43
Failback ........................................................... 671, 672
Failover .............................. 671, 672, 710, 720, 721
Failover-Cluster .... 159, 235, 266, 270, 297, 401,
515, 671, 676, 695, 759, 775, 875
aktualisieren � Cluster Aware Updating
API ......................................................................... 728
Azure Quorum ................................................. 677
Begriffe ................................................................ 671
Cloud Witness ................................................... 700
Cluster Aware Updating ............................... 677
Cluster Name Object ...................................... 672
Cluster Shared Volume ................................. 672
Cluster-Netzwerk .................................... 338, 343
Continuous Replication ............................... 675
Coordinating Node ........................................ 339
CSV-Netzwerk ................................................... 343
Datensicherung ............................................... 860
Dienst ......................................................... 677, 734
DLL ........................................................................ 711
Dynamic Memory ........................................... 152
Entscheidungsmehrheit ............................... 677
Ereignis ...................................................... 716, 717
Fault Domain .......................................... 287, 680
Funktionalität .................................................. 671
Grenzen ............................................................... 668
Heartbeat ..................... 672, 697, 704, 707, 722
Heartbeat-Cluster ........................................... 338
IP-Adresse ................................................. 672, 720
keine Mehrheit ................................................. 700
Knoten ....... 671, 674, 677, 686, 689, 695, 698,
702–704, 710, 720, 722, 730, 733, 734
Knoten- und Dateifreigabemehrheit ...... 699
Knoten- und Datenträgermehrheit ......... 699
Knotenmehrheit .............................................. 699
Kommunikation .............................................. 704
Konfiguration .................................................. 693
Manager ............................................................. 704
maximale Anzahl Knoten .............................. 79
maximale Anzahl VMs .................................... 79
Name ................................................................... 706
Parameter .......................................................... 736
PowerShell ......................................................... 679
Prüfbericht ......................................................... 705
Quorum .... 260, 271, 291, 671, 686, 697, 701,
707, 731, 754
Redirected I/O .................................................. 339
Registrierung .................................................... 688
4327.book Seite 936 Montag, 8. Mai 2017 4:03 16
Index
937
Failover-Cluster (Forts.)
Ressource ........................................ 719, 733, 736
Rolle ..... 671, 672, 695, 701, 710, 711, 713, 721
Rolling Cluster Update ................................. 808
Rolling Upgrade .............................................. 678
Server ................................................................... 671
Split Brain .......................................................... 697
Stimmen ............................................................. 697
Stretch-Cluster ........................................ 309, 314
Tie Breaker ......................................................... 740
Updating ............................................................ 726
Validierung .................................... 672, 690, 693
Validierungsassistent ................................... 690
Validierungsbericht ....................................... 693
Validierungstest .............................................. 692
verschachtelter ................................................ 664
Verwaltungskonsole ......... 676, 681, 715, 716,
718, 731, 883
Virtual Computer Objects ........................... 685
Virtual Machine Compute Resiliency ..... 678
Vote ...................................................................... 697
Vote Majority ................................................... 677
Voter ................................................. 697, 698, 731
Witness ....................................................... 260, 291
Zeuge .......................................................... 260, 291
Zeugendatenträger ..................... 697, 700, 707
Failover-Cluster-Manager ................................ 883
FC � Fibre Channel
FCHBA � Fibre Channel Host Bus Adapter
FCoE � Fibre Channel over Ethernet
Festplatte voll ....................................................... 556
Fibre Channel .................. 209, 230, 337, 689, 701
FCoE ..................................................................... 709
NPIV ........................................................................ 84
over Ethernet ........................................... 209, 709
vFC ........................................................................ 709
Virtual ................................................................. 709
WWN ....................................................................... 84
Fibre Channel Host Bus Adapter ...................... 84
Fibre Channel over Ethernet 209, 337, 689, 709
File Transfer Protocol ........................................ 207
Filesystem Consistency .................................... 830
Flatrate für virtuelle Maschinen ................... 926
G
Gast-Cluster ............................... 458, 469, 578, 596
GbE � Gigabit Ethernet
Generic Routing Encapsulation ........................ 80
Geräte-Manager, inaktive Geräte .................. 910
Geschäftsprozess ................................................. 832
Gigabit-Ethernet .................................................. 381
Globally Unique Identifier ........................ 73, 539
gMSA � Group Managed Service Account
Group Managed Service Account ................. 686
Gruppenrichtlinie ............................................... 534
Guarded Fabric ..................................................... 199
Guest Cluster ......................................................... 578
GUID � Globally Unique Identifier
H
Hard Disk Drive .................................................... 251
Hardware Compatibility List ................. 247, 675
Hardware, emulierte ............................................. 82
Hardwaretopologie ............................................. 448
Hardware-Virtualisierung ................................... 65
HBA � Host-Bus-Adapter
HCL � Hardware Compatibility List
HDD � Hard Disk Drive
Heartbeat ................................................................ 672
Heartbeat-Netzwerk ........................................... 338
HGS � Host Guardian Service
HNV � Hyper-V Network Virtualization
HNV-Gateway ....................................................... 318
Horizontales Skalieren ................... 688, 708, 720
Host Guardian Service ....................................... 192
Host Resource Protection ....................... 135, 449
Host-Bus-Adapter ............................. 159, 211, 693
Host-Cluster ........................................................... 753
Hot-Add Memory ....................................... 144, 597
HRL � Hyper-V Replica Log
HRM � Hyper-V Recovery Manager
Hybrid-Cloud ........................................................ 399
Hyperconverged ............................... 283, 291, 296
Hyper-Replica ....................................................... 582
Hyper-Threading .............. 83, 112, 121, 437, 598
Hyper-V
Checkpoint ............................ 430, 458, 470, 541
Child-Partition .................................................... 75
Client ........................................................... 128, 200
Community ....................................................... 929
Dynamic Memory ........................ 136, 141, 143
dynamischer Speicher ...................................... 83
emuliertes Gerät ................................................. 74
Extensible Switch ............................................... 80
Generation 2 .................... 76, 83, 136, 157, 192
Heartbeat .............................................................. 68
Host Resource Protection ............................ 135
Integrationsdienste ................. 58, 68, 843, 909
Legacy Network Adapter ................................ 68
Lizenzierung ..................................................... 123
4327.book Seite 937 Montag, 8. Mai 2017 4:03 16
Index
938
Hyper-V (Forts.)
Management-OS ............ 58, 67, 113, 324, 587
Monitor ............................................................... 878
Nested Virtualization .................................... 135
Parent-Partition .......................................... 58, 69
PowerShell ............................................................ 93
Prüfpunkt ............................... 430, 458, 470, 541
Recovery Manager ......................................... 798
Replica . 55, 458, 571, 582, 760, 776, 797, 919
Replikatbroker ................................................. 711
Root-Partition ..................................................... 58
Smart Paging .................................................... 431
Snapshot ................................ 430, 458, 470, 541
Switch ............................................... 165, 694, 754
Switch Extension ............................................. 372
Switch-Erweiterung ................................ 80, 174
synthetisches Gerät .......................................... 74
Version 1.0 ............................................................ 45
Version 3.0 ............................................................ 46
Virtual Machine Management Service ..... 72
Virtual Machine Worker Process ................. 72
Virtualization Service Client ......................... 74
Virtualization Service Provider .................... 74
virtueller Switch .............................................. 347
Virtuelles Gerät ................................................... 73
VM der Generation 2 ... 76, 83, 136, 157, 192,
418, 475, 494, 562
VMBus ................................................... 67, 74, 330
VMConnect .............................................. 417, 522
VSS Writer .......................................................... 842
Werkzeuge ......................................................... 927
Hyper-V Network Virtualization 318, 321, 704
Hyper-V Recovery Manager ............................ 798
Hyper-V Replica ..... 55, 458, 571, 682, 760, 776,
797, 919
Hyper-V Replica Log ........................................... 777
Hyper-V � Management-OS
Hyper-V Server 2016 .......................................... 123
Hypervisor ...................................................... 57, 413
Bare Metal ............................................................ 59
hosted ..................................................................... 60
Logical Processor ............................................ 877
Microkernel .......................................................... 63
monolithischer ................................................... 62
nativer .................................................................... 59
Paravirtualisierung ........................................... 74
Partition ............................................................. 877
Root Virtual Processor .................................. 877
Typ 1 ........................................................................ 59
Typ 2 ........................................................................ 60
Virtual Machine Monitor ............................... 57
Hypervisor (Forts.)
Virtual Processor ............................................. 877
Xen ........................................................................... 47
Zeitscheibenprinzip ........................................ 413
Hyper-V-Port ......................................................... 360
Hyper-V-Switch ........................................... 694, 754
Hyper-V-Switch-Erweiterung ......................... 174
I
I/O Operations per Second .......... 213, 219, 251,
468, 592, 689, 702
I/O-Last .................................................................... 748
IDS � Intrusion-Detection-System
IEEE 802.1ax-2008 ............................................... 359
IEEE 802.1Qau ....................................................... 357
IEEE 802.1Qaz ........................................................ 357
IEEE 802.1Qbb ....................................................... 357
IEEE 802.1X .................................................... 355, 367
IEEE 802.3ad .................................................. 359, 360
Image ........................................................................ 821
Image-Level-Backup ........................................... 821
Import einer VM .................................................. 557
Improvisation, strukturierte .......................... 670
InfiniBand ............................................ 370, 385, 701
Integrationsdienste .......... 58, 68, 475, 486, 526,
843, 909
für Linux ............................................................. 570
Linux ....................................................................... 68
Zeitsynchronisierung .................................... 585
Intel Virtualization Technology ............. 65, 112
Intel VT .................................................................... 112
IntelliSense ................................................................ 95
Intel-VT ....................................................................... 65
Interleave ................................................................ 249
Internes Netzwerk ............................................... 333
Internet Protocol Address Management ... 318
Internet Wide Area RDMA Protocol ............. 368
Intrusion-Detection-System .................. 163, 168
Intrusion-Prevention-System ............... 163, 168
IOPS � I/O Operations per Second
IP Address Rewrite ................................................. 80
IP Rewrite ................................................................ 396
IPAM � Internet Protocol Address Manage-
ment
IPS � Intrusion-Prevention-System
IPSec Task Offloading ............................... 367, 481
IPSecTO � IPSec Task Offloading
IPv6 .................................................................. 471, 787
iSCSI .............................................. 209, 382, 688, 701
Initiator ..................................................... 211, 471
4327.book Seite 938 Montag, 8. Mai 2017 4:03 16
Index
939
iSCSI (Forts.)
Target ............................................... 211, 471, 746
Target als Cluster ............................................ 749
ISE � PowerShell Integrated Scripting
Environment
iWARP � Internet Wide Area RDMA Protocol
J
JBOD � Just a Bunch of Disks
JEA � PowerShell Just Enough Administration
Jumbo Frames .............................................. 490, 571
Just a Bunch of Disks .... 204, 261, 266, 282, 747
K
Kappen, Jan ............................................................... 29
KCD � Kerberos Constraint Delegation
Keine Mehrheit, nur Datenträger ................. 700
Kerberos ......................................................... 188, 763
Kerberos Constraint Delegation ......... 750, 751,
763, 764
Kernel-based Virtual Machine ............ 17, 47, 50
Key Storage Drive ................................................ 193
Knoten- und Dateifreigabemehrheit .......... 699
Knoten- und Datenträgermehrheit ............. 699
Knotenmehrheit .................................................. 699
Kompatibilität von CPUs ................................. 443
Komplexität, Netzwerk ..................................... 666
Konsistenz .............................................................. 826
Applikation ....................................................... 830
Dateisystem ...................................................... 830
Datenbank ......................................................... 820
systemübergreifend ....................................... 833
Transaktion ....................................................... 830
Konsistenztyp ....................................................... 829
Konzept
für Ausfallsicherheit ...................................... 668
KSD � Key Storage Drive
Kundenadresse ..................................................... 397
KVM � Kernel-based Virtual Machine
L
Large Send Offloading ....................................... 397
Lastenausgleich .................................................... 729
LBFO � Load Balancing and Failover
LCAP � Link Aggregation Control Protocol
Legacy Network Adapter ..................................... 68
Legacy-Netzwerkadapter .................................. 877
Leistungsindikator .............................................. 725
Link Aggregation Control Protocol ..... 359, 362
Linux ......................................................................... 610
Integrationsdienst ............................................. 68
Live-Migration ........ 55, 458, 490, 515, 681, 704,
708, 714, 726, 734, 759, 760, 771
komprimiert ...................................................... 775
Leistungsoptionen .......................................... 775
Shared Nothing ....................................... 767, 768
SMB ...................................................................... 775
Speichermigration ................................. 759, 768
TCP/IP .................................................................. 775
Live-Migration-Netzwerk .............. 339, 343, 383
Lizenzierung ................................................. 123, 923
benutzerbezogene .......................................... 606
Downgrade-Recht ........................................... 926
endgerätebezogene ........................................ 606
Live-Migration ................................................. 926
Lizenzmobilität ................................................ 926
Prozessorkerne ................................................. 924
virtuelle Maschinen ....................................... 925
Lizenzmobilität .................................................... 926
Load Balancing and Failover ........ 318, 364, 704
Logical Unit Number ............. 210, 217, 450, 465,
468, 701, 707, 709, 747, 750
Logische CPU ............................. 121, 438, 442, 877
LSO � Large Send Offloading
LUN � Logical Unit Number
Lync ........................................................................... 154
M
Mailserver wiederherstellen ........................... 817
Mainframe ................................................................. 47
Management Collection ................................... 503
Management-Netzwerk ................. 336, 341, 383
Management-OS .......... 58, 67, 69, 113, 324, 587
MAP � Microsoft Assessment and Planning
MBSA � Microsoft Baseline Security Analyzer
MDOP � Microsoft Desktop Optimization Pack
Mean Time Between Failures ......................... 665
MED-V � Microsoft Enterprise Desktop
Virtualization
Mehrheit
keine Mehrheit ................................................. 700
Knoten ................................................................. 699
Knoten und Dateifreigabe ........................... 699
Knoten und Datenträger ............................. 699
Memory Pressure ................................................ 144
Memory Weight ................................................... 147
Metering ......................................................... 505, 514
4327.book Seite 939 Montag, 8. Mai 2017 4:03 16
Index
940
Microsoft
Assessment and Plannung Toolkit .......... 703
Baseline Security Analyzer .......................... 167
Best Practices Analyzer ......................... 76, 166
Desktop Optimization Pack .......................... 53
Enterprise Desktop Virtualization .............. 53
Exchange ................................................... 153, 172
Hyper-V Server ................................................. 123
Lync ...................................................................... 154
Small Business Server .................................... 154
Software Assurance ....................................... 114
SQL Server .......................................................... 153
Virtual PC ............................................. 47, 52, 451
Virtual Server ............................................... 44, 53
Windows Server 2012 Hyper-V ...................... 48
Microsoft Assessment and Planning ... 254, 703
Microsoft Baseline Security Analyzer ......... 167
Microsoft Desktop Optimization Pack .......... 53
Microsoft Enterprise Desktop
Virtualization ...................................................... 53
Microsoft Exchange .................................. 153, 172
Microsoft Virtual PC .............................................. 47
Microsoft Virtual Server ...................................... 53
Microsoft-Update-Datei .................................... 567
Mindest-Bandbreite ........................................... 382
Möglicher Besitzer .............................................. 673
Most Valuable Professional ................................ 27
MPIO � Multi-Path I/O
MSU � Microsoft-Update-Datei
MTBF � Mean Time Between Failures
Multichannel ......................................................... 267
Multi-Path I/O ....... 212, 237, 266, 286, 343, 391
Multipfad-E/A ........ 212, 237, 266, 286, 343, 391
Multi-Site-Cluster ....................................... 674, 731
MVP � Most Valuable Professional
N
N_Port ID Virtualization ........................... 84, 232
Nano Server ........................................ 114, 615, 646
Nano Server Image Builder ............................. 118
NAS � Network Attached Storage
NAT � Network Address Translation
NDIS � Network Device Interface Specification
NDMP � Network Data Management Protocol
Nested Virtualization ........................................ 135
netlogon .................................................................. 826
Network
Converged .......................................................... 404
Virtualization ................................................... 704
Network Address Translation ......................... 132
Network Attached Storage .............. 50, 206, 750,
917, 918
Network Controller ............................................. 318
Network Data Management Protocol ........ 469,
818, 829
Network Device Interface Specification ..... 372
Network File System ................................... 49, 207
Network Time Protocol ..................................... 570
Network Virtualization Generic Routing
Encapsulation ......................................... 366, 395
Netzwerk
802.1ax-2008 .................................................... 359
802.1Qau ............................................................. 357
802.1Qaz ............................................................. 357
802.1Qbb ............................................................. 357
802.1X .................................................................. 355
802.3ad ............................................................... 359
Addresshash ...................................................... 360
ältere Netzwerkkarte ..................................... 475
Anbieteradresse ...................................... 395, 397
Bandbreitenverwaltung ............................... 479
Cluster-Netzwerk ............................................. 338
Congestion Notification ............................... 357
Converged .............................. 209, 321, 357, 382
CSV-Netzwerk .......................................... 339, 383
Data Center Bridge ......................................... 297
Data Center Bridging .................................... 365
Data Center Bridging Capabilities
Exchange Protocol .................................... 357
Datacenter Firewall ....................................... 405
DCB ....................................................................... 365
DCB Capabilities Exchange Protocol ...... 357
DCBX .................................................................... 357
DHCP Guard ..................................................... 484
DHCP-Wächter ................................................. 484
dynamisches Team ........................................ 359
emulierte Netzwerkkarte ............................. 475
Enhanced Transmission Selection ........... 357
erweiterbarer Netzwerk-Switch ................. 372
ETS ........................................................................ 357
externes .............................................................. 333
Gast-Teaming ................................................... 486
Heartbeat-Netzwerk ...................................... 338
HNV ...................................................................... 321
Host-Ebene ........................................................ 320
Host-Teaming .................................................. 486
Hyper-V Network Virtualization .............. 321
Hyper-V Switch Extension ........................... 372
Hypervisor-Ebene ........................................... 322
Hyper-V-Port .................................................... 360
4327.book Seite 940 Montag, 8. Mai 2017 4:03 16
Index
941
Netzwerk (Forts.)
IEEE 802.1ax-2008 .......................................... 359
IEEE 802.1Qau ................................................... 357
IEEE 802.1Qaz ................................................... 357
IEEE 802.1Qbb ................................................... 357
IEEE 802.1X ............................................... 355, 367
IEEE 802.3ad ...................................................... 359
InfiniBand ................................................. 370, 385
internes ............................................................... 333
Internet Wide Area RDMA Protocol ........ 368
IP Rewrite ........................................................... 396
IPSec Task Offloading .......................... 367, 481
iWARP .................................................................. 368
Jumbo Frames ......................................... 490, 571
Komplexität ...................................................... 666
Kundenadresse ................................................ 397
Large Send Offloading .................................. 397
LBFO ............................................................ 364, 704
LCAP ............................................................ 359, 362
Link Aggregation Control Protocol 359, 362
Live-Migration-Netzwerk ......... 339, 343, 383
Load Balancing and Failover ............ 318, 364
Management-Netzwerk ............ 336, 341, 383
Metrik einer Route .......................................... 346
MPIO .................................................................... 391
NDIS ..................................................................... 372
Network Controller ........................................ 318
Network Virtualization Generic
Routing Encapsulation ............................ 366
Netzwerkcontroller ........................................ 406
Netzwerkvirtualisierung .............................. 391
Netzwork Device Interface
Specification ................................................ 372
NVGRE ........................................................ 366, 395
PFC ........................................................................ 369
Physical Function ........................................... 353
Port ACL ..................................................... 173, 507
Port Mirror ........................................................ 484
Port Mirroring .................................................. 378
Port-Spiegelung ............................................... 378
Priority Flow Control ............................ 297, 369
Priority-based Flow Control ....................... 357
privates ............................................................... 333
Provider Address .................................... 395, 397
PVLAN .................................................................... 80
QoS ....................................................................... 318
Quality of Service ......................... 298, 318, 366
RDMA over Converged Ethernet ............... 369
Receive Segment Coalescing ...................... 367
Receive Side Scaling .................... 355, 367, 490
RoCE ............................................................ 322, 369
Netzwerk (Forts.)
Router Guard .................................................... 484
Routerwächter ................................................. 484
RSC ........................................................................ 367
RSS ............................................................... 355, 367
SDN ....................................................................... 405
SET ........................................................................ 365
Single Root I/O Virtualization ......... 353, 367,
372, 374
Software Defined ............................................ 924
Software Defined Networking .......... 318, 405
Software Load Balancer ...................... 319, 408
Speicher-Netzwerk ................................. 337, 342
SR-IOV .............................................. 353, 367, 374
statisches Teaming ........................................ 359
Storage-Netzwerk ........................................... 337
Switch Dependent Team .............................. 359
Switch Embedded Teaming ..... 318, 365, 694
Switch Extension ............................................. 372
Switch Independent Team ........................... 358
switch-abhängiges Team ............................. 359
switch-unabhängiges Team ....................... 358
synthetische Netzwerkkarte ....................... 475
Tagging ............................................................... 490
TCP Chimney ........................................... 355, 367
TCP Offloading ................................................. 355
Teaming ..................................................... 485, 694
Virtual Function ..................................... 353, 481
Virtual Machine Queue ... 349, 361, 362, 367,
377, 397
Virtual Receive Side Scaling ........................ 367
Virtual Subnet ID ............................................ 395
Virtual Switch ................................................... 322
Virtualisierung .......................................... 80, 391
virtuelle Netzwerkkarte ................................ 348
virtueller Switch .............................................. 347
VLAN ........... 333, 337, 383, 388, 391, 490, 571
VM-Ebene ........................................................... 324
VM-Netzwerk .................................................... 335
VMQ ...................... 349, 361, 362, 367, 377, 397
vRSS ...................................................................... 367
vSwitch ....................................................... 322, 754
VXLAN ................................................................. 397
WFP ....................................................................... 372
Windows Filtering Platform ....................... 372
Windows Network Virtualization ............ 394
WNV ..................................................................... 394
Netzwerk � 802.1X
Netzwerk � Network Virtualization Generic
Routing Encapsulation
Netzwerkanmeldedienst .................................. 825
4327.book Seite 941 Montag, 8. Mai 2017 4:03 16
Index
942
Netzwerkcontroller ................................... 318, 406
Netzwerknamenressource ............................... 673
Netzwerk-QoS ....................................................... 366
Netzwerkvirtualisierung .................................. 391
NFS � Network File System
Node Drain ............................................................. 732
Node Vote Weight ............................................... 731
Non-Uniform Memory Access .............. 148, 447
Non-Volatile Memory Express ............ 157, 239,
286, 292
Notfall-Rechenzentrum .................................... 917
NPIV � N_Port ID Virtualization
NTP � Network Time Protocol
NUMA � Non-Uniform Memory Access
NUMA Spanning .................................................. 149
Nutanix ............................................................... 47, 51
Nutanix Acropolis .................................................. 51
NVGRE � Generic Routing Encapsulation
NVGRE � Network Virtualization Generic
Routing Encapsulation
NVM Express ......................................................... 204
NVMe � Non-Volatile Memory Express
NVMe � NVM Express
O
Online VHDX Resize ........................................... 797
Open Source .......................................................... 610
OpenStack .......................................................... 47, 51
Operations Manager � System Center
Operations Manager
Orchestrator � System Center Orchestrator
P
P2V � Physical-to-virtual
Pagefile .................................................................... 217
Paging ...................................................................... 138
Paravirtualisierung ......................................... 64, 74
Parent-Partition ............................................... 58, 69
Partition ..................................................................... 47
Partitionsstil GPT ................................... 229, 231
Pass-through Disk ...................................... 220, 464
Pass-through Storage ......................................... 761
PCI Express ............................................................. 481
Performance and Resource Optimization 683
Perimeter-Netzwerk ........................................... 189
PFC � Priority Flow Control
PFC � Priority-based Flow Control
Physical Operating System Environment .... 59
Physical-to-virtual ........................ 37, 54, 898, 903
DHCP ................................................................... 910
für Domänencontroller ................................ 905
Online .................................................................. 907
Physische Festplatte in einer VM .................. 464
Port ACL .......................................................... 173, 507
Port Mirror ............................................................. 484
Port Mirroring ...................................................... 378
Port-Spiegelung ........................................... 378, 484
POSE � Physical Operating System
Environment
PowerShell ........................... 93, 216, 679, 723, 844
Desired State Configuration ....................... 105
Direct ................................................................... 101
Get-Help ...................................................... 96, 736
Just Enough Administration ...................... 175
Local Configuration Manager ................... 106
Remoting ............................................................... 99
PowerShell Desired State Configuration ... 105
PowerShell Direct ................................................ 101
PowerShell Integrated Scripting
Environment ....................................................... 94
PowerShell Just Enough Administration ... 175
Präsentationsvirtualisierung ......................... 604
Preboot Execution Environment .................. 475
Priorität von VM .................................................. 439
Priority Flow Control ................................ 297, 369
Priority-based Flow Control ............................ 357
Private Cloud ......................................................... 398
Private Virtual LAN ................................................ 80
Privates Netzwerk ............................................... 333
Production Checkpoint ..................................... 430
Produktionsprüfpunkt ...................................... 430
Protected Mode ....................................................... 66
Protokoll
blockorientiertes ............................................. 208
dateiorientiertes .............................................. 207
Prozessisolierung ................................................ 609
Prozessor in einer VM ....................................... 437
Prozessorkompatibilität .......................... 443, 761
Prozessorversion ........................................ 443, 445
PRTG Network Monitor .................................... 878
Prüfpunkt ............................................................... 162
PSDSC � PowerShell Desired State
Configuration
PXE � Preboot Execution Environment
Q
QoS � Quality of Service
Quality of Service ................................................ 771
4327.book Seite 942 Montag, 8. Mai 2017 4:03 16
Index
943
Quick-Migration .................................................. 734
Quorum-Datenträger ........................................ 272
R
RAID
Konfiguration .................................................. 205
Level 1 .................................................................. 701
RAID � Redundant Array of
Independent Disks
Raw Device Mapping .......................................... 220
RBAC � Role-based Access Control
RCT � Resilient Change Tracking
RDMA over Converged Ethernet ......... 297, 322,
369
RDMA � Remote Direct Memory Access
RDS � Remote Desktop Services
Read-Only Domain Controller .............. 685, 835
Receive Segment Coalescing .......................... 367
Receive Side Scaling .................................. 355, 367
Recovery Consistency Objective .......... 831, 833
Recovery Objective ............................................. 831
Recovery Point Objective ........................ 831, 832
Recovery Time Actual ............................... 831, 832
Recovery Time Objective ................................. 831
Redirected I/O ....................................................... 748
Redundant Array of Independent Disks .... 204
Redundanz ............................................................. 660
problematische ................................................ 665
standortübergreifende ................................. 916
ReFS � Resilient File System
Regelwerk zur Konfiguration ............................ 77
Remote Desktop Services ................................. 153
Remote Desktop Services Client Access
License ................................................................ 606
Remote Direct Memory Access ........... 269, 297,
318, 355, 366, 368, 685
Remote Server Administration Tools 134, 200
Remote-Aktualisierung .................................... 728
RemoteApp ............................................................ 604
Remotedesktopdienste ..................................... 604
Remotedesktop-Gateway ................................. 605
Remotedesktop-Lizenzierung ........................ 605
Remotedesktop-Protokoll ............................... 170
RemoteFX ............................................ 424, 494, 761
Remoteserver-Verwaltungs-
werkzeuge ................................................. 134, 200
repadmin ................................................................ 826
Replica � Hyper-V Replica
Resilient Change Tracking ............................... 842
Resilient File System .... 224, 278, 291, 676, 685
Block Cloning ................................................... 226
Extent .................................................................. 227
Integrity Streams ............................................ 226
Parität ................................................................. 226
Spiegel ................................................................. 226
Ressource, Maximalwerte in einer VM ....... 415
Ressourcenabhängigkeit .................................. 672
Ressourcengruppe .............................................. 672
Ressourcen-Pool .................................................. 505
Restore � Datenwiederherstellung
RoCE � RDMA over Converged Ethernet
RODC � Read-Only Domain Controller
Rogue DHCP Server ............................................ 484
Rogue Router ......................................................... 484
Role-based Access Control ............................... 177
Rollback ................................................................... 833
Rolleninhaber ....................................................... 722
Rolling Cluster Update ...................................... 808
Root-Partition ................................................ 58, 877
Router Guard ......................................................... 484
Routerwächter ...................................................... 484
RSAT � Remote Server Administration Tools
RSC � Receive Segment Coalescing
RSS � Receive Side Scaling
S
S2D � Storage Spaces Direct
SA � Software Assurance
SAN � Storage Area Network
SAS � Serial Attached SCSI
SBC � Server-Based Computing
Scale-Out File Server .... 259, 266, 269, 275, 405,
459, 676, 698, 701, 743, 752, 921
I/O Scheduler .................................................... 278
Policy Manager ................................................ 278
Schaden für das Unternehmen ...................... 663
Schattenkopie ........................... 797, 820, 841, 842
SCOM � System Center Operations Manager
SCSI ............................................................................ 674
SCSI Enclosure Services ..................................... 247
SCVMM � System Center Virtual Machine
Manager
SDN � Software Defined Networking
SDS � Software Defined Storage
Second Level Address Translation ....... 128, 810
Second Level Paging .................................. 139, 147
Secure Boot ................................ 193, 494, 498, 573
Security Identifier ................... 161, 539, 793, 827
Selbstaktualisierung ........................................... 728
4327.book Seite 943 Montag, 8. Mai 2017 4:03 16
Index
944
Serial ATA ............................................................... 701
Serial ATA (SATA) ................................................. 112
Serial Attached SCSI ................................... 689, 701
Serial Attached SCSI (SAS) ................................ 112
Server Message Block ............. 207, 267, 270, 685
3.0 ......................................................................... 119
Multichannel ........................................... 267, 270
SMB 3.0 ............................................................... 714
Server Virtualization Validation
Program ........................................... 577, 591, 596
Server-Applikation
Lizenz ................................................................... 926
Server-Based Computing ................................. 604
Server-Manager .................................................... 704
Server-Virtualisierung, Vor- und
Nachteile ............................................................... 33
Service Provider License Agreement ........... 919
SES � SCSI Enclosure Services
SET � Switch Embedded Teaming
Shared Nothing Live Migration ........... 556, 575,
712, 767, 768
Shared VHDX ..................................... 458, 710, 809
Shared-SAS ............................................................. 747
Shielded Virtual Machines .............................. 192
Shielded VM .................... 418, 498, 690, 922, 924
Sicherungsagent .................................................. 820
SID � Security Identifier
SIM � Windows System Image Manager
Simplivity .................................................................. 47
Single Point of Failure ....................................... 698
Single Root I/O Virtualization ....... 66, 353, 367,
372, 374, 377, 481
Physical Function ........................................... 353
Virtual Function .............................................. 353
Sitzungsbasierte Desktopbereitstellung .... 604
Sitzungsbasierter Desktop ............................... 604
Sitzungs-Host ........................................................ 605
Skalieren
horizontales ................................... 688, 708, 720
SLAAC � Stateless Address Autoconfiguration
SLAT � Second Level Address Translation
SLB � Software Load Balancer
Small Business Server ........................................ 154
Smart Paging ...................................... 147, 431, 560
SMB
Direct ................................................................... 685
Multichannel .................................................... 685
SMB Direct .............................................................. 685
SMB Multichannel .............................................. 685
SMB � Server Message Block
Snapshot .............................................. 162, 759, 885
SOFS � Scale-Out File Server
Soft Partitioning .................................................. 600
Software Assurance ................................... 114, 927
Software Defined Networking ..... 318, 405, 924
Software Defined Storage ................................. 701
Software Load Balancer ............................ 319, 408
Software Storage Bus ......................................... 290
Solid State Disk ............... 214, 238, 251, 286, 292
Solid State Disk (SSD) ......................................... 112
Speicher
Auslagerung ..................................................... 138
Hot Add Memory ............................................ 144
Memory Pressure ............................................ 144
Non-Uniform Memory Access ................... 148
Paging ................................................................. 138
Pool ...................................................................... 142
Seite ...................................................................... 139
Speicher-Cluster ................................................... 746
Speicher-Netzwerk ..................................... 337, 342
Speicher-Pool .................. 142, 685, 701, 746, 748
Speicherseite ......................................................... 139
SPLA � Service Provider License Agreement
Split Brain ............................................ 403, 697, 740
SQL Server .............................................................. 153
SR-IOV � Single Root I/O Virtualization
SSD � Solid State Disk
Standby-Cluster ................................................... 674
Startreihenfolge in einer VM .......................... 424
Stateless Address Autoconfiguration .......... 471
Statisches Teaming ............................................. 359
Stolperfalle ................................................................ 34
Storage ..................................................................... 746
All-Flash .............................................................. 292
Cache ................................................................... 293
Cluster Shared Volume ................................. 401
Cold Data ........................................................... 252
Column Count ......................................... 248, 257
CSV ........................................................................ 401
CSV-Netzwerk .......................................... 339, 383
Daisy Chaining ................................................ 236
Distributed File System ................................. 305
Enclosure Awareness ..................................... 246
Hot Data ............................................................. 252
Hot Spare ........................................................... 243
Hybrid ................................................................. 292
Interleave ........................................................... 249
Live-Migration ........................................ 458, 556
Multi-Path I/O .................................................. 343
Multipfad-E/A .................................................. 343
Parität .............................................. 241, 252, 287
Pass-through .................................................... 761
4327.book Seite 944 Montag, 8. Mai 2017 4:03 16
Index
945
Storage (Forts.)
Pass-through Disk ................................. 220, 464
Performance ..................................................... 213
Pinning ................................................................ 253
QoS ........................................... 278, 467, 703, 772
Quality of Service ................................... 703, 772
Raw Device Mapping .................................... 220
Redirected Mode ............................................. 261
ReFS ...................................................................... 676
Replica ................................................................. 673
Replikation ........................................................ 305
Scale-Out File Server ................... 405, 676, 698
Shared Nothing Live-Migration ....... 556, 575
Shared VHDX ........................................... 458, 809
Software Defined Storage ........................... 701
Software Storage Bus .................................... 290
Spaces ...................................... 222, 235, 258, 685
Spaces Direct .... 252, 282, 290, 296, 371, 405,
673, 701, 920, 924
Speicher-Netzwerk ................................. 337, 342
Spiegel .............................................. 241, 252, 287
Storage Area Network .................................. 337
Storage Spaces Direct .......................... 371, 405
Storage-Netzwerk ........................................... 337
Stretch-Cluster ................................................. 309
Stripes .................................................................. 249
Thin Provisioning ........................ 217, 453, 469
Tiering ........................................................ 251, 277
Trim ...................................................................... 491
VHDX Resize ..................................................... 491
vSAN ............................................................ 231, 473
Write Back Cache ............................................ 253
Storage Area Network ........... 159, 208, 337, 424,
450, 468, 689, 694, 697, 701, 750
Storage Live Migration ............................. 458, 556
Storage Migration .................................................. 55
Storage QoS ................................ 278, 467, 703, 772
Storage Replica ............................................ 305, 673
Storage Spaces ................ 222, 235, 258, 685, 746
Storage Spaces Direct ............ 252, 282, 290, 296,
371, 405, 673, 701, 920, 924
Storage Tiering ............................................ 251, 277
Cold Data ........................................................... 252
Hot Data ............................................................ 252
Storage-Controller .............................................. 688
Storage-Netzwerk ................................................ 337
Storage-Replikation ............................................ 305
asynchron .......................................................... 306
Latenz .................................................................. 308
Log ........................................................................ 306
Stretch-Cluster ................................................. 314
Storage-Replikation (Forts.)
synchron ............................................................. 306
Stretch-Cluster ...................................................... 309
Stripes ...................................................................... 249
SVVP � Server Virtualization Validation
Program
Switch Dependent Team .................................. 359
Switch Embedded Teaming .......... 318, 365, 694
Switch Independent Team ............................... 358
Switch, Layer 2 ......................................................... 80
Switch-abhängiges Team .................................. 359
Switch-Erweiterung � Hyper-V-Switch-
Erweiterung
Switch-unabhängiges Team ............................ 358
Synthetisches Gerät .............................................. 74
Sysinternals ........................................................... 537
Sysprep ........................................ 160, 200, 539, 569
System Center
App Controller ..................................................... 46
Endpoint Protection ...................................... 695
Operations Manager .............................. 55, 695
Orchestrator ................................................. 46, 55
Service Manager und System Center
Orchestrator .................................................... 46
Virtual Machine Manager ... 54, 55, 126, 163,
193, 275, 337, 341, 367, 538, 683, 722, 729,
757, 800
System Center Endpoint Protection ............ 695
System Center Operations Manager .... 55, 695
System Center Orchestrator .............................. 55
System Center Virtual Machine Manager ... 54,
55, 126, 163, 193, 275, 337, 341, 367, 538, 683,
722, 729, 757, 800
Systemstate ........................................................... 837
Systemvorbereitungsprogramm .................. 539
T
TCP Chimney ................................................ 355, 367
TCP Offloading ...................................................... 355
Terminal Services ................................................ 153
Terminal-Dienst .......................................... 153, 605
Thin Provisioning ............................. 217, 453, 469
Tiering � Storage Tiering
Tombstone Recovery ......................................... 839
Tool
dism /Apply-Unattend .................................. 569
dism /Get-PackageInfo ................................. 567
dism /Mount-Image ............................. 566, 569
dism /Unmount-Image ....................... 566, 569
Sysprep ................................................................ 540
4327.book Seite 945 Montag, 8. Mai 2017 4:03 16
Index
946
TPM � Trusted Platform Module
TPM-based Attestation ............................ 193, 195
Transactional Consistency .............................. 830
Transaktionskonsistenz ................................... 830
Trim .......................................................................... 491
Trusted Platform Module .... 175, 193, 426, 922
Typ 1-Hypervisor .................................................... 59
Typ 2-Hypervisor .................................................... 60
U
Überprovisionierung ............................................ 83
UEFI � Unified Extensible Firmware Interface
Unified Extensible Firmware Interface ...... 494
Unterbrechungsfreie Stromversorgung .... 694
Update Sequence Number ............................... 824
Rollback .............................................................. 824
USB ............................................................................ 416
USN Rollback ................................................ 580, 582
USN � Update Sequence Number
USN-Rollback ......................................................... 905
USV � Unterbrechungsfreie Stromversorgung
V
V2V � Virtual-to-virtual
vCenter � VMware vCenter
VCO � Virtual Computer Objects
vCPU � Virtual CPU
vCPU � Virtuelle CPU
VDI � Virtual Desktop Infrastructure
Veeam ONE für Hyper-V ................................... 878
Verbindungs-Broker .......................................... 605
Verfügbarkeit ........................................................ 659
99,999 Prozent ................................................. 661
Definition ........................................................... 660
Klasse ................................................................... 663
Konzept ............................................................... 669
Prozentwerte .................................................... 661
zugesagte ........................................................... 664
Verfügbarkeitsklasse .......................................... 663
vFC � Virtual Fibre Channel
VHD Set ................................................................... 458
VHD-Satz ................................................................. 458
VHDX REsize .......................................................... 491
Virenscanner ......................................... 80, 167, 171
Virtual Computer Objects ................................ 685
Virtual CPU ................................................... 550, 570
Virtual Desktop Infrastructure ... 152, 456, 604
Virtual Device � Virtuelles Gerät
Virtual Fibre Channel ......................................... 709
Virtual Function ................................................... 353
Virtual Hard Disk ................................................. 450
Virtual IDE Controller ........................................ 877
Virtual Iron ............................................................... 47
Virtual LAN ...... 80, 164, 165, 333, 337, 383, 388,
391, 479, 490, 571, 753
Virtual Machine Compute Resiliency ......... 678
Virtual Machine Health Summary ............... 877
Virtual Machine Management Service 72, 871
Virtual Machine Manager � System Center
Virtual Machine Manager
Virtual Machine Monitor .................................... 57
Virtual Machine Queue ........ 349, 361, 362, 367,
377, 397, 480
Virtual Machine Worker Process ...................... 72
Virtual NUMA .............................................. 149, 448
Virtual Operating System Environment ....... 59
Virtual PC � Connectix Virtual PC
Virtual PC � Microsoft Virtual PC
Virtual Receive Side Scaling ............................ 367
Virtual SAN ............................................................. 473
Virtual Server ........................................................... 44
Virtual Server � Microsoft Virtual Server
Virtual Storage Device ....................................... 877
Virtual Subnet ID ................................................. 395
VirtualBox ................................................................. 47
Virtualisierung
Netzwerk ............................................................... 80
Präsentation ..................................................... 604
Virtualisierungs-Host ........................................ 605
Virtualization Service Client .................... 74, 570
Virtualization Service Provider ........................ 74
Virtual-Netzwerkadapter .................................. 877
Virtual-to-virtual .......................................... 54, 897
Virtuelle CPU ...................... 83, 121, 438, 442, 877
Virtuelle Desktop-Infrastruktur ........... 152, 456
Virtuelle Festplatte
erweitern ............................................................ 456
komprimieren .................................................. 456
konvertieren ...................................................... 456
verkleinern ......................................................... 456
Virtuelle Hardware ............................................. 423
Virtuelle Maschine ....................................... 75, 413
Anzeigename ........................................... 420, 429
Arbeitsspeicher ............................. 421, 432, 434
BIOS ............................................................. 424, 494
Checkpoint ..................................... 458, 470, 541
COM-Port ........................................................... 428
Diskettenlaufwerk .......................................... 429
4327.book Seite 946 Montag, 8. Mai 2017 4:03 16
Index
947
Virtuelle Maschine (Forts.)
Dynamic Memory .................................. 434, 597
erweiterte Sitzung .......................................... 527
Export .................................................................. 554
Festplatte ........................................................... 449
Fibre Channel .......................................... 424, 473
Firmware ................................................... 424, 494
Generation 1 ............................................. 418, 426
Generation 2 ...... 418, 422, 428, 475, 494, 562
Grafikkarte ........................................................ 424
Gruppe ................................................................ 502
IDE-Controller .................................................. 426
im Cluster erzeugen ....................................... 756
Import ................................................................. 557
Installationsmedium .................................... 422
Integrationsdienste .............................. 430, 526
Konsolenverbindung ..................................... 522
Management Collection .............................. 503
Metering ............................................................. 514
Netzwerkkarte ............................... 421, 424, 475
NIC-Teaming .................................................... 485
physische Festplatte ...................................... 464
Port ACL .............................................................. 507
Production Checkpoint ....................... 430, 545
Produktionsprüfpunkt ......................... 430, 545
Prozessor ............................................................ 437
Prüfpunkt ........................................ 458, 470, 541
Remote Desktop aktivieren ........................ 534
RemoteFX .................................................. 424, 494
Ressourcen ........................................................ 415
SCSI-Controller ................................................. 427
Secure Boot ....................................................... 573
Smart Paging ........................................... 431, 560
Snapshot ......................................... 458, 470, 541
Speicherpfad ..................................................... 420
Startaktion ........................................................ 431
Stoppaktion ...................................................... 432
UEFI ...................................................................... 494
USB ....................................................................... 416
USB-Festplatte ................................................. 467
virtuelle Netzwerkkarte ................................ 348
VM Collection ................................................... 503
VMConnect ....................................................... 548
VMConnect ....................................................... 522
VM-Netzwerk .................................................... 335
VM-Versionen .................................................. 517
Virtuelle Netzwerkkarte ................................... 348
Virtueller Switch .................................................. 347
Virtuelles Gerät ....................................................... 73
Virtuelles SAN ....................................................... 231
VLAN � Virtual LAN
VM Collection ....................................................... 503
VM Measurement ............................................... 193
VM � Virtuelle Maschine
VM Vid Partition .................................................. 877
VMBus ........................................................ 67, 74, 330
VMConnect ......................................... 417, 522, 548
erweiterte Sitzung .......................................... 527
VMDK � VMware VMDK
VM-Generation ID ............................................... 583
VM-Gruppen .......................................................... 502
VMM � System Center Virtual Machine
Manager
VM-Monitoring .................................................... 881
VMMS � Virtual Machine Management Service
VM-Netzwerk ........................................................ 335
vMotion � VMware vMotion
VMQ � Virtual Machine Queue
VM-Replikation ................................. 760, 776, 919
Authentifizierung ........................ 778, 781, 787
Erstkopie ............................................................. 785
Failover-TCP/IP ................................................ 787
geplantes Failover .......................................... 793
Kompression ............................................ 782, 787
Log ........................................................................ 777
Replikat ...................................................... 776, 790
Replikat-Server ..................... 777, 780, 784, 796
Synchronisation .............................................. 789
Testfailover ........................................................ 791
Testreplikat ....................................................... 791
Wiederherstellungspunkt ........ 778, 783, 789,
791, 796
VM-Replikation � Hyper-V Replica
VM-Versionen ....................................................... 517
VMWare
VXLAN ................................................................. 409
VMware
ESX Server ............................................................. 47
ESXi .......................................................................... 47
GSX Server ............................................................ 47
Server ...................................................................... 47
Tools ..................................................................... 902
vCenter ................................................................... 49
VMDK ..................................................................... 49
vMotion ................................................................. 49
vSphere ................................................. 17, 48, 897
VXLAN ................................................. 81, 319, 366
4327.book Seite 947 Montag, 8. Mai 2017 4:03 16
Index
948
VMware DRS � Distributed Resource
Scheduling
VMware ESXi ............................................................ 47
VMware Tools ....................................................... 902
VMware vCenter ..................................................... 49
VMware VMDK ........................................................ 49
VMware vMotion ................................................... 49
VMware vSphere .................................... 17, 48, 897
VMware VXLAN ....................................................... 81
VMWP � Virtual Machine Worker Process
Vollredundanz ...................................................... 666
Volume Shadow Copy Service .... 289, 489, 594,
685, 820, 841
VOSE � Virtual Operating System
Environment
vRSS � Virtual Receive Side Scaling
vSAN � Virtual SAN
vSAN � Virtuelles SAN
VSC � Virtualization Service Client
VSP � Virtualization Service Provider
VSS � Volume Shadow Copy Service
vSwitch � Hyper-V-Switch
VXLAN .......................................... 319, 366, 397, 409
VXLAN � VMware VXLAN
W
Warteschlange für virtuelle Computer
� Virtual Machine Queue
WDS � Windows Deployment Service
WebAccess .............................................................. 605
Werkzeuge .............................................................. 927
WFP � Windows Filtering Platform
Wiederanlaufzeit ................................................. 919
Wiederherstellung
Qualität .............................................................. 817
Szenario .............................................................. 833
Wiederherstellungszeit ..................................... 831
WIM � Windows Imaging Format
Windows Deployment Service ....................... 475
Windows Filtering Platform ............................ 372
Windows Imaging Format ............................... 562
Windows Management Instrumentation 341,
510, 727
Windows Network Virtualization ................. 394
Windows Remote Management ........... 727, 764
Windows Server Core ................................ 113, 615
Windows Server Failover-Cluster .................. 672
Windows Server Update Services 341, 567, 726
Windows Server-Sicherung ............................. 842
Archivattribut .................................................. 846
Einmalsicherung ............................................. 845
NTBACKUP ........................................................ 842
Sicherungszeitplan ......................................... 845
Wiederherstellung .......................................... 850
Windows System Image Manager ................ 569
Windows-Firewall ................................................ 172
WinRM � Windows Remote Management
WMI � Windows Management
Instrumentation
WNV � Windows Network Virtualization
World Wide Name ...................................... 212, 474
World Wide Node Name ................................... 212
World Wide Port Name ..................................... 212
Worldwide Name .................................................... 84
Write Back Cache ................................................. 253
WSFC � Windows Server Failover-Cluster
WSUS � Windows Server Update Services
www.gruppenrichtlinien.de ............................ 586
X
XenApp � Citrix XenApp
XenMotion � Citrix XenMotion
XenServer .................................................................. 17
XenServer � Citrix XenServer
Z
Zähler für VM-Ressourcen ............................... 515
Zeitscheibenprinzip .................................... 57, 413
Zeugendatenträger .......................... 697, 700, 707
4327.book Seite 948 Montag, 8. Mai 2017 4:03 16
Wir hoffen sehr, dass Ihnen diese Leseprobe gefallen hat. Gerne dürfen Sie diese Lese- probe empfehlen und weitergeben, allerdings nur vollständig mit allen Seiten. Die vor-liegende Leseprobe ist in all ihren Teilen urheberrechtlich geschützt. Alle Nutzungs- und Verwertungsrechte liegen beim Autor und beim Verlag.
Teilen Sie Ihre Leseerfahrung mit uns!
Nicholas Dille beschäftigt sich seit 10 Jahren mit Zentralisierung, Server-Based Computing und Thin Clients und arbeitet seit über 8 Jahren als ITArchitekt für die sepago GmbH. In Großprojekten konnte er viele weltweit vertretene Konzerne in der Weiterentwicklung der IT-Strategie beraten und technische Konzepte für die Umsetzung verfassen. Seit 2010 ist er MVP. Marc Grote ist seit 24 Jahren im professionellen IT-Bereich als selbstständiger Consultant und Trainer mit den Schwerpunkten Forefront TMG und UAG, Windows Server mit Schwer-punkt Sicherheit, PKI und Hochverfügbarkeit sowie System Center und Exchange Server tätig. Des Weiteren ist er Fachautor für Windows- und Forefront-Themen und Sprecher auf Konferenzen und Community-Veranstaltungen. Seit 2003 ist er MVP.
Nils Kaczenski ist seit Mitte der 1990er-Jahre als Consultant für Windows-Netzwerke tätig und berät Firmen und Administratoren in technischen und strategischen Fragen. Er wird von Microsoft seit 2003 regelmäßig als Most Valuable Professional (MVP) in der Sparte Directory Services ausgezeichnet.
Jan Kappen arbeitet bei der Rachfahl IT-Solutions und ist dort als Fachexperte für Hyper-V, Windows Server sowie Microsoft Exchange zuständig. Jan betreibt mit Carsten Rachfahl den Blog Hyper-V-Server.de, einen der größten Blogs im deutschsprachigen Raum, der sich exklusiv mit der Virtualisierungslösung aus dem Hause Microsoft beschäftigt.
Nicholas Dille, Marc Grote, Nils Kaczenski, Jan Kappen
Microsoft Hyper-V – Das Handbuch für Administratoren
948 Seiten, gebunden, 3. Auflage, Mai 2017 69,90 Euro, ISBN 978-3-8362-4327-8
www.rheinwerk-verlag.de/4229
Wissen aus erster Hand.Wissen, wie’s geht.