LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem...

412
Martin Menth LINEARE ALGEBRA urzburg, 1997

Transcript of LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem...

Page 1: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Martin Menth

LINEARE ALGEBRA

Wurzburg, 1997

Page 2: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2

Copyright:

Dr. Martin MenthUniversitat WurzburgMathematisches InstitutAm Hubland97074 [email protected]

November 1997

Page 3: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Inhaltsverzeichnis

Vorwort 3

1 Vektorraume 5

1.1 Der dreidimensionale reelle Vektorraum . . . . . . . . . . . . . . . . . . . . 5

1.2 Vektorraume und Unterraume . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.3 Linearkombinationen, Erzeugendensysteme und Lineare Unabhangigkeit . . . 16

1.4 Basis und Dimension in endlich erzeugten Vektorraumen . . . . . . . . . . . 23

1.5 Geordnete Basis, Koordinaten, Rang und elementare Umformungen . . . . . 33

1.6 * Berechnung des Durchschnitts zweier Unterraume . . . . . . . . . . . . . . 44

1.7 * Unendlich-dimensionale Vektorraume . . . . . . . . . . . . . . . . . . . . . 50

1.8 * Vereinigungen und gemeinsame Komplemente von Unterraumen . . . . . . 59

2 Lineare Abbildungen 63

2.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

2.2 Homothetien und Linearformen. Der Dualraum . . . . . . . . . . . . . . . . 69

2.3 Beschreibung von linearen Abbildungen durch Matrizen . . . . . . . . . . . . 73

2.4 Elementare Umformungen, Rang und Invertieren von Matrizen . . . . . . . . 80

2.5 Eigenwerte und Eigenvektoren. ϕ-invariante Unterraume . . . . . . . . . . . 88

2.6 Basiswechsel, aquivalente und ahnliche Matrizen . . . . . . . . . . . . . . . . 90

2.7 Potenzen von Endomorphismen, iterierte Abbildungen . . . . . . . . . . . . 94

2.8 * Additivitat und Homogenitat von Abbildungen . . . . . . . . . . . . . . . 98

2.9 * Direkte Produkte und außere direkte Summen von Vektorraumen . . . . . 101

2.10 * Vergleich von endlich- und unendlich-dimensionalen Vektorraumen . . . . . 105

3 Affine Teilraume und lineare Gleichungssysteme 107

3.1 Affine Teilraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

3.2 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

3.3 Losung von linearen Gleichungssystemen . . . . . . . . . . . . . . . . . . . . 115

3.4 * Faktorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

3.5 * Faktorraume und lineare Abbildungen . . . . . . . . . . . . . . . . . . . . 127

4 Polynome von Endomorphismen 131

4.1 Polynome uber beliebigen Korpern und ihre Teilbarkeitseigenschaften . . . . 131

4.2 Ganzzahlige Polynome und Irreduzibilitatkriterien . . . . . . . . . . . . . . . 138

4.3 Polynome von Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . 141

5 Endomorphismen endlichdimensionaler Vektorraume 143

5.1 Das Minimalpolynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

5.2 ϕ-zyklische Unterraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145

5.3 Berechnung des Minimalpolynoms . . . . . . . . . . . . . . . . . . . . . . . . 147

5.4 ϕ-unzerlegbare Unterraume und der Grad des Minimalpolynoms . . . . . . . 151

5.5 Zerlegung des Vektorraums in ϕ-invariante Unterraume . . . . . . . . . . . . 154

Page 4: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

INHALTSVERZEICHNIS 1

6 Die Jordan-Normalform und Anwendungen 1636.1 Die Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1636.2 Berechnung der Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . 1686.3 Algebraische und geometrische Vielfachheit . . . . . . . . . . . . . . . . . . . 1756.4 Die Jordan-Normalform komplexer Matrizen . . . . . . . . . . . . . . . . . . 1766.5 Andere Normalformen reeller Matrizen . . . . . . . . . . . . . . . . . . . . . 1776.6 Stochastische Matrizen und Permutationsmatrizen . . . . . . . . . . . . . . . 1806.7 Erweiterung des Skalarenkorpers . . . . . . . . . . . . . . . . . . . . . . . . . 1836.8 * Ahnlichkeit von A und AT . . . . . . . . . . . . . . . . . . . . . . . . . . . 1846.9 * Wann sind A und A−1 ahnlich? . . . . . . . . . . . . . . . . . . . . . . . . 187

7 Eigenschaften, die man am Minimalpolynom ablesen kann 1917.1 Ahnlichkeit zu einer Dreiecksmatrix oder Diagonalmatrix . . . . . . . . . . . 1917.2 * Nilpotente und unipotente Endomorphismen . . . . . . . . . . . . . . . . . 1947.3 * Halbeinfache Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . 196

8 Determinanten 1998.1 Zwei- und dreireihige Determinanten . . . . . . . . . . . . . . . . . . . . . . 1998.2 Determinantenfunktionen, Existenz und Eigenschaften der Determinante . . 2008.3 Berechnung der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 2068.4 Cramersche Regel und Matrizeninversion . . . . . . . . . . . . . . . . . . . . 214

9 Das charakteristische Polynom 2189.1 Definition des charakteristischen Polynoms . . . . . . . . . . . . . . . . . . . 2189.2 Der Satz von Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . 2209.3 Minimalpolynom, charakteristisches Polynom und Jordan-Normalform . . . . 222

10 * Reihen ϕ-invarianter Unterraume 22710.1 * Reihen ϕ-invarianter Unterraume . . . . . . . . . . . . . . . . . . . . . . . 22710.2 * Nochmals das charakteristische Polynom . . . . . . . . . . . . . . . . . . . 230

11 Bilinearformen und hermitesche Formen 23411.1 Definition und Beschreibung von Bilinearformen . . . . . . . . . . . . . . . 23411.2 Basiswechsel und Bilinearformen, Kongruente Matrizen . . . . . . . . . . . . 24011.3 Hermitesche Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24211.4 Orthogonalitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24511.5 Kongruente Diagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . 25611.6 Definitheit, Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . 26111.7 * Schiefsymmetrische oder alternierende Bilinearformen . . . . . . . . . . . 270

12 Euklidische und unitare Vektorraume 27512.1 Vektornormen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27512.2 Das Orthonormalisierungsverfahren von Gram-Schmidt . . . . . . . . . . . . 28612.3 Komplexe normale Matrizen. Der komplexe Spektralsatz . . . . . . . . . . . 29312.4 Positiv semidefinite hermitesche Matrizen. Wurzeln von Matrizen . . . . . . 30512.5 Reelle normale Matrizen. Der reelle Spektralsatz . . . . . . . . . . . . . . . 30812.6 Reelle symmetrische Matrizen. Die Hauptachsentransformation . . . . . . . 31212.7 Reelle orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 318

Page 5: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2 INHALTSVERZEICHNIS

12.8 Winkel und Volumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32312.9 Das Vektorprodukt im R

n . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32812.10 Die Orthogonalprojektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333

13 *Algorithmen zur Matrizenrechnung 34013.1 * Matrizeninversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34013.2 * Rangberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34713.3 * Berechnung des charakteristischen Polynoms . . . . . . . . . . . . . . . . 35213.4 * Polarzerlegung und Singularwertzerlegung . . . . . . . . . . . . . . . . . . 35513.5 * QR-Zerlegung und LU-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . 359

14 Anhang: Hilfsmittel aus der Mengenlehre 36514.1 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36514.2 Ordnungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36614.3 Auswahlaxiom, Zornsches Lemma und Totalordnungssatz . . . . . . . . . . 371

15 Anhang: Gruppen, Ringe und Korper 37515.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37515.2 Korper und Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38115.3 Endliche Korper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386

16 Anhang: Englische Terminologie und Lineare Algebra mit mathematica 39116.1 Englische Terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39116.2 Lineare Algebra mit mathematica . . . . . . . . . . . . . . . . . . . . . . . . 392

Literatur 400

Index 404

Page 6: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Vorwort 3

Vorwort

Dieser Text enthalt im Wesentlichen den Stoff einer ublichen Vorlesung in Linearer Algebra,namlich Vektorraume uber beliebigen kommutativen Korpern, lineare Abbildungen, Bilinear-formen und Skalarprodukte. Die Analytische Geometrie wurde bewußt nicht aufgenommen,da sie zu umfangreich ist, um als Anhangsel der Linearen Algebra behandelt zu werden.Daher wird der Leser auf Bucher uber Analytische Geometrie verwiesen, etwa [Bra] oder dieentsprechenden Kapitel von [Zie].

Eines der Kernstucke dieses Textes, namlich die Entwicklung der Jordan-Normalform (ratio-nalen Normalform) von Matrizen, ist hervorgegangen aus einem Skriptum, das ich zu einerVorlesung von Prof. Dr. Heineken uber Lineare Algebra im Jahr 1993/94 an der UniversitatWurzburg angefertigt habe. Eine Besonderheit dieser Vorlesung war die Entwicklung derNormalform allein mit Hilfe des Minimalpolynoms, sowie die Definition des charakteristi-schen Polynoms nicht durch die Determinante der charakteristischen Matrix, sondern mitHilfe der Minimalpolynome von gewissen induzierten Abbildungen. Dementsprechend kamdie Determinante erst ganz zum Schluß.

Trotz der unbestreitbar riesigen Anzahl von Lehrbuchern zur Linearen Algebra fand sichdamals keines mit dieser Stoffanordnung. Inzwischen ist das Lehrbuch [Axl] von Axlerauf dem Markt, das auch nach dieser Methode vorgeht. Mir scheint das vorliegende Buchdennoch nicht obsolet zu sein, da es anscheinend noch immer keinen deutschen Text mitdiesem Aufbau gibt, und einige einschrankende Voraussetzungen von Axler (etwa auf dieKorper R und C) fehlen.

Damit sind wir bei den beiden kanonischen Fragen zu jedem Buch uber Lineare Algebraangelangt: welche Skalarenkorper kommen vor und welche Dimensionen? Beide Fragenkann man wohl mit

”alle“ beantworten. Selbstverstandlich spielen die endlich-dimensionalen

Vektorraume uber den Korpern R und C die Hauptrolle. Da andererseits Vektorraumeuber endlichen Korpern zum Beispiel in der Kodierungstheorie, und unendlich-dimensionaleVektorraume in der Funktionalanalysis vorkommen, sollten die Grundbegriffe der LinearenAlgebra nicht unnotig auf Spezialfalle einschrankt werden.

Damit sich das vorliegende Buch auch zum Nachschlagen eignet, habe ich den Stoff rela-tiv großzugig ausgewahlt. Andererseits soll ein Leser, der sich nur in die Grundzuge derTheorie der linearen Abbildungen zwischen endlich-dimensionalen reellen oder komplexenVektorraumen einlesen mochte, nicht durch eine zu große Stoffmenge abgeschreckt werden.Daher sind einzelne Kapitel oder Abschnitte, die man beim ersten Lesen ubergehen kann,mit einem Stern * gekennzeichnet. Der Text, der durch die Wegnahme der *-Abschnitteentsteht, ist in sich abgeschlossen.

Ebenso soll auch eine gewisse Kompatibilitat zu anderen Lehrbuchern hergestellt werden.Daher wird etwa das charakteristische Polynom auf zwei verschiedene Arten eingefuhrt undder Determinante mehr Raum gewidmet als bei Axler.

In der Linearen Algebra tauchen immer wieder einmal Hilfsmittel aus der Mengenlehre undder Algebra, insbesondere uber endliche Korper, auf, die im ersten oder zweiten Semesterublicherweise nicht bereitstehen. Diese Begriffe und Satze sind in zwei Anhangskapitelnzusammengestellt.

Page 7: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

4 Vorwort

Im Vergleich zu alteren Lehrbuchern wird im Allgemeinen jetzt algorithmischen Verfahrenmehr Beachtung geschenkt. Dies geschieht auch in diesem Text, da der Leser vertrautermit der Theorie wird, wenn er viele Beispiele konkret durchrechnen kann, sei es mit derHand oder mit dem Computer. Deshalb wird in Kapitel 16 eine kurze Einfuhrung in dasProgramm mathematica gegeben, mit dem man viele der in der Linearen Algebra vorkom-menden Rechnungen durchfuhren kann. Außerdem soll auf die Probleme mancher Verfahrenaufmerksam gemacht werden.Anderungen gegenuber der 4. Auflage des erwahnten Skriptums:Die Basissatze in Kapitel 1 werden getrennt fur den endlichen und den unendlichen Fallbehandelt. Die bisherigen Kapitel 5 und 6 sind etwas umorganisiert und in ein neues Kapitel5 zusammengefaßt worden. Nachdem jetzt auch Skalarprodukte besprochen werden, wurdendie Abschnitte uber hermitesche, symmetrische, unitare und orthogonale Matrizen an diepassende Stelle im neuen Kapitel 12 eingebaut, der Rest des fruheren Kapitels 9 dem neuenKapitel 6 uber die Jordan-Normalform einverleibt. Vollig neu sind die Kapitel 11, 12, 16und die Abschnitte 13.2 bis 13.5.Herrn Prof. Dr. H. Heineken danke ich fur die großzugige Erlaubnis, Mitschriften aus seinenVorlesungen zu verwenden. Fur das Korrekturlesen von Teilen des Manuskripts und vieleVerbesserungsvorschlage danke ich Prof. Dr. R. Brandl sowie W. Dirscherl, M. Doll und R.Jarisch.

Martin Menth, November 1997

Page 8: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

5

1 Vektorraume

1.1 Der dreidimensionale reelle Vektorraum

Vektor, Koordinate, Koordinatenursprung:Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durchTripel reeller Zahlen ξ1, ξ2, ξ3 bekannt.

-

6

�������

x

z

y

p p p p p p p pp p ppppppppppp p p p p p p p p p p p p p p p p p p p

��������>

ξ1

ξ2

ξ3

Man wahlt einen festen Punkt o als Koordinatenursprung, zei-chnet drei paarweise senkrecht aufeinanderstehende Achsenaus (x-Achse, y-Achse, z-Achse oder x1-Achse, . . ., x3-Achse),und bezeichnet den Punkt im Raum, den man erreicht, in-dem man ξ1 Einheiten in Richtung der x-Achse, ξ2 Einheitenin Richtung der y-Achse und ξ3 Einheiten in Richtung der z-Achse geht, mit dem Zahlentripel ξ1

ξ2

ξ3

.

Ein solches Zahlentripel nennt man auch Vektor oder Spaltenvektor mit den Koordinatenξ1, ξ2, ξ3 . Die Vektoren wollen wir mit kleinen lateinischen Buchstaben, ihre Koordinaten(die hier alle reelle Zahlen sind) mit kleinen griechischen Buchstaben bezeichnen.Da die Schreibweise eines Vektors als Spaltenvektor sehr platzraubend ist, wollen wir diealternative Schreibweise

(ξ1, ξ2, ξ3)T =

ξ1

ξ2

ξ3

einfuhren. Diese Schreibweise mit dem hochgestellten T wird spater in einem allgemeinerenZusammenhang verwendet werden.Zwei Vektoren (ξ1, ξ2, ξ3)T , (η1, η2, η3)T sind genau dann identisch (d.h. geben denselbenPunkt im Raum an), wenn ξ1 = η1 , ξ2 = η2 und ξ3 = η3 gilt. Der Koordinatenursprung o

wird dargestellt durch das Tripel (0, 0, 0)T , die Punkte auf der x-Achse durch (ξ, 0, 0)T , ξ ∈R , die Punkte auf der y-Achse durch (0, ξ, 0)T , ξ ∈ R , und die Punkte auf der z-Achse durch(0, 0, ξ)T , ξ ∈ R .

Vektoraddition, skalare Multiplikation, Ortsvektor:Die Koordinaten eines solchen Zahlentripels kann man mit einem gemeinsamen Faktor λmultiplizieren, oder man kann die Koordinaten ξ1, ξ2, ξ3 eines Vektors zu den Koordinatenη1, η2, η3 eines anderen Vektors addieren, also den Vektor ξ1 + η1

ξ2 + η2

ξ3 + η3

bilden. Um eine anschauliche Vorstellung davon zu bekommen, was bei dieser skalarenMultiplikation und Vektoraddition passiert, stellt man sich den Punkt (ξ1, ξ2, ξ3)T mit demKoordinatenursprung durch einen Pfeil verbunden vor, dessen Spitze in dem betrachtetenPunkt liegt. Dieser Pfeil wird auch der Ortsvektor des betrachteten Zahlentripels genannt.

Page 9: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6 1 VEKTORRAUME

-

6

����������

x

z

y

ppppppppppppppppppppppppppppppppppppppp

p pppppppppppppppppp

p p p p p p p p p p p p p p p p p p p pp p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p

������>

������������>

3 6

2

4

qq12

642

3

21

Betrachten wir zum Beispiel die Vektoren

a = (3, 2, 1)T und b = (6, 4, 2)T .

Man erreicht den Punkt b im Raum dadurch, daßman den Vektor a zweimal in derselben Richtungabtragt. Daher ist es sinnvoll, b = 2a zu schrei-ben.

Allgemein definieren wir das Produkt eines Vektors mit einer reellen Zahl λ auf folgendeWeise:

λ ·

ξ1

ξ2

ξ3

=

λξ1

λξ2

λξ3

.

Dann gilt 1 · (ξ1, ξ2, ξ3)T = (ξ1, ξ2, ξ3)T und 0 · (ξ1, ξ2, ξ3)T = (0, 0, 0)T = o . Multiplizierenmit 3 streckt einen Vektor auf die dreifache Lange und multiplizieren mit −1 dreht dieRichtung des Vektors um.

-

6

������������

x

z y

p p p p p p pp p p p p p pp p p p p pp p p p p p p

p p p p p p pp p p p p p

pppppppppppppppppppp ppppppppppp p p p p p p p p p

p p p p p p p p p pppppppppppp p p pp p p p p p pp p p p p p pp p

p p p p p p p p p pppppppppppppppppppppppppppppppp

�����3

��������

�����3

��������

a

a+ b

b

Die Addition zweier Vektoren beschreibt ebenfalls dasAneinanderhangen der zugehorigen Pfeile, die hier abernicht mehr dieselbe Richtung haben mussen.Es sei etwa a = (1, 1, 0)T und b = (0, 1, 1)T .Die Summe c = a + b = (1, 2, 1)T entsteht durch Hin-tereinanderhangen der zugehorigen Pfeile, wobei es egalist, ob man a an b oder b an a hangt.

Das Kommutativgesetz fur die Addition von Vektoren ergibt sich offensichtlich aus demKommutativgesetz fur die Addition von reellen Zahlen, denn es gilt ξ1

ξ2

ξ3

+

η1

η2

η3

=

ξ1 + η1

ξ2 + η2

ξ3 + η3

=

η1 + ξ1

η2 + ξ2

η3 + ξ3

=

η1

η2

η3

+

ξ1

ξ2

ξ3

.

Genauso erhalt man das Assoziativgesetz fur die Vektoraddition.Die Gleichung c = a + b konnen wir auch umformen zu a = c − b . Die Differenz a − bzweier Vektoren ist ebenfalls komponentenweise erklart: ξ1

ξ2

ξ3

− η1

η2

η3

=

ξ1 − η1

ξ2 − η2

ξ3 − η3

.

Die obige Zeichung fur die Addition von a und b macht zugleich deutlich, wie wir uns dieSubtraktion zweier Vektoren geometrisch vorstellen konnen: die Differenz c− b konnen wirdurch einen Pfeil veranschaulichen, dessen Fußpunkt in der Spitze von b und dessen Spitzein der Spitze von c liegt. Die Differenz zweier Vektoren ist eigentlich keine neue Operation,denn sie kann mit Hilfe der beiden vorher definierten erklart werden: a− b = a+ ((−1) · b) .Wir erhalten an weiteren Rechenregeln:

• (ξ1, ξ2, ξ3)T + (0, 0, 0)T = (ξ1, ξ2, ξ3)T .

• −(ξ1, ξ2, ξ3)T + (ξ1, ξ2, ξ3)T = (0, 0, 0)T .

Page 10: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.1 Der dreidimensionale reelle Vektorraum 7

• λ ·(µ · (ξ1, ξ2, ξ3)T

)= (λ · µ) · (ξ1, ξ2, ξ3)T = µ ·

(λ · (ξ1, ξ2, ξ3)T

).

• die Distributivgesetzeλ ·((ξ1, ξ2, ξ3)T + (η1, η2, η3)T

)= λ · (ξ1, ξ2, ξ3)T + λ · (η1, η2, η3)T und

(λ+ µ) · (ξ1, ξ2, ξ3)T = λ · (ξ1, ξ2, ξ3)T + µ · (ξ1, ξ2, ξ3)T .

Geraden und Ursprungsgeraden:Es sei g eine Ursprungsgerade, d.h. eine Gerade, die durch den Ursprung o geht, und seia = (ξ1, ξ2, ξ3)T 6= o ein Punkt auf dieser Geraden.

Jeder andere Punkt b auf dieser Geraden, der auf der-selben Seite des Ursprungs liegt wie a, laßt sich danndurch Streckung des Vektors a um einen geeigneten po-sitiven Faktor erreichen, das heißt: es gibt ein λ > 0mit b = λa . Zu jedem Punkt b auf g, der auf deranderen Seite des Ursprungs liegt, gibt es ein λ < 0mit b = λa . Der Urspung o selbst hat die Darstellungo = 0 · a . Umgekehrt liegt fur jedes λ ∈ R der Punktλa auf der Geraden g. Es gilt also

g = {λa | λ ∈ R} .

-

6

��������

���

x

z y

������

������7

����7

����7

����7

����7

����7

����7

Gerade g

a

Was zeichnet die Ursprungsgeraden aus in der Menge aller Geraden im Raum R3?

-

6

�������

��x

z

y

p p p p p p p p pp p p p p p p p pp p p p p p p p pp p p

ppppp������

������7

����7

����7

����7

����7

����7

����7

h

gs+ a

s6666

Betrachten wir zum Beispiel die Gerade h, die aus derGerade g entsteht, indem man die Gerade g um den Vek-tor s parallel nach oben veschiebt. Einen Punkt b aufdieser Geraden erreicht man, indem man zuerst den Vek-tor s abtragt und dann ein geeignetes Vielfaches von a.Es gilt also

h = {s+ λa | λ ∈ R } .

Die Summe zweier Vektoren, die Punkte auf der Geraden g beschreiben, gibt wieder einenPunkt an, der auf g liegt: λa + µa = (λ + µ)a ∈ g . Die analoge Aussage ist aber nichtrichtig fur die Gerade h: (s + λa) + (s + µa) = 2s + (λ + µ)a . Dieser Vektor beschreibtgenau dann einen Punkt auf h, wenn es ein ν ∈ R gibt mit 2s + (λ + µ)a = s + νa . Diesist aquivalent zu s = (ν−λ−µ)a . Das bedeutet aber, daß der

”Stutzvektor“ s von h selbst

einen Punkt auf der Geraden g beschreibt, also h = g eine Ursprungsgerade ist.

Im folgenden Abschnitt abstrahieren wir das Modell und betrachten Mengen von Objektenmit zwei Operationen, einer Addition und einer skalaren Multiplikation mit Elementen auseinem Korper, die dieselben Rechenregeln erfullen, die wir fur die Vektoroperationen diesesAbschnitts erhalten haben.

Page 11: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

8 1 VEKTORRAUME

1.2 Vektorraume und Unterraume

Definition: VektorraumEs sei K ein beliebiger Korper1. Eine Menge V mit zwei Verknupfungen + : V ×V → V und· : K × V → V heißt ein Vektorraum uber K oder K-Vektorraum, wenn folgende Axiomeerfullt sind:

(V1) Fur alle v, w ∈ V gilt v + w = w + v . (Kommutativgesetz der Addition)(V2) Fur alle v, w, z ∈ V gilt (v + w) + z = v + (w + z) . (Assoziativgesetz der Addition)(V3) Es gibt ein o ∈ V mit o + v = v fur alle v ∈ V . (Neutrales Element bezuglich der

Addition)(V4) Fur jedes v ∈ V gibt es ein −v ∈ V mit −v + v = o . (Inverses Element bezuglich

der Addition)(V5) Fur alle λ, µ ∈ K und alle v ∈ V gilt λ(µv) = (λµ)v .(V6) Fur alle λ, µ ∈ K und alle v, w ∈ V gelten die Distributivgesetze:

(λ+ µ)v = λv + µv und λ(v + w) = λv + λw .(V7) Fur alle v ∈ V gilt 1 · v = v .

Die Schreibweise”

+ : V × V → V “ bedeutet, daß durch die Addition zwei Elemente aus Vmiteinander verknupft werden, und daß die Summe von je zwei Elementen aus V wieder inV liegen muß. Analog besagt

”· : K × V → V “, daß das skalare Produkt eines Elements

aus K mit einem Element aus V wieder in V liegt.Mit den Begriffen aus Kapitel 15 kann man (V1) bis (V4) auch kurzer so angeben: (V,+)ist eine abelsche Gruppe. Das trivial erscheinende Axiom (V7) ist notwendig, denn es folgtnicht aus den Axiomen (V1) – (V6), das heißt, es gibt mathematische Objekte, die zwar(V1) – (V6), aber nicht (V7) erfullen (siehe (1.2.1.9)).

Die Elemente des Vektorraums V heißen Vektoren, die des zugehorigen Korpers Skalare. Daßder Begriff des Vektorraums auch ganz andere Objekte beschreiben kann als den Raum R

3 ,sollen die folgenden Beispiele zeigen. Der in Abschnitt 1.1 angegebene Raum R

3, in demman die Vektoren als Pfeile veranschaulichen kann, die aneinander angehangt und gestrecktwerden konnen, ist nur eines von vielen Beispielen. Man hute sich davor, sich unter Vektorennur solche Pfeile vorzustellen (vgl. z.B. (1.2.1.2–5)). Jedes Element eines Vektorraums istein Vektor.

(1.2.1) Beispiele Vektorraume

1. Es sei V = Kn die Menge der geordneten n-Tupel mit Eintragen aus dem Korper K undkomponentenweiser Addition und skalarer Multiplikation, d.h.: ξ1

...ξn

+

η1...ηn

=

ξ1 + η1...

ξn + ηn

und λ ·

ξ1...ξn

=

λξ1...λξn

.

Mit diesen Operationen ist V ein Vektorraum. Das n-Tupel, das an der i-ten Stelle denEintrag 1 und sonst nur Eintrage 0 hat, nennen wir den i-ten Standardeinheitsvektor undbezeichnen es mit ei .

1siehe hierzu Anhang 15.2. Wer mit Korpern, insbesondere endlichen Korpern noch nicht vertraut ist,mag sich zunachst unter K einen der Korper R, Q oder C vorstellen.

Page 12: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.2 Vektorraume und Unterraume 9

Wahlen wir speziell K = R und n = 3 , so erhalten wir den Vektorraum aus Abschnitt 1.1.Wie in Abschnitt 1.1 verwenden wir aus Platzgrunden die Konvention

(ξ1, . . . , ξn)T =

ξ1...ξn

.

2. Es sei V die Menge aller Folgen (ξn)n∈N reeller Zahlen. Die Summe zweier Folgen x, y ∈ Vdefinieren wir auf folgende Weise: das n-te Glied von x+ y ist die Summe des n-ten Gliedesvon x und des n-ten Gliedes von y. Analog definieren wir eine skalare Multiplikation: dasn-te Glied von λx ist das λ-fache des n-ten Gliedes von x. Mit diesen Verknupfungen ist Vein Vektorraum uber R. Ebenso ist fur einen beliebigen Korper K die Menge aller Folgenmit Eintragen aus K ein K-Vektorraum.

3. Wegen der Rechenregeln fur konvergente Folgen ist auch die Menge W der konvergentenreellen Zahlenfolgen mit denselben Verknupfungen wie in 2. ein Vektorraum uber R.

4. Es sei M eine Teilmenge von R und V = {f : M → R} die Menge aller auf M definiertenreellwertigen Funktionen. Die beiden Operationen definieren wir wertweise, das heißt fur allex ∈ M sei (f + g)(x) = f(x) + g(x) und (λf)(x) = λf(x) gesetzt. Damit wird V einVektorraum uber R.

5. Wegen der Rechenregeln fur Polynome, stetige oder integrierbare Funktionen bilden diesemit denselben Operationen wie in 4. ebenfalls jeweils einen Vektorraum uber R.

6. Jeder Korper K ist mit seinen Operationen Addition und Multiplikation ein Vektorraumuber sich selbst. Dies ist ein Spezialfall von 1. (n = 1).

7. C ist mit der ublichen Addition und der ublichen Multiplikation, eingeschrankt auf R×C , einVektorraum uber R. Die umgekehrte Konstruktion liefert aber nicht, daß R ein Vektorraumuber C ist, denn das Produkt i · 1 ist kein Element aus R.

8. Es sei V die Menge aller reellen Zahlen der Form α+ β√

2 mit α, β ∈ Q . Mit der Addition(α1 + β1

√2) + (α2 + β2

√2) = (α1 + α2) + (β1 + β2)

√2 und der skalaren Multiplikation

λ(α+ β√

2) = (λα) + (λβ)√

2 ist V ein Vektorraum uber Q.

9. Die Menge R mit der ublichen Addition und der skalaren Multiplikation λx = 0 fur alleλ, x ∈ R erfullt die Axiome (V1) – (V6), aber nicht (V7).

Die Teilmengen eines Vektorraums, die abgeschlossen sind bezuglich der Addition und ska-laren Multiplikation, spielen eine besondere Rolle:

Definition: UnterraumEs sei K ein Korper und V ein Vektorraum uber K. Eine Teilmenge U von V heißt Unter-raum oder linearer Unterraum von V , wenn gilt:

(UR1) Mit u1, u2 ∈ U gilt auch u1 + u2 ∈ U .(UR2) Mit u ∈ U und λ ∈ K gilt λu ∈ U .(UR3) U 6= ∅ .

Zur Demonstration der Wirkungsweise der Vektorraum- und Unterraumaxiome zeigen wirzwei Aussagen uber den Nullvektor o, die wir haufig benutzen werden:

Page 13: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

10 1 VEKTORRAUME

(1.2.2) Lemma Nullvektor(a) Jeder Vektorraum V besitzt genau einen Nullvektor o. Dieser liegt in allen Unterrau-

men von V .(b) Es sei v ∈ V und λ ∈ K. Genau dann gilt λv = o , wenn λ = 0 oder v = o erfullt ist.

Beweis:

(a) Nach (V3) besitzt V einen Vektor o mit der Eigenschaft o + v = v fur alle v ∈ V . Istz ein weiterer Vektor mit dieser Eigenschaft, so gilt z = o + z = z + o = o . Dies zeigtdie Eindeutigkeit von o.Ein Unterraum U von V ist nach (UR3) nicht leer, enthalt also irgendein Element u.Nach (UR2) enthalt U dann auch den Vektor −u = (−1) · u , also nach (U1) dannauch den Vektor o = u− u = u+ (−u) .

(b) Wir zeigen zuerst 0 · v = o fur alle v ∈ V , indem wir benutzen, daß 0 das neutraleElement bezuglich der Addition im Korper K ist: Nach (V6) gilt

0 · v + 0 · v = (0 + 0) · v = 0 · v .

Subtrahieren von 0 · v auf beiden Seiten dieser Gleichung liefert 0 · v = o .Nun benutzen wir (V3), d.h. daß der Nullvektor o das neutrale Element bezuglich derAddition in V ist: Nach (V6) gilt

λ · o + λ · o = λ · (o + o) = λ · o

und damit λo = o . Also ist die Richtung”⇐“ gezeigt.

Nun sei λv = o und λ 6= 0 . Dann besitzt λ ein multiplikatives Inverses λ−1 in K,und nach (1.2.7) und (1.2.5) gilt v = 1 · v = (λ−1λ) · v = λ−1(λv) = λ−1o = o . �

Ist V ein Vektorraum uber dem Korper K und U ein Unterraum von V , so ist U mit derauf U × U eingeschrankten Addition und mit der auf K × U eingeschrankten skalarenMultiplikation wieder ein Vektorraum uber K. Die Axiome (V1), (V2), (V5), (V6) und (V7)ubertragen sich trivialerweise von V auf U . Die Bedingung (V4) wird durch (UR1) und(UR2) gesichert, das Axiom (V3) gilt in U nach (1.2.2). Insbesondere sieht man an (1.2.2),daß alle Unterraume von V denselben Nullvektor o haben.

(1.2.3) Beispiele Unterraume

1. Es sei V ein Vektorraum uber dem Korper K. Dann sind {o} und V Unterraume von V .Diese heißen, da immer vorhanden, triviale Unterraume von V . Es kann passieren, daß diesebeiden Unterraume identisch sind, namlich dann, wenn V nur einen einzigen Vektor enthalt.Der Unterraum {o} heißt auch Nullraum.

2. Es sei V ein Vektorraum uber dem Korper K und v ∈ V irgendein Vektor. Jeder UnterraumU von V mit v ∈ U enthalt nach (UR2) alle skalaren Vielfachen λv von v. Die Menge{λv | λ ∈ K} ist andererseits selbst ein Unterraum von V (man prufe (UR1) und (UR2)nach), also ist diese Menge der kleinste Unterraum von V , der v als Element enthalt. Wirbezeichnen sie mit 〈v〉 und nennen sie das Erzeugnis von v.Das Erzeugnis des Nullvektors o ist der triviale Unterraum {o} .

3. Die Diskussion in Abschnitt 1.1 uber Geraden und Ursprungsgeraden im R3 zeigt, daß die

Ursprungsgeraden Unterraume von R3 sind, die anderen Geraden jedoch nicht. Zudem istjede Ursprungsgerade in R3 das Erzeugnis eines Vektors a 6= o .

Page 14: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.2 Vektorraume und Unterraume 11

4. Es sei V der Vektorraum R3. Die Punkte der (x, y)-Ebene bilden einen Unterraum U von V .

Dieser laßt sich schreiben in der Form U = {(λ, µ, 0)T | λ, µ ∈ R } .

5. Es sei V der Vektorraum der reellen Zahlenfolgen und W die Teilmenge der konvergentenreellen Zahlenfolgen (s. (1.2.1.2/3)). Dann ist W ein Unterraum von V .

6. Es sei V der Vektorraum der auf R definierten reellwertigen Funktionen. Die Polynome inV bilden einen Unterraum von V , ebenso die stetigen Funktionen in V , die differenzierbarenFunktionen in V oder die integrierbaren Funktionen in V . Den Vektorraum der stetigenFunktionen in V wollen wir wie in der Analysis mit C(R) bezeichnen. Der Vektorraum Vselbst tragt die Standardbezeichnung RR

Dagegen bildet die Teilmenge M der (schwach) monotonen Funktionen in V keinen Unter-raum von V . Die Vektoren f(x) = x2 und g(x) = −x sind namlich beide monoton, aberihre Summe (f + g)(x) = x2 − x ist wegen (f + g)(0) = (f + g)(1) = 0 , (f + g)(1

2) = −14

nicht monoton.

7. Mit der ublichen Addition und Multiplikation ist V = R ein Vektorraum uber Q. DieTeilmenge U = Q von R ist ein Unterraum von V . Der Korper Q tritt hier also sowohl alsSkalarenkorper als auch als Teilmenge von V auf.

Wir haben also nun gewisse Teilmengen eines Vektorraums V ausgezeichnet durch ihre Ab-geschlossenheitseigenschaften bezuglich der beiden Operationen des Vektorraums. Habenwir zwei oder mehrere Unterraume von V , so konnen wir Durchschnitte und Vereinigungenbilden. Wahrend die Durchschnittsbildung die Unterraumeigenschaft erhalt, geht sie bei derBildung der Vereinigungsmenge fast immer verloren:

(1.2.4) Satz Durchschnitt und Vereinigung von UnterraumenEs sei V ein Vektorraum uber dem Korper K mit Unterraumen U und W .

(a) U ∩W ist wieder ein Unterraum von V .(b) U ∪W ist genau dann ein Unterraum von V , wenn U ⊆ W oder W ⊆ U gilt.

Beweis:

(a) Sind v1, v2 Elemente von U∩W , so gilt v1, v2 ∈ U und wegen der Unterraumeigenschaftvon U dann v1 + v2 ∈ U . Ebenso erhalt man v1 + v2 ∈ W , also v1 + v2 ∈ U ∩W .Analog sieht man λv ∈ U ∩W fur alle v ∈ U ∩W und alle λ ∈ K . Wegen (1.2.2) liegtder Nullvektor o sowohl in U als auch in V , also ist U ∩ V auch nicht leer.

(b) Wir zeigen zuerst: Gilt U ⊆ W oder W ⊆ U , so ist U ∪W ist ein Unterraum vonV . Das liegt daran, daß im Fall U ⊆ W die Vereinigungsmenge U ∪W = W und imFall W ⊆ U die Vereinigungsmenge U ∪W = U , also nach Voraussetzung jeweils einUnterraum ist.Die Umkehrung zeigen wir durch Beweis durch Widerspruch: Angenommen, es gelteU 6⊆ W (1) und W 6⊆ U (2) , und U ∪W sei ein Unterraum von V . Aus (1) folgt dieExistenz eines Vektors u ∈ U \W und aus (2) die Existenz eines Vektors w ∈ W \ U .Wegen der Unterraumeigenschaft von U ∪W muß die Summe u+w in U ∪W liegen.Das bedeutet u+ w ∈ U oder u+ w ∈ W .1.Fall: u+ w ∈ U : Dann gilt w = (u+ w)− u ∈ U .2.Fall: u+ w ∈ W : Dann gilt u = (u+ w)− w ∈ W .Beide Falle liefern also einen Widerspruch zu den Voraussetzungen w /∈ U und u /∈ W .Damit ist die Annahme falsch und folglich die Behauptung richtig. �

Page 15: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12 1 VEKTORRAUME

Der vorstehende Satz uber die Durchschnitte von Unterraumen gilt nicht nur fur Durch-schnitte von zwei Unterraumen, sondern viel allgemeiner fur beliebige Durchschnitte. Ist{Ui | i ∈ I} eine Familie2 von Unterraumen von V mit beliebiger Indexmenge I, so ist derDurchschnitt

⋂i∈I Ui wieder ein Unterraum von V . Der Beweis geht genauso wie in (1.2.4).

Da sich die Vereinigungsbildung von Unterraumen als nicht geeignet zur Konstruktion vongroßeren Unterraumen aus gegebenen Unterraumen erwiesen hat, suchen wir zu zwei vor-gegebenen Unterraumen U,W von V den kleinsten Unterraum von V , der U und W alsTeilmengen enthalt:

Definition: Summe von UnterraumenEs seien U und W Unterraume eines Vektorraums V uber dem Korper K. Die TeilmengeU +W = {u+ w | u ∈ U , w ∈ W} heißt Summe von U und W .

(1.2.5) Satz Summe von UnterraumenEs sei V ein Vektorraum uber dem Korper K mit Unterraumen U und W .U + W ist ein Unterraum von V , und zwar der kleinste Unterraum von V , der U und Wals Teilmengen enthalt.

Beweis: Es seien v1, v2 ∈ U + W . Dann gibt es Vektoren u1, u2 ∈ U und w1, w2 ∈ Wmit v1 = u1 + w1 und v2 = u2 + w2 . Wegen der Unterraumeigenschaft von U und W folgtdann v1 + v2 = (u1 +w1) + (u2 +w2) = (u1 + u2) + (w1 +w2) ∈ U +W . Analog erhalt manλv ∈ U + W fur alle λ ∈ K und v ∈ U + W . Der Nullvektor o liegt in U und in W , alsowegen o = o + o auch im Summenraum U +W .Es sei Z ein Unterraum von V , der sowohl U als auch W als Teilmengen enthalt. Fur jedesu ∈ U und w ∈ W gilt dann wegen (UR1) auch u+ w ∈ Z . Also folgt U +W ⊆ Z . �

Auch die Summenbildung von Unterraumen kann man auf beliebig viele Unterraume anwen-den: Ist I eine beliebige (moglicherweise auch unendliche) Indexmenge und {Ui | i ∈ I}eine Familie von Unterraumen von V , so definieren wir∑

i∈I

Ui = {∑i∈I

ui | ui ∈ Ui fur alle i ∈ I , und ui 6= o fur nur endliche viele i ∈ I } .

Auch fur diese Summenbildung gilt (1.2.5).

(1.2.6) Beispiele Summen von Unterraumen

1. Sind U,W Unterraume von V mit U ⊆ W , so gilt U + W = U ∩W = W . Insbesonderegilt U + {o} = U und U + V = V fur jeden Unterraum von V .

2. Es sei V = R3 und U = {

λµ0

| λ, µ ∈ R } die (x, y)-Ebene in V . Dann gilt fur alle

λ, µ ∈ R : λµ0

=

λ00

+

0µ0

= λ

100

+ µ

010

∈ 〈 1

00

〉+ 〈

010

〉 .2Zum Begriff einer Familie oder eines Systems von Mengen siehe z.B. [Hal].

Page 16: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.2 Vektorraume und Unterraume 13

Damit ist U in dem angegebenen Summenraum enthalten. Offensichtlich gilt auch die Um-kehrung. Daher ist U die Summe der beiden Unterraume 〈(1, 0, 0)T 〉 (x-Achse) und〈(0, 1, 0)T 〉 (y-Achse).

3. Es sei K irgendein Korper und V = Kn der Vektorraum der n-Tupel mit Eintragen aus K.Fur alle i ∈ {1, . . . , n} bezeichnen wir mit ei den Vektor, der an der i-ten Stelle den Eintrag1 und sonst die Eintrage 0 hat. Dann gilt V = 〈e1〉+ . . .+ 〈en〉 .

4. Es sei V = R3 und u = (1, 1, 0)T sowie w = (0, 1, 1)T . Die Summe der beiden Unterraume

U = 〈u〉 und W = 〈w〉 ist

{

λλ0

+

0µµ

| λ, µ ∈ R} = {

λλ+ µµ

| λ, µ ∈ R} .Dies ist also die Teilmenge derjenigen Vektoren in V , deren zweite Komponente die Summeder ersten und der dritten Komponente ist.

5. Es sei V = C(R) Vektorraum aller stetigen Funktionen f : R → R . Wir betrachten dievier Vektoren u = sinx , v = cosx , w = sin2 x und z = cos2 x . Hierbei bedeutet wie in derAnalysis sin2 x = (sinx)2 .Es gilt 〈w〉+ 〈z〉 = {λ sin2 x+ µ cos2 x | λ, µ ∈ R} .Dieser Unterraum enthalt zum Beispiel die Vektoren 1 = sin2 x + cos2 x (”1 “ bezeichnethier die konstante Funktion 1) und cos 2x = cos2 x − sin2 x . Jede konstante Funktion in Vist ein skalares Vielfaches von 1, liegt also ebenfalls in diesem Summenraum.Andererseits liegt die konstante Funktion 1 nicht in 〈u〉+〈v〉 = {λ sinx+µ cosx | λ, µ ∈ R} :Nehmen wir namlich an, es gabe λ, µ ∈ R mit 1 = λ sinx+µ cosx , so liefert die Auswertungdieser Funktion an den Stellen x = 0 und x = π

2 die Gleichungen

1 = λ sin 0 + µ cos 0 = µ und 1 = λ sinπ

2+ µ cos

π

2= λ ,

also 1 = sinx+ cosx . Andererseits gilt sin π4 + cos π4 =

√2 , ein Widerspruch. Daher ist die

konstante Funktion 1 nicht in 〈u〉 + 〈v〉 enthalten, und die einzige konstante Funktion, diein diesem Summenraum liegt, ist die konstante Funktion 0.Dies steht ubrigens nicht im Widerspruch zur Identitat 1 = (sinx) · (sinx) + (cosx) · (cosx) ,denn hier sind die Vorfaktoren keine Skalare!

6. Es sei V = R2 . Wir betrachten die Unterraume U =

(10

), W =

(01

)und Z =

(11

).

Die Elemente von U haben in der zweiten Komponente eine 0, die Elemente von Z haben

die Form(λλ

), also gilt U ∩Z = {o} . Genauso sieht man W ∩Z = {o} . Daher erhalten

wir die Summe U ∩ Z +W ∩ Z = {o} .Andererseits gilt U +W = V nach Beispiel 1, also (U +W )∩Z = Z 6= (U ∩Z) + (W ∩Z) .

Beispiel (1.2.6.6) zeigt, daß im allgemeinen fur die Operationen Summe und Durchschnittvon Unterraumen kein Distributivgesetz der Form (U +W ) ∩ Z = (U ∩ Z) + (W ∩ Z) gilt.Nur im Fall U ⊆ Z haben wir das Distributivgesetz:

(1.2.7) Satz Dedekindsches Modulargesetz fur UnterraumeEs sei V ein Vektorraum uber dem Korper K, und U,W,Z seien Unterraume von V mitU ⊆ Z . Dann gilt (U +W ) ∩ Z = (U ∩ Z) + (W ∩ Z) = U + (W ∩ Z) .

Page 17: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

14 1 VEKTORRAUME

Beweis: Die zweite Gleichung ist klar wegen U ⊆ Z . Zum Beweis der ersten Gleichungzeigen wir zwei Inklusionen:U ist eine Teilmenge von Z und von U + W , also auch von (U + W ) ∩ Z . Weiter istW ∩ Z eine Teilmenge von Z und von U + W , also auch von (U + W ) ∩ Z . Dies zeigtU + (W ∩ Z) ⊆ (U +W ) ∩ Z .Fur die umgekehrte Inklusion nehmen wir einen Vektor v ∈ (U+W )∩Z . Wegen v ∈ U+Wgibt es Vektoren u ∈ U , w ∈ W mit v = u+w . Wir wollen zeigen, daß w auch in Z liegt.Es gilt w = v − u . Dabei liegt v nach Voraussetzung und u wegen U ⊆ Z in Z. Wegender Unterraumeigenschaft von Z liegt also auch w in Z wie gewunscht. Damit haben wirv ∈ U +W ∩ Z . �

Ein Spezialfall der Summe von Unterraumen ist besonders wichtig:

Definition: (innere) direkte SummeEs sei V ein Vektorraum mit Unterraumen U1, U2 . Der Unterraum U ist eine (innere) direkteSumme von U1 und U2, wenn gilt:

U = U1 + U2 und U1 ∩ U2 = {o} .

In diesem Falle schreiben wir U = U1 ⊕ U2 .Allgemeiner nennen wir U die (innere) direkte Summe der Familie Ui , i ∈ I , von Un-terraumen von V , wenn gilt:

U =∑i∈I

Ui und Ui ∩ (∑

j∈I\{i}

Uj) = {o} fur alle i ∈ I .

Dann schreibt man U =⊕

i∈I Ui . Der Zusatz”innere“ wird nur gebraucht, wenn man

diesen Begriff von dem in Abschnitt 2.9 definierten Begriff der außeren direkten Summeunterscheiden will.

(1.2.8) Beispiele direkte Summen von Unterraumen

1. Wie in (1.2.6.6) sei V = R2 und U = 〈(1, 0)T 〉 , W = 〈(0, 1)T 〉 , Z = 〈(1, 1)T 〉 .

Es gilt U ∩W = U ∩ Z = {o} und U +W = U + Z = V . Also folgt V = U ⊕W = U ⊕ Z .Insbesondere sind die direkten Summanden in keiner Weise eindeutig bestimmt.

2. Die Summe Kn = 〈e1〉+ . . .+ 〈en〉 aus (1.2.6.3) ist sogar eine direkte Summe: Wir wahlenirgendein i ∈ {1, . . . , n} . Die Vektoren in 〈ei〉 haben hochstens in der i-ten Komponenteeinen Eintrag 6= 0 . Fur j 6= i dagegen hat ein Vektor aus 〈ej〉 an der i-ten Stelle denEintrag 0. Ein Vektor v aus

∑j 6=i〈ej〉 hat die Form v =

∑j 6=i λjej , also an der i-ten Stelle

den Eintrag 0. Dies zeigt (∑

j 6=i〈ej〉) ∩ 〈ej〉 = {o} .

3. Es sei V der Vektorraum aller reellen Polynome. Fur n ∈ N0 definieren wir pn(x) = xn .Dann ist V =

⊕n∈N0〈pn〉 : Sei p(x) =

∑ki=0 αix

i ein Polynom von Grad k. Dann giltp =

∑ki=0 αipi , also ist V zumindest die Summe der Unterraume 〈pn〉 . Die Vektoren in 〈pn〉

haben die Form λxn , λ ∈ R . Ein Vektor v aus∑

i∈N0\{n}〈pi〉 ist eine endliche Summe derForm λi1x

i1 + . . . + λikxik , wobei alle ij 6= n sind. Somit hat v fur den Summanden xn

den Vorfaktor 0, und es folgt 〈pn〉 ∩ (∑

i∈N0\{n}〈pi〉) = {o} .V ist also eine direkte Summe von unendlich vielen nichttrivialen Summanden.

Page 18: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.2 Vektorraume und Unterraume 15

Ist {Ui | i ∈ I} eine Familie von Unterraumen eines Vektorraums V , so enthalt der Sum-menraum

∑i∈I Ui per definitionem genau diejenigen Vektoren v ∈ V , zu denen es eine

endliche Teilmenge J ⊆ I und Vektoren uj ∈ Uj gibt mit v =∑

j∈J uj . Naturlich konnenwir diese Summe mit Nullvektoren aus den anderen Summanden auffullen. Die Aussage” v =

∑i∈I ui ist eine endliche Summe” soll bedeuten, daß nur endlich viele der Summanden

ui ungleich o sind.Eine solche Darstellung v =

∑i∈I ui ist aber im allgemeinen nicht eindeutig:

(1.2.9) Beispiel Es sei V = R3 , U = {(λ, µ, 0)T | λ, µ ∈ R} , W = {(0, λ, µ)T | λ, µ ∈ R} . Im

Modell des Abschnitts 1.1 stellt also U die (x, y)-Ebene und W die (y, z)-Ebene dar. Den Vektorv = (1, 0, 0)T konnen wir zum Beispiel auf folgende Arten als Summe eines Vektors aus U undeines Vektors aus W darstellen:

v =

110

+

0−1

0

=

100

+

000

.

Die Unterraume U und W haben den nichttrivialen Durchschnitt {(0, λ, 0)T |λ ∈ R} (die y-Achse).Der Vektorraum V ist die Summe der Unterraume U und W , aber die Summe ist nicht direkt.

(1.2.10) Satz direkte Summe von UnterraumenEs sei {Ui | i ∈ I} eine Familie von Unterraumen eines Vektorraums V , und U =

∑i∈I Ui

ihr Summenraum. Genau dann ist U die direkte Summe der Ui, wenn jedes u ∈ U in genaueiner Weise als endliche Summe u =

∑i∈I ui , ui ∈ Ui , darstellbar ist.

Beweis: Nach der Vorbemerkung zu (1.2.9) haben wir nur zu zeigen, daß die Darstellungu =

∑i∈I ui (1) genau dann eindeutig ist, wenn die Summe der Unterraume direkt ist.

Wir nehmen zuerst an, die Summe sei direkt, aber ein u ∈ U habe zwei verschiedeneDarstellungen u =

∑i∈I ui =

∑i∈I wi . Dann gibt es einen Index j ∈ I mit uj 6= wj . Es

gilt

uj − wj = −∑

i∈I\{j}

(wi − ui) (2)

und in der Summe auf der rechten Seite von (2) sind nur endlich viele Summanden wi−ui 6=o , weil nur endlich viele der ui und endlich viele der wi ungleich dem Nullvektor sind. Daherist uj −wj ein Vektor 6= o , der zugleich in Uj und in

∑i∈I\{j} Ui liegt, ein Widerspruch zu

Direktheit der Summe.Nehmen wir umgekehrt an, jedes u ∈ U habe genau eine Darstellung der Form (1), und essei u ∈ Uj ∩ (

∑i∈I\{j} Ui) . Dann gilt

u = uj ∈ Uj (3) und u =∑

i∈I\{j}

ui (4)

mit geeigneten Vektoren ui ∈ Ui . Die Indizes in der Darstellung (4) sind alle verschieden vondem einzigen in der Darstellung (3) auftauchenden Index j . Also muß nach Voraussetzungu = uj = o gelten, und es folgt Uj ∩ (

∑i∈I\{j} Ui) = {o} fur alle j ∈ I . �

Page 19: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

16 1 VEKTORRAUME

Diese Charakterisierung der Direktheit einer Summe von Unterraumen liefert sofort die Asso-ziativitat der Bildung der direkten Summe. Anders ausgedruckt: Man kann bei der Bildungvon direkten Summen mit mehr als zwei Summanden auf Klammern verzichten:

(1.2.11) Korollar Assoziativitat der direkten SummeEs seien U1, . . . , Un , n ≥ 2 , Unterraume des Vektorraums V . Dann gilt U1 ⊕ . . . ⊕ Un =(U1 ⊕ . . .⊕ Un−1)⊕ Un .

Definition: Komplement, KomplementarraumEs sei U ein Unterraum des Vektorraums V . Ein Unterraum W von V heißt Komplementoder Komplementarraum von U in V , wenn gilt: U +W = V und U ∩W = {0} .

(1.2.12) Beispiele Komplemente

1. Stets ist V ein Komplement zu {o} in V .

2. Es sei V = R2 und U = 〈(1, 0)T 〉 . Dann sind sowohl W = 〈(0, 1)T 〉 als auch Z = 〈(1, 1)T 〉

Komplemente von U in V . Komplemente sind also nicht eindeutig bestimmt.

3. Es sei V der Vektorraum aller Funktionen f : R → R . Weiter sei U der Unterraum allergeraden Funktionen f ∈ V und W der Unterraum aller ungeraden Funktionen f ∈ V .Dabei heißt f gerade, wenn f(−x) = f(x) fur alle x ∈ R gilt, und ungerade, wennf(−x) = −f(x) fur alle x ∈ R gilt.Dann ist V = U ⊕W , also W ein Komplement zu U in V :Fur eine Funktion f ∈ V definieren wir

g(x) =12(f(x) + f(−x)

)und h(x) =

12(f(x)− f(−x)

).

Man rechnet leicht nach, daß g ∈ U , h ∈W und f = g + h gilt. Dies zeigt V = U +W .Eine Funktion f ∈ U ∩W ist zugleich gerade und ungerade. Sie erfullt also fur alle x ∈ Rdie Gleichung f(x) = −f(x) , also 2f(x) = 0 . Das heißt f(x) = 0 fur alle x ∈ R , alsoU ∩W = {o} .

1.3 Linearkombinationen, Erzeugendensysteme und Lineare Un-abhangigkeit

Definition: Linearkombination, leere SummeEs sei V ein Vektorraum uber dem Korper K.

(a) Es seien v1, . . . , vn endlich viele Vektoren aus V . Ein Vektor v ∈ V heißt Linearkom-bination der Vektoren v1, . . . , vn (des Vektorsystems {v1, . . . , vn}), wenn es Skalareλ1, . . . , λn ∈ K gibt mit

v = λ1v1 + . . .+ λnvn.

(b) Es sei {vi | i ∈ I} eine beliebige nichtleere Teilmenge von V . Ein Vektor v ∈ Vheißt endliche Linearkombination des Vektorsystems {vi | i ∈ I} , falls es eine endlicheTeilmenge {vi1 , . . . , vin} von {vi | i ∈ I} und Skalare λi1 , . . . , λin ∈ K gibt mit

v = λi1vi1 + . . .+ λinvin .

Page 20: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.3 Linearkombinationen, Erzeugendensysteme und Lineare Unabhangigkeit 17

(c) Die einzige Linearkombination des leeren Vektorsystems ist der Nullvektor o. Allge-mein definieren wir die

”leere Summe“ zu o. Dies ist sinnvoll weil der Vektor v ∈ V

sich nicht andert, wenn man nichts zu ihm addiert. Es ergibt sich also die gleicheWirkung wie die Addition von o zu v. (Dies ist ubrigens das Analogon zur Definitionvon x0 = 1 fur alle reellen Zahlen x ∈ R . Man kann x0 auch auffassen als leeresProdukt.)

(1.3.1) Beispiele Linearkombinationen

1. Die Linearkombinationen eines einelementigen Vektorsystems {v} sind die skalaren Vielfa-chen von v, also die Elemente von 〈v〉 .

2. Die Linearkombinationen eines zweielementigen Vektorsystems {v, w} sind die Vektoren derForm λv + µw mit λ, µ ∈ R .Beispielsweise sind die Vektoren der (x, y)-Ebene in R3 gerade die Linearkombinationen desVektorsystems {e1, e2} .

3. Es sei K irgendein Korper und V = Kn der Vektorraum der n-Tupel uber K (vgl. (1.2.6.3)).Dann sind alle Vektoren in V Linearkombinationen des Vektorsystems {e1, . . . , en} .

4. Es sei V der Vektorraum der stetigen Funktionen f : R→ R . Dann sind die Polynome in Vgenau die endlichen Linearkombinationen des Vektorsystems {xn | n ∈ N0} .Die Exponentialfunktion expx =

∑∞n=0

1n!x

n dagegen ist keine endliche Linearkombinationvon {xn | n ∈ N0} . Ware sie namlich eine endliche Linearkombination, so ware sie einPolynom. Das einzige Polynom, das mit seiner Ableitung identisch ist, ist die Funktionkonstant 0. Diese ist aber offensichtlich verschieden von der Exponentialfunktion.

5. Es sei V der Vektorraum der stetigen Funktionen f : R → R . Die konstante Funktion 1ist eine Linearkombination des Vektorsystems {sin2 x, cos2 x} , aber nicht des Vektorsystems{sinx, cosx} (vgl. (1.2.6.5)).

(1.3.2) Satz und Definition Erzeugnis, ErzeugendensystemEs sei V ein Vektorraum und S eine Teilmenge von V .

(a) Es gibt einen kleinsten, S als Teilmenge enthaltenden Unterraum von V . Dieser wirdmit 〈S〉 (Erzeugnis von S) bezeichnet. Die Menge S heißt Erzeugendensystem von〈S〉 .

(b) 〈S〉 ist die Menge der endlichen Linearkombinationen des Vektorsystems S.(c) 〈∅〉 = {o} .

Beweis:

(a) Die Menge M aller Unterraume von V , die S als Teilmenge enthalten, ist nicht leer,denn V ∈ M. Wir konnen also den Durchschnitt 〈S〉 =

⋂U∈M U bilden. Dieser ist

wieder ein Unterraum von V und enthalt S als Teilmenge. Zusatzlich ist er minimal infolgendem Sinn: Jeder Unterraum U von V , der S als Teilmenge enthalt, ist eine Ober-menge von 〈S〉. Dies folgt unmittelbar aus der Konstruktion von 〈S〉 als Durchschnittaller dieser Unterraume.

Page 21: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

18 1 VEKTORRAUME

(b) Wir bezeichnen mit L die Menge aller endlichen Linearkombinationen des Vektorsy-stems S und zeigen zuerst, daß L ein Unterraum von V ist:Seien u,w ∈ L . Dann gibt es eine endliche Teilmenge {v1, . . . , vn} von S und Skalareλ1, . . . , λn, µ1, . . . , µn ∈ K mit

u = λ1v1 + . . .+ λnvn und w = µ1v1 + . . . µnvn .

Es folgt u+w = (λ1+µ1)v1+. . .+(λn+µn)v1 ∈ L und λu = (λλ1)v1+. . .+(λλn)vn ∈L fur jedes λ ∈ K. Damit erfullt L die Abschlußeigenschaften (UR1) und (UR2) undist wegen o ∈ L nicht leer. Also ist L ein Unterraum von V , der S als Teilmengeenthalt. Nach (a) folgt 〈S〉 ⊆ L .Umgekehrt ist 〈S〉 ein Unterraum von V , der S als Teilmenge enthalt. Sei {v1, . . . , vn}eine beliebige endliche Teilmenge von S, und seien λ1, . . . , λn ∈ K Skalare. Dannenthalt 〈S〉 wegen (UR1) und (UR2) auch die Linearkombination λ1v1 + . . . + λnvn .Dies zeigt L = 〈S〉 .

(c) ist klar nach (a) und (b). �

(1.3.3) Beispiele Erzeugnisse von Vektorsystemen

1. Fur eine einelementige Vektormenge {v} stimmt das in (1.3.2) definierte Erzeugnis 〈v〉uberein mit dem in (1.2.3.2) definierten Erzeugnis 〈v〉 .

2. Die (x, y)-Ebene in R3 ist der Unterraum 〈e1, e2〉 .

3. Genau dann gilt S = 〈S〉 , wenn S ein Unterraum von V ist.

4. Es sei K irgendein Korper und V = K2 . Dann gilt V = 〈(1, 1)T , (1, 0)T 〉 .Dazu mussen wir zeigen, daß es zu allen λ, µ ∈ K Skalare ν, ξ ∈ K gibt mit(

λµ

)=(ν + ξν

)= ν

(11

)+ ξ

(10

).

Diese Gleichung ist erfullt fur ν = µ , ξ = λ− µ .

5. Es sei V der Vektorraum aller reellen Zahlenfolgen. Ist v = (1)N die konstante Folge, derenGlieder alle 1 sind, so ist 〈v〉 der Unterraum aller konstanten Folgen in V .

6. Es sei V der Vektorraum aller Funktionen f : R → R . Es sei f(x) = 1 und g(x) = x furalle x ∈ R . Dann ist 〈f, g〉 = {λ + µx | λ, µ ∈ R} die Menge aller linearen Funktionen(Polynome vom Grad hochstens 1) in V .

7. Es sei K = GF (2) der Korper mit zwei Elementen (siehe Abschnitt 15.2) und V = K4

der Vektorraum der 4-Tupel mit Eintragen aus K. Der Korper K enthalt nur die beidenElemente 0 und 1. Es seien

u = (1, 0, 1, 0)T , v = (1, 1, 0, 0)T , w = (0, 0, 0, 1)T .

Die moglichen Vorfaktoren in einer Linearkombiation dieser drei Vektoren sind 0 oder 1. Alsoerhalten wir die folgenden 23 = 8 Linearkombiationen von {u, v, w} :

(0, 0, 0, 0)T = 0 · u+ 0 · v + 0 · w, (1, 0, 1, 0)T = 1 · u+ 0 · v + 0 · w ,(1, 1, 0, 0)T = 0 · u+ 1 · v + 0 · w, (0, 0, 0, 1)T = 0 · u+ 0 · v + 1 · w ,(0, 1, 1, 0)T = 1 · u+ 1 · v + 0 · w, (1, 1, 0, 1)T = 0 · u+ 1 · v + 1 · w ,(1, 0, 1, 1)T = 1 · u+ 0 · v + 1 · w, (0, 1, 1, 1)T = 1 · u+ 1 · v + 1 · w .

Page 22: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.3 Linearkombinationen, Erzeugendensysteme und Lineare Unabhangigkeit 19

Definition: endlich erzeugter UnterraumEs sei V ein Vektorraum uber dem Korper K und U ein Unterraum von V .U heißt endlich erzeugt, wenn es eine endliche Teilmenge S von U gibt mit U = 〈S〉 , dasheißt: wenn U ein endliches Erzeugendensystem besitzt.

(1.3.4) Beispiele

1. Der Nullraum {o} ist wegen {o} = 〈{o}〉 = 〈∅〉 immer endlich erzeugt.

2. Jede Ursprungsgerade g in R3 ist endlich erzeugt, denn es gibt einen Vektor a ∈ R3 mitg = 〈a〉 . (vgl. Abschnitt 1.1)

3. Es sei V = R4 und U = {(λ, µ, λ+ µ, 2µ)T | λ, µ ∈ R} .

Dann ist U ein Unterraum von V (man prufe die Unterraumaxiome nach), und zwar einendlich erzeugter, denn es gilt

λµ

λ+ µ2µ

= λ

1010

+ µ

0112

, also U = 〈

1010

,

0112

〉 .4. Es sei V = C(R) und R[x] der Unterraum der Polynome in V , sowie R[x]n der Unterraum

der Polynome vom Grad ≤ n in V .R[x]n wird endlich erzeugt von den Polynomen 1, x, . . . , xn . Der Unterraum R[x] dagegen istnicht endlich erzeugt: Es seien p1, . . . , pn Polynome und m = max{grad(pi) | 1 ≤ i ≤ n} .Nach der Gradregel kann jede Linearkombination p = λ1p1 + . . . + λnpn keinen hoherenGrad als m haben. Daher ist etwa das Polynom p(x) = xm+1 nicht im Erzeugnis 〈p1, . . . , pn〉enthalten.

Das Beispiel (1.3.4.4) wirft die Frage auf, ob der Vektorraum V = C(R) aller stetigenFunktionen f : R → R endlich erzeugt ist. Dies direkt nachzuweisen, ist schwerer als imFall des Raumes R[x] der Polynome in V . Nun liegt die Idee nahe, daß ein Vektorraum nichtendlich erzeugt sein kann, wenn er einen nicht endlich-erzeugten Unterraum besitzt. Dieswerden wir in (1.4.11) auch tatsachlich zeigen.Auf einen moglichen Fehlschluß soll in diesem Zusammenhang hingewiesen werden: Es seiV ein Vektorraum mit Unterraumen U ⊆ W . Ist {w1, . . . , wn} ein Erzeugendensystemvon W , so muß {w1, . . . , wn} ∩U nicht unbedingt ein Erzeugendensystem von U sein. ZumBeispiel gilt R2 = 〈e1, e2〉 . Der Durchschnitt dieses Erzeugendensystems mit dem UnterraumU = 〈e1 + e2〉 ist leer, also kann {e1, e2} ∩ U kein Erzeugendensystem von U sein.

Definition: linear unabhangig, linear abhangigEs sei V ein Vektorraum uber dem Korper K, und S eine Teilmenge von V .S heißt linear unabhangig, wenn der Nullvektor o nur in trivialer Weise als endliche Linear-kombination von n ≥ 1 verschiedenen Elementen aus S dargestellt werden kann, das heißt:Sind v1, . . . , vn ∈ S paarweise verschieden und λ1, . . . , λn ∈ K mit o = λ1v1 + . . .+ λnvn ,so folgt λ1 = . . . = λn = 0 .Andernfalls heißt S linear abhangig.

Page 23: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

20 1 VEKTORRAUME

(1.3.5) Beispiele Lineare Abhangigkeit und Unabhangigkeit

1. Die leere Menge ∅ ist linear unabhangig. Der Nullvektor kann namlich nur als leere Summe,aber nicht als Linearkombination von n ≥ 1 Elementen aus ∅ dargestellt werden, da essolche Elemente nicht gibt. Die Voraussetzung in der Bedingung der Definition der linearenUnabhangigkeit ist also nie erfullt, damit ist diese Bedingung immer erfullt (eine Aussagemit einer falschen Voraussetzung ist wahr).

2. Eine einelementige Teilmenge {v} von V ist genau dann linear abhangig, wenn v = o gilt,denn nach (1.2.2.b) gilt λv = o nur fur λ = 0 oder v = o .

3. Es sei V = Kn . Die Menge S = {e1, . . . , en} ist linear unabhangig, denn aus

(0, . . . , 0)T = λ1(1, 0, . . . , 0)T + . . . + λn(0, . . . , 0, 1)T = (λ1, . . . , λn)T

folgt λ1 = . . . = λn = 0 .

4. Es sei V = R3 und S = {(1, 1, 1)T , (1, 2, 3)T , (1, 4, 9)T } .

Diese Menge ist linear unabhangig, denn die Bedingung 000

= λ1

111

+ λ2

123

+ λ3

149

=

λ1 + λ2 + λ3

λ1 + 2λ2 + 4λ3

λ1 + 3λ2 + 9λ3

liefert die drei Gleichungen

λ1 + λ2 + λ3 = 0 (1) , λ1 + 2λ2 + 4λ3 = 0 (2) , λ1 + 3λ2 + 9λ3 = 0 (3) .

Subtrahiert man (1) von (2) und von (3), so erhalt man

λ2 + 3λ3 = 0 (2′) , 2λ2 + 8λ3 = 0 (3′) .

Subtrahiert man nun 2 · (2′) von (3′), so folgt 2λ3 = 0 , also λ3 = 0 . Damit folgt aus (2′)dann λ2 = 0 und aus (1) schließlich λ1 = 0 .Dagegen ist die Menge T = {(1, 1, 1)T , (1, 2, 3)T , (1, 3, 5)T } wegen

(1, 1, 1)T − 2(1, 2, 3)T + (1, 3, 5)T = (0, 0, 0)T

linear abhangig.

5. Es sei V = R[x] der Vektorraum aller reellen Polynome, undf(x) = 1 , g(x) = x2 − x , h(x) = x5 .Die Menge S = {f, g, h} ist linear unabhangig:Angenommen, λ, µ, ν seien reelle Zahlen mit λf + µg + νh = 0 . Hier bedeutet die ”0“ aufder rechten Seite die konstante Funktion 0, das ist der Nullvektor in V . Die Funktion aufder linken Seite muß also fur alle x ∈ R den Wert 0 annehmen. Das Einsetzen der Wertex = 0 , x = 1 , x = −1 erzeugt die drei Gleichungen

λ · 1 + µ · 0 + ν · 0 = 0 ⇒ λ = 0λ · 1 + µ · 0 + ν · 1 = 0 ⇒ ν = 0

λ · 1 + µ · 2 + ν · (−1) = 0 ⇒ µ = 0 .

Sind die Vektoren, deren lineare Unabhangigkeit man prufen will, reelle oder komplexe dif-ferenzierbare Funktionen, so kann man einen Trick anwenden, der in folgendem Beispielerlautert wird. Dieses Beispiel zeigt gleichzeitig, wie man die lineare Unabhangigkeit einerunendlichen Menge von Vektoren nachweist.

Page 24: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.3 Linearkombinationen, Erzeugendensysteme und Lineare Unabhangigkeit 21

(1.3.6) Beispiel lineare Unabhangigkeit von reellwertigen FunktionenEs seien α1, . . . , αn paarweise verschiedene reelle Zahlen und fi = eαix fur 1 ≤ i ≤ n . Dannist die Teilmenge S = {f1, . . . , fn} von C(R) linear unabhangig. Somit ist auch die Menge allerExponentialfunktionen {eαx | α ∈ R} eine linear unabhangige Teilmenge von C(R).Beweis durch Induktion nach n:Fur n = 1 ist die Aussage richtig, weil f1 = eα1x nicht die Nullfunktion ist.Induktionsschritt n− 1→ n : Wir nehmen an, es seien λ1, . . . , λn ∈ R mit

0 =n∑i=1

λifi . (1) (0 ist hier die Nullfunktion!)

Differenzieren wir beide Seiten von (1) nach x, so erhalten wir

0 =( n∑i=1

λifi)′ =

n∑i=1

λif′i =

n∑i=1

λiαifi . (2)

Multiplikation beider Seiten von (1) mit αn liefert

0 =n∑i=1

λiαnfi . (3)

Nun subtrahieren wir die Gleichung (2) von (3) und erhalten

0 =n∑i=1

λiαnfi −n∑i=1

λiαifi =n∑i=1

λi(αn − αi)fi =n−1∑i=1

λi(αn − αi)fi ,

also eine Darstellung der Nullfunktion als Linearkombination der n − 1 Vektoren f1, . . . , fn−1 .Nach Induktionsvoraussetzung folgt

λ1(αn − α1) = λ2(αn − α2) = . . . = λn−1(αn − αn−1) = 0 . (4)

Da die αi paarweise verschieden sind, gilt αn − αi 6= 0 fur alle i ≤ n − 1 , also nach (4) dannλi = 0 fur alle i ≤ n− 1 . Jetzt reduziert sich (1) auf 0 = λne

αnx , und es folgt λn = 0 .

(1.3.7) Lemma Es sei V ein Vektorraum.(a) Eine Teilmenge S von V ist genau dann linear abhangig, wenn es mindestens einen

Vektor v ∈ S gibt, der als endliche Linearkombination von verschiedenen Elementenaus S \ {v} dargestellt werden kann.

(b) Eine Obermenge einer linear abhangigen Teilmenge von V ist linear abhangig.(c) Eine Teilmenge einer linear unabhangigen Teimenge von V ist linear unabhangig.

Beweis: (a) Wir betrachten zuerst die Falle, daß S gar keine oder nur ein Element besitzt:Der Fall S = ∅ ist klar. Sei nun S = {v} einelementig. Ist v 6= o , so kann v nicht alsLinearkombination von Elementen aus S \ {v} = ∅ dargestellt werden. Nach (1.3.5.1) ist{v} linear unabhangig. Ist dagegen v = o , so kann v als leere Summe, also als Linearkom-bination von Elementen aus S \ {v} = ∅ dargestellt werden. Nach (1.3.5.1) ist {v} linearabhangig.Nun habe S mindestens zwei Elemente. Wir nehmen an, es gebe einen Vektor v ∈ S und

Page 25: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

22 1 VEKTORRAUME

verschiedene Vektoren v1, . . . vn ∈ S \ {v} sowie λ1, . . . , λn ∈ K mit v = λ1v1 + . . .+λnvn .Dann ist o = (−1) · v+ λ1v1 + . . .+ λnvn eine nichttriviale Darstellung des Nullvektors alsLinearkombination von verschiedenen Vektoren aus S, also die Menge S linear abhangig.Sei nun S linear abhangig. Dann gibt es eine nichttriviale Darstellung des Nullvektorso = λ1v1 + . . . + λnvn mit n ≥ 1 verschiedenen Vektoren vi ∈ S und Skalaren λi ∈ K ,von denen mindestens einer ungleich 0 ist, etwa λn 6= 0 . Es folgt λnvn = −

∑n−1i=1 λivi

und damit vn = −∑n−1

i=1 λ−1n λivi , also die Darstellung von vn als Linearkombination von

Elementen aus S \ {v} .(b) und (c) sind klar nach (a). �

(1.3.8 ) Lemma Es sei V ein Vektorraum uber dem Korper K und S = {vi | i ∈ I}eine linear unabhangige Teilmenge von V . Weiter sei v ∈ V mit v /∈ 〈S〉 . Dann ist auchS ∪ {v} linear unabhangig.

Beweis: Wegen v /∈ 〈S〉 kann v nicht als endliche Linearkombination von Vektoren aus Sdargestellt werden. Nun nehmen wir an, es seien vi1 , . . . , vin endlich viele Vektoren aus S,und es seien λ1, . . . , λn ∈ K mit

o = λ0v + λ1vi1 + . . .+ λnvin . (1)

Ware λ0 6= 0 , so konnte man die Gleichung (1) nach v auflosen und erhielte einen Wi-derspruch zur Annahme v /∈ 〈S〉 . Daher gilt λ0 = 0 . Dann folgt aus der linearen Un-abhangigkeit von S, daß auch alle anderen Koeffizienten λi gleich 0 sein mussen. Daher istS ∪ {v} linear unabhangig. �

(1.3.9) Lemma Es sei V ein Vektorraum uber K, und T = {a1, . . . , am, b1, . . . , bn} einelinear unabhangige Teilmenge von V . Weiter seien die βij Elemente von K. Dann ist auch

T ′ = {a1 +n∑j=1

β1jbj , a2 +n∑j=1

β2jbj , . . . , am +n∑j=1

βmjbj}

eine linear unabhangige Teilmenge von V .

Beweis: Wir betrachten eine Linearkombination

o =m∑i=1

λi(ai +n∑j=1

βijbj) (1)

mit Skalaren λ1, . . . , λm ∈ K . Ausmultiplizieren auf der rechten Seite von (1) liefert

o =m∑i=1

λiai +m∑i=1

λi(n∑j=1

βijbj)

=m∑i=1

λiai +n∑j=1

(m∑i=1

λiβij)bj . (2)

Nun haben wir o als Linearkombination der Vektoren ai und bj dargestellt, und die lineareUnabhangigkeit von T erzwingt, daß alle Koeffizienten gleich 0 sind. Insbesondere giltλ1 = . . . = λm = 0 . Also ist auch T ′ linear unabhangig. �

Page 26: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.4 Basis und Dimension in endlich erzeugten Vektorraumen 23

(1.3.10) Beispiele lineare Unabhangigkeit

1. Es sei V = R3 und T = {(1, 1, 0)T , (1, 2, 0)T , (−1, 47, 5)T } .

Die beiden ersten Vektoren sind linear unabhangig, weil keiner der beiden ein skalares Vielfa-ches des anderen ist. Alle Vektoren aus dem Erzeugnis der beiden ersten Vektoren haben alsdritte Koordinate eine 0. Also kann der dritte Vektor nicht im Erzeugnis der beiden erstenliegen, und T ist eine linear unabhangige Teilmenge von V .

2. Genauso kann man auch zeigen, daß die Teilmenge S aus Beispiel (1.3.5.5) linear unabhangigist: Die beiden Funktionen f und g sind linear unabhangig, weil keine ein skalares Vielfachesder anderen ist. Ihr Erzeugnis enthalt nur Polynome vom Grad hochstens 2. Also kann dasPolynom h vom Grad 5 nicht in 〈f, g〉 liegen, und S = {f, g, h} ist linear unabhangig.

3. Es sei K irgendein Korper und V = K5 . Die Menge {e1, e2, e3, e4, e5} der Standardeinheits-vektoren ist linear unabhangig. Also ist nach (1.3.9) auch die Menge

{(1, 0, 0, 3,−1)T , (0, 1, 0,−2, 4)T , (0, 0, 1,−7, 5)T }

linear unabhangig.

1.4 Basis und Dimension in endlich erzeugten Vektorraumen

Im vorigen Abschnitt haben wir Erzeugendensysteme von Vektorraumen betrachtet. ZurKenntnis eines Vektorraums genugt bereits die Kenntnis eines Erzeugendensystems. Alleanderen Vektoren konnen wir durch Bildung von endlichen Linearkombinationen von Ele-menten des Erzeugendensystems gewinnen.Nun interessieren wir uns fur Erzeugendensysteme mit moglichst wenigen Elementen. Bei-spielsweise ist die Menge S = {(1, 0)T , (0, 1)T , (1, 1)T} ein Erzeugendensystem des Vektor-raums R2. Offensichtlich ist aber die echte Teilmenge S ′ = {(1, 0)T , (0, 1)T} von S auchschon ein Erzeugendensystem von R2.Die Menge S ′ dagegen konnen wir nicht mehr echt verkleinern, ohne die Erzeugendeneigen-schaft aufzugeben:Es gilt 〈∅〉 = {o}, 〈(1, 0)T 〉 = {(λ, 0)T | λ ∈ R}, 〈(0, 1)T 〉 = {(0, λ)T | λ ∈ R} , und diesedrei Raume sind echte Teilraume von R2. Die Menge S ′ ist also minimal mit der Eigenschaft,ein Erzeugendensystem zu sein.

Definition: minimales Erzeugendensystem, (ungeordnete) BasisEs sei V ein Vektorraum.

(a) Ein Erzeugendensystem S von V heißt minimales Erzeugendensystem, wenn keine echteTeilmenge von S den Raum V erzeugt.

(b) Ein minimales Erzeugendensystem von V heißt (ungeordnete) Basis von V .(c) Die beiden Begriffe

”minimales Erzeugendensystem“ und

”Basis“ werden analog fur

einen Unterraum von V defininert.

Zuweilen (zum Beispiel bei der Beschreibung von linearen Abbildungen durch Matrizen,Kapitel 2) ist es wichtig, daß die Basiselemente angeordnet sind. Dort werden wir danneine geordnete Basis definieren. Ist etwa B = {x1, . . . , xn} eine ungeordnete Basis mitn Elementen, so werden wir eine geordnete Basis als n-Tupel (x1, . . . , xn) schreiben, um

Page 27: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

24 1 VEKTORRAUME

anzudeuten, in welcher Reihenfolge die Basiselemente angeordnet sind. Im Moment brauchenwir aber keine Anordnung und verzichten deshalb vorerst darauf, um den Blick fur dasWesentliche nicht zu verstellen.

Wir werden zeigen, daß jeder Vektorraum V eine Basis besitzt. Dies ist einer der zentralenSatze der Linearen Algebra. Da der Beweis fur einen Vektorraum, der kein endliches Erzeu-gendensystem besitzt, deutlich schwieriger ist, wollen wir uns zunachst auf endlich erzeugteVektorraume beschranken und den anderen Fall getrennt behandeln (s. Abschnitt (1.7)).

(1.4.1) Lemma Existenz einer endlichen Basis(a) Ein Vektorraum besitzt genau dann eine endliche Basis, wenn er endlich erzeugt ist.(b) Jedes endliche Erzeugendensystem eines Vektorraums V enthalt eine Basis von V als

Teilmenge.

Beweis: Eine Richtung von (a) ist trivial, da jede Basis nach Definition ein Erzeugendensy-stem ist. Nun sei S ein Erzeugendensystem des Vektorraums V , und S habe genau n (n ∈ N0)Elemente. Wir prufen jede echte Teilmenge von S daraufhin, ob sie ein Erzeugendensystemvon V ist. Finden wir unter den echten Teilmengen von S kein Erzeugendensystem vonV , so ist S ein minimales Erzeugendensystem von V , also eine Basis von V . Andernfallsfinden wir eine Teilmenge S ′ von S mit hochstens n − 1 Elementen, die V erzeugt. MitS ′ wiederholen wir die Prozedur. Dieser Algorithmus fuhrt nach spatestens n Schritten zueinem minimalen Erzeugendensystem, also einer Basis von V . Damit ist (a) und zugleich(b) gezeigt. �

(1.4.2) Beispiele Basen von Vektorraumen

1. Nach der Vorbemerkung zu Beginn dieses Abschnitts ist {(1, 0)T , (0, 1)T } eine Basis von R2.Ebenso ist {(1, 0)T , (1, 1)T } oder {(2, 7)T , (−1, 97)T } eine Basis von R2. Ein Vektorraumhat im allgemeinen sehr viele verschiedene Basen.

2. Es sei V = Kn . Dann ist B = {e1, . . . , en} eine Basis von V . Wir wissen schon, daß dieMenge B den Raum V erzeugt. Laßt man den Vektor ei aus B weg, so haben alle Vektorenim Erzeugnis der ubrigen Elemente von B an der i-ten Stelle eine 0 stehen. Also ist B \ {ei}kein Erzeugendensystem von V .

3. {1, x, . . . , xn} ist eine Basis des Polynomraums Rn[x] der reellen Polynome vom Grad ≤ n .{xn | n ∈ N0} ist eine Basis des Polynomraums R[x] aller reellen Polynome. Dieser Vektor-raum hat nach (1.3.4.4) kein endliches Erzeugendensystem, also auch keine endliche Basis.

4. Es sei V ein beliebiger Vektorraum und {o} sein Nullraum. {o} hat nur eine einzige Basis,namlich die leere Menge.

5. Es sei K = GF (2) der Korper mit zwei Elementen, und V = K2 . Dann hat V die vierElemente (0, 0)T , (1, 0)T , (0, 1)T , (1, 1)T und die Basen

B1 = { (1, 0)T , (0, 1)T }, B2 = { (1, 0)T , (1, 1)T } und B3 = { (0, 1)T , (1, 1)T } .

Wir haben eine Basis als minimales Erzeugendensystem definiert. Andererseits hat eine BasisB auch eine Maximaleigenschaft: sie ist eine maximale linear unabhangige Teilmenge von

Page 28: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.4 Basis und Dimension in endlich erzeugten Vektorraumen 25

V , das heißt: jede echte Obermenge von B ist linear abhangig. Es kann durchaus mehrere(bezuglich Inklusion unvergleichbare) maximale linear unabhangige Teilmengen geben, wieman zum Beispiel in (1.4.2.1) sieht.

(1.4.3) Satz Charakterisierung der BasenEs sei V ein beliebiger Vektorraum und B eine Teilmenge von V . Dann sind aquivalent:

(i) B ist eine Basis von V .(ii) B ist eine maximal linear unabhangige Teilmenge von V .

(iii) B ist ein linear unabhangiges Erzeugendensystem von V .(iv) Jeder Vektor v ∈ V kann auf genau eine Weise als endliche Linearkombination von

verschiedenen Elementen aus B dargestellt werden.

Beweis:

(i)⇒ (ii) : Wir nehmen an, B sei eine Basis, aber linear abhangig. Dann gibt es nach(1.3.7.a) einen Vektor v0 ∈ B , der im Erzeugnis von B′ = B \ {v0} liegt. Es gibt alsoVektoren v1, . . . , vn ∈ B′ und Skalare µ1, . . . , µn ∈ K mit v0 =

∑ni=1 µivi (1) .

Nun sei v irgendein Vektor aus V . Wegen V = 〈B〉 gibt es eine naturliche Zahl m ≥ nund Vektoren vn+1, . . . , vm ∈ B′ sowie Skalare λ0, . . . , λm ∈ K mit

v = λ0v0 +n∑i=1

λivi +m∑

i=n+1

λivi (2) .

(Falls v schon im Erzeugnis von {v0, v1, . . . , vn} liegt, so ist die Summe∑m

i=n+1 λivi eineleere Summe.) Setzen wir (1) in (2) ein, so folgt

v =n∑i=1

(λ0µi + λi)vi +m∑

i=n+1

λivi ∈ 〈B′〉 .

Damit ist aber schon die echte Teilmenge B′ von B ein Erzeugendensystem von V , einWiderspruch zur Voraussetzung. Daher ist B linear unabhangig.Nun nehmen wir eine Teilmenge M von V mit B ( M , also eine echte Obermenge vonB. Dann enthalt M einen Vektor v ∈ V \ B . Dieser laßt sich wegen V = 〈B〉 darstellenals endliche Linearkombination v =

∑ni=1 λivi von verschiedenen Elementen vi ∈ B .

Nach (1.3.7.a) ist daher M linear abhangig. Also ist B eine maximal linear unabhangigeTeilmenge von V .

(ii)⇒ (iii) : Nun setzen wir voraus, B sei eine maximal linear unabhangige Teilmenge vonV . Ware B kein Erzeugendensystem von V , so gabe es einen Vektor v ∈ V \ 〈B〉 . Nach(1.3.8) ware dann B ∪ {v} linear unabhangig, ein Widerspruch zur Maximalitat von B.

(iii)⇒ (iv) : Ist B ein linear unabhangiges Erzeugendensystem von V , so kann jeder Vektorv ∈ V als endliche Linearkombination von verschiedenen Vektoren aus B dargestelltwerden.Konnte aber v auf zwei verschiedene Arten als endliche Linearkombination von Elementenaus B dargestellt werden, so gabe es verschiedene Vektoren v1, . . . , vn ∈ B und Skalareλ1, . . . , λn, µ1, . . . , µn ∈ K mit

v = λ1v1 + . . .+ λnvn = µ1v1 + . . .+ µnvn (3)

Page 29: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

26 1 VEKTORRAUME

und λi 6= µi fur mindestens einen Index i. Umformen von (3) lieferte

(λi − µi)vi =∑j 6=i

(µj − λj)vj , also vi =∑j 6=i

(λi − µi)−1(µj − λj)vj ,

und das bedeutete nach (1.3.7.a) die lineare Abhangigkeit von B , ein Widerspruch.(iv)⇒ (i) : Da jedes v ∈ V als endliche Linearkombination von Elementen aus B darge-

stellt werden kann, ist B ein Erzeugendensystem von V . Ware B nicht minimal, so gabees ein v ∈ B , so daß B′ = B \ {v} auch ein Erzeugendensystem von V ist. Dann kannman aber v darstellen als endliche Linearkombination von Elementen v1, . . . , vn ∈ B′ ,und folglich hat v die zwei verschiedenen Darstellungen v = 1 · v =

∑ni=1 λivi als

Linearkombination von Elementen aus B, ein Widerspruch. �

In (1.4.1.a) haben wir fur jeden endlich erzeugten Vektorraum eine endliche Basis gefunden.Da ein Vektorraum aber viele verschiedene Basen haben kann, stellt sich die Frage, ob zweiBasen von V jeweils dieselbe Anzahl an Elementen haben.

Definition: Machtigkeit einer Menge

(a) Fur eine endliche Menge M mit genau n Elementen setzen wir |M | = n . Die Zahl|M | ∈ N0 nennen wir Machtigkeit von M .

(b) Fur eine unendliche Menge M setzen wir |M | =∞ .

In der Mengenlehre klassifiziert man auch die unendlichen Mengen feiner durch verschiedeneMachtigkeiten (z.B. abzahlbar unendliche, uberabzahlbare Mengen), aber im Moment genugtuns die grobe Einteilung der obigen Definition.

(1.4.4) Satz Dimensionsinvarianz fur endlich erzeugte VektorraumeEs sei V ein Vektorraum mit Basen A und B. Ist A eine endliche Menge, so auch B, undes gilt |A| = |B| , das heißt A und B haben gleichviele Elemente.

Beweis: Nach Voraussetzung ist A und damit auch A ∩ B eine endliche Menge, also dieDifferenz |A| − |A ∩ B| ∈ N0 . Wir fuhren eine Induktion durch nach n = |A| − |A ∩ B| :Induktionsbeginn n = 0 :Aus |A| = |A ∩ B| folgt A = A ∩ B , also A ⊆ B . Als Basis von V ist A eine maximallinear unabhangige Teilmenge von V . Die Obermenge B von A ist als Basis ebenfalls linearunabhangig. Also folgt A = B , insbesondere |A| = |B| .Induktionsschritt n→ n+ 1:Es gelte |A|− |A∩B| = n+ 1 . Die endliche Menge A∩B enthalte die Elemente d1, . . . , dk .Dann enthalt A noch n + 1 weitere Elemente, die wir mit a1, . . . , an+1 bezeichnen wollen.Es gilt also A = {d1, . . . , dk, a1, . . . , an+1} . Die Basis B enthalt ebenfalls die Elemented1, . . . , dk und eventuell noch weitere Elemente bi, i ∈ I (moglicherweise ist I eine unendlicheIndexmenge).Wegen der linearen Unabhangigkeit von A gilt nach (1.3.7.a)

an+1 /∈ U := 〈d1, . . . , dk, a1, . . . , an〉

und insbesondere U 6= V . Andererseits gilt V = 〈B〉 , also gibt es mindestens ein Elementbi0 ∈ B , das nicht in U liegt. (Insbesondere kann die Indexmenge I nicht leer sein.) Wegen

Page 30: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.4 Basis und Dimension in endlich erzeugten Vektorraumen 27

V = 〈A〉 haben wir bi0 ∈ 〈d1, . . . , dk, a1, . . . , an, an+1〉 , also gibt es Skalare δi, αi ∈ K mit

bi0 =k∑i=1

δidi +n+1∑i=1

αiai . (1)

Ware αn+1 = 0 , so lage bi0 doch schon in U , ein Widerspruch. Also gilt αn+1 6= 0 , und wirkonnen (1) nach dem Vektor an+1 auflosen:

an+1 = α−1n+1bi0 −

k∑i=1

(α−1n+1δi)di −

n∑i=1

(α−1n+1αi)ai ∈ 〈d1, . . . , dk, a1, . . . , an, bi0〉 .

Damit ist auch C = {d1, . . . , dk, a1, . . . , an, bi0} ein Erzeugendensystem von V und nach(1.3.8) auch linear unabhangig, also eine Basis von V . Offensichtlich gilt |C| = |A| .Nun betrachten wir das Basenpaar C,B : Es ist |C| = k + n+ 1 und |C ∩ B| = k + 1 , also|C| − |C ∩ B| = n . Nach der Induktionsvoraussetzung gilt daher |B| = |C| = |A| . �

Die Lange einer Basis von V hangt also nach (1.4.4) nicht von der gerade gewahlten Basisab, sondern ist eine Invariante des Vektorraums. Daher ist folgende Definition sinnvoll:

Definition: Dimension

(a) Ist V ein endlich erzeugter Vektorraum, so nennen wir die Machtigkeit einer Basis vonV die Dimension von V und bezeichnen sie mit dim(V ) .

(b) Ist V kein endlich erzeugter Vektorraum, so setzen wir dim(V ) =∞ .

Wie sich spater als Spezialfall von (2.1.12) herausstellen wird, genugen fur einen endlicherzeugten Vektorraum V die Kenntnis des Skalarenkorpers K und der Dimension dim(V ) ,um die algebraische Struktur von V vollstandig zu kennen. Dies gibt eine Vorstellung vonder Bedeutung des Dimensionsbegriffs in der Theorie der Vektorraume.

(1.4.5) Beispiele Dimension

1. Der Raum R3 hat die Dimension 3. Allgemein hat fur jeden Korper K und jede naturliche

Zahl n der Raum Kn der geordneten n-Tupel mit Eintragen aus K die Dimension n.

2. Ist V ein Vektorraum und U ein Unterraum von V , so gilt dim(U) ≤ dim(V ) . Fur dasSymbol ∞ setzen wir dabei fest: n <∞ fur alle n ∈ N0 .Der Nullraum {o} hat die Dimension 0, denn seine Basis ist die leere Menge.

3. Der Polynomraum Rn[x] hat die Dimension n+ 1 , der volle Polynomraum R[x] hat unend-liche Dimension. Ebenfalls unendlich-dimensional sind der Raum C(R) und der Raum allerkonvergenten rellen Zahlenfolgen.

4. Der Raum {α + β√

2 | α, β ∈ Q} uber Q (vgl. 1.2.1.8) hat die Basis {1,√

2} , also dieDimension 2.

5. C hat als C-Vektorraum die Basis {1} , also die Dimension 1, aber als R-Vektorraum dieBasis {1, i} , also die Dimension 2 (vgl. 1.2.1.7).

Page 31: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

28 1 VEKTORRAUME

Nach (1.4.3) ist eine Basis B von V eine maximal linear unabhangige Teilmenge von V . Dasbedeutet aber nicht automatisch, daß es in V nicht eine linear unabhangige Teilmenge Sgeben konnte, die mehr Elemente besitzt als B. Die Maximalitat von B sagt nur, daß eskeine linear unabhangige Teilmenge S von V gibt, die B als echte Teilmenge enthalt. Uberandere linear unabhangige Teilmengen ist damit nichts ausgesagt.Im Rest dieses Abschnitts zeigen wir unter anderem, daß ein Vektorraum der endlichenDimension n tatsachlich keine linear unabhangige Teilmenge mit mehr als n Elementenbesitzt, und daß man jede linear unabhangige Teilmenge von V zu einer Basis von V erganzenkann.

(1.4.6) Satz Austauschsatz von Steinitz fur endlich erzeugte VektorraumeEs sei B = {b1, . . . , bn} eine Basis des K-Vektorraums V , und S = {s1, . . . , sm} sei einelinear unabhangige Teilmenge von V .Dann gibt es eine Teilmenge T = {bj1 , . . . , bjn−m} von B, so daß S ∪T eine Basis von V ist.Insbesondere gilt m ≤ n .

Beweis: Der Beweis wird so gefuhrt, daß er gleich ein Konstruktionsverfahren fur die neueBasis angibt. Die neue Basis wird rekursiv definiert, indem wir fur jeden Vektor sj einengeeigneten Vektor bij aus der Basis B entfernen.Wegen der Basiseigenschaft von B gibt es Skalare λi ∈ K mit s1 =

∑ni=1 λibi. Wegen s1 6= o

gibt es einen Index i1 mit λi1 6= 0. Der Vektor s1 liegt also nicht schon im Erzeugnis derbi mit i 6= i1 (Eindeutigkeit der Basisdarstellung), also ist die Menge {s1, bi | i 6= i1} linearunabhangig. Weiter gilt

λi1bi1 = s1 −∑i6=i1

λibi ,

und wegen λi1 6= 0 kann man diese Gleichung durch λi1 dividieren und damit bi1 als Li-nearkombination der ubrigen bi und s1 ausdrucken. Folglich ist {s1, bi | i 6= i1} ein linearunabhangiges Erzeugendensystem von V , also eine Basis von V . Damit ist der Austauschdes ersten Vektors fertig.Nun seien die Indizes i1, . . . , ij−1 bereits gefunden. Dann hat der nachste Vektor sj eineDarstellung

sj =

j−1∑k=1

λksk +n∑

l = 1l /∈ {i1, . . . , ij−1}

µlbl .

Wegen der linearen Unabhangigkeit der Menge {s1, . . . , sj} muß es einen Index

ij ∈ {1, . . . , n} \ {i1, . . . , ij−1}

mit µij 6= 0 geben. Nach der Induktionsvoraussetzung ist die Menge

M = {s1, . . . , sj−1} ∪ {bi | i /∈ {i1, . . . , ij−1}}

eine Basis von V , also insbesondere linear unabhangig. Folglich ist auch

M ′ = {s1, . . . , sj−1} ∪ {bi | i /∈ {i1, . . . , ij}} = M \ {bij}

Page 32: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.4 Basis und Dimension in endlich erzeugten Vektorraumen 29

linear unabhangig. Wegen der Eindeutigkeit der Darstellung von sj als Linearkombinationder Elemente aus M kann sj nicht in 〈M ′〉 liegen. Damit ist

M ′′ = {s1, . . . , sj} ∪ {bi | i /∈ {i1, . . . , ij}} = {sj} ∪M ′

ebenfalls linear unabhangig. Wie beim Induktionsanfang laßt sich der entfernte Vektor bijdarstellen als Linearkombination der Vektoren aus M ′′ . Folglich ist M ′′ eine Basis von V ,und der Induktionsschritt ist abgeschlossen. Da wir fur jeden Vektor si einen weiteren Vektoraus B entfernen konnten, kann m nicht großer als n sein. �

(1.4.7) Beispiel Austauschsatz von SteinitzEs sei V = R

4 und B = {e1, . . . , e4} die Basis aus Standard-Einheitsvektoren. Offensichtlich ist

S = {

0012

,

1010

}linear unabhangig. Da die dritte Koordinate des Vektors s1 nicht 0 ist, konnen wir s1 gegen e3

austauschen und erhalten die Basis {s1, e1, e2, e4}.Dann machen wir den Ansatz

1010

= λ

0012

+ µ

1000

+ ν

0100

+ ξ

0001

mit reellen Vorfaktoren λ, µ, ν, ξ. Die Losung dieser Gleichung lautet λ = 1, µ = 1, ν = 0, ξ = −2.Wegen µ = 1 kann man jetzt s2 gegen e1 austauschen und erhalt die Basis {s1, s2, e2, e4}.Ubrigens muß man hier gar nicht alle Vorfaktoren λ, µ, ν, ξ ausrechnen, denn aus der ersten Zeileerhalt man sofort µ = 1, und das reicht.Außerdem sieht man, daß die neue Basis nicht eindeutig bestimmt ist. Wegen ξ 6= 0 hatten wir s2

auch gegen e4 austauschen konnen und damit die Basis {s1, s2, e1, e2} konstruiert.Mochte man den Austauschsatz als Computerprogramm implementieren, so kann man immer denersten nicht-verschwindenden Vorfaktor wahlen. Ein Algorithmus fur die Berechnung der neuenBasis wird in (3.3.6) angegeben.

Aus dem Austauschsatz von Steinitz konnen wir die folgenden Aussagen uber linear un-abhangige Teilmengen ablesen:

(1.4.8) Korollar Es sei V ein Vektorraum der endlichen Dimension n.(a) Jede linear unabhangige Teilmenge von V hat hochstens n Elemente.(b) Eine linear unabhangige Teilmenge von V ist genau dann eine Basis von V , wenn sie

genau n Elemente hat.

In (1.4.6) haben wir eine Basis von V abgeandert, ohne die Basiseigenschaft zu verlieren. Daman haufig daran interessiert ist, nicht nur irgendeine Basis von V zu haben, sondern einemit gewissen Zusatzeigenschaften, notieren wir folgendes Lemma, dessen Beweis dem Leseruberlassen wird:

Page 33: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

30 1 VEKTORRAUME

(1.4.9) Lemma Es sei B = {b1, . . . , bn} eine Basis des endlich-dimensionalen VektorraumsV uber dem Korper K.

(a) Sind λ1, . . . , λn ∈ K \ {0} , so ist auch B′ = {λ1b1, . . . , λnbn} eine Basis von V .(b) Ist n ≥ 2 , so ist auch fur beliebige µ2, . . . , µn ∈ K die MengeB′ = {b1 , b2 + µ2b1 , b3 + µ3b1 , . . . , bn + µnb1} eine Basis von V .

Als weitere Folgerung aus dem Austauschsatz erhalten wir

(1.4.10) Satz Basiserganzungssatz fur endlich erzeugte VektorraumeEs sei V ein Vektorraum endlicher Dimension. Dann gibt es fur jede linear unabhangigeTeilmenge S von V eine Basis B von V mit S ⊆ B.

(1.4.11 ) Korollar Ein Unterraum U eines endlich-dimensionalen Vektorraumes V istwieder endlich-dimensional, und es gilt dim(U) ≤ dim(V ) .

Beweis: Es sei V ein endlich erzeugter Vektorraum der Dimension n, und U sei ein Un-terraum von V . Jede linear unabhangige Teilmenge von U ist auch eine linear unabhangigeTeilmenge von V , hat also nach (1.4.8.a) hochstens n Elemente. Der Unterraum besitzt li-near unabhangige Teilmengen, beispielsweise ∅, also auch eine maximale linear unabhangigeTeilmenge B. Diese ist nach (1.4.3) eine Basis von U und hat hochstens n Elemente, alsogilt dim(U) ≤ dim(V ) . �

Jetzt ist die Frage von (1.3.4.4) geklart: Der Vektorraum C(R) ist nicht endlich erzeugt, weilsein Unterraum R[x] nicht endlich erzeugt ist.

(1.4.12) Satz Es sei V ein Vektorraum mit endlich-dimensionalen Unterraumen U undW . Gilt U ⊆ W und dim(U) = dim(W ) , so folgt U = W .

Beweis: Da U und W beide endlich erzeugt sind, besitzt U eine Basis BU , die nach (1.4.8)zu einer Basis BW von W erganzt werden kann. Wegen |BU | = |BW | ∈ N0 folgt BU = BWalso auch U = W . �

(1.4.13) Beispiel (1.4.12) gilt nicht mehr fur unendlich-dimensionale Vektorraume U und W .Der Polynomraum R[x] besitzt zum Beispiel den echten Unterraum {p ∈ R[x] |x teilt p} . BeideVektorraume haben die Dimension ∞ (genauer: abzahlbar unendlich).

(1.4.14) Korollar Existenz eines KomplementsEs sei V ein endlich erzeugter Vektorraum und U ein Unterraum von V . Dann existiertein Komplement zu U in V , das heißt ein Unterraum W von V mit U + W = V undU ∩W = {o} .

Beweis: Nach (1.4.11) ist mit V auch U endlich erzeugt. Folglich besitzt U eine Basis BU .Diese ist eine linear unabhangige Teilmenge von V und kann daher nach (1.4.8) zu einerBasis BV von V erganzt werden. Wir setzen BW := BV \ BU und W := 〈BW 〉 .

Page 34: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.4 Basis und Dimension in endlich erzeugten Vektorraumen 31

Dann gilt offensichtlich V = U +W . Ein Vektor v ∈ (U ∩W ) \ {o} hatte eine Darstellungals endliche Linearkombination von Vektoren aus BU und als endliche Linearkombinationvon Vektoren aus BW . Wegen BU ∩ BW = ∅ waren dies zwei verschiedene Darstellungenvon v als endliche Linearkombination von Elementen aus BV , ein Widerspruch zur linearenUnabhangigkeit von BV . Also gilt V = U ⊕W . �

Wenn wir in Abschnitt 1.7 erst einmal die Existenz einer Basis und den Basiserganzungssatzfur beliebige Vektorraume bewiesen haben, haben wir naturlich auch (1.4.14) fur beliebigeVektorraume und Unterraume.

(1.4.15) Satz Dimensionssatz fur UnterraumeEs sei V ein endlich-dimensionaler Vektorraum mit Unterraumen U und W . Dann gilt

dim(U) + dim(W ) = dim(U ∩W ) + dim(U +W ) .

Beweis: Es sei BD = {d1, . . . , dr} eine Basis des Durchschnitts D = U ∩W . Diese laßtsich nach (1.7.1) sowohl zu einer Basis BU = {d1, . . . , dr, u1, . . . , us} von U als auch zu einerBasis BW = {d1, . . . , dr, w1, . . . , wt} von W erganzen. Mit diesen Bezeichnungen gilt alsodim(U ∩W ) = r , dim(U) = r + s , dim(W ) = r + t . Wir wollen nun zeigen, daß

BS := {d1, . . . , dr, u1, . . . , us, w1, . . . , wt}

eine Basis des Summenraums S = U +W ist:(i) Zu jedem v ∈ S gibt es Vektoren u ∈ U , w ∈ W mit v = u + w . Die beiden

Summanden lassen sich darstellen als Linearkombinationen

u =r∑i=1

αidi +s∑i=1

λiui und w =r∑i=1

βidi +t∑i=1

µiwi

mit geeigneten Skalaren αi, βi, λi, µi ∈ K . Es folgt

v = u+ w =r∑i=1

(αi + βi)di +s∑i=1

λiui +t∑i=1

µiwi ∈ 〈BS〉 .

(ii) Zum Beweis der linearen Unabhangigkeit von BS betrachten wir eine Linearkombination

o =r∑i=1

δidi +s∑i=1

λiui +t∑i=1

µiwi . (1)

Aus (1) folgt

w := −t∑i=1

µiwi =r∑i=1

δidi +s∑i=1

λiui , (2)

also w ∈ U ∩ W = D . Daher gibt es Skalare εi ∈ K mit w =∑r

i=1 εidi (3) .Aus (3) und der linken Gleichung von (2) folgt o =

∑ri=1 εidi +

∑ti=1 µiwi , und die

lineare Unabhangigkeit von BW liefert µ1 = . . . = µt = 0 . Damit reduziert sich (1)auf o =

∑ri=1 δidi +

∑si=1 λiui , und die lineare Unabhangigkeit von BU ergibt jetzt

δ1 = . . . = δr = λ1 = . . . = λs = 0 . Also mussen alle Koeffizienten in der Gleichung (1)gleich 0 sein, und damit ist BS linear unabhangig.

Page 35: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

32 1 VEKTORRAUME

Nun ist BS ein linear unabhangiges Erzeugendensystem von S, also eine Basis von S. Dieszeigt dim(S) = r + s+ t , und damit folgt die Behauptung. �

(1.4.16) Beispiele Dimensionssatz fur Unterraume

1. Haben die Unterraume U undW von V den trivialen Durchschnitt {o} , so gilt dim(U+W ) =dim(U) + dim(W ) . Insbesondere gilt dim(U ⊕W ) = dim(U) + dim(W ) .

2. Es sei V = R3 , U = 〈(1, 0, 1)T , (2, 1, 0)T 〉 , W = 〈(5, 0, 0)T , (3, 1, 2)T 〉 .

Wie man leicht sieht, gilt dim(U) = dim(W ) = 2 . Die beiden Unterraume sind nicht iden-tisch, denn (5, 0, 0)T liegt nicht in U . Sonst gabe es namlich λ, µ ∈ R mit 5

00

= λ

101

+ µ

210

=

λ+ 2µµλ

.

Der Vergleich der 2. und 3. Komponenten in dieser Gleichung liefert µ = λ = 0 , also giltauch 5 = λ+ 2µ = 0 , ein Widerspruch.Somit folgt U ( (U + W ) , also nach (1.4.12) dann dim(U + W ) ≥ 3 . Andererseits kanndim(U + W ) nicht großer werden als dim(V ) = 3 . Damit folgt dim(U + W ) = 3 undU +W = V . Aus (1.4.15) erhalt man dim(U ∩W ) = 1 .Geometrisch bedeutet dies: U und W sind zwei Ebenen in R3, deren Durchschnitt eineGerade ist.Um einen erzeugenden Vektor dieses Durchschnitts zu erhalten, suchen wir reelle Zahlenλ, µ, ν, ξ mit

λ

101

+ µ

210

= ν

500

+ ξ

312

.

Dies liefert das Gleichungssystem

λ + 2µ − 5ν = 3ξµ = ξ

λ = 2ξ,

also λ = 2ξ , µ = ξ , ν = 15ξ . Der Parameter ξ ist frei wahlbar in R \ {0} . Eine Basis von

U ∩W ist beispielsweise die Menge {(4, 1, 2)T } .

3. Es sei V = C(R) , U = 〈sin2 x, cos2 x〉 , W = R4[x] .Der Vektorraum V ist zwar unendlich-dimensional, aber U und W sind Unterraume desSummenraums

S = U +W = 〈sin2 x, cos2 x, 1, x, x2, x3, x4〉 ,

und dieser ist offensichtlich endlich-dimensional. Also konnen wir uns auf S zuruckziehenund haben hier den Dimensionssatz (1.4.15) zur Verfugung.Nach (1.2.6.5) gilt 1 ∈ U . Daraus konnen wir zwei Folgerungen ziehen:

(i) Die Vektoren 1 und sin2 x sind linear unabhangig, also hat U die Dimension 2.(ii) 1 ∈ U ∩ W , also hat U ∩ W mindestens die Dimension 1. Andererseits ist U kein

Unterraum von W , denn U enthalt auch Funktionen, die keine Polynome sind (warum?).

Damit haben wir U∩W = 〈1〉 , also dim(U∩W ) = 1 . Nach (1.4.5.3) wissen wir dim(W ) = 5 ,also gilt dim(U +W ) = dim(U) + dim(W )− dim(U ∩W ) = 2 + 5− 1 = 6 .

Page 36: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Koordinaten, Rang, elementare Umformungen 33

4. Es sei K = GF (2) der Korper mit 2 Elementen, und V = K4 . Der UnterraumU = 〈(1, 0, 1, 0)T , (1, 1, 0, 0)T , (0, 0, 0, 1)T 〉 enthalt nach (1.3.3.7) genau 8 = 23 Elemente,hat also die Dimension 3. Der Vektor w = (1, 0, 0, 1)T liegt nicht in U (s. Liste in (1.3.3.7)).Daher haben U und W = 〈w〉 trivialen Durchschnitt, und es gilt dim(U +W ) = 4 .

(1.4.17) Korollar Es sei V ein Vektorraum der Dimension d, und U1, . . . , Uk seien Un-terraume von V mit dim(Ui) ≥ d− 1 fur alle 1 ≤ i ≤ k. Dann gilt

dim(k⋂i=1

Ui) ≥ d− k .

Bei der Berechnung der Dimension des Summenraums zweier Unterraume taucht also immerdas Problem auf, den Durchschnitt dieser Unterraume zu bestimmen. In den Beispielen(1.4.16) haben wir ad hoc Methoden angewendet, also fur jeden Fall eine maßgeschneider-te Losung gesucht. Man wird sich aber ein Verfahren wunschen, das fur zwei beliebigeUnterraume eines endlich-dimensionalen Vektorraums den Durchschnitt berechnet. Ein der-artiger Algorithmus wird in (1.6.2) vorgestellt.

1.5 Geordnete Basis, Koordinaten, Rang und elementare Umfor-mungen

Das Hauptthema dieses Abschnitts sind elementare Umformungen von Vektorsystemen. Siewerden in großer Ausfuhrlichkeit diskutiert, da sie eines der Hauptwerkzeuge der LinearenAlgebra darstellen. Derartige Umformungen werden zum Beispiel verwendet fur

- die Berechnung des Ranges eines Vektorsystems (= Dimension eines Unterraums),

- die Berechnung des Durchschnitts zweier Vektorraume,

- die Losung eines linearen Gleichungssystems

und vieles mehr. Da man viele Probleme in der Mathematik auf die Losung eines linearenGleichungssystems zuruckfuhren kann, sind diese Verfahren, die alle unter dem SchlagwortGaußsche Elimination laufen, von großer Bedeutung.

Um mit Vektoren richtig rechnen zu konnen, brauchen wir eine geeignete Darstellung derVektoren. Die Darstellung der Elemente des R3 als Tripel reeller Zahlen beispielsweise ist indiesem Sinne geeignet, denn es lassen sich in dieser Darstellung sehr leicht die Vektorraum-operationen durchfuhren.Ist B = {b1, . . . , bn} eine Basis des Vektorraums V , so laßt sich jeder Vektor v ∈ V aufgenau eine Weise darstellen als Linearkombination v = λ1b1 + . . . λnbn . Damit erhalten wirzu jedem v genau ein n-Tupel λ1

...λn

= (λ1, . . . , λn)T mit Eintragen aus dem Skalarenorper K .

Page 37: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

34 1 VEKTORRAUME

Auch hier verwenden wir wie bisher die Konvention”ZeilenvektorT = Spaltenvektor“. Falls

n ≥ 2 , konnen wir die Basisvektoren in verschiedener Weise anordnen. Als Mengen sindnamlich {b1, b2, b3, . . . , bn} und {b2, b1, b3, . . . , bn} identisch, aber diese beiden Anordnungenliefern fur einen Vektor v verschiedene Koordinatentupel. Bei einer Umordnung der Basiswerden die Koordinaten im Koordinatentupel genauso permutiert wie die Basiselemente.Also mussen wir fur eine Basis B eine feste Ordnung vorgeben. Nach dem Totalordnungssatz(14.3.2) konnen wir jede Basis (auch jede unendliche) totalordnen.

Definition: geordnete BasisEs sei V ein Vektorraum. Eine geordnete Basis von V ist eine Basis B von V mit einer(festgewahlten) Ordnung.Ist B = {b1, . . . , bn} endlich, so schreiben wir die zugehorige Basis in der Form (b1, . . . , bn)und geben so die Ordnung durch die Indizierung an.

Geordnete Basen treten fast nur in endlich-dimensionalen Vektorraumen in Erscheinung, daman nur dann sinnvoll mit Koordinaten und Matrizen arbeiten kann. In diesem Fall istdurch die Schreibweise B = (b1, . . . , bn) klar, welche Ordnung gemeint ist.

Definition: KoordinateEs sei V ein Vektorraum uber dem Korper K mit einer geordneten Basis (b1, . . . , bn) . Hatein Vektor v ∈ V die Darstellung v = λ1b1 + . . . λnbn mit Koeffizienten λi ∈ K , so nenntman λi die Koordinate von v bezuglich des Basisvektors bi. Falls die benutzte Basis klar ist,spricht man auch einfach von der i-ten Komponente von v.

Der Vektor v wird vollstandig angegeben durch das Koordinatentupel (λ1,..., λn)T .

(1.5.1) Beispiele Koordinaten

1. In einem Vektorraum V der Dimension n sind die Koordinatentupel der Vektoren n-Tupel.Ist V = Kn , so ist die Darstellung eines Vektors v ∈ V als n-Tupel identisch mit demKoordinatentupel von v bezuglich der geordneten Basis (e1, . . . , en) , denn es gilt

λ1

λ2...λn

= λ1

10...0

+ λ2

01...0

+ . . .+ λn

0...01

.

2. Es sei V = R3[x] . Dann ist B1 = (x3, x2, x, 1) eine geordnete Basis von V . Das Polynomp(x) = 2x3 − x2 + 7 hat bezuglich B1 das Koordinatentupel (2,−1, 0, 7)T .Bezuglich der geordneten Basis B2 = (1, x, x2, x3) dagegen hat p das Koordinatentupel(7, 0,−1, 2)T .Nach (1.4.9) ist auch B3 = (x3 + 1, x2 + 1, x + 1, 1) eine geordnete Basis von V . Es gilt2(x3 + 1) − (x2 + 1) = 2x3 − x2 + 1 , also p(x) = 2(x3 + 1) − (x2 + 1) + 6 · 1 , und p hatbezuglich B3 das Koordinatentupel (2,−1, 0, 6)T .

Im folgenden benutzen wir fur eine Menge von Vektoren auch den Ausdruck Vektorsystem.Dieser Begriff hat keine andere inhaltliche Bedeutung als

”Menge von Vektoren“. Er hat sich

aber in der linearen Algebra eingeburgert, ebenso wie die Bezeichnung Erzeugendensystemfur eine erzeugende Teilmenge.

Page 38: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Koordinaten, Rang, elementare Umformungen 35

Definition: Rang eines VektorsystemsEs sei V ein Vektorraum und S eine Teilmenge von V . Der Rang von S ist die Dimensiondes von S erzeugten Unterraums 〈S〉 von V .

Ist 〈S〉 endlich-dimensional, so ist der Rang von S die Machtigkeit einer maximalen linearunabhangigen Teilmenge von S, daß heißt die Maximalanzahl linear unabhangiger Vektorenin S.

(1.5.2) Beispiele Range von Vektorsystemen

1. Ist S eine linear unabhangige Menge mit n Elementen, so hat S den Rang n. In diesem Fallesagt man, S hat vollen Rang, denn der Rang einer n-elementigen Menge kann nicht großerals n werden.

2. Ein einelementiges Vektorsystem {v} hat den Rang 0, falls v = o , und den Rang 1, fallsv 6= o ist.

3. Es sei V = R3 und S = { (0, 1, 2)T , (1,−1, 3)T , (2,−1, 8)T } .

Die beiden ersten Vektoren sind linear unabhangig, und es gilt 2−1

8

=

012

+ 2

1−1

3

, also 〈S〉 = 〈

012

,

1−1

3

〉 ,und damit rang(S) = 2 .

Elementare Umformungen eines m-Tupels von Vektoren:Es seien v1, . . . , vm Vektoren des Vektorraums Kn. Jeder dieser Vektoren ist also ein n-Tupelmit Eintragen ausK. Die folgenden drei Umformungen nennen wir elementare Umformungendes geordneten Vektorsystems (v1, . . . , vm) :(EU1) Vertauschung zweier Vektoren:

(v1, . . . , vi, . . . , vj, . . . , vm) 7→ (v1, . . . , vj, . . . , vi, . . . , vm) .(EU2) Multiplikation eines Vektors mit einem Skalar λ:

(v1, . . . , vi, . . . , vm) 7→ (v1, . . . , λvi, . . . , vm) .(EU3) Ersetzung eines Vektors vi durch vi + λvj , wobei j 6= i , λ ∈ K ist:

(v1, . . . , vi, . . . , vm) 7→ (v1, . . . , vi + λvj, . . . , vm) .

Will man den Rang des Vektorsystems {v1, . . . , vm} bestimmen, so kann man zur Erleich-terung dieser Arbeit elementare Umformungen auf dieses Vektorsystem anwenden, denn aus(1.4.9) folgt unmittelbar:

(1.5.3) Korollar Invarianz des Ranges bei elementaren UmformungenEs sei {v1, . . . , vm} ein Vektorsystem des Vektorraums Kn. Entsteht durch Anwendung vonelementaren Umformungen aus dem m-Tupel (v1, . . . , vm) das m-Tupel (v′1, . . . , v

′m) , so gilt

〈v1, . . . , vm〉 = 〈v′1, . . . , v′m〉 . Insbesondere haben die beiden Vektorsysteme denselben Rang.

Page 39: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

36 1 VEKTORRAUME

Zur praktischen Ausfuhrung der elementaren Umformungen schreiben wir die m Vektoren

v1 =

v11...vn1

, v2 =

v12...vn2

, . . . , vm =

v1m...

vnm

als Spalten nebeneinander in das nebenstehendeSchema. Dieses hat also n Zeilen und m Spalten.Ein solches Schema mit Eintragen aus dem Skala-renkorper K heißt (n×m)-Matrix uber K.

v11 v12 . . . v1m

v21 v22 . . . v2m...

......

vn1 vn2 . . . vnm

Der Eintrag vij ist also die i-te Komponente des Vektors vj. Den Ubergang einer Matrix zueiner anderen durch elementare Umformungen der Spalten deuten wir mit dem Symbol an. Außerdem bedeutet

(a) [i]↔ [j] die Vertauschung der Spalten i und j,(b) λ[i] die Multiplikation der Spalte i mit dem Skalar λ ∈ K \ {0} ,(c) [i] + λ[j] die Addition des λ-fachen der Spalte j zur Spalte i.

(1.5.4) Beispiele Elementare Spaltenumformungen zur Rangbestimmung

1. Es sei V = R3 und v1 = (1, 2, 3)T , v2 = (1, 1, 0)T , v3 = (2, 0, 1)T .

Wir wollen das 3-Tupel (v1, v2, v3) durch elementare Umformungen so zu einem 3-Tupel(v′1, v

′2, v′3) verandern, daß man den gemeinsamen Rang dieser beiden Vektorsysteme leicht

bestimmen kann: 1 1 22 1 03 0 1

[2]− [1][3]− 2[1]

1 0 02 −1 −43 −3 −5

[3]− 4[2]

1 0 02 −1 03 −3 7

Nun haben wir die Ausgangsmatrix auf eine Stufenform gebracht, an der wirrang({v′1, v′2, v′3}) = 3 ablesen konnen, denn es gilt v′3 = 7e3 , v

′2 = −e2 − 3e3 /∈ 〈v′3〉 ,

v′1 = e1 + 2e2 + 3e3 /∈ 〈v′2, v′3〉 .

2. Es sei V = R4 und v1 =

0150

, v2 =

−1201

, v3 =

2132

.

Wir versuchen wieder, eine Stufenform wie in 1. zu erreichen, und beginnen daher mit demgeordneten Vektorsystem (v3, v1, v2) :

2 0 −11 1 23 5 02 0 1

[3]+ 12

[1]

2 0 01 1 5/23 5 3/22 0 2

[3]− 52

[2]

2 0 01 1 03 5 −112 0 2

Es kommt hier ubrigens nicht darauf an, in welcher Reihenfolge wir die Vektoren v1, . . . , vmin die Matrix eintragen, weil man nachtraglich durch Spaltenvertauschungen jede gewunschteReihenfolge erreichen kann.

Page 40: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Koordinaten, Rang, elementare Umformungen 37

3. Es sei V = R4 und v1 =

1023

, v2 =

−2−114

, v3 =

−1101

, v4 =

2210

.

1 −2 −1 20 −1 1 22 1 0 13 4 1 0

[2] + 2[1][3] + [1][4]− 2[1]

1 0 0 00 −1 1 22 5 2 −33 10 4 −6

[3] + [2][4] + 2[2]

1 0 0 00 −1 0 02 5 7 73 10 14 14

[4]− [3]

1 0 0 00 −1 0 02 5 7 03 10 14 0

.

Auch an der vorletzten Matrix sieht man schon rang({v1, . . . , v4}) = 3 .

4. V = R4 und v1 =

0023

, v2 =

0001

, v3 =

−1104

, v4 =

21−13

, v5 =

4125

.

0 0 −1 2 40 0 1 1 12 0 0 −1 23 1 4 3 5

[1]↔ [3][2]↔ [4]

−1 2 0 0 4

1 1 0 0 10 −1 2 0 24 3 3 1 5

[2] + 2[1][5] + 4[1]

−1 0 0 0 01 3 0 0 50 −1 2 0 24 11 3 1 21

[5]− 5/3[2]

−1 0 0 0 0

1 3 0 0 00 −1 2 0 11/34 11 3 1 8/3

[5]− 11/6[3][5] + 17/6[4]

−1 0 0 0 0

1 3 0 0 00 −1 2 0 04 11 3 1 0

.

Auch hier braucht man die letzten beiden Schritte nicht mehr zu machen, wenn man er-kennt, daß man die letzte Spalte sukzessive zu Null machen kann, weil die Diagonalelementev′11, v

′22, v

′33, v

′44 nach der zweiten Umformung alle ungleich 0 sind.

5. Manchmal ist es zweckmaßiger, die Vektoren von rechts nach links ”abzubauen“:

Es sei V = R4 und v1 =

5731

, v2 =

0−72−1

, v3 =

4721

, v4 =

1010

.

5 0 4 17 −7 7 03 2 2 11 −1 1 0

[3]↔ [4]

5 0 1 47 −7 0 73 2 1 21 −1 0 1

[1]− [4][2] + [4]

1 4 1 40 0 0 71 4 1 20 0 0 1

[1]− [3][2]− 4[3]

0 0 1 40 0 0 70 0 1 20 0 0 1

,

Page 41: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

38 1 VEKTORRAUME

und der Rang des Vektorsystems ist daher gleich 2.

6. Es sei V = C4 und v1 =

1i

2 + i0

, v2 =

13i1

, v3 =

1 + i

4i1 + ii

.

1 1 1 + ii 3 4i

2 + i i 1 + i0 1 i

[2]− [1][3]− (1 + i)[1]

1 0 0i 3− i 1 + 3i

2 + i −2 −2i0 1 i

[3]− i[2]

1 0 0i 3− i 0

2 + i −2 00 1 0

,

und der Rang des Vektorsystems ist 2.

7. Uber einem endlichen Korper K funktioniert das Verfahren genauso. Man muß sich nur dieMultiplikation und (falls die Ordnung des Korpers keine Primzahl ist, auch die Addition) inK vergegenwartigen. Wahlen wir etwa K = GF (5) , so gilt 5 = 0 und

2 · 2 = 4 , 2 · 3 = 6 = 1 , 2 · 4 = 8 = 3 , 3 · 3 = 9 = 4 , 3 · 4 = 12 = 2 , 4 · 4 = 16 = 1 .

Fur v1 =

0141

, v2 =

2211

, v3 =

3430

, v4 =

1234

erhalten wir also

0 2 3 11 2 4 24 1 3 31 1 0 4

[1]↔ [4]

1 2 3 02 2 4 13 1 3 44 1 0 1

[2]− 2[1][3]− 3[1]

1 0 0 02 3 3 13 0 1 44 3 3 1

[3]− [2]

[4]− 1/3[2]

1 0 0 02 3 0 03 0 1 44 3 0 0

[4]− 1/4[3]

1 0 0 02 3 0 03 0 1 04 3 0 0

,

wobei hier (vgl. obige Tabelle) 13 = 2 und 1

4 = 4 gilt. Der Rang dieses Vektorsystems istalso 3.

Alle Beispiele aus (1.5.4) funktionieren nach derselben Methode. Diese heißt GaußschesEliminationsverfahren und wird auch zur Losung von linearen Gleichungssystemen benutzt.

(1.5.5) Algorithmus Gaußsches Eliminationsverfahren zur RangbestimmungEingabe: Das Vektorsystem

v1 =

v11...vn1

, v2 =

v12...vn2

, . . . , vm =

v1m...

vnm

.

Page 42: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Koordinaten, Rang, elementare Umformungen 39

Ausgabe: Der Rang von {v1, . . . , vm}.Bilde die Matrix

v11 v12 . . . v1m

v21 v22 . . . v2m...

......

vn1 vn2 . . . vnm

,

und nehme nach folgender Vorschrift elementare Spaltenumformungen vor:

1. Setze i := 1 und j := 1

2. Suche in der i-ten Zeile den kleinsten Index k ≥ j mit vi,k 6= 0 .Falls er existiert, vertausche die Spalten [j] und [k], so daß inder entstehenden Matrix der Eintrag vi,j 6= 0 ist.Andernfalls gilt vi,j = vi,j+1 = . . . = vj,m = 0 . Fahre dann fort mitSchritt 4.

3. Annulliere die Eintrage vi,j+1, . . . , vj,m durch folgende Operationen:

[j + 1]− vi,j+1

vi,j[j] , [j + 2]− vi,j+2

vi,j[j] , . . . , [m]− vi,m

vi,j[j] .

4. Erhohe i um 1.Erhohe j um 1, falls in Schritt 2 ein vi,k 6= 0 gefunden wurde.Verandere j nicht, falls in Schritt 2 kein vi,k 6= 0 gefunden wurde.

5. Falls i ≤ n , gehe zu Schritt 2.Falls i = n+ 1 , stop.

Das Ergebnis dieses Algorithmus ist eine Stufenform wie in den Beispielen (1.5.4). Die Anzahl derSpalten in der Endmatrix, die ungleich der Nullspalte sind, ist dann der Rang des Vektorsystems.

Das Element vi,k 6= 0 , das in Schritt 2 gesucht wird, um damit die Elemente vi,j+1, . . . , vi,mder i-ten Zeile zu annullieren, heißt Pivotelement.Die Rolle, die der mitgefuhrte Index j spielt, soll in folgendem Beispiel erlautert werden:

(1.5.6) Beispiel Es sei V = R2 , und v1 =

110

, v2 =

001

, v3 =

001

.

Wir beginnen also mit der Matrix

1 0 01 0 00 1 1

.

Zuerst setzen wir i = j = 1 , starten also die Suche nach dem Pivotelement fur die 1.Zeile mitdem Element v1,1 . Dieses ist ungleich 0, also bereits ein Pivotelement fur die 1.Zeile. Somit istk = j = 1 , und wir mussen in Schritt 2 keine Spalten vertauschen. In Schritt 3 ist auch nichts zutun, weil bereits v1,2 = v1,3 = 0 gilt.In Schritt 4 setzen wir i = j = 2 und wiederholen den 2.Schritt fur die 2.Zeile. Hier finden wirkein Pivotelement, uberspringen also den Rest von Schritt 2 und Schritt 3.Jetzt setzen wir i = 3 , aber j = 2 . Das fuhrt dazu, daß wir die Pivotsuche fur die 3.Zeile bei demEintrag v3,2 anfangen und dann in Schritt 3 mit Hilfe dieses Pivotelements (das hier existiert) denEintrag v3,3 annullieren. Ware dagegen i = j , so wurden wir die dritte Zeile nicht andern, also

Page 43: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

40 1 VEKTORRAUME

den 3.Spaltenvektor, der ein Vielfaches des 2.Spaltenvektors ist, nicht annullieren.In der Notation von (1.5.4) haben wir folgende Umformung durchgefuhrt: 1 0 0

1 0 00 1 1

[3]− [2]

1 0 01 0 00 1 0

,

und erhalten den Rang 2.

Mit Hilfe von Rangbestimmungen kann man ein Erzeugendensystem v1, . . . , vk des Unter-raums U zu einer Basis von U verkleinern:

(1.5.7) Algorithmus Berechnung einer Basis aus einem ErzeugendensystemEingabe: Erzeugendensystem T = {v1, . . . , vk} des Unterraums U .Ausgabe: Eine Basis B = {b1, . . . , br} von U mit B ⊆ T .

1. Setze r := 0.

2. Fur 1 ≤ j ≤ kberechne rj := rang({v1, . . . , vj})falls rj > r, setze r := r + 1 und br := vj .

3. B = {b1, . . . , br} .

(1.5.8) Beispiel Berechnung einer Basis aus einem ErzeugendensystemGegeben seien die Vektoren

v1 =

10123

, v2 =

01010

, v3 =

1−2

103

, v4 =

100−1

4

, v5 =

1−1

242

∈ R5 .

Mit (1.5.5) berechnet man die Folge der Range

r1 = 1 , r2 = 2 , r3 = 2 , r4 = 3 , r5 = 3

und erhalt so die Basis {v1, v2, v4} fur den von den vi aufgespannten Unterraum.

Definition: elementare Spalten- und Zeilenumformungen,Spaltenraum und Zeilenraum

Die Zeilen der (n×m)-Matrix v11 v12 . . . v1m

v21 v22 . . . v2m...

......

vn1 vn2 . . . vnm

Page 44: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Koordinaten, Rang, elementare Umformungen 41

mit Eintragen aus dem Korper K kann man als Vektoren aus dem Raum Kn auffassen. Mitdiesen Zeilenvektoren (vi,1, vi,2, . . . , vi,m) kann man ebenfalls elementare Umformungen derTypen (EU1), (EU2), (EU3) vornehmen. Diese nennen wir elementare Zeilenumformungen,die bisher verwendeten elementaren Umformungen der Spaltenvektoren heißen elementareSpaltenumformungen.Der Unterraum von Kn, der von den Spalten von M aufgespannt wird, heißt Spaltenraum vonM , der Unterraum von Km, der von den Zeilen von M aufgespannt wird, heißt Zeilenraumvon M .

(1.5.9) Beispiel Spaltenraum und ZeilenraumDer Spaltenraum der reellen Matrix

M =(

1 1 00 1 0

)wird erzeugt von den Spalten

s1 =(

10

), s2 =

(11

), s3 =

(00

),

ist also gleich dem Unterraum 〈e1, e2〉 = K2 von K2.Der Zeilenraum von M wird erzeugt von den Zeilen

z1 = (1, 1, 0) z2 = (0, 1, 0) .

Definieren wir in diesem Raum die Standardbasisvektoren durch

e1 := (1, 0, 0) , e2 := (0, 1, 0) , e3 := (0, 1, 0) ,

so gilt z1 = e1 + e2 und z2 = e2 . Bezuglich der geordneten Basis (e1, e2, e3) haben die Vektorenz1, z2 also die Koordinatentupel

z1 =

110

, z2 =

010

.

Dies zeigt, daß es keinen Unterschied macht, ob wir mit Zeilenvektoren oder den dazu analogenSpaltenvektoren rechnen. Der Zeilenraum von M ist nun der echte Unterraum 〈e1, e2〉 von K3 .

Nach (1.5.3) wird der Spaltenraum einer Matrix bei elementaren Spaltenumformungen undder Zeilenraum einer Matrix bei elementaren Zeilenumformungen nicht verandert. Jedochmuß der Spaltenraum bei elementaren Zeilenumformungen nicht gleich bleiben:

(1.5.10) Beispiel Es sei K = R und M =

1 00 10 0

.

Der Spaltenraum von M ist also der zweidimensionale Unterraum 〈e1, e2〉 von K3 . Vertauschen

wir die Zeilen 2 und 3, so entsteht aus M die Matrix M ′ =

1 00 00 1

, deren Spalten den Raum

〈e1, e3〉 aufspannen.

Page 45: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

42 1 VEKTORRAUME

Wahrend also der von den Spaltenvektoren einer Matrix aufgespannte Raum sich bei elemen-taren Zeilenumformungen der Matrix andern kann, bleiben aber die linearen Abhangigkeitender Spaltenvektoren untereinander unberuhrt:

(1.5.11) Lemma Es sei M eine (n×m)-Matrix mit den Spaltenvektoren v1, . . . , vm ∈ Kn .Durch Anwenden elementarer Zeilenumformungen entstehe aus M die Matrix M ′ mit denSpaltenvektoren v′1, . . . , v

′m .

Genau dann gilt v1 =∑m

i=2 λivi mit λi ∈ K , wenn v′1 =∑m

i=2 λiv′i gilt.

Beweis: Wir zeigen die Aussage fur jede der drei Typen von elementaren Zeilenumformun-

gen. Es sei M =

v11 . . . v1m...

...vn1 . . . vnm

und M ′ =

v′11 . . . v′1m...

...v′n1 . . . v′nm

.

(i) Vertauschung der Zeilen [j] und [k]: Fur alle i ∈ {1, . . . ,m} gilt

vi =

v1i...vji...vki...vni

und v′i =

v1i...vki...vji...vni

, also v′1 =

∑mi=2 λiv1i

...∑mi=2 λivki

...∑mi=2 λivji

...∑mi=2 λivni

=

m∑i=2

λiv′i .

(ii) Multiplikation der Zeile [j] mit einem Skalar µ 6= 0: Fur alle Indizes i gilt

v′i =

v1i...

µvji...vni

also v′1 =

∑mi=2 λiv1i

...∑mi=2 λi(µvji)

...∑mi=2 λivni

=m∑i=2

λiv′i .

(iii) Addition des λ-fachen der Zeile [j] zur Zeile [k]: Fur alle Indizes i gilt

v′i =

v1i...vji...

vki + λvji...vni

, also v′1 =

∑mi=2 λiv1i

...∑mi=2 λivji

...∑mi=2 λi(vki + λvji)

...∑mi=2 λivni

=

m∑i=2

λiv′i .

Damit ist eine Richtung der Aussage gezeigt. Die Umkehrung folgt daraus, daß jede der ele-mentaren Zeilenumformungen durch eine dazu inverse Zeilenumformung ruckgangig gemachtwerden kann:Die Vertauschung [j]↔ [k] ist invers zu sich selbst;

Page 46: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Koordinaten, Rang, elementare Umformungen 43

die Multiplikation µ[j] kann durch µ−1[j] ruckgangig gemacht werden (µ 6= 0 !);und [k] + λ[j] kann durch [k]− λ[j] annulliert werden. �

Eine unmittelbare Konsequenz von (1.5.11) ist der wichtige Satz

(1.5.12 ) Satz Es sei M eine (n × m)-Matrix, und S = {v1, . . . , vm} das System derSpaltenvektoren von M . Der Rang des Vektorsystems S wird weder durch elementare Spal-tenumformungen noch durch elementare Zeilenumformungen von M verandert.

(1.5.13) Beispiele Elementare Zeilenumformungen

1. V = R3 , v1 =

121

, v2 =

132

, v3 =

011

, v4 =

275

.

Wir bilden M =

1 1 0 22 3 1 71 2 1 5

und nehmen folgende Zeilenumformungen vor:

1 1 0 22 3 1 71 2 1 5

[2]− 2[1][3]− [1]

1 1 0 20 1 1 30 1 1 3

[1]− [2][3]− [2]

1 0 −1 −10 1 1 30 0 0 0

.

Die neuen Spaltenvektoren sind

v′1 =

100

, v′2 =

010

, v′3 =

−110

, v′4 =

−130

.

Man sieht sofort die Abhangigkeiten v′3 = −v′1 + v′2 und v′4 = −v′1 + v′3 . Entsprechend gilt

−v1 + v2 =

−1 + 1−2 + 3−1 + 2

=

011

= v3 und

−v1 + 3v2 =

−1 + 3−2 + 9−1 + 6

=

275

= v4 .

2. V = R3 , v1 =

01−1

, v2 =

231

, v3 =

310

.

Die Matrix M =

0 2 31 3 1−1 1 0

konnen wir durch elementare Zeilenumformungen auf die

Form M ′ = (e1, e2, e3) bringen: 0 2 31 3 1−1 1 0

[1]− [3][2] + [3]

1 1 30 4 1−1 1 0

[3] + [1]

1 1 30 4 10 2 3

Page 47: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

44 1 VEKTORRAUME

[3]− 1/2[2]

1 1 30 4 10 0 5/2

[1]− 6/5[3][2]− 2/5[3]

2/5[3]

1 1 00 4 00 0 1

[1]− 1/4[2]1/4[2]

1 0 00 1 00 0 1

.

Die neuen Spaltenvektoren sind linear unabhangig, also auch die Vektoren v1, v2, v3 .

1.6 * Berechnung des Durchschnitts zweier Unterraume

Elementare Umformungen wollen wir jetzt verwenden, um den Durchschnitt zweier Un-terraume eines endlich-dimensionalen Vektorraums zu berechnen. Dieses Verfahren stammtvon Ericksen [10].

(1.6.1) Satz Durchschnitt zweier UnterraumeEs sei V = Kn und U ein Unterraum von V mit der Basis BU = {u1, . . . , uk} sowie W einUnterraum von V mit der Basis BW = {w1, . . . , wl} . Wegen der linearen Unabhangigkeitvon BU muß k ≤ n sein.

(a) Ist k = n , so gilt W ⊆ U , also U ∩W = W .(b) Es sei k < n und r = rang({u1, . . . , uk, w1, . . . , wl}) . Weiter sei M die Matrix

(u1, . . . , uk, w1, . . . , wl) die als Spalten genau die Basisvektoren der beiden Unterraumeenthalt.Dann kann M durch elementare Zeilenumformungen und durch Spaltenumformungender letzten l Spalten auf folgende Form gebracht werden:

M ′ =

1 0 . . . 0 w′1,r−k+1 . . . w′1,l. . .

......

......

1 0 . . . 0 w′k,r−k+1 . . . w′k,l0 . . . 0 1 w′k+1,r−k+1 . . . w′k+1,l...

.... . .

......

0 0 1 w′r,r−k+1 . . . w′r,l0 0 0 . . . 0 0 . . . 0...

......

......

...0 . . . 0 0 . . . 0 0 . . . 0

.

︸ ︷︷ ︸k

︸ ︷︷ ︸r − k

︸ ︷︷ ︸k + l − r

Der Unterraum U ∩W hat dann eine Basis {d1, . . . , dk+l−r} mit

d1 = w′1,r−k+1 · u1 + . . .+ w′k,r−k+1 · uk ,...

dk+l−r = w′1,l · u1 + . . .+ w′k,l · uk .

Beweis: (a) Im Fall k = n ist BU eine Basis von V , also U = V und folglich W ⊆ U .(b) Nun sei 1 ≤ k < n . Die Menge BU ist linear unabhangig, darf also nicht den Nullvektorenthalten. Daher entalt die Spalte [1] von M einen Eintrag u1,j 6= 0 . Wir dividieren die Zeile

Page 48: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.6 * Berechnung des Durchschnitts zweier Unterraume 45

[j] von M durch u1,j und vertauschen dann die Zeilen [1] und [j] von M . Die neue Matrixhat jetzt an der Position (1,1) den Eintrag 1. Nun annullieren wir den Rest der Spalte [1],indem wir von der Spalte [i], deren erster Eintrag u′1,i sein moge, das u′1,i-fache der Zeile [1]

abziehen (2 ≤ i ≤ n) . Die entstehende Matrix hat nun die Gestalt3

10...0

*

.

Ist k ≥ 2 , so ist die Spalte [2] von M , also nach (1.5.11) auch die Spalte [2] der umgeformtenMatrix, linear unabhangig von der Spalte [1]. Daher hat die Spalte [2] einen Eintrag 6= 0außerhalb der 1.Zeile. Wie im 1.Schritt konnen wir diesen Eintrag erst zu 1 normieren, danndurch Zeilenvertauschung in die Zeile [2] bringen und schließlich den Rest der Spalte [2] mitdiesem Pivotelement annullieren. Dabei bleibt die 1 an der Position (1,1) unverandert, weilin der Spalte [1] sonst nur Nullen stehen. Dieses Verfahren konnen wir wegen der linearenUnabhangigkeit von BU bis zur Spalte [k] wiederholen und erhalten

1. . .

10 . . . 0...

...0 . . . 0

*

.

Ist r − k = 0 , so liegen die Vektoren w1, . . . , wl bereits im Erzeugnis 〈u1, . . . , uk〉 . Alsomussen nach (1.5.11) auch in der umgeformten Matrix die l hinteren Spaltenvektoren imErzeugnis der ersten k Spaltenvektoren liegen, und die umgeformte Matrix hat folgendeForm:

1. . . *

10 . . . 0 0 . . . 0...

......

...0 . . . 0 0 . . . 0

.

Dies ist dann bereits die gewunschte Matrix M ′.Ist r − k > 0 , so gibt es unter den l hinteren Spalten der umgeformten Matrix eine Spalte[j], die nicht im Erzeugnis der ersten k Spaltenvektoren liegt. Das heißt: die Matrix mußfur mindestens ein i > k an der Position (i, j) einen Eintrag 6= 0 haben. Diesen Eintragkonnen wir erst zu 1 normieren und dann durch Vertauschen der Spalten [k+ 1] und [j] undanschließendes Vertauschen der Zeilen [k + 1] und [i] an die Position (k + 1, k + 1) bringen.Schließlich kann man wie vorher die restlichen Eintrage der Spalte [k + 1] annullieren, ohnedie Spalten [1] bis [k] zu verandern.Auf diese Weise kann man alle Spalten bis zur Spalte [r] zu dem dazugehorigen Standardein-heitsvektor umformen. Dann hat man (s. Diskussion zum Fall r − k = 0 ) die Matrix M ′

3Der Stern im rechten Teil der Matrix bedeutet ”irgendwelche Elemente“, uber die wir keine Aussagemachen.

Page 49: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

46 1 VEKTORRAUME

erreicht. Die Spalten von M ′ bezeichnen wir mit u′1, . . . , u′k, w

′1, . . . , w

′l . Es ist also u′i = ei

fur 1 ≤ i ≤ k und w′i = ek+i fur 1 ≤ i ≤ r − k .Die Spalte w′r−k+1 (also die erste, die nicht gleich zu ihrem zugehorigen Standardeinheits-vektor ist) laßt sich schreiben als Linearkombination

w′r−k+1 =k∑j=1

w′j,r−k+1 · u′j +r−k∑j=1

w′j+k,r−k+1 · w′j . (1)

Aus (1) folgtk∑j=1

w′j,r−k+1 · u′j = −( r−k∑j=1

w′j+k,r−k+1 · w′j)

+ w′r−k+1 . (2)

Wegen (1.5.11) erhalten wir aus (2) eine Gleichung

d1 :=k∑j=1

w′j,r−k+1 · uj = −( r−k∑j=1

w′j+k,r−k+1 · wj∗)

+ wr−k+1∗ , (3)

wobei {w1∗ , w2∗ , . . . , wl∗} durch eine geeignete Permutation aus der Basis {w1, . . . , wl} vonW hervorgeht. Hiermit werden die Spaltenvertauschungen, die man beim Umformen von Mzu M ′ vorgenommen hat, ruckgangig gemacht.Die Gleichung (3) zeigt also, daß der Vektor d1 im Durchschnitt U∩W liegt. Mit demselbenSchluß fur die restlichen Spalten der umgeformeten Matrix erhalt man

d1, . . . , dk+l−r ∈ U ∩W .

Nach dem Dimensionssatz (1.4.15) gilt

dim(U ∩W ) = dim(U) + dim(W )− dim(U +W ) = k + l − r ,

also ist das Vektorsystem D = {d1, . . . , dk+l−r} eine Basis fur U ∩ W , wenn es linearunabhangig ist. Um dies zu zeigen, betrachten wir die von den letzten l Spalten der MatrixM ′ gebildete Matrix M ′′, also

M ′′ =

0 . . . 0 w′1,r−k+1 . . . w′1,l...

......

...0 . . . 0 w′k,r−k+1 . . . w′k,l1 w′k+1,r−k+1 . . . w′k+1,l

. . ....

...1 w′r,r−k+1 . . . w′r,l

0 . . . 0 0 . . . 0...

......

...0 . . . 0 0 . . . 0

.

Weil wir beim Ubergang von M nach M ′ nur Spaltenoperationen innerhalb der letzten lSpalten vorgenommen haben, entsteht die Matrix M ′′ aus der Matrix (w1, . . . , wl) (die dieletzten l Spalten der Matrix M enthalt) durch elementare Zeilenumformungen und Spalten-vertauschungen, und zwar genau diejenigen Operationen, die wir beim Ubergang von M zuM ′ durchgefuhrt haben. Nach (1.5.12) gilt also

l = rang({w1, . . . , wl}) = Rang des Spaltenraums von M ′′ .

Page 50: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.6 * Berechnung des Durchschnitts zweier Unterraume 47

Benutzen wir die Einser in den ersten r − k Spalten von M ′′ als Pivotelemente, so konnenwir mit elementaren Spaltenumformungen die Matrix M ′′ auf die Gestalt

M ′′ =

0 . . . 0 w′1,r−k+1 . . . w′1,l...

......

...0 . . . 0 w′k,r−k+1 . . . w′k,l1 0 . . . 0

. . ....

...1 0 . . . 0

0 . . . 0 0 . . . 0...

......

...0 . . . 0 0 . . . 0

bringen. Die letzten l − r Spalten von M ′′′ sind nach (1.5.12) linear unabhangig, also giltdas gleiche fur die k-Tupel w′1,r−k+1

...w′k,r−k+1

, . . . ,

w′1,l...w′k,l

.

Andererseits sind diese k-Tupel genau die Koordinatentupel der Vektoren d1, . . . , dk+l−rbezuglich der geordneten Basis (u1, . . . , uk) von U . Also ist das Vektorsystem S linearunabhangig und der Beweis vollstandig. �

Der Beweis von (1.6.1) gibt also ein Verfahren an, die Matrix M ′ und damit eine Basis vonU ∩W und die Dimension von U + W zu berechnen. Der Ubersichtlichkeit halber wollenwir dieses Verfahren noch einmal als Algorithmus aufschreiben:

(1.6.2) Algorithmus Berechnung des Durchschnitts zweier UnterraumeEs seien U,W Unterraume des n-dimensionalen Vektorraumes V , und {u1, . . . , uk} eine Basis4

von U , sowie {w1, . . . , wl} eine Basis von W .Durch Nebeneinanderstellen dieser Basisvektoren bildet man die

(n× (k + l)

)-Matrix

M = (u1, . . . , uk, w1, . . . , wl) .

Im folgenden wird der (i, j)-te Eintrag der jeweils aktuellen Matrix M mit mi,j bezeichnet.

1. Setze i := 1 .

2. Suche in Spalte [i] einen Eintrag mj,i 6= 0 mit j ≥ i (Pivotelement).Dividiere die Zeile [j] durch mj,i .Vertausche die Zeilen [i] und [j].

3. Subtrahiere fur 1 ≤ h ≤ n , h 6= i , das mh,i-fache der Zeile [i] von derZeile [h].

4Falls man nur Erzeugendensysteme hat, die eventuell keine Basen sind, konstruiere man mit dem Gauß-schen Verfahren (1.5.5) die benotigten Basen.

Page 51: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

48 1 VEKTORRAUME

4. Erhohe i um 1.Falls i ≤ k , gehe zuruck zu Schritt 2.Falls i ≥ k + 1 , gehe zu Schritt 5.

5. Suche ein Pivotelement mj,h 6= 0 mit j ≥ i und h ≥ i .Falls kein solcher Eintrag existiert, gehe zu Schritt 8.Falls ein solcher Eintrag existiert, dividiere die Zeile [j] durch mj,h ,vertausche die Spalten [i] und [h] und anschließend die Zeilen [i] und [j].

6. Subtrahiere fur 1 ≤ h ≤ n , h 6= i , das mh,i-fache der Zeile [i] von derZeile [h].

7. Erhohe i um 1 und gehe zu Schritt 5.

8. Fur j = 1, . . . , k + l + 1− i setze

dj := m1,i+j−1 · u1 +m2,i+j−1 · u2 + . . .+mk,i+j−1 · uk .

{d1, . . . , dk+l+1−i} ist eine Basis fur U ∩W .Der Raum U +W hat die Dimension i− 1 .

(1.6.3) Beispiele Durchschnitte von Unterraumen

1. Gegeben seien der Raum V = R5 und die Unterraume

U = 〈

10100

,

20010

,

03010

〉 und W = 〈

33120

,

20101

,

40111

〉 .Mit dem Gaußschen Verfahren kann man sich davon uberzeugen, daß die angegebenen Er-zeugendensysteme Basen der beiden Unterraume sind.Elementare Zeilenumformungen kennzeichnen wir in der gewohnten Art und Weise. DieVertauschung der Spalten [i] und [j] geben wir durch das Symbol S[i]↔ S[j] an.

M =

1 2 0 3 2 40 0 3 3 0 01 0 0 1 1 10 1 1 2 0 10 0 0 0 1 1

Algorithmus:

[3]− [1]

1 2 0 3 2 40 0 3 3 0 00 −2 0 −2 −1 −30 1 1 2 0 10 0 0 0 1 1

2. und 3.Schritt fur i = 1Pivotelement m1,1

−1/2[3][2]↔ [3]

1 2 0 3 2 40 1 0 1 1/2 3/20 0 3 3 0 00 1 1 2 0 10 0 0 0 1 1

2.Schritt fur i = 2Pivotelement m3,2

Page 52: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.6 * Berechnung des Durchschnitts zweier Unterraume 49

[1]− 2[2][4]− [2]

1 0 0 1 1 10 1 0 1 1/2 3/20 0 3 3 0 00 0 1 1 −1/2 −1/20 0 0 0 1 1

3.Schritt fur i = 2

1/3[3]

1 0 0 1 1 10 1 0 1 1/2 3/20 0 1 1 0 00 0 1 1 −1/2 −1/20 0 0 0 1 1

2.Schritt fur i = 3Pivotelement m3,3

4− [3]

1 0 0 1 1 10 1 0 1 1/2 3/20 0 1 1 0 00 0 0 0 −1/2 −1/20 0 0 0 1 1

3.Schritt fur i = 3Erhohung auf i = 4 = k + 1 ,also Ubergang zuSchritt 5

−2[4]S[4]↔ S[5]

1 0 0 1 1 10 1 0 1/2 1 3/20 0 1 0 1 00 0 0 1 0 10 0 0 1 0 1

5.Schritt fur i = 4Es existiert einPivotelement m4,5 .

[1]− [4][2]− 1/2[4]

[5]− [4]

1 0 0 0 1 00 1 0 0 1 10 0 1 0 1 00 0 0 1 0 10 0 0 0 0 0

6.Schritt fur i = 4Im 5.Schrit fur i = 5existiert kein Pivotelement,also Ubergang zu Schritt 8.

Der letzte Index war i = 5 , also ist die Dimension des Durchschnitts gleichk + l + 1− i = 3 + 3 + 1− 5 = 2 .

d1 = 1 · u1 + 1 · u2 + 1 · u3 =

33120

und d2 = 0 · u1 + 1 · u2 + 0 · u3 =

20010

.

2. Zum Vergleich mit unseren fruheren Methoden berechnen wir noch einmal den Durchschnittder Unterraume U und V von R

3 aus Beispiel (1.4.16.2): 1 2 5 30 1 0 11 0 0 2

[3]− [1]

1 2 5 30 1 0 10 −2 −5 −1

[1]− 2[2][3] + 2[2]

1 0 5 10 1 0 10 0 −5 1

−1/5[3][1] + 5[3]

1 0 0 20 1 0 10 0 1 −1/5

,

Page 53: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

50 1 VEKTORRAUME

also erhalten wir hier

d1 = 2

101

+

210

=

412

.

Spaltenvertauschungen waren hier nicht notig.

3. In einem unendlich-dimensionalen Vektorraum kann man den Algorithmus (1.6.2) anwenden,wenn der Summenraum U +W endliche Dimension hat, denn in diesem spielt sich alles ab.Manchmal muß man sich allerdings erst eine geeignete Basis von U + W suchen und diegegebenen Vektoren als Koordinatentupel bezuglich dieser Basis darstellen.Es sei V = C(R) , U = 〈3x11−x2 + 1, −x11 + 5x2〉 und W = 〈2x8− 2 , 3 sin2 x, −4 cos2 x〉 .Eine geordnete Basis von U + W ist etwa (sin2 x, cos2 x, x2, x8, x11) . Wir schreiben dieVektoren (als Koordinatentupel bezuglich dieser Basis) in die Matrix M und wenden (1.6.2)an:

1 0 −2 3 01 0 −2 0 −4−1 5 0 0 0

0 0 2 0 03 −1 0 0 0

[2]− [1][3] + [1][5]− 3[1]

1 0 −2 3 00 0 0 −3 −40 5 −2 3 00 0 2 0 00 −1 6 −9 0

−[5]

[2]↔ [5][3]− 5[2]

1 0 −2 3 00 1 −6 9 00 0 28 −42 00 0 2 0 00 0 0 −3 −4

1/28[3]

[1] + 2[3][2] + 6[3][4]− 2[3]

1 0 0 0 00 1 0 0 00 0 1 −3/2 00 0 0 3 00 0 0 −3 −4

1/3[4]

[3] + 3/2[4][5] + 3[3]

1 0 0 0 00 1 0 0 00 0 1 0 00 0 0 1 00 0 0 0 −4

−1/4[5]

1 0 0 0 00 1 0 0 00 0 1 0 00 0 0 1 00 0 0 0 1

Das Verfahren stoppt erst bei i = 5 , also hat der Durchschnitt U ∩W ein leeres Erzeugen-densystem, und das heißt U ∩W = {o} .

1.7 * Unendlich-dimensionale Vektorraume

Fur endlich erzeugte Vektorraume ist die Frage nach kurzesten Erzeugendensystemen durch(1.4.1) und (1.4.4) umfassend geklart: Jeder endlich erzeugte Vektorraum besitzt mindestenseine Basis, und je zwei Basen haben dieselbe Anzahl an Elementen.Andererseits wissen wir aber nach (1.3.4.4), daß es auch Vektorraume gibt, die nicht endlicherzeugt sind. Fur das Paradebeispiel eines solchen Vektorraums, den Polynomraum R[x],finden wir noch leicht eine Basis, etwa {xn | n ∈ N0} . Wie ist aber zum Beispiel die Si-tuation im Raum C(R) der stetigen Funktionen f : R → R ? Zur Klarung dieser Fragemuß man ein wenig tiefer graben und einige Begriffe und Resultate der Mengenlehre benut-zen. Erlauterungen zu den im folgenden gebrauchten Begriffen Ordnung, obere Schranke,maximales Element, Kette und Zornsches Lemma werden im Anhangskapitel 14 gegeben.

Eine Basis B eines Vektorraums V hat sowohl eine Minimal- als auch eine Maximaleigen-schaft:

Page 54: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.7 * Unendlich-dimensionale Vektorraume 51

– B ist ein minimales Erzeugendensystem von V (Definition)– B ist eine maximal linear unabhangige Teilmenge von V (1.4.3.(ii))

Mit den Begriffen aus Kapitel 14 konnen wir das Ergebnis von (1.4.3) so beschreiben:Es sei X die Menge aller linear unabhangigen Teilmengen des Vektorraums V , geordnetdurch Inklusion. Eine Teilmenge B von V ist genau dann eine Basis von V , wenn B einmaximales Element in X ist.Diese Formulierung laßt erahnen, wie man das Zornsche Lemma einsetzen kann, um dieExistenz einer Basis zu beweisen. Wir erhalten sogar die scharfere Aussage:

(1.7.1) Satz Basiserganzungssatz fur beliebige VektorraumeEs sei V ein Vektorraum und S eine linear unabhangige Teilmenge von V . Dann gibt eseine Basis B von V mit S ⊆ B .Insbesondere besitzt jeder Vektorraum eine Basis.

Beweis: Wir bezeichnen mit X die Menge aller linear unabhangigen Teilmengen von V ,geordnet durch Inklusion. Weiter sei Y = {T ∈ X | S ⊆ T} mit der von X auf Yeingeschrankten Ordnung (das ist einfach die Inklusionsordnung auf Y ). Wir wollen mitHilfe des Zornschen Lemmas zeigen, daß Y ein maximales Element besitzt.Dazu nehmen wir eine Kette K 6= ∅ in Y (also eine totalgeordnete Teilmenge von Y ) undbilden die Vereinigung aller Kettenelemente

U :=⋃T∈K

T .

Um zu zeigen, daß U ein Element von Y ist, mussen wir nachweisen, daß U eine linearunabhangige Teilmenge von V ist mit S ⊆ U .(i) Es seien u1, . . . , un endlich viele Vektoren aus U . Dann gibt es zu jedem i ∈ {1, . . . , n}

ein Ti ∈ K mit ui ∈ Ti . Die endliche nichtleere Teilmenge {T1, . . . , Tn} der totalgeord-neten Menge K besitzt nach (14.2.4) ein Maximum, etwa T1. Das bedeutet Ti ⊆ T1 furalle i ∈ {1, . . . , n} und damit ui ∈ T1 fur alle i. Wegen der linearen Unabhangikeit vonT1 kann man den Nullvektor nur als triviale Linearkombination der Vektoren u1, . . . , undarstellen. Also ist U linear unabhangig.

(ii) Wegen K 6= ∅ gibt es ein T ∈ K . Dieses T liegt in Y , also gilt S ⊆ T ⊆ U .Daher gilt U ∈ Y , und U ist eine obere Schranke von K. Die leere Kette besitzt die obereSchranke S in Y .Nach dem Zornschen Lemma enthalt also Y ein maximales Element M . Dieses ist zugleichein maximales Element in X, denn jede linear unabhangige Teilmenge N von X mit M ⊆ Nist schon ein Element von Y .Nach der Vorbemerkung ist M eine Basis von V . Da in jedem Vektorraum die leere Mengeeine linear unabhangige Teilmenge ist, besitzt V eine Basis. �

Vergleicht man die Beweise von (1.7.1) und (14.3.2), so wird man feststellen, daß sie sehrahnlich sind. Folgende Punkte sind typisch fur die Anwendung des Zornschen Lemmas:– Die Objekte der betrachteten Menge X sind Teilmengen einer gemeinsamen Obermenge,

und X ist geordnet durch Inklusion.– Oft interessiert man sich nicht fur X selbst, sondern fur eine gewisse Teilmenge Y von X,

zum Beispiel Y = {T ∈ X | S ⊆ T} fur ein spezielles Element S ∈ X .

Page 55: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

52 1 VEKTORRAUME

Fur Teilmengen Y dieser Art gilt: ein maximales Element von Y ist zugleich ein maximalesElement von X.

– Ist K eine Kette in Y , so bildet man die Vereinigung U =⋃T∈K T . Wenn die verwendete

Ordnung die Inklusionsordnung ist, dann ist U namlich eine obere Schranke fur die KetteK. Die Tatsache, daß U auch ein Element von Y ist, folgert man aus der Ketteneigenschaftvon K:In (1.7.1) etwa wollten wir die lineare Unabhangigkeit von U nachweisen und wahlten dazubeliebige Vektoren u1, . . . , un ∈ U aus. Wegen der Ketteneigenschaft von K fanden wirein Kettenelement T , in dem alle diese Vektoren enthalten sind. So konnten wir von derlinearen Unabhangigkeit der Kettenelemente auf die lineare Unabhangigkeit der Menge Uschließen.In (14.3.2) dagegen wollten wir die Transitivitat und Antisymmetrie von U zeigen. Dazubetrachteten wir Paare (x, y), (y, z) ∈ U . Wegen der Ketteneigenschaft von K fanden wirhier ein Kettenelement R, das diese beiden Paare enthalt, und so lieferte die Transitivitatund Antisymmetrie der Kettenelemente die Transitivitat und Antisymmetrie von U .

Genauso wie im endlich-dimensionalen Fall (vgl. (1.4.14)) kann man jetzt aus dem Basi-serganzungssatz die Existenz von Komplementen folgern:

(1.7.2) Korollar Existenz eines Komplements Es sei V ein beliebiger Vektorraum und Uein Unterraum von V . Dann besitzt U ein Komplement in V .

Bisher haben wir alle nicht endlich-erzeugten Vektorraume bezuglich des Dimensionsbegriffsin einen Topf geworfen, indem wir ihnen allen die Dimension ∞ zugewiesen haben. Beider Beschaftigung mit unendlichen Mengen taucht sehr schnell die Frage auf, ob denn alleunendlichen Mengen

”gleich groß“ seien, oder ob es verschiedene

”Grade“ der Unendlich-

keit gibt. Die erste Frage scheint eine naturliche Antwort zu besitzen, die aber, wie sichanschließend herausstellen wird, fur unendliche Mengen nicht adaquat ist: Betrachten wiretwa die Mengen N,N0,Z und R . Man wird geneigt sein, die Menge N0 und erst recht dieMenge Z fur

”echt großer“ zu halten als N, denn N0 enthalt das Element 0, das nicht in N

liegt, und Z enthalt sogar unendlich viele negative Zahlen, die alle nicht in N liegen. Es wirdsich aber zeigen, daß bezuglich einer sinnvollen Fortsetzung des Begriffs der Machtigkeit aufunendliche Mengen die Mengen N,N0,Z alle gleich groß sind, wahrend R echt machtiger istals N.Haben wir zwei endliche Mengen X und Y gegeben, so gibt es zwei Moglichkeiten, festzu-stellen, ob X und Y gleichviele Elemente haben:

(i) Man zahlt ab, wieviele ElementeX und Y haben und vergleicht diese Elementeanzahlen,das heißt die Machtigkeiten |X| und |Y | .

(ii) Man versucht, eine Abbildung f : X → Y konstruieren.Gibt es eine injektive Abbildung f : X → Y (d.h. f(xi) = f(xj) gilt nur fur xi = xj ),so hat X hochstens so viele Elemente wie Y .Gibt es eine surjektive Abbildung f : X → Y (d.h. zu jedem y ∈ Y gibt es ein x ∈ Xmit f(x) = y ), so hat X mindestens so viele Elemente wie Y .Gibt es eine bijektive Abbildung f : X → Y (d.h. f ist zugleich injektiv und surjektiv),so hat X genausoviele Elemente wie Y .

Page 56: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.7 * Unendlich-dimensionale Vektorraume 53

Die beiden endlichen Mengen X und Y sind also genau dann gleichmachtig, wenn es eineBijektion (eine bijektive Abbildung) zwischen X und Y gibt. Diese Idee verallgemeinern wirnun und definieren gar nicht die Machtigkeit von unendlichen Mengen, sondern beschrankenuns darauf, Mengen miteinander zu vergleichen:

Definition: gleichmachtig, echt machtigerEs seien X und Y zwei beliebige Mengen.

(a) X ist hochstens so machtig wie Y (X � Y ), wenn es eine injektive Abbildungf : X → Y gibt.

(b) X und Y sind gleichmachtig (X ∼ Y ), wenn es eine bijektive Abbildung f : X → Ygibt.

(c) Gilt ((X � Y ) ∧ ¬(X ∼ Y )) , so ist Y echt machtiger als X (X ≺ Y ) .

Zwei endliche Mengen X und Y sind also genau dann gleichmachtig, wenn |X| = |Y | gilt.Ist X endlich, aber Y unendlich, so gibt es eine injektive Abbildung von X nach Y , abernicht umgekehrt, also ist Y echt machtiger als X.

(1.7.3) Beispiele gleichmachtige Mengen

1. Die Abbildung f : N0 → N , f(n) := n + 1 , ist eine Bijektion. Also sind N0 und N gleich-machtig.

2. Fur jede naturliche Zahl k setzen wir Z−k := {z ∈ Z | z ≥ −k} . Dann ist die Abbildungf : Z−k → N , f(n) = n+ k + 1 , eine Bijektion. Daher sind Z−k und N gleichmachtig.

3. Mit 2N bezeichnen wir die Menge der geraden naturlichen Zahlen. Die Abbildungf : N → 2N , f(n) = 2n , ist eine Bijektion. Die Menge aller naturlichen Zahlen ist alsogenauso machtig wie die Menge der geraden naturlichen Zahlen, obwohl die Anschauungsuggeriert, daß es ”doppelt so viele“ naturliche Zahlen wie gerade Zahlen gibt.

4. Die Abbildung f : Z→ N0 , definiert durch

f(n) ={

2n n ≥ 0−(2n+ 1) n < 0

ist eine Bijektion. Also sind Z und N0 gleichmachtig und damit auch Z und N.

Die folgenden Aussagen sind fundamentale Ergebnisse der Mengenlehre. Die Beweise findetman zum Beispiel bei [Hal], Kapitel 22-24:

(1.7.4) Satz Satz von Schroder-BernsteinSind X und Y beliebige Mengen mit X � Y und Y � X , so gilt X ∼ Y .

Wahrend der Schroder-Bernsteinsche Satz, obwohl sein Beweis durchaus nicht trivial ist,doch sehr einleuchtend ist, sind die folgenden Resultate uber unendliche Mengen uberra-schender.

Page 57: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

54 1 VEKTORRAUME

(1.7.5) Satz Es sei X eine unendliche Menge.(a) Ist Y irgendeine Menge mit Y � X , so gilt (X ∪ Y ) ∼ X .(b) (X ×X) ∼ X .(c) Setzt man Pe(X) := {T ⊆ X | T ist endlich} , so gilt Pe(X) ∼ X .

In scharfem Kontrast zu (1.7.5.c) steht der Cantorsche Satz uber die Potenzmenge P(X)(die Menge aller Teilmengen von X):

(1.7.6) Satz Satz von CantorFur jede Menge X gilt X ≺ P(X) .

Beweis: Die Abbildung f : X → P(X) mit der Vorschrift f(x) = {x} ist offensichtlichinjektiv, so daß X � P(X) gilt.Waren X und P(X) gleichmachtig, so gabe es eine Bijektion g : X → P(X) . Wir setzenT := {x ∈ X | x /∈ g(x)} . Diese Teilmenge von X mußte wegen der Surjektivitat von g einUrbild t ∈ X haben, das heißt g(t) = T .1.Fall: Gilt t ∈ T = g(t) , so folgt t /∈ T nach Definition von T , ein Widerspruch.2.Fall: Gilt t /∈ T = g(t) , so folgt t ∈ T nach Definition von T , ebenfalls ein Widerspruch.Also kann eine solche Abbildung nicht existieren, und es gilt X ≺ P(X) . �

Definition: abzahlbar, uberabzahlbarEs sei X eine Menge.

(a) Gilt N ∼ X , so heißt X abzahlbar (unendlich).(b) Gilt N ≺ X , so heißt X uberabzahlbar.(c) Ist die Menge X endlich oder abzahlbar unendlich, so heißt sie abzahlbar.

Nach (1.7.4.b) und (1.7.5) wissen wir bereits, daß N× N und Pe(N) abzahlbar sind, aberP(N) uberabzahlbar ist.

(1.7.7) Satz(a) N0,Z und Q sind abzahlbar.(b) R ist uberabzahlbar. R und C sind gleichmachtig.

Beweis:

(a) Die Abzahlbarkeit von N0 und Z wissen wir schon nach (1.7.3.1/3). Trivialerweise giltN � Q . Wegen (Z× Z) ∼ Z und Z ∼ N reicht es nun, Q � (Z× Z) zu zeigen. Diesist aber klar wegen der Darstellung der rationalen Zahlen als Bruche ganzer Zahlen.

(b) Wir zeigen zuerst die Uberabzahlbarkeit von R: Jeder Teilmenge T von N ordnen wirdie Zahlenfolge

(Ti)i∈N zu mit Ti =

{0 falls i /∈ T1 falls i ∈ T .

Dieser Zahlenfolge wiederum ordnen wir die reelle Zahl xT zu, die die Dezimaldar-stellung 0, T1T2T3 . . . besitzt. Wir erhalten also eine Abbildung f : P(N) → R mitf(T ) = xT . Diese ist injektiv, denn zwei Dezimaldarstellungen, von denen keine dieForm 0, k1k2 . . . kn9999 . . . hat, reprasentieren verschiedene reelle Zahlen.

Page 58: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.7 * Unendlich-dimensionale Vektorraume 55

Somit haben wir N ≺ P(N) � R , also kann R nach dem Satz von Schroder-Bernsteinnicht abzahlbar sein.Trivial ist R � C . Hat eine komplexe Zahl den Realteil a und den Imaginarteil b, soordnen wir ihr das Paar (a, b) zu. Dies liefert eine Bijektion von C nach R× R , undaus (1.7.5.b) folgt R ∼ C . �

(1.7.8) Lemma Aus Ba � B fur alle a ∈ A folgt⋃a∈A

Ba � A×B .

Beweis: Wir setzen C :=⋃a∈ABa und mussen dann eine injektive Abbildung f : C →

A × B vorzeigen. Nach Voraussetzung gibt es fur jedes a ∈ A eine injektive Abbildungga : Ba → B . Weiter liefert fur ein fest gewahltes a ∈ A die Vorschrift fa(b) =

(a, ga(b)

)eine injektive Abbildung fa von Ba nach A × B . Per Auswahlaxiom konnen wir nun furElemente b , die in mehreren der Mengen Ba vorkommen, aus den Bildern

(a, ga(b)

)eines

auswahlen, und erhalten dann durch Zusammensetzen der Abbildungen fa , a ∈ A diegewunschte Injektion von C nach A×B . �

Eine Anwendung von (1.7.5) liefert uns die Verallgemeinerung von (1.4.4) auf beliebige Vek-torraume:

(1.7.9) Satz Dimensionsinvarianz fur beliebige VektorraumeEs sei V ein Vektorraum mit Basen A und B. Dann gilt A ∼ B .

Beweis: Nach (1.4.4) ist die Aussage richtig, falls mindestens eine der Basen endlich ist.Also konnen wir die Unendlichkeit von A und B voraussetzen. Wegen der Basiseigenschaftvon B gibt es zu jedem a ∈ A eine minimale endliche Teilmenge f(a) = {b1, . . . , bn} vonB mit a ∈ 〈f(a)〉 . Wir erhalten also eine Abbildung f : A → Pe(B) .Ist T irgendeine endliche Teilmenge von B, so kann es nur endlich viele Vektoren a ∈ Ageben mit f(a) = T . Die Urbildmenge f−(T ) = {a ∈ A | f(a) = T} ist namlich eine linearunabhangige Teilmenge von 〈T 〉 , also folgt |f−(T )| ≤ dim(〈T 〉) <∞ .Wegen der Unendlichkeit von B erhalten wir außerdem f−(T ) � B fur alle endlichen Teil-mengen T von B. Nun konnen wir A schreiben als Vereinigung dieser Urbildmengen

A =⋃

T∈Pe(B)

f−(T )(1.7.8)

� Pe(B)× B(1.7.5.c)

� B × B (1.7.5.b)∼ B .

Daraus folgt A � B . Die Vertauschung von A und B im obigen Argument liefert B � A ,also nach Schroder-Bernstein schließlich A ∼ B . �

Jetzt sind wir berechtigt, von einem Vektorraum mit abzahlbar unendlicher Dimension odermit uberabzahlbarer Dimension zu sprechen.

(1.7.10) Beispiele unendlich-dimensionale Vektorraume

1. Der Polynomraum R[x] hat die abzahlbar unendliche Basis {xn | n ∈ N0} , ist also (abzahlbarunendlich)-dimensional.

Page 59: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

56 1 VEKTORRAUME

2. Der Vektorraum C(R) aller stetigen reellen Funktionen dagegen hat uberabzahlbare Dimen-sion, denn er besitzt die linear unabhangige Teilmenge {eαx | α ∈ R} (vgl. (1.3.6)), diegleichmachtig zur uberabzahlbaren Menge R ist.

(1.7.11) Satz Austauschsatz von Steinitz fur beliebige VektorraumeEs sei V ein beliebiger Vektorraum, {vi | i ∈ I} ein Erzeugendensystem von V , undW = {wj | j ∈ J} eine linear unabhangige Teilmenge von V .Dann gibt es eine Teilmenge I0 der Indexmenge I, so daß W ∪{vi | i ∈ I0} eine Basis vonV ist.

Beweis: Wir betrachten die durch Inklusion geordnete Teilmenge

S = {T ⊆ I | W ∪ {vi | i ∈ T} ist linear unabhangig }

der Potenzmenge von I. Wegen der linearen Unabhangigkeit von W ist die leere Menge einElement von S, also ist S nicht leer.Zur Gewinnung eines maximalen Elements in S mit Hilfe des Zornschen Lemmas betrach-ten wir eine nichtleere Kette K in S (also eine totalgeordnete Teilmenge von S). Es seiH =

⋃T∈K T die Vereinigung aller Kettenelemente. Um zu zeigen, daß H in S liegt, mussen

wir die lineare Unabhangigkeit von W ∪ {vi | i ∈ H} nachweisen.Dazu nehmen wir eine endliche Teilmenge {vi1 , . . . , vin} von {vi | i ∈ H} . Jeder Vek-tor viν liegt in einem geeigneten Kettenmitglied Tiν . Die endliche totalgeordnete Menge{Ti1 , . . . , Tin} hat ein Maximum (bezuglich der Inklusion), etwa Tin . Also liegen alle aus-gewahlten Vektoren viν in der Menge {vi | i ∈ Tin} . Wahlen wir noch endlich viele Vektorenwj1 , . . . , wjm ∈ W aus, so muß eine Linearkombination

o = λ1wj1 + . . .+ λmwjm + µ1vi1 + . . .+ µnvin

wegen der linearen Unabhangigkeit von W ∪ {vi | i ∈ Tin} trivial sein. Folglich istW ∪ {vi | i ∈ H} linear unabhangig, und K hat eine obere Schranke in S. Das Zorn-sche Lemma liefert nun ein maximales Element T0 von S.Wir setzen B = W ∪{vi | i ∈ T0} und zeigen, daß B eine Basis von V ist. Angenommen, furirgendeinen Index i0 ∈ I lage der Vektor vi0 nicht in 〈B〉 . Dann ware nach (1.3.8) auch dieMenge W ∪

{vi | i ∈ T0 ∪ {i0}

}linear unabhangig, ein Widerspruch gegen die Maximalitat

von T0. Folglich ist B ein linear unabhangiges Erzeugendensystem von V und damit eineBasis von V . �

Sind L ⊆ K zwei ineinanderliegende Korper, so ist bekanntlich K mit den ublichen Ope-rationen ein L-Vektorraum (vgl. (15.3.1) und die Beispiele (1.2.1.7) und (1.4.5.5)). Nach(1.4.5.5) hat der R-Vektorraum C die Dimension 2. Ein weiteres interessantes Beispiel dieserKategorie ist der Q-Vektorraum R. Um seine Dimension angeben zu konnen, brauchen wirnoch ein Hilfsmittel:

(1.7.12) Satz Es sei K ein Korper mit abzahlbar vielen Elementen und V ein Vektorraumuber K mit abzahlbarer Dimension. Dann hat V abzahlbar viele Elemente.

Page 60: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.7 * Unendlich-dimensionale Vektorraume 57

Beweis:”Abzahlbar“ heißt

”endlich oder abzahlbar unendlich“. Haben wir den Satz fur

einen abzahlbar-unendlich-dimensionalen Vektorraum uber einem Korper mit abzahlbar-unendlich vielen Elementen bewiesen, dann folgen daraus auch die anderen Falle. Alsokonnen wir uns auf diesen Fall beschranken.Es gibt eine Basis {bn | n ∈ N} von V . Aus (1.7.5.b) folgt durch Induktion nach n, daßein n-faches kartesisches Produkt abzahlbarer Mengen wieder abzahlbar ist. Daher sind dieUnterraume Un = 〈b1, . . . , bn〉 von V abzahlbar fur alle n ∈ N . Da sich jeder Vektor v ∈ Vals endliche Linearkombination der Basiselemente schreiben laßt, gilt V =

⋃n∈N Un . Daher

ist V eine abzahlbare Vereinigung abzahlbarer Mengen. Eine solche ist wieder abzahlbar.

Um dies zu zeigen, schreiben wirdie naturlichen Zahlen auf nachdiesem Schema:

10

6 9

3 5 8

1 2 4 7-

������3�� ��

�� ��

��

������>

...

...

...

...

M1

M2

M3

M4

Dies zeigt, daß wir die Menge N zerlegen konnen in eine abzahlbar unendliche Vereinigungvon lauter disjunkten, abzahlbar unendlichen Teilmengen M1,M2, . . . . Haben wir nun eineFamilie M ′

n, n ∈ N , von abzahlbaren Mengen gegeben, so finden wir fur jedes n ∈ N eineinjektive Abbildung fn : M ′

n → Mn . Die Zusammensetzung aller dieser Abbildungen undeventuell Streichen von mehrfach definierten Bildern fur Elemente aus dem Durchschnitt vonMengen M ′

n und M ′n liefert eine injektive Abbildung von

⋃n∈NM

′n nach N. �

(1.7.13) Korollar Der Q-Vektorraum R hat uberabzahlbare Dimension.

Bezeichnet P die Menge aller Primzahlen, so sind die Mengen {√p | p ∈ P} und{ln p | p ∈ P} linear unabhangige Teilmengen des Q-Vektorraums R (s. [Koe], p.30).Da aber beide Mengen abzahlbar-unendlich sind, sind sie keine Basen von R uber Q. Ei-ne uberabzahlbare, linear unabhangige Menge von reellen Zahlen uber Q gibt Brenner

in [5] an. Auch diese Menge ist aber keine Basis von R uber Q. Naturlich besitzt der Q-Vektorraum R eine Basis, aber der Existenzsatz (1.7.1) gibt keinerlei Hinweis darauf, wieeine solche Basis aussieht. Daß man manchmal eine solche Basis trotzdem sinnvoll einsetzenkann, soll das folgende Beispiel zeigen, das auf Hamel [18] zuruckgeht. Nach ihm wird eineBasis von R uber Q auch Hamel-Basis genannt.

(1.7.14) Beispiel Losungen der Cauchy-Darbouxschen FunktionalgleichungEs sei V = R

R der Vektorraum aller Funktionen f : R→ R . Wir suchen nach Funktionen f ∈ V ,die fur alle x, y ∈ R die Funktionalgleichung

f(x+ y) = f(x) + f(y) (1)

erfullen. Wie man schnell nachpruft, bilden die Losungen dieser Funktionalgleichung einen Unter-raum U von V .Wie sehen stetige Funktionen in U aus? Wir nehmen an, f ∈ U sei stetig, und setzen α := f(1) .Aus (1) konnen wir die Funktionswerte von f an einigen ausgezeichneten Punkten berechnen:

f(0) + f(0) = f(0 + 0) = f(0) , also f(0) = 0 .

Page 61: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

58 1 VEKTORRAUME

Fur alle naturlichen Zahlen n gilt

f(n) = f( n∑i=1

1)

=n∑i=1

f(1) = α · n .

Ist pq eine positive rationale Zahl mit p, q ∈ N , so gilt

f(p) = f( pq

+ . . .+p

q︸ ︷︷ ︸q Summanden

)= q · f

(pq

), also f

(pq

)=f(p)q

= α · pq.

Fur eine reelle Zahl x gilt

0 = f(0) = f(x+ (−x)

)= f(x) + f(−x) und damit f(−x) = −f(x) .

Also haben wir bis jetzt f(x) = αx fur alle x ∈ Q . Da man jede reelle Zahl x als Grenzwert einerFolge (qn)n∈N rationaler Zahlen darstellen kann, liefert die Stetigkeit von f unter Beachtung derGrenzwertregeln

f(x) = f(

limn→∞

qn)

= limn→∞

f(qn) = limn→∞

αqn = α · limn→∞

qn = αx .

Umgekehrt erfullt die Funktion f(x) = αx die Gleichung (1). Daher ist der eindimensionaleUnterraum 〈x〉 die Menge der stetigen Funktionen in U .Zur Beantwortung der Frage, ob es auch unstetige Funktionen in U gibt, wahlen wir uns eine BasisB = {bi | i ∈ I} des Q-Vektorraums R.Nun wahlen wir zu jedem bi ein Bild f(bi) ∈ R , mit der einzigen Bedingung, daß es zwei Indizesi, j ∈ I gibt mit

f(bi)bi6= f(bj)

bj. (2)

(Da die 0 nicht in der Basis B liegen kann, sind alle diese Quotienten definiert.)Fur jedes x ∈ R gibt es eine endliche Teilmenge {bi1 , . . . , bin} von B und rationale Zahlenλ1, . . . , λn mit x =

∑nj=1 λjbij . Durch f(x) :=

∑nj=1 λjf(bij ) wird also eine Funktion f : R→ R

wohldefiniert. Man rechnet leicht nach, daß diese Funktion f die Gleichung (1) erfullt. Wegen (2)ist f nicht von der Form f(x) = αx , kann also nach dem obigen Ergebnis nicht stetig sein. Somithaben wir unstetige Funktionen in U konstruiert und sehen außerdem, daß U unendliche Dimensionhat.

Durch die Verallgemeinerung des Arguments im Beweis von (1.7.12) und eine Anleihe einesResultats aus der Mengenlehre uber die Machtigkeit von Vereinigungen erhalten wir

(1.7.15) Satz Ist V ein unendlich-dimensionaler Vektorraum uber dem Korper K, und Beine Basis von V , dann ist V gleichmachtig zur machtigeren der beiden Mengen K und B.

Beweis: Es sei B eine Basis von V . Die Menge Pe(B) der endlichen Teilmengen vonB ist nach (1.7.5.c) gleichmachtig zur Basis B. Ist T eine endliche Teilmenge von B mitn Elementen, so gibt es eine Bijektion von der Menge L(T ) aller Linearkombinationen vonVektoren aus T auf das n-fache kartesische ProduktK×. . .×K .Durch Induktion nach n folgt

Page 62: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.8 * Vereinigungen und gemeinsame Komplemente von Unterraumen 59

aus (1.7.5.b) die Gleichmachtigkeit von L(T ) und K. Da jeder Vektor v ∈ V eine endlicheLinearkombination von Basiselementen aus B ist, laßt sich V schreiben als Vereinigung

V =⋃

T ∈Pe(B)

L(T ) ∼⋃b∈B

K .

Aus den Rechenregeln fur Machtigkeiten (Kardinalzahlarithmetik)5 ergibt sich, daß einesolche Vereinigung gleichmachtig ist zur machtigeren der beiden Mengen K und B. �

In diesem Abschnitt haben wir gesehen, daß man viele Aussagen uber endlich-dimensionaleVektorraume auch auf unendliche Dimension verallgemeinern kann. Es gibt aber auch Falle,in denen das nicht geht. In Abschnitt 2.10 werden wir die wichtigsten Eigenschaften vonendlich-dimensionalen und unendich-dimensionalen Vektorraumen einander gegenuberstellen.Interessanterweise gibt es auch Eigenschaften, die die Vektorraume abzahlbarer Dimension(endlich oder abzahlbar unendlich) besitzen, aber nicht alle Vektorraume uberabzahlbarerDimension. Ein solches Beispiel findet man in [36].

1.8 * Vereinigungen und gemeinsame Komplemente von Unter-raumen

In (1.2.4) haben wir gesehen, daß die Vereinigung U ∪W zweier Unterraume von V nurdann ein Unterraum von V ist, wenn U ⊆ W oder W ⊆ U gilt. Daraus folgt, daßein Vektorraum niemals die Vereinigung zweier echter Unterraume sein kann. In diesemAbschnitt, der im wesentlichen der Arbeit [4] von Bhaskara Rao und Ramachandra

Rao folgt, wollen wir die Frage untersuchen, wann ein Vektorraum die Vereinigung vonk ≥ 3 echten Unterraumen sein kann, und schließlich aus diesen Ergebnissen eine Folgerunguber die Existenz von gemeinsamen Komplementen fur Unterraume derselben Dimensionvon V ziehen.

(1.8.1) Beispiele Vereinigung von Unterraumen

1. Es sei K = GF (2) der Korper mit zwei Elementen und V = K2 . Dann ist V die Vereinigungder drei echten Unterraume U1 = 〈(1, 0)T 〉 , U2 = 〈(0, 1)T 〉 , U3 = 〈(1, 1)T 〉 .

2. Der Polynomraum V = R[x] ist die Vereinigung der echten Unterraume Rn[x] von V .

Nach (1.8.1.1) gibt es also Vektorraume, die eine Vereinigung von drei echten Unterraumensind. Wie man an (1.8.2) sieht, spielt die Große des Skalarenkorpers eine entscheidendeRolle:

(1.8.2) Satz Es sei V ein Vektorraum beliebiger Dimension uber dem Korper K. Ist n einenaturliche Zahl mit n ≤ |K| , so kann V nicht die Vereinigung von n echten Unterraumensein. Insbesondere kann V nicht die Vereinigung von endlich vielen echten Unterraumensein, wenn der Skalarenkorper K unendlich ist.

5siehe [Hal], p.121 unten und Ubungsaufgabe 1 auf p.122

Page 63: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

60 1 VEKTORRAUME

Beweis: Induktion nach n: Im Fall n = 1 ist der einzige an der Vereinigung beteiligteUnterraum ein echter Unterraum, also die Behauptung trivial.Induktionsschluß n − 1 → n : Es sei V = U1 ∪ . . . ∪ Un . Wir zeigen, daß dann U1 ⊇(U2 ∪ . . . ∪ Un) erfullt sein muß:Dazu nehmen wir als Widerspruchsannahme an, es gabe ein v ∈ (U2 ∪ . . . ∪ Un) \ U1 , undwahlen irgendeinen Vektor u ∈ U1 . Gabe es einen Skalar λ ∈ K mit λu + v ∈ U1 , soware v = (λu + v) − λu ein Element von U1, ein Widerspruch zur Wahl von v. Also istfur alle λ ∈ K der Vektor λu + v kein Element von U1. Fur verschiedene λ, µ ∈ K sindauch die Vektoren λu + v und µu + v verschieden. Wegen |K| ≥ n hat also die Menge{λu+v | λ ∈ K} mindestens n Elemente. Andererseits liegt wegen V = U1∪ (U2∪ . . .∪Un)jeder dieser Vektoren in einem der n− 1 Unterraume U2, . . . , Un . Somit gibt es einen Indexi ∈ {2, . . . , n} und Skalare λ 6= µ ∈ K mit λu+ v , µu+ v ∈ Ui . Daraus folgt aber

u = (λ− µ)−1(λ− µ)u = (λ− µ)−1((λu+ v)− (µu+ v)

)∈ Ui .

Ein beliebiges Element von U1 liegt also in der Vereinigung U2 ∪ . . . ∪ Un . Also ist V =U2∪ . . .∪Un schon eine Vereinigung von n−1 echten Unterraumen und es gilt n−1 ≤ |K| .Das ist ein Widerspruch gegen die Induktionsvoraussetzung. Daher muß U1 ⊇ (U2∪. . .∪Un) ,gelten. Nun haben wir aber U1 = U1∪(U2∪ . . .∪Un) = V , also ist U1 kein echter Unterraumvon V , der abschließende Widerspruch. �

Daß (1.8.2) fur endliche Korper eine bestmogliche Schranke fur die Anzahl der Unterraumeliefert, die man fur eine Uberdeckung von V braucht, zeigt der folgende Satz von Luh

[29]. Ein eindimensionaler Vektorraum kann naturlich niemals eine Vereinigung echter Un-terraume sein, aber fur Vektorraume großerer (auch unendlicher) Dimension gilt

(1.8.3) Satz Es sei V ein Vektorraum der Dimension ≥ 2 uber dem endlichen Korper K.Dann ist V eine Vereinigung von |K|+ 1 echten Unterraumen von V .

Beweis: Es sei {b1, b2} eine linear unabhangige Teilmenge von V . Dann gibt es eine linearunabhangige Teilmenge S von V , so daß B = {b1, b2} ∪ S eine Basis von V ist.

(i) Fur λ, µ ∈ K , (λ, µ) 6= (0, 0) , setzen wir U(λ, µ) = 〈λb1 + µb2, S〉 .Wegen der linearen Unabhangigkeit von B ist U(λ, µ) ein echter Unterraum von V .

(ii) Die Anzahl der in (i) definierten Unterraume U(λ, µ) ist |K|+ 1 :Gilt U(λ, µ) = U(ν, ξ) , so gibt es einen Skalar σ ∈ K \ {o} und einen Vektor s ∈ Smit λb1 + µb2 = σ(νb1 + ξb2) + s , also o = (σν − λ)b1 + (σξ − µ)b2 + s .Wegen der linearen Unabhangigkeit von B folgt s = o und σν − λ = σξ − µ = 0 , alsoλ = σν und µ = σξ .Umgekehrt folgt aus den Bedingungen λ = σν und µ = σξ die Gleichheit von U(λ, µ)und U(ν, ξ) .Es gibt |K|2 − 1 Paare (λ, µ) 6= (0, 0) , und je |K| − 1 von diesen liefern denselben

Unterraum, also gibt es|K|2 − 1|K| − 1

= |K|+ 1 verschiedene solche Unterraume.

(ii) V =⋃

(λ,µ) 6=(0,0)

U(λ, µ) :

Es sei v ∈ V beliebig gewahlt. Dann gibt es λ, µ ∈ K und einen Vektor s ∈ S mitv = λb1 + µb2 + s . Im Fall λ = µ = 0 liegt v in S, also in jedem der in (i) definiertenUnterraume. Andernfalls liegt v in U(λ, µ) . �

Page 64: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

1.8 * Vereinigungen und gemeinsame Komplemente von Unterraumen 61

(1.8.4 ) Satz (Todd) Jeder unendlich-dimensionale Vektorraum uber einem beliebigenKorper hat eine abzahlbare Uberdeckung durch echte Unterraume.

Beweis: Der unendlich-dimensionale Vektorraum V besitzt eine unendliche Basis B. Vondieser konnen wir eine abzahlbar unendliche Teilmenge {bn|n ∈ N} bilden. Fur jedes n ∈ Nsei Un = 〈B \ {bn}〉 . Dann ist jedes Un ein echter Unterraum von V . Andererseits ist jederVektor v ∈ V eine endliche Linearkombination von Elementen aus B. Es gibt also einenmaximalen Index m ∈ N , so daß bm in der Darstellung von v vorkommt. Dann liegt v inUm+1 . Also gilt

⋃n∈N = V . �

In (1.8.1.2) ist ein Vektorraum uber einem uberabzahlbaren Korper angegeben, der eineVereinigung von abzahlbar vielen echten Unterraumen ist. Bei einer Verallgemeinerung von(1.8.2) auf Vereinigungen von unendlich vielen Unterraumen muß man also eine Zusatzvor-aussetzung machen, etwa uber die Dimension von V :

(1.8.5) Satz Es sei V ein endlich-dimensionaler Vektorraum uber dem Korper K. Ist Kecht machtiger als die Indexmenge I, so kann V keine Vereinigung einer Familie {Ui | i ∈ I}von echten Unterraumen von V sein.

Beweis: Wir setzen Ui 6= V fur alle i ∈ I und V =⋃i∈I Ui voraus. Zum Beweis des

Widerspruchs V 6=⋃i∈I Ui fuhren wir eine Induktion nach d = dim(V ) durch. Der Fall

d = 1 ist trivial.Induktionsschluß d− 1→ d : Ist U ein Unterraum der Dimension d− 1 von V , so gilt

U = U ∩ V = U ∩ (⋃i∈I

Ui) =⋃i∈I

(U ∩ Ui) .

Nach Induktionsvoraussetzung konnen nicht alle Unterraume U ∩Ui echte Unterraume vonU sein. Daher gibt es einen Index i0 ∈ I mit U = U ∩ Ui0 , also U ⊆ Ui0 . Wegen

d− 1 = dim(U) ≤ dim(Ui0) < dim(V ) = d

folgt dim(U) = dim(Ui0) , also nach (1.4.12) dann U = Ui0 . Somit kommt jeder Unterraumder Dimension d − 1 in der Familie {Ui | i ∈ I} vor. Nun zeigen wir, daß die Machtigkeitder Menge der Unterraume der Dimension d − 1 von V mindestens so groß ist wie dieMachtigkeit von K. Wegen I ≺ K ergibt dies einen Widerspruch.Es sei B = {b1, . . . , bd} eine Basis von V . Fur λ ∈ K setzen wir

Wλ := 〈b1, . . . , bd−2, bd−1 + λbd〉 .

Nach (1.3.9) hat Wλ die Dimension d− 1 . Fur λ 6= µ gilt außerdem Wλ 6= Wµ :Wir nehmen an, es sei Wλ = Wµ . Dann gilt bd−1 + µbd ∈ Wλ . Also gibt es Skalareβ1, . . . , βd−1 ∈ K mit

bd−1 + µbd = β1b1 + . . .+ βd−2bd−2 + βd−1(bd−1 + λbd) , also

o = β1b1 + . . .+ βd−2bd−2 + (βd−1 − 1)bd−1 + (βd−1λ− µ)bd . (1)

Aus der linearen Unabhangigkeit von B folgt, daß alle Koeffizienten in (1) gleich 0 sind.Insbesondere gilt βd−1− 1 = 0 und βd−1λ− µ = 0 . Daraus folgt zuerst βd−1 = 1 und dann

Page 65: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

62 1 VEKTORRAUME

λ = µ . Nun ist {Wλ | λ ∈ K} eine Menge von (d − 1)-dimensionalen Unterraumen von V ,die die gleiche Machtigkeit wie K hat, der erwunsche Widerspruch. �

Gemeinsame Komplemente.Es sei V ein Vektorraum mit Unterraumen U1 und U2. Ein Unterraum W von V ist eingemeinsames Komplement von U1 und U2 in V , wenn V = U1 ⊕W = U2 ⊕W gilt. Ist Vendlich-dimensional, so gilt dim(W ) = dim(V )−dim(U1) = dim(V )−dim(U2) . Die Existenzeines gemeinsamen Komplements setzt also voraus, daß U1 und U2 dieselbe Dimension haben.

(1.8.6) Beispiel Ist V = R2 , so ist der einzige nichttriviale Fall dim(U1) = dim(U2) = 1 . Es

sei U1 = 〈u1〉 und U2 = 〈u2〉 . Ist U1 = U2 , so ist die Existenz eines gemeinsamen Komplementsauch trivial. Daher setzen wir U1 6= U2 voraus. Dann ist W = 〈u1 + u2〉 ein gemeinsamesKomplement zu U1 und U2. Die Menge {u1, u2} ist namlich eine Basis von V , und nach (1.4.9.b)ist sowohl {u1, u1 + u2} als auch {u1 + u2, u2} eine Basis von V .

Es stellt sich also die Frage, ob zwei oder auch mehrere Unterraume derselben Dimensionstets ein gemeinsames Komplement besitzen.

(1.8.7) Satz Gemeinsames KomplementEs sei V ein endlich-dimensionaler Vektorraum uber dem Korper K, {Ui | i ∈ I} sei ei-ne Familie von Unterraumen von V , die alle dieselbe Dimension haben, und K sei echtmachtiger als die Indexmenge I.Dann gibt es einen Unterraum W von V mit V = Ui ⊕W fur alle i ∈ I .

Beweis: Es sei T = {U Unterraum von V | U ∩ Ui = {o} fur alle i ∈ I} . Wegen{o} ∈ T ist T nicht leer. Wegen dim(V ) <∞ gibt es ein Element W von T mit maximalerDimension m.Wir nehmen an, W sei kein gemeinsames Komplement der Unterraume Ui und setzen U ′i =W + Ui fur alle i ∈ I . Da W fur mindestens einen Unterraum Ui0 kein Komplement ist,gilt dim(W + Ui0) < dim(V ) , also dim(W + Ui) < dim(V ) fur alle i ∈ I . Nun sinddie Unterraume U ′i echte Unterraume von V , und nach (1.8.5) folgt V 6=

⋃i∈I U

′i . Wir

wahlen einen Vektor v ∈ V \⋃i∈I U

′i und setzen W ′ = 〈W, v〉 = W ⊕ 〈v〉 . Dann gilt

dim(W ′) = dim(W ) + 1 , und W ′ ∩ Ui = {o} fur alle i ∈ I . Zum Beweis der zweitenBehauptung betrachten wir ein x ∈ W ′ ∩ Ui . Es existieren ein Vektor w ∈ W und einSkalar λ ∈ K mit x = w + λv . Es folgt λv = x− w ∈ U ′i , also λ = 0 nach der Wahl vonv. Dann ist aber x = w ∈ W ∩ Ui = {o} , also W ′ ∩ Ui = {o} .Nun haben wir W ′ ∈ T und dim(W ′) > dim(W ) , ein Widerspruch gegen die Maximalitatvon dim(W ) . �

Insbesondere hat eine abzahlbare Familie von Unterraumen derselben Dimension eines end-lichdimensionalen Vektorraums uber R oder C stets ein gemeinsames Komplement.(1.8.7) kann man mit Hilfe von Faktorraumen (s. Kapitel 3) auch fur endlich-dimensionaleUnterraume Ui eines unendlich-dimensionalen Vektorraums V beweisen6. Die Existenz einesmaximalen Elements in T zeigt man dann mit dem Zornschen Lemma.

Literatur: Weitere Aussagen zum Thema dieses Abschnitts stehen in [53] und [52].

6[4], Theorem 6

Page 66: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

63

2 Lineare Abbildungen

2.1 Lineare Abbildungen

Definition: lineare Abbildung, Homomorphismus, EndomorphismusEs seien V,W zwei Vektorraume uber demselben Skalarenkorper K.Eine Abbildung ϕ : V → W heißt lineare Abbildung oder Homomorphismus, wenn fur allev, v1, v2 ∈ V und fur alle λ ∈ K gilt:

(L1) ϕ(v1 + v2) = ϕ(v1) + ϕ(v2) ;(L2) ϕ(λv) = λϕ(v) .

Lineare Abbildungen mit bestimmten Zusatzeigenschaften, die besonders haufig vorkommen,haben eigene Namen:

Definition: Endomorphismus, IsomorphismusEinen Homomorphismus von V in denselben Vektorraum V nennt man lineare Selbstabbil-dung von V oder Endomorphismus von V .Einen Homomorphismus von V nach W , der bijektiv (also sowohl injektiv als auch surjektiv)ist, nennt man Isomorphismus.Existiert ein Isomorphismus ϕ : V → W , so sagt man: V und W sind isomorph.

Die Voraussetzung, daß V und W denselben Skalarenkorper haben, braucht man fur (L2):der Skalar λ muß sowohl mit v ∈ V als auch mit ϕ(v) ∈ W multipliziert werden konnen.Der Endomorphismus, der alle Vektoren v ∈ V auf den Nullvektor o abbildet, soll mit 0bezeichnet werden. Dieser Endomorphismus heißt Nullabbildung.Wir notieren zuerst einige elementare Eigenschaften linearer Abbildungen:

(2.1.1 ) Lemma Es seien V,W,Z Vektorraume uber demselben Skalarenkorper und ϕ :V → W sowie ψ : W → Z lineare Abbildungen.

(a) Die Hintereinanderausfuhrung ψ ◦ ϕ : V → Z ist eine lineare Abbildung.(b) Ist ϕ : V → W invertierbar, so ist auch die Umkehrung ϕ−1 linear.(c) Ist ϕ : V → W linear, so gilt ϕ(oV ) = oW .(d) Es sei B eine (nicht notwendig endliche) Basis von V . Dann ist ϕ durch die Bilder

ϕ(b), b ∈ B, vollstandig beschrieben.

Beweis:

(a) Fur v1, v2 ∈ V gilt

ψ(ϕ(v1 + v2)

)= ψ

(ϕ(v1) + ϕ(v2)

)= ψ

(ϕ(v1)

)+ ψ

(ϕ(v2)

),

also erfullt ψ ◦ ϕ die Bedingung (L1). Analog fur (L2).(b) Die Umkehrabbildung ist auf der Bildmenge Bild(V ) = {ϕ(v) | v ∈ V } definiert.

Zu Vektoren w1, w2 ∈ Bild(V ) gibt es wegen der Invertierbarkeit von ϕ eindeutigbestimmte Urbilder v1, v2 ∈ V mit ϕ(vi) = wi . Es folgt

ϕ−1(w1+w2

)= ϕ−1

(ϕ(v1)+ϕ(v2)

)= ϕ−1

(ϕ(v1+v2)

)= v1+v2 = ϕ−1(w1)+ϕ−1(w2) ,

also erfullt ϕ−1 die Bedingung (L1). Analog fur (L2).

(c) Es gilt ϕ(oV ) = ϕ(0 · oV )(L2)= 0 · ϕ(oV ) = oW .

Page 67: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

64 2 LINEARE ABBILDUNGEN

(d) Fur ein beliebiges v ∈ V gibt es eine endliche Teilmenge {b1, . . . , bn} von B und Skalareα1, . . . , αn ∈ K mit v =

∑ni=1 αibi . Es folgt

ϕ(v) = ϕ( n∑i=1

αibi)

=n∑i=1

αiϕ(bi) .

Also konnen wir ϕ(v) angeben, wenn wir ϕ(b) fur alle b ∈ B kennen. �

(2.1.2) Beispiele Lineare Abbildungen

1. Es sei V ein Vektorraum uber dem Korper K und λ ∈ K . Die Abbildungen ϕλ : v → λv ,die jeden Vektor auf das λ-fache strecken, heißen Streckungen oder Homothetien und sindlinear. Ein Spezialfall davon ist die identische Abbildung idV = ϕ1 , die alle Vektoren aus Vauf sich selbst abbildet.

2. Sei V ein Vektorraum der Dimension n und eine Basis (b1, . . . , bn) von V fixiert. Bezuglichdieser Basis habe jeder Vektor v ∈ V die Komponenten v1, . . . vn . Die Abbildung πi : V →V , die v abbildet auf vibi , heißt Projektion auf die i-te Komponente und ist eine lineareAbbildung.

3. Es sei V = R[x] = {α0 + α1x + . . . + αnxn | n ∈ N , α0, . . . , αn ∈ R} der Vektorraum aller

Polynome mit reellen Koeffizienten (und beliebigem Grad). Die Differentiation δ : f 7→ f ′

und die Integration ι : f 7→∫ 1

0 f(x)dx sind lineare Abbildungen von V nach V bzw. von Vnach R.Die Abbildung ϕ : f 7→

(f(0)

)2 +(f(1)

)2 hingegen ist nicht linear.

4. Es sei K ein beliebiger Korper und V = K2. Fur einen Vektor v = (v1, v2)T ∈ V setzen wir

ϕ(v) = (v1 + v2 , v1 + v2)T .

Man rechnet leicht nach, daß ϕ ein Endomorphismus von V ist.

Definition: Bild und Kern einer linearen AbbildungEs seien V und W K-Vektorraume, und ϕ : V → W sei eine lineare Abbildung.Bild(ϕ) := {ϕ(v) | v ∈ V } .Kern(ϕ) := { v ∈ V | ϕ(v) = oW } .

Der Beweis der Unterraum-Eigenschaft von Kern(ϕ) und Bild(ϕ) ist eine leichte Ubung.

(2.1.3) Satz Es sei ϕ : V → W eine lineare Abbildung.(a) Kern(ϕ) ist ein Unterraum von V ;(b) Bild(ϕ) ist ein Unterraum von W .

Ist ϕ : V → W eine lineare Abbildung und T eine Teilmenge von V , so bezeichnen wir mit

ϕ(T ) = {ϕ(v) | v ∈ T}

die Menge der Bilder der Vektoren aus T . In dieser Schreibweise gilt also Bild(ϕ) = ϕ(V ) .

Page 68: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.1 Lineare Abbildungen 65

Definition: Rang und DefektEs sei ϕ : V → W eine lineare Abbildung. Die Dimension von Kern(ϕ) heißt Defekt vonϕ, die Dimension von Bild(ϕ) heißt Rang von ϕ.

Die Injektivitat von ϕ laßt sich am Kern von ϕ ablesen. Aus der Definition von Rang undDefekt ist sofort die folgende Aquivalenz klar:

(2.1.4) Korollar injektive lineare AbbildungenFur eine lineare Abbildung ϕ : V → W sind aquivalent:

(i) ϕ ist injektiv;(ii) Kern(ϕ) = {oV } ;

(iii) Defekt(ϕ) = 0 .

(2.1.5) Beispiele Bild und Kern1. Es sei V ein Vektorraum uber dem Korper K, λ ∈ K, und ϕλ : V → V die Streckung um

den Faktor λ (vgl.(2.1.2.1)).1. Fall: λ = 0 . Jedes v ∈ V wird auf den Vektor 0v = o abgebildet. Also gilt Bild(ϕ) = {o}und Kern(ϕ) = V .2. Fall: λ 6= 0 . Fur v 6= o ist ϕ(v) = λv 6= o . Daher ist Kern(ϕ) = {o} . Wegen λ 6= 0 gibt esλ−1 ∈ K, und fur jedes v ∈ V gilt v = λ(λ−1v) ∈ Bild(ϕ) . Also haben wir Bild(ϕ) = V .

2. Es sei (b1, . . . , bn) eine Basis des Vektorraums V und π : V → V die Projektion auf die i-teKomponente (vgl. Beispiel (2.1.2.2)).Fur alle 1 ≤ i ≤ n gilt Bild(πi) = 〈bi〉 und Kern(πi) = 〈bj |; | j 6= i〉 . Hier haben wir alsoV = Bild(πi)⊕Kern(πi) .

3. Es sei V = R[x] der Vektorraum aller Polyonome mit reellen Koeffizienten, und δ : V → Vsei die Differentiation auf V (vgl. Beispiel (2.1.2.3)).Dann gilt Bild(δ) = V und Kern(δ) = {f ∈ V | f konstantes Polynom} .

4. Wir berechnen Kern und Bild des Endomorphismus

ϕ :(v1

v2

)→(v1 + v2

v1 + v2

)von V = K2 (vgl. Beispiel (2.1.2.4)).Es gilt v ∈ Kern(ϕ)⇐⇒ v1 + v2 = 0⇐⇒ v2 = −v1 , also Kern(ϕ) = 〈(1,−1)T 〉 .Ebenso haben wir v ∈ Bild(ϕ)⇐⇒ v1 = v2 . Im Fall α := v1 = v2 gilt namlich

ϕ((α, 0)T

)= (α, α)T = v .

Damit folgt Bild(ϕ) = 〈(1, 1)T 〉 .

(2.1.6) Lemma Es seien V,W Vektorraume uber K, wobei V endliche Dimension n besitze.Ist B = (b1, . . . , bn) eine Basis von V derart, daß (b1, . . . , bk) eine Basis von Kern(ϕ) ist,so ist (ϕ(bk+1), . . . , ϕ(bn)) eine Basis von Bild(ϕ) .

Beweis: Nach dem Beweis zu (2.1.1.d) ist klar, daß {ϕ(bk+1), . . . , ϕ(bn)} ein Erzeugenden-system von Bild(ϕ) ist. Es ist also noch zu zeigen, daß diese Menge linear unabhangig ist.Dazu betrachten wir eine Linearkombination

oW = αk+1ϕ(bk+1) + . . .+ αnϕ(bn) = ϕ(αk+1bk+1 + . . .+ αnbn) .

Page 69: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

66 2 LINEARE ABBILDUNGEN

Der Vektor αk+1bk+1 + . . . + αnbn liegt also in Kern(ϕ) . Da B eine Basis ist, haben dieUnterraume Kern(ϕ) = 〈b1, . . . , bk〉 und 〈bk+1, . . . , bn〉 den Durchschnitt {o} , und es folgtαk+1 = . . . = αn = 0 . �

(2.1.7) Satz Dimensionssatz fur lineare AbbildungenEs seien V,W Vektorraume uber K, wobei V endliche Dimension n besitze. Fur jede lineareAbbildung ϕ : V → W gilt

Rang(ϕ) + Defekt(ϕ) = dim(V ) .

Beweis: Es sei dim(V ) = n .Dann ist k := dim(Kern(ϕ)) ≤ n .Nach dem Basiserganzungssatzkann man eine Basis (b1, . . . , bk) von Kern(ϕ) erganzen zu einer Basis (b1, . . . , bn) von V .Nach (2.1.6) ist dann (ϕ(bk+1), . . . , ϕ(bn)) eine Basis von Bild(ϕ) . Also folgt dim(V ) =n = k + (n− k) = dim(Kern(ϕ)) + dim(Bild(ϕ)) = Defekt(ϕ) + Rang(ϕ) . �

(2.1.8) Korollar Es seien V,W zwei endlichdimensionale Vektorraume uber K mitdim(V ) = dim(W ) . Eine lineare Abbildung ϕ : V → W ist surjektiv genau dann, wenn sieinjektiv ist. Insbesondere gilt diese Aussage fur Endomorphismen.

(2.1.9) Beispiel Die Endlichkeitsbedingung in (2.1.8) ist unverzichtbar. Sei V = W wie in(2.1.2.3) der (unendlich-dimensionale) Vektorraum aller Polynome uber R und δ : V → V dieDifferentiation.δ ist nicht injektiv, denn der Kern von δ enthalt alle konstanten Funktionen. Andererseits ist einbeliebiges Polynom α0 +α1x+ . . .+αnx

n die Ableitung von α0x+ 12α1x

2 + . . .+ 1n+1αnx

n+1 , alsoein Bild unter δ. Daher ist δ surjektiv, aber nicht injektiv.Der Endomorphismus ϕ von V sei definiert durch

ϕ :n∑i=0

αixi 7→

n∑i=0

αii+ 1

xi+1 .

ϕ bildet also das Polynom f ab auf die Stammfunktion von f , die im Punkt 0 den Funktionswert0 hat. Diese Abbildung ist injektiv, aber nicht surjektiv, weil die konstanten Polynome 6= 0 nichtals Bilder vorkommen. Bild(ϕ) hat die Basis {x, x2, x3, . . . } .

Der nachste Satz zeigt, wie man lineare Abbildungen konstruieren kann:

(2.1.10) Satz Es seien V und W Vektorraume beliebiger Dimension uber dem Korper K,und B = (bi | i ∈ I) eine Basis von V . Sei {wi | i ∈ I} eine Teilmenge von W .Dann gibt es genau eine lineare Abbildung ϕ : V → W mit ϕ(bi) = wi fur alle i ∈ I .

Beweis: Die Eindeutigkeit von ϕ ist klar nach (2.1.1.d). Zum Beweis der Existenz vonϕ geben wir fur jedes v ∈ V das Bild ϕ(v) an: Der Vektor v kann wegen der Basisei-genschaft von B in genau einer Weise geschrieben werden als endliche Linearkombinationv =

∑nj=1 αijbij . Wir setzen ϕ(v) :=

∑nj=1 αijwij .

Dadurch ist eine Abbildung ϕ : V → W wohldefiniert, und es gilt ϕ(bi) = wi fur alle i ∈ I.

Page 70: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.1 Lineare Abbildungen 67

Wir mussen noch zeigen, daß ϕ linear ist. Sind v1 =∑n

j=1 αijbij und v2 =∑n

j=1 βijbij , sogilt v1 + v2 =

∑nj=1(αij + βij)bij , also

ϕ(v1 + v2) =n∑j=1

(αij + βij)wij =n∑j=1

αijwij +n∑j=1

βijwij = ϕ(v1) + ϕ(v2) .

Damit erfullt ϕ die Bedingung (L1). Analog zeigt man (L2). �

(2.1.11) Beispiele

1. Es sei V = R2 und W = R

3 . Die Vektoren b1 = (1, 0)T , b2 = (−1, 17)T bilden eine Basisvon V . Deshalb gibt es genau eine lineare Abbildung ϕ : V → W mit ϕ(b1) = (0, 0, 5)T

und ϕ(b2) = (2,−14, 11)T .

2. Es sei V = W = R3 und b1 = (1, 2, 3)T , b2 = (0, 2, 1)T , b3 = (1, 0, 2)T . Diese drei Vektoren

bilden keine Basis von V . Außerdem gibt es keine lineare Abbildung ϕ : V →W mit

ϕ(b1) = (1, 5, 1)T , ϕ(b2) = (0, 3, 0)T , ϕ(b3) = (0, 1, 1)T .

Es gilt namlich ϕ(b1 − b2) = ϕ(b3) = (0, 1, 1)T 6= (1, 2, 1)T = ϕ(b1)− ϕ(b2) .Dies zeigt, daß man in (2.1.10) die Vektoren bi wirklich aus einer Basis von V wahlen muß.Die Bildvektoren wi dagegen sind beliebig wahlbar.

(2.1.10) liefert uns zu zwei Vektorraumen V und W uber demselben Skalarenkorper immereine lineare Abbildung ϕ : V → W , wobei wir die Bilder der Basiselemente von V auchnoch beliebig in W wahlen durfen. Nun fragen wir nach der Existenz eines Isomorphismusϕ : V → W , das heißt einer linearen Abbildung, die zugleich injektiv und surjektiv ist.

(2.1.12) Satz Zwei Vektorraume genau dann isomorph, wenn sie denselben Skalarenkorperund dieselbe Dimension besitzen.

(Man sagt: Ein Vektorraum ist bis auf Isomorphie festgelegt durch Skalarenkorper undDimension.)

Beweis:”⇒“ Es sei ϕ : V → W ein Isomorphismus und BV eine Basis von V . Die

Skalarenkorper mussen nach der Definition einer linearen Abbildung ubereinstimmen. Wirzeigen, daß ϕ(BV ) := (ϕ(b) | b ∈ B) eine Basis von W ist, und daß ϕ(BV ) und BV gleich-machtig sind:Die Abbildung ϕ ist surjektiv, also gibt es zu jedem w ∈ W ein v ∈ V mit w = ϕ(v) . DaBV eine Basis von V ist, laßt sich v schreiben als endliche Linearkombination v =

∑ni=1 αibi

von Elementen bi aus BV . Damit ist w =∑n

i=1 αiϕ(bi) eine endliche Linearkombination vonElementen aus ϕ(BV ), das heißt: ϕ(BV ) ist ein Erzeugendensystem fur W .Nach Voraussetzung ist ϕ injektiv. Aus der Annahme

oW =n∑i=1

αiϕ(bi) = ϕ(n∑i=1

αibi)

folgt also∑n

i=1 αibi = oV . Die lineare Unabhangigkeit von BV erzwingt nun α1 = . . . =αn = 0. Also ist auch ϕ(BV ) linear unabhangig.

Page 71: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

68 2 LINEARE ABBILDUNGEN

Wegen der Injektivitat von ϕ ist zudem die Einschrankung von ϕ auf BV eine Bijektion vonBV auf ϕ(BV ).⇐ Eine Basis BV von V und eine Basis BW von W sind nach Voraussetzung gleichmachtigund konnen daher mit derselben Indexmenge I versehen werden: BV = (vi | i ∈ I) , undBW = (wi | i ∈ I) . Nach (2.1.10) gibt es genau eine lineare Abbildung ϕ : V → W mitϕ(vi) = wi fur alle i ∈ I . Da {ϕ(vi) | i ∈ I} = {wi | i ∈ I} ein Erzeugendensystem von Wist, ist ϕ surjektiv. Wegen der linearen Unabhangigkeit von BW ist Kern(ϕ) = {oV } , alsoist ϕ nach (2.1.4) auch injektiv. �

In (2.1.1.1) haben wir gesehen, daß die Hintereinanderausfuhrung zweier linearer Abbildun-gen ϕ : V → W und ψ : W → Z wieder eine lineare Abbildung ist. Es gibt noch mehrMoglichkeiten, aus gegebenen linearen Abbildungen weitere zu konstruieren:

Definition: Summe und skalares Produkt von linearen AbbildungenEs seien ϕ, ψ : V → W lineare Abbildungen und λ ∈ K .

(L3) Die Summe von ϕ und ψ ist definiert durch (ϕ+ ψ)(v) := ϕ(v) + ψ(v) .(L4) Das skalare Produkt von ϕ mit λ ist definiert durch (λϕ)(v) := λ

(ϕ(v)

).

Es ist leicht nachzurechnen, daß diese wertweise definierten Abbildungen tatsachlich linearsind. Fur die Linearitatseigenschaft (L2) wird ubrigens die Kommutativitat des Skalaren-korpers benotigt. Die Namen

”Summe“ und

”skalare Multiplikation“ erinnern nicht zufallig

an die Definition des Vektorraums:

(2.1.13) Satz Der Vektorraum Hom(V,W )Es seien V,W endlichdimensionale Vektorraume uber dem Korper K mit dim(V ) = n unddim(W ) = m .

(a) Die Menge Hom(V,W ) aller linearen Abbildungen von V nach W bildet mit der Sum-me (L3) und der skalaren Multiplikation (L4) einen Vektorraum uber K.

(b) Ist (v1, . . . , vn) eine Basis von V und (w1, . . . , wm) eine Basis von W , und ist ϕi,jdie lineare Abbildung von V nach W mit

ϕi,j(vi) = wj und ϕi,j(vk) = oW fur k 6= i,so ist (ϕ1,1, . . . , ϕn,m) eine Basis von Hom(V,W ) .Insbesondere hat Hom(V,W ) die Dimension n ·m.

Beweis: (a) Offensichtlich gelten die Vektorraumaxiome fur Hom(V,W ) . Der Nullvektorin Hom(V,W ) ist die Nullabbildung, das heißt die Abbildung ϕ : V → W mit ϕ(v) = oWfur alle v ∈ V .(b) Nach (2.1.10) und (2.1.1.d) gibt es genau eine lineare Abbildung ϕi,j : V → W , die dieangegebenen Bedingungen erfullt.Die Menge {ϕi,j | 1 ≤ i ≤ n , 1 ≤ j ≤ m} ist eine linear unabhangige Teilmenge vonHom(V,W ) :Sei

∑ni=1

∑mj=1 αi,jϕi,j die Nullabbildung. Dann gilt fur alle 1 ≤ k ≤ n :

oW =( n∑i=1

m∑j=1

αi,jϕi,j)(vk) =

n∑i=1

m∑j=1

αi,jϕi,j(vk) =m∑j=1

αk,jϕk,j(vk) =m∑j=1

αk,jwj .

Wegen der linearen Unabhangigkeit der Vektoren w1, . . . , wm geht dies nur fur αk,1 = . . . =αk,m = 0 .

Page 72: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.2 Homothetien und Linearformen. Der Dualraum 69

Die Menge {ϕi,j | 1 ≤ i ≤ n , 1 ≤ j ≤ m} erzeugt Hom(V,W ) :Sei ϕ ∈ Hom(V,W ) und zk := ϕ(vk) fur 1 ≤ k ≤ n . Jedes zk laßt sich schreiben alsLinearkombination zk =

∑mj=1 ζk,jwj . Fur die Bilder der Basisvektoren v1, . . . , vn von V

unter der Abbildung ϕ′ :=∑n

i=1

∑mj=1 ζi,jϕi,j gilt

ϕ′(vk) =( n∑i=1

m∑j=1

ζi,jϕi,j)(vk) =

n∑i=1

m∑j=1

ζi,jϕi,j(vk) =m∑j=1

ζk,jwj = zk .

ϕ′ bildet also die Basisvektoren vk genauso ab wie die Abbildung ϕ. Daher gilt ϕ = ϕ′ , undϕ liegt im Erzeugnis der ϕi,j . �

2.2 Homothetien und Linearformen. Der Dualraum

Wir kommen noch einmal zuruck zur einfachsten Sorte von linearen Selbstabbildungen einesVektorraums V , den Homothetien oder Streckungen (vgl. (2.1.2.)). Bezeichnen wir fur λ ∈K mit ϕλ die Homothetie, die jeden Vektor v ∈ V auf λv abbildet, so gilt:

(i) (ϕλ + ϕµ)(v)(L3)= ϕλ(v) + ϕµ(v) = λv + µv = (λ+ µ)v = ϕλ+µ(v)

(ii) (µ · ϕλ)(v)(L4)= µ

(ϕλ(v)

)= µ(λv) = (µλ)v = ϕµλ(v) .

Die Teilmenge H aller Homothetien in Hom(V, V ) ist außerdem nicht leer, denn die Null-abbildung ϕ0 gehort zu H.

(2.2.1) Satz Der Vektorraum der HomothetienEs sei V ein Vektorraum beliebiger Dimension.

(a) Die Menge H aller Homothetien von V bildet einen Unterraum von Hom(V, V ) .

(b) Es gilt dim(H) =

{1 falls V 6= {o}0 falls V = {o} .

Beweis: Die Unterraumeigenschaft von H haben wir im Vorspann nachgewiesen.Ist V = {o} , so besteht schon Hom(V, V ) nur aus der Nullabbildung ϕ0 und hat dieDimension 0. Ist V 6= {o} , so ist die identische Abbildung ϕ1 nicht die Nullabbildung.Wegen ϕλ = λ · ϕ1 fur alle λ ∈ K gilt H = 〈ϕ1〉 und damit dim(H) = 1 . �

Wir charakterisieren nun Homothetien durch ihr Abbildungsverhalten bezuglich der Un-terraume von V :

(2.2.2) Satz Es sei ϕ ∈ Hom(V, V ) . Dann sind aquivalent:(i) ϕ ist eine Homothetie;

(ii) Fur jeden Unterraum U von V gilt ϕ(U) ⊆ U ;(iii) Fur jeden eindimensionalen Unterraum U von V gilt ϕ(U) ⊆ U .

Beweis: Die Richtungen (i) ⇒ (ii) und (ii) ⇒ (iii) sind klar. Zum Beweis der Richtung(iii)⇒ (i) starten wir mit einem beliebigen Vektor v ∈ V \{o} . Dann ist 〈v〉 ein eindimen-sionaler Unterraum von V und ϕ(v) ∈ 〈v〉 . Also gibt es ein λv ∈ K mit ϕ(v) = λv · v . Esist nun zu zeigen, daß λv nicht von v abhangt.

Page 73: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

70 2 LINEARE ABBILDUNGEN

1.Fall: V = {o} . Dann ist Hom(V, V ) = {ϕ0} und die Aussage klar.2.Fall: V 6= {o} . Sei w ein anderer Vektor in V \{o} . Es gilt ϕ(w) = λww . Liegt v in〈w〉 , so gibt es ein µ ∈ K mit v = µw . Es folgt λvv = ϕ(v) = ϕ(µw) = µϕ(w) = µλww =λw(µw) = λwv , also λv = λw .Liegt v nicht in 〈w〉 , so sind v und w linear unabhangig. Weiter gilt λvv + λww =ϕ(v) + ϕ(w) = ϕ(v + w) = λv+w(v + w) , also (λv − λv+w)v + (λw − λv+w)w = o . Das gehtaber wegen der linearen Unabhangigkeit von v und w nur fur λv = λv+w = λw . Also giltλv = λw fur alle v ∈ V . �

Definition: vertauschbare EndomorphismenZwei Endomorphismen ϕ, ψ ∈ Hom(V, V ) heißen vertauschbar, wenn ϕ ◦ ψ = ψ ◦ ϕ gilt.

(2.2.3) Satz Die Homothetien sind die einzigen Endomorphismen von V , die mit allenanderen Endomorphismen von V vertauschbar sind.

Beweis: Ist ϕλ die Homothetie mit dem Streckungsfaktor λ, so gilt fur alle Endomorphismenψ von V : ψ ◦ ϕλ = λψ = ϕλ ◦ ψ .Sei nun ϕ ∈ Hom(V, V ) und v ∈ V ein Vektor mit ϕ(v) = w /∈ 〈v〉 . Dann gilt v 6= o ,und es gibt eine Basis B von V , die die beiden Vektoren v und w enthalt. Sei nun ψ derEndomorphismus von V , der w auf v + w und alle anderen Basisvektoren von B auf sichselbst abbildet. Dann gilt ψ ◦ ϕ(v) = ψ(w) = v + w und ϕ ◦ ψ(v) = ϕ(v) = w . Wegenv 6= o folgt ψ ◦ ϕ(v) 6= ϕ ◦ ψ(v) . �

In (2.1.13) haben wir fur Vektorraume V und W uber dem Korper K den VektorraumHom(V,W ) aller linearen Abbildungen von V nach W untersucht. Den Korper K kann manals eindimensionalen Vektorraum uber K auffassen, so wie man etwa in der reellen EbeneR

2 den eindimensionalen Unterraum, der durch die x-Achse gegeben ist, mit R identifiziert.

Definition: Linearform, Dualraum, BidualraumEine lineare Abbildung ϕ : V → K heißt Linearform. Die Linearformen sind also dieElemente von Hom(V,K) .Hom(V,K) wird Dualraum von V genannt und mit V ∗ bezeichnet.Der Dualraum (V ∗)∗ von V ∗ wird bezeichnet mit V ∗∗ und Bidualraum genannt.

Die Notation ist leider nicht immer ganz einheitlich. Manchmal wird der Dualraum auchmit tV bezeichnet. Aus (2.1.13) ergibt sich als Spezialfall

(2.2.4) Korollar Duale BasisEs sei V ein endlichdimensionaler Vektorraum uber dem Korper K, und B = (b1, . . . , bn)eine Basis von V .

(a) Fur alle i ∈ {1, . . . , n} gibt es eine Linearform λi : V → K mit

λi(bj) =

{1 fur i = j0 fur i 6= j

.

(b) (λ1, . . . , λn) ist eine Basis von V ∗ und heißt”

die zu B duale Basis von V ∗“ .(c) dim(V ) = dim(V ∗) = dim(V ∗∗) .

Page 74: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.2 Homothetien und Linearformen. Der Dualraum 71

Die Voraussetzung, daß V endliche Dimension hat, ist in (2.2.4) unverzichtbar. Im Falleunendlicher Dimension von V sind V und sein Dualraum V ∗ nicht mehr isomorph (s. (2.9.6)).

(2.2.5) Beispiel Dualraum und Bidualraum, AuswertungslinearformEs sei V = R3[x] der Vektorraum der reellen Polynome vom Grad ≤ 3 . Er hat die Dimension 4und eine Basis (1, x, x2, x3) .Der Dualraum V ∗ besitzt nach (2.1.13.b) die Basis (ϕ1, ϕ2, ϕ3, ϕ4) wobei ϕi(xi−1) = 1 undϕi(xj) = 0 fur j 6= i− 1 gilt.Mit f soll im folgenden immer ein Vektor aus V , also ein Polynom bezeichnet werden, mit kleinengriechischen Buchstaben dagegen Linearformen.Die Abbildung ρ : f 7→

∫ 10 f(x)dx ist eine Linearform von V . Sie bildet die Basiselemente von V

folgendermaßen ab:ρ(1) = 1 , ρ(x) = 1

2 , ρ(x2) = 13 , ρ(x3) = 1

4 .Also konnen wir ρ als Linearkombination ρ = ϕ1 + 1

2ϕ2 + 13ϕ3 + 1

4ϕ4 der Basiselemente von V ∗

schreiben.Eine weitere Linearform ist die Abbildung ψ : f 7→ f ′(3) . Die Bilder der Basiselemente von V sind

ψ(1) = 0 , ψ(x) = 1 , ψ(x2) = 6 , ψ(x3) = 27 ,und wir konnen ψ als Linearkombination ψ = ϕ2+6ϕ3+27ϕ4 der Basiselemente von V ∗ schreiben.Mit großen griechischen Buchstaben bezeichnen wir nun Elemente aus V ∗∗, das heißt Linearformenvon V ∗. Sie bilden jede Linearform ϕ ∈ V ∗ ab auf eine reelle Zahl.Sei zum Beispiel f ∈ V ein fest gewahltes Polynom. Fur jedes ϕ ∈ V ∗ ist dann ϕ(f) eine reelleZahl, namlich der Wert der Abbildung ϕ an der Stelle f . Die Abbildung Φf : ϕ 7→ ϕ(f) ist eineLinearform von V ∗. Wir nennen sie Auswertungslinearform an der Stelle f .Wahlen wir zum Beispiel f(x) = x2 + 1 , so ergibt sich mit den obigen Bezeichnungenρ(f) =

∫ 10 (x2 + 1)dx = 4

3 und ψ(f) = f ′(3) = 6 , also Φf (ρ) = 43 und Φf (ψ) = 6 .

Es gilt ϕ1(f) = ϕ1(x2 + 1) = ϕ1(x2) + ϕ1(1) = 1 und analog ϕ3(f) = 1 und ϕ2(f) = ϕ4(f) = 0 .Daher sind Φf (ϕ1) = 1 , Φf (ϕ2) = 0 , Φf (ϕ3) = 1 , Φf (ϕ4) = 0 die Bilder der Basiselementeϕ1, . . . , ϕ4 unter der Linearform Φf . Somit konnen wir auch auf andere Weise die Bilder Φf (ρ)und Φf (ψ) berechnen:ρ = ϕ1 + 1

2ϕ2 + 13ϕ3 + 1

4ϕ4 , also giltΦf (ρ) = Φf (ϕ1) + 1

2Φf (ϕ2) + 13Φf (ϕ3) + 1

4Φf (ϕ4) = 1 + 13 = 4

3 , undΦf (ψ) = Φf (ϕ2) + 6Φf (ϕ3) + 27Φf (ϕ4) = 6 .

(2.2.6) Satz Trennungseigenschaft des DualraumsEs sei V ein Vektorraum beliebiger Dimension, U ein Unterraum von V , und v ein Vektorin V mit v /∈ U . Dann gibt es eine Linearform λ von V mit λ(v) = 1 und λ(u) = 0 furalle u ∈ U .

Beweis: Ist BU eine Basis von U , so ist die Menge BU ∪ {v} wegen v /∈ 〈BU〉 linearunabhangig, kann also zu einer Basis von V vervollstandigt werden. Aus (2.1.10) folgt dieBehauptung. �

Der nachste Satz hat das bemerkenswerte Resultat, daß die in Beispiel (2.2.5) aufgetrete-nen Auswertungslinearformen Φf , f ∈ V , schon alle Linearformen Φ ∈ V ∗∗ sind, falls Vendliche Dimension hat.

Page 75: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

72 2 LINEARE ABBILDUNGEN

(2.2.7) Satz AuswertungslinearformEs sei V ein endlich-dimensionaler K-Vektorraum. Fur v ∈ V sei Φv ∈ V ∗∗ definiert durch

Φv(ϕ) = ϕ(v) fur alle ϕ ∈ V ∗ ,

Dann ist die Abbildung ι : v 7→ Φv ein Isomorphismus von V nach V ∗∗.

Beweis: Fur v1, v2 ∈ V und ϕ ∈ V ∗ gilt Φv1+v2(ϕ) = ϕ(v1 + v2) = ϕ(v1) + ϕ(v2) =Φv1 + Φv2 . Daher ist (L1) erfullt. Genauso zeigt man (L2). Folglich ist die Abbildung ιlinear. Zu jedem v ∈ V \{o} gibt es eine Basis (v, v2, . . . , vn) von V . Weiter gibt es nach(2.1.10) genau eine Linearform ϕ ∈ V ∗ mit ϕ(v) = 1 und ϕ(v2) = . . . = ϕ(vn) = 0 . Es folgtΦv(ϕ) = 1 , und Φv ist nicht die Nullabbildung. Das liefert Kern(ι) = {oV } und schließlichdie Injektivitat von ι. Die Surjektivitat von ι ist dann klar nach (2.1.8). �

(2.2.8) Satz Dualitat zwischen V und V ∗

Es sei V ein endlichdimensionaler Vektorraum und V ∗ sein Dualraum. Fur einen UnterraumU von V setzen wir δ(U) := {ϕ ∈ V ∗ | ϕ(U) = {0}} .

(a) δ(U) ist ein Unterraum von V ∗ der Dimension dim(V )− dim(U) .(b) Sind U1 ⊆ U2 Unterraume von V , so gilt δ(U1) ⊇ δ(U2) .(c) Sind U1, U2 Unterraume von V , so gilt

δ(U1 + U2) = δ(U1) ∩ δ(U2) und δ(U1 ∩ U2) = δ(U1) + δ(U2) .

(d) Die Abbildung δ ist eine Bijektion zwischen der Menge der Unterraume von V undder Menge der Unterraume von V ∗.

Die Abbildung δ wird Dualitat, der Unterraum δ(U) wird Annullator von U genannt.

Beweis:

(a) Es sei dim(V ) = n , dim(U) = k , und (v1, . . . , vn) eine Basis von V , so daß (v1, . . . , vk)eine Basis von U ist. Eine Linearform ϕ von V wird vollstandig beschrieben durch dieBilder λi = ϕ(vi), also durch das n-tupel (λ1, . . . , λn). Mit dieser Notation gilt offen-sichtlich

δ(U) = {(0, . . . , 0, λk+1, . . . , λn) | λk+1, . . . , λn ∈ K} .Dies ist ein Unterraum der Dimension n− k von V ∗.

(b) Es sei U1 ⊆ U2 und ϕ ∈ δ(U2) . Dann gilt ϕ(v) = 0 fur alle v ∈ U2 , also erst recht furalle v ∈ U1 , das heißt ϕ ∈ δ(U1) .

(c) Es sei ϕ ∈ δ(U1 + U2) . Aus (b) folgt sofort ϕ ∈ δ(U1) ∩ δ(U2) . Umgekehrt annullierteine Linearform ϕ ∈ δ(U1) ∩ δ(U2) alle Vektoren aus U1 und aus U2, also auch alleVektoren aus U1 + U2 .Fur die zweite Aussage benutzen wir ein Argument, das bereits im Beweis des Dimen-sionssatzes fur Unterraume vorkam:Es sei (d1, . . . , dp, vp+1, . . . , vr, wr+1, . . . , ws, zs+1, . . . , zn) eine Basis von V , so daß(d1, . . . , dp) eine Basis von U1 ∩ U2 , und (d1, . . . , dp, vp+1, . . . , vr) eine Basis von U1 ,sowie (d1, . . . , dp, wr+1, . . . , ws) eine Basis von U2 ist.Mit der Notation fur Linearformen aus Teil (a) sieht man

δ(U1 ∩ U2) = {(0, . . . , 0, λp+1, . . . , λn) | λi ∈ K} ,δ(U1) = {(0, . . . , 0, λr+1, . . . , λn) | λi ∈ K} ,δ(U2) = {(0, . . . , 0, λp+1, . . . , λr, 0, . . . , 0, λs+1, . . . , λn) | λi ∈ K} .

Page 76: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.3 Beschreibung von linearen Abbildungen durch Matrizen 73

Dies zeigt δ(U1 ∩ U2) = δ(U1) + δ(U2) .(d) δ ist injektiv: Es seien U1 6= U2 Unterraume von V . Sei etwa v ∈ U1\U2 . Weiter gibt

es eine Basis (v, v2, . . . , vk, vk+1, . . . , vn) von V , so daß (v2, . . . , vk) eine Basis von U2

ist. Außerdem gibt es eine Linearform ϕ , die v auf 1 und alle anderen Basisvektorenauf 0 abbildet. Daher liegt ϕ in δ(U2), aber nicht in δ(U1) .δ ist surjektiv: Ist W ein Unterraum von V ∗, dann ist

ε(W ) := {v ∈ V | ϕ(v) = 0 fur alle ϕ ∈ W} =⋂ϕ∈W

Kern(ϕ)

ein Unterraum von V , und es gilt δ(ε(W )

)⊇ W .

Fur den nachsten Schritt benutzen wir auch den Bidualraum V ∗∗. Nach (2.2.7) istdie Abbildung ι : v 7→ Φv ein Isomorphismus von V nach V ∗∗. Definieren wir dieAbbildung δ∗ : V ∗ → V ∗∗ analog zu δ , dann erhalten wir

δ∗(W ) = {Φv | v ∈ V , Φv(ϕ) = 0 fur alle ϕ ∈ W}= {Φv | v ∈ V , ϕ(v) = 0 fur alle ϕ ∈ W}= ι

(ε(W )

).

Daher gilt

dim(ε(W )

)= dim

(δ∗(W )

) (a)= n− dim(W )

und schließlich

dim(δ(ε(W ))

) (a)= n− dim

(ε(W )

)= dim(W ) .

Somit sind W und δ(ε(W )

)identisch und die Behauptung ist bewiesen. �

Eine kleine Anwendung der Dualitat ist die folgende Aussage uber die Anzahl von Un-terraumen gewisser Dimension:

(2.2.9) Korollar Es sei V ein Vektorraum der endlichen Dimension n. Dann hat V furjedes k genausoviele Unterraume der Dimension n− k wie Unterraume der Dimension k.

Literatur: Mehr uber Linearformen und den Dualraum findet man zum Beispiel in [Lor],VI.§11.

2.3 Beschreibung von linearen Abbildungen durch Matrizen

Generelle Voraussetzung: In diesem Abschnitt seien V,W immer zwei endlich-dimensionale Vektorraume uber demselben Korper K mit geordneten Basen BV =(b1, . . . , bn) und BW = (b′1, . . . , b

′m) .

Nach (2.1.1.d) ist jede lineare Abbildung ϕ : V → W vollstandig beschrieben durch dieBilder ϕ(b1), . . . , ϕ(bn) der Basisvektoren von V . Jedes ϕ(bj) ist eine Linearkombination

Page 77: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

74 2 LINEARE ABBILDUNGEN

ϕ(bj) =∑m

i=1 αi,jb′i mit eindeutig bestimmten Koeffizienten αi,j ∈ K .

Die Abbildung ϕ wird also vollstandig beschrieben durch die Koeffizientenmatrix

A =

α1,1 . . . α1,n...

...αm,1 . . . αm,n

.

Umgekehrt liefert fur jede (m× n)-Matrix A die Vorschrift

v 7→ A

v1...

vn

=

∑n

j=1 α1,jvj...∑n

j=1 αm,jvj

eine lineare Abbildung von V nach W .

Generelle Voraussetzung: Sofern nicht ausdrucklich anders vereinbart, sind hier Vekto-ren immer Spaltenvektoren, und Matrizen werden von links an die Vektoren multipliziert.

Die Matrix A soll abkurzend auch mit A = (ai,j) bezeichnet werden, wenn nur klargestelltwerden soll, wie die Eintrage heißen. Der Vektor ei , der an der i-ten Stelle den Eintrag

”1“

und sonst uberall den Eintrag”0“ hat, heißt der i-te Standard- Einheitsvektor. (e1, . . . , en)

ist eine Basis des Vektorraums Kn und heißt Standard-Basis oder kanonische Basis von V .Bezuglich der Basis BW von W hat der Bildvektor ϕ(bj) die Koordinaten α1,j, . . . , αm,j.Diese stehen in der j-ten Spalte der Matrix A.

(2.3.1) Lemma Wird die lineare Abbildung ϕ : V → W bezuglich der Basen BV , BWbeschrieben durch die Matrix A, so steht in der j-ten Spalte von A das Bild ϕ(bj) des j-tenBasisvektors von V .

Vorsicht! Die Koeffizientenmatrix hangt wesentlich von den gewahlten Basen ab.

Definition: DiagonalmatrixEine (n× n)-Matrix der Form

A =

α1

. . .

αn

, deren Eintrage αi,j = 0 sind fur i 6= j ,

heißt Diagonalmatrix, denn außerhalb der Diagonalen stehen nur Nullen. Man schreibt dannauch A = diag(α1, . . . , αn) .

(2.3.2) Beispiele Koeffizientenmatrizen

1. Es sei BV eine beliebige Basis von V und ϕλ : V → V die Homothetie mit dem Streckungs-faktor λ (vgl. (2.1.2.1)). Bezuglich des Basispaares BV ,BV hat ϕλ die Koeffizientenmatrix

diag(λ, . . . , λ) .(Das heißt: alle Eintrage auf der Diagonalen sind λ, alle außerhalb der Diagonalen sind 0.)

Page 78: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.3 Beschreibung von linearen Abbildungen durch Matrizen 75

2. Es sei BV eine beliebige Basis von V und πi : V → V die Projektion auf die i-te Kom-ponente bezuglich der Basis BV (vgl. (2.1.2.2)). Bezuglich des Basispaares BV ,BV hat πidie Koeffizientenmatrix Ei,i = diag(0, . . . , 0, 1, 0, . . . , 0) , die an der Stelle i, i eine Eins undsonst nur Nullen hat.

3. Die lineare Abbildung ϕ : (v1, v2)T → (v1 +v2, v1 +v2)T von V = K2 in sich (vgl. (2.1.2.4))wird beschrieben durch die Koeffizientenmatrix

A =(

1 11 1

).

4. Es sei V = Rn−1[x] der Vektorraum der reellen Polynome vom Grad ≤ n− 1.BV = (1, x, . . . , xn−1) ist eine Basis von V , und dim(V ) = n .Die Differentiation δ : V → V hat bezuglich des Basispaares BV ,BV die Koeffizientenmatrix

0 10 2

. . . . . .. . . n− 1

0

.

Eine weitere Basis von V ist B′V = (xn−1, xn−2, . . . , 1) . Bezuglich B′V ,B′V hat δ die Koeffi-zientenmatrix

0n− 1 0

n− 2 0. . . . . .

1 0

.

Setzen wir speziell n = 4 , so ist zum Beispiel auch B = (x2 + 1, x2 − x, x3, 2x) eine Basisvon V . Bezeichnen wir diese Basisvektoren mit b1, . . . , b4 , so giltδ(b1) = 2x = b4 , δ(b2) = 2x− 1 = −b1 + b2 + 3

2b4 , δ(b3) = 3x2 = −3b2 + 32b4 ,

δ(b4) = 2 = 2b1 − 2b2 − b4 .

Die Koeffizientenmatrix von δ bezuglich B,B sieht jetzt also so aus:

0 −1 0 20 1 −3 −20 0 0 01 3

232 −1

.

Die Integration ι : Rn−1[x]→ R , ι(f) =∫ 1

0 f(x)dx hat bezuglich des Basispaares(1, x, . . . , xn−1), (1) die einzeilige Koeffizientenmatrix (1, 1

2 ,13 , . . . ,

1n) .

Definition: M(m× n,K) , Mn(K)Die Menge aller (m× n)-Matrizen (m Zeilen, n Spalten) mit Eintragen aus dem Korper Kwollen wir mit M(m× n,K) bezeichnen.Eine Matrix heißt quadratisch, wenn sie gleichviele Zeilen und Spalten hat. Die MengeM(n× n,K) soll abkurzend mit Mn(K) bezeichnet werden.

Diese Notation ist, wie so viele, nicht einheitlich. Unter den vielen anderen in Umlaufbefindlichen seien Km,n , Mm×n Mm,n(K) und Matm,n(K) erwahnt.

Page 79: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

76 2 LINEARE ABBILDUNGEN

Definition: Summe und skalares Produkt fur MatrizenEs seien A = (ai,j) , B = (bi,j) Matrizen in M(m× n,K) , und λ ∈ K.(M1) Die Summe von A und B ist definiert durch

A+B := (ai,j + bi,j) .

(M2) Das skalare Produkt von A mit λ ist definiert durch

λ · A := (λ · ai,j) .

Das heißt: die Operationen”Addition“ bzw.

”Multiplikation mit λ“ werden einzeln auf jeden

Eintrag angewendet.

Aus der Definition ergibt sich sofort der folgende Satz:

(2.3.3) Satz Der Vektorraum M(m× n,K)(a) Die Menge M(m × n,K) ist mit der Addition (M1) und der skalaren Multiplikation

(M2) ein Vektorraum uber K.(b) Bezeichnet Ei,j ∈M(m× n,K) die Matrix, die an der (i, j)-ten Stelle eine Eins und

sonst nur Nullen hat, so ist (Ei,j | 1 ≤ i ≤ m, 1 ≤ j ≤ n) eine Basis von M(m×n,K) .(c) Es seien V,W Vektorraume uber K mit dim(V ) = n und dim(W ) = m. Sei BV

eine Basis von V und BW eine Basis von W .Werden die linearen Abbildungen ϕA, ϕB : V → W bezuglich des Basispaares BV ,BWbeschrieben durch die Matrizen A bzw. B, so beschreibt A+B die Abbildung ϕA+ϕBund λA die Abbildung λϕA .

(2.3.4) Korollar Es seien V,W Vektorraume uber K mit dim(V ) = n und dim(W ) = m.Weiter sei BV eine Basis von V und BW eine Basis von W .Die Abbildung µ , die jeder linearen Abbildung ϕ ∈ Hom(V,W ) ihre KoeffizientenmatrixA ∈ M(m × n,K) bezuglich des Basispaares BV ,BW zuordnet, ist ein Isomorphismus vonHom(V,W ) nach M(m× n,K) .

Beweis: Die Linearitat von µ ist klar nach (2.3.3.b). Da jedes ϕ ∈ Hom(V,W ) durchseine Koeffizientenmatrix vollstandig beschrieben ist, muß µ injektiv sein. In der Erorterungvor (2.3.1) wird fur jede Matrix A ∈M(m×n,K) eine lineare Abbildung ϕ ∈ Hom(V,W )angegeben, deren Koeffizientenmatrix A ist. Daher ist µ auch surjektiv. �

Nun sind wir berechtigt, bei feststehendem Basispaar BV ,BW die linearen Abbildungenϕ ∈ Hom(V,W ) mit ihren Koeffizientenmatrizen zu identifizieren und werden auch desofteren von der einen zur anderen Notation ubergehen.

(2.3.5) Beispiele Koeffizientenmatrizen

1. Das Basiselement ϕi,j von Hom(V,W ) (siehe 2.1.13.b)) bildet den i-ten Basisvektor vi vonV ab auf den j-ten Basisvektor wj von W . Die i-te Spalte der Koeffizientenmatrix µ(ϕi,j)bezuglich des Basispaares (v1, . . . , vn), (w1, . . . , wm) ist also der Standard-Einheitsvektor ej .Der (j, i)-te Eintrag von µ(ϕi,j) ist daher 1, alle anderen sind 0. Damit folgt µ(ϕi,j) = Ej,i .

Page 80: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.3 Beschreibung von linearen Abbildungen durch Matrizen 77

2. Sei V = M2(K) der Vektorraum der (2 × 2)-Matrizen uber K (vgl. (2.1.2.4), und (2.3.3))

und B =(b11 b12

b21 b22

). Der Raum V hat die Basis

B =(E11 =

(1 00 0

), E21 =

(0 01 0

), E12 =

(0 10 0

), E22 =

(0 00 1

)).

Die Bilder dieser Basisvektoren unter der Abbildung ϕ : M2(K) → M2(K) , ϕ(A) = BA ,sind

ϕ(E11) =(b11 0b21 0

)= b11E11 + b21E21 , ϕ(E21) =

(b12 0b22 0

)= b12E11 + b22E21 ,

ϕ(E12) =(

0 b11

0 b21

)= b11E12 + b21E22 , ϕ(E22) =

(0 b12

0 b22

)= b12E12 + b22E22 .

Also wird ϕ bezuglich B,B beschrieben durch die Koeffizientenmatrixb11 b12 0 0b21 b22 0 00 0 b11 b12

0 0 b21 b22

=

(B 00 B

).

Definition: Produkt zweier MatrizenEs sei A ∈ M(m × n,K) und B ∈ M(n × l,K) . Die Anzahl der Spalten von A ist alsogenauso groß wie die Anzahl der Zeilen von B.(M3) Das Produkt AB ist die (m× l)-Matrix mit den Eintragen

AB = (ci,j) , ci,j :=n∑k=1

ai,kbk,j .

Schematisch kann man sich (M3) so veranschaulichen:a11 . . . . . . a1n...

...ai1 . . . . . . ain...

...am1 . . . . . . amn

b11 . . . b1j . . . b1l...

......

......

......

......

bn1 . . . bnj . . . bnl

Die i-te Zeile von A und die j-te Spalte von B haben nach Voraussetzung gleichviele Eintrage,namlich n. Der Eintrag ci,j berechnet sich aus der i-ten Zeile von A und der j-ten Spaltevon B mit der Formel

ci,j = ai1b1j + . . .+ ainbnj .

(2.3.6) Beispiele MatrizenmultiplikationAlle Eintrage seien reell.

1.(

1 2 34 5 6

) 1 −10 12 0

=(

7 116 1

).

2.(

1 23 4

)(5 67 8

)=(

19 2243 50

).

(5 67 8

)(1 23 4

)=(

21 3431 46

).

Page 81: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

78 2 LINEARE ABBILDUNGEN

3.(

1 01 0

)(0 00 1

)=(

0 00 0

).

(0 00 1

)(1 01 0

)=(

0 01 0

).

4.(

1 1−1 −1

)(1 1−1 −1

)=(

0 00 0

).

5. Es sei En := diag(1, . . . , 1) die (n × n)-Matrix mit lauter Einsen auf der Diagonalen undNullen außerhalb. Fur jede (n× n)-Matrix A gilt dann EnA = AEn = A .Die Matrix En heißt Einheitsmatrix der Dimension n. Wenn die Dimension klar ist, sagtman meist nur Einheitsmatrix und bezeichnet sie mit E oder I.

Die Beispiele (2.3.6.2) und (2.3.6.3) zeigen, daß die Matrizenmultiplikation nicht kommutativist: im allgemeinen gilt AB 6= BA .(2.3.6.3) und (2.3.6.4) zeigen, daß AB = 0 sein kann, obwohl keiner der beiden Faktorendie Nullmatrix ist. An (2.3.6.4) sieht man, daß eine Matrix A 6= 0 sogar als Quadrat dieNullmatrix haben kann.

(2.3.7) Satz Es seien V,W,Z Vektorraume uber K mit Basen BV = (v1, . . . , vm) , BW =(w1, . . . , wn) , BZ = (z1, . . . , zl) . Weiter seien ϕA : V → W und ϕB : W → Z lineareAbbildungen mit den Koeffizientenmatrizen A ∈M(m× n,K) bzw. B ∈M(n× l,K) .Dann wird die Hintereinanderausfuhrung ϕB ◦ ϕA : V → Z beschrieben durch B · A .(Man beachte, daß zuerst ϕA, dann ϕB ausgefuhrt wird.)

Beweis: Die Produktmatrix BA hat an der Stelle (i, j) den Eintrag ci,j =∑n

k=1 bi,kak,j =∑nk=1 ak,jbi,k . (Gegenuber der Definition (M3) sind hier A und B vertauscht!)

Die von BA beschriebene Abbildung ϕ bildet also vj ab auf∑l

i=1 ci,jzi .

Andererseits gilt ϕA(vj) =∑n

k=1 ak,jwk und ϕB(wk) =∑l

i=1 bi,kzi , also

ϕB◦ϕA(vj) =n∑k=1

ak,jϕB(wk) =n∑k=1

l∑i=1

ak,jbi,kzi =l∑

i=1

( n∑k=1

ak,jbi,k)zi =

l∑i=1

ci,jzi = BAvj.�

Aus (2.3.7) und der Assoziativitat der Hintereinanderausfuhrung von Abbildungen folgt

(2.3.8) Korollar Das Matrizenprodukt ist assoziativ.

(2.3.9) Beispiel Es sei V = W = R3[x], Z = R .Weiter sei ϕA : V →W die Differentiation und ϕB : W → Z die Bildung des bestimmten IntegralsϕB(f) =

∫ 10 f(x)dx .

Wir wahlen die Standard-Basen BV = BW = (1, x, x2, x3) und BZ = (1) .Nach (2.3.2.4) erhalten wir dann die Koeffizientenmatrizen

A =

0 1 0 00 0 2 00 0 0 30 0 0 0

und B = (1,12,13,14

) .

Page 82: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.3 Beschreibung von linearen Abbildungen durch Matrizen 79

Die Hintereinanderausfuhrung ϕB ◦ ϕA hat also bezuglich BV ,BZ die Koeffizientenmatrix

BA = (1,12,13,14

)

0 1 0 00 0 2 00 0 0 30 0 0 0

= (0, 1, 1, 1) .

Wir konnen dieses Ergebnis mit dem Hauptsatz der Differential- und Integralrechnung direkt uber-prufen:

ϕB ◦ ϕA(f) = ϕB(f ′) =∫ 1

0f ′(x)dx = f(1)− f(0) .

Es gilt f(1)− f(0) ={

0 fur f(x) = 11 fur f(x) = x, x2 oder x3 .

Es ist oft geschickt, Matrizen in Blocke aufzuteilen, weil man mit diesen, das richtige Formatder Parkettierung vorausgesetzt, genauso wie mit gewohnlichen Eintragen rechnen kann:

Matrixaddition fur Blockmatrizen:

A =

A1,1 . . . A1,n...

...Am,1 . . . Am,n

, B =

B1,1 . . . B1,n...

...Bm,1 . . . Bm,n

mit Ai,j , Bi,j ∈M(mi × nj, K) :

Dann gilt A+B =

A1,1 +B1,1 . . . A1,n +B1,n...

...Am,1 +Bm,1 . . . Am,n +Bm,n

.

Matrixmultiplikation fur Blockmatrizen:Jetzt mussen die einzelnen Teilblocke von A und B so zueinander passen, daß man dieMatrixmultiplikation ausfuhren kann, z.B.: Bi,j hat das Format von ATi,j .Wahlen wir also Matrizen Ai,j ∈M(mi×nj, K) und Bi,j ∈M(nj×mi, K) , und bilden wir

A =

A1,1 . . . A1,n...

...Am,1 . . . Am,n

und B =

B1,1 . . . A1,m...

...Bn,1 . . . Bn,m

,

so gilt A ·B =

C1,1 . . . C1,m...

...Cm,1 . . . Cm,m

mit Ci,j =∑n

k=1 Ai,kBk,j .

Den Beweis fur diese Rechenregeln fuhrt man elementar, indem man die einzelnen Eintrageder Matrizen A+B bzw. AB nachrechnet.

Definition: transponierte Matrix, symmetrische MatrixEs sei A = (ai,j) ∈M(m×n,K) . Die Matrix AT = (aj,i) ∈M(n×m,K) , die an der Stelle(i, j) den Eintrag aj,i hat, heißt die zu A transponierte Matrix.(Die i-te Zeile von AT enthalt also die Eintrage a1,i, . . . , am,i der i-ten Spalte von A.)Eine quadratische Matrix A heißt symmetrisch, wenn A = AT gilt.

Page 83: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

80 2 LINEARE ABBILDUNGEN

Manche Autoren, zum Beispiel Jacobson [Jac], bezeichnen die zu A transponierte Matrix

mittA. Vorsicht: mit dieser Schreibweise bedeutet A

tB dasselbe wie in unserer Schreibweise

ABT !

(2.3.10) Beispiele

1. Es sei A =(

1 2 34 5 6

)∈M(2× 3,R) . Dann gilt AT =

1 42 53 6

.

2. Eine Diagonalmatrix diag(a1, . . . , an) ∈Mn(K) ist immer symmetrisch.

Die Koordinatendarstellung eines Vektors kann man auch als Matrix auffassen, namlich als(n× 1)-Matrix fur einen Spaltenvektor mit n Koordinaten und als (1× n)-Matrix fur einenZeilenvektor mit n Koordinaten. Durch Transponieren geht dann ein Spaltenvektor in einenZeilenvektor mit denselben Eintragen uber und umgekehrt.Dies haben wir bereits bisher mit der platzsparenden Konvention

”ZeilenvektorT = Spalten-

vektor“ fur Koordinatenvektoren ausgenutzt.Das Transponieren einer Matrix kam außerdem im Prinzip schon einmal vor im Abschnittuber den Dualraum:Es sei ι : v 7→ Φv der in (2.2.7) definierte Isomorphismus von V in den Bidualraum V ∗∗. Fi-xieren wir eine Basis BV = (b1, . . . , bn) von V , so ist bekanntlich BV ∗ = (ϕ1, . . . , ϕn) eine Ba-

sis des Dualraums V ∗, wobei die Linearform ϕj definiert ist durch ϕj(bi) =

{1 j = i0 sonst

.

Besitzt v bezuglich BV den Koordinatenvektor (v1,..., vn)T , so gilt v =

∑ni=1 vibi , also fur

alle Indizes j dann ϕj(v) =∑n

i=1 viϕj(bi) = vj . Folglich bildet die AuswertungsabbildungΦv die Linearform ϕj ab auf die Koordinate vj von v. Beschreiben wir wie in (2.2.8.a) dieLinearform Φv durch das Tupel (λ1, . . . , λn) , wobei der j-te Eintrag das Bild Φv(ϕj) desj-ten Basiselements von V ∗ angibt, so wird Φv gerade der Zeilenvektor (v1, . . . , vn) , alsodie Transponierte des Koordinatenvektors von v, zugeordnet.

2.4 Elementare Umformungen, Rang und Invertieren von Matri-zen

In Abschnitt 1.5 haben elementare Umformungen von Vektorsystemen eine wichtige Rollegespielt, beispielsweise bei der Berechnung des Rangs eines Vektorsystems oder des Durch-schnitts zweier Unterraume. Insbesondere haben wir elementare Umformungen des Systemsder Zeilenvektoren oder des Systems der Spaltenvektoren einer Matrix verwendet.Wiederholen wir kurz die wichtigsten Begriffe: Es gibt drei Typen von elementaren Umfor-mungen eines Vektorsystems (v1, . . . , vn) :(EU1) Vertauschung zweier Vektoren:

(v1, . . . , vi, . . . , vj, . . . , vm) 7→ (v1, . . . , vj, . . . , vi, . . . , vm) .(EU2) Multiplikation eines Vektors mit einem Skalar λ:

(v1, . . . , vi, . . . , vm) 7→ (v1, . . . , λvi, . . . , vm) .(EU3) Ersetzung eines Vektors vi durch vi + λvj , wobei j 6= i , λ ∈ K ist:

(v1, . . . , vi, . . . , vm) 7→ (v1, . . . , vi + λvj, . . . , vm) .

Page 84: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.4 Elementare Umformungen, Rang und Invertieren von Matrizen 81

Elementare Zeilen- und Spaltenumformungen einer Matrix:Ist eine Matrix A ∈M(m× n,K) gegeben, so bilden ihre Zeilen

z1 = (a1,1, . . . , a1,n) , . . . , zm = (am,1, . . . , am,n)

ein m-Tupel von Vektoren aus dem Vektorraum Kn, und ihre Spalten

s1 =

a1,1...

am,1

, . . . , sn =

a1,n...

am,n

ein n-Tupel von Vektoren aus dem Vektorraum Km.Die Anwendung einer der elementaren Umformungen (EU1), (EU2), (EU3) auf das m-Tupel(z1, . . . , zm) heißt elementare Zeilenumformung, die Anwendung einer dieser Umformungenauf n-Tupel (s1, . . . , sn) heißt elementare Spaltenumformung.

Mit der Definition des Matrizenprodukts rechnet man nach, daß gilt:

(2.4.1) Lemma Elementare Zeilenumformungen von A ∈M(m× n,K) lassen sich durchMultiplikation mit einer (m×m)-Matrix von links beschreiben:

1. . .

λ. . .

1

↑i

a1,1 . . . . . . a1,n

......

......

am,1 . . . . . . am,n

=

a1,1 . . . . . . . . . a1,n

......

λai,1 . . . . . . . . . λai,n...

...am,1 . . . . . . . . . am,n

i→

j→

1. . .

0 1. . .

1 0. . .

1

i j

a1,1 . . . . . . a1,n

......

......

am,1 . . . . . . am,n

=

a1,1 . . . . . . a1,n

......

aj,1 . . . . . . aj,n...

...ai,1 . . . . . . ai,n

......

am,1 . . . . . . am,n

←i

←j

i→

1. . .

. . . λ. . .

1

↑j

a1,1 . . . . . . a1,n

......

......

am,1 . . . . . . am,n

=

a1,1 . . . a1,n

......

ai,1 + λaj,1 . . . ai,n + λaj,n...

...am,1 . . . am,n

Elementare Spaltenumformungen lassen sich durch Multiplikation mit den analogen n× n-

Matrizen von rechts beschreiben.

Definition: Zeilenrang, SpaltenrangEs sei A ∈M(m×n,K) eine Matrix mit den Zeilen z1, . . . , zm und den Spalten s1, . . . , sn .

Page 85: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

82 2 LINEARE ABBILDUNGEN

Der Zeilenrang von A ist der Rang des m-Tupels (z1, . . . , zm) , das heißt die Dimension von〈z1, . . . , zm〉 .Der Spaltenrang von A ist der Rang des n-Tupels (s1, . . . , sn) , das heißt die Dimension von〈s1, . . . , sn〉 .

(2.4.2) Beispiele Zeilenrang und Spaltenrang

1. Es sei A =

0 1 0 00 0 2 00 0 0 30 0 0 0

∈M4(R) .

Die ersten drei Zeilen von A sind linear unabhangig (Treppenform), die letzte Zeile ist eineNullzeile. Also hat A den Zeilenrang 3.Die letzten drei Spalten von A sind linear unabhangig (Treppenform), die erste Spalte isteine Nullspalte. Also hat A den Spaltenrang 3.

2. Es sei A = (1, 12 ,

13 ,

14) ∈M(1× 4,R) .

Die einzige Zeile von A ist nicht die Nullzeile. Also hat A den Zeilenrang 1.Die erste Spalte von A ist ungleich 0, und die restlichen Spalten von A sind Vielfache derersten Spalte. Daher hat A den Spaltenrang 1.

3. Sei K irgendein Korper und A =(a bc d

)∈M2(K) . Offensichtlich gilt

A =(

0 00 0

)⇐⇒ Zeilenrang(A) = 0 ⇐⇒ Spaltenrang(A) = 0 .

Hat nun A den Zeilenrang 1, so gibt es ein λ ∈ K mit (c, d) = λ·(a, b) oder (a, b) = λ·(c, d) .

Im ersten Fall gilt A =(

a bλa λb

), also hat A die Spalten a

(1λ

)und b

(1λ

)und

damit den Spaltenrang 1. Im zweiten Fall gilt A =(λc λdc d

), also hat A die Spalten

c

(λ1

)und d

(λ1

)und somit ebenfalls den Spaltenrang 1.

Fuhrt man dieselbe Uberlegung unter Vertauschen von Zeilen und Spalten noch einmal durch,so sieht man, daß aus Spaltenrang(A) = 1 auch folgt Zeilenrang(A) = 1 . Da die beidenRange nur die Werte 0, 1 oder 2 annehmen konnen, folgt Spaltenrang(A) = Zeilenrang(A) .

4. Es sei B =(b11 b12

b21 b22

)∈M2(K) und A =

b11 b12 0 0b21 b22 0 00 0 b11 b12

0 0 b21 b22

. Die Zeilen z1, z2 von

A sind genau dann linear unabhangig, wenn die Zeilen von B linear unabhangig sind. Ebensosind die Zeilen z3, z4 von A genau dann linear unabhangig, wenn die Zeilen von B linearunabhangig sind. Da zudem die Zeilen z1, z2 im Unterraum U1 = 〈(1, 0, 0, 0), (0, 1, 0, 0) 〉 ,und die Zeilen z3, z4 im Unterraum U2 = 〈(0, 0, 1, 0), (0, 0, 0, 1) 〉 liegen mit U1 ∩ U2 = {o} ,gilt: Zeilenrang(A) = 2 · Zeilenrang(B) .Die analoge Aussage gilt fur den Spaltenrang. Wegen Beispiel 3 gilt insbesondereZeilenrang(A) = Spaltenrang(A) .

Es ist kein Zufall, daß in allen diesen Beispielen die Matrix A denselben Zeilen- und Spal-tenrang hat. Eine Verallgemeinerung der Uberlegungen aus (2.4.2.3) fuhrt namlich zu

Page 86: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.4 Elementare Umformungen, Rang und Invertieren von Matrizen 83

(2.4.3) Satz Fur A ∈M(m× n,K) gilt Zeilenrang(A) = Spaltenrang(A) .

Beweis: Die Matrix A = (ai,j) hat die Zeilen zi = (ai,1, . . . , ai,n) , 1 ≤ i ≤ m.Hat A den Zeilenrang r , so besitzt der Raum 〈z1, . . . , zm〉 eine Basis (b1, . . . , br) von rZeilenvektoren7. Es sei b1 = (b1,1, . . . , b1,n) , . . . , br = (br,1, . . . , br,n) .Wegen 〈z1, . . . , zm〉 = 〈b1, . . . , br〉 gibt es Korperelemente ζi,j mit

z1 = ζ1,1b1 + . . .+ ζ1,rbr...

zm = ζm,1b1 + . . .+ ζm,rbr .Wir stellen nun die Eintrage der j-ten Spalte von A dar mit Hilfe der Koeffizienten ζs,t undKoordinaten bk,l :ai,j ist die j-te Koordinate von zi , also gilt

a1,j = ζ1,1b1,j + . . .+ ζ1,rbr,j...

am,j = ζm,1b1,j + . . .+ ζm,rbr,jund damit a1,j

...am,j

=

ζ1,1...

ζm,1

b1,j +

ζ1,2...

ζm,2

b2,j + . . .

ζ1,r...

ζm,r

br,j

und schließlich a1,j...

am,j

∈ 〈 ζ1,1

...ζm,1

b1,j , . . . ,

ζ1,r...

ζm,r

br,j〉

fur alle j ∈ {1, . . . , n} . Alle Spalten von A liegen also in diesem hochstens r-dimensionalenUnterraum von Km, und Spaltenrang(A) ≤ Zeilenrang(A) . Vertauscht man in dieser Argu-mentation die Zeilen und Spalten, so erhalt man Zeilenrang(A) ≤ Spaltenrang(A) . Dahermussen beide Range gleich sein. �

Definition: Rang einer MatrixDer Rang der Matrix A ∈M(m× n,K) ist gleich dem Zeilenrang von A (und damit gleichdem Spaltenrang von A).

(2.4.4) Korollar(a) A und AT haben denselben Rang.(b) Der Rang einer Matrix A ∈M(m× n,K) wird weder durch elementare Zeilenumfor-

mungen noch durch elementare Spaltenumformungen verandert.(c) Fur alle A,B ∈M(m× n,K) gilt rang(A+B) ≤ rang(A) + rang(B) .

Beweis: (a) ist richtig, weil der Spaltenraum von A gleich dem Zeilenraum von AT ist. DieAussage (b) folgt aus (1.5.12). �

Die Berechnung des Ranges einer Matrix ist also dasselbe wie die Berechnung des Rangeseines Vektorsystems. Beispiele und ein Algorithmus dafur finden sich in Abschnitt 1.5.

7Wir konnen {b1, . . . , br} als Teilmenge von {z1, . . . , zm} wahlen, aber das ist unwesentlich.

Page 87: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

84 2 LINEARE ABBILDUNGEN

(2.4.5) Korollar(a) Jede Matrix A ∈ Mn(K) mit rang(A) = n laßt sich durch elementare Zeilenumfor-

mungen auf die Einheitsmatrix En transformieren.Ebenso laßt sich A durch elementare Spaltenumformungen auf En transformieren.

(b) Jede Matrix A ∈ M(m × n,K) mit rang(A) = r laßt sich durch elementare Zeilen-und Spaltenumformungen auf die Form(

Er 00 0

)transformieren, wobei Er die r-dimensionale Einheitsmatrix ist.

Man beachte: In (a) kommt man mit Zeilen- oder mit Spaltenumformungen aus, in (b)braucht man eventuell Zeilen- und Spaltenumformungen.

Beweis:

(a) Da A den hochstmoglichen Rang n hat, ist die erste Spalte von A nicht die Nullspalteund enthalt einen Eintrag ai,1 6= 0 . Vertauschen der ersten und der i-ten Zeile lieferteine Matrix A′, deren Eintrag a′1,1 6= 0 ist. Dividieren der ersten Zeile von A′ durcha′1,1 und Subtrahieren des a′i,1-fachen der ersten Zeile von A′ von der i-ten Zeile vonA′ fur 2 ≤ i ≤ n fuhrt zu einer Matrix

A′′ =

10...0

.

Unter den Eintragen a′′2,2, . . . , a′′n,2 der zweiten Spalte von A′′ gibt es ein a′′i,2 6= 0 .

Ware namlich nur a′′1,2 6= 0 ,, so waren die ersten beiden Spalten von A′′ linear abhangig.Durch eine Zeilenvertauschung bringen wir a′′i,2 an die Stelle (2, 2). Wegen i ≥ 2 bleibtdie erste Spalte dabei unverandert. Die entstandene Matrix sei A′′′. Nun dividierenwir die zweite Zeile von A′′′ durch a′′′2,2 und ziehen das a′′′i,2-fache der zweiten Zeile vonder i-ten Zeile ab fur i 6= 2 . Das Ergebnis ist

A′′′′ =

1 00 1... 0 ∗...

...0 0

.

Durch Fortsetzung dieses Verfahrens erhalt man die gewunschte Form En. Der Algo-rithmus fur Spaltenumformungen ist analog.

(b) Es sei r der Rang von A. Dann gibt es unter den Zeilenvektoren von A eine Menge vonr linear unabhangigen Vektoren. Durch Umordnen der Zeilen (also mehrfaches An-wenden von (EU1)) erreicht man, daß die ersten r Zeilen z1, . . . , zr linear unabhangigsind. Die restlichen Zeilen zr+1, . . . , zn (falls vorhanden) liegen dann im Erzeugnis〈z1, . . . , zr〉 , konnen also durch sukzessives Anwenden von Umformungen des Typs(EU3) annulliert werden. Die bis jetzt erreichte Matrix heiße A′.

Page 88: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.4 Elementare Umformungen, Rang und Invertieren von Matrizen 85

Nach (2.4.3) hat A den Spaltenrang r. Nach (a) gilt dasselbe auch fur A′. Die linear un-abhangigen Spalten von A′ kann man durch elementare Spaltenumformungen wieder so

umordnen, daß sie an erster Stelle stehen. Nun hat man eine Matrix A′′ =

(M ∗0 0

),

wobei M eine (r × r)-Matrix mit dem Rang r ist und ∗ irgendwelche (nicht weiterinteressierenden) Eintrage bezeichnet. Die Matrix M kann man nach dem Verfahrenaus (a) durch elementare Umformungen der ersten r Zeilen von A′′ auf die Form Er

bringen. Dadurch erhalt man die Form A′′′ =

(Er ∗0 0

). Schließlich kann man durch

Spaltenumformungen vom Typ (EU3) die Eintrage außerhalb von Er annullieren. �

Wir haben nun zwei Rangbegriffe, den Rang einer linearen Abbildung und den Rang einerMatrix. Diese beiden verhalten sich so, wie man es erwartet:

(2.4.6) Lemma Es sei ϕ ∈ Hom(V,W ) und A die Koeffizientenmatrix von ϕ bezuglicheines beliebigen Basispaares BV ,BW . Dann gilt Rang(ϕ) = Rang(A) .

Beweis: Rang(ϕ) ist die Dimension des Bildraumes Bild(ϕ) . Dieser wird nach (2.1.1.d)und (2.3.1) aufgespannt von den Spalten von A. Also folgt Rang(ϕ) = Spaltenrang(A) =Rang(A) . �

Ein Endomorphismus ϕ des endlichdimensionalen Vektorraums V ist invertierbar genaudann, wenn er injektiv ist (dann kann man namlich aus dem Bild ϕ(v) eindeutig das Urbildv rekonstruieren.) Also gibt es eine analoge Bedingung dafur, wann zu einer gegebenenMatrix A ∈Mn(K) eine Matrix A−1 existiert mit A−1A = En :

(2.4.7) Lemma Existenz der inversen Matrix

(a) Es sei V ein Vektorraum der endlichen Dimension n uber K. Ein Endomorphismus ϕvon V ist invertierbar genau dann, denn Rang(ϕ) = n gilt.

(b) Zu einer Matrix A ∈ Mn(K) gibt es genau dann eine Matrix A−1 ∈ Mn(K) mitA−1A = AA−1 = En , wenn Rang(A) = n gilt. In diesem Fall heißt A−1 die Inversevon A.

Beweis: (a) ist klar nach (2.1.4) und (2.1.8). Mit (2.4.6) erhalt man daraus auch dieAussage (b), wobei A−1 naturlich die Koeffizientenmatrix der Umkehrabbildung ϕ−1 ist. �

Definition: regulare Matrix, singulare MatrixInvertierbare (n × n)-Matrizen heißen auch regular oder nichtsingular. Nichtinvertierbare(n× n)-Matrizen heißen singular.

(2.4.8) Beispiele invertierbare Matrizen

1. Es sei A = diag(a1, . . . , an) ∈Mn(K) eine Diagonalmatrix uber einem beliebigen Korper Kmit lauter Eintragen ai 6= 0 . Die Matrix A hat den hochstmoglichen Rang n und die InverseA−1 = diag(a−1

1 , . . . , a−1n ) .

Page 89: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

86 2 LINEARE ABBILDUNGEN

2. Es sei A =(a bc d

)∈M2(K) .

Die Invertierbarkeit von A wird gesteuert von dem Parameter D := ad− bc :

1.Fall: ad− bc = 0 .

Ist a = 0 , so ist auch bc = 0 , also b = 0 oder c = 0 . Damit folgt A =(

0 0c d

)oder

A =(

0 b0 d

)und hat den Rang hochstens 1, ist also nicht invertierbar.

Ist a 6= 0 , so folgt d = bca und (c, d) = c

a(a, b) . Die zweite Zeile ist also ein Vielfaches derersten, und Rang(A) = 1 , also ist A nicht invertierbar.

2.Fall: ad− bc 6= 0 .

1D

(d −b−c a

)(a bc d

)=

1D

(D 00 D

)=(

1 00 1

),

folglich ist A invertierbar.Zusammenfassung: A ist genau dann invertierbar, wenn D = ad − bc 6= 0 ist, und gegebe-

nenfalls gilt A−1 = 1D

(d −b−c a

).

Wegen der Assoziativitat des Matrizenprodukts bilden die regularen (n × n)-Matrizen mitEintragen aus K eine Gruppe, bezeichnet mit GL(n,K) (engl. general linear group). Dasneutrale Element ist die Einheitsmatrix E. Ist der Skalarenkorper K ein endlicher Korpermit d Elementen, so hat die Gruppe GL(n,K) die Ordnung (dn−1)(dn−d)·. . .·(dn−dn−1) .(In die erste Spalte von A ∈ GL(n,K) kann man einen beliebigen Vektor aus Kn außer demNullvektor schreiben, hat also dn − 1 Moglichkeiten, in die zweite Spalte einen Vektor ausKn \ 〈1.Spalte〉 , dafur (dn − d) Moglichkeiten, usw.)Hat K unendlich viele Elemente, so auch GL(n,K) .Da die im Beweis von (2.2.3) verwendete Abbildung ψ invertierbar ist, sind die Homothetienϕλ, λ 6= 0 , die einzigen Endomorphismen von V , die mit allen invertierbaren Endomorphis-men von V vertauschbar sind. Ubertragen auf Matrizen heißt dies:

(2.4.9) Korollar Das Zentrum von GL(n,K) ist die Untergruppe {λE | λ 6= 0} derskalaren Vielfachen der Einheitsmatrix.

(Die verwendeten Begriffe aus der Gruppentheorie werden in Abschnitt 15.1 erklart.)

Nun sei eine Matrix A ∈Mn(K) mit Rang(A) = n vorgegeben. Einen Algorithmus fur dieBerechnung der Inversen A−1 liefert Teil (a) von (2.4.5):

(2.4.10) Satz Matrixinversion durch elementare ZeilenumformungenEs sei A ∈ Mn(K) mit Rang(A) = n . Durch Anwendung von geeigneten elementarenZeilenumformungen kann man A auf die Einheitsmatrix En transformieren. Wendet mandieselben Zeilenumformungen in derselben Reihenfolge auf die Matrix En an, so transfor-miert man En auf die Inverse A−1 von A.

Page 90: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.4 Elementare Umformungen, Rang und Invertieren von Matrizen 87

Beweis: Nach (2.4.1) lassen sich die Zeilenumformungen von A beschreiben durch Multipli-kation von A mit gewissen Matrizen Z1, . . . , Zk von links. Man erhalt also Zk · . . . ·Z1 ·A =En . Das bedeutet aber A−1 = Zk · . . . · Z1 = Zk · . . . · Z1 · En . Die Matrix auf der rechtenSeite dieser Gleichung erhalt man durch Anwendung der Zeilenumformungen Z1, . . . , Zk aufdie Einheitsmatrix En . �

(2.4.11) Beispiele Matrixinversion

1. Die Matrix A =(

2 31 2

)∈ M2(R) ist nach (2.4.8.2) invertierbar wegen 2 · 2 − 1 · 3 =

1 6= 0 . Wir konnen A nach (2.4.10) invertieren durch elementare Zeilenumformungen gemaßfolgendem Schema: (die Notation der Zeilenumformungen ist dieselbe wie in Abschnitt 1.5)

2 3 1 0 Ausgangstableau1 2 0 11 1 1 −1 [1]− [2]1 2 0 11 1 1 −10 1 −1 −2 [2]− [1]1 0 2 −3 [1]− [2]0 1 −1 −2

Damit folgt A−1 =(

2 −1−1 2

). Man vergleiche dieses Ergebnis mit (2.4.8.2).

2. Es sei A =

1 1 11 2 31 4 9

∈ M3(R) . Daß A invertierbar ist, kann man entweder direkt

zeigen, indem man den Rang von A bestimmt, oder man kann den Algorithmus von (2.4.10)anwenden: Wenn sich A durch Zeilenumformungen auf E3 transformieren laßt, so muß Aauch invertierbar sein (siehe Beweis zu (2.4.10)).

1 1 1 1 0 0 Ausgangstableau1 2 3 0 1 01 4 9 0 0 11 1 1 1 0 00 1 2 −1 1 0 [2]− [1]0 3 8 −1 0 1 [3]− [1]1 0 −1 2 −1 0 [1]− [2]0 1 2 −1 1 00 0 2 2 −3 1 [3]− 3 · [2]1 0 −1 2 −1 00 1 0 −3 4 −1 [2]− [3]0 0 1 1 −3/2 1/2 1/2 · [3]1 0 0 3 −5/2 1/2 [1] + [3]0 1 0 −3 4 −1 [2]− [3]0 0 1 1 −3/2 1/2

Damit folgt A−1 = 12 ·

6 −5 1−6 8 −2

2 −3 1

.

Page 91: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

88 2 LINEARE ABBILDUNGEN

Der Satz (2.4.10) funktioniert auch mit elementaren Spaltenoperationen. Wichtig ist aber,daß bei einer Matrixinvertierung entweder nur Zeilenoperationen oder nur Spaltenoperatio-nen angewendet werden. Andernfalls hatte man namlich eine Gleichung

Zk · . . . · Z1 · A · S1 · . . . · Sl = En ,aus der man nicht A−1 berechnen kann, da die Matrizen A und Sj moglicherweise nichtvertauschbar sind, so daß man nicht alle Zi, Sj auf einer Seite von A stehen hat.Zur Berechnung der inversen Matrix gibt es auch noch andere Verfahren (s. Abschnitt 8.4und 13.1).

Literatur: Fur zwei Matrizen A,B ∈ M(m× n,K) gilt nach (2.4.4.c) immer rang(A+B) ≤ rang(A) + rang(B) . Bezeichnet man mit CA, CB den Spaltenraum von A bzw. B,und mit RA, RB den Zeilenraum von A bzw. B, so sind nach [31] die folgenden Aussagenaquivalent:

(i) rang(A+B) = rang(A) + rang(B) ,(ii) dim(CA ∩ CB) = dim(RA ∩RB) = 0 .

2.5 Eigenwerte und Eigenvektoren. ϕ-invariante Unterraume

Die Streckung ϕλ bildet jeden Vektor v von V ab auf ein Vielfaches λv . Wenn v nichtgerade der Nullvektor ist, muß er aber im allgemeinen durch einen Endomorphismus ϕ vonV nicht in den Unterraum 〈v〉 abgebildet werden. Vektoren, fur die das gilt, sind daher vonbesonderem Interesse.

Definition: Eigenvektor, EigenwertEs sei ϕ ein Endomorphismus des Vektorraums V uber K und λ ∈ K . Der Vektor v ∈ V\{o}heißt Eigenvektor zum Eigenwert λ von ϕ, wenn ϕ(v) = λv gilt.

Man kann Eigenvektoren auch ohne Erwahnung des zugehorigen Eigenwertes charakterisie-ren. Fur einen Vektor v ∈ V \{o} sind die folgenden drei Aussagen aquivalent:

(i) v ist ein Eigenvektor von ϕ;(ii) ϕ(v) ∈ 〈v〉 ;

(iii) ϕ(〈v〉) ⊆ 〈v〉 .

(2.5.1) Beispiele Eigenwerte und Eigenvektoren

1. Es sei ϕλ die Homothetie mit dem Streckungsfaktor λ. Dann sind alle Vektoren v ∈ V \{o}Eigenvektoren von ϕλ zum Eigenwert λ.

2. Es sei BV = (b1, . . . , bn) eine Basis von V , und ϕ werde bezuglich BV ,BV beschrieben durchdie Diagonalmatrix diag(a1, . . . , an) . Dann ist bi ein Eigenvektor zum Eigenwert ai von ϕ.

3. Es sei V = R2 mit der kanonischen Basis, und ϕ sei beschrieben durch A =

(0 11 0

).

Es gilt A

(x1

x2

)=(λx1

λx2

)⇐⇒

(x2

x1

)=(λx1

λx2

)=⇒

{x2 = λ2x2

x1 = λ2x1.

Da ein Eigenvektor nach Definition nicht der Nullvektor sein kann, folgt λ2 = 1 , das heißtλ ∈ {1,−1} . Beide Losungen sind Eigenwerte:

A

(11

)=(

11

)und A

(1−1

)=(−1

1

)= (−1) ·

(1−1

).

Page 92: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.5 Eigenwerte und Eigenvektoren. ϕ-invariante Unterraume 89

4. Es sei V = R2 mit der kanonischen Basis, und ϕ sei beschrieben durch die Matrix

A =(

0 −11 0

). Analog zu 3. erhalt man fur die Koordinaten x1, x2 eines Eigenvektors

die Bedingungen x2 = −λ2x2 und x1 = −λ2x1 , also diesmal λ2 = −1 . Diese Gleichunghat keine Losung in R. Daher besitzt ϕ keine Eigenwerte und keine Eigenvektoren.

Der Beweis des folgenden Lemmas ist eine leichte Ubung:

(2.5.2) Lemma Es sei ϕ ein Endomorphismus von V .(a) Genau dann ist ϕ invertierbar, wenn er nicht den Eigenwert 0 hat.(b) Ist ϕ invertierbar und v ein Eigenvektor von ϕ zum Eigenwert λ, dann ist v ein Ei-

genvektor von ϕ−1 zum Eigenwert λ−1.(c) Die Eigenvektoren von ϕ zum Eigenwert λ bilden zusammen mit dem Nullvektor einen

Unterraum von V , den sogenannten”

Eigenraum von ϕ zum Eigenwert λ“.

(2.5.3) Satz Es sei ϕ ein Endomorphismus von V , und v1, . . . , vk seien Eigenvektoren vonϕ zu verschiedenen Eigenwerten λ1, . . . , λk von ϕ. Dann ist die Menge {v1, . . . , vk} linearunabhangig.

Beweis: Induktion nach k: Die Aussage ist klar fur k = 1 , da der Nullvektor nie einEigenvektor ist. Sei die Behauptung fur k − 1 gezeigt, und seien α1, . . . , αk ∈ K mit∑n

i=1 αivi = o (1) . Aus (1) folgt o = ϕ(∑n

i=1 αivi)

=∑n

i=1 αi(ϕvi) =∑n

i=1 αiλivi (2) sowieo = λno =

∑ni=1 αiλnvi (3) .

Die Differenz von (2) und (3) ergibt o =∑n

i=1 αi(λi − λn)vi =∑n−1

i=1 αi(λi − λn)vi (4) . Dadie λi paarweise verschieden sind, erhalten wir aus (4) und der Induktionsvoraussetzung dieBedingung α1 = . . . = αn−1 = 0 . Wegen vk 6= o folgt dann aber auch αk = 0 . Also ist{v1, . . . , vk} linear unabhangig. �

(2.5.4) Korollar Es sei V ein endlichdimensionaler Vektorraum mit dim(V ) = n. Dannkann ein Endomorphismus ϕ von V hochstens n verschiedene Eigenwerte haben.

In (2.5.1) haben wir Eigenwerte durch Losen von linearen Gleichungssystemen bestimmt.Spater werden wir sehen, daß die Eigenwerte eines Endomorphismus ϕ die Nullstellen dessogenannten charakteristischen Polynoms von ϕ sind, das man aus der Koeffizientenmatrixvon ϕ leicht berechnen kann.In der numerischen Mathematik spielt die Bestimmung von Eigenwerten eine große Rolle,und es gibt einige Verfahren zur praktischen Berechnung (siehe z.B. [SB], Kap.6).

Definition: ϕ-invarianter UnterraumSei V ein Vektorraum und ϕ ein Endomorphismus von V . Ein Unterraum U von V heißtϕ-invariant, wenn fur alle Vektoren v ∈ U gilt: ϕ(v) ∈ U .Eine andere Schreibweise fur diese Eigenschaft ist ϕ(U) ⊆ U . Im Englischen heißen dieseUnterraume invariant under ϕ (Lang) oder stable under ϕ (Greub).

Trivialerweise sind der Nullraum {o} und der volle Raum V ϕ-invariant fur alle Endomor-phismen ϕ von V . Wie man leicht sieht, sind Kern(ϕ) und Bild(ϕ) ebenfalls ϕ-invariant.

Page 93: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

90 2 LINEARE ABBILDUNGEN

Nach der Definition eines Eigenvektors ist ein eindimensionaler Unterraum U von V genaudann ϕ-invariant, wenn U = 〈v〉 gilt fur einen Eigenvektor v von ϕ.Wie passen sich die Kerne von Endomorphismen den Zerlegungen von V in direkte Summenan? Ist V = U1⊕ . . .⊕Ut eine direkte Summe, so ist im Allgemeinen der Kern von ϕ nichtgleich der direkten Summe der Durchschnitte Kern(ϕ) ∩ Ui .

(2.5.5) Beispiel Es sei A =(

0 00 1

)uber einem beliebigen Korper K.

Dann gilt Kern(A) = 〈(1, 0)T 〉 und V = 〈(1, 1)T 〉 ⊕ 〈(0, 1)T 〉 , aber

〈(1, 1)T 〉 ∩Kern(A) ⊕ 〈(0, 1)T 〉 ∩Kern(A) = {o} 6= Kern(A) .

Die Situation wird besser, wenn wir fur die direkte Zerlegung ϕ-invariante Unterraumewahlen:

(2.5.6) Satz Es sei ϕ ein Endomorphismus von V . Weiter existiere eine direkte ZerlegungV = U1 ⊕ . . .⊕ Un von V in ϕ-invariante Unterraume Ui . Dann gilt

Kern(ϕ) =(U1 ∩Kernϕ

)⊕ . . .⊕

(Un ∩Kernϕ

).

Beweis: Es genugt, die Aussage fur n = 2 zu zeigen. Der Rest folgt dann durch Induk-tion nach n, wobei im Induktionsschritt wieder die Behauptung fur n = 2 verwendet wird.Offensichtlich gilt

Kern(ϕ) ⊇(U1 ∩Kern(ϕ)

)⊕(U2 ∩Kern(ϕ)

).

Um die umgekehrte Inklusion zu zeigen, nehmen wir einen beliebigen Vektor x ∈ Kern(ϕ).Wegen V = U1 + U2 existieren Vektoren u1 ∈ U1 , u2 ∈ U2 mit x = u1 + u2 . Wegen derϕ-Invarianz von U1 und U2 gilt

o = ϕ(x) = ϕ(u1) + ϕ(u2) mit ϕ(u1) ∈ U1 und ϕ(u2) ∈ U2 .

Andererseits hat der Nullvektor genau eine Darstellung als Summe eines Vektors aus U1 undeines Vektors aus U2. Damit ergibt sich ϕ(u1) = o und ϕ(u2) = o , alsou1 ∈ U1 ∩Kern(ϕ) und u2 ∈ U2 ∩Kern(ϕ) . �

2.6 Basiswechsel, aquivalente und ahnliche Matrizen

Es sei V ein n-dimensionaler Vektorraum uber K mit zwei Basen BV = (b1, . . . , bn) undB′V = (b′1, . . . , b

′n) . Wie andern sich die Koordinaten von Vektoren v ∈ V und die Koeffizi-

entenmatrizen von linearen Abbildungen ϕ ∈ Hom(V,W ) , wenn man von der Basis BV zuB′V ubergeht?Das j-te

”neue“ Basiselement b′j kann man als Linearkombination der

”alten“ Basiselemente

darstellen: Es gibt eindeutig bestimmte Korperelemente si,j mit

b′j =n∑i=1

si,jbi .

Page 94: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.6 Basiswechsel, aquivalente und ahnliche Matrizen 91

Die Matrix S = (si,j) heißt Transformationsmatrix oder Ubergangsmatrix von BV nach B′V .Umgekehrt beschreibt jede invertierbare Matrix S einen Basiswechsel von der Basis BV zurBasis B′V = (Sb1, . . . , Sbn) .In der j-ten Spalte von S stehen die Koordinaten von b′j bezuglich der Basis BV . Schreibtman einen beliebigen Vektor v ∈ V als Linearkombination der b′j , so sieht man nach kurzerRechnung:

(2.6.1) Lemma Es sei S die Transformationsmatrix von der Basis BV zur Basis B′V .Ist der Vektor v ∈ V als Spaltenvektor mit seinen Koordinaten bezuglich B′V angegeben, soenthalt der Spaltenvektor Sv die Koordinaten von v bezuglich BV

(2.6.2) Beispiele TransformationsmatrizenEs sei V = R

2 .

1. Es sei BV =((1, 0)T , (0, 1)T

)und B′V =

((2, 0)T , (0, 3)T

). Es gilt b′1 = 2b1 + 0b2 und

b′2 = 0b1 + 3b2 also erhalt man die Transformationsmatrix S =(

2 00 3

).

Nun sei der Vektor v = (1, 2)T gegeben in der Koordinatendarstellung bzgl. B′V . Die Koor-dinatendarstellung von v bzgl. BV kann man auf zwei Arten berechnen:

v = 1b′1 + 2b′2 = (2, 0)T + 2(0, 3)T = (2, 6)T , oder nach (2.6.1)

v =(

2 00 3

)(12

)=(

26

).

2. Es sei BV =((2, 0)T , (0, 1)T

)und B′V =

((1, 0)T , (2, 1)T

). Es gilt b′1 = 1

2b1 + 0b2 und

b′2 = b1 + b2 also erhalt man die Transformationsmatrix S =(

12 10 1

).

(2.6.3) Lemma Es sei V ein endlichdimensionaler Vektorraum uber K mit Basen BVund B′V . Die Transformationsmatrix S von BV nach B′V ist invertierbar, und S−1 ist dieTransformationsmatrix von B′V nach BV .

Beweis: Es sei n = dim(V ) . Da die Spalten von S die Koordinatendarstellungen derBasisvektoren b′1, . . . , b

′n sind, spannen sie V auf. Also hat S den Spaltenrang n und ist

invertierbar.Es sei T die Transformationsmatrix von B′V nach BV . Bezeichnen wir mit ei den i-tenStandard-Einheitsvektor, so ist ei die Koordinatendarstellung von b′i bezuglich der Basis B′V .Folglich ist Sei die Koordinatendarstellung von b′i bezuglich der Basis BV . Nach (2.6.1) istalso TSei wieder die Koordinatendarstellung von b′i bezuglich der Basis B′V , also TSei = eifur alle Indizes i ∈ {1, . . . , n} . Damit folgt TS = En . �

(2.6.4) Satz Transformation der Koeffizientenmatrix bei BasiswechselEs seien V,W zwei endlichdimensionale Vektorraume uber dem Korper K. Weiter seienBV ,B′V zwei Basen von V und BW ,B′W zwei Basen von W .Eine lineare Abbildung ϕ : V → W werde bezuglich BV ,BW beschrieben durch die MatrixA und bezuglich B′V ,B′W durch die Matrix A′. Weiter sei S die Ubergangsmatrix von BVnach B′V und T die Ubergangsmatrix von BW nach B′W .Dann gilt A′ = T−1AS .

Page 95: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

92 2 LINEARE ABBILDUNGEN

Beweis: Die j-te Spalte von A′ gibt die Koordinaten von ϕ(b′j) an bezuglich der BasisB′W . Ist ej der j-te Standard-Einheitsvektor, so ist Sej die j-te Spalte von S und gibt dieKoordinaten von b′j an bezuglich der Basis BV . Daher ist ASej die Koordinatendarstellung

von ϕ(b′j) bezuglich der Basis BW . Da T−1 die Ubergangsmatrix von B′W nach BW ist, istnach (2.6.1) T−1ASej die Koordinatendarstellung von ϕ(b′j) bezuglich der Basis B′W .Somit haben A′ und T−1AS die gleichen Spalten, und es folgt die Aussage. �

(2.6.5) Beispiele Transformation der Koeffizientenmatrix bei Basiswechsel

1. Es seien V = R2 und W = R

3 mit den Basen BV =((1, 0)T , (0, 1)T

), B′V =

((1, 0)T , (1, 1)T

)und BW =

((1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T

), B′W =

((2, 0, 0)T , (0, 1, 1)T , (0, 1,−1)T

). Weiter

sei

A =

1 23 45 6

.

Die Transformationsmatrizen sind

S =(

1 10 1

)von BV nach B′V und T =

2 0 00 1 10 1 −1

von BW nach B′W .

Es gilt T−1 = 12 ·

1 0 00 1 10 1 −1

, also

A′ = T−1AS =12·

1 0 00 1 10 1 −1

1 23 45 6

( 1 10 1

)=

12·

1 38 18−2 −4

.

2. Wir greifen noch einmal das Beispiel (2.3.2.4) auf und berechnen die Koeffizientenmatrix derDifferentiation im Vektorraum R

3. Wir verwenden die Basen BV = BW = (1, x, x2, x3) undB′V = B′W = (x2 + 1, x2 − x, x3, 2x) . Damit ergeben sich die Transformationsmatrizen

S =

1 0 0 00 −1 0 21 1 0 00 0 1 0

und S−1 =

1 0 0 0−1 0 1 0

0 0 0 1−1

212

12 0

also

A′ = S−1 ·

0 1 0 00 0 2 00 0 0 30 0 0 0

· S =

0 −1 0 20 1 3 −20 0 0 01 3

232 −1

.

Dies ist genau die Koeffizientenmatrix, die wir in (2.3.2.4) durch Berechnung der Bilder derBasisvektoren gewonnen haben.

Definition: aquivalente MatrizenZwei Matrizen A,B ∈ M(m × n,K) heißen aquivalent, wenn es eine regulare Matrix S ∈Mn(K) und eine regulare Matrix T ∈Mm(K) gibt mit B = TAS .

Aus dieser Definition und (2.6.4) folgt sofort

Page 96: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.6 Basiswechsel, aquivalente und ahnliche Matrizen 93

(2.6.6) Korollar Die Matrix A ∈M(m×n,K) beschreibe eine lineare Abbildung ϕ : V →W bezuglich des Basispaares BV ,BW .Die Matrix B ∈ M(m × n,K) ist genau dann aquivalent zu A, wenn es ein BasispaarB′V ,B′W gibt, so daß B die Koeffizientenmatrix von ϕ bezuglich B′V ,B′W ist.

(2.6.7) Satz

Es sei A ∈M(m× n,K) mit Rang(A) = r . Dann ist A aquivalent zu

(Er 00 0

).

Beweis: Bezuglich eines beliebig gewahlten Basispaares BV ,BW beschreibt A eine lineareAbbildung ϕ : Kn → Km . Nach (2.4.6) gilt Rang(ϕ) = Rang(A) = r . Also ist r dieDimension von Bild(ϕ) und n − r die Dimension von Kern(ϕ). Nun sei B′V = (v′1, . . . , v

′n)

eine Basis von V derart, daß (v′r+1, . . . , v′n) eine Basis von Kern(ϕ) ist. Nach (2.1.6) ist

dann (ϕ(v′1), . . . , ϕ(v′r)) eine Basis von Bild(ϕ) und kann nach dem Basiserganzungssatz zueiner Basis B′W = (ϕ(v′1), . . . , ϕ(v′r), w

′r+1, . . . , w

′m) von W erganzt werden. Dann hat die

Koeffizientenmatrix B von ϕ bezuglich B′V ,B′W die angegebene Form. �

Die Aquivalenz von Matrizen ist eine Aquivalenzrelation auf M(m × n,K) . Es gibt genaumin{n,m} verschiedene Aquivalenzklassen, denn jede Aquivalenzklasse enthalt genau eineder ausgezeichneten Matrizen(

Er 00 0

), 0 ≤ r ≤ min{n,m} .

Es gibt zwei Grunde, sich mit dieser Klassifikation nicht zufrieden zu geben:1. Die Aquivalenz ist eine sehr grobe Einteilung, was schon dadurch klar wird, daß es nur

sehr wenige Aquivalenzklassen gibt. Beispielsweise sind folgende Matrizen Ai ∈M2(R)aquivalent:

A1 =

(1 00 1

), A2 =

(1 00 −1

), A3 =

(0 −11 0

),

A4 =

(50 00 50

), A5 =

(1√2− 1√

21√2

1√2

)

Wahrend A1 die identische Abbildung beschreibt, also alle Vektoren v ∈ R2\{o} Ei-genvektoren zum Eigenwert 1 von A1 sind, sind lediglich die Vektoren (λ, 0)T , λ 6= 0,Eigenvektoren zum Eigenwert 1 von A2 und die Vektoren (0, λ)T , λ 6= 0, Eigenvek-toren zum Eigenwert −1 von A2, wahrend A3 uberhaupt keine Eigenvektoren besitzt.A4 ist eine Streckung mit dem Faktor 50, wahrend A5 eine Drehung gegen den Uhr-zeigersinn um den Winkel 45o beschreibt.

2. Ist ϕ ein Endomorphismus von V , sind also Urbild- und Bildraum identisch, so mochteman auch nur eine Basis fur V haben, und nicht eine Basis von V als Urbildraum undeine andere Basis fur V als Bildraum.

Der zweite Grund fuhrt uns zu einer neuen Definition:

Definition: ahnliche MatrizenZwei Matrizen A,B ∈ Mn(K) heißen ahnlich, wenn es eine regulare Matrix S ∈ Mn(K)gibt mit B = S−1AS .

Page 97: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

94 2 LINEARE ABBILDUNGEN

Nach (2.6.4) gilt:

(2.6.8) Korollar Der Endomorphismus ϕ von V habe bezuglich des Basispaares BV ,BVdie Koeffizientenmatrix A. Eine Matrix B ∈Mn(K) ist genau dann ahnlich zu A, wenn eseine Basis B′V , von V gibt, so daß B die Koeffizientenmatrix von ϕ bezuglich B′V ,B′V ist.

Im Gegensatz zu aquivalenten Matrizen konnen ahnliche Matrizen nicht verschiedene Eigen-werte haben:

(2.6.9 ) Lemma Die Matrizen A,B ∈ Mn(K) seien ahnlich. Dann haben A und Bdieselben Eigenwerte, und fur jeden Eigenwert λ ist die Dimension des Eigenraumes von Azum Eigenwert λ gleich der Dimension des Eigenraumes von B zum Eigenwert λ.

Beweis: Es sei B = S−1AS. Ein Vektor v ∈ V ist genau dann Eigenvektor zum Eigenwertλ von A, wenn S−1v Eigenvektor zum Eigenwert λ von B ist. �

Sind zwei quadratische Matrizen ahnlich, so sind sie naturlich aquivalent. Die Umkehrunggilt nur fur den trivialen Fall M1(GF (2)) , wobei GF (2) den Korper mit zwei Elementenbezeichne. Die einzigen Matrizen sind dann namlich (0) und (1), und diese beiden sind wederaquivalent noch ahnlich.

(2.6.10) Beispiele Aquivalenz und Ahnlichkeit

1. Sei K ein beliebiger Korper. Die Matrizen A =(

1 00 1

)und B =

(0 11 0

)aus M2(K)

sind aquivalent, denn sie haben beide den Rang 2.Der volle Vektorraum K2 ist der Eigenraum von A zum Eigenwert 1, wahrend der Vektor(1, 0)T kein Eigenvektor von B ist. Nach (2.6.9) sind also A,B nicht ahnlich.

2. Es sei K 6= GF (2) . Dann hat K mindestens zwei verschiedene Elemente λ1, λ2 6= 0 , und dieMatrizen (λ1) , (λ2) sind beide aquivalent zu (1), aber nicht ahnlich, weil λ1 ein Eigenwertvon (λ1) , aber nicht von (λ2) ist.

2.7 Potenzen von Endomorphismen, iterierte Abbildungen

Zwei lineare Abbildungen ϕ, ψ von Vektorraumen uber demselben Korper K kann man zuψ ◦ ϕ verknupfen (hintereinanderausfuhren), wenn das Bild von ϕ im Urbildraum von ψenthalten ist, denn dann kann man ψ auf den Vektor ϕ(v) anwenden: ψ ◦ ϕ(v) := ψ(ϕ(v)) .Insbesondere kann man also Endomorphismen von V immer verknupfen, und noch spezieller:man kann einen Endomorphismus mit sich selbst verknupfen.

Definition: Potenzen eines EndomorphismusEs sei ϕ ein Endomorphismus von V . Wir schreiben ϕ2 := ϕ◦ϕ und induktiv ϕk := ϕ◦ϕk−1

fur alle k ∈ N . Außerdem setzen wir ϕ0 := idV . Ist ϕ invertierbar, so sei ϕ−k := (ϕ−1)k

fur alle k ∈ N .

Die Festsetzung ϕ0 := idV entspricht dem Potenzieren einer reellen Zahl mit 0. Fur dasPotenzieren von Endomorphismen gelten die Rechenregeln, die man erwartet:

Page 98: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.7 Potenzen von Endomorphismen, iterierte Abbildungen 95

(2.7.1) Lemma Es sei ϕ ein Endomorphismus von V .

(a) Fur k, l ∈ N0 gilt ϕk+l = ϕkϕl = ϕlϕk .Insbesondere sind die Abbildungen ϕk und ϕl vertauschbar.

(b) Fur k, l ∈ N0 gilt (ϕk)l = ϕ(kl) .(c) Hat ϕ bezuglich der Basis B die Koeffizientenmatrix A, so hat ϕk bezuglich der BasisB die Koeffizientenmatrix Ak.

(2.7.2) Beispiele Potenzen von Endomorphismen

1. Ist ϕλ die Homothetie mit dem Streckungsfaktor λ, so gilt (ϕλ)k = ϕ(λk) .

2. Ist V = R[x] der Vektorraum der reellen Polynome und δ die Differentiation auf V , so istδk die k-fache Ableitung auf V .

3. Ist A = diag(a1, . . . , an) eine Diagonalmatrix, so gilt Ak = diag((a1)k, . . . , (an)k) .

4. Sei V = R2 und ϕ der bezuglich der kanonischen Basis durch die Matrix

(1 1−1 −1

)beschriebene Endomorphismus von V . Dann ist ϕ2 die Nullabbildung.

(2.7.3) Beispiele Eigenwerte von Produkten von Endomorphismen

1. Es sei ϕ ein Endomorphismus des Vektorraums V . Ist v ein Eigenvektor zum Eigenwert λvon ϕ, so gilt ϕ2(v) = ϕ

(ϕ(v)

)= ϕ(λv) = λ · ϕ(v) = λ2(v) .

Per Induktion nach k zeigt man, daß v auch ein Eigenvektor von ϕk zum Eigenwert λk ist.Ist ϕ zusatzlich invertierbar, so ist λ 6= 0 , und v ist ein Eigenvektor von ϕ−1 zum Eigenwertλ−1, denn es gilt v = ϕ−1

(ϕ(v)

)= ϕ−1(λv) = λ · ϕ−1(v) .

2. Ist λ ein Eigenwert von ϕ und µ ein Eigenwert von ψ, so muß im allgemeinen λµ keinEigenwert von ϕ ◦ ψ sein:Bezuglich der kanonischen Basis von R2 seien ϕ und ψ dargestellt durch die DiagonalmatrizenA = diag(1, 2) bzw. B = diag(3, 4) . Dann wird ϕ ◦ ψ dargestellt durch die ProduktmatrixAB = diag(3, 8) , und diese hat die Eigenwerte 3 und 8, also nicht 4 = 1 · 4 .

(2.7.4) Lemma Kern und Bild von iterierten EndomorphismenEs sei ϕ ein Endomorphismus des Vektorraums V . Dann gilt fur alle k ∈ N0 :

(a) Kern(ϕk) ⊆ Kern(ϕk+1) ;(b) Bild(ϕk) ⊇ Bild(ϕk+1) .(c) Es sei dimV = n <∞ und dk = dim

(Kern(ϕk)

)sowie rk = dim

(Bild(ϕk)

).

Dann ist die Differenzenfolge (dk − dk−1)k∈N schwach monoton fallend und die Diffe-renzenfolge (rk − rk−1)k∈N schwach monoton steigend.

(d) Ist dimV <∞ und dim(Kern(ϕ)

)= r , so gilt dim

(Kern(ϕk)

)≤ kr fur alle k ∈ N .

Beweis:

(a) Ist v ∈ Kern(ϕk) , so gilt ϕk(v) = o . Wegen der Linearitat von ϕ folgt ϕk+1(v) =ϕ(ϕk(v)

)= ϕ(o) = o , also liegt v auch in Kern(ϕk+1) .

(b) Zu jedem v ∈ Bild(ϕk+1) gibt es ein z ∈ V mit v = ϕk+1(z) = ϕk(ϕ(z)

). Also gilt

auch v ∈ Bild(ϕk) .

Page 99: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

96 2 LINEARE ABBILDUNGEN

(c) Nach dem Dimensionssatz (2.1.7) gilt dk = n− rk fur alle k ∈ N0 , also

dk − dk−1 = (n− rk)− (n− rk−1) = rk−1 − rk= dim

(Bild(ϕk−1)

)− dim

(Bild(ϕk)

)= dim

(Bild(ϕk−1)

)− dim

(ϕ(Bild(ϕk−1))

)(2.1.7)

= dim(Kern(ϕ|Bild(ϕk−1))

)= dim

(Kern(ϕ) ∩ Bild(ϕk−1)

).

Wegen (b) ist die Folge(

dim(Kern(ϕ) ∩ Bild(ϕk−1)

))k∈N schwach monoton fallend,

also auch die Differenzenfolge (dk − dk−1)k∈N . Die Behauptung uber die Folge (rk −rk−1)k∈N folgt aus rk − rk−1 = −(dk − dk−1) .

(d) Aus dem Beweis von (c) folgt insbesondere dk − dk−1 ≤ dim(Kern(ϕ)

)= r , also

dk = dk − d0 ≤ (dk − dk−1)︸ ︷︷ ︸≤r

+ (dk−1 − dk−2)︸ ︷︷ ︸≤r

+ . . .+ (d1 − d0)︸ ︷︷ ︸≤r

≤ kr . �

Die iterierten Kerne bilden somit eine aufsteigende Folge

{o} = Kern(ϕ0) ⊆ Kern(ϕ) ⊆ Kern(ϕ2) ⊆ . . .

von Unterraumen von V , wahrend die iterierten Bilder eine absteigende Folge

V = Bild(ϕ0) ⊇ Bild(ϕ) ⊇ Bild(ϕ2) ⊇ . . .

von Unterraumen von V bilden. Hat V endliche Dimension, so mussen diese beiden Folgennach endlich vielen Schritten konstant werden. Es gibt also naturliche Zahlen m, l mit

Kern(ϕm) = Kern(ϕm+k) und Bild(ϕl) = Bild(ϕl+k) fur alle k ∈ N .

(2.7.5) Satz Es sei ϕ ein Endomorphismus des endlich-dimensionalen Vektorraums V undes sei m ∈ N minimal mit der Eigenschaft Kern(ϕm) = Kern(ϕm+1) . Dann gilt

(a) Kern(ϕm) = Kern(ϕm+k) fur alle k ∈ N ;(b) Bild(ϕm) = Bild(ϕm+k) fur alle k ∈ N ;(c) V = Kern(ϕm)⊕ Bild(ϕm) .

Beweis:

(a) Wir zeigen zuerst Kern(ϕm+k) = Kern(ϕm+k−1) fur alle k ≥ 2 . Die Behauptung folgtdann durch Induktion nach k. Nach (2.7.4.a) gilt Kern(ϕm+k) ⊇ Kern(ϕm+k−1) . Ware

v ∈ Kern(ϕm+k)\Kern(ϕm+k−1) ,

so ware ϕm+k(v) = o 6= ϕm+k−1(v) , also

ϕm+1(ϕk−1(v)

)= o 6= ϕm

(ϕk−1(v)

).

Somit lage ϕk−1(v) in Kern(ϕm+1)\Kern(ϕm) , ein Widerspruch zur AnnahmeKern(ϕm) = Kern(ϕm+1) .

Page 100: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.7 Potenzen von Endomorphismen, iterierte Abbildungen 97

(b) Nach (2.7.4.b) gilt Bild(ϕm+k) ⊆ Bild(ϕm+k−1) . Nach dem Dimensionssatz (2.1.7) giltandererseits

dim(Bild(ϕm+k)

)= dim(V )− dim

(Kern(ϕm+k)

)(a)= dim(V )− dim

(Kern(ϕm)

)= dim

(Bild(ϕm)

),

also Bild(ϕm) = Bild(ϕm+k) .(c) Ist v ∈ Bild(ϕm) , so gibt es ein z ∈ V mit v = ϕm(z) . Ist v zugleich ein Element

von Kern(ϕm) , so gilt o = ϕm(v) = ϕ2m(z) , also liegt z in Kern(ϕ2m) = Kern(ϕm) ,und es folgt v = ϕm(z) = o . Dies zeigt Kern(ϕm) ∩ Bild(ϕm) = {o} .Die Aussage Kern(ϕm) + Bild(ϕm) = V ist dann klar nach der Dimensionsformel furlineare Abbildungen. �

(2.7.6) Beispiele iterierte Kerne und Bilder

1. Ist V unendlich-dimensional, so muß die Folge der iterierten Kerne nicht konstant werden:Sei etwa V = R[x] (vgl. (2.1.9)) und δ die Differentiation auf V . Dann hat fur jedes k ∈ Nder Kern von δk die Dimension k (er enthalt namlich genau die Polynome vom Grad ≤ k−1),also bilden die iterierten Kerne eine unendliche, echt aufsteigende Folge. Umgekehrt gilt aberBild(δk) = V fur alle k ∈ N , also ist die Folge der iterierten Bilder von Anfang an konstant.

2. Es sei V = R3 und ϕ der bezuglich der kanonischen Basis (e1, e2, e3) durch die Matrix

A =

1 0 00 1 10 −1 −1

beschriebene Endomorphismus. Wegen Rang(ϕ) = Rang(A) = 2 gilt

dim(Kern(ϕ)

)= 1 . Der Vektor v1 = (0, 1,−1)T liegt in Kern(ϕ) , also folgt Kern(ϕ) = 〈v1〉 .

Es gilt A2 =

1 0 00 0 00 0 0

, also Rang(ϕ2) = 1 und dim(Kern(ϕ2)

)= 2 . Man sieht sofort

Kern(ϕ2) = 〈e2, e3〉 ) Kern(ϕ) .Weiter gilt A3 = A2 , also Ak = A2 fur alle k ≥ 2 .Die iterierten Bilder bilden die absteigendeFolge Bild(ϕ) = 〈e1〉 ( Bild(ϕ2) = 〈e1, v1〉 .Man beachte, daß der Durchschnitt Bild(ϕ)∩Kern(ϕ) den nichttrivialen Vektor v1 enthalt,also im allgemeinen die Aussage von (2.7.5.c) nicht richtig bleibt fur Exponenten k < m .

3. Es sei V = Rn[x] der Vektorraum der reellen Polynome vom Grad hochstens n, und sei δdie Differentiation auf V . Wir benutzen die Ergebnisse dieses Abschnitts, um zu zeigen, daßes keinen Endomorphismus ϕ von V gibt mit ϕ2 = δ :Wir nehmen an, es gelte ϕ2 = δ . Der Kern von δ enthalt die konstanten Polynome undhat die Dimension 1. Nach (2.7.4.a) gilt Kern(δ) = Kern(ϕ2) ⊇ Kern(ϕ) . Daher gibt esnur die Moglichkeiten Kern(ϕ) = {o} oder Kern(ϕ) = Kern(δ) . Im ersten Fall ware ϕund damit auch δ = ϕ2 regular, ein Widerspruch. Also folgt Kern(ϕ) = Kern(δ) . Damitgilt aber Kern(ϕ) = Kern(ϕ2) , also nach (2.7.5) V = Kern(ϕ) ⊕ Bild(ϕ) . Deswegen kanndas konstante Polynom 1 nicht in Bild(ϕ) liegen. Andererseits gilt Bild(δ) = Bild(ϕ2) ⊆Bild(ϕ) , also 1 = δ(x) ∈ Bild(ϕ) , ein Widerspruch.

Eine wichtige Klasse von Endomorphismen erfullt die Voraussetzung von (2.7.5) fur m = 1 :

Definition: Projektion, idempotente AbbildungEin Endomorphismus ϕ von V mit ϕ2 = ϕ heißt Projektion oder idempotent.

Page 101: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

98 2 LINEARE ABBILDUNGEN

(2.7.7) Beispiele Projektionen

1. Es sei V ein endlichdimensionaler Vektorraum mit einer Basis B, und πi : V → V die Pro-jektion auf die i-te Komponente (vgl. (2.1.2.2)). Dann ist πi eine Projektion.Projektionen im Sinne der obigen Definition kann man als Verallgemeinerungen der Projek-tionsabbildungen πi ansehen (siehe die Bemerkung nach (2.7.8)).

2. Die reellen Matrizen A =(

4 6−2 −3

)und B =

0 3 00 1 00 0 1

beschreiben wegen

A2 = A und B2 = B Projektionen in R2 bzw. in R3.

3. Es sei V der Vektorraum aller Funktionen f : R→ R . Fur r ∈ R bezeichne cr die konstanteFunktion, die den Wert r annimmt. Fur f ∈ V sei ϕ(f) = cf(1) . Dann ist ϕ eine Projektiondes unendlich-dimensionalen Vektorraums V .

(2.7.8) Satz Charakterisierung der ProjektionenEs sei V ein Vektorraum beliebiger Dimension uber K und ϕ ein Endomorphismus von V .Weiter sei Fix(ϕ) = {v ∈ V | ϕ(v) = v} der Unterraum der Fixelemente von ϕ.Genau dann ist ϕ eine Projektion von V , wenn V = Kern(ϕ)⊕ Fix(ϕ) gilt.

Beweis:

⇒ Es sei ϕ eine Projektion von V , und v ∈ V sei beliebig gewahlt. Setzt man u =v − ϕ(v) und w = ϕ(v) , so gilt v = u + w , ϕ(u) = ϕ(v) − ϕ2(v) = o undϕ(w) = ϕ2(v) = ϕ(v) = w . Dies zeigt u ∈ Kern(ϕ) und w ∈ Fix(ϕ) , also V =Kern(ϕ) + Fix(ϕ) . Aus v ∈ Kern(ϕ) ∩ Fix(ϕ) folgt v = ϕ(v) = o .

⇐ Gilt V = Kern(ϕ) + Fix(ϕ) , so gibt es zu jedem v ∈ V Vektoren u ∈ Kern(ϕ) undw ∈ Fix(ϕ) mit v = u+w . Es folgt ϕ(v) = ϕ(u)+ϕ(w) = w und ϕ2(v) = ϕ(w) = w .Also ist ϕ eine Projektion. �

Setzt man U = Fix(ϕ) fur eine Projektion ϕ, so gibt es zu jedem Vektor v ∈ V eineeindeutig bestimmte Zerlegung v = u+w mit u ∈ U und w ∈ Kern(ϕ) . Die Projektion ϕbildet dann v ab auf die

”erste Komponente“ u. In diesem Sinne kann man die Projektionen

auffassen als Verallgemeinerungen der Projektionsabbildungen eines endlichdimensionalenVektorraums auf seine Koordinaten.Fur eine Projektion ϕ gilt Bild(ϕ) = Fix(ϕ) , also nach (2.7.8) auch V = Kern(ϕ)⊕Bild(ϕ) .(Fur endlichdimensionale Vektorraume folgt dies schon aus (2.7.5.b).) Umgekehrt muß aberein Endomorphismus ϕ mit V = Kern(ϕ)⊕ Bild(ϕ) nicht unbedingt eine Projektion sein:Es sei K ein Korper mit 1 + 1 6= 0 und V 6= {o} . Weiter sei ϕ = 2 · idV . Dann giltKern(ϕ) = {o} und Bild(ϕ) = V , aber ϕ ist keine Projektion, denn fur einen Vektor v 6= o

gilt ϕ(v) = 2v 6= 4v = ϕ2(v) .

2.8 * Additivitat und Homogenitat von Abbildungen

Bei der Aufstellung eines Axiomensystems stellt sich immer die Frage nach der Unabhangigkeitder Axiome, also die Frage, ob vielleicht eines der Axiome aus den anderen folgt und daher

Page 102: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.8 * Additivitat und Homogenitat von Abbildungen 99

weggelassen werden kann. Fur die linearen Abbildungen zwischen zwei Vektorraumen V undW uber demselben Skalarenkorper K haben wir zwei Axiome, namlich dieAdditivitat (L1) : ϕ(v1 + v2) = ϕ(v1) + ϕ(v2) fur alle v1, v2 ∈ V , und dieHomogenitat (L2) : ϕ(λv) = λϕ(v) fur alle λ ∈ K , v ∈ V .

(2.8.1) Beispiele

1. Es seien V und W Vektorraume uber demselben Skalarenkorper K und dim(V ) = 1 . Dannist jede homogene Abbildung ϕ : V →W auch additiv:Ist b ∈ V \{oV } , so gibt es wegen dim(V ) = 1 zu jedem v ∈ V ein λv ∈ K mit v = λvb . Furbeliebige Vektoren v, w ∈ V erhalten wir also ϕ(v+w) = ϕ

((λv +λw)b

)= (λv +λw)ϕ(b) =

λvϕ(b) + λwϕ(b) = ϕ(λvb) + ϕ(λwb) = ϕ(v) + ϕ(w) .

2. Die additiven Selbstabbildungen des Q-Vektorraums R sind die Losungen der Funktional-gleichung f(x+ y) = f(x) + f(y) (siehe (1.7.14)). Fur x ∈ R und q ∈ N gilt

f(x) = f(x

q+ . . .+

x

q︸ ︷︷ ︸q

) = q · f(x

q) , also f(

x

q) =

1q· f(x) .

Die nochmalige Verwendung der Additivitat liefert f(ρx) = ρf(x) fur alle ρ ∈ Q und allex ∈ R . Eine additive Selbstabbildung des Q-Vektorraums R ist also automatisch homogen.

Daß die Aquivalenz von (L1) und (L2) aber nicht die Regel, sondern die Ausnahme ist, zeigendie folgenden Uberlegungen, die den Arbeiten von Kirsch [24] und Mayr [35] entnommensind. In diesem Zusammenhang wird auch das Problem angesprochen, was passiert, wennder Skalarenkorper eines Vektorraums verkleinert wird (vgl. (2.8.2) und (2.8.3).

Zunachst benotigen wir eine elementare Eigenschaft von Korpern8: Es sei K ein beliebigerKorper und {Ti | i ∈ I} eine nichtleere Familie von Teilkorpern von K. Dann ist derDurchschnitt

⋂i∈I Ti wieder ein Teilkorper von K. Der Beweis dafur geht genauso wie der,

daß der Durchschnitt einer nichtleeren Familie von Unterraumen eines Vektorraums wiederein Unterraum ist.Insbesondere ist der Durchschnitt P aller Teilkorper von K wieder ein Teilkorper von K,und zwar der kleinste solche. P heißt Primkorper von K. Der Primkorper enthalt zumindestdas additionsneutrale Element 0 und das multiplikationsneutrale Element e (bzw 1). In derAlgebra zeigt man, daß ein Korper der Charakteristik9 p > 0 stets den endlichen KorperGF (p) mit p Elementen, und ein Korper der Charakteristik 0 immer den Primkorper Q(jeweils bis auf Isomorphie) als Primkorper besitzt.Nach (14.3.1) kann man den Korper K als Vektorraum uber seinem Primkorper P auffassen.Zum Beispiel gilt dimP

(GF (pd)

)= d und dimQ(R) =∞ (s. (15.3.1) und (1.7.13)).

Ist T ein Teilkorper des Korpers K und V ein Vektorraum uber K, so kann man V beiBeschrankung der skalaren Multiplikation auf Elemente λ ∈ T auch als T -Vektorraumauffassen.

8Zu den Grundbegriffen der Korpertheorie siehe Abschnitt 15.2 und 15.3.9s. (15.2.7) und (15.3.2)

Page 103: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

100 2 LINEARE ABBILDUNGEN

(2.8.2) Lemma Es sei K ein Korper, T ( K ein echter Teilkorper von K und VK einVektorraum uber K. Weiter bezeichne VT den Vektorraum uber T , den man erhalt, wennman die skalare Multiplikation VK ×K → VK einschrankt auf VK × T . (Als Mengen sindVK und VT identisch.)Eine Basis BK von VK ist eine linear unabhangige Teilmenge von VT , und es gibt eine BasisBT von VT mit BK ( BT .

Beweis: Ist o = λ1b1 + . . .+ λnbn eine endliche Linearkombination von Vektoren bi ∈ BKmit Koeffizienten λi ∈ T , so ist dies wegen T ⊆ K auch eine Linearkombination imVektorraum VK . Also ist BK eine linear unabhangige Teilmenge von VT . Wegen T 6= Kgibt es ein µ ∈ K \ T . Es sei b1 ∈ BK beliebig gewahlt. Ware BK auch eine Basis von VT ,so mußte es Vektoren b2, . . . , bn ∈ BK und Skalare λ1, . . . , λn ∈ T geben mit

µb1 = λ1b1 + . . .+ λnbn , also o = (λ1 − µ)b1 + λ2b2 + . . .+ λnbn .

Wegen λ1 6= µ ware dies eine nichttriviale Darstellung des Nullvektors, ein Widerspruch zurlinearen Unabhangigkeit von BK . �

(2.8.3) Beispiel Der Raum C2 = {

(z1

z2

)| z1, z2 ∈ C} ist ein 2-dimensionaler Vektorraum

uber C. Lassen wir nur noch die skalare Multiplikation mit λ ∈ R zu, so wird C2 ein Vektorraumuber R wie in der Voraussetzung zu (2.8.2).BC = {(1, 0)T , (0, 1)T } ist eine Basis von C2 als C-Vektorraum, undBR = {(1, 0)T , (0, 1)T , (i, 0)T , (0, i)T } ist eine Basis von C2 als R-Vektorraum, die BC als Teil-menge enthalt.

(2.8.4) Satz Es seien V und W Vektorraume der Dimension ≥ 1 uber einem Korper K.(a) Genau dann, wenn V eindimensional ist, ist jede homogene Abbildung ϕ : V → W

auch additiv.(b) Genau dann, wenn K mit seinem Primkorper P identisch ist, ist jede additive Abbil-

dung ϕ : V → W auch homogen.

Beweis:

(a) Eine Richtung wurde bereits in (2.8.1.1) bewiesen. Nun sei B = {b1, b2, . . .} mit b1 6=b2 eine Basis von V und {c1, . . .} eine Basis von W . Jedes v ∈ V laßt sich darstellenin eindeutiger Weise als endliche Linearkombination von Vektoren aus B. Bezeichnenwir mit λ1(v) und λ2(v) die Komponenten von v bezuglich der Basisvektoren b1 undb2, so wird durch

ϕ(v) =

{λ1(v)c1 falls λ1(v) 6= λ2(v)

oW falls λ1(v) = λ2(v)

eine Abbildung ϕ : V → W wohldefiniert. Im Fall µ ∈ K \ {0} ist λ1(v) = λ2(v)gleichbedeutend mit µλ1(v) = µλ2(v) , also folgt ϕ(µv) = µϕ(v) fur alle µ ∈ K .Daher ist ϕ homogen. Andererseits gilt

ϕ(b1 + b2) = oW 6= 1 · c1 + 0 · c1 = ϕ(b1) + ϕ(b2) ,

also ist ϕ nicht additiv.

Page 104: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.9 * Direkte Produkte und außere direkte Summen von Vektorraumen 101

(b) Es sei ϕ : V → W eine additive Abbildung. Die Teilmenge

T = {λ ∈ K | ϕ(λv) = λϕ(v) fur alle v ∈ V }

ist ein Teilkorper von K:Trivialerweise liegt das Einselement e in T . Wegen der Additivitat von ϕ gilt fur alleλ, µ ∈ T

ϕ((λ− µ)v

)= ϕ(λv)− ϕ(µv) = λϕ(v)− µϕ(v) = (λ− µ)ϕ(v) ,

also auch λ − µ ∈ T und damit insbesondere 0 = e − e ∈ T . Weiter gilt fur alleλ, µ ∈ T, µ 6= 0

λϕ(v) = ϕ(λv) = ϕ(µ(µ−1λv)

)= µϕ(µ−1λv) ,

also nach Dividieren dieser Gleichung durch µ schließlich ϕ(µ−1λv) = µ−1ϕ(λv) , undT ist auch abgeschlossen bezuglich Multiplikation und Division.1.Fall: P = K . Dann hat K keinen echten Teilkorper, also folgt T = K und damitdie Homogenitat von ϕ.2.Fall: P ( K . Es sei BK eine Basis von V als Vektorraum uber K und BP eineBasis von V als Vektorraum uber P mit BK ( BP . Eine solche existiert nach (2.8.2).Fixieren wir irgendeinen Vektor w ∈ W \ {oW} , so gibt es nach (2.1.10) genau eineP -lineare Abbildung ϕ : V → W mit

ϕ(v) =

{oW fur alle v ∈ BKw fur alle v ∈ BP \ BK .

Insbesondere ist ϕ additiv. Jedoch kann ϕ nicht K-linear sein, denn aus ϕ(v) = oW furalle v aus der Basis BK des K-Vektorraums V wurde folgen, daß ϕ die Nullabbildungist. Daher kann ϕ nicht K-homogen sein, das heißt: es gibt ein λ ∈ K und ein v ∈ Vmit ϕ(λv) 6= λϕ(v) . �

Literatur: Ist K ein angeordneter Korper, in dem jedes positive Element die Summevon Quadraten ist (zum Beispiel R), so kann man fur lineare Abbildungen die Homogenitatdurch eine schwachere Bedingung ersetzen (vgl. dazu [60]).

2.9 * Direkte Produkte und außere direkte Summen von Vek-torraumen

Kartesische Produkte. Zuerst verallgemeinern wir den Begriff des kartesischen Produktsvon Mengen. Zu Beginn des Kapitels 14 definieren wir das kartesische Produkt zweier Men-gen X,Y als die Menge aller geordneten Paare (x, y) mit x ∈ X und y ∈ Y . Entsprechendwollen wir das kartesische Produkt von n Mengen X1, . . . , Xn definieren als die Menge allern-Tupel (x1, . . . , xn) mit xi ∈ Xi fur alle i ∈ {1, . . . , n} .Die Schreibweise der Elemente eines kartesischen Produkts als Tupel stoßt aber an ihreGrenzen, wenn wir kartesische Produkte von unendlich vielen Mengen bilden wollen. Des-halb suchen wir nach den

”wesentlichen“ Eigenschaften des kartesischen Produkts in der

obigen Definition: Die Mengen, deren kartesisches Produkt gebildet werden soll, sind mit

Page 105: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

102 2 LINEARE ABBILDUNGEN

den Elementen einer Indexmenge I indiziert. Im endlichen Fall verwendet man ublicherweiseI = {1, . . . , n} . Ein Element x des kartesischen Produkts ×i∈IXi setzt sich zusammen ausKomponenten xi ∈ Xi , wobei zwei Elemente x, x′ ∈ ×i∈IXi genau dann identisch seinsollen, wenn alle ihre Komponenten ubereinstimmen, das heißt wenn xi = x′i gilt fur allei ∈ I . Genau diesen Effekt erreicht man durch folgende Definition:Es sei I eine beliebige Indexmenge und {Xi | i ∈ I} eine Mengenfamilie. Das kartesischeProdukt ×i∈IXi dieser Mengenfamilie ist die Menge aller Abbildungen

σ : I −→⋃i∈I

Xi mit σ(i) ∈ Xi fur alle i ∈ I .

Die i-te Komponente des Elements σ ist also der Funktionswert σ(i) .

(2.9.1) Beispiele kartesisches Produkt

1. Wir wollen das kartesische Produkt der Mengen N,Z,Q bilden. Dazu numerieren wir dieseMenge durch, etwa X1 = N , X2 = Z , X3 = Q . Die Elemente des kartesischen ProduktsX1 ×X2 ×X3 sind dann alle Funktionen

σ : {1, 2, 3} −→ N ∪ Z ∪Q mit σ(1) ∈ N , σ(2) ∈ Z , σ(3) ∈ Q .

Dabei ist σ(1) ∈ N die ”1.Komponente“, σ(2) ∈ Z die ”2.Komponente“ und σ(3) ∈ Q die

”3.Komponente“ von σ. Abgesehen davon, daß wir diese drei Komponenten nicht in ein 3-Tupel geschrieben haben, sondern als Funktionswerte der Funktion σ auffassen, erhalten wirdieselbe Struktur wie in der Definition des kartesischen Produkts als Menge von 3-Tupeln.

2. Das kartesische Produkt einer abzahlbar unendlichen Mengenfamilie kann man sich auchnoch anschaulich vorstellen: Jede abzahlbar unendliche Indexmenge I steht in Bijektionzur Menge N der naturlichen Zahlen. Also konnen wir ohne Einschrankung die Menge N alsIndexmenge verwenden und bilden das kartesische Produkt der Mengenfamilie {Xn | n ∈ N} .Die Elemente von ×n∈NXn sind also Funktionen

σ : N −→⋃n∈N

Xn mit σ(n) ∈ X, fur alle n ∈ N .

Diese Funktionen kann man in der Form einer unendlichen Folge (x1, x2, x3, . . . ) mit xn =σ(n) ∈ Xn aufschreiben.

Direkte Produkte und außere direkte Summen von Vektorraumen. Haben wir fureine beliebige Indexmenge I eine Familie von Vektorraumen Vi, i ∈ I , alle uber demselbenSkalarenkorper K gegeben, so laßt sich das kartesische Produkt P = ×i∈IVi auf nahelie-gende Weise zu einem Vektorraum uber K machen. Wir definieren Summe und skalaresProdukt wertweise, das heißt:

(σ1 + σ2)(i) := σ1(i) + σ2(i)

(λσ1)(i) := λ(σ1(i)

)fur alle σ1, σ2 ∈ P , i ∈ I , λ ∈ K .Der so definierte K-Vektorraum P heißt direktes Produkt der Familie {Vi | i ∈ I} .Der Vektorraum P enthalt die Teilmenge

S = {σ ∈ P | σ(i) 6= oVi fur nur endlich viele i ∈ I} .

Page 106: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.9 * Direkte Produkte und außere direkte Summen von Vektorraumen 103

Wie man leicht sieht, ist S ein Unterraum von P . Der Vektorraum S heißt außere direkteSumme der Familie {Vi | i ∈ I} und wird bezeichnet mit dem Symbol ⊕i∈IVi .Ist die Indexmenge I endlich, so gilt S = P , und die beiden Begriffe außere direkte Summeund direktes Produkt sind aquivalent. Ist dagegen die Indexmenge I unendlich, und sindunendlich viele der Vektorraume Vi ungleich dem Nullraum, so ist S ein echter Unterraumvon P .

(2.9.2 ) Beispiel Es sei V der R-Vektorraum aller reellen Zahlenfolgen (α1, α2, α3, . . . ) .Dann ist V isomorph zum direkten Produkt von abzahlbar unendlich vielen eindimensionalen R-Vektorraumen.Der Unterraum U aller reellen Zahlenfolgen mit nur endlich vielen Folgengliedern 6= 0 ist isomorphzur (außeren) direkten Summe von abzahlbar unendlich vielen eindimensionalen R-Vektorraumen.Der Vektorraum V ist ubrigens auch isomorph zum Raum aller formalen10 Potenzreihen

∑∞n=0 αnx

n

mit reellen Koeffizienten, wahrend sein Unterraum U isomorph ist zum Polynomraum R[x] .Man beachte, daß die Zahlenfolgen (1, 0, 0, 0, . . .) , (0, 1, 0, 0, . . .) , (0, 0, 1, 0, . . .) , . . . zwar eine Ba-sis des Vektorraums U (der direkten Summe), aber keine Basis des Vektorraums V (des direktenProdukts) bilden, denn zum Beispiel die konstante Folge (1, 1, 1, 1, . . .) kann nicht als endlicheLinearkombination dieser Folgen geschrieben werden.

Der Unterschied zwischen außeren direkten Summen und inneren direkten Summen bestehtnur darin, daß Vektorraume, die zu einer inneren direkten Summe zusammengefaßt werden,Unterraume eines gemeinsamen Obervektorraums sein mussen. Jede außere direkte Summe⊕i∈IVi ist aber zugleich auch die innere direkte Summe einer Unterraumfamilie {Si | i ∈ I}wobei Si isomorph ist zu Vi fur jeden Index i:Fur jeden Index j und jedes σ ∈ ⊕i∈IVi definieren wir die Funktion σj : I −→

⋃i∈I Vi

durch σj(j) = σ(j) und σj(i) = oVi fur alle i 6= j . Die Abbildung Φj : σ(j) 7→ σj ist dannoffensichtlich ein Homomorphismus des Vektorraums Vj in die außere direkte Summe ⊕i∈IVi ,und das Bild Sj von Vj unter dem Homomorphismus Φj ist ein Vektorraum isomorph zuVj. Wie man leicht nachpruft, ist zudem der Vektorraum ⊕i∈IVi die innere direkte Summeder Unterraume Si , i ∈ I . Man kann also durch Ersetzen der Summanden Vi durch diezu ihnen isomorphen Unterraume Si problemlos eine außere direkte Summe in eine inneredirekte Summe verwandeln. Die Abbildung Φi : Vi −→ ⊕i∈IVi heißt kanonische Injektion.

(2.9.3) Satz Es sei {Vi | i ∈ I} eine Familie von Vektorraumen uber dem SkalarenkorperK, und W ein Vektorraum uber K. Dann gilt

Hom(⊕i∈IVi,W ) ∼= ×i∈IHom(Vi,W ) .

Beweis: Da man nach der Vorbemerkung jede außere direkte Summe auch als innere direkteSumme von zu den Vektorraumen Vi isomorphen Summanden schreiben kann, konnen wirohne Einschrankung annehmen, daß die Summanden Vi Unterraume der direkten SummeS = ⊕i∈IVi sind.Schrankt man eine lineare Abbildung ϕ : S → W ein auf den Unterraum Vi , so erhalt maneine lineare Abbildung ϕi = ϕ|Vi : Vi → W . Die Zuordnung Φ : ϕ 7→ (ϕi | i ∈ I) ist also

10

”formal“ bedeutet, daß man keine Aussage macht uber die Konvergenz einer solchen Potenzreihe. Vgl.hierzu auch Kapitel 4 uber formale Polynome.

Page 107: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

104 2 LINEARE ABBILDUNGEN

eine Abbildung von Hom(⊕i∈IVi,W ) nach ×i∈IHom(Vi,W ) .Ist Bi eine Basis von Vi, so ist B =

⋃i∈I Bi eine Basis der direkten Summe S. Werden

ϕ1, ϕ2 ∈ Hom(⊕i∈IVi,W ) durch Φ auf dasselbe Bild in ×i∈IHom(Vi,W ) abgebildet, so giltϕ1|Vi = ϕ2|Vi fur alle i ∈ I . Also werden insbesondere die Elemente der Basis B durch ϕ1

und ϕ2 gleich abgebildet. Aus (2.1.1.d) erhalten wir ϕ1 = ϕ2 und damit die Injektivitat vonΦ.Wahlen wir fur jeden Index i irgendeine lineare Abbildung ϕi : Vi → W aus, so gibt es, dadie Unterraume Vi eine direkte Summe bilden, nach (2.1.10) genau eine lineare Abbildungϕ : S → W mit ϕ|Vi = ϕi fur jedes i ∈ I . Daher ist Φ auch surjektiv. Die Linearitat vonΦ rechnet man leicht nach. �

(2.9.4) Korollar Es sei V ein Vektorraum uber dem Korper K, B eine Basis von V undV ∗ der Dualraum von V . Dann gilt

(a) V ∼= ⊕b∈BK , und(b) V ∗ ∼= ×b∈BK ,

Beweis: Die Behauptung (a) folgt aus der Tatsache, daß V die direkte Summe der eindi-mensionalen Unterraume 〈b〉 , b ∈ B , ist. Mit Hilfe von (a), (2.9.2) und (2.1.13) erhaltenwir dann

V ∗ ∼= Hom(⊕b∈BK,K) ∼= ×b∈BHom(K,K) ∼= ×b∈BK ,

also auch die Aussage (b). �

Wahrend also der Vektorraum V selbst isomorph ist zur |B|-fachen direkten Summe voneindimensionalen Vektorraumen uber K, ist der Dualraum V ∗ isomorph zum |B|-fachendirekten Produkt von eindimensionalen Vektorraumen uber K. Ist die Basis B endlich, soist die direkte Summe identisch mit dem direkten Produkt, also sind V und V ∗ isomorph,ein Ergebnis, das wir schon aus (2.2.4) kennen.Im folgenden wollen wir nun zeigen, daß fur unendlich-dimensionale Vektorraume V derDualraum V ∗ echt machtiger ist V , diese beiden Raume also insbesondere nicht isomorphsein konnen.

Der nachste Hilfssatz ist eine Folgerung aus einem der beruhmtesten Ergebnisse der De-terminanten-Theorie. Deshalb wollen wir ihn hier vorgreifend zitieren (zum Beweis sieheVandermonde-Determinante (8.3.7)).

(2.9.5) Lemma Es sei K ein Korper, n ∈ N , und λ1, . . . , λn seien paarweise verschiedeneElemente von K. Dann ist {(1, λ1, λ

21, . . . , λ

n−11 ) , . . . , (1, λn, λ

2n, . . . , λ

n−1n )} eine linear

unabhangige Teilmenge der n-fachen direkten Summe K ⊕ . . .⊕K .

(2.9.6) Satz Es sei K ein Korper und I eine unendliche Indexmenge, P das direkte Produktvon |I| Kopien von K und S die direkte Summe von |I| Kopien von K. Dann hat P eine echtgroßere Dimension als S. Insbesondere hat der Dualraum eines unendlich-dimensionalenVektorraums eine echt großere Dimension als S.

Page 108: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

2.10 * Vergleich von endlich- und unendlich-dimensionalen Vektorraumen 105

Beweis: Der Korper K besitzt mindestens die beiden neutralen Elemente 0 und 1. Fureine beliebige Teilmenge J von I definieren wir die Abbildung σJ : I → K durch

σJ(i) =

{1 i ∈ J0 i /∈ J .

Jedes σJ ist also ein Element des direkten Produkts P . Die Abbildung J 7→ σJ istoffensichtlich eine injektive Abbildung von der Potenzmenge P(I) in das direkte ProduktP . Daher ist P mindestens so machtig wie P(I) , also nach Cantor (1.7.6) echt machtigerals die Menge I. Da die direkte Summe S eine zu I gleichmachtige Basis besitzt, also dieDimension |I| hat, reicht es zu zeigen, daß das direkte Produkt P gleichmachtig zu seinerBasis ist.Die Indexmenge I ist unendlich, besitzt also eine zur Menge N gleichmachtige Teilmenge N .Mit PN bezeichnen wir den Unterraum {σ ∈ P | σ(i) = 0 fur i /∈ N} . Stellt man sich dieElemente der Indexmenge N als naturliche Zahlen vor, so kann man die Vektoren aus PNschreiben als unendliche Folgen (λ1, λ2, . . . ) mit λn ∈ K . Fur λ ∈ K definieren wir denVektor

vλ = (1, λ, λ2, λ3, . . . ) .

Dann ist die Menge M = {vλ | λ ∈ K} eine linear unabhangige Teilmenge von PN . Diesfolgt aus 2.9.5, weil eine unendliche Menge von Vektoren immer dann linear unabhangig ist,wenn alle ihre endlichen Teilmengen linear unabhangig sind. Nach dem Basiserganzungssatzkann M erst zu einer Basis von PN und dann zu einer Basis B von P erweitert werden. DaM gleichmachtig zum Korper K ist, besitzt also P eine Basis B, die mindestens so machtigwie K ist. Nach (1.7.15) ist P gleichmachtig zur machtigeren der beiden Mengen B und K,also gleichmachtig zu B. �

2.10 * Vergleich von endlich- und unendlich-dimensionalen Vek-torraumen

In dieser Ubersicht wollen wir einige der wichtigsten Satze dieses und des ersten Kapitelsdanach ordnen, ob sie fur alle Vektorraume gelten, oder nur fur endlich-dimensionale:

Fur alle Vektorraume gelten:

1. Basis-Existenzsatz. Jeder Vektorraum besitzt eine Basis. (1.7.1)

2. Dimensionsinvarianz. Je zwei Basen eines Vektorraums haben dieselbe Lange(Machtigkeit). (1.4.4) und (1.7.1)

3. Basis-Erganzungssatz. Jede linear unabhangige Teilmenge eines Vektorraums kannzu einer Basis dieses Vektorraums erweitert werden. (1.7.1)

4. Austauschsatz von Steinitz. Ist V ein beliebiger Vektorraum, S eine linear un-abhangige Teilmenge und T ein Erzeugendensystem von V , so gibt es eine TeilmengeT ′ von V , so daß S ∪ T ′ eine Basis von V ist. (1.4.6) und (1.7.11)

5. Existenz eines Komplements. Ist V ein Vektorraum so besitzt jeder Unterraum vonV ein Komplement in V . (1.7.2)

Page 109: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

106 2 LINEARE ABBILDUNGEN

6. Charakterisierung durch Skalarenkorper und Dimension. Zwei Vektorraume sindgenau dann isomorph, wenn sie denselben Skalarenkorper und dieselbe Dimension be-sitzen. (2.1.12)

Nur fur endlich-dimensionale Vektorraume gelten:

1. Gleichheit von Unterraumen. Sind U und W Unterraume von V mit U ⊆ W unddim(U) = dim(W ) , so gilt U = W . (1.4.12)Gegenbeispiel fur dim(V ) =∞ : (1.4.13)

2. Aquivalenz von Injektivitat und Surjektivitat. Ein Endomorphismus von V ist genaudann injektiv, wenn er surjektiv ist. (2.1.8)Gegenbeispiel fur dim(V ) =∞ : (2.1.9)

3. Isomorphie von V und V ∗. (2.2.4)Fur unendlich-dimensionales V gilt V ≺ V ∗ . (2.9.6)

4. In Kapitel 5 werden wir noch zeigen:Existenz des Minimalpolynoms. Jeder Endomorphismus von V besitzt ein annullie-rendes Polynom.Gegenbeispiel fur dim(V ) =∞ : (5.1.7)

Page 110: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

107

3 Affine Teilraume und lineare Gleichungssysteme

3.1 Affine Teilraume

Es sei V irgendein Vektorraum uber dem Korper K. Als ausgezeichnete Teilmengen von Vsind bisher die Unterraume (auch lineare Unterraume genannt) aufgetreten. Die charakte-risierenden Eigenschaften eines Unterraums U von V sind die Axiome (vgl.S.9):(UR1) Sind u1, u2 Elemente von U , so gilt u1 + u2 ∈ U .(UR2) Ist u ein Element von U und λ ∈ K ein Skalar, so gilt λu ∈ U .(UR3) U 6= ∅ .Der Nullvektor o ist in jedem linearen Unterraum enthalten.Bei der Losung von linearen Gleichungssystemen spielt eine andere Sorte von Teilmengenvon V eine wesentliche Rolle: die affinen Teilraume.

Definition: affiner Teilraum, Stutzvektor, RichtungDefinition: Es sei V irgendein Vektorraum und U ein Unterraum von V .Die Teilmengen der Form v + U := {v + u | u ∈ U} heißen affine Teilraume von V .Ein affiner Teilraum wird manchmal auch lineare Mannigfaltigkeit oder Nebenklasse des Un-terraums U genannt.Der Vektor v heißt Stutzvektor von v + U , der Unterraum U heißt Richtung von v + U .

(3.1.1) Beispiele Affine Teilraume (lineare Mannigfaltigkeiten)

1. Es sei U = {o} der triviale Unterraum von V . Dann enthalt v + U = {v + o} = {v} nurden Vektor v als Element.

2. Es sei U = V der volle Unterraum. Dann gilt v + U = {v + u | u ∈ V } = V .

3. Es sei V = R2 , U = 〈(1, 0)T 〉 , v1 = (0, 1)T .

Dann ist v1 + U = {(0, 1)T + (a, 0)T | a ∈ R} = {(a, 1)T | a ∈ R}.

6

r rv1

v2

w1

U = o + U

v1 + U

v2 + U

r

r

r(00

) (10

)

Der affine Teilraum v1 + U beschreibt also eine Ge-rade in der reellen Ebene, die durch die Punktev1 = (0, 1)T und w1 := (0, 1)T + (1, 0)T = (1, 1)T

geht. Diese Gerade ist parallel zum Unterraum U(dieser fallt zusammen mit der x-Achse), und zwarum eine Einheit nach oben verschoben.Weiter sei v2 = (−1, 3)T . Dann istv2 + U = {(−1, 3)T + (a, 0)T | a ∈ R} ={(a, 3)T | a ∈ R}.

Der affine Teilraum v2 +U beschreibt wieder eine zu U parallele Gerade. Der affine Teilraumo + U = U ist dieselbe Menge wie U .

4. Ist der Vektorraum U zweidimensional, also eine Ebene, so sind die affinen Teilraume v+Uebenfalls Ebenen, die gegenuber der Ebene U parallel verschoben sind.Sei V = R

3 und U = 〈(1, 0, 0)T , (0, 1, 0)T die (x, y)-Ebene.Wahlen wir v = (1,−1, 1)T , so erhalten wir den affinen Teilraumv + U = {(1,−1, 1)T + (a, b, 0)T | a, b ∈ R} = {(a, b, 1)T | a, b ∈ R} ,also die um eine Einheit nach oben verschobene Ebene U .

Page 111: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

108 3 AFFINE TEILRAUME UND LINEARE GLEICHUNGSSYSTEME

Sind v1, v2 ∈ V , so mussen die affinen Teilraume v1 + U und v2 + U nicht notwendigverschieden sein. Der Stutzvektor eines affinen Unterraums ist also nicht eindeutig bestimmt.Zum Beispiel erhalten wir in (3.1.1.3) fur v1 = (0, 1)T :

v1 + U = {(a, 1)T | a ∈ R}.

Wahlen wir nun v2 = (1, 1)T , so ergibt sich

v2 + U = {(1, 1)T + (a, 0)T | a ∈ R} = {(1 + a, 1)T | a ∈ R} = {(a, 1)T | a ∈ R} ,

denn 1 + a durchlauft die Menge R, wenn a die Menge R durchlauft.Die Differenz v1 − v2 = (1, 0)T − (1, 1)T = (0,−1)T liegt ubrigens im Unterraum U . EineVerallgemeinerung dieser Tatsache liefert die folgende Feststellung:

(3.1.2) Lemma Es sei U ein Unterraum von V .(a) Es gilt v1 + U = v2 + U genau dann, wenn der Differenzvektor v1 − v2 in U liegt.(b) Fur alle Vektoren w ∈ v+U gilt w+U = v+U . Das heißt: Jeder Vektor aus einem

affinen Teilraum kann als Stutzvektor dieses affinen Teilraums verwendet werden.(c) Die Richtung U eines affinen Teilraums T ist eindeutig bestimmt, denn es gilt

U = {v1 − v2 | v1, v2 ∈ T } .(d) Die affinen Teilraume mit der Richtung U bilden eine disjunkte Zerlegung des Vektor-

raums V .

Beweis:

(a) Es sei v1 + U = v2 + U . Wegen o ∈ U gilt v1 = v1 + o ∈ v1 + U , also auchv1 ∈ v2 + U . Somit existiert ein Vektor u ∈ U mit v1 = v2 + u , und es folgtv1 − v2 = u ∈ U .Zum Beweis der Umkehrung nehmen wir an, u := v1−v2 liege in U . Wir mussen zeigen,daß die Mengen v1 +U und v2 +U identisch sind. Dazu zeigen wir v1 +U ⊆ v2 +Uund v2 + U ⊆ v1 + U :v1 = v2 +u . Also gilt fur alle w ∈ U : v1 +w = (v2 +u)+w = v2 +(u+w) ∈ v2 +U .Dies zeigt v1 + U ⊆ v2 + U .v2 = v1−u . Also gilt fur alle w ∈ U : v2+w = (v1−u)+w = v1+(−u+w) ∈ v1+U .Dies zeigt v2 + U ⊆ v1 + U .

(b) Ist w ∈ v+U , so gibt es einen Vektor u ∈ U mit w = v+u . Es folgt w−v = u ∈ U ,und nach (a) gilt w + U = v + U .

(c) Sei T ein affiner Teilraum von V und U ein Unterraum von V mit T = v+U fur einenVektor v ∈ T . Nach (b) gilt v1 + U = T = v2 + U fur alle Vektoren v1, v2 ∈ T .Nach (a) folgt daraus v1 − v2 ∈ U . Dies zeigt {v1 − v2 | v1, v2 ∈ T } ⊆ U .Zum Beweis der umgekehrten Inklusion wahlen wir ein u ∈ U beliebig aus. Wegenv+u ∈ T sind die Vektoren v+u und v beide Elemente von T , also liegt die Differenzu = (v + u)− v in {v1 − v2 | v1, v2 ∈ T }.

(d) Es sei I irgendeine Indexmenge, so daß M = {vi + U | i ∈ I} die Menge derverschiedenen affinen Teilraume mit der Richtung U ist. Dann gilt:(vi + U) ∩ (vj + U) = ∅ fur i 6= j : Gabe es einen Vektor v ∈ (vi + U) ∩ (vj + U) , sowurde nach (b) gelten vi +U = v+U = vj +U , ein Widerspruch zu vi +U 6= vj +U .Gabe es einen Vektor v ∈ V \

⋂i∈I(vi + U) , so ware v + U 6= vi + U fur alle i ∈ I ,

ein Widerspruch zur Definition von M. �

Page 112: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

3.2 Lineare Gleichungssysteme 109

(3.1.3) Beispiele Es sei V der Vektorraum der integrierbaren Funktionen f : [0, 1]→ R .

1. Es sei U = {f ∈ V |∫ 1

0 f(x)dx = 0} und T = {f ∈ V |∫ 1

0 f(x)dx = 2} .Mit fc bezeichnen wir die konstante Funktion, die alle x ∈ [0, 1] auf die reelle Zahl c abbildet.Wegen der Linearitatseigenschaft des Integrals ist U ein Unterraum von V . Der Nullvektorvon V ist die Funktion f0 . Diese liegt nicht in T . Daher kann T kein Unterraum von Vsein. Jedoch ist T ein affiner Teilraum von V , denn es gilt T = f2 + U , wie man leichtnachrechnet.

2. Es sei U = {f ∈ V |(f(0)

)2 +(f(1)

)2 = 0} und T = {f ∈ V |(f(0)

)2 +(f(1)

)2 = 2} .Die Menge U ist der Durchschnitt der beiden Unterraume {f ∈ V | f(0) = 0} und{f ∈ V | f(1) = 0} von V , also selbst ein Unterraum von V .Anders als in Beispiel 1 aber ist hier T kein affiner Unterraum von V :Wir nehmen an, T sei ein affiner Teilraum. Dann gibt es einen Vektor f ∈ T und einenUnterraum W von V mit T = f + W . Nach (3.1.2.b) konnen wir den Stutzvektor f ∈ Tbeliebig wahlen. Also suchen wir eine moglichst einfache Funktion in T , etwa eine konstante:

fc ∈ T ⇐⇒(fc(0)

)2 +(fc(1)

)2 = 2 ⇐⇒ 2c2 = 2 ⇐⇒ c ∈ {1,−1} .

Also wahlen wir f = f1 . Insbesondere haben wir gesehen, daß f1 und f−1 die einzigenkonstanten Funktionen in T sind. Nach (3.1.2.c) liegt die Differenz f1 − f−1 = f2 in derRichtung W von T . Also enthalt T auch die Funktion f1 +f2 = f3 , ein Widerspruch. Daherist T kein affiner Teilraum von V .Der Unterschied zwischen den Beispielen 1 und 2 kommt ubrigens daher, daß die Abbildungf 7→

∫ 10 f(x)dx eine lineare Abbildung von V nach R ist, wahrend die Abbildung f 7→(

f(0))2 +

(f(1)

)2 keine lineare Abbildung ist (vgl. (2.1.2)).

3.2 Lineare Gleichungssysteme

Ein typisches und ganz wichtiges Anwendungsgebiet der linearen Algebra ist das Losen vonlinearen Gleichungssystemen der Form

α1,1x1 + α1,2x2 + . . . + α1,nxn = β1 (1)α2,1x1 + α2,2x2 + . . . + α2,nxn = β2 (2)

......

......

αm,1x1 + αm,2x2 + . . . + αm,nxn = βm (m)

wobei die αi,j und die βi vorgegebene Elemente aus einem Korper K sind und die Unbe-kannten x1, . . . , xn ∈ K gesucht sind. In den Anwendungen ist K meistens einer der KorperQ, R oder C.Fassen wir die rechten Seiten β1, . . . , βm zu einem Vektor b = (β1, . . . , βm)T ∈ Km , dieUnbekannten x1, . . . , xn zu einem Vektor x = (x1, . . . , xn)T ∈ Kn , und die Koeffizientenαi,j zu einer (m × n)-Matrix A = (αi,j) zusammen, so konnen wir die Gleichungen (1) –(m) in der Form

Ax = b

schreiben. Die Matrix A heißt die Koeffizientenmatrix des Gleichungssystems. Ist b = omder Nullvektor des Raumes Km, so sprechen wir von einem homogenen Gleichungssystem,

Page 113: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

110 3 AFFINE TEILRAUME UND LINEARE GLEICHUNGSSYSTEME

andernfalls von einem inhomogenen Gleichungssystem.Die Koeffizientenmatrix A liefert einen Zusammenhang der Theorie des Losens linearer Glei-chungssysteme mit der Theorie der linearen Abbildungen, denn sie beschreibt (als Basen diekanonischen Basen der Standard-Einheitsvektoren in Kn und Km vorausgesetzt) genau einelineare Abbildung ϕ : Kn → Km . Die Gleichung Ax = b kann man also auch in der Form

ϕ(x) = b

schreiben. Daher befassen wir uns zuerst mit der Losung von Gleichungen ϕ(x) = b , wobeiV,W zwei K-Vektorraume, b ein Vektor aus W , und ϕ eine lineare Abbildung von V nachW ist.Die Abstraktion von Kn und Km zu beliebigen K-Vektorraumen V und W hat nicht nurden Grund, daß die Struktur von Kn bzw. Km fur das Losen der linearen Gleichung keinewesentliche Rolle spielt, sondern auch den, daß es auch interessante lineare Gleichungen inunendlich-dimensionalen Vektorraumen gibt, in denen wir die Matrix-Schreibweise nicht zurVerfugung haben.

(3.2.1) Beispiele Lineare Gleichungen

1. Es sei V = W = C∞(R) der Vektorraum der unendlich oft differenzierbaren Funktionen f :R→ R . Die Differentiation δ : f → f ′ ist eine lineare Abbildung. Die k-fache Differentiationist das k-fache Hintereinanderausfuhren der Abbildung δ, wird also beschrieben durch dieAbbildung δk . Die lineare Differentialgleichung

f ′′(x)− 2f ′(x) + f(x) = ex

laßt sich daher schreiben als lineare Gleichung

(δ2 − 2δ − id)(f) = ex .

2. Es sei V der Vektorraum der integrierbaren Funktionen f : [a, b]→ R und W = R[a, b] der

Vektorraum aller Funktionen f : [a, b] → R . Wegen der Rechenregeln fur Integrale ist dieIntegration ι : V →W eine lineare Abbildung, und die Integralgleichung∫ b

af(x)dx = sinx

laßt sich schreiben als lineare Gleichung

ι(f) = sinx .

3. Es sei V = RN der Vektorraum aller reellen Zahlenfolgen (a1, a2, . . .) . Die Verschiebungs-

abbildung ϕ : (a1, a2, . . .) 7→ (a2, a3, . . .) ist eine lineare Abbildung von V nach V , und dieDifferenzengleichung

an+2 − 2an+1 − an = 3 fur alle n ∈ N

laßt sich schreiben als lineare Gleichung

(ϕ2 − 2ϕ− id)(an)N = (3)N ,

wobei (3)N die konstante Folge (3, 3, . . .) bezeichnet.

Page 114: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

3.2 Lineare Gleichungssysteme 111

Nun sei ϕ : V → W eine lineare Abbildung. Die Losungsmenge der homogenen Gleichungϕ(x) = oW ist offensichtlich der Unterraum Kern(ϕ) . Insbesondere ist die homogene Glei-chung stets losbar, denn der Nullvektor oV ist immer eine Losung von ϕ(x) = oW .Die Gleichung ϕ(x) = b ist genau dann losbar, wenn b in Bild(ϕ) liegt. Da ein Vektorb ∈ W \ {oW} nicht unbedingt im Bild von ϕ liegen muß, ist eine inhomogene Gleichungϕ(x) = b nicht immer losbar.Wir nehmen nun an, es existiere ein Vektor x0 ∈ V mit ϕ(x0) = b . Die nichtleereLosungsmenge werde mit L bezeichnet. Fur jeden anderen Vektor x ∈ L gilt dann

ϕ(x0 − x) = ϕ(x0)− ϕ(x) = b− b = oW , also x0 − x ∈ Kern(ϕ) .

Umgekehrt gilt im Fall x0 − x ∈ Kern(ϕ) :

ϕ(x) = ϕ(−(x0 − x) + x0) = −ϕ(x0 − x) + ϕ(x0) = oW + b = b , also x ∈ L .

Dies zeigt x ∈ L ⇐⇒ x0 − x ∈ Kern(ϕ) das heißt L = x0 + Kern(ϕ) . Also konnen wirzusammenfassen:

(3.2.2) Satz Losungsmenge einer linearen Gleichung Es sei ϕ ∈ Hom(V,W ) und b ∈ W .Die Losungsmenge L der Gleichung ϕ(x) = b ist leer, falls b /∈ Bild(ϕ) . Andernfalls ist Lder affine Unterraum x0 + Kern(ϕ) , wobei x0 ∈ V irgendein Vektor mit ϕ(x0) = b ist.

Das Ergebnis von (3.2.2) wird oft so formuliert: Die allgemeine Losung einer linearen inho-mogenen Gleichung ist gleich der speziellen Losung der inhomogenen Gleichung (in (3.2.2)ist dies x0 ) plus der allgemeinen Losung der homogenen Gleichung (in (3.2.2) ist dies derUnterraum Kern(ϕ) ).

Nach (3.2.2) ist also die Losungsmenge einer linearen Gleichung entweder leer oder ein af-finer Unterraum von V . Umgekehrt ist jeder affine Unterraum T = a + U eines endlich-dimensionalen Vektorraums V die Losungsmenge einer geeigneten Gleichung:

(3.2.3) Beispiel Es sei T = a+U ein affiner Unterraum von V , dim(V ) = n . Ist (u1, . . . , uk)eine Basis von U , so gibt es nach dem Basiserganzungssatz eine Basis (u1, . . . , uk, vk+1, . . . , vn) vonV . Der Vektor a laßt sich darstellen als Linearkombination a =

∑ki=1 αiui +

∑ni=k+1 αivi . Da

die erste Summe in U liegt, gilt T = a′ + U mit a′ =∑n

i=k+1 αivi . Nach (2.1.10) gibt es genaueine lineare Abbildung ϕ : V → V mit ϕ(ui) = o und ϕ(vj) = vj fur 1 ≤ i ≤ k undk + 1 ≤ j ≤ n . Zunachst gilt U ⊆ Kern(ϕ) und Bild(ϕ) = 〈vk+1, . . . , vn〉 . Der Dimensionssatzzeigt dann U = Kern(ϕ) . Außerdem gilt ϕ(a′) = a′ . Daher ist T die Losungsmenge der linearenGleichung ϕ(x) = a′ .

Satz (3.2.2) uber die Losbarkeit einer linearen Gleichung ϕ(x) = b gibt auch Auskunftdaruber wann eine losbare Gleichung eindeutig losbar ist: Hat ϕ(x) = b eine Losung x0 , soist der affine Teilraum L = x0 + Kern(ϕ) von V die Losungsmenge dieser Gleichung. DerVektor x0 ist also genau dann die einzige Losung, wenn Kern(ϕ) = {oV } erfullt ist. Manbeachte, daß diese Bedingung nicht von der rechten Seite b abhangt. Ist also ϕ(x) = b furein b ∈ W eindeutig losbar, so ist diese Gleichung fur alle b ∈ Bild(ϕ) eindeutig losbar.Wir notieren:

Page 115: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

112 3 AFFINE TEILRAUME UND LINEARE GLEICHUNGSSYSTEME

(3.2.4) Satz Es sei ϕ(x) = b eine lineare Gleichung mit b ∈ Bild(ϕ) . Genau dann istdiese Gleichung eindeutig losbar, wenn Kern(ϕ) = {oV } gilt.

Die homogene Gleichung ϕ(x) = oW besitzt genau dann nur eine Losung (namlich die tri-viale Losung oV ), wenn Kern(ϕ) = {oV } gilt, das heißt wenn die Abbildung ϕ injektiv ist.Ist V = W endlich-dimensional, so ist nach (2.1.8) die Injektivitat des Endomorphismusϕ : V → V gleichbedeutend mit seiner Surjektivitat. Ist aber ϕ surjektiv, so liegt jederVektor b ∈ V im Bild von ϕ, das heißt: die lineare Gleichung ϕ(x) = b ist fur jedes b ∈ Vlosbar.Fur einen Endomorphismus ϕ eines endlich-dimensionalen Vektorraums ist also die eindeu-tige Losbarkeit des homogenen Systems ϕ(x) = o aquivalent zur universellen Losbarkeit desinhomogenen Systems ϕ(x) = b .In unendlich-dimensionalen Vektorraumen dagegen gilt diese Aquivalenz nicht mehr (s. Bei-spiele (2.1.9)). Durch geeignete Zusatzvoraussetzungen an die lineare Abbildung ϕ kannman diese Aquivalenz wieder erhalten. Fredholm untersuchte Integralgleichungen, derenzugehorige lineare Abbildungen die erwahnten Bedingungen erfullen11. Daher heißt die fol-gende Formulierung der Satze (3.2.2) und (3.2.4) Fredholmsche Alternative:

(3.2.5) Satz Fredholmsche AlternativeEs sei V ein Vektorraum, b ∈ V und ϕ ein Endomorphismus von V , der entweder zugleichinjektiv und surjektiv oder zugleich nicht-injektiv und nicht-surjektiv ist. Dann gilt:

1. (Hauptfall der Fredholmschen Alternative)Wenn die homogene Gleichung ϕ(x) = o nur die triviale Losung o besitzt, so ist dieinhomogene Gleichung ϕ(x) = b bei jeder Wahl der rechten Seite eindeutig losbar.

2. Besitzt die homogene Gleichung ϕ(x) = o auch nichttriviale Losungen, so ist dieinhomogene Gleichung ϕ(x) = b nicht fur alle b ∈ V losbar. Ist in diesem Fall dieGleichung fur ein b ∈ V losbar, so gibt es mehr als eine Losung.

Wir setzen nun wieder dim(V ) < ∞ voraus und kehren zuruck zur MatrixschreibweiseAx = b und ubersetzen die Losbarkeitsaussagen (3.2.2) und (3.2.4) in Bedingungen fur dieKoeffizentenmatrix A und die rechte Seite b. Dazu definieren wir die erweiterte Koeffizien-tenmatrix

(A|b) =

α1,1 . . . α1,n β1...

......

αm,1 . . . αm,n βm

,

die aus A entsteht, indem man die rechte Seite b als (n + 1)-ten Spaltenvektor anfugt. Dersenkrechte Strich zwischen der n-ten und der (n + 1)-ten Spalte von (A|b) dient nur derUbersichtlichkeit und hat sonst keine Bedeutung.

Die Losbarkeit des Gleichungssystems Ax = b kann man an den Rangen von A und (A|b)ablesen:

11siehe hierzu [NT], Kapitel 9

Page 116: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

3.2 Lineare Gleichungssysteme 113

(3.2.6) Satz Losbarkeitskriterien fur lineare GleichungssystemeEs sei A ∈M(m× n,K) und b ∈ Km .

(a) Das Gleichungssystem Ax = b ist genau dann losbar, wenn A und (A|b) denselbenRang haben.

(b) Das Gleichungssystem Ax = b ist genau dann fur jedes b ∈ Km losbar (”

universelllosbar“), wenn A den Rang m hat.

Beweis: Nach (2.3.1) ist das Bild des von der Matrix A beschriebenen Homomorphismusvon Kn nach Km der Spaltenraum S(A) , also der von den Spalten von A aufgespannteUnterraum von Km.

(a) Nach (3.2.2) ist Ax = b genau dann losbar, wenn b in Bild(A) = S(A) liegt. DerSpaltenraum S(A|b) der erweiterten Koeffizientenmatrix wird erzeugt von S(A)∪{b} .Die Bedingung b ∈ S(A) ist also gleichwertig zu S(A) = S(A|b) . Wegen S(A) ⊆S(A|b) ist die Gleichheit von S(A) und S(A|b) genau dann erfullt, wenn S(A) undS(A|b) dieselbe Dimension, also wenn A und (A|b) denselben Rang haben.

(b) Bild(A) = S(A) ist ein Unterraum von Km. Es gilt alsorang(A) = m ⇐⇒ dim

(S(A)

)= m ⇐⇒ S(A) = Km . �

Die eindeutige Losbarkeit eines Gleichungssystems wird charakterisiert in folgendem Satz:

(3.2.7) Satz eindeutige LosbarkeitEs sei A ∈ M(m × n,K) und b ∈ Km . Ist das Gleichungssystem Ax = b losbar, so sindaquivalent:

(i) Ax = b ist eindeutig losbar.(ii) Kern(A) = {on} .

(iii) rang(A) = n .

Beweis: Die Aquivalenz von (i) und (ii) ist eine direkte Ubersetzung von (3.2.4). Weitergilt Kern(A) = {on} genau dann, wenn A den Defekt 0 hat. Nach dem Dimensionssatz(2.1.7) fur lineare Abbildungen gilt Defekt(A) = dim(Kn) − rang(A) , also hat A genaudann den Defekt 0, wenn es den Rang n hat. �

Im wichtigen Spezialfall m = n ist die Voraussetzung der Fredholmschen Alternative erfullt,und wir konnen den Hauptfall durch folgende Bedingungen charakterisieren:

(3.2.8) Satz Hauptfall der Fredholmschen AlternativeFur A ∈M(n× n,K) sind aquivalent:

(i) Das homogene System Ax = o besitzt nur die triviale Losung o.(ii) Das inhomogene System Ax = b ist fur jedes b ∈ Kn eindeutig losbar. (universelle

und eindeutige Losbarkeit)(iii) rang(A) = n .(iv) A ist invertierbar.

Die Bedingungen von (3.2.8) kann man sich im Fall n = 2 geometrisch veranschaulichen.Gegeben sei das reelle lineare Gleichungssystem

α11x1 + α12x2 = β1 (1)α21x1 + α22x2 = β2 (2) .

Page 117: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

114 3 AFFINE TEILRAUME UND LINEARE GLEICHUNGSSYSTEME

Keine der beiden Zeilen der Koeffizientenmatrix sei die Nullzeile. Das ist keine einschnei-dende Voraussetzung, denn die Gleichung 0 · x1 + 0 · x2 = β hat keine Losung fur β 6= 0und als Losungsmenge den ganzen Raum R

2 im Fall β = 0 .

-

6

1

1

r rHHHHHHH

HHHHH

β1α12 β1

α12− α11α12

x1

x2

Die Losungsmenge der Gleichung (1) ist nun eine Geradein der (x1, x2)-Ebene:Im Fall α12 6= 0 konnen wir (1) nach x2 auflosen underhalten

x2 = −α11

α12

+β1

α12

.

Im Fall α12 = 0 gilt α11 6= 0 und die Losungsmenge vonist (1) eine Gerade parallel zur x2-Achse, die die x1-Achse

im Punktβ1α11

schneidet.

Die Losungsgerade von (1) hat im Fall α12 6= 0 also dieSteigung −α11

α12. Analog dazu erhalt man fur (2) die Losungsgerade mit der Steigung −α21

α22(unter der Voraussetzung α22 6= 0 .). Der Rang ( = Spaltenrang = Zeilenrang ) von A istgleich 1, falls die beiden Zeilen (α11, α12) und (α21, α22) linear abhangig sind, also dann,wenn es ein γ ∈ R gibt mit

(α21, α22) = γ(α11, α12) = (γα11, γα12) .

Gegebenenfalls gilt −α21α22

= −γα11γα12

= −α11α12

, also sind die Losungsgeraden parallel.

Die umgekehrte Aussage gilt auch, also ist rang(A) = 1 genau dann erfullt, wenn diebeiden Losungsgeraden parallel sind, und rang(A) = 2 genau dann, wenn die beidenLosungsgeraden nicht parallel sind.Die Schnittpunkte der beiden Losungsgeraden sind genau die Losungen des Gleichungs-systems (1), (2).Im Fall rang(A) = 1 ist die Schnittpunktmenge entweder leer (wenn die beiden Geradennicht identisch sind) oder fallt zusammen mit den beiden Losungsgeraden. Das Gleichungs-system ist also entweder gar nicht oder nicht eindeutig losbar.Im Fall rang(A) = 2 haben die beiden Losungsgeraden genau einen Schnittpunkt. Dieserist die eindeutig bestimmte Losung des Gleichungssystems.

(3.2.9) Beispiele

1. Gegeben sei das Gleichungssystem

2x1 + x2 = 1 (1)x1 − 2x2 = 0 (2) .

Die Zeilenvektoren (2, 1) und (1,−2) sind linearunabhangig. Die Losungsgerade zu (1) hat die Stei-gung −2, die Losungsgerade zu (2) die Steigung12 . Der Schnittpunkt dieser beiden Geraden ist derPunkt (2

5 ,15)T . Dieser Vektor ist die eindeutig be-

stimmte Losung des Gleichungssystems.

-

6

1

1

AAAAAAAAAAAA

�����������

x1

x2

2x1 + x2 = 1

x1 − 2x2 = 0r

Page 118: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

3.3 Losung von linearen Gleichungssystemen 115

2. Gegeben sei das Gleichungssystem

x1 + 3x2 = 3 (1)2x1 + 6x2 = λ (2) .

Die Zeilenvektoren (1, 3) und (2, 6) sind linear ab-hangig, und die zugehorigen Losungsgeraden habenbeide die Steigung −1

2 und den x2-Achsenabschnitt1 bzw. λ/6 . Das Gleichungssystem ist also losbarfur λ = 6 .

-

6

1

1

λ6

PPPPPPPPPPPPPPPPPPPP

PP

PP

x1

x2

x1 + 3x2 = 3

2x1 + 6x2 = λ

3.3 Losung von linearen Gleichungssystemen

Das Gaußsche Eliminationsverfahren zur Losung linearer Gleichungssysteme verwendet ele-mentare Zeilenumformungen der erweiterten Koeffizientenmatrix (A|b) . Solche Zeilenumfor-mungen

– (EU1) Vertauschen zweier Gleichungen– (EU2) Multiplizieren beider Seiten einer Gleichung mit einem Skalar λ 6= 0– (EU3) Addieren des λ-fachen (λ ∈ K) einer Gleichung zu einer anderen

fuhren das Gleichungssystem uber in ein aquivalentes Gleichungssystem, das heißt in eines,das dieselben Losungen besitzt wie das ursprungliche Gleichungssystem.Durch die Spaltenvertauschung S[i] ↔ S[j] fur zwei Indizes i, j ≤ n in der Matrix (A|b)formt man das Gleichungssystem (1) um in ein System (2), das sich von (1) nur dadurchunterscheidet, daß die Unbekannten xi und xj vertauscht sind. Man kann also an den erstenn Spalten von (A|b) auch Spaltenvertauschungen machen, muß diese allerdings notieren undschließlich an den Losungsvektoren dieselben Vertauschungen in umgekehrter Reihenfolge 12

an den Eintragen ausfuhren.Haben wir etwa im Laufe des Verfahrens in dieser Reihenfolge die SpaltenvertauschungenS[1]↔ S[2] und S[1]↔ S[3] ausgefuhrt und einen Losungsvektor (v1, v2, v3, v4)T erhalten,so formen wir diesen zunachst um zu (v3, v2, v1, v4)T (Ruckgangigmachen von S[1]↔ S[3] )und dann zu (v2, v3, v1, v4)T (Ruckgangigmachen von S[1]↔ S[2] ).

(3.3.1) Satz Losung eines linearen GleichungssystemsEs sei A = (αi,j) ∈M(m× n,K) und b ∈ Km .

(a) Die erweiterte Koeffizientenmatrix (A|b) laßt sich durch elementare Zeilenumformun-gen und durch Spaltenvertauschungen der ersten n Spalten auf die Stufenform

A′ =

1 α′1,r+1 . . . α′1,n β′1. . .

...... β′2

1 α′r,r+1 . . . α′r,n β′r0 . . . 0 0 . . . 0 β′r+1...

......

......

0 . . . 0 0 . . . 0 β′m

bringen, wobei r = rang(A) ist und im linken oberen Kastchen nur die Diagonalele-mente ungleich 0 sind.

12Man prufe an Beispiel (3.3.3.2) nach, daß es auf die Reihenfolge der Vertauschungen ankommt.

Page 119: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

116 3 AFFINE TEILRAUME UND LINEARE GLEICHUNGSSYSTEME

(b) Es sei

k1 =

−α′1,r+1...

−α′r,r+1

100...0

, k2 =

−α′1,r+2...

−α′r,r+2

010...0

, . . . , kn−r =

−α′1,n...

−α′r,n00...01

∈ Kn .

Dann ist {k1, . . . , kn−r} eine Basis des Losungsraums des homogenen Systems A′x = o.(c) Das inhomogene System A′x = b′ ist genau dann losbar, wenn bj = 0 fur alle j ≥ r+1

gilt. Gegebenenfalls ist

x0 =

β′1...β′r0...0

eine Losung des Systems A′x = b′ .

(d) Der affine Unterraum

x0 + 〈k1, . . . , kn−r〉

von Kn ist die Losungsmenge des Systems A′x = b′ .Das System Ax = b hat den Losungsraum

x∗0 + 〈k∗1, . . . , k∗n−r〉 ,

wobei der Vektor v∗ dadurch aus dem Vektor v entsteht, daß man die in (a) aus-gefuhrten Spaltenvertauschungen in umgekehrter Reihenfolge an den Koordinaten vonv ausfuhrt.

Beweis: Im folgenden werden die Zeilenumformungen jeweils mit der ganzen Matrix durch-gefuhrt.

(a) Wir zeigen zuerst, daß wir die Matrix (A|b) allein durch Zeilenumformungen des Typs(EU1) und (EU3) auf folgende Stufenform bringen konnen:

0 . . . 0 α′′1,i1 ∗ . . . . . . . . . . . . . . . . . . . . . ∗ β′′10 . . . . . . 0 . . . 0 α′′2,i2 ∗ . . . . . . . . . . . . ∗ β′′2...

......

0 . . . . . . . . . . . . . . . . . . . . . 0 α′′r,ir ∗ . . . ∗ β′′r0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0 β′′r+1...

......

0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0 β′′m

,

Page 120: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

3.3 Losung von linearen Gleichungssystemen 117

wobei 1 ≤ i1 < i2 < . . . < ir ≤ n und α′′1,i1 , . . . , α′′r,ir 6= 0 gilt.

Ist rang(A) = r , so gibt es eine Menge von r linear unabhangigen Zeilenvektorenvon A. Durch Zeilenvertauschungen bringen wir diese an die Positionen 1 bis r. Dierestlichen Zeilen von A liegen dann im Erzeugnis der ersten r Zeilen. Also konnen dieEintrage der ersten n Spalten der letzten m− r Zeilen durch Zeilenumformungen vomTyp (EU3) annulliert werden.Ist nun die erste Spalte nicht die Nullspalte, so suchen wir einen Eintrag α′j,1 6= 0 ,vertauschen die Zeilen [1] und [j] und annullieren dann mit diesem Pivotelement durchZeilenumformungen vom Typ (EU3) den Rest der ersten Spalte. Wegen der Gleichheitvon Spaltenrang und Zeilenrang von A findet man mindestens r Spalten ungleich derNullspalte unter den ersten n Spalten von (A|b) . Also kann man dieses Verfahrenfur die nachsten Spalten so lange wiederholen, bis man r Spalten, die ungleich derNullspalte sind, verarbeitet hat. Dann hat man die gewunschte Matrix (A′′|b′′).Durch die Spaltenvertauschungen S[1] ↔ S[i1] , S[2] ↔ S[i2] , . . . , S[r] ↔ S[ir]erhalt man folgende Form:

α′′1,i1 β′′1

0 α′′2,i2 * ......

. . . * ...0 . . . . . . α′′r,ir β′′r0 . . . . . . 0 0 . . . 0 β′′r+1...

......

......

0 . . . . . . 0 0 . . . 0 β′′m

.

Das Multiplizieren der j-ten Zeile fur 1 ≤ j ≤ r mit (α′′j,ij)−1 ersetzt die Eintrage

α′′j,ij jeweils durch eine 1. Benutzt man diese Einsen als Pivotelemente, so kann mandurch Zeilenoperationen des Typs (EU3) in den ersten r Spalten alle Eintrage außerden Diagonalelementen annullieren. Dadurch ergibt sich die Form (A′|b′) .

(b) Fur alle i ∈ {1, . . . , n − r} ergibt sich A′ki = o . Fur j ≤ r erhalt man namlich alsj-te Komponente von A′ki den Eintrag −α′j,r+i + α′j,r+i = 0 , die restlichen Eintragesind 0, weil die unteren m− r Zeilen von A′ nur Nullen enthalten.Die Menge {k1, . . . , kn−r} ist wegen der stufenformig angeordneten Einser in den un-teren n − r Koordinaten linear unabhangig. Der Unterraum 〈k1, . . . , kn−r〉 von Kn

ist damit ein (n − r)-dimensionaler Unterraum des Losungsraums L von A′x = om .Wegen rang(A) = r hat L die Dimension n− r , also gilt L = 〈k1, . . . , kn−r〉 .

(c) Offensichtlich ist β′r+1 = . . . = β′m = 0 eine notwendige Voraussetzung fur dieLosbarkeit von A′x = b . Da gegebenenfalls der angegebene Vektor x0 eine Losungdieses Systems ist, ist diese Bedingung auch hinreichend.

(d) Die Losungsmenge L(A′, b′) von A′x = b′ ergibt sich aus (b) und (c) nach (3.2.2).Die Losungsmenge von Ax = b erhalt man aus L(A′, b′) durch die in der Behauptungangegebenen Operationen nach der Vorbemerkung zu diesem Satz. �

Wie bei der Rangbestimmung eines Vektorsystems wollen wir aus (3.3.1) einen Algorith-mus konstruieren, mit dem man

”mechanisch“ ein Gleichungssystem Ax = b losen kann.

Alle dabei auftretenden Spaltenvertauschungen muß man notieren, um am Schluß aus derLosungsmenge des umgeformten Systems die Losungsmenge von Ax = b berechnen zukonnen.

Page 121: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

118 3 AFFINE TEILRAUME UND LINEARE GLEICHUNGSSYSTEME

(3.3.2) Algorithmus Gaußsches Eliminationsverfahren zur Losunglinearer Gleichungssysteme

Eingabe: Matrix A = (αi,j) ∈M(m× n,K) und Vektor b ∈ Km .Ausgabe: Losungsraum x∗0 + 〈k∗1, . . . , k∗n−r〉 . Ax = b .

1. Bilde die erweiterte Koeffizientenmatrix (A|b) .Im folgenden werden die Eintrage der jeweils aktuellen erweiterten Koeffizientenmatrix mitαi,j bzw. βi bezeichnet.

2. Setze i := 1 .

3. Suche in der i-ten Spalte den kleinsten Index j ≥ i mit αj,i 6= 0 .Falls ein solcher Eintrag gefunden wird, fahre fort mit Schritt 5.Falls kein solcher Eintrag gefunden wird, fahre fort mit Schritt 4.

4. Suche eine Spalte [k] mit i+ 1 ≤ k ≤ n und einen Eintrag αj,k 6= 0, j ≥ i .Falls ein solches k existiert, vertausche die Spalten S[i] und S[k]und fahre fort mit Schritt 5.Falls kein solches k existiert, gehe zu Schritt 7.

5. Dividiere die Zeile [j] durch αj,i .Vertausche die Zeilen [i] und [j].Subtrahiere fur 1 ≤ h ≤ m, h 6= i , das αh,i-fache der Zeile [i] von der Zeile[h].

6. Falls i < n , erhohe i um 1 und gehe zuruck zu Schritt 3.Falls i = n , gehe zu Schritt 7.

7. Setze r := i .

8. Gibt es ein j ≥ r + 1 mit βj 6= 0 , so ist das Gleichungssystem Ax = b nichtlosbar. Stop.Andernfalls setze

x0 :=

β1...βr0...0

, und k1 :=

−α1,r+1...

−αr,r+1

10...0

, . . . , kn−r =

−α1,n...−αr,n

0...01

∈ Kn .

9. Bilde x∗0 und k∗1, . . . , k∗n−r , indem die ausgefuhrten Spaltenvertauschungen

in umgekehrter Reihenfolge auf die Koordinaten der in Schritt 8definierten Vektoren angewendet werden.Der Losungsraum von Ax = b ist x∗0 + 〈k∗1, . . . , k∗n−r〉 .

Bemerkungen zum Gaußschen Algorithmus:In Schritt 3 bis 6 werden die ersten r Spalten des Endtableaus hergestellt. Danach sinddie ersten n Spalten der letzten m− r Zeilen automatisch annulliert.Spaltenvertauschungen finden nur in Schritt 4 statt.

Page 122: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

3.3 Losung von linearen Gleichungssystemen 119

Das Ruckgangigmachen der Spaltenvertauschungen in Schritt 9 erfolgt durch Anwendungder analogen Zeilenvertauschungen an den Losungsvektoren.

Der Gaußsche Eliminationsalgorithmus liefert in endlich vielen Schritten eine exakte Losungdes linearen Gleichungssystems. Hat dieses aber sehr viele Unbekannte und sehr viele Glei-chungen (zum Beispiel jeweils einige tausend), dann ist dieses Verfahren zu langsam undbraucht zu viel Speicherplatz. Auch in dem Fall, daß die Matrix A

”dunn besetzt“ ist (d.h.

viele Eintrage sind Null), ist der Gaußsche Algorithmus nicht gunstig, denn durch die elemen-taren Zeilenoperationen werden in den umgeformten Matrizen viele Eintrage ungleich Null.Daher gibt es fur solche Falle eine Reihe weiterer Verfahren, zum Teil Naherungsverfahren(siehe dazu Bucher und Aufsatze zur numerischen Mathematik). Ein Vorteil des GaußschenAlgorithmus ist der, daß man zu Beginn nicht wissen muß, ob das Gleichungssystem losbarist. Dies entscheidet der Algorithmus selbst in Schritt 8.

(3.3.3) Beispiele Gaußsches Eliminationsverfahren

1. Gegeben sei das reelle Gleichungssystem:

x1 + 2x2 − x3 + 2x4 = 02x1 + 3x2 + x3 + 6x4 = −3x1 + x4 = −1

Wir bilden die erweiterte Koeffizientenmatrix und formen sie um nach (3.3.2): 1 2 −1 2 02 3 1 6 −31 0 0 1 −1

[2]− 2[1][3]− [1]

1 2 −1 2 00 −1 3 2 −30 −2 1 −1 −1

Schritt 3fur i = 1

(−1)[2]

1 2 −1 2 00 1 −3 −2 30 −2 1 −1 −1

[1]− 2[2][3] + 2[2]

1 0 5 6 −60 1 −3 −2 30 0 −5 −5 5

Schritt 3fur i = 2

(−1/5)[3]

1 0 5 6 −60 1 −3 −2 30 0 1 1 −1

[1]− 5[3][2] + 3[3]

1 0 0 1 −10 1 0 1 00 0 1 1 −1

Schritt 3fur i = 3

Das Gleichungssystem ist losbar (Schritt 8).

Losungsraum vonA′x = o : 〈

−1−1−1

1

〉 ; spezielle Losung vonA′x = b :

−1

0−1

0

.

Spaltenvertauschungen wurden keine ausgefuhrt. Daher ist−1

0−1

0

+ 〈

−1−1−1

1

〉 der Losungsraum von Ax = b .

2. Gegeben sei das reelle Gleichungssystem

x3 − x4 + x5 = −2x1 + 2x2 + 2x4 = 9−x1 − 2x2 + x3 − 3x4 − 3x5 = −7

2x3 − 2x4 + 2x5 = λ

Page 123: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

120 3 AFFINE TEILRAUME UND LINEARE GLEICHUNGSSYSTEME

mit dem Parameter λ. Man will wissen, fur welches λ ∈ R das Gleichungssystem losbar ist,und wie gegebenenfalls die Losungen aussehen.Bei der folgenden Rechnung werden am rechten Rand nicht mehr die einzelnen Schritte desGauß-Algorithmus, sondern nur noch etwaige Spaltenvertauschungen notiert.

0 0 1 −1 1 −21 2 0 2 0 9−1 −2 1 −3 3 −7

0 0 2 −2 2 λ

[1]↔[2]

1 2 0 2 0 90 0 1 −1 1 −2−1 −2 1 −3 3 −7

0 0 2 −2 2 λ

[3]+[1]

1 2 0 2 0 90 0 1 −1 1 −20 0 1 −1 3 20 0 2 −2 2 λ

S[2]↔S[3]

1 0 2 2 0 90 1 0 −1 1 −20 1 0 −1 3 20 2 0 −2 2 λ

S[2]↔S[3]

[3]−[2]

[4]−2[2]

1 0 2 2 0 90 1 0 −1 1 −20 0 0 0 2 40 0 0 0 0 λ+ 4

S[3]↔S[5]

1 0 0 2 2 90 1 1 −1 0 −20 0 2 0 0 40 0 0 0 0 λ+ 4

S[3]↔S[5]

(1/2)[3]

[2]−[3]

1 0 0 2 2 90 1 0 −1 0 −40 0 1 0 0 20 0 0 0 0 λ+ 4

Das System ist losbar fur λ = −4 . Die Losungsmenge des Systems A′x = b′ ist dann9−4

200

+ 〈

−2

1010

,

−2

0001

〉 .

Es gab zwei Spaltenvertauschungen. Vertauschen wir in den Losungsvektoren zuerst diedritte und die funfte Koordinate und dann die zweite und die dritte Koordinate, so erhaltenwir die Losungsmenge

90−4

02

+ 〈

−2

0110

,

−2

1000

〉des ursprunglichen Gleichungssystems (fur λ = −4).

Berechnung von Kernen.Mit dem Gauß-Algorithmus kann man auch den Kern einer Matrix A (gemeint ist naturlichder Kern der linearen Abbildung, die bezuglich einer gegebenen geordneten Basis durchdie Matrix A beschrieben wird) berechnen, denn der Kern von A ist die Losungsmengeder Gleichung Ax = o . Dabei braucht man die rechte Seite o im Gauß-Algorithmus nicht

Page 124: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

3.3 Losung von linearen Gleichungssystemen 121

mitzufuhren, denn die angehangte Spalte andert sich bei den angewendeten elementarenOperationen nicht, falls sie nur Eintrage 0 hat.

(3.3.4) Beispiele Berechnung des Kerns einer Matrix

1. Gesucht ist der Kern von A =

1 0 1 −11 0 5 32 1 3 00 2 0 2

∈M4(R) .

1 0 1 −11 0 5 32 1 3 00 2 0 2

[2]−[1]

[3]−2[1]

1 0 1 −10 0 4 40 1 1 20 2 0 2

[2]↔[3]

1 0 1 −10 1 1 20 0 4 40 2 0 2

[4]−2[2]

(1/4)[3]

1 0 1 −10 1 1 20 0 1 10 0 −2 2

[1]−[3]

[2]−[3]

[4]+2[3]

1 0 0 −20 1 0 10 0 1 10 0 0 0

Es wurden keine Spaltenvertauschungen verwendet, also folgt aus (3.3.2):

Kern(A) = 〈

2−1−1

1

〉 .

2. Gesucht ist der Kern von A =

3 11 02 4

.

3 11 02 4

[1]↔ [2]

1 03 12 4

[2]− 3[1][3]− 2[1]

1 00 11 4

[3]− 4[2]

1 00 10 0

Kern(A) ist trivial, da rechts von dem Einheitsmatrix-Block keine Spalte mehr steht. Dasbedeutet geometrisch, daß A den Raum R

2 isomorph auf eine Ebene im R3 abbildet. Die

erste Zeilenvertauschung diente nur der Vereinfachung der Rechnung, denn die Verwendungeiner Eins als Pivotelement erspart Divisionen.

3. Gesucht ist der Kern von A =

1 2 0 1 −14 8 5 −1 12 4 3 2 1

.

1 2 0 1 −14 8 5 −1 12 4 3 2 1

[2]−4[1]

[3]−2[1]

1 2 0 1 −10 0 5 −5 50 0 3 0 3

S[2]↔S[3]

(1/5)[2]

1 0 2 1 −10 1 0 −1 10 3 0 0 3

[3]−3[2]

1 0 2 1 −10 1 0 −1 10 0 0 3 0

S[2]↔ S[3]

Page 125: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

122 3 AFFINE TEILRAUME UND LINEARE GLEICHUNGSSYSTEME

S[3]↔S[4]

(1/3)[3]

1 0 2 1 −10 1 −1 0 10 0 1 0 0

[1]−[3]

[2]+[3]

1 0 0 2 −10 1 0 0 10 0 1 0 0

S[3]↔ S[4]

Das Erzeugnis 〈

−2

0010

,

1−1

001

〉 ist somit der Kern der umgeformten Matrix.

Es wurden die Spaltenvertauschungen S[2]↔ S[3] und S[3]↔ S[4] durchgefuhrt.Diese Operationen mussen wir ruckgangig machen, indem wir in den Losungsvektoren zuerstdie Zeilen 3 und 4, und dann die Zeilen 2 und 3 vertauschen. Damit erhalten wir

Kern(A) = 〈

−2

0001

,

10−1

01

〉 .

Zum Schluß wollen wir eine lineare Gleichung in einem unendlich-dimensionalen Vektorraumlosen. Hier steht zwar der Gauß-Algorithmus nicht mehr zur Verfugung, aber immer nochder allgemeine Satz (3.2.2).

(3.3.5) Beispiel Gesucht sind alle Funktionen f : R→ R , die die Funktionalgleichung

f(t)− f(t+ 1) = 2t2

erfullen. Setzt man V = RR und

(ϕ(f)

)(t) = f(t)− f(t+ 1) fur alle t ∈ R , und b = 2t2 , so sucht

man die Losung der linearen Gleichung13

ϕ(x) = b .

Der Kern von ϕ besteht aus allen Funktionen f ∈ V mit f(t) = f(t+ 1) fur alle t ∈ R . Das istgerade der Unterraum U der periodischen Funktionen mit Periode 1.Zur Gewinnung einer speziellen Losung der inhomogenen Gleichung machen wir einen Polynom-Ansatz f(t) =

∑ni=0 αit

i . Naturlich wollen wir den Grad n so moglichst klein wahlen. Da auf derrechten Seite ein quadratisches Polynom steht, und auf der linken Seite bei der Differenzenbildungf(t)− f(t+ 1) die hochste Potenz von t verschwindet, muß man n ≥ 3 wahlen. Starten wir alsoeinen Versuch mit

f(t) = α3t3 + α2t

2 + α1t+ α0 .

Dann folgtf(t)− f(t+ 1) = −3α3t

2 + (−3α3 − 2α2)t+ (−α3 − α2 − α1) ,

also erhalt man das Gleichungssystem

−3α3 = 2−3α3 − 2α2 = 0−α3 − α2 − α1 = 0

13Man mache sich klar, daß ϕ eine lineare Abbildung ist.

Page 126: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

3.3 Losung von linearen Gleichungssystemen 123

mit der Losung α1 = −13 , α2 = 1 , α3 = −2

3 . Der Parameter α0 ist frei wahlbar, etwa α0 = 0 .Also ist

(−13t+ t2 − 2

3t3) + U

die Losungsmenge der Funktionalgleichung.

Austausch von Basisvektoren mit dem Satz von Steinitz.Es ist oft gunstig, eine Basis des Vektorraums zu haben, die eine vorgegebene Menge linearunabhangiger Vektoren enthalt. Dies bewerkstelligt man mit dem Austauschsatz von Steinitz(1.4.6). Im Beispiel (1.4.7) haben wir gesehen, daß dabei ein lineares Gleichungssystemsgelost werden muß.

(3.3.6) Algorithmus Austauschsatz von SteinitzEingabe: Basis (b1, . . . , bn) von V und linear unabhangige Vektoren s1, . . . , sm aus V .Ausgabe: Die Indizes i1, . . . , im der zu entfernenden Vektoren bi.

1. Setze j := 1 .

2. Lose mit dem Algorithmus (3.3.2) das Gleichungssystem14

sj =j−1∑k=1

λksk +∑

l=1,l /∈{i1,...,ij−1}

µlbl

fur die Unbekannten λk, µl.

3. Setze ij := min{l | 1 ≤ l ≤ n, l /∈ {i1, . . . , ij−1}, µl 6= 0} .

4. Falls j < m, so setze j := j + 1 und gehe zu Schritt 2.Falls j = m, stop.

(3.3.7) Beispiel Austauschsatz von SteinitzGegeben seien die Vektoren

s1 =

0021

, s2 =

0051

und die Basis (b1, . . . , b4) von R4 mit

b1 =

0110

, b2 =

1000

, b3 =

1100

, b4 =

0001

.

Schritt 1: j = 1.

14Dieses Gleichungssystem ist immer losbar, da die angegebenen Vektoren sk, bl eine Basis von V bilden.

Page 127: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

124 3 AFFINE TEILRAUME UND LINEARE GLEICHUNGSSYSTEME

Schritt 2 fur j = 1:Man lost das Gleichungssystem

0021

= µ1

0110

+ µ2

1000

+ µ3

1100

+ µ4

0001

.

0 1 1 0 01 0 1 0 01 0 0 0 20 0 0 1 1

[1]↔[3]

[2]−[1]

1 0 0 0 20 0 1 0 −20 1 1 0 00 0 0 1 1

[2]↔[3]

[2]−[3]

1 0 0 0 20 1 0 0 20 0 1 0 −20 0 0 1 1

Da keine Spaltenvertauschungen vorkamen, ist die Losung (2, 2,−2, 1)T .Schritt 3 fur j = 1:µ1 6= 0, also i1 = 1.Schritt 4 fur j = 1:j = 1 < 2 = m, also setze j = 2 und gehe zu Schritt 2.Schritt 2 fur j = 2:Man lost das Gleichungssystem

0051

= λ1

0021

+ µ2

1000

+ µ3

1100

+ µ4

0001

.

0 1 1 0 00 0 1 0 02 0 0 0 51 0 0 1 1

[1]↔[4]

[2]↔[4]

[3]↔[4]

1 0 0 1 10 1 1 0 00 0 1 0 02 0 0 0 5

[4]−2[1]

[2]−[3]

−1/2[4]

[1]−[4]

1 0 0 0 5/20 1 0 0 00 0 1 0 00 0 0 1 −3/2

Da keine Spaltenvertauschungen vorkamen, ist die Losung (5

2 , 0, 0,−32)T .

Schritt 3 fur j = 2:µ2 = µ3 = 0 , µ4 6= 0, also i1 = 4.Schritt 4 fur j = 2:j = 2 = m. Stop.Aus der alten Basis werden b1 und b4 entfernt, also ist die neue Basis (s1, s2, b2, b3).

3.4 * Faktorraume

Bisher haben wir die affinen Teilraume als Teilmengen von V betrachtet. Nun halten wirden Unterraum U fest und beschaftigen uns mit der Menge {v+U | v ∈ V }, also der Mengealler affinen Teilraume von V , die die Richtung U haben. Wie in (3.1.1) dargestellt wordenist, kann man diese affinen Teilraume alle als

”Parallelverschiebungen“ des Unterraumes U

auffassen. Wir definieren eine Addition und eine skalare Multiplikation, die diese Menge vonaffinen Teilraumen zu einem Vektorraum uber K macht:

Definition: FaktorraumDer Faktorraum V/U besteht aus der Menge {v + U | v ∈ V } und ist versehen mit denVerknupfungen

Page 128: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

3.4 * Faktorraume 125

(FR1) Summe: (v1 + U) + (v2 + U) := (v1 + v2) + U .(FR2) skalare Multiplikation: λ(v + U) := (λv) + U .

Da der Stutzvektor eines affinen Teilraums nicht eindeutig bestimmt ist, aber wesentlich indie Definitionen (FR1) und (FR2) eingeht, muß man zeigen, daß diese Operationen wohlde-finiert, das heißt unabhangig vom jeweils verwendeten Stutzvektor sind.

(3.4.1) Lemma Die Operationen (FR1) und (FR2) sind wohldefiniert.

Beweis:

(i) Es seien v1 + U = w1 + U und v2 + U = w2 + U affine Teilraume. Wir mussennachweisen, daß (v1 +v2)+U = (w1 +w2)+U gilt. Dies ist nach (3.1.2.a) gleichwertigmit (v1 + v2) − (w1 + w2) ∈ U . Nach (3.1.2.a) gilt u1 := v1 − w1 ∈ U und u2 :=v2−w2 ∈ U , also wegen der Unterraumeigenschaft von U schließlich (v1 +v2)− (w1 +w2) = (v1 − w1) + (v2 − w2) = u1 + u2 ∈ U .

(ii) Es sei v + U = w + U ein affiner Teilraum von V und λ ∈ K . Nach (3.1.2.a) giltu := v−w ∈ U , also λv−λw = λ(v−w) = λu ∈ U , und damit (λv)+U = (λw)+U .�

Man rechnet leicht nach, daß fur diese Verknupfungen die Vektorraumaxiome gelten underhalt

(3.4.2) Satz Faktorraum V/UEs sei V ein Vektorraum uber dem Korper K und U ein Unterraum von V . Die MengeV/U := {v + U | v ∈ V } der affinen Teilraume mit Richtung U , versehen mit der Addition(FR1) und der skalaren Multiplikation (FR2), bildet einen Vektorraum uber K.Der Vektorraum V/U heißt Faktorraum von V nach U .

Manche Autoren benutzen statt”Faktorraum“ die Bezeichnung Quotientenraum.

Der Nullvektor im Faktorraum V/U ist der affine Teilraum o + U = U = u+ U fur jedenVektor u ∈ U .

(3.4.3) Beispiele Faktorraume

1. Es sei V = R2 und U = 〈(3, 1)T gewahlt. Weiter

seien v1 = (0, 1)T und v2 = (3,−2)T . Dannsind die affinen Teilraume v1 + U und v2 + UGeraden, die zu U parallel und um 1 nach obenbzw. 3 nach unten verschoben sind.Der affine Unterraum (v1 + U) + (v2 + U) =(v1 + v2) + U = (3,−1)T + U ist dann eine zuU parallele Gerade, die um zwei Einheiten nachunten verschoben ist.Der affine Unterraum 2(v1 +U) = (0, 2)T +Uhingegen ist eine zu U parallele Gerade, die um2 Einheiten nach oben verschoben ist.

6

-�������������

�������������

�������������

�������������

�������������

rv1U

v1 + U

2(v1 + U)

v2 + U

(v1 + v2) + Urv1 + v2

r2v1

rv2

Page 129: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

126 3 AFFINE TEILRAUME UND LINEARE GLEICHUNGSSYSTEME

2. Es sei K = GF (3) = {0, 1,−1} der Korper mit 3 Elementen und V = K3 . Der UnterraumU = 〈(1, 0, 0)T , (0, 1, 0)T 〉 also die ”x, y-Ebene“, hat die 9 Elemente (a, b, 0)T , a, b ∈ K .In V gibt es zwei weitere affine Teilraume mit der Richtung U , namlich T1 = (0, 0, 1)T + Uund T−1 = (0, 0,−1)T + U , also die um eine Einheit nach oben bzw. nach unten ver-schobene Ebene. T1 hat die 9 Elemente (a, b, 1)T , a, b ∈ K , und T−1 hat die 9 Elemente(a, b,−1)T , a, b ∈ K . Somit verteilen sich die 27 Elemente von V gleichmaßig auf die dreiaffinen Teilraume (vgl. (3.1.2.d)).Der Faktorraum V/U hat die drei Elemente T0 = U, T1, T−1 und ist daher ein eindimensio-naler Vektorraum uber K. Rechnet man mit den Indizes i, j so wie mit den entsprechendenElementen von K, so gilt Ti + Tj = Ti+j .

(3.4.4) Satz Kanonischer Epimorphismus und Dimension eines FaktorraumsEs sei V ein Vektorraum und U ein Unterraum von V .

(a) Die Abbildung π : V → V/U , definiert durch π(v) := v + U , ist linear und surjektivmit Kern(π) = U .π heißt kanonischer Epimorphismus von V nach V/U .

(b) Ist V endlich-dimensional, so gilt dim(V/U) = dim(V )− dim(U) .

Beweis:

(a) Die Linearitat von π folgt aus den Axiomen (FR1) und (FR2). Die Surjektivitat vonπ ist klar. Außerdem gilt v ∈ Kern(π)⇐⇒ v + U = U ⇐⇒ v ∈ U .

(b) Nach (a) gilt Bild(π) = V/U und Kern(π) = U , also folgt aus dem Dimensionssatzfur lineare Abbildungen dim(V ) = dim(V/U) + dim(U) . �

(3.4.5) Satz Basis eines FaktorraumsEs sei U ein Unterraum von V , {u1, . . . , uk} eine Basis von U und {u1, . . . , uk, vk+1, . . . , vn}eine Basis von V . Dann ist {vk+1 + U , . . . , vn + U} eine Basis von V/U .

Beweis: Fur jedes v ∈ V gibt es α1, . . . , αn ∈ K mit v = α1u1 + + . . . αnvn .Nach (FR1) folgt

v + U = α1(u1 + U) + . . .+ αk(uk + U) + αk+1(vk+1 + U) + . . . αn(vn + U)

= αk+1(vk+1 + U) + . . . αn(vn + U) ,

denn die ersten k Summanden ui +U sind alle gleich dem Nullvektor im Faktorraum V/U .Also ist {vk+1 +U, . . . , vn+U} ein Erzeugendensystem von V/U . Es ist noch zu zeigen, daßdiese Menge auch linear unabhangig ist. Dazu nehmen wir an, es gabe Skalare βk+1 . . . βnmit

βk+1(vk+1 + U) + . . .+ βn(vn + U) = o + U = U .

Das bedeutet aber, daß die Linearkombination βk+1vk+1 + . . .+βnvn im Unterraum U liegt,ein Widerspruch zur linearen Unabhangigkeit der Menge {u1, . . . , uk, vk+1, . . . , vn} . �

Literatur: Weiterfuhrendes zum Thema Faktorraum findet sich in [KM], S. 225ff, und in[Lue], S. 117ff, jeweils im allgemeineren Rahmen von Faktormoduln.

Page 130: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

3.5 * Faktorraume und lineare Abbildungen 127

3.5 * Faktorraume und lineare Abbildungen

Das Benutzen von Faktorraumen (und analogen Strukturen in der Algebra wie zum BeispielFaktorgruppen) erlaubt es, auf Informationen zu verzichten, die fur die gerade angestrebteSchlußfolgerung ohne Bedeutung sind. Dadurch vereinfacht sich die Struktur des unter-suchten Objekts. In anderen Fallen kann man durch den Gebrauch von Faktorraumen eineAussage durch Induktion nach der Dimension des Vektorraums beweisen (siehe etwa (5.4.4)),da nach (3.4.4) die Dimension von V/U echt kleiner ist als die Dimension von V , wenn Unicht der triviale Unterraum {o} ist.Jede lineare Abbildung ϕ : V → W zwischen zwei Vektorraumen V und W uber dem KorperK hat als Nullstellenmenge den Unterraum U := Kern(ϕ) = {v ∈ V | ϕ(v) = o} von V .Die Vektoren in diesem Unterraum sind fur das Verhalten der Abbildung ϕ ohne Bedeutung,praziser ausgedruckt: Zwei Vektoren v, w ∈ V haben dasselbe Bild unter ϕ, wenn sie indemselben affinen Teilraum v+U liegen. (In diesem Falle gilt namlich w = v+u mit einemgeeigneten u ∈ U , also ϕ(w) = ϕ(v + u) = ϕ(v) + ϕ(u) = ϕ(v) .) Dies veranlaßt uns, denFaktorraum V/

(Kern(ϕ)

)zu betrachten.

(3.5.1) Satz Homomorphiesatz fur lineare AbbildungenEs seien V,W Vektorraume uber dem Korper K, und ϕ : V → W eine lineare Abbildung.Dann gibt es eine bijektive lineare Abbildung ϕ∗ : V/

(Kern(ϕ)

)→ Bild(ϕ) .

Der Faktorraum V/(Kern(ϕ)

)ist also isomorph zum Bildraum Bild(ϕ) .

Beweis: Wir definieren die Abbildung ϕ∗ durch ϕ∗(v + Kern(ϕ)

):= ϕ(v) .

Wir setzen U := Kern(ϕ) . Nach der Vorbemerkung ist ϕ∗ wohldefiniert.

ϕ∗((v + U) + (w + U)

)= ϕ∗

((v + w) + U

)(FR1)

= ϕ(v + w) + U Definition von ϕ∗

=(ϕ(v) + ϕ(w)

)+ U Linearitat von ϕ

=(ϕ(v) + U

)+(ϕ(w) + U

)(FR1)

= ϕ∗(v + U) + ϕ∗(w + U) Definition von ϕ∗

Die Linearitatseigenschaft (L2) zeigt man analog. Also ist ϕ∗ linear.ϕ∗ ist injektiv: Seien v, w ∈ V mit ϕ∗(v + U) = ϕ∗(w + U) . Dann gilt ϕ(v) = ϕ(w) , alsov − w ∈ U . Daraus folgt nach (3.1.2.a) v + U = w + U .ϕ∗ ist surjektiv wegen der Definition von ϕ∗. �

Wie wir im Beweis zu (3.5.1) sahen, liefert die lineare Abbildung ϕ in naheliegender Weiseeine Abbildung ϕ∗, die auf dem Faktorraum V/

(Kern(ϕ) definiert ist. Diese Konstruktion

werden wir nun variieren und auch fur gewisse Unterraume U von V eine Abbildung

ϕ∗(v + U) := ϕ(v) + U

definieren. Das geht aber nicht fur alle Unterraume U , wie das folgende Beispiel zeigt:

Page 131: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

128 3 AFFINE TEILRAUME UND LINEARE GLEICHUNGSSYSTEME

(3.5.2) Beispiel Es sei K ein Korper, V = K2 , und ϕ der durch die Matrix A =(

0 11 0

)beschriebene Endomorphismus von V . Weiter wahlen wir den Unterraum U = 〈(1, 0)T 〉 . Mit der

obigen Definition von ϕ∗ folgt dann ϕ∗(( 1

0

)+ U

)= A

(10

)+ U =

(01

)+ U .

Nun ist (1, 0)T ∈ U , aber (0, 1)T /∈ U . Das bedeutet, daß das Bild des Nullvektors von V/Uunter ϕ∗ nicht der Nullvektor ist. Daher konnen wir auf diese Weise keine lineare Abbildung ϕ∗

konstruieren.

Die Konstruktion im vorstehenden Beispiel funktioniert nicht, weil fur einen Vektor u ∈ Uder Bildvektor ϕ(u) nicht unbedingt in U liegen muß. Erzwingen wir jedoch ϕ(u) ∈ Udurch eine Voraussetzung, so geht alles glatt, und man kann genau wie in (3.5.1) zeigen, daßϕ∗ eine wohldefinierte Abbildung ist. Also haben wir

(3.5.3) Satz Es sei ϕ ein Endomorphismus des Vektorraums V . Weiter sei U einϕ-invarianter Unterraum von V . Dann wird durch ϕ∗(v + U) := ϕ(v) + U ein Endomor-phismus ϕ∗ des Faktorraums V/U wohldefiniert.

Definition: induzierte AbbildungDie in (3.5.3) angegebene Abbildung ϕ∗ heißt die von ϕ auf dem Faktorraum V/U induzierteAbbildung.Ist W ein weiterer ϕ-invarianter Unterraum von V , fur den zusatzlich U ⊆ W gilt, so kannman den Endomorphismus ϕ von V auf W einschranken und erhalt dadurch den Endomor-phismus ϕ|W von W . Dieser induziert den Endomorphismus ϕ|∗W des Faktorraums W/U .Vereinfachend sagt man auch: ϕ induziert auf dem Faktorraum W/U die Abbildung ϕ|∗W .

Die Unterraume von V , die die Bedingung von (3.5.3) erfullen, werden als ϕ-invarianteUnterraume in den nachsten Kapiteln eine Hauptrolle spielen.

(3.5.4) Beispiel induzierte Abbildung

Es sei V = R3 und ϕ gegeben durch die Matrix A =

3 −4 0−2 1 0

0 0 2

.

Man erkennt sofort den ϕ-invarianten Unterraum W = 〈 (1, 0, 0)T , (0, 1, 0)T 〉 der Dimension 2 .Der Faktorraum V/W hat also die Dimension 1 und wird erzeugt von e∗3 = (0, 0, 1)T +W . Dievon ϕ auf V/W induzierte Abbildung ϕ∗ wird beschrieben durch das Bildϕ∗(e∗3) = ϕ(0, 0, 1)T +W = (0, 0, 2)T +W = 2e∗3 . Also folgt ϕ∗ = 2 · idV/W .Weiter gilt ϕ(1, 1, 0)T = (−1,−1, 0)T . Das heißt, daß u = (1, 1, 0)T ein Eigenvektor von ϕ ist.Damit ist der von u erzeugte Unterraum U ein ϕ-invarianter Unterraum von V . Außerdem ist Uein Teilraum von W . Wir haben also den Faktorraum W/U , auf dem ϕ ebenfalls eine Abbildunginduziert, die wir ϕ′ nennen wollen.Wegen dim(U) = 1 und dim(W ) = 2 wird der Raum W/U wieder von einem Element erzeugt,etwa von e′2 = (0, 1, 0)T + U . Der Endomorphismus ϕ′ wird also vollstandig festgelegt durch

ϕ′(e′2) = ϕ(0, 1, 0)T + U = (−4, 1, 0)T + U .Nun sind zwei Vektoren v1 +U , v2 +U genau dann gleich, wenn ihre Differenz v1− v2 in U liegt.Wegen 4u = (4, 4, 0)T ∈ U kann man also auch schreiben

ϕ′(e′2) = (−4, 1, 0)T + U = (−4, 1, 0)T + (4, 4, 0)T + U = (0, 5, 0)T + U = 5e′2

Page 132: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

3.5 * Faktorraume und lineare Abbildungen 129

und erkennt dadurch ϕ′ = 5 · idW/U .Betrachten wir den 2-dimensionalen Faktorraum V/U , so haben wir zunachst den Eigenvektor(0, 1, 0)T + U zum Eigenwert 5 und dann den Eigenvektor (0, 0, 1)T + U zum Eigenwert 2 .Bezuglich der Basis ( (0, 1, 0)T + U , (0, 0, 1)T + U ) hat also der von ϕ auf V/U induzierte

Endomorphismus die Matrixdarstellung(

5 00 2

).

Die Anwendung von Faktorraumen illustrieren wir am Beispiel der

(3.5.5) Satz Rangungleichung von FrobeniusEs sei K ein beliebiger Korper und A ∈M(k×l,K) , B ∈M(l×m,K) , C ∈M(m×n,K) .Dann gilt

rang(AB) + rang(BC) ≤ rang(B) + rang(ABC) .

Beweis: Die angegebenen Matrizen beschreiben (bezuglich fest gewahlter Basen) lineareAbbildungen

A : Kk → K l , B : K l → Km , C : Km → Kn .

Bild(BC) ist ein Unterraum von Bild(B) und dieses ein Unterraum von Km.Bild(ABC) ist ein Unterraum von Bild(AB) und dieses ein Unterraum von Kn.Wir konnen also die Faktorraume

F1 := Bild(B)/Bild(BC) und F2 := Bild(AB)/Bild(ABC)

bilden. Nun definieren wir eine Abbildung ϕ : F1 → F2 durch

ϕ(x+ Bild(BC)

):= Ax+ Bild(ABC) fur alle x ∈ Bild(B) .

cc

cc

ccccPPPPPPPPP

-

PPPPPqϕ

{o}

Bild(BC)

Bild(B)

Km

{o}

Bild(ABC)

Bild(AB)

Kn

Aus x + Bild(BC) = y + Bild(BC) folgtx−y ∈ Bild(BC) , also Ax−Ay = A(x−y) ∈Bild(ABC) . Daher ist ϕ wohldefiniert.Die Linearitat von ϕ rechnet man leicht nach.Zudem ist ϕ auch surjektiv, denn zu jedemy ∈ Bild(AB) gibt es ein z ∈ Kk mit y =ABz . Fur x := Bz ∈ Bild(B) erhalt mandann y + Bild(ABC) = ϕ

(x + Bild(BC)

).

Also wissen wir dim(Bild(ϕ)

)= dim(F2) .

Nach (3.4.4) und der Dimensionsformel fur lineare Abbildungen folgt

rang(B)− rang(BC) = dim(Bild(B)/Bild(BC)

)= dim

(Kern(ϕ)

)+ dim

(Bild(ϕ)

)≥ dim

(Bild(ϕ)

)= dim

(Bild(AB)/Bild(ABC)

)= rang(AB)− rang(ABC) ,

also rang(AB) + rang(BC) ≤ rang(B) + rang(ABC) . �

Als unmittelbare Folgerung ergibt sich

Page 133: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

130 3 AFFINE TEILRAUME UND LINEARE GLEICHUNGSSYSTEME

(3.5.6) Korollar RangabschatzungenEs sei K ein beliebiger Korper und A ∈M(k × l,K) , B ∈M(l ×m,K) ,C ∈M(m× n,K) . Dann gilt

(a) rang(AB) ≤ rang(B) ;(b) rang(BC) ≤ rang(B) .(c) Im Fall l = m gilt rang(A) + rang(C) ≤ m+ rang(AC) .

Beweis: Fur (a) setze C = O , fur (b) setze A = O und fur (c) setze B = Em . �

Page 134: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

131

4 Polynome von Endomorphismen

4.1 Polynome uber beliebigen Korpern und ihre Teilbarkeitsei-genschaften

In diesem Kapitel sei ϕ immer ein Endomorphismus des Vektorraumes V uber dem KorperK. Wir denken uns eine Basis B von V fixiert, so daß wir im Fall dim(V ) = n < ∞ eineBijektion zwischen den Abbildungen ϕ ∈ Hom(V, V ) und den Matrizen A ∈Mn(K) habenund die Abbildung mit ihrer Koeffizientenmatrix identifizieren konnen.

Die linearen Abbildungen konnen wir addieren, mit einem Skalar multiplizieren oder ver-knupfen (hintereinanderausfuhren). Die analogen Operationen fur die Matrizen sind Additi-on, Multiplikation mit einem Skalar und Matrizenmultiplikation (vgl. Abschn. 2.1 und 2.3).Die lineare Abbildung ψ = ϕ3 + 2 · ϕ2 − 5 · ϕ + 3 · id : V → V konnen wir kurz in derForm ψ = P (ϕ) schreiben, wenn wir P (x) = x3 + 2x2− 5x+ 3 setzen. Auf diese Art kannman lineare Abbildungen in ein Polynom mit Koeffizienten aus K

”einsetzen“ und erhalt

eine neue lineare Abbildung.

Der Polynomring K[x]Ein Polynom (in der Variablen x) uber dem Korper K ist eine formale Summe

P (x) = αkxk + αk−1x

k−1 + . . .+ α1x+ α0 mit Koeffizienten αi ∈ K .

Der Begriff”formale Summe“ bedeutet folgendes: Zwei Polynome15

∑ki=0 αix

i und∑k

i=0 βixi

sind nach Definition genau dann identisch, wenn αi = βi gilt fur alle Indizes i.

Daher mussen wir genau unterscheiden zwischen dem Polynom P und der Abbildung

x ∈ K 7→ P (x) =k∑i=0

αixi .

Uber R oder C beschreiben zwei verschiedene Polynome auch zwei verschiedene Abbildungendes Korpers R bzw. C. In einem endlichen Korper K mit d Elementen aber gilt nach(15.3.6.c) xd−1 = 1 fur alle x ∈ K . Die Polynome P (x) = xd−1 − 1 und Q(x) = 0 uber Ksind zwar als Polynome (d.h. als Elemente von K[x]) verschieden, beschreiben aber dieselbeAbbildung auf dem Korper K.

Die Menge aller Polynome uber K bezeichnet man mit K[x] . Mit den anschließend defi-nierten Operationen

”Summe“ und

”Multiplikation“ bildet K[x] einen kommutativen Ring

mit Eins (vgl. Abschnitt 12.2). Mit den Operationen”Summe“ und

”skalare Multiplikation“

bildet K[x] einen unendlichdimensionalen Vektorraum uber K.

Die Untersuchung der algebraischen Struktur des Polynomrings uber dem Korper K ist einThema der Algebra und soll hier nicht sehr vertieft werden, da uns hier eigentlich nichtso sehr die Polynome P ∈ K[x] selbst interessieren, sondern die Eigenschaften der Abbil-dungen P (ϕ) . Deshalb werden in diesem Abschnitt nur die Definitionen und Rechenregelnerwahnt, die man braucht, um die linearen Abbildungen P (ϕ) zu studieren.Dem Leser wird vieles vertraut vorkommen, denn das Rechnen mit Polynomen uber einem

15Wollen wir∑ki=0 αix

i und∑mi=0 βix

i vergleichen, wobei k < m ist, so konnen wir die fehlendenKoeffizienten mit αi =auffullen, und schreiben:

∑ki=0 αix

i =∑mi=0 αix

i mit αk+1 = . . . = αm = 0 .

Page 135: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

132 4 POLYNOME VON ENDOMORPHISMEN

beliebigen Korper funktioniert im wesentlichen wie das mit Polynomen mit reellen Koeffizi-enten. Anders als in der Schule bezeichnen wir ein Polynom P (x) = x2 + x + 1 meist nurmit seinem Namen P und nicht mit P (x).

Definition: fuhrender Koeffizient, Grad, normiertes PolynomIst P (x) = αkx

k + . . .+α0 mit αk 6= 0 , so heißt αk der fuhrende Koeffizient von P und kder Grad von P . Das Polynom P (x) = 0 hat per Definition den Grad −∞ . Ein PolynomP vom Grad k heißt normiert, wenn der fuhrende Koeffizient αk = 1 ist. Polynome vomGrad 1 heißen lineare Polynome.

Man beachte, daß nicht jedes lineare Polynom P ∈ K[x] eine lineare Abbildung x 7→ P (x)von K nach K beschreibt! .Ein Polynom P (x) = λ vom Grad 0 wird auch einfach mit λ bezeichnet, ebenso das Null-polynom P (x) = 0 mit 0. Das Polynom λ bildet also die lineare Abbildung ϕ ab aufλ · ϕ0 = λ · id . Ubertragen auf Matrizen bedeutet dies: Das Polynom λ bildet die Matrix Aab auf λEn = diag(λ, . . . λ) .

Definition: Operationen fur PolynomeEs seien P und Q Polynome uber demselben Korper K.

(a) Summe zweier Polynome: Fur P (x) =∑k

i=0 αixi und Q(x) =

∑ki=0 βix

i ist

(P +Q)(x) =k∑i=0

(αi + βi)xi .

(Hier wird nicht verlangt, daß P und Q denselben Grad haben. Ist etwa grad(P ) <grad(Q), so fullen wir die fehlenden Koeffizienten mit 0 auf.)

(b) Multiplikation eines Polynoms mit einem Skalar: Fur P (x) =∑k

i=0 αixi und λ ∈ K

ist

(λ · P )(x) =k∑i=0

(λαi)xi .

(c) Produkt zweier Polynome: Fur P (x) =∑k

i=0 αixi und Q(x) =

∑li=0 βix

i ist

(PQ)(x) =k+l∑m=0

( ∑i,j≥0i+j=m

αiβj)xm .

Definition: Teiler, Vielfaches, irreduzibles PolynomDas Polynom Q heißt Teiler des Polynoms P , wenn es ein Polynom R gibt mit P = Q ·R .In diesem Fall schreibt man Q | P . Umgekehrt heißt P Vielfaches von Q.Das nichtkonstantes Polynom P heißt irreduzibel, wenn aus P = Q · R immer folgt, daß Qoder R den Grad 0 hat.

Falls P irreduzibel ist, sagt man auch: P hat keine echten Teiler. Die irreduziblen Polynomespielen eine ahnliche Rolle wie die Primzahlen in der Teilbarkeitslehre fur naturliche oderganze Zahlen. Daß man die konstanten Polynome nicht zu den irreduziblen rechnet, ist einAnalogon dazu, daß die naturliche Zahl 1 nicht zu den Primzahlen zahlt.

Page 136: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

4.1 Polynome uber beliebigen Korpern und ihre Teilbarkeitseigenschaften 133

Die Betrachtung des fuhrenden Koeffizienten liefert sofort die folgenden Rechenregeln:

(4.1.1) Lemma Gradregeln fur Polynome uber einem Korper(a) grad(P +Q) =≤ max{grad(P ) , grad(Q)} .(b) grad(λP ) = grad(P ) falls λ 6= 0 .(c) grad(PQ) = grad(P ) + grad(Q) .

Aus (4.1.1.c) ergibt sich die Motivation, grad(0) = −∞ zu setzen: (c) ist dann namlich auchrichtig fur P = 0 oder Q = 0 , wenn man k + (−∞) = (−∞) + (−∞) = (−∞) vereinbartfur alle k ∈ N0 .

(4.1.2) Korollar Kurzungsregel fur PolynomeSind P,Q,R Polynome mit Q 6= 0 und PQ = RQ , so folgt P = R .

Beweis: Nach Voraussetzung gilt 0 = PQ − RQ = (P − R)Q und grad(Q) ≥ 0 , also istdie Aussage klar nach (4.1.1.c). �

(4.1.3) Beispiele

1. Es seien P (x) = x2−1 und Q(x) = x+1 Polynome uber R. Dann gilt (P+Q)(x) = x2 +x ,(5 · P )(x) = 5x2 − 5 und (PQ)(x) = (x2 − 1)(x+ 1) = x3 + x2 − x− 1 .Weiter gilt fur R(x) = x−1 die Gleichung QR = P , also sind Q und R Teiler von P . Wegengrad(Q) = grad(R) = 1 ist P nicht irreduzibel.

2. Wegen (4.1.1.c) sind Polynome vom Grad 1 stets irreduzibel. Das Polynom P (x) = 0dagegen ist nicht irreduzibel, denn es gilt P (x) = 0 · x , und die Polynome 0 und x habenbeide nicht den Grad 0.

3. Das Polynom P (x) = x2 + 1 aus R[x] ist irreduzibel, denn es hat keine linearen Teiler inR[x] .

4. Das Polynom P (x) = x2 + 1 aus C[x] ist reduzibel, denn es gilt x2 + 1 = (x− i)(x+ i) .

(4.1.4) Lemma Division mit RestEs seien P und Q Polynome aus K[x] und Q 6= 0 . Dann gibt es eindeutig bestimmtePolynome T und R aus K[x] mit(i) P = TQ+R und(ii) R = 0 oder grad(R) < grad(Q) .

Beweis: (a) Existenz: Ist Q ein Teiler von P , so gibt es ein Polynom T mit P = TQ , und(i), (ii) ist erfullt mit R = 0 .Andernfalls ist P − TQ 6= 0 fur alle T ∈ K[x] . Die Menge {grad(P − TQ) | T ∈ K[x]} istalso eine nichtleere Teilmenge von N0 und hat daher ein Minimum m. Sei nun T ∈ K[x] sogewahlt, daß grad(P − TQ) = m gilt.

Page 137: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

134 4 POLYNOME VON ENDOMORPHISMEN

Es sei grad(Q) = k , also gilt Q(x) =∑k

i=0 αixi und (P −TQ)(x) =

∑mi=0 βix

i mit αk 6= 0und βm 6= 0 . Ware m ≥ k , so ware der Grad von

P (x)−(T (x)− βm

αkxm−k

)Q(x) =

(P − TQ

)(x)− βm

αkxm−kQ(x)

=m∑i=0

βixi −

k−1∑i=0

βmαkαix

i+m−k

︸ ︷︷ ︸Grad≤m−1

−βmxm

echt kleiner als m, ein Widerspruch zur Minimalitat von m. Also gilt grad(R) < grad(Q)fur R = P − TQ .(b) Eindeutigkeit: Es seien P = T1Q + R1 und P = T2Q + R2 zwei Zerlegungen, die (ii)erfullen. Es folgt R2 − R1 = (T1 − T2)Q und daher nach (4.1.1.c) grad(R2 − R1) =grad(T1− T2) + grad(Q) . Da nach Voraussetzung R1 und R2 beide einen kleineren Grad alsQ haben ist nach (4.1.1.a/b) auch der Grad von R2 − R1 echt kleiner als der Grad von Q,also muß der Grad von T1 − T2 negativ sein. Das geht nur fur T1 − T2 = 0 , und darausfolgt R2 −R1 = 0 . Somit erhalten wir T1 = T2 und R1 = R2 . �

Die irreduziblen Polynome haben in der Teilbarkeitslehre fur Polynome eine zentrale Bedeu-tung:

(4.1.5) Lemma(a) Es sei P ein irreduzibles Polynom. Ein Teiler T von P ist dann entweder konstant

oder hat die Form T = λP mit einem geeigneten λ ∈ K\{0} .(b) Es sei P ein irreduzibles Polynom, und seien F,G beliebige Polynome. Aus P | (FG)

folgt dann P | F oder P | G .(c) Es sei P ein irreduzibles und Q ein beliebiges Polynom. Gilt P | Qk fur ein k ∈ N ,

so ist P bereits ein Teiler von Q.

Beweis:

(a) Ist T ein Teiler von P , so gibt es ein Polynom Q mit P = TQ . Aus der Irreduzibilitatvon P folgt grad(T ) = 0 oder grad(Q) = 0 . Im ersten Fall ist T konstant, im zweitenFall ist Q = µ 6= 0 ein konstantes Polynom. Dann folgt T = µ−1P .

(b) Wir nehmen an, es sei P ein Teiler von FG , aber weder ein Teiler von F noch einTeiler von G, und das Gegebeispiel sei minimal in dem Sinne, daß F minimalen Gradhabe unter den Polynomen H mit der Eigenschaft P - H , P - G und P | HG .P 6= 0 , also kann man nach (4.1.4) das Polynom F mit Rest durch P teilen:

F = TP +R mit R = 0 oder grad(R) < grad(P ) .Wegen P - F muß R 6= 0 , also grad(R) < grad(P ) sein. Insbesondere gilt P - R .Weiter gilt RG = (F − TP )G = FG− TPG , also ist P ein Teiler von RG . Aus derMinimalitat von F folgt grad(F ) ≤ grad(R) < grad(P ) .Da das Nullpolynom von jedem anderen geteilt wird, muß auch F 6= 0 sein, und mankann P mit Rest durch F teilen und erhalt

P = SF + U mit U = 0 oder grad(U) < grad(F ) .Ware U = 0 , so ware nach (a) F ein konstantes Polynom oder F = λP mit einemλ ∈ K \{0} . Im ersten Fall ware dann P ein Teiler von G, im zweiten Fall P ein

Page 138: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

4.1 Polynome uber beliebigen Korpern und ihre Teilbarkeitseigenschaften 135

Teiler von F . Weil beides ausgeschlossen ist, ist U 6= 0 und grad(U) < grad(F ) .Andererseits gilt U = P − SF und daher UG = PG − SFG , also ist P ein Teilervon UG . Nun ist P wegen grad(U) < grad(F ) < grad(P ) und U 6= 0 kein Teilervon U . Somit ist schließlich UG auch ein Gegenbeispiel und grad(U) < grad(F ) imWiderspruch zur Minimalitat von F .

(c) Klar nach (b) und Induktion nach k. �

Eine naturliche Zahl kann (bis auf Reihenfolge) auf eindeutige Weise als ein Produkt vonendlich vielen Primzahlen geschrieben werden. Sind λ, µ ∈ K\{0} und P , Q zwei irreduziblePolynome uber K, so sind λP, λQ, µP, µQ wieder irreduzibel, und es gilt (λP ) · (µQ) =λµ(PQ) = (µQ) · (λP ) . Deshalb kann man eine eindeutige Zerlegung eines Polynoms inirreduzible Teiler nicht erwarten. Geht man aber uber zu normierten Polynomen durchWegdividieren der konstanten Faktoren, so erhalt man ein Analogon zur Primfaktorzerle-gung:

(4.1.6) Satz Jedes normierte Polynom P uber K kann (abgesehen von Reihenfolge) aufgenau eine Weise als Produkt endlich vieler normierter irreduzibler Polynome dargestelltwerden. Der Fall P = 1 ist durch das leere Produkt mit erfaßt.

Beweis: Induktion nach k = grad(P ) : Fur k = 1 ist die Aussage klar nach (4.1.3.2).Sei nun k ≥ 2 und die Behauptung schon bewiesen fur k − 1 . Entweder ist P irreduzibel,oder es gibt Polynome Q,R mit P = QR und grad(Q), grad(R) < k . Die Anwendung derInduktionsvoraussetzung auf Q und R liefert die Existenz einer Zerlegung von P in endlichviele normierte irreduzible Polynome.Eindeutigkeit: Es seien P = P1 · . . . · Pr = Q1 · . . . · Qs zwei Zerlegungen von P inirreduzible normierte Polynome. Nach (4.1.5.b) ist P1 ein Teiler eines der Polynome Qi.Nach einer geeigneten Umnumerierung der Qi ist P1 ein Teiler von von Q1. Nun ist aberauch Q1 irreduzibel, also ist wegen (4.1.5.b) P1 konstant oder P1 = λQ1 mit λ ∈ K\{0} .Da irreduzible Polynome nicht konstant sind, muß der zweite Fall eintreten, und wegen derNormierung von P1 und Q1 gilt λ = 1 , also P1 = Q1 . Die Kurzungsregel (4.1.2) liefertnun P2 · . . . · Pr = Q2 · . . . · Qs . Wegen grad(P1) ≥ 1 gilt grad(P2 · . . . · Pr) < k , undnach Induktionsvoraussetzung folgt r = s und die Eindeutigkeit der irreduziblen TeilerP2, . . . , Pr . �

Definition: ggT, kgV, teilerfremde PolynomeEs seien F,G Polynome 6= 0 uber demselben Korper K.

(a) Das Polynom T heißt ein großter gemeinsamer Teiler von F und G (geschriebenggT (F,G) ), wenn T ein gemeinsamer Teiler von F und von G ist, und wenn jederandere gemeinsame Teiler S von F und G ein Teiler von T ist.F und G heißen teilerfremd, wenn das konstante Polynom 1 ein großter gemeinsamerTeiler von F und G ist.

(b) Das Polynom K heißt kleinstes gemeinsames Vielfaches von F und G (geschriebenkgV (F,G) ), wenn K ein gemeinsames Vielfaches von F und von G ist, und wennjedes andere gemeinsame Vielfache H von F und G ein Vielfaches von T ist.

Induktiv definiert man ggT (F1, . . . , Fk) = ggT (ggT (F1, . . . , Fk−1), Fk) . Zum Beispiel mitHilfe von (4.1.7.b) kann man zeigen, daß die Bildung des großten gemeinsamen Teilers as-

Page 139: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

136 4 POLYNOME VON ENDOMORPHISMEN

soziativ ist, es also nicht auf die Reihenfolge ankommt, wie man den ggT von mehrerenPolynomen bildet. Analog wird das kgV von mehr als zwei Polynomen definiert.

(4.1.7) Satz Es seien F,G normierte Polynome uber K und P1, . . . , Pr die normiertenirreduziblen Polynome uber K, die mindestens eines der Polynome F,G teilen.

(a) Es gibt eindeutig bestimmte ganze Zahlen αi, βi ≥ 0 mit

F =r∏i=1

Pαii und G =

r∏i=1

P βii .

(b) Ist γi = min{αi, βi} und δi = max{αi, βi} fur alle Indizes i, und setzt man

T =r∏i=1

P γii und K =

r∏i=1

P δii ,

so ist T ein großter gemeinsamer Teiler und K ein kleinstes gemeinsames Vielfachesvon F und G.

(c) ggT (F,G) und kgV (F,G) sind bis auf einen konstanten Faktor 6= 0 eindeutig bestimmt.

Beweis:

(a) ist klar nach (4.1.6).(b) Offensichtlich ist T ein Teiler sowohl von F als auch von G. Sei nun S ein weiterer

gemeinsamer Teiler von F und G. Ist λ der fuhrende Koeffizient von S, so gilt S =λS∗ , wobei S∗ normiert und λ ∈ K\{0} ist. S∗ besitzt nach (4.1.6) eine ZerlegungS∗ = Q1 · . . . · Qs in normierte irreduzible Polynome. Jedes Qi ist ein Teiler vonF , kommt also in der Liste P1, . . . , Pr vor. Also konnen wir auch S∗ in der FormS∗ =

∏ri=1 P

εii mit ε ≥ 0 schreiben. Da S∗ ein Teiler von F ist, folgt aus (4.1.5.b)

und der Kurzungsregel εi ≤ αi fur alle Indizes i. Analog folgt εi ≤ βi fur alle Indizesi. Damit ist aber S∗ und dann auch S ein Teiler von T . Der Beweis fur K geht analog.

(c) Sind T1, T2 zwei großte gemeinsame Teiler von F und G, so gilt T1 | T2 und T2 |T1 . Also gibt es Polynome R und S mit T2 = T1R und T1 = T2S . Daraus folgtT1 = T1RS . Wegen F,G 6= 0 ist auch T1 6= 0 . Somit ist wegen der Gradregel RSein konstantes Polynom 6= 0 . Nochmals wegen der Gradregel ist dann auch R einkonstantes Polynom 6= 0 . Der Beweis fur das kleinste gemeinsame Vielfache geht wiederanalog. �

Spricht man von dem großten gemeinsamen Teiler von F und G, so meint man den nach(4.1.7.c) eindeutig bestimmten normierten ggT von F und G.Die Berechnung des ggT nach (4.1.7.b) scheitert in der Regel daran, daß man die Zerle-gung der Polynome F,G in irreduzible Faktoren nicht kennt, und diese Zerlegung meistensauch nicht leicht zu erkennen ist. Der nachste Satz gibt dagegen einen Algorithmus zurBestimmung des ggT an, der auf die Primfaktorzerlegung von F und G verzichtet:

(4.1.8) Satz Euklidischer Algorithmus, ggT zweier Polynome

Page 140: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

4.1 Polynome uber beliebigen Korpern und ihre Teilbarkeitseigenschaften 137

Es seien F,G Polynome 6= 0 .

1.Schritt: F = S1G+R1 mit R1 = 0 oder grad(R1) < grad(G)2.Schritt: G = S2R1 +R2 mit R2 = 0 oder grad(R2) < grad(R1)

...i-ter Schritt: Ri−2 = SiRi−1 +Ri mit Ri = 0 oder grad(Ri) < grad(G)(i+ 1)-ter Schritt: Ri−1 = SiRi

Bei der sukzessiven Division mit Rest nach obigem Schema verringert sich bei jedem Schrittder Grad des Restes Ri, bis zum ersten Mal der Rest Ri+1 = 0 auftaucht. Da die Grade allerReste kleiner als grad(G) sind, muß dieser Fall nach endlich vielen Schritten eintreten. Esgilt:

(a) Das Polynom T = Ri (also der letzte Rest 6= 0) ist ein ggT von F und G.Im Fall R1 = 0 gilt diese Aussage fur i = 0 .

(b) Es gibt Polynome Q1 und Q2 mit T = Q1F +Q2G .Insbesondere gilt: Sind F und G teilerfremd, so gibt es Polynome Q1 und Q2 mitQ1F +Q2G = 1 .

Beweis:

(a) Nach der (i+ 1)-ten Gleichung ist Ri ein Teiler von Ri−1. Nach der i-ten Gleichung istdann Ri auch ein Teiler von Ri−2. Induktion nach i zeigt, daß Ri ein Teiler von allenRj , 1 ≤ j ≤ i, und schließlich wegen der ersten beiden Gleichungen auch von G undF ist.Sei umgekehrt T ein gemeinsamer Teiler von F und G. Wegen R1 = F −S1G ist dannT auch ein Teiler von R1. Geht man nun die Gleichungskette von oben nach untendurch, so findet man T | Rj fur alle 1 ≤ j ≤ i . Daher ist Ri ein großter gemeinsamerTeiler von F und G.

(b) Es gilt Ri = Ri−2−SiRi−1 und Ri−1 = Ri−3−Si−1Ri−2 , also Ri = Ri−2(1−Si−1)−SiRi−3 . Wieder kann man sukzessive die Gleichungen von unten nach oben durchgehenund findet fur alle 1 ≤ j ≤ i− 2 Polynome Hj, Kj mit Ri = HjRi−j −KjRi−j−1 unddann mit Hilfe der beiden ersten Gleichungen schließlich die Polynome Q1 und Q2. �

Aus (4.1.7,b) erhalt man eine einfache Beziehung zwischen dem ggT und dem kgV zweierPolynome. Daher kann man den Euklidischen Algorithmus auch zur Berechnung des kgVbenutzen.

(4.1.9) Korollar ggT und kgV zweier PolynomeFur Polynome F,G 6= 0 kann man mit dem Euklidischen Algorithmus einen großten gemein-samen Teiler T berechnen.Dann ist K = (F ·G)/T ein kleinstes gemeinsames Vielfaches von F und G.

Nun ist klar, wie man sich einen Algorithmus fur die Berechnung von ggT und kgV von zweiPolynomen aufschreiben kann. Dieser ist naturlich in vielen Programmpaketen implemen-tiert, beispielsweise auch in mathematica (s. Abschnitt 16.2). Das kgV mehrerer PolynomeF1, . . . , Fk berechnet man induktiv mit

K1 = F1 , Kj+1 = kgV(Kj, Fj+1) fur alle 1 ≤ j ≤ k − 1 , kgV(F1, . . . , Fk) = Kk .

Page 141: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

138 4 POLYNOME VON ENDOMORPHISMEN

(4.1.10) Beispiel ggT und kgV von zwei PolynomenGegeben seien die beiden reellen Polynome

F (x) = x5 − 5x4 − 8x3 + 44x2 + 32x− 64 und G(x) = x3 − 2x2 − 7x− 4 .

Die Division mit Rest verlauft so wie die aus der Schule bekannte Polynomdivision:1.Schritt des Euklidischen Algorithmus:

x5 − 5x4 − 8x3 + 44x2 + 32x− 64 : x3 − 2x2 − 7x− 4 = x2 − 3x− 7x5 − 2x4 − 7x3 − 4x2 Rest 13x2 − 29x− 92−3x4 − x3 + 48x2 + 32x− 64−3x4 + 6x3 + 21x2 + 12x

−7x3 + 27x2 + 20x− 64−7x3 + 14x2 + 49x+ 28

13x2 − 29x− 92

2.Schritt des Euklidischen Algorithmus:

x3 − 2x2 − 7x − 4 : 13x2 − 29x− 92 = 1/13x+ 3/(132)x3 − 29/13x2 − 92/13x Rest 100/(132)(x− 4)

3/13x2 + 1/13x − 52/133/13x2 + 87/(132)x− 276/(132)

100/(132)x− 400/(132)

3.Schritt des Euklidischen Algorithmus:

13x2 − 29x− 92 : 100132x− 400

132 = 133

100x+ 23·132

100 Rest 013x2 − 52x

23x− 9223x− 92

Ein ggT von F und G ist also der vorletzte Rest 100/(132)(x− 4) . Der normierte ggT ist folglichT = x− 4 . Das kgV von F und G ergibt sich zu

K = (F/T ) ·G = (x4 − x3 − 12x2 − 4x+ 16)(x3 − 2x2 − 7x− 4)= x7 − 3x6 − 17x5 + 23x4 + 112x3 + 44x2 − 96x− 64 .

F (x) = (x−1)(x+2)2(x−4)2 und G(x) = (x+1)2(x−4) sind ubrigens die Primfaktorzerlegungenvon F und G.

Literatur: Die Eigenschaften von Polynomringen, insbesondere die Teilbarkeitseigenschaf-ten von Polynomen uber Korpern oder von ganzzahligen Polynomen, werden in der Algebrabehandelt. Diese Theorie findet man in jedem Lehrbuch uber Algebra. Stellvertretend seienhier nur genannt [Mey], Abschnitt 3.6 und 4.1 - 4.3, sowie und [Jac], Abschnitt 2.10 und2.11.

4.2 Ganzzahlige Polynome und Irreduzibilitatkriterien

Im vorhergehenden Abschnitt haben wir stets Polynome P ∈ K[x], also Polynome mitKoeffizienten aus einem Korper K, betrachtet. Oft hat aber ein Polynom P ∈ R[x] oder

Page 142: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

4.2 Ganzzahlige Polynome und Irreduzibilitatkriterien 139

Q[x] die Eigenschaft, daß alle Koeffizienten schon in Z liegen. Da Z zwar ein Ring, aberkein Korper ist, stellt sich die Frage, welche Ergebnisse aus Abschnitt 4.1 sich auf denPolynomring Z[x] ubertragen lassen. Wegen des begrenzten Rahmens dieser einfuhrendenDarstellung kann dieses Thema in keiner Weise erschopfend behandelt werden. Weil aber imFolgenden ganzzahlige Polynome eine wichtige Rolle spielen werden16 und in ihre irreduziblenTeiler zerlegt werden mussen, werden in diesem Abschnitt einige wichtige Satze angegeben,zum Teil ohne Beweis.

Ist R ein kommutativer Ring mit Eins ohne Nullteiler17, so nennen wir ein nicht-konstantesPolynom P ∈ R[x] irreduzibel, wenn fur jede Zerlegung P = QT mit Polynomen Q, T ∈ R[x]gilt: Q oder T ist ein konstantes Polynom α0, wobei α0 eine Einheit in R ist.In einem Korper K sind alle Elemente α ∈ K \{0} Einheiten. Daher ist ein nicht-konstantesPolynom P ∈ K[x] genau dann irreduzibel, wenn in jeder Zerlegung P = QT mitQ, T ∈ K[x]Q oder T konstant ist. Dieser konstante Faktor kann nicht 0 sein, weil nach VoraussetzungP nicht konstant, also insbesondere nicht konstant 0 ist.In Z haben wir nur die beiden Einheiten 1 und −1. Also ist ein nicht-konstantes PolynomP ∈ Z[x] genau dann irreduzibel, wenn in jeder Zerlegung P = QT mit Q, T ∈ Z[x] einerder beiden Faktoren gleich 1 oder −1 ist.

(4.2.1) Lemma Division mit Rest(a) Die Division mit Rest funktioniert in Z[x] nicht immer.(b) Sind P,Q ∈ Z[x] und Q normiert18, so gibt es eindeutig bestimmte Polynome T,R ∈

Z[x] mit P = TQ+R und R = 0 oder grad(R) < grad(T ).

Beweis:

(a) Wir konnen etwa P = x,Q = 2x ∈ Z[x] wahlen. Die Division von P durch Q mit Restuber dem Korper Q ergibt P = 1

2Q + 0 . Nach (4.1.4) sind die Polynome T = 1

2und

R = 0 in Q[x] eindeutig bestimmt. Also kann man kein T ∈ Z[x] finden, so daß dieBedingungen (i) und (ii) von (4.1.4) erfullt sind.

(b) Hier konnen wir den Beweis von (4.1.4) wortlich abschreiben, indem wir verwenden,daß Q den fuhrenden Koeffizienten αk = 1 hat. Daher ist das Polynom

(P − TQ)(x)− βmαkxm−kQ(x)

wieder ganzzahlig. �

Das Lemma (4.1.5) konnen wir mit folgender Prazisierung ubernehmen (vgl. (4.1.5.a)):

(4.2.2) Lemma Es sei P ∈ Z[x] normiert und irreduzibel. Fur jeden Teiler T ∈ Z[x] vonP gilt dann T ∈ {1,−1, P,−P}.

Beweis: Nach Voraussetzung gibt es ein Polynom Q ∈ Z[x] mit P = TQ. Wegen derIrreduzibilitat von P haben wir Q ∈ {1,−1} oder T ∈ {1,−1}. �

Mit diesen Hilfssatzen erhalten wir das Analogon zu (4.1.6):

16beispielsweise als Minimalpolynom oder charakteristisches Polynom einer linearen Abbildung17Zu den Begriffen aus der Ringtheorie s. Abschnitt 15.2.18zur Erinnerung: Q heißt normiert, wenn es den fuhrenden Koeffizienten 1 hat

Page 143: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

140 4 POLYNOME VON ENDOMORPHISMEN

(4.2.3 ) Satz Jedes normierte Polynom P ∈ Z[x] kann (bis auf eine Anderung derReihenfolge) auf genau eine Weise als Produkt endlich vieler normierter irreduzibler Po-lynome aus Z[x] dargestellt werden.

Genau wie in (4.1.7) findet man dann den großten gemeinsamen Teiler und das kleinstegemeinsame Vielfache zweier normierter Polynome in Z[x].

Da es mehr rationale Polynome gibt als ganzzahlige, konnte es sein, daß ein in Z[x] irredu-zibles Polynom P ∈ Z[x] vielleicht eine Zerlegung P = QT mit nichttrivialen PolynomenQ, T ∈ Q[x] hat. Daß dies nicht passieren kann, ist ein wichtiger Satz und hilft bei derIrreduzibilitatsprufung von Polynomen in Q[x].

(4.2.4) Satz (Kriterium von Gauß)Ein normiertes, nichtkonstantes Polynom P ∈ Z[x] ist irreduzibel in Q[x] genau dann, wennes irreduzibel in Z[x] ist.

(4.2.5) Beispiel Es sei P = x3− 2 ∈ Q[x]. Ware P irreduzibel in Q[x], so auch in Z[x]. Nachder Primfaktorzerlegung (4.2.3) und der Gradregel (4.1.1) hatte dann P eine Zerlegung

P (x) = x3 − 2 = (x+ a)(x2 + bx+ c) mit a, b, c ∈ Z .

Der Koeffizientenvergleich liefert a+ b = ab+ c = 0 und ac = −2. Nun ist a ein Teiler von 2, alsoa ∈ {1,−1, 2,−2} , und wegen c = −ab = −a2 folgt ac ∈ {1,−1, 8,−8} , ein Widerspruch.Man sieht hier, welchen Vorteil das Rechnen in Z[x] bietet: Aus der Gleichung ac = −2 erhalt man,daß a nur vier mogliche Werte annehmen kann. Dagegen hat dieselbe Gleichung unendlich vieleLosungen a ∈ Q.

(4.2.6) Satz (Kriterium von Eisenstein)Es sei p eine Primzahl und P = xn + αn−1x

n−1 + . . . + α1x + α0 ∈ Z[x] ein normiertesPolynom, so daß alle Koeffizienten α0, . . . , αn−1 durch p, aber der konstante Koeffizient α0

nicht durch p2 teilbar ist.Dann ist P irreduzibel in Z[x] (und damit nach Satz (4.2.4) auch irreduzibel in Q[x]).

(4.2.7) Beispiel In Q[x] gibt es irreduzible Polynome beliebigen Grades n > 1, etwa xn − 2.

(4.2.8) Satz (Einsetzungskriterium)Es sei P ∈ Z[x] ein nichtkonstantes Polynom und a ∈ Z beliebig. Genau dann ist P (x) inZ[x] irreduzibel, wenn P (x+ a) irreduzibel in Z[x] ist.

(4.2.9) Beispiel Fur jede Primzahl p ist das Polynom P (x) = xp−1 +xp−2 + . . .+x+1 ∈ Z[x]irreduzibel in Z[x]:Wir haben (x− 1) · P (x) = xp − 1 also durch Substitution

x · P (x+ 1) = (x+ 1)p − 1 = xp +(p

1

)xp−1 +

(p

2

)xp−2 . . .+

(p

p− 1

)x+ 1− 1

= x · (xp−1 +(p

1

)xp−2 +

(p

2

)xp−3 . . .+

(p

p− 1

)) .

Da die Binomialkoeffizienten(pk

)fur 1 ≤ k ≤ p − 1 alle durch p teilbar sind, und

(pp−1

)= p nicht

durch p2 teilbar ist, ist das Polynom P (x+ 1) irreduzibel nach dem Kriterium von Eisenstein, alsoP (x) irreduzibel nach (4.2.8).

Page 144: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

4.3 Polynome von Endomorphismen 141

Im Unterschied zu 4.2.7 gilt:

(4.2.10) Satz Fundamentalsatz der Algebra(a) Jedes irreduzible Polynom in C[x] hat den Grad 1.(b) Jedes irreduzible Polynom in R[x] hat den Grad 1 oder 2.

4.3 Polynome von Endomorphismen

Nun wollen wir wie zu Beginn von Abschnitt 2.7 Polynome auf Endomorphismen bzw. aufdie zugehorigen Matrizen anwenden.

(4.3.1) Beispiele Polynome von Endomorphismen

1. Es sei ϕ ein Endomorphismus von V und P (x) = xk . Dann ist P (ϕ) = ϕk die in Abschnitt2.7 definierte Abbildung.

2. Sei V = R2 und ϕ der bezuglich der kanonischen Basis durch A =

(1 23 4

)dargestellte

Endomorphismus von V . Sei P (x) = x2 − 5x+ 3 . Dann hat P (ϕ) die Koeffizientenmatrix

P (A) = A2 − 5A+ 3E =(

7 1015 22

)−(

5 1015 20

)+(

3 00 3

)=(

5 00 5

).

3. Der Endomorphismus ϕ von V werde bezuglich der Basis B dargestellt durch die Diagonal-matrix A = diag(a1, . . . , an) . Sei P ein Polynom uber K. Dann hat P (ϕ) die Koeffizien-tenmatrix P (A) = diag(P (a1), . . . , P (an)) .Wie aber Beispiel 2 zeigt, erhalt man im allgemeinen den (i, j)-ten Eintrag von P (A) nichteinfach dadurch, daß man P auf den (i, j)-ten Eintrag a1,1 von A anwendet! Dort ist namlichder (1, 1)-te Eintrag von P (A) gleich 5, aber P (a1,1) = 1− 5 + 3 = −1 .

4. Sei ϕ eine Projektion von V (siehe (2.7.7)). Dann gilt ϕ2 = ϕ , also P (ϕ) = 0 fur dasPolynom P (x) = x2 − x . Man beachte, daß die ”0“ in der Gleichung P (ϕ) = 0 dieNullabbildung bezeichnet.

Die folgenden einfachen Argumente benutzen werden wir haufig benutzen:

(4.3.2 ) Lemma Es sei ϕ ein Endomorphismus von V und P,Q Polynome uber demSkalarenkorper K von V .

(a) Es gilt P (ϕ) ◦ Q(ϕ) = PQ(ϕ) . Insbesondere sind die Endomorphismen P (ϕ) undQ(ϕ) vertauschbar.

(b) Jeder ϕ-invariante Unterraum U von V ist auch P (ϕ)-invariant.(c) Bild

(P (ϕ)

)und Kern

(P (ϕ)

)sind ϕ-invariant.

(d) Ist V = U1 ⊕ . . . ⊕ Un eine direkte Zerlegung von V in ϕ-invariante Unterraume Ui,so gilt Kern

(P (ϕ)

)=(U1 ∩KernP (ϕ)

)⊕ . . .⊕

(Un ∩KernP (ϕ)

).

(e) Ist P ein Teiler von Q, so gilt Kern((P (ϕ)

)⊆ Kern(

(Q(ϕ)

).

(f) Ist v ∈ Kern((P (ϕ)

), so liegt auch Q(ϕ)v in Kern(

(P (ϕ)

).

Page 145: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

142 4 POLYNOME VON ENDOMORPHISMEN

Beweis: (a) rechnet man nach mit der Produktregel fur Polynome. (b) zeigt man erst perInduktion nach k fur die Potenzen ϕk . Dann ist die Aussage klar wegen der Unterraumei-genschaft von U . (c) folgt aus (a), angewendet auf das Polynom Q(x) = x . (d) ist klar nach(b) und (2.5.6). (e) Ist P ein Teiler von Q, so gibt es ein Polynom R mit Q = RP . DieBehauptung folgt dann aus Q(ϕ)v = R(ϕ)

(P (ϕ)v) .

(f) P (ϕ)(Q(ϕ)v

)= PQ(ϕ)v = QP (ϕ)v = Q(ϕ)

(P (ϕ)v

). �

(4.3.3) Lemma Es sei ϕ ein Endomorphismus von V und F1, . . . , Fk Polynome uber demSkalarenkorper K von V . Weiter sei T = ggT (F1, . . . Fk) sowie K = kgV (F1, . . . Fk) .

(a) Kern(T (ϕ)

)= Kern

(F1(ϕ)

)∩ . . . ∩Kern

(Fk(ϕ)

);

(b) Kern(K(ϕ)

)= Kern

(F1(ϕ)

)+ . . .+ Kern

(Fk(ϕ)

).

Beweis: Wegen der Assoziativitat des ggT und des kgV reicht es, die Behauptungen furden Fall k = 2 zu beweisen.

(a) Nach (4.1.3.b) gibt es Polynome Q1, Q2 mit T = Q1F1 +Q2F2 . Also folgtKern

(F1(ϕ)

)∩Kern

(F2(ϕ)

)⊆ Kern

(T (ϕ)

).

Andererseits ist T ein gemeinsamer Teiler von F1 und F2. Daher gibt es PolynomeR1, R2 mit F1 = R1T und F2 = R2T . Dies liefert die umgekehrte Inklusion.

(b) Da K ein Vielfaches sowohl von F1 als auch von F2 ist, finden wir Polynome S1, S2

mit K = S1F1 und K = S2F2 . Daraus folgt

Kern(F1(ϕ)

)+ Kern

(F2(ϕ)

)⊆ Kern

(K(ϕ)

).

Fur die umgekehrte Inklusion reduzieren wir das Problem auf den Fall, daß F1 und F2

teilerfremd sind: Es gilt F1 = R1T und F2 = R2T (siehe (a)). Daher folgt

K = kgV (F1, F2) = kgV (TR1, TR2) = kgV (TR1, R2) ,

wobei TR1 und R2 teilerfremd sind und nach (4.3.2.d) Kern(R2(ϕ)

)⊆ Kern

(F2(ϕ)

)gilt. Also konnen wir ohne Einschrankung annehmen, daß F1 und F2 teilerfremd sind.Nun gibt es Polynome Q1, Q2 mit 1 = F1Q1 + F2Q2 . Damit folgt

V = Bild(F1(ϕ)

)+ Bild

(F2(ϕ)

).

Nehmen wir einen Vektor v ∈ Kern(K(ϕ)

), so gilt

o = K(ϕ)v = F1(ϕ)F2(ϕ)v = F2(ϕ)F1(ϕ)v .

Damit liegt aber F2(ϕ)v in Kern(F1(ϕ)

)und F1(ϕ)v in Kern

(F2(ϕ)

). Daher gilt

nach (4.3.2.e):

v = Q1(ϕ) F1(ϕ)v︸ ︷︷ ︸∈Kern

(F2(ϕ)

) + Q2(ϕ) F2(ϕ)v︸ ︷︷ ︸∈Kern

(F1(ϕ)

) ∈ Kern(F1(ϕ)

)+ Kern

(F2(ϕ)

). �

Aus (4.3.3.a) erhalten wir insbesondere

(4.3.4 ) Korollar Es sei ϕ ein Endomorphismus von V und P,Q zwei Polynome mitP (ϕ) = Q(ϕ) = 0 . Sei T der großte gemeinsame Teiler von P und Q. Dann gilt auchT (ϕ) = 0 .

Page 146: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

143

5 Endomorphismen endlichdimensionaler Vektorraume

Generelle Voraussetzung: Sofern nichts anderes angegeben ist, sei ϕ ein Endomorphis-mus19 des endlich-dimensionalen Vektorraums V uber dem Korper K.

5.1 Das Minimalpolynom

Es sei ϕ ein Endomorphismus von V , beschrieben (bezuglich einer fest gewahlten Basis)durch die Matrix A. Der Vektorraum der (n × n)-Matrizen uber K hat die Dimension n2,also sind die n2 + 1 Matrizen A0 = E , A , A2 , . . . , An

2linear abhangig. Das heißt: Es

gibt Korperelemente α0, . . . , αn2 mit α0E + α1A + . . .+ αn2An2

= 0 . Definieren wir dasPolynom P (x) = α0 + α1x + . . .+ αn2xn

2, so folgt P (A) = 0 . Damit erhalten wir

(5.1.1) Lemma Zu jedem Endomorphismus ϕ des endlich-dimensionalen Vektorraums Vexistiert ein Polynom P 6= 0 mit grad(P ) ≤ (dim(V ))2 , so daß P (ϕ) die Nullabbildungauf V ist.

Ein Polynom P mit P (ϕ) = 0 heißt annullierendes Polynom fur ϕ.

(5.1.2) Satz und Definition des MinimalpolynomsEs sei ϕ ein Endomorphismus des endlich-dimensionalen Vektorraums V . Dann gibt esgenau ein normiertes Polynom M 6= 0 kleinsten Grades mit M(ϕ) = 0 . Das Polynom Mheißt Minimalpolynom von ϕ und hat den Grad hochstens n2.

Beweis: Die Behauptung uber die Eindeutigkeit des Minimalpolynoms ist klar nach (4.3.4):Gabe es zwei verschiedene normierte annullierende Polynome kleinsten Grades, so hatte ihrgroßter gemeinsamer Teiler einen echt kleineren Grad und wurde trotzdem die Abbildung ϕannullieren, ein Widerspruch. �

Die Voraussetzung dim(V ) < ∞ wurde – trotz der generellen Voraussetzung – in (5.1.2)noch einmal erwahnt, weil ohne sie der Satz falsch wurde. In (5.1.7) wird ein Gegenbeispielvorgestellt.Das Minimalpolynom hat unter den Polynomen, die die Abbildung ϕ annullieren, nicht nurden kleinsten Grad, sondern es teilt sogar alle diese Polynome:

(5.1.3) Satz Es sei ϕ ein Endomorphismus von V . Weiter sei M das Minimalpolynomvon ϕ und und P irgendein Polynom, das ϕ annulliert. Dann ist M ein Teiler von P .

Beweis: Wegen M 6= 0 gibt es nach dem Euklidischen Algorithmus ein Polynom S undein Polynom R mit R = 0 oder grad(R) < grad(M) , so daß P = SM + R . Das Poly-nom R = P − SM annulliert nun ebenfalls ϕ und kann wegen der Minimaleigenschaft desMinimalpolynoms nur das Nullpolynom sein. Damit gilt P = SM . �

Hat ϕ das lineare Minimalpolyom M(x) = x−λ , so ist ϕ−λ · idV die Nullabbildung. Dieseeinfache Feststellung liefert das folgende Lemma:

Page 147: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

144 5 ENDOMORPHISMEN ENDLICHDIMENSIONALER VEKTORRAUME

(5.1.4) Lemma Endomorphismen mit linearem MinimalpolynomEin Endomorphismus ϕ hat genau dann das lineare Minimalpolynom M(x) = x− λ ,wenn ϕ = ϕλ die Homothetie mit dem Streckungsfaktor λ ist.Fur Matrizen bedeutet dies: Das Minimalpolynom von A ist genau dann gleich M(x) = x−λ ,wenn A = diag(λ, . . . , λ) ist.

(5.1.5) Beispiel Minimalpolynom von (1× 1)- und (2× 2)-MatrizenDie (1× 1)-Matrix (a) hat offensichtlich das Minimalpolynom M(x) = x− a .

Sei nun A =(a bc d

). Dann gilt

A2 =(

a2 + cb (a+ d)b(a+ d)c cb+ d2

)und A2 − (a+ d)A− (cb− ad)E =

(0 00 0

).

Nach (5.1.3) ist also das Minimalpolynom M von A ein Teiler des quadratischen PolynomsL(x) = x2 − (a+ d)x− (cb− ad) . Ist M ein echter Teiler von L, so ist M linear, also nach (5.1.4)die Matrix A ein Vielfaches der Einheitsmatrix. In allen anderen Fallen ist L das Minimalpolynomvon A. Wir fassen zusammen:

M(x) ={x− d falls b = c = a− d = 0x2 − (a+ d)x− (cb− ad) sonst .

Das Minimalpolynom eines Endomorphismus eines 2-dimensionalen Vektorraums hat alsosogar den Grad hochstens 2 und nicht 22 = 4 . In (5.4.4) werden wir zeigen, daß allgemeinder Grad des Minimalpolynoms nicht großer werden kann als die Dimension des Vektorraums.

(5.1.6) Satz Es sei ϕ ein Endomorphismus des Vektorraums V mit Minimalpolynom M .Ein normiertes Polynom P ist genau dann ein Teiler von M , wenn es einen ϕ-invariantenUnterraum U von V gibt, so daß die Einschrankung ϕ|U das Minimalpolynom P hat.

Beweis: Wir haben zwei Richtungen zu zeigen.(i) Ist P ein Teiler von M , so gibt es ein Polynom R mit M = PR . Der UnterraumU = R(ϕ)V ist ein ϕ-invarianter Unterraum von V . Fur jedes u ∈ U gibt es ein v ∈ Vmit u = R(ϕ)v , also P (ϕ)u = P (ϕ)R(ϕ)v = M(ϕ)v = o . Das Polynom P annulliert alsodie Einschrankung ϕ|U .Angenommen, P hat nicht minimalen Grad. Dann gibt es einen echten Teiler T von P ,so daß bereits T (ϕ) die Nullabbildung auf U ist. Fur beliebiges v ∈ V gilt R(ϕ)v ∈U , also T (ϕ)R(ϕ)v = o . Nun ist also schon TR(ϕ) die Nullabbildung auf ganz V undhat echt kleineren Grad als das Minimalpolynom M , ein Widerspruch. Damit ist P dasMinimalpolynom von ϕ|U .(ii) Die Einschrankung ϕ|U habe das Minimalpolynom P . Das Polynom M annulliertnaturlich ebenfalls die Abbildung ϕ|U , ist also nach (5.1.3) ein Vielfaches von P . �

(5.1.7) Beispiel Ist V = R[x] und δ : V → V die Differentiation, so besitzt δ kein annullie-rendes Polynom.Die Unterraume Un = Rn[x] (Raum aller reellen Polynome vom Grad hochstens n) sind offensicht-lich alle δ-invariant. Fur jedes Polynom P ∈ Un gilt δn+1(P ) = 0 . Also ist xn+1 ein annullierendesPolynom fur die Einschrankung δ|Un , und das Minimalpolynom Mn von δ|Un ist ein Teiler von

Page 148: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

5.2 ϕ-zyklische Unterraume 145

xn+1, also eine Potenz xk mit k ≤ n+ 1 . (Mn existiert, da Un endliche Dimension hat.) Anderer-seits ist δn(xn) = n! 6= 0 . Also folgt Mn(x) = xn+1 .Hatte nun δ ein annullierendes Polynom M , so ware nach (5.1.6) xn fur alle n ∈ N ein Teiler vonM , ein Widerspruch gegen die Gradregel.

Man sieht also, daß die Teiler des Minimalpolynoms ihrerseits Minimalpolynome von Ein-schrankungen des Endomorphismus auf geeignete Unterraume sind. Die Betrachtung vonlinearen Teilern des Minimalpolynoms liefert noch einen Zusammenhang zwischen dem Mi-nimalpolynom und den Eigenwerten von ϕ, der es gestattet, Eigenwerte zu berechnen:

(5.1.8) Satz Zusammenhang zwischen Minimalpolynom und EigenwertenEs sei ϕ ein Endomorphismus des Vektorraums V mit Minimalpolynom M . Die Nullstellenvon M sind genau die Eigenwerte von ϕ.

Beweis: Der Skalar λ ist genau dann eine Nullstelle vonM , wenn das Polynom P (x) = x−λein Teiler von M ist. Dies ist nach (5.1.6) genau dann der Fall, wenn es einen ϕ-invariantenUnterraum U von V gibt, so daß P das Minimalpolynom von ϕ|U ist, das heißt, daß gilt:ϕ|U = (λ · id)|U . Dies wiederum bedeutet, daß alle Vektoren u ∈ U\{o} Eigenvektoren vonϕ zum Eigenwert λ sind. �

Da der einzige Endomorphismus des trivialen Vektorraums {o} das Minimalpolynom 1 hat,kann im Beweis von (5.1.8) nicht der Fall U = {o} eintreten.

5.2 ϕ-zyklische Unterraume

Ist ein Vektor v 6= o vorgegeben, so spielt haufig der von v und den iterierten Bildernϕ(v), ϕ2(v), . . . erzeugte Unterraum eine Rolle:

(5.2.1) Lemma Es sei ϕ ein Endomorphismus von V und v ∈ V \{o} . Sei k minimalmit der Eigenschaft, daß die Menge {v, ϕ(v), . . . , ϕk(v)} linear abhangig ist.Dann ist U = 〈v, ϕv, . . . , ϕk−1(v)〉 ein Unterraum der Dimension k von V mit ϕ(U) ⊆ U .

Beweis: Es ist zu zeigen, daß ϕ(x) ∈ U gilt fur alle Elemente eines Erzeugendensystemsvon U . Dies gilt offensichtlich fur die Elemente v , ϕ(v) , . . . , ϕk−2(v) . Wegen der Mini-maleigenschaft von k liegt ϕk(v) im Erzeugnis der vorhergehenden Vektoren, also in U .Damit gilt aber auch ϕ

(ϕk−1(v)

)= ϕk(v) ∈ U . Also folgt ϕ(U) ⊆ U . Da das angegebene

Erzeugendensystem von U linear unabhangig ist, hat U die Dimension k. �

Definition: ϕ-zyklischer UnterraumEin Unterraum der Form Uv = 〈v, ϕ(v), . . . , ϕk−1(v)〉 aus (5.2.1) heißtϕ-zyklisch. Das Element v heißt Erzeuger von Uv.

Man muß gut unterscheiden zwischen dem von v ∈ V \{o} erzeugten Unterraum 〈v〉 unddem von v erzeugten ϕ-zyklischen Unterraum Uv ! Es gilt naturlich immer 〈v〉 ⊆ Uv , aberwahrend 〈v〉 immer die Dimension 1 hat, kann die Dimension von Uv großer werden, wie diefolgenden Beispiele zeigen.

Page 149: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

146 5 ENDOMORPHISMEN ENDLICHDIMENSIONALER VEKTORRAUME

(5.2.2) Beispiele ϕ-zyklische Unterraume

1. Es sei v ∈ V \{o} ein Eigenvektor des Endomorphismus ϕ von V . Dann ist 〈v〉 ein eindimen-sionaler ϕ-zyklischer Unterraum von V . Umgekehrt ist jeder Erzeuger eines eindimensionalenϕ-zyklischen Unterraums ein Eigenvektor von ϕ.

2. Es sei A =

1 0 00 1 00 0 0

uber einem beliebigen Korper K.

Die Standard-Einheitsvektoren e1, e2, e3 sind offensichtlich Eigenvektoren von A. Also sindUe1 = 〈e1〉 , Ue2 = 〈e2〉 , Ue2 = 〈e3〉 eindimensionale A-zyklische Unterraume von V .Sei v = (0, 1, 1)T . Dann folgt Av = A2v = e2 , und Uv = 〈v, e2〉 ist ein A-zyklischerUnterraum der Dimension 2 von V .Jedoch ist V selbst kein A-zyklischer Unterraum von V :Angenommen, V sei ein A-zyklischer Unterraum mit Erzeuger (a, b, c)T . Wir erhalten Av =A2v = (a, b, 0)T , und Uv = 〈v,Av〉 hat hochstens die Dimension 2.

3. Es sei B =

0 1 00 0 10 0 0

uber einem beliebigen Korper K.

Wahlen wir v = e3 , so erhalten wir Bv = e2 und B2v = Be2 = e1 . Es folgt Uv =〈v,Bv,B2v〉 = 〈e3, e2, e1〉 = V . In diesem Fall ist also V selbst ein B-zyklischer Unterraum.

(5.2.3) Lemma Es sei U ein ϕ-zyklischer Unterraum der Dimension k von V . Dann hatdas Minimalpolynom der Einschrankung ϕ|U den Grad k.

Beweis: Wir zeigen zuerst, daß es ein normiertes Polynom P vom Grad k gibt, das dieAbbildung ϕ|U annulliert:Laut Definition besitzt U ein Basis (v, ϕ(v), . . . , ϕk−1(v)) , und die Menge{v, ϕ(v), . . . , ϕk(v)} ist linear abhangig. Es gibt also Skalare α0, . . . , αk ∈ K mit

o = α0v + α1ϕ(v) + . . .+ αk−1ϕk−1(v) + αkϕ

k(v) . (1)

Wegen der linearen Unabhangigkeit der Menge {v, ϕ(v), . . . , ϕk−1(v)} kann der letzte Koef-fizient αk nicht 0 sein. Wir setzen βi := αi

αk und P (x) = β0 +β1x+ . . . βk−1xk−1 +xk . Dann

ist P ein normiertes Polynom vom Grad k. Dividieren wir die Gleichung (1) durch αk , sosehen wir

(P (ϕ)

)(v) = o .

Es bleibt noch zu zeigen, daß P (ϕ) auch die anderen Vektoren w ∈ U annulliert. Dazuwahlen wir ein beliebiges w = γ0v + γ1ϕ(v) + . . .+ γk−1ϕ

k−1(v) ∈ U . Da die AbbildungenP (ϕ) und ϕi fur jeden Exponenten i vertauschbar sind (s. (4.3.2.a)), folgt(

P (ϕ))(w) = γ0

(P (ϕ)

)(v) + γ1ϕ

(P (ϕ)

)(v) + . . .+ γk−1ϕ

k−1ϕ(P (ϕ)

)(v) = o .

Nach (5.1.3) ist das Minimalpolynom Mϕ|U ein Teiler von P , hat also den Grad hochstensk. Ware aber Mϕ|U = xm + αm−1x

m−1 + . . . + α0 mit m < k , so galte ϕm(v) =−α0v − α1ϕ(v) − . . . − αm−1ϕ

m−1(v) , also ware die Menge {v, ϕ(v), . . . , ϕk(v)} linearabhangig, ein Widerspruch zur Wahl von v. �

Wir wollen das in (5.2.3) konstruierte Polynom P fur die Beispiele aus (5.2.2) bestimmen:

Page 150: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

5.3 Berechnung des Minimalpolynoms 147

(5.2.4) Beispiele Annullierende Polynome fur ϕ-zyklische Unterraume

1. Es sei v ∈ V \{o} ein Eigenvektor von ϕ zum Eigenwertvon λ. Dann ist Uv = 〈v〉 undϕ(v) = λv . Also folgt (ϕ− λ · id)(v) = o , und wir erhalten P (x) = x− λ .

2. Es sei A =

1 0 00 1 00 0 0

uber einem beliebigen Korper K.

Nach Beispiel 1 ergeben sich die Polynome P1(x) = P2(x) = x − 1 und P3(x) = x fur dieeindimensionalen A-zyklischen Unterraume Ue1 , Ue2 , Ue3 .Im Falle des zweidimensionalen Unterraumes Uv erhalten wir das Gleichungssystem 0

00

= α0

011

+ α1

010

+

010

.

(Wie wir im Beweis zu (5.2.3) gesehen haben, konnen wir ohne Einschrankung gleich α2 = 1setzen.) Dieses Gleichungssystem hat die Losung α0 = 0 , α1 = −1 . Das liefert uns dasPolynom Pv(x) = x2 − x = x(x− 1) .

3. Es sei B =

0 1 00 0 10 0 0

uber einem beliebigen Korper K.

In (5.2.2) haben wir gesehen, daß V selbst ein B-zyklischer Raum ist mit dem Erzeuger e3 .Das annullierende Polynom P ergibt sich aus dem Gleichungssystem 0

00

= α0

001

+ α1

010

+ α2

100

+

000

.

Dessen Losung ist α0 = α1 = α2 = 0 . Also folgt P (x) = x3 .

(5.2.5) Lemma Es sei P ein irreduzibles Polynom, k ∈ N, und ϕ ein Endomorphismusvon V mit dem Minimalpolynom M = P k . Dann gibt es einen ϕ-zyklischen Unterraum Uvon V mit dim(U) = grad(M) .Insbesondere ist V selbst ϕ-zyklisch, falls grad(M) = dim(V ) gilt.

Beweis: Da P k−1(ϕ) nicht die Nullabbildung ist, gibt es einen Vektor v ∈ V mit(P k−1(ϕ)

)(v) 6= o =

(P k(ϕ)

)(v) . (1)

Der von v erzeugte ϕ-zyklische Unterraum Uv habe die Dimension d. Nach (5.2.3) hat dasMinimalpolynom Mv von ϕ|Uv den Grad d. Außerdem ist Mv ein Teiler von P k. Daher giltMv = P l mit l ≤ k . Aus (1) folgt l = k , also d = grad(Mv) = grad(M) . �

5.3 Berechnung des Minimalpolynoms

Wir kommen nun zur praktischen Berechnung des Minimalpolynoms eines Endomorphismus,der durch die Matrix A beschrieben sei. Geht man von der Definition des Minimalpolynomsaus (siehe (5.1.2)), so konnte man auf die Idee kommen, einen Ansatz fur das Minimal-polynom zu machen und dann durch Losen eines Gleichungssystems die Koeffizienten desMinimalpolynoms zu berechnen:

Page 151: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

148 5 ENDOMORPHISMEN ENDLICHDIMENSIONALER VEKTORRAUME

(5.3.1) Beispiel Es sei K ein Korper,V = K3 und A =

1 1 00 2 00 0 3

.

Da A kein Vielfaches der Einheitsmatrix ist, hat das Minimalpolynom M von A den Grad min-destens zwei. Ware grad(M) = 2 , so gabe es Korperelemente λ, µ mit M(x) = x2 + λx + µ .Andererseits gilt

A2 + λA+ µE =

1 + λ+ µ 3 + λ 00 4 + 2λ+ µ 00 0 9 + 3λ+ µ

.

Aus 4 + 2λ + µ = 0 und 9 + 3λ + µ = 0 folgt 5 + λ = 0 , ein Widerspruch gegen 3 + λ = 0 .Daher folgt grad(M) = 3 . Nun berechnet man A3 + λA2 + µA + νE und erhalt ein linearesGleichungssystem fur die Variablen λ, µ, ν . Dieses hat die Losung λ = −6 , µ = 11 , ν = −6 , alsoist M(x) = x3 − 6x2 + 11x− 6 das Minimalpolynom von A.

Offensichtlich ist das Verfahren schon in diesem einfachen Beispiel sehr umstandlich. DerRechenaufwand wird im allgemeinen auch deshalb sehr groß sein, weil man fur eine Vielzahlvon moglichen Dimensionen versuchen muß, ein Gleichungssystem zu losen.Das Minimalpolynom laßt sich aber durch Anwendung des folgenden Satzes einfacher be-rechnen. Bei dieser Methode werden nur Matrizen auf gewahlte oder bereits berechneteVektoren angewendet, und es entfallt das Ausrechnen der Potenzen der Matrix A:

(5.3.2) Satz Es sei ϕ ein Endomorphismus von V und {b1, . . . , bn} eine Basis von V .

(a) Ist Ui der von bi erzeugte ϕ-zyklische Unterraum von V , so ist das Minimalpolynom Mi

der Einschrankung ϕ|Ui das normierte Polynom kleinsten Grades, das die Gleichung(P (ϕ)

)(bi) = o erfullt.

(b) M = kgV {M1, . . . ,Mn} ist das Minimalpolyom von ϕ.

Beweis:

(a) Wegen bi ∈ Ui gilt(Mi(ϕ)

)(bi) = o . Ist andererseits P irgendein Polynom mit(

P (ϕ))(bi) = o , so gilt fur alle naturlichen Zahlen j(P (ϕ)

)(ϕj(bi)

)=(P (ϕ) ◦ ϕj

)(bi)

(4.3.2)=

(ϕj ◦ P (ϕ)

)(bi) = ϕj(o) = o .

Somit ist P ein annullierendes Polynom fur ϕ|Ui , und Mi ist ein Teiler von P nach(5.1.3), hat also von all diesen Polynomen den kleinsten Grad.

(b) Nach (5.1.6) sind M1, . . . ,Mn Teiler des Minimalpolynoms M von ϕ. Umgekehrt hatjedes Polynom P , das von M1, . . . ,Mn geteilt wird, die Eigenschaft

(P (ϕ)

)(bi) = o

fur alle i ∈ {1, . . . , n} und ist damit ein annullierendes Polynom fur ϕ, also ein Teilervon M . Daher ist M das kleinste gemeinsame Vielfache der Polynome M1, . . . ,Mn . �

Als direkte Folgerung aus (5.3.2) erhalt man folgenden Reduktionssatz:

(5.3.3 ) Korollar Es sei ϕ ein Endomorphismus von V und V = U1 ⊕ . . . ⊕ Uk einedirekte Zerlegung von V in ϕ-invariante Unterraume Ui. Ist Mi das Minimalpolynom derEinschrankung ϕ|Ui , so ist M = kgV (M1, . . . ,Mk) das Minimalpolynom von ϕ.

Page 152: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

5.3 Berechnung des Minimalpolynoms 149

Das Verfahren aus (5.3.2) schreiben wir nun in Form eines Algorithmus auf, um das Mi-nimalpolynom

”mechanisch“ berechnen zu konnen. Der Endomorphismus ϕ sei durch die

Matrix A ∈ Mn(K) beschrieben. Verwendet wird die Losung linearer Gleichungssysteme(Algorithmus (3.3.2)) und die Berechnung des kgV zweier Polynome (4.1.9).

(5.3.4) Algorithmus Berechnung des MinimalpolynomsEingabe: Matrix A ∈Mn(K).Ausgabe: Minimalpolynom M(x) ∈ K[x] von A.Fur 1 ≤ i ≤ n sei ei der i-te Einheitsvektor.

1. Setze i := 1 , U =< o > , M(x) = 1 .

2. Setze c0 := ei , c1 := Ac0 , k := 1 , Mi(x) = 1 .

3. Prufe die Losbarkeit des Gleichungssystems ck =∑k−1

j=0 xjcj fur xj ∈ K.Falls das System nicht losbar ist, dann setze k := k + 1 , ck := Ack−1 undwiederhole Schritt 3.Falls das System losbar ist, dann setze Mi(x) := xk −

∑k−1j=0 xjx

j

und M(x) := kgV {M(x),Mi(x)} .

4. Setze i := i+ 1.Falls i > n, gehe zu Schritt 6.

5. Setze U :=< U, c0, . . . , ck > .Falls ei ∈ U, so gehe zu Schritt 4.Falls ei /∈ U, so gehe zu Schritt 2.

6. Ende. M(x) ist das Minimalpolynom von A.

(5.3.5) Beispiel Mit dem vorstehenden Algorithmus berechnen wir nun Schritt fur Schritt

das Minimalpolynom der Matrix A =

1 1 00 2 00 0 3

∈M3(R) aus Beispiel (5.3.1).

Schritt 1: i = 1 , U =< o > , M(x) = 1 .Schritt 2: fur i = 1

c0 = e1 =

100

, c1 = A

100

=

100

, k = 1 , M1(x) = 1 .

Schritt 3: Prufe die Losbarkeit von 100

= x0

100

.

Das System hat die Losung x0 = 1.Setze M1(x) = x− x0 = x− 1 und M(x) = kgV {1, x− 1} = x− 1 .

Schritt 4: i = 2 ≤ 3 .Schritt 5: U =< U, c0 >=< (1, 0, 0)T >

e2 = (0, 1, 0)T /∈ U → Schritt 2.

Page 153: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

150 5 ENDOMORPHISMEN ENDLICHDIMENSIONALER VEKTORRAUME

Schritt 2: fur i = 2

c0 = e2 =

010

, c1 = A

010

=

120

, k = 1 , M2(x) = 1 .

Schritt 3: Prufe die Losbarkeit von 120

= x0

010

.

Das System ist nicht losbar.Setze k = 2 , c2 = Ac1 = (3, 4, 0)T .Prufe die Losbarkeit von 3

40

= x1

120

+ x0

010

.

Das System ist losbar mit der Losung x1 = 3 , x0 = −2 .Setze M2(x) = x2 − 3x+ 2 = (x− 1)(x− 2) .Setze M(x) = kgV {x− 1 , x2 − 3x+ 2} = x2 − 3x+ 2 .

Schritt 4: i = 3 ≤ 3 .Schritt 5:

U =< U, c0, c1 >=<

100

,

010

,

120

>=<

100

,

010

> .

e3 = (0, 0, 1)T /∈ U → Schritt 2.Schritt 2: fur i = 3

c0 = e3 =

001

, c1 = A

001

=

003

, k = 1 , M3(x) = 1 .

Schritt 3: Prufe die Losbarkeit von 003

= x0

001

.

Das System hat die Losung x0 = 3 .Setze M3(x) = x− 3 undM(x) = kgV {x2 − 3x+ 2 , x− 3} = (x− 1)(x− 2)(x− 3) = x3 − 6x2 + 11x− 6 .

Hier haben wir die Standard-Basis aus Einheitsvektoren verwendet. Durch eine geschickte Wahlder Basis des Vektorraums kann der Rechenaufwand verringert werden:Die Behandlung der Basisvektoren b1 = e1 und b3 = e3 zeigt, daß die Berechnung des PolynomsMi besonders einfach wird, sobald bi ein Eigenvektor zum Eigenwert λi ist: Dann gilt namlichMi(x) = x− λi .Fur den Vektor b′2 = (1, 1, 0)T erhalten wir Ab′2 = (2, 2, 0)T . Also ist b′2 ein Eigenvektor von Azum Eigenwert 2. Damit haben wir eine Basis (b1, b′2, b3) von V , die aus lauter Eigenvektoren vonA besteht, und nach der einleitenden Bemerkung erhalten wir das Minimalpolynom

M(x) = M1(x)M2(x)M3(x) = (x− 1)(x− 2)(x− 3) .

Den Rechenaufwand, den man hier gegenuber dem Standardverfahren spart muß man naturlich indie Wahl der ”geeigneten“ Basis hineinstecken.

Page 154: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

5.4 ϕ-unzerlegbare Unterraume und der Grad des Minimalpolynoms 151

Hat ϕ genau n = dim(V ) verschiedene Eigenwerte λ1, . . . , λn , so ist nach (2.5.3) und(5.3.2) das Minimalpolynom von ϕ gleich

∏ti=1(x − λi) . Dies liefert eine dritte Methode

zur Berechnung des Minimalpolynoms der Matrix aus Beispiel (5.3.1).

(5.3.6) Beispiel Es sei A die Matrix aus Beispiel (5.3.1). Fur die Vektoren

b1 =

100

, b′2 =

110

, b3 =

001

gilt Ab1 = b1 , Ab′2 = 2b′2 , Ab3 = 3b3 .

Daher sind 1, 2 und 3 Eigenwerte von A und folglich die Polynome x− 1 , x− 2 , x− 3 Teiler desMinimalpolynoms M von A. Wegen grad(M) ≤ 3 folgt M(x) = (x− 1)(x− 2)(x− 3) .

Kennt man das Minimalpolynom einer Matrix A, so auch das der transponierten MatrixAT . Ist A uberdies invertierbar, so kann man leicht das Minimalpolynom der Inversen A−1

berechnen:

(5.3.7) Satz(a) Die quadratischen Matrizen A und AT haben dasselbe Minimalpolynom.(b) A sei invertierbar und habe das Minimalpolynom M(x) = xn + αn−1x

n−1 + . . .+ α0 .Dann hat A−1 das Minimalpolynom P (x) = xn + α1

α0xn−1 + . . .+ αn−1

α0x+ 1

α0.

Beweis:

(a) Sei M(x) = xn + αn−1xn−1 + . . . + α0 das Minimalpolynom von A. Dann gilt

O = An + αn−1An−1 + . . . + α0E , und Transponieren dieser Gleichung liefert O =

(AT )n +αn−1(AT )n−1 + . . .+α0E . Also ist M ein annullierendes Polynom fur AT undfolglich ein Vielfaches des Minimalpolynoms von AT . Wegen A = (AT )T gilt auch dieUmkehrung, also sind die beiden Minimalpolynome gleich.

(b) Es gilt 0 = M(A) = An + αn−1An−1 + . . .+ α0E , also nach Multiplizieren von beiden

Seiten mit A−n dann 0 = E + αn−1A−1 + . . . + α0A

−n . Da A invertierbar ist, mußα0 ungleich 0 sein, und man kann die vorstehende Gleichung noch durch α0 dividieren.Daher ist P ein normiertes annullierendes Polynom fur A−1 . Hatte P nicht minimalenGrad, so konnte man umgekehrt fur A = (A−1)−1 ein annullierendes Polynom finden,das kleineren Grad hat als M , ein Widerspruch. �

5.4 ϕ-unzerlegbare Unterraume und der Grad des Minimalpoly-noms

In (5.1.6) haben wir gesehen, daß ein normierter Teiler R des Minimalpolynoms M desEndomorphismus ϕ einen ϕ-invarianten Unterraum U von V liefert, so daß die Einschrankungϕ|U gerade das Minimalpolynom R hat. Wir untersuchen nun die Situation noch etwasgenauer fur den Fall, daß das Minimalpolynom M zwei teilerfremde Faktoren besitzt:

(5.4.1 ) Satz Es sei ϕ ein Endomorphismus von V mit Minimalpolynom M = R · S ,wobei R, S nichtkonstant, teilerfremd und normiert seien. Es seien U = Bild

(R(ϕ)

)und

W = Bild(S(ϕ)

). Dann gilt:

Page 155: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

152 5 ENDOMORPHISMEN ENDLICHDIMENSIONALER VEKTORRAUME

(a) U,W sind nichttriviale ϕ-invariante Unterraume mit V = U ⊕W ;(b) U = Kern

(S(ϕ)

)und W = Kern

(R(ϕ)

);

(c) ϕ|U hat das Minimalpolynom S , und ϕ|W hat das Minimalpolynom R .

Beweis:

(a) U und W sind ϕ-invariant nach (4.3.2.c).Wegen der Teilerfremdheit von R und S gibt es Polynome T, Y mit RT + SY = 1 .Also gilt fur jedes v ∈ V :

v =(R(ϕ)T (ϕ) + S(ϕ)Y (ϕ)

)(v) = R(ϕ)

(T (ϕ)(v)

)︸ ︷︷ ︸∈U

+ S(ϕ)(Y (ϕ)(v)

)︸ ︷︷ ︸∈W

∈ U +W .

Dies zeigt V = U + W . Zu jedem v ∈ U ∩ W gibt es Vektoren u,w ∈ Vmit v = R(ϕ)(u) = S(ϕ)(w) . Damit folgt

v =(T (ϕ)R(ϕ) + Y (ϕ)S(ϕ)

)(v) =

(T (ϕ)R(ϕ)S(ϕ)︸ ︷︷ ︸

M(ϕ)

)(w) +

(Y (ϕ)S(ϕ)R(ϕ)︸ ︷︷ ︸

M(ϕ)

)(u) = o .

Also gilt auch U ∩V = {o} . Da R und S echte Teiler von M sind, sind R(ϕ) und S(ϕ)beide nicht die Nullabbildung, also U,W 6= {o} . Wegen V = U ⊕ W folgt darausauch U,W 6= V , und U,W sind folglich nichttriviale Unterraume von V .

(b) Fur alle v ∈ V gilt o = M(ϕ)v = S(ϕ)(R(ϕ)v

). Daraus folgt U ⊆ Kern

(S(ϕ)

).

Ebenso gilt W ⊆ Kern(R(ϕ)

). Die Elemente des Durchschnitts W ∩ Kern

(S(ϕ)

)werden also sowohl von R(ϕ) als auch von S(ϕ) annulliert. Da 1 der ggT von R undS ist, wird der Unterraum W ∩ Kern

(S(ϕ)

)nach 4.3.4 auch von 1(ϕ) = id annulliert.

Dies erzwingt W ∩ Kern(S(ϕ)

)= {o} . Nach (2.5.6) folgt nun

Kern(S(ϕ)

)=(Kern

(S(ϕ)

)∩ U

)⊕(Kern

(S(ϕ)

)∩W

)= U .

Analog sieht man W = Kern(R(ϕ)

).

(c) ist klar nach (5.1.6). �

Unter den Voraussetzungen von (5.4.1) laßt sich also V zerlegen in eine direkte Summe vonzwei nichttrivialen ϕ-invarianten Unterraumen.

Definition: ϕ-irreduzibler UnterraumEin ϕ-invarianter Unterraum U von V heißt ϕ-unzerlegbar (ϕ-indecomposable), wenn erkeine direkte Summe von nichttrivialen ϕ-invarianten Unterraumen von V ist.Manche Autoren nennen diese Unterraume ϕ-irreduzibel.

(5.4.2) Beispiele ϕ-unzerlegbare Unterraume

1. Ist v ein Eigenvektor von ϕ, so ist der Unterraum U = 〈v〉 ein eindimensionaler ϕ-invarianterUnterraum von V , also aus Dimensionsgrunden ϕ-unzerlegbar.

2. Es sei V = R2 und ϕ der durch die Matrix A =

(0 −11 0

)beschriebene Endomorphismus

von V . Aus (2.5.1.4) wissen wir, daß ϕ keine Eigenwerte und keine Eigenvektoren hat.Folglich besitzt V keine eindimensionalen ϕ-invarianten Unterraume und ist ϕ-unzerlegbar.

Page 156: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

5.4 ϕ-unzerlegbare Unterraume und der Grad des Minimalpolynoms 153

3. Es sei B =

0 1 00 0 10 0 0

uber einem beliebigen Korper K (vgl. (5.2.2) und (5.2.4)).

Im Unterschied zu 2. besitzt nun V eindimensionale ϕ-invariante Unterraume, namlich zumBeispiel den Unterraum 〈e1〉 , denn e1 ist ein Eigenvektor zum Eigenwert 0. Trotzdem istV ϕ-unzerlegbar:Angenommen, V sei eine nichttriviale direkte Summe von B-invarianten Unterraumen Uund W . Dann ist dim(U) = 1 und dim(W ) = 2 oder umgekehrt. Sei etwa dim(U) = 1 .Weil er ϕ-invariant ist, wird U erzeugt von einem Eigenvektor u von ϕ. Nach (5.2.4.3)hat ϕ das Minimalpolynom x3 , also ist 0 der einzige Eigenwert von B. Wie man leichtnachrechnet, sind die Vektoren (a, 0, 0)T , a 6= 0 , die Eigenvektoren zum Eigenwert 0 von B.Also folgt U = 〈e1〉 . Der komplementare Unterraum W werde erzeugt von (a1, b1, c1)T und(a2, b2, c2)T . Wegen U +W = V muß wenigstens eines der ci ungleich 0 sein, etwa c1 6= 0 .Dann gilt

B

a1

b1c1

=

b1c1

0

und B2

a1

b1c1

=

c1

00

∈ U .

Wegen der ϕ-Invarianz von W ist dann (c1, 0, 0)T ∈ U ∩W = {o} , ein Widerspruch.Also war die Annahme falsch, und V ist ϕ-unzerlegbar.

Mit der Zerlegbarkeit der Polynome in Produkte irreduzibler Polynome erhalt man aus(5.4.1) sofort folgende notwendige Voraussetzung fur die ϕ-Unzerlegbarkeit des Raumes V :

(5.4.3) Korollar Es sei ϕ ein Endomorphismus von V , so daß V ϕ-unzerlegbar ist. Dannist das Minimalpolynom von ϕ eine Potenz eines irreduziblen Polynoms.

Nach diesen Vorbereitungen konnen wir den zentralen Satz uber den Grad des Minimalpo-lynoms beweisen:

(5.4.4) Satz Es sei ϕ ein Endomorphismus von V mit dem Minimalpolynom M . Danngilt grad(M) ≤ dim(V ) .

Beweis: Induktion nach n = dim(V ). Der Induktionsanfang n = 1 ist klar nach (5.1.1).1.Fall: Es gibt eine Zerlegung V = U ⊕W mit nichttrivialen ϕ-invarianten UnterraumenU,W . Da U und W beide eine Dimension < n haben, kann man auf die Einschrankungenϕ|U und ϕ|W die Induktionsvoraussetzung anwenden. Also haben diese beiden Abbil-dungen Minimalpolynome MU bzw. MW mit grad(MU) ≤ dim(U) und grad(MW ) ≤dim(W ) . Nach (5.3.3) ist M das kgV von MU und MW , und sein Grad ist daher hochstensgrad(MU) + grad(MW ) ≤ dim(U) + dim(W ) = dim(V ) .2.Fall: V ist ϕ-unzerlegbar. Nach (5.4.3) ist jetzt M eine Potenz eines irreduziblen Poly-noms. Nach (5.2.5) gibt es dann einen ϕ-zyklischen Unterraum U von V mit grad(M) =dim(U) ≤ dim(V ) . �

Page 157: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

154 5 ENDOMORPHISMEN ENDLICHDIMENSIONALER VEKTORRAUME

5.5 Zerlegung des Vektorraums in ϕ-invariante Unterraume

Generelle Voraussetzung: Wie vorher sei V immer ein n-dimensionaler K-Vektorraumund ϕ ein Endomorphismus von V . Weiter sei P immer ein normiertes, irreduzibles Poly-nom in K[x].

Der Vektorraum V habe eine direkte Zerlegung V = U1 ⊕ . . . ⊕ Uk in ϕ-invariante Un-terraume mit den Dimensionen dim(Ui) = ni . Berechnen wir die Koeffizientenmatrix Avon ϕ bezuglich einer Basis von V , so daß die ersten n1 Basisvektoren in U1, die nachstenn2 Basisvektoren in U2, . . . , die letzten nk Basisvektoren in Uk liegen, so hat A wegen derϕ-Invarianz der Unterraume Ui die folgende Block-Diagonal-Gestalt:

A =

A1

. . .

Ak

,

wobei Ai eine (ni × ni)-Matrix ist. Die Teilmatrix Ai beschreibt die Einschrankung ϕ|Ui .Außerhalb der Teilmatrizen Ai stehen nur Nullen. Damit haben wir die Matrix ubersicht-licher gemacht gegenuber der Koeffizientenmatrix von ϕ bezuglich einer willkurlich gewahltenBasis. Besonders angenehm wird A, wenn jeder Unterraum Ui die Dimension 1 hat, alsoA eine Diagonalmatrix ist. Dies wird man im allgemeinen nicht erreichen konnen, dennϕ muß nicht unbedingt Eigenwerte haben (vgl. (2.5.1.4)). Immerhin wird man an derKoeffizientenmatrix, die wir erreichen konnen (die sog. Jordan-Normalform ) sofort dasMinimalpolynom, das noch zu definierende charakteristische Polynom, die Eigenwerte unddie Dimensionen der Eigenraume ablesen konnen.Ein erster Schritt zur Zerlegung des Vektorraums wurde bereits in (5.4.1) getan. In (5.5.1)werden wir dann sehen, daß wir uns im wesentlichen nur mit Endomorphismen ϕ beschaftigenmussen, deren Minimalpolynom M eine Potenz eines irreduziblen Polynoms P ist. DieserAbschnitt ist in folgende drei Stufen aufgeteilt:1. M = P ist ein irreduzibles Minimalpolynom ((5.5.3) und (5.5.4)).2. M = P k und grad(M) = dim(V ) . ((5.5.5) und (5.5.6))3. M = P k . (5.5.8).

(5.5.1) Satz Es sei ϕ ein Endomorphismus von V mit Minimalpolynom M =∏t

i=1 Pkii ,

wobei die Pi paarweise verschieden, normiert und irreduzibel seien. Dann ist V die direkteSumme der ϕ-invarianten Unterraume Ui = Kern

(P kii (ϕ)

).

Beweis: Induktion nach t. Die Aussage ist nach (5.4.1) richtig fur t = 2 . Sei nun t ≥ 3 ,und die Aussage richtig fur alle s < t . Nach 5.4.1 gilt:

V =(Pt(ϕ)

)ntV ⊕

(t−1∏i=1

(Pi(ϕ)

)ni)V =: Vt ⊕ Ut ,

wobei Vt = Kern(∏t−1

i=1 Pnii (ϕ)

)und Ut = Kern

(P ktt (ϕ) ist. Nach Induktionsannahme

ist Vt = U1 ⊕ . . .⊕ Ut−1 , wobei fur 1 ≤ i ≤ t− 1 der Unterraum Ui gleich Kern(P kii (ϕ)

)ist. Wegen der Assoziativitat der Bildung der direkten Summe folgt die Behauptung. �

Page 158: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

5.5 Zerlegung des Vektorraums in ϕ-invariante Unterraume 155

Definition: verallgemeinerter EigenraumDer Unterraum Ui = Kern

(P kii (ϕ)

)aus (5.5.1) heißt verallgemeinerter Eigenraum von ϕ

zum Polynom Pi.

Das folgende Lemma ist ein Analogon zu (2.5.6).

(5.5.2) Lemma Es sei ϕ ein Endomorphismus von V mit Minimalpolynom M =∏t

i=1 Pkii ,

wobei die Pi paarweise verschieden, normiert und irreduzibel seien. Sei Ui der verallgemei-nerte Eigenraum von ϕ zum Polynom Pi. Dann gilt U = (U1 ∩ U) ⊕ . . . ⊕ (Ut ∩ U) furjeden ϕ-invarianten Unterraum U von V .

Beweis: Trivialerweise gilt (U1 ∩ U) ⊕ . . . ⊕ (Ut ∩ U) ⊆ U . Also mussen wir nur dieumgekehrte Inklusion zeigen.Fur i ∈ {1, . . . , t} setzen wir Qi = M

Pkii

= P k11 · . . . · P

ki−1

i−1 · Pki+1

i+1 · . . . · Pktt .

Dann sind die Polynome Q1, . . . , Qt teilerfremd. Folglich gibt es Polynome R1, . . . , Rt mit

1 = R1Q1 + . . . RtQt . Daher gilt u = idV (u) =t∑i=1

Ri(ϕ)Qi(ϕ)(u) fur alle Vektoren

u ∈ U . Nach (5.4.1) wissen wir außerdem Qi(ϕ)V = Ui . Wegen der ϕ-Invarianz von U undUi ist nun Ri(ϕ)Qi(ϕ)(u) ein Element von Ui ∩ U , und der Satz bewiesen. �

Definition: minimaler ϕ-invarianter UnterraumEin ϕ-invarianter Unterraum U 6= {o} von V heißt minimal, wenn es keinen ϕ-invariantenUnterraum W von V gibt mit {o} ( W ( U .

(5.5.3) Satz Es sei ϕ ein Endomorphismus von V mit irreduziblem Minimalpolynom P .Weiter sei n = dim(V ) und k = grad(P ) . Dann gilt:

(a) Die minimalen ϕ-invarianten Unterraume von V sind genau die ϕ-zyklischen Un-terraume 6= {o} von V und haben die Dimension k.

(b) Ist U ein ϕ-invarianter Unterraum von V , so gibt es eine direkte ZerlegungV = U1⊕. . .⊕Un/k von V in minimale ϕ-invariante Unterraume Ui , so daß zusatzlichU = U1 ⊕ . . .⊕ Ul fur einen geeigneten Index l gilt.

(c) Die Dimension eines ϕ-invarianten Unterraums von V ist ein Vielfaches von k . Ins-besondere ist n ein Vielfaches von k .

Beweis:

(a) Es sei U ein minimaler ϕ-invarianter Unterraum von V und v ∈ U \ {o} . Der von verzeugte ϕ-zyklische Unterraum Uv ist ein Unterraum von U , und wegen v 6= 0 giltUv 6= {o} . Wegen der Minimalitat von U folgt U = Uv , und U ist ϕ-zyklisch mitErzeuger v.Ist umgekehrt U 6= {o} ein ϕ-zyklischer Unterraum von V und MU das Minimalpoly-nom der Einschrankung ϕ|U , so hat MU nach (5.2.3) den Grad dim(U) . Weiter ist MU

ein Teiler des irreduziblen Polynoms P , also MU = P . Dies zeigt dim(U) = k . Ins-besondere ist U ein minimaler ϕ-invarianter Unterraum. Andernfalls gabe es namlicheinen minimalen ϕ-invarianten Unterraum W ( U , und dieser enthielte einen ϕ-zyklischen Unterraum Wv . Es folgte k = dim(Wv) ≤ dim(W ) < dim(U) = k , einWiderspruch.

Page 159: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

156 5 ENDOMORPHISMEN ENDLICHDIMENSIONALER VEKTORRAUME

(b) Sei v1 6= o beliebig gewahlt und U1 := Uv1 der von v1 erzeugte ϕ-zyklische Unterraum.Entweder ist U1 = V , also der Satz bewiesen, oder U1 ( V . Fur eine Induktion neh-men wir nun folgendes an: V besitzt einen Unterraum U := U1⊕ . . .⊕Ui 6= V , wobeifur jeden Index j gilt: Uj = Uvj fur einen passenden Vektor vj .Nun gibt es einen Vektor vi+1 ∈ V \(U1 ⊕ . . .⊕ Ui) , und Ui+1 := Uvi+1

ist wieder einϕ-invarianter Unterraum der Dimension k von V . Dieser hat zudem einen trivialenDurchschnitt mit U : Sei w ∈ Ui+1 ∩ U . Falls w 6= o ist, so gilt Ui+1 = Uw nach(a). Andererseits ist Uw ein Teilraum von U , da dieser Raum ϕ-invariant ist. Damitfolgt aber Ui+1 ⊆ U , ein Widerspruch zur Wahl von vi+1 .Also gilt: 〈U1 ⊕ . . . ⊕ Ui , Ui+1〉 = U1 ⊕ . . . ⊕ Ui ⊕ Ui+1 , und die Dimension diesesRaumes ist k ·(i+1) . Wegen der Endlichkeit von dim(V ) muß diese Konstrukion nachgenau n/k Schritten abbrechen. Also gilt V = U1 ⊕ . . .⊕ Un/k .Sei U 6= {o} ein ϕ-invarianter Unterraum von V . Dann starten wir in der vorange-gangenen Konstruktion mit v1 ∈ U und prufen jeweils, ob U1 ⊕ . . . ⊕ Ui noch einechter Teilraum von U oder bereits ganz U ist. (Die ϕ-Invarianz von U stellt sicher,daß mit vi auch der zyklische Unterraum Ui in U liegt.) Im ersten Fall konnen wirmit vi+1 ∈ U\(U1⊕ . . .⊕Ui) fortfahren. Wegen der Endlichkeit von dim(U) muß esauch hier einen Index l geben, so daß das Verfahren abbricht, also U = U1⊕ . . .⊕Ulgilt.Falls U 6= V , konnen wir einen Vektor vl+1 ∈ V \U finden und mit diesem wie vorherdie Konstruktion fortsetzen.

(c) ist klar nach (b) und dem Dimensionssatz fur Unterraume. �

Daß die ϕ-zyklischen Unterraume von V auch minimale ϕ-invariante Unterraume sind, liegtan der Irreduzibilitat von P . In anderen Fallen ist diese Aussage nicht mehr richtig (siehe(5.5.10)).

(5.5.4) Korollar Es sei ϕ ein Endomorphismus von V und P ein irreduzibles Polynom.Dann ist grad(P ) ein Teiler von dim(Kern

(P (ϕ)

).

Beweis: Sei U := Kern(P (ϕ)

). Im Fall U = {o} hat U die Dimension 0, und die Aussage

ist trivialerweise richtig.Sei nun U 6= {o} . Das Minimalpolynom von ϕ|U ist ein nichtkonstanter Teiler des annul-lierenden Polynoms P fur ϕ|U . Da P irreduzibel ist, hat also ϕ|U das Minimalpolynom P .Die Behauptung folgt nun durch Anwendung von (5.5.3) auf das Paar (ϕ|U , U) . �

Definition: geometrische VielfachheitEs sei ϕ ein Endomorphismus von V und P ein irreduzibles Polynom. Die naturliche Zahl

dim(Kern(P (ϕ)

))

grad(P )

heißt geometrische Vielfachheit von P bezuglich ϕ.

(5.5.5 ) Lemma Es sei ϕ ein Endomorphismus von V mit Minimalpolynom M = P k ,wobei P irreduzibel sei und grad(M) = dim(V ) =: n gelte.

(a) V ist ϕ-zyklisch und sogar ϕ-unzerlegbar.

Page 160: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

5.5 Zerlegung des Vektorraums in ϕ-invariante Unterraume 157

(b) Es gilt Kern(P i(ϕ)

)=(P k−i(ϕ)

)V, fur 0 ≤ i ≤ k .

Beweis:

(a) V ist ϕ-zyklisch nach (5.2.5). Nun nehmen wir an, V = U1⊕U2 sei eine direkte Zerle-gung von V in nichttriviale ϕ-invariante Unterraume. Also haben U1, U2 insbesondereeine Dimension echt kleiner als m = dim(V ) . Es sei Mi das Minimalpolynom derEinschrankung ϕ|Ui . Da Mi ein Teiler von M ist, gibt es naturliche Zahlen k1, k2 ≤ kmit Mi = P ki . Nach (5.3.3) gilt M = kgV (M1,M2) = Pmax{k1,k2} . Dies erfordertk1 = k oder k2 = k , sagen wir ohne Einschrankung k1 = k . Dann hat aber das Mini-malpolynom von ϕ|U1 den Grad m, also nach (5.4.4) der Unterraum U1 die Dimensionmindestens m, und das heißt U1 = V , ein Widerspruch zur Annahme.

(b) Fur jedes v ∈ P k−i(ϕ)V gibt es einen Vektor y ∈ V mit v = P k−i(ϕ)y . Es folgto = M(ϕ)y = P i(ϕ)P k−i(ϕ)y = P i(ϕ)v , also P (ϕ)k−iV ⊆ Kern

(P i(ϕ)

).

Nach (a) existiert ein Vektor v ∈ V mit V = 〈v, ϕ(v), . . . , ϕn−1(v)〉 .Fur jedes y ∈ Kern

(P i(ϕ)

)gibt es also Skalare α0, . . . , αn−1 mit y =

∑n−1i=0 αiϕ

i(v) .

Setzen wir S(x) =∑n−1

i=0 αixi so folgt o = P i(ϕ)y = P i(ϕ)S(ϕ)v . Als annullierendes

Polynom von ϕ auf V ist SP i ein Vielfaches des Minimalpolynoms P k , und somit Sein Vielfaches von P k−i . Dies zeigt y ∈ P k−i(ϕ)V und schließlichKern

(P i(ϕ)

)⊆ P k−i(ϕ)V . �

Benutzen wir die Instrumente der Faktorraumtheorie, so sehen wir unter den Voraussetzun-gen von (5.5.5) sogar alle ϕ-invarianten Unterraume von V vor uns. Es sind genau die in(5.5.5) erwahnten iterierten Kerne:

(5.5.6)* Satz Es sei ϕ ein Endomorphismus von Vmit Minimalpolynom M = P k , wobei P irreduzibel istund grad(M) = dim(V ) gilt. Dann sind die Raume

Ui = Kern(P i(ϕ)

)=(P k−i(ϕ)

)V, 0 ≤ i ≤ k

die einzigen ϕ-invarianten Unterraume von V .Ist g = grad(P ) , so hat Ui die Dimension i · g .

tttttt

g

g

g

U0 = Kern(P 0(ϕ)) = {o}

U1 = Kern(P (ϕ))

Ui−1 = Kern(P i−1(ϕ))

Ui = Kern(P i(ϕ))

Uk−1 = Kern(P k−1(ϕ))

Uk = Kern(P k(ϕ)) = V

Beweis: Zunachst sind die Unterraume Ui nach (4.3.2.c) alle ϕ-invariant.(i) Zum Beweis von dim(Ui) = i · g betrachten wir die von ϕ|Ui auf dem FaktorraumUi/Ui−1 induzierte Abbildung ϕ∗i . (Zur Erinnerung: ϕ∗i (v + Ui−1) = ϕ(v) + Ui−1 .)Die Abbildung ϕ∗i hat offensichtlich das annullierende Polynom P , und ihr MinimalpolynomMi ist daher ein Teiler von P . Nach (2.7.5) gilt Ui/Ui−1 6= {o} fur 1 ≤ i ≤ k . Daherhat Mi den Grad mindestens 1 und ist ein Teiler des irreduziblen normierten PolynomsP , also Mi = P . Dann folgt aber nach (5.4.4) dim(Ui/Ui−1) ≥ grad(P ) = g . Wegengk = dim(V ) =

∑k−1i=0 dim(Ui/Ui−1) folgt daraus dim(Ui/Ui−1) = g fur alle i, und damit

nach (3.4.4) die Behauptung dim(Ui) = ig .(ii) Nun sei U irgendein ϕ-invarianter Unterraum von V . Das Minimalpolynom vonϕ|U ist P t mit einem geeigneten Exponenten t ≤ k , das heißt U ⊆ Kern

(P t(ϕ)

)= Ut .

Andererseits muß nach (5.4.4) die Dimension von U mindestens genauso groß sein wie der

Page 161: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

158 5 ENDOMORPHISMEN ENDLICHDIMENSIONALER VEKTORRAUME

Grad des Minimalpolynoms P t , also dim(U) ≥ tg . Aus (ii) wissen wir bereits dim(Ut) = tg .Also mussen diese beiden Unterraume zusammenfallen. �

(5.5.7) Beispiel Es sei V = Rn[x] der Raum der Polynome vom Grad hochstens n , und einelineare Abbildung ϕ definiert durch

(ϕ(f)

)(x) = f(x+ 1) .

Bezuglich der Basis (1, x, x2, . . . , xn) wird ϕ beschrieben durch die Matrix

A =

1 1 1 1 . . . . . . 11 2 3 . . . . . . n

1 3 . . . . . .(n2

)1 . . . . . .

.... . .

.... . . n

1

.

Ist grad(f) = k , so gilt grad((A − E)f

)= k − 1 , denn die Matrix von A − E erhalt man aus

der Matrix A, wenn man in der Diagonale die Einsen durch Nullen ersetzt. Insbesondere gilt(A − E)n+1(f) = 0 fur alle f ∈ Rn[x] , aber (A − E)n(xn) = n! 6= 0 . Das Minimalpolynom vonϕ ist folglich M(x) = (x− 1)n+1 , und die Voraussetzungen von (5.5.5) sind erfullt.Sei U ein A-invarianter Unterraum. Dann gibt es ein Polynom f(x) =

∑ki=0 αix

i , αk 6= 0 ,maximalen Grades aus U . Offensichtlich ist U auch (A−E)-invariant, und fi := (A−E)k−i(f)ist ein Polynom vom Grad genau i . Daher gilt U = 〈f0, . . . , fk〉 = 〈1, x, . . . , xk〉 = Rk[x] .Die Unterraume Rk[x] , 0 ≤ k ≤ n sind also die einzigen A-invarianten Unterraume von Rn[x] . Esgilt ubrigens Rk[x] = (A− E)n−kRn[x] = Kern(A− E)n+1−k .

(5.5.8) Satz Es sei ϕ ein Endomorphismus von V mit Minimalpolynom M = P k , wobeiP irreduzibel sei.Dann ist V eine direkte Summe ϕ-unzerlegbarer Unterraume Ui , wobei die Dimension vonUi gleich dem Grad des Minimalpolynoms von ϕ|Ui ist.Die Dimensionen dieser Unterraume Ui sind (bis auf Reihenfolge) eindeutig bestimmt.

Beweis: Induktion nach dim(V ). Der kleinstmogliche Fall ist dim(V ) = grad(M) . Dannist V nach (5.5.5) selbst ϕ-unzerlegbar. Sei nun der Satz schon gezeigt fur alle Vektorraume,die kleinere Dimension haben als V .

(i) Konstruktion des ersten Summanden U1 :Nach (5.2.5) besitzt V einen ϕ-zyklischen Unterraum U1 der Dimension grad(M) .

(ii) Es gibt einen ϕ-invarianten Unterraum W von V mit V = U1 ⊕W :{o} ist ein ϕ-invarianter Unterraum von V mit U1 ∩ {o} = {o} . Also gibt es einenmaximalen ϕ-invarianten Unterraum W von V mit U1 ∩W = {o} .Annahme: U1 +W 6= V .

Dann existiert ein Vektor z ∈ V \(U1 + W ) . Da(P (ϕ)

)kz = o ∈ U1 + W , gibt es

eine minimale naturliche Zahl s , so daß(P (ϕ)

)sz ∈ U1 +W . Das heißt: es existieren

u ∈ U1 und w ∈ W mit(P (ϕ)

)sz = u+ w . Nun folgt

o =(P (ϕ)

)kz =

(P (ϕ)

)k−s(P (ϕ)

)sz =

(P (ϕ)

)k−su +

(P (ϕ)

)k−sw .

Page 162: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

5.5 Zerlegung des Vektorraums in ϕ-invariante Unterraume 159

Wegen U1 ∩ W = {o} mussen beide Summanden auf der rechten Seite der letztenGleichung gleich o sein. Insbesondere erhalten wir P (ϕ)k−su = o .Wegen dim(U1) = grad(M) ist (U1, ϕ) ein Paar, das die Voraussetzungen von (5.5.5)erfullt. Daher gilt Kern

(P (ϕ)k−s

)= P (ϕ)sU1 , also u ∈ P (ϕ)sU1 , und es existiert

ein Vektor y ∈ U1 mit u = P (ϕ)sy . Wir setzen z1 := z − y . Dann gilt:

P (ϕ)sz1 = P (ϕ)sz − P (ϕ)sy = (u + w) − u = w ∈ W .

Ware schon P (ϕ)s−1z1 ∈ U1 +W , so P (ϕ)s−1z = P (ϕ)s−1z1 + P (ϕ)s−1y ∈ U1 +W ,ein Widerspruch zur Minimalitat von s . Damit ergibt sich P (ϕ)s−1z1 6∈ U1 +W .Wegen P (ϕ)sz1 ∈ W ist W1 := 〈W , z1, ϕ(z1), . . . , ϕsg−1(z1)〉 ein ϕ-invarianter Un-terraum von V .Weiter gilt U ∩W1 = {o} : Andernfalls gabe es namlich Vektoren u1 ∈ U1 , w1 ∈ Wund Skalare α0, . . . , αsg−1 mit u1 = w1 + α0z1 + . . . αsr−1ϕ

sg−1(z1) , und folglich einPolynom S mit grad(S) < sg mit S(ϕ)z1 ∈ U1 + W . Wegen der ϕ- Invarianz vonW gilt dann aber auch T (ϕ)z1 ∈ U1 +W fur den großten gemeinsamen Teiler T vonS und P s. Da P irreduzibel und grad(S) < grad(P s) ist, folgt P (ϕ)s−1z1 ∈ U1 +W ,ein Widerspruch.Schließlich widerspricht W1 der Maximalitat von W , also muß die Annahme U1 +W 6=V falsch sein, und man erhalt V = U1 ⊕W .

(iii) Wegen dim(W ) < dim(V ) gilt nach Induktionsvoraussetzung: W ist eine direkteSumme ϕ-unzerlegbarer Unterraume U2, . . . , Un , wobei die Dimension von Ui gleichdem Grad des Minimalpolynoms von ϕ|Ui ist.

(iv) Eindeutigkeit der Dimensionen der Unterraume Ui :Dies beweisen wir durch Induktion nach dem Exponenten k . Sei Mi = P ki dasMinimalpolynom von ϕ|Ui .Falls k = 1 , ist Mi = P fur alle i , und nach Konstruktion (siehe (i)) haben alleSummanden Ui die Dimension g .Sei nun die Behauptung fur k − 1 schon gezeigt, und seien V = U1 ⊕ . . . ⊕ Un =W1 ⊕ . . . ⊕Wn zwei Zerlegungen in ϕ-unzerlegbare Unterraume, die die angegebeneBedingung erfullen.Der Unterraum V ∗ := P (ϕ)V ist ϕ-invariant, und die Einschrankung ϕ|V ∗ besitzt dasMinimalpolynom P k−1 . Weiter erhalten wir zwei Zerlegungen V ∗ = U∗1 ⊕ . . .⊕U∗n =W ∗

1 ⊕ . . . ⊕W ∗n , wobei U∗i = P (ϕ)Ui , W

∗j = P (ϕ)Wj gilt fur alle Indizes i , j . Die

Unterraume U∗i und W ∗j sind alle ϕ-invariant. Außerdem gilt:

1. Die Einschrankung ϕ|U∗i hat das Minimalpolynom M∗i = P ki−1 . Die analoge

Aussage gilt fur die Raume W ∗j .

2. dim(U∗i ) = grad(M∗i ) und dim(U∗i ) = dim(Ui)− g .

Die analoge Aussage gilt fur die W ∗j .

Wegen der Irreduzibilitat von des Polynoms P gilt nach (5.5.4)

g = grad(P ) ≤ dim(Kern(P (ϕ|Ui))

)= dim

(Kern

(P (ϕ)

)∩ Ui

).

Also folgt aus dem Dimensionssatz fur lineare Abbildungen:

dim(U∗i ) = dim(P (ϕ)Ui

)= dim(Ui) − dim

(Kern

(P (ϕ)

)∩ Ui

)≤ kig − g = (ki − 1)g = grad(M∗

i ) .

Page 163: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

160 5 ENDOMORPHISMEN ENDLICHDIMENSIONALER VEKTORRAUME

Andererseits gilt nach 1. und (5.4.4) dim(U∗i ) ≥ grad(M∗i ) , also dim(U∗i ) =

grad(M∗i ) .

3. Wegen dim(U∗i ) = grad(M∗i ) ist der Raum U∗i ϕ-unzerlegbar nach (5.5.5). Ana-

loges gilt fur die W ∗j .

Jetzt konnen wir die Induktionsannahme auf V ∗ anwenden, und nach geeigneterUmnumerierung der W ∗

j und eventuellem Weglassen von Nullraumen gilt V ∗ =U∗1 ⊕ . . .⊕ U∗l = W ∗

1 ⊕ . . .⊕W ∗l , wobei dim(U∗i ) = dim(W ∗

i ) fur alle i ∈ {1, . . . , l} .Dies liefert uns eine entsprechende Anordnung der Summanden in den beiden Zerle-gungen von V :

V = U1 ⊕ . . .⊕ Ul⊕ . . .⊕ Un︸ ︷︷ ︸eventuell

= W1 ⊕ . . .⊕Wl⊕ . . .⊕Wm︸ ︷︷ ︸eventuell

, (1)

wobei dim(Ui) = dim(Wi) fur alle i ∈ {1, . . . , l} . Die verbleibenden SummandenUl+1, . . . , Un , Wl+1, . . . ,Wm liegen alle in Kern

(P (ϕ)

)und mussen daher die Dimen-

sion g haben. Ein Vergleich der Dimensionen auf beiden Seiten der Gleichung (1)zeigt schließlich n = m , und der Satz ist bewiesen. �

..

..

.

..

..

.

..

..

.

..

..

.

..

..

......

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

......

..

..

.

..

..

.

..

..

.

..

..

......

..

..

.

..

..

.

..

..

.

..

..

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.rrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr

rrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr

rr rrrrrrrrrrrrrrrrrrrrrrrr rrrr rrrr rrrr...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

rrrrrrrrrrrrrrrrrrrrrrrrrrrrr rrrr rrrr rrrr

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

rrrrrrrrrrrrrrrrrrrrrrrrr

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

rrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr

U1 U2 U3 U4 U5 U6 U7 U8 U9

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.rrrrr rrrrrrrrrrrrrrrrrrrr

Ui

6

6

6

6Ui

P (ϕ)Ui = U∗i

P 2(ϕ)Ui

P 3(ϕ)Ui

P 4(ϕ)Ui = {o}

Geht man von V = U1 ⊕ . . . ⊕ U9 uber zu V ∗ = P (ϕ)V = U∗1 ⊕ . . . ⊕ U∗9 , so schneidetman von jedem Unterraum Ui gerade das oberste Kastchen (hier ohne Schraffierung)ab. Wichtig ist, daß von jedem Unterraum Ui gleichviel abgeschnitten wird, namlich dieDimension g = grad(P ) .Die zu den Einschrankungen ϕ|Ui gehorigen Minimalpolynome sind hier M1 = M2 = P 6 ,M3 = P 4 , M4 = M5 = P 3 , M6 = P 2 , M7 = M8 = M9 = P .Fur jedes Ui gilt: Der unterste Block ist Kern

(P (ϕ)

)∩ Ui , die zwei untersten Blocke

zusammen bilden den Raum Kern(P 2(ϕ)

)∩ Ui , und so weiter. Der Kern von P (ϕ)

insgesamt ist die direkte Summe der Unterraume Kern(P (ϕ)

)∩Ui , wird also dargestellt

durch die gesamte unterste Schicht.

Schematische Darstellung der ϕ-invarianten Unterraume Ui bzw. U∗i im Beweis zu (5.5.8).

Page 164: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

5.5 Zerlegung des Vektorraums in ϕ-invariante Unterraume 161

Jetzt ist der dickste Brocken auf dem Weg zur Jordan-Normalform geschafft. Bevor wir aberauf die Jordan-Normalform zusteuern, sammeln wir noch ein paar Ergebnisse auf, die (5.5.8)abwirft:

(5.5.9) Korollar Ein ϕ-unzerlegbarer Unterraum ist ϕ-zyklisch.

Beweis: Es sei U ein ϕ-unzerlegbarer Unterraum von V . Das Minimalpolynom M von ϕ|Ukann nach (5.5.1) keine teilerfremde Faktoren besitzen, ist also eine Potenz eines irreduziblenPolynoms, etwa M = P k . Nach (5.5.8) ist dann U eine direkte Summe von ϕ-unzerlegbarenUnterraumen Ui , wobei die Dimension von Ui gleich dem Grad des Minimalpolynoms vonϕ|Ui ist. Wegen der ϕ-Unzerlegbarkeit von U kann aber nur ein solcher direkter Faktorauftreten, und es folgt dim(U) = grad(P k) . Nach (5.5.5) ist dann U ϕ-zyklisch. �

(5.5.10) Beispiel Die Umkehrung von (5.5.9) ist im allgemeinen nicht richtig:

Sei K ein beliebiger Korper, V = K2 , und ϕ der durch A =(

1 00 0

)beschriebene Endomor-

phismus von V . Der Vektor v = e1 + e2 ist offensichtlich kein Eigenvektor von ϕ, also ist V dervon v erzeugte ϕ-zyklische Unterraum von V . Jedoch ist V = 〈e1〉 ⊕ 〈e2〉 eine direkte Zerlegungin ϕ-invariante Unterraume. Außerdem ist V kein minimaler ϕ-invarianter Unterraum von V .

(5.5.11) Korollar Es sei ϕ ein Endomorphismus von V . Dann ist V eine direkte Summevon ϕ-zyklischen Unterraumen.

Beweis: Nach (5.5.1) und (5.5.8) ist V zunachst eine direkte Summe von ϕ-unzerlegbarenUnterraumen. Diese sind ϕ-zyklisch nach (5.5.9). �

(5.5.12) Korollar Es sei ϕ ein Endomorphismus von V und P ein irreduzibles Polynom.Dann ist grad(P ) ein Teiler von dim

(⋃k∈N Kern

(P k(ϕ)

)).

Beweis: Nach (2.7.4.a) bilden die Kerne, die hier vereinigt werden, eine aufsteigende KetteKern

(P (ϕ)

)⊆ Kern

(P 2(ϕ)

)⊆ . . . . Die Teilmenge U := ∪k∈NKern

(P k(ϕ)

)von V ist

also nach ein Unterraum von V . Wegen der Endlichkeit der Dimension von V muß dieKette der iterieren Kerne nach endlich vielen Schritten stationar werden. Daher gibt esein m ∈ N mit U = Kern

(Pm(ϕ)

). Nun ist Pm ein annullierendes Polynom fur ϕ|U ,

also hat ϕ|U ein Minimalpolynom der Form P k . Nach (5.5.8) ist dann U eine direkteSumme von Unterraumen Ui , wobei fur jedes i die Dimension von Ui gleich dem Grad desMinimalpolynoms Mi von ϕ|Ui ist. Mi ist ein Teiler von P k, also eine Potenz von P . Damitist fur jedes i die Dimension von Ui durch grad(P ) teilbar, also auch die Dimension von U .�

Page 165: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

162 5 ENDOMORPHISMEN ENDLICHDIMENSIONALER VEKTORRAUME

Definition: algebraische VielfachheitEs sei ϕ ein Endomorphismus von V und P ein irreduzibles Polynom. Die naturliche Zahl

dim(⋃k∈N Kern

(P k(ϕ)

))

grad(P )

heißt algebraische Vielfachheit von P bezuglich ϕ.

Sowohl die algebraische als auch die im Anschluß an (5.5.4) definierte geometrische Viel-fachheit werden im Zusammenhang mit der Jordan-Normalform (6.1.9) eine anschaulicheBedeutung erhalten.

Page 166: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

163

6 Die Jordan-Normalform und Anwendungen

Generelle Voraussetzung: Sofern nichts anderes angegeben ist, sei ϕ ein Endomor-phimus des endlich-dimensionalen Vektorraums V uber dem Korper K.

6.1 Die Jordan-Normalform

Wie ublich sei ϕ ein Endomorphismus des endlich-dimensionalen Vektorraums V , beschrie-ben bezuglich einer Basis B durch die Matrix A. Wir suchen nun eine Basis B′, bezuglichderer die Abbildung ϕ durch eine Matrix A′ beschrieben wird, die

”einfacher“ als A ist. Man

wird sich zum Beispiel wunschen, eine Matrix A′ mit vielen Nullen zu erhalten, an der mandas Minimalpolyom und (soweit vorhanden) Eigenwerte und Dimensionen der Eigenraumeablesen kann.

(6.1.1) Beispiel Es sei V = R3 mit der Standardbasis B, und

A =

0 −2 −22 4 2−1 −2 −1

.

Wahlt man b′1 = (1,−1, 1)T , b′2 = (−2, 2,−1)T , b′3 = (−1, 2,−1)T , so erhalt man Ab′1 = o , Ab′2 =b′2 und Ab′3 = 2b′3 . Der bezuglich der Standardbasis durch die Matrix A beschriebene Endomor-phismus ϕ von V wird also bezuglich der Basis B′ = (b′1, b

′2, b′3) durch die Diagonalmatrix

A′ =

0 0 00 1 00 0 2

beschrieben.

Definition: diagonalisierbare MatrixEine (n × n)-Matrix A uber dem Korper K heißt diagonalisierbar, wenn sie ahnlich ist zueiner Diagonalmatrix, das heißt, wenn der durch A beschriebene Endomorphismus von Kn

bei geeignetem Basiswechsel durch eine Diagonalmatrix beschrieben wird.

(6.1.2) Satz DiagonalisierbarkeitskriteriumEine (n× n)-Matrix A uber dem Korper K ist genau dann diagonalisierbar, wenn der Vek-torraum Kn eine Basis aus lauter Eigenvektoren von A besitzt.

Beweis: Es sei ϕ der bzgl. der Standardbasis durch A beschriebene Endomorphismus vonV = Kn. Zuerst nehmen wir an, Kn besitze eine Basis B′ = (b′1, . . . , b

′n) aus Eigenvektoren

von A. Dann gilt ϕ(b′i) = Ab′i = λib′i fur alle 1 ≤ i ≤ n, und ϕ wird bzgl. der Basis B

beschrieben durch die Diagonalmatrix diag(λ1, . . . , λn).Nun werde ϕ bezuglich einer geeigneten Basis (b′1, . . . , b

′n) durch eine Diagonalmatrix A′ =

diag(λ1, . . . , λn) beschrieben. Dies bedeutet, daß fur jeden Index 1 ≤ i ≤ n der Basisvektorb′i ein Eigenvektor von A′ zum Eigenwert λi ist.Da A und A′ ahnlich sind, gibt es eine regulare Matrix S mit A′ = S−1AS. Setzen wir

Page 167: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

164 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

ci = Sb′iS−1 , so ist (c1, . . . , cn) wegen der Regularitat von S wieder eine Basis von Kn.

Schließlich zeigen wir, daß jedes ci ein Eigenvektor von A zum Eigenwert aλi ist:

Aci = (SA′S−1)(Sb′iS−1) = SA′b′iS

−1 = S(λib′i)S−1 = λi(Sb

′i)S−1) = λici . �

(6.1.3) Beispiele

1. Die Matrix A aus Beispiel (6.1.1) ist diagonalisierbar, weil die angegebenen Vektoren b′1, b′2, b′3

Eigenvektoren von A sind und eine Basis von V = R3 bilden.

2. Wir betrachten Matrix A =(

0 −11 0

)∈M3(R) .

Diese hat das Minimalpolynom M(x) = x2 + 1, das bekanntlich in R keine Nullstellen hat.Damit hat A keine reellen Eigenwerte und kann nach (6.1.2) nicht diagonalisierbar sein.

3. Wir konnen die Matrix A =(

0 −11 0

)∈M3(C) auch als komplexe Matrix betrachten.

Nun zerfallt das Minimalpolynom M(x) = x2 + 1 = (x − i)(x + i) in ein Produkt von zweilinearen Polynomen, und A hat die beiden komplexen Eigenwerte i und −i. Wahlen wireinen beliebigen Eigenvektor x1 ∈ C2 zum Eigenwert i und x2 ∈ C2 zum Eigenwert −i, soist {x1, x2} automatisch eine Basis von C2, denn x1 6= o 6= x2, und x2 kann kein skalaresVielfaches von x1 sein.

Also ist A diagonalisierbar, denn A ist ahnlich zu A′ =(i 00 −i

).

Das vorstehende Beispiel zeigt, daß die Diagonalisierbarkeit einer vorgegebenen Matrix vomverwendeten Grundkorper abhangt. Das ist auch nicht verwunderlich, denn A ist uber Rdiagonalisierbar, wenn es eine reelle Diagonalmatrix A′ und eine regulare reelle Matrix S gibtmit A = S−1A′S, jedoch uber C diagonalisierbar, wenn es eine komplexe Diagonalmatrix A′

und eine regulare komplexe Matrix S gibt mit A = S−1A′S. Im zweiten Fall hat man alsoviel mehr Auswahl.

Da nun nicht jede Matrix A diagonalisierbar ist, versuchen wir, wenigstens eine Annaherungan die Diagonalenform zu erreichen, namlich eine Block-Diagonalmatrix mit moglichst ein-fachen Blocken von moglichst kleinem Format. Hierbei benutzen wir die Zerlegung desVektorraums V in eine direkte Summe ϕ-invarianter Unterraume.

(6.1.4) Satz Es sei ϕ ein Endomorphismus von V , und V = U1 ⊕ . . .⊕ Uk eine direkteZerlegung von V in ϕ-invariante Unterraume mit dim(Ui) = ni .Dann wird ϕ bezuglich einer geeigneten Basis von V beschrieben durch eine Block-Diagonal-matrix

A =

A1

. . .

Ak

,

wobei Ai eine (ni × ni)-Matrix ist.Die Teilmatrix Ai beschreibt die Einschrankung ϕ|Ui .

Page 168: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6.1 Die Jordan-Normalform 165

Beweis: Wir setzen die gewunschte Basis von V zusammen aus den Basen der UnterraumeUi : Ist (ui1, . . . , u

ini

) eine Basis von Ui , so ist B = (u11, . . . , u

1n1, . . . , uk1, . . . , u

knk

) eine Basisvon V . Wegen der ϕ-Invarianz der Unterraume Ui ergibt sich bezuglich der Basis B dieangegebene Form der Matrix. �

Die Satze (5.5.1) und (6.1.4) liefern nun zusammen die Folgerung

(6.1.5) Korollar Es sei ϕ ein Endomorphismus von V mit MinimalpolynomM =

∏ti=1 P

kii , wobei die Pi paarweise verschieden, normiert und irreduzibel seien.

Dann laßt sich ϕ beschreiben durch eine Matrix der Form

A =

A1

. . .

At

,

wobei Ai eine (ni × ni)-Matrix ist fur ni = dim∏

j 6=i(Pj(ϕ))kjV .

Die Teilmatrix Ai hat das Minimalpolynom P kii .

Diese Zerlegung lenkt genau wie in Kapitel 6 die Aufmerksamkeit auf Endomorphismen,deren Minimalpolynom eine Potenz eines irreduziblen Polynoms ist.

(6.1.6) Satz Es sei P (x) = xr + αr−1xr−1 + . . . + α0 ∈ K[x] ein irreduzibles Polynom

und ϕ ein Endomorphismus von V = Kn mit dem Minimalpolynom M = P k . Weiter seigrad(M) = dim(V ) .Dann laßt sich ϕ beschreiben durch eine Matrix der Form

A =

T1 T

. . .

1 T

mit T =

0 0 0 . . . 0 −α0

1 0 0 . . . 0 −α1

0 1 0 . . . 0 −α2

0 0 1 . . . 0 −α3...

......

. . ....

...0 0 0 . . . 1 −αr−1

.

Ist P (x) = x+ α0 linear, so ist T = (−α0) eine (1× 1)-Matrix.

Beweis: Der Beweis verlauft in drei Schritten.(i) Nach (5.5.5) gibt es einen Vektor v ∈ V mit V = 〈v, ϕ(v), . . . , ϕrk−1(v)〉 .(ii) Wir zeigen, daß

B′ = ( v , ϕ(v) , . . . , ϕr−1(v) , P (ϕ)v , ϕP (ϕ)v , . . . , ϕr−1P (ϕ)(v),

. . . P k−1(ϕ)v , ϕP k−1(ϕ)v , . . . , ϕr−1P k−1(ϕ)v )

eine Basis von V ist.Die Menge B′ hat r · k = dim(V ) Elemente. Es reicht also zu zeigen, daß B′ linear

Page 169: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

166 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

unabhangig ist.Angenommen, B′ sei linear abhangig. Dann gabe es Koeffizienten αi,j ∈ K mit

o = α0,0v + α0,1ϕ(v) + . . .+ α0,r−1ϕr−1(v)

+α1,0P (ϕ)v + α1,1ϕP (ϕ)v + . . .+ α1,r−1ϕr−1P (ϕ)(v)

. . .

+αk−1,0Pk−1(ϕ)v + αk−1,1ϕP

k−1(ϕ)v + . . .+ αk−1,r−1ϕr−1P k−1(ϕ)v

= S(ϕ)v ,

wobei S(x) = α0,0+α0,1x+. . .+αk−1,r−1xr−1P k−1(x) ein Polynom vom Grad hochstens

r − 1 + r(k − 1) = r · k − 1 ist. Daher ware S ein annullierendes Polynom von ϕ aufV mit echt kleinerem Grad als M , ein Widerspruch.

(iii) Nun berechnen wir die Matrix A, die bezuglich der Basis B′ den Endomorphismus ϕbeschreibt, indem wir die Bilder der Basisvektoren bestimmen.Fur j < r − 1 und beliebiges i ist

ϕ(ϕjP i(ϕ)v

)= ϕj+1P i(ϕ)v

ebenfalls ein Basisvektor, und zwar gemaß der obigen Anordnung der jeweils nachste.Dies ergibt die Einser unter der Diagonalen in den Teilmatrizen T .Fur einen beliebigen Exponenten i gilt außerdem wegen

P (ϕ)v = α0v + α1ϕ(v) + . . .+ ϕr(v)

auch

ϕ(ϕr−1P i(ϕ)v

)= ϕrP i(ϕ)v = P i(ϕ)ϕrv

= P i(ϕ)(− α0v − α1ϕ(v)− . . .− αr−1ϕ

r−1(v) + P (ϕ)v)

= −α0Pi(ϕ)v − α1ϕP

i(ϕ)v − . . .− αr−1ϕr−1P i(ϕ)v + P i+1(ϕ)v .

Das ergibt die jeweils letzte Spalte von T und die darunterstehende”Verkettungseins“

im Falle i ≤ k − 1 . Im Fall i = k ist P i+1(ϕ)v = P k(ϕ)v = o , also erhalt man nunin der rechten unteren Ecke einfach die Matrix T . �

Definition: Begleitmatrix, VerkettungseinsDie Matrix T aus Satz (6.1.6) heißt Begleitmatrix, die Einsen in der rechten oberen Ecke derBlocke unterhalb der Diagonalen heißen Verkettungseinsen.

(6.1.7 ) Korollar Es seien A1 und A2 zwei (n × n)-Matrizen uber dem Korper K, diedasselbe Minimalpolynom M = P k haben, wobei P irreduzibel und grad(M) = dim(V ) ist.Dann sind A1 und A2 ahnlich.

Beweis: Nach (6.1.6) sind beide Matrizen ahnlich zu einer Matrix der Gestalt A aus (6.1.6),wobei T die Begleitmatrix zum Polynom P ist. �

Page 170: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6.1 Die Jordan-Normalform 167

(6.1.8) Beispiele Begleitmatrizen

1. Ist ϕ ein Endomorphismus von V mit irreduziblem Minimalpolynom M und grad(M) =dim(V ), so kann ϕ durch die zum Polynom M gehorige Begleitmatrix beschrieben werden.

Fur ein Beispiel wahlen wir die bekannte Matrix A =(

0 −11 0

)∈M2(R) mit dem irredu-

ziblen Minimalpolynom M(x) = x2+1 vom Grad 2. Diese Matrix ist bereits die Begleitmatrixihres charakteristischen Polynoms.

Die reelle Matrix B =(

1 −12 −1

)∈ M2(R) hat ebenfalls das Minimalpolynom M(x) =

x2 + 1, ist also ahnlich zur Begleitmatrix A.

2. Irreduzible nichtkonstante Polynome uber C sind immer linear. Begleitmatrizen uber C sinddaher stets (1× 1)-Matrizen. Folglich wird ein Endomorphismus von Cn, dessen Minimalpo-lynom den Grad n hat und Potenz eines irreduziblen Polynoms x− λ ist, durch die Matrix

A =

λ1 λ

. . . . . .. . . λ

1 λ

beschrieben. Der Eintrag λ ist der einzige Eigenwert von A.

3. Da irreduzible Polynome uber R hochstens den Grad 2 haben, sind Begleitmatrizen uber Rstets (1× 1)- oder (2× 2)-Matrizen.

4. Das Polynom M(x) = x3 − 2 ∈ Q[x] hat keine Nullstelle in Q, ist also irreduzibel uber Q.

Die rationale Matrix A =

0 0 21 0 00 1 0

ist folglich eine Begleitmatrix.

Im allgemeinen Fall betrachten wir nun wieder einen Endomorphismus ϕ des VektorraumsV mit dem Minimalpolynom M =

∏ti=1 P

kii , wobei die Polynome Pi paarweise verschieden,

normiert und irreduzibel seien, und setzen die Ergebnisse dieses und des letzten Abschnittszusammen, um eine Matrixdarstellung A fur ϕ zu gewinnen:Nach (5.5.1) konnen wir zunachst den Raum V zerlegen in eine direkte Summe von ϕ-invarianten Unterraumen U1, . . . , Ut , so daß P ki

i das Minimalpolynom von ϕ|Ui ist. Damiterhalten wir fur ϕ eine Matrix mit Blocken Ai auf der Diagonalen gemaß (6.1.5). JederUnterraum Ui laßt sich nach (5.5.8) weiter zerlegen in eine direkte Summe ϕ-invarianter

Unterraume U(1)i , . . . , U

(mi)i , so daß die Dimension von U

(j)i gleich dem Grad des Minimal-

polynoms von ϕ|U

(j)i

ist. Dieses Minimalpolynom ist eine Potenz des irreduziblen Polynoms

Pi. Damit konnen wir jeden der Blocke Ai weiter zerlegen in eine Block-Diagonalmatrixmit Blocken A

(1)i , . . . , A

(mi)i auf der Diagonalen. Die Teilmatrix A

(j)i gehort zum Unter-

raum U(j)i und hat nach (6.1.6) Begleitmatrizen zum Polynom Pi auf der Diagonalen mit

Verkettungseinsen darunter. Die Anzahl mi dieser Unterraume ist eindeutig festgelegt nach(5.5.8), ebenso die Dimensionen dieser Unterraume (bis auf Reihenfolge). Aus der Konstruk-tion des ersten Summanden in Teil (i) des Beweises von (5.5.8) ergibt sich, daß mindestens

ein Unterraum U(j)i der Dimension

(grad(Pi)

)ki auftaucht. Mindestens eine der Teilmatri-

zen A(j)i enthalt also genau ki Begleitmatrizen. Andererseits hat der Unterraum U

(j)i eine

Page 171: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

168 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

Basis ( v , ϕ(v) , . . . , ϕli,j(v) ) mit einem geeigneten Element v ∈∏

j 6=i(Pj(ϕ))kjV und ei-

nem geeigneten Exponenten li,j . Wegen(∏

j 6=i(Pj(ϕ))kj)P kii (v) = o kann li,j nicht großer

als ki − 1 werden. Daher enthalt keine der Teilmatrizen A(j)i mehr als ki Begleitmatrizen.

Die Teilmatrizen A(j)i heißen Jordanblocke. Jeder Jordanblock hat also auf der Diagona-

len Begleitmatrizen zum selben irreduziblen Polynom P , wobei diese Begleitmatrizen alleverkettet sind.

Viele Autoren nennen die hier vorgestellte Form nur dann Jordan-Normalform , wenn alleBegleitmatrizen (1×1)-Matrizen sind, also wenn die irreduziblen Teiler des Minimalpolynomsalle linear sind. Dies tritt immer dann auf, wenn alle irreduziblen Polynome im PolynomringK[x] den Grad 1 haben, zum Beispiel fur den Korper C.Andernfalls wird diese Normalform auch Frobenius-Normalform oder rationale Normalformgenannt.

(6.1.9) Satz Jordan-Normalform (Frobenius-Normalform, rationale Normalform)Es sei ϕ ein Endomorphismus von V mit Minimalpolynom M =

∏ti=1 P

kii , wobei die Pi

paarweise verschieden, normiert und irreduzibel seien.Dann laßt sich ϕ beschreiben durch eine Matrix der Form

A =

A1

. . .

At

.

Dabei gehort die Teilmatrix Ai zum Teiler P kii von M und hat folgende Gestalt:

Ai =

A(1)i

. . .

A(mi)i

,

wobei jeder Diagonalblock A(j)i eine Matrix der Form von A aus Satz (6.1.6) mit Begleitma-

trizen zum Polynom Pi ist. Die Anzahl mi dieser Blocke ist durch ϕ eindeutig festgelegt,ebenso bis auf Reihenfolge die Dimension jedes Blocks A

(j)i , das heißt die Anzahl der in ihm

auftretenden Begleitmatrizen.Kein Block A

(j)i enthalt mehr als ki Begleitmatrizen, aber mindestens ein Block enthalt genau

ki Begleitmatrizen.Zwei (n× n)-Matrizen uber dem Korper K sind genau dann ahnlich, wenn sie bis auf Ver-tauschung der Reihenfolge der Jordanblocke dieselbe Jordan-Normalform haben.

6.2 Berechnung der Jordan-Normalform

(6.2.1) Algorithmus Berechnung der Jordan-NormalformEingabe: Endomorphismus ϕ des endlich-dimensionalen K-Vektorraums V .Ausgabe: Jordan-Normalform (rationale Normalform) von ϕ.

Page 172: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6.2 Berechnung der Jordan-Normalform 169

1. Berechne das Minimalpolynom M ∈ K[x] von ϕ nach (5.3.2).

2. Bestimme die Zerlegung M =∏tj=1 P

kjj von M in Produkte paarweise ver-

schiedener, normierter, in K[x] irreduzibler Polynome Pj.

3. Berechne fur alle 1 ≤ j ≤ t die Dimensionen

d(j)1 = dim

(Kern

(Pj(ϕ)

)), d

(j)2 = dim

(Kern

(P 2j (ϕ)

)), . . . , dkj

(j) = dim(Kern

(Pkjj (ϕ)

))der iterierten Kerne von Pj(ϕ).

4. Fur alle 1 ≤ j ≤ t wird jetzt festgestellt, wieviele ϕ-unzerlegbare Unterraume U (j)i zum Po-

lynom Pj in der Zerlegung (5.5.8) vorkommen, und welche Dimensionen diese Unterraumehaben:Man fixiere ein j ∈ {1, . . . , t} und setze gj := grad(Pj).Die Dimensionen der Unterraume U (j)

i sind immer Vielfache von gj . Die Anzahl der Un-terraume U (j)

i zu einer bestimmten Dimension l(j)i ·gj berechnet sich aus folgender Rekursion:

Es gibt d(j)1 /gj Unterraume U

(j)i .

Genau (d(j)2 − d

(j)1 )/gj von diesen haben mindestens die Dimension 2 · gj .

Genau(d

(j)3 − d

(j)2 )/gj von diesen haben mindestens die Dimension 3 · gj .

So geht es weiter bis zum letzten Schritt:

Genau (d(j)kj− d(j)

kj−1)/gj von diesen haben mindestens, also genau die Dimension

kj · gj .

5. Fur alle 1 ≤ j ≤ t Bestimmung der Jordan-Kastchen zum Teiler Pj :Jeder der in Schritt 4 bestimmten Unterraume U

(j)i liefert einen Jordanblock

J(j)i zum Teiler Pj.

Der Jordanblock J(j)i hat das Format (l(j)i · gj , l

(j)i · gj) und hat auf der Diagonalen

genau l(j)i Begleitmatrizen zum Polynom Pj, die alle miteinander verkettet sind.

6. Jordan-Normalform von ϕ:

Die Jordan-Normalform von ϕ hat die Gestalt

J =

J(1)1

...

J(t)dt/gt

,

wobei J1, . . . , Jdt/gt die in Schritt 5 berechneten Jordanblocke sind.Diese Jordanblocke sind nicht verkettet.

Wie man in Schritt 5 aus der Defektfolge fur einen Teiler Pj des Minimalpolynoms dieAnzahlen und Dimensionen der zu Pj gehorenden Begleitmatrizen und Jordanblocke enthalt,zeigt das folgende Schema. Dabei kann man sich auf den Fall M = P k mit einem irreduziblenPolynom P beschranken.Im Beispiel dieses Schemas ist M = P 6 das Minimalpolynom. Der Kern von P (ϕ) bestehtaus den Kastchen der untersten Zeile. Jedes Kastchen hat nach (5.5.6) die Dimension g =grad(P ).

Page 173: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

170 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

rrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr

rrrr rrrr rrrr rrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

rrrr rrrr rrrr rrrr..........

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

...

...

...

.

rrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

U1 U2 U3 U4 U5 U6 U7 U8 U9

6

6

6

6

6

6

Kern(P (ϕ)

)Kern(P 2(ϕ)

)Kern(P 3(ϕ)

)Kern(P 4(ϕ)

)Kern(P 5(ϕ)

)V = Kern(P 6(ϕ)

)Jedes Kastchen hat dieDimension g = grad(P ).

Schematische Darstellung der ϕ-unzerlegbaren Unterraume Ui in Algorithmus (6.2.1), gefarbtnach den Kernen.

Die Dimension d1 von Kern(P (ϕ)

)ist also g multipliziert mit der Anzahl der Unterraume

Ui.Der Kern von P 2(ϕ) besteht aus den Kastchen der beiden untersten Zeilen.Ist d2 = dim

(Kern

(P 2(ϕ)

)), so haben die beiden untersten Zeilen zusammen d2/g Kast-

chen, davon liegen (d2 − d1)/g in der zweiten Zeile. Arbeitet man in dieser Art die Zeilendes Schemas nach oben ab, so erhalt man die

”Hohen“ der Unterraume Ui.

Ist beispielsweise grad(P ) = 2 , so erhalt man das gezeichnete Schema aus der Defektfolged1 = 18 = 9 · 2 , d2 = 30 = 15 · 2 , d3 = 40 = 20 · 2 , d4 = 46 = 23 · 2 , d5 = 50 = 25 · 2 ,d6 = 54 = 27 · 2 .Diese Defektfolge reicht aus, um (von unten nach oben) das ganze Schema zu berechnen unddamit den zu P gehorigen Teil der Jordan-Normalform:Die Jordan-Normalform von ϕ hat 9 Jordanblocke Ji, je einen zu jedem Unterraum Ui.Drei dieser Jordanblocke enthalten jeweils nur eine Begleitmatrix zum Polynom P , namlichdie zu U7, U8, U9 gehorenden Jordanblocke.Der zu U6 gehorende Jordanblock enthalt genau zwei Begleitmatrizen zum Polynom P . Diesesind verkettet.Die zu U4 und U5 gehorenden Jordanblocke enthalten jeweils genau drei Begleitmatrizen zumPolynom P , die alle verkettet sind.Analog findet man einen Jordanblock mit genau 4 Begleitmatrizen und zwei Jordanblockemit genau 6 Begleitmatrizen.

(6.2.2) Beispiele Berechnung der Jordan-NormalformDie Eintrage aller folgenden Matrizen seien reell.

1. Es sei A =

1 0 0 −4 0−1 −2 1 4 −1−2 0 −1 4 0

1 0 0 −3 02 1 0 −4 0

und ei der i-te Standard-Einheitsvektor.

Page 174: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6.2 Berechnung der Jordan-Normalform 171

Wir berechnen das Minimalpolynom M von A nach (5.3.2):

e1 =

10000

, Ae1 =

1−1−2

12

, A2e1 =

−3

14−2−3

, A3e1 =

50−6

33

.

Die Vektoren sind linear abhangig, und man erhalt P1(x) = x3 + 3x2 + 3x+ 1 = (x+ 1)3 .

e3 =

00100

, Ae3 =

01−1

00

, A2e3 =

0−3

101

, A3e3 =

06−1

0−3

.

Die Vektoren sind linear abhangig, und man erhalt P3(x) = x3 + 3x2 + 3x+ 1 = (x+ 1)3 .Wie man (zum Beispiel durch elementare Spaltenumformungen) sieht, erzeugen die Vekto-ren e1, Ae1, A

2e1, e3, Ae3 bereits den ganzen Vektorraum R5 , so daß die Information schon

ausreicht, um das Minimalpolynom zu berechnen: M = kgV (P1, P2) = (x+ 1)3 .Es sei P (x) = x+ 1 der irreduzible Teiler von M . Dann gilt

P (A) =

2 0 0 −4 0−1 −1 1 4 −1−2 0 0 4 0

1 0 0 −2 02 1 0 −4 1

und P 2(A) =

0 0 0 0 0−1 0 −1 0 0

0 0 0 0 00 0 0 0 01 0 1 0 0

.

P 3(A) ist naturlich die Nullmatrix. P (A) = A + E hat den Rang 3, also den Defekt 2;P 2(A) = (A + E)2 hat den Rang 1, also den Defekt 4, und P 3(A) hat den Defekt 5. Wirerhalten somit die Defektfolge d1 = 2 , d2 = 4 , d3 = 5 . Der Grad von P ist 1.Daher treten d1 = 2 A-unzerlegbare Unterraume auf. Vondiesen haben d2 − d1 = 2 mindestens die ”Hohe“ zwei undd3−d2 = 1 mindestens die ”Hohe“ drei. Das Schema der A-unzerlegbaren Unterraume hat damit nebenstehende Form.Die zum Polynom P (x) = x + 1 gehorige Begleitmatrixist die (1 × 1)-Matrix (−1) . Zu U1 gehoren drei verketteteBegleitmatrizen, zu U2 gehoren zwei verkettete Begleitma-trizen.

U1 U2

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.rrrrrrrrrrrrrrrrrrrrrrrrr

Die Jordan-Normalform von A ist J =

-1

1 -11 -1

-11 -1

.

2. Sei A =

−1 0 0 0 0

1 −2 1 0 −10 0 −1 0 00 0 0 −1 00 1 0 0 0

.

Wie im ersten Beispiel wird das MinimalpolynomM von A berechnet. Es ergibt sich auch hier

Page 175: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

172 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

M(x) = (x+ 1)3 . Fur den irreduziblen Teiler P (x) = x+ 1 gilt

P (A) =

0 0 0 0 01 −1 1 0 −10 0 0 0 00 0 0 0 00 1 0 0 1

und P 2(A) =

0 0 0 0 0−1 0 −1 0 0

0 0 0 0 00 0 0 0 01 0 1 0 0

.

Wegen rang(P (A)

)= 2 und rang

(P 2(A)

)= 1 erhalten wir jetzt die Defektfolge

d1 = 3 , d2 = 4 , d3 = 5 .Also haben wir drei A-unzerlegbare Unterraume, undzwar zwei der Dimension 1 und einen der Dimension 3.Die Jordan-Normalform von A ist jetzt

J =

-1

1 -11 -1

-1-1

.

U1 U2 U3

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.rrrrr rrrrrrrrrrrrrrrrrrrr

3. Es sei A =

−3 −1 4 −3 −1

1 1 −1 1 0−1 0 2 0 0

4 1 −4 5 1−2 0 2 −2 1

.

Das Minimalpolynom von A ist M(x) = (x − 1)3(x − 2) . Seine irreduziblen Teiler sindP (x) = x − 1 und Q(x) = x − 2 . Die Jordan-Normalform von A enthalt also mindestens

einen Block1 0 01 1 00 1 1

zum Teiler P (x) und mindestens einen Block 2 zum Teiler Q(x)

von M . Wegen dim(V ) = 5 muß noch ein (1×1)-Block auftreten. Wir haben zu entscheiden,ob dieser die Form 1 oder 2 hat.Die Anzahl der Blocke zum Teiler Q(x) ist gleich dem Defekt der Matrix Q(A).

Q(A) = A− 2E =

−5 −1 4 −3 −1

1 −1 −1 1 0−1 0 0 0 0

4 1 −4 3 1−2 0 2 −2 −1

.

Diese Matrix hat den Rang 4, also den Defekt 1. Das bedeutet, daß es nur einen Block zum

Teiler x− 2 von M gibt. Also hat A die Jordan-Normalform J =

11 1

1 11

2

.

Fur den irreduziblen Teiler x− 1 von M erhalt man ubrigens die Defektfolged1 = 2 , d2 = 3 , d3 = 4 .

4. Um zu demonstrieren, was im Fall von irreduziblen Teilern mit hoherem Grad passsiert, muß

Page 176: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6.2 Berechnung der Jordan-Normalform 173

man schon zu unangenehm großen Matrizen greifen. Wir betrachten

A =

−4 2 3 4 −2 1 4 −10 0 1 0 1 0 0 0−1 −1 2 1 0 0 2 0−3 1 1 3 −3 1 2 0

1 0 −2 −1 0 0 −2 01 1 −1 −2 1 0 0 −21 1 −1 −1 1 0 −1 02 0 −1 −2 2 0 −2 0

.

A hat das Minimalpolynom M(x) = (x2 + 1)2 . Das Polynom P (x) = x2 + 1 hat keinereelle Nullstelle, ist also irreduzibel in R[x]. Die Kastchen im Schema der A-unzerlegbarenUnterraume haben also alle die Dimension 2. Die Matrix

P (A) = A2 + E =

3 −2 0 −3 1 0 0 20 0 0 0 0 0 0 01 −1 0 −1 0 0 0 12 −1 0 −2 1 0 0 1−1 1 0 1 0 0 0 −1

0 1 0 0 1 0 0 −10 1 0 0 1 0 0 −1−1 1 0 1 0 0 0 −1

hat den Rang 2, also den Defekt 8− 2 = 6. Da (A2 +E)2 die Nullmatrix ist, ergibt sich dieDefektfolge d1 = 6 , d2 = 8 . Damit erhalt man d1/2 = 3 A-unzerlegbare Unterraume. Vondiesen hat einer ( (d2 − d1)/2 = 1 ) die ”Hohe“ 2, also die Dimension 4. Die anderen beidenhaben die Dimension 2 und liegen in Kern

(P (A)

). Die Jordan-Normalform von A ist daher

J =

0 −11 0

1 0 −11 0

0 −11 0

0 −11 0

.

U1 U2 U3

Jedes Kastchen hat

die Dimension 2.

..

..

.

..

..

.

..

..

.

..

..

.

..

..

.

In manchen Fallen reicht die Kenntnis des Minimalpolynoms aus, um die Jordan-Normalformanzugeben:

(6.2.3) Beispiel (2× 2)-Matrizen mit demselben MinimalpolynomHaben zwei (2×2)-Matrizen uber dem Korper K dasselbe Minimalpolynom M , so sind sie ahnlich:1. Fall: M(x) = x− λ . Dann sind beide Matrizen ahnlich zum λ-fachen der Einheitsmatrix.

2. Fall: M(x) = (x− λ)2 . Dann sind beide Matrizen ahnlich zu(λ 01 λ

).

3. Fall: M(x) = (x− λ)(x− µ) mit λ 6= µ . Dann sind beide Matrizen ahnlich zu einer Diagonal-matrix mit den Eintragen λ und µ auf der Diagonalen.

4. Fall: M(x) = x2 + λx+ µ ist irreduzibel. Dann sind beide Matrizen ahnlich zu(

0 −λ1 −µ

).

Page 177: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

174 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

Schon ab Dimension 3 mussen zwei Matrizen mit demselben Minimalpolynom nicht ahnlichsein:

(6.2.4) Beispiel Die beiden Matrizen A = diag(0, 0, 1) und B = diag(0, 1, 1) uber einembeliebigen Korper K haben das Minimalpolynom M(x) = x(x−1) , sind aber nicht ahnlich, da diealgebraische Vielfachheit von x bezuglich A gleich 1, bezuglich B aber gleich 2 ist.

Wie sehr die Jordan-Normalform einer Matrix A vom Grundkorper abhangt, soll im folgen-den Beispiel gezeigt werden:

(6.2.5) Beispiel Sei A =(

0 −11 0

). Unabhangig vom Korper K hat A das Minimalpo-

lynom M(x) = x2 + 1 , denn dies ist ein annullierendes Polynom, und A ist kein Vielfaches derEinheitsmatrix, hat also kein lineares Minimalpolynom.

1. Sei K = R oder Q. Dann ist M irreduzibel, also A Begleitmatrix seines irreduziblen Mini-malpolynoms und damit schon gleich seiner Jordan-Normalform .

2. Sei K = C. Nun zerfallt M in der Form M(x) = (x−i)(x+i) . Also sind die Begleitmatrizenzu den irreduziblen Faktoren P1(x) = x−i und P2(x) = x+i eindimensional mit dem Eintrag

i bzw. −i , und A hat die Jordan-Normalform(

i 00 −i

).

3. Sei K = GF (2) der Korper mit zwei Elementen. In ihm gilt 2 = 0 , also x2 + 1 =(x + 1)2 . Das Minimalpolynom von A ist jetzt ein Quadrat eines irreduziblen Polynoms,

und die Jordan-Normalform(

1 01 1

)von A enthalt zwei Begleitmatrizen zum Polynom

x+ 1 = x− 1 , die durch die 1 in der linken unteren Ecke verkettet sind.

Begleitmatrizen zu irreduziblen Polynomen P sind Matrizen in Jordan-Normalform . IstP dagegen nicht irreduzibel, so kann man die Begleitmatrix zu P zerlegen in (eventuellverkettete) Begleitmatrizen zu den Teilern von P :

(6.2.6) Beispiel Jordan-Normalform einer BegleitmatrixWir betrachten die reelle Begleitmatrix

A =

0 0 0 −41 0 0 40 1 0 −50 0 1 2

zum Polynom P (x) = x4 − 2x3 + 5x2 − 4x + 4 . Dies ist auch das Minimalpolynom von A,denn es ist ein normieres Polynom minimalen Grades mit der Eigenschaft, daß P (A) den erstenStandardbasisvektor annulliert (vgl. (5.3.2)). Weiter ist P das Quadrat des irreduziblen Polynoms

P1(x) = x2 − x+ 2 . Daher hat A die Jordan-Normalform

0 −2 0 01 1 0 00 1 0 −20 0 1 1

.

Page 178: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6.3 Algebraische und geometrische Vielfachheit 175

6.3 Algebraische und geometrische Vielfachheit

Wir bestimmen nun die geometrische und die algebraische Vielfachheit eines irreduziblenPolynoms bezuglich ϕ und werden sehen, daß diese beiden Zahlen ganz anschauliche Bedeu-tungen fur die Jordan-Normalform von ϕ haben:

(6.3.1) Satz Es sei ϕ ein Endomorphismus von V und P ein irreduzibles Polynom.

(a) Die geometrische Vielfachheit von P bezuglich ϕ ist gleich der Anzahl der Jordanblockezum Polynom P in der Jordan-Normalform von ϕ;

(b) Die algebraische Vielfachheit von P bezuglich ϕ ist gleich der Anzahl der Begleitmatri-zen zum Polynom P in der Jordan-Normalform von ϕ.

Beweis: Es sei grad(P ) = r und ϕ ein Endomorphismus von V mit MinimalpolynomM =

∏ti=1 P

kii , wobei die Polynome Pi paarweise verschieden, normiert und irreduzibel

seien. Dann erhalt man nach (5.5.1) und (5.5.8) eine Zerlegung von V in die ϕ-invariantenUnterraume

V = U(1)1 ⊕ . . .⊕ U

(m1)1 ⊕ . . .⊕ U (1)

t ⊕ . . .⊕ U(mt)t ,

wobei die direkten Faktoren dieselbe Bedeutung haben wie in der Vorbemerkung zu (6.1.9).Nach (2.5.6) gilt nun

KernP e(ϕ) =(U

(1)1 ∩KernP e(ϕ)

)⊕ . . .⊕

(U

(mt)t ∩KernP e(ϕ)

)fur jeden Exponenten e. Da das Minimalpolynom von ϕ|

U(j)i

eine Potenz des irreduziblen

Polynoms Pi ist, und P ebenfalls irreduzibel ist, muß der Durchschnitt (U(j)i ∩KernP k(ϕ))

jedenfalls dann gleich dem Nullraum sein, wenn P 6= Pi ist. Wir konnen also die geometri-sche und die algebraische Vielfachheit von ϕ

”Jordanblockweise“ ausrechnen und M = P k

annehmen.(a) Es sei A

(j)i ein Jordanblock in der Jordan-Normalform von ϕ. Dieser Jordanblock

enthalte nj Begleitmatrizen zum Polynom P . Um den Kern von P (ϕ) zu berechnen,

wahlen wir die Basis von U(j)i , bezuglich derer ϕ die Matrixdarstellung A

(j)i hat,

namlich

B = ( v , ϕ(v) , . . . , ϕr−1(v) , P (ϕ)v , ϕP (ϕ)v , . . . , ϕr−1P (ϕ)(v),

P nj−1(ϕ)v , ϕP nj−1(ϕ)v , . . . , ϕr−1P nj−1(ϕ)v ) .

Der Unterraum P (ϕ)U(j)i wird erzeugt von den Bildern der angegebenen Basisvektoren

unter P (ϕ) . Durch das Anwenden von P (ϕ) rutscht man in der angegebenen Anord-nung der Basisvektoren um jeweils eine Zeile nach unten. Die letzte Zeile wird dabeiersetzt durch

P nj(ϕ)v , ϕP nj(ϕ)v , . . . , ϕr−1P nj(ϕ)v .

Alle diese Vektoren sind gleich o, weil P nj das Minimalpolynom von ϕ|U

(j)i

ist. Der

Raum P (ϕ)U(j)i hat somit eine Basis aus r(nj − 1) Vektoren, und die r Vektoren

P nj−1(ϕ)v , ϕP nj−1(ϕ)v , . . . , ϕr−1P nj−1(ϕ)v

Page 179: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

176 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

bilden eine Basis des Kerns von P (ϕ)|U

(j)i

. Die geometrische Vielfachheit von ϕ|U

(j)i

ist also rr

= 1 . Jeder Jordanblock zum Polynom P liefert daher den Beitrag 1 zurgeometrischen Vielfachheit von P , so daß die geometrische Vielfachheit die Anzahldieser Jordanblocke angibt.

(b) Da ϕ|U

(j)i

das Minimalpolynom P nj hat, und naturlich nj ≤ k gilt, ist U(j)i ein

Teilraum von KernP k(ϕ) =⋃n∈N KernP n(ϕ) . Somit hat der Kern von P k(ϕ)|

U(j)i

die Dimension rnj , und die algebraische Vielfachheit von ϕ|U

(j)i

ist gleich nj , also

gleich der Anzahl der Begleitmatrizen zum Polynom P in der Jordan-Normalform .�

6.4 Die Jordan-Normalform komplexer Matrizen

Der Korper C ist ein algebraisch abgeschlossener Korper. Das heißt: Uber C zerfallen allenichtkonstanten Polynome in Linearfaktoren. Deshalb haben Jordanblocke von Endomor-phismen des Vektorraums Cn immer die in (6.1.8.2) angegebene Gestalt mit eindimensionalenBegleitmatrizen.

(6.4.1) Satz Jeder Endomorphismus von Cn hat eine Jordan-Normalform

J =

J1

. . .

Jk

,

wobei jeder Jordanblock die Gestalt

Jt =

λt

1. . .. . . . . .

1 λt

hat. Dabei sind λ1, . . . , λk die (nicht notwendig verschiedenen) samtlichen Eigenwerte vonA.

(6.4.2) Beispiel Es sei ϕ der durch die Matrix

A =

−4 5 −2 1−2 0 −2 0

2 −4 0 −13 2 5 0

beschriebene Endomorphismus von C4 .Wir suchen die Jordan-Normalform von ϕ. Dazu berechnen wir zunachst das Minimalpolynom vonϕ nach Satz (5.3.2). Wir starten mit dem ersten Standardbasisvektor e1 und erhalten

e1 =

1000

, Ae1 =

−4−2

23

, A2e1 =

54−3−6

, A3e1 =

0−4

08

, A4e1 =

−12

08−8

.

Page 180: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6.5 Andere Normalformen reeller Matrizen 177

Die Vektoren e1, Ae1, A2e1, A

3e1, sind linear unabhangig, und das Gleichungssystemo = α0e1 + α1Ae1 + α2A

2e1 + α3A3e1 +A4e1

hat die Losung α0 = 4 , α1 = 8 , α2 = 8 , α3 = 4 .Damit ergibt sich fur ϕ das Minimalpolynom

M(x) = x4 + 4x3 + 8x2 + 8x+ 4 = (x2 + 2x+ 2)2 =(x− (−1 + i)

)2(x− (−1− i)

)2.

Die Polynome P1(x) = x − (−1 + i) und P2(x) = x − (−1 − i) sind die irreduziblen Teiler vonM . Damit haben wir fur ϕ die Jordan-Normalform

JC =

−1 + i 0 0 0

1 −1 + i 0 00 0 −1− i 00 0 1 −1− i

.

Teil (ii) des Beweises zu (6.1.6) liefert auch eine Basis von C4, bezuglich derer die Matrixdarstellungvon ϕ die Jordan-Normalform hat:Wir beginnen mit dem Jordanblock zum irreduziblen Teiler P1 und suchen daher einen Vektorv ∈ C4 mit P 2

1 (ϕ)v = o 6= P1(ϕ)v .Bezuglich der kanonischen Basis haben wir die Matrixdarstellungen

P1(A) =

−3− i 5 −2 1−2 1− i −2 0

2 −4 1− i −13 2 5 1− i

, P 21 (A) =

−3 + 6i −10i −1 + 4i −2i

4i −2− 2i 4i 01− 4i 8i −1− 2i 2i−6i −1− 4i −10i −2− 2i

,

P2(A) =

−3 + i 5 −2 1−2 1 + i −2 0

2 −4 1 + i −13 2 5 1 + i

, P 22 (A) =

−3− 6i 10i −1− 4i 2i−4i −2 + 2i −4i 0

1 + 4i −8i −1 + 2i −2i6i −1 + 4i 10i −2 + 2i

.

Daß P2(A) und P 22 (A) gerade konjugiert komplex sind zu P1(A) bzw. P 2

1 (A) , liegt ubrigensdaran, daß A nur reelle Eintrage hat. Nach (5.4.1) gilt Kern(P 2

1 (A)) = P 22 (A)C4 , also liegt die

erste Spalte von P 22 (A) im Kern von P 2

1 (A) . Dieser Vektor wird aber noch nicht von P1(A)annulliert, so daß wir mit v1 = (−3− 6i,−4i, 1 + 4i, 6i)T starten konnen. Als dritter Basisvektor(d.h. erster zum Jordanblock fur P2) dient uns dann die erste Spalte v2 = (−3+6i, 4i, 1−4i,−6i)T

von P1(A) . Nach (6.1.6) wahlen wir als zweiten Basisvektor P1(A)v1 = (1− i, 0,−1 + i, 2)T undals vierten Basisvektor P2(A)v2 = (1 + i, 0,−1 − i, 2)T . Schreibt man die so erhaltenen neuenBasisvektoren v1 , P1(A)v1 , v2 , P2(A)v2 als Spalten in die Transformationsmatrix

T =

−3− 6i 1− i −3 + 6i 1 + i−4i 0 4i 0

1 + 4i −1 + i 1− 4i −1− i6i 2 −6i 2

,

so erhalt man T−1AT = JC .

6.5 Andere Normalformen reeller Matrizen

Fur das Folgende benutzen wir die Tatsache, daß uber R alle irreduziblen Polynome denGrad 1 oder 2 haben. Dies wird in der Algebra bewiesen.

Page 181: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

178 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

Ist nun P (x) = x2 + λx + µ ein irreduzibles Polynom in R[x], so hat P keine Nullstelle inR, also ist die Diskriminante λ2 − 4µ < 0 . Folglich sind

α = −1

2λ undβ =

1

2

√4µ− λ2

reell, und in C hat P die beiden zueinander konjugierten Nullstellen α + iβ und α− iβ .Man kann jetzt durch einen Basiswechsel die Jordan-Normalform des reellen Endomorphis-mus ϕ so abandern, daß die eindimensionalen Begleitmatrizen (also die, die zu reellen Eigen-werten gehoren) stehenbleiben, und die zu einem irreduziblen Polynom P (x) = x2 +λx+µgehorenden Begleitmatrizen (

0 −λ1 −µ

)ersetzt werden durch (

α −ββ α

).

(6.5.1) Satz reelle NormalformEs sei ϕ ein Endomorphismus von R2n mit dem Minimalpolynom M = P n , wobeiP (x) = x2 + λx+ µ irreduzibel sei. Weiter seien α = −1

2λ und β = 1

2

√4µ− λ2 .

Dann hat die Matrix von ϕ bezuglich einer geeigneten Basis die Gestalt

A =

α −ββ α

1 α −ββ α

. . .

1 α −ββ α

.

Beweis: Sei v ∈ R2n mit P n(ϕ)v = o 6= P n−1(ϕ)v . Dann wird ϕ beschrieben durchseine Jordan-Normalform bezuglich der Basis

B = ( v , ϕ(v) , P (ϕ)v , ϕP (ϕ)v , . . . , P n−1(ϕ)v , ϕP n−1(ϕ)v ) .

Wir setzen nun w = 1β

(− αv + ϕ(v)

)und ψ = 1

βP (ϕ) .

Damit bilden wir die neue Basis

B′ = ( v , w , ψ(v) , ψ(w) , . . . , ψn−1(v) , ψn−1(w) ) .

Um nachzuweisen, daß B′ wieder eine Basis von R2n ist, reicht der Beweis, daß alle Elementevon B in dem von B′ erzeugten Unterraum liegen, denn B′ hat 2n Elemente.Es gilt v ∈ B′ und ϕ(v) = αv+βw ∈ 〈B′〉 , und weiter fur jede naturliche Zahl j ≤ n−1 :

P j(ϕ)v = βjψj(v) ∈ 〈B′〉 und

ϕP j(ϕ)v = βjψj(ϕ(v)

)= αβjψj(v) + βj+1ψj+1(w) ∈ 〈B′〉 .

Nun berechnen wir die Bilder der Basisvektoren aus B′ unter ϕ, um die AbbildungsmatrixA zu erhalten: Fur alle j ∈ {0, . . . , n− 1} gilt:

Page 182: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6.5 Andere Normalformen reeller Matrizen 179

ϕ(ψj(v)

)= ψj

(ϕ(v)

)= ψj(αv + βw) = αψj(v) + βψj(w) (1) und

ϕ(ψj(w)

)= ψj

(ϕ(w)

)=

1

βψj(− αϕ(v) + ϕ2(v)

)=

1

βψj(P (ϕ)v + αϕ(v)− (β2 + α2)v

)= −βψj(v) + αψj(w) + ψj+1(v) (2) ,

wobei im Fall j = n− 1 gilt: ψj+1(v) = ψn(v) = o .Die Gleichungen (1) liefern nun die Spalten mit den ungeraden Nummern, die Gleichungen(2) die Spalten mit den geraden Nummern, enthaltend die Verkettungseinsen (mit Ausnahmeder letzten Spalte). �

(6.5.2) Beispiel Wir betrachten jetzt die Matrix

A =

−4 5 −2 1−2 0 −2 0

2 −4 0 −13 2 5 0

aus (6.4.2) als Beschreibung des Endomorphismus ϕ von R4 .Das Minimalpolynom ist dasselbe wie in (6.4.2), aber jetzt das Quadrat des irreduziblen PolynomsP (x) = x2 + 2x+ 2 . Damit hat ϕ die Jordan-Normalform

JR =

0 −2 0 01 −2 0 00 1 0 −20 0 1 −2

.

Aus λ = 2 und µ = 2 folgt α = −1 und β = 1, also die reelle Normalform

NR =

−1 −1 0 0

1 −1 0 00 1 −1 −10 0 1 −1

,

an der man die komplexen Nullstellen −1− i und −1 + i des Minimalpolynoms ablesen kann.Wir wollen auch hier eine Basis bestimmen, bezuglich derer ϕ die Matrixdarstellung NR hat. Dazustarten wir mit einem Vektor v, der nicht von P (ϕ) annulliert wird. Wegen

P (A) =

−1 0 −1 0

0 0 0 01 0 1 00 −1 0 0

kann man v = (1, 0, 0, 0)T wahlen. Weiter benotigen wir noch ψ = 1

βP (ϕ) = P (ϕ) und den Vektor

w =1β

(− αv + ϕ(v)

)= (−3,−2, 2, 3)T .

Damit haben wir die gewunschte Basis ( v , w , P (A)v , P (A)w ) . Wir schreiben die Basisvektorenin dieser Reihenfolge als Spalten in die Transformationsmatrix

T =

1 −3 −1 10 −2 0 00 2 1 −10 3 0 2

mit T−1AT = NR .

Page 183: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

180 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

Eine Variante der reellen Normalform (6.5.1) ist die folgende mit (2×2)-Verkettungsblockenanstatt der Verkettungseinsen:

(6.5.3) Satz reelle NormalformEs sei ϕ ein Endomorphismus von R2n mit dem Minimalpolynom M = P n , wobeiP (x) = x2 + λx+ µ irreduzibel sei. Weiter seien α = −1

2λ und β = 1

2

√4µ− λ2 .

Dann hat die Matrix von ϕ bezuglich einer geeigneten Basis die Gestalt

B =

α −ββ α

1 00 1

α −ββ α

. . .

1 00 1

α −ββ α

.

Beweis: Wir zeigen, daß B das Minimalpolynom P n besitzt. Dann ist B nach (6.1.7)ahnlich zur Matrix A aus(6.5.1) und zur Jordan-Normalform von ϕ.Berechnen wir die Matrix P (B) , so werden die Diagonalblocke durch (2× 2)-Nullmatrizen

ersetzt, und die Verkettungsmatrix

(1 00 1

)geht uber zu

(0 −2β−2β 0

). Bildet man

P 2(B) , so rutschen die Verkettungsblocke um eine Diagonale nach links unten und werden

ersetzt durch

(4β2 00 4β2

). Induktion nach k zeigt nun, daß diese Verkettungsblocke die

Form

(2kβk 0

0 2kβk

)fur gerades k beziehungsweise

(0 −2kβk

−2kβk 0

)fur ungerades k

haben. Wegen der Irreduzibilitat von P uber R ist β 6= 0 . Daher ist P n−1(B) 6= 0 = P n(B) ,und B hat tatsachlich das Minimalpolynom P n . �

6.6 Stochastische Matrizen und Permutationsmatrizen

Definition: stochastische MatrixEine reelle (n×n)-Matrix A = (aij) heißt stochastisch, wenn alle Eintrage aij ≥ 0 und alleZeilensummen

∑nj=1 aij = 1 sind.

Man rechnet leicht nach, daß das Produkt zweier stochastischer Matrizen stochastisch ist.Die Eigenwerte einer stochastischen Matrix kann man mit Hilfe des folgenden Satzes ab-schatzen:

(6.6.1) Satz (Gershgorin)Es sei λ ein Eigenwert der Matrix A = (aij) uber R oder C. Dann gibt es einen Index k mit

|λ| ≤n∑j=1

|akj| .

Page 184: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6.6 Stochastische Matrizen und Permutationsmatrizen 181

Beweis: Es sei x ein Eigenvektor von A zum Eigenwert λ. Dann kann man die k-teKomponente xk von x in der Form λxk =

∑nj=1 akjxj schreiben. Wahlen wir den Index k

so, daß |xk| = max{|x1|, . . . , |xn|} gilt, so liefert die Dreiecksungleichung

|λ||xk| ≤n∑j=1

|akj||xj| , also |λ| ≤n∑j=1

|akj||xj||xk|

≤n∑j=1

|akj| . �

(6.6.2) Satz Es sei A eine stochastische Matrix mit dem Eigenwert λ.(a) Es gilt |λ| ≤ 1 .(b) Falls |λ| = 1 , so gilt Kern(A − λE)2 = Kern(A − λE) , das heißt: in der Jordan-

Normalform von A kommen keine Verkettungen fur λ vor.

Beweis: Teil (a) ist sofort klar nach dem Satz von Gershgorin. Zum Beweis von (b) nehmenwir an, die Aussage sei falsch. Dann gibt es einen Jordanblock

λ1 λ

. . . . . .

1 λ

der Dimension mindestens zwei zum Eigenwert λ. Sind x und y die beiden letzten Basisvek-toren, die zu diesem Jordanblock gehoren, so gilt Ax = λx+ y und Ay = λy , also

A2x = A(λx+ y) = λ(λx+ y) + λy = λ2x+ 2λy .

Durch Induktion nach k zeigt man

Akx = λkx+ kλk−1y fur alle k .

Der Vektor y hat mindestens eine Komponente yi 6= 0, und es folgt

(Akx)i = λkxi + kλk−1yi mit |λkxi| = |xi| und |kλk−1yi| = k|yi| (1).

Auch Ak ist eine stochastische Matrix, so daß |(Akx)i| nach oben beschrankt ist durch n|ai|,wenn n = dim(V ) ist. In der Gleichnung (1) sind also zwei der Summanden beschrankt,wahrend einer unbeschrankt ist, ein Widerspruch. �

Definition: PermutationsmatrixEine (n×n)-Matrix P uber einem beliebigen Korper K, die in jeder Zeile und in jeder Spaltegenau eine Eins und sonst nur Nullen enthalt, permutiert die Standard-Basisvektoren undheißt Permutationsmatrix.

Eine Permutationsmatrix P ist stochastisch, sogar doppelt- stochastisch, das heißt: P undP T sind stochastisch. Man beachte, daß Permutationsmatrizen uber beliebigen Korpern,stochastische Matrizen dagegen nur uber R definiert sind.

Page 185: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

182 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

(6.6.3) Beispiel PermutationsmatrizenDie Matrizen

A =

0 0 11 0 00 1 0

und B =

0 0 10 1 01 0 0

beschreiben die Permutationen πA = (1, 2, 3) bzw. πB = (1, 3) der Basisvektoren.Eine Permutationsmatrix hat immer den Eigenwert 1, weil der Vektor (1, . . . , 1)T auf sich selbstabgebildet wird.Fur eine reelle Permutationsmatrix A ist (6.6.2) anwendbar, und in der Jordan-Normalform von Asind die Jordanblocke zum Eigenwert 1 nicht verkettet. Die analoge Aussage ist aber im allgemeinennicht richtig fur andere Skalarenkorper. Als abschreckendes Beispiel diene wieder einmal die Matrix

A =(

0 11 0

)uber dem Korper GF (2) mit zwei Elementen. Die Matrix A hat nach (6.2.5) die

Jordan-Normalform(

1 01 1

), denn in GF (2) gilt 1 = −1 . Betrachtet man A als reelle Matrix,

so hat sie die Eigenwerte 1 und −1 . Diese beiden fallen uber GF (2) zusammen.Die (n × n)-Permutationsmatrizen bilden mit der Matrizenmultiplikation ubrigens eine Gruppe,und zwar eine Untergruppe der Ordnung n! von GL(n,R).

(6.6.4) Satz Es sei K ein beliebiger Korper und P ∈ Mn(K) eine Permutationsmatrix.Dann ist P invertierbar, und es gilt P−1 = P T 20 .

Beweis: Wir nennen E die (n × n)-Einheitsmatrix und mussen P TP = E nachweisen. Esseien s1, . . . , sn ∈ Kn die Spalten von P . Dann ist sTi die i-te Zeile von P T , und sTi sj der(i, j)-te Eintrag von P TP . Die Spalte si hat genau einen Eintrag 1, etwa an der Stelle (k, i),entsprechend habe die Spalte sj den Eintrag 1 an der Stelle (m, j). Nach Voraussetzung giltk 6= m fur i 6= j. Dies liefert

sTi sj =

{1 fur i = j0 fur i 6= j

,

also P TP = E. �

Literatur: Stochastische Matrizen spielen unter anderem in der Wahrscheinlichkeitstheorieeine große Rolle. Zu diesem Thema lese man in [Hup], Kapitel IV nach.

Eigenschaften stochastischer Matrizen werden auch besprochen in [21], Abschnitt 8.7. Dortfindet man beispielsweise den Zerlegungssatz von Birkhoff:

Eine Matrix A ∈ Mn(R) ist doppelt-stochastisch genau dann, wenn es endlich viele Permu-tationsmatrizen P1, . . . , PN ∈Mn(R) und positive reelle Zahlen α1, . . . , αN gibt mit

A = α1P1 + . . .+ αNPN .

20Die Matrix P ist also orthogonal, vgl. S. 293.

Page 186: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6.7 Erweiterung des Skalarenkorpers 183

6.7 Erweiterung des Skalarenkorpers

Zum Abschluß dieses Kapitels benutzen wir die Jordan-Normalform zur Klarung der Frage,was mit dem Minimalpolynom einer Matrix A passiert, wenn wir den Skalarenkorper erwei-tern:Es seien K und L zwei Korper mit K ⊆ L , und A eine (n × n)-Matrix mit Eintragen ausK. Dann beschreibt A (zum Beispiel bezuglich der Standardbasis) einen EndomorphismusϕK des Vektorraums Kn. Da die Eintrage von A aber auch alle in L liegen, beschreibt Aebenso einen Endomorphismus ϕL des Vektorraums Ln. Nun stellt sich die Frage, was ϕKund ϕL gemeinsam haben. Das Beispiel (6.2.5) zeigt, daß die Jordan-Normalform von ϕKund ϕL verschieden sein kann. In diesem Beispiel hat ϕR einen Jordanblock der Dimension2, aber ϕC zwei Jordanblocke der Dimension 1. Das Minimalpolynom jedoch bleibt bei derSkalarenkorpererweiterung gleich, wie der Satz (6.7.2) zeigt.

(6.7.1) Lemma Es seien K und L Korper mit K ⊆ L , und P,Q teilerfremde Polynomeuber K. Dann sind P,Q auch teilerfremd uber L.

Beweis: (i) Polynome P,Q uber einem Korper K sind teilerfremd genau dann, wenn esPolynome R, S uber K gibt mit RP + SQ = 1 .Eine Richtung dieser Aquivalenz ist bekannt aus (4.1.8.b). Zum Beweis der Umkehrungnehmen wir an, daß RP + SQ = 1 gilt, und daß T ein gemeinsamer Teiler von P und Qist. Dann gibt es Polynome P0 und Q0 uber K mit P = P0T und Q = Q0T . Es folgt1 = RP0T + SQ0T = (RP0 + SQ0)T , und T ist ein Teiler von 1 , also ein konstantesPolynom. Daher sind P,Q teilerfremd.(ii) Sind nun P,Q teilerfremd uber K, so gibt es nach (i) Polynome R, S uber K mitRP + SQ = 1 . Wegen K ⊆ L sind R, S auch Polynome uber L, und nach (i) sind P,Qteilerfremd uber L. �

(6.7.2) Satz Invarianz des Minimalpolynoms bei SkalarenkorpererweiterungEs seien K und L Korper mit K ⊆ L , und A eine (n×n)-Matrix mit Eintragen aus K. Esseien ϕK und ϕL die von A beschriebenen Endomorphismen von Kn bzw. Ln. Dann habenϕK und ϕL dasselbe Minimalpolynom.

Beweis: Das Minimalpolynom von ϕK sei MK =∏t

i=1 Pkii mit paarweise verschiedenen,

irreduziblen, normierten Teilern Pi. Dann hat die Jordan-Normalform J von A uber Keinen zu Pi gehorenden Jordanblock A

(j)i mit ki verketteten Begleitmatrizen. Auch uber

L ist A ahnlich zu J (wobei allerdings J nicht die Jordan-Normalform von A uber L seinmuß). Daher besitzt Ln einen ϕL-invarianten Unterraum U , so daß die Einschrankung ϕL|Ubeschrieben wird durch die Matrix A

(j)i .

Das Polynom P kii annulliert jedenfalls ϕL|U . Um zu zeigen, daß P ki

i auch das Minimalpoly-nom von ϕL|U ist, gehen wir nach der Methode von (5.3.2) vor, und suchen ein normiertesPolynom Q kleinsten Grades uber L, so daß Q(ϕL) den ersten Basisvektor b1 von U in

der Basis, bezuglich derer ϕL|U durch A(j)i dargestellt wird, annulliert. Dazu bilden wir der

Reihe nach die Vektoren b1, ϕL(b1), . . . , ϕkL(b1) . Der Grad von Q ist die kleinste naturlicheZahl k, so daß {b1, ϕL(b1), . . . , ϕkL(b1)} linear abhangig ist. Im Dreieck unter der Diagonalen

von A(j)i ist nur die untere Nebendiagonale besetzt, und zwar mit lauter Einsen. Daher ist

Page 187: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

184 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

{b1, ϕL(b1), . . . , ϕkL(b1)} linear unabhangig fur alle k < dim(U) = ki · grad(Pi) . Also hat Qdenselben Grad wie P ki

i , und ϕL|U hat das Minimalpolynom P kii .

Die Polynome P kii teilen nun alle das Minimalpolynom ML von ϕL und sind nach (6.7.1)

auch uber L paarweise teilerfremd. Damit ist ML ein Teiler von MK . Andererseits ist MK

ein annullierendes Polynom uber L fur ϕL, und wir erhalten ML = MK . �

Satz (6.7.2) werden wir insbesondere bei der Betrachtung reeller Matrizen anwenden konnen.Bestimmte Klassen reeller Matrizen haben uber C eine einfache Jordan-Normalform. Da-mit hat auch das Minimalpolynom uber C eine spezielle Form, zum Beispiel ein Produktvon lauter verschiedenen linearen Polynomen. Daraus lassen sich Informationen uber dasMinimalpolynom und damit auch die Normalform uber R gewinnen.

6.8 * Ahnlichkeit von A und AT

In (5.3.7) wurde gezeigt, daß A und AT dasselbe Minimalpolynom haben. Mit Hilfe derJordan-Normalform wollen wir nun zeigen, daß A und AT sogar ahnlich sind. Es wird sichherausstellen, daß es sogar eine symmetrische Transformationsmatrix gibt. Notieren wirzuerst einige Rechenregeln fur das Transponieren von Matrizen:

(6.8.1) Lemma(a) Es sei A ∈M(m× n,K) und B ∈M(n×m,K). Dann gilt (AB)T = BTAT .(b) Ist A ∈Mn(K) invertierbar, so gilt (AT )−1 = (A−1)T .

Beweis:

(a) B hat soviele Zeilen, wie A Spalten hat, und AT ∈M(n×m,K) hat soviele Zeilen, wieBT ∈M(m×n,K) Spalten hat. Also konnen wir die Produkte AB und BTAT bilden.Schreiben wir AT = (aTi,j) und BT = (bTi,j) , so erhalten wir den (i, j)-ten Eintrag vonBTAT zu

∑nk=1 b

Ti,ka

Tk,j =

∑nk=1 bk,iaj,k . Dies ist auch der (i, j)-te Eintrag von (AB)T .

(b) Es gilt En = ETn = (AA−1)T

(a)= (A−1)TAT , also (AT )−1 = (A−1)T . �

Auf S.79 wurde erlautert, daß man mit Blockmatrizen genauso rechnen kann, als ob dieBlocke normale Eintrage waren. Dies nutzen wir im folgenden aus. Zuerst berechnen wirdie Inverse einer Block-Diagonalmatrix.

(6.8.2) Lemma

(a) Ist A =

A1

. . .

Ak

eine Block-Diagonalmatrix mit invertierbaren

Diagonalblocken Ai ∈Mni(K) , so gilt A−1 =

A−11

. . .

A−1k

.

(b) Sind A und B Block-Diagonalmatrizen mit Diagonalblocken Ai , Bi ∈ Mni(K) , undist fur alle 1 ≤ i ≤ k der Block Ai ahnlich zum Block Bi, so ist A ahnlich zu B.

Page 188: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6.8 * Ahnlichkeit von A und AT 185

Beweis: (a) ist klar nach der Multiplikationsregel fur Blockmatrizen. Zum Beweis von (b)wahlen wir fur jeden Index i eine Transformationsmatrix Si ∈Mni(K) mit Bi = S−1

i AiSi .

Mit S :=

S1

. . .

Sn

gilt dann B = S−1AS . �

(6.8.3) Satz Die quadratischen Matrizen A und AT sind ahnlich.

Beweis: Die Matrix A ist ahnlich zu ihrer Jordan-Normalform J . Das heißt: es gibt

eine regulare Matrix S mit J = S−1AS . Nach (6.8.1a) folgt JT =((S−1A)S

)T=

ST (S−1A)T = STAT (ST )−1 . Also ist AT ahnlich zu JT .Es bleibt noch zu zeigen, daß J und JT ahnlich sind. Die Matrix J ist eine Block-Diagonal-matrix mit Jordanblocken J1, . . . , Jk auf der Diagonalen:

J =

J1

. . .Jk

.

Beim Transponieren bleibt diese Struktur erhalten, und der Block Ji geht uber in JTi :

JT =

JT1. . .

JTk

.

Nach (6.8.2b) reicht es, zu zeigen, daß fur alle Indizes i der Block Ji ahnlich ist zu seinerTransponierten JTi . Also konnen wir ohne Einschrankung annehmen, daß A ein Jordanblockist. Nach (5.3.7) haben A und AT dasselbe Minimalpolynom M , und M ist (da A einJordanblock ist) eine Potenz eines irreduziblen Polynoms mit grad(M) = dim(V ) . Ausdiesen Voraussetzungen kann man nach (6.1.7) die Ahnlichkeit von A und AT folgern. �

Das Hauptargument (6.1.7) dieses Beweises,

zwei Matrizen aus Mn(K) , die dasselbe Minimalpolynom M haben, wobei Meine Potenz eines irreduziblen Polynoms ist mit grad(M) = n , sind ahnlich

kommt im folgenden Satz gleich noch einmal vor. Mit etwas mehr Arbeit erhalten wir damiteine scharfere Version von (6.8.3).

(6.8.4) Satz Zerlegung in symmetrische MatrizenEs sei K ein beliebiger Korper und A ∈Mn(K). Dann gibt es symmetrische Matrizen S,R ∈Mn(K) , so daß S invertierbar ist und A = SR gilt.

Beweis:

(i) Wir zeigen zunachst: Besitzt A eine Zerlegung wie in der Behauptung, so auch jede zuA ahnliche Matrix. Ist namlich T ∈Mn(K) invertierbar, so gilt

T−1AT = T−1SRT =(T−1S(T T )−1

)(T TRT−1

).

Page 189: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

186 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

Die beiden Faktoren T−1S(T T )−1 und T TRT−1 sind wieder symmetrisch, denn

(T−1S(T T )−1

)T=((T T )−1

)TST (T−1)T = T−1S(T T )−1 ,

und die Symmetrie des zweiten Faktors zeigt man analog. Außerdem ist T−1S(T T )−1

ein Produkt von drei invertierbaren Matrizen, also invertierbar.(ii) Wie in (6.8.3) ist die Jordan-Normalform J von A eine Block-Diagonalmatrix mit Jor-

danblocken J1, . . . , Jk auf der Diagonalen. Solch ein Jordanblock Ji hat ein Minimal-polynom Mi(x) = xm + αm−1 + . . . + α0 , dessen Grad gleich der Dimension diesesBlocks ist, und das eine Potenz eines irreduziblen Polynoms ist. Daher ist Ji ahnlichzur Begleitmatrix

Bi =

0 −α0

1. . .

.... . . . . .

...1 −αm−1

,

weil diese ebenfalls das Minimalpolynom Mi hat. Also ist A ahnlich zur Block-Diago-nalmatrix

B =

B1

. . .

Bk

,

die lauter Begleitmatrizen auf der Diagonalen hat21. Wie in (6.8.3) reicht es nun, zuzeigen, daß die Behauptung fur die Blocke Bi gilt.

(iii) Es sei nun A =

0 a1

1. . .

.... . . . . .

...1 an

. Die Matrix

C =

a2 a3 a4 . . . . . . an −1a3 a4 ... ... ... 0

a4 ... ... ... ......

... ... ... ......

... ... ... ......

an ... ......

−1 0 . . . . . . . . . . . . 0

21Man beachte, daß B nicht unbedingt die Jordannormalform von A ist, sondern daß die in der Jordan-

Normalform von A auftretenden verketteten Begleitmatrizen jeweils zu einem Block zusammengefaßt sind,der seinerseits durch eine Begleitmatrix ersetzt wird.

Page 190: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6.9 * Wann sind A und A−1 ahnlich? 187

ist symmetrisch und invertierbar (Stufenform!). Zudem ist

R := AC =

−a1 0 . . . . . . . . . 00 a3 a4 . . . an −1... a4 ... ... 0...

... ... ... ......

... an ... ......

0 −1 0 . . . . . . 0

ebenfalls symmetrisch. Setzen wir S := C−1 , so gilt RS = ACC−1 = A , und dieBehauptung ist gezeigt. �

Wahrend wegen (A−1)T = (AT )−1 die Inverse einer invertierbaren symmetrischen Matrixwieder symmetrisch ist, muß nach (6.8.4) das Produkt von zwei symmetrischen Matrizennicht wieder symmetrisch sein.

(6.8.5) Korollar Es sei K ein beliebiger Korper. Dann gibt es zu jeder Matrix A ∈Mn(K)eine invertierbare symmetrische Matrix S ∈Mn(K) mit AT = S−1AS .

Beweis: Nach (6.8.4) haben wir eine Zerlegung A = SR mit S,R symmetrisch und Sinvertierbar. Gemaß (6.8.1) folgt AT = (SR)T = RTST = RS , also AT = S−1AS . �

Literatur: Die Satze (6.8.4) und (6.8.5) haben eine lange Geschichte. Die Zerlegung (6.8.4)fur reelle Matrizen A kannte schon Frobenius [13] im Jahr 1910. Die Verallgemeinerungauf algebraisch abgeschlossene Korper steht bei Stenzel [48], die Verallgemeinerung aufbeliebige Korper schließlich bei Shoda [46]. Taussky und Zassenhaus [50] zeigten, daßes zu einer Matrix A uber einem beliebigen Korper genau dann nur symmetrische Transfor-mationsmatrizen S mit AT = S−1AS gibt, wenn A ahnlich zu einer Begleitmatrix ist. Allediese Uberlegungen stehen ubrigens in Zusammenhang zu der Frage, welche Matrizen ausMn(K) mit einer vorgegebenen Matrix A ∈Mn(K) vertauschbar sind.Ein Analogon zu (6.8.5) fur komplexe Matrizen findet sich in [6]: Ist A ∈ Mn(C), so gibtes genau dann eine hermitesche Matrix S ∈ Mn(C) mit AT = S−1AS , wenn A ahnlich zueiner reellen Matrix ist.

6.9 * Wann sind A und A−1 ahnlich?

Djokovic [9] untersuchte die Frage, welche invertierbaren Matrizen A ∈Mn(K) ahnlich zuihrer Inversen A−1 sind. Beispiele sind Matrizen A mit A = A−1, das heißt A2 = En .

Definition: InvolutionEin Endomorphismus ϕ 6= idV des Vektorraums V heißt Involution, wenn ϕ2 = idV gilt.Dies ist genau dann der Fall, wenn ϕ invertierbar ist mit ϕ−1 = ϕ .Entsprechend heißt eine Matrix A ∈Mn(K) Involution, wenn A2 = En und A 6= En gilt.

Page 191: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

188 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

(6.9.1) Lemma A ∈Mn(K) sei eine Involution oder die Einheitsmatrix.(a) Ist λ ∈ K ein Eigenwert von A, so gilt λ2 = 1 .(b) Ist xn + αn−1x

n−1 + . . .+ α1x+ α0 das Minimalpolynom von A, so gilt α0αi = αn−ifur alle 0 ≤ i ≤ n− 1 .

(c) Fur jede invertierbare Matrix S ∈Mn(K) ist auch S−1AS eine Involution.

Beweis:

(a) Fur einen Eigenvektor v zum Eigenwert λ gilt v = A2v = λ2v , also λ2 = 1 .(b) folgt aus dem Vergleich der Minimalpolynome von A und A−1 (s. (5.3.7)).(c) (S−1AS)2 = S−1ASS−1AS = S−1A2S = S−1S = En . �

Im allgemeinen jedoch ist die inverse Matrix A−1 nicht ahnlich zu A. Beispielsweise hat fur

char(K) 6= 2 die Matrix

(1 00 2

)−1

=(

1 00 1/2

)den Eigenwert 1/2 , kann also nicht

ahnlich sein zu

(1 00 2

).

Ist MA(x) = xn+αn−1xn−1+. . .+α0 das Minimalpolynom von A, so kann man nach (5.3.7.b)

das Minimalpolynom MA−1 der inversen Matrix in der Form MA−1(x) = α−10 xnMA(x−1)

schreiben. Daraus ergibt sich

(6.9.2) Lemma Ist P ∈ K[x] ein irreduzibles Polynom und A ∈Mn(K) eine invertierbareMatrix mit Minimalpolynom MA = P k, so hat A−1 das Minimalpolynom MA−1 = Qk miteinem irreduziblen Polynom Q, wobei grad(Q) = grad(P ) .

Beweis: Ist g = grad(P ) und β0 der konstante Koeffizient von P , so gilt α0 = βk0 undn = kg . Somit folgt

MA−1(x) = β−k0 xkg(P (x−1)

)k=(Q(x)

)kmit Q(x) := β−1

0 xgP (x−1) .

Aus der Irreduzibilitat von P folgt die Irreduzibilitat von Q. �

(6.9.3) Satz (Djokovic)Genau dann ist eine invertierbare Matrix A ∈ Mn(K) ahnlich zu ihrer Inversen A−1, wennsie ein Produkt von hochstens zwei Involutionen ist.

Beweis: Ist A die Einheitsmatrix oder eine Involution, so ist A trivialerweise ahnlich zuseiner Inversen. Sind S und T Involutionen mit A = ST , so folgt

A−1 = (ST )−1 = T−1S−1 = TS = (S−1S)TS = S−1AS .

Nun nehmen wir an, A sei ahnlich zu A−1. Die Jordan-Normalform J von A ist eine Block-Diagonalmatrix mit Jordanblocken J1, . . . , Jr auf der Diagonalen. Jedes Ji hat ein Mini-malpolynom Mi = P ki

i mit einem irreduziblen Polyom Pi, so daß der Grad von Mi gleichder Dimension von Ji ist.

Page 192: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

6.9 * Wann sind A und A−1 ahnlich? 189

Falls wir Matrizen S, T finden mit S2 = T 2 = En und J = ST , so folgt fur eine geeigneteTransformationsmatrix M

A = MJM−1 = MSTM−1 = (MSM−1)(MTM−1) ,

und A ist nach (6.9.1.c) ebenfalls ein Produkt von hochstens zwei Involutionen. Also konnenwir ohne Einschrankung A = J annehmen. Nach den Rechenregeln (6.8.2.a) gilt

J−1 =

J−11

. . .

J−1k

,

Suchen wir irgendein i ∈ {1, . . . , r} beliebig aus, so konnen zwei Falle auftreten:1.Fall: MJi = MJi

−1 . Dann sind Ji und J−1i ahnlich wegen (6.1.7).

2.Fall: MJi 6= MJi−1 . Die Minimalpolynome der Inversen J−1

1 , . . . , J−1r sind nach (6.9.2)

ebenfalls Potenzen von irreduziblen Polynomen, etwa MJi−1 = Qki

i . Da wir mit der Kenntnis

der Polynome Qk11 , . . . , Qkr

r die Ahnlichkeitsklasse von J−1 bestimmen konnen, und da J−1

ahnlich zu J ist, mussen die Mengen {P k11 , . . . , P kr

r } und {Qk11 , . . . , Qkr

r } ubereinstimmen.

Es gibt also einen Index j mit j 6= i und Qkii = P

kjj . Nach (6.1.7) sind somit Ji und J−1

j

ahnlich. Nach (5.3.7) haben dann auch J−1j und Ji dasselbe Minimalpolynom, sind also

ahnlich.Daher gilt Ji ∼ J−1

i oder eine”paarweise“ Ahnlichkeit Ji ∼ J−1

j ∧ Jj ∼ J−1i . 22

Also reicht es, den Satz fur die zwei folgenden Falle zu beweisen:1.Fall: A ist ein Jordanblock.

2.Fall: A =

(A1 00 A2

)ist eine Block-Diagonalmatrix mit zwei Jordan-Blocken A1, A2 ∈

Mm(K) und A1 ∼ A−12 und A2 ∼ A−1

1 .Im 1.Fall ist V gemaß (5.5.5) ein A-zyklischer Vektorraum, das heißt, es gibt einen Vektorv1 ∈ V mit V = 〈v1, Av1, . . . , A

n−1v1〉 . Es sei M(x) = xn + αn−1xn−1 + . . . + α0 das

Minimalpolynom von A. Da A und A−1 ahnlich sind, haben sie dasselbe Minimalpolynom,und es folgt wie in (6.9.1.b) α0αi = αn−i fur alle 0 ≤ i ≤ n− 1 .Nun setzen wir vi+1 := Avi fur 1 ≤ i ≤ n− 1 . Es folgt Avn = −α0v1 − . . .− αn−1vn .Definiert man S, T ∈Mn(K) durch

Sv1 := −α0v1 − . . .− αn−2vn−1 − αn−1vn ,

Svi := vn+2−i fur 2 ≤ i ≤ n ,

Tvi := vn+1−i fur 1 ≤ i ≤ n ,

so sind S und T Involutionen oder Einheitsmatrizen mit A = ST :T 2vi = vi fur 1 ≤ i ≤ n und S2vi = vi fur 2 ≤ i ≤ n sind klar.

S2v1 = S(−α0v1 − . . .− αn−2vn−1 − αn−1vn)

= α20v1 + (α0α1 − αn−1)v2 + . . .+ (α0αn−1 − αn)vn = v1 .

Außerdem gilt STvi = vi+1 = Avi fur i ≤ n− 1 , und STvn = Sv1 = Avn .Im 2.Fall ist V eine direkte Summe zweier Unterraume U,W der Dimension m = n

2.

22Daß der 2.Fall eintreten kann sieht man an J =(

i 00 −i

)∈M2(C) .

Page 193: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

190 6 DIE JORDAN-NORMALFORM UND ANWENDUNGEN

Sowohl U als auch W sind A-zyklisch, also finden wir Vektoren u1 ∈ U , w1 ∈ W mitU = 〈u1, Au1, . . . , A

m−1u1〉 und W = 〈w1, Aw1, . . . , Am−1w1〉 .

Besitzt die Einschrankung A|U das Minimalpolynom M1(x) = xm + αm−1xm−1 + . . .+ α0 ,

so die Einschrankung A−1|U das Minimalpolynom M2(x) = α−10 xmM1(x−1) . Dieses ist

gleichzeitig das Minimalpolyom von A|W .Definiert man die Endomorphismen S, T von V durch

Su1 := −α−10 (α1w1 + . . . αm−1wm−1 + wm) ,

Swm := −(α0u1 + . . . αm−1um) ,

Sui+1 := wi , Swi := ui+1 fur 1 ≤ i ≤ m− 1 ,

Tui := wi , Swi := ui fur 1 ≤ i ≤ m,

so erhalt man wie im 1.Fall Involutionen oder Einheitsmatrizen S, T mit A = ST . �

Page 194: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

191

7 Eigenschaften, die man am Minimalpolynom ablesen

kann

Generelle Voraussetzung: In diesem Kapitel sei V stets ein endlich-dimensionaler Vek-torraum uber dem Korper K.

Wir betrachten in diesem Kapitel einige Eigenschaften von Endomorphismen (bzw. derzugehorigen Matrizen), die man am Minimalpolynom erkennen kann. Fur die elementarelineare Algebra am wichtigsten sind die Diagonalisierbarkeit und Triangularisierbarkeit. Diebeiden folgenden Abschnitte bieten eine kleine Ubersicht uber weitere derartige Eigenschaf-ten und konnen beim ersten Lesen ubergangen werden.

7.1 Ahnlichkeit zu einer Dreiecksmatrix oder Diagonalmatrix

Definition: Dreiecksmatrix, triangularisierbarEine quadratische Matrix A ∈ Mn(K) heißt obere Dreiecksmatrix, wenn aij = 0 gilt fur allei > j, und untere Dreiecksmatrix, wenn aij = 0 gilt fur alle i < j.Die Matrix A ∈ Mn(K) heißt Dreiecksmatrix, wenn sie eine obere Dreiecksmatrix oder eineuntere Dreiecksmatrix ist.Die Matrix A ∈Mn(K) heißt triangularisierbar, wenn sie ahnlich ist zu einer DreiecksmatrixD ∈Mn(K).

In einer oberen Dreiecksmatrix

∗ ∗ ∗∗ ∗∗

verschwinden alle Eintrage unter der Haupt-

diagonalen, in einer unteren Dreiecksmatrix

∗∗ ∗∗ ∗ ∗

verschwinden alle Eintrage uber

der Hauptdiagonalen.Eine Matrix A ∈Mn(K), die sowohl obere als auch untere Dreiecksmatrix ist, hat hochstensauf der Hauptdiagonalen Eintrage ungleich 0, ist also eine Diagonalmatrix.Ist D ∈ Mn(K) eine obere Dreiecksmatrix, so ist die Transponierte DT eine untere Drei-ecksmatrix (und umgekehrt). Da nach Abschnitt (6.8) die Matrix DT ahnlich ist zu D, istes egal, ob wir nach der Ahnlichkeit zu einer oberen oder unteren Dreiecksmatrix fragen.Eine triangularisierbare Matrix ist also sowohl zu einer oberen als auch zu einer unterenDreiecksmatrix ahnlich.Mit der Kenntnis des Minimalpolynoms kann man entscheiden, ob eine Matrix ahnlich istzu einer Dreiecksmatrix:

(7.1.1) Satz triangularisierbare MatrixGenau dann ist die quadratische Matrix A ∈ Mn(K) ahnlich zu einer Dreiecksmatrix D ∈Mn(K), wenn jeder irreduzible Teiler des Minimalpolynoms von A den Grad 1 hat.

Page 195: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

192 7 EIGENSCHAFTEN, DIE MAN AM MINIMALPOLYNOM ABLESEN KANN

Beweis:

(i) Hat das Minimalpolynom von A nur lineare irreduzible Teiler, so sind alle Begleit-matrizen, die in der Jordan-Normalform von A auftreten, (1 × 1)-Matrizen. In derJordan-Normalform von A sind also nur die Diagonale und die untere Nebendiagonalebesetzt.

(ii) Die Matrix A ∈Mn(K) sei ahnlich zur Dreiecksmatrix D =

d1

* d2...

. . .

* . . . * dn

.

Fur jedes i ∈ {1, . . . , n} gilt

(D − diE) =

d1 − di*

. . .... di−1 − di... 0... di+1 − di...

. . .

* . . . . . . . . . . . . * dd − bi

.

Fur die Standardbasisvektoren e1, . . . , en von V erhalten wir

(D − diE)ej ∈ 〈ej, . . . , en〉 fur i ∈ {1, . . . , n} , j 6= i ,

(D − diE)ei ∈ 〈ei+1, . . . , en〉 fur i ∈ {1, . . . , n− 1} ,(D − bnE)en = o .

Fur jeden Index i gilt also

(D − di−1E) · . . . · (D − d1E)ei ∈ < ei, . . . , en > ,

(D − diE) · . . . · (D − d1E)ei ∈ < ei+1, . . . , en > ,

(D − dkE) · . . . · (D − d1E)ei ∈ < ek+1, . . . , en > fur alle i+ 1 ≤ k ≤ n− 1

und schließlich(D − dnE) · . . . · (D − d1E)ei = o .

Nun annulliert die Abbildung (D−dnE)·. . .·(D−d1E) samtliche Standardbasisvektorenvon V , und das Polynom

P = (x− dn) · . . . · (x− d1)

ist ein annullierendes Polynom fur die Matrix D. Das Minimalpolynom M von D istein Teiler von P , hat also nur irreduzible Teiler vom Grad 1. Die zu D ahnliche MatrixA hat dasselbe Minimalpolynom wie D, also ebenfalls nur lineare irreduzible Teiler. �

Da alle irreduziblen Polynome in C[x] den Grad 1 haben (s. (4.2.10)), folgt

(7.1.2) Korollar Jede komplexe Matrix A ∈ Mn(C) ist ahnlich zu einer DreiecksmatrixD ∈Mn(C).

Page 196: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

7.1 Ahnlichkeit zu einer Dreiecksmatrix oder Diagonalmatrix 193

Es kann durchaus passieren, daß eine reelle Matrix A ∈ Mn(R) nicht zu einer reellen Drei-ecksmatrix ahnlich ist, obwohl sie nach dem vorstehenden Korollar immer ahnlich zu einerkomplexen Dreiecksmatrix ist!

In Satz (6.1.2) haben wir bereits eine Charakterisierung der diagonalisierbaren Matrizenangegeben. Nun sehen wir, daß sich die Diagonalisierbarkeit ebenfalls am Minimalpolynomablesen laßt.

(7.1.3) Satz diagonalisierbare MatrixFur eine Matrix A ∈Mn(K) sind aquivalent:

(i) A ist diagonalisierbar;(ii) V besitzt eine Basis von Eigenvektoren von A;

(iii) Das Minimalpolynom von A ist ein Produkt von lauter verschiedenen linearen Polyno-men.

Beweis: Die Aquivalenz von (i) und (ii) ist bekannt aus (6.1.2).

(i) ⇒ (iii) : Nun sei A ahnlich zur Diagonalmatrix D = diag(d1, . . . , dn). Dann sinddie Diagonalelemente di die Eigenwerte von A. Es seien λ1, . . . , λk die verschiedenenEigenwerte von A. Dann ist D−λiE = diag(d1−λi, . . . , dn−λi) eine Diagonalmatrix,die an mindestens einer Diagonalstelle eine Null stehen hat. Das Produkt

(D − λ1E) · . . . · (D − λkE)

ist ebenfalls eine Diagonalmatrix, die an der (i, i)-ten Stelle den Eintrag

(di − λ1) · . . . · (di − λk)

hat. Da di gleich einem der λj ist, ist in diesem Produkt mindestens einer der Faktoren0, also das Produkt gleich 0. Folglich ist (D − λ1E) · . . . · (D − λkE) die Nullmatrix,und das Polynom

P = (x− λ1) · . . . · (x− λk)

ist ein annullierendes Polynom fur D. Das Minimalpolynom von D und damit auch dasMinimalpolynom von A ist ein Teiler von P , also ein Produkt von lauter verschiedenenlinearen Polynomen.

(iii) ⇒ (i) : Nach Teil (i) des Beweises zu (7.1.1) ist die Jordan-Normalform von A eineDreiecksmatrix, in der nur die Diagonale besetzt und eventuell ein Teil der unteren Ne-bendiagonale mit Verkettungseinsen besetzt ist. Da aber jeder der irreduziblen TeilerPi von M nur mit dem Exponenten ki = 1 im Minimalpolynom M vorkommt, enthaltnach (6.1.9) jeder der Blocke A

(j)i in der Jordan-Normalform von A nur eine Begleit-

matrix. Also enthalt die Jordan-Normalform von ϕ uberhaupt keine Verkettungseinsenund ist eine Diagonalmatrix.

Page 197: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

194 7 EIGENSCHAFTEN, DIE MAN AM MINIMALPOLYNOM ABLESEN KANN

7.2 * Nilpotente und unipotente Endomorphismen

Definition: nilpotente MatrixEine quadratische Matrix A ∈ Mn(K) heißt nilpotent, wenn es eine naturliche Zahl k gibtmit Ak = O.

Entsprechend heißt ein Endomorphismus ϕ von V nilpotent, wenn es ein k ∈ N gibt, so daßϕk die Nullabbildung ist. Damit sind die nilpotenten Endomorphismen genau diejenigen,die bezuglich einer beliebigen Basis durch eine nilpotente Matrix beschrieben werden.

(7.2.1) Satz nilpotente MatrixEs sei A ∈Mn(K).

(a) A ist genau dann nilpotent, wenn das Minimalpolynom von A die Form xk hat fur einenaturliche Zahl k.

(b) Ist A nilpotent, so ist 0 der einzige Eigenwert von A.(c) Genau dann ist A nilpotent, wenn A ahnlich ist zu einer Dreiecksmatrix mit Nullen

auf der Diagonalen.

Beweis: (a) und (b) folgen sofort aus (5.1.3) und (5.1.8). Ist A nilpotent, so ist die Jordan-Normalform von A nach (6.1.9) eine Dreiecksmatrix mit Nullen auf der Diagonalen. Umge-kehrt kann man durch Induktion nach n zeigen, daß fur jede Dreiecksmatrix D ∈ Mn(K)mit Null-Diagonale Dn = O gilt, also D nilpotent ist. �

(7.2.2) Beispiele nilpotente Endomorphismen / Matrizen

1. Es sei K ein Korper und ϕ der durch A =(

1 1−1 −1

)beschriebene Endomorphismus von

Kn. Wegen A2 =(

0 00 0

)ist ϕ nilpotent.

2. Es sei V = Rn[x] der Vektorraum der reellen Polynome vom Grad ≤ n und δ die Differentia-tion auf V .Ist f 6= 0 ein Polynom aus V , so gilt grad(δ(f)) = grad(f)− 1 , also ist δn+1 die Nullabbil-dung. Folglich ist δ nilpotent.

3. Ist V der Vektorraum aller reellen Polynome, so ist die Differentiation δ auf V nicht nilpotent.Sei namlich n ∈ N beliebig gewahlt und f(x) = xn. Dann ist δn(f) = n! 6= 0 , also δn nichtdie Nullabbildung.

(7.2.3) Beispiel Die Umkehrung von (7.2.1.b) ist nicht immer richtig: Der Endomorphismus

ϕ =

0 −1 01 0 00 0 0

des Vektorraums R3 hat das Minimalpolynom x(x2 + 1) , also nur den

Eigenwert 0, ist aber nicht nilpotent.Jedoch wird die Umkehrung richtig, wenn K ein algebraisch abgeschlossener Korper, zum BeispielK = C ist: Hat namlich in diesem Fall das Minimalpolynom M einen von x verschiedenen irredu-ziblen Teiler, so hat es eine Nullstelle λ 6= 0 , also hat ϕ einen Eigenwert λ 6= 0 im Widerspruch

Page 198: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

7.2 * Nilpotente und unipotente Endomorphismen 195

zur Voraussetzung. Das heißt:Ein Endomorphismus ϕ eines Vektorraums uber dem Korper C ist genau dann nilpotent, wenn 0der einzige Eigenwert von ϕ ist.

(7.2.4) Lemma Es sei ϕ ein Endomorphismus von V mit Minimalpolynom M =∏t

i=1 Pkii ,

wobei die Pi paarweise verschieden, normiert und irreduzibel seien. Sei P =∏t

i=1 Pi dasProdukt der verschiedenen irreduziblen Teiler von M , und sei Q irgendein Polynom. Danngilt: Q(ϕ) ist nilpotent genau dann, wenn P ein Teiler von Q ist.

Beweis: Es sei k := max{ki | i = 1, . . . , t} , und P ein Teiler von Q. Dann ist M einTeiler von P k , und P k ein Teiler von Qk , also Qk(ϕ) = 0 . Somit ist xk ein annullierendesPolynom fur Q(ϕ). Ist umgekehrt Q(ϕ) nilpotent, so gibt es ein k ∈ N mit Qk(ϕ) = 0 .Nun ist M ein Teiler von Qk, also jeder irreduzible Teiler von M ein Teiler von Q. Damitist auch P ein Teiler von Q. �

Nach (7.2.1) ist die Matrix A genau dann nilpotent, wenn sie ahnlich ist zu einer Dreiecksma-trix mit lauter Nullen auf der Diagonalen. Ebenso kann man die Matrizen, die ahnlich sindzu einer Dreiecksmatrix mit lauter Einsen auf der Diagonalen, an ihrem Minimalpolynomerkennen.

Definition: unitriangulare Matrix, unipotente Matrix

(a) Die Matrix A ∈Mn(K) heißt unitriangular, wenn sie eine Dreiecksmatrix ist mit allenDiagonaleintragen gleich 1.

(b) Die Matrix A ∈ Mn(K) heißt unipotent, wenn es eine naturliche Zahl k gibt mit(A− E)k = O.

Die Matrix A ∈Mn(K) ist also genau dann unipotent, wenn sie das Minimalpolynom (x−1)k

fur ein 1 ≤ k ≤ n hat. Nach Teil (ii) des Beweises zu (7.1.1) und der Jordan-Normalformist der folgende Satz sofort klar:

(7.2.5) Satz unipotente MatrixEine Matrix A ∈ Mn(K) ist genau dann unipotent, wenn sie ahnlich ist zu einer unitrian-gularen Matrix.

Wahrend die nilpotenten Matrizen immer singular sind, haben die unipotenten Matrizen nieden Eigenwert 0, sind also immer regular. Man kann leicht zeigen, daß fur eine unipotenteMatrix A jede Potenz Am,m ∈ Z, dasselbe Minimalpolynom hat wie A, also auch wiederunipotent ist.In (8.4.6) werden wir zeigen, daß die Inverse einer regularen Dreiecksmatrix mit den Diago-naleintragen a1,1, . . . , an,n eine Dreiecksmatrix mit den Diagonaleintragen a−1

1,1, . . . , a−1n,n ist.

Daher ist insbesondere die Inverse einer unitriangularen Matrix wieder unitriangular. Offen-sichtlich ist auch das Produkt zweier oberer (oder zweier unterer) unitriangularer Matrizenwieder unitriangular. Die oberen unitriangularen Matrizen in Mn(K) bilden also eine Grup-pe23, die unitriangulare Gruppe T1(Mn(K)). Daher spielen die unitriangularen Matrizen in

23zum Begriff der Gruppe s. Abschnitt 15.1

Page 199: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

196 7 EIGENSCHAFTEN, DIE MAN AM MINIMALPOLYNOM ABLESEN KANN

der Gruppentheorie eine Rolle. Dagegen ist das Produkt zweier unipotenter Matrizen nichtimmer unipotent (Gegenbeispiel?).

Literatur: Trotz der letzten Bemerkung gibt es naturlich auch Gruppen unipotenterMatrizen. Ist etwa K ein beliebiger Korper mit Primzahlcharakteristik p (vgl. die Definitionder Charakteristik in Abschnitt 15.2 auf S. 385), so hat auch der Matrizenring Mn(K) dieCharakteristik p. Fur eine beliebige Matrix A ∈ Mn(K) sind A und die EinheitsmatrixE ∈ Mn(K) vertauschbar24, so daß (A − E)p

k= Ap

k − E gilt fur jede naturliche Zahl k(binomische Formel, vgl. (15.3.6)). Also enthalt beispielsweise eine Gruppe von Matrizen inMn(K), in der jedes Element eine p-Potenzordnung hat, nur unipotente Elemente.Satz (7.2.5) ist nur ein Spezialfall eines sehr viel tieferen Satzes von Kolchin: Ist G irgend-eine Gruppe von unipotenten Matrizen aus Mn(K), so ist G konjugiert zu einer Untergruppevon T1(Mn(K)), das heißt: es gibt eine regulare Matrix X ∈Mn(K), so daß X−1AX unitri-angular ist fur jedes A ∈ G. Man kann das auch so ausdrucken: die Matrizen A ∈ G sindsimultan unitriangularisierbar. Mehr uber unipotente Matrizen (u. a. ein Beweis des Satzesvon Kolchin) steht in [59].Von Interesse sind auch Vektorraume nilpotenter Matrizen. Ein Unterraum U des Vektor-raums Mn(K) mit der Eigenschaft, daß U nur nilpotente Matrizen enthalt, heißt nilpotent.In [33] wird z. B. gezeigt, daß solch ein Unterraum U hochstens die Dimension n(n−1)/2 ha-ben kann, und wenn seine Dimension diese obere Schranke erreicht, dann besteht U aus allennilpotenten (oberen bzw. unteren) Dreiecksmatrizen bezuglich einer fest gewahlten Basis.In letzter Zeit sind ebenfalls einige Arbeiten von Fasoli und Pauer uber nilpotente Un-terraume von Mn(K) erschienen.

7.3 * Halbeinfache Endomorphismen

Ein ϕ-invarianter Unterraum U hat naturlich immer ein Komplement in V . Dieses Komple-ment muß aber nicht immer ϕ-invariant sein. Das gibt Anlaß zu folgender Definition

Definition: halbeinfacher EndomorphismusEin Endomorphismus ϕ von V heißt halbeinfach, wenn jeder ϕ-invariante Unterraum U vonV ein ϕ-invariantes Komplement W in V besitzt.

(7.3.1) Beispiele halbeinfache Endomorphismen

1. Streckungen (also Abbildungen der Form λ · idV , λ ∈ K ) sind halbeinfach, da jeder Unter-raum von V ein ϕ- invarianter Unterraum ist.

2. Die reelle Matrix A =(

0 −11 0

)beschreibt einen halbeinfachen Endomorphismus von

V = R2 , da V nur die trivialen A- invarianten Unterraume {o} und V besitzt.

3. Die Matrix A =(

1 00 2

)uber einem beliebigen Korper K ist halbeinfach:

Die A-invarianten Unterraume von V = K2 sind {o} , V sowie die beiden Eigenraume

24Zwei Matrizen A,B ∈Mn(K) heißen vertauschbar, wenn AB = BA gilt.

Page 200: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

7.3 * Halbeinfache Endomorphismen 197

〈(1, 0)T 〉 und 〈(0, 1)T 〉 .In jedem Korper gilt 1 6= 0 , also 2 6= 1 . Daher hat hier im Unterschied zu Beispiel 1 derVektorraum V nicht nur A-invariante Unterraume.

4. Die Matrix A =(

1 01 1

)uber einem beliebigen Korper K ist nicht halbeinfach:

V = K2 besitzt nur einen eindimensionalen A-invarianten Unterraum, namlich 〈(

01

)〉 .

Dieser kann also kein A-invariantes Komplement in V besitzen.

Wir wollen nun zeigen, daß man die Halbeinfachheit ebenfalls am Minimalpolynom ablesenkann. Dazu brauchen wir zwei Hilfssatze.

(7.3.2) Lemma Es sei ϕ ein halbeinfacher Endomorphismus von V und P ∈ K[x] einPolynom. Der Endomorphismus P (ϕ) ist nilpotent genau dann, wenn P (ϕ) = 0 ist.

Beweis: Die Nullabbildung ist naturlich nilpotent, also eine Richtung trivial. Sei nunP (ϕ) nilpotent, und k die kleinste naturliche Zahl mit P k(ϕ) = 0 . Der UnterraumK = Kern

(P k−1(ϕ)

)ist ϕ-invariant, besitzt also wegen der Halb-Einfachheit von ϕ ein

ϕ-invariantes Komplement L in V . Zudem ist L auch P (ϕ)-invariant. Weiter gilt {o} =P k(ϕ)L = P k−1(ϕ)

(P (ϕ)L

), also P (ϕ)L ⊆ K . Wegen der P (ϕ)-Invarianz von L folgt

jetzt P (ϕ)L ⊆ K ∩ L = {o} . Daher ist L ein Unterraum von Kern(P (ϕ)

). Schließlich ist

V = Kern(P l(ϕ)

)mit l = max{k − 1, 1} . Wegen der Minimalitat von k folgt k = 1 , also

P (ϕ) = 0 . �

(7.3.3) Beispiel Die Halb-Einfachheit im vorstehenden Lemma wurde auch wirklich gebraucht:Die nicht halbeinfache Matrix A aus Beispiel (7.3.1.4) hat das Minimalpolyom (x − 1)2 . Wahlenwir P (x) = x− 1 , so ist P (A) nilpotent, aber P (A) 6= 0 .

Mit Hilfe des Zerlegungssatzes (5.5.3) konnen wir nun die halbeinfachen Endomorphismendurch ihr Minimalpolynom charakterisieren:

(7.3.4) Satz Ein Endomorphismus ϕ von V ist halbeinfach genau dann, wenn alle irredu-ziblen Teiler Pi des Minimalpolynoms M von ϕ nur in der ersten Potenz vorkommen.

Beweis:

⇒ Sei ϕ halbeinfach, und sei P =∏t

i=1 Pi das Produkt der verschiedenen irreduziblenTeiler von M .Nach (7.2.4) ist der Endomorphismus P (ϕ) nilpotent. Nach (7.3.2) ist daher P (ϕ)die Nullabbildung, also M ein Teiler von P . Da umgekehrt P ein Teiler von M ist,sind beide Polynome gleich, und alle Pi kommen in M nur in der ersten Potenz vor.

⇐ Sei U irgendein ϕ-invarianter Unterraum von V und Ui der verallgemeinerte Eigen-raum von ϕ zum Polynom Pi. Nach (5.5.2) haben wir dann die Zerlegung U =(U1 ∩ U)⊕ . . .⊕ (Ut ∩ U) . Falls wir zeigen konnen, daß der Unterraum Ui ∩ U ein ϕ-invariantes Komplement Ki besitzt in Ui fur jeden Index i , so ist K = K1 + . . .+Kt

Page 201: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

198 7 EIGENSCHAFTEN, DIE MAN AM MINIMALPOLYNOM ABLESEN KANN

ein ϕ-invariantes Komplement fur U in V .Allso reicht es, die Einschrankung von ϕ auf Ui zu betrachten, und wir konnen vor-aussetzen, daß M = P ki

i das Minimalpolynom von ϕ ist. Jetzt liefert aber (5.3.6.b)das gewunschte ϕ-invariante Komplement Ki = Ul+1 ⊕ . . . ⊕ Un/k , und der Satz istbewiesen.

Die Eigenschaften”halbeinfach“ und

”nilpotent“ schließen sich gegenseitig (fast) aus:

(7.3.5) Korollar Nur die Nullabbidung ist zugleich nilpotent und halbeinfach.

Beweis: Ist ϕ nilpotent, so hat sein Minimalpolynom die Gestalt M(x) = xk mit einemgeeigneten Exponenten k. Die Halbeinfachheit liefert dann nach (7.3.4) k ≤ 1 , also ϕ = 0 .�

(7.3.6) Satz Jeder Endomorphismus ϕ von V ist die Summe eines nilpotenten und eineshalbeinfachen Endomorphismus.

Beweis: Wir zerlegen die Jordan-Normalform J von ϕ eine eine Summe zweier MatrizenJ1, J2 , wobei J1 auf der Diagonalen die Begleitmatrizen von J enthalt, die aber alle nichtverkettet sind, und J2 die Verkettungseinsen von J (an derselben Stelle wie J) enthalt.Ist M =

∏ti=1 P

kii das Minimalpolynom von ϕ wie in (6.1.9), so hat J1 das Minimalpolynom∏t

i=1 Pi , ist also nach (7.3.4) halbeinfach, und J2 hat das Minimalpolynom xk mit k =max{ki | i = 1, . . . , t} , ist also nilpotent. �

Page 202: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

199

8 Determinanten

Von der Systematik der linearen Algebra aus gesehen, gehort der Gegenstand dieses Kapitelseigentlich in die Theorie der Multilinearformen, die in einem Kurs uber lineare Algebra in derRegel am Schluß behandelt werden. Die Anwendungen der mit Begriffen der Multilinearfor-men definierten Determinante finden sich jedoch schon fruher, namlich in der Beschreibungvon Endomorphismen eines endlichdimensionalen Vektorraums. Determinanten lassen sichzum Beispiel verwenden beim Nachweis der Injektivitat eines Endomorphismus, bei der In-vertierung einer Matrix, bei der Berechnung des noch zu definierenden charakteristischenPolynoms und bei der Berechnung der Eigenwerte einer linearen Abbildung. Deshalb befas-sen wir uns schon an dieser Stelle mit Determinantenfunktionen und Determinanten.

8.1 Zwei- und dreireihige Determinanten

Den meisten Lesern wird aus der Schule die Determinante einer (n × n)-Matrix A = (αi,j)uber einem Korper K im Fall n ≤ 3 bekannt sein:

Definition: 2-reihige und 3-reihige Determinante

(a) det(α11) = α11

(b) det

(α11 α12

α21 α22

)= α11α22 − α12α21

(c) det

α11 α12 α13

α21 α22 α23

α31 α32 α33

= α11α22α33 + α12α23α31 + α13α21α32

−α31α22α13 − α32α23α11 − α33α21α12

(d) Die Determinante einer (n×n)-Matrix nennen wir n-reihig. Bisher sind also ein-, zwei-und dreireihige Determinanten definiert.

(e) Abkurzend schreiben wir

∣∣∣∣∣∣∣α11 . . . α1n

......

αn1 . . . αnn

∣∣∣∣∣∣∣ = det

α11 . . . α1n...

...αn1 . . . αnn

.

Eine dreireihige Determinante besteht also aus sechs Summanden, die Produkte von je dreiKorperelementen sind. Am einfachsten merken kann man sich diese Formel nach

(8.1.1) Satz Regel von Sarrus

Schreibt man die erste und die zweite Spalte einer(3 × 3)-Matrix A = (αij) nochmals rechts neben dieMatrix A, und bildet man die Produkte der entstehen-den sechs Diagonalen, versehen mit dem in nebenste-hendem Schema angegebenen Vorzeichen, so ist dieDeterminante von A die Summe dieser sechs Produk-te.

α11 α12 α13 α11 α12

α21 α22 α23 α21 α22

α31 α32 α33 α31 α32

@@

@@

@@

@@

@@

@@

@@ @@ @@

��

��

��

��

��

��

�� �� ��– – – + + +

Fur zweireihige Determinanten rechnet man leicht folgendes nach: (fur dreireihige Determi-nanten gelten die analogen Aussagen, es ist nur etwas mehr Rechenaufwand notig)

Page 203: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

200 8 DETERMINANTEN

(8.1.2) Beispiele Rechenregeln fur zweireihige Determinanten

(a) Fur alle λ, µ, αij , βij ∈ K gilt∣∣∣∣ λα11 + µβ11 α12

λα21 + µβ21 α22

∣∣∣∣ = λ

∣∣∣∣ α11 α12

α21 α22

∣∣∣∣ + µ

∣∣∣∣ β11 α12

β21 α22

∣∣∣∣ und

∣∣∣∣ α11 λα12 + µβ12

α21 λα22 + µβ22

∣∣∣∣ = λ

∣∣∣∣ α11 α12

α21 α22

∣∣∣∣ + µ

∣∣∣∣ α11 β12

α21 β22

∣∣∣∣ .Das heißt: die Determinante ist linear in jeder Spalte.

(b)∣∣∣∣ α12 α11

α22 α21

∣∣∣∣ = −∣∣∣∣ α11 α12

α21 α22

∣∣∣∣ . Das heißt: bei Vertauschen der beiden Spalten drehtsich das Vorzeichen der Determinante um.

(c)∣∣∣∣ 1 0

0 1

∣∣∣∣ = 1 .

(d)∣∣∣∣ α11 α12

α21 α22

∣∣∣∣ 6= 0 gilt genau dann, wenn die beiden Spalten linear unabhangig sind, also

wenn die Matrix invertierbar ist (2.4.8.2).

8.2 Determinantenfunktionen, Existenz und Eigenschaften der De-terminante

Einige Male, zum Beispiel bei der Definition des Spaltenrangs einer Matrix, haben wir eine(n × n)-Matrix A = (ai,j) als n-Tupel ihrer n Spaltenvektoren s1, . . . , sn betrachtet. Um-gekehrt haben wir, etwa bei der Berechnung des Rangs eines Systems von Vektoren, einn-Tupel von Vektoren zu einer Matrix zusammengefaßt. Diese Moglichkeit der Interpretati-on eines quadratischen Schemas von n2 Korperelementen einmal als Matrix und einmal alsn-Tupel von Vektoren aus Kn wollen wir auch bei der Definition der Determinantenfunktionund schließlich der Determinante benutzen.

Definition: DeterminantenfunktionEs sei K ein Korper und n ∈ N, und V = Kn . Das n-fache kartesische Produkt{(v1, . . . , vn) | vi ∈ V } bezeichnen wir mit V n.Eine Abbildung ∆ : V n → K nennen wir Determinantenfunktion, wenn sie die folgendendrei Bedingungen erfullt:(DF1) Fur alle Indizes i ∈ {1, . . . n} , vi, wi ∈ V , λ, µ ∈ K gilt

∆(v1, . . . , λvi + µwi, . . . , vn) = λ∆(v1, . . . , vi, . . . , vn) + µ∆(v1, . . . , wi, . . . , vn) .

D.h.: ∆ ist linear in jedem der n Argumente, wenn die restlichen Argumente festge-lassen werden. Man sagt: ∆ ist eine Multilinearform der Stufe n.

(DF2) Fur alle i 6= j ∈ {1, . . . n} , und vi ∈ V gilt

∆(v1, . . . , vi, . . . , vj, . . . , vn) = −∆(v1, . . . , vj, . . . , vi, . . . , vn) .

D.h.: Das Vorzeichen von ∆ dreht sich um, wenn man zwei Argumente vertauscht.Man sagt: ∆ ist alternierend.

Page 204: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

8.2 Determinantenfunktionen, Existenz und Eigenschaften der Determinante 201

(DF3) Es sei ei der i-te Einheitsvektor in Kn. Dann gilt ∆(e1, . . . , en) = 1 .

Schlagwortartig kann man die Forderungen (DF1) – (DF3) so zusammenfassen: ∆ ist einenormierte, alternierende Multilinearform von V n der Stufe n.Durch (DF1) und (DF2) wird festgelegt, wie sich der Wert einer Determinantenfunktion ∆bei Anwendung von elementaren Spaltenumformungen auf ihre Argumente andert:

(8.2.1) Korollar Es sei ∆ : V n → K eine Determinantenfunktion.(a) (EU1) Die Vertauschung zweier verschiedener Argumente dreht das Vorzeichen um.(b) (EU2) Multiplikation eines Arguments mit einem Skalar λ multipliziert den Wert

von ∆ mit λ :

∆(v1, . . . , λvi, . . . , vn) = λ ·∆(v1, . . . , vi, . . . , vn) .

(c) (EU3) Addition eines skalaren Vielfachen eines Arguments zu einem anderen andertden Wert von ∆ nicht:

∆(v1, . . . , vi + λvj, . . . , vj, . . . , vn) = ·∆(v1, . . . , vi, . . . , vj, . . . , vn) .

(8.2.2) Satz(a) Es sei ∆ : V n → K eine Determinantenfunktion. Genau dann gilt ∆(v1, . . . , vn) 6= 0 ,

wenn das Vektorsystem {v1, . . . , vn} den Rang n hat.(b) Zu jedem Korper K und jeder naturlichen Zahl n gibt es hochstens eine Determinan-

tenfunktion ∆ : V n → K .

Beweis: Wir bezeichnen mit A diejenige (n×n)-Matrix uber K, die den Vektor vi als i-tenSpaltenvektor hat. Fur irgendeine (n × n)-Matrix M uber K mit den Spalten s1, . . . , snschreiben wir abkurzend ∆(M) := ∆(s1, . . . , sn) .1.Fall: rang({v1, . . . , vn}) = n .Nach (2.4.5.a) laßt sich A durch elementare Spaltenumformungen auf die (n × n)-Einheits-matrix En transformieren. Nach (8.2.1) weiß man, wie sich ∆(A) durch die Anwendungvon elementaren Spaltenumformungen verandert: bezeichnet man mit A′ die umgeformteMatrix, so gilt ∆(A′) = µ∆(A) , wobei µ ∈ K \ {0} ist, und zwar

µ = −1 bei Vertauschung zweier Spalten,µ = λ bei Multiplikation einer Spalte mit einem Skalar λ 6= 0 ,µ = 1 bei Addition eines skalaren Vielfachen einer Spalte zu einer anderen.

Werden bei der Transformation von A zu En insgesamt k elementare Spaltenumformungenangewendet, wobei die j-te Umformung den Vorfaktor µj 6= 0 beisteuert, so gilt

∆(En) = µk · µk−1 · . . . · µ1 ·∆(A) , also

∆(A) = (µk · µk−1 · . . . · µ1)−1 ·∆(En)(DF3)

= (µk · µk−1 · . . . · µ1)−1 6= 0 .

2.Fall: rang({v1, . . . , vn}) < n .Nun sind die Spalten von A linear abhangig. Also gibt es eine Spalte, ohne Beschrankungder Allgemeinheit die letzte, die im Erzeugnis der anderen Spalten liegt. Sei etwa vn =

Page 205: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

202 8 DETERMINANTEN

∑n−1i=1 λivi . Dann kann man fur i = 1, . . . , n− 1 das λi-fache der i-ten Spalte von der n-ten

Spalte abziehen, ohne den Wert ∆(A) zu verandern. Es gilt also ∆(A) = ∆(A′) , wobei dieletzte Spalte von A′ nur Nullen enthalt. Nun transformieren wir A′ zu A′′, indem wir dieletzte Spalte mit 0 multiplizieren. Es gilt A′ = A′′ , und es folgt

∆(A) = ∆(A′) = ∆(A′′)(DF1)

= 0 ·∆(A′) = 0 .

(b) ist nun klar nach dem Beweis von (a): Ist ∆ irgendeine Determinantenfunktion und{v1, . . . , vn} ein Vektorsystem, so gibt es zwei Moglichkeiten. Ist das Vektorsystem linearabhangig, so gilt ∆(v1, . . . , vn) = 0 . Im anderen Fall transformieren wir wie in (a) die Matrix(v1, . . . , vn) auf die Einheitsmatrix En. Sind µ1, . . . , µk die dabei anfallenden Vorfaktoren,so gilt ∆(v1, . . . , vn) = (µk · µk−1 · . . . · µ1)−1 .Dabei kommt gleichzeitig heraus, daß das Produkt dieser Vorfaktoren immer dasselbe ist,unabhangig davon, welche elementaren Umformungen wir vorgenommen haben25. �

Der folgende Hilfssatz macht es uns leichter, nachzuweisen, daß (DF2) erfullt ist:

(8.2.3) Lemma Es sei ∆ : V n → K eine Abbildung, die die folgenden beiden Bedingungenerfullt:

(i) ∆ ist eine Multilinearform, d.h. (DF1) ist erfullt.(ii) ∆(v1, . . . , vn) = 0 , falls es einen Index i ∈ {1, . . . n− 1} gibt mit vi = vi+1 .Dann erfullt ∆ auch das Axiom (DF2).

(8.2.3) sagt aus, daß eine Multilinearform, die den Wert 0 annimmt, sobald zwei benachbarteArgumente gleich sind, alternierend ist.

Beweis: Wir zeigen zuerst, daß ∆ sein Vorzeichen bei der Vertauschung benachbarterArgumente vi, vi+1 umdreht. Es gilt

0(ii)= ∆(v1, . . . , vi + vi+1, vi + vi+1, . . . , vn)(i)= ∆(v1, . . . , vi, vi + vi+1, . . . , vn) + ∆(v1, . . . , vi+1, vi + vi+1, . . . , vn)(i)= ∆(v1, . . . , vi, vi, . . . , vn) + ∆(v1, . . . , vi, vi+1, . . . , vn)

+∆(v1, . . . , vi+1, vi, . . . , vn) + ∆(v1, . . . , vi+1, vi+1, . . . , vn)(ii)= ∆(v1, . . . , vi, vi+1, . . . , vn) + ∆(v1, . . . , vi+1, vi, . . . , vn) ,

also ∆(v1, . . . , vi+1, vi, . . . , vn) = −∆(v1, . . . , vi, vi+1, . . . , vn) .

Sind nun i < j zwei beliebige (nicht notwendig benachbarte) Indizes, so erreicht man dieVertauschung von i und j durch das Hintereinanderausfuhren der Nachbarschaftsvertau-schungen

i↔ i+ 1 , i+ 1↔ i+ 2 , . . . , i+ j − 2↔ i+ j − 1 , i+ j − 1↔ i+ j ,

i+ j − 2↔ i+ j − 1 , . . . , i+ 1↔ i+ 2 , i↔ i+ 1 .

25Es gibt moglicherweise mehrere Moglichkeiten, durch elementare Umformungen der angegebenen Artdie Matrix (v1, . . . , vn) auf die Einheitsmatrix En zu transformieren.

Page 206: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

8.2 Determinantenfunktionen, Existenz und Eigenschaften der Determinante 203

Deren Anzahl ist 2(j − i)− 1 , also ungerade. Bei jeder Anwendung einer solchen Nachbar-schaftsvertauschung wechselt ∆ sein Vorzeichen, also gilt

∆(v1, . . . , vj, . . . , vi, . . . , vn) = (−1)2(j−i)−1∆(v1, . . . , vi, . . . , vj, . . . , vn)

= −∆(v1, . . . , vi, . . . , vj, . . . , vn) . �

Nachdem wir einige Eigenschaften der Determinantenfunktionen gesammelt haben, wollenwir durch Induktion nach n fur jede naturliche Zahl n die Existenz einer Determinanten-funktion ∆n : V n → K (die dann nach (8.2.2) eindeutig bestimmt ist), beweisen.

(8.2.4) Satz Zu jedem Korper K und jedem n ∈ N existiert genau eine Determinanten-funktion ∆n : V n → K .

Beweis: Im Fall n = 1 ist V 1 = K1 = K, und durch ∆1(v1) := v1 ∈ K wird offensichtlicheine Determinantenfunktion von V 1 nach K definiert. Nun nehmen wir an, es gebe bereitseine Determinantenfunktion ∆n−1 : V n−1 → K .

Fur einen Vektor

v1...

vn

∈ Kn bezeichne v∗ :=

v2...

vn

∈ Kn−1 , also den Vektor, der aus

v durch Weglassen der ersten Komponente entsteht. Die Abbildung v ∈ Kn 7→ v∗ ∈ Kn−1

ist linear.Zu dem geordneten Vektorsystem S = (v1, . . . , vn) ∈ V n definieren wir n VektorsystemeSi ∈ V n−1 , und zwar

Si := (v∗1, . . . , v∗i−1, v

∗i+1, . . . , v

∗n) .

Man erhalt also Si aus S, indem man den i-ten Vektor ganz, und von den ubrigen jeweilsdie erste Komponente streicht. Schließlich sei (vi)1 die erste Komponente des Vektors vi.Damit definieren wir

∆n(v1, . . . , vn) :=n∑i=1

(−1)i+1(vi)1∆n−1(v∗1, . . . , v∗i−1, v

∗i+1, . . . , v

∗n) .

Nun haben wir fur die Abbildung ∆n : V n → K die Axiome (DF1) – (DF3) nachzuweisen.(DF1) Multilinearitat: Fur alle j ∈ {1, . . . n} gilt

∆n(v1, . . . , λvj + µwj, . . . , vn) =

=∑i6=j

(−1)i+1(vi)1∆n−1(v∗1, . . . , v∗i−1, v

∗i+1, . . . , (λvj + µwj)

∗, . . . , v∗n)

+ (−1)j+1(λvj + µwj)1∆n−1(v∗1, . . . , v∗j−1, v

∗j+1, . . . , v

∗n)

=∑i6=j

(−1)i+1(vi)1∆n−1(v∗1, . . . , v∗i−1, v

∗i+1, . . . , λv

∗j + µw∗j , . . . , v

∗n)

+ (−1)j+1(λ(vj)1 + µ(wj)1

)∆n−1(v∗1, . . . , v

∗j−1, v

∗j+1, . . . , v

∗n)

Page 207: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

204 8 DETERMINANTEN

= λ

(∑i6=j

(−1)i+1(vi)1∆n−1(v∗1, . . . , v∗i−1, v

∗i+1, . . . , v

∗j , . . . , v

∗n)

)

(∑i6=j

(−1)i+1(vi)1∆n−1(v∗1, . . . , v∗i−1, v

∗i+1, . . . , w

∗j , . . . , v

∗n)

)+λ((−1)j+1(vj)1∆n−1(v∗1, . . . , v

∗j−1, v

∗j+1, . . . , v

∗n))

+µ((−1)j+1(wj)1∆n−1(v∗1, . . . , v

∗j−1, v

∗j+1, . . . , v

∗n))

= λ∆n(v1, . . . , vj, . . . , vn) + µ∆n(v1, . . . , wj, . . . , vn) .

(DF2) Nach (8.2.3) reicht es, zu zeigen: ∆n(v1, . . . , vn) = 0 , falls zwei benachbarteArgumente gleich sind.Sei etwa vj = vj+1 . Fur j 6= i 6= j + 1 treten dann auch im Vektorsystem Si zwei gleicheVektoren auf. Also gilt nach Induktionsvoraussetzung ∆n−1(Si) = 0 fur j 6= i 6= j + 1 . Esfolgt

∆n(v1, . . . , vj, vj, . . . , vn) =

(−1)j((vj)1∆n−1(v∗1, . . . , v

∗j−1, v

∗j+1, . . . , v

∗n) − (vj+1)1∆n−1(v∗1, . . . , v

∗j , v∗j+2, . . . , v

∗n))

= 0 wegen vj = vj+1 .

(DF3) Im Fall (v1, . . . , vn) = (e1, . . . , en) ergibt sich (vi)1 = 0 fur i ≥ 2 , undS1 = (e∗2, . . . , e

∗n) , wobei e∗j der (j − 1)-te Standardeinheitsvektor in Kn−1 ist. Also folgt

∆n(e1, . . . , en) = (−1)2 · 1 ·∆n−1(e∗2, . . . , e∗n) = 1 . �

Nun sind wir gerustet fur die Definition der Determinante:

Definition: DeterminanteEs sei K ein Korper, n ∈ N , und ∆n die nach (8.2.4) eindeutig bestimmte Determinanten-funktion von V n nach K. Fur eine Matrix A ∈ Mn(K) mit den Spalten s1, . . . , sn setzenwir

det(A) := ∆n(s1, . . . , sn) .

Da die in Abschnit 10.1 definierten Determinanten fur n = 1, 2, 3 Determinantenfunktionensind, stimmen die beiden Definitionen dort und hier uberein. Aus (8.2.2.a) erhalten wirsofort die erste wichtige Eigenschaft der Determinante:

(8.2.5) Korollar Genau dann gilt det(A) = 0 , wenn A regular (invertierbar) ist.

Die Normierung (DF3) der Determinantenfunktionen bewirkt, daß fur jede naturliche Zahln die (n× n)-Einheitsmatrix En die Determinante 1 besitzt.

Page 208: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

8.2 Determinantenfunktionen, Existenz und Eigenschaften der Determinante 205

(8.2.6) Satz Rechenregeln fur Determinanten(a) Fur Matrizen A,B ∈Mn(K) gilt det(AB) = det(A) · det(B) .(b) Fur A ∈Mn(K) gilt det(−A) = (−1)n det(A) .

(c) Ist A ∈Mn(K) invertierbar, so gilt det(A−1) =(

det(A))−1

.

(d) Ahnliche Matrizen aus Mn(K) haben dieselbe Determinante.(e) Fur A ∈Mn(K) gilt det(AT ) = det(A) .

Beweis:

(a) Ist A nicht invertierbar, so auch nicht AB. Nach (8.2.5) gilt in diesem Falle alsodet(AB) = 0 = 0 · det(B) = det(A) · det(B) .Nun nehmen wir an, A sei invertierbar, also det(A) 6= 0 . Fur ein beliebiges Vektorsy-stem (v1, . . . , vn) ∈ V n setzen wir

Γ(v1, . . . , vn) := ∆n(Av1, . . . , Avn) .

Wegen der Linearitat von A und der Multilinearitat von ∆n gilt

Γ(v1, . . . , λvi + µwi, . . . , vn) = ∆n(Av1, . . . , A(λvi + µwi), . . . , Avn)

= ∆n(Av1, . . . , λAvi + µAwi, . . . , Avn)

= λ∆n(Av1, . . . , Avi, . . . , Avn) + µ∆n(Av1, . . . , Awi, . . . , Avn)

= λΓn(v1, . . . , vi, . . . , vn) + µΓn(v1, . . . , wi, . . . , vn) .

Da ∆n alternierend ist, erhalten wir fur i < j

Γ(v1, . . . , vj, . . . , vi, . . . , vn) = ∆n(A1, . . . , Avj, . . . , Avi, . . . , vn)

= −∆n(A1, . . . , Avi, . . . , Avj, . . . , vn)

= −Γ(v1, . . . , vi, . . . , vj, . . . , vn) .

Schließlich ist Aei die i-te Spalte der Matrix A, also

Γ(e1, . . . , en) = ∆n(Ae1, . . . , Aen) = det(A) .

Wegen det(A) 6= 0 konnen wir die Abbildung Γ∗ : V n → K , definiert durch

Γ∗(v1, . . . , vn) :=(

det(A))−1 · Γ(v1, . . . , vn)

bilden. Die Multilinearitat und das Alternieren bleiben bei der Division durch einenkonstanten Faktor naturlich erhalten. Also erfullt Γ∗ die Axiome (DF1) – (DF3) undist nach (8.2.4) identisch mit ∆n.Sind nun b1, . . . , bn die Spalten von B, so hat AB die Spalten Ab1, . . . , Abn . Also folgt

det(AB) = ∆n(Ab1, . . . , Abn) = Γ(b1, . . . , bn)

= det(A) · Γ∗(b1, . . . , bn) = det(A) ·∆n(b1, . . . , bn)

= det(A) · det(B) .

(b) ist klar nach (a), da −A = (−E)A und det(−E) = (−1)n.

Page 209: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

206 8 DETERMINANTEN

(c) Ist A ∈Mn(K) invertierbar, und En die (n× n)-Einheitsmatrix, so gilt nach (a)

det(A) · det(A−1) = det(A · A−1) = det(En) = 1 , also det(A−1) =(

det(A))−1

.

(d) A und B aus Mn(K) sind ahnlich, wenn es eine regulare Matrix S ∈Mn(K) gibt mitB = S−1AS . Nach (a) und (b) folgt

det(B) = det(S−1AS) = det(S−1) det(A) det(S)

= det(S)−1 det(A) det(S) = det(A) det(S)−1 det(S) = det(A) .

(Man beachte, daß die Determinanten Korperelemente sind, also det(A) · det(B) =det(B) · det(A) auch dann erfullt ist, wenn vielleicht AB 6= BA gilt.)

(e) folgt aus (c), da nach (6.8.3) die Matrizen A und AT ahnlich sind.�

Literatur: Es soll nicht verschwiegen werden, daß die Definition einer Determinanten-funktion keineswegs einheitlich ist. Im Gegenteil, fast jeder Autor verwendet ein anderesAxiomensystem. Jedoch kommt, und das mag den Leser beruhigen, am Ende immer heraus,daß es zu jedem n bis auf Normierung genau eine Determinantenfunktion der Stufe n gibtund diese im Fall n ≤ 3 mit der ublichen, in Abschnitt 10.1 definierten Determinante zu-mindest bis auf eine multiplikative Konstante ubereinstimmt. Die hier verwendete Version,ebenso wie wesentliche Teile des Beweisgangs, stammt aus Fischer/Kaul [FK].Es gibt eine Reihe von Aufsatzen daruber, was man von einer Funktion ∆ : Mn(K) → Kverlangen muß, um als einzige Losung die Determinante zu erhalten. Beispielhaft sei hiernur genannt Tevan / Vincze ([51], S.80):Es sei K ein algebraisch abgeschlossener Korper26. Die einzige Funktion ∆ : Mn(K)→ K ,die nicht uberall den Wert 0 annimmt und die Bedingungen(a) ∆(AB) = ∆(A) ·∆(B) und(b) ∆(λEn) = λn ·∆(En)

fur alle A,B ∈Mn(K) , λ ∈ K erfullt, ist die Funktion ∆(A) = det(A) .

8.3 Berechnung der Determinante

Nachdem wir nun mit viel Muhe eine Definition der Determinante zustande gebracht haben,wollen wir uns den Methoden zuwenden, Determinanten auch wirklich zu berechnen.Im Induktionsbeweis von (8.2.4) steckt die erste Methode, Determinanten durch Entwicklungnach der ersten Zeile auf eine Summe von kleineren Determinanten zu reduzieren. Die dabeivorgenommenen Streichungen im Vektorsystem fuhren auf die sogenannten Streichungsma-trizen:

Definition: StreichungsmatrixFur eine Matrix A ∈ Mn(K) bezeichnen wir mit Ai,j die (i, j)-Streichungsmatrix, das heißtdiejenige

((n−1)× (n−1)

)-Matrix, die entsteht, wenn man die i-te Zeile und die j-te Spalte

von A streicht.

26Ein Korper K heißt algebraisch abgeschlossen, wenn jedes nichtkonstante Polynom p ∈ K[x] ein Produktvon linearen Polynomen ist. Q und R sind nicht algebraisch abgeschlossen, da sich zum Beispiel das Polynomx2 + 1 nicht in Linearfaktoren zerlegen laßt, aber der Korper C ist algebraisch abgeschlossen.

Page 210: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

8.3 Berechnung der Determinante 207

(8.3.1) Beispiel Streichungsmatrizen

Es sei A =

1 2 34 5 67 8 9

∈M3(R) . Dann erhalt man zum Beispiel die Streichungsmatrizen

A1,1 =(

5 68 9

), A1,2 =

(4 67 9

), A2,1 =

(2 38 9

).

Die Verallgemeinerung der Konstruktion im Beweis von (8.2.4) fuhrt nun auf

(8.3.2) Satz Entwicklungssatz von LaplaceEs sei A = (ai,j) ∈ Mn(K) und Ai,j die (i, j)-Streichungsmatrix von A. Dann gilt fur jedesi und j

(a) Entwicklung nach der i-ten Zeile: det(A) =n∑j=1

(−1)i+jai,j det(Ai,j)

(b) Entwicklung nach der j-ten Spalte: det(A) =n∑i=1

(−1)i+jai,j det(Ai,j)

Beweis: Der Beweis von (a) verlauft genau wie der von (8.2.4): Man zeigt, daß die Abbil-dung A 7→

∑nj=1(−1)i+jai,j det(Ai,j) eine Determinantenfunktion ist, wobei das Argument

dieser Abbildung das System der Spalten von A ist. Dazu muß man im Beweis von (8.2.4)lediglich 1 durch j ersetzen. Schließlich folgt (b) aus (a) wegen (8.2.6.d), denn die Spaltenvon A sind die Zeilen von AT . �

Die Vorzeichen (−1)i+j , mit denen die Sum-manden ai,j det(Ai,j) zu multiplizieren sind,bilden ein Schachbrettmuster: ...

......

+ − + . . .

− + − . . .

+ − + . . .

(8.3.3) Beispiele Entwicklung nach einer Zeile oder Spalte

1.

∣∣∣∣∣∣1 2 34 5 67 8 9

∣∣∣∣∣∣ = 1 ·∣∣∣∣ 5 6

8 9

∣∣∣∣− 2 ·∣∣∣∣ 4 6

7 9

∣∣∣∣+ 3 ·∣∣∣∣ 4 5

7 8

∣∣∣∣ = −3− 2 · (−6) + 3 · (−3) = 0 .

2. det(A) =

∣∣∣∣∣∣1 0 00 −1/2 −

√3/2

0√

3/2 −1/2

∣∣∣∣∣∣ =∣∣∣∣ −1/2 −

√3/2√

3/2 −1/2

∣∣∣∣ = 14 + 3

4 = 1 .

3. Fur die Permutationsmatrizen A und B aus Beispiel (6.6.3) ergibt sich jeweils durch Ent-wickeln nach der ersten Spalte

det(A) =

∣∣∣∣∣∣0 0 11 0 00 1 0

∣∣∣∣∣∣ = (−1) ·∣∣∣∣ 0 1

1 0

∣∣∣∣ = (−1) · (−1) = 1 .

det(B) =

∣∣∣∣∣∣0 0 10 1 01 0 0

∣∣∣∣∣∣ = 1 ·∣∣∣∣ 0 1

1 0

∣∣∣∣ = −1 .

Page 211: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

208 8 DETERMINANTEN

4. Fur die Begleitmatrix zum Polynom p(x) = xn + αn−1xn−1 + . . . + α0 erhalt man durch

Entwickeln nach der ersten Zeile∣∣∣∣∣∣∣∣∣∣∣∣∣

0 0 0 . . . 0 −α0

1 0 0 . . . 0 −α1

0 1 0 . . . 0 −α2

0 0 1 . . . 0 −α3...

......

. . ....

...0 0 0 . . . 1 −αn−1

∣∣∣∣∣∣∣∣∣∣∣∣∣= (−1)n+2α0 ·

∣∣∣∣∣∣∣∣∣∣∣

1 0 0 . . . 00 1 0 . . . 00 0 1 . . . 0...

......

. . ....

0 0 0 . . . 1

∣∣∣∣∣∣∣∣∣∣∣= (−1)nα0 .

Ein weiteres Beispiel der Anwendung der Laplaceschen Methode ist die Berechnung derDeterminante einer oberen oder unteren Dreiecksmatrix, das wir wegen seiner Bedeutungextra notieren wollen:

(8.3.4) Satz Die Determinante einer (n× n)-Dreiecksmatrix A ist gleich dem Produkt derDiagonalelemente von A.

Beweis: Induktion nach n: Die Behauptung ist klar fur n = 1 . Ist die Aussage fur n − 1schon gezeigt, so erhalt man durch Entwickeln nach der ersten Spalte∣∣∣∣∣∣∣∣∣

α1,1

0. . . *

.... . .

0 . . . 0 αn,n

∣∣∣∣∣∣∣∣∣ = α1,1 ·

∣∣∣∣∣∣∣∣∣α2,2

0. . . *

.... . .

0 . . . 0 αn,n

∣∣∣∣∣∣∣∣∣ = α1,1 · (α2,2 · . . . · αn,n) .

Im Fall unterer Dreiecksmatrizen entwickelt man nach der ersten Zeile. �

Die Aussagen (8.2.1) uber das Verhalten einer Determinantenfunktion bei elementaren Um-formungen laßt sich unmittelbar auf das Verhalten der Determinante bei elementaren Spal-tenumformungen der Matrix ubertragen. Wegen det(A) = det(AT ) gelten die analogenAussagen auch fur elementare Zeilenumformungen.

(8.3.5) Satz Elementare Spalten- und ZeilenumformungenEs seien A,A′ ∈Mn(K) und λ ∈ K.

(a) (EU1) Entsteht A′ aus A durch Vertauschung zweier Spalten oder zweier Zeilen, sogilt det(A′) = − det(A) .

(b) (EU2) Entsteht A′ aus A durch Multiplikation einer Spalte oder einer Zeile von A mitdem Skalar λ , so gilt det(A′) = λ · det(A) .

(c) (EU3) Entsteht A′ aus A, indem das λ-fache einer Spalte zu einer anderen Spalteaddiert wird, oder indem das λ-fache einer Zeile zu einer anderen Zeile addiert wird,so gilt det(A′) = det(A) .

(8.3.6) Beispiele Elementare Umformungen

1. Wir berechnen noch einmal die Determinante aus (8.3.3.1), indem wir das 2-fache der 1.Spaltevon der 2.Spalte und dann das 3-fache der 1.Spalte von der 3.Spalte subtrahieren:

Page 212: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

8.3 Berechnung der Determinante 209

∣∣∣∣∣∣1 2 34 5 67 8 9

∣∣∣∣∣∣ =

∣∣∣∣∣∣1 0 04 −3 −67 −6 −12

∣∣∣∣∣∣ = 0 ,

da nun die 2. und die 3.Spalte linear abhangig sind.

2. Die folgenden Umformungen (Notation wie in Abschnitt 1.7) seien durchweg Zeilenumfor-mungen: ∣∣∣∣∣∣∣∣

1 2 0 02 1 2 00 2 1 20 0 2 1

∣∣∣∣∣∣∣∣[2]−[1]

=

∣∣∣∣∣∣∣∣1 2 0 00 −3 2 00 2 1 20 0 2 1

∣∣∣∣∣∣∣∣[3]+2/3·[2]

=

∣∣∣∣∣∣∣∣1 2 0 00 −3 2 00 0 −7/3 20 0 2 1

∣∣∣∣∣∣∣∣[4]−6/7·[3]

=

∣∣∣∣∣∣∣∣1 2 0 00 −3 2 00 0 −7/3 20 0 0 −5/7

∣∣∣∣∣∣∣∣ = 1 · (−3) · 73· (−5

7) = 5 .

3. Durch Zeilen- und Spaltenumformungen berechnen wir fur beliebige naturliche Zahlen n ≤ 2und beliebige Korperelemente α, β die Determinante der Matrix, die auf der Diagonalenlauter Eintrage α und außerhalb immer den Eintrag β stehen hat:

∣∣∣∣∣∣∣∣∣∣α β . . . β

β. . . . . .

......

. . . . . . ββ . . . β α

∣∣∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣∣∣∣∣

α+ (n− 1)β α+ (n− 1)β . . . . . . α+ (n− 1)ββ α β . . . β...

. . . . . . . . ....

.... . . . . . β

β . . . . . . β α

∣∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣∣

α+ (n− 1)β 0 . . . . . . 0β α− β 0 . . . 0... 0 α− β 0 0...

.... . . . . .

...β 0 . . . 0 α− β

∣∣∣∣∣∣∣∣∣∣∣∣=(α+ (n− 1)β

)· (α− β)n−1 .

Hierfur haben wir im ersten Schritt fur i = 2, . . . , n die i-te Zeile zur ersten Zeile addiertund dann im zweiten Schritt die erste Spalte von allen anderen subtrahiert.

4. Oft erweist sich eine Kombination von elementaren Umformungen und Entwickeln nach einerZeile oder Spalte als zweckmaßig. Wir greifen das zweite Beispiel noch einmal auf undersetzen dabei die Eintrage 2 durch irgendeine reelle Zahl λ. Fur welche λ wird die soentstehende Matrix singular?∣∣∣∣∣∣∣∣

1 λ 0 0λ 1 λ 00 λ 1 λ0 0 λ 1

∣∣∣∣∣∣∣∣Z[2]−λZ[1]

=

∣∣∣∣∣∣∣∣1 λ 0 00 1− λ2 λ 00 λ 1 λ0 0 λ 1

∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣1− λ2 λ 0λ 1 λ0 λ 1

∣∣∣∣∣∣S[2]−λS[3]

=

∣∣∣∣∣∣1− λ2 λ 0λ 1− λ2 λ0 0 1

∣∣∣∣∣∣ =∣∣∣∣ 1− λ2 λ

λ 1− λ2

∣∣∣∣ = (1− λ2)2 − λ2 = 1− 3λ2 + λ4 .

Page 213: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

210 8 DETERMINANTEN

Im zweiten Schritt haben wir nach der ersten Spalte und im vierten Schritt nach der drittenZeile entwickelt. Diese Determinante ist nun eine Funktion in λ mit den Nullstellen

λ1 = −√

12

(3 +√

5) = −1.618.. , λ2 = −√

12

(3−√

5) = −0.618.. ,

λ3 =

√12

(3−√

5) = 0.618.. , λ4 =

√12

(3 +√

5) = 1.618.. .

Fur diese vier Werte ist die Matrix singular, fur alle anderen regular (invertierbar).

(8.3.7) Satz Vandermonde-DeterminanteEs sei K ein beliebiger Korper und α1, . . . , αn ∈ K . Dann gilt∣∣∣∣∣∣∣∣∣

1 α1 α21 . . . αn−1

1

1 α2 α22 . . . αn−1

2...

......

...1 αn α2

n . . . αn−1n

∣∣∣∣∣∣∣∣∣ =∏

1≤i<j≤n

(αj − αi) .

Insbesondere ist diese Determinante genau dann ungleich Null, wenn die Korperelemente αipaarweise verschieden sind.

Beweis: Induktion nach n. Im Fall n = 1 steht auf der linken Seite die Determinante|1| = 1 und auf der rechten Seite das leere Produkt 1.Nun nehmen wir an, die Behauptung sei fur n − 1 schon bewiesen und fuhren folgendeelementare Spaltenumformungen durch:

1. Subtraktion des α1-fachen der (n− 1)-ten Spalte von der n-ten.2. Subtraktion des α1-fachen der (n− 2)-ten Spalte von der (n− 1)-ten....

(n− 1). Subtraktion des α1-fachen der ersten Spalte von der zweiten.Danach enthalt die erste Zeile nur noch einen Eintrag ungleich 0, namlich den ersten. Nunentwickeln wir nach der ersten Zeile. Aus der ersten Zeile der so entstandenen Determinanteziehen wir den gemeinsamen Faktor α2−α1 , aus der zweiten Zeile den Faktor α3−α1 , . . . ,aus der letzten Zeile den Faktor αn − α1 , . . . , heraus. Die Induktionsvoraussetzung, ange-wendet auf die so entstandene Determinante, liefert dann die Behauptung:∣∣∣∣∣∣∣∣∣

1 α1 α21 . . . αn−1

1

1 α2 α22 . . . αn−1

2...

......

...1 αn α2

n . . . αn−1n

∣∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣∣∣1 0 0 . . . 01 α2 − α1 α2

2 − α2α1 . . . αn−12 − αn−2

2 α1...

......

...1 αn − α1 α2

n − αnα1 . . . αn−1n − αn−2

n α1

∣∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣α2 − α1 α2(α2 − α1) . . . αn−2

2 (α2 − α1)...

......

αn − α1 αn(αn − α1) . . . αn−2n (αn − α1)

∣∣∣∣∣∣∣= (α2 − α1) · (α3 − α1) · . . . · (αn − α1) ·

∣∣∣∣∣∣∣1 α2 . . . αn−2

2...

......

1 αn . . . αn−2n

∣∣∣∣∣∣∣= (α2 − α1) · (α3 − α1) · . . . · (αn − α1) ·

∏2≤i<j≤n

(αj − αi) =∏

1≤i<j≤n

(αj − αi) . �

Page 214: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

8.3 Berechnung der Determinante 211

Die Vandermonde-Determinante kann man verwenden, um ein Problem aus der Interpola-tionstheorie zu losen. Dabei sind n verschiedene Werte xi ∈ K und n (nicht notwendigverschiedene) Werte yi ∈ K gegeben. Gesucht ist ein Polynom

P (x) = p0 + p1x+ p2x2 + . . .+ pn−1x

n−1

vom Grad hochstens n − 1, so daß P (xi) = yi gilt fur alle 1 ≤ i ≤ n. Die Existenz undEindeutigkeit eines solchen Polynoms folgt aus dem Nicht-Verschwinden einer geeignetenVandermonde-Determinante:

(8.3.8) Satz Lagrange-PolynomEs sei K ein beliebiger Korper. Weiter seien n verschiedene Werte xi ∈ K und n (nichtnotwendig verschiedene) Werte yi ∈ K gegeben.Dann existiert genau ein Polynom P =

∑n−1i=0 pix

i ∈ K[x] von Grad ≤ n− 1 mit P (xi) = yifur alle 1 ≤ i ≤ n.Die Koeffizienten pi bilden den Losungsvektor des Gleichungssystems

1 x1 x21 . . . xn−1

1

1 x2 x22 . . . xn−1

2...

......

......

1 xn x2n . . . xn−1

n

p0

p1

p2...

pn−1

=

y1

y2

y3...yn

.

(8.3.9) Beispiel Lagrange-Polynom

Gegeben seien die reellen Werte-Paarexi −3 −1 0 2 3yi −5 37 52 10 1

.

-

x

6y

1

10

r

rr

rr

pp p p ppp pp pp pp p p p p p p p p p p

p p p ppp

p p pp pp pp p p p p p p p p

p

Die Koeffizienten des gesuchten Polynoms

P (x) = p0 + p1x+ p2x2 + p3x

3 + p4x4

ergeben sich aus dem Losungsvektor des Glei-chungssystems

1 −3 9 −27 811 −1 1 −1 11 0 0 0 01 2 4 8 161 3 9 27 81

p0

p1

p2

p3

p4

=

−53752101

.

Gaußsche Elimination liefert

p0 = 52, p1 = 1, p2 = −15, p3 = 0, p4 = 1 .

Das gesuchte Polynom ist also

P (x) = x4 − 15x2 + x+ 52 .

Eine wichtige Verallgemeinerung des Satzes (8.3.4) uber die Determinante von Dreiecksma-trizen ist die Formel fur Determinanten von Block-Dreiecksmatrizen:

Page 215: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

212 8 DETERMINANTEN

(8.3.10) Satz Kastchenformel fur DeterminantenFur beliebige quadratische Matrizen Ai uber einem Korper K gilt

det

A1 *. . .

0 Ak

=k∏i=1

det(Ai) .

Beweis: Die Behauptung ist trivial fur k = 1. Wir beweisen sie fur k = 2. Der Rest istdann eine Induktion nach k, wobei die Aussage fur k = 2 den Induktionsschritt liefert.

Gesucht ist also die Determinante von A =

(A1 *0 A2

)∈Mm+n(K) , wobei

A1 ∈Mm(K) und A2 ∈Mn(K) seien.Ist A1 singular, so sind die Spalten von A1 linear abhangig. Damit sind auch die ersten mSpalten von A, die man aus den Spalten von A1 erhalt, indem man jeweils n Komponenten0 anhangt, linear abhangig, und es gilt det(A) = 0 = 0 · det(A2) .Ist A2 singular, so sind die Zeilen von A2 linear abhangig, also auch die letzten n Zeilen vonA, und es gilt det(A) = 0 = det(A1) · 0 .Nun konnen wir annehmen, daß A1 und A2 regular sind. Dann lassen sich beide allein durchelementare Spaltenumformungen vom Typ (EU3) auf Diagonalgestalt transformieren:Da die erste Zeile von A1 nicht die Nullzeile sein kann, enthalt sie einen Eintrag ai,1 6= 0 .Im Fall a1,1 = 0 addieren wir die i-te Spalte zur ersten. Somit erreichen wir a1,1 6= 0 , undkonnen mit diesem Pivotelement durch Spaltenumformungen vom Typ (EU3) die restlichenEintrage der ersten Zeile annullieren. Ware nun a2,2 = a2,3 = . . . = a2,n = 0 , so waren diebeiden ersten Zeilen von A1 linear abhangig, ein Widerspruch. Also finden wir unter diesenEintragen einen ungleich Null und konnen durch Umformungen vom Typ (EU3) der letztenn− 1 Spalten folgende Form mit a1,1 6= 0 6= a2,2 erreichen:

a1,1 0 . . . . . . 0a2,1 a2,2 0 . . . 0

*

.

Durch Subtraktion des (a2,1/a2,2)-fachen der zweiten Spalte von der ersten erhalten wira2,1 = 0 . Damit sind die ersten beiden Zeilen in der gewunschten Form. Die Fortsetzung desVerfahrens liefert die Diagonalform von A1.Da unterhalb des Blocks A1 nur Nullen stehen, andern diese Spaltenoperationen im unterenTeil der Matrix A nichts, und es folgt

det(A) =

∣∣∣∣∣∣∣∣∣∣∣∣∣

a1,1

. . .

am,m

*

0 A2

∣∣∣∣∣∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣∣∣∣∣∣

a1,1

. . .

am,m

*

0am+1,m+1

. . .

am+n,m+n

∣∣∣∣∣∣∣∣∣∣∣∣∣.

Bei der Transformation von A2 auf Diagonalform werden nur die hinteren n Spalten vonA umgeformt. Daher bleiben die ersten m Spalten von A unverandert. Das Ergebnis der

Page 216: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

8.3 Berechnung der Determinante 213

Umformungen ist eine Dreiecksmatrix, also folgt

det(A) = (a1,1 · . . . · am,m) · (am+1,m+1 · . . . · am+n,m+n) = det(A1) · det(A2) . �

Die Kastchenformel gilt wegen (8.2.6.d) naturlich auch fur untere Block-Dreiecksmatrizen.

(8.3.11) Beispiele Kastchenformel fur Determinanten

1. Die Kastchenformel kann man zuweilen nach einigen elementaren Umformungen anwenden:∣∣∣∣∣∣∣∣4 −2 −1 20 −1 1 22 1 0 13 4 1 0

∣∣∣∣∣∣∣∣Z[1]− 2Z[3]Z[2]− 2Z[3]

=

∣∣∣∣∣∣∣∣0 −4 −1 0−4 −3 1 0

2 1 0 13 4 1 0

∣∣∣∣∣∣∣∣Z[1] + Z[4]Z[2]− Z[4]

=

∣∣∣∣∣∣∣∣3 0 0 0−7 −7 0 0

2 1 0 13 4 1 0

∣∣∣∣∣∣∣∣=∣∣∣∣ 3 0−7 −7

∣∣∣∣ · ∣∣∣∣ 0 11 0

∣∣∣∣ = 21 .

2. Wir betrachten noch einmal die Abbildung ϕ des Vektorraums M2(K) in sich aus Beispiel

(2.3.5.2): Es sei eine feste Matrix B =(b11 b12

b21 b22

)∈ M2(K) vorgegeben, und fur eine

beliebige Matrix A ∈M2(K) setzen wir ϕ(A) := BA . Wann ist diese Abbildung ϕ invertier-bar? In (2.3.5.2) haben wir gezeigt, daß bezuglich einer geeignet gewahlten Basis des vierdi-

mensionalen Vektorraums M2(K) die Abbildung ϕ die Koeffizientenmatrix M =(B 00 B

)besitzt. Nach der Kastchenformel gilt det(M) = det(B)2 . Insbesondere ist ϕ genau danninvertierbar, wenn B regular ist.

Es gibt eine Reihe von Abschatzungen fur Determinanten. Zu den bekanntesten gehorendiejenigen fur diagonal-dominante Matrizen:

Definition: diagonal-dominante MatrixEine Matrix A = (αi,j) ∈ Mn(C) heißt diagonal-dominant, wenn fur alle 1 ≤ i ≤ n gilt:

|αi,i| >n∑

j=1,j 6=i|αi,j| .

(8.3.12) Satz Fur jede diagonal-dominante Matrix A gilt det(A) 6= 0 .

Beweis: Im Falle det(A) = 0 hatte das Gleichungssystem Ax = o eine Losung x 6= o .Sei |xm| := max{|x1|, . . . , |xn|} . Dann gilt |xm| > 0 , und die m-te Gleichung von Ax = o

liefert αm,1x1 + . . .+ αm,nxn = 0 , also

αm,mxm = −n∑

j=1,j 6=m

αm,jxj =⇒ |αm,m||xm| ≤n∑

j=1,j 6=m

|αm,j||xj|

=⇒ |αm,m| ≤n∑

j=1,j 6=m

|αm,j||xj||xm|

≤n∑

j=1,j 6=m

|αm,j| ,

Page 217: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

214 8 DETERMINANTEN

ein Widerspruch gegen die Diagonal-Dominanz von A. �

Wurde man das”echt großer“-Zeichen in der Definition der Diagonal-Dominanz durch ein

”≥“ ersetzen, so ware (8.3.12) nicht mehr richtig (Gegenbeispiel?).

Literatur: Setzt man mi := |αi,i| −∑n

j=i+1 |αi,j| und Mi := |αi,i| +∑n

j=i+1 |αi,j| , so giltfur diagonal-dominante Matrizen 0 < m1 · . . . ·mn ≤ | det(A)| ≤M1 · . . . ·Mn . Diesen undweitere Satze zu diagonal- dominanten Matrizen findet man in [40].

8.4 Cramersche Regel und Matrizeninversion

(8.4.1) Satz Cramersche RegelEs sei Ax = b ein lineares Gleichungssystem mit der quadratischen Koeffizientenmatrix A ∈Mn(K) und der rechten Seite b ∈ Kn . Es gelte det(A) 6= 0 . Dann hat das Gleichungssystemgenau eine Losung x1

...xn

∈ Kn mit xi =1

det(A)·

∣∣∣∣∣∣∣∣∣a1,1 . . . b1 . . . a1,n

......

......

......

an,1 . . . bn . . . an,n

∣∣∣∣∣∣∣∣∣ .Auf der rechten Seite steht also die Determinante der Matrix, die man erhalt, wenn man inA die i-te Spalte durch den Vektor b ersetzt.

Beweis: Die Voraussetzung det(A) 6= 0 bedeutet, daß A den Rang n hat. Nach (3.2.7) istalso das Gleichungssystem eindeutig losbar. Bezeichnen wir mit s1, . . . , sn die Spalten vonA, so gilt fur die Komponenten x1, . . . , xn des Losungsvektors s1x1 + . . .+ snxn = b . In derDeterminante auf der rechen Seite der behaupteten Gleichung ersetzen wir die Spalte b durchdie angegebene Linearkombination der Vektoren si und erhalten wegen der Multilinearitatder Determinante:

det(s1, . . . , b, . . . , sn) =n∑j=1

xj · det(s1, . . . , sj, . . . , sn)

= xi · det(s1, . . . , si, . . . , sn) = xi · det(A) ,

denn fur j 6= i tritt in der Determinante det(s1, . . . , sj, . . . , sn) der Spaltenvektor sj doppeltauf. �

(8.4.2) Beispiel Cramer und Gauß im Vergleich

Das lineare Gleichungssystemx1 + x3 = 2

2x1 − x2 + x3 = 0x1 + 3x2 + 5x3 = 7

soll nach der Cramerschen Regel (8.4.1) und dem Gaußschen Eliminationsverfahren (3.3.1) / (3.3.2)gelost werden:Cramer: Wir berechnen zuerst die Determinante der Koeffizientenmatrix:∣∣∣∣∣∣

1 0 12 −1 11 3 5

∣∣∣∣∣∣ S[3]− S[1]=

∣∣∣∣∣∣1 0 02 −1 −11 3 4

∣∣∣∣∣∣ =∣∣∣∣ −1 −1

3 4

∣∣∣∣ = −1 .

Page 218: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

8.4 Cramersche Regel und Matrizeninversion 215

Dann gilt

x1 = (−1) ·

∣∣∣∣∣∣2 0 10 −1 17 3 5

∣∣∣∣∣∣ = (−1) ·

∣∣∣∣∣∣0 0 1−2 −1 1−3 3 5

∣∣∣∣∣∣ = 9

x2 = (−1) ·

∣∣∣∣∣∣1 2 12 0 11 7 5

∣∣∣∣∣∣ = (−1) ·

∣∣∣∣∣∣1 0 02 −4 −11 5 4

∣∣∣∣∣∣ = 11

x3 = (−1) ·

∣∣∣∣∣∣1 0 22 −1 01 3 7

∣∣∣∣∣∣ = (−1) ·

∣∣∣∣∣∣1 0 02 −1 −41 3 5

∣∣∣∣∣∣ = −7 .

Gauß: Die angegebenen Umformungen sind stets Zeilenumformungen: 1 0 1 22 −1 1 01 3 5 7

[2]− 2[1][3]− [1]

1 0 1 20 −1 −1 −40 3 4 5

(−1)[2][3]− 3[2]

1 0 1 20 1 1 40 0 1 −7

[1]− [3][2]− [3]

1 0 0 90 1 0 110 0 1 −7

Losungsvektor:

911−7

.

(8.4.3) Satz Matrixinversion nach CramerEs sei A = (ai,j) ∈ Mn(K) eine invertierbare Matrix und Ai,j die (i, j)-Streichungsmatrixvon A. Dann gilt A−1 = (bi,j) mit

bi,j =1

det(A)· (−1)i+j · det(Aj,i) .

(Man beachte, daß die Indizes i, j der Streichungsmatrix vertauscht sind!)

Beweis: Wegen der Invertierbarkeit von A gilt det(A) 6= 0 . Bezeichnen wir mit sj die j-teSpalte von A−1, so gilt En = AA−1 = (As1, . . . , Asn) . Daher ist fur jedes j die Spaltesj von A−1 die (nach (8.4.1) eindeutig bestimmte) Losung des linearen GleichungssystemsAx = ej . Nach der Cramerschen Regel (8.4.1) erhalten wir

bi,j =1

det(A)·

∣∣∣∣∣∣∣∣∣∣∣

a1,1 . . . 0 . . . a1,n...

......

aj,1 . . . 1 . . . aj,n...

......

an,1 . . . 0 . . . an,n

∣∣∣∣∣∣∣∣∣∣∣←j

↑i

.

Die als i-te Spalte eingefugte Spalte ej hat nur an der j-ten Stelle einen von Null verschie-denen Eintrag, namlich 1.Die Entwicklung dieser Determinante nach der i-te Spalte liefert

bi,j =1

det(A)· (−1)i+j · det(Aj,i) ,

Page 219: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

216 8 DETERMINANTEN

denn es wird die ersetzte i-te Spalte und die j-te Zeile gestrichen. �

Die Determinante der Streichungsmatrix Ai,j heißt (i, j)-Minor oder (i, j)-Unterdetermi-nante der Matrix A. Der mit dem Vorzeichen (−1)i+j behaftete (i, j)-Minor, also der Skalar(−1)i+j ·det(Ai,j) , wird (i, j)-Kofaktor von A oder die Adjunkte des Eintrags ai,j genannt. Indieser Nomenklatur ist also der (i, j)-te Eintrag der Inversen von A gerade der (i, j)-Kofaktorvon A, dividiert durch die Determinante von A.Ebenso wie die Cramersche Regel hat auch diese Formel zur Matrixinversion vorwiegendtheoretische Bedeutung (s. z.B. (8.4.5) und (8.4.6). Um namlich mit (8.4.3) eine (n × n)-Matrix zu invertieren, muß man n+ 1 Determinanten, eine n-reihige und n (n− 1)-reihige,berechnen.

(8.4.4) Beispiele Matrixinversion nach Cramer

1. Es sei A =(a bc d

)∈M2(K) mit det(A) = ad− bc 6= 0 . (vgl. (2.4.8.2) Dann gilt

A−1 =1

ad− bc·(

d −b−c a

).

2. Wir invertieren A =

1 1 11 2 31 4 9

∈M3(R) aus (2.4.11.2) nach dem Verfahren von (8.4.3).

Zunachst bemerken wir, daß die transponierte Matrix AT eine Vandermonde-Matrix mitα1 = 1 , α2 = 2 , α3 = 3 ist. Nach (8.3.7) gilt also

det(A) = det(AT ) = (α2 − α1)(α3 − α1)(α3 − α2) = 2 .

Insbesondere ist A invertierbar. Der (i, j)-te Eintrag von A−1 ist bi,j = 12 ·(−1)i+j ·det(Aj,i) ,

also

b1,1 =12·∣∣∣∣ 2 3

4 9

∣∣∣∣ = 3 , b1,2 =12· (−1) ·

∣∣∣∣ 1 14 9

∣∣∣∣ = −52, b1,3 =

12·∣∣∣∣ 1 1

2 3

∣∣∣∣ =12

b2,1 =12· (−1) ·

∣∣∣∣ 1 31 9

∣∣∣∣ = −3 , b2,2 =12·∣∣∣∣ 1 1

1 9

∣∣∣∣ = 4 , b2,3 =12· (−1) ·

∣∣∣∣ 1 11 3

∣∣∣∣ = −1

b3,1 =12·∣∣∣∣ 1 2

1 4

∣∣∣∣ = 1 , b3,2 =12· (−1) ·

∣∣∣∣ 1 11 4

∣∣∣∣ = −32, b3,3 =

12·∣∣∣∣ 1 1

1 2

∣∣∣∣ =12,

und folglich A−1 =12·

6 −5 1−6 8 −2

2 −3 1

.

Vor allem dann, wenn A dunn besetzt ist (d.h. viele Eintrage 0 hat), kann das GaußscheEliminationsverfahren (2.4.10) zur Matrixinversion erheblich gunstiger sein als das Verfahren(8.4.3).

(8.4.5) Korollar Inverse von ganzzahligen MatrizenEs sei A ∈Mn(R) eine invertierbare ganzzahlige Matrix, das heißt, alle Eintrage von A sindganzzahlig. Genau dann ist auch A−1 ganzzahlig, wenn det(A) ∈ {1,−1} gilt.

Page 220: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

8.4 Cramersche Regel und Matrizeninversion 217

Beweis: Durch Induktion nach der Dimension folgt aus der Entwicklungsregel, daß man zurBerechnung einer Determinante auf die Matrixeintrage nur die Operationen Multiplikation,Addition und Subtraktion anwenden muß. Deshalb sind im Falle det(A) ∈ {1,−1} alle bi,jin (8.4.3) ganzzahlig, also auch die Matrix A−1.Sei nun umgekehrt A−1 ganzzahlig. Dann sind det(A) und det(A−1) ganze Zahlen, und aus1 = det(E) = det(AA−1) = det(A) det(A−1) folgt det(A) ∈ {1,−1} . �

Nach (8.3.4) laßt sich die Determinante einer Dreiecksmatrix sehr leicht berechnen. Auchfur die Invertierung hat man bei Dreiecksmatrizen nicht so viel Arbeit wie im allgemeinenFall:

(8.4.6) Satz Inverse von DreiecksmatrizenEs sei A = (ai,j) ∈ Mn(K) eine invertierbare untere (obere) Dreiecksmatrix. Dann ist A−1

eine untere (obere) Dreiecksmatrix mit den Diagonaleintragen a−11,1, . . . , a

−1n,n .

Beweis: Ist A = (ai,j) eine untere Dreiecksmatrix, so gilt ai,j = 0 fur i < j. Wir zeigen,daß dann fur i < j die Streichungsmatrix Aj,i ebenfalls eine untere Dreiecksmatrix ist undauf der Diagonalen einen Eintrag 0 hat. Dann folgt nach (8.4.3) und (8.3.4) in der Notationvon (8.4.3) bi,j = 0 .Es sei nun i < j und ck,m der (k,m)-te Eintrag der Streichungsmatrix Aj,i (1 ≤ k,m ≤n− 1). Dann mussen wir vier Falle unterscheiden:

k < j , m < i =⇒ ck,m = ak,m

k ≥ j , m < i =⇒ ck,m = ak+1,m

k < j , m ≥ i =⇒ ck,m = ak,m+1

k ≥ j , m ≥ i =⇒ ck,m = ak+1,m+1

Fur k < m kann der Fall k ≥ j , m < i nicht vorliegen. Daher gilt ck,m = ak,m , ak,m+1

oder ak+1,m+1 , also jedenfalls ck,m = 0 . Folglich ist Aj,i eine untere Dreiecksmatrix. Au-ßerdem gilt ci,i = ai,i+1 = 0 . Damit folgt det(Aj,i) = 0 fur i < j .Die Streichungsmatrix Ai,i ist ebenfalls eine untere Dreiecksmatrix. Sie hat die Diagonal-eintrage a1,1, . . . , ai−1,i−1, ai+1,i+1, . . . , an,n , also die Determinante

det(Ai,i) = a1,1 · . . . · ai−1,i−1 · ai+1,i+1 · . . . · an,n =det(A)

ai,i.

Damit folgt bi,i = 1det(A)

· det(Ai,i) = 1ai,i . Der Beweis fur obere Dreiecksmatrizen geht

analog. �

Page 221: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

218 9 DAS CHARAKTERISTISCHE POLYNOM

9 Das charakteristische Polynom

9.1 Definition des charakteristischen Polynoms

Definition: Charakteristisches Polynom einer MatrixEs sei A ∈ Mn(K) . Die formale Determinante χA(x) := det(x · En − A) ist ein Polynommit Koeffizienten aus dem Korper K und heißt charakteristisches Polynom von A.Die Matrix x · En − A mit Eintragen aus dem Polynomring K[x] heißt charakteristischeMatrix von A.

Manche Autoren bezeichnen das Polynom χA = det(A−x·En) als charakteristisches Polynomvon A. Nach (8.2.6.b) gilt χA = (−1)nχA .Ein Wort zum Begriff

”formale Determinante“: Es gibt zwei Moglichkeiten, sich klarzuma-

chen, was die Determinante in dieser Definition eigentlich bedeutet:Erstens: Man kummert sich nicht darum, daß die Variable x kein Korperelement ist, sonderntut zunachst so, als sei sie eines, und berechnet die Determinante der Matrix x

. . .

x

− α1,1 . . . α1,n

......

αn,1 . . . αn,n

in der gewohnten Weise, etwa durch Entwickeln. Dann hat man das charakteristische Poly-nom und

”vergißt“, daß man wahrend der Rechnung den Begriff der Determinante benutzt

hat. Beispielsweise rechnet man im Fall n = 2 :

det

((x 00 x

)−(α1,1 α1,2

α2,1 α2,2

))= det

(x− α1,1 −α1,2

−α2,1 x− α2,2

)= (x− α1,1)(x− α2,2)− α1,2α2,1 = x2 − (α1,1 + α2,2)x+ (α1,1α2,2 − α1,2α2,1) .

Mit dieser Methode kommt man fur die Berechnung des charakteristischen Polynoms zwarzurecht, aber sie ist vom theoretischen Standpunkt aus naturlich vollig unbefriedigend. Des-halb hier eine saubere Losung:Zweitens: Wir erinnern uns, daß man zum Berechnen der Determinante einer MatrixA = (αi,j) die Eintrage miteinander multiplizieren und die so entstandenen Produkte ad-dieren oder subtrahieren muß. Eine Division kommt jedoch nirgends vor27. Wir benutzenalso die Korpereigenschaft, daß jedes Element λ ∈ K \ {0} ein multiplikatives Inverses hat,uberhaupt nicht. Multiplizieren, addieren und subtrahieren kann man auch in Ringen (s.Abschnitt 15.2). Also konnen wir die Eintrage der Determinante auch aus einem kommu-tativen Ring R wahlen, etwa aus dem Ring R = K[x] der Polynome mit Koeffizienten ausdem Korper K. Genau das geschieht bei der Definition des charakteristischen Polynoms.

(9.1.1) Lemma(a) Das charakteristische Polynom einer Matrix A ∈Mn(K) hat den Grad genau n.(b) Ahnliche Matrizen haben dasselbe charakteristische Polynom.

27Dieses Argument brauchten wir schon fur (8.4.5).

Page 222: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

9.1 Definition des charakteristischen Polynoms 219

Beweis:

(a) Induktion nach n: Im Fall n = 1 gilt χA(x) = det(x − α1,1) = x − α1,1 . Nun sei dieBehauptung gezeigt fur n− 1 . Entwicklung nach der ersten Spalte liefert

χA(x) = (x−α1,1)·

∣∣∣∣∣∣∣∣∣x− α2,2 −α2,3 . . . −α2,n

−α3,2 x− α3,3...

.... . .

...−αn,2 . . . . . . x− αn,n

∣∣∣∣∣∣∣∣∣+n∑i=2

(−1)i+1 det((xEn−A)i,1

).

Die Determinante im ersten Summanden ist nach Voraussetzung ein Polynom vomGrad genau n− 1 , also der erste Summand ein Polynom vom Grad genau n.Die Streichungsmatrix (xEn − A)i,1 hat n − 1 Eintrage, in denen das x vorkommt.Ihre Determinante ist eine Summe von Produkten (mit Vorzeichen +1 oder −1), diealle jeweils n− 1 Faktoren haben. Also kann in einer solchen Determinante hochstensdie Potenz xn−1 vorkommen. Damit ist

n∑i=2

(−1)i+1 det((xEn − A)i,1

)ein Polynom in der Variablen x vom Grad ≤ n−1 , und schließlich χA(x) ein Polynomvom Grad genau n.

(b) Es sei S ∈Mn(K) invertierbar. Wegen (xEn)S = xS = S(xEn) und (8.2.6a/b) gilt

χS−1AS(x) = det(xEn − S−1AS

)= det

(S−1(xEn − A)S

)= det(S−1) det(xEn − A) det(S) =

(det(S)

)−1det(S) det(xEn − A)

= χA(x) . �

(9.1.1.b) erlaubt uns, vom charakteristischen Polynom einer linearen Abbildung ϕ zu spre-chen, da die Matrizen, die ϕ bezuglich verschiedener Basen von V beschreiben, alle paarweiseahnlich sind:

Definition: Charakteristisches Polynom einer linearen AbbildungEs sei ϕ ein Endomorphismus eines endlich-dimensionalen Vektorraums V uber dem KorperK. Weiter sei (b1, . . . , bn) eine geordnete Basis von V und A die Koeffizientenmatrix vonϕ bezuglich dieser Basis. Dann nennen wir χϕ(x) := χA(x) das charakteristische Polynomvon ϕ.

(9.1.2) Beispiele Charakteristisches Polynom und Minimalpolynom von Matrizen

1. Die Einheitsmatrix En hat das charakteristische Polynom χEn(x) = (x − 1)n und dasMinimalpolynom MEn(x) = x− 1 .

2. Das charakteristische Polynom der Matrix A =

1 1 00 2 00 0 3

aus Beispiel (5.3.1) und

(5.3.5) ist

χA(x) =

∣∣∣∣∣∣x− 1 −1 0

0 x− 2 00 0 x− 3

∣∣∣∣∣∣ = (x− 1)(x− 2)(x− 3) .

In diesem Fall stimmen also charakteristisches Polynom und Minimalpolynom uberein.

Page 223: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

220 9 DAS CHARAKTERISTISCHE POLYNOM

3. Es sei V = R5 und A =

3 −2 −2 0 −11 3 1 1 0−1 −5 −3 −1 3

1 7 8 4 −20 −2 −2 0 2

.

Durch elementare Umformungen der Matrix x · E −A und Entwickeln folgt

χA(x) = |x · E −A| =

∣∣∣∣∣∣∣∣∣∣x− 3 2 2 0 1−1 x− 3 −1 −1 0

1 5 x+ 3 1 −3−1 −7 −8 x− 4 2

0 2 2 0 x− 2

∣∣∣∣∣∣∣∣∣∣= (x− 3)3(x2 + 2) .

Das Minimalpolynom berechnet man (etwa nach der Methode aus Abschnitt 5.2) zuMA(x) = (x− 3)2(x2 + 2) .

4. Ist A eine quadratische Matrix uber dem Korper K, so bleibt das charakteristische Polynomvon A bei einer Erweiterung des Skalarenkorpers gleich, weil in seine Berechnung nur dieEintrage αi,j ∈ K der Matrix A eingehen (vgl. (6.7.2)).

In den Beispielen (9.1.2,1–3) ist das charakteristische Polynom immer ein Vielfaches desMinimalpolynoms, also ein annullierendes Polynom fur die Matrix A bzw. den durch Abeschriebenen Endomorphismus ϕ. Daß dies immer so ist, zeigt der Hauptsatz des nachtenAbschnitts, der Satz von Cayley-Hamilton.

9.2 Der Satz von Cayley-Hamilton

(9.2.1) Satz charakteristisches Polynom einer BegleitmatrixFur beliebige r ∈ N und Skalare α0, . . . , αr−1 ∈ K gilt∣∣∣∣∣∣∣∣∣∣∣

x 0 . . . 0 α0

−1 x . . . 0 α1

0 −1. . .

... α2...

.... . . x

...0 0 . . . −1 x+ αr−1

∣∣∣∣∣∣∣∣∣∣∣= xr + αr−1x

r−1 + . . .+ α0 .

Ist also B die Begleitmatrix zum Polynom P , so hat B das charakteristische PolynomχB(x) = P (x) . Dieses ist gleichzeitig das Minimalpolynom der Matrix B.

Beweis: Wir zeigen die Behauptung durch Induktion nach r. Fur r = 1 ist alles klar.Sei die Aussage nun schon gezeigt fur (r − 1)-reihige Begleitmatrizen. Berechnet man diegesuchte r-reihige Matrix durch Entwicklung nach der ersten Spalte, so erhalt man

x ·

∣∣∣∣∣∣∣∣∣∣∣

x 0 . . . 0 α1

−1 x . . . 0 α2

0 −1. . .

... α3...

.... . . x

...0 0 . . . −1 x+ αr−1

∣∣∣∣∣∣∣∣∣∣∣+

∣∣∣∣∣∣∣∣∣∣∣

0 0 . . . 0 α0

−1 x . . . 0 α2

0 −1. . .

... α3...

.... . . x

...0 0 . . . −1 x+ αr−1

∣∣∣∣∣∣∣∣∣∣∣

Page 224: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

9.2 Der Satz von Cayley-Hamilton 221

= x · (α1 + α2x+ . . .+ αr−1xr−2 + xr−1) + (−1)r+1(−1)r−1α0

= xr + αr−1xr−1 + . . .+ α0 ,

wobei auf die linke Determinante die Induktionsvoraussetzung angewendet und die rechteDeterminante nach der ersten Zeile entwickelt wird. �

Der Kastchensatz (8.3.10) fur die Determinanten von Block-Dreiecksmatrizen hat ein Ana-logon fur charakteristische Polynome:

(9.2.2) Lemma Kastchensatz fur charakteristische Polynome

Es sei A =

A1 ∗. . .

0 Ar

eine quadratische Matrix mit quadratischen Teilmatrizen

A1, . . . , Ar auf der Diagonalen.Dann gilt fur die charakteristischen Polynome χA = χA1 · . . . · χAr .

Beweis: Wir wenden (8.3.10) an auf die Determinante

χA(x) = det(xE − A) =

∣∣∣∣∣∣∣xE − A1 ∗

. . .

0 xE − Ar

∣∣∣∣∣∣∣= det(xE − A1) · . . . · det(xE − Ar)= χA1 · . . . · χAr .

Hierbei ist naturlich fur E immer die Einheitsmatrix der passenden Große einzusetzen. �

(9.2.3) Satz Satz von Cayley-HamiltonIst A eine (n× n)-Matrix uber dem Korper K mit dem charakteristischen Polynom χA , soist χA(A) die Nullmatrix.

Beweis: Es ist zu zeigen, daß fur jeden Vektor v ∈ Kn gilt:(χA(A)

)(v) = o .

Dies ist klar fur v = o . Im Falle v 6= o betrachten wir den von v erzeugten A-zyklischen Un-terraum Uv (siehe (5.2.1) und (5.2.2)). Dieser Unterraum hat eine Basis (v, Av, . . . , Ak−1v)fur ein geeignetes k ≤ n . Nach dem Basis-Erganzungssatz kann man diese Basis erganzenzu einer Basis B = (v, Av, . . . , Ak−1v, b1, . . . , bk−n) von V . Da Uv ein A-invarianter Un-terraum ist, hat der durch A beschriebene Endomorphismus ϕ bezuglich der Basis B eineMatrixdarstellung der Gestalt

A′ =

(A′1 M0 A′2

), wobei A′1 =

0 0 . . . 0 −α0

1 0 . . . 0 −α1

0 1 . . . 0 −α2...

.... . .

......

0 0 . . . 1 −αk−1

Page 225: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

222 9 DAS CHARAKTERISTISCHE POLYNOM

eine (k × k)-Begleitmatrix, M eine(k × (n− k)

)-Matrix und A′2 eine

((n− k)× (n− k)

)-

Matrix ist, und α0v + α1Av + . . . αk−1Ak−1v + Akv = o gilt.

Da sich die Determinante bei Ahnlichkeitstransformationen (das heißt beim Ubergang vonA zu A′ = T−1AT fur eine regulare Matrix T ) nicht verandert, erhalten wir aus (9.2.2)χA = χA′ = χA′2 ·χA′1 und dann mit (9.2.1) χA(x) = χA′2(x)·(α0+α1x+. . . αk−1x

k−1+xk) .

Schließlich folgt(χA(A)

)(v) = χA′2(A) · (α0E + α1A+ . . . αk−1A

k−1 + xA)v︸ ︷︷ ︸= o

= o . �

(9.2.4) Korollar Es sei A eine (n× n)-Matrix uber dem Korper K mit MinimalpolynomMA und charakteristischem Polynom χA . Dann gilt:

(a) Es gibt ein Polynom P mit mit χA = MA · P .(b) λ ∈ K ist genau dann ein Eigenwert von A, wenn λ eine Nullstelle von χA ist.

Beweis: (a) ist klar nach (9.2.3) und (5.1.3). (b) λ ist genau dann ein Eigenwert von A,wenn der Kern von λE−A nichttrivial, das heißt wenn λE−A singular ist. Dies gilt genaudann, wenn 0 = det(λE − A) = χ(λ) erfullt ist. �

Definition: derogatorische Matrix, nichtderogatorische MatrixEine Matrix A heißt nichtderogatorisch, wenn ihr Minimalpolynom und charakteristischesPolynom ubereinstimmen. Andernfalls heißt A derogatorisch.

Eine Matrix A ∈Mn(K) ist also genau dann nichtderogatorisch, wenn ihr Minimalpolynomden Grad n hat.

9.3 Minimalpolynom, charakteristisches Polynom undJordan-Normalform

Im Folgenden seien P1, . . . , Pt immer paarweise teilerfremde, irreduzible Polynome.Am Minimalpolynom MA =

∏ti=1 P

kii einer Matrix A kann man ablesen, wieviele Begleit-

matrizen zum Teiler Pi der großte Jordanblock in der Jordan-Normalform von A enthalt,namlich genau ki (vgl. (6.1.9). Auch das charakteristische Polynom χA liefert eine Infor-mation uber die Jordan-Normalform :

(9.3.1) Satz charakteristisches Polynom und algebraische VielfachheitEs sei A eine (n × n)-Matrix uber dem Korper K mit charakteristischem Polynom χA =∏t

i=1 Pmii , wobei P1, . . . , Pt paarweise teilerfremde, irreduzible Polynome seien. Dann ist

mi die algebraische Vielfachheit des Polynoms Pi, das heißt die Anzahl der Begleitmatrizenzum Polynom Pi in der Jordan-Normalform von A.

Beweis: Da das charakteristische Polynom sich bei Ahnlichkeitstransformationen nichtandert, konnen wir gleich annehmen, daß A in der Jordan-Normalform vorliegt. A ist alsoeine Block-Diagonalmatrix mit Blocken J1, . . . , Jt auf der Diagonalen, wobei Ji seinerseitseine Block-Diagonalmatrix ist mit Jordanblocken zum Polynom Pi auf der Diagonalen. Nachdem Kastchensatz (9.2.2) folgt χA =

∏ti=1 χJi .

Jeder Block Ji wiederum ist eine Block-Dreiecksmatrix mit Begleitmatrizen auf der Diagona-len und Nullen oder Verkettungseinsen unterhalb. Nach (9.2.2) ist also χJi das Produkt der

Page 226: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

9.2 Der Satz von Cayley-Hamilton 223

charakteristischen Polynome dieser Begleitmatrizen. Jede von diesen hat nach (9.2.1) dascharakteristische Polynom Pi . Nach (6.3.1) ist die algebraische Vielfachheit ai des PolynomsPi gleich der Anzahl der Begleitmatrizen im Block Ji. Also folgt χJi = P ai

i . Zusammenerhalten wir χA =

∏ti=1 P

aii , also mi = ai fur jedes i wegen der eindeutigen Primfaktorzer-

legung fur Polynome. �

(9.3.2) Korollar Jeder irreduzible Teiler P des charakteristischen Polynoms χA ist auchein Teiler des Minimalpolynoms MA .

Beweis: Ist P ein irreduzibler Teiler von χA , so hat P bezuglich A die algebraische Viel-fachheit m ≥ 1 . Die Jordan-Normalform von A enthalt nach (6.3.1.b) mindestens eineBegleitmatrix zum Polynom P , also ist nach (6.1.9) P auch ein Teiler von MA . �

(9.3.3) Beispiele Minimalpolynom und charakteristisches Polynom

1. Es sei λ ∈ K und A ∈Mn(K) mit Minimalpolynom MA(x) = x−λ . Nach (9.3.2) kann dascharakteristische Polynom χA keine anderen irreduziblen Teiler besitzen und hat außerdemden Grad n. Also folgt χA(x) = (x − λ)n . Die Jordan-Normalform J von A hat nunlauter nichtverkettete eindimensionale Begleitmatrizen (λ) auf der Diagonalen, also J =diag(λ, . . . , λ) = λ · En .In diesem Fall (das ist die absolute Ausnahme!) ist sogar die Matrix A durch die Angabe desMinimalpolynoms eindeutig bestimmt, denn ihre Jordan-Normalform J ist mit allen MatrizenS ∈ Mn(K) vertauschbar. Zu jeder Matrix A mit dieser Jordan-Normalform gibt es eineregulare Matrix S mit A = S−1JS = S−1SJ = J . Daher ist J die einzige Matrix in Mn(K)mit dem Minimalpolynom x− λ .

2. Sind λ1, . . . , λn ∈ K paarweise verschieden, und hat A ∈ Mn(K) das charakteristischePolynom χA(x) = (x − λ1) · . . . · (x − λn) , so hat A nach (9.3.2) das MinimalpolynomMA = χA und die Jordan-Normalform J = diag(λ1, . . . , λn) .Jetzt ist A nicht mehr eindeutig bestimmt, denn es kann zum Beispiel die Reihenfolge derDiagonaleintrage vertauscht werden. A braucht aber auch keine Diagonalmatrix zu sein:

Beispielweise hat die Matrix A =(

1 11 1

)∈M2(R) das charakteristische Polynom

χA(x) =∣∣∣∣ x− 1 −1−1 x− 1

∣∣∣∣ = (x− 1)2 − 1 = x(x− 2) ,

und ist folglich ahnlich zu B =(

0 00 2

)und C =

(2 00 0

).

B und C sind Matrizen in Jordan-Normalform , da die Reihenfolge der Jordanblocke nichtvorgeschrieben ist.Die Matrix A aus (9.1.2.2) hat das charakteristische Polynom (x− 1)(x− 2)(x− 3) , also dieJordan-Normalform diag(1, 2, 3) .

3. Die Matrix A aus (9.1.2.3) hat das charakteristische Polynom χA(x) = (x− 3)3(x2 + 2) unddas Minimalpolynom MA(x) = (x− 3)2(x2 + 2) .Am charakteristischen Polynom lesen wir ab: In der Jordan-Normalform von A muß eine

Begleitmatrix(

0 −21 0

)zum irreduziblen Teiler x2 + 2 auftreten, sowie drei Begleitma-

trizen (3) zum irreduziblen Teiler x− 3 .

Page 227: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

224 9 DAS CHARAKTERISTISCHE POLYNOM

Am Minimalpolynom lesen wir ab: Die langste Verkettung der eindimensionalen Begleitma-trizen hat die Lange 2. Also hat A die Jordan-Normalform

0 −21 0

00

00

00

0 0 3 0 00 0 1 3 00 0 0 0 3

.

Selbst wenn zwei Endomorphismen dasselbe Minimalpolynom und dasselbe charakteristischePolynom haben, mussen sie nicht ahnlich sein:

(9.3.4) Beispiel A =

11 1

11 1

und B =

11 1

11

haben beide das Minimalpolynom M(x) = (x − 1)2 und das charakteristische Polynomχ(x) = (x− 1)4 , sind aber nicht ahnlich, da sie verschiedene Jordan-Normalformen sind.

Im vorstehenden Beispiel haben die Matrizen die Dimension 4. Kleiner konnte die Dimensionauch nicht sein, denn durch Fallunterscheidung (betreffend die moglichen Minimalpolynomebzw. charakteristischen Polynome) erhalt man

(9.3.5) Satz Ist n ≤ 3, und haben A,B ∈ Mn(K) dasselbe Minimalpolynom und dasselbecharakteristische Polynom, so sind A und B ahnlich.

Definition: Spur einer quadratischen MatrixEs sei A ∈Mn(K) . Die Summe α1,1 + α2,2 + . . .+ αn,n der Diagonalelemente von A heißtdie Spur von A. Die Spur von A wird ublicherweise bezeichnet mit Tr(A) oder tr(A) (engl.:trace).

(9.3.6) Lemma(a) Fur A,B ∈Mn(K) gilt Tr(AB) = Tr(BA) .(b) Ahnliche Matrizen haben dieselbe Spur.

Beweis: (a) rechnet man leicht nach. Sind A und B ahnlich, so gibt es eine Matrix S ∈Mn(K) mit B = S−1AS . Aus (a) folgern wir Tr(B) = Tr

((S−1A)S

)= Tr

(S(S−1A)

)=

Tr(A) . �

Die Determinante einer Matrix A (bzw. des durch A beschriebenen Endomorphismus) kannman immer am konstanten Glied des charakteristischen Polynoms ablesen. Falls das cha-rakteristische Polynom ein Produkt von lauter Linearfaktoren ist, bekommt man auch nochInformationen uber die Eigenwerte von A:

Page 228: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

9.2 Der Satz von Cayley-Hamilton 225

(9.3.7) Satz Zusammenhang von Determinante, Spur und charakteristischem Polynom(a) det(A) = (−1)nχA(0) .(b) Das charakteristische Polynom χA zerfalle in Linearfaktoren χ(x) =

∏ni=1(x − λi) .

Dann ist det(A) das Produkt der Eigenwerte von A, und die Spur von A ist gleich derSumme der Eigenwerte von A, wobei in beiden Fallen jeder Eigenwert so oft gezahltwird, wie seine algebraische Vielfachheit angibt.(−1) · Tr(A) ist der Koeffizient von xn−1 in χA .

Beweis:

(a) Berechnet man den Wert des charakteristischen Polynoms χA von A an der Stelle 0,so erhalt man χ(0) = det(−A) = (−1)n det(A) .

(b) Sind λ1, . . . , λk die verschiedenen Nullstellen von χA, wobei λi mit der Vielfachheit mi

auftrete, so ist mi nach (9.3.1) die algebraische Vielfachheit von λi. Ausmultiplizierenvon (x− λ1)m1 · . . . · (x− λk)mk zeigt, daß (−1)n

∏ki=1 λ

mii der konstante Koeffizient

von χA(x) und (−1)∑k

i=1 λmii der Koeffizient von xn−1 in χA(x) ist. �

Verwendet man die Kenntnis, daß jedes Polynom p ∈ C[x] ungleich dem Nullpolynom nurendlich viele Nullstellen in C besitzt, so kann man folgenden Satz beweisen:

(9.3.8) Satz Sind A,B ∈Mn(R) ahnlich in Mn(C), so sind sie auch ahnlich in Mn(R).

Beweis: Es sei S ∈Mn(C) regular mit A = S−1BS . Dann gibt es Matrizen P,Q ∈Mn(R)mit S = P + iQ . Nun gilt (P + iQ)A = B(P + iQ) (1) . Da A,B, P,Q alle reell sind,zeigt die Aufspaltung von (1) in Real- und Imaginarteil PA = BP und QA = BQ . Furalle r ∈ R gilt also (P + rQ)A = B(P + rQ) . Die Determinante p(x) = det(P + xQ) istein Polynom mit komplexen Koeffizienten. Wegen p(i) = det(P + iQ) = det(S) 6= 0 hat pnur endlich viele Nullstellen. Insbesondere gibt es eine reelle Zahl r mit det(P + rQ) 6= 0 .Somit ist T = P + rQ ∈Mn(R) regular, und es gilt A = T−1BT . �

Literatur: Es gibt eine Serie von n Polynomen, die die Ahnlichkeitsklasse einer Matrix Afestlegen. Da die Berechnung dieser Polynome aber aufwendig ist und im allgemeinen weniggeeignet, die Jordan-Normalform einer Matrix zu bestimmen, soll dieses Thema nur gestreiftwerden. Im ubrigen wird auf die Literatur, etwa [Lor], Bd.II, Kap.IX, §3, (Stichworte:Invariantenteiler und Determinantenteiler) verwiesen.Ist A eine (n × n)-Matrix, so ist eine (k × k)-Untermatrix von A eine Matrix, die aus Aentsteht, indem man zuerst n − k Zeilen und dann n − k Spalten streicht. Die (1 × 1)-Untermatrizen haben also jeweils einen Eintrag, die ((n− 1)× (n− 1))-Untermatrizen sindgerade die Streichungsmatrizen, und die einzige (n × n)-Untermatrix ist A selbst. Analogdefiniert man (k × k)-Unterdeterminanten.Halten wir ein j ∈ {1, . . . , n} fest, so sind die (j× j)-Unterdeterminanten der Determinanteder charakteristischen Matrix xEn − A Polynome in x. Fur dieses feste j konnen wir alsoden großten gemeinsamen Teiler dj(A) aller (j× j)-Unterdeterminanten von det(xEn−A)bilden. dj(A) heißt der j-te Determinantenteiler von A. Der n-te Determinantenteilervon A ist gerade das charakteristische Polynom. Diese Determinantenteiler erlauben dieBerechnung der Jordan-Normalform von A, denn es gilt:([Lor] II, Satz 4, p.151) Zwei Matrizen A,B ∈ Mn(K) sind genau dann ahnlich, wenn siefur alle 1 ≤ j ≤ n dieselben Determinantenteiler besitzen.

Page 229: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

226 9 DAS CHARAKTERISTISCHE POLYNOM

Ist K ein Korper, V ein endlich-dimensionaler K-Vektorraum und ϕ ein Endomorphismusvon V , dessen Minimalpolynom M mit dem charakteristischen Polynom ubereinstimmt (d.h.ϕ wird durch eine nichtderogatorische Matrix beschrieben), so kann man eine Aussage uberdie ϕ-invarianten Unterraume von V machen: Diese sind genau die Kerne der normiertenTeiler von M (Ulbrich, [55]). Dies ist eine Verallgemeinerung von (5.5.6). Insbesonderehat V nur endlich viele ϕ-invariante Unterraume, namlich hochstens 2dim(V ) . Dagegen istbeispielsweise jeder Unterraum von R2 invariant unter der Identitat, das sind unendlich vieleinvariante Unterraume.

Der Beweis von (9.3.8) stammt aus [56]. Durch Benutzen desselben Arguments fur Polynomein mehreren Variablen kann man (9.3.8) verallgemeinern auf beliebige unendliche KorperK ⊆ L (s. [7]).

Page 230: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

227

10 * Reihen ϕ-invarianter Unterraume

Es sei V ein endlichdimensionaler K-Vektorraum, ϕ ein Endomorphismus von V , und U einϕ-invarianter Unterraum von V . In Abschnitt 3.5 haben wir die von ϕ auf dem FaktorraumV/U induzierte lineare Abbildung ϕ∗ definiert. Zur Erinnerung: ϕ∗(v + U) = ϕ(v) + U .Was kann man nun uber das Minimalpolynom von ϕ∗ sagen? Wie sehen die ϕ∗-invariantenUnterraume von V/U aus? Was weiß man uber das Minimalpolynom von ϕ, wenn man dasMinimalpolynom der Einschrankung ϕ|U und das Minimalpolynom von ϕ∗ kennt? Kannman auf diese Weise womoglich die Berechnung des Minimalpolynoms reduzieren auf dieBerechnung der Minimalpolynome von geeigneten Faktoren von V ?In Kapitel 9 ist ein weiteres annullierendes Polynom von ϕ in Erscheinung getreten, dascharakteristische Polynom. Die Definition dieses Polynoms erscheint ein wenig kunstlich:es ist auf den ersten Blick nicht ersichtlich, warum dieses mit Hilfe einer Determinantehergestellte Polynom ein Vielfaches des Minimalpolynoms ist. In diesem Kapitel soll derHintergrund ein bißchen erhellt und aufgezeigt werden, was das charakteristische Polynomwirklich mit dem Minimalpolynom zu tun hat.

10.1 * Reihen ϕ-invarianter Unterraume

(10.1.1) Lemma Es sei ϕ ein Endomorphismus von V . Weiter sei U ein ϕ-invarianterUnterraum von V und ϕ∗ die von ϕ auf dem Faktorraum V/U induzierte Abbildung. Danngilt:

(a) Ist W ein ϕ|U -invarianter Unterraum von U , so ist W auch ein ϕ-invarianter Unter-raum von V .

(b) Die ϕ∗-invarianten Unterraume von V/U sind genau die Raume W/U , wobei W einϕ-invarianter Unterraum von V mit W ⊇ U ist.

Beweis: (a) ist klar und ebenso, daß fur einen ϕ-invarianten Unterraum W von V mitW ⊇ U der Raum W/U ein ϕ∗-invarianter Unterraum von V/U ist. Umgekehrt ist fur einenϕ∗-invarianten Unterraum W ∗ von V/U die Menge W := {v ∈ V | v + U ∈ W ∗} zunachstein Unterraum von V , der U als Teilmenge enthalt, und außerdem ϕ-invariant, denn furv ∈ W ist ϕ(v) + U = ϕ∗(v + U) ∈ W ∗ , also ϕ(v) ∈ W . �

(10.1.2) Lemma Es sei ϕ ein Endomorphismus von V und U ein ϕ-invarianter Unter-raum von V , sowie ϕ∗ die von ϕ auf dem Faktorraum V/U induzierte Abbildung. SeienMϕ , Mϕ∗ , Mϕ|U die entsprechenden Minimalpolynome. Dann gilt:

(a) Mϕ∗ ist ein Teiler von Mϕ ;(b) Mϕ ist ein Teiler von Mϕ|U ·Mϕ∗ .

Beweis: (a) Fur alle v ∈ V gilt Mϕ(ϕ∗)(v + U) = Mϕ(ϕ)v + U = U , also ist Mϕ einannullierendes Polynom fur ϕ∗ .(b) Fur alle v ∈ V gilt Mϕ∗(ϕ)v+U = Mϕ∗(ϕ

∗)(v+U) = U , also Mϕ∗(ϕ)v ∈ U . Damitfolgt Mϕ|U (ϕ) ·Mϕ∗(ϕ)v = o , also die Aussage. �

Page 231: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

228 10 * REIHEN ϕ-INVARIANTER UNTERRAUME

(10.1.3) Beispiel Es kann durchaus Mϕ ein echter Teiler von Mϕ|U ·Mϕ∗ sein: Man wahlezum Beispiel V = R

2 , ϕ = id , und U einen beliebigen eindimensionalen Unterraum von V . Danngilt Mϕ(x) = Mϕ|U (x) = Mϕ∗(x) = x− 1 .

(10.1.4) Korollar Es sei A eine (n× n)-Matrix vom Rang r . Dann hat das Minimalpo-lynom von A den Grad hochstens r + 1 . Im Fall r < n ist diese Abschatzung bestmoglich.

Beweis: Ist dim(V ) = n , so ist nach dem Dimensionssatz fur lineare AbbildungenU := Kern(A) ein A-invarianter Unterraum der Dimension n−r von V . Die EinschrankungA|U ist die Nullabbildung, hat also das Minimalpolynom 1 oder x (je nachdem, ob U = {o}oder U 6= {o} ist). Die Dimension von V/U ist r , also der Grad des Minimalpolynoms dervon A auf V/U induzierten Abbildung A∗ hochstens r . Nach (10.1.2.b) folgt die Behaup-tung.Um zu zeigen, daß im allgemeinen Fall die Abschatzung nicht verbessert werden kann, be-

trachten wir fur beliebiges n und r ≤ n die Matrix A =

(A1

A2

), wobei A2 eine

(n− r×n− r)-Matrix mit lauter Nullen und A1 eine (r× r)-Matrix sei mit Einsern auf derDiagonalen und auf der unteren Nebendiagonalen und sonst Nullen. Dann hat A den Rangr , und das Minimalpolynom von A ist x(x− 1)r , hat also den Grad r + 1 . �

Hat der Korper mindestens r + 1 verschiedene Elemente 0, 1, . . . , r , so kann man im vor-stehenden Beweis auch die Diagonalmatrix A = diag(1, 2, . . . , r, 0, . . . , 0) verwenden. DieseMatrix vom Rang r hat offensichtlich das Minimalpolynom

M(x) = (x− 1)(x− 2) . . . (x− r)x

vom Grad r + 1.

Definition: ϕ-isomorphe FaktorraumeEs sei ϕ ein Endomorphismus von V , und seien U1 , U2 , W1 , W2 ϕ-invariante Unterraumevon V mit U1 ⊆ U2 und W1 ⊆ W2 . Seien weiter ϕU2/U1 und ϕW2/W1 die von ϕ auf diesenbeiden Faktorraumen induzierten Endomorphismen.Die Faktorraume U2/U1 und W2/W1 heißen ϕ-isomorph, wenn es einen Isomorphismusτ : U2/U1 → W2/W1 gibt, so daß gilt: τ−1 ◦ ϕW2/W1 ◦ τ = ϕU2/U1 .(Grob gesprochen bedeutet dies, daß U2/U1 und W2/W1 dieselbe Dimension haben, und ϕdieselben Abbildungen auf beiden Faktorraumen induziert.)

(10.1.5) Lemma Es sei ϕ ein Endomorphismus von V und es seien U,W ϕ-invarianteUnterraume von V . Dann ist U/(U ∩W ) ϕ-isomorph zu (U +W )/W .

Beweis: Zunachst sind U ∩W und U +W wieder ϕ-invariante Unterraume von U . Sei ρdie von ϕ auf U/(U ∩W ) und π die von ϕ auf (U +W )/W induzierte Abbildung. Weitersei τ : U/(U ∩W )→ (U +W )/W definiert durch τ

(u+ (U ∩W )

)= u+W . Dann gilt:

(i) τ ist wohldefiniert: Seien u1, u2 ∈ U mit u1 + (U ∩W ) = u2 + (U ∩W ) . Dann giltu1 − u2 ∈ U ∩W ⊆ W , also u1 +W = u2 +W .(ii) τ ist linear wegen der Rechenregeln mit Elementen von Faktorraumen.

Page 232: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

10.1 * Reihen ϕ-invarianter Unterraume 229

(iii) τ ist injektiv: Fur u ∈ U gilt u+ (U ∩W ) ∈ Kern(τ) ⇐⇒ u+W = W ⇐⇒u ∈ W ⇐⇒ u ∈ U ∩W ⇐⇒ u+ (U ∩W ) = oU/U∩W .(iv) τ ist surjektiv: Fur beliebige u ∈ U und w ∈ W gilt (u + w) + W = u + W =τ(u+ (U ∩W )

).

(v) τ−1 ◦ π ◦ τ = ρ , denn fur alle u ∈ U gilt: ρ(u + (U ∩W )

)= ϕ(u) + (U ∩W ) und

τ−1 ◦ π ◦ τ(u+ (U ∩W ))

= τ−1 ◦ π(u+W ) = τ−1(ϕ(u) +W

)= ϕ(u) + (U ∩W ) . �

(10.1.6) Lemma Lemma von ZassenhausEs seien U1, U2,W1,W2 ϕ-invariante Unterraume von V mit U1 ⊆ U2 und W1 ⊆ W2 .Weiter sei Dij = Ui ∩Wj .Dann sind U1 + D21 ⊆ U1 + D22 und W1 + D12 ⊆ W1 + D22 ebenfalls ϕ-invarianteUnterraume von V , und die Faktoren (U1 +D22)/(U1 +D21) und (W1 +D22)/(W1 +D12)sind ϕ-isomorph.

Beweis: Die angegebenen Inklusionen sind klar, und die Summe von zwei ϕ- invariantenUnterraumen ist wieder ϕ-invariant. Wir zeigen nun, daß die beiden angegebenen Fak-torraume ϕ-isomorph sind zum Faktorraum D22/(D12 +D21) . Hierfur wenden wir (10.1.5)an auf die Unterraume U = D22 und W = U1 +D21 .Es ist U + W = D22 + U1 + D21 = D22 + U1 und wegen D21 ⊆ D22 gilt nach demmodularen Gesetz

U ∩W = D22 ∩ (U1 +D21) = (D22 ∩ U1) +D21 = (U2 ∩W2 ∩ U1) +D21

= (U1 ∩W2) +D21 = D12 +D21 .

Nach (10.1.5) sind also die Faktorraume U/(U∩W ) = D22/(D12+D21) und (U+W )/W =(U1 + D22)/(U1 + D21) zueinander ϕ-isomorph. Genauso geht der Beweis fur den Faktor(W1 +D22)/(W1 +D12) . �

Definition: ϕ-Reihe, Verfeinerung, ϕ-Hauptreihe, ϕ-isomorphe ϕ-ReihenEine Kette {o} = U0 ( U1 ( . . . ( Ur = V von ϕ-invarianten Unterraumen eines Vektor-raumes V soll eine ϕ-Reihe von V heißen. Den großten Index r nennen wir die Lange dieserReihe.Die ϕ-Reihe {o} = W0 ( W1 ( . . . ( Ws = V heiße Verfeinerung der ϕ-Reihe{o} = U0 ( U1 ( . . . ( Ur = V , wenn {U0, . . . , Ur } eine Teilmenge von {W0, . . . ,Ws }ist.Eine nicht mehr verfeinerbare ϕ-Reihe von V heiße ϕ-Hauptreihe von V .Die beiden ϕ-Reihen {o} = W0 ( W1 ( . . . ( Ws = V und {o} = U0 ( U1 ( . . . (Ur = V , von V sollen ϕ-isomorph heißen, wenn es eine Bijektion von der Menge der Fak-toren Ui/Ui−1 zur Menge der Faktoren Wj/Wj−1 gibt, so daß die einander entsprechendenFaktoren ϕ-isomorph sind. (Insbesondere mussen die beiden ϕ-Reihen dann dieselbe Langehaben.)

Da der Vektorraum V endliche Dimension hat, besitzt er immer eine ϕ-Hauptreihe.Ist dim(V ) = n , so ist die Lange einer ϕ-Hauptreihe von V hochstens n . Sie kann aberauch echt kleiner sein:

(10.1.7 ) Beispiel Es sei V = R2 und ϕ =

(0 −11 0

). Da ϕ keine Eigenwerte besitzt

(vgl. (6.1.8.1)), hat V keine eindimensionalen ϕ-invarianten Unterraume. {o} ( V ist daher eineϕ-Hauptreihe der Lange 1 von V .

Page 233: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

230 10 * REIHEN ϕ-INVARIANTER UNTERRAUME

(10.1.8) Satz (Schreier, Jordan-Holder)Es sei ϕ ein Endomorphismus des endlich-dimensionalen Vektorraums V .

(a) Je zwei ϕ-Reihen von V haben zueinander ϕ-isomorphe Verfeinerungen.(Verfeinerungssatz von Schreier)

(b) Je zwei ϕ-Hauptreihen von V sind zueinander ϕ-isomorph. (Satz von Jordan-Holder)

Beweis: (a) Seien X : {o} = X0 ( . . . ( Xr = V und Y : {o} = Y0 ( . . . ( Ys = Vzwei ϕ-Reihen von V . Wir definieren Xij := Xi+(Xi+1∩Yj) ; und Yij := Yj +(Yj+1∩Xi) fur alle vorkommenden Indices i und j . Dann ist

X ∗ : {o} = X00 ⊆ X01 ⊆ . . . ⊆ X0s = X1 = X10 ⊆ . . . ⊆ X1s = X2 ⊆ . . . ⊆ Xrs = V

eine Verfeinerung der ϕ-Reihe X . Analog bilden die Unterrraume Yij eine Verfeinerung Y∗der ϕ-Reihe Y .Die Anwendung von (10.1.6) auf U1 = Xi , U2 = Xi+1 , W1 = Yj , W2 = Yj+1

liefert, daß der Faktorraum

Xi,j+1/Xi,j =(Xi + (Xi+1 ∩ Yj+1)

)/(Xi + (Xi+1 ∩ Yj)

)=

(U1 + (U2 ∩W2)

)/(U1 + (U2 ∩W1)

)ϕ-isomorph ist zum Faktorraum(

W1 + (U2 ∩W2))/(W1 + (U1 ∩W1)

)=

(Yj + (Xi+1 ∩ Yj+1)

)/(Yj + (Xi ∩ Yj+1)

)= Yi,j+1/Yi,j

fur alle Paare (i, j) von Indices. Die beiden Verfeinerungen X ∗ und Y∗ sind also zueinanderϕ-isomorph. (b) ist jetzt klar nach (a). �

10.2 * Nochmals das charakteristische Polynom

Wir definieren jetzt ein”neues“ charakteristisches Polynom, von dem wir zunachst einige

Eigenschaften herleiten und dann naturlich zeigen werden, daß es mit dem in Kapitel 9definierten charakteristischen Polynom ubereinstimmt.

Definition: charakteristisches PolynomEs sei ϕ ein Endomorphismus des endlich-dimensionalen Vektorraums V und

{o} = U0 ( U1 ( . . . ( Ur = V

eine ϕ-Hauptreihe von V . Sei ϕ∗i die von ϕ auf dem Faktorraum Ui/Ui−1 induzierte Ab-bildung, und sei Mi das Minimalpolynom von ϕ∗i . Dann heißt χ = M1 · . . . · Mr dascharakteristische Polynom von ϕ .

(10.2.1) Satz(a) Die Definition des charakteristischen Polynoms ist unabhangig von der Wahl der ϕ-

Hauptreihe.(b) grad(χ) = dim(V ) .

Page 234: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

10.2 * Nochmals das charakteristische Polynom 231

Beweis: (a) Zwei ϕ-Hauptreihen {o} = U0 ( . . . ( Ur = V und {o} = W0 ( . . . (Wr = V von V sind nach (10.1.8b) zueinander ϕ-isomorph. Sei ϕ∗i die von ϕ auf Ui/Ui−1 ,und ϕ′i die von ϕ auf Wi/Wi−1 induzierte Abbildung.Dann gibt es eine Bijektion (Permutation) π der Indexmenge {1, . . . , r } , und zu jedemIndex i einen Vektorraumisomorphismus τi von Ui/Ui−1 nach Wπ(i)/Wπ(i)−1 , so daß gilt:

ϕ∗i = τ−1i ◦ ϕ′π(i) ◦ τi .

Die Endomorphismen ϕ∗i und ϕ′π(i) sind also ahnlich und haben daher dasselbe Minimalpo-lynom. Die bei der Berechnung des charakteristischen Polynoms auftretenden Minimalpoly-nome der Hauptfaktoren unterscheiden sich, wenn man eine andere Hauptreihe verwendet,folglich nur in der Reihenfolge.(b) Als Faktor einer ϕ-Hauptreihe von V besitzt der Faktorraum Ui/Ui−1 keinen echtenϕ∗i -invarianten Unterraum. Ist ki der Grad von Mi , so erhalt man nach (5.2.1) einen ϕ∗i -invarianten Unterraum der Dimension ki von Ui/Ui−1 .Das geht aber nur fur ki = dim(Ui/Ui−1) .Also haben wir grad(χ) =

∑ri=1 grad(Mi) =

∑ri=1 dim(Ui/Ui−1) = dim(V ). �

(10.2.2) Satz Es sei ϕ ein Endomorphismus des endlich-dimensionalen Vektorraums V .Weiter sei U ein ϕ-invarianter Unterraum von V und ϕ∗ die von ϕ auf dem FaktorraumV/U induzierte Abbildung. Dann gilt fur die charakteristischen Polynome: χϕ = χϕ|U ·χϕ∗ .

Beweis: Der Satz ist trivial im Fall U = {o} oder U = V . Sei daher U ein nichttrivialerTeilraum von V . Die Unterraumkette {o} ( U ( V verfeinern wir zu einer ϕ-Hauptreihe{o} = U0 ( U1 ( . . . ( Ur = V . Sei etwa U = Uk .Aus (10.1.1) folgt, daß {o} = U0 ( . . . ( Uk = U eine ϕ|U -Hauptreihe von U undUk/Uk ( . . . ( Ur/Uk = V/U eine ϕ∗-Hauptreihe von V/U ist. Aus der Definition descharakteristischen Polynoms von ϕ als Produkt der Minimalpolynome der auf den Faktorender Hauptreihe induzierten Abbildungen folgt nun die Behauptung. �

Man vergleiche (10.2.2) mit (10.1.2) und (10.1.3): Wahrend sich die charakteristischen Poly-nome von Unterraum und Faktorraum zum charakteristischen Polynom des ganzen Raumesmultiplizieren, gilt die entsprechende Aussage fur die Minimalpolynome nicht.

(10.2.3) Satz charakteristisches Polynom und MinimalpolynomEs ϕ ein Endomorphismus des endlich-dimensionalen Vektorraums V mit MinimalpolynomM und charakteristischem Polynom χ. Dann gilt:

(a) M ist ein Teiler von χ . Insbesondere ist χ(ϕ) die Nullabbildung(Satz von Cayley-Hamilton).

(b) χ ist ein Teiler einer Potenz von M .Insbesondere haben M und χ dieselben Nullstellen, so daß die Nullstellen von χ genau dieEigenwerte von ϕ sind.

Beweis: (a) Induktion nach der Lange l einer ϕ-Hauptreihe von V :Hat V keine echten ϕ-invarianten Unterraume ( l = 1 ), so ist M = χ , und die Behauptungist klar. Sei nun U ein echter ϕ-invarianter Unterraum von V . Nach (10.1.1) sind dann die

Page 235: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

232 10 * REIHEN ϕ-INVARIANTER UNTERRAUME

Langen der ϕ|U -invarianten Hauptreihen von U bzw. der ϕ∗-invarianten Hauptreihen vonV/U echt kleiner als l. Nach Induktionsvoraussetzung ist Mϕ|U ein Teiler von χϕ|U undMϕ∗ ein Teiler von χϕ∗ . Nach (10.1.2) ist M ein Teiler von Mϕ|U ·Mϕ∗ , also ein Teiler vonχϕ|U · χϕ∗ = χ .(b) Sei wieder l die Lange einer ϕ-Hauptreihe von V . Das charakteristische Polynom χ istdas Produkt der Minimalpolynome der Endomorphismen, die von ϕ auf den Faktoren derϕ-Hauptreihe induziert werden, also nach (10.1.2a) ein Produkt von l Teilern des Minimal-polynoms. Damit ist χ ein Teiler von M l . �

Eine Analogon zum Satz (5.1.3) ist das folgende Korollar

(10.2.4) Korollar (Satz von Fitting)Es sei V ein Vektorraum mit dim(V ) = n < ∞ und ϕ ein Endomorphismus von V mitcharakteristischem Polynom χ. Weiter seien P1, . . . Pn annullierende Polynome fur ϕ.Dann ist χ ein Teiler von P1 · . . . · Pn .

Beweis: Nach (5.1.3) ist jedes Pi ein Vielfaches des Minimalpolynoms M von ϕ. Ande-rerseits hat jede ϕ-Hauptreihe von V die Lange hochstens n, so daß nach dem Beweis zu(10.2.3.b) das Polynom χ ein Teiler von Mn und damit von P1 · . . . · Pn ist. �

(10.2.5) Beispiel Die reellen Matrizen

A =

0 −11 0

1 0 −11 0

0 −11 0

1

, B =

0 −11 0

1 0 −11 0

11

1

haben beide das Minimalpolynom M(x) = (x2 + 1)2(x− 1) . Geht man die Diagonale der Jordan-Normalform von A von links oben nach rechts unten durch, so erhalt man eine A-Hauptreihe{o} = U0 ( U1 ( . . . ( U4 = R

7 mit den zugehorigen Minimalpolynomen der auf den Faktoreninduzierten Abbildungen M1(x) = M2(x) = M3(x) = x2 + 1 und M4(x) = x − 1 , also dascharakteristische Polynom χA(x) = (x2 + 1)3(x− 1) .Ebenso ergibt sich eine B-Hauptreihe {o} = W0 ( W1 ( . . . ( W5 = R

7 mit den Minimal-polynomen M1(x) = M2(x) = x2 + 1 und M3(x) = M4(x) = M5(x) = x − 1 , also dascharakteristische Polynom χB(x) = (x2 + 1)2(x− 1)3 .

Schließlich kommen wir zum Beweis der Aquivalenz der beiden Definitionen des charakteri-stischen Polynoms:

(10.2.6) Satz Es sei ϕ ein Endomorphismus des endlich-dimensionalen Vektorraums V .Dann ist das charakteristische Polynom von ϕ gleich det(x · id− ϕ) .

Page 236: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

10.2 * Nochmals das charakteristische Polynom 233

Beweis: Da ahnliche Matrizen dieselben Determinanten haben, konnen wir uns eine Ma-trizendarstellung C von (x · id − ϕ) heraussuchen und verwenden eine Basis fur V , so daßϕ durch seine Jordan-Normalform A dargestellt wird. Da sich die Matrizen −A und Cnur in den Diagonalelementen unterscheiden, hat auch C eine Einteilung in Blocke auf derDiagonalen wie A (vgl. (6.1.9)). Weiter ist die Determinante von C gleich dem Produkt

der Determinanten der Diagonalblocke x · E − A(j)i . Hierbei bezeichne E naturlich immer

die Einheitsmatrix mit derselben Anzahl von Zeilen wie A(j)i . Nun hat jeder dieser Blocke

x · E − A(j)i nach (6.1.6) eine Block-Dreiecksgestalt mit Blocken der Form

x 0 . . . 0 α0

−1 x . . . 0 α1

0 −1 . . . 0 α2...

.... . .

......

0 0 . . . −1 x+ αr−1

auf der Diagonalen. Das Polynom xr + αr−1x

r−1 + . . .+ α0 ist dabei der irreduzible Teiler

Pi des Minimalpolynoms, zu dem die Blocke A(j)i gehoren.

Die Determinante det(x·id−ϕ) ist also ein Produkt von Potenzen P lii der irreduziblen Teiler

des Minimalpolynoms von ϕ. Der Exponent li gibt dabei an, wie oft die Begleitmatrix zumPolynom Pi in der Jordan-Normalform von ϕ vorkommt. Also ist er gleich dem Exponentendes Teilers Pi im charakteristischen Polynom von ϕ. �

Page 237: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

234 11 BILINEARFORMEN UND HERMITESCHE FORMEN

11 Bilinearformen und hermitesche Formen

Nachdem wir nun die linearen Abbildungen eines Vektorraums V in sich ausfuhrlich disku-tiert haben, wollen wir uns im Folgenden zunachst wieder mit dem Vektorraum V selbstbeschaftigen. Die Definition eines Vektorraums durch die Axiome (V1) - (V7) auf S. 8 ist jasehr allgemein gehalten und verlangt nur gewisse Eigenschaften der Addition und der ska-laren Multiplikation. Das erste Modell eines Vektorraums, der drei-dimensionale Raum R

3,hat aber noch sehr viel mehr

”Struktur“ , die wir bisher vollig außer Acht gelassen haben:

wir konnen den Vektoren in anschaulicher Weise eine Lange zuordnen, zwei Vektoren konnenaufeinander senkrecht stehen oder in einem gewissen Winkel zueinander.Alle diese Begriffe wollen wir in den beiden nachsten Kapiteln bereitstellen. Dazu betrach-ten wir zunachst Bilinearformen von Vektorraumen uber einem beliebigen Korper K undanschließend spezielle Bilinearformen (bzw. hermitesche Formen) und die damit gebilde-ten Skalarprodukte oder inneren Produkte auf reellen oder komplexen Vektorraumen. DieseEinschrankung des Skalarenkorpers wird notwendig, weil wir dann Absolutbetrage und Qua-dratwurzeln bilden mussen.Spater betrachten wir dann Endomorphismen eines mit einem Skalarprodukt ausgestattetenVektorraums V , die gewisse Zusatzeigenschaften haben, zum Beispiel Langen oder Winkelfestlassen.

11.1 Definition und Beschreibung von Bilinearformen

Definition: MultilinearformEs sei K ein Korper und V ein Vektorraum uber K. Das m-fache kartesische Produkt{(v1, . . . , vm) | vi ∈ V } bezeichnen wir mit V m. Eine Abbildung µ : V m → K heißtMultilinearform (der Stufe m), wenn sie linear in jedem der m Argumente ist, das heißt

µ(v1, . . . , vi−1, σvi + τwi, vi+1, . . . , vm)

= σ · µ(v1, . . . , vi−1, vi, vi+1, . . . , vm) + τ · µ(v1, . . . , vi−1, wi, vi+1, . . . , vm)

fur alle Indizes i ∈ {1, . . . ,m} , Skalare σ, τ ∈ K, und Vektoren v1, . . . , vm, wi ∈ V .

(11.1.1) Beispiele Multilinearformen1. Die Multilinearformen der Stufe 1 sind genau die Linearformen λ : V → K (vgl. Abschn.

2.2).Ist zum Beispiel V = R

3, so ist die Projektion π : V → R eines Vektors auf seine ersteKoordinate

π(

v1

v2

v3

) = v1

eine Multilinearform der Stufe 1 von V .Fur V = C([0, 1]) (Vektorraum der auf dem Intervall [0, 1] definierten stetigen, reellwertigenFunktionen) ist etwa die Abbildung I : V → R

I(f) =∫ 1

0f(x)dx

eine Multilinearform der Stufe 1 von V .

Page 238: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.1 Definition und Beschreibung von Bilinearformen 235

2. Ein triviales Beispiel ist die Nullform der Stufe m, das heißt die Abbildung µ : V m → K,die jedes m-tupel von Vektoren aus V auf 0 ∈ K abbildet. Ist die Stufe klar, so spricht maneinfach von Nullform.

3. Hat V die endliche Dimension n, so sind die in Abschnitt 8.2 definierten Determinantenfunk-tionen Multilinearformen der Stufe n.

4. Ist V = Kn mit n ∈ N, so ist die Abbildung µ : V 2 → K

µ(

v1...

vn

,

w1...

wn

) =n∑i=1

viwi

eine Multilinearform der Stufe 2 von V . Diese Multilinearform wird im Folgenden speziellfur Vektorraume uber R oder C als Standard-Skalarprodukt eine wichtige Rolle spielen.

5. Ist m ∈ N, und sind λ1, . . . , λm : V → K Linearformen des K-Vektorraums V , so ist dieAbbildung µ : V m → K

µ(v1, . . . , vm) = λ1(v1) · λ2(v2) · . . . · λm(vm)

eine Multilinearform der Stufe m von V . Insbesondere gibt es Multilinearformen beliebigerStufe m ∈ N.Dagegen ist fur m ≥ 2 die Abbildung ν : V m → K

ν(v1, . . . , vm) = λ1(v1) + λ2(v2) + . . .+ λm(vm)

in der Regel keine Multilinearform von V ! (Gegenbeispiel ?)6. Es sei V = C[0, 1] der Vektorraum der stetigen Funktionen f : [0, 1] → R. Da das Produkt

zweier stetiger Funktionen wieder stetig ist und eine stetige Funktion auf einem endlichen,abgeschlossenen Intervall (Riemann-)integrierbar, konnen wir die Abbildung

β : V × V → R mit β(f, g) =∫ 1

0f(x)g(x)dx

bilden. Wegen der Rechenregeln fur Integrale ist β eine Multilinearform der Stufe 2 von V ,und außerdem gilt β(f, g) = β(g, f) fur beliebige f, g ∈ V .

Die Multilinearformen der Stufe 1 eines Vektorraums V uber K, also die Linearformen,haben wir bereits in Abschnitt 2.2 behandelt. In diesem Kapitel wollen wir uns mit Multi-linearformen der Stufe 2, den Bilinearformen befassen.Es sei n eine naturliche Zahl, V ein n-dimensionaler Vektorraum uber K, und (b1, . . . , bn)eine (geordnete) Basis von V . In Abschnitt 2.2 haben wir gesehen, daß man eine Linearformλ : V → K durch den Zeilenvektor (λ1, . . . , λn) mit λi = λ(bi) beschreiben kann. Hat derVektor v ∈ V bezuglich dieser Basis die Koordinaten v1, . . . , vn , so erhalten wir das Bildvon v unter λ durch die Matrizenmultiplikation

λ(v) = (λ1, . . . , λn)

v1...vn

= λ1v1 + . . .+ λnvn .

Diese Beschreibung zeigt zugleich, daß die Linearformen von V mit der ublichen Additionund skalaren Multiplikation einen Vektorraum der Dimension n uber K bilden. (Die endlicheDimension des Vektorraums V ist hierfur notwendig! vgl. (2.9.6))Der folgende Satz liefert in analoger Weise eine Beschreibung der Bilinearformen einesendlich-dimensionalen Vektorraums V :

Page 239: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

236 11 BILINEARFORMEN UND HERMITESCHE FORMEN

(11.1.2) Satz Strukturmatrix einer BilinearformEs sei V ein Vektorraum der endlichen Dimension n uber K, und B = (b1, . . . , bn) eine(geordnete) Basis von V .

(a) Ist β : V 2 → K eine Bilinearform von V , und haben die Vektoren v, w bezuglich derBasis B die Koordinaten vi, wi, so gilt

β(v, w) = (v1, . . . , vn)A

w1...wn

,

wobei A = (ai,j) eine (n× n)-Matrix uber K ist mit den Eintragen ai,j = β(bi, bj).(b) Ist A ∈Mn(K) eine beliebige Matrix, so ist die durch

β(v, w) = (v1, . . . , vn)A

w1...wn

definierte Abbildung β : V 2 → K eine Bilinearform von V .

(c) Die Bilinearformen von V bilden einen K-Vektorraum der Dimension n2.

Beweis:

(a) Es gilt v =∑n

i=1 vibi und w =∑n

j=1 wjbj . Dann ist∑n

j=1 ai,jwj die i-te Komponentedes Vektors Aw, und die Linearitat von β in beiden Argumenten liefert

β(v, w) = β(n∑i=1

vibi,n∑j=1

wjbj) =n∑i=1

n∑j=1

viwjβ(bi, bj) =n∑i=1

n∑j=1

viwjai,j

=n∑i=1

vi( n∑j=1

ai,jwj)

= (v1, . . . , vn)A

w1...wn

.

(b) Die Bilinearitat von β folgt aus den Rechenregeln fur Matrizen 28: Fur Skalare σ, τund Vektoren v, w1, w2 erhalt man

β(v, σw1 + τw2) = vA(σw1 + τw2) = v(σAw1 + τAw2)

= σ(vAw1) + τ(vAw2) = σ · β(v, w1) + τ · β(v, w2) .

Analog folgt die Linearitat im ersten Argument.(c) Nach (a) kann man jeder Bilinearform β von V eine Matrix A(β) ∈Mn(K) zuordnen.

Diese Abbildung β 7→ A(β) ist eine Bijektion von der Menge aller Bilinearformen vonV in die Menge Mn(K): Die Injektivitat folgt aus (a), denn wegen der Bilinearitat istβ durch die Werte β(bi, bj) , i, j ∈ {1, . . . , n} festgelegt. Die Surjektivitat folgt aus (b).Also hat der Vektorraum der Bilinearformen von V die Dimension dim(Mn(K)) = n2.�

28Man beachte, daß ein Zeilenvektor eine (1× n)-Matrix und ein Spaltenvektor eine (n× 1)-Matrix ist.

Page 240: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.1 Definition und Beschreibung von Bilinearformen 237

Definition: StrukturmatrixDie nach (11.1.2) zu einer Bilinearform β konstruierte Matrix A heißt Strukturmatrix von βbezuglich der Basis B.

Die Strukturmatrix wird manchmal auch Fundamentalmatrix oder Gramsche Matrix ge-nannt.

Die Beschreibung der Bilinearformen durch Matrizen darf nicht zu der Vorstellung verleiten,daß eine Bilinearform eine lineare Abbildung sei. Das kartesische Produkt V 2 kann mannach Abschnitt 2.9 zu einem Vektorraum der Dimension 2n uber K machen, indem man dieaußere direkte Summe V × V bildet. Die beiden Vektorraumoperationen sind dabei in dernaheliegenden Weise definiert:Ein Vektor v ∈ V × V hat die Gestalt v = (v1, v2) mit v1, v2 ∈ V .Fur v1, v2, w1, w2 ∈ V und λ ∈ K gilt

(v1, v2) + (w1, w2) = (v1 + w1, v2 + w2) und λ(v1, v2) = (λv1, λv2) .

Eine Bilinearform β : V 2 → K ist also auch eine Abbildung des K-Vektorraums V 2 in deneindimensionalen K-Vektorraum K, aber bis auf eine Ausnahme keine lineare.Die 2n Vektoren (b1, o), . . . , (bn, o), (o, b1), . . . , (o, bn) bilden eine Basis des VektorraumsV × V . Die Bilinearitat von β erzwingt

β(bi, o) = β(bi, 0 · o) = 0 · β(bi, o) = 0 und

β(o, bi) = β(0 · o, bi) = 0 · β(o, bi) = 0 fur alle i .

Ist also β sowohl eine Bilinearform von V als auch eine lineare Abbildung zwischen denVektorraumen V × V und K, so ist β notwendig die Null-Abbildung.

(11.1.3) Beispiele Strukturmatrizen1. Das Standard-Skalarprodukt aus (11.1.1.3) hat die Einheitsmatrix als Strukturmatrix.2. Wahlen wir in (11.1.1.4) λ1 = . . . = λn = π1 die Projektion eines Vektors auf seine erste

Komponente, dann hat die damit konstruierte Bilinearform eine Strukturmatrix, die an derStelle (1,1) eine Eins und sonst nur Nullen stehen hat.

3. Es sei V ein 2-dimensionaler Vektorraum. Dann kann man die Determinante als eine Bili-nearform ∆ : V 2 → K betrachten mit det(A) = ∆(s1, s2) , wobei s1 die erste und s2 diezweite Spalte der Matrix A ist. Es gilt

(a1,1, a2,1)(

0 1−1 0

)(a1,2

a2,2

)= a1,1a2,2 − a2,1a1,2 = det(A) ,

also ist(

0 1−1 0

)die Strukturmatrix von ∆.

4. Die Nullform der Stufe m hat bezuglich einer beliebigen Basis von V als Strukturmatrix die(m×m)-Nullmatrix.

Das folgende Ergebnis fur Bilinearformen werden wir mehrfach verwenden. Der einfacheBeweis ist dem Leser als Ubung uberlassen.

Page 241: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

238 11 BILINEARFORMEN UND HERMITESCHE FORMEN

(11.1.4) Lemma Es sei K ein beliebiger Korper und V ein K-Vektorraum mit Bilinearformβ : V × V → K. Weiter sei x ∈ V ein beliebiger Vektor.

(a) Die Abbildungen λx : V → K (bzw. ρx : V → K), definiert durch v ∈ V 7→ β(x, v) ∈K (bzw. v ∈ V 7→ β(v, x) ∈ K), sind Linearformen von V .

(b) Die Menge aller κ ∈ K, fur die es Vektoren v, w ∈ V gibt mit β(v, w) = κ, ist entweder{0} oder K.

(c) Hat V die endliche Dimension d, so ist C := {v ∈ V | β(x, v) = 0} ein Unterraumder Dimension mindestens d− 1 von V .

Definition: symmetrische, schiefsymmetrische, alternierende BilinearformEs sei V ein Vektorraum (beliebiger Dimension) uber dem Korper K und β : V 2 → K eineBilinearform.

(a) β heißt symmetrisch, wenn β(v, w) = β(w, v) fur alle v, w ∈ V gilt.(b) β heißt schiefsymmetrisch, wenn β(v, w) = −β(w, v) fur alle v, w ∈ V gilt.(c) β heißt alternierend, wenn β(v, v) = 0 fur alle v ∈ V gilt.

Die Bilinearform aus Beispiel (11.1.1.6) ist eine symmetrische Bilinearform auf dem unendlich-dimensionalen Vektorraum C[0, 1].

(11.1.5) Korollar Es sei V ein endlichdimensionaler Vektorraum uber K, β : V 2 → K eineBilinearform von V mit Strukturmatrix A (bezuglich einer fest gewahlten Basis (b1, . . . , bn)von V ).

(a) β ist genau dann symmetrisch, wenn A symmetrisch ist.(b) β ist genau dann schiefsymmetrisch, wenn A schiefsymmetrisch ist.

Das folgende Lemma zeigt, daß die alternierenden und schiefsymmetrischen Bilinearformeneng zusammenhangen. Sein Beweis ist eine leichte Ubung.

(11.1.6) Lemma alternierende und schiefsymmetrische BilinearformenEs sei V ein Vektorraum uber K und β : V 2 → K eine Bilinearform von V .

(a) Ist β alternierend, so auch schiefsymmetrisch.(b) Gilt 2 6= 0, und ist β schiefsymmetrisch, so ist β alternierend.

(11.1.7) Satz Es sei V ein Vektorraum der endlichen Dimension n uber K, und es geltechar(K) 6= 2, das heißt 2 6= 0. Es sei B der Vektorraum aller Bilinearformen von V , S+ dieMenge der symmetrischen und S− die Menge der schiefsymmetrischen Bilinearformen vonV .

(a) S+ ∩ S− = {0} (wobei 0 hier die Null-Abbildung bedeutet).(b) S+ ist ein K-Vektorraum der Dimension n(n+ 1)/2.(c) S− ist ein K-Vektorraum der Dimension n(n− 1)/2.(d) B ist die direkte Summe von S+ und S−. Insbesondere gibt es zu jeder Bilinearform β

genau eine symmetrische Bilinearform β+ und eine schiefsymmetrische Bilinearformβ− mit β = β+ + β− .

Page 242: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.1 Definition und Beschreibung von Bilinearformen 239

Beweis: Zur Fuhrung des Beweises rechnet man nicht mit den Bilinearformen selbst, son-dern mit den (bezuglich einer festgewahlten Basis von V ) zugehorigen Strukturmatrizen.(a) ist eine direkte Folgerung aus der Voraussetzung 2 6= 0. Daher gilt namlich λ = −λ nurfur λ = 0 . Die Vektorraumaxiome erben S+ und S− naturlich von B. Man muß nur nach-rechnen, daß S+ und S− abgeschlossen sind bezuglich Addition und skalarer Multiplikation.Fur eine symmetrische Matrix kann man die Eintrage der oberen Halfte einschließlich derDiagonalen beliebig auswahlen. Die untere Halfte ist dann festgelegt wegen der Symmetrie-bedingung. Man hat also

1 + 2 + . . .+ n =n(n+ 1)

2

frei wahlbare Eintrage. Dies zeigt die Aussage (b). Analog geht die Argumentation fur (c).Dabei ist zu beachten, daß die Diagonaleintrage einer schiefsymmetrischen Matrix gleich 0sind (auch hier brauchen wir die Voraussetzung 2 6= 0).(d) folgt durch die Dimensionsformel fur Unterraume aus (a), (b) und (c). Man kann ubrigensdie Bilinearformen β+ und β− direkt angeben:

β+(v, w) =1

2

(β(v, w) + β(w, v)

)und β−(v, w) =

1

2

(β(v, w)− β(w, v)

). �

Quadratische Formen.Manchmal interessiert nicht das Verhalten der Bilinearform β auf dem gesamten kartesi-schen Produkt V × V , sondern nur auf der

”Diagonalen“ {(v, v) | v ∈ V } . Die entstehende

Abbildung Q(v) = β(v, v) heißt die zu β gehorende quadratische Form. Daß mit der Be-schrankung von β zu Q im Allgemeinen wirklich Information verlorengeht, zeigen die zweifolgenden Beispiele.

(11.1.8) Beispiele verschiedene Bilinearformen mit derselben quadratischen Form

1. Es sei V = R2. Die durch die Strukturmatrizen

B1 =(

1 10 1

)und B2 =

(1 01 1

)beschriebenen Bilinearformen β1, β2 induzieren dieselbe quadratische Form

Q(v) = v21 + v1v2 + v2

2 .

2. Es sei K ein Korper mit 2 = 0 und V = K2. Wegen 2v1v2 = 0 induzieren die durch dieStrukturmatrizen

B1 =(

1 00 1

)und B2 =

(1 11 1

)beschriebenen Bilinearformen β1, β2 dieselbe quadratische Form

Q(v) = v21 + v2

2 .

Beispiel (11.1.8.1) nicht symmetrisch, wahrend der Skalarenkorper in Beispiel (11.1.8.2) dieCharakteristik 2 hat. Verbieten wir diese Falle durch eine geeignete Voraussetzung, so isteine Bilinearform durch ihre zugehorige quadratische Form eineutig bestimmt. Der Beweisist eine einzeilige Rechnung.

Page 243: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

240 11 BILINEARFORMEN UND HERMITESCHE FORMEN

(11.1.9) Satz Zusammenhang von Bilinearform und quadratischer FormEs sei K ein Korper mit 2 6= 0 und β eine symmetrische Bilinearform auf V mit derzugehorigen quadratischen Form Q. Dann gilt

β(v, w) =1

2

(Q(v + w)−Q(v)−Q(w)

)fur alle v, w ∈ V .

Quadratische Formen werden in der Analytischen Geometrie behandelt. Man findet sie dortauch unter dem Stichwort Quadrik. Eine Quadrik ist die Nullstellenmenge {v ∈ V |Q(v) =0} fur eine geeignete quadratische Form. Ein Kegelschnitt ist die Schnittkurve einer Quadrikin R3 mit einer Ebene. Eigenschaften von quadratischen Formen und eine Klassifikation inR

2 und R3 findet man in [Bra], Kap. B, §8, oder in [KM], Abschnitt 8.4.

11.2 Basiswechsel und Bilinearformen, Kongruente Matrizen

Die Matrixbeschreibung linearer Abbildungen hangt bekanntlich von der gewahlten Basisder Vektorraume (Urbildraum und Zielraum) ab. Ist V ein Vektorraum mit Basen B undB′, und ϕ ein Endomorphismus von V , der bezuglich B die Matrix A und bezuglich B′ dieMatrix A′ hat, so gilt die Beziehung A′ = S−1AS , wobei S die Transformationsmatrix von Bnach B′ ist, d.h. die i-te Spalte von S enthalt den Koordinatenvektor des i-ten Basisvektorsb′i bezuglich der Basis B.Nicht genau dieselbe, aber eine ahnliche Transformationsregel erhalten wir auch fur dieStrukturmatrizen von Bilinearformen endlichdimensionaler Vektorraume:

(11.2.1) Satz Basiswechsel fur eine BilinearformEs sei V ein Vektorraum endlicher Dimension uber K, mit Basen B und B′. S sei dieTransformationsmatrix von B nach B′. Weiter sei β eine Bilinearform von V , die bezuglichder Basis B die Strukturmatrix A habe. Dann hat β bezuglich B′ die Strukturmatrix A′ =STAS .

Beweis: Fur einen Vektor v ∈ V bezeichne vB = (v1, . . . , vn)T den Koordinatenvektorbezuglich der Basis B und vB′ = (v′1, . . . , v

′n)T den Koordinatenvektor bezuglich der Basis

B′. Dann gilt nach (2.6.1) vB = SvB′ . Damit erhalten wir

β(v, w) = vTBAwB = (SvB′)TA(SwB′) = (vTB′S

T )A(SwB′) = vTB′(STAS)wB′)

also A′ = STAS , da die Strukturmatrix von β eindeutig bestimmt ist. �

Definition: kongruente MatrizenZwei Matrizen A,A′ ∈ Mn(K) heißen kongruent, wenn es eine regulare Matrix S ∈ Mn(K)gibt mit A′ = STAS.

Jacobson [Jac] nennt zwei kongruente Matrizen kogredient. Mit seiner Schreibweise dertransponierten Matrix (vgl. S.80) sind A,B ∈ Mn(K) dann kogredient, wenn es eine inver-

tierbare Matrix S ∈Mn(K) gibt mit B = SAtS.

Page 244: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.2 Basiswechsel und Bilinearformen, Kongruente Matrizen 241

Zwei quadratische Matrizen sind also genau dann kongruent, wenn sie bezuglich geeigneterBasen Strukturmatrizen derselben Bilinearform sind. Die Kongruenz ist (wie die Aquivalenzund die Ahnlichkeit) eine Aquivalenzrelation auf der Menge Mn(K). Dies rechnet man leichtnach. Fur die Symmetrie dieser Relation benotigt man die Rechenregel (ST )−1 = (S−1)T

(s. (6.8.1)).Die Matrizen S und ST haben denselben Rang (wegen Zeilenrang = Spaltenrang). Folglich istmit S auch ST regular, und zwei kongruente Matrizen sind auch aquivalent. Die Umkehrungdieser Aussage ist im allgemeinen falsch:

(11.2.2) Beispiele

1. Die Matrix A =(

0 11 0

)∈ M2(K) ist nicht kongruent zur Einheitsmatrix E2, wenn K

gleich Q oder R oder ein Korper ist, in dem 1 + 1 = 0 gilt:

Annahme: S =(a bc d

)sei regular, und

(1 00 1

)= STAS =

(2ac ad+ bc

ad+ bc 2bd

).

Es mussen also die Gleichungen ad+ bc = 0 (1) und 2ac = 2bd = 1 (2) erfullt sein.Gilt in K die Gleichung 1 + 1 = 0 (man sagt: K hat die Charakteristik 2), so folgt 2ac =2bd = 0 im Widerspruch zu (2).Multipliziert man (1) mit 2ab , so folgt 2bda2 + 2acb2 = 0 also wegen (2) dann a2 + b2 = 0 .Dies ist in Q oder R nur moglich fur a = b = 0 . Dann ware aber S nicht regular.

Setzen wir allerdings K = C , so gilt E2 = STAS fur die regulare Matrix S =(

1 i12 −1

2 i

).

2. Kongruente Matrizen konnen verschiedene Eigenwerte haben: Nach 1. sind die Matrizen

A =(

1 00 1

)und B =

(0 11 0

)uber C kongruent. A hat nur den Eigenwert 1, wahrend

B die Eigenwerte 1 und −1 hat.

Da kongruente Matrizen verschiedene Eigenwerte haben konnen, sind sie im allgemeinennicht ahnlich, aber es gilt die schwachere Aussage

(11.2.3) Satz Zwei kongruente Matrizen haben denselben Rang.

Beweis: A und A′ seien kongruente Matrizen mit A′ = STAS. Mit Hilfe der Rangunglei-chung von Frobenius erhalten wir

rang(STAS

)= rang

((STA)S

) (3.5.6.b)

≤ rang(STA

) (3.5.6.a)

≤ rang(A).

Wegen A = (S−1)TA′S−1 gilt auch die umgekehrte Ungleichung. �

Definition: Rang einer BilinearformIst β eine Bilinearform eines endlichdimensionalen Vektorraums, so ist der Rang von β derRang einer Strukturmatrix (bezuglich einer beliebigen Basis von V ) von β.Dieser Begriff ist wegen (11.2.3) wohldefiniert.

Page 245: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

242 11 BILINEARFORMEN UND HERMITESCHE FORMEN

11.3 Hermitesche Formen

Auf Vektorraumen uber dem Korper C der komplexen Zahlen werden wir anstelle der Bi-linearformen, die ahnlich definierten hermiteschen Formen verwenden. Fur eine komplexeZahl z = x + iy ∈ C bedeutet wie ublich z = x− iy die zu z komplex konjugierte Zahl. ImFolgenden werden wir benotigen, daß eine komplexe Zahl z genau dann reell ist, wenn z = zist.

Definition: hermitesche FormEs sei V ein Vektorraum uber R oder C. Eine Abbildung β : V 2 → C heißt hermitescheForm, wenn gilt:

(i) β(v1 + v2, w) = β(v1, w) + β(v2, w) fur alle v1, v2, w ∈ V .(Additivitat im 1. Argument)

(ii) β(λv, w) = λβ(v, w) fur alle v, w ∈ V und λ ∈ C (bzw. λ ∈ R).(Homogenitat im 1. Argument)

(iii) β(w, v) = β(v, w) fur alle v, w ∈ V .

Die Bedingungen (i) und (ii) liefern die Linearitat bezuglich des ersten Arguments. Bedin-gung (iii), eine Variante der Symmetrie, erzwingt die Additivitat, aber nicht die Homogenitatbezuglich des zweiten Arguments:

(11.3.1) Lemma Es sei V ein Vektorraum uber R oder C und β eine hermitesche Formauf V . Dann gilt:

(a) β(v, w1 + w2) = β(v, w1) + β(v, w2) fur alle v, w1, w2 ∈ V .(Additivitat im 2. Argument)

(b) β(v, λw) = λβ(v, w) fur alle v, w ∈ V und λ ∈ C (bzw. λ ∈ R).(Analogon zur Homogenitat im 2. Argument)

(c) β(v, v) ∈ R fur alle v ∈ V .

Beweis:

(a) β(v, w1 + w2)(iii)= β(w1 + w2, v)

(i)= β(w1, v) + β(w2, v)

(iii)= β(v, w1) + β(v, w2) .

(b) β(v, λw)(iii)= β(λv, w)

(ii)= (λ · β(v, w)) = λ · β(v, w) .

(c) Wegen (iii) gilt β(v, v) = β(v, v) fur alle v ∈ V , also β(v, v) ∈ R. �

Ist V ein reeller Vektorraum und β eine hermitesche Form auf V , so haben wir β(w, v) =β(v, w) fur alle v, w ∈ V (nach Voraussetzung (ii) der Definition), und β(v, λw) = λβ(v, w)fur alle λ ∈ R (nach 11.3.1,b). In diesem Fall ist also β eine symmetrische Bilinearform aufV .

Wir wollen auch die hermiteschen Formen auf endlich-dimensionalen Vektorraumen mit Hilfeeiner Strukturmatrix beschreiben:

(11.3.2) Satz Strukturmatrix einer hermiteschen FormEs sei K = R oder K = C und V ein Vektorraum der endlichen Dimension n uber K.Weiter sei B = (b1, . . . , bn) eine (geordnete) Basis von V .

Page 246: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.3 Hermitesche Formen 243

(a) Ist β : V 2 → K eine hermitesche Form von V , und haben die Vektoren v, w bezuglichder Basis B die Koordinaten vi, wi, so gilt

β(v, w) = (v1, . . . , vn)A

w1...wn

,

wobei A = (ai,j) eine hermitesche (n× n)-Matrix uber K ist mit den Eintragen ai,j =β(bi, bj).

(b) Ist A ∈Mn(K) eine hermitesche Matrix, so ist die durch

β(v, w) = vTAw

definierte Abbildung β : V 2 → K eine hermitesche Form von V .

Beweis: Der Beweis geht naturlich ganz analog zum Beweis von (11.1.2): Es gilt v =∑ni=1 vibi und w =

∑nj=1 wjbj . Dann ist

∑nj=1 ai,jwj die i-te Koordinate des Vektors Aw,

und die Linearitat von β im ersten bzw. Halb-Linearitat im zweiten Argument liefert

β(v, w) = β(n∑i=1

vibi,n∑j=1

wjbj) =n∑i=1

n∑j=1

viwjβ(bi, bj) =n∑i=1

n∑j=1

viwjai,j

=n∑i=1

vi( n∑j=1

ai,jwj)

= (v1, . . . , vn)A

w1...wn

.

Teil (b) rechnet man ebenso leicht nach. �

Man beachte, daß in (11.3.2) das Analogon zu (11.1.2,c) fehlt! Die hermiteschen Formeneines reellen Vektorraums bilden zwar einen R-Vektorraum, weil nach (11.1.7) die rellensymmetrischen (n×n)-Matrizen einen R-Vektorraum (der Dimension n(n+1)/2 bilden, aberdie hermiteschen Formen eines komplexen Vektorraums sind nicht abgeschlossen bezuglichder skalaren Multiplikation (Beispiel?).

(11.3.3) Beispiel Es sei V ein n-dimensionaler Vektorraum uber C. Wir denken uns eineBasis B von V fixiert und betrachten die durch die (n×n)-Einheitsmatrix beschriebene hermitescheForm von V :Der Vektor v habe die Koordinaten a1 + ib1, . . . , an + ibn, der Vektor w habe die Koordinatenc1 + id1, . . . , cn + idn. Dann gilt

β(v, w) = (a1 + ib1, . . . , an + ibn)

c1 − id1...

cn − idn

=n∑j=1

(aj + ibj)(cj − idj)

=n∑j=1

(ajcj + bjdj) + i(bjcj − ajdj) .

Insbesondere gilt

β(v, v) =n∑j=1

(a2j + b2j ) + i(ajbj − ajbj) =

n∑j=1

(a2j + b2j ) .

Page 247: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

244 11 BILINEARFORMEN UND HERMITESCHE FORMEN

An dieser Formel sieht man, warum wir im Fall K = C hermitesche Formen statt Bilinearformenverwenden: Fur einen beliebigen Vektor v ∈ V ist β(v, v) eine nicht-negative reelle Zahl. Alsokonnen wir

‖v‖ =√β(v, v) =

√√√√ n∑j=1

(a2j + b2j )

bilden, und dieser Wert stimmt uberein mit der ublichen Lange des Vektors v ∈ Cn.

Wenn wir mit Strukturmatrizen rechnen wollen, mussen wir naturlich wissen, wie sich die-se bei Basiswechsel verhalten. Das Ergebnis ist nicht schwer zu erraten und kann leichtnachgerechnet werden (vgl. (11.2.1):

(11.3.4) Satz Basiswechsel fur eine hermitesche FormEs sei V ein reeller oder komplexer Vektorraum endlicher Dimension, mit Basen B und B′.Es sei S die Transformationsmatrix von B nach B′. Weiter sei β eine hermitesche Formvon V , die bezuglich der Basis B die Strukturmatrix A habe. Dann hat β bezuglich B′ dieStrukturmatrix A′ = STAS .

Da eine hermitesche Form uber einem reellen Vektorraum eine Bilinearform ist, mussen furden Skalarenkorper R die Formeln von (11.3.4) und (11.2.1) ubereinstimmen. Das tun sieauch, weil in diesem Fall die Transformationsmatrix S nur reelle Eintrage hat, also S = Sgilt.

Definition: konjugiert-kongruentZwei Matrizen A,B ∈Mn(C) heißen konjugiert-kongruent, wenn es eine invertierbare MatrixS ∈Mn(C) gibt mit B = STAS .

Konjugiert-kongruente Matrizen beschreiben also dieselbe hermitesche Form bezuglich ver-schiedener Basen von Cn.Weil fur jede reelle oder komplexe (n × n)-Matrix S der Rang von S gleich dem Rang von

S (und damit gleich dem Rang von ST

) ist, gilt auch das Analogon von (11.2.3):

(11.3.5 ) Lemma Es seien A und S reelle oder komplexe (n × n)-Matrizen, und S seiregular. Dann gilt rang(STAS) = rang(A) .

Wegen (11.3.5) konnen wir den Rang einer hermiteschen Form β definieren als den Rangder Strukturmatrix bezuglich einer beliebigen Basis von V .

Das folgende Analogon von (11.1.4) macht man sich leicht klar:

(11.3.6) Lemma Es sei β : V × V → C eine hermitesche Form von V und x ∈ V einbeliebiger Vektor.

(a) Die Abbildung λx : V → C, definiert durch v ∈ V 7→ β(x, v) ∈ K, ist eine Linearformvon V .

(b) Die Abbildung ρx : V → C, definiert durch v ∈ V 7→ β(v, x) ∈ K, ist eine Linearformvon V .

Page 248: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.4 Orthogonalitat 245

(c) Die Menge aller κ ∈ C, fur die es Vektoren v, w ∈ V gibt mit β(v, w) = κ, ist entweder{0} oder C.

(d) Hat V die endliche Dimension d, so ist C := {v ∈ V | β(x, v) = 0} ein Unterraumder Dimension mindestens d− 1 von V .

Literatur: Hermitesche Formen werden manchmal auch Sesquilinearformen (”Eineinhalb-

fach-Linearformen“ ) genannt und konnen auch uber anderen Korpern definiert werden. EineEinfuhrung in dieses Gebiet bietet zum Beispiel das Buch [Sch] von Scharlau. Bei ihm istjedoch eine hermitesche Form linear im zweiten und halb-linear im ersten Argument, so daß

die Basistransformation (11.3.4) dort durch die Formel A′ = STAS angegeben wird.

Sehr viel uber hermitesche Formen (Sesquilinearformen) und Bilinearformen steht im Algebra-Lehrbuch [SS] von Scheja und Storch ab §70, ebenso in Huppert [Hup] in Kapitel V.

11.4 Orthogonalitat

Voraussetzungen an den Skalarenkorper: Ist β eine Bilinearform, so werden, fallsnicht extra angefuhrt, keine Voraussetzungen an den Skalarenkorper K gestellt.Ist β eine hermitesche Form, so ist K ein Teilkorper von C.

Nach (11.1.1.3) ist das aus der Schule bekannte Standard-Skalarprodukt (etwa im Raum R3)

eine spezielle symmetrische Bilinearform. Zwei Vektoren v, w ∈ R3 stehen aufeinander senk-recht (sind orthogonal), wenn <v , w>= 0 gilt. Entsprechend wollen wir die Orthogonalitatzweier Vektoren v, w ∈ V bezuglich einer Bilinearform oder hermiteschen Form β von Vdefinieren, indem wir festlegen, daß v orthogonal zu w sein soll, wenn β(v, w) = 0 gilt.Wenn wir keine Zusatzvoraussetzung an die Form β stellen, konnte es passieren, daß zwarβ(v, w) = 0, aber β(w, v) 6= 0 gilt. Dies wurde dazu fuhren, daß zwar v orthogonal zu w, aberw nicht orthogonal zu v ist. Um die Symmetrie des Begriffs der Orthogonalitat zu erhalten,mussen wir also sicherstellen, daß β(v, w) = 0 immer gleichwertig mit β(w, v) = 0 ist. DieseBedingung wird jedenfalls von allen symmetrischen und schiefsymmetrischen Bilinearformenund allen hermiteschen Formen erfullt. Interessanterweise gilt auch die Umkehrung:

(11.4.1 ) Satz (Dieudonne) Es sei β eine Bilinearform auf dem Vektorraum V , und esgelte β(v, w) = 0 genau dann, wenn auch β(w, v) = 0 gilt. Dann ist β symmetrisch oderschiefsymmetrisch.

Beweis: (nach Wild [57]) Ist β alternierend, so schiefsymmetrisch nach (11.1.6). Also kannman die Existenz eines Vektors v ∈ V mit β(v, v) 6= 0 voraussetzen. Wir werden nun dieSymmetrie von β zeigen. Dazu seien beliebige Vektoren a, b ∈ V gewahlt.1.Fall: β(a, a) 6= 0.Fur c = β(a, b)a − β(a, a)b gilt β(a, c) = β(a, b)β(a, a) − β(a, a)β(a, b) = 0 . Aus der Sym-metrie der Orthogonalitat folgt

0 = β(c, a) = β(a, b)β(a, a)− β(a, a)β(b, a) = β(a, a)(β(a, b)− β(b, a)) .

Wegen β(a, a) 6= 0 folgt hieraus β(a, b) = β(b, a). Insbesondere gilt wegen β(v, v) 6= 0 auchβ(a, v) = β(v, a) und β(b, v) = β(v, b).

Page 249: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

246 11 BILINEARFORMEN UND HERMITESCHE FORMEN

2.Fall: β(a, a) = 0.Zuerst suchen wir einen Skalar λ 6= 0 mit β(λa+ v, λa+ v) 6= 0 . Es gilt

β(λa+ v, λa+ v) = λ2β(a, a) + λβ(a, v) + λβ(v, a) + β(v, v)

= 2λβ(a, v) + β(v, v)

wegen β(a, a) = 0 und β(a, v) = β(v, a).Falls 2β(a, v) = 0, so wahle λ = 1.Falls 2β(a, v) 6= 0, so gilt insbesondere 2 6= 0. Dann hat der Korper K mindestens 3 ver-

schiedene Elemente, enthalt also ein λ ∈ K \{0,− β(v, v)2β(a, v)

} . Dieses λ erfullt die gewunschte

Bedingung.Nach Fall 1 gilt nun β(λa+ v, b) = β(b, λa+ v) , also λβ(a, b) + β(v, b) = λβ(b, a) + β(b, v) .Wegen β(v, b) = β(b, v) und λ 6= 0 folgt schließlich β(a, b) = β(b, a). �

Deshalb werden wir uns in diesem Abschnitt nur mit solchen Formen beschaftigen.In der Theorie der Endomorphismen eines Vektorraums V spielt der Unterraum ker(ϕ) ={v ∈ V | ϕ(v) = o} eine wichtige Rolle. Ein Analogon zu diesem Begriff wird der Kern derAusartung einer Bilinearform sein.

Definition: orthogonal, isotrop, Kern der AusartungEs sei β eine symmetrische oder schiefsymmetrische Bilinearform oder eine hermitesche Formauf V .

(a) v, w ∈ V sind orthogonal bezugl. β, wenn β(v, w) = 0 gilt.(b) v ∈ V ist isotrop bezugl. β, wenn β(v, v) = 0 gilt.(c) Die Form β heißt anisotrop, wenn kein Vektor v 6= o isotrop bezuglich β ist.(d) Ein Unterraum U von V heißt vollisotrop bezugl. β, wenn jeder Vektor u ∈ U isotrop

bezugl. β ist.(e) Ein Unterraum U von V heißt total isotrop bezugl. β, wenn die Einschrankung von β

auf U die Nullform ist.(f) Rad(β) = {v ∈ V | β(v, w) = 0 fur alle w ∈ V } heißt Kern der Ausartung von β

oder Radikal von β.Ein Vektor v liegt also genau dann im Kern der Ausartung, wenn er bezuglich βorthogonal zu allen Vektoren von V ist.

(g) β heißt ausgeartet, wenn der Kern der Ausartung nicht nur den Nullvektor enthalt.

Wir charakterisieren zunachst die ausgearteten Formen:

(11.4.2 ) Lemma Es sei V ein Vektorraum der endlichen Dimension n, und β sei ei-ne symmetrische oder schiefsymmetrische Bilinearform oder eine hermitesche Form auf V .Dann sind aquivalent:

(a) β ist ausgeartet;(b) rang(β) < n ;(c) die Strukturmatrix von β bezuglich einer beliebigen Basis von V ist singular.

Beweis: Die Aquivalenz von (b) und (c) ist klar nach der Definition des Rangs und (11.2.3).Sei nun ei der i-te Standard-Einheitsvektor, und B die Strukturmatrix von β bezuglich einer

Page 250: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.4 Orthogonalitat 247

fest gewahlten Basis von V . Fur eine Bilinearform erhalten wir dann die folgende Kette vonAquivalenzen:

β ist ausgeartet

⇐⇒ ∃ v 6= o : ∀ w ∈ V : vTBw = 0

⇐⇒ ∃ v 6= o : ∀ 1 ≤ i ≤ n : vTBei = 0

⇐⇒ ∃ v 6= o : ∀ 1 ≤ i ≤ n : (vTB)i = 0 (i-te Koordinate des Zeilenvektors vTB)

⇐⇒ ∃v 6= o : vTB = 0

⇐⇒ ∃v 6= o : BTv = 0

⇐⇒ rang(BT ) < n ⇐⇒ rang(B) < n .

Im Fall einer hermiteschen Form starten wir mit der Gleichung vTBw = 0 fur ein festesv 6= o und alle w ∈ V . Der j-te Einheitsvektor ej enthalt nur Eintrage 0 und 1. Als gilt ej =ej, und wir haben vTBej = 0 fur das feste v 6= o und alle 1 ≤ j ≤ n. Nun gelte umgekehrtvTBej = 0 fur alle 1 ≤ j ≤ n. Ein beliebiger Vektor w ∈ V laßt sich schreiben in der Formw =

∑nj=1 wjej mit komplexen Skalaren wj. Es gilt w =

∑nj=1 wjej, also

vTBw = vTB(n∑j=1

wjej) =n∑j=1

wj(vTBej) = 0 .

Jetzt geht es weiter wie bei den Bilinearformen. Damit ist auch die Aquivalenz von (a) und(b) gezeigt. �

Nun betrachten wir die isotropen Vektoren bezuglich einer Form β.

(11.4.3) Beispiele1. Eine nicht-ausgeartete, symmetrische Bilinearform kann durchaus isotrope Vektoren 6= o

besitzen:Es sei V = R

2 und die Bilinearform β sei bezuglich der Standard-Basis von V beschrieben

durch die Matrix B =(

1 00 −1

). Dann ist β nach (11.4.2) eine symmetrische, nicht-

ausgeartete Bilinearform von V .

Wegen (1, 1)(

1 00 −1

)(11

)= (1, 1)

(1−1

)= 0 ist

(11

)ein bezuglich β isotroper

Vektor von V .2. Es kann passieren, daß alle Vektoren v ∈ V isotrop bezuglich einer symmetrischen Bilinear-

form β sind, obwohl β nicht die Nullform ist:Es sei V ein Vektorraum der Dimension 2 uber dem Korper K = GF (2) mit 2 Elementen

und β beschrieben durch die Strukturmatrix B =(

0 11 0

). Dann gilt

β(v, v) = (v1, v2)(

0 11 0

)(v1

v2

)= v1v2 + v2v1 = 2v1v2 = 0

fur jeden Vektor v = (v1, v2)T ∈ V .3. Es sei V der Vektorraum der reellen Polynome vom Grad ≤ 2 mit der geordneten Basis

(1, x, x2). Durch

β(p, q) =∫ 1

0p(x)q(1− x)dx

Page 251: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

248 11 BILINEARFORMEN UND HERMITESCHE FORMEN

wird eine symmetrische, nicht-ausgeartete Bilinearform mit der Strukturmatrix

A =160

60 30 2030 10 520 5 2

definiert.Die Bilinearitat folgt aus den Linearitatseigenschaften des Integrals, die Symmetrie erhaltman mit der Substitutionsregel:

β(q, p) =∫ 1

0q(x)p(1− x)dx

=∫ 0

1q(1− z)p(z)(−1)dz (Substitution z = 1− x)

=∫ 1

0p(z)q(1− z)dz = β(p, q) .

Die Eintrage der Strukturmatrix A errechnen sich aus

aij = β(xi−1, xj−1) =∫ 1

0xi−1(1− x)j−1dx .

Die Strukturmatrix hat die Determinante −100/(603) 6= 0, also ist β nicht-ausgeartet.Besitzt V bezuglich β isotrope Vektoren 6= o? Fur ein konstantes Polynom p = α0 giltβ(p, p) =

∫ 10 α

20dx = α2

0 6= 0 fur α0 6= 0. Also machen wir einen Ansatz p = α0 + α1x fur einlineares Polynom und erhalten die Bedingung

0 = β(p, p) = α20 + α0α1 +

16α2

1 .

Eine Losung ist zum Beispiel α1 = 6 , α0 = −3 +√

3 .

Wenn alle Vektoren v ∈ V isotrop bezuglich der Form β sind, so muß zwar β nicht dieNullform sein, aber diese Beispiele sind sehr selten, denn es gilt:

(11.4.4 ) Lemma Es sei U ein Unterraum des K-Vektorraums V . Weiter sei K ⊆ C

und β eine hermitesche Form auf V , oder es sei char(K) 6= 2 und β eine symmetrischeBilinearform auf V . Dann sind aquivalent:

(i) U ist total isotrop bezuglich β;(ii) U ist vollisotrop bezuglich β.

Beweis: Die Implikation (i) =⇒ (ii) ist trivial. Fur die Umkehrung nehmen wir beliebigeVektoren v, w ∈ U und berechnen

β(v + w, v + w) = β(v, v) + β(v, w) + β(w, v) + β(w,w) .

Wegen der Isotropie aller Vektoren in U haben wir β(v+w, v+w) = β(v, v) = β(w,w) = 0,also β(v, w) + β(w, v) = 0.Ist β eine symmetrische Bilinearform, so folgt 2β(v, w) = β(v, w)+β(w, v) = 0, also β(v, w) =0 wegen 2 6= 0 (das ist die Voraussetzung char(K) 6= 2).

Page 252: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.4 Orthogonalitat 249

Ist β eine hermitesche Form, so ist K = C der Skalarenkorper. Wie vorher haben wir0 = β(v, w) + β(w, v), also 0 = β(v, w) + β(v, w) = 2Re(β(v, w)). Folglich gibt es nicht zuallen komplexen Zahlen z Vektoren v, w ∈ V mit β(v, w) = z. Nach (11.3.6) ist dann β dieNullform. �

Jetzt wenden wir uns dem Kern der Ausartung zu. Sein Name legt nahe, daß er ein Unter-raum von V ist. Daß dies tatsachlich so ist, folgt sofort aus der Linearitat von β bezuglichdes ersten Arguments.

(11.4.5) Korollar Rad(β) ist ein Unterraum von V .

Den Kern der Ausartung und seine Dimension konnen wir im Falle endlicher Dimension vonV aus der Strukturmatrix von β ablesen:

(11.4.6) Lemma Kern der AusartungEs sei V ein Vektorraum endlicher Dimension n, und β sei eine symmetrische oder schief-symmetrische Bilinearform oder eine hermitesche Form auf V .

(a) Rad(β) = Kern(BT ).(b) dim(Rad(β)) = n− rang(β) .

Beweis: Aus dem Beweis zu (11.4.2) konnen wir ablesen, daß v genau dann in Rad(β) liegt,wenn BTv = o ist, also wenn v im Kern der Matrix BT liegt. Die Aussage (b) folgt dann aus(a) wegen rang(BT ) = rang(B) und dem Dimensionssatz (2.1.7) fur lineare Abbildungen. �

Das Gaußsche Eliminationsverfahren (3.3.4) zur Berechnung des Kerns einer Matrix liefertalso ein Verfahren zur Berechnung des Kerns der Ausartung:

(11.4.7) Beispiel Berechnung des Kerns der AusartungWir berechnen den Kern der Ausartung der durch die Strukturmatrix

B =

1 0 1 10 0 0 01 0 1 11 0 1 2

definierten Bilinearform β auf V = R

4. Wegen BT = B bestimmen wir dazu nach der Methode(3.3.4) den Kern der Matrix B:

1 0 1 10 0 0 01 0 1 11 0 1 2

[3]−[1]

[4]−[1]

[2]↔[4]

1 0 1 10 0 0 10 0 0 00 0 0 0

S[2]↔S[4]

[1]↔[2]

1 0 1 00 1 0 00 0 0 00 0 0 0

Nach Ruckgangigmachen der Spaltenvertauschung S[2]↔ S[4] erhalten wir das ErgebnisRad(β) = 〈(−1, 0, 1, 0)T , (0, 1, 0, 0)T 〉 .

Page 253: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

250 11 BILINEARFORMEN UND HERMITESCHE FORMEN

Definition: orthogonales KomplementEs sei V ein Vektoraum und β eine symmetrische oder schiefsymmetrische oder eine hermi-tesche Form auf V . Weiter sei M ⊆ V .

M⊥ := {v ∈ V | β(v, w) = 0 fur alle w ∈M}

heißt das orthogonale Komplement von M in V .

Das orthogonale Komplement M⊥ ist immer ein Unterraum von V , auch wenn M keinUnterraum ist:

(11.4.8 ) Lemma Es sei V ein Vektorraum (beliebiger Dimension) uber K und β einesymmetrische oder schiefsymmetrische Bilinearform oder eine hermitesche Form auf V .

(a) Fur Teilmengen M1 ⊆M2 von V gilt M⊥1 ⊇M⊥

2 .(b) Fur jede Teilmenge M von V ist M⊥ ein Unterraum von V .(c) Fur jede Teilmenge M von V gilt M⊥ = 〈M〉⊥.(d) Sind v1, . . . , vk beliebige Vektoren aus V , so gilt

〈v1, . . . , vk〉⊥ = 〈v1〉⊥ ∩ . . . ∩ 〈vk〉⊥ .

Beweis: Fur einen Skalar λ ∈ K bedeute λ = λ im Fall einer hermiteschen Form und λ = λsonst.

(a) ist klar nach der Definition.(b) folgt sofort aus der Linearitat von β bezuglich des ersten Arguments.(c) Nach (a) haben wir 〈M〉⊥ ⊆ M⊥ . Umgekehrt gibt es fur jedes w ∈ 〈M〉 endlich viele

Vektoren m1, . . . ,mk ∈ M und Skalare λ1, . . . , λk ∈ K mit w =∑

i=1 λimi . Liegt

v in M⊥, so folgt β(v, w) = β(v,∑

i=1 λimi) =∑

i=1 λiβ(v,mi) = 0 . Das zeigt dieumgekehrte Inklusion.

(d) Aus v ∈ 〈v1, . . . , vk〉⊥ folgt β(v, vi) = 0 fur alle i, also v ∈ 〈v1〉⊥ ∩ . . . ∩ 〈vk〉⊥ .Gilt v ∈ 〈v1〉⊥ ∩ . . . ∩ 〈vk〉⊥ , so erhalten wir fur alle α1, . . . , αn ∈ K

β(v,k∑i=1

αivi) =k∑i=1

αiβ(v, vi) = 0 ,

also v ∈ 〈v1, . . . , vk〉⊥ .�

Nun betrachten wir das orthogonale Komplement eines Unterraums U von V . Wie hangt dieDimension von U⊥ von der Dimension von U ab? Falls die Form β ausgeartet ist, konnenwir keine befriedigende Antwort auf diese Frage erwarten: wahlen wir etwa die Nullform(d.h. β(v, w) = 0 fur alle v, w ∈ V ), so gilt U⊥ = V fur jeden Unterraum von V . Alsobeschranken wir uns auf nicht-ausgeartete Formen.

(11.4.9) Satz Es sei V ein Vektorraum endlicher Dimension, U ein Unterraum von V ,und β eine symmetrische oder schiefsymmetrische Bilinearform oder eine hermitesche Formauf V . Ist β nicht-ausgeartet, so gilt:

(a) dim(U⊥) = dim(V )− dim(U)

Page 254: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.4 Orthogonalitat 251

(b) (U⊥)⊥ = U .(c) Ist auch die Einschrankung βU nicht-ausgeartet, so gilt V = U ⊕ U⊥ .

Beweis: Es sei dim(V ) = n und dim(U) = m.(a) Nach dem Basiserganzungssatz erganzen wir eine Basis (v1, . . . , vm) von U zu einer

Basis (v1, . . . , vn) von V . Der Vektor v =∑n

j=1 λjvj ∈ V liegt genau dann in U⊥, wenn

0 = β(v, vk) =n∑j=1

λjβ(vj, vk) fur alle 1 ≤ k ≤ m

gilt. Hier wird die Linearitat von β im ersten Argument benutzt. Bilden wir die(n×m)-Matrix A = (β(vj, vk)) 1≤j≤n

1≤k≤m, so ist die obige Bedingung aquivalent zu

oT = (λ1, . . . , λn)A , also AT

λ1...λn

= o .

Die Losungsmenge dieses Gleichungssystems ist der Kern von AT , also nach dem Di-mensionssatz (2.1.7) ein Unterraum der Dimension n − rang(AT ) = n − rang(A) vonV . Jetzt ist also rang(A) = m zu zeigen.Da A eine (n×m)-Matrix ist, kann ihr Rang jedenfalls nicht großer als m werden. Wirnehmen an, die m Spalten von A seien linear abhangig. Dann gabe es µ1, . . . , µm ∈ K,nicht alle 0, mit

∑mk=1 µkβ(vj, vk) = 0 fur alle 1 ≤ j ≤ n.

Zur Abkurzung schreiben wir µk = µk, falls β bilinear, und µk = µk, falls β hermiteschist. Die Semilinearitat von β bezuglich des zweiten Arguments liefert dann

0 = β(vj,m∑k=1

µkvk) fur alle 1 ≤ j ≤ n .

Der Vektor w =∑m

k=1 µkvk 6= o steht dann senkrecht auf allen Basisvektoren von V ,liegt also in Rad(β). Das ist ein Widerspruch gegen die Nicht-Ausgeartetheit von β.Also gilt rang(A) = m und dim(U⊥) = n−m.

(b) Offensichtlich gilt U ⊆ (U⊥)⊥ . Weiter gilt nach (a)

dim((U⊥)⊥

)= n− dim(U⊥) = n− (n− k) = k = dim(U) ,

also folgt die Behauptung.(c) Wegen der Nicht-Ausartung von βU gilt U ∩ U⊥ = {o} , also

dim(U + U⊥) = dim(U) + dim(U⊥)− dim(U ∩ U⊥) = m+ (n−m)− 0 = n .

Aus (U + U⊥) ⊆ V und der Endlichkeit von dim(V ) folgt damit U + U⊥ = V . �

Wenn man in (11.4.9) die Voraussetzung weglaßt, daß β nicht-ausgeartet ist, so wird aus derGleichung in (a) eine Ungleichung:

Page 255: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

252 11 BILINEARFORMEN UND HERMITESCHE FORMEN

(11.4.10) Korollar Es sei V ein Vektorraum endlicher Dimension, U ein Unterraum vonV , und β eine symmetrische oder schiefsymmetrische Bilinearform oder eine hermitescheForm auf V . Dann gilt dim(U⊥) ≥ dim(V )− dim(U).

(11.4.11) Korollar Es seien U und W Unterraume des Vektorraums V , und β sei ei-ne symmetrische oder schiefsymmetrische Bilinearform oder eine hermitesche Form auf V .Dann gilt:

(a) (U +W )⊥ = U⊥ ∩W⊥ ;(b) (U ∩W )⊥ = U⊥ +W⊥ , falls β nicht-ausgeartet ist und V endliche Dimension hat.

Der Beweis dieser beiden Folgerungen ist dem Leser uberlassen.

(11.4.12) Beispiele orthogonales Komplement eines Unterraums(a) Es sei V = C

3, und die hermitesche Form β sei beschrieben durch die Strukturmatrix

B =

0 i 0−i 0 1

0 1 1

.

Außerdem wahlen wir den Vektor u = (1, 2, 1)T und den Unterraum U = 〈u〉.Jetzt berechnen wir das orthogonale Komplement U⊥. Fur einen Vektor v = (v1, v2, v3)T ∈C

3 gilt

v ∈ U⊥ ⇐⇒ β(v, u) = 0⇐⇒ (v1, v2, v3)B

121

= 0⇐⇒ 2iv1 + (1− i)v2 + 3v3 = 0 .

Die Losungsmenge dieser Gleichung ist der zweidimensionale Unterraum

U⊥ = {

v1

v2

−13(2iv1 + (1− i)v2)

| v1, v2 ∈ C} = 〈

3i02

,

03 + 3i−2

〉 .(b) Eine nicht-ausgeartete Bilinearform β auf V kann durchaus eine ausgeartete Einschrankung

βU auf einen Unterraum U von V haben:

Wahlt man etwa V und β wie in Beispiel (11.4.3.1), so ist der Unterraum U = 〈(

11

)〉

identisch mit seinem orthogonalen Komplement U⊥. Hier ist also βU die Nullform, und Vist nicht die direkte Summe von U und U⊥.Die Zusatzvoraussetzung in (11.4.9.c) kann daher nicht weggelassen werden.

(c) Es sei V = R3, und die Bilinearform Form β sei beschrieben durch die Strukturmatrix

B =

1 0 −10 −1 0−1 0 1

.

Außerdem wahlen wir die Vektoren u1 = (1, 1, 0)T , u2 = (0, 0, 1)T und w1 = (1, 0, 0)T , w2 =(0, 0, 1)T . Jetzt berechnen die die orthogonalen Komplemente der Unterraume U = 〈u1, u2〉

Page 256: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.4 Orthogonalitat 253

undW = 〈w1, w2〉: Dazu bestimmen wirBu1 = (1,−1,−1)T , Bu2 = Bw2 = (−1, 0, 1), Bw1 =(1, 0,−1). Daraus folgt zuerst

β(u1, u1) = (1, 1, 0)(1,−1,−1)T = 0β(u2, u2) = (0, 0, 1)(−1, 0, 1)T = 1β(u1, u2) = β(u2, u1) = (1, 1, 0)(−1, 0, 1)T = −1 .

Die Strukturmatrix der Einschrankung βU auf den Unterraum U bzgl. der Basis (u1, u2) ist

BU =(

0 −1−1 1

)und folglich regular. Die Bilinearform βU ist also nicht ausgeartet. Ein Vektor v = (v1, v2, v3)T

liegt genau dann in U⊥, wenn seine Komponenten die Gleichungen

0 = vTBu1 = (v1, v2, v3)(1,−1,−1)T = v1 − v2 − v3 und0 = vTBu2 = (v1, v2, v3)(−1, 0, 1)T = −v1 + v3

erfullen. Addiert man die zweite Gleichung zur ersten, so erhalt man v2 = 0. Damit folgt

U⊥ = {(v1, v2, v3)T | v2 = 0 und v3 = v1} = 〈(1, 0, 1)T 〉 .

Die Vektoren u1, u2, (1, 0, 1)T sind offensichtlich linear unabhangig. Daher gilt V = U ⊕U⊥.Analog berechnet man β(w1, w1) = β(w2, w2) = 1 und β(w1, w2) = β(w2, w1) = −1 . DieStrukturmatrix der Einschrankung βW auf W bezuglich der Basis (w1, w2) lautet somit

BW =(

1 −1−1 1

).

Diese Matrix ist singular, also ist βW ausgeartet. Die Bestimmungsgleichungen fur W⊥

lauten

0 = vTBw1 = (v1, v2, v3)(1, 0,−1)T = v1 − v3 und0 = vTBw2 = (v1, v2, v3)(−1, 0, 1)T = −v1 + v3 .

Es ist also nur die Bedingung v3 = v1 zu erfullen, und

W⊥ = 〈(1, 0, 1)T , (0, 1, 0T )〉 .

Nun ist dim(W ) + dim(W⊥) = 4 > 3 = dim(V ), und W und W⊥ haben den nichttrivialenDurchschnitt 〈(1, 0, 1)T 〉.

In (11.4.12.b) haben wir gesehen, daß das orthogonale Komplement U⊥ von U bezuglich einerForm β nicht immer ein Komplement des Unterraums U in V sein muß, das heißt, es gilt nichtimmer V = U⊕U⊥. Daher stellt sich die Frage, wann das orthogonale Komplement wirklichein Komplement ist. Eine hinreichende Bedingung im Falle eines endlich-dimensionalenVektorraums V steht in (11.4.9.c). Mit Hilfe des Dualraums kann man zeigen, daß dieseBedingung auch notwendig ist. Fur diese Charakterisierung muß man nur die Endlichkeitder Dimension von U , nicht die Endlichkeit der Dimension von V voraussetzen:

Page 257: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

254 11 BILINEARFORMEN UND HERMITESCHE FORMEN

(11.4.13)* Satz Es sei U ein endlich-dimensionaler Unterraum des Vektorraums V . Wei-ter sei β eine symmetrische oder schiefsymmetrische Bilinearform oder eine hermitescheForm von V . Dann sind aquivalent:

(i) Die Einschrankung von β auf U ist nicht-ausgeartet.(ii) U ∩ U⊥ = {o}.(iii) V = U ⊕ U⊥.

Beweis: Die Einschrankung von β auf U ist eine symmetrische Bilinearform, bzw. einehermitesche Form auf U und werde mit βU bezeichnet.(i)→ (iii) : Jedes u ∈ U∩U⊥ liegt im Kern der Ausartung von βU . Daher gilt U∩U⊥ = {o}.Jetzt muß noch V = U+U⊥ gezeigt werden. Wegen der Linearitat von β im ersten Argumentist fur jedes u ∈ U die Abbildung

τu : U → K , τu(x) = β(x, u)

eine Linearform von U .(Fur eine Bilinearform β ist die Abbildung u 7→ τu sogar eine lineare Abbildung von U inseinen Dualraum U∗, fur eine hermitesche Form β ist diese Abbildung jedoch nur semi-linear,das heißt τλu1+µu2 = λτu1 + µτu2 .)Wir zeigen nun, daß τ(U) = U∗ gilt.Es sei u1, . . . , uk eine Basis von U . Waren die Linearformen τu1 , . . . , τun linear abhangig imDualraum U∗, so gabe es λ1, . . . , λn ∈ K, nicht alle 0, so daß

∑kj=1 λjτuj die Nullform auf U

ist. Insbesondere wurde

0 =k∑j=1

λjτuj(ul) =k∑j=1

λjβ(ul, uj)

gelten fur alle l ∈ {1, . . . , n}. Dies ist gleichwertig mit

BU

(λ1, . . . , λk

)= o ,

wobei BU die Strukturmatrix von β auf U bedeutet. Nach der Voraussetzung ist βU nichtausgeartet, also BU regular. Damit folgt jedoch λ1 = . . . = λk = 0, ein Widerspruch.Wegen dim(U) <∞ ist dim(U∗) = dim(U), also U∗ = 〈τu1 , . . . , τun〉 . Eine beliebige Linear-form σ ∈ U∗ kann daher geschrieben werden als Linearkombination

σ =k∑j=1

λjτuj = τ∑kj=1 λjuj

,

wobei wieder λ = λ ist, falls β bilinear und λ = λ, falls β hermitesch ist. In beiden Fallenliegt der Vektor

∑kj=1 λjuj naturlich in U . Also ist σ = τu fur ein geeignetes u ∈ U .

Nun sei v ∈ V beliebig gewahlt. Dann ist

σ : U → K , σ(x) = β(x, v)

ebenfalls eine Linearform von U . Nach der Voruberlegung gibt es ein u ∈ U mit σ = τu. Furalle x ∈ U gilt β(x, v − u) = β(x, v) − β(x, u) = σ(x) − τu(x) = 0 , also v − u ∈ U⊥, undschließlich v = u+ (v − u) ∈ U + U⊥.(iii)→ (ii) und (ii)→ (i) sind klar. �

Page 258: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.4 Orthogonalitat 255

* Induzierte Formen auf Faktorraumen.

Der Rest dieses Abschnitts handelt davon, wie Bilinearformen und hermitesche Formen aufFaktorraumen wirken.

Der Kern U eines Endomorphismus ϕ von V ist ein ϕ-invarianter Unterraum von V , und ϕinduziert auf dem Faktorraum V/U einen Endomorphismus ϕ∗ durch die Vorschrift

ϕ∗(v + U) = ϕ(v) + U

(vgl. Abschnitt 3.5*). Auf analoge Weise kann man eine Form β auf dem FaktorraumV/Rad(β) eine Bilinearform β∗ induzieren lassen:

(11.4.14)* Satz Es sei V ein Vektorraum und β eine symmetrische Bilinearform (hermi-tesche Form) von V . Wir setzen R = Rad(β). Dann wird durch

β∗(v +R,w +R) := β(v, w)

eine nicht-ausgeartete, symmetrische Bilinearform (hermitesche Form) β∗ : V/R → Kdefiniert.

Beweis: β∗ ist wohldefiniert: Fur v, w ∈ V und r1, r2 ∈ R gilt

β(v + r1, w + r2) = β(v, w + r2) + β(r1, w + r2)

= β(v, w) + β(v, r2) + β(r1, w) + β(r1, r2)

= β(v, w) + 0 + 0 + 0 = β(v, w) .

Der Wert von β∗(v + R,w + R) hangt also nur von den Nebenklassen v + R,w + R, nichtvon den gewahlten Vertretern v, w ab.Die Bilinearitat und Symmetrie (bzw. Hermitizitat) von β∗ folgt aus den entsprechendenEigenschaften von β und den Gesetzen fur das Rechnen mit Nebenklassen.β∗ ist nicht ausgeartet: Liege v + R im Kern der Ausartung von β∗. Dann folgt β(v, w) =β∗(v +R,w +R) = 0 fur alle w ∈ V , also v ∈ R und damit v +R = R = oV/R . �

Dagegen kann der von einem Endomorphismus ϕ auf dem Faktorraum V/ ker(ϕ) induzierteEndomorphismus ϕ∗ durchaus einen nichttrivialen Kern haben:

(11.4.15 ) Beispiel Es sei K ein beliebiger Korper, V = K2, und ϕ =(

0 10 0

). Dann

ist U = 〈(

10

)〉 der Kern von ϕ, und die von ϕ auf V/U induzierte Abbildung ϕ∗ ist die Null-

Abbildung, denn V/U = 〈(

01

)+U〉 , und ϕ∗

(( 01

)+U

)= ϕ

(01

)+U =

(10

)+U = U =

oV/U .

Page 259: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

256 11 BILINEARFORMEN UND HERMITESCHE FORMEN

11.5 Kongruente Diagonalisierung

Voraussetzungen an den Skalarenkorper: In diesem Abschnitt ist immer V einendlich-dimensionaler Vektorraum uber dem Korper K und char(K) 6= 2 und β eine sym-metrische Bilinearform, oder K = C und β eine hermitesche Form

Wie bei linearen Abbildungen kann man die Strukturmatrizen einer Form β dadurch verandern,daß man die Basis des Vektorraums wechselt. In den Kapiteln 5 und 6 haben wir versucht,zu einem vorgegebenen Endomorphismus ϕ des endlich-dimensionalen Vektorraums V einegeeignete Basis von V zu konstruieren, so daß die Matrix von ϕ moglichst

”einfach“ wird.

Das Ergebnis war die Jordan-Normalform.Das analoge Problem soll in diesem Abschnitt fur symmetrische Bilinearformen und hermi-tesche Formen, und in Abschnitt 11.7 fur schiefsymmetrische Bilinearformen gelost werden.Der Leser braucht jedoch keineswegs zu befurchten, daß sich der Aufwand der Kapitel 5 und6 wiederholt. Das Normalformenproblem fur die genannten Formen ist viel einfacher.

(11.5.1) Satz kongruente DiagonalisierungEs sei V ein endlich-dimensionaler Vektorraum uber dem Korper K. Weiter sei char(K) 6= 2und β eine symmetrische Bilinearform, oder K = C und β eine hermitesche Form.Dann gibt es eine Basis (b1, . . . , bk, bk+1, . . . , bn) von V , bezuglich derer die Strukturmatrixvon β eine Diagonalmatrix B = diag(λ1, . . . , λk, 0, . . . , 0) ist mit λi 6= 0 fur i ≤ k.Ist β hermitesch, so ist B eine reelle Diagonalmatrix.

Beweis: Falls V vollisotrop ist, so ist β die Nullform, hat also die Nullmatrix als Struktur-matrix fur jede Basis von V .Nun sei β nicht die Nullform. Dann gibt es einen Vektor b1 ∈ V mit λ1 = β(b1, b1) 6= 0. Wirwahlen nun b1 als ersten Basisvektor und definieren die neue Basis induktiv:Dazu nehmen wir an, wir hatten bereits linear unabhangige Vektoren b1, . . . , bm gefundenmit β(bj, bh) = 0 fur alle j, h ≤ m, j 6= h und β(bj, bj) 6= 0 fur alle j ≤ m. Es seiVm = 〈b1, . . . , bm〉. Die Strukturmatrix der Einschrankung βVm von β auf Vm ist dann offen-sichtlich die Diagonalmatrix BVm = diag(λ1, . . . , λm) mit λj = β(bj, bj) 6= 0 fur alle j ≤ m.Deswegen ist BVm eine regulare Matrix, also die Bilinearform βVm nicht ausgeartet. Nach(11.4.13) folgt V = Vm ⊕ V ⊥m .Falls nun die Einschrankung βV ⊥m von β auf V ⊥m die Nullform ist, so kann man eine beliebigeBasis (bm+1, . . . , bn) von V ⊥m wahlen, und die Basis (b1, . . . , bn) von V hat die gewunschtenEigenschaften. In diesem Falle gilt k = m.Andernfalls findet man einen Vektor bm+1 ∈ V ⊥m mit λm+1 = β(bm+1, bm+1) 6= 0. NachKonstruktion von bm+1 ist {b1, . . . , bm+1} wieder linear unabhangig mit β(bj, bj) = 0 fur allej 6= h und β(bj, bj) 6= 0 fur alle j. Damit ist der Induktionsschritt fertig. Die Diagonalele-mente von B sind die Werte β(bj, bj). Diese sind reell im Falle einer hermiteschen Form βnach (11.3.1,c). �

(11.5.2) Beispiele Kongruente Diagonalisierung(a) Es sei β die durch die Strukturmatrix

B =

1 0 −10 −1 0−1 0 1

Page 260: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.5 Kongruente Diagonalisierung 257

definierte symmetrische Bilinearform auf R3. Die Matrizen

S =

1 −1 10 1 02 −1 1

und R =

1√2

0 − 1√2

0 1 01√2

0 1√2

sind beide regular, und es gilt

STBS =

1 0 00 −1 00 0 0

und RTBR =

0 0 00 −1 00 0 2

.

Die Diagonalform vonB ist also nicht eindeutig bestimmt. Ist eine der beiden Diagonalformenin irgendeiner Hinsicht ”besser“ als die andere? Das ist tatsachlich der Fall: Wegen RTR = Egilt RT = R−1. Die zu B kongruente Matrix RTBR ist also sogar ahnlich zu B, die MatrixSTBS dagegen nicht.

(b) Es sei γ die durch die Strukturmatrix C =(

2 3i−3i 5

)definierte hermitesche Form auf C3.

Fur Q =(−i 2−1 −i

)gilt QTCQ =

(1 00 1

).

Der Beweis von (11.5.1) laßt sich direkt in einen Algorithmus zur Berechnung der Basistrans-formation fur die Diagonalisierung der Strukturmatrix umsetzen. Bevor wir dies tun, solljedoch angemerkt werden, daß die kongruente Diagonalisierung viel mehr eine theoretischeals eine praktische Bedeutung hat. In (11.5.2,a) haben wir gesehen, daß die entstehen-de Diagonalmatrix nicht eindeutig bestimmt ist, im Gegensatz etwa zur Eindeutigkeit derJordan-Normalform. Der Algorithmus wird im Allgemeinen eine Transformationsmatrix S

liefern mit S−1 6= ST (bzw. S−1 6= ST

im hermiteschen Fall). Das bedeutet, daß die neueMatrix nicht ahnlich ist zur alten. Hat man jedoch eine symmetrische Bilinearform uber Roder eine hermitesche Form uber C mit einer gewissen Zusatzeigenschaft 29, so kann manmit Hilfe des einfachen Orthonormalisierungs-Verfahren (12.2.2) von Gram/Schmidt einekongruente Diagonalisierung durchfuhren, die gleichzeitig eine Ahnlichkeitstransformationist.Die kongruente Diagonalisierung im allgemeinen Fall wird jedoch deshalb besprochen, weilim Laufe des Algorithmus zwei Verfahren verwendet werden, die selbst interessant sind: ImFall βVm 6= 0 mussen wir einen nicht-isotropen Vektor in Vm finden und das orthogonaleKomplement V ⊥m berechnen.Das Auffinden eines nicht-isotropen Vektors ist im Beweis von (11.4.4) beschrieben. MitHilfe der Strukturmatrix erhalten wir folgendes Resultat:

(11.5.3) Lemma nicht-isotroper VektorEs sei V ein endlich-dimensionaler Vektorraum uber dem Korper K. Weiter sei char(K) 6= 2und β eine symmetrische Bilinearform, oder K = C und β eine hermitesche Form.Es sei (b1, . . . , bn) eine Basis von V und B = (βjk)j,k) die zu dieser Basis gehorige Struktur-matrix von β.

(i) Ist βjj 6= 0 fur ein j ≤ n, so ist der Basisvektor bj nicht isotrop.

29positiv definite Form, vgl. Abschnitt 11.6

Page 261: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

258 11 BILINEARFORMEN UND HERMITESCHE FORMEN

(ii) Die Diagonalelemente von B seien alle 0, aber βjk 6= 0 fur ein Paar (j, k).Ist β bilinear, so ist bj + bk nicht isotrop.Ist β hermitesch, so ist bj + bk oder bj + ibk nicht isotrop.

Beweis: (i) ist klar wegen βjj = β(bj, bj). Fur (ii) kann man ohne Einschrankung j < kannehmen.Zunachst sei β eine symmetrische Bilinearform. Wegen des Verschwindens der Diagonalele-mente von B und wegen 2 6= 0 gilt

β(bj + bk, bj + bk) = 2β(bj, bk) = 2βjk 6= 0 .

Im hermiteschen Fall gilt β(bk, bj) = β(bj, bk), also

β(bj + bk, bj + bk) = β(bj, bk) + β(bj, bk) = 2Re(βjk) und

β(bj + ibk, bj + ibk) = β(bj, ibk) + β(ibk, bj) = −i(βjk − βjk) = 2Im(βjk) .

Wegen βjk 6= 0 konnen Re(βjk) und Im(βjk) nicht gleichzeitig verschwinden, also ist minde-stens einer der beiden angegebenen Vektoren nicht isotrop. �

Das folgende Lemma liefert einen Algorithmus zur Berechnung des orthogonalen Komple-ments eines Unterraums U , der die Eigenschaft hat, daß die Einschrankung βU nicht ausge-artet ist.

(11.5.4) Lemma orthogonales KomplementEs sei V ein endlich-dimensionaler Vektorraum uber dem Korper K. Weiter sei char(K) 6= 2und β eine symmetrische Bilinearform, oder K = C und β eine hermitesche Form.Es sei (b1, . . . , bm) eine Basis des Unterraums U von V mit β(bj, bh) = 0 fur j 6= h undλj = β(bj, bj) 6= 0 fur j ≤ m.Schließlich sei (v1, . . . , vn) eine Basis von V und

wh = vh −m∑j=1

β(vh, bj)λ−1j bj fur 1 ≤ h ≤ n .

Dann ist {w1, . . . , wn} ein Erzeugendensystem fur das orthogonale Komplement U⊥.

Beweis: Wir zeigen zuerst, daß alle wh im Komplement U⊥ liegen. Fur alle h ≤ n undk ≤ m gilt

β(wh, bk) = β(vh −m∑j=1

β(vh, bj)λ−1j bj, bk)

= β(vh, bk)−m∑j=1

β(vh, bj)λ−1j β(bj, bk)

= β(vh, bk)− β(vh, bk)λ−1k β(bk, bk) = 0 .

Page 262: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.5 Kongruente Diagonalisierung 259

Hierbei wird benutzt, daß auch eine hermitesche Form linear im ersten Argument ist.Nun ist noch zu zeigen, daß ein beliebig gewahlter Vektor v =

∑nh=1 µhvh ∈ U⊥ als Linear-

kombination der wh geschrieben werden kann. Wegen β(v, bj) = 0 fur alle j ≤ m gilt

v = v −m∑j=1

β(v, bj)λ−1j bj = v −

m∑j=1

β(n∑h=1

µhvh, bj)λ−1j bj

=n∑h=1

µhvh −m∑j=1

n∑h=1

µhβ(vh, bj)λ−1j bj =

n∑h=1

µhwh .

Auch hier haben wir die Linearitat von β im ersten Argument benutzt. �

Als Basis (v1, . . . , vn) in (11.5.4) kann man naturlich die Basis aus Standard-Einheitsvektorenverwenden. Macht man sich aber ein bißchen mehr Muhe und erganzt die Basis (b1, . . . , bm)mit Hilfe des Austauschsatzes von Steinitz zu einer Basis (b1, . . . , bm, vm+1, . . . , vn) von V ,so bilden die nach (11.5.4) berechneten Vektoren {wm+1, . . . , wn} sogar eine Basis von U⊥.In diesem Fall gilt namlich

wh = bh −m∑j=1

β(bh, bj)λ−1j bj = bh − β(bh, bh)λ

−1h bh = o fur 1 ≤ h ≤ m.

Wegen dim(U⊥) = n − dim(U) mussen dann die restlichen Vektoren {wm+1, . . . , wn} linearunabhangig sein.Ein Vorteil dieser Methode ist naturlich auch, daß die ersten m Vektoren wh nicht ausge-rechnet werden mussen.

(11.5.5) Algorithmus kongruente DiagonalisierungEingabe: Strukturmatrix B = (βj,k)j,k eine symmetrischen Bilinearform oder einer hermiteschenForm.Ausgabe: Basis B = (b1, . . . , bn) von V , bzw. eine Transformationsmatrix S, die in der j-ten Spalteden Vektor bj stehen hat, so daß die zu B gehorende Strukturmatrix von β eine Diagonalmatrixist.

1. Setze j := 1 , V0 := {o} , V ⊥0 := V , B(0) := B .

Setze w(0)k := ek fur k ≤ n.

2. (* Suche nicht-isotropen Vektor in V ⊥j−1 *)

Falls B(j−1) = O, gehe zu Schritt 7.

Falls ein k ≤ n−(j−1) existiert mit β(j−1)k,k 6= 0, so wahle den kleinsten solchen

Index k, setze bj := w(j−1)k und gehe zu Schritt 3.

Suche den minimalen Index k und dazu den minimalen Index l, so daß β(j−1)k,l 6= 0.

Setze b := w(j−1)k + w

(j−1)l .

Falls β bilinear, so setze bj := b und gehe zu Schritt 3.(Nun ist β hermitesch.)Falls β(b, b) 6= 0, so setze bj := b und gehe zu Schritt 3.

Setze bj := w(j−1)k + iw

(j−1)l . (Hier ist i die imaginare Einheit.)

3. Setze Vj := 〈b1, . . . , bj〉.

Page 263: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

260 11 BILINEARFORMEN UND HERMITESCHE FORMEN

4. (* Suche geeignete Basis von V *)Bestimme mit dem Steinitz-Algorithmus (3.3.6) eine Basis 30

(b1, . . . , bj) ∪ (ei | 1 ≤ i ≤ n , i /∈ {i1, . . . , ij})

von V .

5. (* Orthogonales Komplement V ⊥j *)Fur h ∈ {1, . . . , n} \ {i1, . . . , ij} berechne

wh := eh −j∑

k=1

β(eh, bk)β(bk, bk)−1bk .

Sortiere die auftretenden Indizes der Große nach und bilde so die Vektorenw

(j)1 , . . . , w

(j)n−j.

(Nun ist (w(j)1 , . . . , w

(j)n−j) eine Basis fur V ⊥j .)

6. (* Strukturmatrix B(j) von βV ⊥j*)

Setze β(j)i,k := β(w(j)

i , w(j)k ) fur i, k ≤ n− j.

Setze j := j + 1 und gehe zu Schritt 2.

7. (b1, . . . , bj−1, w(j−1)1 , . . . , w

(j−1)n−j+1) ist die gesuchte Basis. Stop.

(11.5.6) Beispiel Der Algorithmus wird angewendet auf die reelle symmetrische Bilinearformin Beispiel (11.5.2,a):

B(0) = B =

1 0 −10 −1 0−1 0 1

.

Schritt 1: j := 1, V0 := {o}, V ⊥0 := R3.

w(0)k := ek (Standard-Einheitsvektor) fur k ≤ 3.

Schritt 2 fur j = 1: B(0) 6= O.β

(0)1,1 = 1 , also b1 := e1 .

Schritt 3 fur j = 1: V1 = 〈e1〉 .Schritt 4 fur j = 1: Ersetze e1 durch b1(= e1), also i1 = 1. Neue Basis (e1, e2, e3) von V .Schritt 5 fur j = 1:

w2 := e2 − β(e2, e1)β(e1, e1)−1e1 =

010

, w3 := e3 − β(e3, e1)β(e1, e1)−1e1 =

101

Umnumerieren liefert w(1)1 = w2 , w

(1)2 = w3, also V ⊥1 = 〈

010

,

101

〉 .Schritt 6 fur j = 1:β(w(1)

1 , w(1)1 ) = −1 , β(w(1)

1 , w(1)2 ) = 0 , β(w(2)

1 , w(1)2 ) = 0 .

30Aus Schritt 4 fur j − 1 kennt man bereits i1, . . . , ij−1. Also muß man nur den Vektor bj fur einengeeigneten Standard-Einheitsvektor eij eintauschen.

Page 264: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.6 Definitheit, Skalarprodukte 261

(Wegen der Symmetrie von β braucht man β(w(2)2 , w

(1)1 ) nicht zu berechnen.)

B(1) =(−1 0

0 0

). j := 2.

Schritt 2 fur j = 2: B(1) 6= O.β

(1)1,1 = −1 , also b2 := w

(1)1 = e2 .

Schritt 3 fur j = 2: V1 = 〈b1, b2〉 = 〈e1, e2〉 .Schritt 4 fur j = 1: Ersetze e2 durch b2(= e2), also i2 = 2. Neue Basis (e1, e2, e3) von V .Schritt 5 fur j = 2:

w3 = e3 − β(e3, e1)β(e1, e1)−1e1 − β(e3, e2)β(e2, e2)−1e2 =

101

Umnumerieren liefert w(2)1 = w3, also V ⊥1 = 〈

101

〉 .Schritt 6 fur j = 2:β(w(2)

1 , w(2)1 ) = 0 . B(2) =

(0). j := 3.

Schritt 2 fur j = 3: B(1) = O, also gehe zu Schritt 7.

Schritt 7: (

100

,

010

,

101

) ist die gesuchte Basis.

Die damit gebildete Transformationsmatrix

S =

1 0 10 1 00 0 1

liefert STBS =

1 0 00 −1 00 0 0

.

Literatur: Dieselbe Beweismethode fur Satz (11.5.1) verwendet auch [Jac] (Theorem 6.5).In diesem Abschnitt 6.3 findet man auch noch Weiterfuhrendes zum Thema symmetrischeBilinearformen, etwa Aussagen zu der Frage, wann zwei Matrizen A,B ∈Mn(K) kongruent(kogredient) sind. Diese Eigenschaft hangt nicht nur von den beiden Matrizen, sondern auchvom Skalarenkorper K ab. Fur symmetrische Matrizen in Mn(R) werden wir in (11.6.2) eineinfaches Kriterium angeben.In [Jac] (Theorem 6.9) wird fur endliche Korper K mit char(K) 6= 2 gezeigt, daß jede nicht-ausgeartete, symmetrische Bilinearform uber einem endlich-dimensionalen K-Vektorraumdiagonalisiert werden kann zu diag(1, . . . , 1, d) mit einem geeigneten d ∈ K.

11.6 Definitheit, Skalarprodukte

Voraussetzungen an den Skalarenkorper: In diesem Abschnitt sei immer K = R undβ eine symmetrische Bilinearform, oder K = C und β eine hermitesche Form.

Da fur eine reelle Zahl ρ immer ρ = ρ gilt, konnen wir in diesem Abschnitt im komplexenund im reellen Fall einheitlich β(λv, µw) = λµβ(v, w) schreiben, sowie β(v, w) = vTBw, fallsder Vektorraum V endlich-dimensional ist und β durch die Strukturmatrix B beschriebenwird.

Page 265: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

262 11 BILINEARFORMEN UND HERMITESCHE FORMEN

Außerdem soll an dieser Stelle daran erinnert werden, daß nach (11.3.1,c) im reellen undkomplexen Fall immer β(v, v) ∈ R fur alle v ∈ V gilt.

Unter den Voraussetzungen dieses Abschnitts kann man erreichen, daß die Diagonalmatrixaus (11.5.1) nur Eintrage 1,−1, 0 enthalt:

(11.6.1) Satz Tragheitssatz von SylvesterEs sei V ein endlich-dimensionaler Vektorraum uber dem Korper K. Weiter sei K = R undβ eine symmetrische Bilinearform oder K = C und β eine hermitesche Form auf V .Dann gibt es eine Basis von V , bezuglich derer die Strukturmatrix B von β eine Diagonal-matrix ist mit Eintragen aus {1,−1, 0}.Die Anzahl n+ der positiven, n− der negativen, n0 der verschwindenden Diagonaleintrageist durch β eindeutig bestimmt.

Beweis: Zuerst diagonalisieren wir die Strukturmatrix B nach Satz (11.5.1). Dann istautomatisch B eine reelle Diagonalmatrix. Die zugehorige Basis von V sei (b1, . . . , bn), dieDiagonaleintrage von B seien ajj = β(bj, bj). Jetzt definieren wir neue Vektoren b′j durch

b′j =

{1√|ajj |

bj falls ajj 6= 0

bj falls ajj = 0.

Hierbei werde naturlich die positive Quadratwurzel verwendet. Offensichtlich ist (b′1, . . . , b′n)

wieder eine Basis von V , und die Strukturmatrix B′ von β ist eine Diagonalmatrix mit denDiagonaleintragen

a′jj = β(b′j, b′j) =

{β( 1√

|ajj |bj,

1√|ajj |

bj) = 1|ajj |ajj = ±1 falls ajj 6= 0

β(bj, bj) = ajj = 0 falls ajj = 0.

(Man beachte, daß der Vorfaktor 1√|ajj |

eine reelle Zahl ist, sich also bei einer eventuellen

Konjugation nicht andert.)Es bleibt noch zu zeigen, daß n+, n−, n0 eindeutig bestimmt sind. Dazu sei (b1, . . . , bn) eineBasis, bezuglich derer β als Strukturmatrix eine Diagonalmatrix mit n+ Eintragen 1, n−Eintragen −1 und n0 Eintragen 0 auf der Diagonalen hat. Ohne Einschrankung konnenwir uns die Basis so numeriert vorstellen, daß zuerst die positiven, dann die negativen undzuletzt die verschwindenden Eintrage kommen. Weiter sei (b′1, . . . , b

′n) eine weitere Basis

(analog angeordnet), bezuglich derer β eine diagonale Strukturmatrix mit den entsprechen-den Anzahlen n′+, n

′−, n

′0 hat.

Es sei dim(V ) = n. Dann gilt n− n0 = rang(β) = n− n′0, also n0 = n′0. Damit ist nur nochn′+ = n+ zu zeigen.Wir definieren die Unterraume U = 〈b1, . . . , bn+〉 und U ′ = 〈b′n′++1, . . . b

′n〉. Wegen der An-

ordnung der Basen gilt β(bj, bj) = 1 fur die bj ∈ U und β(b′j, b′j) ∈ {−1, 0} fur die b′j ∈ U ′.

Die gemischten Terme β(bj, bk) bzw. β(b′j, b′k) fur j 6= k verschwinden alle.

Ist o 6= v ∈ U , so gibt es Skalare λ1, λn+ ∈ K (K = RoderC), nicht alle 0, mit v =∑n+

j=1 λjbj.Es folgt

β(v, v) =

{ ∑n+

j=1 λ2j fur K = R∑n+

j=1 λj · λj fur K = C .

Page 266: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.6 Definitheit, Skalarprodukte 263

Da nicht alle λj gleich 0 sind, gilt in beiden Fallen β(v, v) > 0.Nun sei v =

∑nj=n′++1 λjb

′j ∈ U ′. Die gleiche Rechnung wie eben liefert

β(v, v) =

−∑n′+n

′−

j=n′++1 λ2j fur K = R

−∑n′+n

′−

j=n′++1 λj · λj fur K = C ,

und es folgt β(v, v) ≤ 0. Daher ist o der einzige Vektor im Durchschnitt von U und U ′, undes gilt dim(U ∩ U ′) = 0. Da U + U ′ ein Unterraum von V ist, haben wir dim(U + U ′) ≤ n,und die Dimensionsformel fur Unterraume liefert

n ≥ dim(U + U ′) = dim(U) + dim(U ′)− dim(U ∩ U ′) = n+ + n− n′+ ,

also n+ ≤ n′+. Vertauschen wir die beiden Basen, so erhalten wir die umgekehrte Ungleichungn′+ ≤ n+, also schließlich wie gewunscht n+ = n′+. �

Definition: Tragheit, SignaturEs sei K = R und β eine symmetrische Bilinearform, oder K = C und β eine hermitescheForm auf dem endlich-dimensionalen K-Vektorraum V .Die Zahlen n+, n−, n0 seien die in (11.6.1) definierten Invarianten von β.Das Tripel (n+, n−, n0) heißt Tragheit oder Typ von β.Die Anzahl n+ der positiven Eintrage heißt Tragheitsindex von β, die Anzahl n− der nega-tiven Eintrage heißt Morseindex von β.Die Differenz n+ − n− heißt Signatur von β.

Was die Werte n0, n+, n− fur die Form β bedeuten, wird in (11.6.5) gezeigt.Vorsicht! Der Begriff

”Signatur“ ist nicht einheitlich definiert. Manche Autoren bezeichnen

auch das Paar (n+, n−) als Signatur von β.Aus (11.6.1) erhalt man sofort die folgende Charakterisierung fur die Kongruenz von sym-metrischen reellen Matrizen:

(11.6.2) Korollar Fur zwei symmetrische Matrizen A,B ∈Mn(R) sind aquivalent:(i) A und B sind kongruent;(ii) A und B haben dieselbe Tragheit;(iii) A und B haben denselben Rang und dieselbe Signatur.

Die analoge Aussage gilt fur konjugiert-kongruente hermitesche Matrizen.

Definition: definit, semidefinitEs sei V ein Vektorraum uber dem Korper K. Es sei K = R und β eine symmetrischeBilinearform, oder K = C und β eine hermitesche Form auf V .Die Form β heißt

(a) definit, wenn β(v, v) 6= 0 fur alle v 6= o gilt;(b) positiv definit, wenn β(v, v) > 0 fur alle v 6= o gilt;(c) negativ definit, wenn β(v, v) < 0 fur alle v 6= o gilt;(d) positiv semidefinit, wenn β(v, v) ≥ 0 fur alle v 6= o gilt;(e) negativ semidefinit, wenn β(v, v) ≤ 0 fur alle v 6= o gilt.

Page 267: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

264 11 BILINEARFORMEN UND HERMITESCHE FORMEN

Definition: definite MatrizenEine reelle symmetrische Matrix B ∈ Mn(R) heißt positiv definit (negativ definit, positivsemidefinit, negativ semidefinit), wenn die durch B beschriebene Bilinearform β(v, w) =vTBw die entsprechende Eigenschaft hat.Analog wird die Definitheit fur eine komplexe hermitesche Matrix definiert.

(11.6.3 ) Lemma Es sei V ein Vektorraum beliebiger Dimension uber dem Korper K.Weiter sei K = R und β eine symmetrische Bilinearform oder K = C und β eine hermitescheForm auf V .Ist β definit, so ist β entweder positiv definit oder negativ definit.

Beweis: Es seien u,w ∈ V mit β(u, u) = a > 0 und β(w,w) = b < 0. Der Wert β(u,w)kann reell oder komplex sein. Wir setzen c = Re(β(u,w)) ∈ R. Jetzt suchen wir eine reelleZahl λ mit

0 = β(λu+ w, λu+ w) = λλβ(u, u) + λβ(u,w) + λβ(w, u) + β(w,w)

= λ2β(u, u) + 2Re(λβ(u,w)) + β(w,w) = λ2a+ 2cλ+ b .

Diese quadratische Gleichung hat die Losungen

λ1,2 =1

2a(−2c±

√4c2 − 4ab) =

1

a(−c±

√c2 − ab) .

Beide Losungen sind reell und verschieden, da a > 0 und b < 0, also c2 − ab > 0.Fur j = 1, 2 erfullen die Vektoren xj = λju + w die Gleichung β(xj, xj) = 0. Ware x1 =x2 = o, so folgte o = (λ1u+w)− (λ2u+w) = (λ1−λ2)u . Wegen λ1 6= λ2 mußte dann u = o,also 0 = β(u, u) = a > 0 sein, ein Widerspruch. Also besitzt V mindestens einen isotropenVektor 6= o, ein Widerspruch zur Definitheit. �

Ist die Form β erst einmal auf Diagonalgestalt gebracht, so kann man die Definitheit von βsofort an der Strukturmatrix ablesen:

(11.6.4) Lemma Es sei V ein endlich-dimensionaler Vektorraum der Dimension n uberdem Korper K. Weiter sei K = R und β eine symmetrische Bilinearform oder K = C undβ eine hermitesche Form auf V .

(a) β ist genau dann positiv definit, wenn n+ = n.(b) β ist genau dann negativ definit, wenn n− = n.(c) β ist genau dann positiv semidefinit, wenn n− = 0.(d) β ist genau dann negativ semidefinit, wenn n+ = 0.

Mit Hilfe des Tragheitssatzes kann man leicht die folgende Charakterisierung der Invariantenn+, n−, n0 zeigen:

(11.6.5) Satz Es sei K = R und β eine symmetrische Bilinearform, oder K = C und βeine hermitesche Form auf dem endlich-dimensionalen K-Vektorraum V .Die Zahlen n+, n−, n0 seien die in (11.6.1) definierten Invarianten von β.

Page 268: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.6 Definitheit, Skalarprodukte 265

(a) n0 = dim(Rad(β)).(b) n+ ist die Dimension jedes Unterraums U von V , der maximal ist mit der Eigenschaft,

daß die Einschrankung βU positiv definit ist 31.(c) n− ist die Dimension jedes Unterraums U von V , der maximal ist mit der Eigenschaft,

daß die Einschrankung βU negativ definit ist.

Das Problem, fur eine vorgegebene reelle symmetrische oder komplexe hermitesche MatrixA zu entscheiden, ob sie positiv definit ist, kann man also prinzipiell mit (11.6.4) losen:Die Normierung der positiven Diagonaleintrage auf 1 und der negativen Diagonaleintrageauf −1 spielt in (11.6.4) naturlich keine Rolle. Daher wendet man den Algorithmus (11.5.5)zur kongruenten Diagonalisierung auf die Matrix A an. Genau dann ist A positiv definit(positiv semidefinit), wenn alle Diagonaleintrage der entstandenen Diagonalmatrix positiv(nicht-negativ) sind.Wir werden jedoch in (11.6.9) und spater in (12.4.1) noch andere Kriterien fur die positiveDefinitheit kennenlernen.

Definition: (fuhrende) Haupt-Teilmatrix, (fuhrender) HauptminorEs sei K ein Korper und A = (αi,j)i,j ∈Mn(K).

(a) Jede Matrix A′, die man durch Streichen irgendwelcher Zeilen und/oder Spalten ausA enthalt, ist eine Teilmatrix von A.

(b) Eine Teilmatrix A′ heißt Haupt-Teilmatrix von A, wenn sie aus A durch Streichen derZeilen i1, . . . , ik und Streichen der Spalten i1, . . . , ik entsteht.

(c) Eine Teilmatrix A′ heißt j-te fuhrende Haupt-Teilmatrix von A, wenn sie aus A durchStreichen der Zeilen j + 1, . . . , n und Streichen der Spalten j + 1, . . . , n entsteht. Diej-te Haupt-Teilmatrix

Aj =

α1,1 . . . α1,j...

...αj,1 . . . αj,j

hat also das Format (j, j).

(d) Die Determinante einer Teilmatrix von A heißt Minor von A.Die Determinante einer (fuhrenden) Haupt-Teilmatrix von A heißt (fuhrender) Haupt-minor von A.

(11.6.6) Beispiel Es sei

A =

1 2 3 42 5 6 73 6 8 94 7 9 0

∈ R4 .

Die fuhrenden Haupt-Teilmatrizen von A sind

A1 = (1) , A2 =(

1 22 5

), A3 =

1 2 32 5 63 6 8

, A4 = A

31das bedeutet, daß βU positiv definit ist, aber βW nicht positiv definit ist fur alle Unterraume W ) Uvon V

Page 269: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

266 11 BILINEARFORMEN UND HERMITESCHE FORMEN

mit den fuhrenden Hauptminoren

det(A1) = 1 , det(A2) = 1 , det(A3) = −1 , det(A4) = 8 .

Die Teilmatrizen (5 66 8

)und

5 6 76 8 97 9 0

sind auch Haupt-Teilmatrizen, aber keine fuhrende.

Im folgenden Satz spielen die fuhrenden Hauptminoren der Strukturmatrix einer Form einewichtige Rolle. Sie haben daher einen eigenen Namen: Gramsche Determinanten.

(11.6.7) Satz Hurwitz-KriteriumEs sei β eine reelle symmetrische Bilinearform oder eine hermitesche Form auf dem n-dimensionalen Vektorraum V . Es sei (x1, . . . , xn) eine Basis von V derart, daß die Gram-schen Determinanten

Dj =

∣∣∣∣∣∣∣β(x1, x1) . . . β(x1, xj)

......

β(xj, x1) . . . β(xj, xj)

∣∣∣∣∣∣∣alle von 0 verschieden sind.Dann hat β die Tragheit (n− q, q, 0), wobei q die Anzahl der Vorzeichenwechsel in der FolgeD0 = 1, D1, . . . , Dn ist.

Ist β nicht-ausgeartet, so kann man β auf eine Diagonalmatrix diag(d1, . . . , dn) mit lauternicht-verschwindenden Diagonaleintragen diagonalisieren. Fur die zugehorige Basis giltDj =d1 · . . . · dj 6= 0 fur alle j ≤ n. Also kann man fur eine nicht-ausgeartete Form immer eineBasis finden wie in der Voraussetzung von (11.6.7).

Beweis: Die Gramsche Determinante Dn ist die Determinante der Strukturmatrix B von βbezuglich der Basis (x1, . . . , xn). Wegen der Voraussetzung Dn 6= 0 ist also β nicht-ausgeartetund n0 = 0. Nun beweisen wir den Satz durch Induktion nach n:Der Induktionsanfang n = 1 ist klar. Jetzt sei die Behauptung bewiesen fur n − 1. DieEinschrankung von β auf U = 〈b1, . . . , bn−1〉 hat dann die Tragheit (n− 1− s, s, 0), wobei sdie Anzahl der Vorzeichenwechsel in der Folge D0 = 1, D1, . . . , Dn−1 ist. Wegen Dn−1 6= 0ist die Einschrankung βU nicht-ausgeartet. Damit folgt V = U ⊕ U⊥, und wir finden einenVektor yn ∈ U⊥ \ {0}, so daß (x1, . . . , xn−1, yn) eine Basis von V ist. Wegen yn ∈ U⊥ hat βbezuglich der neuen Basis die Strukturmatrix

B′ =

(Bn−1 OO bn

),

wobei Bn−1 die Determinante Dn−1 hat und bn = β(yn, yn) ist.Der Basiswechsel von (x1, . . . , xn−1, xn) zu (x1, . . . , xn−1, yn) wird durch eine regulare MatrixS ∈Mn(R) bzw. Mn(C) beschrieben. Wegen

det(B′) = det(ST ) det(B) detS = | det(S)|2 det(B)

Page 270: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.6 Definitheit, Skalarprodukte 267

hat det(B′) dasselbe Vorzeichen wir det(B) = Dn.1.Fall: bn > 0B′ hat die Tragheit (n− s, s, 0), und Dn−1 hat dasselbe Vorzeichen wie Dn−1.2.Fall: bn < 0B′ hat die Tragheit (n− s− 1, s+ 1, 0), und Dn−1 hat das entgegengesetzte Vorzeichen vonDn−1. �

(11.6.8) Beispiel Fur die symmetrische Bilinearform β mit der Strukturmatrix A aus Beispiel(11.6.6) ergibt sich die Determinantenfolge

(D0 =)1 , 1 , 1 , −1 , 8

mit zwei Vorzeichenwechseln. Alle diese Determinanten sind 6= 0, also ist die Voraussetzung von(11.6.7) erfullt, und β hat die Tragheit (2, 2, 0).

Ist β definit, so ist die Einschrankung βU nicht-ausgeartet fur alle Unterraume U von V .Daher ist fur eine beliebige Basis von V die Voraussetzung von (11.6.7) erfullt, und manerhalt folgendes Kriterium fur die Definitheit:

(11.6.9) Korollar Sylvester-Kriterium fur DefinitheitEs sei β eine reelle symmetrische Bilinearform oder eine hermitesche Form auf dem n-dimensionalen Vektorraum V und (x1, . . . , xn) eine beliebige Basis von V .

(a) β ist genau dann positiv definit, wenn die Gramschen Determinanten Dj positiv sindfur alle j ≤ n.

(b) β ist genau dann negativ definit, wenn die Gramsche Determinante Dj positiv ist furj ungerade und negativ ist fur j gerade.

(11.6.10) Korollar Ist eine hermitesche Matrix A ∈ Mn(C) positiv definit, so sind alleHauptminoren von A positiv.

Aus (11.6.10) und (11.6.9) erhalt man das folgende Kriterium fur positive Definitheit:Eine hermitesche Matrix A ∈ Mn(C) ist genau dann positiv definit, wenn alle ihre Haupt-minoren positiv sind.Diese Charakterisierung ist naturlich unpraktischer als das Sylvester-Kriterium (11.6.9), weilmehr Determinanten zu berechnen sind. Andererseits laßt sich dieses Kriterium analog aufpositiv semi-definite Matrizen ubertragen, im Gegensatz zu (11.6.9):Eine hermitesche Matrix A ∈ Mn(C) ist genau dann positiv semi-definit, wenn alle ihreHauptminoren nicht-negativ sind.Der Beweis soll hier nicht ausgefuhrt werden. Einen elementaren Beweis findet man zumBeispiel in [2].Die Nicht-Ubertragbarkeit des Sylvester-Kriteriums auf positiv semi-definite Matrizen siehtman an der Matrix

A =

(0 00 −1

)die offensichtlich nicht positiv-semidefinit ist, aber die fuhrenden Hauptminoren 0 und 0 hat.

Page 271: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

268 11 BILINEARFORMEN UND HERMITESCHE FORMEN

Nachdem wir uns inzwischen eingehend mit Bilinearformen bzw. hermiteschen Formen imAllgemeinen beschaftigt haben, wollen wir uns auf diejenigen wichtigen Formen spezialisie-ren, die den Grundbegriff des nachsten Kapitels liefern:

Definition: Skalarprodukt, inneres ProduktEs sei V ein Vektorraum uber dem Korper K, wobei K = R und β eine symmetrischeBilinearform oder K = C und β eine hermitesche Form auf V sei.Die Form β heißt Skalarprodukt oder inneres Produkt auf V , wenn sie positiv definit ist.Ist die zugrundeliegende Form β klar, so schreibt man oft abkurzend <v , w>= β(v, w).

Vorsicht! Man darf das Skalarprodukt < v , w > nicht verwechseln mit dem von v und werzeugten Unterraum 〈v, w〉 von V . In aller Regel wird aber aus dem Kontext klar ersichtlichsein, was gemeint ist.Vektorraume, die mit einem Skalarprodukt ausgestattet sind, haben auch einen eigenenNamen:

Definition: euklidischer Vektorraum, unitarer Vektorraum

(a) Ein R-Vektorraum mit einer positiv definiten, symmetrischen Bilinearform heißteuklidischer Vektorraum.

(b) Ein C-Vektorraum mit einer positiv definiten hermiteschen Form heißt unitarer Vek-torraum.

(11.6.11) Beispiel unendlich-dimensionaler euklidischer VektorraumDie symmetrische Bilinearform β(f, g) =

∫ 10 f(x)g(x)dx auf dem Vektorraum V = C[0, 1] aus

Beispiel (11.1.1.6) ist positiv definit, also ein Skalarprodukt auf V :Es sei f ∈ C[0, 1] \ {0}. Dann ist auch f2 in C[0, 1] \ {0}. Also gibt es ein x0 ∈ [0, 1] mit(f(x0))2 = y0 > 0. Wegen der Stetigkeit von f2 findet man ein ε > 0, so daß (f(x))2 > 1

2y0 ist furalle x ∈ [0, 1] ∩ [x0 − ε, x0 + ε] . Insbesondere kann man aus diesem Grund auch x0 ∈]0, 1[ wahlenund dann ein ε > 0 finden mit [x0 − ε, x0 + ε] ⊆ [0, 1] . Dann folgt∫ 1

0(f(x))2dx ≥

∫ x0+ε

x0−ε(f(x))2dx ≥ 2ε

12y0 = εy0 > 0 .

Es sei V ein euklidischer oder unitarer Vektorraum der endlichen Dimension n. Nach demTragheitssatz (11.6.1) gibt es dann eine Basis von V , bezuglich derer das Skalarprodukt βals Strukturmatrix die (n × n)-Einheitsmatrix hat. Fur Vektoren v = (v1, . . . , vn)T , w =(w1, . . . , wn)T bezuglich dieser Basis gilt dann also

<v , w>= vTw =n∑j=1

vjwj ,

das heißt <v , w>=∑n

j=1 vjwj im euklidischen Fall. Daher kommt auch der Name”Ska-

larprodukt“ : Man multipliziert zwei Vektoren v, w und erhalt einen Skalar.

In Abschnitt 11.4 haben wir unter verschiedenen Voraussetzungen einige Ergebnisse uberdas orthogonale Komplement eines Unterraums U erhalten. Diese tragen wir fur ein Skalar-produkt zusammen:

Page 272: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.6 Definitheit, Skalarprodukte 269

(11.6.12) Korollar Es sei U ein endlich-dimensionaler Unterraum des euklidischen oderunitaren Vektorraums V . Dann gilt:

(a) V = U ⊕ U⊥.(b) dim(U⊥) = dim(V )− dim(U), falls V endliche Dimension hat.(c) (U⊥)⊥ = U .

Beweis: (a) ist klar nach (11.4.13), weil ein Skalarprodukt nicht-ausgeartet ist auf jedemUnterraum von V . Offensichtlich folgt (b) aus (a). Nach (a) hat jeder Vektor v ∈ (U⊥)⊥

eine Darstellung v = u+ w mit u ∈ U und w ∈ U⊥. Fur alle x ∈ U⊥ gilt nun

0 =<u+ w , x>=<u , x> + <w , x>=<w , x> ,

also w ∈ U⊥ ∩ (U⊥)⊥. Da auch die Einschrankung des Skalarprodukts auf U⊥ nicht-ausgeartet ist, folgt w = o, also v ∈ U und schließlich (U⊥)⊥ ⊆ U . Die umgekehrte Inklusionist klar, also auch (c) gezeigt. �

(11.6.13) Beispiel (11.6.12.a) muß nicht mehr erfullt sein, wenn der Unterraum U unendlicheDimension hat. Wegen der positiven Definitheit des Skalarprodukts gilt naturlich noch immerU ∩ U⊥ = {o}, aber der Summenraum U + U⊥ kann ein echter Teilraum von V sein. Wahlen wiretwa in Beispiel (11.6.11) U den Unterraum der Polynome in C[0, 1], so gilt sogar U⊥ = {0}, obwohlU ein echter Teilraum von V = C[0, 1] ist. Der Grund hierfur ist die gleichmaßige Approximationeiner beliebigen Funktion in C[0, 1] durch Polynome nach dem Approximationssatz von Weierstraß(vgl. [KM], Bemerkung (7.3.8)).

Die nachste Lemma konnen wir mehrfach verwenden. Sein Beweis ist eine leichte Ubung.

(11.6.14) Lemma Es sei V ein euklidischer oder unitarer Vektorraum.(a) Es seien v, w ∈ V mit <v , x>=<w , x> fur alle x aus einem Erzeugendensystem

von V . Dann gilt v = w.(b) Es sei M = {vj | j ∈ J} eine Menge von Vektoren vj ∈ V \ {o} mit <vj , vk>= 0 fur

alle j, k ∈ J , j 6= k. Dann ist M linear unabhangig.

Die folgende Konstruktion positiv semi-definiter Matrizen wird in den nachsten Kapitelneine große Rolle spielen. Sie wird beispielsweise benutzt bei einem Verfahren zur Rangbe-rechnung (13.2.5), bei einer Variante der Gram-Schmidt-Orthonormalisierung (12.2.6), beider Polarzerlegung (13.4.1) und der Singularwertzerlegung (13.4.5).

(11.6.15 ) Lemma Fur eine beliebige Matrix A ∈ M(m × n,C) ist die Matrix AHAhermitesch und positiv semidefinit.Fur A ∈M(m× n,R) ist also ATA symmetrisch und positiv semidefinit.Ist A quadratisch und regular, so ist AHA sogar positiv definit.

Beweis: Die Matrix AHA hat das Format n× n und ist hermitesch wegen

(AHA)H = (ATA)

T

= (ATA)T = ATA = AHA .

Page 273: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

270 11 BILINEARFORMEN UND HERMITESCHE FORMEN

Nun sei zunachst A ∈Mn(C) quadratisch, und <v , w>= vTw sei das Standard-Skalarpro-dukt auf dem Vektorraum V = C

n. Da das Skalarprodukt < · , ·> positiv definit ist, giltdann

vT (AHA)v = vTATAv = (Av)TAv =<Av , Av>≥ 0

fur alle v ∈ V . Die durch die Matrix B = AHA beschriebene hermitesche Form auf V istalso positiv semidefinit. Falls A nicht quadratisch ist, gibt es nach (2.6.7) regulare MatrizenS ∈Mm(C) und T ∈Mn(C) mit

SAT = D =

(Er OO O

),

wobei Er die (r × r)-Einheitsmatrix und r der Rang von A ist. Es gilt

AHA = (S−1DT−1)H(S−1DT−1) = (T−1)HDH(S−1)HS−1DT−1 .

Da S quadratisch ist, ist (S−1)HS−1 positiv semidefinit. Außerdem ist

C = DH(S−1)HS−1D =

(Cr OO O

),

wobei Cr der r-te fuhrende Hauptminor von (S−1)HS−1 ist. Da die Einschrankung einerpositiv semidefiniten Form auf einen Unterraum wieder positiv semidefinit ist, ist auch Crund schließlich auch C positiv semidefinit. Damit ist AHA (konjugiert)-kongruent zu derpositiv semidefiniten Matrix C, also selbst positiv semidefinit. Ist A ∈ Mn(C) regular, soauch das Produkt AHA. Eine positiv semidefinite, regulare hermitesche Matrix ist immerpositiv definit. �

11.7 * Schiefsymmetrische oder alternierende Bilinearformen

Voraussetzungen: In diesem Abschnitt sei immer char(K) 6= 2 (das heißt 2 6= 0), und βeine schiefsymmetrische Bilinearform auf dem K-Vektorraum V .

Nach (11.1.6,b) ist β alternierend, also β(v, v) = 0 fur jeden Vektor v ∈ V . Mit der Homo-genitat von β in beiden Argumenten erhalten wir die folgende einfache Feststellung, die wirmehrfach verwenden werden:

(11.7.1) Lemma Es sei K ein Korper mit char(K) 6= 2, V ein K-Vektorraum und β eineschiefsymmetrische Bilinearform auf V . Sind v, w ∈ V linear abhangig, so ist β(v, w) = 0 .

Page 274: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.7 * Schiefsymmetrische oder alternierende Bilinearformen 271

(11.7.2 ) Satz Es sei K ein Korper mit char(K) 6= 2 und V ein K-Vektorraum derDimension n. Weiter sei β eine schiefsymmetrische Bilinearform auf V .Dann gibt es eine Basis von V , bezuglich derer die Strukturmatrix von β die Form

A =

0 1−1 0

. . .

0 1−1 0

0. . .

0

hat. Die Anzahl der zweidimensionalen Kastchen

(0 1−1 0

)ist gleich 1

2rang(β) .

Beweis: Wir fuhren eine Induktion nach n = dim(V ) durch.(i) In einem Vektorraum der Dimension 1 sind je zwei Vektoren linear abhangig, also gilt

β(v, w) = 0 fur beliebige v, w ∈ V nach (11.7.1), und die Strukturmatrix A = (0) hatdie angegebene Form.

(ii) Wir nehmen nun an, die Behauptung sei fur n − 1 bewiesen und konstruieren einedirekte Zerlegung V = U⊕W des Vektorraums V mit dim(U) = 2 und dim(W ) = n−2 .Auf den Vektorraum W konnen wir dann die Induktionsannahme anwenden.Falls β(v1, v2) = 0 fur alle v1, v2 ∈ V , so ist naturlich A die Nullmatrix (bezuglich einerbeliebigen Basis von V ), also die Behauptung bewiesen.Daher konnen wir annehmen, es gebe Vektoren v1, v2 ∈ V mit β(v1, v2) 6= 0 . Setzen wirλ := (β(v1, v2))−1 und v2 := λv2), so gilt β(v1, v2) = 1 und wegen der Schiefsymmetrieβ(v2, v1) = −1 .Nach (11.7.1) gilt β(v1, v1) = 0, also kann v2 kein skalares Vielfaches von v1 sein, undU := 〈v1, v2〉 ist ein zweidimensionaler Unterraum von V .

(iii) Wir setzen W := {w ∈ V | β(w, v1) = β(w, v2) = 0} .Man rechnet leicht nach, daß W ein Unterraum von V ist. Zum Nachweis von V =U ⊕W mussen wir U ∩W = {o} und V = U +W zeigen.Fur einen Vektor v ∈ U = 〈v1, v2〉 finden wir Skalare λ, µ ∈ K mit v = λv1 + µv2 .Liegt v gleichzeitig in W , so folgt

0 = β(v, v1) = β(λv1 + µv2, v1) = λβ(v1, v1) + µβ(v2, v1) = −µ

und0 = β(v, v2) = β(λv1 + µv2, v2) = λβ(v1, v2) + µβ(v2, v2) = λ ,

also v = o . Damit ist U ∩W = {o} gezeigt.Nun sei v ∈ V beliebig gewahlt. Wir setzen

u := β(v, v2)v1 − β(v, v1)v2 und w := v − u .

Offensichtlich gilt u ∈ 〈v1, v2〉 = U . Andererseits haben wir

β(w, v1) = β(v − u, v1) = β(v, v1)− β(β(v, v2)v1 − β(v, v1)v2, v1)

= β(v, v1)− β(v, v2) β(v1, v1)︸ ︷︷ ︸0

+β(v, v1) β(v2, v1)︸ ︷︷ ︸−1

= 0 .

Page 275: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

272 11 BILINEARFORMEN UND HERMITESCHE FORMEN

Analog zeigt man β(w, v2) = 0. Damit ist w ∈ W , also v = u+ w ∈ U +W gezeigt.(iv) Der Unterraum W hat die Dimension n − 2. Also konnen wir fur ihn die Induk-

tionsvoraussetzung anwenden und finden eine Basis (v3, . . . , vn) von W , so daß dieEinschrankung βW von β auf W bezuglich (v3, . . . , vn) eine Strukturmatrix AW derangegeben Form hat.Die Strukturmatrix A von β bezuglich der Basis (v1, v2, v3, . . . , vn) hat die Eintrageaij = β(vi, vj) . Fur i, j ≥ 3 sind dies genau die Eintrage von AW . Also hat A die Form

a11 a12 a13 . . . a1n

a21 a22 a23 . . . a2n

a31 a32...

... AWan1 an2

.

Wegen (11.7.1) sind a11 = a22 = 0 . Nach Wahl von v1 und v2 sind a12 = 1 unda21 = −1 . Fur die fehlenden Eintrage benutzen wir die Definition von W : Fur j ≥ 3ist vj ∈ W , also a1j = β(v1, vj) = −aj1 = −β(vj, v1) = 0 . Entsprechend zeigt man dasVerschwinden von a2,j und aj,2. Damit hat A die gewunschte Form.

(v) Der Rang der Stukturmatrix A ist offensichtlich gleich dem zweifachen der Anzahl derzweidimensionalen Kastchen.

(11.7.3) Korollar Es sei K ein Korper mit char(K) 6= 2.Jede schiefsymmetrische Bilinearform auf einem K-Vektorraum ungerader Dimension hateinen nichttrivialen Kern der Ausartung.Insbesondere ist jede schiefsymmetrische Bilinearform auf einem eindimensionalen K-Vektor-raum die Nullform.

Ein endlich-dimensionaler Vektorraum mit einer nicht-ausgearteten, alternierenden Bilinear-form β heißt symplektischer Vektorraum. Da eine alternierende Bilinearform immer schief-symmetrisch ist, muß ein symplektischer Vektorraum nach (11.7.3) immer gerade Dimensionhaben.

Haben wir einen KorperK der Charakteristik 6= 2 und einen K-Vektorraum V der Dimension3, so gibt es fur jede schiefsymmetrische Bilinearform β auf V einen 2-dimensionalen Unter-raum U von V , so daß die Einschrankung von β auf U die Nullform ist: Man wahle einenVektor v 6= o aus dem Kern der Ausartung und einen beliebigen Vektor w, der von v linearunabhangig ist. Dann hat U := 〈v, w〉 die Dimension 2. Wegen (11.7.1) gilt β(w,w) = 0.Da v im Kern der Ausartung liegt, gilt auch β(v, w) = 0. Also ist die Einschrankung von βauf U tatsachlich die Nullform. Man sagt auch: β ist trivial auf U .In manchen Situationen hat man einen Vektorraum mit mehreren schiefsymmetrischen Bi-linearformen und interessiert sich fur einen Unterraum, auf dem alle diese Bilinearformengleichzeitig trivial sind. Mit dieser Situation befaßt sich Satz (11.7.5), der (im Spezialfalln = k = 1) insbesondere zeigt, daß ein Vektorraum der Dimension 3 uber einem Korper derCharakteristik 6= 2 zu zwei beliebig vorgegebenen schiefsymmetrischen Bilinearformen β1, β2

einen Unterraum der Dimension 2 besitzt, auf dem β1 und β2 trivial sind.

Page 276: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

11.7 * Schiefsymmetrische oder alternierende Bilinearformen 273

(11.7.4) Lemma Es sei K ein Korper der Charakteristik 6= 2 (das heißt 2 6= 0) und Vein K-Vektorraum der ungeraden Dimension d. Weiter seien k schiefsymmetrische Biline-arformen β1, . . . βk auf V definiert, so daß zu einer festen Zahl w jeder Unterraum S derDimension d−k von V einen Unterraum T ≤ S der Dimension w besitzt, auf dem alle dieseBilinearformen trivial sind.Dann hat V einen Unterraum U der Dimension w + 1, auf dem alle diese Bilinearformentrivial sind.

Beweis: Weil die Dimension d ungerade ist, gibt es nach (11.7.3) einen Vektor a ∈ V \ {o}mit β1(a, v) = 0 fur alle v ∈ V . Nun setzen wir

Ci := {v ∈ V | βi(a, v) = 0}

fur 1 ≤ i ≤ k. Nach Wahl von a ist C1 = V , und die anderen Ci sind nach (11.1.4)Unterraume der Dimension mindestens d − 1. Nach (1.4.17) hat also der Unterraum R :=⋂ki=1 Ci =

⋂ki=2 Ci mindestens die Dimension d− (k − 1) = d− k + 1 . Folglich gibt es in R

einen Unterraum S der Dimension mindestens d− k, der den Vektor a nicht enthalt.Nach Voraussetzung gibt es nun in S einen Unterraum T der Dimension w, auf dem alleBilinearformen β1, . . . , βk trivial sind. Der Vektor a liegt nicht in S, also auch nicht in T ,und U := 〈T, a〉 ist daher ein Unterraum der Dimension w + 1. Schließlich zeigen wir, daßalle βi trivial auf U sind:Jedes u ∈ U laßt sich in der Form u = t + λa mit t ∈ T und λ ∈ K schreiben. Fur einbeliebiges i ∈ {1, . . . , k} und Vektoren u1, u2 ∈ U haben wir daher

βi(u1, u2) = βi(t1 + λ1a, t2 + λ2a) = βi(t1, t2) + λ2βi(t1, a) + λ1βi(a, t2) + λ1λ2βi(a, a) .

Nun liegen t1 und t2 in T , also in jedem Ci. Daher ist βi(t1, a) = βi(a, t2) = 0. Auf demUnterraum T ist βi trivial, also βi(t1, t2) = 0. Schließlich ist βi(a, a) = 0 wegen (11.7.1).Damit gilt βi(u1, u1) = 0. �

(11.7.5) Satz (Heineken) Es sei K ein Korper der Charakteristik 6= 2 (das heißt 2 6= 0)und V ein K-Vektorraum der Dimension 2nk + 1. Sind β1, . . . , β2k schiefsymmetrischeBilinearformen auf V , so gibt es einen Unterraum U der Dimension n + 1 von V , aufdem alle diese Bilinearformen trivial sind.

Beweis: Wir fuhren eine Induktion nach n durch.Fur n = 1 ist die Aussage trivialerweise richtig, weil nach (11.7.3) jede schiefsymmetrischeBilinearform auf einem eindimensionalen Vektorraum uber einem Korper der Charakteristik6= 2 die Nullform ist.Nun sei der Satz bewiesen fur n−1, das heißt: Sind β1, . . . , β2k schiefsymmetrische Bilinear-formen auf einem Vektorraum U der Dimension 2(n− 1)k+ 1 = (2nk+ 1)− 2k, so besitzt Ueinen Unterraum W der Dimension w = (n− 1) + 1 = n, auf dem alle diese Bilinearformentrivial sind. Nach (11.7.4) hat also V einen Unterraum der Dimension w + 1 = n + 1, aufdem samtliche βi trivial sind. �

(11.7.5) ist auch anwendbar fur eine ungerade Anzahl von Bilinearformen. Da nirgendwoverlangt wird, daß die βi verschieden sind, kann man eine von ihnen doppelt zahlen und dann

Page 277: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

274 11 BILINEARFORMEN UND HERMITESCHE FORMEN

den Satz anwenden. Die Ungeradheit der Dimension von V ist dagegen wesentlich. Andern-falls muß namlich keine der schiefsymmetrischen Bilinearformen auf V einen nichttrivialenKern der Ausartung haben, und der Start im Beweis von (11.7.4) ist nicht moglich.

Literatur: Weitere Aussagen zu diesem Thema, zum Beispiel uber 4-dimensionale Vek-torraume mit drei schiefsymmetrischen Bilinearformen, sowie eine Anwendung dieser Ergeb-nisse in der Theorie der endlichen Gruppen mit Primzahlpotenzordnung findet man in derArbeit [19], aus der auch (11.7.4) und (11.7.5) entnommen sind.Andererseits gibt es auch Satze uber die Existenz zweier komplementarer Unterraume U1, U2,auf denen zwei vorgegebene schiefsymmetrische Bilinearformen β1, β2 trivial sind: Ist V einn-dimensionaler euklidischer Vektorraum mit Skalarprodukt < · , ·> , so gibt es eine direkteZerlegung V = U1 ⊕ U2, so daß U2 ⊆ (U1)⊥ (bzgl. des Skalarprodukts), βj die Nullform istauf Uj, und dim(U2) = n

2falls n gerade und n−1

2, falls n ungerade. (Anderson [1])

Mit diesem Ergebnis kann man zeigen, daß fur zwei schiefsymmetrische Matrizen A1, A2 ∈Mn(R) die Eigenwerte λ 6= 0 des Produkts A1A2 eine gerade Vielfachheit haben.Analoge Aussagen gelten auch fur hermitesche Formen auf unitaren Raumen und hermitescheMatrizen.

Page 278: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

275

12 Euklidische und unitare Vektorraume

Generelle Voraussetzung: In diesem Kapitel ist V ein euklidischer R-Vektorraum oderein unitarer C-Vektorraum. Das zugehorige Skalarprodukt wird mit < · , ·> bezeichnet.Das Standard-Skalarprodukt ist das durch die Einheitsmatrix als Strukturmatrix beschrie-bene Skalarprodukt.

Teilkorper von R oder C, etwa Q, wollen wir als Skalarenkorper nicht zulassen, da Quadrat-wurzeln reeller Zahlen gebildet werden und wieder im Skalarenkorper liegen sollen.

12.1 Vektornormen

In diesem Abschnitt soll jedem Vektor eine Lange zugeordnet werden. Da die Lange im-mer eine nicht-negative reelle Zahl sein wird, betrachten wir hier nur reelle oder komplexeVektorraume.

Wozu braucht man Langen? In der Analysis hat man Konvergenzbegriffe: Zu je zwei reellenZahlen x, y gibt es den Abstand |x − y| ≥ 0, und man sagt, daß y in der ε-Umgebung vonx liegt, wenn |x − y| < ε ist. Eine Folge (xn)N reeller oder komplexer Zahlen konvergiertgegen die Zahl x, wenn es fur alle ε > 0 eine naturliche Zahl N gibt, so daß xn in einerε-Umgebung von x liegt fur alle n ≥ N . Damit wird die Vorstellung prazisiert, daß furgroße Indizes n die Punkte xn ”

sehr nahe“ am Grenzwert x liegen. Auch im zwei- oder drei-dimensionalen reellen Raum hat man eine intuitive Vorstellung davon, wann zwei Punkte(die durch Vektoren in R2 oder R3 beschrieben werden)

”nahe beieinander“ liegen, so daß

man Konvergenz auch in diesen Raumen definieren mochte.Hat nun jeder Vektor eine Lange (die man als Abstand des Vektors vom Nullpunkt interpre-tiert), so kann man auch zwei beliebigen Vektoren v, w ∈ V einen Abstand zuordnen, namlichdie Lange des Differenzvektors v − w. Damit es hier nicht auf die Reihenfolge ankommt,sollte die Lange so definiert sein, daß der Vektor v immer dieselbe Lange hat wie der Vektor−v. Die Lange eines Vektors ist also die Ubertragung des Begriffs des Absolutbetrags aufeinen Vektorraum.

Erinnern wir uns an den ublichen Langenbegriff in der reellen Ebene R2:

-x

6

y

���������3

ppppppppppppppppppppp p p p p p p p p p p p p p p p p p p p p p p p p p p p p p

A B

C

v1

v2

Die Lange l des Vektors v = (v1, v2)T berechnet man mit Hilfedes Satzes des Pythagoras: Im rechtwinkligen Dreieck ABC gilt

l2 = v21 + v2

2 , also l =√v2

1 + v22 .

Mit dem ublichen Standard-Skalarprodukt <v , w>= vTW =v1w1 + v2w2 erhalt man also

l =√vTv =

√<v , v> .

Da ein Skalarprodukt < · , ·> eine Bilinearform ist, gilt <o , o>= 0 . Wegen der positivenDefinitheit gilt außerdem immer < v , v >> 0 fur v 6= o. Also konnen wir die (positive)Quadratwurzel aus <v , v> bilden.

Page 279: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

276 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

Definition: Norm eines VektorsEs sei V ein euklidischer oder unitarer Vektorraum mit Skalarprodukt < · , ·> . Fur einenVektor v ∈ V heißt

‖v‖ =√<v , v>

die Norm von v.Die Abbildung ‖ · ‖ : V → R heißt die von < · , ·> induzierte Norm.

Die Norm von v wird von manchen Autoren auch Lange oder Betrag von v genannt undteilweise mit |v| bezeichnet. Um keine Verwechslungsgefahr mit dem Absolutbetrag einerreellen oder komplexen Zahl entstehen zu lassen, wird fur eine Vektornorm im Folgenden dieubliche Bezeichnung ‖ · ‖ verwendet.

(12.1.1) Beispiel Die Norm eines Vektors hangt naturlich von dem verwendeten Skalarprodukt

ab. So beschreiben etwa B1 =(

1 00 1

)und B2 =

(1 11 2

)zwei verschiedene Skalarprodukte

< · , ·> 1 und < · , ·> 2 auf dem Vektorraum R2. Der Vektor v = (1, 1)T hat bezuglich dieser

Skalarprodukte die Normen ‖v‖1 =√

2 und ‖v‖2 =√

5.

(12.1.2) Satz Satz des PythagorasEs sei V ein euklidischer oder unitarer Vektorraum und v, w ∈ V . Dann sind gleichwertig:

(i) ‖v + w‖2 = ‖v‖2 + ‖w‖2 ;(ii) Re(<v , w> ) = 0 .In einem euklidischen Vektorraum gilt also der Satz des Pythagoras genau dann, wenn v undw orthogonal zueinander sind.

Beweis:

‖v + w‖2 = <v + w , v + w>=<v , v> + <v , w> + <w , v> + <w , w>

= ‖v‖2+ <v , w> +<v , w> + ‖w‖2 = ‖v‖2 + 2Re(<v , w> ) + ‖w‖2 . �

(12.1.3) Lemma orthogonale Zerlegung eines VektorsEs sei V ein euklidischer oder unitarer Vektorraum und v, w ∈ V mit v 6= o. Dann gibt eseinen Skalar λ und einen zu v orthogonalen Vektor u mit w = λv + u.Dabei sind λ und u eindeutig bestimmt.

Beweis: Wegen u = w − λv erhalt man aus 0 =<u , v> die Bedingung

0 =<w − λv , v>=<w , v> −λ <v , v> , also λ =<w , v>

<v , v>.

Dabei ist <v , v> 6= 0 wegen v 6= o.

Jetzt ist auch u = w− <w , v><v , v> v eindeutig bestimmt. Nachrechnen zeigt, daß u und λ das

Gewunschte leisten. �

Page 280: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.1 Vektornormen 277

(12.1.4) Beispiel orthogonale Zerlegung eines Vektors

-x

6

y

������*v

�������

w

�����*λv

AAAAK u

Es sei V = R2 mit dem Standard-Skalarprodukt < · , ·> , und v =

(2, 1)T , w = (1, 2)T . Aus <v , v >= 5 und <v , w>= 4 berechnetman λ = 4

5 und u = 15(−3, 6)T . Wegen <u , v>= 1

5(−3 ·2+6 ·1) = 0steht u tatsachlich senkrecht auf v.

(12.1.5) Satz Cauchy-Schwarzsche UngleichungEs sei V ein euklidischer oder unitarer Vektorraum. Fur alle v, w ∈ V gilt

| <v , w> | ≤ ‖v‖ · ‖w‖ .

Genau dann gilt die Gleichheit, wenn {v, w} linear abhangig ist.

Beweis: Im Fall v = o gilt <w , v>= ‖v‖ · ‖w‖ = 0.Jetzt sei v 6= o. Dann kann man nach (12.1.3) den Vektor w orthogonal zerlegen in w = λv+umit <u , v>= 0.Da beide Seiten der zu beweisenden Ungleichung nicht-negativ sind, ist die Behauptungaquivalent zu | <v , w> |2 ≤ ‖v‖2 · ‖w‖2 .Wir berechnen beide Seiten und bilden dann die Differenz:

| <v , w> |2 = | <v , λv + u> |2 = |λ <v , v> |2 = |λ|2 <v , v>2 .

‖v‖2 · ‖w‖2 = <v , v> <w , w>=<v , v> <λv + u , λv + u>

= <v , v>(λ · λ <v , v> + <u , u>

)= |λ|2 <v , v>2 + <v , v> <u , u> ,

also ‖v‖2 · ‖w‖2 − | <v , w> |2 =<v , v> <u , u> ≥ 0 .

Gleichheit tritt genau dann ein, wenn <v , v> <u , u>= 0, also wenn v = o oder u = o ist.Im ersten Fall gilt naturlich v ∈ 〈u〉, der zweite Fall ist gleichbedeutend mit w = λv ∈ 〈v〉.Insgesamt gilt also die Gleichheit genau dann, wenn {v, w} linear abhangig ist. �

Der”Fehlerterm“ , das heißt die Differenz zwischen der quadrierten rechten und der qua-

drierten linken Seite der Cauchy-Schwarzschen Ungleichung, ist bei festem v 6= o direktproportional zum Quadrat der Lange von u. Diese kann man daher als ein Maß fur den

”Abstand“ des Vektors w vom Unterraum 〈v〉 interpretiert werden. Mehr zu diesem Thema

steht im Abschnitt 12.10 uber orthogonale Projektion.

Definition: Norm, normierter VektorraumEs sei V ein Vektorraum uber einem Teilkorper K von C. und N : V → R eine Abbildung.Diese Abbildung ist eine Norm von V , wenn folgende Eigenschaften erfullt sind:

(Norm1) Fur alle v ∈ V gilt N(v) ≥ 0, und N(v) = 0⇐⇒ v = o. (Positivitat)(Norm2) Fur alle v ∈ V und λ ∈ K gilt N(λv) = |λ|N(v) . (Homogenitat)(Norm3) Fur alle v, w ∈ V gilt N(v + w) ≤ N(v) +N(w) . (Dreiecksungleichung)

Ein K-Vektorraum mit Norm N : V → R heißt normierter Vektorraum.

Der folgende Satz zeigt, daß jede von einem Skalarprodukt induzierte Vektornorm wirklicheine Norm im Sinne obiger Definition ist. Fur den Beweis der Dreiecksungleichung brauchen

Page 281: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

278 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

wir die Tatsache, daß fur jede komplexe Zahl z = x+ iy die Ungleichung Re(z) ≤ |z| gilt 32.Diese Ungleichung ist genau dann eine Gleichung, wenn z reell und nicht-negativ ist.

(12.1.6) Satz

(a) Fur alle v ∈ V gilt ‖v‖ ≥ 0 und es gilt ‖v‖ = 0 genau dann, wenn v = o.(b) Fur alle λ ∈ K und v ∈ V gilt ‖λv‖ = |λ| · ‖v‖ .(c) Fur alle v, w ∈ V gilt ‖v + w‖ ≤ ‖v‖+ ‖w‖ .

Beweis:

(a) ist gleichwertig zur positiven Definitheit des Skalarprodukts < · , ·> .(b) Da beide Seiten nicht-negativ sind, genugt es, die quadrierte Gleichung zu beweisen:

‖λv‖2 =<λv , λv>= λ · λ <v , v>= |λ|2‖v‖2 .

(c) Aus demselben Grund wie in (b) konnen wir die Ungleichung quadrieren:

‖v + w‖2 = <v + w , v + w>=<v , v> + <v , w> + <w , v> + <w , w>

= ‖v‖2 + 2Re(<v , w>) + ‖w‖2

≤ ‖v‖2 + 2| <v , w> |+ ‖w‖2

(12.1.5)

≤ ‖v‖2 + 2‖v‖ · ‖w‖+ ‖w‖2 = (‖v‖+ ‖w‖)2 . �

-�������

-

�������

����������������

��1@@@@@@R

v

v

ww

v − w

v + w

Außerdem weisen die von einem Skalarprodukt in-duzierten Vektornormen eine weitere Eigenschaftauf, die nicht jede Norm hat. Ihr Name leitet sichvon dem nebenstehenden Parallelogramm ab:Die Summe der Quadrate der Langen der beidenDiagonalen ist so groß wie die Summe der Qua-drate der Langen aller vier Seiten.

(12.1.7) Satz Parallelogramm-GleichungEs sei V ein euklidischer oder unitarer Vektorraum. Fur alle v, w ∈ V gilt

‖v + w‖2 + ‖v − w‖2 = 2(‖v‖2 + ‖w‖2) .

Beweis: durch Nachrechnen. �

(12.1.8) Beispiele Maximumsnorm, Summennorm, euklidische NormEs sei K ein Teilkorper von C und V ein K-Vektorraum mit dim(K) = n < ∞. Es sei eine BasisB = (b1, . . . , bn) von V fest gewahlt, und v1, . . . , vn seien die Koordinaten des Vektors v bezuglichder Basis B.

32Re(z) = x ≤ |x| =√x2 ≤

√x2 + y2 = |z|

Page 282: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.1 Vektornormen 279

(a) Die durchM(v) = max{|v1|, . . . , |vn|}

definierte Norm von V heißt Maximumsnorm von V .Wahlen wir v = (1, 0)T , w = (0, 1)T , so gilt

(M(v + w))2 + (M(v − w))2 = 1 + 1 = 2 6= 4 = 2(1 + 1) = 2((M(v))2 + (M(w))2

).

Fur n ≥ 2 erfullt die Maximumsnorm also nicht die Parallelogramm-Gleichung.Die Maximumsnorm wird ublicherweise mit ‖ · ‖∞ bezeichnet.

(b) Die durch

S(v) =n∑j=1

|vj |

definierte Norm von V heißt Summennorm von V .Wahlen wir v und w wie in (a), so gilt

(S(v + w))2 + (S(v − w))2 = 22 + 22 = 8 6= 4 = 2(12 + 12) = 2((S(v))2 + (S(w))2

).

Fur n ≥ 2 erfullt die Summennorm also nicht die Parallelogramm-Gleichung.(c) Die durch

N(v) =

√√√√ n∑j=1

|vj |2 =

√√√√ n∑j=1

vj · vj

definierte Norm von V heißt euklidische Norm von V . Sie ist die von dem Standard-Skalarprodukt induzierte Vektornorm und erfullt daher die Parallelogramm-Gleichung.Die euklidische Norm wird ublicherweise mit ‖ · ‖2 bezeichnet.

Die folgende Variante der Parallelogramm-Gleichung rechnet man ebenfalls leicht nach:

(12.1.9) Lemma(a) Ist V ein euklidischer Vektorraum so gilt fur alle v, w ∈ V

‖v + w‖2 − ‖v − w‖2 = 4 <v , w> .

(b) Ist V ein unitarer Vektorraum so gilt fur alle v, w ∈ V

‖v + w‖2 − ‖v − w‖2 + i‖v + iw‖2 − i‖v − iw‖2 = 4 <v , w> .

* Allgemeines uber Normen auf Vektorraumen.Die folgenden Ausfuhrungen wollen etwas Hintergrundwissen uber Normen auf Vektorraumenim Allgemeinen vermitteln und konnen beim ersten Lesen ubergangen werden.Zuerst stellt sich die Frage, wann eine Norm eines Vektorraums von einem Skalarproduktinduziert wird. Aus den Beispielen (12.1.8) wissen wir, daß dies nicht immer der Fall ist,da es Normen gibt, die die Parallelogrammgleichung nicht erfullen. Eine Antwort auf dieseFrage gibt der Satz (12.1.10).Anschließend wollen wir einige Begriffe untersuchen, deren Analoga in R den zentralen Un-tersuchungsgegenstand der Analysis bilden, vor allem den Begriff der konvergenten Folge.

Page 283: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

280 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

(12.1.10)* Satz (von Neumann) Es sei K = R oder C, und V sei ein normierter K-Vektorraum mit Norm N .Genau dann wird N von einem Skalarprodukt < · , ·> induziert (das heißt N(v) =

√<v , v>

fur alle v ∈ V ), wenn N die Parallelogramm-Gleichung erfullt.

Nach (12.1.9) ist klar, daß das Skalarprodukt < · , ·> durch die Gleichung

<v , w> =1

4

(‖v + w‖2 − ‖v − w‖2

)fur K = R und

<v , w> =1

4

(‖v + w‖2 − ‖v − w‖2 + i‖v + iw‖2 − i‖v − iw‖2

)fur K = C

definiert werden muß.Die positive Definitheit von < · , ·> , die Eigenschaft < v , o>=< o , v > fur alle v ∈ V ,sowie die Symmetrie bzw. Hermitizitat von < · , ·> rechnet man leicht nach. Trickreicherist der Beweis der Linearitat bzw. Semilinearitat in beiden Argumenten. Ihn findet manbeispielsweise in [Hup], S. 109-111.

In der Einleitung zu diesem Abschnitt wurde erwahnt, daß Normen auf Vektorraumen unteranderem deswegen definiert werden, um die Konvergenz einer Folge (vn)n∈N gegen einenVektor v0 ∈ V erklaren zu konnen.

Definition: konvergente FolgeEs sei K ein Teilkorper von C und V ein normierter Vektorraum mit der Norm N : V → R

+0 .

Eine Folge (vn)n∈N in V konvergiert gegen v0 ∈ V , wenn es fur alle ε > 0 eine naturliche ZahlNε gibt mit

N(vn − v0) < ε fur alle n ≥ Nε .

Die Bedingung dieser Definition laßt sich auch so formulieren: Die Folge (vn)n∈N konvergiertgenau dann gegen v0, wenn die Folge (N(vn − v0))n∈N eine Nullfolge in R ist.

(12.1.11) Beispiel konvergente Folge

-x

6

y rv0

p pp p p p pppppppppp

Es sei V = R2 und < · , ·> das durch die Strukturmatrix

(1 11 2

)beschriebene Skalarprodukt. Fur den Vektor v =

(xy

)gilt also

< v , v >= x2 + 2xy + 2y2 = (x + y)2 + y2 , und die von < · , · >induzierte Norm ist gegeben durch N(v) =

√(x+ y)2 + y2.

Wir setzen v0 =(

11

)und vn =

(1− 2/n1− 6/n2

)fur n ≥ 3. Dann gilt

N(vn − v0) =√

4/n2 + 24/n3 + 72/n4 −→n→∞

0 ,

also konvergiert die Folge (vn)n∈N gegen v0.

Page 284: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.1 Vektornormen 281

Kann es passieren, daß eine Folge (vn)n∈N bezuglich einer Norm N1 gegen den Vektor v0

konvergiert, aber bezuglich der Norm N2 nicht? Diese Frage fuhrt auf den Begriff deraquivalenten Normen:

Definition: aquivalente NormenEs sei K ein Teilkorper von C und N1, N2 zwei Normen auf dem K-Vektorraum V .Die Normen N1, N2 heißen aquivalent, wenn fur jede Folge (vn)n∈N von Vektoren vn ∈ V undjeden Vektor v0 ∈ V die folgenden Aussagen aquivalent sind:

(i) (vn)n∈N konvergiert gegen v0 bezuglich der Norm N1;(ii) (vn)n∈N konvergiert gegen v0 bezuglich der Norm N2.

(12.1.12)* Satz Es sei K ein Teilkorper von C und V ein K-Vektorraum.Die Normen N1, N2 auf V sind genau dann aquivalent, wenn es positive reelle Zahlen α ≤ βgibt mit

αN1(v) ≤ N2(v) ≤ βN1(v) fur alle v ∈ V .

Beweis:”=⇒“ Wir zeigen zuerst, daß es ein δ > 0 gibt mit N2(v) ≤ 1 fur alle v ∈ V mit

N1(v) ≤ δ. Ist diese Aussage falsch, so gibt es zu jedem δ > 0 ein v ∈ V mit N1(v) ≤ δ,aber N2(v) > 1. Insbesondere findet man zu jeder naturlichen Zahl n einen Vektor vn ∈ Vmit N1(vn) ≤ 1

n, aber N2(vn) > 1. Fur v0 = o gilt N1(vn − v0) = N1(vn) ≤ 1

n. Somit

ist die Folge(N1(vn − v0)

)n∈N eine Nullfolge in R, und die Folge (vn)n∈N konvergiert gegen

v0 bezuglich der Norm N1. Wegen der Aquivalenz von N1 und N2 konvergiert (vn)n∈Nauch bezuglich der Norm N2 gegen v0. Andererseits ist die Folge

(N2(vn − v0)

)n∈N wegen

N2(vn − v0) = N2(vn) > 1 keine Nullfolge in R, ein Widerspruch.Fur ein beliebiges v ∈ V \ {o} setzen wir nun

w =δ

N1(v)v .

Aus dem Axiom (Norm2) folgt dann

N1(w) =δ

N1(v)N1(v) = δ , also

δ

N1(v)N2(v) = N2(w) ≤ 1 ,

und schließlich N2(v) ≤ 1δN1(v) . Damit haben wir N2(v) ≤ βN1(v) gezeigt fur β = 1

δ> 0

und alle v ∈ V . Die Vertauschung der Rollen von N1 und N2 in obigem Argument liefert dieandere Ungleichung αN1(v) ≤ N2(v) fur ein geeignetes α > 0.

”⇐=“ Nun existieren α, β > 0 mit αN1(v) ≤ N2(v) ≤ βN1(v) fur alle v ∈ V . Dann folgt

1

βN2(v) ≤ N1(v) ≤ 1

αN2(v)

fur alle v ∈ V , und 1β, 1α> 0. Die Voraussetzung ist also symmetrisch in N1 und N2, und

man braucht nur zu zeigen, daß jede bezuglich N1 gegen den Vektor v0 konvergente Folge(vn)n∈N auch bezuglich der Norm N2 gegen v0 konvergiert.Dazu sei ein ε > 0 vorgegeben. Wegen β > 0 ist auch ε

β> 0, also gibt es ein N ∈ N, so daß

N1(vn − v0) < εβ

fur alle n ≥ N gilt. Jetzt haben wir

N2(vn − v0) ≤ βN1(vn − v0) < β · εβ

= ε

Page 285: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

282 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

fur alle n ≥ N , also konvergiert (vn)n∈N auch bezuglich der Norm N2 gegen v0. �

Definition: Cauchy-FolgeEs sei K ein Teilkorper von C und V ein normierter Vektorraum mit der Norm N : V → R

+0 .

Eine Folge (vn)n∈N in V heißt Cauchy-Folge, wenn es fur alle ε > 0 eine naturliche Zahl Nε

gibt mitN(vn − vm) < ε fur alle n,m ≥ Nε .

In dieser Bedingung kommt kein Grenzwert vor, sondern es wird nur verlangt, daß dieAbstande der Folgenglieder vn, vm ”

klein“ werden fur genugend große Indizes n,m.Ist die Folge (vn)n∈N konvergent gegen einen Vektor v0 ∈ V , so gibt es zu jedem vorgegebenemε > 0 einen Index Nε mit N(vn − v0 <

ε2

fur alle n ≥ Nε . Fur alle n,m ≥ Nε gilt also

N(vn − vm) = N((vn − v0) + (v0 − vm)

) (Norm3)

≤ N(vn − v0) +N(v0 − vm)

(Norm2)

≤ N(vn − v0) +N(vm − v0) <ε

2+ε

2< ε .

Also ist jede konvergente Folge eine Cauchy-Folge. Die Umkehrung ist im allgemeinenbekanntlich nicht richtig. Dazu wahle man etwa K = Q und im ein-dimensionalen Q-Vektorraum V = Q mit der Norm N(v) = |v| eine Folge, die gegen die reelle Zahl

√2 ∈ R\Q

konvergiert. Eine solche Folge findet man zum Beispiel, indem man die Dezimalbruchdar-stellung von

√2 ausnutzt. Diese Folge ist eine Cauchy-Folge in V , hat aber keinen Grenzwert

in V .Andererseits besagt ein bekanntes Resultat aus der Analysis, daß eine Cauchy-Folge imKorper R oder im Korper C immer konvergiert 33 . Ein Korper K mit der Eigenschaft, daßjede Cauchy-Folge (λn)n∈N in K einen Grenzwert in K hat, heißt ein vollstandiger Korper.Die Korper R oder C sind also vollstandige Korper, der Korper Q dagegen nicht.

Definition: vollstandige NormEs sei K ein Teilkorper von C. Eine Norm auf einem K-Vektorraum heißt vollstandig, wennbezuglich dieser Norm jede Cauchy-Folge in V konvergiert.

Eine Norm N auf einem K-Vektorraum der Dimension d > 0 kann naturlich nur dannvollstandig sein, wenn der Korper K vollstandig ist.

(12.1.13)* Satz Es sei K = R oder K = C, und V sei ein endlich-dimensionaler K-Vektorraum. Dann gilt:

(a) Je zwei Normen auf V sind aquivalent.(b) Jede Norm auf V ist vollstandig.

Beweis: Es sei B = (b1, . . . , bd) eine Basis von V . Der Beweis verlauft in folgenden Schritten:Per Induktion nach der Dimension d zeigen wir in (i) und (ii) die Aquivalenz einer beliebigenNorm N zur Maximumsnorm 34 ‖·‖∞ bezuglich der Basis B. In (iii) wird die Vollstandigkeitder Norm N , also Aussage (b) bewiesen. Schließlich wird in (iv) die Aquivalenz zweierbeliebiger Normen auf V gezeigt.

33Fur K = R s. [Heu], (III.23.3). Der Fall K = C folgt leicht aus dem reellen Fall, s. etwa [FK], §7.3.6.34vgl. Beispiel (12.1.8.a).

Page 286: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.1 Vektornormen 283

(i) Da alle Basisvektoren ungleich dem Nullvektor sind, ist β := N(b1) + . . .+N(bd) > 0.Es sei der Vektor v = (v1, . . . , vd)

T gegeben in der Koordinatendarstellung bezuglichder Basis B. Dann gilt

N(v) = N(v1b1 + . . .+ vdbd)(Norm3)

≤ N(v1b1) + . . .+N(vdbd)(Norm2)

= |v1|N(v1) + . . .+ |vd|N(vd)

≤ ‖v‖∞N(v1) + . . .+ ‖v‖∞N(vd) = β‖v‖∞ .

(ii) Jetzt ist noch die Existenz einer reellen Zahl α > 0 zu zeigen mit α‖v‖∞ ≤ N(v) furalle v ∈ V . Dies geschieht durch Induktion nach der Dimension d. Zur Abkurzungsetzen wir δ := N(bd) > 0.Im Fall d = 0 enthalt V nur den Nullvektor, also ist nichts zu zeigen.Es sei U := 〈b1, . . . , bd−1〉. Wegen dim(U) = d − 1 sind nach Induktionsvoraussetzungdie Aussagen (a) und (b) richtig fur U . Daher gibt es ein γ > 0 mit γ‖u‖∞ ≤ N(u)fur alle u ∈ U . Fur jedes 0 < γ′ < γ gilt die entsprechende Ungleichung γ′‖u‖∞ ≤N(u). Daher kann man ohne Einschrankung annehmen, daß γ < δ gilt. Weiter istnach Induktionsvoraussetzung jede Cauchy-Folge bezuglich N in U eine bezuglich Nkonvergente Folge im Vektorraum U .Zuerst beweisen wir die Existenz eines ε > 0 mit v /∈ U fur alle v mit N(bd − v) < ε:Ware diese Behauptung falsch, so gabe es zu jedem n ∈ N einen Vektor un ∈ U mitN(bd − un) < 1

n. Die Folge (un)n∈N ware also eine bezuglich N konvergente Folge in V

und somit bezuglich N eine Cauchy-Folge in V . Andererseits lagen alle Folgengliederun schon im Unterraum U . Daher ware (un)n∈N sogar eine Cauchy-Folge in U und hattenach Induktionsvoraussetzung bezuglich N einen Grenzwert u0 ∈ U . Nun waren u0 ∈ Uund bd /∈ U Grenzwerte von (un)n∈N. Dies ist ein Widerspruch gegen die Eindeutigkeitdes Grenzwerts 35. Damit ist die Existenz von ε gezeigt.Jetzt betrachten wir einen Vektor v ∈ V mit ‖v‖∞ = 1 und beweisen die Existenz einesα > 0 (das nicht von v abhangt) mit α = α‖v‖∞ ≤ N(v):Es gilt v =

∑dj=1 vjbj. Weiter liegt der Vektor u =

∑d−1j=1 vjbj in U , und es gilt v =

u+ vdbd.1. Fall: |vd| ≤ γ

2δ.

Wegen γ < δ gilt hier γ2δ< 1. Außerdem haben wir ‖v‖∞ = 1, also ist vd nicht die

betragsmaßig großte Koordinate von v, und es gilt 1 = ‖v‖∞ = ‖u‖∞. Weiter folgt

γ = γ‖u‖∞ ≤ N(u) = N(v + (−vd)bd)(Norm3)

≤ N(v) + |vd|N(bd)

≤ N(v) +γ

2δ· δ = N(v) +

γ

2,

also γ2‖v‖∞ = γ

2≤ N(v) .

2. Fall: |vd| > γ2δ

.

Wegen − 1vdu ∈ U folgt aus der Voruberlegung N( 1

vdu+ bd) = N(bd− (− 1

vdu)) > ε, also

N(v) = N(u+ vdbd) = N(vd(

1

vdu+ bd)

)(Norm2)

= |vd|N(1

vdu+ bd) ≥ |vd|ε > γ · ε

2δ= γ

ε

2δ‖v‖∞ .

35Diese Eindeutigkeit zeigt man genauso wie die Eindeutigkeit des Grenzwerts einer reellen Folge.

Page 287: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

284 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

Somit kann man in beiden Fallen

α := min{γ2,γε

2δ}

wahlen. Wegen v = ‖v‖∞( 1‖v‖∞v) gilt damit auch fur alle v ∈ V die Ungleichung

α‖v‖∞ ≤ N(v).(iii) Jetzt sei (vn)n∈N bezuglich N eine Cauchy-Folge in V . Wegen der Aquivalenz von N

und der Maximumsnorm ist (vn)n∈N auch bezuglich ‖ · ‖∞ eine Cauchy-Folge in V . Wirmussen nun nachweisen, daß die Folge (vn)n∈N bezuglich der Maximumsnorm ‖ · ‖∞einen Grenzwert v0 ∈ V hat.Bezeichnet man mit v

(j)n die j-te Komponente von vn bezuglich der Basis B, so gilt

|v(j)n − v(j)

m | ≤ max{|v(k)n − v(k)

m | | 1 ≤ k ≤ d} = ‖vn − vm‖∞ fur alle j ≤ d .

Daher ist (v(j)n )n∈N eine Cauchy-Folge in K fur jedes j ≤ d. Da die Korper R und

C vollstandig sind, konvergiert jede der Folgen (v(j)n )n∈N im Korper K gegen einen

Grenzwert v(j)0 ∈ K. Der Vektor v0 := (v

(1)0 , . . . , v

(d)0 )T ist ein naturlicher Kandidat fur

einen Grenzwert der Folge (vn)n∈N.

Es sei ein ε > 0 gegeben. Zu jedem 1 ≤ j ≤ d gibt es dann ein nj ∈ Nmit |v(j)n −v(j)

0 | < εfur alle n ≥ nj. Daraus folgt

‖vn − v0‖∞ = max{|v(j)n − v

(j)0 | | 1 ≤ j ≤ d} < ε fur alle n ≥ max{nj | 1 ≤ j ≤ d} ,

und damit die Konvergenz der Folge (vn)n∈N gegen den Vektor v0 bezuglich der Maxi-mumsnorm. Wegen der Aquivalenz von N und ‖·‖∞ konvergiert (vn)n∈N auch bezuglichder Norm N gegen v0.

(iv) Sind N1, N2 beliebige Normen auf V , so existieren reelle Zahlen α1, α2, β1, β2 > 0 mit

α1‖v‖∞ ≤ N1(v) ≤ β1‖v‖∞ und α2‖v‖∞ ≤ N2(v) ≤ β2‖v‖∞

fur alle v ∈ V . Daraus folgt

α1

β2

N2(v) ≤ N1(v) ≤ β1

α2

N2(v)

fur alle v ∈ V , also die Aquivalenz von N1 und N2. �

(12.1.14) Beispiel Normen auf einem unendlich-dimensionalen R-VektorraumEs sei V = C([0, 1]) der Vektorraum der auf dem reellen Intervall [0, 1] definierten, reellwertigen,

stetigen Funktionen. Wie man leicht nachpruft, wird durch

<f , g> :=∫ 1

0f(x)g(x)dx

ein Skalarprodukt induziert. Damit wird V zu einem euklidischen Vektorraum. Die Integralnormvon V ist die von diesem Skalarprodukt induzierte Norm

‖f‖ =

√∫ 1

0

(f(x)

)2dx .

Page 288: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.1 Vektornormen 285

Ein Analogon zur Maximumsnorm auf endlich-dimensionalen Vektorraumen ist die Tschebyscheff-Norm

‖f‖∞ := max{|f(x)| | 0 ≤ x ≤ 1} .Die Integralnorm und die Tschebyscheff-Norm auf V sind nicht aquivalent:Setzen wir fn(x) = xn fur alle n ∈ N, so gilt

‖fn‖ =

√∫ 1

0x2ndx =

√1

2n+ 1fur alle n ∈ N .

Die Folge (‖fn‖)n∈N ist offensichtlich eine Nullfolge in R, also konvergiert die Folge (fn)n∈N gegendie Funktion f0 := 0 bezuglich der Integralnorm.Andererseits ist ‖fn‖∞ = 1 fur alle n ∈ N. Daher konvergiert die Folge (fn)n∈N nicht gegen dieFunktion f0 bezuglich der Tschebyscheff-Norm.

(12.1.15) Beispiel Normen auf einem Q-VektorraumEs sei V = Q

2, und der Vektor v = (v1, v2)T dargestellt in der Koordinatenschreibweise bezuglichder Standard-Einheitsbasis. Bezuglich dieser Basis haben wir einerseits die Maximumsnorm

‖v‖∞ := max{|v1|, |v2|}

und andererseits die durchN(v) := |v1 +

√2v2|

definierte Norm N . Diese beiden Normen sind nicht aquivalent:Bekanntlich kann man die reelle Zahl

√2 approximieren durch eine Folge (rn)n∈N rationaler Zahlen.

Jetzt bilde man die Vektoren vn = (2,−rn)T ∈ Q2. Wegen

N(vn) = |2−√

2rn| −→n→∞

0

konvergiert die Folge (vn)n∈N gegen den Nullvektor bezuglich der Norm N . Andererseits gilt‖vn‖n ≥ 2 fur alle n ∈ N. Daher kann (vn)n∈N nicht gegen den Nullvektor bezuglich der Maxi-mumsnorm konvergieren.

Die Funktionalanalysis beschaftigt sich mit Vektorraumen von (stetigen, beliebig oft differen-zierbaren, integrierbaren, ...) Funktionen. Die Normen auf diesen Vektorraumen spielen einegroße Rolle. Daher gibt es eigene Namen fur Vektorraume, deren Normen bestimmte Eigen-schaften haben: ein normierter Vektorraum mit vollstandiger Norm heißt Banachraum. EinVektorraum V mit Skalarprodukt heißt Prae-Hilbertraum. Ist die von dem Skalarproduktinduzierte Norm von V vollstandig, so heißt V ein Hilbertraum.

* MatrixnormenDie Matrizen A ∈Mn(C) bilden nach (2.3.3) einen C-Vektorraum der Dimension n2. Daherkann man eine Vektornorm auf dem Raum Mn(C) definieren und erhalt so ein Maß fur denAbstand zweier Matrizen. Da man Matrizen aber nicht nur addieren, sondern auch multi-plizieren kann, verlangt man fur eine Matrixnorm zusatzlich zu den Vektornorm-Axiomen(Norm1) (Positivitat), (Norm2) (Homogenitat) und (Norm3) (Dreiecksungleichung) nochdas multiplikative Analogon zur Dreiecksungleichung:Fur alle A,B ∈Mn(C) gilt ‖AB‖ ≤ ‖A‖ · ‖B‖ . (Submultiplikativitat)

Page 289: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

286 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

(12.1.16) Beispiele Matrixnormen

1. ‖A‖1 =∑n

i,j=1 |aij | (l1-Norm).

2. ‖A‖2 =√∑n

i,j=1 |aij |2 (l2-Norm).Diese Norm heißt auch Frobenius-Norm, Schur-Norm oder Hilbert-Schmidt-Norm.

3. Die l∞-Norm ‖A‖∞ = max{|aij | | 1 ≤ i, j ≤ n} ist zwar eine Vektornorm auf Mn(C), aberkeine Matrixnorm, weil sie nicht submultiplikativ ist.Jedoch wird durch ‖A‖ := n‖A‖∞ eine Matrixnorm auf Mn(C) definiert.

4. Es sei ‖ · ‖ eine Vektornorm auf dem Vektorraum Cn. Dann wird durch

‖A‖ := max{‖Ax‖ | ‖x‖ = 1}

eine Matrixnorm auf Mn(C) definiert. Sie heißt die von ‖ · ‖ induzierte Matrixnorm oder dievon ‖ · ‖ induzierte lub-Norm (”lub“ steht fur ”least upper bound“).Fur eine Vektornorm und die von ihr induzierte Matrixnorm gilt ‖E‖ = 1 und

‖Ax‖ ≤ ‖A‖ · ‖x‖ fur alle A ∈Mn(C) und x ∈ Cn .

Literatur: In [12] und [11] werden weitere Kriterien dafur angegeben, wann eine Normvon einem Skalarprodukt induziert wird. Falkner [11] nennt eine Abbildung N : V → R

eines reellen Vektorraums eine euklidische Norm, wenn sie (Norm1) und (Norm2) erfullt undfur alle τ > 1 außerdem die Implikation [ N(v) = N(w) =⇒ N(v − τw) = N(w − τv) ]gilt. Er zeigt, daß jede euklidische Norm von einem Skalarprodukt induziert wird.Mehr uber Normen im Allgemeinen, normierte Vektorraume und Konvergenzbegriffe in Vek-torraumen steht in [Hup], Abschnitt II.1 und II.4, sowie in [SS], §76.Eine ausfuhrliche Behandlung des Themas Matrixnormen findet man in [HJ], Abschnitt 5.6.Dort stehen naturlich auch die Beweise fur die Aussagen in den Beispielen (12.1.16) sowieweitere Beispiele von Matrixnormen. In [SB], Abschnitt 4.4, und in [GL], Abschnitt 2.3,werden ebenfalls Matrixnormen besprochen.

12.2 Das Orthonormalisierungsverfahren von Gram-Schmidt

(12.2.1) Satz Es sei V ein euklidischer oder unitarer Vektorraum mit Skalarprodukt< · , ·> , und ‖ · ‖ die von < · , ·> induzierte Norm.Weiter sei J = {1, . . . , N} eine endliche oder J = N eine abzahlbar unendliche Indexmenge,und A = {aj | j ∈ J} sei eine Menge von Vektoren aj ∈ V \ {o}.Menge B enthalte die Vektoren bj, j ∈ J , die rekursiv definiert sind durch

b1 = ‖a1‖−1a1

b′j+1 = aj+1 −j∑

k=1

<aj+1 , bk> bk fur j ≥ 1

bj+1 =

{‖b′j+1‖−1b′j+1 falls b′j+1 6= o

o falls b′j+1 = o .

Dann gilt:

Page 290: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.2 Das Orthonormalisierungsverfahren von Gram-Schmidt 287

(a) 〈b1, . . . , bn〉 = 〈a1, . . . , an〉 fur alle n ∈ J .(b) 〈B〉 = 〈A〉(c) Ist A linear unabhangig, so auch B.(d)

<bj , bh>=

1 falls h = j und bj 6= o

0 falls h = j und bj = o

0 falls h 6= j .

Beweis:

(a) Fur n ≤ N bzw. n ∈ N setzen wir An = {a1, . . . , an} und Bn = {b1, . . . , bn} undzeigen 〈An〉 = 〈Bn〉 per Induktion nach n: Wegen b1 ∈ 〈a1〉 und bj+1 ∈ 〈b′j+1〉 ⊆〈b1, . . . , bj, aj+1〉 sieht man sofort 〈Bn〉 ⊆ 〈An〉.Umgekehrt gilt a1 = ‖a1‖b1, also a1 ∈ 〈b1〉, und

aj+1 = b′j+1 +

j∑k=1

<aj+1 , bk> bk = ‖b′j+1‖bj+1 +

j∑k=1

<aj+1 , bk> bk ∈ 〈b1, . . . , bj+1〉 .

Damit folgt 〈An〉 = 〈Bn〉, und (a) ist fur eine endliche Indexmenge gezeigt.Im Fall J = N gilt B =

⋃n∈NBn und A =

⋃n∈NAn, also

〈B〉 = 〈⋃n∈N

Bn〉 =∑n∈N

〈Bn〉 =∑n∈N

〈An〉 = 〈⋃n∈N

An〉 = 〈A〉 .

(b) ist klar nach (a).(c) folgt sofort aus (a) fur eine endliche Indexmenge J .

Falls J = N und B linear abhangig ist, so gibt es bereits eine endliche, linear abhangigeTeilmenge von B. Diese liegt in einem geeigneten Bn, also gibt es ein n ∈ N, so daßBn linear abhangig ist. Der Unterraum 〈bn〉 hat also eine Dimension kleiner als n.Andererseits ist 〈Bn〉 = 〈An〉, und An linear unabhangig nach Voraussetzung, einWiderspruch.

(d) Die Aussage < bj , bj >= 1 fur bj 6= o und 0 fur bj = o ergibt sich sofort aus derDefinition der bj.Fur den Beweis der dritten Behauptung kann man j > h annehmen wegen <bj , bh>= <bh , bj> . Wir zeigen die Aussage < bj , bh >= 0 durch Induktion nach j. ImInduktionsanfang j = 1 gibt es kein h < j, also ist nichts zu zeigen. Die Induktions-annahme heißt nun <bk , bh>= 0 fur alle h < k ≤ j.Falls bj+1 = o, so folgt trivialerweise <bj+1 , bh>= 0. Andernfalls gilt

<bj+1 , bh> = <‖b′j+1‖−1b′j+1 , bh>= ‖b′j+1‖−1(<aj+1 −

j∑k=1

<aj+1 , bk> , bh>)

= ‖b′j+1‖−1(<aj+1 , bh> −

j∑k=1

<aj+1 , bk> <bk , bh>)

= ‖b′j+1‖−1 (<aj+1 , bh> − <aj+1 , bh> <bh , bh> ) = 0 ,

weil <bh , bh>= 1 im Fall bh 6= o und <aj+1 , bh>= 0 im Fall bh = o. �

Page 291: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

288 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

Definition: Kronecker-DeltaEs sei J eine Indexmenge. Wir setzen

δij =

{1 fur i = j ∈ J0 fur i, j ∈ J , i 6= j .

Mit dieser abkurzenden Schreibweise kann man den wichtigsten Spezialfall von (12.2.1)pragnant formulieren:

(12.2.2) Korollar Orthonormalisierungsverfahren von Gram-SchmidtEs gelten dieselben Voraussetzungen wie in (12.2.1), wobei jetzt A = {aj | j ∈ J} eine linearunabhangige Teilmenge von V sei.Dann ist auch B = {bj | j ∈ J} linear unabhangig, erzeugt denselben Unterraum wie A, undes gilt

<bj , bh>= δj,h .

Definition: normierter Vektor, Orthonormalsystem, OrthonormalbasisEs sei V ein euklidischer oder unitarer Vektorraum mit Skalarprodukt < · , ·> , und ‖ · ‖ dievon < · , ·> induzierte Norm.Ein Vektor v ∈ V heißt normiert, wenn ‖v‖ = 1 gilt.Eine Menge {bj | j ∈ J} von Vektoren bj ∈ V heißt Orthonormalsystem, wenn jedes bjnormiert ist und je zwei verschiedene bj, bh zueinander orthogonal sind.Eine Basis von V , die ein Orthonormalsystem ist, heißt Orthonormalbasis von V .

Es sei B = (b1, . . . , bn) eine Orthonormalbasis des n-dimensionalen euklidischen oder unitarenVektorraums V und v = (v1, . . . , vn)T die Koordinatendarstellung des Vektors v bezuglichB. Die Koordinatendarstellung des Basisvektors bj bezuglich B enthalt an der j-ten Stelleeine Eins und sonst nur Nullen. Weil bezuglich der Orthonormalbasis B das Skalarproduktvon V gleich dem Standard-Skalarprodukt ist, gilt

<v , bj>= vT ej = vj .

Mit dem Verfahren von Gram-Schmidt kann man insbesondere aus einer beliebigen Basisvon V eine bezuglich des vorgegebenen Skalarprodukts orthonormierte Basis konstruieren.Die Leistungsfahigkeit des Verfahrens von Gram-Schmidt zeigt sich aber auch bei linearabhangigen Eingabevektoren aj:

(12.2.3) Korollar Es seien dieselben Voraussetzungen wie in (12.2.1) gegeben. Fur allej ∈ J gilt: Aus aj ∈ 〈a1, . . . , aj−1〉 folgt bj = o.

Beweis: Der Vektor bj steht nach Konstruktion senkrecht auf allen Elementen des Erzeu-gendensystems von

〈b1, . . . , bj−1〉 = 〈a1, . . . , aj−1〉 = 〈a1, . . . , aj−1, aj〉 = 〈b1, . . . , bj〉 .

Page 292: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.2 Das Orthonormalisierungsverfahren von Gram-Schmidt 289

Die Behauptung erhalt man nun durch Anwendung von (11.6.14) auf den Vektorraum〈b1, . . . , bj〉 und die Vektoren v = bj und w = o. �

Das Verfahren von Gram-Schmidt liefert also bei Eingabe irgendeines (abzahlbaren) Vektor-systems {aj | j ∈ J} eine Orthonormal-basis des Unterraums U = 〈aj | j ∈ J〉 von V , wennman die Vektoren bj = o weglaßt.

(12.2.4) Beispiel Orthonormalisierungsverfahren von Gram-Schmidt

1. Es sei V = R4 der euklidische Vektorraum, dessen Skalarprodukt durch die Strukturmatrix

B =

1 0 0 10 1 0 10 0 2 01 1 0 3

gegeben ist. Gegeben seien die Vektoren

a1 =

0100

, a2 =

1001

, a3 =

−2

30−2

, a4 =

4010

.

Zuerst berechnen wir Ba1 = (0, 1, 0, 1)T . Dann gilt ‖a1‖2 = (0, 1, 0, 0)(0, 1, 0, 1)T = 1, also

b1 = a1 =

0100

.

Aus <a2 , b1>= (1, 0, 0, 1)Ba1 = (1, 0, 0, 1)(0, 1, 0, 1)T = 1 folgt

b′2 = a2− <a2 , b1> b1 = (1, 0, 0, 1)− (0, 1, 0, 0) = (1,−1, 0, 1) ,

und Bb′2 = (2, 0, 0, 3)T , also ‖b′2‖2 = (1,−1, 0, 1)(2, 0, 0, 3)T = 5 und damit

b2 =1√5

1−1

01

.

Wir berechnen

<a3 , b1> = a3Bb1 = (−2, 3, 0,−2)(0, 1, 0, 1)T = 1 und

<a3 , b2> = a3Bb2 = (−2, 3, 0,−2)1√5

(2, 0, 0, 3)T = −2√

5 .

Dies liefert b′3 = (−2, 3, 0,−2)T − (0, 1, 0, 0)T + 2√

5√5(1,−1, 0, 1)T = (0, 0, 0, 0)T , also

b3 =

0000

.

Page 293: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

290 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

(Das Verschwinden von b3 wird verursacht von der linearen Abhangigkeit der Menge {a1, a2, a3},vgl. (12.2.3).) Schließlich berechnen wir

<a4 , b1> = a4Bb1 = (4, 0, 1, 0)(0, 1, 0, 1)T = 0 und

<a4 , b2> = a4Bb2 = (4, 0, 1, 0)1√5

(2, 0, 0, 3)T =6√5,

also b′4 = (4, 0, 1, 0)T − 65(1,−1, 0, 1)T = 1

5(14, 6, 5,−6)T .Wegen ‖b′4‖2 = 1

25(14, 6, 5,−6)B(14, 6, 5,−6)T = 6 folgt

b4 =1

5√

6

1465−6

.

2. Wendet man das Verfahren auf dieselben Vektoren a1, . . . , a4, nun aber mit dem Standard-Skalarprodukt <v , w>= vTw an, so erhalt man die Vektoren

b1 =

0100

, b2 =1√2

1001

, b3 =

0000

, b4 =13

201−2

.

3. Wir betrachten wieder einmal den euklidischen Funktionenraum V = C[0, 1] mit dem Skalar-produkt <f , g>=

∫ 10 f(x)g(x)dx (vgl. (12.1.14)). Die Basis (1, x, x2, x3) des Unterraums

U der Polynome vom Grad hochstens drei soll orthonormalisiert werden. Das Gram-Schmidt-Verfahren liefert die Orthonormalbasis

b1 = 1 ,b2 =

√3(2x− 1) ,

b3 =√

5(6x2 − 6x+ 1) ,b4 =

√7(20x3 − 30x2 + 12x− 1) .

Varianten des Gram-Schmidt-Verfahrens.Das Verfahren von Gram-Schmidt zur Orthonormalisierung eines vorgegebenen Vektorsy-stems ist im Prinzip keine schwierige Sache, fuhrt aber schnell zu unubersichtlichen Rech-nungen, wie man etwa in (12.2.4) sehen kann. Aus diesem Grund haben Pursell undTrimble in [41] eine Methode vorgeschlagen, wie man die Rechnungen auf ubersichtlicheWeise mit Hilfe der Gauß-Elimination ausfuhren kann.

(12.2.5) Beispiel Gram-Schmidt-Orthonormalisierung durch Gauß- EliminationEs sei V = R

4 der euklidische Vektorraum mit dem Standard-Skalarprodukt. Gegeben seien dieVektoren

a1 =

0100

, a2 =

1001

, a3 =

−2

30−2

, a4 =

4010

Page 294: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.2 Das Orthonormalisierungsverfahren von Gram-Schmidt 291

aus Beispiel (12.2.4.b). Wir schreiben diese Vektoren als Zeilen in eine Matrix A, also

A =

0 1 0 01 0 0 1−2 3 0 −2

4 0 1 0

.

Jetzt berechnen wir die Matrix AAT . Diese ist nach (11.6.15) eine (naturlich symmetrische), positivsemidefinite Matrix. Dann schreiben wir AAT auf die linke und A auf die rechte Seite in einemTableau zur Gauß-Elimination, und fuhren solange Zeilenoperationen durch, bis auf der linken Seiteeine obere Dreiecksmatrix steht:

AAT =

1 0 3 00 2 −4 43 −4 17 −80 4 −8 17

, also

AAT |A =

1 0 3 0 0 1 0 00 2 −4 4 1 0 0 13 −4 17 −8 −2 3 0 −20 4 −8 17 4 0 1 0

[3]− 3[1]

1 0 3 0 0 1 0 00 2 −4 4 1 0 0 10 −4 8 −8 −2 0 0 −20 4 −8 17 4 0 1 0

[2] + 2[2][4]− 2[2]

1 0 3 0 0 1 0 00 2 −4 4 1 0 0 10 0 0 0 0 0 0 00 0 0 9 2 0 1 −2

Man beachte, daß nur Vielfache einer Zeile zu einer tieferen Zeile addiert wurden, daß aber keineZeilenvertauschungen und keine Multiplikationen einer Zeile mit einem Skalar vorkamen.Das Diagonalelement uii auf der linken Seite ist jeweils das Quadrat der Lange der i-ten Zeile aufder rechten Seite. Dividiert man fur uii 6= 0 die i-te Zeile rechts durch

√uii, so erhalt man genau

die Vektoren b1, . . . , b4 die wir in (12.2.4.b) durch das Gram-Schmidt-Verfahren gewonnen haben.Auf der rechten Seite des Tableaus steht also die Matrix mit den orthogonalisierten Zeilen von A.

Warum funktioniert diese Methode? Spater wird in (13.5.5) gezeigt werden, daß eine her-mitesche, positiv semidefinite Matrix immer durch elementare Zeilenumformungen vom Typ(EU3) auf eine obere Dreiecksmatrix transformiert werden kann (LU-Zerlegung). Die Zeilender dabei mitgefuhrten rechten Seite werden automatisch orthogonalisiert:

(12.2.6) Satz Gram-Schmidt-Orthonormalisierung durch Gauß- EliminationAuf Cn sei das Standard-Skalarprodukt gegeben. Es sei A ∈ M(m × n,C) eine beliebigeMatrix mit den Zeilen a1, . . . , am. Allein durch Additionen von Vielfachen einer Zeile zueiner tieferen Zeile kann man im Gauß-Tableau

AAH |A

die linke Seite auf obere Dreiecksgestalt U = (uij) transformieren. Dabei wird die rechteSeite A auf eine Matrix B mit den Zeilen b1, . . . , bm transformiert, so daß gilt

(a) 〈b1, . . . , bk〉 = 〈a1, . . . , ak〉 fur alle 1 ≤ k ≤ m.(b) Liegt ak in 〈a1, . . . , ak−1〉, so gilt bk = oT .

Page 295: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

292 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

(c) <bj , bk>= 0 fur j 6= k.(d) ukk = ‖bk‖2 fur alle 1 ≤ k ≤ m.

Beweis: Nach (11.6.15) ist AAH hermitesch und positiv semidefinit. Nach (13.5.5) gibtes daher eine unitriangulare untere Dreiecksmatrix L und eine obere Dreiecksmatrix U mitAAH = LU . Die Matrix L gibt dabei die durchgefuhrten elementaren Zeilenumformungenan (vgl. Beweis zu (13.5.5)). Im Gauß-Tableau steht nach Beendigung des Verfahrens aufder linken Seite die Matrix U = L−1(AAH), auf der rechten Seite die Matrix B = L−1A.Das Produkt

P = (L−1A)(L−1A)H = L−1AAH(L−1)H = U(L−1)H

ist einerseits hermitesch und andererseits ein Produkt von zwei oberen Dreiecksmatrizen,also selbst eine obere Dreiecksmatrix. Folglich ist P eine Diagonalmatrix. Weiter ist pjk =<bj , bk> der (j, k)-te Eintrag von P , also <bj , bk>= 0 fur j 6= k. Da (L−1)H nur Einsenauf der Diagonalen stehen hat, sind die Diagonalelemente von P dieselben wie die von U .Also folgt auch ukk =<bk , bk>= ‖bk‖2 fur alle k ≤ m. Damit sind (c) und (d) gezeigt.Sind ljk die Eintrage von L−1, so gilt bk = lk,1a1 + . . .+ lk,k−1ak−1 + ak , also (a).Jetzt sei ak ∈ 〈a1, . . . , ak−1〉. Wegen (a) gilt dann auch bk ∈ 〈b1, . . . , bk−1〉. Unter denVektoren b1, . . . , bk−1 suchen wir eine maximale, linear unabhangige Teilmenge bj1 , . . . bjraus. Dann gibt es Skalare µt mit bk =

∑rt=1 µtbjt , also

0 =<bk , bjs>=r∑t=1

µt <bjt , bjs>= µs‖bjs‖2 fur alle 1 ≤ s ≤ t .

Wegen bjs 6= o gilt ‖bjs‖2 6= 0 und schließlich µs = 0 fur alle s, also bk = o. �

Untersuchungen von Rice [42] auf dem Computer haben ergeben, daß eine weitere Variantedes Orthonormalisierungsverfahrens, namlich das modifizierte Gram-Schmidt-Verfahren 36

numerische Vorteile bietet. Das MGS verwendet dieselben Rechenoperationen, lediglichin einer anderen Reihenfolge. Um nicht unbeabsichtigt durch 0 zu dividieren, sei einmalangenommen, daß die Vektoren a1, . . . , an linear unabhangig seien. Dann berechnet derMGS-Algorithmus das Orthonormalsystem b1, . . . , bn auf folgende Art:

b1 = a1/‖a1‖ ,a

(1)j = aj − <aj , b1> b1 fur 2 ≤ j ≤ n .

Fur 2 ≤ k ≤ n setze

bk = a(k−1)k /‖a(k−1)

k ‖ ,a

(k)j = a

(k−1)j − <a

(k−1)j , bk> bk fur k + 1 ≤ j ≤ n .

MGS berechnet prinzipiell dieselben Vektoren wie das klassische Gram-Schmidt-Verfahren,braucht aber weniger Speicherplatz und rechnet genauer, wenn die Eingabevektoren

”fast

linear abhangig“ sind.

Literatur: Zu den Verfahren CGS und MGS siehe auch [GL], Abschnitt 5.2.7 und 5.2.8,das MGS wird auch besprochen in [HJ], Problem 2 in Abschnitt 2.6.

36in Gebrauch sind die Abkurzungen CGS fur classical Gram-Schmidt und MGS fur modified Gram-Schmidt

Page 296: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.3 Komplexe normale Matrizen. Der komplexe Spektralsatz 293

12.3 Komplexe normale Matrizen. Der komplexe Spektralsatz

Der Gegenstand dieses Abschnitts ist die Diagonalisierung einer gewissen Klasse komplexerMatrizen. Wir betrachten zunachst zwei Arten von nicht-singularen Matrizen, namlich dieorthogonalen und unitaren Matrizen, die als Transformationsmatrizen bei der Diagonalisie-rung vorkommen werden. Danach fuhren wir die normalen Matrizen ein. Das sind genaudiejenigen Matrizen, die man mit Hilfe einer orthogonalen bzw. unitaren Matrix diagonali-sieren kann. Schließlich werden wir uns kurz mit den Endomorphismen beschaftigen, diedurch normale Matrizen beschrieben werden, und mit der simultanen Diagonalisierung einerganzen Familie von normalen Matrizen.

Orthogonale und unitare Matrizen.

Definition: orthogonale Matrix, unitare Matrix

(a) Es sei K ein beliebiger Korper. Eine quadratische Matrix A ∈Mn(K) heißt orthogonal,wenn ATA = E gilt.

(b) Eine komplexe quadratische Matrix A ∈Mn(C) heißt unitar, wenn ATA = E gilt.

Aus der Definition folgt sofort, daß orthogonale und unitare Matrizen invertierbar sind mit

A−1 = AT im orthogonalen und A−1 = AT

= AH im unitaren Fall.

(12.3.1) Beispiele orthogonale und unitare Matrizen

1. Die reelle Matrix A =(

3/5 −4/54/5 3/5

)ist orthogonal.

2. Die komplexe Matrix A = 1√2

(1 ii 1

)ist unitar.

3. Eine Permutationsmatrix P ∈ Mn(K) uber einem beliebigen Korper K ist orthogonal nach(6.6.4). Ebenso ist jede Permutationsmatrix P ∈Mn(C) unitar.

Die Bedeutung der reellen orthogonalen und der unitaren Matrizen liegt in den folgendenbeiden Aussagen:

(12.3.2) Satz(a) Die Matrix A ∈ Mn(R) ist genau dann orthogonal, wenn ihre Spalten eine Orthonor-

malbasis bezuglich des Standard-Skalarprodukts auf Rn bilden.(b) Die Matrix A ∈Mn(C) ist genau dann unitar, wenn ihre Spalten eine Orthonormalbasis

bezuglich des Standard-Skalarprodukts auf Cn bilden.Die gleichen Aussagen gelten auch, wenn man jeweils

”Spalten“ durch

”Zeilen“ ersetzt.

Beweis: Es sei si die i-te Spalte von A. Die i-te Zeile von AT ist gleich der i-ten Spalte vonA. Daher ist im reellen Fall

∑nk=1 aikajk =< si , sj > der (i, j)-te Eintrag von ATA. Die

Bedingung ATA = E ist also gleichwertig mit <si , sj>= δij, also damit, daß {s1, . . . , sn}eine Orthonormalbasis von Rn ist. Den komplexen Fall zeigt man analog. �

Page 297: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

294 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

(12.3.3) Satz Es sei < · , ·> jeweils das Standard-Skalarprodukt auf Rn bzw. Cn.(a) Die Matrix A ∈Mn(R) ist genau dann orthogonal, wenn <Av , Aw>=<v , w> gilt

fur alle v, w ∈ Rn.(b) Die Matrix A ∈ Mn(C) ist genau dann unitar, wenn <Av , Aw>=<v , w> gilt fur

alle v, w ∈ Cn.

Beweis: Ist A ∈Mn(R) orthogonal, so gilt

<Av , Aw>= (Av)T (Aw) = vTATAw = vTEw = vTw =<v , w>

fur alle v, w ∈ V .Nun sei umgekehrt A ∈ Mn(R) eine Matrix, die das Skalarprodukt

”festlaßt“ . Bezuglich

des Standard-Skalarprodukts bildet die Standard-Einheitsbasis {e1, . . . , en} eine Orthonor-malbasis. Also gilt

δij =<ei , ej>=<Aei , Aej>= eTi ATAej .

Da ATAej die j-te Spalte von ATA, und eTi ATAej den i-ten Eintrag der j-ten Spalte von

ATA, also den (i, j)-ten Eintrag von ATA angibt, muß ATA die Einheitsmatrix sein.Den komplexen Fall zeigt man analog. �

Aus (12.1.9) erhalt man sofort die folgende Variante der Charakterisierung (12.3.3).

(12.3.4) Korollar Es sei < · , ·> jeweils das Standard-Skalarprodukt auf Rn bzw. Cn.(a) Die Matrix A ∈ Mn(R) ist genau dann orthogonal, wenn ‖Av‖ = ‖v‖ gilt fur alle

v ∈ Rn.(b) Die Matrix A ∈Mn(C) ist genau dann unitar, wenn ‖Av‖ = ‖v‖ gilt fur alle v ∈ Cn.

Der Beweis der beiden folgenden Aussagen uber unitare Matrizen ist eine leichte Ubung:

(12.3.5) Lemma(a) Die Determinante einer unitaren Matrix hat den Absolutbetrag 1.(b) Das Produkt zweier unitarer Matrizen in Mn(C) ist wieder unitar.

Normale Matrizen.Das nachste Ziel ist der Beweis, daß unitare Matrizen diagonalisiert werden konnen. Dieswird aber nur ein Spezialfall des machtigen Spektralsatzes sein, der diejenigen MatrizenA ∈ Mn(C) charakterisiert, fur die es eine unitare Matrix U ∈ Mn(C) gibt, so daß U−1AUeine Diagonalmatrix ist.

Definition: normale MatrixEine Matrix A ∈Mn(C) heißt normal, wenn AAH = AHA gilt.

(12.3.6) Beispiele normale Matrizen(a) Hermitesche und reelle symmetrische Matrizen A sind normal wegen AH = A.(b) Schief-hermitesche und reelle schief-symmetrische Matrizen sind normal wegen AH = −A.(c) Unitare und reelle orthogonale Matrizen sind normal wegen AH = A−1.

Page 298: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.3 Komplexe normale Matrizen. Der komplexe Spektralsatz 295

(d) Die symmetrische komplexe Matrix A =(

1 ii −1

)ist nicht normal wegen

AHA =(

2 2i−2i −2

)6=(

2 −2i2i −2

)= AAH .

(e) Die reelle Matrix A =(

1 −11 1

)ist normal, gehort aber zu keiner der drei Unterarten

(a), (b), (c).

(f) Es sei A =(

1 −11 1

)und B =

(1 00 2

). Dann sind A und B normal, aber das Produkt

AB =(

1 −21 2

)nicht wegen

(AB)H(AB) =(

5 −3−3 5

)6=(

2 00 8

)= (AB)(AB)H .

Das Produkt zweier normaler Matrizen ist also im Allgemeinen nicht normal.(g) Ist A ∈Mn(C) normal, so auch U−1AU fur jede unitare Matrix U ∈Mn(C):

In diesem Fall gilt namlich U−1 = UH , also

(U−1AU)H(U−1AU) = UHAH(U−1)HU−1AU = UHAHAU

= UHAAHU = (UHAU)(UHAHU) = (U−1AU)(U−1AU)H .

(h) Im Allgemeinen ist nicht jede zu einer normalen Matrix A ahnliche Matrix wieder normal:

Die reelle Matrix A =(

3/5 −4/54/5 3/5

)ist orthogonal, also normal. Die Matrix

B =(

1 00 2

)(3/5 −4/54/5 3/5

)(1 00 1/2

)=(

3/5 −2/58/5 3/5

)ist ahnlich zu A, aber es gilt

BHB = BTB =(

41/25 12/256/25 17/25

)6=(

17/25 12/256/25 41/25

)= BBH ,

also ist B nicht normal.

(12.3.7) Lemma Es sei V ein euklidischer oder unitarer Vektorraum der endlichen Dimen-sion n mit Standard-Skalarprodukt <v , w>= vTw. Weiter sei A ∈Mn(R) bzw. Mn(C).

(a) Fur alle v, w ∈ V gilt <Av , w>=<v , AHw> .(b) Die Matrix A ist genau dann normal, wenn <Av , Aw>=<AHv , AHw> fur alle

v, w ∈ V gilt.

Beweis:

(a) <Av , w>= (Av)Tw = vTATw = vT (AT

)w = vT (AHw) =<v , AHw> .

(b) Ist A normal, so gilt AHA = AAH , also ATA = AA

T. Die komplexe Konjugation

beider Seiten dieser Gleichung liefert ATA = AAT . Daraus folgt

<Av , Aw> = (Av)T (Aw) = vTATAw

= vTAATw = (aHv)T (AHw) =<AHv , AHw> .

Page 299: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

296 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

Nun gelte <Av , Aw>=<AHv , AHw> fur alle v, w ∈ V . Dann folgt

<(AAH)v , w>(a)= <AHv , AHw>

Vorauss.= <Av , Aw>

(a)= <(AHA)v , w>

fur alle v, w ∈ V . Aus (11.6.14.a) erhalten wir damit (AAH)v = (AHA)v fur alle v ∈ V ,also AAH = AHA. �

(12.3.8) Lemma Es sei A ∈ Mn(C) normal, und es sei v ein Eigenvektor von A zumEigenwert λ. Dann ist v ein Eigenvektor von AH zum Eigenwert λ.

Beweis: Fur das Standard-Skalarprodukt < · , ·> gilt

‖Av − λv‖2 = <Av − λv , Av − λv>= <Av , Av> −λ <Av , v> −λ <v , Av> +λ · λ <v , v>

(12.3.7.b)= =<AHv , AHv> −λ <Av , v> −λ <v , Av> +λ · λ <v , v>

(12.3.7.a)= =<AHv , AHv> −λ <v , AHv> −λ <AHv , v> +λ · λ <v , v>

= <AHv − λv , AHv − λv>= ‖AHv − λv‖2 .

Nach der Voraussetzung ist Av = λv, also ‖Av−λv‖2 = 0. Damit ist auch ‖AHv−λv‖2 = 0,also AHv = λv. �

Jede regulare Matrix S ∈ Mn(C) beschreibt eine Basistransformation des komplexen Vek-torraums Cn. Ist V = Cn versehen mit dem Standard-Skalarprodukt < · , ·> , so beschreibtnach (12.3.2.b) jede unitare Matrix U ∈ Mn(C) eine Basistransformation von V , wobei dieStandard-Einheitsbasis (e1, . . . , en) in eine andere Orthonormalbasis von V uberfuhrt wird.Wie wir in (12.3.6.g/h) gesehen haben, bleibt zum Beispiel die Normalitat einer Matrix un-ter einer unitaren Basistransformation erhalten, unter einer beliebigen Basistransformationjedoch nicht immer.

Definition: unitar ahnliche MatrizenZwei Matrizen A,B ∈Mn(C) heißen unitar ahnlich, wenn es eine unitare Matrix U ∈Mn(C)gibt mit B = U−1AU .

Manche Autoren verwenden statt unitar ahnlich den Ausdruck unitar aquivalent. Dieserdarf aber nicht mit dem Begriff der aquivalenten Matrizen (vgl. S. 92) verwechselt werden!

Den unitaren Matrizen entsprechen im Reellen bekanntlich die orthogonalen Matrizen. Daman die Orthogonalitat einer Matrix uber jedem Korper definieren kann, haben wir denBegriff der orthogonalen Ahnlichkeit uber beliebigen Korpern:

Definition: orthogonal ahnliche MatrizenEs sei K ein beliebiger Korper. Zwei Matrizen A,B ∈ Mn(K) heißen orthogonal ahnlich,wenn es eine orthogonale Matrix U ∈Mn(K) gibt mit B = U−1AU .

(12.3.9) Beispiel ahnlich, aber nicht unitar ahnlichDieses Beispiel soll zeigen, daß fur n ≥ 2 nicht jede Matrix A ∈ Mn(C) unitar ahnlich zu ihrerJordan-Normalform ist:

Page 300: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.3 Komplexe normale Matrizen. Der komplexe Spektralsatz 297

Es sei A =(

1 01/2 1

)∈M2(C). Fur S =

(1 00 2

)rechnet man S−1AS = J :=

(1 01 1

)nach.

Die Matrix J ist offensichtlich in Jordan-Normalform und daher die Jordan-Normalform von A.

Nun nehmen wir an, es gabe eine unitare Matrix U =(a bc d

)∈M2(C) mit J = U−1AU . Dieser

Ansatz liefert die Gleichung(1 01 1

)=

1ad− bc

(d −b−c a

)(1 0

1/2 1

)(a bc d

)=

1ad− bc

(ad− ab/2− bc −b2/2

a2/2 −bc+ ab/2 + ad

).

Der Vergleich der rechten oberen Eintrage zeigt −b2/2 = 0, also b = 0, und wir erhalten dieBedingung (

1 01 1

)=

1ad

(ad 0a2/2 ad

)=(

1 0a/(2d) 1

),

also a = 2d. Jetzt gilt

U =(

2d 0c d

)also UHU =

(2d c

0 d

)(2d 0c d

)=(

4|d|2 + |c|2 cd

cd |d|2)

=(

1 00 1

).

Damit folgt |d|2 = 1 und 4 ≤ 4|d|2 + |c|2 = 1, ein Widerspruch.

In den Beweis des folgenden Satzes geht wesentlich der Fundamentalsatz der Algebra ein,der besagt, daß jedes Polynom P ∈ C[x] vom Grad ≥ 1 eine Nullstelle in C besitzt. Nach(9.2.4) hat also jede quadratische, komplexe Matrix einen Eigenwert in C. Dieses Argumenthaben wir in Abschnitt 6.4 uber die Jordan-Normalform komplexer Matrizen schon einmalbenutzt.

(12.3.10) Satz (Schur) unitare TriangualisierungJede Matrix A ∈ Mn(C) ist unitar ahnlich zu einer oberen und zu einer unteren Dreiecks-matrix.

Beweis: Wir mussen zeigen, daß es eine Orthonormalbasis von V = Cn gibt, bezuglich

derer der durch A beschriebene Endomorphismus ϕ von V durch eine obere Dreiecksmatrixbeschrieben wird.Wie in der Vorbemerkung erwahnt, hat A mindestens einen Eigenwert λ1 ∈ C und dazu einenEigenvektor b′1. Der Vektor b1 := 1

‖b′1‖b′1 ist ebenfalls ein Eigenvektor von A zum Eigenwert

λ und hat die Lange 1. Fur n = 1 ist damit die Behauptung gezeigt.Wir fuhren nun eine Induktion nach n durch und nehmen dazu an, die Behauptung geltefur n − 1. Das orthogonale Komplement U = 〈b1〉⊥ hat nach (11.6.12) die Dimensionn−1. Aus einer beliebigen Basis von U laßt sich mit dem Verfahren von Gram-Schmidt eineOrthonormalbasis (u2, . . . , un) von U konstruieren. Wegen ‖b1‖ = 1 und <b1 , uk>= 0 fur2 ≤ k ≤ n ist B = (b1, u2, . . . , un) eine Orthonormalbasis von V .Da der neue Basisvektor b1 ein Eigenvektor von ϕ zum Eigenwert λ1 ist, hat die Matrix vonϕ bezuglich der neuen Basis die Gestalt

B1 =

λ1 ∗ . . . ∗0...0

A1

,

Page 301: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

298 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

wobei A1 eine ((n− 1)× (n− 1))-Matrix ist. Weil die neue Basis eine Orthonormalbasis ist,gibt es also eine unitare Matrix U1 ∈ Mn(C) mit U−1

1 AU1 = B1. Nach der Induktionsvor-aussetzung gibt es außerdem eine unitare Matrix V1 ∈Mn−1(C), so daß A2 = V −1

1 A1V1 eineobere Dreiecksmatrix ist. Die Matrix

U2 =

1 0 . . . 00...0

V1

ist eine unitare Matrix in Mn(C) wegen

UH2 U2 =

1 0 . . . 00...0

V H1

1 0 . . . 00...0

V1

=

1 0 . . . 00...0

V H1 V1

= E .

Nach (12.3.5.b) ist das Produkt U1U2 wieder unitar, und es gilt

(U1U2)−1A(U1U2) = U−12 (U−1

1 AU1)U2

=

λ−1

1 0 . . . 00...0

V −11

λ1 ∗ . . . ∗0...0

A1

λ1 0 . . . 00...0

V1

=

λ1 ∗ . . . ∗0...0

V −11 A1V1

.

Also ist A unitar ahnlich zu einer oberen Dreiecksmatrix.Der Beweis der unitaren Ahnlichkeit von A zu einer unteren Dreiecksmatrix geht ganz ahnlichund ist dem Leser zur Ubung uberlassen. �

Daß jede Matrix A ∈ Mn(C) ahnlich zu einer unteren Dreiecksmatrix ist, ist nichts Neues:das liefert bereits die Jordan-Normalform (6.4.1). Die unitare Ahnlichkeit von A zu einerDreiecksmatrix laßt sich mit der Jordan-Normalform jedoch nicht beweisen, wie das Beispiel(12.3.9) zeigt. Fur den Beweis von (12.3.10) haben wir kraftig mit Blockmatrizen gerechnet.Dies tun wir gleich noch einmal, um die normalen Dreiecksmatrizen zu bestimmen:

(12.3.11) Lemma normale DreiecksmatrizenEine Dreiecksmatrix A ∈Mn(C) ist genau dann normal, wenn sie eine Diagonalmatrix ist.

Beweis: Es sei A ∈ Mn(C) normal. Der Beweis geht wieder mit Induktion nach n. Furn = 1 ist alles trivial. Jetzt sei die Behauptung fur n− 1 gezeigt, und es sei A = (aij)i,j eine

Page 302: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.3 Komplexe normale Matrizen. Der komplexe Spektralsatz 299

obere Dreiecksmatrix in Mn(C). Dann konnen wir A als Blockmatrix

A =

a11 a12 . . . a1n

0...0

B

schreiben mit einer oberen Dreiecksmatrix B ∈Mn−1(C).Der Eintrag an Position (1, 1) von AHA ist c11 = a11 · a11 = |a11|2.Der Eintrag an Position (1, 1) von AAH ist d11 = a11 ·a11 + . . .+a1n ·a1n = |a11|2 + . . .+ |a1n|2.Die Normalitat von A erzwingt c11 = d11, also |a12|2 + . . . + |a1n|2 = 0. Da eine Summereeller nicht-negativer Zahlen nur dann 0 sein kann, wenn alle Summanden 0 sind, folgta12 = . . . = a1n = 0. Daher hat A die Gestalt

A =

a11 0 . . . 00...0

B

.

Jetzt ist es leicht, die Matrizen AHA und AAH vollstandig zu berechnen, denn man bekommt

AHA =

a11 0 . . . 00...0

BH

a11 0 . . . 00...0

B

=

|a11|2 0 . . . 0

0...0

BHB

und

AAH =

a11 0 . . . 00...0

B

a11 0 . . . 00...0

BH

=

|a11|2 0 . . . 0

0...0

BBH

.

Die Normalitat von A erzwingt also die Normalitat von B. Nach Induktionsvoraussetzungist B eine Diagonalmatrix und damit auch A diagonal.Der Beweis der Umkehrung ist trivial. �

Kombiniert man (12.3.10) und (12.3.11), so erhalt man den folgenden Diagonalisierungs-Satz:

(12.3.12) Satz Spektralsatz fur endlich-dimensionale unitare RaumeEs sei V ein endlich-dimensionaler unitarer Raum der Dimension n mit dem Standard-Skalarprodukt < · , ·> . Fur eine Matrix A ∈Mn(C) sind aquivalent:

(i) A ist normal.(ii) A ist unitar ahnlich zu einer Diagonalmatrix.

(iii) Es gibt eine Orthonormalbasis von V , die aus lauter Eigenvektoren von A besteht.

Beweis: Wegen (12.3.2) ist die Aquivalenz von (ii) und (iii) klar.

Page 303: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

300 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

(i) =⇒ (ii) : Nach (12.3.10) ist die normale Matrix A unitar ahnlich zu einer oberen Drei-ecksmatrix B. Wegen (12.3.6.g) ist auch B normal. Nach (12.3.11) ist dann B eine Diago-nalmatrix.

(ii) =⇒ (i) : Aus der Voraussetzung (ii) folgt die Existenz einer unitaren Matrix U , so daßB := U−1AU eine Diagonalmatrix ist. Naturlich ist dann auch BH eine Diagonalmatrix,also vertauschbar mit B. Daher ist B, also auch A normal. �

Die Diagonaleintrage in (12.3.12.(ii)) kann man durch eine unitare Diagonalisierung ineine beliebige Reihenfolge bringen. Eine Permutation der Diagonaleintrage erreicht mannamlich durch die Transformation D P−1DP mit einer geeigneten PermutationsmatrixP ∈Mn(C). Diese ist nach (12.3.1.3) unitar.

Weitere Eigenschaften normaler Matrizen.

In (12.3.6) haben wir die drei wichtigsten Typen normaler Matrizen, namlich hermitesche,schiefhermitesche und unitare Matrizen erwahnt. Diese drei Eigenschaften lassen sich anden Eigenwerten einer normalen Matrix ablesen. Dazu benotigen wir die Tatsache, daß fureine hermitesche (schiefhermitesche, unitare) Matrix A und eine unitare Matrix U die zu Aahnliche Matrix U−1AU wieder hermitesch (bzw. schiefhermitesch, unitar) ist. Der Beweisverlauft in allen drei Fallen genauso wie in (12.3.6.g) und wird deshalb nicht ausgefuhrt.

(12.3.13) Satz Es sei A ∈Mn(C) eine normale Matrix.

(a) A ist genau dann hermitesch, wenn alle Eigenwerte von A reell sind.(b) A ist genau dann schiefhermitesch, wenn alle Eigenwerte von A rein imaginar sind.(c) A ist genau dann unitar, wenn alle Eigenwerte von A den Absolutbetrag 1 haben.

Beweis:

(a) Es sei A eine hermitesche Matrix. Nach dem Spektralsatz gibt es eine unitare Ma-trix U , so daß D = U−1AU eine Diagonalmatrix ist. Die Diagonaleintrage vonD = diag(d1, . . . , n) sind die Eigenwerte von A. Wegen der Unitaritat von U istauch D hermitesch und hat nach (11.3.1.c) nur reelle Diagonaleintrage. Daher sindalle Eigenwerte von A reell.Umgekehrt ist eine normale Matrix mit lauter reellen Eigenwerten unitar ahnlich zueiner reellen Diagonalmatrix, also hermitesch.Analog geht der Beweis fur (b).

(c) Die Matrix A sei unitar, also AH = A−1. Weiter sei v ein Eigenvektor von A zumEigenwert λ. Nach (2.5.2.b) ist dann v ein Eigenvektor von AH = A−1 zum Eigenwertλ−1. Gleichzeitig ist v nach (12.3.8) ein Eigenvektor von AH zum Eigenwert λ. WegenAH = A−1 folgt λ−1 = λ, also |λ|2 = λ · λ = 1.Umgekehrt sei nun A normal und habe nur Eigenwerte vom Betrag 1. Nach demSpektralsatz gibt es eine unitare Matrix U , so daß D = U−1AU = diag(d1, . . . , n) ist.Die dj sind die Eigenwerte von A, haben also alle den Betrag 1. Daher ist

DHD = diag(d1 · d1, . . . , dn · dn) = diag(|d1|2, . . . , |dn|2) = E

die Einheitsmatrix, also D eine unitare Matrix. Folglich ist auch A = UDU−1 unitar.�

Page 304: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.3 Komplexe normale Matrizen. Der komplexe Spektralsatz 301

Wir notieren eine triviale Folgerung aus (12.3.12) und (12.3.13) fur die Jordan-Normalformnormaler Matrizen:

(12.3.14) Korollar(a) Die Jordan-Normalform einer normalen Matrix A ∈Mn(C) ist eine Diagonalmatrix.(b) Die Jordan-Normalform einer hermiteschen Matrix A ∈ Mn(C) ist eine Diagonalma-

trix mit reellen Diagonaleintragen.(c) Die Jordan-Normalform einer schiefhermiteschen Matrix A ∈ Mn(C) ist eine Diago-

nalmatrix mit rein imaginaren Diagonaleintragen.(d) Die Jordan-Normalform einer unitaren Matrix A ∈ Mn(C) ist eine Diagonalmatrix,

deren Diagonaleintrage alle den Absolutbetrag 1 haben.

(12.3.15) Satz Eigenvektoren normaler MatrizenEs sei K = R oder K = C und V = Kn ein euklidischer bzw. unitarer Raum, ausgestattetmit dem Standard-Skalarprodukt < · , · > . Weiter sei A ∈ Mn(K) eine normale Matrix.Dann stehen Eigenvektoren von A zu verschiedenen Eigenwerten orthogonal aufeinander.

Beweis: Es sei λ 6= µ,Av = λv,Aw = µw. Aus der Gleichungskette

λ <v , w>=<λv , w>=<Av , w>(12.3.7.a)

= <v , AHw>(12.3.8)

= <v , µw>= µ <v , w>

folgt (λ− µ) <v , w>= 0. Wegen λ− µ 6= 0 haben wir <v , w>= 0. �

Vorsicht! Die Verschiedenheit von λ und µ ist ganz wesentlich: Fur die Einheitsmatrix E sindalle Vektoren v ∈ V Eigenvektoren, aber stehen naturlich nicht alle paarweise aufeinandersenkrecht.

Die adjungierte Abbildung und normale Endomorphismen.

Da jede normale Matrix A ∈ Mn(C) bzw. Mn(R) einen Endomorphismus des VektorraumsV = Cn bzw. Rn beschreibt, stellt sich die Frage, was diese Endomorphismen fur Eigenschaf-ten haben. Dazu holen wir etwas aus und betrachten eine lineare Abbildung ϕ zwischen zweibeliebigen euklidischen bzw. unitaren Vektorraumen:

Definition: adjungierte AbbildungEs seien V,W zwei beliebige euklidische (bzw. unitare) Vektorraume mit den Skalarproduk-ten < · , ·>V und < · , ·>W , und ϕ : V → W sei eine lineare Abbildung.Eine lineare Abbildung ϕ∗ : W → V heißt die zu ϕ adjungierte Abbildung, wenn

<ϕ(v) , w>W =<v , ϕ∗(w)>V

gilt fur alle v ∈ V und w ∈ W .

Nicht jede lineare Abbildung ϕ : V → W besitzt eine adjungierte Abbildung. Es sei etwaW = C[0, 1] der Vektorraum aller stetigen Abbildungen f : [0, 1] → R, und es sei V der

Unterraum aller Polynome in W . Nach (11.6.11) wird durch < f , g >=∫ 1

0f(x)g(x)dx

ein Skalarprodukt auf W und damit auch auf V definiert. Die Abbildung ϕ(v) = v ist

Page 305: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

302 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

offensichtlich eine lineare Abbildung von V nach W . Es gibt aber keine zu ϕ adjungierteAbbildung ϕ∗ : W → V . Fur den Beweis s. [KM] (7.4.2.a).Falls jedoch eine adjungierte Abbildung ϕ∗ : W → V existiert, so ist sie eindeutig bestimmt:

(12.3.16) Lemma Eindeutigkeit der adjungierten AbbildungEs seien V,W zwei euklidische (bzw. unitare Vektorraume) und ϕ : V → W eine lineareAbbildung. Falls ϕ∗ und ϕ′ zu ϕ adjungiert sind, so gilt ϕ∗ = ϕ′.

Beweis: Nach Voraussetzung gilt fur alle Vektoren v ∈ V,w ∈ W

<v , ϕ∗(w)>V =<ϕ(v) , w>W =<v , ϕ′(w)>V ,

also ϕ∗(w) = ϕ′(w) fur alle w ∈ W nach (11.6.14.a) �

Falls der Urbildraum V eine endliche Dimension hat, so existiert die adjungierte Abbildungimmer, und man kann sie auch direkt angeben.

(12.3.17) Satz Existenz der adjungierten AbbildungEs seien V,W zwei euklidische (bzw. unitare Vektorraume) mit dim(V ) = n < ∞. Dannexistiert zu jeder linearen Abbildung ϕ : V → W die adjungierte Abbildung ϕ∗ : W → V .Ist B = (b1, . . . , bn) eine Orthonormalbasis von V , so ist ϕ∗ gegeben durch

ϕ∗(w) =n∑j=1

<w , ϕ(bj)>W bj .

Wir notieren den wichtigsten Spezialfall von (12.3.17): Hier ist V = W , und die beidenSkalarprodukte < · , ·>V und < · , ·>W sind auch dieselben.

(12.3.18) Korollar Es sei V ein endlich-dimensionaler euklidischer oder unitarer Vektor-raum.

(a) Zu jedem Endomorphismus ϕ von V existiert der adjungierte Endomorphismus ϕ∗.(b) Es sei B eine Basis von V , bezuglich derer das Skalarprodukt < · , · > durch die

Einheitsmatrix beschrieben wird. Hat ϕ bezuglich B die Koeffizientenmatrix A, so hatϕ∗ bezuglich B die Koeffizientenmatrix AH .

(12.3.18.b) legt die folgende Definition eines normalen Endomorphismus nahe:

Definition: normaler EndomorphismusEs sei V ein euklidischer oder unitarer Vektorraum beliebiger Dimension. Der Endomorphis-mus ϕ von V heißt normal, wenn der zu ϕ adjungierte Endomorphismus ϕ∗ existiert undmit ϕ vertauschbar 37 ist.

Man beachte, daß diese Definition basisunabhangig ist. Da die Normalitat einer Matrixbei Basistransformationen im Allgemeinen verloren geht, kann man nicht erwarten, daß ein

37d.h. es gilt ϕ∗(ϕ(v)) = ϕ(ϕ∗(v)) fur alle v ∈ V

Page 306: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.3 Komplexe normale Matrizen. Der komplexe Spektralsatz 303

normaler Endomorphismus eines endlich-dimensionalen Raumes bezuglich einer beliebigenBasis durch eine normale Matrix beschrieben wird.Aus (12.3.18) ergibt sich folgender Zusammenhang zwischen der Normalitat eines Endomor-phismus und der Normalitat seiner Koeffizientenmatrix:

(12.3.19) Korollar normaler Endomorphismus und normale MatrixEs sei ϕ ein Endomorphismus des endlich-dimensionalen eukldischen oder unitaren Vektor-raums V mit Standard-Skalarprodukt. Es sei B eine Orthonormalbasis von V . Genau dannist ϕ normal, wenn die zu ϕ bezuglich B gehorende Matrix normal ist.

(12.3.18) ist auch der Grund dafur, warum wir in diesem Abschnitt das Gewicht nicht aufdie linearen Abbildungen, sondern auf die Matrizen gelegt haben: Es sei V ein unitarerVektorraum endlicher Dimension und ϕ ein normaler Endomorphismus von V . Nach demTragheitssatz (11.6.1) gibt es eine Basis B = (b1, . . . , bn) von V , bezuglich derer das Ska-larpodukt < · , · > von V als Standard-Skalarprodukt < v , w >= vTw gegeben ist. DieBasis B von V ist dann offensichtlich eine Orthonormalbasis von V . Die Koeffizientenma-trix A von ϕ bezuglich der Basis B ist daher eine normale Matrix. Jetzt konnen wir mitder Matrix A weiterarbeiten und die Ergebnisse dieses Abschnitts verwenden. Insbesondereerhalten wir aus dem Spektralsatz (12.3.12) die Charakterisierung der komplexen normalenEndomorphismen:Ein Endomorphismus ϕ des endlich-dimensionalen unitaren Vektorraums V ist genau dannnormal, wenn V eine Orthonormalbasis aus lauter Eigenvektoren von ϕ besitzt.Die Behandlung normaler Endomorphismen in unendlich-dimensionalen Vektorraumen wurdediesen Text bei weitem sprengen. Sie ist ein Gegenstand der Funktionalanalysis.

* Familien vertauschbarer Matrizen.

Manchmal ist es von Interesse, mehrere Matrizen durch dieselbe Basistransformation zudiagonalisieren. Dies ist naturlich nicht immer moglich. Sind etwa A1, A2 ∈ Mn(C) zweinormale Matrizen mit den Diagonalisierungen D1 = U−1A1U,D2 = U−1A2U , so mussen dieSpalten der Transformationsmatrix U sowohl Eigenvektoren von A1 als auch von A2 sein.Wahlen wir etwa

A1 =

(1 00 2

), A2 =

(0 11 0

),

so sind beide Matrizen offensichtlich normal. Die Eigenvektoren von A1 liegen im Unterraum〈(1, 0)T 〉 (zum Eigenwert 1) oder im Unterraum 〈(0, 1)T 〉 (zum Eigenwert 2). Keiner dieserEigenvektoren jedoch ist auch Eigenvektor von A2, denn deren Eigenvektoren liegen imUnterraum 〈(1, 1)T 〉 oder im Unterraum 〈(1,−1)T 〉. Daher kann man A1 und A2 nichtgleichzeitig diagonalisieren.

Definition: simultan unitar diagonalisierbare MatrizenEine Familie F = {Ai | i ∈ I} von normalen Matrizen Ai ∈ Mn(C) heißt simultan unitardiagonalisierbar, wenn es eine unitare Matrix U ∈ Mn(C) gibt, so daß U−1AiU eine Diago-nalmatrix ist fur alle i ∈ I.

Nach der Vorbemerkung brauchen wir fur eine Familie normaler Matrizen eine Zusatzvor-aussetzung, damit die simultane Diagonalisierbarkeit gesichert ist. Eine notwendige Voraus-setzung ist schnell zu sehen: Wir nehmen an, die Familie F = {Ai | i ∈ I} sei simultan

Page 307: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

304 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

unitar diagonalisierbar mit der Transformationsmatrix U . Fur je zwei Indizes i, j ∈ I sinddann die Matrizen Di = U−1AiU und Dj = U−1AjU Diagonalmatrizen, also vertauschbar,das heißt es gilt DiDj = DjDi. Es folgt

AiAj = (UDiU−1)(UDjU

−1) = UDiDjU−1 = UDjDiU

−1 = (UDjU−1)(UDiU

−1) = AjAi .

Somit mussen die Ai alle paarweise vertauschbar sein.(12.3.21) besagt, daß die paarweise Vertauschbarkeit einer Familie normaler Matrizen auchhinreichend ist fur die simultane unitare Diagonalisierbarkeit. Fur diesen Satz benotigenwir ein Lemma uber Familien paarweise vertauschbarer Matrizen, die nicht unbedingt nor-mal sein mussen. Da auch hier wieder der Fundamentalsatz der Algebra verwendet wird,beschranken wir uns auf den Skalarenkorper C.

(12.3.20)* Lemma Es sei F = {Ai | i ∈ I} eine Familie von paarweise vertauschbarenMatrizen Ai ∈ Mn(C). Dann gibt es einen Vektor v ∈ Cn, der ein Eigenvektor von jedemAi ∈ F ist.

Beweis: Ein Unterraum U von V = Cn heißt Ai-invariant, wenn Aiu ∈ U fur jeden Vektoru ∈ U gilt. Entsprechend nennen wir einen Unterraum U von V F -invariant, wenn erAi-invariant ist fur jede Matrix Ai ∈ F . Der volle Vektorraum V hat trivialerweise dieseEigenschaft. Da jeder Unterraum U 6= {o} von V eine der Dimensionen 1, . . . , n hat, gibtes einen F -invarianten Unterraum U mit minimaler positiver Dimension von V . (Es kanneventuell mehrere Unterraume mit dieser Eigenschaft geben. Dann nehmen wir irgendeinendavon.)Nun nehmen wir an, es gabe einen Vektor v ∈ U \ {o}, der nicht Eigenvektor jeder MatrixA ∈ F ist. Es gibt also eine Matrix A ∈ F mit Av /∈ 〈v〉. Wegen der A-Invarianz vonU ist die Einschrankung des von A (bezuglich der Standard-Einheitsbasis) beschriebenenEndomorphismus ϕ von V auf U ein Endomorphismus von U . Wegen dim(U) ≥ 1 hat Adaher einen Eigenvektor x ∈ U zu irgendeinem Eigenwert µ.Die Teilmenge W = {u ∈ U | Au = µu} ist ein Unterraum von V , und nach Konstruktiongilt {o} ( W ( U , also 0 < dim(W ) < dim(U).Jetzt wird die Vertauschbarkeit der Matrizen aus der Familie F benutzt, um die F -Invarianzvon W zu zeigen: Fur alle Vektoren w ∈ W und Matrizen B ∈ F gilt zunachst Bw ∈ Uwegen der F -Invarianz von U , und außerdem

A(Bw) = (AB)w = (BA)w = B(Aw) = B(µw) = µ(Bw)

also Bw ∈ W . Damit ist W ein F -invarianter Unterraum von V , dessen Dimension großerals 0, aber kleiner als dim(U) ist. Dies ist ein Widerspruch zur Mimimalitat von dim(U).Damit war die Annahme falsch, und jeder Vektor v ∈ U \ {o}, ist Eigenvektor jeder MatrixA ∈ F . �

Geht man nun den Beweis des Satzes (12.3.10) von Schur noch einmal durch, so sieht man,daß man alle Schritte simultan fur alle Matrizen Ai ∈ F durchfuhren kann. Das fangtdamit an, daß man einen Eigenvektor sucht. Nach (12.3.20) findet man einen Vektor, derein Eigenvektor fur alle Ai ∈ F ist, eventuell naturlich fur verschiedene Eigenwerte. So kannman also die Ai ∈ F simultan unitar triangularisieren. Sind alle Ai ∈ F normal, so sind die

Page 308: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.4 Positiv semidefinite hermitesche Matrizen. Wurzeln von Matrizen 305

entstandenen Dreiecksmatrizen nach (12.3.11) automatisch diagonal. Somit haben wir diefolgende scharfere Version der Satze (12.3.10) und (12.3.12) erhalten:

(12.3.21 )* Satz Es sei F = {Ai | i ∈ I} eine Familie von paarweise vertauschbarenMatrizen Ai ∈Mn(C).

(a) Die Familie F ist simultan unitar triangularisierbar.(b) Sind alle Ai ∈ F normal, so ist F ist simultan unitar diagonalisierbar.

Nach der Voruberlegung ist also eine Familie normaler Matrizen Ai ∈ Mn(C) genau dannsimultan unitar diagonalisierbar, wenn die Ai paarweise vertauschbar sind.

Literatur: Weitere Eigenschaften und Charakterisierungen normaler Matrizen stehen inAbschnitt 2.5 von [HJ]. Die Arbeit [16] gibt eine Liste von 70 Bedingungen fur eine MatrixA an, die alle aquivalent zur Normalitat sind. Abschnitt 7.4 von [KM] geht ausfuhrlicher aufdie adjungierten Abbildungen ein.

In [Hup] II §6 wird ein Beweis des Spektralsatzes ohne Verwendung des Fundamentalsatzesder Algebra vorgefuhrt. Fur diesen Beweis braucht man allerdings die Begriffe Kompaktheitund Stetigkeit. Einen Spektralsatz fur normale Endomorphismen mit einer Zusatzbedingung(Kompaktheit) in unendlich-dimensionalen unitaren Raumen findet man in [SS], §79. Furweitere Informationen konsultiere man Lehrbucher der Funktionalanalysis.

12.4 Positiv semidefinite hermitesche Matrizen. Wurzeln vonMatrizen

In diesem und den nachsten drei Abschnitten beschaftigen wir uns mit Folgerungen aus demSpektralsatz (12.3.12) fur spezielle Klassen von normalen Matrizen.

Zuerst betrachten wir hermitesche Matrizen. Nach (12.3.13) sind alle Eigenwerte einer her-miteschen Matrix reell, und die Jordan-Normalform ist eine reelle Diagonalmatrix. AmVorzeichen der Eigenwerte kann man die positive Definitheit oder Semidefinitheit ablesen:

(12.4.1) Satz Es sei A ∈Mn(C) eine hermitesche Matrix.

(a) A ist genau dann positiv definit, wenn alle Eigenwerte von A positiv sind.(b) A ist genau dann positiv semidefinit, wenn alle Eigenwerte von A nicht-negativ sind.

Beweis: Es sei A ∈ Mn(C) hermitesch. Nach (12.3.12) und (12.3.13) gibt es eine unitareMatrix U , so daß D = U−1AU = UHAU eine reelle Diagonalmatrix ist. Die Transforma-tionsmatrix U liefert also gleichzeitig eine kongruente Diagonalisierung von A, und nach(11.6.4) ist A genau dann positiv (semi-)definit, wenn alle Diagonaleintrage von D positiv(nicht negativ) sind. Da die Diagonaleintrage einer Diagonalmatrix D genau die Eigenwertevon D sind und D ahnlich zu A ist, ist der Satz gezeigt. �

Aus positiv (semi-)definiten Matrizen kann man Wurzeln ziehen:

Page 309: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

306 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

(12.4.2) Satz Wurzeln einer positiv semidefiniten MatrixEs sei A ∈Mn(C) eine hermitesche, positiv semidefinite Matrix.Zu jeder naturlichen Zahl k gibt es genau eine positiv semidefinite Matrix Bk mit Bk

k = A.Ist A positiv definit, so auch Bk.

Beweis: Es gibt eine unitare Matrix U ∈Mn(C), so daß

D = U−1AU = diag(λ1, . . . , λn)

eine Diagonalmatrix mit lauter nicht-negativen reellen Diagonaleintragen λj ist. Daherexistiert fur jede naturliche Zahl k die (eindeutig bestimmte) k-te Wurzel k

√λj. Wir setzen

Bk := U · diag( k√λ1, . . . , ,

k√λn) · U−1 .

Dann gilt

Bkk = (U · diag( k

√λ1, . . . , ,

k√λn) · U−1)k

= U · (diag( k√λ1, . . . , ,

k√λn))k · U−1

= U · diag(λ1, . . . , , λn) · U−1 = B .

Offensichtlich ist Bk genau dann positiv definit (positiv semidefinit), wenn k√λj positiv

(nicht-negativ) ist fur alle 1 ≤ j ≤ n.Jetzt ist noch die Eindeutigkeit von Bk zu zeigen. Mit Hilfe der Lagrange-Interpolation(8.3.9) erhalten wir ein Polyonom P ∈ C[x] vom Grad ≤ n− 1 mit

P (λj) = k√λj fur 1 ≤ j ≤ n .

(Dazu brauchen wir die Lagrange-Interpolation naturlich nur auf die verschiedenen λj anzu-wenden.)Es gilt P (D) = diag( k

√λ1, . . . , ,

k√λn) = U−1BkU also

Bk = U · P (D) · U−1 = P (UDU−1) = P (A) .

Nun sei Ck eine weitere k-te Wurzel aus A. Wir zeigen zuerst die Vertauschbarkeit von Bk

und Ck. Wegen Ckk = A gilt B = P (A) = P (Ck

k ), also

CkBk = Ck · P (Ckk ) = P (Ck

k ) · Ck = BkCk ,

weil Polynome derselben Matrix miteinander vertauschbar sind.Jetzt nehmen wir an, daß Ck auch positiv semidefinit, also insbesondere normal ist. Nach(12.3.21) sind Bk und Ck simultan unitar diagonalisierbar. Es gibt daher eine unitare MatrixV ∈Mn(C) und Diagonalmatrizen DB, DC ∈Mn(R) mit

Bk = V −1DBV und Ck = V −1DCV .

AusV −1Dk

BV = Bkk = Ck

k = V −1DkCV

folgt die Gleichheit von DkB und Dk

C . Wegen der positiven Semidefinitheit von Bk und Ckdurfen die Diagonalmatrizen Dk

B und DkC nur nicht-negative Diaognal-Elemente enthalten.

Page 310: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.4 Positiv semidefinite hermitesche Matrizen. Wurzeln von Matrizen 307

Aus der Multiplikationsregel fur Diagonalmatrizen folgt, daß der j-te Diagonaleintrag djvon DB gleich der k-ten Wurzel des j-ten Diagonaleintrags von Dk

B ist. Wegen der Nicht-Negativitat von dj ist dj eindeutig bestimmt. Dasselbe Argument, angewendet auf DC , zeigtDB = DC , also Bk = Ck. �

Die eindeutig bestimmte positiv semidefinite Quadratwurzel einer positiv semidefiniten Ma-trix A wird mit

√A bezeichnet.

(12.4.3) BeispielEine positiv semidefinite Matrix A kann durchaus mehrere verschiedene k-te Wurzeln haben. Es

gilt zum Beispiel (1 00 1

)2

=(

1 00 1

)=(

0 11 0

)2

.

Allerdings ist nur eine der beiden Quadratwurzeln der Einheitsmatrix positiv (semi-)definit. Erstdie Zusatzbedingung der positiven Semidefinitheit der k-ten Wurzel sichert die Eindeutigkeit derk-ten Wurzel.

Eine triviale, aber oft verwendbare Folgerung aus (12.4.2) fur k = 2 ist die Umkehrung von(11.6.15):

(12.4.4) Korollar Zu jeder positiv semidefiniten (positiv definiten) Matrix A ∈Mn(C) gibtes genau eine positiv semidefinite (positiv definite) Matrix B ∈Mn(C) mit A = BHB.

(12.4.5) Korollar Es sei A ∈ Mn(C) eine hermitesche, positiv semidefinite Matrix. Istdas Diagonalelement ajj = 0, so ist die j-te Zeile von A eine Nullzeile und die j-te Spaltevon A eine Nullspalte.

Beweis: Wir zerlegen die Matrix A in ein Produkt A = BHB. Bezuglich des Standard-Skalarprodukts auf Cn (oder Rn) gilt dann aik =<bi , bk> , wenn mit bi die i-te Spalte vonB bezeichnet wird. Aus 0 = ajj folgt daher 0 =<bj , bj >= ‖bj‖2, also bj = o. Das liefertaber auch

ajk =<o , bk>= 0 =<bk , o>= akj

fur alle k ≤ n, also die Behauptung. �

Wir verwenden noch einmal (11.6.15) und notieren einen Zusammenhang zwischen der Ma-trix A ∈Mn(C) und

√AHA. Sein Beweis ist eine leichte Ubung.

(12.4.6) Lemma Der Vektorraum V = Cn sei ausgestattet mit dem Standard-Skalarprodukt.Fur alle Matrizen A ∈Mn(C) und alle Vektoren v ∈ V gilt dann ‖Av‖ = ‖

√AHAv‖ .

Insbesondere gilt Kern(√AHA) = Kern(A) und rang(

√AHA) = rang(A)

Literatur: Winter studiert in [58] die Losbarkeit und gegebenenfalls die Anzahl derLosungen der Gleichung Xk = A in Mn(K) fur einen algebraisch abgeschlossenen KorperK (z.B. K = C). Die Losbarkeit dieser Gleichung laßt sich an der Jordan-Normalform vonA ablesen. Wenn die Gleichung Xk = A losbar ist, so gilt:

Page 311: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

308 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

(a) Ist A nichtderogatorisch 38 so hat Xk = A genau km Losungen, wobei m die Anzahlder Eigenwerte 6= 0 von A ist.

(b) Ist A derogatorisch, so hat Xk = A unendlich viele Losungen.

12.5 Reelle normale Matrizen. Der reelle Spektralsatz

Generelle Voraussetzung: Sofern nicht anders vorausgesetzt, sei in diesem AbschnittV = Rn der euklidische Raum mit dem Standard-Skalarprodukt.

Die normalen Matrizen in Mn(R) sind genau die Matrizen A mit AAT = ATA, die unitarenMatrizen in Mn(R) sind genau die orthogonalen Matrizen. Wie sieht das Analogon deskomplexen Spektralsatzes (12.3.12) fur Mn(R) aus, das heißt, auf welche moglichst einfacheForm kann man eine reelle normale Matrix durch eine orthogonale Transformation bringen?

Da die reelle normale Matrix A =

(0 1−1 0

)uberhaupt nicht diagonalisierbar ist, kann

man nicht erwarten, daß sich der Spektralsatz ohne Anderungen auf Mn(R) ubertragt. Mankann jedoch eine Block-Diagonalform mit Blocken der Dimension hochstens zwei erreichen.Sehen wir uns zuerst reelle normale (2× 2)-Matrizen an. Diese werden als Bausteine in der

”Normalform“ fur reelle normale Matrizen vorkommen.

(12.5.1) Lemma reelle normale (2× 2)-MatrizenDie Matrix A ∈M2(R) sei normal.

(a) Hat das Minimalpolynom von A nur irreduzible Teiler vom Grad 1, so ist A orthogonalahnlich zu einer Diagonalmatrix.

(b) Hat A das irreduzible Minimalpolynom x2 + λx+ µ, so so hat A die Form(α −ββ α

)mit α = −1

2λ , β =

1

2

√4µ− λ2 6= 0 .

Beweis:

(a) Falls das Minimalpolynom M(x) = x− λ den Grad 1 hat, ist A = λE, also von vorne-herein diagonal.Falls das Minimalpolynom M(x) = (x − λ)(x − µ) zwei verschiedene lineare Teilerhat, so hat A einen normierten Eigenvektor v zum Eigenwert λ und einen normiertenEigenvektor w zum Eigenwert µ. Wegen λ 6= µ stehen v und w nach (12.3.15) aufein-ander senkrecht. Daher ist (v, w) eine Orthonormalbasis von V = R

2, und bezuglichdieser Basis hat der durch A beschriebene Endomorphismus die Koeffizientenmatrixdiag(λ, µ) .

(b) Aus der Normalitat von

A =

(a bc d

)leiten wir Bedingungen fur die Eintrage a, . . . , d her. Es gilt(

a2 + b2 ac+ bdac+ bd c2 + d2

)= AAT = ATA =

(a2 + c2 ab+ cdab+ cd b2 + d2

).

38s. Definition auf S. 222

Page 312: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.5 Reelle normale Matrizen. Der reelle Spektralsatz 309

Der Vergleich der Eintrage an Position (1, 1) liefert b2 = c2, also b = ±c. Ware b = c,so ware A eine reelle symmetrische, also eine Hermitesche Matrix. Daher hatte dasMinimalpolynom von A nach (12.3.14) und (7.1.3) nur lineare Teiler, ein Widerspruchzur Voraussetzung. Das zeigt b = −c und c 6= 0.Der Vergleich der Eintrage an Position (1, 2) liefert jetzt 2(a − d)c = 0, also a = d.Damit ist auch (b) gezeigt. Berechnet man das Minimalpolynom von A, so erhalt mandie Formeln fur α und β. �

Jetzt zeigen wir eine Verallgemeinerung von (12.3.15) auf Vektoren aus verschiedenen, ver-allgemeinerten Eigenraumen:

(12.5.2) Lemma Es sei V = Kn ein reeller euklidischer oder komplexer unitarer Vektor-raum mit dem Standard-Skalarprodukt. Die Matrix A ∈ M2(K) sei normal. Weiter seienP,Q ∈ K[x] teilerfremde Polynome, und v, w ∈ V Vektoren mit P (A)(v) = Q(A)(w) = o .Dann gilt <v , w>= 0.

Beweis: Wegen der Teilerfremdheit von P und Q gibt es Polynome R, S ∈ K[x] mitRP + SQ = 1. Wir setzen U = 〈v ∈ V | P (A)(v) = o〉 und T = U⊥. Dann gilt V = U ⊕ T .Weiter sei Q(A)(w) = o. Der Vektor w hat eine eindeutig bestimmte Zerlegung w = u + tmit u ∈ U und t ∈ T . Es folgt

w = id(w) = RP (A)(w) + SQ(A)(w) = RP (A)(u)︸ ︷︷ ︸o

+RP (A)(t) + SQ(A)(w)︸ ︷︷ ︸o

= RP (A)(t) .

Nach Voraussetzung gilt <v , t>= 0 fur alle v ∈ V mit P (A)(v) = o. Wegen der Normalitatvon A sind A und AT vertauschbar, also auch P (A) und AT . Aus P (A)(v) = o folgt daherP (A)

(AT (v)

)= AT

(P (A)(v)

)= ATo = o und schließlich

0 =<ATv , t>A normal

= <v , At> .

Damit steht auch F (A)(t) senkrecht auf U fur jedes Polynom F ∈ K[x], also erhalt manw = RP (A)(t) ⊥ v . �

(12.5.3) Satz Spektralsatz fur endlich-dimensionale euklidische VektorraumeEine Matrix A ∈ Mn(R) ist genau dann normal, wenn sie orthogonal ahnlich ist zu einerMatrix der Form

D1

. . .

Dk

c1

. . .

cl

,

wobei jedes Di eine reelle (2× 2)-Matrix ist der Gestalt

Di =

(αi −βiβi αi

),

und die cj die (reellen) Eigenwerte von A sind.

Page 313: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

310 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

Beweis: Das Minimalpolynom M der normalen Matrix ist uber R dasselbe wie uber C.Nach (12.3.14) und (7.1.3) kommt daher jeder irreduzible Teiler von M nur in der erstenPotenz vor, und M hat die Gestalt M = P1 ·. . .·Pm mit paarweise verschiedenen, irreduziblenPolynomen Pi ∈ R[x]. Die Polynome Pi haben den Grad 1 oder 2. Nach (5.5.1) ist nun Vdie direkte Summe der verallgemeinerten Eigenraume Ui = Kern

(Pi(A)

)zu den Polynomen

Pi. Nach (12.5.2) stehen die Ui paarweise aufeinander senkrecht.Jetzt konstruieren wir eine geeignete Orthonormalbasis von Ui. Falls das zugehorige PolynomPi(x) = x − ci linear ist, so wirkt A wie die Matrix ciE auf dem Raum Ui. In diesem Fall

konnen wir also eine beliebige Orthonormalbasis (u(i)1 , . . . , u

(i)ni ) von Ui wahlen.

Falls das Polynom Pi den Grad 2 hat, so ist die Dimension ni von Ui gerade. Zuerst wahlenwir einen beliebigen Vektor v

(i)1 ∈ Ui \ {o} . Setzt man v

(i)2 := Av

(i)1 , so ist 〈v(i)

1 , v(i)2 〉 ein A-

invarianter Unterraum U1i von Ui wegen grad(Pi) = 2. Mit dem Verfahren von Gram-Schmidt

ersetzen wir dann die Basis (v(i)1 , v

(i)2 ) von U1

i durch eine orthonormale Basis (u(i)1 , u

(i)2 ). Falls

U1i ( Ui, so finden wir in Ui einen zu U1

i orthogonalen Vektor v(i)3 und bilden mit diesem einen

weiteren A-invarianten Unterraum U2i := 〈v(i)

3 , Av(i)3 〉 von Ui. Nach endlich vielen Schritten

ist Ui zerlegt in eine direkte Summe

Ui = U1i ⊕ . . .⊕ U

ni/2i ,

wobei jeder Unterraum U ji eine Basis (u

(j)1 , u

(j)2 ) hat, so daß die Vereinigung dieser Basen

eine Orthonormalbasis von Ui ist.Schließlich ist die Vereinigung der so konstruierten Basen der Ui eine Orthonormalbasis Bvon V . Da alle Unterraume U j

i nach Konstruktion A-invariant sind, hat die Koeffizienten-matrix des von A beschriebenen Endomorphismus die Form einer Block-Diagonalmatrix Bmit Blocken der Dimension 1 oder 2.Jetzt ist nur noch zu zeigen, daß die zwei-dimensionalen Blocke die in der Behauptung ange-gebene Form haben. Da A und B orthogonal ahnlich sind, ist auch B normal. Man rechnetleicht nach, daß die Normalitat von B die Normalitat der zwei-dimensionalen Blocke aufihrer Diagonalen erzwingt. Diese Blocke haben also nach (12.5.1.b) die angegebene Gestalt.Umgekehrt ist eine solche Block-Diagonalmatrix normal, also auch die zu ihr orthogonalahnliche Matrix A. �

(12.5.4) Bemerkungen1. Ist die Matrix A ∈ Mn(R) symmetrisch (schiefsymmetrisch, orthogonal) so hat auch die

in (12.5.3) angegebene, zu A orthogonal ahnliche Matrix B die jeweilige Eigenschaft: Istbeispielsweise A symmetrisch und U unitar mit B = U−1AU , so gilt

BT = (U−1AU)T = UT (U−1A)T = UTAT (U−1)T = U−1AU = B

wegen UT = U−1 und A = AT .2. Hat man das charakteristische Polynom χA einer normalen Matrix A ∈Mn(R) (oder Mn(C))

faktorisiert in seine irreduziblen Bestandteile,

χA = Pn11 · . . . · P

nkk ,

so ist das MinimalpolynomMA = P1 · . . . · Pk

das Produkt der verschiedenen irreduziblen Teiler Pi.

Page 314: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.5 Reelle normale Matrizen. Der reelle Spektralsatz 311

3. Man beachte, daß in (12.5.3) die orthogonale Ahnlichkeit zu einer Matrix des angegebenenTyps verlangt wird, um auf die Normalitat von A schließen zu konnen. Daß man dieseVoraussetzung nicht weglassen kann, zeigt das Beispiel der nicht normalen Matrix(

1 −41 1

)=(

1 00 2

)−1( 1 −22 1

)(1 00 2

).

(12.5.5) Beispiel reeller SpektralsatzDie normale Matrix

A =

9/25 −12/25 0 4/5

−12/25 16/25 0 3/50 0 1 0

−4/5 −3/5 0 0

soll durch eine orthogonale Transformation auf die in (12.5.3) angegebene Block-Diagonalgestalt Bgebracht werden.Das charakteristische Polynom von A hat die Zerlegung

χA(x) = x4 − 2x3 + 2x2 − 2x+ 1 = (x− 1)2(x2 + 1)

in irreduzible Faktoren. Daher ist

MA(x) = (x− 1)(x2 + 1)

das Minimalpolynom von A. Aus Dimensionsgrunden muß B zwei Einerblocke (1) zum Polynom

P1 = x− 1 und einen Zweierblock(

0 −11 0

)zum Polynom P2 = x2 + 1 enthalten.

Die zugehorigen verallgemeinerten Eigenraume sind

U1 = Kern(P1(A)

)= Kern(A− E) = 〈(0, 0, 1, 0)T , (−3

4, 1, 0, 0)T 〉 = 〈(0, 0, 1, 0)T , (−3

5,45, 0, 0)T 〉

und

U2 = Kern(P2(A)

)= Kern(A2 + E) = 〈(0, 0, 0, 1)T , (

43, 1, 0, 0)T 〉 = 〈(0, 0, 0, 1)T , (

45,35, 0, 0)T 〉 .

Dabei ist die jeweils an zweiter Stelle angegebene Basis von Ui eine Orthonormalbasis von Ui, diedurch das Gram-Schmidt-Verfahren aus der ersten Basis berechnet wurde. Damit ist(

(0, 0, 1, 0)T , (−35,45, 0, 0)T , (0, 0, 0, 1)T , (

45,35, 0, 0)T

)eine Orthonormalbasis von R4 bezuglich des Standard-Skalarprodukts. Schreibt man diese Vektorenin dieser Reihenfolge als Spalten in eine Matrix U , so erhalt man die Transformation

U−1AU =

1 0 0 00 1 0 00 0 0 −10 0 1 0

.

In den beiden folgenden Abschnitten wird der reelle Spektralsatz angewendet auf drei spezi-elle Klassen reeller normaler Matrizen, namlich auf die symmetrischen, die schiefsymmetri-schen und die orthogonalen Matrizen.

Page 315: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

312 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

12.6 Reelle symmetrische Matrizen. Die Hauptachsentransfor-mation

Reelle symmetrische Matrizen.Eine relle symmetrische Matrix A ∈ Mn(R) ist nach (12.5.3) orthogonal ahnlich zu einerreellen Block-Diagonalmatrix B mit zwei-dimensionalen Blocken

Di =

(αi −βiβi αi

)und ein-dimensionalen Blocken (ci) auf der Diagonalen. Nach Bemerkung (12.5.4.1) ist Bwieder symmetrisch, also auch jeder Zweier-Block Di. Das erzwingt βi = 0. Daher konnenalso gar keine Zweier-Blocke auftreten, sondern B ist eine Diagonalmatrix.Damit ist der wichtige Satz uber die orthogonale Diagonalisierbarkeit reeller symmetrischerMatrizen bereits bewiesen. Aus dem Beweis von (12.5.3) erhalt man gleich ein Konstrukti-onsverfahren fur die benotigte Orthonormalbasis von V = Rn, also auch fur die orthogonaleTransformationsmatrix.

(12.6.1) Satz Hauptachsentransformation reeller symmetrischer MatrizenAuf dem Raum V = R

n sei das Standard-Skalarprodukt < · , ·> gegeben. Weiter sei A ∈Mn(R) eine symmetrische Matrix. Dann gilt:

(a) Es gibt eine orthogonale Matrix S ∈Mn(R), so daß S−1AS eine Diagonalmatrix ist.

(b) Es seien λ1, . . . , λk die verschiedenen Eigenwerte von A und (v(j)1 , . . . , v

(j)nj ) eine Or-

thonormalbasis des Eigenraums von λj. Dann ist

(v(1)1 , . . . , v(1)

n1, . . . , v

(k)1 , . . . , v(k)

nk)

eine Orthonormalbasis von V aus lauter Eigenvektoren von A.

(12.6.2) Beispiele Hauptachsentransformation(a) Wir wenden die Hauptachsentransformation an auf die Matrix

A =

1 0 −10 −1 0−1 0 1

,

die wir in Beispiel (11.5.6) kongruent diagonalisiert haben. Der Algorithmus (5.3.4) liefertuns das Minimalpolynom

µA = kgV{x2 − 2x , x+ 1} = x3 − x2 − 2x

mit den Nullstellen λ1 = 0 , λ2 = −1 , λ3 = 2. Nun bestimmen wir die zugehorigen Eigen-vektoren durch Berechnung der Kerne von A− λjE fur 1 ≤ j ≤ 3:

v1 =

101

, v2 =

010

, v3 =

−101

.

Page 316: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.6 Reelle symmetrische Matrizen. Die Hauptachsentransformation 313

Offensichtlich sind die vj paarweise orthogonal. Da jeder der drei Eigenraume nur die Di-mension 1 hat, mussen die vj nur normalisiert werden. Aus ‖v1‖2 = 2 , ‖v2‖2 = 1 , ‖v3‖2 = 2erhalten wir also die Orthonormalbasis

b1 =1√2

101

, b2 =

010

, b3 =1√2

−101

von V und schließlich die Hauptachsentransformation

1√2

0 − 1√2

0 1 01√2

0 1√2

−1 1 0 −1

0 −1 0−1 0 1

1√2

0 − 1√2

0 1 01√2

0 1√2

=

0 0 00 −1 00 0 2

.

Wegen der Orthogonalitat der Transformationsmatrix

S =

1√2

0 − 1√2

0 1 01√2

0 1√2

ist die Inverse S−1 naturlich leicht zu berechnen: S−1 = ST . Außerdem liefert die Haupt-achsentransformation wegen STAS = diag(0,−1, 2) gleichzeitig eine kongruente Diagonali-sierung (vgl. (11.5.6)) von A.

(b) Die Matrix

A =

2 1 1 01 2 0 11 0 2 10 1 1 2

∈M4(R)

soll orthogonal diagonalisiert werden. Zuerst berechnen wir das Minimalpolynom

µA = x3 − 6x2 + 8x = x(x− 2)(x− 4)

und das charakteristische Polynom

χA = x4 − 8x3 + 20x2 − 16x = x(x− 2)2(x− 4) .

Daher hat A einen Eigenraum U0 der Dimension 1, Eigenraum U2 der Dimension 2 undEigenraum U4 der Dimension 1. Fur diese Eigenraume findet man die Basen

U0 = 〈

1−1−1

1

〉 , U2 = 〈

100−1

,

11−1−1

〉 , U4 = 〈

1111

〉 .Gram-Schmidt normalisiert den Basisvektor von U0 auf

b1 =12

1−1−1

1

.

Page 317: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

314 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

Der erste Basisvektor von U2 wird ebenfalls nur normalisiert auf

b2 =1√2

100−1

.

Der zweite Basisvektor von U2 wird von Gram-Schmidt verandert zu

b′3 =

11−1−1

− 12<

11−1−1

,

100−1

>

100−1

=

01−1

0

, also b3 =1√2

01−1

0

.

Der Basisvektor von U4 wird normalisiert auf

b4 =12

1111

.

Damit gilt S−1AS = D mit

S =

1/2 1/

√2 0 1/2

−1/2 0 1/√

2 1/2−1/2 0 −1/

√2 1/2

1/2 −1/√

2 0 1/2

und A =

0

22

4

.

Eine positiv semidefinite, reelle symmetrische Matrix A hat nach (12.4.2) zu jedem k ∈N eine positiv semidefinite k-te Wurzel Bk. Diese erhalt man, indem man die Matrix Aunitar auf eine Diagonalmatrix D = U−1AD transformiert, von den Diagonaleintragen vonD die (nicht-negative) k-te Wurzel nimmt und die so erhaltene Diagonalmatrix mit U−1

zurucktransformiert. Die Transformationsmatrix U kann nach (12.6.1) als reelle orthogonaleMatrix gewahlt werden. Damit wird auch die k-te Wurzel von A reell. Damit lautet diereelle Version von (12.4.2) und (12.4.4):

(12.6.3) Korollar Es sei A ∈Mn(R) symmetrisch und positiv semidefinit.(a) Zu jedem k ∈ N gibt es genau eine symmetrische, positiv semidefinite Matrix Bk ∈

Mn(R) mit Bkk = A.

(b) Es gibt genau eine symmetrische, positiv semidefinite Matrix B ∈ Mn(R) mit B2 =BTB = A.

(12.6.4) Beispiel Quadratwurzel einer symmetrischen, positiv definiten MatrixWir berechnen die positiv semidefinite Quadratwurzel B der Matrix A aus Beispiel (12.6.2.b). Mitden dortigen Bezeichnungen gilt

B = S

0 √

2 √2

2

S−1 =12

1 +√

2 1 1 1−√

21 1 +

√2 1−

√2 1

1 1−√

2 1 +√

2 11−√

2 1 1 1 +√

2

.

Page 318: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.6 Reelle symmetrische Matrizen. Die Hauptachsentransformation 315

Die Hauptachsentransformation ist theoretisch ein viel spektakulareres Ergebnis als etwadie kongruente Diagonalisierung aus Abschnitt 11.5. Jedoch ist die Berechnung der Trans-formationsmatrix der Hauptachsentransformation in der Praxis ein nichttriviales Problemund kann nicht in so schematischer Weise erfolgen wie die kongruente Diagonalisierung. DerPferdefuß ist hier die Berechnung der Eigenwerte der symmetrischen Matrix A. Es gibtsehr viele Arbeiten zu diesem Thema. Einen Uberblick uber die Methoden zur Eigenwertbe-stimmung von reellen symmetrischen Matrizen kann man sich zum Beispiel mit dem Buch[Par] von Parlett, in Golub/van Loan [GL], Kapitel 8 oder in [SB], Kapitel 6 vonStoer/Bulirsch verschaffen. Wie man an der Vielzahl der Algorithmen, die zum Teil aufSpezialfalle zugeschnitten sind, erkennen kann, gibt es kein Verfahren, das in allen Fallenden besten Erfolg verspricht. Jedenfalls ist es im Allgemeinen numerisch gunstiger, einendieser Eigenwertalgorithmen anzuwenden, als die Nullstellen des Minimalpolynoms oder descharakteristischen Polynoms numerisch zu bestimmen.

Eigenwerte von reellen symmetrischen (3× 3)-Matrizen.Die Nullstellen von reellen Polynomen vom Grad 3 und 4 kann man mit den CardanoschenFormeln explizit ausrechnen 39 . Aus der

”trigonometrischen“ Version dieser Formel fur den

Fall n = 3 leitet Smith in [47] einen expliziten Ausdruck fur die Eigenwerte einer reellensymmetrischen (3× 3)-Matrix ab:

(12.6.5) Satz (Smith) Eigenwerte von reellen symmetrischen (3× 3)-MatrizenEs sei A = (aij)i,j ∈M3(R) symmetrisch und E die Einheitsmatrix in M3(R). Weiter sei

m :=1

3Tr(A) , q :=

1

2det(B) , p :=

1

6

n∑i,j=1

b2ij ,

wobei B = (bij)i,j = A−mE ist.Schließlich sei ϕ ∈ [0, π] definiert durch

ϕ :=1

3arctan(

√p3 − q2

q) .

Im Fall q = 0 ist hierbei ϕ := π/2 zu setzen. Dann sind

λ1 = m+ 2√p cosϕ ,

λ2 = m−√p(cosϕ+√

3 sinϕ) ,

λ3 = m−√p(cosϕ−√

3 sinϕ)

die Eigenwerte von A.

(12.6.6) Beispiel Eigenwerte von reellen symmetrischen (3× 3)-MatrizenDie Anwendung der Smithschen Formel auf die Matrix

A =

1 0 −10 −1 0−1 0 1

39vgl. [Jac], Band I, Abschnitt 4.9, S. 258

Page 319: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

316 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

aus Beispiel (12.6.2.a) liefert

m =13

Tr(A) =13

q =12

det(A− 13E) =

12

∣∣∣∣∣∣2/3 0 −1

0 −4/3 0−1 0 2/3

∣∣∣∣∣∣ =1027

p =16

(49

+ 1 +169

+ 1 +49

) =79√

p3 − q2

q=

9√

310

ϕ =13

arctan(9√

310

) = 0.333473 (in Bogenmaß)

sinϕ = 0.327327 , cosϕ = 0.944911also λ1 = 2 , λ2 = −1 , λ3 = 0 .

Reelle schiefsymmetrische Matrizen.Dieselbe Argumentation wie fur reelle symmetrische Matrizen zeigt, daß eine schiefsymme-trische Matrix A ∈ Mn(R) orthogonal ahnlich ist zu einer reellen Block-Diagonalmatrix Bmit zwei-dimensionalen Blocken

Di =

(αi −βiβi αi

)und ein-dimensionalen Blocken (ci) auf der Diagonalen, die jeweils nach (12.5.4.1) auchwieder schiefsymmetrisch sind. Daher mussen αi und ci gleich 0 sein fur alle i. Darausergibt sich das folgende Resultat:

(12.6.7 ) Satz Eine reelle schiefsymmetrische Matrix A ist orthogonal ahnlich zu einerBlock-Diagonalmatrix mit zwei-dimensionalen Blocken

Di =

(0 −βiβi 0

)und ein-dimensionalen Blocken (0) auf der Diagonalen.Ihr Minimalpolynom hat die Form

M(x) = xe ·k∏j=1

(x2 + λ2j) mit e ∈ {0, 1} , k ≥ 0

und paarweise verschiedenen λj ∈ R\{0} . Diese λj sind die verschiedenen βi.Jede schiefsymmetrische Matrix mit ungerader Zeilenzahl ist singular.

Man vergleiche dieses Ergebnis mit (11.7.2). Durch eine kongruente Block-Diagonalisierungkann man noch alle βi zu 1 transformieren. Das liegt daran, daß man in (11.7.2) beliebigeregulare Matrizen als Transformationsmatrizen zur Verfugung hat, in (12.6.7) jedoch nurorthogonale.

Page 320: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.6 Reelle symmetrische Matrizen. Die Hauptachsentransformation 317

Die Hauptachsentransformation uber anderen Korpern.

Uber welchen Korpern K gilt der Satz von der Hauptachsentransformation? Damit istfolgendes gemeint: Welche Bedingung muß der Korper K erfullen, damit es fur jedes n ∈ Nund jede symmetrische Matrix A ∈Mn(K) eine orthogonale Matrix S ∈Mn(K) gibt, so daßS−1AS eine Diagonalmatrix ist?Es ist leicht Korper anzugeben, fur die das nicht der Fall ist. Es kann sogar passieren,daß eine symmetrische Matrix uberhaupt nicht diagonalisierbar ist, auch wenn man alsTransformationsmatrix eine beliebige Matrix S ∈Mn(K) zulaßt:

(12.6.8) Beispiele nichtdiagonalisierbare, symmetrische Matrizen(a) Es sei K ein Korper, der ein Element i mit i2 = −1 enthalt. Zum Beispiel ist C ein solcher

Korper. Wir wahlen die Matrix

A =(

1 ii −1

)∈M2(K) .

Dann gilt A 6= O und A2 = O. Also hat A das Minimalpolynom µA = x2 und ist nach (7.1.3)nicht diagonalisierbar.

(b) Die Matrix

A =(

1 1/21/2 0

)∈M2(Q)

hat das Minimalpolynom µA = x2 − x− 1/4 mit den Nullstellen 12(1±

√5). Diese sind nicht

rational, also ist das Polynom µA irreduzibel inQ[x]. Nach (7.1.3) ist A nicht diagonalisierbar.(c) Im Korper GF (2) mit zwei Elementen gilt −1 = 1, also ist −1 ein Quadrat. Daher ist nach

(a) nicht jede Matrix A ∈M2(GF (2)) diagonalisierbar.

Beispiel (12.6.4.b) beruht darauf, daß 2 = 1 + 1 in Q zwar eine Summe zweier Quadrate,aber nicht selbst ein Quadrat ist. Es ist nicht schwer zu zeigen, daß in einem KorperK, uber dem jede (2 × 2)-Matrix diagonalisierbar ist, jede Summe zweier Quadrate selbstein Quadrat sein muß 40 . Mit Hilfsmitteln aus der Gruppentheorie kann man fur einenendlichen Korper mit pn Elementen (p eine Primzahl) beweisen, daß jedes Element vonK eine Summe von zwei Quadraten ist. Galte in einem solchen Korper der Satz von derHauptachsentransformation, so mußte insbesondere das Element −1 ein Quadrat in K sein,was aber nach (12.6.4.a) verboten ist. Folglich gilt in keinem endlichen Korper der Satz vonder Hauptachsentransformation.

Literatur: Nach (12.3.13.a) hat das charakteristische Polynom einer reellen symmetrischen(n× n)-Matrix n (nicht notwendig verschiedene) reelle Nullstellen. Umgekehrt konstruierteSchmeisser in [44] zu jedem normierten, reellen Polynom P , das nur reelle Nullstellenbesitzt, eine reelle, symmetrische Tridiagonalmatrix A ∈Mn(R) mit χA = P 41 .Die vollstandige Charakterisierung derjenigen Korper, in denen der Satz von der Haupt-achsentransformation gilt, ist nicht ganz einfach. Einen verstandlichen Einblick in dieseCharakterisierung gibt [38].

40Man verwende die Diagonalisierbarkeit der Matrix A =(

a b/2b/2 0

), um zu beweisen, daß a2 + b2 ein

Quadrat in K ist.41Da in [44] das charakteristische Polynom als det(A − xE) definiert ist, taucht dort noch der Vorfaktor

(−1)n auf.

Page 321: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

318 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

Da komplexe symmetrische Matrizen nicht immer diagonalisierbar sind, wird in [45] eine spe-ziell auf komplexe symmetrische Matrizen zugeschnittene Normalform angegeben. Tagaki

hat schon 1924 in [49] gezeigt, daß es zu einer komplexen Matrix A ∈ MN(C) immer eineunitare Matrix U ∈ MN(C) gibt, so daß UTAU eine komplexe Diagonalmatrix ist. Aller-dings ist dies nicht immer eine Ahnlichkeitstransformation, da fur eine komplexe unitareMatrix UT 6= U−1 gelten kann. In [20] wird gezeigt, daß es fur eine Familie {Ai | i ∈ I}symmetrischer Matrizen Ai ∈ Mn(C) genau dann eine unitare Matrix U ∈ Mn(C) gibt, sodaß UTAiU diagonal ist fur alle i ∈ I, wenn die Matrizen AiAi, AjAj vertauschbar sind furalle Indizes i, j ∈ I.

12.7 Reelle orthogonale Matrizen

Bisher kamen reelle orthogonale Matrizen vor als Transformationsmatrizen. Basistransfor-mationen des Rn, die von einer orthogonalen Matrix S beschrieben werden, sind besondersinteressant, weil sie nach (12.3.3.a) das Standard-Skalarprodukt invariant lassen, das heißt<Sv , Sw>=<v , w> fur alle v, w ∈ Rn. Derartige Transformationen heißen daher auchisometrisch. Insbesondere stehen Sv und Sw genau dann aufeinander senkrecht, wenn v undw aufeinander senkrecht stehen.In diesem Abschnitt werden wir nun die reellen orthogonalen Matrizen selbst untersuchen.Wir werden zeigen, daß die orthogonalen Matrizen in Mn(R) eine Gruppe 42 bilden, wirwerden angeben, wie ihr Minimalpolynom uber R und wie ihre reelle Normalform (6.5.1)aussieht. An dieser Normalform kann man fur kleine Dimensionen ablesen, wie die lineareAbbildung auf Rn wirkt, die durch eine orthogonale Matrix beschrieben wird.

Die orthogonale Gruppe O(n,R) .Wir haben bereits auf S. 293 festgestellt, daß eine orthogonale Matrix A invertierbar ist.Die Menge O(n,R) der orthogonalen (n × n)-Matrizen ist also eine Teilmenge der GruppeGL(n,R) der invertierbaren (n× n)-Matrizen uber R.

(12.7.1) Satz orthogonale GruppeSind A und B Elemente aus O(n,R), so auch A−1 und A · B . Die Menge O(n,R) istalso abgeschlossen bezuglich der Matrizenmultiplikation und Matrixinversion und daher eineUntergruppe von GL(n,R).

Beweis: Es sei E die Einheitsmatrix in Mn(R), und A,B ∈Mn(R) seien orthogonal. Nach(6.8.1.b) gilt (A−1)T = (AT )−1. Es folgt

E = ATA = (ATA)−1 = A−1(AT )−1 = A−1(A−1)T .

Daher ist auch A−1 orthogonal. Weiter folgt aus ATA = BTB = E auch

(AB)(AB)T = AB(BTAT ) = A(BBT )AT = E .

Somit ist auch das Produkt AB orthogonal. �

42zum Begriff der Gruppe vgl. Abschnitt 15.1 auf S. 375

Page 322: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.7 Reelle orthogonale Matrizen 319

Man beachte jedoch, daß die Orthogonalitat einer Matrix bei einer Ahnlichkeitstransformationverlorengehen kann. Insbesondere muß die Jordan-Normalform einer orthogonalen Matrixnicht immer orthogonal sein.

(12.7.2) Beispiel reelle orthogonale Matrizen und ihre Jordan-Normalform

- x

6y

-e1ϕ����Ae1

6e2

@@@I

Ae2

Fur 0 ≤ ϕ < 2π beschreibt die Matrix

A =(

cos(ϕ) − sin(ϕ)sin(ϕ) cos(ϕ)

)in der Ebene R2 bezuglich der Standard-Basis die Drehungum den Winkel ϕ entgegen dem Uhrzeigersinn.

Im Fall ϕ /∈ {0, π} hat A das Minimalpolynom

M(x) = x2 −(2 cos(ϕ)

)x+ 1

und folglich die Jordan-Normalform

J =(

0 −11 2 cos(ϕ)

)mit JJT =

(1 −2 cos(ϕ)

−2 cos(ϕ) 4(

cos(ϕ))2 ) .

Diese Matrix JJT ist nur in den beiden Fallen ϕ = 12π ,

32π gleich der Einheitsmatrix, also ist J

im Allgemeinen nicht orthogonal.Wann hat A (reelle) Eigenwerte? Die Nullstellen des Minimalpolynoms sind

cos(ϕ)±√

(cos(ϕ))2 − 1 .

Reelle Eigenwerte gibt es also nur fur cos(ϕ) = ±1, das heißt fur ϕ ∈ {0, π}. Im ersten Fall giltdann A = E, und A hat den doppelten Eigenwert 1, im zweiten Fall hat A = −E den doppeltenEigenwert −1.

Minimalpolynom und reelle Normalform einer reellen orthogonalen Matrix.Analog zu den reellen symmetrischen und schiefsymmetrischen Matrizen folgt aus dem Spek-tralsatz (12.5.3), daß eine orthogonale Matrix A ∈ Mn(R) orthogonal ahnlich ist zu einerreellen Block-Diagonalmatrix B mit zwei-dimensionalen Blocken

Di =

(αi −βiβi αi

)und ein-dimensionalen Blocken (ci) auf der Diagonalen, die jeweils nach (12.5.4.1) auchwieder orthogonal sind.Fur eine orthogonale (1× 1)-Matrix (c) gilt

(1) = (c)(c)T = (c2) , also c = ±1 .

Fur eine orthogonale (2× 2)-Matrix D =

(α −ββ α

)gilt(

1 00 1

)=

(α −ββ α

)(α β−β α

)=

(α2 + β2 0

0 α2 + β2

)also α2 + β2 = 1. Daher existiert ein Winkel ϕ ∈ [0, 2π[ mit α = cos(ϕ) und β = sin(ϕ) ,und D beschreibt eine Drehung in der reellen Ebene R2 wie in Beispiel (12.7.2).

Page 323: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

320 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

(12.7.3 ) Satz Eine reelle orthogonale Matrix A ist orthogonal ahnlich zu einer Block-Diagonalmatrix mit zwei-dimensionalen Blocken

Di =

(cos(ϕi) − sin(ϕi)sin(ϕi) cos(ϕi)

)und ein-dimensionalen Blocken (1) oder (−1) auf der Diagonalen.Ihr Minimalpolynom hat die Form

M(x) = (x− 1)e1 · (x+ 1)e2 ·k∏j=1

(x2 − λjx+ 1)

mit k ≥ 0 , paarweise verschiedenen λj ∈] − 2, 2[ , und e1, e2 ∈ {0, 1} . Die λj sind dieWerte 2 cos(ϕi) fur verschiedene Winkel ϕi.

Die orthogonalen (2× 2)-Matrizen.Da sich die Matrizen(

1 00 1

)=

(cos(0) − sin(0)sin(0) cos(0)

)und

(−1 0

0 −1

)=

(cos(π) − sin(π)sin(π) cos(π)

)ebenfalls als Drehmatrizen schreiben lassen, erhalt man im Fall n = 2 aus (12.7.3) sofort diefolgende Klassifikation der orthogonalen Matrizen.

(12.7.4) Korollar orthogonale (2× 2)-MatrizenEine reelle, orthogonale (2× 2)-Matrix ist ahnlich zu einer der folgenden Matrizen:

(i)

(cos(ϕj) − sin(ϕj)sin(ϕj) cos(ϕj)

)fur einen geeigneten Winkel ϕj ∈ [0, 2π[ .

(ii)

(1 00 −1

).

- x

6y

?

������* (v1, v2)T

HHHHHHj

(v1,−v2)T

Im Fall (i) hat A die Determinante 1, im Fall (ii) dieDeterminante −1.Die Matrix in (ii) beschreibt keine Drehung, sonderneine Spiegelung an der x-Achse, s. nebenstehendes Bild.Diese Klassifikation im Fall n = 2 gibt Anlaß zu folgen-der Definition:

Definition: Drehung, eigentlich orthogonalEine orthogonale Matrix A ∈Mn(R) heißt Drehung oder eigentlich orthogonal, wenn sie dieDeterminante 1 hat. Sie heißt uneigentlich orthogonal, wenn sie die Determinante −1 hat.

Die orthogonalen (3× 3)-Matrizen.

Orthogonale (3 × 3)-Matrizen sind nach (12.7.3) entweder ahnlich zu einer Diagonalmatrix

diag(ε1, ε2, ε3) mit εi ∈ {1,−1} , oder zu einer Matrix

cos(ϕ) − sin(ϕ) 0sin(ϕ) cos(ϕ) 0

0 0 ε

mit

ε ∈ {1,−1} .

Page 324: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.7 Reelle orthogonale Matrizen 321

Wie im Fall der (2 × 2)-Matrizen konnen wir die zweidimensionale Einheitsmatrix E2 unddie Matrix −E2 als Drehmatrizen ausdrucken, so daß wir die beiden Typen

(I)

cos(ϕ) − sin(ϕ) 0sin(ϕ) cos(ϕ) 0

0 0 1

und (II)

cos(ϕ) − sin(ϕ) 0sin(ϕ) cos(ϕ) 0

0 0 −1

erhalten. Die Matrizen vom Typ (I) sind Drehungen oder eigentlich orthogonal, die Matrizenvom Typ (II) sind uneigentlich orthogonal.Wegen cos(ϕ) − sin(ϕ) 0

sin(ϕ) cos(ϕ) 00 0 −1

=

cos(ϕ) − sin(ϕ) 0sin(ϕ) cos(ϕ) 0

0 0 1

1 0 00 1 00 0 −1

beschreibt eine Matrix vom Typ (II) die Hintereinanderausfuhrung einer Drehung und derSpiegelung an der Drehebene. Diese Matrizen heißen daher Drehspiegelungen.Wie bestimmt man die Drehebene? Die orthogonale Matrix A ∈ M3(R) hat jedenfallsmindestens einen Eigenvektor v zum Eigenwert 1 oder −1. Hat sie weitere, von w linearunabhanige Eigenvektoren, so mussen diese von der Drehung herstammen. Das geht nach(12.7.2) aber nur, wenn diese Drehung die Koeffizientenmatrix E oder −E hat. In diesemFall ist also A diagonalisierbar auf eine Matrix diag(ε1, ε2, ε3) mit ε = ±1 und interessiertuns in diesem Zusammenhang nicht weiter.Andernfalls hat A genau einen Eigenwert 1 oder −1. Der ein-dimensionale Eigenraum zudiesem Eigenwert der zu A orthogonal ahnlichen Matrix

B =

cos(ϕ) − sin(ϕ) 0sin(ϕ) cos(ϕ) 0

0 0 ±1

wird erzeugt vom dritten Basisvektor e3 und steht senkrecht auf der Drehebene 〈e1, e2〉. We-gen der Orthogonalitat der Basistransformation bleibt das Skalarprodukt unter dieser Basi-stransformation erhalten, so daß auch der ein-dimensionale Eigenraum 〈v〉 von A zum Eigen-wert 1 bzw. −1 senkrecht auf der Drehebene steht. Diese ist folglich der zwei-dimensionaleUnterraum U = 〈v〉⊥.

(12.7.5) Beispiel DrehspiegelungWir betrachten die Matrix

A =13

2 1 2−2 2 1

1 2 −2

.

Wegen AAT = E ist A orthogonal, und wegen det(A) = −1 ist A eine Drehspiegelung. Jetzt wollenwir die Drehebene und den Drehwinkel von A bestimmen.Der Eigenraum von A zum Eigenwert −1 ist

U = 〈(−1,−1, 3)T 〉 .

Dieser Eigenraum muß senkrecht auf der Drehebene W stehen. Diese erhalten wir daher als ortho-gonales Komplement von U , namlich

W = 〈(10,−1, 3)T , (−1, 10, 3)T 〉 .

Page 325: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

322 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

Die so erhaltene Basis von V = R3 orthonormalisieren wir mit Gram-Schmidt zur neuen Basis

(b1, b2, b3) mit

b1 =1√110

(10,−1, 3)T , b2 =1√10

(0, 3, 1)T , b3 =1√11

(−1,−1, 3)T .

Setzt man b1, b2, b3 als Spalten in die Transformationsmatrix S ein, so wird bezuglich dieser Basisdie Drehspiegelung beschrieben durch die Matrix

S−1AS =

5/6√

11/6 0−√

11/6 5/6 00 0 −1

.

Damit bewirkt A in der Ebene W eine Drehung um den Winkel ϕ = 0.58569 (in Bogenmaß).Den Cosinus dieses Winkels kann man auch am charakteristischen Polynom

x3 − 23x2 − 2

3x+ 1 = (x+ 1)(x2 − 2

3x+ 1)

von A ablesen. Der Faktor x + 1 liefert den Eigenwert −1 und gehort daher zur Spiegelung. Derzweite Faktor x2− 2

3x+1 gehort zur Drehung in der Ebene W und hat die Form x2−(2 cos(ϕ)

)x+1

(vgl. (12.7.2)). Damit folgt cos(ϕ) = 12 ·

53 = 5

6 .

(12.7.6) Beispiel Hintereinanderausfuhrung zweier Drehungen um verschiedene AchsenDie orthogonalen Matrizen

A =

1 0 00 −1/2 −

√3/2

0√

3/2 −1/2

und B =

−1/2 −√

3/2 0√3/2 −1/2 00 0 1

.

beschreiben eine Drehung um 120o um die x-Achse bzw. die y-Achse. Die Hintereinanderausfuhrungder beiden Operationen wird beschrieben durch

C = BA =

−1/2√

3/4 3/4√3/2 1/4

√3/4

0√

3/2 −1/2

.

Nach (12.7.1) ist C wieder orthogonal. Wir berechnen das Minimalpolynom M von C nach derublichen Methode:

e1 =

100

, Ce1 =

−1/2√3/2

0

, C2e1 =

5/8−√

3/83/4

, C3e1 =

5/3215√

3/32−9/16

.

Das ergibt M(x) = x3 + 34x

2− 34x−1 = (x2 + 7

4x+1)(x−1) . Mehr als an der Jordan-Normalform 0 −1 01 7/4 00 0 1

von C sieht man an der reellen Normalform

−7/8 −√

15/8 0√15/8 −7/8 0

0 0 1

.

Diese zeigt, daß C eine Drehung um eine (noch zu bestimmende) Achse um den Winkel ϕ mitcos(ϕ) = −7/8 und sin(ϕ) =

√15/8 (also ϕ ≈ 151o ) beschreibt. Die Drehachse bleibt naturlich

fest unter der Wirkung von C. Sie wird also erzeugt von einem Eigenvektor zum Eigenwert 1 vonC. Daher ist die Drehachse die von dem Vektor (1,

√3, 1)T erzeugte Gerade.

Man kann zeigen, daß Ck 6= E fur alle k ∈ N gilt, obwohl A3 = B3 = E ist. In der Spracheder Gruppentheorie heißt dies: A und B haben die Ordnung 3, aber ihr Produkt C = BA hatunendliche Ordnung.

Page 326: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.8 Winkel und Volumen 323

Literatur: In [28] wird angegeben, wie man fur einen Teilkorper K von R alle orthogonalenMatrizen in Mn(K) findet. Dazu wird die folgende Tatsache ausgenutzt: Bezeichnet manmit S die Menge aller schiefsymmetrischen Matrizen in Mn(K) und mit O die Menge allerorthogonalen Matrizen in Mn(K), die nicht den Eigenwert 1 haben, so ist die Abbildungf : S → O, f(A) = (A− E)−1(A+ E) eine Bijektion von S nach O.In [27] werden alle orthogonalen Basen {u, v, w} von R3 bestimmt, so daß die Vektoren u, v, wganzzahlige Koordinaten und ganzzahlige Langen haben.

12.8 Winkel und Volumen

Nachdem jeder Vektor in einem euklidischen oder unitaren Vektorraum eine Lange besitzt,wollen wir jetzt je zwei Vektoren v, w 6= o eines euklidischen Vektorraums einen Win-kel zuordnen und dann gewissen Teilmengen eines endlich-dimensionalen euklidischen oderunitaren Vektorraums ein Volumen. Diese Begriffe werden naturlich so definiert, daß imdrei-dimensionalen euklidischen Raum mit dem Standard-Skalarprodukt die so definiertenWinkel und Volumina mit den aus der Schule bekannten

”anschaulichen“ Begriffen zusam-

menfallen.

Winkel in einem euklidischen Vektorraum.Winkel werden nur in reellen Vektorraumen erklart:

Definition: Winkel zwischen zwei VektorenEs sei V ein euklidischer Vektorraum und v, w ∈ V \ {o} . Dann ist < v , w > eine reelleZahl, und nach Cauchy-Schwarz (12.1.5) gilt | <v , w> | ≤ ‖v‖ · ‖w‖ , also

−1 ≤ <v , w>

‖v‖ · ‖w‖≤ 1 .

Daher gibt es genau eine reelle Zahl ϕ ∈ [0, π] mit

cos(ϕ) =<v , w>

‖v‖ · ‖w‖.

Die Zahl ϕ heißt der Winkel zwischen v und w und wird bezeichnet mit ^(v, w).

(12.8.1) Beispiele Winkel zwischen zwei VektorenEs sei V = R

2 ausgestattet mit dem Standard-Skalarprodukt <v , w>= vTw .

1.

-

6

-v

���� w

@@@Rx

Fur die Vektoren v = (1, 0)T , w = (1, 1)T , x = (1,−1)T

gilt <v , w>=<v , x>= 1 und ‖v‖ = 1 , ‖w‖ = ‖x‖ =√2 . Daher folgt

^(v, w) = ^(v, x) = π/2 .

2. Fur die Vektoren v = (3, 0)T und w = (2, 2)T gilt v − w = (1,−2)T und w − v = (−1, 2)T .Wir berechnen die drei Winkel α = ^(v, w) , β = ^(−v, w − v) , γ = ^(−w, v − w) innebenstehendem Dreieck.

Page 327: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

324 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

-

6

-�������AAAAAAUv

w

v − wα β

γ

Es gilt

cos(α) =1√2, also α = 0.7854 ,

cos(β) =1√5, also β = 1.1075 ,

cos(γ) =1√10, also γ = 1.2491 ,

jeweils in Bogenmaß. Die Summe der drei Winkel istα+ β + γ = π.

Beispiel (12.8.1.1) ist naturlich nur ein Spezialfall des allgemeingultigen Satzes uber dieWinkelsumme im Dreieck. Wie in der Elementargeometrie der Ebene gilt auch hier immerα + β + γ = π. Dieser Satz kann aus der Definition von cos(α), . . . , cos(γ) mit Hilfe desAdditionstheorems cos(α+β) = cos(α) cos(β)− sin(α) sin(β) und der Beziehung (sin(α))2 =1− (cos(α))2 hergeleitet werden 43.

(12.8.2) Satz Rechenregeln fur WinkelEs sei V ein euklidischer Vektorraum mit Vektoren v, w ∈ V \ {o} .

(a) ^(w, v) = ^(v, w) .(b) ^(v,−w) = π − ^(v, w) .(c) Fur alle λ, µ > 0 gilt ^(λv, µw) = ^(v, w) .(d) ^(v, w) ∈ {0, π} gilt genau dann, wenn {v, w} linear abhangig ist.

Dies rechnet man alles leicht nach. Fur (d) benutze man Cauchy-Schwarz (12.1.5). Derfolgende Satz ergibt sich direkt aus der Definition des Winkels:

(12.8.3) Satz Cosinussatz Es sei V ein euklidischer mit Vektoren v, w ∈ V \ {o} . Weitersei ϕ = ^(v, w). Dann gilt

‖v − w‖2 = ‖v‖2 + ‖w‖2 − 2‖v‖‖w‖ cosϕ .

Volumina in einem euklidischen oder unitaren Vektorraum.Jetzt definieren wir Volumina in einem endlich-dimensinalen reellen oder komplexen Vek-torraum mit Skalarprodukt. Die Definition des Volumens hangt von der Dimension desVektorraums ab. Ein Quadrat Q mit Kantenlange 1 kann man etwa als Teilmenge des R2

oder als Teilmenge des R3 ansehen. Das zwei-dimensionale Volumen von Q ist seine Flache,also vol2(Q) = 1. Das drei-dimensionale Volumen von Q ist jedoch das Volumen einesWurfels mit Grundflache Q und Hohe 0, also vol3(Q) = 0. Deshalb definieren wir nicht ein-fach ein

”Volumen“, sondern ein

”m-Volumen“, um zu verdeutlichen, in welcher Dimension

wir das Volumen des betrachteten Objekts messen wollen. Naturlich muß dieses Objekt ineinen m-dimensionalen Raum hineinpassen.Die Objekte, denen wir Volumina zuordnen, haben nur ganz spezielle Formen. Es sinddie Parallelotope, hoherdimensionale Verallgemeinerungen der Parallelogramme. Darunterfallen insbesondere Quader. Mochte man das Volumen eines anders geformten Objekts

43s. etwa [Bra], (B.2.13)

Page 328: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.8 Winkel und Volumen 325

messen, so kann man wie in der Integralrechnung vorgehen: Man fullt dieses Objekt mitParallelotopen oder Quadern aus, oder, falls das nicht geht, approximiert es durch Objekte,deren Volumen man berechnen kann. Dieser Aspekt wird hier aber keine Rolle spielen.

Definition: Parallelotop, m-VolumenEs sei V ein n-dimensionaler euklidischer oder unitarer Vektorraum. Weiter sei m ≤ n und{s1, . . . , sm} eine Teilmenge von V .

(a) Die Teilmenge

S := Spat(s1, . . . , sm) := {m∑j=1

λjsj | 0 ≤ λj ≤ 1}

heißt das von {s1, . . . , sm} aufgespannte Parallelotop.(b) Es sei U irgendein m-dimensionaler Unterraum von V mit {s1, . . . , sm} ⊆ U , und BU =

(b1, . . . , bm) sei eine Orthonormalbasis von U . Sind die Vektoren sj = (s(j)1 , . . . , s

(j)m )T

in Koordinatendarstellung bezuglich dieser Basis BU gegeben, so ist

volm(S) := | det

s(1)1 . . . s

(m)1

......

s(1)m . . . s

(m)m

|das m-Volumen von S.Das 2-Volumen wird ublicherweise Flache genannt.

Diese Definition hat naturlich nur dann Sinn, wenn das Volumen volm(S) weder von demverwendeten Unterraum U noch von der verwendeten Basis BU abhangt.

(12.8.4) Lemma Wohldefiniertheit des m-VolumensEs gelten dieselben Voraussetzungen und Bezeichnungen wie in der vorstehenden Definition.

(a)

volm(S) := | det

<s1 , u1> . . . <sm , u1>...

...<s1 , um> . . . <sm , um>

|(b) volm(S) hangt weder von dem verwendeten Unterraum U noch von der verwendeten

Basis BU ab.

Beweis: (a) ist klar nach der Bemerkung im Anschluß an die Definition der Orthonormal-basis (vgl. S. 288).

Nun wahlen wir zunachst eine andere Orthonormalbasis B′ = (w1, . . . , wm) des UnterraumsU . Die Basistransformation B → B′ wird dann nach (12.3.2) durch eine unitare Matrix Tbeschrieben. Sind v und u1, . . . , um in den Koordinaten bezuglich B angegeben, so lautendie Koordinatendarstellungen bezuglich der neuen Basis T−1v , T−1u1, . . . , T

−1um. Mit T

Page 329: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

326 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

ist naturlich auch T−1 unitar und laßt das Skalarprodukt invariant. Nach (a) gilt also

volm(S) = | det

<s1 , u1> . . . <sm , u1>...

...<s1 , um> . . . <sm , um>

|= | det

<T−1s1 , T−1u1> . . . <T−1sm , T

−1u1>...

...<T−1s1 , T

−1um> . . . <T−1sm , T−1um>

| .Daher sind wir frei in der Wahl der Orthonormalbasis von U .Nun sei W ein anderer Unterraum der Dimension m von V mit S ⊆ W . Dann gilt auchS ⊆ U ∩ W . Eine Orthonormalbasis (d1, . . . , dk) von U ∩ W kann man sowohl zu einerOrthonormalbasis BU = (d1, . . . , dk, uk+1, . . . , um) von U als auch zu einer OrthonormalbasisBW = (d1, . . . , dk, wk+1, . . . , wm) von W erganzen. Wegen S ⊆ U∩W und der Orthogonalitatder jeweiligen Basisvektoren gilt

<sj , ul>= 0 =<sj , wl> fur alle 1 ≤ j ≤ n und k + 1 ≤ l ≤ n .

In die Berechnung von volm(S) gehen somit nur die Basisvektoren des Durchschnitts von Uund W ein. Daher ist die Definition von volm(S) unabhangig von U . �

Eine wichtige Eigenschaft des m-Volumens folgt sofort aus der Definition:

(12.8.5) Lemma Parallelotope mit Volumen 0Es gelten dieselben Voraussetzungen und Bezeichnungen wie in der vorstehenden Definition.Das m-Volumen des Parallelotops S ist genau dann 0, wenn {s1, . . . , sm} eine linear abhangigeMenge ist.Insbesondere ist das m-Volumen des Parallelotops S gleich 0, wenn es ein k < m und einenk-dimensionalen Unterraum U von V mit S ⊆ U gibt.

Beispielsweise ist das 3-Volumen eines Parallelogramms immer gleich 0.

(12.8.6) Beispiele m-Volumen von ParallelotopenEs sei V = R

n mit dem Standard-Skalarprodukt < · , ·> .(a) Es sei k ≤ m ≤ n und

Sk := Spat(e1, . . . , ek)

der von den ersten k Einheitsvektoren aufgespannte Wurfel, also der k-dimensionale Ein-heitswurfel.Es soll das m-Volumen von Sk berechnet werden. Den m-dimensionalen Unterraum U , denwir dafur brauchen, wahlen wir so einfach wie moglich, namlich U := 〈e1, . . . , em〉. Dannfolgt

volm(Sk) = |det(E O

O O

)| =

{1 fur k = m0 fur k < m

,

da die Einheitsmatrix E links oben das Format (k × k) hat.

Page 330: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.8 Winkel und Volumen 327

(b) Fur beliebige α1, . . . , αn ∈ R ist

Q := Spat(α1e1, . . . , αnen)

ein Quader mit den Kantenlangen |α1|, . . . , |αn|. Er hat das n-Volumen

voln(Q) = |det

α1

. . .αn

| = |α1| · . . . · |αn| .

(c)-�

���

���

v

whϕ

Jetzt sei n ≥ 2. Das von zwei Vektoren v, w ∈ V aufgespannteParallelotop S = Spat(v, w) ist ein Parallelogramm mit denSeitenlangen ‖v‖ und ‖w‖. Nach der Elementargeometrie hatS die Flache, also das 2-Volumen ‖v‖h = ‖v‖‖w‖ sinϕ.

Da das Skalarprodukt invariant bleibt unter einer orthogonalen Basistransformation, konnenwir S ⊆ 〈e1, e2〉 annehmen. Mit den Koordinatendarstellungen v = (v1, v2)T und w =(w1, w2)T bezuglich dieser Basis gilt

(vol2(S))2 =∣∣∣∣ v1 w1

v2 w2

∣∣∣∣2 = (v1w2 − v2w1)2

= (v21 + v2

2)(w21 + w2

2)− (v1w1 + v2w2)2 = ‖v‖2‖w‖2− <v , w> 2

= ‖v‖2‖w‖2(1− <v , w> 2

‖v‖2‖w‖2) = ‖v‖2‖w‖2(1− (cosϕ)2)

= ‖v‖2‖w‖2(sinϕ)2 ,

also vol2(S) = ‖v‖‖w‖ sinϕ , da vol2(S) und sinϕ immer nicht-negativ sind.

Der folgende Satz gibt dem Absolutbetrag der Determinante eines Endomorphismus einegeometrische Bedeutung: | det(ϕ)| gibt an, um welchen Faktor sich das n-Volumen einesParallelotops in V bei Anwendung von ϕ andert. Ist Q der n-dimensionale Einheitswurfelin V , so ist | det(ϕ)| das n-Volumen des Parallelotops ϕ(Q).

(12.8.7) Satz Es sei V ein n-dimensionaler euklidischer oder unitarer Vektorraum undS = Spat(s1, . . . , sn) ein Parallelotop in V . Weiter sei ϕ ein Endomorphismus von V .Dann ist

ϕ(S) := {ϕ(s) | s ∈ S}

ein Parallelotop, und es gilt

voln(ϕ(S)) = | det(ϕ)| · voln(S) .

Fur s =∑n

j=1 λjsj gilt ϕ(s) =∑n

j=1 λjϕ(sj) . Daher ist ϕ(S) gerade das von ϕ(s1), . . . , ϕ(sn)aufgespannte Parallelotop in V .Jetzt seien die Vektoren sj = (s

(j)1 , . . . , s

(j)n ) in der Koordinatendarstellung bezuglich irgend-

einer Orthonormalbasis B von V gegeben. Außerdem sei A die Koeffizientenmatrix von ϕ

Page 331: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

328 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

bezuglich der Basis B. Dann gilt

voln(ϕ(S)) = | det(As1, . . . , Asn)| = | det

a11 . . . a1n

......

an1 . . . ann

s

(1)1 . . . s

(n)1

......

s(1)n . . . s

(n)n

|

= | det(A)| · | det

s(1)1 . . . s

(n)1

......

s(1)n . . . s

(n)n

| = | det(A)| · voln(S) . �

Die folgende Aussage werden wir im nachsten Abschnitt benutzen. Sie ist ein hoherdimensio-nales Analogon zu der Formel, die das 3-dimensionale Volumen eines Quaders im R

3 angibtals Grundflache · Hohe. Die

”Grundflache“ ist hier ein n− 1-dimensionales Parallelotop.

(12.8.8) Lemma Es seien s1, . . . , sn−1, sn ∈ Rn, wobei sn bezuglich des Standard-Skalar-produkts senkrecht stehe auf den anderen Vektoren si mit i < n. Dann gilt

voln(Spat(s1, . . . , sn−1, sn)) = ‖sn‖ · voln−1(Spat(s1, . . . , sn−1)) .

12.9 Das Vektorprodukt im Rn

Generelle Voraussetzung: In diesem Abschnitt ist V immer ein n-dimensionalerR-Vektorraum der endlichen Dimension n ≥ 3. Wir verwenden nur die Standard-Einheitsbasis von V und das Standard-Skalarprodukt von V .

-����

6

?

���

a

b

c

−c

p p p p p p p p p p p p p p p pp p p p p p p p p p p p p p p pp p p p p p p p p p p p p p p pp p p p p p p p p p p p p p p pp p p p p p p p p p p p p p p pp p p p p p p p p p p p p p p pp p p p p p p p p p p p p p p pp p p p p p p p p p p p p p p pp p p p p p p p p p p p p p p pF

Es sei V = R3 mit dem Standard-Skalarprodukt. Zu zwei

Vektoren a, b ∈ V wird ein Vektor c ∈ V gesucht, derorthogonal ist zu a und b, und dessen Lange gleich demFlacheninhalt F des von a und b aufgespannten Parallelo-gramms ist.Dieses Problem ist nicht eindeutig losbar, da zu jederLosung c auch der entgegengesetzte Vektor −c eine Losungist. Daher verlangen wir zusatzlich, daß das entstehendeParallelotop Spat(a, b, c) positiv orientiert ist.

Definition: positiv orientiertes ParallelotopEs sei V = R

n. Die Vektoren s1, . . . , sn seien gegeben in der Koordinatendarstellungbezuglich der Standard-Einheitsbasis von V .Das Parallelotop S = Spat(s1, . . . , sn) ist genau dann positiv orientiert, wenn die Determi-nante ∣∣∣∣∣∣∣

s(1)1 . . . s

(m)1

......

s(1)m . . . s

(m)m

∣∣∣∣∣∣∣

Page 332: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.9 Das Vektorprodukt im Rn 329

positiv ist. Ist diese Determinante negativ, so heißt S negativ orientiert.

Ein Parallelotop bekommt also nur dann eine Orientierung zugewiesen, wenn sein Volumennicht verschwindet. Fur unser Problem spielt das keine Rolle, da fur den Fall vol2(Spat(a, b)) =0 der Vektor c sowieso die Lange 0 haben muß, also c = o erzwungen wird.

(12.9.1) Beispiele positiv orientiertes Parallelotop(a) Der Einheitswurfel Q = Spat(e1, . . . , en) ist positiv orientiert.(b) Ist das Parallelotop S = Spat(s1, . . . , si, . . . , sj , . . . , sn) positiv orientiert, und entsteht das

Parallelotop T = Spat(s1, . . . , sj , . . . , si, . . . , sn) aus S durch Vertauschen zweier Vektoren,so ist T negativ orientiert.

(c) Es seien α1, . . . , αn reelle Zahlen 6= 0 und Q = Spat(α1e1, . . . , αnen) ein Quader mit denKantenlangen |α1|, . . . , |αn|. Genau dann ist Q positiv orientiert, wenn die Anzahl der nega-tiven αi gerade ist.Man beachte, daß es hier auf die Reihenfolge der Vektoren α1e1, . . . , αnen ankommt. Ver-tauschen zweier Vektoren kehrt nach (b) die Orientierung des Quaders um.

(d) Es sei S = Spat(s1, . . . , sn) ein positiv orientiertes Parallelotop in V = Rn und ϕ ein Endo-

morphismus von V . Genau dann ist ϕ(S) wieder positiv orientiert, wenn det(ϕ) positiv ist.Dies folgt sofort aus dem Beweis von (12.8.7).

Durch (12.8.7) hat der Betrag von det(ϕ) eine geometrische Bedeutung erhalten, namlich alsMaß der Volumenanderung des n-dimensionalen Einheitswurfels. Wegen (12.9.1.d) konnenwir das Vorzeichen von det(ϕ) interpretieren als Indikator fur eine Anderung der Orientierungdes n-dimensionalen Einheitswurfels. Sowohl das Volumen als auch die Orientierung einesbeliebigen Parallelotops (mit nichtverschwindendem Volumen) andern sich in gleicher Weise.

Die Losung unseres Eingangsproblems ist das Vektorprodukt a× b, das sicherlich bereits ausder Schule bekannt ist:

Definition: Vektorprodukt im R3

Die Vektoren a = (a1, a2, a3)T und b = (b1, b2, b3)T in R3 seien in Koordinatendarstellungbezuglich der Standard-Einheitsbasis gegeben. Dann heißt

a× b :=

a2b3 − a3b2

a3b1 − a1b3

a1b2 − a2b1

∈ R3

das Vektorprodukt von a und b.Wegen des verwendeten Symbols wird das Vektorprodukt auch manchmal Kreuzprodukt ge-nannt.

Der Name kommt naturlich daher, daß hier zwei Vektoren zu einem neuen Vektor”multipli-

ziert“ werden, wahrend beim Skalarprodukt zwei Vektoren”multipliziert“ werden und das

Ergebnis ein Skalar ist. Wir notieren einige Rechenregeln des Vektorprodukts und zeigen,daß es das Gewunschte leistet:

(12.9.2) Satz Eigenschaften des Vektorprodukts im R3

(a) Das Vektorprodukt ist alternierend, das heißt b× a = −(a× b) .

Page 333: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

330 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

(b) Das Vektorprodukt ist linear in beiden Argumenten.(c) Es gilt a× b = o genau dann, wenn a und b linear abhangig sind.(d) <a× b , a>=<a× b , b>= 0 .(e) ‖a× b‖ = vol2(Spat(a, b)) .(f) Im Fall vol2(Spat(a, b)) 6= 0 ist das Parallelotop Spat(a, b, c) positiv orientiert.(g) Bezeichnen e1, e2, e3 die Standard-Einheitsvektoren, so erhalt man das Vektorprodukt

durch Berechnung der formalen Determinante

a× b =

∣∣∣∣∣∣e1 e2 e3

a1 a2 a3

b1 b2 b3

∣∣∣∣∣∣ .Beweis:

(a) ergibt sich sofort aus der Definition.(b) Die Linearitat des Vektorprodukts im ersten Argument ist gleichbedeutend zu

(λa+ µa′)× b = λ(a× b) + µ(a′ × b)

fur alle λ, µ ∈ R und a, a′, b ∈ R3. Dies rechnet man leicht nach. Die Linearitat imzweiten Argument ist dann klar nach (a).

(c) ist dem Leser zur Ubung uberlassen (Hinweis: Cauchy-Schwarz (12.1.5)).(d) ist ebenfalls schnell nachgerechnet.(e) Es sei ϕ der von a und b eingeschlossene Winkel. Wie in (12.8.6.e) berechnet sich das

Quadrat der Flache des Parallelogramms Spat(a, b) zu

F 2 = ‖a‖2 · ‖b‖2 · (sinϕ)2 = ‖a‖2 · ‖b‖2 · (1− (cosϕ)2)

= ‖a‖2 · ‖b‖2− <a , b>2

= (a21 + a2

2 + a23)(b2

1 + b22 + b2

3)− (a1b1 + a2b2 + a3b3)3

= (a2b3 − a3b2)2 + (a3b1 − a1b3)2 + (a1b2 − a2b1)2

= ‖a× b‖2 .

Wegen der Nicht-Negativitat von F und ‖a× b‖ folgt daraus die Behauptung.(f) Durch Entwickeln nach der dritten Spalte sieht man∣∣∣∣∣∣

a1 b1 a2b3 − a3b2

a2 b2 a3b1 − a1b3

a3 b3 a1b2 − a2b1

∣∣∣∣∣∣ = (a2b3 − a3b2)2 + (a3b1 − a1b3)2 + (a1b2 − a2b1)2 .

Diese Summe ist immer positiv, falls a× b 6= o. Letzteres passiert nach (c) nur dann,wenn a und b linear abhangig sind, also wenn vol2(Spat(a, b)) = 0 ist.

(g) sieht man durch Entwickeln nach der ersten Zeile. �

Weitere Rechenregeln fur das Vektorprodukt in R3 lassen sich ebenfalls leicht nachrechnen:

(12.9.3) Lemma(a) (a× b)× c =<a , c> b− <b , c> a .(b) <(a× b) , (c× d)>=<a , c> <b , d> − <a , d> <b , c> .

Page 334: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.9 Das Vektorprodukt im Rn 331

Die obige Konstruktion des Vektorprodukts hangt wesentlich von der Dimension 3 des ver-wendeten Vektorraums ab. Deshalb stellt sich naturlich die Frage nach einer Verallgemeine-rung des Vektorprodukts auf n > 3 Dimensionen.Fur die Definition eines Vektorprodukts in Rn mussen wir uns kurz an die Beschreibungvon Linearformen erinnern. Eine Linearform λ : Rn → R ist eine lineare Abbildung inden Skalarenkorper R. Wie jede lineare Abbildung wird λ vollstandig beschrieben durchdie Angabe der Bilder λ1 = λ(e1), . . . , λn = λ(en) der Basisvektoren. Fur einen beliebigenVektor x = (x1, . . . , xn)T ∈ Rn gilt dann

λ(x) = λ(x1e1 + . . .+ xnen) = x1λ1 + . . .+ xnλn =<x , l> ,

wenn l = (λ1, . . . , λn)T den aus den λi gebildeten Vektor bezeichnet. Nach (11.6.14) ist derVektor l eindeutig bestimmt.

Definition: Vektorprodukt im Rn

Es sei n ≥ 3, und es seien Vektoren a1, . . . , an−1 ∈ Rn vorgegeben. Fur einen beliebigenVektor x ∈ Rn bilden wir die Determinante

λ(x) = det(a1, . . . , an−1, x) .

Wegen der Linearitat der Determinante im n-ten Argument 44 ist die Abbildnung λ : Rn → R

eine Linearform von Rn. Nach der Voruberlegung gibt es also genau einen Vektor c =(λ1, . . . , λn)T ∈ Rn mit λ(x) =<x , c> fur alle x ∈ Rn . Dann heißt

a1 × . . .× an−1 := c

das Vektorprodukt der Vektoren a1, . . . , an .

Ebenso wie beim Vektorprodukt im R3 kommt es hier auf die Reihenfolge der Vektoren

a1, . . . , an an! Daß diese Definition eine sinnvolle Verallgemeinerung des Vektorproduktsim R

3 ist und insbesondere im Fall n = 3 mit dem vorher definierten Vektorproduktubereinstimmt zeigt der folgende Satz.

(12.9.4) Satz Vektorprodukt im Rn

Es sei c = a1 × . . .× an−1 das Vektorprodukt der ai ∈ Rn.(a) Das Vektorprodukt ist alternierend und linear in jedem Argument.(b) Es gilt <c , ai>= 0 fur alle 1 ≤ i ≤ n− 1 .(c) Genau dann gilt c = o, wenn die Menge {a1, . . . , an−1} linear abhangig ist.(d) Ist c 6= o, so ist Spat(a1, . . . , an−1, c) ein positiv orientiertes Parallelotop.(e) ‖c‖ = voln−1(Spat(a1, . . . , an−1)) .(f) Im Fall n = 3 stimmen die beiden Vektorprodukte uberein.

44Die Determinante kann bekanntlich als Multilinearform von Rn nach R betrachtet werden. Die Ar-gumente sind dann die Spalten a1, . . . , an−1, x der Matrix, von der die Determinante gebildet wird (vgl.Abschnitt 8.2). Die Determinante ist naturlich linear in jedem ihrer Argumente. Wir brauchen aber hiernur die Linearitat im letzten Argument.

Page 335: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

332 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

Beweis:

(a) Da die Determinante eine alternierende Multilinearform ist, gilt fur i 6= j

det(a1, . . . , ai, . . . , aj, . . . , an−1) = − det(a1, . . . , aj, . . . , ai, . . . , an−1) .

Fur die zugehorigen Linearformen λij und λji gilt also λji = −λij. Wegen der Line-aritat des Skalarprodukts folgt dann auch cji = −cij fur die zugehorigen Vektoren mitλij(x) =< x , cij > und λji(x) =< x , cji > . Daher ist das Vektorprodukt alternie-rend. Aus denselben Grunden (Multilinearitat der Determinante und Bilinearitat desSkalarprodukts) folgt die Multilinearitat des Vektorprodukts.

(b) Nach der Definition von c gilt <x , c>= det(a1, . . . , an−1, x) fur alle x ∈ Rn . Damitfolgt insbesondere

<ai , c>= det(a1, . . . , an−1, ai) = 0 fur alle 1 ≤ i ≤ n− 1 .

(c) Wieder nach der Definition von c gilt c = o genau dann, wenn det(a1, . . . , an−1, x) =< x , o >= 0 ist fur alle x ∈ Rn. Dies ist genau dann der Fall, wenn die Menge{a1, . . . , an−1} linear abhangig ist.

(d) Nach Definition von c ist det(a1, . . . , an−1, c) =<c , c> positiv fur c 6= o . Insbeson-dere gilt auch

voln(Spat(a1, . . . , an−1, c)) = | det(a1, . . . , an−1, c)| =<c , c>= ‖c‖2 .

(e) Nach (b) steht c senkrecht auf allen Vektoren a1, . . . , an−1. Aus (12.8.8) und demBeweis von (d) folgt also

‖c‖2 = voln(Spat(a1, . . . , an−1, c)) = ‖c‖ · voln−1(Spat(a1, . . . , an−1)) .

Im Fall ‖c‖ = 0 ist nach (c) die Menge {a1, . . . , an−1} linear abhangig, alsovoln−1(Spat(a1, . . . , an−1)) = 0. Im Fall ‖c‖ 6= 0 erhalt man die Behauptung, indemman obige Gleichungskette durch ‖c‖ dividiert.

(f) Durch Entwickeln nach der dritten Spalte sieht man∣∣∣∣∣∣a1 b1 x1

a2 b2 x2

a3 b3 x3

∣∣∣∣∣∣ = x1(a2b3 − a3b2) + x2(a3b1 − a1b3) + x3(a1b2 − a2b1) =<x , a× b>

fur alle x ∈ Rn. Daher stimmen die beiden Definitionen im Fall n = 3 uberein. �

(12.9.5) Beispiel Vektorprodukt im R4

Es seien die Vektoren a = (1, 0, 1, 0)T , b = (0, 1, 2, 3)T , c = (1, 0, 0, 1)T ∈ R4 gegeben. Wirberechnen das Vektorprodukt d = a × b × c ∈ R4. Nach der Voruberlegung zur Definition erhaltman die Koordinaten von d durch di = det(a, b, c, ei), also

d1 =

∣∣∣∣∣∣∣∣1 0 1 10 1 0 01 2 0 00 3 1 0

∣∣∣∣∣∣∣∣ = 1

und analog d2 = 5 , d3 = −1 , d4 = −1 . Damit ist d = (1, 5,−1,−1)T . Dieser Vektor steht senk-recht auf a, b, c, und ‖d‖ =

√28 ist das 3-dimensionale Volumen des von a, b, c in R4 aufgespannten

Parallelotops.

Page 336: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.10 Die Orthogonalprojektion 333

Literatur: Wer sich eingehender uber den Begriff der Orientierung in einem endlich-dimen-sionalen R-Vektorraum informieren mochte, findet mehr in [SS], §74.Eine Verallgemeinerung von (12.9.3) auf das hoherdimensionale Vektorprodukt beweist Ditt-

mer in [8]. Er definiert zwar (wie Spivak) das n-dimensionale Vektorprodukt, indem er dieVariable x als erste Spalte in die Determinante det(x, a1, . . . , an−1) setzt, aber die beidenDefinitionen unterscheiden sich nur um den Vorfaktor −1 im Fall n gerade. In (12.9.4.d)muß man dann das Parallelotop Spat(c, a1, . . . , an−1) nehmen, sonst bleibt alles beim alten.

12.10 Die Orthogonalprojektion

Es sei V ein euklidischer R-Vektorraum oder ein unitarer C-Vektorraum beliebiger Dimensi-on. In Abschnitt 12.1 haben wir jedem Vektor v ∈ V die Norm ‖v‖ =

√<v , v> zugeordnet.

Fur zwei Vektoren v, w ∈ V ist dann die Norm ‖v − w‖ des Differenzvektors ein Maß furden Abstand von v und w.Jetzt wollen wir auch den Abstand eines Vektors v ∈ V von einem Unterraum U ⊆ Vmessen.

-x

��������* y

6

z

�������v

����������w

������:

���: uwuv

pppppppppppppppp

pppppppppppppppppppppppppppp

Wahlen wir etwa V = R3 und als Unterraum

U = 〈(1, 0, 0)T , (0, 1, 0)T 〉

die (x, y)-Ebene, so hat nach der Anschauung der Vektorv = (2, 2, 1)T einen kleineren Abstand von U als der Vek-tor w = (1, 1, 3)T . In diesem Fall ist der Betrag der z-Koordinate ein sinnvolles Maß fur den Abstand von U . DerAbstand d(v, U) des Vektors v vom Unterraum U ist alsodas Minimum der Normen ‖v−u‖ fur alle u ∈ U . Der Vek-

tor uv ∈ U , der dem Vektor v”am nachsten“ liegt, heißt Lotfußpunkt von v in U . Fur unsere

beiden Beispielvektoren v und w erhalten wir

uv = (2, 2, 0)T und d(v, U) = ‖v − uv‖ = ‖(0, 0, 1)T‖ = 1

wv = (1, 1, 0)T und d(w,U) = ‖w − uw‖ = ‖(0, 0, 3)T‖ = 3 .

In beiden Fallen steht der Differenzvektor v − uv bzw. w − uw senkrecht auf allen Vektorenu ∈ U .Diese Vorstellung vom Abstand d(v, U) wollen wir nun – soweit wie moglich – auf denallgemeinen Fall ubertragen.

Definition: OrthogonalprojektionEs sei V ein euklidischer R-Vektorraum oder ein unitarer C-Vektorraum. Weiter sei v ∈ Vund U ein Unterraum von V .Ein Vektor uv ∈ U heißt Orthogonalprojektion von v auf U , wenn gilt

‖v − uv‖ ≤ ‖v − u‖ fur alle u ∈ U .

Die Bedingung dieser Definition kann man auch in der Form

‖v − uv‖ = min{‖v − u‖ | u ∈ U} oder

‖v − uv‖2 = min{‖v − u‖2 | u ∈ U}

Page 337: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

334 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

aufschreiben, da alle Normen nicht-negativ sind.Jetzt stellen sich naturlich die drei kanonischen Fragen:

1. Existiert immer eine Orthogonalprojektion uv?2. Ist die Orthogonalprojektion uv eindeutig bestimmt, falls sie existiert?3. Wie berechnet man die Orthogonalprojektion uv, falls sie existiert?

Wir wenden uns zuerst dem Eindeutigkeitsproblem zu. Dabei wird gleichzeitig klar, warumuv Orthogonal-Projektion heißt.

(12.10.1) Lemma Eindeutigkeit der OrthogonalprojektionEs sei V ein euklidischer R-Vektorraum oder ein unitarer C-Vektorraum. Es sei v ∈ V undU ein Unterraum von V .

(a) Wenn eine Orthogonalprojektion uv ∈ U existiert, so gilt v−uv ∈ U⊥, das heißt: v−uvsteht senkrecht auf allen u ∈ U .

(b) Wenn eine Orthogonalprojektion uv ∈ U existiert, so ist sie eindeutig bestimmt.

Beweis:

(a) Wir nehmen an, es gabe einen Vektor w ∈ U mit <v − uv , w>= a + ib 6= 0. Dannliegt auch w′ := (a+ ib)w in U , und es gilt

<v − uv , w′> = <v − uv , (a+ ib)w>= (a− ib) <v − uv , w>= (a− ib)(a+ ib) = |a+ ib|2 > 0 .

Ebenso liegt w′′ := 1‖w′‖w

′ in U , und es gilt

<v − uv , w′′>=1

‖w′‖<v − uv , w′>> 0 .

Daher konnen wir ohne Einschrankung annehmen, daß ‖w‖ = 1 gilt und <v−uv , w>eine positive reelle Zahl ist. Fur λ :=< v − uv , w > liegt auch u := uv + λw imUnterraum U , und es gilt

‖v − u‖2 = ‖(v − uv)− λw‖2

= ‖v − uv‖2 − 2Re(<v − uv , λw> ) + ‖λw‖2

= ‖v − uv‖2 − 2λ(<v − uv , w> ) + |λ|2‖w‖2

= ‖v − uv‖2 − 2λ2 + λ2 = ‖v − uv‖2 − λ2 < ‖v − uv‖2 ,

ein Widerspruch zur Minimalitat von ‖v − uv‖2.(b) Fur alle u ∈ U liegt uv − u ebenfalls in U . Nach (a) steht also v − uv senkrecht auf

uv − u fur alle u ∈ U . Nach Pythagoras (12.1.2) folgt somit

‖v − u‖2 = ‖v − uv‖2 + ‖uv − u‖2 ,

und die Annahme ‖v − u‖2 = ‖v − uv‖2 impliziert ‖uv − u‖2 = 0, also u = uv. �

Die Eindeutigkeit der Orthogonalprojektion macht die folgende Definition sinnvoll:

Page 338: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.10 Die Orthogonalprojektion 335

Definition: Abstand eines Vektors von einem UnterraumEs sei V ein euklidischer R-Vektorraum oder ein unitarer C-Vektorraum. Weiter sei v ∈ Vund U ein Unterraum von V . Falls die Orthogonalprojektion uv ∈ U existiert, so ist derAbstand des Vektors v vom Unterraum U definiert durch

d(u, V ) := ‖v − uv‖ .

Naturlich existiert fur jeden Vektor w ∈ U die Orthogonalprojektion uw = w in U , und jederVektor w ∈ U hat den Abstand 0 vom Unterraum U .Andererseits ist nach der Orthogonalitatsaussage (12.10.1.a) klar, daß die Orthogonalprojek-tion nicht immer existieren kann. Wahlen wir etwa wie in Beispiel (11.6.13) den VektorraumV = C[0, 1] der auf dem Intervall [0, 1] definierten, stetigen reellwertigen Funktionen, undden Unterraum U aller Polynome in V , so gilt U⊥ = {0} nach (11.6.13). Ist f irgendeineFunktion in V mit der Orthogonalprojektion uf ∈ U , so gilt f − uf ∈ U⊥, also f = uf ∈ U .Die Funktionen aus U sind somit die einzigen, die eine Orthgonalprojektion in U besitzen.

(12.10.2) Satz Existenz der OrthogonalprojektionEs sei V ein euklidischer R-Vektorraum oder ein unitarer C-Vektorraum und U ein Unter-raum von V . Dann sind aquivalent:

(a) Zu jedem v ∈ V existiert die Orthogonalprojektion uv in U .(b) Es gilt V = U ⊕ U⊥.

Beweis: Wenn fur jedes v ∈ V die Orthogonalprojektion uv in U existiert, so gilt v =uv + (v − uv) ∈ U + U⊥ nach (12.10.1.a) fur alle v ∈ V , also V = U ⊕ U⊥.Gilt umgekehrt V = U ⊕ U⊥, so findet man zu jedem v ∈ V eindeutig bestimmte Vektorenuv ∈ U und w ∈ U⊥ mit v = uv +w. Wie im Eindeutigkeitsbeweis fur (12.10.1.b) folgt nachPythagoras

‖v − u‖2 = ‖(v − uv) + (uv − u)‖2 (v−uv)⊥(uv−u)= ‖v − uv‖2 + ‖uv − u‖2 ≥ ‖v − uv‖2

fur alle u ∈ U . Daher ist uv eine Orthogonalprojektion. �

Aus (12.10.2) und (11.6.12) folgt die Existenz der Orthogonalprojektion fur endlich-dimensio-nale Unterraume.

(12.10.3) Korollar Es sei V ein euklidischer R-Vektorraum oder ein unitarer C-Vektorraum.Ist U ein endlich-dimensionaler Unterraum von V , so existiert zu jedem v ∈ V die Ortho-gonalprojektion uv in U .

Aus dem Beweis von (12.10.2) erhalt man leicht die folgende Charakterisierung der Ortho-gonalprojektion uv, die man fur die Berechnung von uv benutzen kann.

(12.10.4) Korollar Es sei V ein euklidischer R-Vektorraum oder ein unitarer C-Vektorraumund U ein Unterraum von V . Dann sind gleichwertig:

(i) uv ∈ U und v − uv ∈ U⊥;(ii) uv ist die Orthogonalprojektion von v auf U .

Page 339: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

336 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

Nun nehmen wir an, es sei U ein Unterraum, so daß die Orthogonalprojektion uv auf Ufur alle v ∈ V existiert. Die Zuordnung v 7→ uv ist dann eine wohldefinierte Abbildungvon V nach U . Man rechnet leicht nach, daß diese Abbildung linear ist. Im folgenden Satzsind einige Eigenschaften dieser Abbildung aufgelistet, deren Beweis ebenfalls dem Leseruberlassen bleibt.

(12.10.5) Satz Eigenschaften der OrthogonalprojektionEs sei V ein euklidischer R-Vektorraum oder ein unitarer C-Vektorraum. Es sei U einUnterraum von V , so daß fur jedes v ∈ V die Orthogonalprojektion uv in U existiert. Dannist die Abbildung

πU : V → U , definiert durch πUv := uv

eine lineare Abbildung von V nach U . Außerdem gilt:(a) Bild(πU) = U ;(b) Kern(πU) = U⊥ ;(c) π2

U = πU ;(d) ‖πU(v)‖ ≤ ‖v‖ fur alle v ∈ V .

Nach (12.10.5.c) ist die Orthogonalprojektion eine Projektion im Sinne der Definition auf S.97.Fur den wichtigen Fall eines endlich-dimensionalen Unterraums U , in dem die Orthogonal-projektion immer existiert, wollen wir zwei Berechnungsverfahren angeben:

(12.10.6) Satz Berechnung der OrthogonalprojektionEs sei V ein euklidischer R-Vektorraum oder ein unitarer C-Vektorraum und U ein endlich-dimensionaler Unterraum von V .

(a) Ist (b1, . . . , bm) eine Orthonormalbasis von U , so gilt

πU(v) =m∑j=1

<v , bj> bj fur alle v ∈ V .

(b) Ist (b1, . . . , bm) irgendeine Basis von U , so gilt

πU(v) =m∑j=1

λjbj ,

wobei der Vektor (λ1, . . . , λm)T der eindeutig bestimmte Losungsvektor des Gleichungs-systems Ax = c mit aij =<bj , bi> und cj =<v , bj> fur 1 ≤ i, j ≤ m ist.

Beweis: Die Matrix A in (b) ist gerade die Transponierte der Strukturmatrix der Ein-schrankung des Skalarprodukts < · , ·> auf den Unterraum U bezuglich der Basis (b1, . . . , bm).Diese Einschrankung ist ebenfalls positiv definit. Daher ist det(AT ) = det(A) > 0 nach(11.6.10), und das Gleichungssystem Ax = c hat eine eindeutig bestimmte Losung(λ1, . . . , λm)T . Jetzt setzen wir u :=

∑mj=1 λjbj. Dann gilt

<v − u , bi> = <v , bi> − <u , bi>

= <v , bi> −m∑j=1

λj <bj , bi>= 0

Page 340: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.10 Die Orthogonalprojektion 337

fur alle 1 ≤ i ≤ n wegen der Wahl von (λ1, . . . , λm)T . Dies zeigt v−u ∈ U⊥, also u = πU(v).Falls (b1, . . . , bm) eine Orthonormalbasis von U ist, so ist A die (m × m)-Einheitsmatrix.Daher folgt (a) sofort aus (b). �

(12.10.7) Beispiele Orthogonalprojektion

1. Im Beispiel zu Beginn dieses Abschnitts ist die angegebene Basis des Unterraums U =〈(1, 0, 0)T , (0, 1, 0)T 〉 bereits eine Orthonormalbasis von U . Daher kann man die Formel(12.10.6.a) anwenden, um die Orthogonalprojektion eines Vektors v = (x, y, z)T auf U zuberechnen:

πU (v) =<(x, y, z)T , (1, 0, 0)T > (1, 0, 0)T+ <(x, y, z)T , (0, 1, 0)T > (0, 1, 0)T = (x, y, 0)T .

2. Orthogonale Zerlegung eines Vektors:In (12.1.3) haben wir zu einem vorgegebenen Vektor v 6= o einen weiteren Vektor w zerlegtin die Summe

w = λv + u mit λ =<w , v>

<v , v>und u ⊥ v .

Der Vektor λv ist gerade die Orthogonalprojektion von w auf den ein-dimensionalen Unter-raum U = 〈v〉. Um das zu sehen, verwenden wir in (12.10.6.b) die Basis (v) von U underhalten dann λ als Losung der Gleichung λ <v , v>=<w , v> .

3. Im euklidischen Vektorraum V = C[0, 1] mit dem Skalarprodukt <f , g >=∫ 1

0 f(x)g(x)dx(vgl. (12.1.14) und (12.2.4.3)) berechnen wir die Orthogonalprojektion des Vektors v = ex

auf den 4-dimensionalen Unterraum U = 〈1, x, x2, x3〉. Wir suchen also ein Polynom p =λ1 + λ2x+ λ3x

2 + λ4x3 , so daß das Integral∫ 1

0(ex − p(x))2dx

minimal wird.Die Strukturmatrix des Skalarprodukts bezuglich der Basis (1, x, x2, x3) von U ist

A =

1 1/2 1/3 1/4

1/2 1/3 1/4 1/51/3 1/4 1/5 1/61/4 1/5 1/6 1/7

wegen <ui , uj>=

∫ 10 x

i−1xj−1dx = 1i+j−1 . Dann erhalten wir die zu A inverse Matrix

A−1 =

16 −120 240 −140

−120 1200 −2700 1680240 −2700 6480 −4200−140 1680 −4200 2800

.

Die rechte Seite c des Gleichungssystems in (12.10.6.b) enthalt die Skalarprodukte <v , ui>=∫ 1

0 exxi−1, lautet also

c = (e− 1, 1, e− 2, 6− 2e)T .

Damit ergeben sich schließlich die Koeffizienten der Orthogonalprojektion

λ1 = 536e− 1456 = 0.999060054 ,λ2 = −6180e+ 16800 = 1.018300123 ,λ3 = 15120e− 41100 = 0.421246301 ,λ4 = −9940e+ 27020 = 0.278625117 .

Page 341: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

338 12 EUKLIDISCHE UND UNITARE VEKTORRAUME

Die Gute der Approximation von ex durch das Polynom p(x) kann man durch den Vergleichvon p(x) mit dem Taylorpolynom 45

t(x) =3∑i=0

1i!xi =

16x3 +

12x2 + x+ 1

beurteilen. Es gilt∫ 1

0(ex − p(x))2dx = 1.1 · 10−7 und

∫ 1

0(ex − t(x))2dx = 2.8 · 10−4.

Wenn man das Polynom πU (v) mit (12.10.6.a) berechnen mochte, so bestimmt man zuerstseine Koordinaten bezuglich der in (12.2.4.3) berechneten Orthonormalbasis von U zu

µ1 = e− 1 , µ2 =√

3(3− e) , µ3 =√

5(−19 + 7e) , µ4 =√

7(193− 71e) .

Das Umrechnen in die Basis (1, x, x2, x3) liefert dann wieder die Koeffizienten λi.

4. Eine in vielen Anwendungen auftretende Orthogonalprojektion ist die Fourierentwicklungeiner Funktion f ∈ C[−π, π]. Der R-Vektorraum V = C[−π, π] wird ausgestattet mit demSkalarprodukt

<f , g>=∫ π

−πf(x)g(x)dx .

Fur eine feste naturliche Zahl N definiert man den Unterraum

U := 〈12, sin(x), cos(x), sin(2x), cos(2x), . . . , sin(Nx), cos(Nx)〉 .

Man kann nachrechnen, daß die angegebenen Funktionen eine Basis von U bilden. DieKoordinaten der Orthogonalprojektion πU (f) bezuglich dieser Basis heißen die Fourierkoef-fizienten der Funktion f . Wegen∫ π

−πcos(nx) sin(mx)dx = 0 fur alle n,m ∈ N0 und∫ π

−πcos(nx) cos(mx)dx =

∫ π

−πsin(nx) sin(mx)dx =

{0 fur n 6= mπ fur n = m ≥ 1

ist die Orthogonalprojektion von f auf U gegeben durch

12a0 +

N∑n=1

(an cos(nx) + bn sin(nx)) mit

a0 =1π

∫ π

−πf(x)dx ,

an =1π

∫ π

−πf(x) cos(nx)dx fur 1 ≤ n ≤ N ,

bn =1π

∫ π

−πf(x) sin(nx)dx fur 1 ≤ n ≤ N .

Mehr zu Fourierkoeffizienten steht zum Beispiel in [Heu], Abschnitt 133. Uber die komplexenFourierkoeffizienten kann man sich informieren in [SS], §76, S. 483f.

45zum Begriff des Taylorpolynoms s. [Heu], Abschnitt 60

Page 342: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

12.10 Die Orthogonalprojektion 339

Literatur: Ein lineares Gleichungssystem Ax = b ist (jedenfalls theoretisch) besondersleicht losbar, wenn A eine quadratische, invertierbare Matrix ist. In diesem Fall erhalt mannamlich x = A−1b. Wenn A nicht invertierbar ist, existiert keine Inverse A−1. Es gibt je-doch andere Matrizen A+, genannt verallgemeinerte Inversen, so daß die MatrixprodukteAA+ und A+A

”moglichst ahnlich“ zu einer Einheitsmatrix sind. Eine der bekanntesten

dieser verallgemeinerten Inversen ist die Moore-Penrose-Inverse oder Pseudoinverse A+ ei-ner rechteckigen Matrix A ∈ M(m × n,C). Vier aquivalente Definitionen dieser fur jedesA ∈ M(m × n,C) existierenden und eindeutig bestimmten Matrix A+ und Eigenschaftenvon A+ werden in [61] angegeben.Die Moore-Penrose-Inverse A+ ∈M(n×m,C) ist vollstandig bestimmt durch die Forderun-gen (1)AA+A = A , (2)A+AA+ = A+ , (3)AA+ hermitesch , (4)A+A hermitesch . Manbeachte, daß AA+ eine (m×m)-Matrix und A+A eine (n× n)-Matrix ist.Der Zusammenhang mit Orthogonalprojektionen ist folgender:Mit PU werde die Abbildungsmatrix der Orthogonalprojektion πU bezuglich der Standard-Einheitsbasis bezeichnet. Dann gilt

AA+ = PBild(A) , A+A = PBild(AH)

Em − AA+ = PKern(AH) , En − A+A = PKern(A) ,

wobei Ek die (k × k)-Einheitsmatrix bezeichnet. Daraus folgt, daß fur eine quadratische,invertierbare Matrix A die Inverse A−1 und die Moore-Penrose-Inverse A+ zusammenfallen:In diesem Fall ist namlich Bild(A) = Bild(AH) = C

n und Kern(A) = Kern(AH) = {o}, alsoPBild(A) = PBild(AH) = E und PKern(A) = PKern(AH) = O.Die Moore-Penrose-Inverse wird auch behandelt in [SB], Abschnitt 4.8.5.Ein Algorithmus zur Berechnung der Moore-Penrose-Inversen wird von Mayne in [34] vor-geschlagen. Dabei sei A eine (m×n)-Matrix mit m ≤ n und Rang q. Wegen (AT )+ = (A+)T

kann man sich auf den Fall m ≤ n beschranken. Falls A den hochstmoglichen Rang q = mhat, so erhalt man A+ einfach durch

A+ = AT (AAT )−1 .

Im Fall q ≤ m kann man A durch Anwenden elementarer Zeilenoperationen auf eine Form

A =

(A1

O

)bringen, wobei A1 eine (q×n)-Matrix ist. Jetzt berechne man die (q×m)-Matrix C := A1A

T

und schließlich die (n× n)-Matrix

A+ = AT1 (CCT )−1C .

Ein anderer Algorithmus, beispielsweise der in Mathematica implementierte, benutzt dieSingularwertzerlegung der Matrix A (vgl. Abschnitt 13.4).

Page 343: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

340 13 *ALGORITHMEN ZUR MATRIZENRECHNUNG

13 *Algorithmen zur Matrizenrechnung

In diesem Kapitel wollen wir uns damit beschaftigen, wie man gewisse Berechnungen furMatrizen geschickt ausfuhren kann. Die Matrizenrechnung ist oft leicht fur Matrizen vonkleinem Format. So ist es zum Beispiel kein Problem, die Determinante oder (falls sieexistiert) die Inverse einer (2 × 2)- oder einer (3 × 3)-Matrix auszurechnen. Wie wir abergesehen haben, steigt die Arbeit – und ebenso der benotigte Speicherplatz im Computer –explosionsartig an, wenn wir eine 8 × 8-Matrix vor uns haben. In Anwendungen kommendurchaus auch Matrizen vom Format 1000 × 1000 oder großer vor. Deshalb braucht manweitere Verfahren, die zum Beispiel ausnutzen, daß die vorgegebene Matrix eine bestimmteForm hat. Erfahrungsgemaß rechnet es sich leicht mit einer Matrix, die viele Nullen enthalt.So ist es wunschenswert, wenn ein Verfahren diese Eigenschaft ausnutzt.Ein anderes Problem sind Rundungsfehler, die beim Dividieren (z.B. bei der GaußschenElimination) auftreten. Daher betrachten wir ein Verfahren zur Rangbestimmung, das injedem Schritt die Ganzzahligkeit der Matrix erhalt. Die Vorteile eines Verfahrens muß manallderdings oft mit gewissen Nachteilen erkaufen. Eine Methode, die die Ganzzahligkeiterhalt, liefert beispielsweise in Zwischenschritten oft sehr große Werte, die zu einem Uberlauffuhren konnen.Diese und viele weitere Problemstellungen gehoren in den Bereich der numerischen LinearenAlgebra, in der auch die Zerlegung einer Matrix in ein Produkt von

”schonen“ Matrizen

eine wichtige Rolle spielt. Die in diesem Kapitel erwahnten Methoden und Verfahren gebennaturlich nur einen kleinen Ausblick in dieses riesige und schnell wachsende Gebiet.

13.1 * Matrizeninversion

Das Berechnen der Inversen einer Matrix ist im Allgemeinen mit großem Aufwand verbun-den. In einigen Fallen kann man sich aber Reduktionsformeln uberlegen, die das Invertierenvereinfachen. Im Folgenden werden drei Verfahren vorgestellt: Die Kastchenformel fuhrt dasInvertieren einer Matrix zuruck auf das Invertieren bestimmter Teilmatrizen.Das Erganzungsverfahren erlaubt die einfache Berechnung der Inversen einer Matrix, diesich nur in einer Zeile oder nur in einer Spalte von einer anderen Matrix unterscheidet, derenInversen man kennt.Mit dem Verfahren von Ikebe kann man Tridiagonalmatrizen invertieren, deren Nebendiago-nalen keine nichtverschwindenden Eintrage besitzen.

Die erste Formel macht sich die Tatsache zunutze, daß man mit Matrizen, die in Blockevon passendem Format aufgeteilt sind, so rechnen kann, als ob diese Blocke Elemente desSkalarenkorpers waren (s. Rechenregeln fur Blockmatrizen auf S. 78):

(13.1.1) Satz Kastchenformel fur die MatrixinversionEs seien A1 ∈ Mm(K) und A2 ∈ Mn(K) invertierbare Matrizen und M ∈ M(m × n,K)

beliebig. Weiter sei A =

(A1 M0 A2

)eine Block-Dreiecksmatrix. Dann gilt

A−1 =

(A−1

1 −A−11 MA−1

2

0 A−12

).

Page 344: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

13.1 * Matrizeninversion 341

Beweis: Die Inverse von A existiert nach der Kastchenformel (8.3.10) fur Determinanten.Weiter gilt(

A1 M0 A2

)(A−1

1 −A−11 MA−1

2

0 A−12

)=

(AA−1

1 +M · 0 A1(−A−11 MA−1

2 ) +MA−12

0 · A−11 + A2 · 0 0 · (−A−1

1 MA−12 ) + A2A

−12

)

=

(Em 00 En

)= Em+n . �

(13.1.2) Beispiele Invertieren von Blockmatrizen

1. Die Matrix A =

0 1 2 31 0 7 50 0 1 00 0 1 1

teilen wir in folgender Weise auf:

A =(A1 M

0 A2

)mit A1 =

(0 11 0

), A2 =

(1 11 0

), M =

(2 37 5

).

Die Inversen von A1 und A2 sind leicht zu berechnen, etwa nach (8.4.4.1):

A−11 =

(0 11 0

), A−1

2 =(

1 0−1 1

), also −A−1

1 MA−12 =

(−2 −5

1 −3

)

und damit A−1 =

0 1 −2 −51 0 1 −30 0 1 00 0 −1 1

.

2. Fur untere Block-Dreiecksmatrizen lautet das Analogon zu (13.1.1)(A1 0M A2

)−1

=(

A−11 0

−A−12 MA−1

1 A−12

).

Wir invertieren A =

2 0 0 0

10 1 1 10 1 2 34 1 4 9

.

Die Inverse der Vandermonde-Matrix A2 kennen wir aus (8.4.4.2):

A−12 =

12·

6 −5 1−6 8 −2

2 −3 1

, also A−1 =12·

1 0 0 0

−32 6 −5 134 −6 8 2−12 2 −3 1

.

In der nachsten Formel spielen Matrizen vom Rang 1 eine Rolle. Sind u = (u1, . . . , un)T , v =(v1, . . . , vn)T ∈ Kn \ {o} , so ist

u · vT =

u1v1 u1v2 . . . u1vnu2v1 u2v2 . . . u2vn

......

...unv1 unv2 . . . unvn

Page 345: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

342 13 *ALGORITHMEN ZUR MATRIZENRECHNUNG

eine Matrix vom Rang 1. Umgekehrt kann man auch jede Matrix M vom Rang 1 auf dieseWeise schreiben: M besitzt eine Spalte ungleich der Nullspalte. Alle anderen Spalten sindskalare Vielfache dieser ausgezeichneten Spalte. Bezeichnen wir die Eintrage dieser Spaltemit u1, . . . , un , so gibt es also fur jedes j ein vj ∈ K , so daß vju die j-te Spalte von Mist. Somit folgt M = u · vT .

(13.1.3) Satz Erganzungsverfahren zur MatrixinvertierungEs sei B ∈Mn(K) invertierbar, u, v ∈ Kn \ {o} , und A = B + u · vT .Genau dann ist A invertierbar, wenn λ := 1 + vTB−1u 6= 0 ist, und gegebenenfalls gilt

A−1 = B−1(En − λ−1uvTB−1

).

Beweis: Es sei λ := 1 + vTB−1u 6= 0 . Dann gilt(B + uvT

)B−1

(En − λ−1uvTB−1

)=(En + uvTB−1

)(En − λ−1uvTB−1

)= En + uvTB−1 − λ−1uvTB−1 − λ−1u vTB−1u︸ ︷︷ ︸

∈K

vTB−1

= En + uvTB−1 − λ−1(1 + vTB−1u)(uvTB−1) = En ,

also ist A invertierbar und die angegebene Matrix ihre Inverse.Falls A invertierbar ist, so auch AB−1 und es gilt

o 6= AB−1u = (B + uvT )B−1u = (En + uvTB−1)u

= u+ uvTB−1u = u(1 + vTB−1u) = λu , also λ 6= 0 . �

(13.1.3) ist insbesondere dann anwendbar, wenn A aus B hervorgeht, indem nur eine Spalteoder nur eine Zeile von B abgeandert wird: Sind namlich s , z ∈ Kn , so hat die Matrixs · eTj als j-te Spalte die Spalte s und sonst nur Nullen, und die Matrixei · zT als i-te Zeile die Zeile zT und sonst nur Nullen.Im Fall u = s , v = ej ist bTj := vTB−1 die j-te Zeile von B−1 , also

A−1 = B−1(En − (1 + bTj u)−1sbTj

)relativ einfach zu berechnen.Im Fall u = ei , v = z ist bi := B−1u die i-te Spalte von B−1 , also nun

A−1 = B−1(En − (1 + zT bi)

−1eizTB−1

).

(13.1.4) Beispiele Erganzungsverfahren

1. Zum Invertieren von A =

1 1 0 00 1 0 00 −1 1/3 00 2 0 1/4

wahlen wir B := diag(1, 1, 1/3, 1/4) ,

deren Inverse B−1 = diag(1, 1, 3, 4) wir kennen. Dann gilt A = B + uvT mitu = (1, 0,−1, 2)T und v = e2 . Die zweite Zeile von B−1 ist bT2 = (0, 1, 0, 0) , also folgt

λ = 1 + (0, 1, 0, 0)(1, 0,−1, 2)T = 1 , und damit

A−1 =

1

13

4

11

11

10−1

2

(0, 1, 0, 0)

=

1 −1 0 00 1 0 00 3 3 00 −8 0 4

.

Page 346: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

13.1 * Matrizeninversion 343

2. Das Invertieren von C =

1 1 0 01 1 1 10 −1 1/3 00 2 0 1/4

laßt sich auf Beispiel 1 zuruckfuhren,

indem man die dort invertierte Matrix A als B verwendet. Es gilt C = A+uvT mit u = e2

und v = (1, 0, 1, 1)T . Man erhalt

λ = 1 + (1, 0, 1, 1)(−1, 1, 3,−8)T = −5 , also

C−1 =

1 −1 0 00 1 0 00 3 3 00 −8 0 4

11

11

+15

0 0 0 01 0 1 10 0 0 00 0 0 0

1 −1 0 00 1 0 00 3 3 00 −8 0 4

=15

4 1 −3 −41 −1 3 43 −3 24 12−8 8 −24 −12

.

Eine Verallgemeinerung der Dreiecksmatrizen sind die Hessenbergmatrizen:

Definition: Hessenbergmatrix, TridiagonalmatrixEine Matrix A = (ai,j) ∈ Mn(K) heißt untere (obere) Hessenbergmatrix, wenn ai,j = 0 furj > i+ 1 ( i > j + 1 ) gilt.Eine Matrix, die gleichzeitig obere und untere Hessenbergmatrix ist, heißt Tridiagonalma-trix. In einer Tridiagonalmatrix sind also hochstens die Diagonale, die obere und die untereNebendiagonale mit nichtverschwindenden Eintragen besetzt.

Weder die Menge der invertierbaren Hessenbergmatrizen noch die Menge der invertierbarenTridiagonalmatrizen in Mn(K) ist abgeschlossen bezuglich der Matrizeninversion, wie dasBeispiel 1 1 0

1 1 10 1 1

−1

=

0 1 −11 −1 1−1 1 0

zeigt. Jedoch kann man nach einem Verfahren von Ikebe [23] die

”obere“ Halfte der Inversen

einer unteren Hessenbergmatrix sowie die”untere“ Halfte der Inversen einer oberen Hessen-

bergmatrix berechnen. Durch zweimaliges Anwenden dieses Algorithmus auf eine invertier-bare Tridiagonalmatrix, deren Nebendiagonalen keine verschwindenden Eintrage enthalten,erhalt man die Inverse dieser Tridiagonalmatrix.

(13.1.5) Satz (Ikebe)Es sei A = (αi,j) ∈ Mn(K) eine invertierbare untere Hessenbergmatrix mit αi,i+1 6= 0 furi ∈ {1, . . . , n− 1} . Weiter sei A−1 = (βi,j).Dann gibt es zwei Vektoren x = (x1, . . . , xn)T , y = (y1, . . . , yn)T ∈ Kn , so daß βi,j = xiyjgilt fur i ≤ j .Die analoge Aussage gilt fur obere Hessenbergmatrizen.

Page 347: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

344 13 *ALGORITHMEN ZUR MATRIZENRECHNUNG

Fur den Beweis, der elementar gefuhrt werden kann, wird der Leser auf [23] verwiesen. ZweiArgumente, die in diesen Beweis eingehen, sind die Aussagen uber die Inversen von unterenDreiecksmatrizen (8.4.6) und die Kastchenformel (13.1.1). Hervorzuheben ist noch, daß manx1 = 1 wahlen kann.

Die beiden Vektoren x, y aus (13.1.5) kann man durch Benutzen der letzten Spalte derGleichung AA−1 = En , also

A ·

β1,n...

βn,n

= A ·

x1yn...

xnyn

=

0...01

(1)

und der ersten Zeile von A−1A = En , also

(y1, . . . , yn) · A = (1, 0, . . . , 0) (2)

sukzessive berechnen. Beachten wir, daß man x1 = 1 wahlen kann, und daß yn 6= 0 geltenmuß wegen der Invertierbarkeit von A−1, so erhalten wir aus (1)

x2 = −α−11,2α1,1

x3 = −α−12,3(α2,1 + α2,2x2)

...

xn = −α−1n−1,n(αn−1,1 + αn−1,2x2 + . . .+ αn−1,n−1xn−1) .

Den Wert yn erhalt man aus der letzten Zeile von (1), namlich

yn = (αn,1 + αn,2x2 + . . .+ αn,nxn)−1 .

Die y-Komponenten berechnet man aus (2), also

yn−1 = −ynαn,nα−1n−1,n

yn−2 = −(yn−1αn−1,n−1 + ynαn,n−1)α−1n−2,n−1

...

y1 = −(y2α2,2 + y3α3,2 + . . .+ ynαn,2)α−11,2 .

Ist A sogar eine Tridiagonalmatrix, so konnen wir nach dem analogen Verfahren Vektorenu, v ∈ Kn berechnen, so daß bi,j = uivj gilt fur i ≥ j . Falls aber A symmetrisch ist, istauch A−1 symmetrisch, und man kann sich die Berechnung von u und v sparen. Wir fassendiese beiden Schritte zusammen in folgendem Algorithmus:

(13.1.6) Algorithmus Invertierung einer TridiagonalmatrixGegeben sei eine invertierbare Tridiagonalmatrix A = (αi,j) ∈Mn(K) mitαi,i−1 , αi,i+1 6= 0 fur alle i.

1. Setze x1 := 1 . Fur i = 2 , . . . , n berechne xi := α−1i−1,i ·

i−1∑k=1

αi−1,kxk .

Page 348: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

13.1 * Matrizeninversion 345

2. Berechne yn :=( n∑k=1

αn,kxk)−1

.

3. Fur i = n− 1 , . . . , 1 berechne yi := −( n∑k=i+1

αk,i+1yk) · α−1i,i+1 .

4. Fur 1 ≤ i ≤ j ≤ n berechne βi,j := xiyj .

5. Falls A = AT , so berechne βi,j := βj,i fur 1 ≤ j < i ≤ n und gehe zu Schritt12.

6. Setze un := 1 . Fur i = n− 1 , . . . , 1 berechne ui := −( n∑k=i+1

αi+1,kuk)· α−1

i+1,i .

7. Berechne v1 :=( n∑k=1

α1,kuk)−1

.

8. Fur i = 2 , . . . , n berechne vi := −( i−1∑k=1

αk,i−1vk)· α−1

i,i−1 .

9. Fur 1 ≤ j < i ≤ n berechne βi,j := uivj .

10. A−1 = (βi,j) .

(13.1.7) Beispiele Invertierung von Tridiagonalmatrizen

1. Fur A =

1 1 01 1 10 1 1

erhalten wirx1 = 1 , x2 = −1 , x3 = 0 ,y1 = 0 , y2 = 1 , y3 = −1 ,

also die obere Halfte

0 1 −1−1 1

0

von A−1. Berechnen wir zu Kontrollzwecken auch u

und v:u1 = 0 , u2 = −1 , u3 = 1 ,v1 = −1 , v2 = 1 , v3 = 0 .

Daraus errechnen wir die untere Halfte

01 −1−1 1 0

von A−1.

2. Fur λ 6= 0 , λ1, λ2, λ3, λ4 berechnen wir die Inverse von A =

1 λ 0 0λ 1 λ 00 λ 1 λ0 0 λ 1

aus

Beispiel (8.3.6.4). Wegen der Symmetrie von A genugt es, die Vektoren x und y zu berechnen:

x1 = 1 , x2 = −λ−1 , x3 = −1 + λ−2 , x4 = 2λ−1 − λ−3

y4 = −µ , y3 = µλ−1 , y2 = µ(−λ−2 + 1) , y1 = µ(λ−3 − 2λ−1)

mit µ := (λ− 3λ−1 + λ−3)−1 . Damit erhalten wir

A−1 = µ

λ−3 − 2λ−1 −λ−2 + 1 λ−1 −1−λ−2 + 1 λ−3 − λ−1 −λ−2 λ−1

λ−1 −λ−2 λ−3 − λ−1 −λ−2 + 1−1 λ−1 −λ−2 + 1 λ−3 − 2λ−1

.

Page 349: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

346 13 *ALGORITHMEN ZUR MATRIZENRECHNUNG

3. Fur A =

0 1 0 02 3 4 00 5 6 70 0 8 9

berechnet man

x1 = 1 x2 = 0 x3 = −1/2 x4 = 3/7y1 = −93/2 y2 = 1/2 y3 = 9 y4 = −7u1 = 93/40 u2 = −1/20 u3 = −9/8 u4 = 1v1 = −20 v2 = 0 v3 = 4 v4 = −3 ,

also A−1 =12·

−93 1 18 −14

2 0 0 045 0 −9 7−40 0 8 −6

.

Viele Arbeiten beschaftigen sich mit Inversen von Vandermonde-Matrizen. Man kann dieInverse der Vandermonde-Matrix

A =

1 α1 α2

1 . . . αn−11

1 α2 α22 . . . αn−1

2...

......

...1 αn α2

n . . . αn−1n

fur paarweise verschiedene αi explizit angeben:

Schreiben wir abkurzend(j)∑

i=1,...,n

xi fur∑

i=1,...,n , i6=jxi , und ebenso fur Produkte, so gilt fur

den (i, j)-ten Eintrag βi,j von A−1 :

βi,j = (−1)i+1 ·

(j)∑1≤s1<...<sn−i≤n

∏k=1,...,n−i

αsk

· (j)∏k=1,...,n

(αk − αj)

−1

.

Zum Beweis s. [25] und [30].

Um diese Formel etwas anschaulicher zu machen, schreiben wir den Fall n = 3 auf:

A−1 =

α2α3

(α2 − α1)(α3 − α1)α1α3

(α1 − α2)(α3 − α2)α1α2

(α1 − α3)(α2 − α3)

− α2 + α3

(α2 − α1)(α3 − α1)− α1 + α3

(α1 − α2)(α3 − α2)− α1 + α2

(α1 − α3)(α2 − α3)

1(α2 − α1)(α3 − α1)

1(α1 − α2)(α3 − α2)

1(α1 − α3)(α2 − α3)

.

Literatur: Mehr zum Erganzungsverfahren findet man im Lehrbuch [FF].Eine andere Version von (13.1.3) beweist Miller [37]:Sind B und C invertierbar, C vom Rang 1 und λ = 1 + Spur(CB−1) , so gilt(B + C)−1 = B−1(E − λ−1CB−1) .Zu Tridiagonalmatrizen und ihren Inversen gibt es eine reiche Literatur. In [17] findet man

Page 350: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

13.2 * Rangberechnung 347

etwas zu diesem Thema, außerdem einige Bemerkungen zur Bedeutung der Tridiagonalma-trizen bei der Behandlung technischer Probleme. [3] charakterisiert die Matrizen A mitnichtverschwindenden Diagonaleintragen, deren Inverse A−1 eine Tridiagonalmatrix ist. [43]verallgemeinert das Ergebnis von Ikebe auf Block-Tridiagonalmatrizen.

13.2 * Rangberechnung

In diesem Abschnitt sollen die uber die bisherigen Kapitel verstreuten Aussagen uber denRang einer Matrix noch einmal zusammengefaßt und ein wenig erweitert werden. Anschlie-ßend werden verschiedene Algorithmen zur Rangberechnung diskutiert.Soweit nichts anderes vorausgesetzt ist, sei K ein beliebiger Korper und A eine (m × n)-Matrix mit Eintragen aus K. Ein wichtiges Ergebnis aus Kapitel 2 ist die Gleichheit vonZeilenrang und Spaltenrang fur eine beliebige Matrix A (2.4.3), die zur Definition des Rangsvon A fuhrte. Aus der Gleichheit von Zeilenrang und Spaltenrang erhalt man außerdem dasfolgende Lemma.

(13.2.1) Lemma(a) rang(A) = rang(AT ) . (2.4.4)(b) Ist A ∈M(m× n,C), und AH = AT , so gilt rang(A) = rang(AH) = rang(A) .

Beweis: Es sei A ∈ M(m × n,C) und r = rang(A). Dann hat A eine Menge si1 , . . . , sirvon linear unabhangigen Spalten. Die komplex konjugierte Matrix A enthalt die Spaltens1, . . . , sn. Aus der Annahme

o = λ1si1 + . . .+ λrsir

folgt durch komplexe Konjugation dieser Gleichung

o = λ1si1 + . . .+ λrsir ,

und aus der linearen Unabhangigkeit der si erhalten wir λ1 = . . . = λr = 0, also λ1 =. . . = λr = 0. Dies zeigt rang(A) ≤ rang(A) und weiter rang(A) ≤ rang( ¯A) ≤ rang(A) , alsorang(A) = rang(A) . Damit ist dann auch rang(AH) = rang(A) . �

Zwei Matrizen A ∈M(m× n,K) und B ∈M(n× p,K) kann man multiplizieren. Was weißman uber den Rang des Produkts AB?

(13.2.2) Satz Rang eines Matrizenprodukts(a) rang(AB) ≤ rang(A) und rang(AB) ≤ rang(B) .(b) Ist B ∈M(n× n,K) invertierbar, so gilt rang(AB) = rang(A) .(c) Ist A ∈M(n× n,K) invertierbar, so gilt rang(AB) = rang(B) .

Beweis: (a) ist eine Folgerung aus der Rangungleichung von Frobenius (s. (3.5.5) und(3.5.6). In (b) haben wir nun rang(AB) ≤ rang(A) und rang(A) = rang

((AB)B−1

)≤

rang(AB) , also rang(AB) = rang(A) . Analog zeigt man (c). �

Ist die quadratische, komplexe Matrix A ∈ Mn(C) hermitesch, so kann man den Rang vonA am charakteristischen Polynom von A ablesen:

Page 351: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

348 13 *ALGORITHMEN ZUR MATRIZENRECHNUNG

(13.2.3) Satz Es sei A ∈Mn(C) hermitesch mit charakteristischem Polynom χ. Ist k diegroßte naturliche Zahl, so daß xk ein Teiler von χ(x) ist, so hat A den Rang n− k.

Beweis: Nach (12.3.14.b) ist A ahnlich zu einer Diagonalmatrix D. Da A und D dasselbecharakteristische Polynom und denselben Rang haben, konnen wir uns ohne EinschrankungA als Diagonalmatrix A = diag(a11, . . . , ann) vorstellen mit

a11, . . . , arr 6= 0 und ar+1,r+1, . . . , ann = 0 .

Dann ist r = rang(A), und A hat das charakteristische Polynom

χ(x) = (x− a11) · . . . · (x− arr) · xn−r .

Das Polynom (x− a11) · . . . · (x− arr) hat den konstanten Koeffizienten a11 · . . . · arr 6= 0, istalso nicht durch x teilbar. Daher ist xn−r die hochste Potenz von x, die χ(x) teilt. �

(13.2.4) Beispiel Die Matrix A =(

0 10 0

)∈ M2(C) hat Rang 1 und das charakteristische

Polynom χ(x) = x2 . Also kann (13.2.3) fur nicht-hermitesche Matrizen schiefgehen.

Wegen (13.2.3) ist man daran interessiert, zu einer vorgegebenen komplexen (nicht notwendigquadratischen) Matrix A eine hermitesche Matrix B zu finden, die denselben Rang wie A hat.Fur den Spezialfall einer quadratischen Matrix A haben wir in (12.4.6) bereits eine Losunggefunden, denn A hat denselben Rang wie die hermitesche Matrix

√AHA. Da

√AHA

als hermitesche Matrix unitar diagonalisiert werden kann, sieht man sofort, daß AHA und√AHA, also auch A und AHA denselben Rang haben. Ebenso haben A und AAH denselben

Rang. Den allgemeinen Fall fuhrt man leicht auf den quadratischen zuruck und erhalt so diefolgende Aussage.

(13.2.5) Satz Es sei A ∈M(m×n,C). Dann sind AHA und AAH quadratische hermitescheMatrizen mit rang(AHA) = rang(AAH) = rang(A) .Fur A ∈ M(m × n,R) sind ATA und AAT symmetrisch mit rang(ATA) = rang(AAT ) =rang(A) .

Fur andere Korper K mussen jedoch ATA,AAT und A nicht denselben Rang haben:

(13.2.6) Beispiele(a) K = C , A = (1, i) , rang(A) = 1 .

AAT = (0) hat Rang 0, ATA =(

1 ii −1

)hat Rang 1.

(b) K = GF (2) , A =(

0 10 1

), rang(A) = 1 .

AAT =(

1 11 1

)hat Rang 1, jedoch ATA = O hat Rang 0.

Page 352: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

13.2 * Rangberechnung 349

Algorithmen zur RangberechnungDas Standardverfahren zur Berechnung des Ranges ist das Gaußsche Eliminationsverfahren(1.5.5), das heißt die Anwendung elementarer Spalten- und Zeilenoperationen zur Erzeugungeiner Matrix in Treppenform, an der man dann den Rang ablesen kann als Anzahl derSpalten, die nicht die Nullspalte sind.

(13.2.7) Beispiel Rangbestimmung durch Gauß-EliminationDie reelle (4× 5)-Matrix

A =

2 1 0 1 13 6 5 −2 30 −1 −3 0 12 2 1 4 7

kann durch elementare Spaltenumformungen auf auf die Treppenform

2 0 0 0 03 9/2 0 0 00 −1 −17/9 0 02 1 −1/9 585/153 0

gebracht werden, hat also den Rang 4.

Das vorstehende Beispiel zeigt ein Problem der Gaußelimination: Selbst wenn man miteiner ganzzahligen Matrix A startet, konnen im Verlauf des Verfahrens Bruche auftreten,namlich dann, wenn ein Pivotelement ungleich 1 oder −1 ist. Diese Bruche sind nicht nur beiRechnungen von Hand unangenehm, sondern konnen auch bei Computerberechnungen wegender maschinenimmanenten Rundungsfehler Probleme bereiten. Die annullierten Eintrageim oberen Dreieck der Matrix sind dann moglicherweise nicht exakt Null, sondern etwa10−17. Dies muß man berucksichtigen, wenn man zur Ermittlung des Ranges am Schluß dieNullspalten zahlt.

Die Ganzzahligkeit einer Matrix A bleibt erhalten mit der Methode von Gerstein ([15]):

(13.2.8) Satz Es sei A ∈M(m×n,K) mit a1,1 6= 0 . Fur 2 ≤ i ≤ m und 2 ≤ j ≤ n setzenwir

di,j :=

∣∣∣∣ a1,1 a1,j

ai,1 ai,j

∣∣∣∣ = a1,1ai,j − ai,1a1,j .

Dann gilt

rang(A) = 1 + rang

d2,2 . . . d2,n...

...dm,2 . . . dm,n

.

Beweis: Wir schreiben A ∼ B, wenn B ∈ M(m × n,K) aus A durch Anwendung ele-mentarer Zeilenoperationen hervorgeht. Nach (1.5.3) haben dann A und B denselben Rang.Multipliziert man die Zeilen 2, . . . ,m jeweils mit a11, so folgt

A ∼

a1,1 a1,2 . . . a1,n

a1,1a2,1 a1,1a2,2 . . . a1,1a2,n...

......

a1,1am,1 a1,1am,2 . . . a1,1am,n

.

Page 353: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

350 13 *ALGORITHMEN ZUR MATRIZENRECHNUNG

Nun subtrahieren wir fur alle 2 ≤ i ≤ m das ai,1-fache der ersten von der i-ten Zeile underhalten

A ∼

a1,1 a1,2 . . . a1,n

0 a1,1a2,2 − a2,1a1,2 . . . a1,1a2,n − a2,1a1,n...

......

0 a1,1am,2 − am,1a1,2 . . . a1,1am,n − am,1a1,n

=

a1,1 a1,2 . . . a1,n

0 d2,2 . . . d2,n...

......

0 dm,2 . . . dm,n

.

Wegen a1,1 6= 0 liegt die erste Zeile nicht im Erzeugnis der ubrigen, und die Behauptung istgezeigt. �

(13.2.9) Algorithmus Rangbestimmung nach GersteinEingabe: (m× n)-Matrix A uber dem Korper K.

1. Setze r := 0 .

2. Prufe, ob die erste Spalte nur Nullen enthalt.Falls ja, streiche die erste Spalte aus der Matrix A und fuhre Schritt 2erneut aus.Falls nein, fahre fort mit Schritt 3.

3. Setze r := r + 1 .

4. Falls m = 1 oder n = 1 , so gehe zu Schritt 8.

5. Suche in Spalte [1] einen Eintrag ai,1 6= 0 (Pivotelement).Vertausche die Zeilen [i] und [1].

6. Fur 2 ≤ i ≤ m und 2 ≤ j ≤ n berechne di,j := a1,1ai,j − ai,1a1,j .

7. Setze m := m− 1 und n := n− 1 und A = (di,j)i,j .Gehe zu Schritt 3

8. Rang(A) = r .

(13.2.10) Beispiele Rangbestimmung nach Gerstein

1.

rang

1 2 0 02 4 1 13 6 2 04 8 0 05 10 0 1

= 1 + rang

0 1 10 2 00 0 00 0 1

= 1 + rang

1 12 00 00 1

= 2 + rang

−201

= 3 .

2. Zum Vergleich berechnen wir noch einmal den Rang der Matrix A aus (13.2.7):

rang

2 1 0 1 13 6 5 −2 30 −1 −3 0 12 2 1 4 7

= 1 + rang

9 10 −7 3−2 −6 0 2

2 2 6 12

= 2 + rang

(−34 −14 24−2 68 102

)= 3 + rang

(−2340 −3420

)= 4 .

Page 354: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

13.2 * Rangberechnung 351

Die Eintrage einer ganzzahligen Matrix bleiben im Verlauf des Gerstein-Verfahrens alsoganzzahlig, jedoch konnen sie stark anwachsen, auch wenn man mit betragsmaßig kleinenEintragen startet. So fuhrt beispielsweise bereits die (8 × 8)-Matrix aus Beispiel (6.2.2.4),die viele Nullen und nur Eintrage mit Betrag ≤ 4 enthalt, bei der Implementation desGerstein-Algorithmus in Basic und Rechnen mit einfacher Genauigkeit zu einem numerischenUberlauf, d.h. es treten Eintrage ≥ 3.4 · 1038 auf.

Fur die Berechnung des Ranges komplexer Matrizen haben Ibarra, Moran und Rosier

in [22] die Verwendung von Satz (13.2.5) vorgeschlagen:

(13.2.11) Algorithmus Rangbestimmung komplexer MatrizenEingabe: Matrix A ∈M(m× n,C)

1. Berechne die (n× n)-Matrix AHA .

2. Berechne das charakteristische Polynom46 χ(x) = xn + cn−1xn−1 + . . .+ c0 von A.

3. Setze k := 0.

4. Falls ck = 0, erhohe k um 1 und fuhre erneut Schritt 4 aus.Andernfalls gehe zu Schritt 5.

5. rang(A) = n− k .

(13.2.12) Beispiel Den Rang der Matrix A aus (13.2.7) konnen wir mit (13.2.11) folgender-maßen berechnen:

A =

2 1 0 1 13 6 5 −2 30 −1 −3 0 12 2 1 4 7

, also AHA = ATA =

17 24 17 4 2524 42 35 −3 3217 35 35 −6 194 −3 −6 21 23

25 32 19 23 60

Hierbei muß man nur die Diagonale und das obere Dreieck berechnen, weil ATA symmetrisch seinmuß. Das charakteristische Polynom von ATA ist

χ(x) = x5 − 175x4 + 6963x3 − 44502x2 + 68675x ,

also ist x1 die hochste x-Potenz, die χ(x) teilt, und wir erhalten rang(A) = 5− 1 = 4 .

Die eigentliche Arbeit ist hier naturlich in der Berechnung des charakteristischen Polynomsversteckt. Dieses erhalt man mit der Methode von Leverrier durch Losen eines linearenGleichungssystems. Die dabei auftretenden Koeffizienten wachsen schnell an, so daß dieKehrwerte der Pivotelemente mit großen Rundungsfehlern behaftet sein konnen. Dies fuhrtdazu, daß die Koeffizienten ci = 0 des charakteristischen Polynoms nur in seltenen Fallenexakt angegeben werden. Bei der Abfrage in Schritt 4 muß muß das berucksichtigt werden.Allerdings kann man ausnutzen, daß fur eine ganzzahlige Matrix A auch die Koeffizientendes charakteristischen Polynoms wieder ganzzahlig sind, so daß man die Abfrage ck = 0

46z.B. mit dem Verfahren von Leverrier, s. Abschnitt 13.3

Page 355: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

352 13 *ALGORITHMEN ZUR MATRIZENRECHNUNG

etwa durch die Abfrage |ck| < 10−e fur einen geeigneten Exponenten e ersetzen kann, umRundungsfehler abzufangen.

Literatur: Eine große Menge von Ungleichungen fur Range, insbesondere auch Aussagenuber rang(A+B) und rang(A−B), findet man in [32].Eine Variante des Verfahrens (13.2.11) wird von Mulmuley in [39] dazu verwendet, denRang einer Matrix A uber einem beliebigen Korper K zu berechnen. Die Matrix A wirdwieder durch eine Matrix B gleichen Ranges ersetzt, an deren charakteristischem Polynomman den Rang ablesen kann. Allerdings enthalt B nicht nur Eintrage aus K, sondern ausdem rationalen Funktionenkorper K(x).

13.3 * Berechnung des charakteristischen Polynoms

Das charakteristische Polynom einer quadratischen Matrix A haben wir bisher durch Ent-wicklung der Determinante |x · E − A| berechnet. Mochte man dieses Verfahren fur denComputer implementieren, so muß man sich zuerst uberlegen, wie man mit Polynomen rech-net (d.h. wie man die Variable x als Eintrag darstellt). Außerdem ist von vorneherein nichtklar, welche Strategie beim Umformen und Entwickeln die beste ist: sucht man lieber zuerstnach Zeilen oder Spalten mit vielen Nullen, oder spart man sich diese Arbeit, wodurch manin Kauf nimmt, daß man beim Entwickeln moglicherweise viele Summanden erhalt?Beide Probleme entfallen bei der Methode Leverriers, die Koeffizienten des charakteristischenPolynoms durch Losen eines linearen Gleichungssystems auszurechnen.

Vorgegeben sei also ein Korper K und eine (n× n)-Matrix A mit Eintragen aus K. Es sei

χA(x) = xn + p1xn−1 + p2x

n−2 + . . .+ pn−1x+ pn

das charakteristische Polynom47 von A. Zur Fuhrung des Beweises erweitern wir den KorperK zu einem Korper L, in dem das Polynom χA ganz in Linearfaktoren zerfallt: χa(x) =(x−λ1) · . . . · (x−λn) . Im Fall K = R oder Q konnen wir L = C wahlen. Fur jeden KorperK kann man einen solchen Zerfallungskorper L finden (s. etwa [Mey], Bd 2, Satz 6.5.4). DasVerfahren selbst benutzt jedoch nur Elemente des Korpers K: sowohl Koeffizientenmatrix alsauch rechte Seite des zu losenden Gleichungssystems werden nur Eintrage aus K enthalten.

(13.3.1) Lemma Newtonsche FormelnEs sei K irgendein Korper, λ1, . . . , λn ∈ K (nicht notwendig verschieden), und

p(x) = (x− λ1) · . . . · (x− λn) = xn + p1xn−1 + p2x

n−2 + . . .+ pn−1x+ pn .

Weiter sei sk = λk1 + . . .+ λkn fur 1 ≤ k ≤ n .Dann gilt fur alle 1 ≤ k ≤ n :

−kpk = sk +k−1∑i=1

sk−ipi .

47Weiter unten in (13.3.2) wird klar werden, warum wir die Koeffizienten des charakteristischen Polynomsgerade so numerieren.

Page 356: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

13.3 * Berechnung des charakteristischen Polynoms 353

Beweis: Induktion nach n: Die Behauptung ist offensichtlich richtig fur n = 1 . Nun nehmenwir an, sie sei richtig fur n− 1 und setzen

q(x) = (x− λ1) · . . . · (x− λn−1) = xn−1 + q1xn−2 + . . .+ qn−2x+ qn−1

und tk = λk1 + . . .+ λkn−1 fur 1 ≤ k ≤ n− 1 .Es gilt p(x) = q(x) · (x− λn) , also

p1 = q1 − λn , pn = −qn−1λn und pk = qk − qk−1 fur 2 ≤ k ≤ n− 1 . (1)

Die Induktionsvoraussetzung liefert

−kqk = tk +k−1∑i=1

tk−iqi fur 1 ≤ k ≤ n− 1 , (2)

außerdem wissen wir sk = tk + λkn fur 1 ≤ k ≤ n . (3)

Die Rechenregeln fur die Polynommultiplikation zeigen sofort −p1 = s1 . Fur 2 ≤ k ≤ n−1konnen wir Gleichung (2) auf k − 1 anwenden und erhalten

kqk−1λn = (k − 1)qk−1λn + qk−1λn

= −tk−1λn −k−2∑i=1

tk−i−1qiλn + λkn +k−1∑i=2

qiλk−in −

k−2∑i=1

qiλk−in + q1λ

k−1n − λkn .

Addieren wir hier auf beiden Seiten −kqk , so folgt aus (2)

−k(qk − qk−1λn) = (tk + λkn) + (tk−1 + λk−1n )(q1 − λn) +

k−1∑i=2

(tk−i + λk−in )(qi − qi−1λn) . (4)

Aus (1) und (4) folgt nun die Behauptung fur k ≤ n− 1 .Fur k = n erhalten wir die Aussage direkt aus der Tatsache, daß λ1, . . . , λn die Nullstellendes Polynoms p sind:

0 = p(λj) = λnj +n−1∑i=1

λn−ij pi + pn fur 1 ≤ j ≤ n .

Addieren wir diese n Gleichungen auf, so erhalten wir

0 =n∑j=1

λnj +n−1∑i=1

( n∑j=1

λn−ij

)pi + npn = sn +

n−1∑i=1

sn−ipi + npn .

(13.3.2) Satz (Leverrier)Es sei A eine (n× n)-Matrix uber dem Korper K und χA(x) = xn + p1x

n−1 + . . . + pn ihrcharakteristisches Polynom. Fur 1 ≤ k ≤ n sei sk die Spur der Matrix Ak . Dann gilt

1s1 2s2 s1 3...

... ...sn−1 sn−2 . . . s1 n

p1

p2......pn

=

−s1

−s2......−sn

.

Page 357: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

354 13 *ALGORITHMEN ZUR MATRIZENRECHNUNG

Beweis: Betrachtet man die Definition des charakteristischen Polynoms als Determinanteder charakteristischen Matrix von A, so sieht man, daß sich das charakteristische Polynomvon A nicht andert, wenn wir den Skalarenkorper K vergroßern zu einem Korper L, alsoetwa von R zu C ubergehen. Daher konnen wir ohne Einschrankung annehmen, daß dascharakteristische Polynom von A uber dem Korper K ein Produkt von (nicht notwendigpaarweise verschiedenen) Linearfaktoren (x− λ1) . . . (x− λn) ist. Dann sind λ1 . . . λn dieEigenwerte von A in L. Fur jedes k ∈ {1, . . . , n} sind dann λk1 . . . λ

kn die Eigenwerte von

Ak in L. Nach (11.3.7.b) ist also

sk = λk1 + . . . λkn = tr(Ak) .

Nun besagen die Newtonschen Formeln (13.3.1) gerade, daß der Vektor (p1, . . . , pn)T einLosungsvektor des angegebenen Gleichungssystems ist. (Dieses ist im ubrigen eindeutiglosbar, da die Koeffizientenmatrix die Determinante n! 6= 0 hat.) �

(13.3.3) Beispiele Verfahren von Leverrier

1. Sei K ein Korper der Charakteristik 6= 2 und A =(a bc d

).

Es gilt A2 =(a2 + bc ab+ bdac+ dc bc+ d2

), also Spur(A) = a+ d , und Spur(A2) = a2 + 2bc+ d2 .

Nach (13.3.2) hat also A das charakteristische Polynom x2 + p1x+ p2 mit(1 0

a+ d 2

)(p1

p2

)=(

−a− d−a2 − 2bc− d2

).

Aus der ersten Zeile dieses Gleichungssystems lesen wir p1 = −(a+ d) ab. Einsetzen diesesErgebnisses in die zweite Zeile liefert

−(a+ d)(a+ d) + 2p2 = −a2 − 2bc− d2 ,

und durch Kurzen erhalten wir p2 = ad − bc . Also hat A das charakteristische Polynomx2 − (a+ d)x+ (ad− bc) (vgl. (11.3.7)).

2. Wir berechnen das charakteristische Polynom von A =

1 1 00 2 00 0 3

(vgl. 11.1.2.1).

Es ist A2 =

1 3 00 4 00 0 9

und A3 =

1 7 00 8 00 0 27

, also erhalten wir

Spur(A) = 6 , Spur(A2) = 14 und Spur(A3) = 36 . Das zu losende Gleichungssystem

1 0 0 −66 2 0 −1414 6 3 −36

hat die Losung (−6, 11,−6)T und liefert somit das charakteristische PolynomχA(x) = x3 − 6x2 + 11x− 6 .

Page 358: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

13.4 * Polarzerlegung und Singularwertzerlegung 355

3. Fur die Matrix A =

3 −2 −2 0 −11 3 1 1 0−1 −5 −3 −1 3

1 7 8 4 −20 −2 −2 0 2

aus (11.1.2.3) liefern die entsprechen-

den Rechunngen Spur(A) = 9 , Spur(A2) = 23 , Spur(A3) = 81 , Spur(A4) = 251 undSpur(A5) = 729 , und das zugehorige Gleichungssystem hat die Losung (−9, 29,−45, 54,−54)T .Damit A das charakteristische Polynom χA(x) = x5 − 9x4 + 29x3 − 45x2 + 54x− 54 .Auch hier treten also haufig große Eintrage im Gleichungssystem auf, was man bei der Be-wertung der Genauigkeit der Losung beachten muß.

13.4 * Polarzerlegung und Singularwertzerlegung

Ein wichtiges Teilgebiet der Matrizentheorie ist die Zerlegung von Matrizen in Produktevon Matrizen mit

”schonen“ Eigenschaften. Ein Beispiel ist der Spektralsatz fur Matrizen:

eine komplexe normale Matrix wird zerlegt in ein Produkt von unitaren Matrizen und einerDiagonalmatrix.Jetzt werden wir fur eine beliebige quadratische reelle oder komplexe Matrix zwei Zerlegun-gen finden, deren Faktoren hermitesche, positiv semidefinite Matrizen oder unitare Matrizensind.

(13.4.1) Satz PolarzerlegungJede Matrix A ∈Mn(C) hat eine Zerlegung

A = UP ,

wobei U ∈ Mn(C) eine unitare Matrix und P =√AHA ∈ Mn(C) eine hermitesche, positive

semidefinite Matrix ist.Ist A reell, so konnen P und U reell gewahlt werden.

Beweis: Ist A ∈ Mn(C) invertierbar, so auch P =√AHA. Man rechnet leicht nach, daß

U = AP−1 unitar ist. Fur diesen Fall ist die Behauptung also schon gezeigt.Im allgemeinen Fall muß die Matrix U etwas trickreicher konstruiert werden. Zur Abkurzungsetzen wir X = Bild(

√AHA) und X ′ = Bild(A). Dann definieren wir eine Abbildung

ϕ1 : X → X ′ durch die Vorschrift

ϕ1(√AHAv) := Av .

Nach (12.4.6) gilt Kern(√AHA) = Kern(A). Daher ist ϕ1 wohldefiniert. Die Linearitat von

ϕ1 folgt sofort aus der Linearitat der von√AHA und A beschriebenen Abbildungen.

Aus Kern(√AHA) = Kern(A) folgt nach dem Dimensionssatz fur lineare Abbildungen

dim(X) = dim(X ′). Daher haben auch Y = X⊥ und Y ′ = (X ′)⊥ dieselbe Dimension.Wir konnen also in Y eine Orthonormalbasis (y1, . . . , ym) und in Y ′ eine Orthonormalbasis(y′1, . . . , y

′m) gleicher Lange auswahlen.

Jetzt gibt es genau eine lineare Abbildung ϕ2 : Y → Y ′ mit ϕ2(yj) = y′j fur alle 1 ≤ j ≤ m.Schreibt man einen Vektor y =

∑mj=1 λjyj ∈ Y als Linearkombination der Basisvektoren yj

Page 359: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

356 13 *ALGORITHMEN ZUR MATRIZENRECHNUNG

auf, so folgt aus der Orthonormalitat der Basis von Y , der Orthonormalitat der Basis vonY ′ und dem Satz (12.1.2) von Pythagoras die Beziehung

‖ϕ2(y)‖2 = ‖y‖2 fur alle y ∈ Y .

Wegen V = X⊕Y hat jeder Vektor v ∈ V eine eindeutige Zerlegung v = x+y mit x ∈ X undy ∈ Y = X⊥. Daher konnen wir ϕ1 und ϕ2 zusammenbasteln zu einem Endomorphismus ϕvon V durch die Definition

ϕ(v) = ϕ(x+ y) := ϕ1(x) + ϕ2(y) .

Die Situation der beiden Abbildungen ϕ1 und ϕ2 wird durch die Skizze

ϕ1 : X → X ′

⊥ ⊥ϕ2 : Y → Y ′

veranschaulicht. Der Vektor x ∈ X steht senkrecht auf y ∈ Y , und ϕ1(x) ∈ X ′ stehtsenkrecht auf ϕ2(y) ∈ Y ′. Durch zweimalige Anwendung von Pythagoras folgt also

‖ϕ(v)‖2 = ‖ϕ1(x) + ϕ2(y)‖2 = ‖ϕ1(x)‖2 + ‖ϕ2(y)‖2

= ‖x‖2 + ‖y‖2 = ‖x+ y|2 = ‖v‖2 .

Bezuglich der Standard-Einheitsbasis wird also nach (12.3.4) der Endomorphismus ϕ durcheine unitare Matrix U ∈Mn(C) beschrieben, und nach der Definition von ϕ gilt

(U√AHA)v = ϕ(

√AHAv︸ ︷︷ ︸∈X

) = ϕ1(√AHAv) = Av .

Startet man mit einer reellen Matrix A, so ist auch√AHA =

√ATA reell, und der Endo-

morphismus ϕ von Rn hat eine reelle orthogonale Koeffizientenmatrix U . �

Aus der Polarzerlegung erhalten wir zwei direkte Folgerungen:

(13.4.2) Korollar Eine invertierbare Matrix A ∈Mn(C) hat genau eine Zerlegung A = UPmit einer unitaren Matrix U ∈Mn(C) und einer hermiteschen, positiv semidefiniten MatrixP ∈Mn(C).

(13.4.3) Korollar Sind A,B ∈ Mn(C) mit AHA = BHB, so gibt es eine unitare MatrixU ∈Mn(C) mit B = UA. Sind A und B reell, so kann auch U reell gewahlt werden.

In [21] wird untersucht, wann zwei Matrizen A ∈ M(p × n,C) und B ∈ M(q × n,C) dieGleichung AHA = BHB erfullen.

(13.4.4) Beispiel (Uhlig) Polarzerlegung von invertierbaren, reellen (2× 2)-MatrizenEs sei A ∈M2(R) eine invertierbare Matrix mit

d := |det(A)| und c :=√|det(A+ d(AT )−1)| .

Page 360: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

13.4 * Polarzerlegung und Singularwertzerlegung 357

Dann hat A die Polarzerlegung A = UP mit

U =1c

(A+ d(AT )−1) und P =1c

(ATA+ dE) ,

wobei E die (2× 2)-Einheitsmatrix ist.Den Beweis fuhrt man dadurch, daß man die Symmetrie und positive Definitheit von P , die Or-thogonalitat von U und die Gleichung A = UP nachrechnet (s. [54], Theorem 1).Beispielsweise erhalt man die Polarzerlegung(

1 23 4

)= UP mit U =

1√34

(−3 5

5 3

)und P =

1√34

(12 1414 22

).

Eine Gleichung oder allgemeiner ein mathematisches Problem heißt durch Radikale losbar,wenn die Losung in endlich vielen Schritten berechnet werden kann, wobei nur die vierGrundrechenarten, das Ziehen von n-ten Wurzeln und der Vergleich eines Wertes mit Nullerlaubt sind. Beispielsweise besagt der beruhmte Satz von Abel und Ruffini, daß imAllgemeinen die Nullstellen eines Polynoms vom Grad ≥ 5 nicht durch Radikale losbar sind(vgl. [Mey], Korollar 1 zu Satz 7.6.6, oder [Jac], Band 1, p. 256). Dagegen kann man dieNullstellen eines Polynoms vom Grad ≤ 4 durch Radikale berechnen (Cardanosche Formeln).Kurzlich untersuchten George und Ikramov in [14] die Frage, ob die Polarzerlegung einerinvertierbaren Matrix A ∈ Mn(C) durch Radikale losbar ist. Falls ja, so konnte man inendlich vielen Schritten durch die angegebenen

”algebraischen“ Operationen eine exakte

Losung finden, andernfalls mußte man das Problem numerisch losen. In [14] wird zunachstgezeigt, daß die folgenden vier Probleme entweder alle durch Radikale losbar sind oder allenicht:(P1) Finde zu einer gegebenen Matrix A ∈Mn(C) eine48 Polarzerlegung.(P2) Finde zu einer gegebenen invertierbaren Matrix A ∈Mn(R) die Polarzerlegung.(P3) Finde zu einer gegebenen symmetrischen, positiv definiten Matrix A ∈ Mn(R) die

eindeutig bestimmte positiv definite Quadratwurzel.(P4) Finde zu einem gegebenen49 reellen Polynom f vom Grad n mit n verschiedenen po-

sitiven Nullstellen λ1, . . . , λn ein reelles Polynom g vom Grad n, das die Nullstellen√λ1, . . . ,

√λn hat.

Wie im Addendum zu [14] gezeigt wird, folgt aus dem Satz von Abel/Ruffini, daß diesevier Probleme fur n ≥ 5 nicht durch Radikale losbar sind. Daher gibt es Matrizen A, fur diedie Polarzerlegung und die in 13.4.5 angegebene Singularwertzerlegung nur naherungsweiseberechnet werden konnen.

Eine anschauliche Bedeutung gewinnt die Polarzerlegung durch den Vergleich komplexerMatrizen mit komplexen Zahlen am Ende dieses Abschnitts.

(13.4.5) Satz SingularwertzerlegungJede Matrix A ∈Mn(C) hat eine Zerlegung

A = V ΣWH

48Ist A nicht invertierbar, so gibt es zwar eine Polarzerlegung, aber der unitare Faktor U ist nicht eindeutigbestimmt.

49hierbei sind naturlich nur die Koeffizienten von f gegeben

Page 361: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

358 13 *ALGORITHMEN ZUR MATRIZENRECHNUNG

mit unitaren Matrizen V,W ∈Mn(C) und einer eindeutig bestimmten reellen DiagonalmatrixΣ mit Diagonaleintragen σ1 ≥ σ2 ≥ . . . σn ≥ 0.Die Diagonaleintrage σj heißen

”Singularwerte“ der Matrix A. Die Quadrate σ2

1, . . . , σ2n sind

genau die Eigenwerte von AAH .Ist A eine reelle Matrix, so konnen V,W als reelle orthogonale Matrizen gewahlt werden.

Beweis: Nach (13.4.1) gibt es eine unitare Matrix U ∈Mn(C) mitA = UP und P =√AHA.

Die positiv semidefinite Matrix P hat nur reelle, nicht-negative Eigenwerte σ1 ≥ σ2 ≥. . . σn ≥ 0 und kann unitar auf die Matrix Σ = diag(σ1, . . . , σn) transformiert werden. Esgibt also eine unitare Matrix W ∈ Mn(C) mit P = WΣW−1 = WΣWH , und es folgtA = UP = UWΣWH . Die Matrix V = UW ist als Produkt zweier unitarer Matrizenwieder unitar, und es gilt A = V ΣWH . Wegen AHA = PHP = P 2 sind σ2

1, . . . , σ2n sind die

Eigenwerte von AHA.Ist A reell, so ist AHA eine reelle symmetrische Matrix. Die Quadratwurzel P von AHA istdaher reell und symmetrisch nach (12.6.3.b) und kann mit einer reellen orthogonalen MatrixW auf Diagonalform transformiert werden. Da nach (13.4.1) auch U eine reelle orthogonaleMatrix ist, sind die Matrizen V und W beide reell.Es bleibt noch zu zeigen, daß Σ eindeutig bestimmt ist. Dazu berechnen wir

AHA = (V ΣWH)H(V ΣWH) = WΣHV HV ΣW = WΣ2W−1 .

Die Diagonaleintrage von Σ2 mussen daher die Eigenwerte von AHA sein. Da Σ nach Vor-aussetzung eine Diagonalmatrix ist, sind auch ihre Diagonaleintrage eindeutig bestimmt.�

(13.4.6) Beispiel SingularwertzerlegungAus der in (13.4.4) angegebenen Polarzerlegung

A =(

1 23 4

)= UP mit U =

1√34

(−3 5

5 3

)und P =

1√34

(12 1414 22

)kann man eine Singularwertzerlegung von A berechnen: Die Eigenwerte von P sind (der Große nachgeordnet) 1

2(√

34 +√

26) und 12(√

34−√

26) . Dann bestimmt man die zugehorigen Eigenvektorenvon P und orthonormalisiert diese mit dem Verfahren von Gram-Schmidt. Das Ergebnis sinddie normalisierten Eigenvektoren w1, w2, die als Spalten in die Matrix W eingetragen werden.Schließlich berechnet man V = UW . Mit a =

√221− 5

√221 und b =

√221 + 5

√221 ergibt sich

W =

17√

13− 5√

17a√

34−5−

√221

b√

27√

2a

7√

2b

und V =

−3√

13 + 5√

172a

3√

13 + 5√

172b

5√

13 +√

172a

−5√

13 +√

172b

,

und die Singularwerte sind notiert in

Σ = diag(12

(√

34 +√

26),12

(√

34−√

26)) .

Aus einer Singularwertzerlegung von A ∈ Mn(C) kann man viele Eigenschaften der MatrixA direkt ablesen:

Page 362: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

13.5 * QR-Zerlegung und LU-Zerlegung 359

(13.4.7) Korollar Es sei A = V ΣWH eine Singularwertzerlegung der Matrix A ∈Mn(C).Dabei seien v1, . . . , vn die Spalten von V und w1, . . . , wn die Spalten von W , und σ1, . . . , σrseien die positiven Singularwerte von A. Dann gilt:

(a) rang(A) = r ;(b) Kern(A) = 〈wr+1, . . . , wn〉 ;(c) Bild(A) = 〈v1, . . . , vr〉 ;(d) Setzt man U := VWH und P := WΣWH , so ist A = UP eine Polarzerlegung von A.

Aus der Singularwertzerlegung kann man außerdem die Moore-Penrose-Inverse A+ von Aberechnen (vgl. Literaturangabe zu Abschnitt 12.10): Sind σ1, . . . , σr die positiven Sin-gularwerte von A, so gilt A+ = V Σ+WH mit

Σ+ = diag(σ−11 , . . . , σ−1

r , 0, . . . , 0) .

Die Spur ist im Allgemeinen nicht multiplikativ. Deshalb kann man uber die Spur desProdukts AB nicht viel sagen, wenn man nur Tr(A) und Tr(B) kennt. Mit Hilfe der Sin-gularwerte von A und B konnte von Neumann die Spur von AB abschatzen:Sind A,B ∈Mn(C) mit Singularwerten ρ1 ≥ . . . ≥ ρn und σ1 ≥ . . . ≥ σn, so gilt

|Tr(AB)| ≤n∑j=1

ρjσj .

Die Analogie zwischen komplexen Matrizen und komplexen Zahlen.Invertierbare komplexe Matrizen weisen einige Analogien zu komplexen Zahlen auf, die inder folgenden Ubersicht zusammengestellt sind. Dabei wird unter anderem klar, warum(13.4.1)

”Polarzerlegung“ genannt wird.

komplexe Zahl z Matrix A ∈Mn(C)z ∈ C beliebig A ∈ GLn(C), d.h. invertierbarz reell A hermiteschz reell und nichtnegativ A hermitesch und positiv semidefinitz reell und positiv A hermitesch und positiv definitz = eiθ auf dem Einheitskreis A unitarExistenz genau einer Quadratwurzel Existenz genau einer positiv semidefiniten

in R+0 fur z ∈ R+

0 Quadratwurzel fur positiv semidefinites APolarform z = eiθ · r Polarzerlegung A = UP|z| = |w| ⇐⇒ w = eiθz AHA = BHB ⇐⇒ B = UA mit unitarem U

Literatur: Auch fur nicht-quadratische Matrizen gibt es Polar- und Singularwertzerlegungen.Hierzu konsultiere man zum Beispiel [HJ], Abschnitt 7.3 und 7.4, oder [21].Numerische Verfahren zur Berechnung einer Singularwertzerlegung findet man in [SB], Ab-schnitt 6.7, oder in [GL], Abschnitt 8.3.2.

13.5 * QR-Zerlegung und LU-Zerlegung

Im vorigen Abschnitt haben wir eine Matrix A ∈Mn(C) zerlegt in ein Produkt von unitarenund hermiteschen, positiv semidefiniten Matrizen. Jetzt sollen als Faktoren unitare undDreiecksmatrizen vorkommen.

Page 363: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

360 13 *ALGORITHMEN ZUR MATRIZENRECHNUNG

(13.5.1) Satz QR-ZerlegungZu jeder Matrix A ∈ Mn(C) gibt es eine unitare Matrix Q ∈ Mn(C) und eine obere Drei-ecksmatrix R ∈Mn(C) mit

A = QR ,

wobei die Diagonalelemente von R reell und nicht-negativ sind. Ist A reell, so konnen auchQ und R reell gewahlt werden.

Beweis: Es seien a1, . . . , an die Spalten von A. Mit dem Gram-Schmidt-Verfahren (12.2.1)stellt man daraus ein Vektorsystem b1, . . . , bn her, dessen Vektoren paarweise orthogonalsind, entweder der Nullvektor oder normiert, und das die Eigenschaft

〈b1, . . . , bk〉 = 〈a1, . . . , ak〉 fur alle k ≤ n

besitzt. Nach (12.2.1) kann man ak als Linearkombination

ak = ‖b′k‖bk +k−1∑j=1

<ak , bj> bj =k∑j=1

rjkbj ,

schreiben, wobei rjk = 0 ist, falls bj der Nullvektor ist, und der”fuhrende“ Koeffizient

rkk = ‖b′k‖ reell und positiv ist, falls bj nicht der Nullvektor ist.Fur j > k setze man rjk = 0. Die aus den rjk gebildete Matrix R = (rjk)j,k ist dann eine obereDreiecksmatrix mit reellen, nicht-negativen Diagonaleintragen, und es gilt A = PR, wenn Pdie Matrix mit den Spalten p1, . . . , pn ist. Bezeichnen wir mit plj die l-te Komponente desVektors pj, so gilt

alk =k∑j=1

pljrjk ,

wobei rjk = 0 fur alle 1 ≤ l ≤ n, falls pl der Nullvektor ist. Der Eintrag alk andert sich alsonicht, wenn man die Spalte pj durch einen beliebigen anderen Vektor ersetzt. Dies nutzenwir aus, um die Matrix P durch eine unitare Matrix Q zu ersetzen: Falls pj 6= o, so setzen wirqj := pj. Dieses Vektorsystem ist orthonormal und kann daher zu einer Orthonormalbasisvon Cn (bzw. Rn) erganzt werden. Die Anzahl der hinzugekommenen Vektoren ist ausDimensionsgrunden genauso groß wie die Anzahl der Nullvektoren unter den pj. Deshalbkann man jeden Nullvektor pj durch einen geeigneten normierten Vektor qj ersetzen, so daßdie aus den Spalten q1, . . . , qn gebildete Matrix Q unitar wird und A = QR gilt. Ist A reell,so kann man alle Schritte im Reellen durchfuhren. �

(13.5.2) Beispiele QR-Zerlegung

1. Wir suchen eine QR-Zerlegung von

A =

1 2 34 5 67 8 9

nach der Methode des Beweises zu (13.5.1). Die Anwendung des Gram-Schmidt-Verfahrensauf das Vektorsystem

a1 =

147

, a2 =

258

, a3 =

369

Page 364: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

13.5 * QR-Zerlegung und LU-Zerlegung 361

liefert die Vektoren

p1 =

1/√

664/√

667/√

66

, p2 =

3/√

111/√

11−1/√

11

, p3 =

000

.

Nun bilden wir aus den Spalten p1, p2, p3 die Matrix P und berechnen Losungen der Glei-chungen Pri = ai, namlich

r1 =

√6600

, r2 =

13√

6/113/√

110

, r3 =

15√

6/116/√

110

.

Die Matrix R mit den Spalten r1, r2, r3 ist eine obere Dreiecksmatrix. Jetzt muß noch dieNullspalte p3 in P ersetzt werden. Wir stellen fest, daß {p1, p2, e3} linear unabhangig ist.Die Anwendung von Gram-Schmidt auf dieses Vektorsystem liefert das Orthonormalsystem{q1, q2, q3} mit q1 = p1 , q2 = p2 und q3 = (1/

√6,−2/

√6, 1/√

6)T . Die Matrix Q mit denSpalten q1, q2, q3 ist unitar, und es gilt A = QR.

Bei der QR-Zerlegung einer nicht-quadratischen Matrix A kann der Faktor Q auch sin-gular sein. Seine nicht-verschwindenden Spalten bilden jedoch ein Orthonormalsystem. EineMoglichkeit, eine solche Zerlegung zu finden, wird in (13.5.8) erlautert.Zu jeder hermiteschen, positiv semidefiniten Matrix A ∈Mn(C) gibt es nach (12.4.4) genaueine positiv semidefinite Matrix B ∈Mn(C) mit A = BHB. Jetzt ersetzen wir B durch eineobere Dreiecksmatrix:

(13.5.3) Satz Cholesky-Zerlegung einer positiv semidefiniten MatrixZu jeder hermiteschen, positiv semidefiniten Matrix A ∈Mn(C) gibt es eine obere Dreiecks-matrix R mit reellen, nicht-negativen Diagonal-Eintragen und

A = RHR .

Ist A reell, kann auch R reell gewahlt werden.

Beweis: Nach (12.4.2) hat A eine eindeutig bestimmte hermitesche, positiv semidefiniteQuadratwurzel B. Diese kann nach (13.5.1) als Produkt B = QR mit einer unitarenMatrix Q und einer oberen Dreiecksmatrix R mit reellen, nicht-negativen Diagonaleintragengeschrieben werden. Es folgt

A = BHB = (QR)H(QR) = RHQHQR = RHR . �

(13.5.4) Beispiel Cholesky-Zerlegung einer positiv semidefiniten MatrixDie positiv semidefinite Matrix

A =

66 78 9078 93 10890 108 126

hat die Cholesky-Zerlegung A = RHR mit

R =

√66 13√

6/11 15√

6/110 3/

√11 6/

√11

0 0 0

.

Page 365: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

362 13 *ALGORITHMEN ZUR MATRIZENRECHNUNG

(13.5.5) Satz LU-Zerlegung einer positiv semidefiniten MatrixEine hermitesche, positiv semidefinite Matrix A ∈Mn(C) kann allein durch Additionen vonVielfachen einer Zeile [j] zu einer Zeile [k] mit j < k auf eine obere Dreiecksmatrix Utransformiert werden. Ist das Diagonalelement ujj von U gleich 0, so ist die j-te Zeile vonU eine Nullzeile.Es existiert also eine unitriangulare50 untere Dreiecksmatrix L mit

A = LU .

Beweis: Die Anwendung einer elementaren Zeilenumformung auf eine Matrix laßt sich nach(2.4.1) durch Multiplikation mit einer Matrix L von links beschreiben. Die Addition des λ-fachen der Zeile [j] zur Zeile [k] wird beschrieben durch die Matrix L = E + λEjk, die aufder Diagonalen nur Einsen, an der Stelle (j, k) den Wert λ und sonst nur Nullen stehenhat. Die Matrix L ist fur j < k eine unitriangulare untere Dreiecksmatrix. Da das Produktzweier unitriangularer unterer Dreiecksmatrizen wieder eine solche ist und diese Gestalt auchbeim Invertieren erhalten bleibt51, ist der Satz bewiesen, falls man mit den angegebenenelementaren Zeilenumformungen A auf eine obere Dreiecksmatrix transformieren kann.Vor dem ersten Schritt haben wir die triviale Zerlegung A = L−1

0 U0 mit L0 = E , U0 = A .Nun werden wir in jedem Schritt eine Spalte von A unterhalb der Diagonalen annullierenund haben nach dem k-ten Schritt eine Zerlegung LkA = Uk, also A = L−1

k Uk.Als Induktionsvoraussetzung nehmen wir an, die ersten k − 1 Spalten von A seien bereitserfolgreich geandert, das heißt A = L−1

k−1Uk−1 , wobei die ersten k − 1 Spalten von Uk−1

unterhalb von der Diagonalen nur Nullen enthalten, und Lk−1 das Produkt der bisherigenTransformationen ist, also eine unitriangulare untere Dreiecksmatrix, deren Elemente ver-schwinden, die rechts von der (k − 1)-ten Spalte und unterhalb der Diagonalen liegen.Jetzt sollen die Elemente ujk von Uk−1 in der k-ten Spalte unterhalb der Diagonalen annulliertwerden. Ist der Diagonaleintrag ukk von Uk−1 ungleich Null, so konnen wir nacheinanderden Eintrag ujk durch Subtraktion des (ujk/ukk)-fachen der k-ten Zeile von der j-ten Zeilefur j > k annullieren. Wegen uik = 0 fur i < k werden die bereits annullierten Eintrage inden ersten k − 1 Spalten nicht mehr geandert.Dieses Verfahren funktioniert nur dann nicht, wenn ukk = 0, aber ujk 6= 0 fur ein j > k ist.Im Folgenden wird gezeigt, daß wegen der positiven Semidefinitheit von A dieser Fall garnicht auftreten kann. Dazu bilden wir die Matrix

M = Uk−1LHk−1 .

Wegen der Form von Lk−1 ist der zweite Faktor (Lk−1)H eine unitriangulare obere Dreiecks-matrix, deren Eintrage innerhalb des von der (k−1)-ten Zeile und der Diagonalen gebildetenDreiecks verschwinden.Man rechnet leicht nach, daß daher die k-ten Zeilen von M und Uk−1, sowie die k-ten Spaltenvon M und Uk−1 ab dem Diagonaleintrag abwarts ubereinstimmen. Außerdem gilt

M = Uk−1LHk−1 = Lk−1AL

Hk−1 .

Folglich ist M konjugiert-kongruent zu A und daher nach (11.6.2) selbst positiv semidefinit.Wegen mkk = ukk = 0 verschwinden nach (12.4.5) die k-te Zeile und die k-te Spalte von M

50zur Erinnerung: ”unitriangular“ heißt, daß alle Diagonaleintrage gleich 1 sind. Der Name LU-Zerlegungstammt von den beiden Faktoren, von denen einer lower triangular und einer upper triangular ist.

51Dies sieht man mit der Cramerschen Regel (8.4.3).

Page 366: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

13.5 * QR-Zerlegung und LU-Zerlegung 363

vollig. Damit gilt ujk = 0 fur j > k, und die k-te Spalte muß nicht mehr geandert werden.Zudem ist die k-te Zeile von M , also auch die k-te Zeile von Uk−1 die Nullzeile. Da imnachsten Schritt nur noch Elemente unterhalb der k-ten Zeile geandert werden, ist auch diek-te Zeile von U eine Nullzeile. �

(13.5.6) Beispiel reelle symmetrische Matrix ohne LU-ZerlegungNicht jede hermitesche Matrix hat eine LU-Zerlegung, auch nicht, wenn L auf der Diagonale belie-bige Eintrage haben darf. Aus dem Ansatz(

l11 0l21 l22

)(u11 u12

0 u22

)=(l11u11 l11u12

l21u11 l21u12 + l22u22

)=(

0 11 0

)= A

folgt beispielsweise l11u11 = 0, also l11 = 0 oder u11 = 0. Daher ist L oder U singular, also auchihr Produkt, ein Widerspruch zur Invertierbarkeit von A.

Eine wichtige Rolle spielt die LU-Zerlegung bei der Losung linearer Gleichungssysteme. Be-sitzt eine Matrix A eine LU-Zerlegung mit invertierbarer Matrix L (das ist insbesonderedann erfullt, wenn A unitriangular ist), so laßt sich das Gleichungssystem Ax = b schreibenin der Form LUx = b, also Ux = L−1b. Da die neue Koeffizientenmatrix U in Dreiecksformist, kann man die Losung sukzessive von unten nach oben ausrechnen.

(13.5.7) Beispiel LU-ZerlegungWir bringen die symmetrische, positiv semidefinite Matrix A auf obere Dreiecksgestalt U :

1 0 3 00 2 −4 43 −4 17 −80 4 −8 17

[3]− 3[1]

1 0 3 00 2 −4 40 −4 8 −80 4 −8 17

[3] + 2[2][4]− 2[2]

1 0 3 00 2 −4 40 0 0 00 0 0 9

.

Die angewendeten Zeilenumformungen sind notiert in der Matrix

L−1 =

1 0 0 00 1 0 0−3 2 1 0

0 −2 0 1

mit L =

1 0 0 00 1 0 03 −2 1 00 2 0 1

und A = LU .

Mit dem in (12.2.6) angegebenen Verfahren der Gram-Schmidt-Orthogonalisierung der Zeileneiner Matrix kann man auch eine QR-Zerlegung einer beliebigen Matrix A ∈ M(m × n,C)berechnen. Man berechnet AHA und bildet das Gauß-Tableau AHA|AH . Zur hermiteschen,positiv semidefiniten Matrix AHA findet man nach (13.5.5) eine LU-Zerlegung AHA = LU .Die auf der rechten Seite im Tableau mitgefuhrte Matrix AH wird dabei in die MatrixB = L−1AH transformiert. Wir definieren

dj =

{(√ujj)

−1 falls ujj 6= 00 falls ujj = 0

, d′j =

{ √ujj falls ujj 6= 00 falls ujj = 0

und D = diag(d1, . . . , dn) sowie D′ = diag(d′1, . . . , d′n) . Verschwindet der Diagonaleintrag

ujj, so ist die j-te Zeile von B eine Nullzeile (vgl. (12.2.6)). Daher gilt

AH = (LD′)(DB) also A = (DB)H(LD′)H ,

Page 367: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

364 13 *ALGORITHMEN ZUR MATRIZENRECHNUNG

wobei R = (LD′)H eine obere Dreiecksmatrix ist und die nicht-verschwindenden Spalten vonQ = (DB)H ein Orthonormalsystem bilden.

(13.5.8) Beispiel QR-Zerlegung von A durch LU-Zerlegung von AHAWir berechnen eine QR-Zerlegung fur die Matrix

A =

1 23 45 6

.

Die LU-Zerlegung von AHA berechnen wir mit dem Gauß-Tableau

AHA|A =(

35 44 1 3 544 56 2 4 6

)[2]−44/35[1]

(35 44 1 3 50 24/35 26/35 8/35 −2/7

),

und erhalten die Matrizen

L =(

1 0−44/35 1

), B =

(1 3 5

26/35 8/35 −2/7

), D = diag(

1√35,

√35√24

) ,

und damit schließlich

Q =

1/√

35 13/√

2103/√

35 4/√

2105/√

35 −5/√

210

und R =( √

35 44/√

350 2

√6/√

35

)

mit A = QR und QHQ =(

1 00 1

).

Literatur: Zur QR-Zerlegung fur nicht-quadratische Matrizen siehe etwa [HJ], Abschnitt2.6. Mehrere Methoden zur Berechnung einer QR-Zerlegung werden besprochen in [GL],Abschnitt 5.2.In [GL], Abschnitt 3.2 wird die LU-Zerlegung einer quadratischen Matrix ausfuhrlich disku-tiert. [HJ], Theorem 3.5.2, zeigt die Existenz einer LU-Zerlegung fur eine nicht notwendighermitesche Matrix A ∈ Mn(C), die den Rang k hat, und deren erste k fuhrende Hauptmi-noren nicht verschwinden. Dabei darf der Faktor L beliebige Diagonaleintrage besitzen.

Page 368: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

365

14 Anhang: Hilfsmittel aus der Mengenlehre

14.1 Relationen

Definition: kartesisches Produkt, RelationEs seien X und Y zwei Mengen. Die Menge aller geordneter Paare (x, y) mit x ∈ X undy ∈ Y bezeichnen wir mit X × Y und nennen sie das kartesische Produkt von X und Y .Eine Relation auf X ist eine Teilmenge des kartesischen Produkts X ×X .Ist R eine Relation auf X, so beschreiben wir den Sachverhalt

”(x, y) ∈ R“ manchmal in

der Form”x ∼ y“ und sagen:

”x steht in der Relation ∼ zu y“.

(14.1.1) Beispiele Relationen

1. Es sei X = N0 und R = {(x, x) | x ∈ N0} .Es gilt also (x, y) ∈ R genau dann, wenn x = yerfullt ist. das heißt: x ∼ y ⇐⇒ x = y .Zeichnet man R ein in das ubliche Bild eineskartesischen Produkts, so erhalt man folgendenGraphen: -

6

q qq qq

0 1 2 3 4

1

2

3

4

2. Es sei X = N0 undR = {(x, y) | x, y ∈ N0, x ≤ y} . Hier gilt

x ∼ y ⇐⇒ x ≤ y ,

und R hat den Graphen -

6

q q q q qq q q qq q qq qq

0 1 2 3 4

1

2

3

4

3. Es sei X = R .

Die Relation R1 = {(x, x) | x ∈ R}∪{(x,−x) | x ∈ R} wirdbeschrieben durch x ∼ y ⇐⇒ |x| = |y| , und R1 hat denGraphen

-x

6y

������@

@@@@@

Die Relation R2 = {(x, y) | x, y ∈ R, x2 + y2 = 1, x ≥ 0}hat den Graphen

-x

6y

1 ��

Es gibt zwei besonders wichtige Typen von Relationen:

Definition: Aquivalenzrelation, OrdnungsrelationEs sei X eine Menge.

(a) Eine Relation R auf X heißt Aquivalenzrelation, wenn fur alle x, y, z ∈ X gilt:(i) (x, x) ∈ R . (Reflexivitat)

(ii) (x, y) ∈ R ⇒ (y, x) ∈ R . (Symmetrie)(iii) [(x, y) ∈ R ∧ (y, z) ∈ R] ⇒ (x, z) ∈ R . (Transitivitat)

(b) Eine Relation R auf X heißt Ordnungsrelation, wenn fur alle x, y, z ∈ X gilt:(i) (x, x) ∈ R . (Reflexivitat)(ii) [(x, y) ∈ R ∧ (y, x) ∈ R] ⇒ x = y . (Antisymmetrie)(iii) [(x, y) ∈ R ∧ (y, z) ∈ R] ⇒ (x, z) ∈ R . (Transitivitat)

Page 369: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

366 14 ANHANG: HILFSMITTEL AUS DER MENGENLEHRE

(14.1.2) Beispiele Aquivalenz- und Ordnungsrelationen

1. Es sei X eine beliebige Menge. Die Relation R = {(x, x) | x ∈ X} wollen wir als identischeRelation bezeichnen. Ihr Graph im kartesischen Koordinatensystem ist eine Diagonale (vgl.(14.1.1.1)). Diese Relation ist sowohl eine Aquivalenzrelation als auch eine Ordnungsrelation.R ist die kleinste Aquivalenzrelation auf X, da sie wegen der Reflexivitat in jeder Aquivalenz-relation auf X enthalten ist. Ebenso ist R die kleinste Ordnungsrelation auf X.

2. IstX eine beliebige Menge, so ist das volle kartesische Produkt X×X eine Aquivalenzrelation(und zwar die großte Aquivalenzrelation auf X), aber nur dann eine Ordnungsrelation aufX, wenn X hochstens ein Element hat.

3. Es sei X = N0 und R = {(x, y) | x− y ist gerade}.

R ist eine Aquivalenzrelation: Fur alle x ∈ N0 istx − x = 0 gerade. Ist x − y gerade, so auch y − x ,also gilt die Symmetrie. Sind x−y und y−z gerade,so auch x − z = (x − y) + (y − z) . Dies zeigt dieTransitivitat.

-

6

q q qq qq q qq qq q q

0 1 2 3 4

1

2

3

4

4. Fur X = R ist R1 = {(x, y) | x ≤ y} eine Ordnungsrelation auf X. Ebenso ist R2 ={(x, y) | x ≥ y} eine Ordnungsrelation auf X.Dagegen ist R3 = {(x, y) | x < y} keine Ordnungsrelation auf X, weil die Symmetrie verletztist.

5. Es sei X irgendeine Menge und P(X) ihre Potenzmenge (d.h. die Menge aller Teilmengenvon X).Die Relation R = {(A,B) | A ⊆ B} auf P(X) ist eine Ordnungsrelation auf P(X) :Jede Teilmenge A von X ist eine Teilmenge von sich selbst, aus [A ⊆ B und B ⊆ A ] folgtA = B , und [A ⊆ B und B ⊆ C ] hat zur Folge A ⊆ C .Betrachtet man P(X) mit dieser Relation, so sagt man, P(X) ist geordnet durch Inklusion.

14.2 Ordnungen

Eine Ordnungsrelation nennen wir auch einfach Ordnung. Ist R eine Ordnung, so beschreibenwir die Aussage (x, y) ∈ T oft mit dem Symbol

”x ≤ y“. Wir setzen hier also

”∼“ gleich

”≤“. Falls man eine Ordnungsrelation auf N (Z, Q oder R) betrachtet, die mit der naturlichen

Ordnung nicht identisch ist, muß man naturlich aufpassen, die beiden Ordnungen nicht zuverwechseln.Die Schreibweise x ≤ y fur (x, y) ∈ R fuhrt zu folgenden Begriffen:

Definition: Minimum, minimales Element, untere SchrankeEs sei X eine Menge, geordnet durch eine Ordnungsrelation ≤, und T ⊆ X .

(a) Zwei Elemente x, y ∈ X heißen vergleichbar, wenn x ≤ y oder y ≤ x gilt.(b) Ein Element t ∈ T heißt Minimum von T , wenn t ≤ x fur alle x ∈ T gilt.(c) Ein Element t ∈ T heißt minimales Element von T , wenn aus x ≤ t , x ∈ T folgt

x = t . (D.h. es gibt kein x ∈ T das”echt kleiner“ als t ist.)

Page 370: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

14.2 Ordnungen 367

(d) Analog zu (b) und (c) werden Maximum und maximales Element einer Teilmenge vonX definiert.

(e) Ein Element s ∈ X heißt untere Schranke von T , wenn s ≤ x fur alle x ∈ T gilt.Analog heißt s ∈ X obere Schranke von T , wenn s ≥ x fur alle x ∈ T gilt.(Man beachte, daß s kein Element von T sein muß!)

Man muß gut unterscheiden zwischen Minimum und minimalen Elementen einer TeilmengeT von X. Wahrend ein Minimum von T vergleichbar ist mit allen Elementen von T , brauchtein minimales Element von T gar nicht vergleichbar zu sein mit irgendeinem anderen Elementvon T . Ein Minimum von T ist eindeutig bestimmt, wahrend es sehr viele minimale Elementevon T geben kann.

(14.2.1) Beispiele Minima, minimale Elemente, untere SchrankenDie ganze Vielfalt der Begriffe der obigen Definition tritt erst zutage, wenn nicht alle Elementeeiner Menge paarweise vergleichbar sind. Ein typisches Beispiel fur eine solche Situation ist eineInklusionsordnung einer Potenzmenge.Es sei X die Potenzmenge der Menge {1, 2, 3, 4, 5} , geordnet durch Inklusion.

1. X besitzt ein Minimum, namlich ∅, und ein Maximum, namlich X.Die Elemente {1} , {2} , {3, 4} und {4, 5} sind paarweise nicht vergleichbar.Dagegen sind die Elemente {1} , {1, 2} und {1, 2, 4, 5} paarweise vergleichbar.

2. Es sei T1 = {∅ , {1} , {2} , {1, 2} } .Die Ordnung auf T1 kann man durch den nebenstehendenGraphen veranschaulichen: Fur Elemente x, y ∈ T1 giltx ≤ y genau dann, wenn man von x durch Hintereinan-dergehen von einer oder mehrerer Kanten in Pfeilrichtungzu y gelangt. Dadurch sieht man sofort, daß ∅ das Mini-mum von T1, {1, 2} das Maximum von T1 ist, und daß {1}und {2} nicht vergleichbar sind.

@@@I

����

����

@@@I

rr rr

{2}{1}

{1, 2}

3. Es sei T2 = T1 ∪ {{4} , {2, 3}} .

∅ ist auch das Minimum von T2, aber T2 besitzt kein Ma-ximum. Dafur hat T2 drei maximale Elemente, namlich{1, 2} , {2, 3} und {4} .

@@@I

������*

����

����

@@@I

����

rr rr rr

{2}{1}

{1, 2} {2, 3}

{4}

4. Es sei T3 = { {1} , {2} , {5} , {1, 2} , {1, 2, 3} , {1, 2, 4} } .

T3 hat weder ein Maximum noch ein Minimum. DieElemente {1} , {2} und {5} sind minimale Elementevon T3, die Elemente {1, 2, 3} , {1, 2, 4} und {5} sindmaximale von T3.{5} ist also sowohl ein minimales Element als auch einmaximales Element von T3. Das liegt daran, daß {5}mit keinem anderen Element von T3 vertauschbar ist.

����

@@@I����

@@@I

r r rrr r

{1} {2} {5}

{1, 2}

{1, 2, 3} {1, 2, 4}

Obere und untere Schranken in den mit der naturlichen Ordnung geordneten Mengen Q und Rtreten in der Analysis haufig auf.

Page 371: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

368 14 ANHANG: HILFSMITTEL AUS DER MENGENLEHRE

5. Es sei X = R und T = {x ∈ X | 0 < x < 1} das offene Intervall von 0 bis 1.Dann ist 0 eine untere Schranke von T und 1 eine obere Schranke in T . Beide Schrankenliegen nicht in T selbst. Auch −173 ist eine untere Schranke von T ; die Schrankeneigenschaftvon a sagt nur etwas aus uber die Beziehungen von a zu den Elementen in T . Insbesondereist jede reelle Zahl eine obere und zugleich eine untere Schranke fur die leere Menge.

6. Die Menge S = {x ∈ Q | 0 < x <√

2} hat zwar obere Schranken in X = Q , zum Beispieldie rationale Zahl 2, aber keine kleinste obere Schranke, das heißt: zu jeder oberen Schrankes1 von S gibt es eine obere Schranke s2 von S mit s2 < s1 (Beweis siehe Analysis).

Ordnungen, bezuglich derer zwei Elemente der Menge X nicht immer vergleichbar sind,wurden fruher auch

”Halbordnung“ genannt. Inzwischen hat sich aber hierfur der Begriff

”Ordnung“ eingburgert, und wir geben den Ordnungen, mit denen man je zwei Elemente

vergleichen kann, einen eigenen Namen:

Definition: Totalordnung, WohlordnungEs sei X eine Menge und R eine Ordnungsrelation auf X.

(a) R heißt eine Totalordnung, wenn je zwei Elemente von X vergleichbar sind, das heißt:fur x, y ∈ X gilt stets x ≤ y oder y ≤ x .

(b) R heißt eine Wohlordnung, wenn jede nicht leere Teilmenge vonX ein Minimum besitzt.

(14.2.2) Korollar Jede Wohlordnung ist eine Totalordnung.

Beweis: Es sei R eine Wohlordnung auf X und seien x, y beliebige Elemente in X. DieTeilmenge {x, y} von X besitzt nach Voraussetzung ein Minimum. Ist x dieses Minimum,so gilt x ≤ y . Andernfalls gilt y ≤ x . �

(14.2.3) Beispiele Totalordnungen und Wohlordnungen

1. Die Menge N mit der naturlichen Ordnung ≤ ist wohlgeordnet.Die Menge Z mit der naturlichen Ordnung ≤ ist totalgeordnet, aber nicht wohlgeordnet,denn Z selbst besitzt kein Minimum. Ordnen wir jedoch Z in folgender Weise an:

0 < −1 < 1 < −2 < 2 < −3 < 3 < . . . ,

so ist Z mit dieser Ordnung wohlgeordnet.Die Mengen Q und R sind bezuglich der naturlichen Ordnung ebenfalls totalgeordnet, abernicht wohlgeordnet.

2. Die Menge N× N mit der Ordnung

(x1, y1) ≤ (x2, y2) ⇐⇒: [x1 ≤ x2 ∧ y1 ≤ y2]

(”Komponentenordnung“) ist nicht totalgeordnet. Beispielsweise sind die Elemente (1, 0)und (0, 1) bezuglich dieser Ordnung nicht vergleichbar.Bezuglich der ”lexikographischen52 Ordnung“

(x1, y1) � (x2, y2) ⇐⇒: [(x1 ≤ x2) ∧ (x1 = x2 ⇒ y1 ≤ y2)]

52diese Ordnung hat dieselbe Struktur wie die alphabetische Ordnung im Telefonbuch, daher der Name

Page 372: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

14.2 Ordnungen 369

ist N×N sogar wohlgeordnet: Zunachst ist diese Ordnung � (wir verwenden hier ein neuesSymbol, um zwischen der Ordnung � auf N × N und der naturlichen Ordnung ≤ auf Nzu unerscheiden) eine Totalordnung auf N × N, weil die naturliche Ordnung ≤ auf N eineTotalordnung ist.Nun sei T eine nichtleere Teilmenge von N × N. Dann finden wir ein Element (x, y) ∈ T .Weil es nur endlich viele naturliche Zahlen ≤ x und nur endlich viele naturliche Zahlen ≤ ygibt, gibt es nur endlich viele Elemente aus T , die � (x, y) sind. Wir starten also mit (x, y)und suchen ein Element (x1, y1) ∈ T mit (x1, y1) < (x, y) . Gibt es kein solches, so ist (x, y)ein Minimum in T , da T totalgeordnet ist unter � . Andernfalls wiederholen wir diesenSchritt mit (x1, y1) . Nach endlich vielen Schritten sind wir bei einem Element (xn, yn) ∈ Tangelangt, das man nicht mehr verkleinern kann. Dieses ist dann ein Minimum von T .

(14.2.4) Lemma Es sei X eine Menge und R eine Totalordnung auf X. Dann besitzt jedeendliche nichtleere Teilmenge von X ein Minimum und ein Maximum.

Beweis: Es sei M = {x1, . . . , xn} eine endliche nichtleere Teilmenge von X. Wir beweisendie Aussage fur das Minimum durch Induktion nach n:Im Fall n = 1 ist das einzige Element x1 das Minimum.Wir nehmen nun an, die Aussage sei fur (n − 1)-elementige Teilmengen von X bereits be-wiesen. Dann hat die Teilmenge M ′ = {x1, . . . , xn−1} von M ein Minimum, sagen wir xn−1.Da R eine Totalordnung auf X ist, sind xn−1 und xn vergleichbar.1.Fall: xn−1 ≤ xn . Dann gilt xn−1 ≤ xi fur alle i ∈ {1, . . . , n} , also ist xn−1 ein Minimumvon M .2.Fall: xn ≤ xn−1 . Wegen der Transitivitat von R gilt dann xn ≤ xi fur alle i ∈ {1, . . . , n} ,also ist xn ein Minimum von M .Der Beweis fur das Maximum geht analog. �

Die Endlichkeitsvoraussetzung in (14.2.4) ist notwendig, da nicht jede Totalordnung eineWohlordnung ist (s. (14.2.3.1).

Es sei X eine Menge, R eine Ordnung auf X, und T eine Teilmenge von X. Wie kommenwir moglichst leicht zu einer Ordnung S auf T? Eine naheliegende Idee ist es, die Ordnung Rzu verwenden und auf T

”einzuschranken“, so wie sich zum Beispiel die naturliche Ordnung

von R zur naturlichen Ordnung auf N einschrankt.Wie man leicht verifiziert, ist die Relation S = R ∩ (T × T ) eine Ordnungsrelation auf T .Die Ordnung S ist in folgendem Sinne eine Einschrankung von R: Zwei Elemente t1, t2 ∈ Tstehen in der Beziehung ≤ bezuglich S genau dann, wenn sie in der Beziehung ≤ bezuglichR stehen.

Definition: KetteEs sei X eine Menge, R eine Ordnung auf X, und T eine Teilmenge von X.T heißt eine Kette, wenn T mit der auf T eingeschrankten Ordnung R eine totalgeordneteMenge ist.Mit anderen Worten: T ist eine Kette, wenn R∩ (T × T ) eine Totalordnung auf T ist, oderT ist eine Kette, wenn fur alle t1, t2 ∈ T gilt: (t1, t2) ∈ R oder (t2, t1) ∈ R .

Die Eigenschaft, eine Kette zu sein, hangt also nicht nur von der Teilmenge T , sondern auchvon der verwendeten Ordnung R ab.

Page 373: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

370 14 ANHANG: HILFSMITTEL AUS DER MENGENLEHRE

(14.2.5) Beispiele Ketten

1. Ist R eine Totalordnung auf X, so ist jede Teilmenge T von X eine Kette. Insbesondere istdie Teilmenge T = {(1, 0), (0, 1)} von X = N×N eine Kette, wenn wir die lexikographischeOrdnung � zugrundelegen. Dagegen ist T keine Kette in X, wenn wir die Komponenten-ordnung zugrundelegen (vgl. (14.2.3.2).

2. Es sei R eine Ordnung auf X. Jede einelementige Teilmenge von X ist eine Kette. Ebensoist ∅ eine Kette.

3. Es sei T3 wie in (14.2.1.4) definiert. Die Teilmengen {{1} , {1, 2} , {1, 2, 4}}und {{1} , {1, 2} , {1, 2, 3}} sind Ketten in T3. Dagegen ist die Teilmenge{{1} , {1, 2} , {1, 2, 3} , {1, 2, 4}} keine Kette in T3, da ihre Elemente {1, 2, 3} und {1, 2, 4}nicht vergleichbar sind.

4. Es sei X = N × N mit der Komponentenordnung. Die Teilmengen {(x, 1) | x ∈ N} und{(1, 1), (1, 3), (2, 4), (3, 15)} sind Ketten in X.

Definition: Verfeinerung einer OrdnungEs sei X eine Menge mit zwei Ordnungen R und S. Wir nennen S eine Verfeinerung von R,wenn R ⊆ S gilt. In diesem Fall sind zwei Elemente x, y ∈ X , die bezuglich R vergleichbarsind, auch bezuglich S vergleichbar.

Beispielsweise ist jede Ordnung auf X eine Verfeinerung der identischen Relation auf X.Fur eine vorgegebene Menge X bezeichnen wir mit R die Menge aller Ordnungen auf X.Die Elemente von R sind also Teilmengen von X × X mit gewissen Zusatzeigenschaften(Reflexivitat, Transitivitat, Antisymmetrie). Also konnen wir R mit der Inklusionsordnung⊆ ordnen. Nun betrachten wir in R die maximalen Elemente (bezuglich dieser Inklusions-ordnung). Diese maximalen Elemente sind Totalordnungen:

(14.2.6) Satz Es sei X eine Menge und R die Menge aller Ordnungen auf X, geordnetdurch Inklusion. Dann ist jedes maximale R-Element eine Totalordnung auf X.

Beweis: Es sei R0 ein maximales R-Element, das heißt: fur jede Ordnung R von X mitR0 ⊆ R gilt R = R0 . Wir nehmen an, R0 sei keine Totalordnung auf X. Dann gibt es zweiElemente a, b ∈ X mit (a, b) /∈ R0 und (b, a) /∈ R0 . Nun konstruieren wir eine Ordnung Rvon X mit R0 ⊂ R , also einen Widerspruch:Wir setzen S = {(x, y) ∈ X ×X | (x, a) ∈ R0 ∧ (b, y) ∈ R0} und bilden R = S ∪R0 .Wegen der Reflexivitat gilt (a, a), (b, b) ∈ R0 , also (a, b) ∈ S ⊆ R . Außerdem ist R eineOrdnung auf X:

(i) R0 ist reflexiv, und R0 ⊆ R . Also ist R reflexiv.(ii) Seien x, y, z ∈ X mit (x, y) ∈ R und (y, z) ∈ R .

Gilt (x, y), (y, z) ∈ R0 , so auch (x, z) ∈ R0 ⊆ R .Gilt (x, y) ∈ R0 , (y, z) ∈ S , so folgt (y, a), (b, z) ∈ R0 . Wegen der Transitivitat vonR0 gilt (x, a) ∈ R0 . Wegen (b, z) ∈ R0 folgt (x, z) ∈ S , also (x, z) ∈ R .Analog geht der Fall (x, y) ∈ S , (y, z) ∈ R0 .Aus (x, y), (y, z) ∈ S folgt (b, y), (y, a) ∈ R0 . Die Transitivitat von R0 liefert dann(b, a) ∈ R0 , ein Widerspruch zur Voraussetzung. Also kann dieser Fall nicht auftreten.Damit ist R transitiv.

Page 374: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

14.3 Auswahlaxiom, Zornsches Lemma und Totalordnungssatz 371

(iii) Es gelte (x, y), (y, x) ∈ R .Gilt (x, y), (y, x) ∈ R0 , so folgt x = y wegen der Antisymmetrie von R0.Aus (x, y) ∈ R0 , (y, x) ∈ S folgt nach (ii) die Aussage (x, x) ∈ S , also nach der Defi-nition von S dann (x, a), (b, x) ∈ R0 . Wegen der Transitivitat von R0 haben wir dann(b, a) ∈ R0 , ein Widerspruch. Genauso zeigt man, daß der Fall (x, y) ∈ S , (y, x) ∈ R0

nicht auftreten kann. Der Fall (x, y), (y, x) ∈ S kann nach (ii) nicht vorkommen.Also ist R auch antisymmetrisch.

Nun ist R eine Ordnung auf X mit R0 ⊆ R und R0 6= R wegen (a, b) ∈ R \ R0 . Dies istein Widerspruch zur Maximalitat von R0. Daher ist R0 eine Totalordnung. �

14.3 Auswahlaxiom, Zornsches Lemma und Totalordnungssatz

Sind X, Y zwei nichtleere Mengen, so gibt es ein x ∈ X und ein y ∈ Y , also ist auch daskartesische Produkt X × Y nicht leer, denn es enthalt das Paar (x, y) . Durch Induktionnach n erhalt man die Aussage:Das kartesische Produkt X1×. . .×Xn von nichtleeren Mengen Xi ist nicht leer. Wie im Falln = 2 bezeichnet hier X1× . . .×Xn die Menge aller geordneten n-Tupel (x1, . . . , xn) , xi ∈Xi fur alle i.Um diesen Satz auch fur unendliche Mengenfamilien zu erhalten, braucht man ein eigenesAxiom:

Auswahlaxiom: Das kartesische Produkt einer nichtleeren Familie von nichtleerenMengen ist nichtleer.

Das Auswahlaxiom besagt also: Ist (Xi)i∈I eine Familie nichtleerer Mengen mit nichtleererIndexmenge I, so gibt es eine Familie (xi)i∈I mit xi ∈ Xi fur alle i ∈ I .Wir konnen also

”gleichzeitig“ aus jedem Xi ein Element xi auswahlen. Daher der Name

Auswahlaxiom.Manchmal stellt man sich diesen Prozeß des Auswahlens als Anwendung einer Funktion fvor, die jeder Menge Xi ein Bild xi = f(Xi) ∈ Xi zuordnet. Deshalb findet man auchfolgende, zu obiger Formulierung aquivalente Version des Auswahlaxioms (z.B. in [Jec]):Zu jeder Familie (Xi)i∈I nichtleerer Mengen gibt es eine Funktion f mit f(Xi) ∈ Xi furalle i ∈ I .Die Funktion f heißt Auswahlfunktion.

Der folgende Satz ist in sehr vielen Situationen anwendbar und daher eine der wichtigstenFolgerungen des Auswahlaxioms:

(14.3.1) Satz Zornsches LemmaEs sei X eine Menge und R eine Ordnung auf X, so daß jede Kette in X eine obere Schrankein X besitzt. Dann enthalt X ein maximales Element.

Der Beweis von (14.3.1) kann zwar elementar gefuhrt werden, ist aber trickreich und umfaßteinige Seiten. Der interessierte Leser findet ihn zum Beispiel bei [Hal], Kapitel 16. Einenanderen Beweis, der ebenfalls mit den hier eingefuhrten Begriffen zu verstehen ist, gibt [26].Ein auf den ersten Blick kurzerer Beweis, der sogar die Aquivalenz des Auswahlaxioms, des

Page 375: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

372 14 ANHANG: HILFSMITTEL AUS DER MENGENLEHRE

Zornschen Lemmas, des Wohlordnungssatzes (14.3.3) und eines weiteren Satzes (Lemma vonTuckey) zeigt, steht bei [Jec], S.10. Dieser erfordert aber wesentlich mehr Vorbereitung.Die wichtigste Anwendung des Zornschen Lemmas in der linearen Algebra ist der Beweisder Existenz von Basen in beliebigen Vektorraumen (1.7.1). Im Anschluß an diesen Beweiswird diskutiert, welche Schritte bei der Anwendung des Zornschen Lemmas ublicherweiseausgefuhrt werden.Sehen wir uns nun eine typische Anwendung des Zornschen Lemmas in der Mengenlehre an:

(14.3.2) Satz TotalordnungssatzJede Ordnung auf einer Menge X laßt sich zu einer Totalordnung auf X verfeinern. Insbe-sondere besitzt jede Menge X eine Totalordnung.

Beweis: Wir mussen folgendes zeigen: Ist X eine beliebige Menge und R0 irgendeine Ord-nung auf X, so gibt es eine Totalordnung S auf X mit R0 ⊆ S . Wie in (14.2.6) bezeichnenwir mit R die Menge aller Ordnungen auf X, geordnet durch Inklusion. Satz (14.2.6) gibtauch gleich einen Hinweis, wie man die gewunschte Totalordnung konstruieren kann: mansuche nach einem maximalen Element in R, das die vorgegebene Ordnung R0 als Teilmengeenthalt.Wir setzen Q = {R ∈ R | R0 ⊆ R} . Wegen R0 ∈ Q ist Q 6= ∅ . Nun suchen wir nacheinem maximalen Element in Q:Es sei K eine Kette in Q. Die leere Kette K = ∅ hat die obere Schranke R0 ∈ Q . IstK 6= ∅ , so setzen wir

V :=⋃R∈K

R .

V ist ein Element von Q:(i) V ist eine Vereinigung von lauter Teilmengen von X ×X , also selbst eine Teilmenge

von X ×X .(ii) Es sei x ∈ X . Da K nicht leer ist, gibt es eine Ordnung R ∈ K . Wegen der Reflexivitat

enthalt R das Paar (x, x) als Element. Also gilt auch (x, x) ∈ V , und V ist reflexiv.(iii) Es seien x, y, z ∈ X mit (x, y), (y, z) ∈ V . Dann gibt es Ordnungen R1 ∈ K und

R2 ∈ K mit (x, y) ∈ R1 und (y, z) ∈ R2 . Da K eine Kette ist, gilt R1 ⊆ R2 oderR2 ⊆ R1 . Im ersten Fall folgt (x, y), (y, z) ∈ R1 , also wegen der Transitivitat von R1

dann (x, z) ∈ R1 ⊆ V . Im zweiten Fall folgt (x, z) ∈ R2 ⊆ V .Dies zeigt die Transitivitat von V .

(iv) Wahlt man z = x in (iii), so erhalt man mit dem analogen Schluß wie in (iii) dieAntisymmetrie von V .

(v) Wegen K 6= ∅ gibt es ein R ∈ K . Dieses R liegt nach Voraussetzung in Q, also giltR0 ⊆ R ⊆ V .

Nach (i) – (iv) ist V eine Ordnung auf X, und nach (v) enthalt V die vorgegebene OrdnungR0. Dies zeigt V ∈ Q . Außerdem ist V eine obere Schranke von K, denn es gilt nachKonstruktion R ⊆ V fur alle R ∈ K .Nun hat jede Kette in Q eine obere Schranke, also gibt es nach dem Zornschen Lemma einmaximales Element M in Q. Dieses ist gleichzeitig ein maximales Element M in R: Istnamlich R ∈ R mit M ⊆ R , so ist R eine Ordnung auf X mit R0 ⊆M ⊆ R , also R ∈ Q .Dann folgt wegen der Maximalitat von M als Q-Element die Aussage M = R .Nach (14.2.6) schließlich ist M eine Totalordnung auf X. �

Page 376: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

14.3 Auswahlaxiom, Zornsches Lemma und Totalordnungssatz 373

Mit ahnlichen Argumenten kann man unter Verwendung des Zornschen Lemmas beweisen:

(14.3.3) Satz WohlordnungssatzJede Menge kann wohlgeordnet werden.

Zum Beweis siehe z.B. [Hal], Kapitel 17.

Die beiden Satze (14.3.2) und (14.3.3) zeigen auch ein Problem, das bei der Verwendungdes Zornschen Lemmas in einem Beweis entsteht: wir wissen nun zwar von der Existenzeiner Totalordnung oder einer Wohlordnung, haben aber nicht die geringste Vorstellung da-von, wie so eine Ordnung aussieht. Wie kann man sich beispielsweise eine Totalordnungauf C (komplexe Ebene) vorstellen, wie eine Wohlordnung auf R? Glucklicherweise reichtes manchmal, von der Existenz irgendeiner Totalordnung auf X zu wissen, zum Beispiel beigeordneten Basen.Zum Abschluß dieses Abschnitts betrachten wir zur Illustration der Ordnungsbegriffe Ord-nungen auf der Menge C:

(14.3.4 ) Lemma Es sei X eine Menge und Y eine Teilmenge von X. Weiter sei Rirgendeine Ordnung auf Y (nicht notwendig eine Totalordnung). Dann kann R zu einerTotalordnung auf X fortgesetzt werden, das heißt: es gibt eine Totalordnung S auf X mitR ⊆ S .

Beweis: Wir beschaffen uns zunachst eine Ordnung R′ auf X. Diese kann dann nach(14.3.2) zu einer Totalordnung auf X verfeinert werden.Erinnern wir uns daran, daß R eine reflexive, transitive und antisymmetrische Teilmengevon Y × Y ist. Nun setzen wir R′ := R ∪ {(x, x) | X} .Dann ist R′ sicher eine reflexive Teilmenge von X ×X .Es seien x, y, z ∈ X mit (x, y), (x, z) ∈ R′ . Sind (x, y), (y, z) ∈ R , so auch (x, z) ∈ R ,also (x, z) ∈ R′ . Im Fall (x, y) /∈ R gilt x = y . Entweder gilt nun (y, z) ∈ R , also(x, z) = (y, z) ∈ R , oder es gilt (y, z) /∈ R , dann y = z und (x, z) = (y, y) ∈ R . Daher istR transitiv.Analog zeigt man die Antisymmetrie von R′. �

(14.3.5) Beispiele Ordnungen auf C

1. Nach (14.3.3) gibt es eine Wohlordnung RW auf C.

2. Nach (14.3.4) gibt es eine Totalordnung RT auf C, die die naturliche Ordnung auf R fortsetzt.Diese Ordnung ist aber nicht identisch mit der Ordnung RW , denn die Einschrankung einerWohlordnung auf eine Teilmenge ist wieder eine Wohlordnung. Die naturliche Ordnung aufR ist jedoch keine Wohlordnung, also auch nicht RT .

3. Es gibt keine Ordnung R auf C, die mit den beiden Korperverknupfungen Addition undMultiplikation vertraglich ist. Eine solche Ordnung erfullt die aus R bekannten Rechenregeln:

(i) 0 < 1(ii) (x > 0 ∧ y > 0) ⇒ x+ y > 0

(iii) (x > 0 ∧ y > 0) ⇒ xy > 0 .

Page 377: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

374 14 ANHANG: HILFSMITTEL AUS DER MENGENLEHRE

Aus diesen drei Voraussetzungen folgt −1 < 0 . Ware namlich −1 > 0 , so auch 0 = (−1)+1 ,ein Widerspruch. Damit folgt allgemein −x < 0 fur x > 0 . Jedes Quadrat ist nun einQuadrat von zwei positiven Zahlen, also selbst positiv. Daher ist aber −1 = i2 positiv, einWiderspruch.Diese Tatsache ist gemeint, wenn man sagt, C sei kein angeordneter Korper. Ebenso kannman einen endlichen Korper nicht anordnen (s. Bemerkung 4 zu (15.3.4)).

Page 378: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

375

15 Anhang: Gruppen, Ringe und Korper

Eine algebraische Struktur ist eine Menge M mit mindestens einer Verknupfung ◦ , durch diezwei Elementen x, y ∈M ein Element x◦y ∈M zugeordnet wird. ◦ ist also eine Abbildungvon M ×M nach M . Drei dieser Strukturen, eine mit einer Verknupfung und zwei mit jezwei Verknupfungen, spielen in der Linearen Algebra eine wichtige Rolle und werden deshalbin diesem erganzenden Kapitel kurz vorgestellt. Eine ausfuhrliche Behandlung erfahren siein der Algebra.

15.1 Gruppen

Definition: Gruppe, abelsche GruppeEine nichtleere Menge G zusammen mit einer Verknupfung ◦ heißt Gruppe, wenn folgendeAxiome erfullt sind:(G1) Fur alle x, y, z ∈ G gilt (x ◦ y) ◦ z = x ◦ (y ◦ z) . (Assoziativgesetz)(G2) Es gibt ein Element e ∈ G mit x ◦ e = x fur alle x ∈ G . (rechtsneutrales Element)(G3) Zu jedem rechtsneutralen Element e und jedem x ∈ G gibt es ein x′ ∈ G mitx ◦ x′ = e . (rechtsinverses Element)Eine Gruppe (G, ◦) heißt kommutativ oder abelsch, falls zusatzlich erfullt ist:(G4) Fur alle x, y ∈ G gilt x ◦ y = y ◦ x .

Analog zu (G2) und (G3) definieren wir linksneutrale und linksinverse Elemente. Aber auchin nicht-abelschen Gruppen braucht man nicht zu unterscheiden zwischen rechtsneutral undlinksneutral und zwischen rechtsinvers und linksinvers, denn es gilt:

(15.1.1) Lemma Es sei (G, ◦) eine Gruppe und e ein rechtsneutrales Element von G.(a) Sind x, x′ ∈ G mit x ◦ x′ = e, so gilt auch x′ ◦ x = e.(b) Fur alle x ∈ G gilt e ◦ x = x . Das heißt: e ist auch linksneutral.(c) Es existiert genau ein neutrales Element e ∈ G .(d) Zu jedem x ∈ G gibt es genau ein inverses Element, genannt x−1 .(e) Es gelten die Kurzungsregeln

(x ◦ y = x ◦ z ⇒ y = z

)und

(y ◦ x = z ◦ x ⇒ y = z

).

Beweis:

(a) Wir setzen y = x′ ◦ x und zeigen y = e :

y ◦ y = (x′ ◦ x) ◦ (x′ ◦ x)(G1)= x′ ◦ (x ◦ x′) ◦ x = x′ ◦ e ◦ x (G1)

= (x′ ◦ e) ◦ x = x′ ◦ x = y .

Nach (G3) gibt es ein y′ ∈ G mit y ◦ y′ = e . Es folgt

y = y ◦ e = y ◦ (y ◦ y′) (G1)= (y ◦ y) ◦ y′ = y ◦ y′ = e .

(b) Es sei x ∈ G und x′ ein Element von G mit x ◦ x′ = e . Dann gilt

x = x ◦ e (a)= x ◦ (x′ ◦ x)

(G1)= (x ◦ x′) ◦ x = e ◦ x .

(c) Nach (b) wissen wir, daß die rechtsneutralen und die linksneutralen Elemente dieselbensind und nennen sie neutral. Es seien e, e′ zwei neutrale Elemente. Da e′ neutral ist,gilt e = e ◦ e′ . Da auch e neutral ist, gilt e ◦ e′ = e′ , also e = e′ .

Page 379: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

376 15 ANHANG: GRUPPEN, RINGE UND KORPER

(d) Nach (a) ist jedes zu x rechtsinverse Element auch linksinvers zu x, also invers zu x.Jetzt seien die Elemente y, z ∈ G invers zu x. Dann gilt y ◦ x = e = x ◦ z und weiter

z(a)= e ◦ z = (y ◦ x) ◦ z (G1)

= y ◦ (x ◦ z) = y ◦ e = y .

(e) Aus x ◦ y = x ◦ z folgt x−1 ◦ (x ◦ y) = x−1 ◦ (x ◦ z) und damit durch Anwenden von(G1) y = z . Analog erhalt man die andere Kurzungsregel.

Definition: Potenzen von GruppenelementenEs sei (G, ◦) eine Gruppe und x ∈ G .Wir setzen x0 := e und definieren xn := x ◦ . . . ◦ x︸ ︷︷ ︸

n Faktoren

und x−n := (x−1)n fur n ∈ N .

Man uberzeuge sich davon, daß fur das Potenzieren von Elementen in Gruppen die Rechen-regeln(i) xm+n = xm ◦ xn und(ii) xmn = (xm)n gelten.Ein Spezialfall von (ii) ist die doppelte Inversion (x−1)−1 = x .Fur x, y ∈ G gilt außerdem e = x ◦ (y ◦ y−1) ◦ x−1 = (x ◦ y) ◦ (y−1 ◦ x−1) , also(x ◦ y)−1 = y−1 ◦ x−1 .

Definition: Ordnung eines GruppenelementsEs sei (G, ◦) eine Gruppe und x ∈ G .Ist {n ∈ N | xn = e} 6= ∅ , so heißt das Minimum dieser Menge die Ordnung von x.Im Fall {n ∈ N | xn = e} = ∅ hat x die Ordnung ∞ .Insbesondere ist das neutrale Element von G das einzige Element mit der Ordnung 1.

(15.1.2) Beispiele Gruppen und Ordnungen von Elementen

1. Es sei G = Q∗ := Q \ {0} , und ◦ die Multiplikation auf Q∗.

Diese Verknupfung ist bekanntlich assoziativ und kommutativ, 1 ist das neutrale Elementvon Q∗, und 1

x ist das inverse Element zu x . (Q∗, ◦) ist also eine abelsche Gruppe.Es gilt (−1)2 = 1 , also hat −1 die Ordnung 2. Das neutrale Element 1 hat die Ordnung 1.Jedes andere Element von Q∗ hat die Ordnung ∞: Sei etwa x = p

q die gekurzte Darstellungvon x mit p ∈ Z und q ∈ N . Wegen der Teilbarkeitsregeln fur ganze Zahlen folgt aus xn = 1dann q = 1 und p ∈ {1,−1} .

2. Es sei G = Z und ◦ die Addition. Dann ist (G, ◦) eine abelsche Gruppe mit neutralemElement 0 und zu x inversem Element −x . Die n-te Potenz eines Elements x ∈ G istdie n-fache Summe: xn = x ◦ . . . ◦ x︸ ︷︷ ︸

n

= x+ . . .+ x︸ ︷︷ ︸n

. Dies gilt immer in Gruppen, deren

Verknupfung als Addition geschrieben wird.Das neutrale Element 0 hat die Ordnung 1. Fur alle x ∈ Z\{0} und alle naturlichen Zahlenn gilt x+ . . .+ x︸ ︷︷ ︸

n

= nx 6= 0 . (Hier ist nx das normale Produkt zweier ganzer Zahlen.) Daher

haben alle x ∈ Z \ {0} die Ordnung ∞.

3. Auf den Mengen M2 = {0, 1} und M3 = {0, 1, 2} definieren wir eine Addition durch

Page 380: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

15.1 Gruppen 377

folgende Verknupfungstafeln:

+ 0 10 0 11 1 0

+ 0 1 20 0 1 21 1 2 02 2 0 1

Man uberzeugt sich leicht, daß (M2,+) und (M3,+) abelsche Gruppen mit dem neutralenElement 0 sind.In M2 hat das Element 1 die Ordnung 2. In M3 haben die Elemente 1 und 2 die Ordnung 3.

4. Auf der Menge M4 = {0, 1, 2, 3} definieren wir zwei verschiedene Additionen:

+ 0 1 2 30 0 1 2 31 1 2 3 02 2 3 0 13 3 0 1 2

+′ 0 1 2 30 0 1 2 31 1 0 3 22 2 3 0 13 3 2 1 0

Man kann auch hier leicht nachrechnen, daß (M4,+) und (M4,+′) abelsche Gruppen mitdem neutralen Element 0 sind.In (M4,+) hat das Element 2 die Ordnung 2, wahrend die Elemente 1 und 3 die Ordnung4 haben. In (M4,+′) dagegen haben die Elemente 1, 2, 3 alle die Ordnung 2, weil auf derDiagonalen nur das neutrale Element auftritt. Es gibt also verschiedene Moglichkeiten, eineMenge mit 4 Elementen zu einer Gruppe zu machen.

5. Auf der Menge M6 = {0, 1, 2, 3, 4, 5} definieren wir zwei Verknupfungen, von denen wir dieeine Addition, die andere Multiplikation nennen wollen:

+ 0 1 2 3 4 50 0 1 2 3 4 51 1 2 3 4 5 02 2 3 4 5 0 13 3 4 5 0 1 24 4 5 0 1 2 35 5 0 1 2 3 4

• 0 1 2 3 4 50 0 1 2 3 4 51 1 0 5 4 3 22 2 4 0 5 1 33 3 5 4 0 2 14 4 2 3 1 5 05 5 3 1 2 0 4

(M6,+) ist eine abelsche Gruppe mit dem neutralen Element 0, (M6, •) ist eine nicht-abelsche Gruppe mit dem neutralen Element 0. Die einzelnen Elemente haben in (M6,+)bzw. in (M6, •) folgende Ordnungen:

0 1 2 3 4 5(M6,+) 1 6 3 2 3 6(M6, •) 1 2 2 2 3 3

(Wer Permutationen kennt, wird bemerken, daß die Gruppe (M6, •) dieselbe Struktur hatwie die Gruppe S3 der Permutationen auf 3 Ziffern mit der Hintereinanderausfuhrung alsVerknupfung. Um dies zu sehen, bezeichne man die Permutationen wie folgt:0 = id , 1 = (1, 2) , 2 = (1, 3) , 3 = (2, 3) , 4 = (1, 2, 3) , 5 = (1, 3, 2) .)

Page 381: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

378 15 ANHANG: GRUPPEN, RINGE UND KORPER

(15.1.3) Bemerkungen

1. Abelsche Gruppen schreibt man oft additiv, das heißt, man schreibt die Verknupfung alsAddition und bezeichnet das neutrale Element mit 0. Nicht-abelsche Gruppen schreibt manublicherweise multiplikativ, das heißt, man schreibt die Verknupfung als Multiplikation undbezeichnet das neutrale Element mit 1.Insofern ist die Gruppe (M6, •) in (15.1.2.5) in einer ungewohnlichen Notation angegeben.Dies geschah, um sie besser mit der abelschen Gruppe (M6,+) vergleichen zu konnen.

2. Eine nichtabelsche Gruppe hat mindestens 6 Elemente. Das Beispiel (M6, •) in(15.1.2.5) ist also kleinstmoglich.

Definition: UntergruppeEs sei (G, ◦) eine Gruppe. Eine Teilmenge U 6= ∅ von G heißt Untergruppe von G, wennU mit der auf U × U eingeschrankten Verknupfung eine Gruppe ist.

Da eine Untergruppe U von G nicht leer ist, enthalt sie irgendein Element x und dann nach(G3) auch dessen Inverses x−1 , also auch das neutrale Element e = x ◦ x−1 von G. Da dieAssoziativitat von ◦ bei Einschrankung auf U × U erhalten bleibt, gilt:

(15.1.4) Lemma UntergruppenkriteriumEs sei (G, ◦) eine Gruppe. Eine nichtleere Teilmenge U von G ist genau dann eine Unter-gruppe von G, wenn x ◦ y ∈ U fur alle x, y ∈ U und x−1 ∈ U fur alle x ∈ U gilt.

(15.1.5) Beispiele Untergruppen

1. (Z,+) und (Q,+) sind Untergruppen von (R,+) .(Q \ {0}, •) ist eine Untergruppe von (R \ {0}, •) . Jedoch ist (Z \ {0}, •) keine Untergruppevon (R \ {0}, •) , weil das Element 2 ∈ Z kein multiplikatives Inverses in Z besitzt.

2. Ist G eine Gruppe mit neutralem Element e , so sind G und {e} immer Untergruppen vonG. Die Gruppen (M2,+) und (M3,+) aus (15.1.2.3) besitzen keine weitere Untergruppen.

3. Die Gruppe (M6, •) aus (15.1.2.3) hat folgende Untergruppen:{0} , {0, 1} , {0, 2} , {0, 3} , {0, 4, 5} , {0, 1, 2, 3, 4, 5} .

4. Es sei G = (Z,+) . Die Menge 2Z der geraden Zahlen ist eine Untergruppe von Z. Fur einebeliebige naturliche Zahl m ist die Menge mZ der durch m teilbaren Zahlen eine Untergrup-pe von Z. Auf diese Weise erhalten wir sogar alle Untergruppen von Z:Sei U 6= {0} eine Untergruppe von Z. Dann enthalt U ein Element x 6= 0 und mit x auchsein Inverses −x . Daher ist der Durchschnitt U ∩ N nicht leer und hat ein Minimum m.Jedes x ∈ mZ hat die Form x = z · m mit einer ganzen Zahl z . Also ist x die z-fache(additive) Potenz von m und liegt folglich in U . Dies zeigt mZ ⊆ U .Zum Beweis der Umkehrung nehmen wir irgendein x ∈ U . Dann gibt es nach dem euklidi-schen Algorithmus ganze Zahlen s und r mit x = s ·m + r und |r| < m . Wegen x ∈ Uund s ·m ∈ U folgt |r| = ±(x − s ·m) ∈ U . Wegen der Minimalitat vom m geht dies nurfur r = 0 , also fur x = s ·m ∈ mZ . Damit haben wir U = mZ .Die trivialen Untergruppen sind {0} = 0Z und Z = 1Z. Außer der Untergruppe {0} sind alleUntergruppe von Z unendlich.

Page 382: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

15.1 Gruppen 379

(15.1.6) Lemma Durchschnitt von Untergruppen, Erzeugnis eines GruppenelementsEs sei (G, ◦) eine Gruppe.

(a) Ist {Ui | i ∈ I} eine Familie von Untergruppen von G, so ist auch ihr Durchschnitt⋂i∈I Ui eine Untergruppe von G.

(b) Ist x ∈ G , so ist {xn | n ∈ Z} eine Untergruppe von G. Diese Untergruppe ist diekleinste Untergruppe von G, die x als Element enthalt. Sie wird bezeichnet mit 〈x〉(Erzeugnis von x).

Beweis:

(a) Es seien x, y ∈ U =⋂i∈I Ui . Dann gilt x, y ∈ Ui fur alle Indizes i, also x ◦ y ∈ Ui

fur alle Indizes i nach (15.1.4). Das zeigt x ◦ y ∈ U . Ebenso gilt x−1 ∈ Ui fur alle i.Wegen e ∈ Ui fur alle i gilt außerdem e ∈ U , also ist U nicht leer. Nach (15.1.4) istU eine Untergruppe von G.

(b) 〈x〉 = {xn | n ∈ Z} enthalt das Element x, ist also nicht leer. Wegen xn ◦xm = xn+m

ist 〈x〉 abgeschlossen bezuglich der Verknupfung. Wegen (xn)−1 = x−n ist 〈x〉 auchabgeschlossen bezuglich der Invertierung. Also ist 〈x〉 eine Untergruppe von G. JedeUntergruppe von G, die x als Element enthalt, enthalt auch alle Potenzen von x, hatalso 〈x〉 als Untergruppe.

Da Potenzen eines Elements miteinander vertauschbar sind, ist eine Untergruppe 〈x〉 vonG immer abelsch.

Definition: zyklische GruppeEs sei (G, ◦) eine Gruppe. Gibt es ein Element x ∈ G mit G = 〈x〉 , so heißt G zyklisch.Die Gruppen (M2,+) , (M3,+) , (M4,+) , (M6,+) aus (15.1.2) sind alle zyklisch mit demerzeugenden Element 1.

Definition: Ordnung einer GruppeEs sei (G, ◦) eine Gruppe. Die Machtigkeit |G| von G heißt die Ordnung von G. Im Falle|G| <∞ ist |G| die Anzahl der Elemente von G.

Jedes Element x ∈ G liefert nach (15.1.6.b) eine Untergruppe 〈x〉 von G. Man sieht leicht,daß die Elementordnung von x gleich der Gruppenordnung von 〈x〉 ist. In den Beispielen(15.1.2.3–5) waren alle Elementordnungen Teiler der Gruppenordnung. Dies ist kein Zufall,denn es gilt allgemein:

(15.1.7) Satz Satz von LagrangeEs sei (G, ◦) eine Gruppe endlicher Ordnung. Dann ist die Ordnung jeder Untergruppe einTeiler von |G|.Insbesondere ist auch die Ordnung jedes Elements von G ein Teiler von |G|.

Beweis: Es sei U eine Untergruppe von G. Fur jedes x ∈ G bezeichnen wir mit xU dieTeilmenge {x ◦ u | u ∈ U} von G. Dann gilt:

(i) xU hat genau |U | Elemente:Die Abbildung σ : U → xU , definiert durch σ(u) = x◦u ist eine Bijektion von U nachxU . Die Surjektivitat von σ ist klar, die Injektivitat von σ folgt aus der Kurzungsregel(15.1.1.e).

Page 383: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

380 15 ANHANG: GRUPPEN, RINGE UND KORPER

(ii) Fur x, y ∈ G gilt entweder xU = yU oder xU ∩ yU = ∅ :Annahme: z ∈ xU ∩ yU . Dann gibt es u1, u2 ∈ U mit x ◦ u1 = z = y ◦ u2 . Damitfolgt y = x ◦ u1 ◦ u−1

2 ∈ xU und weiter yU ⊆ xU . Da nach (i) die Mengen xU undyU gleichviele Elemente besitzen und nach Voraussetzung endlich sind, folgt darausyU = xU .

(iii) G ist die disjunkte Vereinigung der verschiedenen Teilmengen xU :Fur jedes x ∈ G gilt x = x ◦ e , also liegt x in der Teilmenge xU . Nun ist die Aussageklar nach (ii).

Hat G genau k verschiedene Teilmengen xU , so gilt nach (i): |G| = k · |U | , also ist |U | einTeiler von |G|. �

Man vergleiche den Beweis dieses Satzes mit (3.1.2.d). Die Teilmengen xU , auch Links-Nebenklassen von U genannt, spielen hier die gleiche Rolle wie dort die affinen Unterraumex+U , die eine disjunkte Zerlegung des Vektorraums V liefern. Betrachtet man V zusammenmit der Vektoraddition als abelsche Gruppe, so ist ein Unterraum U eine Untergruppe vonV , und die affinen Unterraume von V mit der Richtung U sind genau die Linksnebenklassender Untergruppe U von V .Am Rande sei noch erwahnt, daß in einer abelschen Gruppe die Ordnung des Produktsx ◦ y gleich dem kleinsten gemeinsamen Vielfachen der Ordnungen von x und y ist. DieseAussage bleibt nicht richtig fur nicht-abelsche Gruppen: Es sei G die Gruppe (M6, •) aus(15.1.2.5). Das Element 1 hat die Ordnung 2, das Element 4 hat die Ordnung 3, aber ihrProdukt 1 · 4 = 3 hat auch die Ordung 2. In (12.7.6) sind zwei Elemente der orthogonalenGruppe O(3,R) angegeben, die beide die Ordnung 3 haben, deren Produkt aber unendlicheOrdnung hat.Eine wichtige Untergruppe von G ist die Teilmenge derjenigen Elemente von G, die mit allenGruppenelementen vertauschbar sind:

(15.1.8) Satz Zentrum einer GruppeEs sei (G, ◦) eine Gruppe.Die Menge Z(G) = {x ∈ G | x ◦ y = y ◦ x fur alle y ∈ G} ist eine Untergruppe von G undheißt Zentrum von G.

Beweis: Wegen e ∈ Z(G) ist Z(G) nicht leer. Sind x1, x2 ∈ Z(G) , so gilt fur alle y ∈ G :y ◦ (x1 ◦ x2) = (y ◦ x1) ◦ x2 = (x1 ◦ y) ◦ x2 = x1 ◦ (y ◦ x2) = x1 ◦ (x2 ◦ y) = (x1 ◦ x2) ◦ y . Furx ∈ Z(G) und y ∈ G gilt (x−1 ◦y)◦x = x−1 ◦ (y ◦x) = x−1 ◦ (x◦y) = (x−1 ◦x)◦y = y und(y ◦ x−1) ◦ x = y ◦ (x−1 ◦ x) = y . Aus der Kurzungsregel folgt dann x−1 ◦ y = y ◦ x−1 . �

Das Zentrum einer abelschen Gruppe G ist naturlich Z(G) = G . Die nicht-abelsche Gruppe(M6, •) aus (15.1.2.5) hat das triviale Zentrum {0} .

Gruppen kommen in der Linearen Algebra außer als additive Gruppe eines Vektorraumsvor allem als Matrizengruppen vor, zum Beispiel die Gruppen GL(n,K) , O(n,R) oder dieGruppe der (n× n)-Permutationsmatrizen. Das Zentrum von GL(n,K) wird angegeben in(2.4.9).

Page 384: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

15.2 Korper und Ringe 381

15.2 Korper und Ringe

In diesem Abschnitt werden zwei algebraische Strukturen mit je zwei Verknupfungen + und• eingefuhrt:

Definition: KorperEine nichtleere Menge K zusammen mit zwei Verknupfungen + und • heißt ein Korper,wenn folgende Axiome erfullt sind:

(K1) (K,+) ist eine abelsche Gruppe.Das neutrale Element dieser Gruppe wird mit 0 bezeichnet.

(K2) (K \ {0}, •) ist eine abelsche Gruppe.Das neutrale Element dieser Gruppe wird mit 1 bezeichnet.

(K3) Fur alle x, y, z ∈ K gelten die Distributivgesetze:x · (y + z) = (x · y) + (x · z) und (x+ y) · z = (x · z) + (y · z) .

Notation: Zur Vereinfachung der Schreibweise lassen wir (wie zum Beispiel beim Rechnenmit reellen Zahlen) den Punkt fur die Multiplikation oft weg und vereinbaren zum Einsparenvon Klammern die Regel

”Punkt vor Strich“. Das additive Inverse von x ∈ K bezeichnen

wir mit −x , das multiplikative Inverse von x ∈ K \ {0} mit x−1 .

(15.2.1) Lemma Elementare Eigenschaften von KorpernEs sei (K,+, •) ein Korper. Dann gilt

(a) 1 6= 0 . Insbesondere hat jeder Korper mindestens zwei Elemente.(b) x · 0 = 0 · x = 0 fur alle x ∈ K .(c) (−x)y = −(xy) fur alle x, y ∈ K .(d) Aus xy = 0 folgt x = 0 oder y = 0 .

Beweis:

(a) Nach (K2) ist 1 ein Element von K \ {0} .(b) x · 0 + x · 0 (K3)

= x · (0 + 0)(K1)= x · 0 , also x · 0 = 0 . Aus der Kommutativitat der

Multiplikation folgt dann 0 · x = 0 .

(c) (−x) · y + x · y (K3)= (−x+ x) · y (K1)

= 0 · y (b)= 0 , also (−x)y = −(xy) .

(d) Es sei xy = 0 und x 6= 0 . Dann existiert das multiplikative Inverse x−1 von x, und

es folgt 0 = xy(b)= x−1(xy)

(K2)= (x−1x)y = 1 · y = y . �

Definition: RingEine nichtleere Menge R zusammen mit zwei Verknupfungen + und • heißt ein Ring, wennfolgende Axiome erfullt sind:

(R1) (R,+) ist eine abelsche Gruppe.Das neutrale Element dieser Gruppe wird mit 0 bezeichnet.

(R2) Assoziativitat der Multiplikation: Fur alle x, y, z ∈ R gilt (xy)z = x(yz) .(R3) Fur alle x, y, z ∈ R gelten die Distributivgesetze:

x · (y + z) = (x · y) + (x · z) und (x+ y) · z = (x · z) + (y · z) .

Gegenuber den Korperaxiomen ist also die Bedingung fur die Multiplikation abgeschwacht.Von den Gruppeneigenschaften fur (K \ {0}, •) ist fur die Ringmultiplikation nur die Asso-ziativitat ubriggeblieben.

Page 385: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

382 15 ANHANG: GRUPPEN, RINGE UND KORPER

Definition: Ring mit Eins, kommutativer RingEin Ring, der ein neutrales Element bezuglich der Multiplikation besitzt, heißt Ring mitEins.Ist R ein Ring, in dem die Multiplikation kommutativ ist, so heißt R kommutativ.

(15.2.2) Beispiele Ringe und Korper

1. (Q,+, ·), (R,+, ·) und (C,+, ·) mit der gewohnlichen Addition und Multiplikation sindKorper.

2. (Z,+, ·) mit der gewohnlichen Addition und Multiplikation ist kein Korper, aber ein kom-mutativer Ring mit Eins.

3. Bezeichnen wir mit 2Z die Menge der geraden ganzen Zahlen, so ist (2Z,+, ·) mit dergewohnlichen Addition und Multiplikation ein kommutativer Ring ohne Eins.

4. Es sei K irgendein Korper. Mit K[x] bezeichnen wir die Menge der Polynome mit Koeffi-zienten aus K (vgl. Kap.4). Dann ist K[x] ein kommutativer Ring mit Eins (das konstantePolynom 1 ist neutral bezuglich der Multiplikation). Da das Polynom x wegen der Gradregelkein multiplikatives Inverses in K[x] hat, ist K[x] kein Korper.

5. Es sei K irgendein Korper. Mit K(x) bezeichnen wir die Menge {PQ | P,Q ∈ K[x] , Q 6= 0}der rationalen Funktionen mit Koeffizienten aus K. Bezuglich der beiden Verknupfungen

”wertweise Addition“ ((f +g)(x) = f(x)+g(x)) und ”wertweise Multiplikation“ ((f ·g)(x) =f(x) · g(x)) ist K(x) ein Korper. Die konstanten Funktionen 0 und 1 sind die neutralenElemente. K(x) heißt der rationale Funktionenkorper uber K.

6. Es sei R ein beliebiger Ring mit Eins. Die Menge Mn(R) der (n×n)-Matrizen mit Eintragenaus R, versehen mit der Matrizenaddition und Matrizenmultiplikation, ist ein Ring mit demEinselement E. Im Fall n ≥ 2 ist Mn(R) nicht kommutativ.In der Linearen Algebra haben wir es meist mit dem Matrizenring Mn(K) fur einen Korper Kzu tun. Rechnet man nur mit ganzzahligen Matrizen, so befindet man sich im MatrizenringMn(Z).

7. Nach (15.2.1.a) hat ein Korper K mindestens zwei Elemente. Ein Korper K mit nur zweiElementen enthalt die beiden neutralen Elemente 0 und 1. Die Verknupfungstafeln sind

damit festgelegt:+ 0 10 0 11 1 0

• 11 1

Bei der multiplikativen Verknupfungstafel eines Korpers wollen wir nur die Elemente 6= 0, dasheißt die Verknupfungstafel der Gruppe (K \ {0}, •) angeben. Wegen (15.2.1.b) enthaltendie weggelassene Zeile und Spalte nur Nullen.

8. Ein Korper K mit drei Elementen enthalt außer den neutralen Elementen 0 und 1 ein weiteresElement a. Zum Aufstellen der Verknupfungstafeln benutzen wir folgende Regeln:

I. Die neutralen Elemente 0 und 1 liefern die 1.Zeile und die 1.Spalte der beiden Tafeln.

II. Da die Gruppen (K,+) und (K \ {0}, •) abelsch sind, sind die Verknupfungstafelnsymmetrisch bezuglich der Diagonale von links oben nach rechts unten.

III. Wegen der Kurzungsregel (15.1.1.e) kommt jedes Element aus K bzw. aus K \ {0} injeder Zeile und jeder Spalte genau einmal vor.

Page 386: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

15.2 Korper und Ringe 383

Mit (I) erhalten wir

+ 0 1 a

0 0 1 a1 1a a

und• 1 a

1 1 aa a

.

Mit (III) laßt sich die multiplikative Tafel vervollstandigen zu• 1 a

1 1 aa a 1

.

Wegen (III, angewendet auf die 2.Zeile) muß 1+1 = 0 oder 1+1 = a sein. Ware 1+1 = 0 ,so ware nach (III, angewendet auf die 2.Spalte) dann a+1 = a , ein Widerspruch. Dies zeigt

1 + 1 = a , und nun konnen wir auch die additive Tafel auffullen:

+ 0 1 a

0 0 1 a1 1 a 0a a 0 1

.

9. Mit denselben Schlußweisen wie in Beispiel 8 kann man zeigen, daß es genau einen KorperK = {0, 1, a, b} mit vier Elementen gibt:

+ 0 1 a b

0 0 1 a b1 1 0 b aa a b 0 1b b a 1 0

• 1 a b

1 1 a ba a b 1b b 1 a

.

In einem Ring muß nicht jedes Element x 6= 0 ein multiplikatives Inverses haben (in ei-nem Ring ohne Eins gibt es uberhaupt keine multiplikativen Inversen). Außerdem kann espassieren, daß das Produkt xy = 0 ist, obwohl x und y beide ungleich 0 sind.

Definition: Einheit, NullteilerEs sei R(,+, •) ein Ring mit Eins.Ein Element x ∈ R heißt eine Einheit von R, wenn es ein Element x−1 ∈ R gibt mitx−1x = xx−1 = 1 .Ein Element x ∈ R \ {0} heißt ein Nullteiler von R, wenn es ein Element y ∈ R \ {0} gibtmit xy = 0 oder yx = 0 .

(15.2.3) Beispiele Einheiten und Nullteiler

1. Die einzigen Einheiten in (Z,+, ·) sind die Zahlen 1 und −1. Dieser Ring enthalt keineNullteiler.

2. Ist K ein Korper, so enthalt der Polynomring K[x] keine Nullteiler. Die Einheiten in K[x]sind die konstanten Polynome 6= 0 . Beide Aussagen beweist man mit der Gradregel (4.1.1.c).

3. Es sei K ein beliebiger Korper und R = M2(K) der nicht-kommutative Ring der (2 × 2)-Matrizen uber K.

Wegen(

0 11 0

)(0 11 0

)=(

1 00 1

)ist

(0 11 0

)eine Einheit in R. Allgemein sind

alle invertierbaren Matrizen aus R Einheiten in R.

Wegen(

0 10 0

)(0 10 0

)=(

0 00 0

)ist

(0 10 0

)ein Nullteiler von R.

Es gibt auch Nullteiler x, so daß zwar xy = 0 , aber yx 6= 0 gilt:(0 10 1

)(1 00 0

)=(

0 00 0

), aber

(1 00 0

)(0 10 1

)=(

0 10 0

).

Page 387: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

384 15 ANHANG: GRUPPEN, RINGE UND KORPER

4. Eine Einheit x ∈ R kann kein Nullteiler sein. Aus xy = 0 folgt dann namlich 0 =x−1(xy) = (x−1x)y = y . Analog schließt man im Fall yx = 0 .

5. Ein Korper ist nach (15.2.1.d) nullteilerfrei. Wegen (K2) ist jedes Element x ∈ K \ {0} eineEinheit von K.

(15.2.4) Satz EinheitengruppeEs sei (R,+, •) ein Ring mit Eins. Die Menge R∗ der Einheiten von R bildet mit derMultiplikation eine Gruppe, genannt die Einheitengruppe von R.

Beweis: Wegen 1 ∈ R∗ ist R∗ nicht leer. Trivialerweise ist das Inverse zu einer Einheitwieder eine Einheit. Sind x, y ∈ R∗, so gibt es Inverse x−1, y−1 ∈ R mit x−1x = y−1y = 1 .Es folgt (y−1x−1)(xy) = y−1(x−1x)y = 1 . Also ist auch xy eine Einheit. �

(15.2.5) Beispiele Einheitengruppen von Ringen

1. Ist K ein Korper, so gilt K∗ = K \ {0} .

2. Die Einheitengruppe von (Z,+, ·) ist {1,−1} .

3. Die Einheitengruppe des Matrizenrings Mn(K) ist die Gruppe GL(n,K) der invertierbaren(n× n)-Matrizen.

4. Die Einheitengruppe des rationalen Funktionenkorpers K(x) (vgl.(15.2.2.5)) besteht aus denkonstanten Funktionen 6= 0 .

Nun sei (R,+, •) ein Ring mit Eins. In der folgenden Uberlegung mussen wir das neutraleElement

”1“ des Rings R unterscheiden von der naturlichen Zahl

”1“ und bezeichnen daher

das multiplikationsneutrale Element von R mit”e“.

Das Element e liegt in der abelschen Gruppe (R,+) und hat dort eine Ordnung ord(e) ∈N ∪ {∞} . Die Gruppe (R,+) wird additiv geschrieben. Die ν-te (additive) Potenz einesElements a ∈ R ist also die ν-fache Summe a+ . . .+ a︸ ︷︷ ︸

ν

. Diese wollen wir wie gewohnt mit

νa bezeichnen (griechische Buchstaben bezeichnen ganze Zahlen, kleine lateinische Buch-staben dagegen Korperelemente). Nach der Definition der Ordnung eines Gruppenelementsgilt also

ord(e) =

{∞ falls νe 6= 0 fur alle ν ∈ Nν falls ν minimal ist mit der Eigenschaft νe = 0 .

Berechnen wir die Ordnung ord(e) fur einige Beispiele:

(15.2.6) Beispiele Additive Ordnung des multiplikationsneutralen Elements

1. (R,+, •) = (Z,+, •) , (Q,+, •) , (R,+, •) oder (C,+, •) . Die ν-fache Summe νa ist hier dasgewohnte Produkt νa einer naturlichen mit einer ganzen (rationalen, reellen, komplexen)Zahl. Außerdem ist hier e = 1 , also νe = ν 6= 0 fur alle ν ∈ N . Damit folgt ord(e) =∞ .

Page 388: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

15.2 Korper und Ringe 385

2. (K,+, •) = R(x) , der rationale Funktionenkorper uber R (siehe (15.2.2.5)). Das multiplika-tionsneutrale Element von K ist die konstante Funktion 1, also ist νe = ν 6= 0 fur alleν ∈ N . Somit gilt ord(e) =∞ .

3. Es sei (R,+, •) = Mn(Z) der Ring der ganzzahligen (n × n)-Matrizen. Das Einselement isthier die (n×n)-Einheitsmatrix E, das Nullelement die (n×n)-Nullmatrix O. Fur jedes ν ∈ Ngilt νE = diag(ν, . . . , ν) 6= O, also ord(E) = 0.

4. Es sei K der Korper mit zwei Elementen aus (15.2.2.7). Wegen 2e = e + e = 0 giltord(e) = 2 .Im Korper mit drei Elementen (siehe (15.2.2.8)) gilt 2e = a 6= 0 und 3e = 0 , alsoord(e) = 3 .Im Korper mit vier Elementen (siehe (15.2.2.9)) gilt 2e = 0 , also ord(e) = 2 .

Definition: Charakteristik eines RingsEs sei (R,+, •) ein Ring mit multiplikationsneutralem Element e. Der Ring R hat dieCharakteristik χ(R) = ord(e) , falls ord(e) <∞ . Andernfalls setzen wir χ(R) = 0 .

Nach (15.2.6) haben die Korper Q , R , C und R(x) sowie die Ringe Z und Mn(Z) alle dieCharakteristik 0. Die Korper mit 2 oder 4 Elementen haben die Charakteristik 2, der Korpermit 3 Elementen hat die Charakteristik 3.

(15.2.7) Satz Es sei K ein Korper mit Einselement e und Charakteristik χ.(a) Fur alle x ∈ K gilt χx = 0 .(b) Ist χ 6= 0 , so ist χ die kleinste naturliche Zahl mit der Eigenschaft, daß χx = 0 fur

irgendein x ∈ K \ {0} gilt.(c) χ ist entweder 0 oder eine Primzahl.

Beweis:

(a) ist klar wegen χx = χ(ex) = (χe)x = 0 .(b) Ist ν eine naturliche Zahl und x ∈ K \ {0} mit νx = 0 , so gilt 0 = νx = ν(ex) =

(νe)x , also νe = 0 wegen (15.2.1.b). Wegen der Minimalitat von χ als additiveOrdnung von e folgt ν ≥ χ .

(c) Es sei χ 6= 0 . Hatte χ eine Zerlegung χ = νµ mit ν, µ < χ , so folgte 0 = (νµ)e =(νe) · (µe) , also wegen (15.2.1.b) dann νe = 0 oder µe = 0 im Widerspruch zurMinimalitat von χ.

Im Gegensatz zu (15.2.7,c) ist jede naturliche Zahl die Charakteristik eines geeigneten Ringes.

(15.2.8) Korollar Die Charakteristik eines endlichen Korpers ist immer eine Primzahl.

Beweis: Ist K endlich, so auch die Teilmenge {νe | ν ∈ N} von K. Also gibt es ν, µ ∈ Nmit µ < ν und νe = µe . Es folgt (ν − µ)e = 0 und ν − µ ∈ N . Daher ist ord(e) ≤ν − µ <∞ und dann nach (15.2.7.c) die Charakteristik eine Primzahl. �

Page 389: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

386 15 ANHANG: GRUPPEN, RINGE UND KORPER

(15.2.9) Beispiel ein unendlicher Korper mit Charakteristik 2Es sei K der Korper mit zwei Elementen und K(x) sein rationaler Funktionenkorper. K(x) istunendlich, denn es enthalt zum Beispiel die Polynome 1, x, x2, . . . , die paarweise verschieden sind.Fur jedes Polynom P (x) =

∑ni=0 aix

i aus K[x] gilt (2 · P )(x) =∑n

i=0 2aixi = 0 , da 2ai = 0 istfur jedes ai ∈ K . Also hat K(x) nach (15.2.7.b) die Charakteristik 2.

15.3 Endliche Korper

Vektorraume, deren Skalarenkorper endlich ist, liefern in der Linearen Algebra manchmalinteressante Beispiele, aber das Rechnen mit den Elementen dieser endlichen Korper ist amAnfang ziemlich ungewohnt im Vergleich zum Rechnen mit reellen oder komplexen Zahlen.Daher sollen zum Schluß dieses Erganzungskapitels ein paar Eigenschaften endlicher Korperuntersucht werden.Wenden wir uns zuerst der naheliegenden Frage zu, zu welchen naturlichen Zahlen n esuberhaupt einen Korper mit genau n Elementen gibt. Wir werden diese Frage nicht vollstandigbeantworten, weil man dazu einige Hilfsmittel aus der Algebra benotigt, die den Rahmendieses Anhangs bei weitem sprengen wurden. Zumindest eine notwendige Bedingung an naber laßt sich mit elementaren Methoden finden.Formuliert man die analoge Frage fur Gruppen, so findet man sehr schnell eine Antwort. DieBeispiele (M2,+) , (M3,+) , (M4,+) und (M6,+) aus (15.1.2) lassen erahnen, wie man zuvorgegebenem n eine Gruppe mit der Ordnung n bauen kann:

+ 0 1 2 3 . . . n− 2 n− 10 0 1 2 3 . . . n− 2 n− 11 1 2 3 4 . . . n− 1 02 2 3 4 5 . . . 0 13 3 4 5 6 . . . 1 2...

......

......

......

n− 1 n− 1 0 1 2 . . . n− 3 n− 2

ist die Verknupfungstafel einer Gruppe der Ordnung n. Jede Zeile in dieser Tafel entsteht ausder nachsthoheren, indem man alle Eintrage

”zyklisch“ um eine Stelle nach links verschiebt.

Der Eintrag der dabei links herausfallt, wird rechts wieder eingesetzt. Diese Gruppe istabelsch, sogar zyklisch mit erzeugendem Element 1. Wahrend es also zu jedem n ∈ N eineGruppe der Ordnung n gibt, wird sich herausstellen, daß es beispielsweise keinen Korper mit6 oder 10 Elementen gibt.

Analog zum Begriff der Untergruppe definieren wir Teilkorper:

Definition: TeilkorperEs sei (K,+, •) ein Korper mit Einselement e. Eine Teilmenge L von K heißt Teilkorpervon K, wenn gilt:(TK1) e ∈ L .(TK2) L ist abgeschlossen bezuglich Addition, das heißt:

Fur x, y ∈ L ist auch x− y ∈ L .(TK3) L ist abgeschlossen bezuglich Multiplikation, das heißt:

Fur x ∈ L , y ∈ L \ {0} ist auch xy−1 ∈ L .

Page 390: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

15.3 Endliche Korper 387

Beispielsweise sind Q und R Teilkorper von C (alle versehen mit der ublichen Additionund Multiplikation). Jeden Korper K kann man als Teilkorper seines rationalen Funktio-nenkorpers auffassen, wenn man a ∈ K identifiziert mit der konstanten Funktion a .

Jetzt kommt ein typisches Beispiel fur die Verwendung von Methoden der Linearen Algebrain der Algebra, speziell in der Korpertheorie:

(15.3.1) Lemma Es sei L ein Teilkorper von K. Dann ist K ein Vektorraum uber demSkalarenkorper L.Ist L ein endlicher Korper mit p Elementen, und hat K als L-Vektorraum die Dimensiond <∞ , so hat K genau pd Elemente.

Beweis: Um zu zeigen, daß K ein Vektorraum uber L ist, mussen wir eine Addition+ : K ×K → K und eine skalare Multiplikation • : L×K → K angeben, so daß die Vek-torraumaxiome erfullt sind. Die naheliegende Idee, die vorhandene Addition von K und dieauf L×K eingeschrankte Multiplikation von K zu nehmen, funktioniert. Die Korperaxiomestellen sicher, daß die so definierten Operationen die Vektorraumaxiome erfullen. Die zwei-te Behauptung ist dann klar: K ist als L-Vektorraum isomorph zum Vektorraum Ld derd-Tupel mit Eintragen aus L. �

(15.3.2) Satz Primkorper Jeder Korper K der Charakteristik χ 6= 0 besitzt genau einenTeilkorper mit genau χ Elementen. Dieser Teilkorper heißt Primkorper von K.

Beweis: Hat K die Charakteristik χ 6= 0 , so ist χ die kleinste naturliche Zahl mit χe = 0 .Wir setzen P = {0 , e , 2e , . . . , (χ− 1)e} .Wegen χe = 0 ist die Menge P abgeschlossen bezuglich der beiden Operationen: Sei-en ν, µ zwei naturliche Zahlen. Dann gibt es nach dem euklidischen Algorithmus ganzeZahlen σ, ρ mit σ ≥ 0 und 0 ≤ ρ < χ , so daß ν + µ = σχ + ρ gilt. Es folgt(νe) + (µe) = (ν + µ)e = (σχ + ρ)e = χ(σe) + ρe = ρe ∈ P . Weiter gilt (νe)(µe) = (νµ)e ,und mit der gleichen Argumentation wie eben folgt (νe)(µe) ∈ P .P enthalt die neutralen Elemente 0 und e. Die Assoziativ-, Kommutativ- und Distributiv-gesetze erbt P von K. Das additive Inverse zu νe ist (χ− ν)e .Da χ nach (15.2.7.c) eine Primzahl ist, ist jede naturliche Zahl ν mit 1 ≤ ν ≤ χ − 1teilerfremd zu χ. Somit gibt es ganze Zahlen σ, ρ mit σν + ρχ = 1 . Es folgt e = 1 · e =(σν + ρχ)e = (σν)e + (ρχ)e = (σν)e = (σe)(νe) . Also hat νe ein multiplikatives Inversesσe in P .Nun sei Q irgendein Teilkorper von K mit χ Elementen. Nach Axiom (TK1) liegt das Ele-ment e in Q, also auch die Elemente 0 = e− e, 2e, 3e, . . . , (χ− 1)e . Damit folgt P ⊆ Q, undwegen der Gleichheit der Ordnungen P = Q. �

(15.3.3) Beispiel Der Korper K = {0, 1, a, b} mit vier Elementen aus (15.2.2.9) hat nach(15.2.6.3) die Charakteristik 2. Der in (15.3.2) angegebene Primkorper P mit 2 Elementen enthaltdie beiden neutralen Elemente 0, 1 . Eine Basis von K als P -Vektorraum hat zwei Elemente. Alserstes Basiselement kann man irgendeinen Vektor 6= 0 wahlen, etwa das Element 1. Der von 1erzeugte Unterraum von K enthalt die Vektoren 0 = 0 · 1 und 1 = 1 · 1 . Das Element a liegt also

Page 391: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

388 15 ANHANG: GRUPPEN, RINGE UND KORPER

außerhalb dieses Unterraums. Damit ist (1, a) eine Basis K als P -Vektorraum. Die Elemente vonK haben nun folgende Koordinatendarstellungen bezuglich dieser Basis:

0 = 0 · 1 + 0 · a1 = 1 · 1 + 0 · aa = 0 · 1 + 1 · ab = 1 · 1 + 1 · a

Aus (15.2.8), (15.3.2) und (15.3.1) erhalten wir

(15.3.4) Satz Ein endlicher Korper hat pd Elemente fur eine geeignete Primzahl p undeine naturliche Zahl d. Seine Charakteristik ist p.

(15.3.5) Bemerkungen

1. In der Algebra zeigt man, daß es zu jeder Primzahlpotenz pd (bis auf Isomorphie) genaueinen Korper mit pd Elementen gibt. Er wird bezeichnet mit GF (pd) (engl. Galois field).

2. Der rationale Funktionenkorper von GF (2) hat nach (15.2.9) auch die Charakteristik 2.GF (2)(x) enthalt also ebenfalls einen Primkorper P mit zwei Elementen und ist nach (15.3.1)ein unendlichdimensionaler Vektorraum uber P .

3. Auf einem Korper mit pd Elementen (p eine Primzahl) kann man keine Ordnungsrelation >definieren, die die aus R bekannten Gesetze

(a > 0 ⇒ −a < 0) , 1 > 0 und (a, b > 0 ⇒ a+ b > 0)

erfullt: Mit e > 0 ist dann auch −e = (p− 1) · e > 0 , ein Widerspruch.

Einige Rechenregeln fur endliche Korper sind im folgenden Satz zusammengestellt:

(15.3.6) Satz Es sei K ein endlicher Korper mit pd Elementen.(a) Fur alle x ∈ K gilt p · x = x+ . . .+ x︸ ︷︷ ︸

p

= 0 .

(b) Fur x, y ∈ K gilt (x+ y)p = xp + yp .(c) Fur alle x ∈ K gilt xp

d= x .

(d) Bezeichnet man die Elemente des Primkorpers von K mit 0, 1, 2, . . . , p − 1 , so kannman mit ihnen formal wie mit ganzen Zahlen modulo p rechnen.

(e) (a) und (b) gelten fur jeden Korper der Primzahlcharakteristik p.

Beweis:

(a) ist klar nach (15.2.7.a).(b) folgt aus der Binomialformel: (x+ y)p =

∑pi=0

(pi

)xp−iyi , und der Binomialkoeffizient(

pi

)ist durch p teilbar fur 1 ≤ i ≤ p− 1 . Dann ist die Aussage klar nach (a).

(c) (K \ {0}, •) ist eine Gruppe der Ordnung pd − 1. Nach (15.1.7) ist die multiplikativeOrdnung von x ∈ K \ {0} daher ein Teiler von pd − 1 , und es folgt xp

d−1 = 1 , alsoxp

d= x . Fur x = 0 ist die Behauptung trivial.

Page 392: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

15.3 Endliche Korper 389

(d) Ist ν eine ganze Zahl mit 0 ≤ ν ≤ p − 1 , so bezeichnen wir mit ν hier das Elementν · e = e+ . . .+ e︸ ︷︷ ︸

ν

. Die Begrundung dafur, daß man mit ν (unter Beachtung von

p = 0 genauso rechnen kann wie in Z, findet man im Beweis zu (15.3.2).(e) Im Beweis zu (a) und (b) haben wir nur px = 0 fur alle x ∈ K ausgenutzt.

Die folgenden Beispiele zeigen Anwendungen dieser Regeln und erlautern, was es heißt,

”modulo p“ zu rechnen. Am einfachsten rechnet man in einem Korper mit p Elementen

(p eine Primzahl). Er ist dann identisch mit seinem Primkorper, und man kann (15.3.6.d)anwenden.

(15.3.7) Beispiele Rechnen in endlichen Korpern

1. Es sei K = GF (13) der Korper mit 13 Elementen. Hier gilt 13 = 0 , also

3 + 10 = 13 = 0 also 3 = −108 + 7 = 15 = 13 + 2 = 2

6 · 11 = 66 = 5 · 13 + 1 = 1 also 6 =111

212 = 4096 = 315 · 13 + 1 = 1

2. Es sei K = GF (3) der Korper mit 3 Elementen, und P (x) = x3 − x− 1 ∈ K[x] .Wegen a3 = a fur alle a ∈ K hat P keine Nullstelle in K, also auch keine linearen Teilerin K. Da nach der Gradregel eine Zerlegung von P in echte Teiler mindestens einen linearenTeiler enthalten mußte, ist P ∈ K[x] irreduzibel.

3. Es sei K = GF (5) der Korper mit 5 Elementen, und A =(

2 22 0

)∈M2(K) .

Dann gilt A2 =(

3 44 4

), also ist A2 − 2A+E die Nullmatrix. Da A kein Vielfaches der

Einheitsmatrix ist, ist das Minimalpolynom von A nicht linear. Somit hat A das Minimalpo-lynom M(x) = x2− 2x+ 1 = (x− 1)2 . Nach (7.1.3) ist also A nicht diagonalisierbar, obwohlA symmetrisch ist.

4. Ist K = GF (19) der Korper mit 19 Elementen, und A =(

2 154 2

)∈M2(K) , so gilt

AAT =(

229 3838 20

)=(

1 00 1

).

Folglich ist A orthogonal. Das Minimalpolynom M(x) = x4 − 4x + 1 von A hat keineNullstelle in K. Daher hat A keine Eigenwerte.

5. Wir wollen Minimalpolynom und Jordan-Normalform der Matrix A =

0 1 0 21 0 0 12 0 2 00 0 2 0

mit Eintragen aus K = GF (3) berechnen. Hier gilt also 3 = 0 und 2 = −1 .

Page 393: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

390 15 ANHANG: GRUPPEN, RINGE UND KORPER

Bezeichnet man mit e1 den ersten Standard-Einheitsvektor (1, 0, 0, 0)T , so erhalt man

Ae1 =

0120

, A2e1 =

1011

, A3e1 =

1212

, A4e1 =

1012

.

Die Vektoren e1 , Ae1 , A2e1 sind offenbar linear unabhangig. Auch das Gleichungssystem

o = α0e1 + α1Ae1 + α2A2e1 +A3e1 hat keine Losung. Also hat das Minimmalpolynom von

A den Grad 4. Nach der ublichen Methode findet man M(x) = x4 +x3 + 2x2 +x+ 2 . DiesesPolynom hat wegen 3 = 0 die Nullstelle 2 = −1 , also folgt M(x) = (x3 − x − 1)(x + 1) .Nach Beispiel 2 ist auch der erste Faktor in dieser Zerlegung irreduzibel. Daher hat A dieJordan-Normalform

J =

0 0 1 01 0 1 00 1 0 00 0 0 2

.

Page 394: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

391

16 Anhang: Englische Terminologie und Lineare Alge-

bra mit mathematica

16.1 Englische Terminologie

Wie in der gesamten Mathematik ist die Fachliteratur uber Lineare Algebra meist in Englischgeschrieben. Daher sind im Folgenden die englischen Ubersetzungen einiger wichtiger Be-griffe aufgelistet. Weggelassen wurden offensichtliche Entsprechungen wie base, dimension,determinant, matrix, eigenvector, bilinear form, orthogonal, Hermitian und ahnliches.

adjoint adjungiertangle Winkelcanonical form Normalformcardinality Machtigkeitchain Kettecolumn Spaltecommuting vertauschbarcompanion matrix Begleitmatrixcomplete vollstandigcoset Nebenklassecountable abzahlbarcross product Vektorprodukt,

Kreuzproduktdecomposition Zerlegungdegenerate ausgeartetdegree Graddot product Skalarproduktdivisor Teilereigenvalue Eigenwertentry Eintragfield Korpergreatest common großter gemeinsa-

divisor (gcd) mer Teiler (ggT)identity element neutrales Elementidentity matrix I Einheitsmatrix Einertia Tragheitinner product Skalarproduktinner product space Vektorraum mit

Skalarproduktinteger ganzzahligintersection Durchschnittkernel Kernleast common kleinstes gemeinsa-

multiple (lcm) mes Vielfaches (kgV)line Geradelinear map lineare Abbildunglinear space Vektorraum(linear) subspace Unterraumlinear transformation lineare Abbildung

lower bound untere Schrankelower triangular untere Dreiecks-

matrix matrixmonic polynomial normiertes Polynommultiplicity Vielfachheitnull space Kernone-to-one bijektivonto surjektivoperator Endomorphismusperpendicular senkrechtplane Ebenepolynomial Polynomprincipal axis theorem Hauptachsentrans-

formationquotient space Faktorraum,

Quotientenraumradical Kern der Ausartungrange Bildraumrank Rangreflection Spiegelungrepresentation Darstellungroot Wurzel, Nullstellerotation Drehungrow Zeileseries Reihesimilar ahnlichsingular value Singularwertskew schief-square root Quadratwurzelstable under ϕ ϕ-invarianttrace Spurtranspose transponiertuncountable uberabzahlbarunion Vereinigungupper bound obere Schrankeupper triangular obere Dreiecks-

matrix matrixvector space Vektorraum

Page 395: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

392 Anhang

16.2 Lineare Algebra mit mathematica

mathematica ist naturlich nur eines von mehreren Computeralgebra-Programmen, die manfur Berechnungen in Linearer Algebra benutzen kann. Je nach Problem und Zielsetzung desBenutzers wird sich das eine oder das andere dieser Programme als zweckmaßiger erweisen.In [KM], Anhang A, findet man eine Gegenuberstellung der implementierten Algorithmen inmathematica, maple und wimat. Dort wird auch an einem Beispiel vorgefuhrt, wie man dieJordan-Normalform und die zugehorige Transformationsmatrix mit maple berechnet. Einweiteres derartiges Programm ist matlab.Im Folgenden werden ganz kurz die wichtigsten mathematica-Befehle erlautert, die man furdie Lineare Algebra benutzen kann. Weitere Erklarungen geben beispielsweise [Wol] oder[Ste].

Eingabe von Matrizen und Vektoren:

A = {{a11,. . .,a1n}, . . . {am1,. . .,amn}} Eingabe der (m× n)-MatrixA zeilenweise

v = {v1,. . .,vn} Spaltenvektor

v1...vn

Ein solcher Vektor kann nicht transponiert werden. Braucht man einen Zeilenvektor, so gebeman die einzeilige Matrix v = {{v1,. . .,vn}} ein.

DiagonalMatrix[{ d1,. . .,dn }] Diagonalmatrix diag(d1, . . . , dn)IdentityMatrix[n] (n× n)-EinheitsmatrixZeroMatrix[n] (n× n)-NullmatrixZeroMatrix[m,n] (m× n)-NullmatrixTable[f[i,j],{i,m}, {j,n}] (m× n)-Matrix mit den Eintragen f(i, j)A[[{i1,. . .,ir},{j1,. . .,js}]] die (r × s)-Teilmatrix

von A mit den Zeilen ik und den Spalten jk

Addition und Multiplikation von Matrizen und Vektoren:

v + w Summe der Vektoren v und wA + B Summe der Matrizen A und BA.v AvA.B ABc v Multiplikation des Vektors v mit dem Skalar cc A Multiplikation der Matrix A mit dem Skalar c

(16.2.1) Beispiel Eingabe von Matrizen und VektorenWir geben eine (2× 3)-Matrix A und einen Spaltenvektor v der Lange 3 ein und berechnen Av.

In[1]:= A = {{1,2,3},{4,5,6}}

Out[1]= {{1, 2, 3}, {4, 5, 6}}

In[2]:= A//MatrixForm

Out[2]//MatrixForm= 1 2 3

4 5 6

Page 396: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Lineare Algebra mit mathematica 393

In[3]:= v = {7,8,9}

Out[3]= {7, 8, 9}

In[4]:= A.v

Out[4]= {50, 122}

Im nachsten Beispiel wird die Matrix A =(

1/3√

50 e

)eingegeben, wobei e die Eulersche Kon-

stante ist. Mit dem Befehl N[A,5] werden die Eintrage dieser Matrix in Fließkommazahlen mit 5Stellen umgewandelt.

In[1]:= A = {{1/3, Sqrt[5]},{0, E}}

1Out[1]= {{-, Sqrt[5]}, {0, E}}

3

In[2]:= N[A,5]//MatrixForm

Out[2]//MatrixForm= 0.33333 2.2361

0 2.7183

Fur manche Befehle muß man ein Paket laden. Im folgenden Beispiel laden wir fur den BefehlZeroMatrix das Paket LinearAlgebra‘MatrixManipulation‘.

In[1]:= <<LinearAlgebra‘MatrixManipulation‘

In[2]:= a = ZeroMatrix[2]

Out[2]= {{0, 0}, {0, 0}}

In[3]:= b = ZeroMatrix[2,5]//MatrixForm

Out[3]//MatrixForm= 0 0 0 0 0

0 0 0 0 0

Im nachsten Beispiel bilden wir eine Teilmatrix:

In[7]:= A = {{1,2,3,4},{5,6,7,8},{9,10,11,12},{13,14,15,16}}

In[8]:= A//MatrixForm

Out[8]//MatrixForm= 1 2 3 4

5 6 7 8

9 10 11 12

13 14 15 16

In[10]:= B = A[[{1,3},{1,3,4}]]//MatrixForm

Out[10]//MatrixForm= 1 3 4

9 11 12

Schließlich geben wir zwei Matrizen ein, deren Eintrage durch Funktionen gegeben werden:

In[17]:= f[x_,y_] := x^2 + y^2

In[21]:= A = Table[f[i,j],{i,2},{j,3}]//MatrixForm

Page 397: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

394 Anhang

Out[21]//MatrixForm= 2 5 10

5 8 13

In[30]:= f[x_] := (-1)^x

In[31]:= B = Table[f[i+j],{i,3},{j,3}]//MatrixForm

Out[31]//MatrixForm= 1 -1 1

-1 1 -1

1 -1 1

Operationen mit Matrizen:

Transpose[A] AT

Sum[A[[i,i]],{i,Length[A]}] Tr(A)Inverse[A] A−1

PseudoInverse[A] A+

MatrixPower[A,n] An

Det[A] det(A)Det[x IdentityMatrix[Length[A]] - A] charakt. Polynom von ACharacteristicPolynomial[A,x] charakt. Polynom von ANullSpace[A] Kern(A)Eigenvalues[A] Eigenwerte von AEigenvectors[A] Eigenvektoren von AJordanDecomposition[A] Jordan-Normalform von ASingularValues[N[A]] Singularwertzerlegung von ACholeskyDecomposition[A] Cholesky-Zerlegung von AQRDecomposition[N[A]] QR-Zerlegung von ATable[Minors[A,k][[i,i]],{i,Length[A]}] Liste der (k × k)-Hauptminoren von A

Weitere Befehle:

Cross[v1,v2] Vektorprodukt v1 × v2

RowReduce[A] bringt A auf Treppenform durchelementare Zeilenumformungen

PolynomialGCD[f,g] ggT der Polynome f und gPolynomialLCM[f,g] kgV der Polynome f und gFactor[f] faktorisiert das Polynom fLinearSolve[A,b] findet eine Losung von Ax = bGramSchmidt[{v1,v2,...,vn}] orthonormalisiert das

Vektorsystem {v1, . . . , vn}

Rechnen mit Polynomen uber einem endlichen Korper GF (p): Ist p eine Prim-zahl, so kann man die Elemente des Korpers GF (p) mit p Elementen als 0, 1, . . . , p − 1darstellen und mit ihnen modulo p rechnen. mathematica kann Polynome mit ganzzahligenKoeffizienten modulo p reduzieren und diese Polynome in GF (p)[x] faktorisieren.

Page 398: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Lineare Algebra mit mathematica 395

PolynomialMod[f,p] reduziert das Polynom f modulo pPolynomialGCD[f,g,Modulus->p] ggT der Polynome f und g modulo pPolynomialLCM[f,g,Modulus->p] kgV der Polynome f und g modulo pFactor[f,Modulus->p] faktorisiert das Polynom f modulo p

(16.2.2) Bemerkungen

1. Fur eine Matrix A ∈Mn(C) gibt der Befehl Eigenvalues[A] immer eine Liste von n Eigen-werten von A zuruck. Mehrfache Eigenwerte werden entsprechend ihrer Vielfachheit angege-ben. Fur eine reelle Matrix A werden auch alle komplexen Eigenwerte angegeben.

2. Ebenso berechnet Eigenvectors[A] auch Eigenvektoren einer reellen Matrix A.

3. CharacteristicPolynomial[A] berechnet die Determinante |A− xE|, also fur ungerades ndas charakteristische Polynom −χA. Mit Det[x IdentityMatrix[Length[A]] - A] dage-gen erhalt man fur alle Dimensionen n das charakteristische Polynom χA, wie es in Abschnitt(9.1) definiert wurde.

4. JordanDecomposition[A] berechnet die Jordan-Normalform und die zugehorige Transfor-mationsmatrix nur uber dem Korper C.Mit {S,J} = JordanDecomposition[A] speichert man die Transformationsmatrix in S unddie Jordan-Normalform in J . Die Verkettungseinsen erscheinen dabei auf der oberen Neben-diagonalen.

5. {U,s,V} = SingularValues[N[A]] liefert fur eine reelle MatrixA eine SingularwertzerlegungA = UTΣV , mit Σ = DiagonalMatrix[s]. Dabei ist s eine in absteigender Große sortierteListe der Singularwerte σj 6= 0 von A. Die Matrizen U und V sind nicht notwendig quadra-tisch, auch bei quadratischem A. Da die Zerlegung numerisch berechnet wird, mussen dieEintrage von A Fließkommazahlen sein.

6. Die QR-Zerlegung QRDecomposition wird ebenfalls numerisch berechnet.

7. CholeskyDecomposition[A] berechnet exakt die Cholesky-Zerlegung einer reellen, symme-trischen positiv semidefiniten Matrix. Fur diesen Befehl braucht man das PaketLinearAlgebra‘Cholesky‘.

8. Fur den Befehl Cross lade man das Paket LinearAlgebra‘CrossProduct‘. Die Vektorenv1, v2 mussen reelle dreidimensionale Vektoren sein.

9. Der Befehl LinearSolve berechnet wirklich nur eine Losung des Gleichungssystems Ax = b,falls eine solche existiert. Falls die Losung nicht eindeutig bestimmt ist, muß man den KernNullSpace[A] berechnen und mit LinearSolve[A,b] eine spezielle Losung des inhomogenenSystems.

10. Wird Factor auf ein ganzzahliges Polynom f angewandt, so faktorisiert mathematica dasPolynom f in Z[x], gibt also, falls f normiert ist, damit gleichzeitig eine Zerlegung von f inirreduzible Teiler in Q[x] an (vgl. Abschnitt 4.2).

11. Fur den Befehl GramSchmidt lade man das Paket LinearAlgebra‘Orthogonalization‘. Dieeingegebenen Vektoren durfen nicht linear abhangig sein.

Page 399: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

396 Anhang

(16.2.3) Beispiel Jordan-NormalformDas Rechnen mit mathematica soll anhand einer Beispielsitzung fur die Berechnung der Jordan-

Normalform und einer zugehorigen Transformationsmatrix von

A =

−4 5 −2 1−2 0 −2 0

2 −4 0 −13 2 5 0

∈M4(R)

(vgl. Beispiele (6.4.2) und (6.4.2)) erlautert werden.Zuerst wird die Matrix A eingegeben und die Eingabe uberpruft:

In[1]:=A = {{-4,5,-2,1},{-2,0,-2,0},{2,-4,0,-1},{3,2,5,0}}

Out[1]= {{-4, 5, -2, 1}, {-2, 0, -2, 0}, {2, -4, 0, -1}, {3, 2, 5, 0}}

In[2]:= A//MatrixForm

Out[2]//MatrixForm= -4 5 -2 1

-2 0 -2 0

2 -4 0 -1

3 2 5 0

Dann wird das charakteristische Polynom cp von A berechnet und in seine irreduziblen Faktorenzerlegt:

In[3]:= E4 = IdentityMatrix[4]

Out[3]= {{1, 0, 0, 0}, {0, 1, 0, 0}, {0, 0, 1, 0}, {0, 0, 0, 1}}

In[4]:= cp = Det[x E4 - A]

2 3 4Out[4]= 4 + 8 x + 8 x + 4 x + x

In[5]:= Factor[cp]

2 2Out[5]= (2 + 2 x + x )

Das Minimalpolynom hat also wie das charakteristische Polynom nur einen irreduziblen TeilerP (x) = x2 + 2x+ 2. Die zugehorige Begleitmatrix ist(

0 −21 −2

).

Aus Dimensionsgrunden mussen zwei solcher Begleitmatrizen in der Jordan-Normalform vorkom-men. Es ist nur noch zu klaren, ob sie verkettet sind. Das ist hier genau dann der Fall, wenn dasMinimalpolynom gleich dem charakteristischen Polynom cp ist, also wenn B = A2 + 2A+E nichtdie Nullmatrix ist.

In[6]:= B = MatrixPower[A,2] + 2 A + 2 E4

Out[6]= {{-1, 0, -1, 0}, {0, 0, 0, 0}, {1, 0, 1, 0}, {0, -1, 0, 0}}

Page 400: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Lineare Algebra mit mathematica 397

Offensichtlich ist B nicht die Nullmatrix. Daher hat A die Jordan-Normalform

JR =

0 −2 0 01 −2 0 00 1 0 −20 0 1 −2

.

Eine Basis, bezuglich derer der von A beschriebene Endomorphismus die Koeffizientenmatrix JRhat, wird jetzt mit (6.1.6) berechnet. Hier ist das Minimalpolynom M das Quadrat des irredu-ziblen Polynoms P = x2 + 2x + 2 mit grad(M) = 4 = dim(V ). Daher ist V ein A-zyklischerVektorraum, und wie in Teil (i) des Beweises zu (6.1.6) starten wir mit einem Vektor v1, so daßV = 〈v1, Av1, A

2v1, A3v1〉. Ein solcher Vektor muß außerhalb des Kerns von P (A) = B liegen.

In[7]:= NullSpace[B]

Out[7]= {{0, 0, 0, 1}, {-1, 0, 1, 0}}

Der Vektor v1 = (1, 0, 0, 0)T scheint nicht in Kern(B) zu liegen. Wir uberprufen das mit

In[8]:= v1 = {1,0,0,0}

Out[8]= {1, 0, 0, 0}

In[9]:= B.v1

Out[9]= {-1, 0, 1, 0}

Jetzt konnen wir die neue Basis {v1, v2 = Av1, v3 = P (A)v1, v4 = AP (A)v1} von V berechnen:

In[11]:= v2 = A.v1

Out[11]= {-4, -2, 2, 3}

In[12]:= v3 = B.v1

Out[12]= {-1, 0, 1, 0}

In[14]:= v4 = A.B.v1

Out[14]= {2, 0, -2, 2}

Diese vier Vektoren werden nun als Spalten in die Transformationsmatrix S eingetragen. Weilmathematica die in einer Liste angegebenen Vektoren als Zeilen von S interpretiert, mussen wir dieTransponierte verwenden:

In[15]:= S = Transpose[{v1,v2,v3,v4}]

Out[15]= {{1, -4, -1, 2}, {0, -2, 0, 0}, {0, 2, 1, -2}, {0, 3, 0, 2}}

In[16]:= S//MatrixForm

Out[16]//MatrixForm= 1 -4 -1 2

0 -2 0 0

0 2 1 -2

0 3 0 2

Kontrolle des Ergebnisses durch Berechnung von S−1AS:

Page 401: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

398 Anhang

In[18]:= J = Inverse[S].A.S//MatrixForm

Out[18]//MatrixForm= 0 -2 0 0

1 -2 0 0

0 1 0 -2

0 0 1 -2

Zum Vergleich berechnen wir die Jordan-Normalform von A uber C mit dem BefehlJordanDecomposition[A]:

In[19]:= {S,J} = JordanDecomposition[A]

1 I 9 I 1 I 9 IOut[19]= {{{- + -, -3 + ---, - - -, -3 - ---}, {0, 2 I, 0, -2 I},

2 2 2 2 2 2

1 I 7 I 1 I 7 I> {-(-) - -, 2 - ---, -(-) + -, 2 + ---}, {1, 0, 1, 0}},

2 2 2 2 2 2

> {{-1 - I, 1, 0, 0}, {0, -1 - I, 0, 0}, {0, 0, -1 + I, 1},

> {0, 0, 0, -1 + I}}}

Der Ubersichtlichkeit wegen lassen wir uns die Transformationsmatrix S und die Jordan-NormalformJ noch einmal in Matrix-Form anzeigen:

In[20]:= S//MatrixForm

Out[20]//MatrixForm= 1 I 9 I 1 I 9 I- + - -3 + --- - - - -3 - ---2 2 2 2 2 2

0 2 I 0 -2 I

1 I 7 I 1 I 7 I-(-) - - 2 - --- -(-) + - 2 + ---

2 2 2 2 2 2

1 0 1 0

In[21]:= J//MatrixForm

Out[21]//MatrixForm= -1 - I 1 0 0

0 -1 - I 0 0

0 0 -1 + I 1

0 0 0 -1 + I

Zur Kontrolle berechnen wir hier SJS−1 = A:

In[24]:= S.J.Inverse[S]//MatrixForm

Out[24]//MatrixForm= -4 5 -2 1

-2 0 -2 0

2 -4 0 -1

3 2 5 0

Page 402: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Lineare Algebra mit mathematica 399

(16.2.4) Beispiel mathematica kann auch mit Symbolen rechnen:

In[1]:= A = {{a,b},{c,d}}

Out[1]= {{a, b}, {c, d}}

In[3]:= Inverse[A]//MatrixForm

Out[3]//MatrixForm= d b------------ -(------------)-(b c) + a d -(b c) + a d

c a-(------------) -------------(b c) + a d -(b c) + a d

In[4]:= cp = CharacteristicPolynomial[A,x]

2Out[4]= -(b c) + a d - a x - d x + x

In[5]:= Eigenvalues[A]

2a + d - Sqrt[(-a - d) - 4 (-(b c) + a d)]

Out[5]= {------------------------------------------,2

2a + d + Sqrt[(-a - d) - 4 (-(b c) + a d)]

> ------------------------------------------}2

Wenn das Ergebnis jedoch von der speziellen Wahl von a, b, c, d abhangt, wie zum Beispiel dieFaktorisierung des charakteristischen Polynoms in irreduzible Teiler oder der Kern von A, so kannmathematica kein sinnvolles Ergebnis liefern.

In[6]:= Factor[cp]

2Out[6]= -(b c) + a d - a x - d x + x

In[7]:= NullSpace[A]

Out[7]= {}

Page 403: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

400 Literatur

Literatur: Lehrbucher und Monographien

[Axl] Axler, S.: Linear Algebra done right, Springer 1995

[Bra] Brandl, R.: Vorlesungen uber Analytische Geometrie, Brandl 1996

[FF] Faddejev, D.K. / Faddejeva, W.N.: Numerische Methoden der linearen Algebra,Oldenbourg 1964

[FK] Fischer, H. / Kaul, H.: Mathematik fur Physiker, Band 1, Teubner 1990

[GL] Golub, G.H. / van Loan, C.F.: Matrix computations, John Hopkins University Press1993

[Hal] Halmos, P.: Naive Mengenlehre, Vandenhoek und Ruprecht 1976

[Heu] Heuser, H.: Lehrbuch der Analysis I, Teubner 1991

[HJ] Horn, R.A. / Johnson, C.A.: Matrix Analysis, Cambridge University Press 1985

[Hup] Huppert, B.: Angewandte Lineare Algebra, de Gruyter 1990

[Jac] Jacobson, N.: Basic Algebra I/II, Freeman 1974/1980

[Jec] Jech, T.J.: The axiom of choice, North Holland 1973

[KM] Kowalsky, H.J. / Michler, G: Lineare Algebra, de Gruyter 1995

[Koe] Koecher, M.: Lineare Algebra und analytische Geometrie, Springer 1992

[Lor] Lorenz, F.: Lineare Algebra I/II, BI-Wissenschafts-Verlag 1988

[Lue] Luneburg, H.: Vorlesungen uber lineare Algebra, BI-Verlag 1993

[Mey] Meyberg, K.: Algebra 1 / 2, Hanser 1980/1976

[NT] Naas, J. / Tutschke, W.: Große Satze und schone Beweise der Mathematik,Harri Deutsch 1989

[Par] Parlett, B.N.: The symmetric eigenvalue problem, Prentice Hall 1980

[Sch] Scharlau, W.: Quadratic and Hermitian Forms, Springer 1985

[SS] Scheja, G. / Storch, U.: Lehrbuch der Algebra II, Teubner 1988

[Ste] Stelzer, E.H.K: Mathematica, Addison-Wesley 1993

[SB] Stoer, J. / Bulirsch, R.: Einfuhrung in die numerische Mathematik I/II, Springer 1978

[Wol] Wolfram, S.: The Mathematica book, Cambridge University Press 1996

[Zie] Zieschang, H.: Lineare Algebra und Geometrie, Teubner 1997

Page 404: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Literatur 401

Literatur: Aufsatze

[1] Anderson, B.D.O.:, Orthogonal decomposition defined by a pair of skew-symmetric forms,Lin. Alg. Appl. 8 (1974), 91-93

[2] Archinard, G.: Formes quadratiques reelles semi-definies. Demonstration elementaire ducritere des mineurs principeaux, Elem. Math. 42 (1987), 25-31

[3] Barrett, W.W.: A theorem on inverses of tridiagonal matrices, Lin. Alg. Appl. 27 (1979),211–217

[4] Bhaskara Rao, K.P.S. / Ramachandra Rao, A.: Unions and complements of sub-spaces, Amer. Math. Monthly 98 (1991), 127–131

[5] Brenner, H.: Ein uberabzahlbares, uber Q linear unabhangiges System reeller Zahlen,Math. Semesterber. 39 (1992), 89–93

[6] Carlson, D.: On real eigenvalues of complex matrices, Pacific J. Math. 15 (1965), 1119–1129

[7] Davis, R.A.: More on similarity of matrices, Amer. Math. Monthly 88 (1981), 761–762

[8] Dittmer, A.: Cross product identities in arbitrary dimension, Amer. Math. Monthly 101(1994), 887-891

[9] Djokovic, D.Z.: Product of two involutions, Archiv Math. 18 (1967), 582–584

[10] Ericksen, W.S.: The intersection of subspaces, Amer. Math. Monthly 81 (1974), 159–160

[11] Falkner, N.: A characterization of inner product spaces, Amer. Math. Monthly 100 (1993),246–249

[12] Ficken, F.A.: Note on the existence of scalar products in normed linear spaces, Ann. Math.(2) 45 (1944), 362–366

[13] Frobenius, G.F.: Uber die mit einer Matrix vertauschbaren Matrizen, Sitzungsber. Kgl.Preuss. Akad. Wiss. 1910, 3–15

[14] George, A. / Ikramov, Kh.: Is the polar decomposition finitely computable?, SIAM J.Matrix Anal. Appl. 17, (1996), 348–354Addendum: SIAM J. Matrix Anal. Appl. 18, (1997), 264

[15] Gerstein, L.J.:, A new algorithm for computing the rank of a matrix Amer. Math. Monthly95 (1988), 950–952

[16] Grone, R. / Johnson, C.R. / Sa, E.M. / Wolkowicz, H.: Normal matrices, Lin. Alg.Appl. 87 (1987), 213–225

[17] Haley, S.B.: Solution of band matrix equations by projection-recurrence, Lin. Alg. Appl.32 (1980), 33–48

[18] Hamel, G.: Eine Basis aller Zahlen und die unstetigen Losungen der Funktionalgleichungf(x+ y) = f(x) + f(y), Math. Ann. 60 (1905), 459–462

[19] Heineken, H.:, Vektorraume mit mehreren antisymmetrischen Bilinearformen, ArchivMath. 18 (1967), 449-455

[20] Hong, Y.P. / Horn, R.A.: On simultaneous reduction of families of matrices to triangularor diagonal form by unitary congruences, Lin. Multilin. Alg. 17 (1985), 271-288

Page 405: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

402 Literatur

[21] Horn, R.A. / Olkin, I.: When does A∗A = B∗B and why does one want to know?, Amer.Math. Monthly 103 (1996), 470-482

[22] Ibarra, O. / Moran S. / Rosier, L.E.:, A note on the parallel complexity of computingthe rank of order n matrices, Information Processing Letters 11 (1980), 162

[23] Ikebe, Y.: On inverses of Hessenberg matrices, Lin. Alg. Appl. 24 (1979), 93–97

[24] Kirsch, A: Beziehungen zwischen der Additivitat und der Homogenitat von Vektorraum-abbildungen, Math.-Phys. Semesterber. 25 (1978), 207–210

[25] Klinger, A.: The Vandermonde matrix, Amer. Math. Monthly 74 (1967), 571–574

[26] Lewin, J.: A simple proof of Zorn’s lemma, Amer. Math. Monthly 98 (1991), 353–354

[27] Liebeck, H. / Osborne, A.: Orthogonal bases of R3 with integer coordinates and integerlengths, Amer. Math. Monthly 96 (1989), 49–53

[28] Liebeck, H. / Osborne, A.: The generation of all rational orthogonal matrices, Amer.Math. Monthly 98 (1991), 131–133

[29] Luh, J.: On the representation of vector spaces as finite unions of subspaces, Acta Math.Acad. Sci. Hungar. 23 (1972), 341–342

[30] Macon, N. / Spitzbart, A.: Inverses of Vandermonde matrices, Amer. Math. Monthly65 (1958), 95–100

[31] Marsaglia, G. / Styan, P.H.: When does rank(A+ B) = rank(A) + rank(B)?, Canad.Math. Bull. 15 (1972), 451–452

[32] Marsaglia, G. / Styan, G.: Equalities and inequalities for ranks of matrices, Lin. Mul-tilin. Algebra 2 (1974), 269–292

[33] Mathes, B. / Omladic, M. / Radjavi, H.: Linear spaces of nilpotent matrices Lin. Alg.Appl. 149 (1991), 215–225

[34] Mayne, D.Q.: On the calculation of pseudoinverses, IEEE Trans. Autom. Contr. AC-14(1969), 204-205

[35] Mayr, U.: Zur Definition der linearen Abbildung, Math.-Phys. Semesterber. 26 (1979),216–222

[36] Menth, M.: Feinste Unterraumketten in unendlich-dimensionalen Vektorraumen, Math.Semesterber. 43 (1996), 123-130

[37] Miller, K.S.: On the inverse of the sum of matrices, Math. Magazine 54 (1981), 67–72

[38] Mornhinweg, D. / Shapiro, D.B. / Valente, K.G.: The principal axis theorem overarbitrary fields Amer. Math. Monthly 100 (1993), 749-754

[39] Mulmuley, K.: A fast parallel algorithm to compute the rank of a matrix over an arbitraryfield, Combinatorica 7 (1987), 101–104

[40] Price, G.B.: Bounds for determinants with dominant principal diagonal,Proc. Amer. Math. Soc. 2 (1951), 497–502

[41] Pursell, L. / Trimble, S.Y. Gram-Schmidt orthogonalization by Gauss elimination,Amer. Math. Monthly 98 (1992), 544-549

[42] Rice, J.R.: Experiments on Gram-Schmidt orthogonalization, Math. Comp. Tables 20(1966), 325-328

Page 406: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Literatur 403

[43] Rizvi, S.A.H.: Inverses of quasitridiagonal matrices, Lin. Alg. Appl. 56 (1984), 177–184

[44] Schmeisser, G.: A real symmetric tridiagonal matrix with a given characteristic polyno-mial, Lin. Alg. Appl. 193 (1993), 11-18

[45] Scott, N.H.: A new canonical form for complex symmetric matrices, Proc. Royal Soc.London, Series A (Math. Phys. Sci.) 441 (1993), 625–640

[46] Shoda, K.: Uber die mit einer Matrix vertauschbaren Matrizen, Math. Z. 29 (1929),696–712

[47] Smith, O.K.: Eigenvalues of a symmetric (3× 3)-matrix, Comm. ACM 4 (1961), 168

[48] Stenzel, H.: Uber die Darstellung einer Matrix als Produkt von zwei symmetrischen Ma-trizen, Math. Z. 15 (1922), 1–25

[49] Tagaki, T.: On an algebraic problem related to an analytic theorem of Caratheodory andFejer and on an allied theorem of Landau, Japan. J. Math. 1 (1924), 83-93

[50] Taussky, O. / Zassenhaus, H.: On the similarity transformation between a matrix andits transpose, Pacific J. Math. 9 (1959), 893–896

[51] Tevan, Gy. / Vincze, E.: Beitrag zur Theorie der Charakterisierung der Determinanten-funktionen, Publ. Math. Debrecen 15 (1968), 79–86

[52] Tingley, D.: Complements of linear subspaces, Math. Magazine 64 (1991), 98–103

[53] Todd, A.: Covers by linear subspaces, Math. Magazine 63 (1990), 339–342

[54] Uhlig, F.: Explicit polar decomposition and a near-characteristic polynomial: The 2 × 2case, Lin. Alg. Appl. 38 (1981), 239-249

[55] Ulbrich, K.H.: Uber Endomorphismen, deren Minimalpolynom mit dem charakteristischenPolynom ubereinstimmt, J. Reine Angew. Math. 299/300 (1978), 385–387

[56] Watkins, W.: Similarity of matrices, Amer. Math. Monthly 87 (1980), 300

[57] Wild, J.: Right and left orthogonality, Canad. Math. Bull. 4 (1961), 182-184

[58] Winter, J.L.: The matrix equation Xn = A, J. Algebra 67 (1980), 82-87

[59] Zassenhaus, H.: Characterization of unipotent matrices, J. Number Theory 1 (1969),222-230

[60] Zick, W.: Lineare Abbildungen in reellen Vektorraumen, Math. Semesterber. 30 (1983),167–170

[61] Zielke, G.: Lineare Gleichungssysteme und verallgemeinerte Inversen: Grundlagen undnumerische Verfahren, Wiss. Z. Univ. Halle-Wittenberg, mathemat.-naturw. Reihe 40(1991), 45-59

Page 407: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Index(ξ1, . . . , ξn)T , 10C(R), 11C[0, 1], 236, 269, 270GF (pd), 389GL(n,K), 87GL(n,R), 319Hom(V,W ), 69K(x), 383K[x], 132, 383M(m× n,K),Mn(K), 76m-Volumen, 326, 327O(n,R), 319R[x], 20, 65, 66RR, 11Rn[x], 20<v , w> , 269Spat(s1, . . . , sn), 326√A, 308

T1(Mn(K)), 196Tr(A), 225ϕ-Hauptreihe, 230ϕ-Reihe, 230ϕ-irreduzibel, 153ϕ-isomorphe ϕ-Reihen, 230ϕ-isomorphe Faktorraume, 229ϕ-unzerlegbar, 153ϕ-zyklisch, 146

abelsche Gruppe, 376Abstand eines Vektors von einem Unterraum,

334Abstand zweier Vektoren, 334abzahlbar, 55additive Gruppe, 379Additivitat, 99adjungierte Abbildung, 302Adjunkte, 217aquivalente Matrizen, 93aquivalente Normen, 282, 283Aquivalenzrelation, 366ahnliche Matrizen, 94, 205, 219, 226, 297algebraische Vielfachheit, 163, 176, 223anisotrope Form, 247Annullator, 73ausgeartete Bilinearform, 247Austauschsatz von Steinitz fur endlich erzeug-

te Vektorraume, 29, 30, 124

Austauschsatz von Steinitz fur beliebige Vek-torraume, 57

Auswahlfunktion, 372Auswertungslinearform, 72

Banachraum, 286Basis, 25, 30, 41, 51, 56Basis, Charakterisierung, 26Basis, duale, 71Basis, geordnete, 35Basis, kanonische, 75Basis, ungeordnete, 24Basiserganzungssatz, 52Basiswechsel, Bilinearform, 241Basiswechsel, hermitesche Form, 245Basiswechsel, lineare Abbildung, 92, 93Begleitmatrix, 167Betrag eines Vektors, 277Bidualraum, 71, 72bijektiv, 53Bild einer linearen Abbildung, 65Bilinearform, 236Bilinearform, alternierende, 239, 271–273Bilinearform, schiefsymmetrische, 239, 271–

273Bilinearform, symmetrische, 239, 257Block-Diagonalmatrix, 185Block-Dreiecksmatrix, 212Blockmatrix, 80, 185, 341

Cantor, Satz, 55Cauchy-Darboux, Funktionalgleichung, 58Cauchy-Folge, 283Cauchy-Schwarz, Ungleichung, 278, 324Cayley-Hamilton, Satz, 222, 232Charakteristik eines Korpers, 386Charakteristik eines Rings, 386charakteristische Matrix, 219charakteristisches Polynom, 219, 223, 226, 231,

233, 348, 353–355, 395charakteristisches Polynom, lineare Abbildung,

220Cholesky-Zerlegung, 362, 395Cosinussatz, 325Cramer, Regel, 215

Dedekind, Modulargesetz, 14Defekt einer linearen Abbildung, 65, 66

404

Page 408: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Index 405

definit, 264Determinante, 200, 205, 226, 350, 395Determinante, geometrische Bedeutung, 328,

330Determinante, Produkt von Matrizen, 205Determinante, Rechenregeln, 205Determinantenfunktion, 201, 202, 204Determinantenteiler, 226diagonalisierbar, 194Diagonalisierung, kongruente, 257, 260Diagonalmatrix, 75, 393Differentialgleichung, lineare, 111Differentiation, 65, 66, 111, 145Differenzengleichung, 111Dimension, 28Dimension, uberabzahlbare, 56Dimension, abzahlbar unendliche, 56Dimensionsinvarianz, 27, 56Dimensionssatz fur lineare Abbildungen, 67Dimensionssatz fur Unterraume, 32direkte Summe, außere, 103, 105direkte Summe, innere, 15, 16direktes Produkt, 105direktes Produkt von Vektorraumen, 103Distributivgesetz, 382Division mit Rest, 134, 140Djokovic, Satz, 189Drehebene in R3, 322Drehspiegelung, 322Drehung, 321Dreiecksmatrix, 192, 193, 209, 218, 363Dreiecksmatrix, obere, 192Dreiecksmatrix, untere, 192Dualitat, 73Dualraum, 71, 72, 105Durchschnitt von Unterraumen, 12Durchschnitt zweier Unterraume, 45, 48

Eigenraum, 90Eigenraum, verallgemeinerter, 155, 310eigentlich orthogonal, 321Eigenvektor, 89, 194, 302, 395Eigenwert, 89, 146, 226, 301, 316, 395Einheit, 384Einheitengruppe, 385Einheitsmatrix, 78Einheitswurfel, 327Einsetzungskriterium, 141Eisenstein, Kriterium, 141

elementare Spaltenumformung, 41, 44, 82, 202,209

elementare Umformungen eines Vektorsystems,36, 81

elementare Zeilenumformung, 41, 44, 82, 209Endomorphismen, vertauschbare, 71Endomorphismus, 64Endomorphismus halbeinfacher, 198Endomorphismus, halbeinfacher, 197, 199Endomorphismus, idempotenter, 98Endomorphismus, nilpotenter, 199Epimorphismus, kanonischer, 127Erganzungsverfahren, Matrixinvertierung, 343Erzeugendensystem, 18, 41Erzeugendensystem, minimales, 24Erzeugnis eines Gruppenelements, 380Erzeugnis eines Vektors, 11Erzeugnis eines Vektorsystems, 18euklidische Norm, 279Euklidischer Algorithmus, 137

fuhrende Haupt-Teilmatrix, 266fuhrender Hauptminor, 266fuhrender Koeffizient, 133Faktorraum, 125, 126, 256Faktorraum, Basis, 127Faktorraum, Dimension, 127Fitting, Satz, 233Flache, 326Fourierkoeffizient, 339Fredholmsche Alternative, 113Fredholmsche Alternative, Hauptfall, 113, 114Frobenius, Rangungleichung, 130Frobenius-Norm, 287Frobenius-Normalform, 169Fundamentalmatrix, 236, 238, 243Fundamentalsatz der Algebra, 142

Gauß, Kriterium, 141Gauß-Elimination, 34Gauß-Elimination, Gram-Schmidt, 291Gauß-Elimination, Losung eines

Gleichungssystems, 116, 119, 120Gauß-Elimination, Rangbestimmung, 39Gauß-Elimination, Rangbestimmung, 350geometrische Vielfachheit, 157, 176Gerade, 8gerade Funktion, 17Gershgorin, Satz, 181Gerstein, Rangbestimmung, 350, 351

Page 409: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

406 Index

ggT (großter gemeinsamer Teiler), 136gleichmachtig, 54Gleichungssystem, eindeutige Losbarkeit, 114Gleichungssystem, homogenes, 110Gleichungssystem, inhomogenes, 110Gleichungssystem, Koeffizientenmatrix, 110Gleichungssystem, Losbarkeit, 114Gleichungssystem, lineares, 110, 215, 395Gleichungssystem, universelle Losbarkeit, 114großter gemeinsamer Teiler, 136Grad eines Polynoms, 133Gradregeln fur Polynome, 134Gram-Schmidt, Orthonormalisierung, 289, 291,

292, 395Gram-Schmidt, Orthonormalisierung,

modifizierte, 293Gramsche Determinante, 267Gramsche Matrix, 238Gruppe, 87, 196, 376

Halbordnung, 369Hamel-Basis, 58Haupt-Teilmatrix, 266Hauptachsentransformation, 313Hauptminor, 266, 268, 395hermitesche Form, 243, 257Hessenbergmatrix, 344, 345Hilbertraum, 286homogene Gleichung, allgemeiner Losung, 112Homogenitat, 99Homomorphiesatz fur lineare Abbildungen, 128Homomorphismus, 64Homothetie, 65Hurwitz, Tragheits-Kriterium, 267

identische Abbildung idV , 65Ikebe, Algorithmus, 345Ikebe, Satz, 344induzierte Abbildung, 129, 256induzierte Bilinearform, 256induzierte hermitesche Form, 256inhomogene Gleichung, spezielle Losung, 112injektiv, 53, 66, 67inneres Produkt, 269Integralgleichung, 111Integralnorm, 285inverse Matrix, 152Involution, 188, 189Isomorphismus, 64, 68isotroper Vektor, 247, 249

Jordan-Normalform, 169, 297, 302, 395, 397Jordan-Normalform, Berechnung, 169Jordanblock, 169

Kastchenformel, Determinante, 212Kastchenformel, Matrixinversion, 341Kastchensatz, charakteristisches Polynom, 222Korper, 382Korper, endlicher, 389, 395kanonische Injektion, 104kartesisches Produkt, 102, 366Kegelschnitt, 241Kern der Ausartung einer Bilinearform, 247,

250, 256Kern einer linearen Abbildung, 65, 66, 256Kern einer Matrix, 308, 395Kern, Berechnung, 121, 124Kette, 370kgV (kleinstes gemeinsames Vielfaches), 136kleinstes gemeinsames Vielfaches, 136Koeffizientenmatrix, 75Koeffizientenmatrix, erweiterte, 113, 116Kofaktor, 217kogrediente Matrizen, 241kommutativer Ring, 383Kommutativitat des Korpers, 69Komplement, 17, 31, 53Komplement, gemeinsames, 63Komplementarraum, 17Komponente, 35kongruente Matrizen, 241, 264konjugiert-kongruent, 245konvergente Folge, 281Koordinate, 6, 35Koordinatentupel, 35Koordinatenursprung, 6Kreuzprodukt im R

3, 330Kronecker-Delta, 289

Lange einer Reihe, 230Lange eines Vektors, 276, 277losbar durch Radikale, 358Lagrange, Satz, 380Lagrange-Interpolation, 212Lagrange-Polynom, 212Laplace, Entwicklungssatz, 208leere Summe, 17Leverrier, charakteristisches Polynom, 354, 355linear unabhangig, 327linear unabhangige Teilmenge, maximale, 25

Page 410: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Index 407

lineare Abbildung, 64lineare Abhangigkeit von Vektoren, 20lineare Gleichung, eindeutige Losbarkeit, 112lineare Mannigfaltigkeit, 108lineare Selbstabbildung, 64lineare Unabhangigkeit von Vektoren, 20linearen Gleichung, Losungsmenge, 112Linearform, 71, 235Linearkombination, 17LU-Zerlegung, 292, 363–365lub-Norm, 287

Machtigkeit einer Menge, 27Matrix, 36, 393Matrix, derogatorische, 223Matrix, diagonal-dominante, 214Matrix, diagonalisierbare, 164, 165Matrix, ganzzahlige, 217Matrix, hermitesche, 301, 306, 348, 349Matrix, inverse, 86, 188, 189, 205, 216–218,

395Matrix, invertierbare, 86Matrix, komplexe, 356, 358, 360Matrix, nichtderogatorische, 223Matrix, nilpotente, 195Matrix, normale, 295, 301, 302, 304, 309, 310Matrix, orthogonale, 294, 295, 313Matrix, orthogonale (2× 2), 321Matrix, positiv definite, 265, 266, 306, 308Matrix, positiv semidefinite, 265, 266, 306,

308, 356, 362, 363Matrix, quadratische, 76Matrix, reelle, 358, 360Matrix, reelle orthogonale, 320Matrix, reelle symmetrische, 313, 316, 349Matrix, regulare, 86Matrix, schiefhermitesche, 301Matrix, singulare, 86Matrix, symmetrische, 80, 186, 188Matrix, transponierte, 80, 185, 186, 188, 205,

395Matrix, unipotente, 196Matrix, unitar diagonalisierbare, 300Matrix, unitar triangualisierbare, 298Matrix, unitare, 294, 295, 301Matrix, unitriangulare, 196, 363Matrixaddition fur Blockmatrizen, 80Matrixmultiplikation fur Blockmatrizen, 80Matrixnorm, 286

Matrizen, simultan unitar diagonalisierbare,304

Matrizenaddition, 77Matrizenmultiplikation, 78maximales Element, 367Maximum, 367Maximumsnorm, 279minimales Element, 367Minimalpolynom, 144, 149, 150, 154, 223Minimalpolynom, irreduzibles, 156Minimalpolynom, Potenz eines

irreduziblen Polynoms, 157–159, 166Minimalpolynom, Produkt von Linearfakto-

ren, 192, 193Minimalpolynom, Produkt von verschiedenen

Linearfaktoren, 194Minimum, 367Minor, 217, 266Moore-Penrose-Inverse, 340, 395Morseindex, 264Multilinearform, 235Multilinearform, alternierende, 201multiplikative Gruppe, 379

Nebenklasse eines Unterraums, 108negativ definit, 264negativ semidefinit, 264Newton, Formeln, 353nicht-isotroper Vektor, 258Norm, 278Norm einer Matrix, 286Norm eines Vektors, 276normaler Endomorphismus, 303, 304Normalform, rationale, 169Normalform, reelle, 179, 181normierter Vektor, 289Nullabbildung, 64Nullform, 235, 249Nullraum, 11Nullteiler, 384numerische Lineare Algebra, 341

obere Schranke, 367Ordnung, 367Ordnung einer Gruppe, 380Ordnung eines Gruppenelements, 377Ordnungen auf C, 374Ordnungsrelation, 366orthogonal, 247orthogonal ahnliche Matrizen, 297

Page 411: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

408 Index

orthogonale Ahnlichkeit, 310orthogonale Gruppe, 319orthogonaler Unterraum, 251–254orthogonales Komplement, 250–254, 259, 269Orthogonalprojektion, 334, 337Orthogonalprojektion, Berechnung, 337Orthogonalprojektion, Eindeutigkeit, 335Orthogonalprojektion, Existenz, 336Orthonormalbasis, 289Orthonormalsystem, 289Ortsvektor, 6

Parallelogramm-Gleichung, 279, 280Parallelotop, 326Parallelotop, positiv orientiertes, 329, 330Permutationsmatrix, 182Pivotelement, 40Polarzerlegung, 356, 358Polynom, 132, 395Polynom, ganzzahliges, 140, 141Polynom, irreduzibles, 133, 135, 140, 141Polynom, lineares, 133Polynom, normiertes, 133Polynom, rationales, 141Polynome, ggT, 137, 138Polynome, kgV, 138Polynomring, 132, 383positiv definit, 264positiv semidefinit, 264Potenzen eines Endomorphismus, 95Potenzen von Gruppenelementen, 377Potenzmenge, 55Prae-Hilbertraum, 286Primkorper, 100, 389Produkt zweier Matrizen, 78Projektion, 65, 66, 76, 98, 337Pseudoinverse, 340Pythagoras, Satz, 277

QR-Zerlegung, 361, 364, 365, 395quadratische Form, 240, 241Quadrik, 241Quotientenraum, 126

Radikal einer Bilinearform, 247, 250Rang einer Bilinearform, 242Rang einer hermiteschen Form, 245Rang einer linearen Abbildung, 65Rang einer Matrix, 84, 130, 229, 242, 308,

348–352

Rang einer Summe von Matrizen, 89Rang eines Vektorsystems, 36rationaler Funktionenkorper, 383rechtsinverses Element, 376rechtsneutrales Element, 376regular, 205Relation, 366Richtung eines affinen Teilraums, 108Ring, 382Ring mit Eins, 383

Sapltenvektor, 6Sarrus, Regel, 200Satz von Jordan-Holder, 231schiefsymmetrische Matrix, 317Schroder-Bernstein, Satz, 54Schur, Satz, 298Sesquilinearform, 246Signatur, 264Singularwert, 358, 395Singularwertzerlegung, 358, 360Skalar, 9skalare Multiplikation, 6Skalarenkorpererweiterung, 184, 226skalares Produkt mit einer Matrix, 77Skalarprodukt, 269Spaltenrang, 82Spaltenraum, 41, 89Spektralsatz, komplexer, 300Spektralsatz, reeller, 310Spur, 225, 226, 355, 360Stutzvektor eines affinen Teilraums, 108Standard-Basis, 75Standard-Einheitsvektor, 75Standard-Skalarprodukt, 235Standardeinheitsvektor ei, 9Streckung, 65Streichungsmatrix, 207Strukturmatrix, 236, 238, 241, 243, 269Summe von linearen Abbildungen, 69Summe von Unterraumen, 13Summe zweier Matrizen, 77Summennorm, 279surjektiv, 53, 67Sylvester, Definitheits-Kriterium, 268Sylvester, Tragheitssatz, 263symplektischer Vektorraum, 273

Teiler eines Polynoms, 133teilerfremde Polynome, 136

Page 412: LINEARE ALGEBRA - Lehrstuhl für Mathematik II Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller

Index 409

Teilkorper, 100, 387Teilmatrix, 266Teilraum, affiner, 108total isotroper Unterraum, 249totalisotroper Unterraum, 247Totalordnung, 369Totalordnungssatz, 373Tragheit, 264Tragheitsindex, 264Tragheitssatz von Sylvester, 263Transformationsmatrix, 92, 241transponierte Matrix, 152Trennungseigenschaft des Dualraums, 72triangularisierbar, 192, 193Tridiagonalmatrix, 344, 346Tschebyscheff-Norm, 286Typ, 264

uberabzahlbar, 55Ubergangsmatrix, 92uneigentlich orthogonal, 321unendlich-dimensionaler Vektorraum, 21, 28,

31, 51, 56, 59, 62, 67, 98, 104–106unendlich-dimensionaler Vektorraum, Biline-

arform, 236unendlich-dimensionaler Vektorraum, euklidi-

scher, 269, 270unendlich-dimensionaler Vektorraum,

normierter, 285ungerade Funktion, 17unitar ahnliche Matrizen, 297unitare Triangualisierung, 298Unterdeterminante, 217untere Schranke, 367Untergruppe, 379Untergruppenkriterium, 379Unterraum, 10, 108Unterraum, ϕ-invarianter, 90Unterraum, affiner, 108, 112Unterraum, endlich erzeugter, 20Unterraum, linearer, 10, 108Unterraum, trivialer, 11Ursprungsgerade, 8

Vandermonde-Determinante, 211Vandermonde-Matrix, 211, 347Vandermonde-Matrix, inverse, 347Vektor, 6, 9, 393Vektoraddition, 6Vektorprodukt, 395

Vektorprodukt im R3, 330, 331

Vektorprodukt im Rn, 332

Vektorraume, isomorphe, 68Vektorraum, 9Vektorraum, euklidischer, 269Vektorraum, inneres Produkt, 269Vektorraum, normierter, 278Vektorraum, unitarer, 269Vektorsystem, 35Vereinigung von Unterraumen, 12Verfeinerung einer Ordnung, 371Verfeinerung einer Reihe, 230Verfeinerungssatz von Schreier, 231vergleichbare Elemente, 367Verkettungseins, 167Vielfaches eines Polynoms, 133vollisotroper Unterraum, 247, 249vollstandige Norm, 283vollstandiger Korper, 283Volumen, 326von Neumann, Spurungleichung, 360von Neumann, Vektornormen, 280

Winkel zwischen zwei Vektoren, 324, 325Wohlordnung, 369Wohlordnungssatz, 374Wurzeln einer positiv semidefiniten Matrix,

306, 308

Zassenhaus, Lemma, 230Zeilenrang, 82Zeilenraum, 41, 89Zeilenumformung, elementare, 363, 395Zentrum einer Gruppe, 381Zentrum von GL(n,K), 87Zornsches Lemma, 372zyklische Gruppe, 380