16320559 Lineare Algebra

136
Mathematik–Online–Kurs Lineare Algebra http://www.mathematik-online.org/

Transcript of 16320559 Lineare Algebra

Page 1: 16320559 Lineare Algebra

Mathematik–Online–Kurs

Lineare Algebra

http://www.mathematik-online.org/

Page 2: 16320559 Lineare Algebra

2 http://www.mathematik-online.org/

Page 3: 16320559 Lineare Algebra

Mathematik–Online–Kurs

Lineare Algebra

Stand: 9. Oktober 2006

Konzipiert von K. Hollig und W. Kimmerle unter Mitwirkung vonA. App, J. Horner, I. Knesch, S. Kreitz, S. Maier, A. Streit und J.Wipper

c© 2006 Mathematik-Online

Diese Veroffentlichung ist urheberrechtlich geschutzt.

Weder Mathematik-Online noch einer der Autorenubernehmen Haftung fur die Aktualitat, Korrektheit,Vollstandigkeit oder Qualitat dieser Veroffentlichung. Haf-tungsanspruche, welche sich auf Schaden materieller oderideeller Art beziehen, die durch die Nutzung oder Nichtnut-zung der dargebotenen Informationen bzw. durch die Nut-zung fehlerhafter und unvollstandiger Informationen ver-ursacht wurden, sind grundsatzlich ausgeschlossen.

http://www.mathematik-online.org/

Page 4: 16320559 Lineare Algebra

4 http://www.mathematik-online.org/

Page 5: 16320559 Lineare Algebra

Vorwort

Diese Broschure wurde im Rahmen des Projektes”Mathematik Online“ begleitend zu dem

entsprechenden Kursmodul erstellt. Sie richtet sich an Studenten der Ingenieur- und Naturwis-senschaften und ist insbesondere zum Selbststudium und zur Prufungsvorbereitung geeignet.

An der Entwicklung des Kurses haben eine Reihe unserer Mitarbeiter und Studenten mit-gewirkt. Wir danken insbesondere J. Horner fur die technische Leitung, A. App, J. Horner,I. Knesch, S. Kreitz, S.Maier, A. Streit und J. Wipper fur die Ausarbeitung der mathemati-schen Grundlagen.

Die gemeinsame Arbeit an dem Projekt hat uns viel Freude bereitet, und wir wunschen denLesern viel Spaß mit

”Mathematik Online“ und Erfolg in ihrem Studium.

Stuttgart, im Marz 2005Klaus Hollig

Wolfgang Kimmerle

http://www.mathematik-online.org/ 5

Page 6: 16320559 Lineare Algebra

6 http://www.mathematik-online.org/

Page 7: 16320559 Lineare Algebra

Inhaltsverzeichnis

1 Grundlegende Strukturen 111.1 Gruppen und Korper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.1.1 Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.1.2 Untergruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.1.3 Verknupfungstabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.1.4 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.1.5 Zyklenschreibweise von Permutationen . . . . . . . . . . . . . . . . . . . 131.1.6 Transposition und Signum von Permutationen . . . . . . . . . . . . . . . 131.1.7 Modulus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.1.8 Restklassen modulo n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.1.9 Korper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.1.10 Primkorper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.1.11 Galois-Korper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.1.12 Turniere in Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.2 Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.2.1 Vektorraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.2.2 Vektorraum der n-Tupel . . . . . . . . . . . . . . . . . . . . . . . . . . . 201.2.3 Unterraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201.2.4 Linearkombination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.2.5 Lineare Hulle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221.2.6 Konvexkombination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221.2.7 Konvexe Hulle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

1.3 Skalarprodukt und Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231.3.1 Reelles Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231.3.2 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241.3.3 Cauchy-Schwarz-Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . 251.3.4 Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261.3.5 Skalarprodukt - Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261.3.6 Maximum-Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271.3.7 Skalarprodukt reeller Vektoren . . . . . . . . . . . . . . . . . . . . . . . . 271.3.8 Skalarprodukt komplexer Vektoren . . . . . . . . . . . . . . . . . . . . . 281.3.9 Winkel zwischen Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . 291.3.10 Satz des Pythagoras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291.3.11 Pythagoraisches Tripel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

1.4 Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301.4.1 Lineare Unabhangigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 301.4.2 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321.4.3 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321.4.4 Orthogonale Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

http://www.mathematik-online.org/ 7

Page 8: 16320559 Lineare Algebra

INHALTSVERZEICHNIS

1.4.5 Orthogonale Projektion . . . . . . . . . . . . . . . . . . . . . . . . . . . 351.4.6 Verfahren von Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . 36

2 Matrizen 392.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

2.1.1 Lineare Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.1.2 Komposition linearer Abbildungen . . . . . . . . . . . . . . . . . . . . . 402.1.3 Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412.1.4 Matrix einer linearen Abbildung . . . . . . . . . . . . . . . . . . . . . . . 412.1.5 Koordinatentransformation bei Basiswechsel . . . . . . . . . . . . . . . . 432.1.6 Bild und Kern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442.1.7 Dimension von Bild und Kern . . . . . . . . . . . . . . . . . . . . . . . . 442.1.8 Inverse Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

2.2 Matrix-Operationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462.2.1 Vektorraum der Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . 462.2.2 Matrix-Multiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462.2.3 Strassens Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.2.4 Kommutator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 482.2.5 Inverse Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 502.2.6 Transponierte und adjungierte Matrix . . . . . . . . . . . . . . . . . . . . 502.2.7 Spur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512.2.8 Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512.2.9 Norm einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 532.2.10 Zeilensummen-Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

2.3 Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 542.3.1 Belegungsstruktur von Matrizen . . . . . . . . . . . . . . . . . . . . . . . 542.3.2 Orthogonale und unitare Matrizen . . . . . . . . . . . . . . . . . . . . . 542.3.3 Hadamard-Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552.3.4 Fourier-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552.3.5 Normtreue orthogonaler und unitarer Matrizen . . . . . . . . . . . . . . . 562.3.6 Zyklische Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 562.3.7 Stochastische Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

2.4 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572.4.1 Determinante als antisymmetrische Multilinearform . . . . . . . . . . . . 572.4.2 2-reihige Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 592.4.3 Sarrus-Schema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 592.4.4 Orientiertes Volumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 602.4.5 Regeln fur Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . 612.4.6 Determinanten spezieller Matrizen . . . . . . . . . . . . . . . . . . . . . . 622.4.7 Umformung von Determinanten . . . . . . . . . . . . . . . . . . . . . . . 632.4.8 Entwicklung von Determinanten . . . . . . . . . . . . . . . . . . . . . . . 642.4.9 Implizite Darstellung einer Ebene durch 3 Punkte . . . . . . . . . . . . . 652.4.10 Basistest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 662.4.11 Vandermonde-Determinante . . . . . . . . . . . . . . . . . . . . . . . . . 67

3 Lineare Gleichungssysteme 693.1 Klassifikation und allgemeine Struktur . . . . . . . . . . . . . . . . . . . . . . . 69

3.1.1 Lineares Gleichungssystem . . . . . . . . . . . . . . . . . . . . . . . . . . 693.1.2 Elektrischer Schaltkreis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

8 http://www.mathematik-online.org/

Page 9: 16320559 Lineare Algebra

INHALTSVERZEICHNIS

3.1.3 Losbarkeit eines linearen Gleichungssystems . . . . . . . . . . . . . . . . 713.1.4 Losung linearer Gleichungssysteme in Matlab . . . . . . . . . . . . . . . 733.1.5 Determinante und Losbarkeit eines linearen Gleichungssystems . . . . . . 73

3.2 Direkte Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 743.2.1 Cramersche Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 743.2.2 Ruckwarts-Einsetzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 763.2.3 Gauß-Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . 763.2.4 Gauß-Elimination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 773.2.5 Echelon-Form . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 783.2.6 Losung eines LGS in Echelon-Form . . . . . . . . . . . . . . . . . . . . . 803.2.7 Rang und Losbarkeit von LGS . . . . . . . . . . . . . . . . . . . . . . . 81

3.3 Ausgleichsprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 813.3.1 Ausgleichsgerade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 813.3.2 Ausgleichslosung uberbestimmter, linearer Gleichungssysteme . . . . . . 833.3.3 Normalengleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 833.3.4 Tomographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

4 Normalformen 874.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

4.1.1 Eigenwert und Eigenvektor . . . . . . . . . . . . . . . . . . . . . . . . . . 874.1.2 Ahnlichkeitstransformation . . . . . . . . . . . . . . . . . . . . . . . . . . 884.1.3 Charakteristisches Polynom . . . . . . . . . . . . . . . . . . . . . . . . . 894.1.4 Berechnung von Eigenwerten und -vektoren . . . . . . . . . . . . . . . . 904.1.5 Algebraische und geometrische Vielfachheit . . . . . . . . . . . . . . . . . 914.1.6 Summe und Produkt von Eigenwerten . . . . . . . . . . . . . . . . . . . 914.1.7 Rationale Funktionen von Matrizen . . . . . . . . . . . . . . . . . . . . . 924.1.8 Bestimmung von Eigenwerten und -vektoren mit MATLAB . . . . . . . . 93

4.2 Diagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 944.2.1 Basis aus Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . 944.2.2 Diagonalisierung zyklischer Matrizen . . . . . . . . . . . . . . . . . . . . 944.2.3 Potenzen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 964.2.4 Fibonacci-Folge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 974.2.5 Normale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 984.2.6 Unitare Diagonalisierung normaler Matrizen . . . . . . . . . . . . . . . . 984.2.7 Diagonalform hermitescher Matrizen . . . . . . . . . . . . . . . . . . . . 994.2.8 Positiv definite Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 1004.2.9 Rayleigh-Quotient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

4.3 Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1014.3.1 Dreiecksform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1014.3.2 Hauptvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1024.3.3 Zyklische Basen von Hauptraumen . . . . . . . . . . . . . . . . . . . . . 1034.3.4 Jordan-Form . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1054.3.5 Jordan-Formen von (4x4)-Matrizen . . . . . . . . . . . . . . . . . . . . . 1084.3.6 Potenzen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

4.4 Singularwertzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1094.4.1 Singularwert-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1094.4.2 Singularwert-Zerlegung mit MATLAB . . . . . . . . . . . . . . . . . . . 1104.4.3 Pseudo-Inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1114.4.4 Korrektur topografischer Meßdaten . . . . . . . . . . . . . . . . . . . . . 112

http://www.mathematik-online.org/ 9

Page 10: 16320559 Lineare Algebra

INHALTSVERZEICHNIS

4.4.5 Moore-Penrose-Bedingungen . . . . . . . . . . . . . . . . . . . . . . . . . 113

5 Analytische Geometrie 1155.1 Orthogonale Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

5.1.1 Orthogonale und spezielle orthogonale Gruppe . . . . . . . . . . . . . . . 1155.1.2 Spiegelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1155.1.3 Drehung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1165.1.4 Drehachse und Drehwinkel . . . . . . . . . . . . . . . . . . . . . . . . . . 1175.1.5 Faktorisierung einer Drehung . . . . . . . . . . . . . . . . . . . . . . . . 1195.1.6 Drehmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

5.2 Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1215.2.1 Quadratische Form . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1215.2.2 Quadrik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1225.2.3 Grobeinteilung der Quadriken . . . . . . . . . . . . . . . . . . . . . . . . 1225.2.4 Hauptachsentransformation . . . . . . . . . . . . . . . . . . . . . . . . . 1235.2.5 Kegelschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1255.2.6 Euklidische Normalform der zweidimensionalen Quadriken . . . . . . . . 1265.2.7 Euklidische Normalform der dreidimensionalen Quadriken . . . . . . . . 129

10 http://www.mathematik-online.org/

Page 11: 16320559 Lineare Algebra

Kapitel 1

Grundlegende Strukturen

1.1 Gruppen und Korper

1.1.1 Gruppe

Unter einer Gruppe (G, ¦) versteht man eine Menge G, auf der eine binare Operation ¦ definiertist:

¦ : G×G 7−→ G ,

d.h. jedem Elementepaar (a, b): a, b ∈ G ist ein Element a ¦ b ∈ G zugeordnet. Ferner mussenfolgende Eigenschaften gelten:

• Assoziativitat:(a ¦ b) ¦ c = a ¦ (b ¦ c) ∀a, b, c ∈ G

• Neutrales Element: Es existiert ein eindeutig bestimmtes neutrales Element e ∈ G, d.h.

e ¦ a = a ¦ e = a ∀a ∈ G

• Inverses Element: Zu jedem Element a ∈ G existiert ein eindeutig bestimmtes inversesElement a−1 ∈ G mit

a ¦ a−1 = a−1 ¦ a = e .

Man nennt eine Gruppe eine kommutative oder abelsche Gruppe, wenn die Operation ¦ kom-mutativ ist:

a ¦ b = b ¦ a ∀a, b ∈ G .

Wenn aus dem Zusammenhang ersichtlich ist, welche Operation verwendet wird, schreibt manhaufig statt (G, ¦) nur G.

Beispiel:

Die bijektiven reellen Funktionen f : R → R bilden bzgl. der Hintereinanderschaltung eineGruppe.Man uberpruft leicht, dass die Hintereinanderschaltung assoziativ ist:

((f g) h)(x) = f(g(h(x))) = (f (g h))(x) .

Das neutrale Element ist offensichtlich die Funktion

e : x→ x .

http://www.mathematik-online.org/ 11

Page 12: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

Schließlich existiert zu jeder bijektiven Funktion die Umkehrfunktion

f−1 : f(x)→ x .

Die Hintereinanderschaltung ist jedoch nicht kommutativ. Beispielsweise ist fur

f : x→ 2x , g : x→ x + 1

f g 6= g f :f(g(x)) = 2(x + 1) 6= 2x + 1 = g(f(x)) .

1.1.2 Untergruppe

Fur eine Gruppe (G, ¦) bezeichnet man (U, ¦) als Untergruppe, wenn U Teilmenge von G istund (U, ¦) selbst eine Gruppe bildet.Um zu testen, ob U mit der Verknupfung ¦ eine Untergruppe bildet, genugt es zu uberprufen,dass U bezuglich der Verknupfung ¦ und der Bildung von Inversen abgeschlossen ist:

a, b ∈ U ⇒ a ¦ b ∈ U und a ∈ U ⇒ a−1 ∈ U .

Beispiel:

Die ZahlenmengenZ ⊂ Q ⊂ R ⊂ C

sind kommutative Gruppen bzgl. der Addition. Gemaß der Inklusionen sind die ganzen Zahleneine Untergruppe von Q, R und C, die rationalen Zahlen eine Untergruppe von R und C unddie reellen Zahlen eine Untergruppe der komplexen Zahlen.Die Multiplikation definiert ebenfalls eine Gruppenstruktur, wenn man die Null ausschließt:

Q\0 ⊂ R\0 ⊂ C\0 .

1.1.3 Verknupfungstabellen

Die Operation ¦ auf einer endlichen Gruppe G = g1, . . . , gn kann durch die Ver-knupfungsmatrix

A : ai,j = gi ¦ gj

erklart werden.Die folgende Abbildung zeigt (bis auf Permutation der Elemente) alle moglichen Ver-knupfungsstrukturen fur Gruppen mit n ≤ 4:

n = 2¦ e a

e e aa a e

n = 3¦ e a b

e e a ba a b eb b e a

n = 4¦ e a b c

e e a b ca a e c bb b c e ac c b a e

n = 4¦ e a b c

e e a b ca a e c bb b c a ec c b e a

Alle diese Gruppen sind abelsch, wie man an der Symmetrie der Matrizen A sieht (ai,j = aj,i).Die erste nicht-abelsche Gruppe hat 6 Elemente und kann mit den Permutationen von 1, 2, 3identifiziert werden.

12 http://www.mathematik-online.org/

Page 13: 16320559 Lineare Algebra

1.1. GRUPPEN UND KORPER

1.1.4 Permutationen

Fur eine beliebige Menge M bilden die Bijektionen von M in M , versehen mit der Kompositionvon Abbildungen als Operation, eine Gruppe, die so genannte symmetrische Gruppe von M .Ist M = 1, 2, . . . , n, so spricht man von der symmetrischen Gruppe Sn vom Grad n. Die n!Elemente π von Sn nennt man Permutationen und benutzt die Schreibweise

π =

(1 2 3 . . . n

π(1) π(2) π(3) . . . π(n)

)

.

Die Permutationsgruppe ist im Allgemeinen nicht kommutativ, wie aus dem Beispiel(

1 2 32 1 3

)

(

1 2 33 2 1

)

=

(1 2 33 1 2

)

6=(

1 2 33 2 1

)

(

1 2 32 1 3

)

ersichtlich ist.

1.1.5 Zyklenschreibweise von Permutationen

Permutationen werden auch in der so genannten Zyklenschreibweise angegeben. Dabei bestehtein Zyklus aus einem Element und seinen Bildern bei mehrfacher Ausfuhrung der Permutation,bis wieder das ursprungliche Element erreicht wird. Aus den Elementen, die im ersten Zyklusnicht vorkommen, werden weitere Zyklen gebildet, bis alle Elemente auftreten. Die Zyklenwerden nach der Anzahl der Elemente absteigend sortiert und jeweils in runden Klammernhintereinander geschrieben. Zyklen der Lange 1 werden meist weggelassen.Beispielsweise ist

π =

(1 2 3 4 5 64 3 2 6 5 1

)

≡ (1 4 6) (2 3) (5) bzw. π = (1 4 6) (2 3) .

1.1.6 Transposition und Signum von Permutationen

Eine Transpositionτ = (j k)

ist eine Vertauschung von j und k. Durch Verknupfung dieser elementaren Permutationen lasstsich jede Permutation π darstellen:

π = τ1 · · · τm .

Dabei ist die Paritat (gerades oder ungerades m) eindeutig bestimmt, und man definiert

σ(π) = (−1)m

als Vorzeichen oder Signum der Permutation π.

Beweis:

Fur

τ1 · · · τm = π ∈ Sn

mit k = π(n) istπ = (k, n) π ∈ Sn−1 ,

denn durch die Komposition mit der Transposition wird n fest gelassen. Induktiv kann manannehmen, dass die Paritat in der induzierten Zerlegung von π eindeutig bestimmt ist, folglichauch das Vorzeichen von (−1)m.

http://www.mathematik-online.org/ 13

Page 14: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

Beispiel:

Um das Signum der Permutation

π =

(1 2 3 4 5 66 5 3 1 2 4

)

zu bestimmen, uberfuhrt man

(π(1), . . . , π(6)) = (6, 5, 3, 1, 2, 4)

durch Transpositionen sukzessive in die kanonische Reihenfolge:

(1 6) : (1 5 3 6 2 4)

(2 5) : (1 2 3 6 5 4)

(4 6) : (1 2 3 4 5 6) .

Folglich ist(4 6) (2 5) (1 6) π

die Identitat, bzw.π = (1 6) (2 5) (4 6)

undσ(π) = (−1)3 .

Alternativ kann man die Zyklenschreibweise verwenden:

π = (1 6 4) (2 5) (3) .

Da fur einen Zyklus τ der Lange k

σ(τ) = (−1)k−1,

istσ(π) = (−1)2 · (−1)1 · (−1)0 = −1 .

1.1.7 Modulus

Fur a > 0 und x ∈ R wird mit x mod a der Rest bei Division von x durch a bezeichnet, d.h.

x mod a = x− na ∈ [0, a)

fur eine ganze Zahl n. Giltx mod a = y mod a ,

so sind x und y kongruent modulo a.

1.1.8 Restklassen modulo n

Die Menge0, 1, . . . , n− 1

bildet eine abelsche Gruppe unter der Addition modulo n und wird mit

Zn = Z mod n

bezeichnet.Man beachte, dass die Multiplikation modulo n keine Gruppenstruktur auf Zn definiert, da 0kein Inverses besitzt.

14 http://www.mathematik-online.org/

Page 15: 16320559 Lineare Algebra

1.1. GRUPPEN UND KORPER

Beispiel:

Man uberpruft anhand des konkreten Beispiels

Z4 = 0, 1, 2, 3

leicht, dass die Addition bzw. Subtraktion mit der Modulo-Operation vertraglich ist. Beispiels-weise ist

1 + 3 mod 4 = 0, 0− 2 mod 4 = 2

etc.

Allerdings fuhrt die Multiplikation modulo 4 nicht auf eine Gruppenstruktur, denn

1 · 2 mod 4 = 3 · 2 mod 4 = 2 .

Dies steht im Widerspruch zur Eindeutigkeit des neutralen Elements.

1.1.9 Korper

Eine Menge K, auf der eine Addition”+“ und eine Multiplikation

”·“ definiert sind, nennt man

einen Korper, wenn folgende Eigenschaften gelten:

• Additive Gruppenstruktur: (K, +) ist eine abelsche Gruppe mit neutralem Element 0(Nullelement), d.h. fur alle a, b ∈ K gilt

a + b = b + a

(a + b) + c = a + (b + c)

a + 0 = a

a + (−a) = 0 ,

wobei (−a) das inverse Element zu a bezeichnet.

• Multiplikative Gruppenstruktur: (K\0, ·) ist eine abelsche Gruppe mit neutralem Ele-ment 1 (Einselement), d.h. fur alle a, b, c ∈ K\0 gilt

a · b = b · a(a · b) · c = a · (b · c)

a · 1 = a

a · a−1 = 1 ,

wobei a−1 das inverse Element zu a bezeichnet.

• Distributivgesetz: a · (b + c) = a · b + a · c fur alle a, b, c ∈ K.

http://www.mathematik-online.org/ 15

Page 16: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

Beispiel:

Die Mengen der rationalen Zahlen Q, der reellen Zahlen R und der komplexen Zahlen C sindKorper.Die Rechenregeln folgen direkt aus der Definition der entsprechenden Verknupfungen. DasNullelement ist jeweils die 0, das Einselement ist 1 bzw. 1 + i0.Das inverse Element bezuglich der Multiplikation einer komplexen Zahl z = x + iy 6= 0 ist

w =x

x2 + y2+ i

−y

x2 + y2,

denn

z · w = (x + iy)

(x

x2 + y2+ i

−y

x2 + y2

)

=x2 − i2y2

x2 + y2+ i−xy + yx

x2 + y2= 1 + i0 .

1.1.10 Primkorper

Fur jede Primzahl p ist die Menge

Zp = 0, 1, . . . , p− 1

ein Korper unter der Addition und Multiplikation modulo p.

Beweis:

Bis auf die Existenz eines inversen Elementes bezuglich der Multiplikation gelten die Rechen-regeln fur Korper bereits in den ganzen Zahlen und werden auf die Restklassen vererbt.Fur a ∈ 2, . . . , p− 1 kann man a−1 wie folgt konstruieren. Man bemerkt zunachst, dass

ai 6= 0 mod p ∀i ∈ N .

Ware namlich ai = np, so wurde aus der Primfaktorzerlegung folgen, dass p a teilt, was wegena < p nicht moglich ist. Betrachtet man nun die Folge

ai mod p, i = 0, . . . , p− 1 ,

so muss mindestens ein Rest zweimal auftreten, also

ai1 = ai2 mod p , i1 < i2

gelten. Damit ist aberai2−i1 = ai2−i1−1a = 1 mod p ,

womit das zu a inverse Element gefunden ist.

Beispiel:

Im Primkorper Z5 sind die inversen Elemente

2−1 = 3 mod 5

3−1 = 2 mod 5

4−1 = 4 mod 5 .

16 http://www.mathematik-online.org/

Page 17: 16320559 Lineare Algebra

1.1. GRUPPEN UND KORPER

Damit ist beispielsweise (2+4)3

mod 5 = 13mod 5 = 2 in Einklang mit

2

3+

4

3mod 5 = 2 · 2 + 4 · 2 mod 5

= 4 + 3 mod 5

= 2 .

1.1.11 Galois-Korper

Der Korper GF[22] mit 4 Elementen lasst sich durch die Verknupfungstabellen der Additionund Multiplikation angeben:

+ 0 1 a b

0 0 1 a b1 1 0 b aa a b 0 1b b a 1 0

· 0 1 a b

0 0 0 0 01 0 1 a ba 0 a b 1b 0 b 1 a

Das zugrunde liegende Konstruktionsprinzip ist nicht so einfach wie bei den Primkorpern Zp

und wurde von Galois gefunden. Es lasst sich allgemein zur Konstruktion von Korpern mit p`

Elementen, ` ∈ N, fur beliebige Primzahlen p durchfuhren, und es kann gezeigt werden, dassman so alle endlichen Korper erhalt.

1.1.12 Turniere in Gruppen

In Stuttgart, Munchen und Berlin soll an 4 Terminen ein Turnier unter 9 Mannschaften ausge-tragen werden. Dabei soll

”jeder gegen jeden“ spielen. Es sind also an jedem Termin 3 Gruppen

aus je 3 Mannschaften zu bilden, die jeweils in einer der Stadte ihre Spiele untereinander aus-tragen. Die Schwierigkeit besteht darin, Uberschneidungen zu vermeiden - jede Paarung sollgenau einmal bei den 3 · 4 Gruppen vorkommen.Mathematisch lasst sich das Problem folgendermaßen formulieren: Es sind 3-elementige Mengen

S0,k ∪ S1,k ∪ S2,k = 1, . . . , 9, k = 0, . . . , 3

zu bestimmen, so dass der Durchschnitt zweier Mengen hochstens ein Element enthalt. DieseBedingung vermeidet, dass Mengen, die Gruppen an verschiedenen Spieltagen entsprechen, eingemeinsames Mannschaftspaar enthalten.Die Mengen Sj,k lassen sich mit Hilfe des Primkorpers Z3 konstruieren. Man identifiziert dazudie Mannschaftsnummern 1, . . . , 9 mit den Punkten

(α, β), α, β ∈ Z3

einer 9-elementigen”endlichen Ebene“ und identifiziert die Mengen mit den Geraden in dieser

Ebene:

Sj,k = (α, k · α + j mod 3) : α = 0, 1, 2, (Geraden mit Steigung k = 0, 1, 2)

Sj,3 = (j, α) : α = 0, 1, 2 (senkrechte Geraden) .

Diese Gruppenaufteilung ist in der folgenden Abbildung veranschaulicht:

http://www.mathematik-online.org/ 17

Page 18: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

Das gleiche Problem fur 16 Mannschaften, 4 Stadte und 5 Termine kann analog gelost werden.Man verwendet den 4-elementigen Galois-Korper GF[22] und erhalt folgende Gruppeneinteilung:

Spielort 1 Spielort 2 Spielort 3 Spielort 4

1. Spieltag 1,2,3,4 5,6,7,8 9,10,11,12 13,14,15,162. Spieltag 1,6,11,16 5,2,15,12 9,14,3,8 13,10,7,43. Spieltag 1,10,15,8 5,14,11,4 9,2,7,16 13,6,3,124. Spieltag 1,14,7,12 5,10,3,16 9,6,15,4 13,2,11,85. Spieltag 1,5,9,13 2,6,10,14 3,7,11,15 4,8,12,16

Allgemein ist die Argumentation fur q2 Mannschaften und q Stadte moglich, wobei q eine Potenzeiner Primzahl ist, denn fur solche q existieren die Korper GF[q].

1.2 Vektorraume

1.2.1 Vektorraum

Eine abelsche Gruppe (V, +) heißt Vektorraum uber einem Korper K oder K-Vektorraum,wenn eine Skalarmultiplikation

”·“ definiert ist, die (λ, v) ∈ K × V das Produkt λ · v ∈ V

zuordnet und folgende Eigenschaften besitzt. Fur alle Skalare λ, λ1, λ2 ∈ K und alle Vektorenv, v1, v2 ∈ V gilt:

(λ1 + λ2) · v = λ1 · v + λ2 · vλ · (v1 + v2) = λ · v1 + λ · v2

(λ1 · λ2) · v = λ1 · (λ2 · v)

1 · v = v .

Ist K = R bzw. K = C, so spricht man von einem reellen bzw. komplexen Vektorraum undlasst den Punkt fur die skalare Multiplikation im Allgemeinen weg.Man beachte, dass das Pluszeichen sowohl fur die Addition in V als auch fur die Addition inK benutzt wird. Ebenso wird der Malpunkt auch fur die Multiplikation in K verwendet.

Erlauterung:

Gemaß der Definition gelten in einem Vektorraum insbesondere die Gruppenaxiome:

• Assoziativitat der Addition:

(v1 + v2) + v3 = v1 + (v2 + v3)

18 http://www.mathematik-online.org/

Page 19: 16320559 Lineare Algebra

1.2. VEKTORRAUME

• Nullelement/Nullvektor: Es gibt genau ein Element 0 ∈ V mit

v + 0 = v

fur alle v ∈ V .

• Inverses bzgl. der Addition: Fur alle v ∈ V gibt es genau ein −v ∈ V mit

v + (−v) = 0

• Kommutativitat der Addition:v1 + v2 = v2 + v1

Die geforderten Eigenschaften garantieren, dass Addition, Subtraktion und Multiplikation dengewohnten Rechengesetzen genugen. So kann man Produkte ausmultiplizieren:

(∑

i

λi

)

·(∑

j

vj

)

=∑

i

j

λi · vj .

Daruberhinaus gelten die Vorzeichenregeln

−(−v) = (−1) · (−v) = v, −(∑

i

vi

)

=∑

i

−vi .

Beispiel:

Die Polynome vom Grad ≤ n

p(x) = a0 + a1x + · · ·+ anxn, ai ∈ R (ai ∈ C),

bilden einen reellen (komplexen) Vektorraum, wobei die Addition und die skalare Multiplikationin der nahe liegenden Weise definiert sind:

(p + q)(x) = p(x) + q(x), (λp)(x) = λp(x) .

Die Vektorraumeigenschaften verifiziert man leicht.Man beachte, dass die Polynome mit Grad n, d.h. mit an 6= 0, keinen Vektorraum bilden. Bildeneiner Summe kann namlich zur Gradreduktion fuhren. Beispielsweise ist

(2x− x2) + (3 + x2) = 3 + 2x .

Beispiel:

Die reellen Folgen (an) mit n ∈ N bilden einen reellen Vektorraum mit den Operationen

(an) + (bn) = (an + bn), λ(an) = (λan) .

Fordert man zusatzliche Eigenschaften, so kann das die Vektorraumstruktur zerstoren. Bei-spielsweise bilden monotone Folgen keinen Vektorraum. Summen monotoner Folgen brauchennicht monoton zu sein, wie das Beispiel

(4n) + (−n2)

zeigt. Hingegen ware Beschranktheit eine zulassige Eigenschaft.

http://www.mathematik-online.org/ 19

Page 20: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

1.2.2 Vektorraum der n-Tupel

Fur einen Korper K bilden die n-Tupel oder n-Vektoren

a =

a1...

an

, ai ∈ K

den K-Vektorraum Kn mit der komponentenweise definierten Addition und Skalarmultiplika-tion, d. h.

a1...

an

+

b1...bn

=

a1 + b1...

an + bn

und

λ ·

a1...

an

=

λ · a1...

λ · an

fur ai, bi, λ ∈ K.Oft ist es bequem, n-Tupel als Zeilenvektor

at = (a1, . . . , an) bzw. a = (a1, . . . , an)t

zu schreiben. Durch das Symbol”t“ der Transposition wird von der Standardkonvention als

Spaltenvektor unterschieden.

1.2.3 Unterraum

Eine Teilmenge U eines K-Vektorraums V , die mit der in V definierten Addition und Skalar-multiplikation selbst einen Vektorraum bildet, nennt man einen Unterraum von V .Unterraume U werden oft durch Bedingungen an die Elemente von V definiert:

U = v ∈ V : A(v),

wobei A eine Aussage bezeichnet, die fur v ∈ V erfullt sein muss.Um zu prufen, ob es sich bei einer Teilmenge U von V um einen Unterraum handelt, genugt eszu zeigen, dass U bzgl. der Addition und Skalarmultiplikation abgeschlossen ist:

u, v ∈ U =⇒ u + v ∈ U

λ ∈ K, u ∈ U =⇒ λ · u ∈ U .

Beispiel:

Unterraume entstehen oft durch Spezifizieren zusatzlicher Eigenschaften. Betrachtet man denVektorraum der reellen Funktionen

f : R→ R ,

so bilden beispielsweise die geraden Funktionen (f(x) = f(−x) fur alle x ∈ R) einen Unterraum.Weitere Beispiele bzw. Gegenbeispiele sind in der folgenden Tabelle angegeben:

20 http://www.mathematik-online.org/

Page 21: 16320559 Lineare Algebra

1.2. VEKTORRAUME

Eigenschaft Unterraumungerade jabeschrankt jamonoton neinstetig japositiv neinlinear ja

Beispiel:

Fur jeden Vektor d 6= 0 eines K-Vektorraums bildet die durch 0 verlaufende Gerade

v = λd, λ ∈ K

einen Unterraum.Allerdings ist eine Gerade, die nicht durch 0 verlauft, kein Unterraum. Beispielsweise liegt (1, 0)t

auf der Geraden

g : x =

(10

)

+ µ

(01

)

, µ ∈ R,

(2, 0)t jedoch nicht.

1.2.4 Linearkombination

Fur Vektoren v1, v2, . . . , vm in einem K-Vektorraum V bezeichnet man

λ1 · v1 + λ2 · v2 + · · ·+ λm · vm =m∑

i=1

λi · vi

mit Skalaren λi ∈ K als Linearkombination der vi.

Allgemeiner versteht man fur W ⊂ V unter einer Linearkombination aus W eine Linearkombi-nation aus endlich vielen Vektoren von W .

Beispiel:

Der Vektorv = (1, 2, 3)t

ist eine Linearkombination der Vektoren

v1 = (3, 4, 5)t, v2 = (1, 1, 1)t,

dennv = v1 − 2v2 .

Hingegen istv = (1, 0)t

keine Linearkombination der Vektoren

v1 = (0, 1)t, v2 = (0, 2)t,

http://www.mathematik-online.org/ 21

Page 22: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

denn jede Linearkombination von v1 und v2 hat die Form (0, ∗)t.Schließlich kann

v = (0, 0, 0, 0)t

auf verschiedene Weise als eine Linearkombination der Vektoren

v1 = (1, 1, 0, 0)t, v2 = (0, 2, 2, 0)t, v3 = (0, 0, 3, 3)t, v4 = (4, 0, 0, 4)t

dargestellt werden:v = λ(12v1 − 6v2 + 4v3 − 3v4)

mit λ ∈ R.

1.2.5 Lineare Hulle

Die Menge aller Linearkombinationen von Vektoren v1, . . . , vn eines K-Vektorraums V nenntman die lineare Hulle der vi und bezeichnet sie mit

span(v1, . . . , vn) = n∑

i=0

λi · vi : λi ∈ K.

Entsprechend definiert man fur eine Menge U von Vektoren span(U) als die Menge aller Line-arkombinationen von Vektoren aus U .Fur jede Teilmenge U ∈ V ist span(U) ein Unterraum von V .

Beispiel:

Betrachtet man zwei verschiedene Ursprungsgeraden g1 und g2 im R3, z. B.

g1 : x = λ1(1, 0, 0)t, g2 : x = λ2(0, 1, 0)

t, λi ∈ R,

so sind diese jeweils die lineare Hulle der Richtungsvektoren; hier

v1 = (1, 0, 0)t, v2 = (0, 1, 0)t .

Die lineare Hulle der Vektoren v1 und v2 ist dann die Ebene E = span(v1, v2), die die Geradeng1 und g2 enthalt; hier also

E : x = λ1(1, 0, 0)t + λ2(0, 1, 0)

t, λi ∈ R ,

bzw. E = x : x3 = 0.

1.2.6 Konvexkombination

In einem reellen Vektorraum V bezeichnet man eine Linearkombination

λ1v1 + λ2v2 + · · ·+ λmvm

mitλi ≥ 0,

i

λi = 1

als Konvexkombination der Vektoren vi ∈ V .

22 http://www.mathematik-online.org/

Page 23: 16320559 Lineare Algebra

1.3. SKALARPRODUKT UND NORM

1.2.7 Konvexe Hulle

Die konvexe Hulle einer Teilmenge M eines reellen Vektorraumes V ist die Menge aller Kon-vexkombinationen

λ1v1 + λ2v2 + · · ·+ λmvm (λi ≥ 0,∑

i

λi = 1)

mit vi ∈M und wird mit conv(M) bezeichnet.

Geometrisch ist conv(M) die kleinste M enthaltende Menge, die fur je zwei Elemente u, v auchderen Verbindungsstrecke

S = λu + (1− λ)v : 0 ≤ λ ≤ 1

enthalt.

PSfrag replacements

conv(M)

Su

v

M

1.3 Skalarprodukt und Norm

1.3.1 Reelles Skalarprodukt

Ein Skalarprodukt auf einem reellen Vektorraum V ist eine Abbildung

〈·, ·〉 : V × V → R

mit folgenden Eigenschaften:

• Positivitat:

〈v, v〉 > 0 fur v 6= 0

• Symmetrie:

〈u, v〉 = 〈v, u〉

• Linearitat:

〈λu + %v, w〉 = λ〈u,w〉+ %〈v, w〉

Dabei sind u, v, w ∈ V und λ, % ∈ R beliebige Vektoren bzw Skalare.

Aufgrund der Symmetrie ist ein reelles Skalarprodukt auch bzgl. des zweiten Argumentes linear,also eine Bilinearform auf V .

http://www.mathematik-online.org/ 23

Page 24: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

Beispiel:

Fur den Vektorraum der auf [0, 1] definierten, reellwertigen stetigen Funktionen wird mit

〈f, g〉 =

1∫

0

f(x)g(x) dx

ein reelles Skalarprodukt definiert.Die Positivitat gilt, da eine stetige Funktion, die an einer Stelle von Null verschieden ist, diesauch in einer Umgebung dieser Stelle ist, und somit das Integral

∫f 2 nicht verschwindet.

Die Symmetrie ergibt sich aus der Definition der Multiplikation von Funktionen.Schließlich folgt die Linearitat aus der Linearitat des Integrals.Durch die Einfuhrung einer positiven Gewichtsfunktion w kann die Definition des Skalarpro-dukts verallgemeinert werden:

〈f, g〉w =

1∫

0

fg w .

Beispielsweise sind in Verbindung mit radialsymmetrischen Funktionen auf der Kreisscheibeund der Kugel die gewichteten Skalarprodukte

∫ 1

0

f(r)g(r)r dr,

∫ 1

0

f(r)g(r)r2 dr

von Bedeutung.

1.3.2 Skalarprodukt

Ein Skalarprodukt auf einem komplexen Vektorraum V ist eine Abbildung

〈·, ·〉 : V × V → C

mit folgenden Eigenschaften:

• Positivitat:

〈v, v〉 > 0 fur v 6= 0

• Schiefsymmetrie:

〈u, v〉 = 〈v, u〉

• Linearitat:

〈λu + %v, w〉 = λ〈u,w〉+ %〈v, w〉

Dabei sind u, v, w ∈ V und λ, % ∈ C beliebige Vektoren bzw. Skalare.Aufgrund der Schiefsymmetrie ist ein komplexes Skalarprodukt bzgl. der zweiten Variablennicht linear:

〈u, λv + %w〉 = λ〈u, v〉+ %〈u,w〉 .Lediglich fur reelle Skalare ist die komplexe Konjugation ohne Bedeutung.

24 http://www.mathematik-online.org/

Page 25: 16320559 Lineare Algebra

1.3. SKALARPRODUKT UND NORM

Erlauterung:

Die resultierende Asymmetrie ist notwendig, um die Positivitat des komplexen Skalarprodukteszu gewahrleisten. Beispielsweise ist

〈iv, iv〉 6= i2〈v, v〉 = −〈v, v〉 < 0

fur v 6= 0. Vielmehr gilt

〈iv, iv〉 = (ii)〈v, v〉 = 〈v, v〉 > 0 .

Die Positivitat ist wichtig, um via

|v| =√

〈v, v〉

eine Norm definieren zu konnen.

Beispiel:

Fur Vektoren x, y ∈ R2 werden eine Reihe moglicher Definitionen reeller Skalarprodukte be-trachtet. In der nachstehenden Tabelle ist jeweils angegeben, welche der Eigenschaften erfulltsind.

Skalarprodukt Eigenschaften

10x1y1 + x2y2 allex1y2 Linearitat

|x1y1|+ |x2y2| Positivitat, Symmetriex1x2 + y1y2 Symmetrie

Nur die erste Definition besitzt alle geforderten Eigenschaften. In dem komplexen VektorraumC2 ist dies allerdings nicht der Fall, sowohl die Positivitat als auch die Schiefsymmetrie sindnicht erfullt:

〈(i, 0), (i, 0)〉 = 10i2 = −10 < 0

〈(i, 0), (1, 0)〉 = 10i 6= 〈(1, 0), (i, 0)〉 = −10i

Indem man die Komponenten des zweiten Arguments komplex konjugiert, werden die Problemebehoben. Die Definition

〈x, y〉 = 10x1y1 + x2y2

liefert die richtige Erweiterung auf den komplexen Fall.

1.3.3 Cauchy-Schwarz-Ungleichung

Das Skalarprodukt lasst sich mit Hilfe der assoziierten Norm abschatzen:

|〈u, v〉| ≤ |u||v|, |w| =√

〈w,w〉 .

Gleichheit gilt genau dann, wenn u ‖ v.

http://www.mathematik-online.org/ 25

Page 26: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

Beweis:

Ist v = λu, so gilt, wie behauptet, die Gleichheit.Durch Multiplikation von u bzw. v mit einem Skalar wird die Ungleichung nicht verandert.Man kann also annehmen, dass

|u|2 = |v|2 = 1 .

Ist fur ein komplexes Skalarprodukt (die Argumentation schließt den reellen Fall ein)

〈u, v〉 = r exp(iϕ) , r > 0 ,

so folgt mit λ = exp(iϕ) fur nicht-parallele Vektoren

0 < 〈u− λv, u− λv〉= 1 + λλ− λr exp(iϕ)− λr exp(iϕ)

= 1 + 1− r − r .

Damit gilt r = |〈u, v〉| < 1, d.h. die Behauptung.

1.3.4 Norm

Eine Norm auf einem reellen oder komplexen Vektorraum V ist eine Abbildung

‖ · ‖ : V → R

mit den folgenden Eigenschaften:

• Positivitat:

‖v‖ > 0 fur v 6= 0

• Homogenitat:

‖λv‖ = |λ|‖v‖

• Dreiecksungleichung:

‖u + v‖ ≤ ‖u‖+ ‖v‖.

Dabei sind u, v beliebige Vektoren und λ ein beliebiger Skalar.Mit Hilfe einer Norm kann durch

d(u, v) = ‖u− v‖ein Abstand zwischen zwei Vektoren definiert werden.

1.3.5 Skalarprodukt - Norm

Mit einem Skalarprodukt auf einem reellen oder komplexen Vektorraum V ist die Norm

|v| =√

〈v, v〉, v ∈ V

assoziiert.

26 http://www.mathematik-online.org/

Page 27: 16320559 Lineare Algebra

1.3. SKALARPRODUKT UND NORM

Beweis:

Positivitat und Homogenitat ergeben sich unmittelbar aus den entsprechenden Eigenschaftendes Skalarprodukts. Die Dreiecksungleichung folgt aus

|u + v|2 = 〈u + v, u + v〉= 〈u, u〉+ 〈u, v〉+ 〈u, v〉

︸ ︷︷ ︸

∈R

+〈v, v〉

≤ |u|2 + 2|〈u, v〉|+ |v|2Cauchy-Schwarz

≤ |u|2 + 2|u||v|+ |v|2= (|u|+ |v|)2

durch Wurzelziehen.

1.3.6 Maximum-Norm

Fur die Vektorraume Rn und Cn bezeichnet

‖z‖∞ = maxi|zi|

die Maximum-Norm.Die Dreiecksungleichung ist erfullt, denn fur z = x + y gilt

maxi|zi| = max

i|xi + yi| ≤ max

i(|xi|+ |yi|) ≤ max

i|xi|+ max

i|yi| .

Die Maximum-Norm kann durch Einfuhrung von Gewichten wi ∈ R+ verallgemeinert werden:

‖z‖∞,w = maxi

(wi|zi|) .

1.3.7 Skalarprodukt reeller Vektoren

Fur Vektoren v = (v1, . . . , vn)t, w = (w1, . . . , wn)t ∈ Rn ist das kanonische Skalarprodukt durch

vtw =n∑

i=1

viwi = v1w1 + · · ·+ vnwn

definiert mit der assoziierten Norm

|v| =√

v21 + · · ·+ v2

n .

Geometrisch kann man das Skalarprodukt durch

vtw = |v||w| cos α

definieren, wobei α den kleineren der beiden Winkel zwischen v und w bezeichnet, gemessen inder von u und v aufgespannten Ebene.

α

w

v

http://www.mathematik-online.org/ 27

Page 28: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

Beweis:

Die Eigenschaften des Skalarprodukts uberpruft man leicht.Die Aquivalenz der geometrischen Definition verifiziert man (zunachst fur n = 2) mit demCosinussatz. Nach diesem gilt mit v = (v1, v2)

t und w = (w1, w2)t, dass

|v − w|2 = |v|2 + |w|2 − 2|v||w| cos α .

Setzt man ein, so ergibt sich

(v1 − w1)2 + (v2 − w2)

2 = v21 + v2

2 + w21 + w2

2 − 2|v||w| cos α

und mit Umformen die Behauptung.Fur n ≥ 2 spannen v und w im Rn eine Ebene auf. Die entsprechende Rechnung in dieser Ebenezeigt dann, dass die Behauptung fur beliebige Dimensionen n ≥ 2 richtig ist.

1.3.8 Skalarprodukt komplexer Vektoren

Fur Vektoren x = (x1, . . . , xn)t, y = (y1, . . . , yn)t ∈ Cn ist das kanonische Skalarprodukt durch

y∗x =n∑

j=1

xj yj

definiert mit der assoziierten Norm

|z| =√

|z1|2 + · · ·+ |zn|2 .

Das Superskript ∗ bezeichnet dabei die Transposition und komplexe Konjugation eines Vektors.Die Definition schließt den reellen Fall ein, bei dem die komplexe Konjugation entfallt.

Beispiel:

Bildet man das Skalarprodukt der Vektoren

x =

(1 + 2i−2− i

)

, y =

(22i

)

aus C2, so erhalt man

〈x, y〉 = (1 + 2i) · 2 + (−2− i) · 2i = 2 + 4i + 4i + 2i2 = 2 + 8i− 2 = 8i .

Das Skalarprodukt zweier komplexer Vektoren ist also nicht notwendigerweise reell.Das Konjugieren des zweiten Vektors spielt bei der assoziierten Norm eine wesentliche Rolle.Ohne Konjugation bei den Produkten hatte der erste Vektor die Norm

(1 + 2i)2 + (−2− i)2 =√

1 + 4i− 4 + 4 + 4i− 1 =√

8i 6∈ R ,

und fur den zweiten ware die Norm ebenfalls nicht positiv:

22 + (2i)2 =√

4− 4 = 0 6> 0 .

28 http://www.mathematik-online.org/

Page 29: 16320559 Lineare Algebra

1.3. SKALARPRODUKT UND NORM

1.3.9 Winkel zwischen Vektoren

Fur einen reelles Skalarprodukt ist durch

cos ^(u, v) =〈u, v〉|u||v|

ein Winkel in [0, π] zwischen u und v definiert. Insbesondere bezeichnet man u und v alsorthogonal, u⊥v, wenn 〈u, v〉 = 0.

Erlauterung:

Die Definition des Winkels ist durch den Cosinussatz fur Vektoren im R2 motiviert:

PSfrag replacements

u

v w

γ

In einem Dreieck gilt fur die Seitenlangen |u|, |v|, |w| die Beziehung

|w|2 = |u|2 + |v|2 − 2|u||v| cos ^(u, v) .

Da andererseits nach Definition des Skalarproduktes

|w|2 = |v − u|2 = |v|2 + |u|2 − 2〈u, v〉 ,

ergibt sich durch Vergleich die Definition des Winkels.

Fur ein beliebiges reelles Skalarprodukt ist aufgrund der Cauchy-Schwarz-Ungleichung

〈u, v〉|u||v| ∈ [−1, 1] .

Der Quotient kann also mit dem Cosinus eines Winkels in [0, π] gleichgesetzt werden.

1.3.10 Satz des Pythagoras

Fur eine Skalarprodukt-Norm gilt fur orthogonale Vektoren u und v

|u + v|2 = |u|2 + |v|2 .

http://www.mathematik-online.org/ 29

Page 30: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

Beweis:

Es gilt:

|u + v|2 = 〈u + v, u + v〉 = 〈u, u〉+ 〈u, v〉︸ ︷︷ ︸

=0, da u⊥v

+ 〈v, u〉︸ ︷︷ ︸

=0, da v⊥u

+〈v, v〉 = |u|2 + |v|2 .

Der Satz ist heute als Satz des Pythagoras (569-475 v. Chr.) bekannt, obwohl ihn bereits dieBabylonier 1000 Jahre fruher kannten. Moglicherweise war aber Pythagoras der erste, der ihnbewiesen hat.

1.3.11 Pythagoraisches Tripel

Als Pythagoraisches Tripel bezeichnet man drei naturliche Zahlen l,m, n mit

l2 + m2 = n2 ,

z.B. (3, 4, 5). Ein Dreieck mit Seitenlangen, die das Verhaltnis eines Pythagoraischen Tripelshaben, erfullt den Satz des Pythagoras und ist somit rechtwinklig. Die Agypter sollen diesbenutzt haben, um rechte Winkel zu erhalten: Sie verwendeten ein Seil auf dem durch Knotenzwolf gleiche Langenabschnitte markiert waren. Wurde aus diesem Seil ein Dreieck mit drei,vier und funf Langeneinheiten gebildet, befand sich zwischen den kurzeren Seiten ein rechterWinkel.Jede ungerade Zahl l ≥ 3 kann mit den Zahlen m = (l2 − 1)/2 und n = (l2 + 1)/2 zu einemPythagoraischen Tripel erganzt werden, denn

l2 +l4 − 2l2 + 1

4=

l4 + 2l2 + 1

4=

(l2 + 1

2

)2

.

Durch Multiplikation dieser Tripel mit 2 erhalt man auch Tripel fur jede gerade Zahl l ≥ 6.Das angegebene Konstruktionsprinzip ist der Spezialfall einer Methode, die aus der drittenBinomischen Formel folgt, denn aus

c2 − b2 = (c− b)(c + b) = a2

erhalt man dann eine ganzzahlige Losung, wenn man a2 in zwei unterschiedliche Faktorenzerlegen kann, die eine gerade Differenz (= 2b) aufweisen. Fur ungerade a = l ist dies fur dieAufteilung a2 = a2 · 1 erfullt. Man erhalt

b =a2 − 1

2, c =

a2 + 1

2

und damit den obigen Spezialfall.

1.4 Basen

1.4.1 Lineare Unabhangigkeit

Vektoren v1, . . . , vm heißen linear abhangig, wenn es Skalare α1, . . . , αm gibt mit

α1v1 + · · ·+ αmvm = 0

und mindestens einem αi 6= 0. Andernfalls heißen sie linear unabhangig.Allgemeiner bezeichnet man eine Menge M von Vektoren als linear unabhangig, wenn jedeendliche Teilmenge von M aus linear unabhangigen Vektoren besteht. Andernfalls heißt Mlinear abhangig.

30 http://www.mathematik-online.org/

Page 31: 16320559 Lineare Algebra

1.4. BASEN

Erlauterung:

Man beachte, dass im Sinne der linearen Algebra zwar unendliche Mengen M zugelassen sind,aber nur endliche Linearkombinationen. So ist z. B. im Vektorraum der Folgen die Menge

e = (1, 1, . . .)t, e1 = (1, 0, 0, . . .)t, e2 = (0, 1, 0, . . .)t, . . .

linear unabhangig, obwohl

e =∑

n∈N

en .

Es gibt keine endliche Darstellung der konstanten Folge e mit den kanonischen Einheitsvektoren.

Beispiel:

Zwei Vektoren im R2 sind genau dann linear unabhangig, wenn keiner der beiden ein Vielfachesdes anderen ist. So sind z. B. die Vektoren (1, 0)t und (1, 1)t linear unabhangig, denn der Ansatz

α(1, 0)t+β(1, 1)t = (0, 0)t

liefert

β =α = 0 .

Hingegen sind die Vektoren (0, 0)t und (2, 3)t linear abhangig, denn

(0, 0)t =0(2, 3)t

bzw.

1(0, 0)t+0(2, 3)t = (0, 0)t ;

es existiert also eine nichttriviale Darstellung des Nullvektors.Drei Vektoren u, v, w im R2 sind immer linear abhangig, denn der Ansatz

αu+βv + γw = 0

fuhrt auf ein unterbestimmtes, homogenes lineares Gleichungssystem

αu1+βv1 + γw1 = 0

αu2+βv2 + γw2 = 0

fur α, β, γ, das immer eine nichttriviale Losung besitzt.

Beispiel:

Wie im Zweidimensionalen sind zwei Vektoren im R3 linear abhangig, wenn sie parallel sind,d.h. wenn ein Vektor ein Vielfaches des anderen ist.Drei Vektoren sind linear abhangig, wenn zwei Vektoren parallel sind oder wenn ein Vektor inder von den beiden anderen Vektoren aufgespannten Ebene liegt. Beispielsweise gilt fur

u = (1, 2,−3)t, v = (4,−6, 2)t, w = (−9, 3, 6)t

http://www.mathematik-online.org/ 31

Page 32: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

6u + 3v + 2w = (0, 0, 0)t; die Vektoren sind also linear abhangig.Definitionsgemaß ist der Test fur lineare Abhangigkeit aquivalent zu einem homogenen linearenGleichungssystem

λ1

x1

y1

z1

+ · · ·+ λn

xn

yn

zn

=

000

fur die Skalare λi. Dies zeigt insbesondere, dass vier Vektoren im R3 immer linear abhangigsind.

1.4.2 Basis

Eine Teilmenge B eines Vektorraumes V heißt eine Basis von V , wenn B linear unabhangig undein Erzeugendensystem von V ist, d.h. wenn jeder Vektor v ∈ V eine eindeutige Darstellungals endliche Linearkombination

v =m∑

i=1

λibi

mit bi ∈ B besitzt.Ist B endlich (|B| = n), so lasst sich jeder Vektor durch seine Koordinaten bzgl. der Basisbeschreiben:

v ↔ vB = (λ1, . . . , λn)t .

Erlauterung:

Durch die Koordinatendarstellung

v =n∑

i=1

λibi ↔ vB = (λ1, . . . , λn)t ,

den so genannten kanonischen Isomorphismus, kann man einen endlich dimensionalen K-Vektorraum V mit dem Vektorraum Kn der n-Tupel identifizieren. Insbesondere kann mansich also beim Studium reeller und komplexer Vektorraume mit endlicher Basis auf die Proto-typen Rn und Cn beschranken.Wie man am Beispiel des Vektorraums der Polynome sieht, muss ein Vektorraum keine endlicheBasis besitzen. Es werden jedoch im Rahmen der linearen Algebra nur endliche Linearkombi-nationen betrachtet. Dies impliziert, dass die Folgen

e1 = (1, 0, 0, . . .)t, e2 = (0, 1, 0, . . .)t, . . .

keine Basis fur den Vektorraum der Folgen bilden. Das Betrachten unendlicher Linearkombi-nationen, wie sie etwa in Fourier-Reihen auftreten, liegt auf der Hand, erfordert jedoch einenKonvergenzbegriff, also mehr als nur die bloße Vektorraumstruktur.

1.4.3 Dimension

Besitzt ein Vektorraum V eine endliche Basis B = b1, . . . , bn, so ist die Anzahl der Basisvek-toren eindeutig bestimmt und wird als Dimension von V bezeichnet:

n = dim V .

Man setzt dim V = 0 fur V = 0 und dim V =∞ fur einen Vektorraum ohne endliche Basis.Nach dem allgemeinen Basissatz besitzt jeder Vektorraum eine Basis.

32 http://www.mathematik-online.org/

Page 33: 16320559 Lineare Algebra

1.4. BASEN

Beweis:

Um zu zeigen, dass die Dimension im endlichen Fall eindeutig bestimmt ist, genugt es, diefolgende Aussage zu beweisen:Hat ein Vektorraum eine n-elementige Basis

b1, . . . , bn ,

so sind n + 1 Vektoren v1, . . . , vn+1 (und damit auch mehr als n + 1 Vektoren) linear abhangig.Wurden namlich zwei Basen mit unterschiedlich vielen Vektoren existieren, erhalt man einenWiderspruch zur linearen Unabhangigkeit der Basisvektoren.Die obige Behauptung kann durch Induktion nach n bewiesen werden.Fur den Induktionsschritt (der Induktionsanfang n = 1 ist trivial) betrachtet man die Basis-darstellung der Vektoren vi:

vi =n∑

j=1

γi,jbj, i = 1, . . . , n + 1 .

Giltγi,1 = · · · = γi,n = 0 ,

so ist vi = 0, und die lineare Abhangigkeit ist bereits gezeigt. Also kann man durch geeigneteNummerierung annehmen, dass γn+1,n 6= 0. Ausgehend von obiger Gleichung definiert man nunVektoren, die sich als Linearkombination der n− 1 Vektoren b1, . . . , bn−1 darstellen lassen:

v′i = vi −

γi,n

γn+1,n

vn+1, i = 1, . . . , n .

Dass der Koeffizient von bn verschwindet, ist leicht zu sehen. Da

v′1, . . . , v

′n ∈ V ′ = span b1, . . . , bn−1 ,

kann man die Induktionsvoraussetzung anwenden und erhalt eine nichttriviale Linearkombina-tion

λ1v′1 + · · ·+ λnv

′n = 0 .

Nach Umformung ergibt sich eine Linearkombination der vi, also die behauptete lineareAbhangigkeit.

1.4.4 Orthogonale Basis

Eine Basis B = u1, . . . , un heißt orthogonal, wenn

〈ui, uj〉 = 0, i 6= j .

Sind die Basisvektoren normiert, d.h. ist |ui| = 1, so spricht man von einem Orthonormalsystemoder einer Orthonormalbasis.Ein Vektor v besitzt bzgl. einer orthogonalen Basis u1, . . . , un die Darstellung

v =n∑

j=1

cjuj , cj =〈v, uj〉|uj|2

.

Fur die Koeffizienten cj gilt

|c1|2|u1|2 + · · ·+ |cn|2|un|2 = |v|2 .

Fur eine normierte Basis fallen die Terme |uj|2 weg, und es ergibt sich

cj = 〈v, uj〉 , |c1|2 + · · ·+ |cn|2 = |v|2 .

http://www.mathematik-online.org/ 33

Page 34: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

Beweis:

Da die u1, . . . , un eine Basis bilden, existieren Skalare c1, . . . , cn mit

v =n∑

j=1

cjuj .

Bildet man fur obige Gleichung das Skalarprodukt mit uk und nutzt die Orthogonalitat derBasis aus, so erhalt man

〈v, uk〉 =ck〈uk, uk〉

bzw.

ck =〈v, uk〉〈uk, uk〉

.

Die Identitat fur die Koeffizienten ist eine Verallgemeinerung des Satzes von Pythagoras (n = 2).Sie folgt unmittelbar durch Ausmultiplizieren von

|v|2 = 〈c1u1 + · · ·+ cnun, c1u1 + · · ·+ cnun〉 ,wenn man berucksichtigt, dass die gemischten Terme

〈cjuj, ckuk〉, j 6= k

wegen der Orthogonalitat der Basisvektoren verschwinden.

Beispiel:

Bzgl. der orthogonalen Basis

u1 =

(13

)

, u2 =

(−62

)

besitzt v = (8, 4)t die Darstellung

v =〈v, u1〉〈u1, u1〉

u1 +〈v, u2〉〈u2, u2〉

u2 =8 + 12

1 + 9u1 +

−48 + 8

36 + 4u2 = 2u1 − u2 .

Fur die Koeffizienten gilt

|2|2∣∣∣∣

(13

)∣∣∣∣

2

+ | − 1|2∣∣∣∣

(−62

)∣∣∣∣

2

= 4 · 10 + 1 · 40 =

∣∣∣∣

(84

)∣∣∣∣

2

.

Bzgl. der orthonormalen Basis

u1 =1

9

148

, u2 =1

9

47−4

, u3 =1

9

8−41

besitzt v = (−1, 1, 3)t die Darstellung

v = 〈v, u1〉u1 + 〈v, u2〉u2 + 〈v, u1〉u1 = 3u1 − u2 − u3 .

Fur die Koeffizienten gilt

|3|2 + | − 1|2 + | − 1|2 =

∣∣∣∣∣∣

−113

∣∣∣∣∣∣

2

.

34 http://www.mathematik-online.org/

Page 35: 16320559 Lineare Algebra

1.4. BASEN

1.4.5 Orthogonale Projektion

Die orthogonale Projektion

v 7→ PU(v) ∈ U

auf einen Unterraum U ist durch die Orthogonalitatsbedingung

〈v − PU(v), u〉 = 0, ∀u ∈ U

charakterisiert.

PSfrag replacementsO

PU(v)

v

U

Ist u1, . . . , uj eine orthogonale Basis von U , so ist

PU(v) =

j∑

k=1

〈v, uk〉〈uk, uk〉

uk .

Beispiel:

Durch

x1 + x2 + x3 + x4 = 0

wird eine Hyperebene H ⊂ R4 definiert. Als orthogonale Basis fur H konnen beispielsweise dieVektoren

u =

11−1−1

, v =

1−11−1

, w =

1−1−11

verwendet werden. Fur die orthogonale Projektion des Vektors x = (1, 2, 3, 4)t gilt dann

PHx =xtu

|u|2 u +xtv

|v|2 v +xtw

|w|2w =−4

4u +−2

4v +

0

4w

http://www.mathematik-online.org/ 35

Page 36: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

1.4.6 Verfahren von Gram-Schmidt

Aus einer Basis b1, . . . , bn kann wie folgt eine orthogonale Basis u1, . . . , un konstruiert werden.Man definiert sukzessive

uj = bj −∑

k<j

〈bj, uk〉〈uk, uk〉

uk,

fur j = 1, . . . , n.Die Rekursion vereinfacht sich, wenn man die Basisvektoren nach jedem Schritt normiert:

uj ←uj

|uj|.

In diesem Fall ist 〈uk, uk〉 = 1.

Beweis:

Man zeigt induktiv, dass u1, . . . , ul eine orthogonale Basis fur span (b1, . . . , bl) bilden.Fur l = 1 ist dies offensichtlich: u1 = b1.Fur den Induktionsschritt (l → l + 1) bemerkt man zunachst, dass fur j ≤ l

〈ul+1, uj〉 = 〈bl+1, uj〉 −∑

k≤l

〈bl+1, uk〉〈uk, uk〉

〈uk, uj〉︸ ︷︷ ︸

δk,j |uk|2

= 0 .

Folglich sind u1, . . . , ul+1 orthogonal. Schließlich ist

bl+1 − ul+1 ∈ span(u1, . . . , ul) = span(b1, . . . , bl) ,

womit gezeigt ist, dass beide Basen denselben Unterraum aufspannen.

Beispiel:

Um eine bzgl. des Skalarproduktes

〈f, g〉 =

∫ 1

−1

f(x)g(x) dx

orthogonale Folge von Polynomen p0, p1, . . . zu konstruieren, kann man von den Monomenqj(x) = xj ausgehen. Mit dem Verfahren von Gram-Schmidt erhalt man

p0 = q0

p1 = q1 −∫ 1

−1x · 1 dx

∫ 1

−11 · 1 dx

· 1 = x− 0

p2 = q2 −∫ 1

−1x2 · x dx

∫ 1

−1x · x dx

· x−∫ 1

−1x2 · 1 dx

∫ 1

−11 · 1 dx

· 1 = x2 − 0 · x− 1

3.

Die allgemeine Formel

pn+1 = qn+1 −n∑

j=0

〈qn+1, pj

pj, pj

· pj

36 http://www.mathematik-online.org/

Page 37: 16320559 Lineare Algebra

1.4. BASEN

lasst sich stark vereinfachen, wenn man an Stelle von qn+1(x) = xn+1 das Polynom qn+1(x) =x · pn(x) verwendet. Wegen

spanp1, . . . , pn, qn+1 = spanp1, . . . , pn, qn+1

ist das legitim. In diesem Fall ist nur der Summand mit j = n− 1 ungleich Null.Fur j = n verschwindet 〈qn+1, qn〉 =

∫ 1

−1x qn(x) qn(x)dx aufgrund der Symmetrie. Fur j < n−1

ist [x pj(x)] eine Linearkombination von pk(x), k < n. Wegen 〈pn, pn〉 = 0 ist damit

〈qn+1, pj〉 =

∫ 1

−1

pn(x) [x pj(x)] dx

ebenfalls Null.Die so gewonnenen orthogonalen Polynome werden als Legendre Polynome bezeichnet. Mitetwas anderer Normalisierung

pn(x) = αnxn + . . .

hat die Zwei-Term-Rekursion die Form

pn+1(x) =αn+1

αn

(x− βn)pn(x)− γnpn−1(x)

mit βn = 〈xpn,pn〉%n

, γn = αn+1αn−1%n

α2n%n−1

und %n = 〈pn, pn〉.

http://www.mathematik-online.org/ 37

Page 38: 16320559 Lineare Algebra

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

38 http://www.mathematik-online.org/

Page 39: 16320559 Lineare Algebra

Kapitel 2

Matrizen

2.1 Lineare Abbildungen

2.1.1 Lineare Abbildung

Eine Abbildung L : V 7−→ W zwischen K-Vektorraumen V und W heißt linear, wenn siefolgende Eigenschaften besitzt:

• Additivitat:L(u + v) = L(u) + L(v)

• Homogenitat:L(λv) = λL(v)

Dabei sind u, v ∈ V und λ ∈ K beliebige Vektoren bzw. Skalare. Insbesondere gilt L(0V ) = 0W

und L(−v) = −L(v).

Beispiel:

Wie in der folgenden Abbildung illustriert ist, ist eine Drehung linear.

PSfrag replacements

~v1 ~v2

~v

L(~v1)

L(~v2)

L(~v) PSfrag replacements

~v 3~v

L(~v)

L(3~v)

Die Summe v = v1 + v2 bildet mit den beiden Vektoren vi ein Dreieck, dessen Form durch dieDrehung unverandert bleibt, d.h., die Summe kann vor oder nach der Drehung gebildet werden.Dass eine Streckung um einen Faktor λ mit der Drehung vertauschbar ist, ist unmittelbarersichtlich.Analog lasst sich veranschaulichen, dass auch eine Spiegelung linear ist.

http://www.mathematik-online.org/ 39

Page 40: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

PSfrag replacements

~v1 ~v2

~v

L(~v1)

L(~v2)

L(~v)PSfrag replacements

~v 3~v

L(~v)

L(3~v)

Eine Verschiebung von Punkten in der Ebene ist jedoch nicht linear. Weder die Additivitatnoch die Homogenitat ist erfullt. Fur

T : (x1, x2) 7→ (x1 + 1, x2)

undv1 = (1, 0), v2 = (0, 1), λ = 2

gilt beispielsweise

T (v1 + v2) = (2, 1) 6= (3, 1) = T (v1) + T (v2)

T (λv) = (3, 0) 6= (4, 0) = λT (v) .

Beispiel:

Die folgende Tabelle zeigt einige Beispiele von Abbildungen reeller Funktionen. Dabei ist jeweilsangegeben, welche der beiden Bedingungen fur Linearitat erfullt sind.

Abbildung additiv homogenf 7→ f ′ X Xf 7→ |f | – –

f 7→∫ 1

0f X X

f 7→ max f – –f 7→ f(0) X Xf 7→ (max f + min f)/2 – X

Ein Beispiel fur eine Abbildung, die additiv aber nicht homogen ist, ist die Abbildung T , dieeiner komplexwertigen Funktion ihren Realteil zuweist. Hier gilt T (if) 6= iT (f).

2.1.2 Komposition linearer Abbildungen

Fur zwei lineare Abbildungen

S : U → V , T : V → W .

40 http://www.mathematik-online.org/

Page 41: 16320559 Lineare Algebra

2.1. LINEARE ABBILDUNGEN

definiert man die Komposition (auch Hintereinanderausfuhrung genannt)

T S : U → W

durch(T S)(u) = T (S(u)) ,

d.h. man wendet auf ein u ∈ U die Abbildung S und auf das Ergebnis die Abbildung T an; dieAbbildung T wird nach der Abbildung S angewandt.Die Komposition zweier linearer Abbildungen ist wiederum linear.

2.1.3 Matrix

Unter einer (m×n)-Matrix (m,n ∈ N) uber einem Korper K versteht man ein Rechteckschema

A = (aij) =

a11 a12 · · · a1n

a21 a22 · · · a2n

......

...am1 am2 · · · amn

.

Man bezeichnet (ai1, ai2, . . . , ain) als i-ten Zeilen- und (a1j, a2j, . . . , amj)t als j-ten Spaltenvektor

von A. Speziell ist eine (n× 1)-Matrix ein Spalten- und eine (1× n)-Matrix ein Zeilenvektor.Die Gesamtheit aller (n×m)-Matrizen wird mit Kn×m bezeichnet; Rn×m (Cn×m) bezeichnetdie reellen (komplexen) Matrizen.

Beispiel:

Die folgenden Beispiele illustrieren verschiedene Matrixdimensionen.

315797

, (i, 1 + i,−1, 3i) ,

0 1 0i 1 + i −i√

3 + 3i 7543 17

,

11 1221 2231 32

Die ersten beiden Matrizen sind Spalten- bzw. Zeilenvektoren, d.h. Matrizen, bei denen eineder Dimensionen 1 ist. Rechts ist eine quadratische und eine rechteckige Matrix gezeigt.

2.1.4 Matrix einer linearen Abbildung

Eine lineare Abbildung L : V 7−→ W zwischen zwei K-Vektorraumen mit den Basen E =e1, . . . , en und F = f1, . . . , fm ist durch die Bilder der Basisvektoren

L(ej) = a1,jf1 + · · ·+ am,jfm

eindeutig bestimmt. Sie besitzt die Matrixdarstellung

wF = AvE ←→ wi =n∑

j=1

ai,jvj, i = 1, . . . ,m ,

wobei vj und wi die Koordinaten von v und w = L(v) bzgl. der Basen E und F bezeichnen. Inder j-ten Spalte der Matrix A stehen also die Koordinaten von L(ej) bzgl. der Basis F .

http://www.mathematik-online.org/ 41

Page 42: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

Beweis:

Dass L durch die Bilder einer Basis eindeutig bestimmt ist, ergibt sich unmittelbar aus denBedingungen fur Linearitat:

w = L(v) = L

(∑

j

vjej

)

=∑

j

vjL(ej) =∑

j

i

vjai,jfi .

Schreibt manw =

i

wifi

und vergleicht die Koordinaten der Basisvektoren wi, so erhalt man auch die behauptete Ma-trixdarstellung.

Beispiel:

Im folgenden sind einige lineare Abbildungen

L : R2 → R2

der Ebene dargestellt, die durch die Bilder der Einheitsvektoren ei (fett) festgelegt sind.

PSfrag replacements

e1

e2

Urbild

e1 =

(10

)

, e2 =

(01

)

PSfrag replacements

L(e1) = re1

L(e2) = se2

Streckung

PSfrag replacements

L(e1)

L(e2)

ϑ

Drehung

PSfrag replacements

α(e1)

α(e2)

ϑ

Scherung

A =

(r 00 s

)

A =

(cos ϑ − sin ϑsin ϑ cos ϑ

)

A =

(1 cot ϑ0 1

)

Man kann die Matrixdarstellung A bzgl. der kanonischen Basis e1, e2 unmittelbar ablesen. DieSpalten der Matrizen enthalten jeweils die Koordinaten der Vektoren L(ei), i = 1, 2.

42 http://www.mathematik-online.org/

Page 43: 16320559 Lineare Algebra

2.1. LINEARE ABBILDUNGEN

Beispiel:

Eine lineare Funktion

x 7→ p(x) = a0 + a1x

ist durch ihre Werte an den Punkten x = 0, 1 bestimmt. Die Abbildung

L : p 7→(

p(0)p(1)

)

ist linear und kann bzgl. der durch die Koeffizientenvektoren,

(a0

a1

)

=

(10

)

,

(01

)

definierten Monombasis durch die Matrix(

1 01 1

)

dargestellt werden.Verwendet man die Basis

p1(x) = 1− x, p2(x) = x

erhalt man die Matrix (p1(0) p2(1)p1(0) p2(1)

)

=

(1 00 1

)

.

Allgemein wird die Auswertung eines Polynoms

p(x) = a0 + a1x + · · ·+ anxn

vom Grad ≤ n an m Stutzstellen x = x1, . . . , xm durch die Vandermonde-Matrix

V =

x01 x1

1 · · · xn1

x02 x1

2 · · · xn2

......

. . ....

x0m x1

m · · · xnm

,

p(x1)...

p(xm)

= V

a0...

an

beschrieben.

2.1.5 Koordinatentransformation bei Basiswechsel

Bei einem Basiswechsel E → E ′ transformieren sich die Koordinaten eines Vektors v gemaß

vE = AvE′ ⇔ vE′ = A−1vE ,

wobei die Spalten der quadratischen Matrix A die Koeffizienten der Basisvektoren e′i bzgl. derBasis E enthalten:

e′i =∑

j

aj,iej .

http://www.mathematik-online.org/ 43

Page 44: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

Beweis:

Der Vektor v besitzt bezuglich der Basen E und E ′ die Darstellungen∑

k

λkek = v =∑

k

λ′ke

′k .

Mit Hilfe der Darstellung der e′k bezuglich der Basis E folgt

v =∑

k

λ′ke

′k =

k

λ′k

(∑

j

aj,kej

)

=∑

j

(∑

k

aj,kλ′k

)

ej =∑

j

λjej .

Durch Koordinatenvergleich erhalt man vE = AvE′ .

2.1.6 Bild und Kern

Fur eine lineare Abbildung L : V → W bezeichnet man mit

ker L = v ∈ V : L(v) = 0 ⊆ V

den Kern und mit

Bild L = w ∈ W : ∃v ∈ V mit L(v) = w ⊆ W

das Bild von L. Beide Mengen sind Unterraume.

Beweis:

Zu zeigen ist jeweils die Abgeschlossenheit bezuglich der linearen Operationen der K-Vektorraume V bzw. W .(i) ker L ist Unterraum von V : Fur u, v ∈ ker(L), λ ∈ K, gilt aufgrund der Linearitat von L

L(λu) = λL(u) = λ 0 = 0

undL(u + v) = L(u) + L(v) = 0 + 0 = 0 .

Folglich sind λu und u + v ebenfalls Elemente von ker(L).(ii) Bild L ist Unterraum von W : Fur u, v ∈ Bild L mit u = L(x), v = L(y) und λ ∈ K giltaufgrund der Linearitat von L

λu = λL(x) = L(λx)

undu + v = L(x) + L(y) = L(x + y) .

Da V ein Vektorraum ist, gibt es somit entsprechende Urbilder, und folglich sind λu und u + vebenfalls Elemente von Bild L.

2.1.7 Dimension von Bild und Kern

Fur eine lineare Abbildung L : V → W gilt

dim V = dim ker(L) + dim Bild(L) ,

falls dim V <∞.

44 http://www.mathematik-online.org/

Page 45: 16320559 Lineare Algebra

2.1. LINEARE ABBILDUNGEN

Beweis:

Um die Identitat fur die Dimension zu beweisen, wahlt man eine Basis E ′ = e1, . . . , em furker L und erganzt diese durch em+1, . . . , en zu einer Basis E von V . Da

L

(n∑

i=1

viei

)

=n∑

i=m+1

viL(ei),

istBild L = span F, F = L(em+1), . . . , L(en) .

Weiter ist F linear unabhangig, also eine Basis von Bild L, denn aus

n∑

i=m+1

viL(ei) = 0

folgt∑n

i=m+1 viei ∈ ker L und somit vi = 0. Die behauptete Dimensionsformel ergibt sich nundurch Vergleich der Anzahlen der Basisvektoren.

Beispiel:

Zur Illustration der Dimensionsformel wird die k-te Ableitung auf dem Raum der Polynomevon Grad ≤ n betrachtet.Sei zunachst k = 1 und n = 2. Fur den Raum der Polynome vom Grad ≤ 2 bildet 1, x, x2eine Basis, der Raum hat also Dimension 3. Fur p(x) = a0 + a1x + a2x

2 ist p′(x) = a1 + 2a2xein Polynom vom Grad ≤ 1. Der Bildraum hat also Dimension 2. Beim Ableiten verschwindendie Konstanten. Diese bilden einen eindimensionalen Unterraum. Der Kern der Abbildung hatalso Dimension 1 und somit ist die Dimensionsformel mit 3 = 1 + 2 erfullt.Im allgemeinen Fall hat das Polynom die Form

p(x) =n∑

l=0

alxl

und die k-te Ableitung

p(k)(x) =n∑

l=k

l!

(l − k)!alx

l−k .

Das Bild ist ein Polynom vom Grad ≤ n− k und Polynome vom Grad < k werden annulliert.Die Dimensionsformel hat also die Form

n + 1 = ((n− k) + 1)︸ ︷︷ ︸

dim Bild

+ k︸︷︷︸

dim ker

.

2.1.8 Inverse Abbildung

Eine lineare Abbildung L : V → W ist genau dann injektiv, wenn ker L = 0V . In diesem Fallist durch

w 7→ v, w = L(v) ,

eine inverse Abbildung L−1 : Bild L→ V definiert, die ebenfalls linear ist. Insbesondere gilt

L−1 L(v) = v, L L−1(w) = w

fur alle v ∈ V und w ∈ Bild L.

http://www.mathematik-online.org/ 45

Page 46: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

Beweis:

Aufgrund der Linearitat von L gilt

L(v1)− L(v2) = L(v1) + L(−v2) = L(v1 − v2) ,

und aus dieser Beziehung folgt

L(v1) = L(v2)⇔ v1 − v2 ∈ ker L .

Fur eine injektive lineare Abbildung kann also der Kern nur den Nullvektor enthalten.Dass die Umkehrabbildung linear ist, folgt aus

L−1(L(v1) + L(v2)) = L−1(L(v1 + v2)) = v1 + v2 = L−1(L(v1)) + L−1(L(v2)) ,

L−1(λL(v1)) = L−1(L(λv1)) = λv1 = λL−1(L(v1)) .

2.2 Matrix-Operationen

2.2.1 Vektorraum der Matrizen

Die (m × n)-Matrizen bilden einen Vektorraum, d.h., sie konnen addiert und mit Skalarenmultipliziert werden. Diese Operationen sind komponentenweise definiert:

C = A + B ⇔ ci,j = ai,j + bi,j ,

B = λA ⇔ bi,j = λai,j .

2.2.2 Matrix-Multiplikation

Das Produkt einer (n×m)-Matrix A und einer (m× s)-Matrix B ist die (n× s)-Matrix

C = AB , cij =m∑

k=1

aikbkj ,

d.h. zur Definition von cij werden die Produkte der Elemente aus Zeile i von A und Spalte jvon B summiert:

cij

=

ai1 · · · aik · · · aim

b1j

...bkj

...bmj

.

Man beachte, dass dazu die Spaltenzahl von A mit der Zeilenzahl von B ubereinstimmen muss.Die Matrixmultiplikation entspricht der der Komposition der linearen Abbildungen

T : u 7→ v = Bu, S : v 7→ w = Av ,

d.h. C ist die Matrixdarstellung von T S.

46 http://www.mathematik-online.org/

Page 47: 16320559 Lineare Algebra

2.2. MATRIX-OPERATIONEN

Beweis:

Fur die Komposition der durch

wi =m∑

k=1

aikvk, vk =s∑

j=1

bkjuj

definierten Abbildungen erhalt man

wi =∑

k

j

aikbkjuj =∑

j

[∑

k

aikbkj

]

uj .

Der Ausdruck in eckigen Klammern ist das Matrixprodukt und stimmt also mit der Matrix Cder Komposition der Abbildungen uberein.

Beispiel:

Im Folgenden sind einige konkrete Matrix-Produkte angegeben:

(1 10 100

100 10 1

)

1 3 22 1 33 2 1

=

(321 213 132123 312 231

)

123

(

7 13)

=

7 1314 2621 39

(3 4

)(

34

)

= 25

(1 ii 1

)(1i

)

=

(02i

)

2.2.3 Strassens Algorithmus

Berechnet man das Produkt C = AB von zwei (2 × 2)-Matrizen A, B in der ublichen Weise,so benotigt man 8 Multiplikationen. Sehr uberraschend hat Strassen gezeigt, dass 7 Multiplika-tionen ausreichen [V. Strassen: Gaussian elimination is not optimal, Numer. Math. 13 (1969).357–361]. Man berechnet die Produkte

p1 = (a1,2 − a2,2)(b2,1 + b2,2)p2 = (a1,1 + a2,2)(b1,1 + b2,2)p3 = (a1,1 − a2,1)(b1,1 + b1,2)p4 = (a1,1 + a1,2)b2,2

p5 = a1,1(b1,2 − b2,2)p6 = a2,2(b2,1 − b1,1)p7 = (a2,1 + a2,2)b1,1

und erhalt die Elemente der Produktmatrix C durch Bilden der Summen

c1,1 = a1,1b1,1 + a1,2b2,1 = p1 + p2 − p4 + p6

c1,2 = a1,1b1,2 + a1,2b2,2 = p4 + p5

c2,1 = a2,1b1,1 + a2,2b2,1 = p6 + p7

c2,2 = a2,1b1,2 + a2,2b2,2 = p2 − p3 + p5 − p7.

http://www.mathematik-online.org/ 47

Page 48: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

Wendet man diese Konstruktion in Blockform rekursiv auf Matrizen der Dimension n = 2k an,so ergibt sich eine Reduktion der Multiplikationen von n3 auf O(nlog2 7). Dieses Resultat konntesogar noch auf O(n2.376...) verbessert werden [D. Coppersmith, S. Winograd: Matrix Multipli-cation via arithmetic progressions, J. Symb. Comp. 9 (1990), 251–280]. Es wird vermutet, daßsogar O(n2) moglich ist — der optimale Exponent ist jedoch noch unbekannt.

Fur Matrizen von reellen oder komplexen Zahlen hat dieses Resultat heute keine praktischeBedeutung mehr, da die Berechnungen meist mit Hilfe von Computern durchgefuhrt werden,die fast ebenso schnell multiplizieren wie addieren konnen. Es ist daher nicht sinnvoll, 8 Mul-tiplikationen und 4 Additionen durch 7 Multiplikationen und 18 Additionen zu ersetzen. Dermathematischen Brillianz des Resultates tut das jedoch keinen Abbruch.

2.2.4 Kommutator

Der Kommutator zweier (n× n)-Matrizen ist als

[A,B] = AB −BA

definiert und im allgemeinen nicht Null. Im Fall [A,B] = 0 werden A und B als kommutierendeMatrizen bezeichnet.

Beispiel:

Bei der Hintereinanderausfuhrung zweier Spiegelungen S1 und S2 an unterschiedlichen Achseng1 und g2 ist die Reihenfolge relevant.

Das Bild zeigt oben die Bilder der einzelnen Spiegelungen. In der unteren Reihe ist links dieDoppelspiegelung S2 S1 dargestellt und rechts die Doppelspiegelung S1 S2. Die Ergebnissesind jeweils Drehungen um den doppelten Winkel zwischen den Geraden, allerdings in unter-schiedliche Richtungen.

48 http://www.mathematik-online.org/

Page 49: 16320559 Lineare Algebra

2.2. MATRIX-OPERATIONEN

PSfrag replacements

g1 g2

ϑ

g1

g2

ϑ 2ϑ

g1

g2

Wahlt man als g1 die erste Winkelhalbierende und als g2 die y-Achse so haben die Abbildungendie Matrixdarstellungen

v = S1u =

(0 11 0

)

u ,

v = S2u =

(−1 0

0 1

)

u .

Die Doppelspiegelungen haben die Darstellungen

w = S2S1u =

(−1 0

0 1

)(0 11 0

)

u

=

(0 −11 0

)

u ,

w = S1S2u =

(0 11 0

)(−1 0

0 1

)

u

=

(0 1−1 0

)

u .

Der Kommutator ist in diesem Fall

[S1, S2] =

(0 1−1 0

)

−(

0 −11 0

)

=

(0 2−2 0

)

.

http://www.mathematik-online.org/ 49

Page 50: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

2.2.5 Inverse Matrix

Fur eine invertierbare lineare Abbildung v 7→ Av bezeichnet A−1 die Inverse der Matrix A, d.h.

AA−1 = A−1A = E

mit

E =

1 0 · · · 00 1 · · · 0...

. . ....

0 0 · · · 1

der Einheitsmatrix.Die invertierbaren beziehungsweise regularen Matrizen A ∈ Kn×n bilden bezuglich der Multi-plikation eine Gruppe, die lineare Gruppe, die mit GL(n,K) bezeichnet wird.Es gilt

(AB)−1 = B−1A−1

fur A,B ∈ GL(n,K).

Beweis:

Es gilt

B−1A−1AB = B−1EB = B−1B = E ,

und damit ist also B−1A−1 die Inverse zu AB.

Beispiel:

Die Inverse einer Diagonalmatrix erhalt man durch Kehrwertbildung der Diagonal-Elemente,z.B.:

A =

(3 00 1/7

)

, A−1 =

(1/3 0

0 7

)

.

Fur Dreiecksmatrizen bleibt die Dreieck-Form bei der Invertierung ebenfalls erhalten, z.B.:

B =

(1 01 1

)

, B−1 =

(1 0−1 1

)

.

Im allgemeinen ist die Inverse einer Matrix voll besetzt, z.B.:

C =

(−1 2−1 1

)

, C−1 =

(1 −21 −1

)

.

Die Eintrage mussen dann durch Losen eines linearen Gleichungssystems bestimmt werden.

2.2.6 Transponierte und adjungierte Matrix

Werden Zeilen und Spalten einer Matrix A vertauscht so spricht man von der transponiertenMatrix B = At, d.h.

bi,j = aj,i .

50 http://www.mathematik-online.org/

Page 51: 16320559 Lineare Algebra

2.2. MATRIX-OPERATIONEN

Werden bei einer komplexen Matrix A zusatzlich die Eintrage konjugiert, so ergibt sich dieadjungierte Matrix C = A∗ = At, d.h.

ci,j = aj,i .

Eine Matrix mit A = At bezeichnet man als symmetrisch, eine Matrix mit A = A∗ als selbst-adjungiert oder Hermitesch. Fur reelle Matrizen bedeuten die Begriffe hermitesch und symme-trisch also dasselbe.Es gelten folgende Regeln:

• (AB)t = BtAt und (AB)∗ = B∗A∗ ,

• (At)−1 = (A−1)t und (A∗)−1 = (A−1)∗ .

Beweis:

Fur einen Eintrag in Ct = (AB)t gilt

ctji = cij =

k

aikbkj =∑

k

atkib

tjk =

k

btjka

tki

und damit Ct = BtAt. Da a + b = a + b und ab = ab gilt, bleibt dies auch fur die Adjungiertekorrekt.Aus

E = Et =(AA−1

)t=(A−1

)tAt

folgt (A−1)t= (At)

−1. Entsprechendes gilt fur die Adjungierte.

2.2.7 Spur

Die Summe uber die Hauptdiagonalenelemente einer n× n Matrix A nennt man die Spur vonA,

Spur(A) =n∑

i=1

aii .

Sind A,B beliebige (n× n)-Matrizen, dann gilt:

Spur(AB) = Spur(BA).

Hieraus folgt, daß fur eine regulare Matrix T und eine beliebige Matrix A gilt:

Spur(T−1AT ) = Spur(A).

Dies bedeutet, dass die Spur unter Koordinatentransformationen invariant bleibt.

2.2.8 Rang einer Matrix

Fur eine (m × n)-Matrix A stimmt die maximale Anzahl linear unabhangiger Spalten mitder maximalen Anzahl linear unabhangiger Zeilen uberein und wird als Rang von A, Rang A,bezeichnet. Insbesondere gilt

Rang A ≤ maxm,n.

http://www.mathematik-online.org/ 51

Page 52: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

Beweis:

Die maximale Zahl linear unabhangiger Spalten v1, . . . , vn entspricht der Dimension des Vek-torraums

V = spanv1, . . . , vn ,

denn man kann aus den Spalten eine Basis auswahlen. Die analoge Aussage gilt fur den durchdie Zeilen w1, . . . , wm aufgespannten Vektorraum W . Die Behauptung

dim V = dim W

wird nun durch Induktion nach n gezeigt.

Es ist leicht zu sehen, daß dim V und dim W bei folgenden Operationen unverandert bleiben:

• Permutation von Spalten oder Zeilen;

• Addition eines skalaren Vielfachen einer Spalte (Zeile) zu einer anderen Spalte (Zeile).

Ist die Matrix A 6= 0 kann man sie durch Anwendung dieser Operationen auf die Form

B =

b1,1 0 . . . 00... A′

0

bringen.

Durch Permutationen erreicht man zunachst b1,1 6= 0 und annulliert dann die restlichen Ele-mente der ersten Zeile und Spalte durch geeignete Additionen. Genauer addiert man zunachstdas (−b1,j/b1,1)-fache der ersten Spalte zu der j-ten Spalte (j = 2, . . . , n) und verfahrt dannanalog mit den Zeilen. Bezeichnet man mit V ′ und W ′ die entsprechenden Vektorraume fur die(m− 1)× (n− 1)-Matrix A′, so folgt

dim V = dim V ′ + 1, dim W = dim W ′ + 1

und induktiv die Behauptung.

Beispiel:

Einige typische Falle sind anhand von drei (3× 2)-Matrizen veranschaulicht:

Rang

0 00 00 0

= 0 Rang

1 22 33 4

= 2, Rang =

3 46 89 12

= 1 .

Fur die dritte Matrix gilt 4S1 = 3S2 fur die Spalten S1 und S2 und 2Z3 = 3Z2 = 6Z1 fur dieZeilen Z1, Z2 und Z3. In beiden Fallen ist also die Dimension des entsprechenden Vektorraumsgleich 1.

52 http://www.mathematik-online.org/

Page 53: 16320559 Lineare Algebra

2.2. MATRIX-OPERATIONEN

2.2.9 Norm einer Matrix

Einer Vektornorm ist die Matrixnorm

‖A‖ = supx6=0

‖Ax‖‖x‖ = max

‖x‖=1‖Ax‖

zugeordnet. Zusatzlich zu den Normeigenschaften (Positivitat, Homogenitat, Dreiecksunglei-chung) gilt

‖AB‖ ≤ ‖A‖‖B‖ ,d.h. die zugeordnete Matrixnorm ist submultiplikativ.

Beweis:

Im Folgenden werden die einzelnen Eigenschaften verifiziert:Positivitat: Durch die Definition uber die Vektornorm ist gewahrleistet, dass ‖A‖ ≥ 0. Ist Adie Nullmatrix, so kommt nur der Nullvektor als Bild vor und die Norm ist 0. Ist andererseitsdie Norm Null, so tritt nur der Nullvektor als Bild auf, und die Abbildung wird durch dieNullmatrix beschrieben.Homogenitat:

‖λA‖ = max‖x‖=1

‖λAx‖ = max‖x‖=1

|λ|‖Ax‖

= |λ| max‖x‖=1

‖Ax‖ = |λ|‖A‖ .

Dreiecksungleichung:

‖A + B‖ = max‖x‖=1

‖(A + B)x‖ = max‖x‖=1

‖Ax + Bx‖

≤ max‖x‖=1

(‖Ax‖+ ‖Bx‖)

≤ max‖x‖=1

‖Ax‖+ max‖x‖=1

‖Bx‖ = ‖A‖+ ‖B‖ .

Submultiplikativitat: Fur B = 0 ist AB = 0 und damit die Ungleichung erfullt. Fur B 6= 0 ist

‖AB‖ = supx6=0

‖ABx‖‖x‖ = sup

x:Bx6=0

‖A(Bx)‖‖Bx‖

‖Bx‖‖x‖

≤ supy 6=0

‖Ay‖‖y‖ sup

x6=0

‖Bx‖‖x‖ = ‖A‖‖B‖ .

Bei der ersten Umformung wird zwar die Menge uber die das Supremum gebildet wird einge-schrankt, es werden aber nur Vektoren entfernt, die den Nullvektor als Bild haben und damitdas Supremum nicht beinflussen.

2.2.10 Zeilensummen-Norm

Der Maximum-Norm fur Vektoren ‖v‖∞ = maxi|vi| ist die Zeilensummennorm fur Matrizen

‖A‖∞ = maxi

j

|aij|

zugeordnet.

http://www.mathematik-online.org/ 53

Page 54: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

Beweis:

Fur ‖x‖∞ = maxj|xj| = 1 ist

‖Ax‖∞ = maxi

∣∣∣∣∣

j

aijxj

∣∣∣∣∣≤ max

i

j

|aij| ,

und man erhalt

‖A‖∞ = max‖x‖=1

‖Ax‖∞ ≤ maxi

j

|aij| .

Nimmt man an, dass das Maximum fur i = k angenommen wird, so folgt die Gleichheit durchdie Wahl von

xj = sign akj

denn damit ist ∣∣∣∣∣

j

akjxj

∣∣∣∣∣=∑

j

‖akj| .

2.3 Spezielle Matrizen

2.3.1 Belegungsstruktur von Matrizen

Gemaß der Anordnung der von Null verschiedenen Matrixelemente ai,j unterscheidet man zwi-schen

• Diagonalmatrizen: ai,j = 0 fur i 6= j;

• Bandmatrizen: ai,j = 0 fur |i− j| > k mit 2k + 1 der Anzahl der von Null verschiedenenDiagonalen, die als Bandbreite bezeichnet wird;

• obere (untere) Dreiecksmatrizen: ai,j = 0 fur i > j (i < j).

Generell bezeichnet man eine (m × n)-Matrix als schwach besetzt, wenn nur c max(m,n) Ele-mente ungleich Null sind, mit einer nicht allzu großen Konstanten c.

2.3.2 Orthogonale und unitare Matrizen

Eine komplexe (n× n)-Matrix A heißt unitar, falls

A−1 = At= A∗ ,

d. h., falls die Spalten von A eine orthonormale Basis von Cn bilden.

Fur relle Matrizen entfallt (wie beim Skalarprodukt) die komplexe Konjugation,

A−1 = At ,

und man spricht von einer orthogonalen Matrix.

Orthogonale (unitare) Matrizen bilden eine Untergruppe von GL(n, R) (GL(n, C)).

54 http://www.mathematik-online.org/

Page 55: 16320559 Lineare Algebra

2.3. SPEZIELLE MATRIZEN

2.3.3 Hadamard-Matrizen

Fur n = 2k existieren bis auf Skalierung orthogonale Matrizen Hk der Dimension n × n mitEintragen in −1, 1, die so genannten Hadamard-Matrizen.Die ersten Hadamard-Matrizen sind

H2 =

(1 11 −1

)

, H4 =

1 1 1 11 −1 1 −11 1 −1 −11 −1 −1 1

.

Allgemein lassen sich diese Matrizen mit der Rekursion

H2k =

(Hk Hk

Hk −Hk

)

konstruieren.

2.3.4 Fourier-Matrix

Durch Bilden von Potenzen der Einheitswurzel

wn = exp(2πi/n)

erhalt man die so genannte Fourier-Matrix

Wn =

w0·0n · · · w

0·(n−1)n

......

w(n−1)·0n · · · w

(n−1)·(n−1)n

.

Sie ist nach Normierung (Wn → Wn/√

n) unitar.

Beweis:

Die Orthogonalitat der Spalten uberpruft man leicht. Das komplexe Skalarprodukt der (j +1)-ten und (k + 1)-ten Spalten ist

n−1∑

`=0

w`jn w`k

n =∑

`

w(j−k)`n =

w(j−k)nn − 1

wj−kn − 1

,

und da wnn = 1 , ist der Zahler null.

Beispiel:

Fur n = 4 ist w4 = exp(2πi/4) = i, und man erhalt

W4 =

1 1 1 11 i −1 −i1 −1 1 −11 −i −1 i

.

Nach Division durch 2 ist W4 unitar, d.h.(

1

2W4

)(1

2W4

)

= E .

http://www.mathematik-online.org/ 55

Page 56: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

2.3.5 Normtreue orthogonaler und unitarer Matrizen

Eine reelle (komplexe) Matrix A ist genau dann orthogonal (unitar), wenn sie die euklidischeNorm jedes Vektors invariant lasst:

|Av| = |v| .

Beweis:

Es braucht nur der komplexe Fall betrachtet zu werden, der den reellen Fall einschließt.(i) Ist A unitar, so gilt

(Ay)∗(Ax) = y∗A∗Ax = y∗x

es folgt also allgemeiner die Invarianz des komplexen Skalarproduktes, was die Normtreue ein-schließt.(ii) Aus der Normtreue folgt zunachst, dass die Spalten vj von A als Bilder der Einheitsvektorenej Norm eins haben. Um zu zeigen, dass verschiedene Spalten orthogonal sind, wahlt manλ = exp(iϑ), so dass

(λvk)∗vj ∈ R .

Dann gilt aufgrund der Normtreue und Definition der euklidischen Norm

2 = |ej + λek|2 = |vj + λvk|2 = |vj|2 + |λ|2|vk|2 + 2 Re(λvk)∗vj = 2 + 2λv∗

kvj ,

folglich muss das Skalarprodukt auf der rechten Seite verschwinden.

2.3.6 Zyklische Matrizen

Bei einer zyklischen (n×n)-Matrix werden die Spalten durch zyklisches Verschieben der erstenSpalte gebildet:

a0 an−1 an−2 . . .a1 a0 an−1 . . .a2 a1 a0 . . ....

......

.

Die zyklische Struktur bleibt bei Matrixmultiplikation erhalten.

Beweis:

Die Elemente eines zyklischen Matrix-Produktes C = AB sind

ci,k =n∑

j=1

ai−j mod nbj−k mod n .

Da

0, . . . , n− 1 = k + 0, . . . , n− 1mod n ,

kann man in den Summanden j durch j + k ersetzen, was beweist, daß ci,k nur von i− k mod nabhangt.

56 http://www.mathematik-online.org/

Page 57: 16320559 Lineare Algebra

2.4. DETERMINANTEN

Beispiel:

Das Produkt der zyklischen Matrizen

A =

−3 4 11 −3 44 1 −3

, B =

0 −2 55 0 −2−2 5 0

ist die zyklische Matrix

C = AB =

18 11 −23−23 18 1111 −23 18

.

2.3.7 Stochastische Matrizen

Eine (n× n)-Matrix P heißt stochastisch, falls pi,j ≥ 0 und

n∑

j=1

pi,j = 1, i = 1, . . . , n .

Stochastische Matrizen beschreiben die Anderung von Wahrscheinlichkeiten xi gemaß

x′j =

i

xipi,j .

Beweis:

Aufgrund der Eigenschaften von P ist auch x′ ein Vektor von Wahrscheinlichkeiten, d.h.

x′j ≥ 0,

j

x′j = 1 .

Die Nicht-Negativitat ist offensichtlich und die Invarianz der Summe folgt aus

j

i

xipi,j =∑

i

xi

j

pi,j

︸ ︷︷ ︸

=1

.

2.4 Determinanten

2.4.1 Determinante als antisymmetrische Multilinearform

Die Determinantedet A = det(a1, . . . , an)

einer quadratischen Matrix A mit Spalten aj kann durch folgende Eigenschaften definiert wer-den.

• Multilineariat:

det(. . . , αaj + βbj, . . .) = α det(. . . , aj, . . .) + β det(. . . , bj, . . .) .

http://www.mathematik-online.org/ 57

Page 58: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

• Antisymmetrie:

det(. . . , aj, . . . , ak, . . .) = − det(. . . , ak, . . . , aj, . . .) .

• Normierung:det(e1, . . . , en) = 1 , (ek)` = δk` .

Mit diesen Regeln lasst sich eine Determinante als Summe n-facher Produkte entwickeln:

det A =∑

i∈Sn

σ(i)ai1,1 · · · ain,n ,

wobei uber alle Permutationen (i1, . . . , in) von (1, . . . , n) summiert wird und σ das Vorzeichender Permutation bezeichnet.Man benutzt ebenfalls die Schreibweisen

det A = |A| =

∣∣∣∣∣∣∣

a1,1 · · · a1,n

......

an,1 · · · an,n

∣∣∣∣∣∣∣

.

Beweis:

Wegen der hohen Anzahl der Summanden (es exisitieren n! Permutationen) ist die expliziteDarstellung der Determinante fur die praktische Berechnung schlecht geeignet. Sie ist jedochunmittelbar mit den definierenden Eigenschaften verknupft und wird zum Beweis sowie zurHerleitung einiger anderer Eigenschaften benotigt. Deshalb wurde sie als aquivalente Definitionmit angegeben.Es ist zunachst zeigen, dass die gefordeten Eigenschaften notwendig auf die Entwicklung derDeterminante mit Hilfe von Permutationen fuhrt. Dazu stellt man die Spalten von A als Line-arkombinationen der Einheitsvektoren ei dar:

aj =n∑

i=1

ai,jei .

Aufgrund der Multilinearitat gilt dann

det A =n∑

i1=1

· · ·n∑

in=1

ai1,1 · · · ain,n det(ei1 , . . . , ein)︸ ︷︷ ︸

=:di

.

Diese Summe kann man wie folgt vereinfachen. Sind zwei der Einheitsvektoren gleich, so ist di

aufgrund der Antisymmetrie Null:

det(. . . , ek, . . . , ek, . . .) = − det(. . . , ek, . . . , ek, . . .) .

Sind alle iν verschieden, d.h. ist(i1, . . . , in)

eine Permutation von (1, . . . , n), so gilt

di = (−1)τ(i) ,

58 http://www.mathematik-online.org/

Page 59: 16320559 Lineare Algebra

2.4. DETERMINANTEN

wobei τ(i) die modulo 2 eindeutig bestimmte Anzahl von Vertauschungen bezeichnet, um dieEinheitsvektoren in die kanonische Reihenfolge zu bringen. Nach Definition des Vorzeichenseiner Permutation ist also

det(ei1 , . . . , ein) = σ(i) det(e1, . . . , en) = σ(i) ,

d.h. man erhalt die angegebene Entwicklung.Umgekehrt kann man nachprufen, daß die Entwicklung konsistent mit den geforderten Regelnist. Die Multilinearitat gilt, da in den Produkten

ai1,1 · · · ain,n

aus jeder Spalte jeweils genau ein Element vorkommt. Die Antisymmetrie folgt, da eine Ver-tauschung von Spalten die Anzahl der Vertauschungen bei der Ruckfuhrung auf die kanonischeReihenfolge um 1 verandert. Schließlich reduziert sich die Summe bei der Einheitsmatrix aufden einen Summanden a1,1 · · · an,n = 1 · · · 1 = 1.

2.4.2 2-reihige Determinante

Die Determinante einer (2× 2)-Matrix ist

∣∣∣∣

a bc d

∣∣∣∣= ad− bc.

Dies sieht man leicht aus der Entwicklung nach Permutationen, denn es gibt nur 2 Summanden.Alternativ kann man die Determinante auch mit Hilfe der definierenden Eigenschaften berech-nen. Stellt man die Spalten als Linearkombinationen der kanonischen Einheitsvektoren ek dar,so folgt aus der Multilinearitat

det(ae1 + ce2, be1 + de2) = a det(e1, be1 + de2) + c det(e2, be1 + de2)

= ab det(e1, e1) + ad det(e1, e2)

+ cb det(e2, e1) + cd det(e2, e2)

= ab · 0 + ad · 1 + cb · (−1) + cd · 0 = ad− bc .

2.4.3 Sarrus-Schema

Die Determinante einer (3 × 3)-Matrix ist wie in der Abbildung illustriert eine Summe vonProdukten, die den verschiedenen Diagonalen entsprechen.

http://www.mathematik-online.org/ 59

Page 60: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

Ein Analogon dieses nach Sarrus benannten Schemas in hoheren Dimensionen n existiert nicht.Bereits fur n = 4 ist die Determinante eine Summe von 24 Produkten.Das Sarrus-Schema lasst sich leicht durch Entwicklung nach Permutationen nachprufen. Diefolgende Tabelle zeigt alle Summanden, sowie die mit den Permutationen i assoziierten Vertau-schungen, aus denen sich das Vorzeichen σ ergibt.

i Vertauschungen σ(i) Summand(1, 2, 3) + +a1,1a2,2a3,3

(2, 3, 1) → (3, 2, 1)→ (1, 2, 3) + +a2,1a3,2a1,3

(3, 1, 2) → (2, 1, 3)→ (1, 2, 3) + +a3,1a1,2a2,3

(3, 2, 1) → (1, 2, 3) − −a3,1a2,2a1,3

(1, 3, 2) → (1, 2, 3) − −a1,1a3,2a2,3

(2, 1, 3) → (1, 2, 3) − −a2,1a1,2a3,3

2.4.4 Orientiertes Volumen

Der Betrag der Determinante einer reellen Matrix A stimmt mit dem n-dimensionalen Volumendes von den Spalten ai aufgespannten Spats uberein:

| det A| = vol

n∑

i=1

αiai : 0 ≤ αi ≤ 1

= vol (A[0, 1]n) .

Beweis:

Man kann leicht nachprufen, dass das orientierte Volumen

vol∗ A := sign(det A) vol(A[0, 1]n)

alle drei definierenden Eigenschaften der Determinante (Multilinearitat, Antisymmetrie, Nor-mierung) besitzt. Folglich muß

vol∗ A = det A

gelten.

Beispiel:

Fur Vektoren u, v, w im R3 stimmt die Determinante mit dem Spatprodukt uberein:

det(u, v, w) = [u, v, w] .

Alternativ laßt sie sich mit Hilfe des ε-Tensors ausdrucken:

det(u, v, w) =∑

i

j

k

εi,j,kuivjwk .

Wahlt man beispielsweise die Vektoren

u =

211

, v =

121

, w =

112

60 http://www.mathematik-online.org/

Page 61: 16320559 Lineare Algebra

2.4. DETERMINANTEN

ergibt das Spatprodukt

(2, 1, 1)

121

×

112

= (2, 1, 1)

3−1−1

= 6− 1− 1 = 4 .

Mit dem ε-Tensor erhalt man die Darstellung

det(u, v, w) = ε1,2,3 · 2 · 2 · 2 + ε1,3,2 · 2 · 1 · 1 + ε2,1,3 · 1 · 1 · 2+ε2,3,1 · 1 · 1 · 1 + ε3,1,2 · 1 · 1 · 1 + ε3,2,1 · 1 · 2 · 1

= 8− 2− 2 + 1 + 1− 2 = 4 .

2.4.5 Regeln fur Determinanten

Fur (n× n)-Matrizen A und B gilt:

• det A = det At, det A∗ = det A

• det(AB) = (det A)(det B).

• A ist genau dann invertierbar, wenn det A 6= 0, und det(A−1) = (det A)−1.

Beweis:

(i) Die Symmetrieeigenschaft folgt aus der Entwicklung nach Permutationen:

det At =∑

i∈Sn

σ(i)a1,i1 · · · an,in .

Durchlauft man bei den Summanden die Indizes 1, . . . , n jeweils in der Reihenfolge der zu iinversen Permutation j, so ergibt sich eine veranderte Anordnung der Faktoren:

aj1,ij1· · · ajn,ijn

= aj1,1 · · · ajn,n .

Da σ(i) = σ(j) erhalt man die gleiche Entwicklung wie fur det A.Beispielsweise sind

i = (1 2 3)↔ j = (1 3 2)

zueinander inverse Permutationen in Zyklenschreibweise, und

a1,i1a2,i2a3,i3 = a1,2a2,3a3,1 = a3,1a1,2a2,3 = aj1,1aj2,2aj3,3 .

Das Vorzeichen σ ist positiv, denn

i = (1 3) (1 2), j = i−1 = (1 2) (1 3) ,

d.h. die Anzahl der Vertauschungen ist jeweils 2.(ii) Ist A nicht invertierbar, so folgt die Multiplikativitat aus der dritten Eigenschaft.Fur det A 6= 0 zeigt man, daß die Abbildung

B 7→ f(B) := det(AB)/ det(A)

http://www.mathematik-online.org/ 61

Page 62: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

alle die Determinante charakterisierenden Eigenschaften hat, folglich mit det B ubereinstimmenmuss. Die Normierung f(En) = 1 ist offensichtlich. Zum Beweis der Multilinearitat und Anit-symmetrie bemerkt man, dass die Abbildung B 7→ AB linear in den Spalten von B ist unddass eine Vertauschung zweier Spalten einer Vertauschung der entsprechenden Spalten von ABentspricht.(iii) Eine quadratische Matrix A ist genau dann nicht invertierbar, wenn Ax = 0 fur einennicht-trivialen Vektor x, d.h. wenn es eine nicht-triviale Linearkombination der Spalten aj vonA gibt:

x1a1 + · · ·+ xnan = 0 .

Gegebenenfalls nach Permutation der Spalten kann man x1 6= 0 annehmen, d.h.

a1 = y2a2 + · · ·+ ynan, yj = −xj/x1 .

Aus der Multilinearitat folgt nun

det A =n∑

j=2

yj det(aj, a2, . . . , an) = 0 ,

denn alle Determinanten auf der rechten Seite enthalten zwei gleiche Spalten, mussen also wegender Antisymmetrie verschwinden.Dass die Determinante einer invertierbaren Matrix ungleich Null ist, folgt aus der geometri-schen Interpretation der Determinante als orientiertes Volumen des von den Spalten von Aaufgespannten Parallelepipeds. Schließlich impliziert die bereits bewiesene Multiplikativitat dieFormel fur det (A−1) .

2.4.6 Determinanten spezieller Matrizen

Fur einige spezielle (n× n) Matrizen A laßt sich die Determinante unmittelbar angeben.

• Dreiecksmatrix: Ist ai,j = 0 fur i < j oder i > j, so gilt

det A = a1,1 · · · an,n .

• Blockdiagonalmatrix: Hat die Matrix B Blockstruktur mit Ai,j = 0, i 6= j und quadrati-schen Diagonalblocken Ai,i, so gilt

det B =k∏

i=1

det Ai,i .

• Orthogonale und unitare Matrix: Fur eine unitare Matrix U gilt

| det U | = 1 .

Speziell ist fur eine orthogonale Matrix (ui,j ∈ R)

det U ∈ −1, 1 .

62 http://www.mathematik-online.org/

Page 63: 16320559 Lineare Algebra

2.4. DETERMINANTEN

Beweis:

Dreiecksmatrix: Da det A = det At ist, genugt es eine obere Dreiecksmatrix zu betrachten. Fureine Permutation i von (1, . . . , n), die nicht die Identitat ist, folgt, dass es mindestens ein Ele-ment ik mit ik > k geben muss, das heißt aik,k = 0. Somit reduziert sich die Summe auf denEintrag fur die Identitat, und die Determinante ergibt sich als das Produkt der Diagonalele-mente.Blockdiagonalmatrix: Betrachtet man zunachst nur eine Aufteilung in 2 Diagonalblocke derGroße n1 und n2, so reicht es aus uber die Permutationen zu summieren, die die ersten n1

Elemente unter sich und damit auch die letzten n2 Elemente unter sich vertauschen, da dieanderen zu einem Summanden 0 fuhren. Die verbleibenden Summanden lassen sich als Produkteiner Permutation k der ersten n1 und einer Permutation l der letzten n2 Elemente schreiben:

det B =∑

i∈Sn

σ(i)(ai1,1 · · · ain1,n1

)(ain1+1,n1+1 · · · ain,n)

=

k∈Sn1

σ(k)(ak1,1 · · · akn1,n1

)

l∈Sn2

σ(l)(an1+l1,n1+1 · · · an1+ln2,n)

= det A1,1 det A2,2 .

Induktiv erhalt man daraus die Aussage fur eine Aufteilung in mehr als zwei Blocke.Orthogonale und unitare Matrix: Da sich die Komplexkonjugation in Summen und Produktehineinziehen lasst und det U = det U t gilt, folgt aus der Multiplikativitat der Determinanten

1 = det E = det (U ∗U) = det U ∗ det U

= det U t det U = det U det U = | det U | .

Im reellen Fall ist die Determinante reell und damit nur 1 und −1 moglich.

2.4.7 Umformung von Determinanten

Die Determinante einer Matrix mit zwei gleichen Spalten oder Zeilen ist Null. Daraus folgtinsbesondere, dass sich die Determinante nicht andert, wenn man ein Vielfaches einer Spalte(Zeile) zu einer anderen Spalte (Zeile) addiert.

Beweis:

Da durch das Transponieren einer Matrix Spalten in Zeilen uberfuhrt werden und det A = det At

gilt, genugt es den Spaltenfall zu betrachten.Beim Vertauschen zweier Spalten muss die Determinante nach Definition das Vorzeichen wech-seln. Vertauscht man die beiden identischen Spalten miteinender, andert sich die Matrix nichtund die Determinante muss also Null sein.Wird ein λ-faches der Spalte aj zu der Spalte ai, i 6= j addiert, so erhalt man die Matrix

A′ = (a1, . . . , ai + λaj, . . . , aj, . . . , an) .

Aufgrund der Linearitat kann die Determinante aufgeteilt werden in

det A′ = det (a1, . . . , ai, . . . , aj, . . . , an) + λ det (a1, . . . , aj, . . . , aj, . . . , an) .

Die zweite Matrix enthalt zwei identische Spalten und hat somit Determinante Null.

http://www.mathematik-online.org/ 63

Page 64: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

Beispiel:

Durch Addition von Vielfachen von Zeilen einer Matrix zu anderen Zeilen kann die Matrix aufDreiecksform gebracht werden und die Determinante dann als Produkt der Diagonalelementegewonnen werden. Fuhrt man dabei Vertauschungen von Spalten oder Zeilen durch, andert sichdas Vorzeichen.Beispielsweise lasst sich

A =

1 4 0 20 8 0 43 3 3 20 6 0 4

so wie folgt berechnen.Zeile 3 - 3 · Zeile 1:

det A = det

1 4 0 20 8 0 40 −9 3 −40 6 0 4

Vertauschen von Spalte 2 und Spalte 4:

det A = − det

1 2 0 40 4 0 80 −4 3 −90 4 0 6

Zeile 3 + Zeile 2, Zeile 4 - Zeile 2:

det A = − det

1 2 0 40 4 0 80 0 3 −10 0 0 −2

= −(1 · 4 · 3 · (−2)) = 24 .

2.4.8 Entwicklung von Determinanten

Die Determinante einer (n × n)-Matrix A lasst sich nach einer beliebigen Zeile oder Spalteentwickeln:

det A =n∑

j=1

(−1)k+jak,j det Ak,j (Entwicklung nach Zeile k)

=n∑

i=1

(−1)i+lai,l det Ai,l (Entwicklung nach Spalte l) ,

wobei Ai,j die Matrix bezeichnet, die durch Streichen der i-ten Zeile j-ten Spalte von A entsteht.

Beweis:

Wegen det A = det At genugt es, die Entwicklung nach einer Spalte zu betrachten.Spaltet man die l-te Spalte in

al =n∑

i=1

ai,lei

64 http://www.mathematik-online.org/

Page 65: 16320559 Lineare Algebra

2.4. DETERMINANTEN

auf, folgt aufgrund der Multilinearitat fur die Determinante

det A =n∑

i=1

ai,l det (a1, . . . , al−1, ei, al+1, . . . , an)︸ ︷︷ ︸

=Bi

.

Betrachtet man nun eine Matrix Bi, so kann man fur diese durch n− l Spaltenvertauschungendie l-te Spalte an das Ende bringen ohne die Reihenfolge der anderen Spalten unter sich zuverandern. Entsprechend laßt sich die i-te Zeile mit n− i Zeilenvertauschungen zur letzten Zeilemachen:

det Bi = (−1)n−l(−1)n−i det

0

Ai,l

...0

ai,1 · · · ai,l−1 ai,l+1 · · · ai,n 1

Bei der Determinante auf der rechten Seite liefern nur die Permutationen aus Sn einen Beitrag,die als n-ten Eintrag n haben. Dies entspricht aber den Permutationen Sn−1 und damit ist

det

0

Ai,l

...0

ai,1 · · · ai,l−1 ai,l+1 · · · ai,n 1

= det Ai,l .

Eine Multiplikation der Summanden mit 1 = (−1)2l+2i−2n liefert dann die angegebene Entwick-lungsformel.

Beispiel:

Entwickelt man fur die Matrix

A =

2 1 11 2 11 1 2

die Determinante nach der ersten Zeile, so erhalt man

det A = (−1)2 · 2 · det

(2 11 2

)

+ (−1)3 · 1 · det

(1 11 2

)

+ (−1)4 · 1 · det

(1 21 1

)

= 2(4− 1)− 1(2− 1) + 1(1− 2) = 6− 1− 1 = 4 .

2.4.9 Implizite Darstellung einer Ebene durch 3 Punkte

Eine Ebene im R3, die durch die drei Punkte P1 = (x1, y1, z1), P2 = (x2, y2, z2) und P3 =(x3, y3, z3) gegeben ist, kann in impliziter Form durch

E :

∣∣∣∣∣∣∣∣

x y z 1x1 y1 z1 1x2 y2 z2 1x3 y3 z3 1

∣∣∣∣∣∣∣∣

= 0

http://www.mathematik-online.org/ 65

Page 66: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

dargestellt werden. Durch Entwicklung nach der ersten Zeile, erhalt man

E : ax + by + cz = d

mit

a =

∣∣∣∣∣∣

y1 z1 1y2 z2 1y3 z3 1

∣∣∣∣∣∣

, b = −

∣∣∣∣∣∣

x1 z1 1x2 z2 1x3 z3 1

∣∣∣∣∣∣

, c =

∣∣∣∣∣∣

x1 y1 1x2 y2 1x3 y3 1

∣∣∣∣∣∣

, d =

∣∣∣∣∣∣

x1 y1 z1

x2 y2 z2

x3 y3 z3

∣∣∣∣∣∣

.

2.4.10 Basistest

Die Vektoren a1, . . . , an ∈ Kn bilden genau dann eine Basis, wenn die Determinante der MatrixA = (a1, . . . , an) nicht verschwindet.

Beweis:

Ist die erste Zeile von A Null, so ist die Behauptung offensichtlich. Andernfalls kann man nacheiner eventuellen Permutation der Spalten annehmen, daß a1,1 6= 0 und die Spalten aj wie folgtmodifizieren:

aj → a′j = aj −

a1,j

a1,1

a1, j = 2, . . . , n .

Diese Spaltenoperationen lassen sowohl die Determinante als auch die Basiseigenschaft derSpalten unverandert. Die modifizierte Matrix hat die Form

A′ =

(a1,1 0 · · · 0c B

)

.

Nach dem Entwicklungssatz giltdet A′ = a1,1 det B ,

und da a1,1 6= 0 sind die Spalten von A′ genau dann eine Basis von Kn, wenn die Spalten vonB eine Basis von Kn−1 sind. Die Behauptung kann also induktiv bewiesen werden.

Beispiel:

Am Beispiel von

A =

(a bc d

)

lasst sich der Basistest verdeutlichen.Besteht eine der Spalten oder Zeilen nur aus Nullen ergibt sich fur die Determinante 0. Indiesem Fall ist der Rang der Matrix maximal 1 und damit bilden die Spalten keine Basis.Andererseits folgt aus ad = bc

a

(bd

)

− b

(ac

)

=

(ab− baad− bc

)

= 0

und damit sind die Spalten linear abhangig.Sind die Spalten von A linear abhangig, gilt also

(bd

)

= λ

(ac

)

,

so berechnet sich die Determinante zu

det A = ad− bc = aλc− λac = 0 .

66 http://www.mathematik-online.org/

Page 67: 16320559 Lineare Algebra

2.4. DETERMINANTEN

2.4.11 Vandermonde-Determinante

Die Determinante der an n Punkten xi ausgewerteten Monome 1, x, . . . xn−1 ist

∣∣∣∣∣∣∣∣∣

1 x1 . . . xn−11

1 x2 . . . xn−12

......

...1 xn . . . xn−1

n

∣∣∣∣∣∣∣∣∣

=∏

i>j

(xi − xj) .

Beweis:

Fur n = 2 ist die Determinnte der Vandermonde-Matrix

det

(1 x1

1 x2

)

= x2 − x1 .

Fur ein allgemeines n zieht man die erste Zeile von allen weiteren Zeilen ab:

∣∣∣∣∣∣∣∣∣

1 x1 . . . xn−11

1 x2 . . . xn−12

......

...1 xn . . . xn−1

n

∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣

1 x1 . . . xn−11

0 x2 − x1 . . . xn−12 − xn−1

1...

......

0 xn − x1 . . . xn−1n − xn−1

1

∣∣∣∣∣∣∣∣∣

.

Die Entwicklung nach der ersten Spalte ergibt dann

∣∣∣∣∣∣∣

x2 − x1 . . . xn−12 − xn−1

1...

...xn − x1 . . . xn−1

n − xn−11

∣∣∣∣∣∣∣

,

wobei sich aus der k-ten Zeile der Faktor xk − x1 herausziehen laßt:

(n∏

k=2

(xk − x1)

)

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

1 x2 + x1 x22 + x2x1 + x2

1 . . .n−2∑

i=0

xn−2−i2 xi

1

1 x3 + x1 x23 + x3x1 + x2

1 . . .n−2∑

i=0

xn−2−i3 xi

1

......

......

1 xn − x1 x2n + xnx1 + x2

1 . . .n−2∑

i=0

xn−2−in xi

1

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

.

Subtrahiert man nun von jeder Spalte das x1-fache der vorhergehenden Spalte, bekommt dieDeterminante wieder die ursprungliche Form

(n∏

k=2

(xk − x1)

)

∣∣∣∣∣∣∣∣∣

1 x2 . . . xn−22

1 x3 . . . xn−23

......

...1 xn . . . xn−2

n

∣∣∣∣∣∣∣∣∣

, und die Formel kann nun uber Induktion bewiesen werden.

http://www.mathematik-online.org/ 67

Page 68: 16320559 Lineare Algebra

KAPITEL 2. MATRIZEN

68 http://www.mathematik-online.org/

Page 69: 16320559 Lineare Algebra

Kapitel 3

Lineare Gleichungssysteme

3.1 Klassifikation und allgemeine Struktur

3.1.1 Lineares Gleichungssystem

Ein lineares Gleichungssystem uber einem Korper K hat die Form

a1,1x1 + · · · + a1,nxn = b1...

......

......

...am,1x1 + · · · + am,nxn = bm

⇔ Ax = b

mit einer Koeffizientenmatrix A = (ai,j) ∈ Km×n, zu bestimmenden Unbekannten xj ∈ K undeiner rechten Seite b ∈ Km.Das lineare Gleichungssystem nennt man homogen, wenn b = 0, sonst bezeichnet man es alsinhomogen.Fur ein reelles (K = R) oder komplexes (K = C) lineares Gleichungssystem wird K nichtexplizit angegeben. Welcher Fall vorliegt, ist meist aus dem Zusammenhang ersichtlich.Besitzt das Lineare Gleichungssystem keine Losung (im Allgemeinen fur m > n), so bezeichnetman es als uberbestimmt. Man spricht in diesem Fall auch von einem Ausgleichsproblem. EinLineares Gleichungssystem mit keiner eindeutigen Losung (im Allgemeinen fur m < n) nenntman unterbestimmt.

Beispiel:

Eine Funktion f(x) kann aus Daten

(xi, fi), i = 1, . . . , n ,

durch Interpolation naherungsweise rekonstruiert werden. Verwendet man einen linearen Ansatz

f(x) ≈ p(x) =n∑

j=1

cjpj(x)

mit geeigneten Basisfunktionen pj, so ergibt sich aus den Interpolationsbedingungen

fi = p(xi) =n∑

j=1

cjpj(xi), i = 1, . . . , n

http://www.mathematik-online.org/ 69

Page 70: 16320559 Lineare Algebra

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME

das lineare Gleichungssystem fur die cj als

Ac = b ,

mit ai,j = pj(xi) und bi = fi.

0 5 10 15 20 25 30 35 40 45 500

100

200

300

400

500

600

700

!"$# %&"('*),+.-0/

#1

23-0(4576%98:6%/

6 - %/

6.-0;-=<>?@4/ A -05 -05

B%C DFEHG

In dem abgebildeten Beispiel einer Tour-de-France-Etappe ist mit jedem Datenpunkt eine Ex-ponentialfunktion

pi(x) = exp

(

−(

x− xi

10

)2)

assoziiert. Durch das starke Abklingen von pi fur |x− xi| → ∞ wird erreicht, dass sich bei derInterpolation Anderungen in Datenpunkten vorwiegend lokal auswirken.

3.1.2 Elektrischer Schaltkreis

Bezeichnet man in einem elektrischen Schaltkreis mit xi die Kreisstrome mit Fließrichtung ent-gegen dem Uhrzeigersinn, mit Ri,j den gemeinsamen Widerstand der i-ten und j-ten Schleifeund mit Ui die angelegten Spannungen, so ergibt sich aus dem Ohmschen und dem Kirchhoff-schen Gesetz das lineare Gleichungssystem

i∼0

xiRi,0 +∑

i∼j

(xi − xj)Ri,j = Ui.

Dabei bedeutet i ∼ j, dass die i-te und j-te Schleife einen gemeinsamen Widerstand haben, undxi−xj ist der Strom durch diesen Widerstand. Mit Ri,0, i ∼ 0, werden Widerstande bezeichnet,die nur in der i-ten Schleife liegen.

70 http://www.mathematik-online.org/

Page 71: 16320559 Lineare Algebra

3.1. KLASSIFIKATION UND ALLGEMEINE STRUKTUR

x1

x2

x3

x4

x5

70Ω

80Ω

10Ω

40Ω

50Ω

30Ω

90Ω

60Ω

20Ω

110V

220V

Beispielsweise erhalt man fur den abgebildeten Schaltkreis das lineare Gleichungssystem

150 −70 −80 0 0−70 120 −10 −40 0−80 −10 160 0 −70

0 −40 0 130 −300 0 −70 −30 190

x1

x2

x3

x4

x5

=

110000−220

.

Die Koeffizientenmatrix enthalt in der Diagonale jeweils die Summe der zu einer Schleife gehori-gen Widerstande und in Position (i, j) den negativen gemeinsamen Widerstand der Schleifen iund j. Die Losung fur das betrachtete Beispiel ist

x ≈

1.01570.56410.0358−0.0940−1.1595

.

3.1.3 Losbarkeit eines linearen Gleichungssystems

Die Losungsmenge eines homogenen linearen Gleichungssystems uber einem Korper K,

Ax = 0,

mit einer m× n Koeffizientenmatrix A ist ein Unterraum U von Kn.Besitzt das inhomogene lineare Gleichungssystem

Ax = b

eine Losung v, so gilt fur die allgemeine Losung

x ∈ v + U ,

d.h. die Losungsmenge ist ein affiner Unterraum von Kn. Insbesondere kann also ein inhomo-genes lineares Gleichungssystem entweder keine, eine (U = ∅) oder unendlich viele (dim U > 0)Losungen besitzen.

http://www.mathematik-online.org/ 71

Page 72: 16320559 Lineare Algebra

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME

Beweis:

Sind x, y Losungen des homogenen linearen Gleichungssystems und λ ∈ K, so erhalt man

A(x + y) = Ax + Ay = 0 + 0 = 0

sowie

A(λx) = λAx = λ0 = 0 ,

d.h. die Losungsmenge des homogenen linearen Gleichungssystems bildet einen Unterraum U .Falls v eine Losung des inhomogenen linearen Gleichungssystems ist und u ∈ U , so ist x = v+uwegen

Ax = A(v + u) = Av + Au = b + 0 = b

ebenfalls eine Losung des inhomogenen linearen Gleichungssystems. Umgekehrt ist mit zweiLosungen v und w des inhomogenen linearen Gleichungssystems die Differenz v − w wegen

A(v − w) = Av − Aw = b− b = 0

eine Losung des homogenen linearen Gleichungssystems.Man erhalt somit alle Losungen eines inhomogenen linearen Gleichungssystems, indem manfur eine beliebige Losung des inhomogenen linearen Gleichungssystems die Summen mit allenLosungen des homogenen linearen Gleichungssystems bildet.

Beispiel:

Die folgenden einfachen Falle veranschaulichen die verschiedenen Typen von linearen Glei-chungssystemen:(i) Das lineare Gleichungssystem

(3 57 4

)(x1

x2

)

=

(2960

)

besitzt die eindeutige Losung x1 = 8, x2 = 1.(ii) Das lineare Gleichungssystem

(1 −2 43 −2 4

)

x1

x2

x3

=

(26

)

besitzt keine eindeutige Losung. Wahlt man x3 = t beliebig, so erhalt man x2 = 2t, x1 = 2 alsLosung.(iii) Das lineare Gleichungssystem

1 13 10 2

(x1

x2

)

=

678

besitzt keine Losung. Die letzte Zeile liefert x2 = 4, setzt man dies aber in die anderen Zeilenein, so erhalt man aus der ersten Zeile x1 = 2, aus der zweiten hingegen x1 = 1.

72 http://www.mathematik-online.org/

Page 73: 16320559 Lineare Algebra

3.1. KLASSIFIKATION UND ALLGEMEINE STRUKTUR

3.1.4 Losung linearer Gleichungssysteme in Matlab

Ein lineares Gleichungssystem Ax = b kann in Matlab mit dem Befehl

x = A\b

gelost werden.

• Ist A eine (n× n)-Matrix, so wird die Losung mit Gauß-Elimination bestimmt.

• Fur eine (m × n)-Matrix A mit m 6= n, wird die Ausgleichslosung des uber- bzw. unter-bestimmten Gleichungssystems berechnet, d.h. es wird die euklidische Norm des FehlersAx− b bzw. der Losung x minimiert.

Bei numerisch instabilen Matrizen oder Systemen mit Rangverlust wird eine Warnung ausge-geben (Matrix is close to singular or badly scaled).

3.1.5 Determinante und Losbarkeit eines linearen Gleichungssy-stems

Ein lineares Gleichungssystem

Ax = b

mit quadratischer Koeffizientenmatrix A besitzt genau dann eine eindeutige Losung fur jederechte Seite b, wenn det A 6= 0 bzw. wenn das homogene System Ax = 0 nur die triviale Losungx = 0 besitzt.

Ist det A = 0, so existieren Losungen nur fur rechte Seiten b in dem von den Spalten von Aaufgespannten Unterraum. Die Losung ist in diesem Fall nicht eindeutig.

Beweis:

Die Behauptung folgt aus den Eigenschaften der Determinante. Aquivalent zu det A 6= 0 istnamlich, dass die Spalten a1, . . . , an von A linear unabhangig sind. Definitionsgemaß bedeutetdas

x1a1 + . . . + xnan = 0⇔ x1 = · · · = xn = 0 ,

bzw.

Ax = 0⇔ x = 0 .

Um die Aquivalenz zur eindeutigen Losbarkeit des inhomogenen Systems zu erhalten, nutztman aus, dass die Spalten eine Basis bilden, d.h. jede rechte Seite b ist eindeutig als Linear-kombination

x1a1 + . . . + xnan = b⇔ Ax = b

darstellbar.

http://www.mathematik-online.org/ 73

Page 74: 16320559 Lineare Algebra

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME

Beispiel:

Das lineare Gleichungssystem(

a bc d

)(xy

)

=

(uv

)

hat genau dann eine eindeutige Losung, wenn die Determinante

ad− bc 6= 0

ist. In diesem Fall lautet die Losung

x =du− bv

ad− bc, y =

av − cu

ad− bc.

Falls die Determinante ad − bc gleich 0 ist, hat das lineare Gleichungssystem im allgemeinenkeine Losung. In diesem Fall konnen Losungen nur existieren, wenn

av = cu

und

bv = du

gilt. Ist dann z. B. a 6= 0, so kann man y beliebig wahlen und erhalt fur x

x =u− by

a.

3.2 Direkte Methoden

3.2.1 Cramersche Regel

Fur ein quadratisches lineares Gleichungssystem Ax = b ist

xi det A = det(a1, . . . , ai−1, b, ai+1, . . . , an) ,

wobei aj die Spalten der Koeffizientenmatrix A bezeichnen.Insbesondere kann fur det A 6= 0 die Inverse C = A−1 durch

ci,j =det(a1, . . . , ai−1, ej, ai+1, . . . , an)

det A

bestimmt werden.

Beweis:

Aufgrund der Multilinearitat und der Antisymmetrie der Determinante, erhalt man:

det(a1, . . . , ai−1, b, ai+1, . . . , an) = det(a1, . . . , ai−1,

n∑

j=1

aixi, ai+1, . . . , an)

=n∑

j=1

xj det(a1, . . . , ai−1, aj, ai+1, . . . , an)

= xi det(a1, . . . , ai−1, ai, ai+1, . . . , an)

Speziell ergibt sich mit b = ej die j-te Spalte x = (ci,j, . . . , cn,j)t der Inversen.

74 http://www.mathematik-online.org/

Page 75: 16320559 Lineare Algebra

3.2. DIREKTE METHODEN

Beispiel:

Fur die Inverse C einer (2× 2)-Matrix

A =

(a bc d

)

folgt mit der Cramerschen Regel

c1,1 =

∣∣∣∣

1 b0 d

∣∣∣∣

det A=

d

det A, c1,2 =

∣∣∣∣

0 b1 d

∣∣∣∣

det A=−b

det A,

c2,1 =

∣∣∣∣

a 1c 0

∣∣∣∣

det A=−c

det A, c2,2 =

∣∣∣∣

a 0c 1

∣∣∣∣

det A=

a

det A,

bzw. mit det A = ad− cb

A−1 =1

ad− cb

(d −b−c a

)

Beispiel:

Fur die Inverse G der (3× 3)-Matrix

A =

1 0 −24 1 0−2 3 3

erhalt man mit der Cramerschen Regel

c1,1 =

∣∣∣∣∣∣

1 0 −20 1 00 3 3

∣∣∣∣∣∣

∣∣∣∣∣∣

1 0 −24 1 0−2 3 3

∣∣∣∣∣∣

= − 3

25, c1,3 =

∣∣∣∣∣∣

0 0 −20 1 01 3 3

∣∣∣∣∣∣

∣∣∣∣∣∣

1 0 −24 1 0−2 3 3

∣∣∣∣∣∣

= − 2

25,

c3,2 =

∣∣∣∣∣∣

1 0 04 1 1−2 3 0

∣∣∣∣∣∣

∣∣∣∣∣∣

1 0 −24 1 0−2 3 3

∣∣∣∣∣∣

=3

25, . . .

Insgesamt ergibt sich

A−1 =1

25

−3 6 −212 1 8−14 3 −1

.

http://www.mathematik-online.org/ 75

Page 76: 16320559 Lineare Algebra

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME

3.2.2 Ruckwarts-Einsetzen

Fur ein lineares Gleichungssystem in Dreiecksform,

r1,1 x1 + r1,2 x2 + · · · + r1,n xn = b1

r2,2 x2 + · · · + r2,n xn = b2

· · ·rn,n xn = bn ,

mit ri,i 6= 0 lassen sich die Unbekannten sukzessive bestimmen. Fur i = n, n − 1, . . . , 1 erhaltman

xi = (bi − ri,i+1xi+1 − · · · − ri,nxn)/rn,n ,

wobei auf der rechten Seite die jeweils bereits berechneten Unbekannten eingesetzt werden.

Beispiel:

Fur das lineare Gleichungssystem

4x1 + 3x2 + x3 = 62x2 + 2x3 = 0

7x3 = 7

in Dreiecksform erhalt man durch Ruckwartseinsetzen die Losung

x3 = 1

x2 = (0− 2)/2 = −1

x1 = (6− 3(−1)− 1) = 2 .

3.2.3 Gauß-Transformationen

Folgende Operationen lassen die Losungsmenge eines linearen Gleichungssystems unverandert:

• Vertauschung zweier Gleichungen,

• Multiplikation einer Gleichung mit einem Faktor 6= 0,

• Subtraktion einer Gleichung von einer anderen Gleichung.

Durch Kombination der letzten beiden Operationen ist auch die Addition eines Vielfachen einerZeile zu einer anderen Zeile eine zulassige Operation.

Beispiel:

Die Losung des linearen Gleichungssystems

3x1 − 2x2 + 2x3 = 11x1 + 7x2 + 4x3 = 66x1 − x2 − 5x3 = −8

verandert sich nicht bei

76 http://www.mathematik-online.org/

Page 77: 16320559 Lineare Algebra

3.2. DIREKTE METHODEN

• Vertauschung der ersten und der zweiten Gleichung

x1 + 7x2 + 4x3 = 63x1 − 2x2 + 2x3 = 116x1 − x2 − 5x3 = −8

• Multiplikation der zweiten Gleichung mit dem Faktor 2

x1 + 7x2 + 4x3 = 66x1 − 4x2 + 4x3 = 226x1 − x2 − 5x3 = −8

• Subtraktion der dritten von der zweiten Gleichung

x1 + 7x2 + 4x3 = 66x1 − 4x2 + 4x3 = 22

−3x2 + 9x3 = 30

3.2.4 Gauß-Elimination

Durch Gauß-Transformationen lasst sich ein lineares Gleichungssystem mit invertierbarer (n×n)-Koeffizientenmatrix A in maximal n − 1 Schritten auf obere Dreiecksform bringen. Dazuwerden sukzessive die Koeffizienten unterhalb der Diagonalen annulliert, d.h. nach `−1 Schrittenhat das LGS die Form

a1,1 x1 + a1,2 x2 + . . . + a1,` x` + . . . + a1,n xn = b1

a2,2 x2 + . . . + a2,` x` + . . . + a2,n xn = b2...

......

a`,` x` + . . . + a`,n xn = b`

a`+1,` x` + . . . + a`+1,n xn = b`+1...

......

an,` x` + . . . + an,n xn = bn

Im einzelnen verlauft der `-te Eliminationsschritt wie folgt.

• Ist das `-te Diagonalelement, das so genannte Pivot-Element, Null, so wird die `-te miteiner der folgenden Gleichungen vertauscht, so dass a`,` 6= 0 gilt.

• Fur i > ` wird von der i-ten Gleichung ein Vielfaches der `-ten Gleichung subtrahiert, sodaß ai,` Null wird:

ai,j ← ai,j − qia`,j , bi ← bi − qib` (qi = ai,`/a`,`)

fur j ≥ `.

http://www.mathematik-online.org/ 77

Page 78: 16320559 Lineare Algebra

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME

Beispiel:

Fur das lineare Gleichungssystem

0 2 1 −13 2 0 13 1 −2 16 4 −1 1

x =

41−3

2

lauft der Gauß-Algorithmus folgendermaßen ab:

• Vertauschung der ersten und zweiten Zeile:

3 2 0 10 2 1 −13 1 −2 16 4 −1 1

x =

14−3

2

• (3.Zeile) - (1.Zeile) und (4.Zeile) - 2·(1.Zeile):

3 2 0 10 2 1 −10 −1 −2 00 0 −1 −1

x =

14−4

0

• 2·(3.Zeile) + (2.Zeile):

3 2 0 10 2 1 −10 0 −3 −10 0 −1 −1

x =

14−4

0

• 3·(4.Zeile) - (3.Zeile):

3 2 0 10 2 1 −10 0 −5 10 0 0 −2

x =

14−4

4

3.2.5 Echelon-Form

Ein lineares Gleichungssystem mit einer (m × n)-Koeffizientenmatrix lasst sich mit Gauß-Transformationen auf Echelon-Form transformieren:

Ax = b→

0 . . . 0 p1 ∗ . . . ∗0 0 . . . 0 p2 ∗ . . . ∗

0 0 . . . 0 p3 ∗ . . . ∗. . .

︸ ︷︷ ︸

A′

x1...

xn

=

c1...

cm

.

Dabei sind die so genannten Pivots

p1 = a′1,j1

, . . . , pk = a′k,jk

, k ≤ m, 1 ≤ j1 < · · · < jk ≤ n ,

ungleich Null und k ist der Rang von A.Der k-te Transformationsschritt verlauft wie folgt:

78 http://www.mathematik-online.org/

Page 79: 16320559 Lineare Algebra

3.2. DIREKTE METHODEN

1. Ein von Null verschiedenes Matrixelement pk mit kleinstem Spaltenindex und Zeilenindex≥ k wird als Pivotelement gewahlt und durch Zeilenvertauschung in die Position (k, jk)gebracht.

Existiert kein Pivotelement, ist die Echelon-Form erreicht.

2. Durch Subtraktion von Vielfachen der Zeile k werden die Matrixelemente unterhalb desPivots annulliert.

Beispiel:

Fur die Matrix

0 0 0 1 5 −3 0 90 2 3 0 −1 4 1 −20 4 6 1 3 5 2 −50 −2 −3 1 6 −7 −1 60 0 0 1 5 −3 0 9

lauft die Transformation auf Echelon-Form folgendermaßen ab:

• Vertauschung der ersten und zweiten Zeile:

0 2 3 0 −1 4 1 −20 0 0 1 5 −3 0 90 4 6 1 3 5 2 −50 −2 −3 1 6 −7 −1 60 0 0 1 5 −3 0 9

• (3.Zeile) - 2·(1.Zeile) und (4.Zeile) + (1.Zeile):

0 2 3 0 −1 4 1 −20 0 0 1 5 −3 0 90 0 0 1 5 −3 0 −10 0 0 1 5 −3 0 40 0 0 1 5 −3 0 9

• (3.Zeile) - (2.Zeile), (4.Zeile) - (2.Zeile) und (5.Zeile) - (2.Zeile):

0 2 3 0 −1 4 1 −20 0 0 1 5 −3 0 90 0 0 0 0 0 0 −100 0 0 0 0 0 0 −50 0 0 0 0 0 0 0

• (4. Zeile) - 12· (3.Zeile):

0 2 3 0 −1 4 1 −20 0 0 1 5 −3 0 90 0 0 0 0 0 0 −100 0 0 0 0 0 0 00 0 0 0 0 0 0 0

Die Echelon-Form hat 3 = Rang A nicht-triviale Zeilen mit den Pivotelementen p1 = 2, p2 = 1und p3 = −10.

http://www.mathematik-online.org/ 79

Page 80: 16320559 Lineare Algebra

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME

3.2.6 Losung eines LGS in Echelon-Form

Ein lineares Gleichungssystem Dx = c in Echelon-Form,

0 . . . 0 p1 ∗ . . . ∗0 0 . . . 0 p2 ∗ . . . ∗

0 0 . . . 0 p3 ∗ . . . ∗. . .

x1...

xn

=

c1...

cm

mit Pivots p1, . . . , pk ist genau dann losbar, wenn ck+1 = · · · = cm = 0. Die Losung ist eindeutig,falls k = n. Fur k < n gibt es n − k linear unabhangige Losungen des homogenen linearenGleichungssystems (ci = 0). Die Unbekannten, die den Spalten ohne Pivots entsprechen, konnenfrei gewahlt werden.

Beispiel:

Im Folgenden werden mehrere typische Falle diskutiert.

• k = n = 4

1 5 0 30 4 −1 30 0 −2 70 0 0 1

x1

x2

x3

x4

=

−1091

Durch Ruckwarts-Einsetzen erhalt man rekursiv die eindeutige Losung

x = (1,−1,−1, 1)t.

• 3 = k < n = 5, c4 6= 0

4 1 −1 −2 20 2 0 7 10 0 0 1 10 0 0 0 0

x1

x2

x3

x4

x5

=

2351

In der letzten Zeile ergibt sich 0 · x = 1, damit hat das lineare Gleichungssystem keineLosung.

• 3 = k < n = 5, c4 = 0

4 1 −1 −2 20 2 0 7 10 0 0 1 10 0 0 0 0

x1

x2

x3

x4

x5

=

−5220

Da ck+1 = 0, ist das lineare Gleichungssystem Dx = c losbar. Wegen Rang D = 3 = n− 2ist die Losung x jedoch nicht eindeutig. Es existieren 2 linear unabhangige Losungen vi

des homogenen Systems und die allgemeine Losung hat die Form

x = xs + α1v1 + α2v2 , αj ∈ R

80 http://www.mathematik-online.org/

Page 81: 16320559 Lineare Algebra

3.3. AUSGLEICHSPROBLEME

mit xs einer speziellen Losung des inhomogenen Systems.

Die Vektoren vi bestimmt man durch kanonische Wahl der nicht zu den Pivot-Spaltengehorigen Unbekannten und berechnet die restlichen Koeffizienten uber das homogeneSystem:

(x3 = 1, x5 = 0)→ v1 =

1/40100

, (x3 = 0, x5 = 1)→ v2 =

−7/430−11

.

Eine spezielle Losung

xs =

5/4−6020

erhalt man durch Setzen von x3 = x5 = 0.

3.2.7 Rang und Losbarkeit von LGS

Sei A ∈ Rm×n, b ∈ Rm.

• Das lineare Gleichungssystem Ax = b hat eine Losung ⇐⇒ Rang A = Rang(A, b).

• Das lineare Gleichungssystem Ax = b ist eindeutig losbar⇐⇒ Rang A = Rang(A, b) = n.

• Das lineare Gleichungssystem Ax = b hat mehrere Losungen⇐⇒ Rang A = Rang(A, b) =k < n.

Beachte hierzu, dass die Range von A und von der erweiterten Matrix (A, b) invariant sind unterelementaren Umformungen. Daher kann man annehmen, dass das lineare Gleichungssystem inEchelon - Form ist. In dieser Form lassen sich die Resultate unmittelbar ablesen.

3.3 Ausgleichsprobleme

3.3.1 Ausgleichsgerade

Eine Gerade

p(t) = u + vt ,

die Daten (ti, fi), i = 1, . . . , n, bestmoglichst approximiert, kann durch Minimierung der Feh-lerquadratsumme

n∑

i=1

(fi − p(ti))2

ermittelt werden.

http://www.mathematik-online.org/ 81

Page 82: 16320559 Lineare Algebra

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME

PSfrag replacements

t

f

ti

fi

p(ti)

p(t) = u + vt

Man erhalt fur den Achsenabschnitt u und die Steigung v die Formeln

u =(∑

t2i )(∑

fi)− (∑

ti)(∑

tifi)

n(∑

t2i )− (∑

ti)2

v =n(∑

tifi)− (∑

ti)(∑

fi)

n(∑

t2i )− (∑

ti)2,

wenn mindestens zwei Abszissen ti verschieden sind.

Beweis:

Bei einem Minimum mussen die Ableitungen der Fehlerquadratsumme sowohl nach u als auchnach v Null sein:

0 = 2∑

i

(u + vti − fi)

0 = 2∑

i

ti(u + vti − fi) .

In Matrixform lauten diese beiden Gleichungen

(n

∑ti∑

ti∑

t2i

)(uv

)

=

( ∑fi∑tifi

)

.

Falls mindestens zwei ti verschieden sind ist die Determinante

(1 + · · ·+ 1︸ ︷︷ ︸

n mal

)|(t1, . . . , tn)t|22 −(∑

i

1 · ti)2

> 0 ,

und man erhalt mit der Cramerschen Regel die angegebene Losung.

82 http://www.mathematik-online.org/

Page 83: 16320559 Lineare Algebra

3.3. AUSGLEICHSPROBLEME

3.3.2 Ausgleichslosung uberbestimmter, linearer Gleichungssyste-me

Ist die rechte Seite b eines linearen Gleichungssystems

Ax = b

nicht in der linearen Hulle der Spalten der (m × n)-Matrix A enthalten (typischerweise furm > n), d. h., ist

Rang A < Rang (A, b) ,

so besitzt das Gleichungssystem keine Losung. Man spricht von einem uberbestimmten System.In diesem Fall kann eine Approximation durch Losen des Ausgleichsproblems

|Ax− b| → min

bestimmt werden.

Die Berechnung der Ausgleichslosung ist mit Hilfe der Normalengleichungen oder der Sin-gularwertzerlegung moglich.

3.3.3 Normalengleichungen

Fur eine beliebige m× n Matrix A erfullt jede Losung x des Ausgleichsproblems

|Ax− b| → min

die Normalengleichung

AtAx = Atb ,

d.h. das Residuum r = Ax − b ist orthogonal zu dem von den Spalten von A aufgespanntenUnterraum Bild A

PSfrag replacements

0

Ax

b

Ax − b

Bild A

Die Losung ist genau dann eindeutig, wenn Rang A = n ≤ m.

http://www.mathematik-online.org/ 83

Page 84: 16320559 Lineare Algebra

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME

Beweis:

Aus

|A(x + ty)− b|2 ≥ |Ax− b|2

folgt mit

(Ax− b)ty = yt(Ax− b), ∆ = Ax− b

die aquivalente Ungleichung

2tytAt∆ + t2ytAtAy ≥ 0

fur alle t ∈ R und Vektoren y. Faßt man die linke Seite der Ungleichung als Parabel in t auf,so ist Nichtnegativitat gleichbedeutend mit

yt(At∆) = 0 .

Dies kann nur dann fur alle Vektoren y gelten, wenn der Ausdruck in Klammern der Nullvektorist.

Beispiel:

Fur

A =

2 01 10 2

, b =

030

erhalt man die Normalengleichungen

(5 11 5

)(x1

x2

)

=

(33

)

.

Dieses lineare Gleichungssystem hat die eindeutige Losung x =(

12

12

)t. Der Fehler ist ∆ =

( 1 −2 1 )t.

Hat A linear abhangige Spalten, wie in dem Beispiel

A =

2 21 10 0

, b =

030

,

so sind die Normalengleichungen singular:

(5 55 5

)(x1

x2

)

=

(33

)

.

Die Losung

x =

(35− tt

)

, t ∈ R ,

ist in diesem Fall nicht eindeutig, wohl aber der Fehler ∆ = ( 65−12

50 )t.

84 http://www.mathematik-online.org/

Page 85: 16320559 Lineare Algebra

3.3. AUSGLEICHSPROBLEME

3.3.4 Tomographie

Wie in der Abbildung illustriert ist, wird bei der Computer-Tomographie die Dichte x(u, v) desZellgewebes rekonstruiert, indem man den Intensitatsverlust von Rontgenstrahlen entlang vonBundeln paralleler Geraden

gi : (ui, vi) + R(cos ϑi, sin ϑi), i = 1, . . . ,m ,

mißt. Man approximiert die Dichteverteilung durch eine stuckweise konstante Funktion aufeinem Raster von Quadraten Qj und ersetzt die aus den Intensitatsmessungen gewonnenenLinienintegrale durch die Naherung

bi =

R

x(ui + t cos ϑi, vi + t sin ϑi) dt ≈n∑

j=1

ai,jxj ,

wobei xj eine Approximation von x(u, v) auf Qj ist und

ai,j = |gi ∩Qj|

die Lange des Durchschnitts der Geraden gi mit dem Quadrat Qj bezeichnet. Da die Anzahl derMessungen m im allgemeinen sehr viel großer ist als die Anzahl n der Quadrate des Rasters unddie Integrale nicht exakt berechnet werden, erhalt man ein Ausgleichsproblem zur Bestimmungvon x aus den Daten b.

Die Abbildung zeigt rechts eine auf einem 11 × 11 Raster berechnete Approximation fur dielinks abgebildete Dichteverteilung. Dabei wurden fur die Winkel

ϑ = 0, π/16, π/8, . . .

11 parallele Scan-Richtungen im Abstand der Rasterquadratbreite verwendet.

http://www.mathematik-online.org/ 85

Page 86: 16320559 Lineare Algebra

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME

86 http://www.mathematik-online.org/

Page 87: 16320559 Lineare Algebra

Kapitel 4

Normalformen

4.1 Eigenwerte und Eigenvektoren

4.1.1 Eigenwert und Eigenvektor

Ein Skalar λ heißt Eigenwert einer quadratischen Matrix A, wenn

Av = λv, v 6= 0 .

Die Vektoren v 6= 0 mit Av = λv werden als Eigenvektoren zum Eigenwert λ bezeichnet. DieEigenvektoren zu einem Eigenwert bilden zusammen mit dem Nullvektor einen linearen Raum,den so genannten Eigenraum

Vλ = ker(A− λE)

von λ.

Beispiel:

Die Matrix

1 2 −10 2 0−1 2 1

hat die Eigenwerte λ1 = 0 und λ2 = 2, denn

1 2 −10 2 0−1 2 1

101

=

000

= 0

100

und

1 2 −10 2 0−1 2 1

111

=

222

= 2

111

.

http://www.mathematik-online.org/ 87

Page 88: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

Beispiel:

Die folgenden Beispiele illustrieren die fur reelle (2× 2)-Matrizen moglichen Falle.

• zwei reelle Eigenwerte:

A =

(1 22 1

)

, λ1 = −1 , v1 =

(−1

1

)

, λ2 = 3 , v2 =

(11

)

.

• ein reeller Eigenwert, zwei linear unabhangige Eigenvektoren:

A =

(2 00 2

)

, λ = 2 , v1 =

(10

)

, v2 =

(01

)

.

• ein reeller Eigenwert, ein Eigenvektor:

A =

(1 −10 1

)

, λ = 1 , v1 =

(10

)

.

• zwei konjugiert komplexe Eigenwerte und Eigenvektoren:

A =

(1 −11 1

)

, λ1,2 = 1∓ i , v1,2 =

(1±i

)

.

Beispiel:

Die folgenden Beispiele illustrieren die fur komplexe (2× 2)-Matrizen moglichen Falle.

• zwei Eigenwerte und zwei Eigenvektoren:

A =

(i 22 i

)

, λ1 = 2 + i , v1 =

(11

)

, λ2 = −2 + i , v2 =

(1−1

)

.

• ein Eigenwert, zwei linear unabhangige Eigenvektoren:

A =

(2i 00 2i

)

, λ = 2i , v1 =

(10

)

, v2 =

(01

)

.

• ein Eigenwert, ein Eigenvektor:

A =

(i −10 i

)

, λ = i , v1 =

(10

)

.

4.1.2 Ahnlichkeitstransformation

Bei einer Ahnlichkeitstransformation einer quadratischen Matrix A,

A→ B = Q−1AQ ,

bleiben die Eigenwerte erhalten. Die Eigenvektoren werden gemaß dem durch die invertierba-re Matrix Q beschriebenen Basiswechsel transformiert, d.h. einem Eigenvektor v von A zumEigenwert λ entspricht der Eigenvektor w = Q−1v von B zum selben Eigenwert.

88 http://www.mathematik-online.org/

Page 89: 16320559 Lineare Algebra

4.1. EIGENWERTE UND EIGENVEKTOREN

Beweis:

Ist v ein Eigenvektor von A zum Eigenwert λ, also Av = λv, so folgt fur w = Q−1v

Bw = Q−1AQw = Q−1AQQ−1v = Q−1Av = Q−1λv = λQ−1v = λw .

Beispiel:

Gegeben sei die quadratische Matrix

A =

(1 −21 4

)

mit den Eigenwerten λ1 = 2 und λ2 = 3 und den zugehorigen Eigenvektoren

v1 =

(−21

)

, v2 =

(−11

)

.

Q =

(1 22 1

)

ergibt eine Ahnlichkeitstransformation mit

B = Q−1AQ =

(−1

323

23−1

3

)(1 −21 4

)(1 22 1

)

=

(7 4−5 −2

)

.

Die Eigenvektoren w1 und w2 von B berechnet man mit

w1 = Q−1v1 =

(−1

323

23−1

3

)(−21

)

=

(43

−53

)

bzw.

w2 = Q−1v2 =

(−1

323

23−1

3

)(−11

)

=

(1−1

)

.

4.1.3 Charakteristisches Polynom

Die Eigenwerte einer (n× n) Matrix A sind die Nullstellen des charakteristischen Polynoms

pA(λ) = det(A− λE) =

∣∣∣∣∣∣∣∣∣

a11 − λ a12 . . . a1n

a21 a22 − λ . . . a2n

......

. . ....

an1 an2 . . . ann − λ

∣∣∣∣∣∣∣∣∣

.

Insbesondere bleiben die Eigenwerte bei Transposition der Matrix invariant.

Beweis:

Ein Skalar λ ist genau dann Eigenwert der (n× n)-Matrix A, wenn

Av = λv , v 6= 0 ,

d.h. wenn das homogene lineare Gleichungssystem (A−λE)v = 0 eine von 0 verschiedene Losungbesitzt. Dies ist genau dann der Fall, wenn (A− λE) singular ist, also wenn det(A− λE) = 0.

http://www.mathematik-online.org/ 89

Page 90: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

4.1.4 Berechnung von Eigenwerten und -vektoren

Um das Eigenwertproblem fur eine quadratische Matrix A zu losen, bestimmt man zunachstdie Eigenwerte λ als Nullstellen des charakteristischen Polynoms

pA(λ) = det(A− λE) .

Fur jeden Eigenwert λ erhalt man die dazu gehorigen Eigenvektoren v als nichttriviale Losungendes homogenen linearen Gleichungssystems

(A− λE)v = 0 .

Um eine Basis fur den Eigenraum Vλ zu erhalten, kann man das System auf Echelon-Formtransformieren.Im allgemeinen ist dim Vλ = 1. Der bis auf einen skalaren Faktor eindeutig bestimmte Eigen-vektor v kann dann bestimmt werden, indem man eine geeignete Komponente von v vorgibt.

Beispiel:

Zur Bestimmung der Eigenwerte der Matrix

A =

0 −2 −12 2 10 2 2

bildet man das charakteristische Polynom

det(A− λE) =

∣∣∣∣∣∣

−λ −2 −12 2− λ 10 2 2− λ

∣∣∣∣∣∣

= −λ(2− λ)2 − 4 + 8− 2λ = −λ3 + 4λ2 − 6λ + 4 .

und bestimmt dessen Nullstellen. Durch Raten (Teiler des Absolutgliedes) erhalt man als ersteNullstelle λ1 = 2. Abdividieren dieser Nullstelle,

(−λ3 + 4λ2 − 6λ + 4)/(λ− 2) = −λ2 + 2λ− 2,

und Einsetzen in die Mitternachtsformel ergibt

λ2,3 =−2±

√4− 8

−2= 1± i .

Ein Eigenvektor zum Eigenwert 2 lasst sich uber die Losung des homogenen Gleichungssystems

(A− 2E)v =

−2 −2 −12 0 10 2 0

v = 0

bestimmen. Die Losung v = (1, 0,−2)t ist leicht zu sehen.Ein Eigenvektor w1 zum Eigenwert 1 + i erhalt man aus

(A− (1 + i)E)w1 =

−1− i −2 −12 1− i 10 2 1− i

w1 = 0 .

und somit z.B. w1 = (−1− i,−1+ i, 2)t. Da A reell ist, kann der Eigenvektor zu λ = 1− i durchkomplexe Konjugation gebildet werden: w2 = w1 = (−1 + i,−1− i, 2)t.

90 http://www.mathematik-online.org/

Page 91: 16320559 Lineare Algebra

4.1. EIGENWERTE UND EIGENVEKTOREN

4.1.5 Algebraische und geometrische Vielfachheit

Ist λ ein Eigenwert der (n × n) Matrix A, dann heißt die Vielfachheit von λ als Nullstelledes charakteristischen Polynoms pA(λ) = det(A − λEn) die algebraische Vielfachheit mλ desEigenwerts λ.Die Dimension dλ des Eigenraums Vλ eines Eigenwertes λ nennt man die geometrische Viel-fachheit von λ. Es gilt

dλ ≤ mλ ,∑

λ

mλ = n ,

sowie

dλ = n− Rang(A− λE) .

Beispiel:

Die Matrizen

A1 =

4 0 00 4 00 0 4

, A2 =

4 0 00 5 10 −1 3

, A3 =

4 4 03 4 60 −2 4

haben alle das charakteristische Polynom

(4− λ)3 = (4− λ)(5− λ)(3− λ) + 4− λ = (4− λ)3 + 12(4− λ)− 12(4− λ)

und damit ist jeweils m4 = 3. Anhand des Rangs der Matrizen

(A1 − 4E) =

0 0 00 0 00 0 0

, (A2 − 4E) =

0 0 00 1 10 −1 −1

,

(A3 − 4E) =

0 4 03 0 60 −2 0

erkennt man d4 = 3 fur A1, d4 = 2 fur A2 und d4 = 1 fur A3.

4.1.6 Summe und Produkt von Eigenwerten

Fur die Eigenwerte λi einer (n× n)-Matrix A gilt

n∑

i=1

λi = Spur A,n∏

i=1

λi = det A ,

wobei mehrfache Eigenwerte entsprechend ihrer algebraischen Vielfachheit gezahlt werden.

http://www.mathematik-online.org/ 91

Page 92: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

Beweis:

Aufgrund der Multilinearitat der Determinante ergibt sich fur das charakteristische Polynom

pA(λ) = det(A− λE) = (−λ)n + Spur A(−λ)n−1 + · · ·+ det A .

Andererseits lasst sich das Polynom in der Form

pA(λ) =n∏

i=1

(λi − λ)

darstellen. Durch Ausmultiplizieren der zweiten Formel und Koeffizientenvergleich erhalt mandie angegebenen Identitaten.

Beispiel:

Die Matrix

A =

(a bc d

)

hat das charakteristische Polynom

pA(λ) = λ2 − (a + d)λ + (ad− bc)

mit den Nullstellen

λ1,2 =(a + d)±

(a + d)2 − 4(ad− bc)

2.

Bildet man die Summe der Eigenwerte, fallt der Wurzelausdruck weg, und man erhalt

λ1 + λ2 =(a + d) + (a + d)

2= a + d = Spur A .

Multipliziert man die Eigenwerte erhalt man mit der dritten Binomischen Formel

λ1λ2 =(a + d)2 − (a + d)2 + 4(ad− bc)

4= ad− bc = det A .

4.1.7 Rationale Funktionen von Matrizen

Ist ein Eigenwert λ einer Matrix A keine Polstelle der rationalen Funktion

r(t) =p(t)

q(t)=

a0 + a1t + · · ·b0 + b1t + · · · ,

so ist r(λ) ein Eigenwert von

r(A) = q(A)−1p(A) = p(A)q(A)−1 .

Insbesondere ist λk ein Eigenwert der Matrix-Potenz Ak und 1/λ ein Eigenwert von A−1 fureine invertierbare Matrix.

92 http://www.mathematik-online.org/

Page 93: 16320559 Lineare Algebra

4.1. EIGENWERTE UND EIGENVEKTOREN

Beweis:

Aus Av = λv folgt fur k ≥ 0 dass Akv = λkv und allgemeiner dass(∑

k

ckAk

)

v =

(∑

k

ckλk

)

v .

Weiter giltAv = λv ⇔ v = λA−1v ,

falls A invertierbar ist.Ist λ keine Nullstelle des Nennerpolynoms q, so gilt

q(A)v = q(λ)v, q(A)−1v = q(λ)−1v ,

alsoq(A)−1p(A)v = q(λ)−1p(λ)v = p(A)q(A)−1v

wie behauptet.

4.1.8 Bestimmung von Eigenwerten und -vektoren mit MATLAB

Die Eigenwerte und Eigenvektoren einer Matrix konnen in Matlab mit dem Befehl eig be-stimmt werden.

• w=eig(A) liefert die Eigenwerte der Matrix A

• [Q,D]=eig(A) liefert in V eine Matrix mit normierten Eigenvektoren von A und in Deine Diagonal-Matrix mit den Eigenwerten als Eintragen.

Die Anwendung der Befehle ist in dem folgenden Beispiel illustriert:

>> A=[2 1 1;1 1 0;1 0 1];

>> w=eig(A)

w =

0.0000

1.0000

3.0000

>> [V,D]=eig(A)

V =

-0.5774 -0.0000 0.8165

0.5774 -0.7071 0.4082

0.5774 0.7071 0.4082

D =

0.0000 0 0

0 1.0000 0

0 0 3.0000

>> V^-1*A*V

ans =

-0.0000 0.0000 -0.0000

0.0000 1.0000 -0.0000

0.0000 -0.0000 3.0000

http://www.mathematik-online.org/ 93

Page 94: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

4.2 Diagonalisierung

4.2.1 Basis aus Eigenvektoren

Existiert zu einer Matrix A eine Basis aus Eigenvektoren vj mit Eigenwerten λj, so ist

V −1AV = diag(λ1, . . . , λn), V = (v1, . . . , vn) ,

d.h. bzgl. der Basis v1, . . . , vn hat A Diagonalform.

Beweis:

Zu zeigen, dass

V −1AV = diag(λ1, . . . , λn)

gilt, ist aquivalent zu

AV = V diag(λ1, . . . , λn) = (λ1v1, . . . , λnvn) .

Da die Spalten vj von V Eigenvektoren von A zum Eigenwert λj sind, ist dies sofort einzusehen.

Beispiel:

Die Matrix

A =1

2

2 −6 61 −5 15 −5 1

besitzt die Eigenwerte −2, −2 und 3. Zugehorige Eigenvektoren sind z. B.

110

,

−101

,

615

.

Mit V = (v1, v2, v3) ergibt sich

V −1AV =

−2 0 00 −2 00 0 3

.

4.2.2 Diagonalisierung zyklischer Matrizen

Eine zyklische (n× n)-Matrix A kann mit Hilfe der Fourier-Matrix

W = (wjk)j,k=0,...,n−1, w = exp(2πi/n) ,

diagonalisiert werden:

1

nW

a0 an−1 · · · a1

a1 a0 · · · a2...

. . ....

an−1 an−2 · · · a0

W =

λ1 · · · 0...

. . ....

0 · · · λn

,

94 http://www.mathematik-online.org/

Page 95: 16320559 Lineare Algebra

4.2. DIAGONALISIERUNG

mit

λ` =n−1∑

k=0

akw−k`, ` = 0, . . . , n− 1 ,

den Eigenwerten von A.

Beweis:

Man rechnet leicht nach, dass die `-te Spalte von W ein Eigenvektor von A ist. Fur die j-teKomponente von Aw` erhalt man

n−1∑

k=0

aj−k mod nw(k−j)`wj` = wj`

j∑

k′=j−n+1

ak′ mod nw−k′` .

Da die Indizes modulo n interpretiert werden, kann der Summationsbereich der letzten Summedurch k′ = 0, . . . , n− 1 ersetzt werden. Folglich ist die Summe gleich λ` wie behauptet.Damit ist gezeigt, dass

AW = W

λ1 · · · 0...

. . ....

0 · · · λn

.

Da 1√n

W unitar ist, d.h. 1√n

W ∗ =(

1√n

W)−1

, erhalt man die gewunschte Transformation auf

Diagonalform.

Beispiel:

Gemaß der allgemeinen Theorie lasst sich die zyklische Matrix

A =

2 1 0 11 2 1 00 1 2 11 0 1 2

mit der Fourier-Matrix

W =

1 1 1 11 i −1 −i1 −1 1 −11 −i −1 i

auf Diagonalform transformieren:

1

4WAW =

0 0 0 00 2 0 00 0 4 00 0 0 2

mit 0, 2, 2 und 4 den Eigenwerten von A. Da A reell ist, mussen die komplexen Eigenvektoren

1i−1−i

,

1−i−1i

http://www.mathematik-online.org/ 95

Page 96: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

(zweite und vierte Spalte von W ) einen gemeinsamen Eigenwert besitzen. So kann durch Bildenvon Linearkombinationen eine reelle Basis fur den Eigenraum konstruiert werden:

1i−1−i

+

1−i−1i

=

20−20

, i

1i−1−i

− i

1−i−1i

=

0−202

.

4.2.3 Potenzen von Matrizen

Besitzt A einen betragsmaßig großten Eigenwert λ mit Eigenvektor v, so gilt

Anx = λn(cv + o(1)), n→∞ ,

falls x eine nichttriviale Komponente im Eigenraum von λ hat, d.h. x = cv + w mit c 6= 0 undv ∦ w.

Beispiel:

Die Abbildung zeigt die jahrliche Veranderung der Marktanteile xi konkurrierender Firmen. Sogewinnt beispielsweise die Firma A jahrlich 80% der Marktanteile der Firma D, und die FirmaC vergroßert ihre Marktanteile um 90% durch Erschließung neuer Absatzmoglichkeiten, verliertjedoch gleichzeitig Marktanteile an die Firmen A und D.

Aus dem Schaubild entnimmt man die neuen Marktanteile:

Aneu = 0.7A + 0.4C + 0.8D

Bneu = 0.5B + 0.2A

Cneu = 0.9C + 0.2B

Dneu = 0.1D + 0.6C + 0.2E

Eneu = 0.8E + 0.3B + 0.1A .

Mit x = (A,B,C,D,E)t ergibt dies:

xneu =

0.7 0 0.4 0.8 00.2 0.5 0 0 00 0.2 0.9 0 00 0 0.6 0.1 0.2

0.1 0.3 0 0 0.8

x .

96 http://www.mathematik-online.org/

Page 97: 16320559 Lineare Algebra

4.2. DIAGONALISIERUNG

Multiplikation mit der n-ten Potenz der Iterationsmatrix liefert also die Marktanteile nach nJahren.Die normierten Vektoren x0 konvergieren gegen einen Eigenvektor vmax zum betragsmaßiggroßten Eigenwert λmax der Matrix. Man erhalt λmax = 1.1 und den zugehorigen Eigenvek-tor

vmax = (0.75, 0.25, 0.25, 0.25, 0.5)t .

Langfristig wird der Markt also von A bestimmt. Die prozentualen Anteile erhalt man durchdie Normierung, vmax/‖vmax‖1, als

A : 37.5%, B, C,D : 12.5%, E : 25% .

4.2.4 Fibonacci-Folge

Die Folge der Fibonacci–Zahlen ist definiert durch

a0 = 0, a1 = 1,

an+1 = an + an−1 , fur n ≥ 1 ,

d. h. jede Fibonacci–Zahl ist die Summe ihrer beiden Vorganger.Die ersten Fibonacci–Zahlen sind

1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1597, 2584, 4181, 6765, . . . .

Wahlt man als Startwerte a1 = 1 und a2 = 3 so erhalt man die so genannten Lucas–Zahlen:

1, 3, 4, 7, 11, 18, 29, 47, 76, 123, 199, 322, 521, 843, 1364, 2207, 3571, 5778, 9349, . . . .

Faßt man jeweils zwei aufeinanderfolgende Fibonacci–Zahlen zu einem Vektor

xn = (an, an−1)t

zusammen, so kann man die Rekursion auch als

xn+1 = Axn

mit

A =

(1 11 0

)

schreiben. Mit Hilfe der Matrixformulierung lasst sich das asymptotische Verhalten derFibonacci-Zahlen bestimmen. Dazu berechnet man die Eigenwerte und Eigenvektoren von A:

λ± =1

2±√

5

2, v± =

(λ±1

)

.

Stellt man den Startvektor der Rekursion als Linearkombination von v+ und v− dar,(

a1

a0

)

=

(10

)

=1√5v+ −

1√5v− ,

so folgt

an =1√5λ+λn−1

+ − 1√5λ−λn−1

=1√5

(

1

2+

√5

2

)n

+ o(λn−) .

http://www.mathematik-online.org/ 97

Page 98: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

4.2.5 Normale Matrizen

Eine komplexe Matrix A heißt normal, falls

AA∗ = A∗A ,

mit A∗ = At. Insbesondere sind unitare und hermitesche Matrizen normal.Fur relle normale Matrizen ist

AAt = AtA ,

was insbesondere fur orthogonale und symmetrische Matrizen erfullt ist.

Beweis:

Die Normalitat unitarer und hermitescher Matrizen folgt unmittelbar aus den Definitionen.Fur eine unitare Matrix A ist

AA∗ = AA−1 = E = A−1A = A∗A .

Fur eine hermitesche Matrix A ist

AA∗ = AA = A∗A .

4.2.6 Unitare Diagonalisierung normaler Matrizen

Eine Matrix A ist genau dann normal, wenn A unitar diagonalisierbar ist, d. h., wenn

U−1AU = diag(λ1, . . . , λn) ,

wobei die Spalten von U eine orthonormale Basis aus Eigenvektoren zu den Eigenwerten λj

bilden.

Beweis:

IstA = UDU ∗, U ∗ = U−1 ,

so ist A normal, denn

AA∗ = (UDU ∗)(UDU ∗)∗ = UD(U ∗U)D∗U∗

= U(D∗D)U ∗ = (UD∗U∗)(UDU ∗)

= A∗A .

Umgekehrt lasst sich die Existenz einer Orthonormalbasis aus Eigenvektoren durch Induktionbzgl. der Dimension zeigen. Fur den Induktionsschritt wird eine unitare Matrix V konstruiertmit

V ∗AV =

(λ 00 B

)

.

Nach Induktionsannahme kann B durch eine unitare Matrix W auf Diagonalform transformiertwerden, so dass man

U = V

(1 00 W

)

98 http://www.mathematik-online.org/

Page 99: 16320559 Lineare Algebra

4.2. DIAGONALISIERUNG

setzen kann.Zur Konstruktion von V geht man von der Existenz eines normierten Eigenvektors v zumEigenwert λ aus und setzt

V = (v|V ) ,

wobei die Spalten von V den Vektor v zu einer Orthonormalbasis erganzen. Es folgt

V ∗AV =

(v∗

V ∗

)(

λv AV)

=

(λ c∗

0 B

)

.

Es bleibt zu zeigen, dass B normal ist und c = 0. Beides folgt aus der Normalitat von A. Diesebleibt unter Ahnlichkeitstransformationen erhalten, gilt also auch fur die rechte Seite D vonobiger Gleichung. Bildet man

DD∗ =

(|λ|2 + |c|2 c∗B∗

Bc BB∗

)

D∗D =

(|λ|2 λc∗

λc B∗B

)

,

so erhalt man die gewunschten Eigenschaften durch Vergleich der Diagonalblocke der obigenMatrizen.

Beispiel:

Die Matrix

A =

(3 + 2i 3− 2i3− 2i 3 + 2i

)

ist normal, was man durch direktes Nachrechnen bestatigt.

AA∗ =

(26 1010 26

)

= A∗A

Folglich muss A unitar diagonalisierbar sein. Man erhalt die Eigenwerte 6 und 4i und zugehorigenormierte Eigenvektoren sind z. B.

v1 =

(1√2

1√2

)

, v2 =

(1√2

− 1√2

)

.

Erwartungsgemaß ist v1⊥v2, und mit der unitaren Matrix U = (v1, v2) erhalt man die Diago-nalform:

(6 00 4i

)

=

(1√2

1√2

1√2− 1√

2

)(3 + 2i 3− 2i3− 2i 3 + 2i

)( 1√2

1√2

1√2− 1√

2

)

.

4.2.7 Diagonalform hermitescher Matrizen

Die Eigenwerte λi einer hermiteschen Matrix A (A = A∗) sind reell und es existiert eineOrthonormalbasis aus Eigenvektoren vi. Folglich ist

U∗AU = diag(λ1, . . . , λn) ,

mit der unitaren Matrix U = (v1, . . . , vn).Im Spezialfall reeller symmetrischer Matrizen (A = At) sind die Eigenvektoren ebenfalls reell.

http://www.mathematik-online.org/ 99

Page 100: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

Beweis:

Die unitare Diagonalisierbarkeit folgt aus dem entsprechenden allgemeinen Resultat uber nor-male Matrizen, das den hermiteschen Fall einschließt. Es bleibt zu zeigen, dass ein Eigenwertλ reell ist. Ist v der entsprechende Eigenvektor, so folgt dies aus

λv∗v = v∗(λv) = v∗(Av) = (A∗v)∗v

= (Av)∗v = (λv)∗v = λv∗v ,

denn λ = λ⇒ λ ∈ R.

Beispiel:

Die hermitesche Matrix

A =

(2 −1− i

−1 + i 1

)

hat Determinante 0. Folglich ist λ = 0 ein Eigenwert und man sieht unmittelbar, dass

v =

(1

1− i

)

ein zugehoriger Eigenvektor ist. Aus Spur A = 3 = λ+% erhalt man % = 3 als zweiten Eigenwert.Ein zugehoriger Eigenvektor ist der zu v bzgl. des komplexen Skalarprodukts orthogonale Vektor

w =

(1 + i−1

)

.

Durch Normierung erhalt man die unitare Matrix

U =1√3

(1 1 + i

1− i −1

)

.

Folglich gilt

A = U

(0 00 3

)

U∗,

mit

U∗ =1√3

(1 1− i

1 + i −1

)

der Inversen von U .

4.2.8 Positiv definite Matrizen

Eine quadratische Matrix A heißt positiv definit, falls

v∗Av > 0 ∀v 6= 0 .

Ist v∗Av lediglich nichtnegativ, so bezeichnet man A als positiv semidefinit.Eine positiv definite Matrix A hat ausschließlich positive Diagonalelemente und und Eigenwerte.Insbesondere ist A invertierbar und die Inverse ist ebenfalls positiv definit.

100 http://www.mathematik-online.org/

Page 101: 16320559 Lineare Algebra

4.3. JORDAN-NORMALFORM

4.2.9 Rayleigh-Quotient

Fur eine hermitesche positiv definite Matrix S sind die Extremwerte des so genannten Rayleigh-Quotienten

rS(x) =x∗Sx

x∗x, x 6= 0 ,

der kleinste und großte Eigenwert von S.

Beweis:

Die Matrix S lasst sich durch eine unitare Matrix U auf Diagonalform transformieren:

U∗SU = D, D = diag(λ1, . . . , λn) ,

wobei

Svi = λivi ⇒ λi =v∗

i Svi

v∗i vi

> 0

und λ1 ≥ · · · ≥ λn angenommen werden kann.Substituiert man S = UDU ∗ und x = Uy, so ist

rS(y) =y∗Dy

y∗(U ∗U)y=

i λi|yi|2∑

i |yi|2.

Dies zeigt, dassλmin ≤ rS(y) ≤ λmax ,

wobei Gleichheit fur die entsprechenden Einheitsvektoren y = en und y = e1 gilt.

4.3 Jordan-Normalform

4.3.1 Dreiecksform

Eine komplexe quadratische Matrix A lasst sich durch eine Ahnlichkeitstranformation auf obereDreiecksform

R =

λ1 r1,2 · · · r1,n

0. . . . . .

......

. . . . . . rn−1,n

0 · · · 0 λn

= Q−1AQ

transformieren, wobei die Diagonale die Eigenwerte λi von A enthalt.

Beweis:

Der Beweis lasst sich durch Induktion uber die Dimension n der Matrix fuhren, ausgehend vondem trivialen Fall einer (1× 1)-Matrix.Betrachtet man eine (n× n)-Matrix A, so besitzt diese mindestens einen Eigenvektor v. Dieserlasst sich nach Normierung zu einer orthonormalen Basis v, w1, . . . , wn−1 erganzen. In dieserBasis hat die Abbildung die Form

A = T ∗AT =

(λ x∗

0 B

)

.

http://www.mathematik-online.org/ 101

Page 102: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

Fur die((n − 1) × (n − 1)

)-Matrix B, existiert nach Induktionsvoraussetzung eine unitare

Transformation Q gibt mit Q∗BQ = Rn−1. Somit folgt mit

Q = T

(1 0

0 Q

)

dass

Q∗AQ =

(1 0

0 Q∗

)

T ∗AT

(1 0

0 Q

)

=

(1 0

0 Q∗

)(λ x∗

0 B

)(1 0

0 Q

)

=

(1 0

0 Q∗

)(λ x∗Q

0 BQ

)

=

(λ x∗Q

0 Q∗BQ

)

=

(λ x∗Q0 Rn−1

)

= R .

4.3.2 Hauptvektoren

Ist λ ein Eigenwert der komplexen (n×n)-Matrix A mit algebraischer Vielfachheit m so nenntman einen Vektor v mit

(A− λE)mv = 0 , v 6= 0

Hauptvektor zum Eigenwert λ.Alle Hauptvektoren zu einem Eigenwert bilden zusammen mit dem Nullvektor einen Untervek-torraum der Dimension m, den Hauptraum Hλ zum Eigenwert λ. Dieser ist invariant unter derlinearen Abbildung A.Der Gesamtraum ist die direkte Summe der Hauptraume:

Cn =⊕

λ

Beweis:

Der Beweis gliedert sich in mehrere Teilschritte.(i) Da die Einheitsmatrix E mit jeder Matrix kommutiert, gilt fur das Bild Av eines Vektorsv ∈ Hλ:

(A− λE)mAv =(Am+1 + · · ·+ λmEmA

)v = A (Am + · · ·+ λmEm) v

= A(A− λE)mv = A · 0 = 0 .

Folglich ist Av ∈ Hλ.(ii) Um die Dimension zu bestimmen, transformiert man die Matrix A auf obere Dreiecksform:

A→ B = Q−1AQ =

λ ∗ ∗ ∗. . .

λ ∗ ∗

0 R

.

102 http://www.mathematik-online.org/

Page 103: 16320559 Lineare Algebra

4.3. JORDAN-NORMALFORM

Da fur v ∈ Hλ

0 = Q−1(A− λE)mQ(Q−1v) = (B − λE)m(Q−1v) ,

transformieren sich die Hauptvektoren gemaß v → w = Q−1v. Aus der Form von B ist aberoffensichtlich, dass die Einheitsvektoren ei fur i ≤ m im Hauptraum Q−1Hλ von B liegen.Weiter wird ein Vektor v mit vi 6= 0 fur ein i > m durch (B − λE)m nicht auf 0 abgebildet.Folglich gilt dim Hλ = m.(iii) Da

λ

dim Hλ gleich der Summe der algebraischen Vielfachheiten ist, also gleich n, genugt

es fur die Basiseigenschaft die lineare Unabhangigkeit der Hauptraume zu zeigen. Dazu wirdbenutzt, dass fur % 6= λ

(A− %E)v = 0 ∧ v ∈ Hλ ⇒ v = 0.

Verschwindet eine Summe von Vektoren aus den verschiedenen Hauptraumen,

vλ + v% + vσ + . . . = 0,

so folgt((A− %E)m%(A− σE)mσ . . .) vλ = 0.

Da die einzelnen Faktoren Hλ invariant lassen, ist die obige Bemerkung anwendbar, und manerhalt vλ = 0. Analog folgt v% = vσ = . . . = 0 und damit ist der Nullvektor nur auf die trivialeWeise darstellbar.

4.3.3 Zyklische Basen von Hauptraumen

Ein Hauptraum einer komplexen quadratischen Matrix A lasst sich in eine direkte Summezyklischer Teilraume zerlegen:

Hλ = V1 ⊕ · · · ⊕ V` ,

d.h. jeder der Teilraume Vi besitzt eine Basis der Form

Bkivi, . . . , Bvi, vi, B = A− λE,

mit wi = Bkivi einem Eigenvektor zum Eigenwert λ.Die Matrix A lasst die Teilraume Vi invariant und hat dort die Matrixdarstellung

Ji =

λ 1 0

λ. . .. . . 1

0 λ

.

Beweis:

Definitionsgemaß besteht Hλ aus Vektoren v mit Bk+1v = 0, wobei k kleiner als die algebraischeVielfachheit m von λ ist. Die gewahlte Form der Basis ist deshalb naheliegend. Um die Vektoren

wi ∈ ker B ,

die die Basis festlegen, zu bestimmen, betrachtet man die Teilraume

Uj = ker B ∩ Bild Bj

http://www.mathematik-online.org/ 103

Page 104: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

des Eigenraums ker B zu λ. Offensichtlich ist

∅ = Um ⊂ Um−1 ⊂ · · · ⊂ U0 = ker B .

Die Vektoren wi werden nun, ausgehend von der leeren Menge, induktiv konstruiert. Sindw1, . . . , wi−1 bereits festgelegt, so bestimmt man das großte ki, fur dass Uki

nicht in der linearenHulle Wi−1 dieser wj liegt, d.h. es gibt vi 6= 0 mit

Bkivi = wi /∈ Wi−1, Bwi = 0 .

Auf diese Weise entsteht schließlich eine Basis w1, . . . , w` fur den gesamten Eigenraum ker Bund entsprechende zyklische Basen fur die Raume Vi.Die Invarianz der Raume Vi unter Multiplikation mit B (bzw. A) ist offensichtlich. Die behaup-tete Matrixdarstellung von A auf Vi folgt aus

A(Bjvi) = (λE + B)Bjvi = λBjvi + Bj+1vi ,

wenn man die Basisvektoren, wie angegeben, nach absteigenden Potenzen ordnet.Zur Rechtfertigung der Konstruktion muß noch die Basiseigenschaft der Vektoren Bjvi gezeigtwerden. Dies geschieht in zwei Schritten.(i) Zunachst wird die lineare Unabhangigheit bewiesen. Das etwas technische Argument lasstsich am Beispiel zweier zyklischer Ketten,

B2v1, Bv1, v1, Bv2, v2 ,

veranschaulichen. Nimmt man an, dass

α2,1B2v1 + α1,1Bv1 + α0,1v1 + α1,2Bv2 + α0,2v2 = 0,

so folgt durch Multiplikation mit B2

α0,1w1 = 0 =⇒ α0,1 = 0 ,

wegen B3v1 = Bw1 = 0 und B2v2 = Bw2 = 0. Multiplikation mit B ergibt nun

α1,1w1 + α0,2w2 = 0 =⇒ α1,1 = α0,2 = 0

wegen der konstruktionsgemaßen linearen Unabhangigkeit der Eigenvektoren wi. Schließlichfolgt

α2,1 = α1,2 = 0

wiederum wegen der linearen Unabhangigkeit der Eigenvektoren wi.Im allgemeinen Fall verfahrt man analog. Beim Analysieren einer Linearkombination der Ba-sisvektoren multipliziert man mit geeigneten Potenzen von B, um bis auf Eigenvektoren alleTerme zu annullieren.(ii) Es bleibt zu zeigen, dass jeder Vektor u ∈ Hλ mit den Basisvektoren darstellbar ist. Sei also

Bku = 0 ,

mit k ≤ m. Fur k = 1 ist nichts zu zeigen, da die Vektoren wi nach Konstruktion eine Basisfur den Eigenraum ker B bilden. Induktiv kann man also annehmen, dass Vektoren in ker Bk−1

darstellbar sind. Ebenfalls darstellbar ist der Eigenvektor Bk−1u:

Bk−1u =∑

i

αiwi.

Daraus folgt, dass

Bk−1(u−∑

i

αiBki−k+1vi

︸ ︷︷ ︸

u′

) = 0 .

Folglich ist u′ darstellbar und damit auch u.

104 http://www.mathematik-online.org/

Page 105: 16320559 Lineare Algebra

4.3. JORDAN-NORMALFORM

4.3.4 Jordan-Form

Eine komplexe quadratische Matrix A lasst sich durch eine Ahnlichkeitstranformation auf dieBlockdiagonalform

J =

J1 0. . .

0 Jk

= Q−1AQ

transformieren. Dabei haben die Jordanblocke die Form

Ji =

λi 1 00 λi 1

. . . . . .

λi 10 λi

,

mit einem Eigenwert λi von A.Bis auf Permutation der Blocke ist die Jordan-Form eindeutig.

Beweis:

Da die Hauptraume Hλ invariant unter der Abbildung A sind, kann bzgl. einer Basis ausHauptvektoren Blockform erzielt werden. Durch Verwendung der speziellen zyklischen Basen

Bkivi, . . . , Bvi, vi, B = A− λiE ,

erhalten die Blocke die gewunschte Form.

Beispiel:

Die Matrix

A =

−1 0 42 −1 03 2 −1

hat das charakteristische Polynom

pA(λ) = (−1− λ)3 + 4(4− 3(−1− λ)) = −λ3 − 3λ2 + 9λ + 27

mit der doppelten Nullstelle λ = −3 und der einfachen Nullstelle % = 3. Da der Rang derMatrix

(A− λE) =

2 0 42 2 03 2 2

gleich 2 ist, existiert zu λ = −3 nur ein Eigenvektor. Folglich hat A die Jordanform

Q−1AQ = J =

−3 1 00 −3 00 0 3

, Q = (w, v, w) .

http://www.mathematik-online.org/ 105

Page 106: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

Durch Losen der linearen Gleichungssysteme

2 0 42 2 03 2 2

w1

w2

w3

=

000

und

−4 0 42 −4 03 2 −4

w1

w2

w3

=

000

erhalt man die Eigenvektoren

w =

−221

, w =

212

.

Der Hauptvektor erfullt

−221

=

2 0 42 2 03 2 2

v1

v2

v3

,

d.h. man erhalt z.B. v = (−3, 4, 1)t. Damit ist

Q =

−2 −3 22 4 11 1 2

,

was durch die Probe A = QJQ−1 bestatigt wird.

Beispiel:

Fur eine komplexe (2× 2)-Matrix A gibt es 3 qualitativ verschiedene Jordan-Normalformen J :

(λ 10 λ

)

,

(λ 00 λ

)

,

(λ 00 %

)

, (λ 6= %) .

Im ersten Fall ist λ ein doppelter Eigenwert mit nur einem (bis auf skalare Vielfache) Eigen-vektor w, d.h.

Rang(A− λE) = 1.

Einen zugehorigen Hauptvektor v und damit die Transformationsmatrix Q = (w, v) erhalt mandurch Losen von

w = (A− λE)v

bzw durch Bestimmung von ker(A− λE)2.Fur das konkrete Beispiel

A =

(−4 4−9 8

)

ist das charakteristische Polynom

PA(λ) = λ2 − 4λ + 4

106 http://www.mathematik-online.org/

Page 107: 16320559 Lineare Algebra

4.3. JORDAN-NORMALFORM

mit der doppelten Nullstelle λ = 2. Durch Losen von(−6 4−9 6

)(w1

w2

)

=

(00

)

erhalt man w = (2, 3)t und aus

(23

)

=

(−6 4−9 6

)(v1

v2

)

einen zugeorigen Hauptvektor v = (1, 2)t. Dies wird durch die Probe

A = QJQ−1 =

(2 13 2

)(2 10 2

)(2 −1−3 2

)

bestatigt.

Beispiel:

Fur eine komplexe (3 × 3)-Matrix A gibt es die folgenden qualitativ verschiedenen Jordan-Normalformen J = Q−1AQ:(i) paarweise verschiedene Eigenwerte λ, %, σ:

λ 0 00 % 00 0 σ

.

(ii) ein doppelter Eigenwert λ:

λ 0 00 λ 00 0 %

,

λ 1 00 λ 00 0 %

.

Im zweiten Fall istRang(A− λE) = 2

und Q = (w, v, w) mit Eigenvektoren w und w und einem Hauptvektor v, die durch das Losender Gleichungssysteme

(A− λE)w = 0, w = (A− λE)v, (A− %E)w = 0

bestimmt werden konnen.(iii) ein dreifacher Eigenwert λ:

λ 0 00 λ 00 0 λ

,

λ 1 00 λ 00 0 λ

,

λ 1 00 λ 10 0 λ

.

Im zweiten Fall istRang(A− λE) = 1

und man erhalt einen Hauptvektor v durch Losen von

(A− λE)2v = 0 , (A− λE)v 6= 0.

http://www.mathematik-online.org/ 107

Page 108: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

Der zugehorige Eigenvektor ist w = (A − λE)v, und ein weiterer linear unabhangiger Eigen-vektor w erfullt

(A− λE)w = 0 , w⊥w .

Schließlich ist Q = (w, v, w).Im dritten Fall ist

Rang(A− λE) = 2

und Q = (w, v, u) mit

(A− λE)w = 0 , w = (A− λE)v , v = (A− λE)u .

4.3.5 Jordan-Formen von (4x4)-Matrizen

Die folgende Abbildung zeigt die insgesamt 14 moglichen Belegunsstrukturen fur Jordan-Formen von (4× 4)-Matrizen.

• Vier verschiedene Eigenwerte λ1, λ2, λ3, λ4

λ1 0 0 00 λ2 0 00 0 λ3 00 0 0 λ4

• Ein zweifacher Eigenwert λ1 und zwei einfache Eigenwerte λ2, λ3

λ1 0 0 00 λ1 0 00 0 λ2 00 0 0 λ3

λ1 1 0 00 λ1 0 00 0 λ2 00 0 0 λ3

• Ein dreifacher Eigenwert λ1 und ein einfacher Eigenwert λ2

λ1 0 0 00 λ1 0 00 0 λ1 00 0 0 λ2

λ1 1 0 00 λ1 0 00 0 λ1 00 0 0 λ2

λ1 1 0 00 λ1 1 00 0 λ1 00 0 0 λ2

• Zwei zweifache Eigenwerte λ1, λ2

λ1 0 0 00 λ1 0 00 0 λ2 00 0 0 λ2

λ1 1 0 00 λ1 0 00 0 λ2 00 0 0 λ2

λ1 1 0 00 λ1 0 00 0 λ2 10 0 0 λ2

• Ein vierfacher Eigenwert λ1

λ1 0 0 00 λ1 0 00 0 λ1 00 0 0 λ1

λ1 1 0 00 λ1 0 00 0 λ1 00 0 0 λ1

λ1 1 0 00 λ1 1 00 0 λ1 00 0 0 λ1

λ1 1 0 00 λ1 0 00 0 λ1 10 0 0 λ1

λ1 1 0 00 λ1 1 00 0 λ1 10 0 0 λ1

108 http://www.mathematik-online.org/

Page 109: 16320559 Lineare Algebra

4.4. SINGULARWERTZERLEGUNG

4.3.6 Potenzen von Matrizen

Die Potenzen An, n = 0, 1, . . ., einer komplexen Matrix konvergieren genau dann gegen dieNullmatrix, wenn der Betrag aller Eigenwerte λ kleiner als 1 ist.Die Folge (An) bleibt beschrankt, wenn |λ| ≤ 1 und fur Eigenwerte mit Betrag 1 die algebraischegleich der geometrischen Vielfachheit ist. Andernfalls divergiert die Folge, insbesondere dann,wenn ein Eigenwert mit Betrag großer als 1 existiert.

Beweis:

Mit der Jordan-Form J = Q−1AQ von A lassen sich die Matrix-Potenzen in der Form

An = (QJQ−1)(QJQ−1) · · · (QJQ−1) = QJnQ−1

schreiben. Es braucht also nur die Konvergenz der Potenzen von J untersucht zu werden.Aufgrund der Blockform von J kann man jeden Block Ji separat betrachten. Dazu schreibtman

Ji = (λiE) + D ,

wobei D die Nebendiagonale mit Einsen enthalt. Wie man leicht nachweist, ist Dm = 0 fureinen Block der Dimension m. Folglich gilt

(Ji)n = λn

i E +

(n

1

)

λn−1i D + · · ·+

(n

m− 1

)

λn−m+1i Dm−1 .

Aus dieser Identitat lassen sich die Konvergenzeigenschaften ablesen.Fur |λi| < 1 ist

limn→∞

(n

j

)

λn−ji = 0 ,

da(

n

j

)nur polynomial wachst, hingegen λn−j

i exponentiell fallt.

Ist |λi| = 1 bleibt die Folge nur beschrankt, wenn m = 1, d.h., wenn keine Nebendiagonale mitEinsen existiert.

4.4 Singularwertzerlegung

4.4.1 Singularwert-Zerlegung

Zu jeder komplexen (m× n)-Matrix A existieren unitare Matrizen U und V mit

U∗AV = S =

s1 0s2

0. . .

.

Die singularen Wertes1 ≥ s2 ≥ · · · ≥ sk > sk+1 = · · · = 0

sind die Wurzeln der Eigenwerte von A∗A und k ist der Rang von A. Die Spalten uj von U undvj von V sind Eigenvektoren von AA∗ bzw. A∗A und es gilt

Avj = sjuj

fur 1 ≤ j ≤ k.Im Spezialfall einer reellen Matrix A sind die Matrizen U und V orthogonal.

http://www.mathematik-online.org/ 109

Page 110: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

Beweis:

Durch Diagonalisierung der hermiteschen Matrix A∗A erhalt man

V ∗A∗AV = diag(s21, . . . , s

2k, 0, . . . , 0) = StS ,

wobei man annehmen kann, dass die Eigenwerte der Große nach geordnet sind. Da A∗A positivsemi-definit ist, kann man die ausschließlich nichtnegativen Eigenwerte als Quadrate ansetzenund so die m× n Diagonalmatrix S definieren.Aus obiger Gleichung folgt, dass die Spalten von AV orthogonal sind und Norm si haben:

AV =(

s1u1 · · · skuk 0 · · · 0)

= US

mit einer unitaren Matrix U .Nachdem die behauptete Darstellung

A = USV ∗

konstruiert wurde, lassen sich die restlichen Aussagen leicht nachprufen.Da unitare Transformationen den Rang einer Matrix nicht verandern, gilt

Rang A = Rang S = k .

Weiter istAA∗uj = U(SSt)U ∗uj = uj(sj)

2

undA∗Avj = V (StS)V ∗vj = vj(sj)

2 .

Schließlich ist Avj gleich der j-ten Spalte von US, also gleich ujsj.

4.4.2 Singularwert-Zerlegung mit MATLAB

Die Singularwert-Zerlegung einer Matrix A kann in Matlab mit dem Befehl

>> [U,S,V]=svd(A)

bestimmt werden. Beispielsweise erhalt man fur

>> A = [0 1 1; -1 0 -1]

die Matrizen

U =

-0.7071 0.7071

0.7071 0.7071

S =

1.7321 0 0

0 1.0000 0

V =

-0.4082 -0.7071 -0.5774

-0.4082 0.7071 -0.5774

-0.8165 -0.0000 0.5774

Definitionsgemaß erhalt man eine Faktorisierung von A:

>> U*S*V’

ans =

0 1 1

-1 0 -1

110 http://www.mathematik-online.org/

Page 111: 16320559 Lineare Algebra

4.4. SINGULARWERTZERLEGUNG

4.4.3 Pseudo-Inverse

Mit der Singularwert-Zerlegung USV ∗ einer komplexen (m×n)-Matrix A lasst sich die Losungdes Ausgleichsproblems |Ax− b| → min mit minimaler Norm in der Form

x = A+b, A+ = V S+U∗,

schreiben, wobei A+ als Pseudo-Inverse von A bezeichnet wird, und

S+ = diag(1/s1, . . . , 1/sk, 0, . . . , 0)

die (n×m)-Diagonalmatrix mit den reziproken singularen Werten bezeichnet.

Beweis:

Wegen der Invarianz der 2-Norm unter unitaren Transformationen, kann man Ax− b von linksmit U ∗ multiplizieren. Mit

c = U ∗b, y = V ∗x

ergibt sich das aquivalente Minimierungsproblem

|Sy − c| =

∣∣∣∣∣∣∣∣∣∣∣∣∣

s1y1 − c1...

skyk − ck

−ck+1...−cm

∣∣∣∣∣∣∣∣∣∣∣∣∣

→ min .

Das Minimum erhalt man durch Losung der ersten k Gleichungen:

yi = ci/si, i = 1 : k .

Wegen der Normtreue der unitaren Matrix V (|x| = |y|), ist fur die Losung minimaler Norm

yk+1 = · · · = yn = 0 .

Insgesamt folgt

y = S+c, s+i,j =

1/si fur i = j ≤ k

0 sonst

Beispiel:

Es soll das Ausgleichproblem fur

A =

2 −4 56 0 32 −4 56 0 3

, b =

13−1

3

gelost werden.

http://www.mathematik-online.org/ 111

Page 112: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

Zur Berechnung der Singularwert-Zerlegung bestimmt man zunachst die Eigenwerte und Ei-genvektoren von

AtA =

80 −16 56−16 32 −40

56 −40 68

und erhalt

s21 = 144, s2

2 = 36, s23 = 0, V =

1

3

2 2 −1−1 2 2

2 −1 2

.

Daraus folgt

S =

12 0 00 6 00 0 00 0 0

, AV =

6 −3 06 3 06 −3 06 3 0

= US .

Die ersten zwei Spalten von U erhalt man durch Division der entsprechenden Spalten von AVdurch die singularen Werte (dabei mussen Einheitsvektoren entstehen), die restlichen Spalten(nicht eindeutig bestimmt) durch Erganzen zu einer orthonormalen Basis:

U =1

2

1 −1 −1 11 1 −1 −11 −1 1 −11 1 1 1

.

Damit ist die Pseudo-Inverse

A+ = V

112

0 0 00 1

60 0

0 0 0 0

U t =1

72

−2 6 −2 6−5 3 −5 3

4 0 4 0

und

x = A+b =1

4

210

die Losung minimaler Norm.

4.4.4 Korrektur topografischer Meßdaten

Zur Kontrolle topographischer Hohendaten hi werden Hohendifferenzen di,j gemessen. Aufgrundvon Messfehlern gilt in der Regel di,j 6= hi−hj. Geeignete Hohenkorrekturen xi lassen sich durchLosen des Ausgleichsproblems

(i,j)

(

di,j −((hi + xi)− (hj + xj)

))2

−→ min .

Zur Illustration der Vorgehensweise wird ein Modellproblem mit wenigen Daten gelost.

112 http://www.mathematik-online.org/

Page 113: 16320559 Lineare Algebra

4.4. SINGULARWERTZERLEGUNG

!

Fur die Hohen und Differenzwerte

h = (834, 561, 207, 9)t, d = (276, 631, 822, 356, 549)t

mit d = (d1,2, d1,3, d1,4, d2,3, d2,4)t, erhalt man das uberbestimmte System

A(h + x) = d, A :=

1 −1 0 01 0 −1 01 0 0 −10 1 −1 00 1 0 −1

.

Die gesuchte Losung minimaler Norm ist dann

x = A+(d− Ah) =

1−1−33

.

Die Berechnung der Minimum-Norm-Losung ist fur die betrachtete Anwendung sinnvoll, dennes soll eine moglichst kleine Korrektur bestimmt werden.

4.4.5 Moore-Penrose-Bedingungen

Die Pseudo-Inverse A+ wird durch die folgenden Identitaten eindeutig charakterisiert:

• AA+A = A

• A+AA+ = A+

• (AA+)∗ = AA+

• (A+A)∗ = A+A

http://www.mathematik-online.org/ 113

Page 114: 16320559 Lineare Algebra

KAPITEL 4. NORMALFORMEN

Beweis:

Es lasst sich leicht nachprufen, dass die durch

A+ = V S+U∗, A = USV ∗

definierte Pseudo-Inverse die angegebenen Bedingungen erfullt. Beispielsweise folgt die ersteIdentitat aus

(USV ∗)(V S+U∗)(USV ∗) = U [SS+S]V ∗ ,

denn das Produkt der verallgemeinerten Diagonalmatrizen in eckigen Klammern wird durchMultiplizieren der Diagonalelemente gebildet und es ist

s+i,i = 1/si,i, i ≤ Rang A .

Alle anderen Identitaten folgen ebenfalls durch direktes Nachrechnen.Zu zeigen, dass A+ durch die angegebenen Bedingungen eindeutig charakterisiert wird, istallerdings weitaus schwieriger und soll hier nicht ausgefuhrt werden.

114 http://www.mathematik-online.org/

Page 115: 16320559 Lineare Algebra

Kapitel 5

Analytische Geometrie

5.1 Orthogonale Gruppen

5.1.1 Orthogonale und spezielle orthogonale Gruppe

Die Menge aller orthogonalen (n×n)-Matrizen Q wird als orthogonale Gruppe O(n) bezeichnet.

Fur Q ∈ O(n) gilt

Q−1 = Qt , | det Q| = 1

und bei einer Koordinatentransformation

x→ x′ = Qx

bleiben Lange und Skalarprodukt erhalten.

Die Menge aller orthogonalen (n × n)-Matrizen Q mit det Q = 1 wird als Drehgruppe oderspezielle orthogonale Gruppe

SO(n) ⊂ O(n)

bezeichnet.

5.1.2 Spiegelung

Eine Spiegelung an der zu einem Einheitsvektor d 6= 0 orthogonalen Hyperebene

H : dtx = 0

im Rn wird durch die symmetrische orthogonale Matrix

Q = E − 2ddt

mit E der Einheitsmatrix beschrieben.

http://www.mathematik-online.org/ 115

Page 116: 16320559 Lineare Algebra

KAPITEL 5. ANALYTISCHE GEOMETRIE

Beweis:

Die Symmetrie von Q ist offensichtlich. Damit folgt

QQt = Q2 = (E − 2ddt)2 = E2 − 4ddt + 4ddtddt = E ,

d.h. Q ist orthogonal.Zum Beweis der Spiegelungseigenschaft bemerkt man zunachst, dass der Vektor

x−Qx = x− x + 2ddtx = 2(dtx)d

parallel zu d ist, und der Mittelpunkt zwischen x und Qx in der Hyperebene liegt:

dt(x + Qx) = dtx + dtx− 2dtddtx = 0 .

Damit ist Qx die Spiegelung von x an der Hyperebene durch den Ursprung, die zu d orthogonalist.

5.1.3 Drehung

Die orthogonale (n× n)-Matrix

Zeile i →

Zeile j →

1 0. . .

c −s. . .

s c. . .

0 1

mit c = cos ϕ und s = sin ϕ beschreibt eine Drehung um ϕ in der xixj-Ebene des Rn.

116 http://www.mathematik-online.org/

Page 117: 16320559 Lineare Algebra

5.1. ORTHOGONALE GRUPPEN

Beweis:

Einfaches Nachrechnen und Berucksichtigung von

cos2 ϕ + sin2 ϕ = 1

bestatigt, dass die Rotationsmatrix R orthogonal ist:

RRt =

1 0. . .

c2 + s2 −sc + sc. . .

−sc + sc c2 + s2

. . .

0 1

= E .

5.1.4 Drehachse und Drehwinkel

Jede Drehung Q im R3 besitzt eine Drehachse, d.h. lasst einen Einheitsvektor u invariant, undentspricht einer ebenen Drehung um einen Winkel ϕ in der zu u orthogonalen Ebene.Bezuglich eines orthonormalen Rechtssystems u, v, w besitzt Q die Matrixdarstellung

Q =

1 0 00 cos ϕ − sin ϕ0 sin ϕ cos ϕ

.

Insbesondere gilt fur den Drehwinkel

cos ϕ =1

2(Spur Q− 1) .

Beweis:

Fur eine Drehmatrix Q istQ−1 = Qt , | det Q| = 1 .

Da die Eigenwerte λi einer orthogonalen Matrix Betrag 1 haben und λ1λ2λ3 = det Q = 1 ist,folgt, dass mindestens ein Eigenwert 1 ist. Es gilt namlich bei geeigneter Numerierung entweder

λ1 = λ2 , λ1λ2 = 1

oderλi ∈ −1, 1 .

Der normierte Eigenvektor u zum Eigenwert 1 bestimmt die Drehachse.Fur ein orthonormales Rechtssystem u, v, w gilt

Qu = u

Qv = αv + βw

Qw = γv + δw .

http://www.mathematik-online.org/ 117

Page 118: 16320559 Lineare Algebra

KAPITEL 5. ANALYTISCHE GEOMETRIE

Dass Qv,Qw keine u-Komponente enthalten, folgt dabei aus der Winkeltreue orthogonalerMatrizen

x ⊥ u⇒ Qx ⊥ Qu = u .

Schreibt man die obige Gleichungen in Matrixform,

Q(u, v, w︸ ︷︷ ︸

P

) = (u, v, w)

1 0 00 α γ0 β δ

︸ ︷︷ ︸

Q

,

folgt aus Q = P−1QP , dass(

α γβ δ

)

eine Drehmatrix ist. Man erhalt ebenfalls

Spur Q = Spur Q = 1 + 2 cos ϕ

aufgrund der Invarianz der Spur.

Beispiel:

Die Matrix

Q =1

2

1 −√

2 1√2 0 −

√2

1√

2 1

ist eine Drehmatrix, denn

QtQ =1

4

4 0 00 4 00 0 4

= E ⇒ Qt = Q∗

und

det Q = det1

2

1 −√

2 1√2 0 −

√2

1√

2 1

= +1 .

Die Drehachse bestimmt man als Eigenvektor u zum Eigenwert λ = 1:

1

2

−1 −√

2 1√2 −2 −

√2

1√

2 −1

︸ ︷︷ ︸

Q−E

u1

u2

u3

=

000

⇒ u =1√2

101

.

Den Drehwinkel ϕ bestimmt man aus

cos ϕ =1

2(Spur Q− 1) =

1

2(1− 1) = 0

als ϕ = ±π2.

118 http://www.mathematik-online.org/

Page 119: 16320559 Lineare Algebra

5.1. ORTHOGONALE GRUPPEN

Das Vorzeichen von ϕ hangt von der Orientierung der Drehachsenrichtung u ab und kann mitHilfe eines Rechtssystems u, v, w bestimmt werden:

wtQv = wt(cos ϕv + sin ϕw) = sin ϕ .

Mit

v =

010

, w =

− 1√2

01√2

folgt fur das betrachtete Beispiel

sin ϕ = (− 1√2

01√2)

− 1√2

01√2

= 1

also ϕ = π2.

5.1.5 Faktorisierung einer Drehung

Eine Drehung Q im R3 lasst sich als Produkt von Drehungen um die Koordinatenachsen dar-stellen:

Q = DzDyDx .

Beweis:

Die Drehungen D lassen sich bestimmen, indem man sukzessive die Elemente q21, q31, q32 vonQ annulliert:

D−1z Q =

? ? ?0 ? ?? ? ?

D−1y D−1

z Q =

1 ? ?0 ? ?0 ? ?

D−1x D−1

y D−1z Q =

1 ? ?0 1 ?0 0 ?

= R .

Dabei wurde ausgenutzt, dass sich ein beliebiger Einheitsvektor (v1, v2)t durch eine ebene Dre-

hung D auf (1, 0)t abbilden lasst. Da det R = 1 ist folgt r33 = 1 und wegen der Normierung derSpalten muss R die Einheitsmatrix sein. Damit ergibt sich die gewunschte Darstellung.

Beispiel:

Um die Faktorisierung der Drehmatrix

Q =

0 12−

√3

2

− 1√2−

√6

4−

√4

8

− 1√2

√6

4

√6

8

http://www.mathematik-online.org/ 119

Page 120: 16320559 Lineare Algebra

KAPITEL 5. ANALYTISCHE GEOMETRIE

zu bestimmen, annuliert man zuerst das Element q2,1 durch eine Drehung um π2

um die z-Achse:

0 −1 01 0 00 0 1

Q =

1√2

√6

4

√6

8

0 12−

√3

2

− 1√2

√6

4

√6

8

.

Anschließend dreht man um π4

um die y-Achse:

1√2

0 − 1√2

0 1 01√2

0 1√2

D∗zQ =

1 0 0

0 12−

√3

2

0√

32

12

.

Die resultierende Matrix ist eine Drehung Dx um die x-Achse. Insgesamt erhalt man fur dieFaktorisierung

Q =

0 1 0−1 0 00 0 1

1√2

0 1√2

0 1 0− 1√

20 1√

2

1 0 0

0 12−

√3

2

0√

32

12

Dz Dy Dx

5.1.6 Drehmatrix

Eine Drehung im R3 mit normierter Drehachsenrichtung u und Drehwinkel ϕ, orientiert wieeine Rechtsschraube, bildet einen Vektor x auf

Qx = cos ϕx + (1− cos ϕ)uutx + sin ϕu× x

ab, wobei v × x das Kreuzprodukt von u und x bezeichnet. Die entsprechende Drehmatrix ist

Q : qik = cos ϕ δik + (1− cos ϕ) uiuk + sin ϕ∑

j

εijkuj .

mit dem Kroneckersymbol δik und dem ε-Tensor εijk.

Beweis:

Es genugt nachzuprufen, dass Qu = u und ein zu u orthogonaler Vektor v um einen Winkel ϕum die Achse u gedreht wird. Die erste Behauptung ist unmittelbar einsichtig. Als Bild von verhalt man

Qv = cos ϕv + sin ϕu× v ,

was einer Drehung um ϕ in der von v und u× v aufgespannten Ebene entspricht.

120 http://www.mathematik-online.org/

Page 121: 16320559 Lineare Algebra

5.2. QUADRIKEN

Beispiel:

Gemaß der allgemeinen Formel setzt sich die Matrix Q einer Drehung um ϕ = π3

um die Achseu = 1√

3(1 1 1)t aus 3 Termen zusammen:

cos ϕ δik :

12

0 00 1

20

0 0 12

(1− cos ϕ)uiuk :1

6

1 1 11 1 11 1 1

sin ϕ∑

j

εijkuj :1

2

0 −1 11 0 −1−1 1 0

Insgesamt erhalt man

Q =1

3

2 −1 22 2 −1−1 2 2

.

5.2 Quadriken

5.2.1 Quadratische Form

Fur eine reelle symmetrische Matrix A bezeichnet man

α(x) = xtAx

als quadratische Form.Je nach Vorzeichen der Eigenwerte von A unterscheidet man zwischen drei Typen:

• elliptisch: Alle Eigenwerte haben das gleiche Vorzeichen.

• parabolisch: Mindestens ein Eigenwert ist Null und die anderen Eigenwerte haben dasgleiche Vorzeichen.

• hyperbolisch: Es gibt Eigenwerte mit verschiedenem Vorzeichen.

Erlauterung:

Die Symmetrie von A muss nicht vorausgesetzt werden. Fur eine allgemeine Matrix lasst sichdie quadratische Form als

xtAx =∑

j,k

xjaj,kxk =∑

j

aj,jx2j +

j<k

(aj,k + ak,j)xjxk

schreiben. Man kann also jeweils zwei Terme zusammenfassen und die quadratische Form sym-metrisieren:

xtAx =1

2xt(A + At)x .

http://www.mathematik-online.org/ 121

Page 122: 16320559 Lineare Algebra

KAPITEL 5. ANALYTISCHE GEOMETRIE

Quadratische Formen treten beispielsweise als die ersten Terme der Taylor-Entwicklung einerskalaren Funktion f auf:

f(x) = f(0) + grad f(0)t x +1

2xt(H f(0)) x .

In diesem Fall ist H f die Hesse-Matrix der zweiten partiellen Ableitungen, die aufgrund derVertauschbarkeit symmetrisch ist.

Beispiel:

Die symmetrische Matrix

A =

(1 + λ 1− λ1− λ 1 + λ

)

besitzt die Eigenwerte 2 und 2λ.Die quadratische Form

α(x) = xtAx

ist also elliptisch fur λ > 0, parabolisch fur λ = 0 und hyperbolisch fur λ < 0.

5.2.2 Quadrik

Die PunktmengeQ = x ∈ Rn : α(x) + 2β(x) + γ = 0

heißt Quadrik, wobei α eine quadratische Form, β eine Linearform und γ eine Konstante ist.In Matrixschreibweise lasst sich Q als

Q : xtAx + 2btx + c = 0

schreiben, mit α(x) = xtAx und β(x) = btx.Die Darstellung von Q ist nicht eindeutig. Beispielsweise kann die definierende Gleichung miteiner beliebigen Konstanten multipliziert werden.

5.2.3 Grobeinteilung der Quadriken

Ausgehend von der Gleichung einer Quadrik

Q : xtAx + 2btx + c = 0

setzt man

A =

(c bt

b A

)

.

Mit xt = (1, x1, . . . , xn) kann man Q auch in der homogenen Form

Q : xtAx = 0

schreiben.Man unterscheidet die folgenden Typen:

• kegelige Quadrik Rang A = Rang A,

• Mittelpunktsquadrik Rang A = Rang A + 1,

• parabolische Quadrik Rang A = Rang A + 2,

122 http://www.mathematik-online.org/

Page 123: 16320559 Lineare Algebra

5.2. QUADRIKEN

Beispiel:

Gegeben sei die QuadrikQ : x2

1 + λx22 + 2x2 + λ = 0

mit λ ∈ R, bzw. in Matrixschreibweise

Q : xtAx + 2btx + c = 0

mit

A =

(1 00 λ

)

, b =

(01

)

, c = λ , A =

λ 0 10 1 01 0 λ

.

Fur λ = 0 ist Rang A = 1, ansonsten ist Rang A = 2. Fur λ = ±1 ist Rang A = 2, ansonstenist Rang A = 3. Somit ist Q fur λ = 0 eine parabolische, fur λ = ±1 eine kegelige und fur alleanderen Werte von λ eine Mittelpunktsquadrik.

5.2.4 Hauptachsentransformation

Durch eine Drehung und Verschiebung kann eine Quadrik im Rn auf Normalform transformiertwerden:

xtAx + 2btx + c =m∑

i=1

λiw2i + 2βwm+1 + γ , x = Uw + v ,

wobei m = Rang A und βγ = 0 gilt.

PSfrag replacements

x1

x2

w1

w2

v

u1

u2

http://www.mathematik-online.org/ 123

Page 124: 16320559 Lineare Algebra

KAPITEL 5. ANALYTISCHE GEOMETRIE

Dabei enthalten die Spalten der Drehmatrix U die Eigenvektoren ui zu den Eigenwerten λi vonA, deren Richtungen als Hauptachsen bezeichnet werden. Der Verschiebungsvektor v ist derMittelpunkt der Quadrik.

Beweis:

Zu der symmetrischen Matrix A existiert eine orthonormale Basis aus Eigenvektoren ui mitdet(u1, . . . , un) = 1, wobei zuerst die Eigenvektoren zu den Eigenwerten λi 6= 0 genommen wer-den. Nach der ersten Substitution x = Uy = (u1, . . . , un)y erhalt man somit die Diagonalform

yt diag(λ1, . . . , λm, 0, . . . , 0)y + 2(U tb︸︷︷︸

b

)ty + c .

Fur von Null verschiedene Eigenwerte λi 6= 0 lassen sich durch die weitere Substitution

yi = zi − bi/λi

die linearen Terme eliminieren (quadratische Erganzung). Die Konstante andert sich dabeigemaß

c→ γ = c−m∑

i=1

b2i /λi .

Somit hat man nun die Formm∑

i=1

λiz2i +

n∑

i=m+1

2bizi + γ .

Existiert nun ein bi 6= 0 mit i ≥ m + 1, so erhalt man nach einer weiteren Drehung mit

z′i = zi , i ≤ m

z′m+1 = (1/β)n∑

m+1

bizi , β = ±|b|

und entsprechend orthogonal erganzt fur z′m+2, . . . , z

′n

m∑

i=1

λi(z′i)

2 + 2βz′m+1 + γ .

Dabei wird das Vorzeichen fur β so gewahlt, dass nach Division der Gleichung durch β minde-stens so viele postive wie negative Terme λi/β auftreten.Die anschließende Verschiebung

wm+1 = z′m+1 + γ/(2β)

wi = z′i , i 6= m + 1

eliminiert noch die Konstante und liefert schließlich

m∑

i=1

λiw2i + 2βwm+1 .

124 http://www.mathematik-online.org/

Page 125: 16320559 Lineare Algebra

5.2. QUADRIKEN

Beispiel:

Die Quadrik

Q : 8x21 + 17x2

2 + 20x23 + 20x1x2 + 8x1x3 + 28x2x3 − 48x1 − 114x2 − 78x3 + 207 = 0

soll auf Normalform transformiert werden.In Matrixschreibweise ergibt sich

Q : xtAx + 2btx + c = 0

mit

A =

8 10 410 17 144 14 20

, b =

−24−57−39

, c = 207 .

Die Matrix A hat die Eigenwerte 36, 9 und 0, zugehorige normierte Eigenvektoren ui mitdet(u1, u2, u3) = 1 sind z.B.

u1 =1

3(1, 2, 2)t , u2 =

1

3(2, 1,−2)t , u3 =

1

3(2,−2, 1)t .

Nach der Transformation x = Uy mit U = (u1, u2, u3) erhalt man

Q : 36y21 + 9y2

2 − 144y1 − 18y2 + 18y3 + 207 = 0 .

Durch die quadratische Erganzung z1 = y1 + 2, z2 = y2 − 1, z3 = y3 ergibt sich

Q : 36z21 + 9z2

2 + 18z3 + 54 = 0 .

Die Verschiebung w1 = z1, w2 = z2, w3 = z3 + 3 liefert schließlich die Normalform

Q : 36w21 + 9w2

2 + 18w3 = 0 .

Insgesamt hat die Transformation die Form

x = Uy = Uz = U

−210

= Uw + U

−210

+ U

00−3

.

Die Verschiebung ist also

v = U

−21−3

=

−21−3

und entspricht dem Mittelpunkt der Quadrik.

5.2.5 Kegelschnitt

Der Schnitt eines Doppel-Kegels

K : (x− p)tv = ± cosα

2|x− p||v|

mit Spitze p (p3 6= 0), Richtung v und Offnungswinkel α mit der Ebene E : x3 = 0 ist einequadratische Kurve

K ∩ E : a1,1x21 + 2a1,2x1x2 + a2,2x

22 + 2b1x1 + 2b2x2 + c = 0 .

http://www.mathematik-online.org/ 125

Page 126: 16320559 Lineare Algebra

KAPITEL 5. ANALYTISCHE GEOMETRIE

PSfrag replacements

α

2

β E

vp

Der Typ des Kegelschnitts hangt von der Große des Winkels β zwischen E und der Geradenp + tv, t ∈ R, ab.

Ellipse: β > α/2 Parabel: β = α/2 Hyperbel: β < α/2

5.2.6 Euklidische Normalform der zweidimensionalen Quadriken

Es existieren 9 verschiedene Typen ebener Quadriken mit den folgenden Normalformen:

• Kegelige Quadriken

Normalform Bezeichnung

x21

a21

+x22

a22

= 0 Punkt

x21

a21

− x22

a22

= 0 schneidendes Geradenpaar

x21

a21

= 0 Doppelgerade

• Mittelpunktsquadriken

Normalform Bezeichnung

x21

a21

+x22

a22

+ 1 = 0 (leere Menge)

x21

a21

− x22

a22

+ 1 = 0 Hyperbel

−x21

a21

− x22

a22

+ 1 = 0 Ellipse

x21

a21

+ 1 = 0 (leere Menge)

−x21

a21

+ 1 = 0 paralleles Geradenpaar

126 http://www.mathematik-online.org/

Page 127: 16320559 Lineare Algebra

5.2. QUADRIKEN

• Parabolische Quadriken

Normalform Bezeichnung

x21

a21

+ 2x2 = 0 Parabel

Die Normalformen sind eindeutig bis auf Permutation der Indizes und bei kegeligen Quadrikenbis auf Multiplikation mit einer Konstanten c 6= 0. Die Großen ai werden positiv angesetzt undheißen Hauptachsenlangen der Quadrik.

schneidendes Geradenpaar Doppelgerade

PSfrag replacements x1

x2

a1

a2

PSfrag replacements

x1

x2

Hyperbel Ellipse

PSfrag replacementsx1

x2

a1

a2PSfrag replacements

x1a1

x2

a2

http://www.mathematik-online.org/ 127

Page 128: 16320559 Lineare Algebra

KAPITEL 5. ANALYTISCHE GEOMETRIE

paralleles Geradenpaar Parabel

PSfrag replacements

x1

x2

a1

PSfrag replacements

x1

x2

Beispiel:

Es soll die Normalform und der Typ der Quadrik

Q : 3x21 + 3x2

2 + 10x1x2 − 12√

2x1 − 4√

2x2 − 8 = 0

bestimmt werden.

Ausgehend von der Matrixform der quadratischen Form,

xtAx + 2btx + c = xt

3 5

5 3

x + 2√

2 (−6,−2) x− 8

bestimmt man zunachst die Eigenwerte und Eigenvektoren der Matrix A. Das charakteristischePolynom

(3− λ)2 − 25 = 9− 6λ + λ2 − 25 = λ2 − 6λ− 16

hat die Nullstellen

λ1,2 =6±√

36 + 64

2= 3± 5

Einen normierten Eigenvektor zu λ1 = −2 erhalt man durch Losen des linearen Gleichungssy-stems

5 5

5 5

v1 = 0

als v1 = 1√2(1,−1)t. Da der zweite Eigenvektor senkrecht auf dem ersten stehen muss, folgt

v2 = 1√2(1, 1)t, wobei das Vorzeichen so gewahlt wurde, dass die Determinante der Transforma-

tionsmatrix

U =1√2

1 1

−1 1

128 http://www.mathematik-online.org/

Page 129: 16320559 Lineare Algebra

5.2. QUADRIKEN

positiv ist. Die mit x = Uy transformierte Gleichung hat die Form

0 = ytAy + 2bty + c

= ytU tAUy + 2(btU)y + c

= −2y21 + 8y2

2 − 8y1 − 16y2 − 8 .

Quadratisches Erganzen liefert

0 = −2y21 + 8y2

2 − 8y1 − 16y2 − 8

= −2(y1 − 2)2 + 8(y2 − 1)2 − 8

= −2z21 + 8z2

2 − 8

beziehungsweisez21

22− z2

2

12+ 1 = 0 .

Die Gleichung stellt also eine Hyperbel dar.

5.2.7 Euklidische Normalform der dreidimensionalen Quadriken

Es existieren 17 verschiedene Typen raumlicher Quadriken mit folgenden Normalformen:

• Kegelige Quadriken

Normalform Bezeichnung

x21

a21

+x22

a22

+x23

a23

= 0 Punkt

x21

a21

+x22

a22

− x23

a23

= 0 (Doppel-)Kegel

x21

a21

+x22

a22

= 0 Gerade

x21

a21

− x22

a22

= 0 schneidende Ebenen

x21

a21

= 0 Doppelebene

• Mittelpunktsquadriken

Normalform Bezeichnung

x21

a21

+x22

a22

+x23

a23

+ 1 = 0 (leere Menge)

x21

a21

+x22

a22

− x23

a23

+ 1 = 0 zweischaliges Hyperboloid

x21

a21

− x22

a22

− x23

a23

+ 1 = 0 einschaliges Hyperboloid

−x21

a21

− x22

a22

− x23

a23

+ 1 = 0 Ellipsoid

x21

a21

+x22

a22

+ 1 = 0 (leere Menge)

x21

a21

− x22

a22

+ 1 = 0 hyperbolischer Zylinder

−x21

a21

− x22

a22

+ 1 = 0 elliptischer Zylinder

x21

a21

+ 1 = 0 (leere Menge)

−x21

a21

+ 1 = 0 parallele Ebenen

http://www.mathematik-online.org/ 129

Page 130: 16320559 Lineare Algebra

KAPITEL 5. ANALYTISCHE GEOMETRIE

• Parabolische Quadriken

Normalform Bezeichnung

x21

a21

+x22

a22

+ 2x3 = 0 elliptisches Paraboloid

x21

a21

− x22

a22

+ 2x3 = 0 hyperbolisches Paraboloid

x21

a21

+ 2x2 = 0 parabolischer Zylinder

Die Normalformen sind eindeutig bis auf Permutation der Indizes und bei kegeligen Quadrikenbis auf Multiplikation mit einer Konstanten c 6= 0. Die Großen ai werden positiv angesetzt undheißen Hauptachsenlangen der Quadrik.

(Doppel-)Kegel schneidende Ebenen

130 http://www.mathematik-online.org/

Page 131: 16320559 Lineare Algebra

5.2. QUADRIKEN

zweischaliges Hyperboloid einschaliges Hyperboloid

Ellipsoid hyperbolischer Zylinder

http://www.mathematik-online.org/ 131

Page 132: 16320559 Lineare Algebra

KAPITEL 5. ANALYTISCHE GEOMETRIE

elliptischer Zylinder elliptisches Paraboloid

hyperbolisches Paraboloid parabolischer Zylinder

Beispiel:

Es soll die Normalform und der Typ der Quadrik

Q : xt

5 4 0

4 3 4

0 4 1

x + 2 (−2, 1, 2) x + 2 = 0

bestimmt werden.

132 http://www.mathematik-online.org/

Page 133: 16320559 Lineare Algebra

5.2. QUADRIKEN

Das charakteristische Polynom der Matrix,

p(λ) = λ3 − 9λ2 − 9λ + 81 ,

hat die Nullstellenλ1 = 9 , λ2 = 3 , λ3 = −3 .

Entsprechende normierte Eigenvektoren zu den Eigenwerten λi sind

v1 =1

3

2

2

1

, v2 =1

3

−2

1

2

, v3 =1

3

1

−2

2

,

wobei die Vorzeichen so gewahlt sind, dass ein Rechtssystem entsteht. Als orthogonale Trans-formationsmatrix erhalt man

U =1

3

2 −2 1

2 1 −2

1 2 2

.

Die mit x = Uy transformierte Gleichung hat die Form

yt

9 0 0

0 3 0

0 0 −3

y + 2 (0, 3, 0) y + 2 = 0 .

Quadratisches Erganzen liefert

0 = 9y21 + 3y2

2 − 3y23 + 6y2 + 2

= 9y21 + 3(y2 + 1)2 − 6y2 − 3− 3y2

3 + 6y2 + 2

= 9z21 + 3z2

2 − 3z23 − 1

beziehungsweisez2313

− z2119

− z2213

+ 1 = 0 .

Die Gleichung stellt also ein einschaliges Hyperboloid dar.

http://www.mathematik-online.org/ 133

Page 134: 16320559 Lineare Algebra

KAPITEL 5. ANALYTISCHE GEOMETRIE

134 http://www.mathematik-online.org/

Page 135: 16320559 Lineare Algebra

5.2. QUADRIKEN

http://www.mathematik-online.org/ 135

Page 136: 16320559 Lineare Algebra

http://www.mathematik-online.org/