Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf ·...

142
Seminar Multlinineare Algebra D-MATVL Bachelor Kurs, 2tes Semester Unter Leitung von Professor A. Prohl Betreuung durch Micha Sch¨ oll Sommersemester 2005

Transcript of Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf ·...

Page 1: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Seminar Multlinineare Algebra

D-MATVL Bachelor Kurs, 2tes SemesterUnter Leitung von Professor A. Prohl

Betreuung durch Micha Scholl

Sommersemester 2005

Page 2: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,
Page 3: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Inhaltsverzeichnis

A Uber dieses Seminar 1A.1 Generell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1A.2 Themen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

A.2.1 Geometrie in Rn und Vektoralgebra . . . . . . . . . . . . . . 1A.2.2 Lineare Algebra . . . . . . . . . . . . . . . . . . . . . . . . 2A.2.3 Numerische Lineare Algebra I . . . . . . . . . . . . . . . . . 2A.2.4 Numerische Lineare Algebra II . . . . . . . . . . . . . . . . 2A.2.5 Eigenwertaufgabe . . . . . . . . . . . . . . . . . . . . . . . 2A.2.6 Eigenwertaufgabe 2 . . . . . . . . . . . . . . . . . . . . . . 2A.2.7 Numerik von EW-Aufgaben . . . . . . . . . . . . . . . . . . 2A.2.8 Quadratische Formen . . . . . . . . . . . . . . . . . . . . . . 2A.2.9 Lineare Abbildungen in der Geometrie . . . . . . . . . . . . 3A.2.10 Symmetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . 3A.2.11 Tensor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1 Vektoralgebra, Geometrie in Rn und Koordinatensysteme 51.1 Geschwindigkeit als Vektor . . . . . . . . . . . . . . . . . . . . . . . 51.2 Beschleunigungsvektor . . . . . . . . . . . . . . . . . . . . . . . . . 61.3 Betrag und Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . 71.4 Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.5 Einheitsvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.6 Das Volumenintegral . . . . . . . . . . . . . . . . . . . . . . . . . . 91.7 Zur Transformation von Gebiets- und Volumenintegralen . . . . . . . 121.8 Funktionaldeterminante, -Matrix . . . . . . . . . . . . . . . . . . . . 12

2 Lineare Algebra 152.1 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.1.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . 162.1.2 Eigenschaften von Determinanten . . . . . . . . . . . . . . . 16

2.2 Losbarkeit von Gleichungssystemen . . . . . . . . . . . . . . . . . . 172.3 Jordan’sche Normalform . . . . . . . . . . . . . . . . . . . . . . . . 18

2.3.1 Ziel: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.3.2 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . 182.3.3 Beispiel zur JN . . . . . . . . . . . . . . . . . . . . . . . . . 19

2.4 Anwendungen in der Physik . . . . . . . . . . . . . . . . . . . . . . 202.4.1 Spannungszustand in der Mechanik: Allgemeine Betrachtung 202.4.2 Konkretes Beispiel einer Anwendung . . . . . . . . . . . . . 21

2.5 Schlussfolgerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

Page 4: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

INHALTSVERZEICHNIS

3 Einfuhrung in die Numerische Mathematik 1 233.1 Regulare Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3.1.1 Gaussches Eliminationsverfahren . . . . . . . . . . . . . . . 243.1.2 LR-Zerlegung (Anhand eines Beispieles) . . . . . . . . . . . 243.1.3 Determinaten . . . . . . . . . . . . . . . . . . . . . . . . . . 263.1.4 Pivotstrategien . . . . . . . . . . . . . . . . . . . . . . . . . 263.1.5 Rangbestimmung . . . . . . . . . . . . . . . . . . . . . . . . 293.1.6 Die Inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.2 Spezielle Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . 303.2.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . 303.2.2 Cholesky-Zerlegung . . . . . . . . . . . . . . . . . . . . . . 31

3.3 Nicht regulare Systeme . . . . . . . . . . . . . . . . . . . . . . . . . 323.3.1 Methode der kleinsten Fehlerquadrate . . . . . . . . . . . . . 323.3.2 QR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . 34

4 Numerische Lineare Algebra 2 354.0.3 Wie wird nun aber S idealerweise gewahlt? . . . . . . . . . . 364.0.4 Wann konvergieren die xk gegen x? . . . . . . . . . . . . . . 384.0.5 Das Jacobi-Verfahren anhand eines einfachen Beispieles: . . . 384.0.6 Das Gauss-Seidel-Verfahren anhand des Beispieles: . . . . . . 39

4.1 SOR-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404.1.1 Das optimale Omega . . . . . . . . . . . . . . . . . . . . . . 414.1.2 Beispiel SOR-Verfahren . . . . . . . . . . . . . . . . . . . . 41

4.2 Gradientenverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 414.2.1 Schrittweiten αt . . . . . . . . . . . . . . . . . . . . . . . . 424.2.2 Abstiegsrichtung~r(t) . . . . . . . . . . . . . . . . . . . . . . 434.2.3 Gradientenverfahren . . . . . . . . . . . . . . . . . . . . . . 434.2.4 Beispiel Gradientenverfahren . . . . . . . . . . . . . . . . . . 43

5 Das Eigenwertproblem 455.1 Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

5.1.1 Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . 465.1.2 Eigenvektoren / Eigenraume . . . . . . . . . . . . . . . . . . 47

5.2 Symmetrische Matrizen AT = A . . . . . . . . . . . . . . . . . . . . 485.3 Erste Folgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

5.3.1 Berechnung von y = Akx . . . . . . . . . . . . . . . . . . . . 495.3.2 Die Matrixeponentialfunktion . . . . . . . . . . . . . . . . . 505.3.3 Die 2-Norm ‖A‖2 einer reellen Matrix A . . . . . . . . . . . . 515.3.4 Die Matrixnorm der Inversen: . . . . . . . . . . . . . . . . . 525.3.5 Kondidion einer Matrix bzw. eines linearen Gleichungssystems 52

6 Dynamische Systeme, stabile Verhalten 576.1 Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . 58

6.1.1 Definition und Notation . . . . . . . . . . . . . . . . . . . . 586.1.2 Bestehen und Eindeutigkeit . . . . . . . . . . . . . . . . . . 616.1.3 Unabhangige Gleichungen . . . . . . . . . . . . . . . . . . . 62

6.2 Kritische Punkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 636.2.1 2-dimensionale Systeme . . . . . . . . . . . . . . . . . . . . 636.2.2 3-dimensionale Systeme . . . . . . . . . . . . . . . . . . . . 656.2.3 Nicht lineare Systeme . . . . . . . . . . . . . . . . . . . . . 66

Page 5: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

INHALTSVERZEICHNIS

7 Matrizeneigenwertaufgaben 697.1 Rayleigh-Quotient . . . . . . . . . . . . . . . . . . . . . . . . . . . . 707.2 Eigenwertproblem des char. Polynoms . . . . . . . . . . . . . . . . . 707.3 Kreise von Gerschgorin . . . . . . . . . . . . . . . . . . . . . . . . . 707.4 Iterative Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

7.4.1 Potenzmethode . . . . . . . . . . . . . . . . . . . . . . . . . 717.4.2 Inverse Iteration . . . . . . . . . . . . . . . . . . . . . . . . 72

7.5 Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 737.6 Einfache Reduktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 737.7 Householder-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . 73

7.7.1 Transformationsmatrizen mit einer guten Kondition . . . . . . 737.8 Die Methode von Wilkinson . . . . . . . . . . . . . . . . . . . . . . 747.9 Iterative Verfahren: Eigenwertproblem . . . . . . . . . . . . . . . . . 75

8 Quadratische Formen 798.1 Einfuhrung in Ellipsen, Parabeln und Hyperbeln . . . . . . . . . . . . 79

8.1.1 Ellipsen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 798.1.2 Beweis fur Gleichung 8.4 : . . . . . . . . . . . . . . . . . . . 808.1.3 Parabeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 818.1.4 Hyperbeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

8.2 Ebene Schnitte eines Kreiskegels . . . . . . . . . . . . . . . . . . . . 838.2.1 Schnittkurven und -ebenen . . . . . . . . . . . . . . . . . . . 838.2.2 Dandelinsche Kugeln . . . . . . . . . . . . . . . . . . . . . . 86

8.3 Brennpunktsgleichungen . . . . . . . . . . . . . . . . . . . . . . . . 878.4 Klassifizierung der Matrizen . . . . . . . . . . . . . . . . . . . . . . 888.5 Umformen der Quadrikgleichung mittels Koordinatentransformation . 91

8.5.1 Beseitigung der gemischten Terme . . . . . . . . . . . . . . . 918.5.2 Reduktion der linearen Terme . . . . . . . . . . . . . . . . . 928.5.3 Schematische Rechnung . . . . . . . . . . . . . . . . . . . . 94

9 Gruppentheorie und Anwendungen in der Kristallographie 959.1 Gruppentheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

9.1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 969.1.2 Eindeutigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . 979.1.3 Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 989.1.4 Die Kommutative oder Abelsche Gruppe . . . . . . . . . . . 989.1.5 Untergruppen . . . . . . . . . . . . . . . . . . . . . . . . . . 989.1.6 Die Gruppentafel . . . . . . . . . . . . . . . . . . . . . . . . 989.1.7 Die Operation einer Gruppe auf eine Menge . . . . . . . . . . 999.1.8 Spezielle Gruppen . . . . . . . . . . . . . . . . . . . . . . . 1009.1.9 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . 103

9.2 Lineare Abbildung→ Homomorphismus . . . . . . . . . . . . . . . 1039.2.1 Allgemeine Definition . . . . . . . . . . . . . . . . . . . . . 1039.2.2 Mehrere lineare Abbildungen . . . . . . . . . . . . . . . . . 104

9.3 Die verschiedenen Morphismen . . . . . . . . . . . . . . . . . . . . 1049.3.1 Zur Erinnerung . . . . . . . . . . . . . . . . . . . . . . . . . 104

9.4 Kern und Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1049.4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1049.4.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

9.5 Basen des Isomorphismus . . . . . . . . . . . . . . . . . . . . . . . . 105

Page 6: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

INHALTSVERZEICHNIS

9.5.1 Beweis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1059.5.2 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

9.6 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . 1069.7 Symmetriegruppen in der Kristallographie . . . . . . . . . . . . . . . 106

9.7.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1069.8 Stereographische Projektion . . . . . . . . . . . . . . . . . . . . . . 107

9.8.1 Wie erstellt man eine stereographische Projektion? . . . . . . 1079.9 Symmetriegruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

9.9.1 Beispiel: Punktgruppe 4mm . . . . . . . . . . . . . . . . . . 1099.9.2 Untergruppen: . . . . . . . . . . . . . . . . . . . . . . . . . 109

9.10 Kristallographie vs. Mathematik . . . . . . . . . . . . . . . . . . . . 1109.11 Quellenangaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

10 Klassische Mechanik 11310.1 Klassische Mechanik . . . . . . . . . . . . . . . . . . . . . . . . . . 114

10.1.1 Affiner Raum . . . . . . . . . . . . . . . . . . . . . . . . . . 11410.1.2 Gerade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11410.1.3 Einsteinsche Summenkonvention . . . . . . . . . . . . . . . 11410.1.4 Langen und Winkel . . . . . . . . . . . . . . . . . . . . . . . 11510.1.5 Kartesische Koordinaten eines euklidischen Raumes . . . . . 11510.1.6 Relativitatsprinzip von Galilei . . . . . . . . . . . . . . . . . 11510.1.7 Galilei Raumzeit . . . . . . . . . . . . . . . . . . . . . . . . 116

10.2 Einfache Klassische Systeme . . . . . . . . . . . . . . . . . . . . . . 11710.2.1 Konfigurationsraum . . . . . . . . . . . . . . . . . . . . . . 11710.2.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11710.2.3 Phasenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . 11810.2.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11810.2.5 Bewegungsgleichungen . . . . . . . . . . . . . . . . . . . . 11910.2.6 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11910.2.7 Das mathematische Pendel . . . . . . . . . . . . . . . . . . . 120

11 Einfuhrung in die Tensorrechnung 12311.1 Vektor- und Punktraume . . . . . . . . . . . . . . . . . . . . . . . . 124

11.1.1 Affiner und euklidischer Vektor- und Punktraum . . . . . . . 12411.1.2 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . 12511.1.3 Summationskonvention . . . . . . . . . . . . . . . . . . . . . 12511.1.4 Abstand und Metrikkoeffizienten . . . . . . . . . . . . . . . . 126

11.2 Der Tensor 1. Stufe . . . . . . . . . . . . . . . . . . . . . . . . . . . 12611.2.1 Kovariante und kontravariante Basis . . . . . . . . . . . . . . 12611.2.2 Kovariante und kontravariante Komponenten eines Vektors . . 12711.2.3 Indexmanipulation . . . . . . . . . . . . . . . . . . . . . . . 12711.2.4 Der Tensor 1. Stufe . . . . . . . . . . . . . . . . . . . . . . . 128

11.3 Tensor 2. Stufe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12811.3.1 Tensorielles Produkt . . . . . . . . . . . . . . . . . . . . . . 12811.3.2 Transformationsgesetze . . . . . . . . . . . . . . . . . . . . 13011.3.3 Verjungendes Produkt und Metriktensor . . . . . . . . . . . . 13011.3.4 Der Spannungstensor als Tensor 2. Stufe . . . . . . . . . . . 13211.3.5 Das Hauptspannungsproblem . . . . . . . . . . . . . . . . . 132

11.4 Tensoren hoherer Stufen . . . . . . . . . . . . . . . . . . . . . . . . 13311.4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

Page 7: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

INHALTSVERZEICHNIS

11.4.2 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . 13311.4.3 Antisymmetrische Tensoren . . . . . . . . . . . . . . . . . . 13511.4.4 Ausseres Produkt . . . . . . . . . . . . . . . . . . . . . . . . 135

Page 8: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Kapitel A

Uber dieses SeminarMicha Scholl

A.1 Generell

Schreiben Sie eine Zusammenfassung, ca. 10–20 Seiten, in Latex und halten Sie einenVortrag uber ihr Thema. Der Vortrag soll 1 Stunde dauern, wobei die Halfte der Zeitfur eine praktische Anwendung und ihrer Losung veranschlagt wird. Die restliche Zeitsollte als Erklarung der Theorie benutzt werden.

Weitere Informationen und eine Einfuhrung in LATEX finden Sie auf der Seitehttp://www.math.ethz.ch/˜mschoell/mlinalg/

AddressenProf. Andreas Prohl [email protected] HG G 59.2

Micha Scholl [email protected] HG G 51.3

Zeiten

• Wir treffen uns jeden Mittwoch um 13:00 in HG E 1.2, 30 Marz bis 29 Juni mitAusnahme des 4 Mai.

• Micha ist fur Fragen jeden Monntag und Donnerstag von 14:30 bis 16:30 er-reichbar. Fur andere Termine bitte per email kontaktieren.

A.2 Themen

A.2.1 Geometrie in Rn und Vektoralgebra

Koordinatensysteme, Vektoralgebra (Multiplikationen von Vektoren)Feynman, R. P. et al. Vorlesungen uber Physik, Band 2, S. 281–287VorlesungsmitschriftenVortragende:Francesco Albertini & Manuel Kugler

1

Page 9: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL A. UBER DIESES SEMINAR

A.2.2 Lineare Algebra

Determinantenbegriff, Losbarkeit von GS, Jordanische Normalform, Anwendung inder Physik

Blyth, T. S.; Robertson, E. F. Further Linear Algebra, Springer, S. 56–72Vortragende:Boris Iwanovsky & Martin Heynen

A.2.3 Numerische Lineare Algebra I

Direkte Loser: Gauss’sches Eliminationsverfahren, Determinantenberechnung,LR-Zerlegung,spezielle Matrizen: Cholesky

Rannacher, R. Einfuhrung in die Numerische Mathematik, K. 2.2, 2.31

Vortragende: Zoe Leander, Martina Frischherz & Anna Peter

A.2.4 Numerische Lineare Algebra II

Fixpunktiteration und Abstiegsverfahren: Iterative Verfahren: Jacobi, GS, SOR, Gradi-entenverfahren

Rannacher, R. Einfuhrung in die Numerische Mathematik, K. 6.1–6.31

Vortragende:Zoran Ostojic & Joelle Hofstetter

A.2.5 Eigenwertaufgabe

Characteristisches Polynom, Vielfachheiten.K. Nipp, Lineare Algebra, vdf, S. 146–171Vortragende:Rahel Zoller & Victoria Maurer

A.2.6 Eigenwertaufgabe 2

Dynamische Systeme und StabilitatsverfahrenVerhulst, F. Nonlinear Differential Equations and Dynamical Systems,Springer, S. 1–37Vortragende:Ueli Stampfli & Jonathan Sander

A.2.7 Numerik von EW-Aufgaben

Gerschgorn, iterative Verfahren, Potenz und HouseholdermethodeRannacher, R. Einfuhrung in die Numerische Mathematik, K. 71

Vortragende:Gustav Schiefler, Stefan Joller & Rico Bolli

A.2.8 Quadratische Formen

Kegelschnitte, Flachen zweiter OrdnungFischer, G. Analytische Geometrie, vieweg, S. 36–73Vortragende:Janina Bischof, Christina Pecnik & Raphael Zimmermann

1http://gaia.iwr.uni-heidelberg.de/httpdoc/Lectures/Notes/notes.html

2

Page 10: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

A.2. THEMEN

A.2.9 Lineare Abbildungen in der GeometrieIsometrie, Spiegelungen, Drehungen.

Sternberg, S. Group theory and physics, Cambridge, S. 1–43Vortragende: Christoph Bruhin, Pedro Nevis & Patrick Itten

A.2.10 SymmetrieGruppe, Permutations und Orthogonale Gruppen

Schottenloher, M. Geometrie und Symmetrie in der Physik,vieweg S. 45–66 obenVortragende: Pierrick Pretat & Andre Sprecher

A.2.11 TensorTransformationsgesetze und Tensoralgebra

Feynman, R. P. et al. Vorlesungen uber Physik, Band 2, S. 606–626Klingbeil, E. Tensorrechnung fur Ingenieure, S. 13–79Vortragende:Elisabeth Sinner & Philipp Chen

3

Page 11: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL A. UBER DIESES SEMINAR

4

Page 12: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Kapitel 1

Vektoralgebra, Geometrie in Rn

und Koordinatensysteme

Manuel KuglerFrancesco Albertini

1.1 Geschwindigkeit als Vektor

Definition 1.1 (Geschwindigkeit). Die Geschwindigkeit~v = ∆s∆t beschreibt die Ande-

rung des Ortes nach der Zeit.

• Der Ort kann im Raum mit drei Koordinaten (x,y,z) beschrieben werden

• ~r(t)ist der Ortsvektor bei der Zeit t

• Nach einer Zeit ∆t befindet sich der Punkt, welcher sich auf der Bahn bewegt,im Ort~r(t+∆t)

• Die durchschnittliche Geschwindigkeit ist also:

~Vm =~r(t + ∆t)−~r(t)

(t + ∆t− t)=

∆~r∆t

~vm gibt grob die Bewegungsrichtung an.

Wenn man das Zeitintervall ∆t nun genugend verkleinert, so gilt |∆~r| ≈ ∆s.

• Wenn man ∆t gegen Null streben lasst, so erhalt man den Momentangeschwin-digkeitsvektor

~v = lim∆t→0

∆~r∆t

=d~rdt

. Der Vektor~v ist durch die erste Ableitung des Ortes nach der Zeit beschrieben.Der Vektor~v liegt stets tangential zur Bahnkurve.

5

Page 13: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 1. VEKTORALGEBRA, GEOMETRIE IN RN UNDKOORDINATENSYSTEME

Abbildung 1.1: Bahnkurve in R3 mit mittlere und momentane Geschwindigkeitsvekto-ren

1.2 Beschleunigungsvektor

Definition 1.2 (Beschleunigung). Die Beschleunigung ~a = ∆~v∆t beschreibt die Ande-

rung der Geschwindigkeit wahrend einer bestimmten Zeit

.

• Die Bahnkurve ist diesselbe wie oben. Ein Punkt bewegt sich auf dieser Bahn-kurve.

• Bei~r(t) hat er eine gewisse Geschwindigkeit~v(t); bei~r(t+∆t) hat er eine andereGeschwindigkeit~v (t+∆t).

• Der Geschwindigkeitsunterschied ist gegeben durch den Vektor ~∆v = ~v(t+∆t)-~v(t).

• Dividiert man nun diesen Vektoren durch das Zeitintervall ∆t erhalt man diedurchschnittliche Beschleunigung:

∆~v∆t

=~v(t + ∆t)−~v(t)

∆t

• Wenn man ∆t gegen Null streben lasst, so erhalt man den Beschleunigungsvektor~a:

~a = lim∆t→0

∆~v∆t

=ddt

d~rdt

=d2~rdt2

Die Geschwindigkeitsdifferenz kann auch durch zwei andere Vektoren gegeben sein:durch den Tangentialvektor~vtan und den Normalenvektor~vnor. Man kann also auch einetangentielle und eine normale Beschleunigung zur Bahnkurve bestimmen.

~a =~atan +~anorm

.Die tangentielle Beschleunigung ist gegeben durch die Ableitung von~vtan nach der

Zeit t:

~atan =d~vtan

dt

6

Page 14: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

1.3. BETRAG UND SKALARPRODUKT

Abbildung 1.2: tangentielle und normale Geschwindigkeit

Der Betrag der normale Beschleunigung ist gegeben durch:

|~anorm|=v2

r

wo r die annaherung des krummungskreis ist. In vektorielle form ist die normale Be-schleunigung als Zentripetalbeschleunigung gegeben:

~azp =−ω2r

wo ω die Winkelgeschwindigkeit ist.

1.3 Betrag und SkalarproduktDefinition 1.3 (Betrag). Sei c ein Punkt im Raum mit den Koordinaten (x0,y0,z0),dann ist die Lange seines Ortsvektors gleich dessen Betrag

.‖~c‖=

√x2

0 + y20 + z2

0

Definition 1.4 (Skalarprodukt). Seien~a,~b zwei Vektoren im Raum. Dann ist das Ska-larprodukt der beiden Vektoren eine reelle Zahl gegeben durch :

(~a,~b) = a1b1 + a2b2 + a3b3

.Fur das Skalarprodukt gilt das Kommutativgesetz:

(~a,~b) = (~b,~a)

Interessante Eigenschaft: Durch Kombination des Skalarproduktes mit dem Cosinus-satz, kommt man auf folgende Beziehung:

‖~c‖2 = (c,c) =(

(~b−~a),(~b−~a))

= (~b,~b)−2(~a,~b) + (~a,~a)

‖~c‖2 = ‖~a‖2 +∥∥∥~b∥∥∥

2−2(~a,~b)

Cosinussatz fur ebene Dreiecke:

‖~c‖2 = ‖~a‖2 +∥∥∥~b∥∥∥

2−2‖~a‖

∥∥∥~b∥∥∥cosϕ

7

Page 15: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 1. VEKTORALGEBRA, GEOMETRIE IN RN UNDKOORDINATENSYSTEME

Durch Gleichsetzen erhalt man:

cosϕ =(~a,~b)

‖~a‖∥∥∥~b∥∥∥

wobei ϕ den Winkel zwischen den beiden Vektoren~a und~b ist. An dieser Eigenschaftist leicht zu erkennen, dass, falls die Vektoren ~a,~b senkrecht aufeinander stehen, dasSkalarprodukt Null ergibt, da ϕ = π

2 und damit cosϕ = 0 ist. Wo kann man das Skalar-produkt brauchen?

• z.B. in der Physik, bei der kinetischen Energie; ein Objekt bewegt sich im Raum.

Ekin =12

m(~v,~v)

• z.B. bei der Arbeit; irgendetwas muss von einem zum anderen Ort verschobenwerden.

Arbeit = ~F∆~s

1.4 Vektorprodukt

Definition 1.5 (Vektorprodukt). Seien~a,~b,~c drei nicht komplanare Vektoren im Raum.Dann ist das Vektorprodukt definiert als

~c =~a×~b.

. Die Komponenten von~c sind dann gegeben durch:

cx = aybz−azby (1.1)cy = azbx−axbz (1.2)cz = axby−aybx (1.3)

Fur das Vektorprodukt gilt das Kommutativgesetz nicht, denn

~a×~b =−~a×~b.

Das Vektorprodukt von zwei identischen Vektoren ist per Definition gleich 0.

~a×~a = 0

Geometrische Bedeutung von~c =~a×~b:

• Vektor ~c steht senkrecht auf der von ~a und ~b aufgespannten Flache. (~c,~a) =

(~c,~b) = 0

• ‖~c‖ = ‖~a‖∥∥∥~b∥∥∥sinΘ, wobei Θ der Winkel zwischen ~a und ~b ist. Wenn ~a =~b,

dann wird keine Flache erzeugt. Dann ist der Winkel Θ = 0, woraus folgt, dassder Vektor~c nicht gebildet werden kann.

8

Page 16: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

1.5. EINHEITSVEKTOREN

1.5 EinheitsvektorenWeshalb bildet man Einheitsvektoren? Die Antwort ist, dass es manchmal bequem ist,einen Vektor durch seine Komponenten in eine bestimmte Richtung zu beschreiben.Fur solche Zwecke sind Einheitsvektoren sehr geeignet.

In einem gegebenen Koordinatensystem konnen wir drei Vektoren definieren:

~i→ Einheitsvektor in x-Richtung~j→ Einheitsvektor in y-Richtung~k→ Einheitsvektor in z-Richtung

Interessante Eigenschaft:(~i,~i) = 1

Mit dieser Definition kann jeder Vektor folgendermassen geschrieben werden:

~a = ax~i + ay~j + az~k

. Auf diese Weise kann man von den Komponenten eines Vektors zum Vektor selbstgelangen.

1.6 Das VolumenintegralDas Volumenintegral ist analog definiert wie das Gebietsintegral. Ein entscheidenderUnterschied ist, dass der Graph des Integranden nicht mehr zur Veranschaulichungherbei gezogen werden kann.

Definition 1.6 (Volumenintegral). Gegeben sei eine stetige Funktion im Raum f(x,y,z).Das Zielobjekt ist ein endlicher raumlicher Bereich B. Das Volumenintegral ist danngegeben durch: ZZZ

Bf (x,y,z)dV

.Vorgehen:

• Der Korper B wird in n Teilbereiche ∆Bi mit Volumen ∆Vi eingeteilt (vgl. Abb.3).

• In jedem der n Teilbereiche ∆Bi wird ein Punkt (xi,yi,zi) gewahlt.

• Nun wird die Riemann’sche Summe gebildet

n

∑i=1

f (x,y,z)∆Vi

.

• Das Volumenintegral ist definiert als Grenzwert, wobei die Feinheit der Eintei-lungen von B gegen 0 strebt:

Z Z Z

Bf (x,y,z)dV = lim

{n

∑i=1

f (x,y,z)∆Vi

}

.

9

Page 17: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 1. VEKTORALGEBRA, GEOMETRIE IN RN UNDKOORDINATENSYSTEME

Abbildung 1.3: Volumenelement im Koordinatensystem

Wie beim Gebietsintegral ist das matematische Resultat von der gewahlten Einteilungs-folge unabhangig. Eine mogliche Interpretation des Volumenintegrals ist die Folgende:

• Man stelle sich den Korper B als dreidimensionalen Korper mit der Masse Mvor.

• Die Dichte im Punkt (x,y,z) ist gegeben durch p(x,y,z).

• (xi,yi,zi) ∆Vi ≈ die in ∆Bi vorhandene Masse.

• Bildet man nun die Riemann’sche Summe von allen n Teilbereichen ∆Bi, soerhalt man fur die Masse M des Korpers B ≈ ∑n

i=1 p(x,y,z)∆Vi.

Die Gesamtmasse ist also gleich M =RRR

B p(x,y,z)dV .

Beispiel 1.1 (Berechnung des Volumens einer Kugel K mit Radius R). Durch Wahleines neuen Koordinatensystems, hier dem Kugelkoordinatensystem mit Mittelpunkt imUrsprung, wird die Berechnung vereinfacht.

Z Z Z

K1dV

In Kugelkoordinaten kann das Kugelvolumenelement dV wie folgt berechnet werden(vgl. auch Abb.4):

dV = dr(rdΘ)(r sinΘ)dϕ = r2 sinΘdrdϕdΘ

.Das Volumen berechnet sich durch ein dreifaches Integral uber r,Θ,ϕ, in dieser

Reihenfolge.

V =Z 2π

0dϕZ π

0dΘZ R

0drr2 sinΘ =

Z 2π

0dϕZ π

0

R3

3sinΘ =

Z 2π

0dϕ

2R3

3=

4πR3

3(1.4)

Dies ist das altbekannte Resultat, welches wir nun bewiesen haben

.

10

Page 18: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

1.6. DAS VOLUMENINTEGRAL

Abbildung 1.4: Kugelelement in Kugelkoordinaten

11

Page 19: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 1. VEKTORALGEBRA, GEOMETRIE IN RN UNDKOORDINATENSYSTEME

1.7 Zur Transformation von Gebiets- und Volumenin-tegralen

Gegeben seien zwei Koordinatensysteme in der Ebene. Ein kartesisches (x,y)- undein zweites neues (u,v)−Koordinatensystem. Der Punkt (u,v) im neuen Koordinaten-system hat im kartesischem System die Koordinaten (x,y) , welche durch folgendeFunktionen gegeben sind:

x = x(u,v) und y = y(u,v). (1.5)

Man stelle sich die (u,v)−Ebene als eine kunstliche Ebene vor. Die Funktionen stellendann Abbildungen der (u,v)−in die (x,y)−Ebene dar, wobei der Punkt (u,v) in der(u,v)- Ebene mit x = x(u,v) und y = y(u,v) in die (x,y)− Ebene abgebildet wird.

Beispiel 1.2 (Polarkoordinaten). Gegeben seien wieder zwei Ebenen: die (x,y)−unddie (ρ,ϕ)−Ebene.

• Fur Polarkoordinaten gilt bekanntlich:

x = x(ρ,ϕ) = ρcosϕy = y(ρ,ϕ) = ρsinϕ (1.6)

• Der Punkt (ρ,ϕ) der (ρ,ϕ)− Ebene wird auf den Punkt

(x,y) = (ρcosϕ,ρsinϕ)

der (x,y)− Ebene abgebildet.

Bemerkung: Punkte der ϕ- Achse werden alle auf den Nullpunkt der (x,y)- Ebene abge-bildet. Diese Koordinatentransformation wird deshalb als singular benannt (Kreis mitRadius = 0 ). Diese Abbildung kann durch die Bilder der Parallelen der u- bzw. v - Ach-se veranschaulicht werden. Die horizontale Gerade (v = v(0)) ist in der (x,y)−Ebenedie Kurve~r(u,v(0)) = (x(u,v(0)),y(u,v(0))). Die vertikale Gerade (u = u(0)) wird inder (x,y)- Ebene zur Kurve~r(u(0),v) = (x(u(0),v),y(u(0),v)). Diese Kurven heissenKoordinatenlinien des neuen Koordinatensystems (vgl. Abb. 5)

.

1.8 Funktionaldeterminante, -Matrix

Betrachten wir zuerst den Zweidimensionalen Fall:Annahme: Sei ein Bereich B in der (x,y)-Ebene gegeben. Zur Berechnung des Ge-

bietsintegrals soll ein neues (u,v)- Koordinatensystem verwendet werden. Der BereichB wird also durch u-,v-Koordinatenlinien in Flachenelemente dB eingeteilt und ansch-liessend wird davon die Riemann’sche Summe gebildet. Das Flachenelement dB wirddadurch bestimmt, indem man u und v um du und dv wachsen lasst.

• u→ u + du

• v→ v + dv

12

Page 20: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

1.8. FUNKTIONALDETERMINANTE, -MATRIX

Abbildung 1.5: Polarkoordinaten, Koordinatenlinien

Dadurch wird ein Parallelogramm von ~AB und ~AC aufgespannt.Nach dem Mittelwertsatz der Differentialrechnung gilt nun:

~AB =~r(u + du,v)−~r(u,v)∼=~ru(u,v)du = (xu(u,v),yu(u,v))du (1.7)~AC =~r(u,v + dv)−~r(u,v) ∼=~rv(u,v)dv = (xv(u,v),yv(u,v))dv (1.8)

Der Flacheninhalt dF des Parallelogramms ist gleich dem Betrag des Vektorpro-duktes:

dF = |~ru(u,v)×~rv(u,v)|dudv

wobei~ru und~rv in Komponenten:~ru(u,v) =(xu

yu

)und~rv(u,v) =

(xvyv

).

Das Flachenelement bzw. das Element des Flacheninhaltes ist dann gegeben durch:

dF =

∣∣∣∣det xu xvyu yv

∣∣∣∣dudv

Eigenschaften der Funktionaldeterminante:

• sie ist unabhangig vom verwendeten Koordinatensystem

• (komplizierte) Koordinatentransformationenwerden durch (einfache) lineare Ab-bildungen approximiert (vergleiche lineare Ersatzfunktion)

• sie beschreibt die Flachenverzerrung bei einer Abbildung von der (u,v)- in die(x,y)- Ebene.

Ein Spezialfall liegt vor wenn die Determinante gleich Null ist. In diesen Punkten ist dielineare Abbildung durch die Funktionalmatrix singular. Diese sind Ausnahmepunkteund benotigen besondere Aufmerksamkeit.

13

Page 21: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 1. VEKTORALGEBRA, GEOMETRIE IN RN UNDKOORDINATENSYSTEME

14

Page 22: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Kapitel 2

Lineare Algebra

Boris IwanovskyMartin Heynen

Zusammenfassung

Im Folgenden geht es um den Determinantenbegriff, um Loslichkeit von Gleichungs-systemen, Anwendungen der Determinante in der Physik und die Jordan’sche Normal-form. Anhand von Theorie und Beispielen wird erklart, was eine Determinante ist, wiesie berechnet wird und auf welche Regeln geachtet werden muss. Das Losen von Glei-chungssystemen wird fur den homogenen wie auch fur den inhomogenen Fall erlautert.Verschiedene Schreibweisen fur Gleichungen mit mehreren Unbekannten werden ge-zeigt. Die Jordan’sche Normalform wird danach erlautert. Die JN stellt die allgemeineNormalform fur komplexe Matritzen dar. Durch Ahnlichkeitstransformation einer qua-dratischen Matrix soll eine moglichst einfache Normalform gewonnen werden. Mit-tels eines Beispiels soll die Errechnung verdeudlicht werden. Anhand eines Beispielswird eine Anwendung in der Physik dargestellt. Es geht um die Berechnung von Ei-genwerten durch Ermitteln der Determinante einer Spannungsmatrix und darum, zubestimmen, ob ein Objekt einer mechanischen Belastung standhalt oder nicht.

15

Page 23: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 2. LINEARE ALGEBRA

2.1 Determinanten

2.1.1 AllgemeinesDie Determinante ist eine Funktion, die eine Matrix A∈ Rn×n auf R abblidet. Formalgeschrieben:

det : Rn×n→ R

Die Determinante ist multilinear und alternierend.

Multilinear im Zusammenhang mit det(A)

Sei A eine (n×n)−Matrix und Ai der i-te Spaltenvektor von A. Fur α ∈ R und B ∈ Rgilt:

det(A1, ...,αAi + B,Ai+1, ...,An) =

α ·det(A1, ...Ai, ...,An) + det(A1, ...Ai−1,B,Ai+1, ...,An)

Alternierend im Zusammenhang mit det(A)

Sei A eine (n×n)−Matrix und Ai der i-te Spaltenvektor von A. Es gilt:

det(A1, ...,Ai,Ai+1, ...,An) =−det(A1, ...,Ai+1,Ai, ...,An)

Es gilt:

• Die quadratische Matrix A ist regular (invertierbar)⇔ det(A) 6= 0

• Die quadratische Matrix A ist singular (nicht invertierbar)⇔ det(A) = 0

Weiter beruht die Definition der Eigenwerte auf dem Begriff der Determinante. Eben-falls konnen damit Gleichungssystems diskutiert werden. Die Determinante findet auchin den angewandten Naturwissenschaften Anwendung.

2.1.2 Eigenschaften von DeterminantenBerechnungsarten

det

a1 b1 c1a2 b2 c2a3 b3 c3

= a1

∣∣∣∣b2 c2b3 c3

∣∣∣∣−a2

∣∣∣∣b1 c1b3 c3

∣∣∣∣+ a3

∣∣∣∣b1 c1b2 c2

∣∣∣∣

= a1 (b2c3−b3c2))−a2 (b1c3−b3c1) + a3 (b1c2−b2c1)

Lemma 2.1. Sei A∈Rn×n eine Dreiecksmatrix. Die Determinante von A ist gleich demProdukt ihrer Diagonalelemente.

det

a11 · · · a1n...

. . ....

an1 · · · ann

=

n

∏i=1

aii ∀ ai j = 0, f ur i> j (2.1)

16

Page 24: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

2.2. LOSBARKEIT VON GLEICHUNGSSYSTEMEN

Sei A eine m×m-, B eine m×n- und C eine n×n-Matrix. Die Matrix M ist definiertals

M =

(A B0 C

)

Die Determinante von M lasst sich berechnen als

detM = detA ·detC.

Beispiel 2.1.

detM = det

2 3 π 71 4

√2 −1

0 0 1 40 0 3 0

= det

(2 31 4

)·det

(1 43 0

)(2.2)

det(A) = 5det(C) = -12det(M) = 5·(-12) = -60

Rechenregeln

• Werden in der Matrix A zwei Zeilen vertauscht, so andert die Determinante ihrVorzeichen.

• Wird in der Matrix A ein Vielfaches einer Zeile zu einer anderen Zeile addiert,so bleibt die Determinante unverandert

• Wird in der Matrix A eine Zeile mit einem Faktor α ∈ R multipliziert, dannvervielfacht sich die Determinante um den Faktor α

• Fur beliebige n×n−Matrizen A und B gilt: det(AB) = (detA) · (detB)

• Fur eine beliebige n×n−Matrix A gilt: det(A) = det(AT)

• Es gilt: det(I) = 1, wobei I die Einheitsmatrix ist.

2.2 Losbarkeit von GleichungssystemenWollen wir ein Problem mit n Unbekannten losen, so brauchen wir n unabhangigeGleichungen. Dies ergibt uns folgendes Gleichungssystem:

a11x1 + a12x2 + · · · = b1a21x1 + a22x2 + · · · = b2

......

...an1xn + an2xn + · · · = bn

Das kann auch geschrieben werden als:

a11 · · · a1n...

. . ....

an1 · · · ann

·

x11. . .xnn

=

b11. . .bnn

17

Page 25: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 2. LINEARE ALGEBRA

oder in Kurzschreibweise

A ·~x =~b

Ist zusatzlich die Bedingung det(A) 6= 0 erfullt, so gilt ebenfalls

~x = A−1 ·~bDies bedeutet, dass, wenn die Matrix eine Losung fur das Gleichungssystem besitzt,auch seine Inverse eine Losung besitzt. Das Gleichungssystem besitzt dann eine ein-deutige Losung. Andernfalls, d.h. wenn detA = 0, besitzt das Gleichungssystem keineoder unendlich viele Losungen.

Satz 2.2. Ein homogenes Gleichungssystem A ·~x = 0 hat genau dann eine nicht-trivialeLosung, wenn r < n ist. r ist der Rang der Matrix, d.h. die Anzahl Pivots. Die Losungs-menge besitzt dann n− r freie Parameter.

Beispiel 2.2.

2 1 0 50 8 4 20 0 7 60 0 0 0

·

x1x2x3x4

= 0 (2.3)

Satz 2.3. Ein inhomogenes Gleichungssystem ist genau dann fur jede beliebige rechteSeite losbar, wenn r = m.

Beispiel 2.3.

2 1 0 50 8 4 20 0 7 60 0 0 2

·

x1x2x3x4

=

54−24

=~b (2.4)

Ein lineares Gleichungssystem ist fur beliebige rechte Seiten losbar, wenn das da-zugehorige homogene Gleichungssystem nur die triviale Losung besitzt.

2.3 Jordan’sche Normalform

2.3.1 Ziel:Durch Ahnlichkeitstransformation einer quadratischen Matrix eine besoders einfacheNormalform gewinnen. Die JN stellt die allgemeine Normalform fur komplexe Matrit-zen dar.

2.3.2 EigenschaftenSatz 2.4. Die n× n -Matrix nennt man genau dann diagonalisierbar, wenn sie n un-abhangige Eigenvektoren besitzt.

λ1 · · · 0...

. . ....

0 · · · λn

λ1,...,λn sind Eigenwerte von A

18

Page 26: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

2.3. JORDAN’SCHE NORMALFORM

Eine quadratische Matrix A heisst diagonalisierbar, falls es eine regulare Matrix Tgibt, so dass die Matrix T−1AT eine Diagonalmatrix ist.

Definition 2.5.(

λ 10 λ

)bzw.

λ 1 00 λ 10 0 λ

Die obigen Darstellungen sind Jordankastchen der Lange 2 bzw. 3. Die Zahl λ istder einige Eigenwert dieser Matritzen.

J =

. . .λi 1 0

. . . 10 λi

λi 1 0. . . . . .

. . . 10 λi

. . .

Geometrische Vielfachheit eines Eigenwertes λ0 ist gleich der Anzahl linear un-abhangiger Eigenvektoren zu λ0. Diese ist gleich der Anzahl Jordankastchen.

dim(ker(A−λiI))

Algebraische Vielfachheit von λ0 ist die Anzahl Faktoren (λ−λ0) im charakteristi-schen Polynom und damit die Gesamtlange aller Jordankastchen zu λ0.

2.3.3 Beispiel zur JNWir wahlen frei irgend eine Matrix A:

A =

1 2 00 1 20 0 2

Charakteristisches Polynom

Definition 2.6.PA = (λ) = det(A−λI)

d.h. bei uns:

PA(λ) = (1−λ)2(2−λ)

Aber: Die Kenntnis von PA(λ) alleine genugt jedoch lediglich um zu beurteilen obA auf eine obere Dreiecksmatrix gebracht werden kann. Um die Diagonalisierbarkeitzu beurteilen suchen wir einen weiteren allgemeinen Losungsweg.

19

Page 27: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 2. LINEARE ALGEBRA

Minimumpolynom:

Definition 2.7. Das Minimumpolynom ist ein normiertes Polynom, welches die glei-chen Nullstellen hat wie das charakteristische Polynom.

mA(A) = 0

Das Minimumpolynom teilt das charakteristische Polynom f .(g ist ein Polynom)

f = mA ∗g

Beweis: Cayley- Hamilton Aus der Teilbarkeitseigenschaft folgt, dass das Mini-mumpolynom auch das eindeutig bestimmte normierte Polynom minimalen Gradesist.

Definition 2.8.mA(x) = ∏ (x−λiI)m

i

bei uns:

mA(A) = (I−A)(2I−A)

das fuhrt auf folgende Rechnung:

0 −2 o0 0 −20 0 1

1 −2 00 1 −20 0 0

6= 0

da dies ungleich Null ist, muss das Minimumpolinom in unserem Beispiel folgender-massen aussehen:

(I−A)2(2I−A) = Minimumpolynom

Jordan“sche Normalform von A: Bei unserem Beispiel erhalten wir schlussendlichdie folgende Jordan’sche Normalform:

A =

1 1 00 1 00 0 2

2.4 Anwendungen in der Physik

2.4.1 Spannungszustand in der Mechanik: Allgemeine BetrachtungIm Folgenden betrachten wir ein Beispiel einer Anwendung in der Mechanik. Wir be-trachten dabei stets homogene Korper. An Korpern konnen mechanische Spannungenangelegt werden. Dadurch verandert sich die Geometrie des Korpers, zum Beispieldurch Streckung oder Stauchung.

Die ei geben die kanonischen Einheitsvektoren an. In der Mechanik ist die In-dexnotation σi j gebrauchlich, wobei i die Richtung der Kraft und j die Richtung deNormalenvektors der Flache angibt, auf welche die Kraft wirkt. Da solche Korper im3-dimensionalen Raum liegen, erhalten wir fur die Spannungsmatrix eine 3×3-Matrix,um den Spannungszustand zu beschreiben. Wie schon erwahnt, erzeugt jede Spannung

20

Page 28: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

2.4. ANWENDUNGEN IN DER PHYSIK

Abbildung 2.1: Spannungszustand

auch eine Dehnung ε. Demzufolge existiert auch fur die Dehnungsmatrix eine 3× 3-Matrix:

Spannungsmatrix: σi j =

σxx σxy σxzσyx σyy σyzσzx σzy σzz

(2.5)

Dehnungsmatrix: εi j =

εxx εxy εxzεyx εyy εyzεzx εzy εzz

(2.6)

Aus solch einer Spannungsmatrix (2.5) lassen sich nun die Eigenwerte berechnen. Die-se Eigenwerte nennt man in der Mechanik die Hauptspannungen σH . Wir berechnendiese folgende Gleichung auflosen:

det(σi j−σHI3×3) = 0 (2.7)

Fur dieses Gleichungssystem erhalten wir 3 Losungen fur σH . Wird an einem Korpergenugend Spannung (Fliessspannung) angelegt, so verformt er sich plastisch. Laut demGesetz von Tresca fliesst ein Material, wenn folgende Bedingung erfullt ist:

σFliess ≤ |σ1−σ3| (2.8)

wobei σFliess die Fliessspannung, σ1 die grosste und σ3 die kleinste Hauptspannungbezeichnen.

2.4.2 Konkretes Beispiel einer AnwendungBeispiel 2.4. Es sei folgender Spannungszustand gegeben:

σi j =

20 0 00 0 −300 −30 40

GPa (2.9)

Die Fliesspannung betragt 75 GPa. Mit (2.7) berechnen wir die 3 Eigenwerte:

det

20−σ 0 00 −σ −300 −30 40−σ

= 0 (2.10)

21

Page 29: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 2. LINEARE ALGEBRA

Daraus folgt:

(20−σ)((−σ)(40−σ)−900) = 0

Wir erhalten die 3 Eigenwerte

σ1 = 56 GPa σ2 = 20 GPa σ3 =−16 GPa

Wir uberprufen nun, ob das Kriterium von Tresca erfullt ist:

75 GPa≥ |56 GPa− (−16 GPa)|= 72 GPa

Die angelegte Spannung liegt unter der Fliessspannung. Das Material wird sich alsonicht plastisch verformen.

Dieses Beispiel zeigt uns eine der vielen Anwendungen von Determinanten undEigenwerten.

2.5 SchlussfolgerungDer Determinantenbegriff haben wir im ersten Semester schon gehort. Es war jedocheine sehr gute Wiederholung fur uns. Sehr stark profitierten bei der vertieften Ausein-andersetzung als es darum ging die Materie im Detail zu verstehen. Die Determinan-te, angewendet auf lineare Gleichungssysteme, machte uns klar wie wertvoll sie beimlosen solcher Systeme ist.

Die Jordan’sche Normalform stellte uns zu Beginn vor einige Probleme. Zuerstmussten wir auch hier wieder einige Begriffe auffrischen so zum Beispiel die Diago-nalisierbarkeit von Matritzen und das Eigenwertproblem. Die Begriffe der geometri-schen und algebraischen Vielfachheit waren uns bis anhin unklar. Mit der Jordan’schenNormalform wurde uns eine Moglichkeit aufgezeigt wie diese Begriffe miteinanderzu Verknupfen sind und welche Fulle an Informtionen die Jordan-Normalmatrix dochenthalt.

Die Anwendung der linearen Algebra in der Physik erleichterte uns die Arbeit inder Mechanik. Dem Berrechnen von Eigenwerten und Determinanten konnten wir,durch den Zusammenhang mit der Mechanik, einen Sinn zuordnen. Dieses Beispielangewandten Mathematik fuhrte uns seine Notwendigkeit vor Augen.

22

Page 30: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Kapitel 3

Einfuhrung in die NumerischeMathematik 1Anna Peter, Zoe Leander und Tina Frischherz

Zusammenfassung

In dieser Abwandlung geht um verschiedenen Arten von Systemen und Moglichkei-ten diese zu losen. Zusatzlich werden noch die grundlegensten Funktionen der Matri-zenrechnung erklart. Des weiteren werden spezielle Matrizen und Gleichungssystemevorgestellt.

23

Page 31: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 3. EINFUHRUNG IN DIE NUMERISCHE MATHEMATIK 1

3.1 Regulare SystemeDas Losen von Gleichungssystemen ist besonders leicht losbar, wenn das Gleichungs-system aus einer oberen Dreiecksmatrix A = a jk besteht.

a11x1 a12x2 . . . a1nxn b1a22x2 . . . a2nxn b2

. . ....

...a2nxn bn

(3.1)

Falls a j j 6= 0 j = 1, . . . ,n erhalt man die Losung durch sukzessives Ruckwartseinset-zen. Die Frage ist jetzt naturlich, wie man auf diese obere Dreiecksmatrix kommt unddabei hilft uns das Gausssche Eliminationsverfahren.

3.1.1 Gaussches EliminationsverfahrenDas gaussche Eliminationsverfahren ist ein klassisches direktes Losungsverfahren vonregularen Gleichungssystemen.

A~x =~b→ (schrittweise)→ R~x =~c(ObereDreiecksMatrix)

Dabei sind follgende Umformungen erlaubt

1. Vertauschen zweier Gleichungen.

2. Addieren eines Vielfachen einer Gleichung zu einer anderen Gleichung.

(Die Vertauschung zweier Spalten von A ist ebenfalls zulassig, wenn die Unbe-kannten xi entsprechend umnumeriert werden.)

Die Eliminationsschritte sehen wie folgt aus: Fur j=1, . . . , n-1 (Eliminationsschrit-te)

(E) j Fuhre im j-ten Eliminationsschema einen Eliminationschritt durch:

1. Bestimme einen Zeilenindex(Pivot) p ∈ { j, . . . ,n} fur den gilt ap j 6= 0

2. Falls p 6= 0, vertausche zwei Zeilen miteinander und nummeriere sie um.

3. Fur k = j +1, . . . ,n bilde qk j = ak j/a j j und subtrahiere das qk j− f ache der Zeilemit j von der Zeile mit Index k .

(L) Bestimme die Losungsmengen durch Ruckwartseinsetzen.

3.1.2 LR-Zerlegung (Anhand eines Beispieles)Die Matrix wird in zwei Matrizen zerlegt:

1. in eine obere Dreicksmatrix (R)

2. in eine untere Dreicksmatrix, mit Einsen auf der Hauptdiagonalen (L)

Dabei gilt:

LR = PA (3.2)

24

Page 32: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

3.1. REGULARE SYSTEME

Definition 3.1. P ist eine Permutationsmatrix. Dies ist eine Matrix, die aus der Ein-heitsmatrix In durch Zeilenvertauschung hervorgeht.

Die LR-Zerlegung geht also folgendermassen: Man setzt die Einheitsmatrix direktneben die Matrix und bearbeitet sie bei dem Gausschen Eliminationsverfahren. Da-durch wird die Einheitsmatrix eine Permutationsmatrix.

Beispiel 3.1.1 0 0 0 3 −20 1 0 4 −2 10 0 1 2 −1 1

(3.3)

Zuerst wird ein Index (Pivot) gewahlt. Dabei ist 2 ein geeigneter Wert. Anschliessendwerden die Zeilen 1 und 3 vertauscht. Das qk j wird gebildet und an Stelle der Null inder jeweiligen Zeile eingesetzt.

0 0 1 2 −1 10 1 0 2 0 −11 0 0 0 3 −2

(3.4)

Nochmals wird ein Eliminationsschritt durchgefuhrt. Dabei werden die Zeilen 2und 3 vertauscht.

0 0 1 2 −1 11 0 0 0 3 −20 1 0 2 0 −1

(3.5)

Jetzt kann man die Aufteilung der Matrizen vornehmen:

L =

1 0 00 1 02 0 1

(3.6)

R =

2 −1 10 3 −20 0 −1

(3.7)

P =

0 0 11 0 00 1 0

(3.8)

Dabei gilt:

PA = LR⇒ PA~x = P~b⇒ LR~x = P~b

Jetzt kann man die Matrix fur ein beliebiges~b schnell losen:Nehmen wir zum Beispiel an ~b = (−1,−1,8) und definieren einen neuen Vektor

~c = R~x , somit ist L~c = P~b und diesen~c konnen wir problemlos ausrechnen:

25

Page 33: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 3. EINFUHRUNG IN DIE NUMERISCHE MATHEMATIK 1

c1 80 c2 −1

2c1 0 c3 −1

(3.9)

Daraus kriegt man furr c1 = 8,c2 =−1und c3 =−17Durch Einsetzten in die Gleichung R~x = c , kommt man auf die gesuchten Losungen:

2x1 −x2 x3 83x2 −2x3 −1

−x3 −1

(3.10)

Daraus kriegt man fur x1 = 17,x2 = 11und x3 = 1

3.1.3 DeterminatenDefinition 3.2. Determinaten sind reelle Zahlen, die man quadratischen Matrizen auf-grund einer bestimmten Rechenvorschrift zuordnet.

Berechnung von Determinaten (mit Gauss) Wie wir bereits gesehen haben gilt fureine Matrix A die Gleichung:

PA = RL (3.11)

Wenn wir von dieser Gleichung nur R nehmen, konnen wir folgendermassen die De-terminante bestimmen:

R =

a11x1 a12x2 . . . a1nxna22x2 . . . a2nxn

. . ....

a2nxn

(3.12)

⇒ detA =±n

∏j=1

a j j

Dabei wird die Determinate postiv, wenn eine gerade Anzahl von Zeilen vertauschtwurde. Wenn jedoch eine ungerade Anzahl an Zeilen vertauscht wurde, ist die De-terminante negativ. (Wie man vileicht bemerkt hat, andert sich durch den GaussschenAlgorithmus der Wert der Determinanten nicht.)

3.1.4 PivotstrategienRundungsfehler beim Gaussverfahren: Der Computer verwendet fur reelle Zahlen Ap-proximationen.⇒x: reelle Zahl; xc: Approximation des Computers

• absoluter Fehler von xc:

dx≡ xc− x (3.13)

• relativer Fehler von xc:

δx≡ xc− xx

=dxx

(3.14)

26

Page 34: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

3.1. REGULARE SYSTEME

Ziel: relativer Fehler δ x moglichst klein halten!

AUSLOSCHUNG :

Beispiel 3.2. Der wir rechnen mit einem Computer, welcher alles auf vier relevanteStellen rundet (vierstellige Arithmetik):

z =227−π

x =227⇒ xc = 3.143 y =−π⇒ yc =−3.142

dx = 0.0001428571... dy =−0.0004073464...

zc = xc + yc = 0.001 z = x + y = 0.0012644892...

dz = dx + dy =−0.0002644892...

δz =dzz

=−0.209166...≈ 21%

Problem: |xc| ≈ |yc| ⇒ xc und yc addieren sich zu fast 0! Es ist nur eine der vierrelevanten Ziffern ubrig.⇒ AUSLOSCHUNG

Bedingung fur Ausloschung:

|x + y|<< |x|oder |y|

δz =dzz

=dxx

xx + y

+dyy

yx + y

= δxx

x + y︸ ︷︷ ︸wirdgross

+δyy

x + y︸ ︷︷ ︸wirdgross

Wenn man im Voraus erkennt, dass es Ausloschung geben wird, kann man das in vielenFallen durch geschicktes Umstellen der Formeln vermeiden!⇒ PIVOTSTRATEGIEN!Ich werde im folgenden die drei wichtigsten Pivotstrategien kurz vorstellen.

Diagonalstrategie

Das Pivot wird auf der Diagonalen gewahlt, falls das Diagonalelement 6= 0! Das fol-gende Beispiel sollte verdeutlichen, wie die Diagonalstrategie funktioniert.

Beispiel 3.3. In diesem und den folgenden Beispielen wird immer mit 3-stelliger Arith-metik gerechnet, d.h.: jede Zwischenrechnung wird auf 3 Stellen gerundet.

[1] 0.035x1 + 3.62x2 = 9.12

[2] 1.17x1 + 1.42x2 = 5.89

LR-Zerlegung: L =

(1 0

33.4 1

)R =

(0.035 3.62

0 −120

)

Nach allen Zwischenschritten kommen wir auf die Losungen:

x2 = 2.49 x1 = 3.14

27

Page 35: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 3. EINFUHRUNG IN DIE NUMERISCHE MATHEMATIK 1

exakt ware:

x2 = 2.5 x1 = 2

Siehe ( 3.14 ):

δx1 = 57%

Hier ist die Ursache fur einen so grossen relativen Fehler die Wahl des kleinenPivots 0.0035!

Definition 3.3. Diagonalstrategie ist sinnvoll, wenn Matrix A diagonal dominant ist,d.h.:

|aii|>n

∑j=1 und j 6=i

∣∣ai j∣∣

Spaltenmaximumstrategie

Hier sucht man den grossten moglichen Pivot in der Spalte, und nimmt dann diesen.

Beispiel 3.4.

[1] 0.035x1 + 3.62x2 = 9.12

[2] 1.17x1 + 1.42x2 = 5.89

[1.17 1.42 5.89

0.035 3.62 9.12

]⇒ LR−Zerlegung

⇒ x2 = 2.5 = x2; x1 = 2 = x1; δx1 = δx2 = 0!⇒ Trotz 3-stelliger Arithmetik sind wir mit der Spaltenmaximumstrategie zu einer

exakten Losung gekommen!

Beispiel 3.5.[

3.5 362 9121.17 1.42 589

]⇒ LR−Zerlegung⇒

x1 = 3.14; x2 = 2.49⇒ δx1 > 50%!

Hier ware relative Spaltenmaximumstrategie besser.

relative Spaltenmaximumstrategie

Auswahlkriterium fur das Pivot: pi: Pivotkandidat; mi: Zeilenmaximum

qi =pi

mi(3.15)

Die Zeile mit dem grossten qi wird fur das Pivot gewahlt.⇒ Zeilenvertauschung.

28

Page 36: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

3.1. REGULARE SYSTEME

Beispiel 3.6.[

1.17 1.42 5893.5 362 912

]

• m1 = 1.42⇒ q1 = 1.171.42 = 0.82

• m2 = 362⇒ q2 = 3.5362 = 0.00967

Wegen q1 > q2 sollte das Pivot in der ersten Zeile gewahlt werden.⇒ Die Losung wirdtrotz 3-stelliger Arithmetik wieder exakt.

x1 = 2 x2 = 2.5

3.1.5 Rangbestimmung

Lasst sich die ganze Elimination durchfuhren, d.h.: es hat immer ein Pivotelement 6= 0(auch das letzte Diagonalelement6= 0) , so ist det (A) 6= 0.

Rang(A) = n n : AnzahlZeilen (3.16)

Ansonsten entspricht die Anzahl Nicht-Nullzeilen im Hauptteil des Endschemas demRang.

3.1.6 Die Inverse

Definition 3.4. Die nxn-Matrix A−1 heisst Inverse der nxn-Matrix A, falls A∗A−1 = 0gilt. Falls die nxn-Matrix A eine Inverse hat, dann heisst die Matrix A invertierbar oderregular, andernfalls heisst sie singular.

Die Inverse einer Matrix ist eindeutig bestimmt.Wichtige Bemerkungen (fur A und B invertierbar):

•(A−1)−1

= A

• In−1 = In

• (AB)−1 = B−1 ∗A−1

•(AT)−1

=(A−1)T

• A~x =~b, f ur jedes~b losbar.

• A~x =~0, ~x =~0

Es ist ziemlich muhsam die Inverse von Hand zu berechnen, die simultane Emili-tation soll es ein Bisschen vereinfachen.

simultane Elimination:

29

Page 37: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 3. EINFUHRUNG IN DIE NUMERISCHE MATHEMATIK 1

Beispiel 3.7.

A =

3 1 62 1 31 1 1

3 1 6 1 0 02 1 3 0 1 01 1 1 0 0 1

Vorwartselimination−−−−−−−−−−−→

3 1 6 1 0 00 1/3 −1 −2/3 1 00 2/3 −1 −1/3 0 1

Zeilenvertauschen−−−−−−−−−−→

3 1 6 1 0 00 2/3 −1 −1/3 0 10 1/3 −1 −2/3 1 0

Vorwartsel.−−−−−−→

3 1 6 1 0 00 2/3 −1 −1/3 0 10 0 −1/2 −1/2 1 −1/2

Ruckwartsel.−−−−−−−→

3 1 0 −5 12 −60 2/3 0 2/3 −2 20 0 −1/2 −1/2 1 −1/2

Ruckwartsel.−−−−−−−→

3 0 0 −6 15 −90 2/3 0 2/3 −2 20 0 −1/2 −1/2 1 −1/2

Normierung→

1 0 0 −2 5 −30 1 0 1 −3 30 0 1 1 −2 1

=⇒ A−1 =

−2 5 −31 −3 31 −2 1

3.2 Spezielle Gleichungssysteme

3.2.1 DefinitionenBandmatrizen

Eine reelle (n×n) - Matrix A heisst Bandmatrix vom Typ (ml ,mr), wenn gilt

a jk = 0 f ur k < j−ml oder k > j + mr ( j,k = 1, ...,n)

Beispiel 3.8. Typen von BandmatrizenTyp (n−1,0), untere DreiecksmatrixTyp (0,n−1), obere DreiecksmatrixTyp (1,1)), Tridiagonalmatrix

Satz 3.5. Ist A ∈ Rn×n eine Bandmatrix vom Typ (ml ,mr), fur die das Gaußsche Eli-minationsverfahren ohne Zeilenvertauschung durchfuhrbar ist, dann sind auch alle re-

30

Page 38: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

3.2. SPEZIELLE GLEICHUNGSSYSTEME

duzierten Matrizen Bandmatrizen desselben Typs und die Faktoren L und R der LR-Zerlegung von A sind Bandmatrizen vom Typ (ml ,0) bzw. (0,mr).

Positive Definitheit

Eine Matrix A heisst positiv definit, wenn sie symmetrisch ist, d.h. AT = A, und wenngilt:

~xA~x > 0 f ur alle~x ∈ Rn mit ~x 6= 0.

3.2.2 Cholesky-ZerlegungSatz 3.6. Sei A eine reelle, symmetrische, positiv definite (n× n) - Matrix. Dann gibtes genau eine obere Dreiecksmatrix R = (ri j) mitri j = 0 fur i> jrii > 0 fur i = 1,2, ...,n undA = RT R.

Umgekehrt gilt:

Satz 3.7. Existiert zu einer (n×n) - Matrix A die Zerlegung A = RT R mit den Eigen-schaftenri j = 0 fur i> j undrii > 0 fur i = 1,2, ...,n,so ist A symmetrisch und positiv definit.

Cholesky-Algorithmus:

Sei A = (ai j) eine reelle, symmetrische Matrix, k = 1,2, ...,n.1. Berechne

S = akk−k−1

∑l=1

r2lk (3.17)

Ist S≤ 0⇒ Abbruch, da A in diesem Fall nicht positiv definit.Sonst setze rkk =

√S

2. Berechne

r jk =ak j−∑k−1

l=1 rlk · rl j

rkkf ur j = k + 1,k + 2, ...,n (3.18)

Der Cholesky-Algorithmus liefert genau dann eine obere Dreiecksmatrix R, wenn Apositiv definit ist.

Beispiel 3.9. Die Matrix

A =

1 2 12 8 −41 −4 14

ist symmetrisch. Fur die erste Zelie (k = 1) berechnen wir:

r11 =√

a11 = 1

r12 =a12

r11= 2

r13 =a13

r11= 1

31

Page 39: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 3. EINFUHRUNG IN DIE NUMERISCHE MATHEMATIK 1

Fur die zweite Zeile (k = 2) berechnen wir:

r22 =√

a22− r212 = 2

r23 =a23− r2

13− r223

r22=−3

Fur die dritte Zeile (k = 3) berechnen wir:

r33 =√

a33− r213− r2

23 = 2

Die Zerlegung von A ist also

A =

1 0 02 2 01 −3 2

1 2 10 2 −30 0 2

= RT R

3.3 Nicht regulare Systeme

3.3.1 Methode der kleinsten FehlerquadrateFur ein lineares Gleichungssystem

A~x =~b (3.19)

suchen wir ein ~x ∈ Rn, dessen Fehler ~d =~b−A~x bezuglich der euklidischen Normminimal ist.

Satz 3.8. Es existiert immer eine Losung ~x ∈ Rn von (3.19) mit kleinsten Fehlerqua-draten.

∥∥∥A~x−~b∥∥∥

2= min~x∈Rn

∥∥∥A~x−~b∥∥∥

2(3.20)

Falls rangA=n, so ist~x eindeutig bestimmt.

Beispiel 3.10. Gaußsche AusgleichsrechnungGegeben: Funktionen u1, ...,un und Punkte (x j,y j) ∈ R2, j = 1, ...m m > nSuche: Linearkombination

u(x) =n

∑k=1

ckuk (x) (3.21)

so, dass die mittlere Abweichung

∆2 =

(m

∑j=1

∣∣u(x j)− y j∣∣2) 1

2

(3.22)

minimal wird.Losung:Setze~y = (y1, ...,yn)T ,~c = (c1, ...,cm)T ,~a = (uk (x1) , ...,uk (xm))T ; k = 1, ...,n; A =

32

Page 40: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

3.3. NICHT REGULARE SYSTEME

[~a1, ...,an]Minimiere

F (~c) = ‖A~c−~y‖2 , ~c ∈ R (3.23)

d.h. suche eine Losung fur

A~c =~y (3.24)

mit kleinsten Fehlerquadraten. Falls rangA=n, so ist~c eindeutig bestimmt und Losungder Normalengleichung

AT A~c = AT~y (3.25)

Falls uk (x) = xk−1, so heisst

u(x) =n

∑k=1

ckxk−1 (3.26)

die Gaußsche Ausgleichsparabel zu (x j,y j) , j=1,...,m.

Beispiel 3.11. Zu den Messdaten

xi −2 −1 0 1 2yi 0.5 0.5 2 3.5 3.5

soll mit Hilfe der Gauss’schen Ausgleichsrechnung eine lineare Funktion y(x) = a+bxangepasst werden. D.h. wir suchen eine Losung des uberbestimmten Gleichungssys-tems

1 −21 −11 01 11 2

(ab

)=

0.50.52

3.53.5

Das dazugehorige Normalengleichungssystem lautet:

(1 1 1 1 1−2 −1 0 1 2

)

1 −21 −11 01 11 2

(ab

)= (3.27)

(1 1 1 1 1−2 −1 0 1 2

)

0.50.52

3.53.5

Vereinfacht ergibt das(

5 00 10

)(ab

)=

(109

)

Daraus folgt die Losung y(x) = 2 + 0.9x mit der mittleren Abweichung

∆2 =

(m

∑j=1

∣∣u(x j)− y j∣∣2) 1

2

=√

0.9< 1. (3.28)

33

Page 41: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 3. EINFUHRUNG IN DIE NUMERISCHE MATHEMATIK 1

3.3.2 QR-ZerlegungSei A eine rechteckige m×m-Matrix mit m≥n und rangA=n. Dann existiert eine ein-deutig bestimmte m×m-Matrix Q mit:QT Q = 1 fur A,Q ∈ Rn×n

QT Q = 1 fur A,Q ∈ Rn×n

und eine eindeutig bestimmte obere m×m-Dreiecksmatrix R mit reellen Diagonalele-menten rii > o, i=1,...,n so, dass

A = QR

Beispiel 3.12. A ∈ Rn×n. Die Normalengleichung

AT A~x = AT~b

geht uber in

AT A~x = RT QT QR~x = RT R~x = RT QT~b

Da RT regular ist, folgt:

R~x = QT~b

Hiermit ist die Cholesky-Zerlegung von AT A bestimmt, ohne dass AT A explizitberechnet werden muss.

34

Page 42: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Kapitel 4

Numerische Lineare Algebra 2

Joelle HofstetterZoran Ostojic

Zusammenfassung

Beim SOR-Verfahren kommt, im Gegensatz zum Gauss-Seidel-Verfahren, ein Relaxi-onsparameter ω hinzu. Mit dem optimalen ω erreicht man schneller die Losung~x.

Beim Gradientenverfahren spricht man auch von der Methode des steilsten Ab-stiegs. Dabei wird das Gleichungssystem A~x =~b in eine Quadratische Funktion um-geschrieben. Das entspricht einer gekrummten Ebene mit einem Minimum, das dieLosung~x darstellt. Damit die Ebene ein Minimum bildet, muss A positiv definit sein.Mit einem Startwert~x(0) und den Schrittweiten αt nahert man sich der Losung hin.

35

Page 43: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 4. NUMERISCHE LINEARE ALGEBRA 2

Bis jetzt sind wir eher direkt an die Gleichung Ax = b herangegangen. Wir habendie Matrix A so akzeptiert, wie sie vorlag, und haben das Gausssche Eliminationsver-fahren verwendet. Nun kann man aber durch iterative Methoden, in denen A durch eineeinfachere Matrix S ersetzt wird, die Gleichung Ax = b einfacher losen. Die DifferenzT = S−A wird auf die rechte Seite der Gleichung gebracht. Wie bereits gesagt, wirdmit S an der Stelle von A das Problem eifacher losbar. Dafur muss aber ein Preis ge-zahlt werden, das einfache System muss nun wiederholt gelost werden. Es ist leicht,eine iterative Methode zu erfinden. Man schreibt einfach A = S− T . Dann wird dieGleichung Ax = b zu Sx = T x + b. Das Neue ist nun, dass man die eben erwahnteGleichung iterativ lost. Man hat also zum Schluss die Gleichung:

Sxk+1 = T xk + b (4.1)

Man beginnt diesen Prozess mit einem beliebigen Vektor x0, dann mit x1 usw. DasGanze wird dann beendet, wenn xk+1 nahe bei xk ist oder besser ausgedruckt, wennAxk−b nahe bei Null ist. Die Ziele der Zerlegung A = S−T :

1. Schnelle Ausfuhrung eines Iterationsschrittes.

2. Schnelle Konvergenz der xk an die Losung.

D.h. Die Gleichung Sxk+1 = T xk + b sollte leicht losbar sein. S muss gut gewahlt wer-den. Was das genau heisst, sehen wir spater. Der Fehler x−xk = ek sollte schnell gegenNull gehen. Die Fehlerrechnung erhalt man durch Subtraktion der zwei untenstehenderGleichungen:

Sx = T x + b

Sxk+1 = T xk + b

ergibt dannS(x− xk+1) = T (x− xk)

daraus erhalt man die Fehlergleichung

Sek+1 = Tek

ek+1 = S−1Tek

Ist nun S−1T genug klein, so konvergiert dieses gegen Null (vergleiche Spektralra-dius).

4.0.3 Wie wird nun aber S idealerweise gewahlt?Man will:

1. schnelle Einzelschritte (d.h. einfaches S)

2. schnelle Konvergenz (d.h. S nahe an A)

Ax = b kann auch geschrieben werden als:

a j jx j +n

∑k=1,k 6= j

a jkxk = b j (4.2)

36

Page 44: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

wobeij = 1, ...,n

unda j j 6= 0.

Umgeformt mit den Iterationsschritten ergibt das:

x(t)j =

1a j j

(b j−n

∑k=1,k 6= j

a jkx(t−1)k ) (4.3)

mitj = 1, ..,n.

Zur kompakteren Schreibweise der Iterationsverfahren fuhren wir die Aufspaltung A =D + L + R ein, wobei

D =

a11 · · · 0. . .

0 ann

,L =

0 . . . . . . 0

a21. . .

......

. . ....

an1 . . . an,n−1 0

(4.4)

und

R =

0 a12 . . . a1n. . . . . .

.... . . an−1,n

0 0

(4.5)

Das Ganze kann dann geschrieben werden als:

xt = D−1(b− (L + R)x(t−1)) =−D−1(L + R)x(t−1) + D−1b

−D−1(L + R)︸ ︷︷ ︸J(=B)

Diese Gleichung wird fur das Jacobi-Verfahren benutzt.

xt = D−1(b−Lxt−Rx(t−1)) =−(D + L)−1Rx(t−1) + (D + L)−1b

−(D + L)−1R︸ ︷︷ ︸H

Diese Gleichung wird fur das Gauss-Seidel-Verfahren benutzt.Kurz zusammengefasst:

1. Fur das Jacobi: S= Diagonalanteil von A

2. Fur das Gauss-S.: S= unterer Dreiecksteil von A

3. Fur das SOR:S= Kombination des Jacobi- und des Gauss-S.-V.

37

Page 45: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 4. NUMERISCHE LINEARE ALGEBRA 2

4.0.4 Wann konvergieren die xk gegen x?Diese Frage ist reine lineare Algebra. Bei der Antwort darauf taucht als die die Konver-genz bestimmende Grosse die Zahl |λ|max auf. Dies ist der sogenannte Spektralradius.Es handelt sich um den betragsgrossten Eigenwert der Iterationsmatrix S−1T . Die Glei-chung (wie bereits erwahnt) Sek+1 = Tek ergibt umgeformt ek+1 = S−1Tek. In jedemIterationsschritt wird der Fehler mit derselben Matrix B = S−1T multipliziert. Nach kSchritten ist der Fehler daher ek = Bke0. Die Fehlervektoren gehen gegen Null, wenndie Potenzen der Matrix B = S−1T gegen Null gehen. Vor allem die Eigenwerte vonB, insbesondere der betragsgrosste Eigenwert, bestimmen die Potenzen von Bk. DiePotenzen Bk gehen dann und nur dann gegen Null, wenn fur jeden Eigenwert von B dieAbschatzung |λ|< 1 gilt. Die Konvergenzgeschwindigkeit wird durch den Spektralra-dius |λ|max bestimmt.

4.0.5 Das Jacobi-Verfahren anhand eines einfachen Beispieles:Im folgenden losen wir ein spezielles 2x2 Problem. Die Theorie der iterativen Verfah-ren sagt uns, dass die entscheidende Grosse der Spektralradius von B = S−1T ist. Manmuss deshalb zuerst feststellen, ob die Matrix uberhaupt mit dem Jacobi-Verfahrengelost werden kann. Dazu machen wir wieder von der Fehlergleichung Gebrauch. Ge-geben ist also eine 2x2 Matrix nach dem System Ax=b (einfachheitshalber haben wireine solche kleine Matrix gewahlt, denn normalerweise ist n viel grosser als 2).

(2 −1−1 2

)(uv

)=

(4−2

)(4.6)

Das Gleichungssystem sieht also folgendermassen aus und hier ist die Loung leicht zufinden, und zwar u = 2 und v = 0:

2u− v = 4

−u + 2u =−2

Mit der Fehlergleichungek+1 = S−1Tek

kommen wir auf:

ek+1 =

(0 0.5

0.5 0

)ek

Die Eigenwerte sind hierλ1,2 =±0.5

Das heisst, dass der Spektralradius 0.5 betragt. Dies zeigt uns durch die Bedingung|λ| < 1, dass diese Matrix mit dem Verfahren losbar ist. Wir wenden nun also dasJacobi-Verfahren an. Wir behalten die Diagonalterme auf der linken Seite (in S)undverlegen die Terme jenseits der Diagonalen auf die rechte Seite (in T). Dann iterierenwir:

2uk+1 = vk + 4

2vk+1 = uk−2

Wir beginnen die Iteration mitu0 = v0 = 0.

38

Page 46: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Der erste Schritt liefertu1 = 2,

v1 =−1.

So geht es weiter:

(00

),

(2−1

),

(3/20

),

(2−1/4

),

(15/3

0

),

(2

−1/16

), geht gegen

(20

)

Man erkennt die Konvergenz. In den Schritten 1, 3 und 5 ist die zweite Komponente

−1,−1/4

und−1/16.

Der Fehler wird also alle zwei Schritte mit 1/4 multipliziert. Dasselbe gilt fur denFehler der ersten Komponente. Zu den Werten

0,3/2,15/8

gehoren die Fehler2,1/2,1/8.

Auch diese Fehler schrumpfen alle zwei Schritte um einen Faktor vier.

4.0.6 Das Gauss-Seidel-Verfahren anhand des Beispieles:Auch hier mussen wir zuerst uberprufen, ob die gegebene Matrix damit uberhauptlosbar ist. Hier gilt:

S =

(2 0−1 2

),T =

(0 10 0

),S−1T =

(0 1/20 1/4

)

Diese liefern uns die Eigenwerte 0 und 1/4. |λ|max = 1/4. Das heisst, dass der Spek-tralradius 0.25 betragt. Dies zeigt uns wieder durch die Bedingung |λ|< 1, dass dieseMatrix mit dem Gauss-Seidel Verfahren losbar ist. Dieses Verfahren verwendet die ge-samte untere Dreiecksmatrix von A als S:

2uk+1 = vk + 4 (4.7)

−uk+1 + 2vk+1 =−2 (4.8)

oder umgeformt

uk+1 = 0.5vk + 2 (4.9)

uk+1 = 0.5uk+1−1 (4.10)

Es muss vor allem der kleine, aber wichtige Unterschied beachtet werden: Das neueuk+1 aus der ersten Gleichung wird in der zweiten Gleichung sofort verwendet. BeimJacobi-Verfahren behielten wir den alten Wert uk, bis der gesamte Schritt vollendet war.

39

Page 47: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 4. NUMERISCHE LINEARE ALGEBRA 2

Beim Gauss-Seidel-Verfahren gehen die neuen Werte in die Rechnung ein, die alten ukfallen weg. Auf diese Weise wird der Speicherbedarf halbiert, und normalerweise wirddadurch auch die Iteration beschleunigt. Das Verfahren bringt keinen hoheren Aufwandmit sich als das Jacobi-Verfahren. Beginnt man die Iteration mit dem Startwert

u0 = 0

und mitv0 =−1,

so erhalt man durch Einsetzen folgende Werte:(

0−1

),

(3/2−1/4

),

(15/8−1/16

),

(63/32−1/64

)geht gegen

(20

)

Die Fehler in der ersten Komponente sind

2,1/2,1/8,1/32

und die Fehler der zweiten Komponenten sind

−1,−1/4,−1/16,−1/64.

Sie werden also in jedem Schritt, nicht in zwei Schritten, um einen Faktor vier verrin-gert. Das Gauss-Seidel-Verfahren ist doppelt so schnell wie das Jacobi-Verfahren.

Zusammenfassend gilt also: Das Gauss-Seidel-Verfahren ist im allgemeinen undauch in diesem Beispiel doppelt so schnell wie das Jacobi-Verfahren.

4.1 SOR-VerfahrenSOR steht fur Successive overrelaxion method oder Uberrelaxionsverfahren. Die No-tation vom SOR-Verfahren ist analog zum Gauss-Seidel-Verfahren.

~x(t)j =

1a j j

{b j−∑

k< j~x(t)

k −∑k> j~x(t−1)

k

}(4.11)

Neu hinzu kommt der Relaxionsparameter ω (Omega).

0< ω< 2

Ist ω < 1 spricht man von Unterrelaxion,Im Falle ω = 1 ist dies gerade das Gauss-Seidel-Verfahren.Im Falle ω > 1 spricht man von Uberrelaxion.

Setzt man ω in GS-Verfahren ein, ergibt dies die Linearkombination

~x(t)j = ω~x(t)

j + (1−ω)~x(t−1)j . (4.12)

In DLR Matritzenform aufgeschrieben ergibt (4.12)

~x(t) = ωD−1{

b−L~x(t)−R~x(t−1)}

+ (1−ω)~x(t−1)j . (4.13)

Wobei Hω = (D + ωL)−1 [(1−ω)D−ωR], Hω die SOR-Matrix ist. Der SOR-Iterationsschrittlautet dann

~x(t) = Hω~x(t−1) + ω(D + ωL)−1~b. (4.14)

40

Page 48: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

4.2. GRADIENTENVERFAHREN

4.1.1 Das optimale OmegaWie erhalt man den “optimalen” Relaxionsparameter ω? Fur eine beliebige Matrix A∈ Rnxn gilt

spr(Hω)≥ |ω−1| ,ω ∈ R. (4.15)

Fur konsistent geordnete Matritzen lasst sich der “optimalen” Relaxionsparameter ωopt ∈(0,2) ableiten. Dann ist

ωopt =2

1 +√

1−ρ2,ρ = spr (J)< 1. (4.16)

4.1.2 Beispiel SOR-Verfahren

A~x =~b

ω eingesetzt, ergibt ωA~x = ω~bωA~x = ω~b

(2 −1−1 2

)(uv

)=

(4−2

), Losung~x =

(20

)

u(t+1) = 12

[(2−2ω)u(t) + ωv(t) + 4ω

]

v(t+1) = 12

[ωu(t+1) + (2−2ω)v(t)−2ω

]

Startwert: u(0) = 0,v(0) = 0.Rechnet man dieses Beispiel mit t = 1 bis 5 und den Relaxionsparametern 1.2, 1.5

und 1.9 aus, so ist ersichtlich, dass sich der optimale Relaxionsparameter in der Nahevon ω = 1.2 befindet.

t = 0 1 2 3 4 5

ω = 1.2(

2.4000.240

) (2.0640.009

) (1.9810.009

) (2.0280.040

) (1.9990.008

) (1.999−0.002

)

ω = 1.5(

3.000−0.000

) (2.0630.750

) (1.723−0.328

) (2.106−0.044

) (2.0230.101

) (1.963−0.033

)

ω = 1.9(

3.800−0.016

) (2.0051.710

) (0.538−1.535

) (3.309−0.008

) (2.0091.250

) (1.863−1.116

)

4.2 GradientenverfahrenBeim Gradientenverfahren spricht man auch von der Methode des steilsten Abstiegs.Notation aus dem Gleichungssystem

A~x(t) =~b.

Dabei muss folgende Bedingung erfullt sein:A ∈ Rnxn symmetrisch positiv definite Matrix,~xT A~x > 0,x 6= 0~b ∈ Rn beliebig~x ∈ Rn Losung des Gleichungssystems〈·, ·〉 Skalarprodukt auf Rn

‖ · ‖ Vektornorm

41

Page 49: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 4. NUMERISCHE LINEARE ALGEBRA 2

Aus dem Gleichungssystem A~x =~b umgeschrieben in eine Quadratische Funktionerhalten wir eine gekrummte Ebene mit einem Minimum, das die Losung ~x darstellt.Damit aber die Ebene uberhaupt ein Minimum bildet, muss A positiv definit sein.

Q(~y) =12〈A~y,~y〉−

⟨~b,~y⟩

(4.17)

Q ableiten und gleich Null setzten entspricht dem Minimum im Punkt x.

gradQ(~y) =12(A + AT)~y−~b = A~y−~b

gradQ(~x) = 0

Abbildung 4.1: Quadratische Form Q(x) und Gradient Q(x)

Startvektor~x(0) ∈ Rn ,~x(t), t ∈ NAbstiegsrichtung~r(t) (Der Raum muss aufgespannt sein.)Gradient~g(t) = A~x(t)−~b = gradQ

(~x(t)).

4.2.1 Schrittweiten αt

Man setzt die Zwangsbedingung

Q(~x(t+1)) = minα∈

Q(~x(t) + α~r(t)

).

Leitet Q nach~x ab und setzt gleich Null.

ddα Q

(~x(t) + α~r(t)

)= gradQ

(~x(t) + α~r(t)

)·~r(t) =

(A~x(t)−~b,~r(t)) + α⟨

A~r(t),~r(t)⟩

!=0

Umgeformt ergibt das die Schrittweiten αt

αt =−

⟨~g(t),~r(t)

⟨A~r(t),~r(t)

⟩ . (4.18)

42

Page 50: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

4.2. GRADIENTENVERFAHREN

4.2.2 Abstiegsrichtung~r(t)

Die Richtung~r(t) lasst man nach den Einheitsvektor{~e(1), ...,~e(n)

}durchlaufen. Dies

ist das Gauss-Seidel-Verfahren. Setzen wir aber

~r(t) =−gradQ(~x(t))

=−~g(t),

entspricht das dem Gradientenverfahren. Man nimmt den minus Gradient, weil manmit dem steilsten Abstieg zur Losung~x gelangen will.

4.2.3 GradientenverfahrenDas Gradientenverfahren lautet dann:

Startwert:~x(0) ∈ Rn ,~g(0) = A~x(0)−~bFur t ≥0

αt =

∥∥∥~g(t)∥∥∥

2

⟨A~g(t),~g(t)

~x(t+1) =~x(t)−αt~g(t)

~g(t+1) =~g(t)−αt A~g(t)

Die Losung erhalt man nach n Schritten. Fur n ≥ 10’000 ist die Rechnung impraktika-bel.√

n Schritte reichen dann aus, um genugend nahe an die Losung anzunahern.

4.2.4 Beispiel Gradientenverfahren

A~x =~b(2 11 2

)(uv

)=

(03

), Losung~x =

(−12

)

Startwert~x(0) =

(11

)

~g(0) = A~x(0)−~b =

(2 11 2

)(11

)−(

03

)=

(30

)

Rechnet man das Beispiel weiter bis t = 5, so erhalt man folgende Werte:

t = 0 1 2 3 4 5

~x(t) =

(0.5001.000

) (−0.5001.000

) (−0.8751.770

) (−0.9691.750

) (−0.9691.750

) (−0.9691.750

)

~g(t) =

(0

−1.500

) (0.750

0

) (0

−0.375

) (0.188

0

) (0

−0.094

) (−0.047

0

)

Die Losungen ~x(t) bewegen sich Schrittweise immer naher der Losung ~x zu und derGradient~g(t) nahert sich zur Null hin.

43

Page 51: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 4. NUMERISCHE LINEARE ALGEBRA 2

44

Page 52: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Kapitel 5

Das Eigenwertproblem

Rahel ZollerVictoria Maurer

5.1 Eigenwerte

Zusammenfassung

Jeder Matrix konnen Eigenwerte zugeordnet werden. Dies ist diejenige Zahl, fur wel-che Ax = λx gilt, das heisst, dass der Vektor x nur gestreckt wird. Dieser Vektor heisstEigenvektor der Matrix A. Falls es mehrere Eigenvektoren zu einem Eigenwert gibt, soheisst die Anzahl der Eigenvektoren geometrische Vielfachheit des Eigenwerts λ.

Alle Eigenvektoren eines Eigenwertes bilden den sogenannten Eigenraum. Samtli-che Eigenvektoren der Matrix A bilden zusammen die sogenannte Eigenbasis.

Die Losung der Gleichung det(A− λIn) heisst charakteristisches Polynom ihreLsungen sind gerade gleich den Eigenwerten. Da diese Lsungen mehrfach sein knnen,knnen auch Eigenwerte mehrfach vorkomen. Ein Eigenwert hat daher eine algebrai-sche Vielfachheit Jede (nxn) - Matrix hat genau n Eigenwerte, falls diese mit ihreralgebraischen Vielfachheit gezahlt werden.

Eigenwerte symmetrischer Matrizen haben spezielle Eigenschaften. Alle Eigen-werte sind reell, und die Eigenvektoren stehen senkrecht aufeinander.

Im letzten Abschnitt beschaftigen wir uns mit einigen einfachen Folgerungen undAnwendungen aus der behandelten Eigenwerttheorie, wie z.B. die Berechnung vony = Akx oder die Matrixexponentialfunktion. Weiter wird auf die 2-Norm ‖A‖2 einerreellen Matrix A und ihrer Inversen eingegangen. Eine weitere Anwendung der Ei-genwerttheorie ist die Bestimmung der Kondition einer Matrix. Die Kondition gibtAuskunft uber die Verstarkung eines Anfangfehlers beim Losen eines linearen Glei-chungssystems.

45

Page 53: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 5. DAS EIGENWERTPROBLEM

5.1.1 EigenwerteSei A eine (nxn) - Matrix.

Definition 5.1. Eine Zahl λ ∈ C heisst Eigenwert der Matrix A, falls es einen Vektorx6= 0 ∈ Cn gibt, so dass Ax = λx gilt.

Das heisst, dass die Abbildung, welche durch die Matrix A beschrieben wird, denVektor x nur streckt.

Definition 5.2. Ist λ ∈ C Eigenwert der Matrix A, so heisst jeder Vektor x 6= 0 ∈ Cn,fur den Ax = λx gilt, Eigenvektor der Matrix A zum Eigenwert λ.

Praktische Berechnung

λ ∈ C ist genau dann Eigenwert von A, wenn

Ax−λx = 0

Das heisst, dass(A−λIn)∗ x = 0

Wir wissen aus der Linearen Algebra, dass dies gilt, falls

det(A−λIn) = 0

Charakteristisches Polynom

Das Polynom det(A− λIn) heisst charakteristisches Polynom der Matrix A. Es wirdals PA(λ) bezeichnet. Fur eine (n×n) Matrix ist das charakteristische Polynom immereine Gleichung n-ten Grades.

Wie wir aus der Analysis wissen, hat jedes Polynom n-ten Grades genau n (even-tuell Komplexe) Nullstellen, wobei einige oder alle mehrfach sein konnen. Die Null-stellen des charakteristischen Polynoms sind nun genau unsere gesuchten Eigenwerte.Also konnen auch Eigenwerte mehrfach vorkommen. Die Anzahl der Male, welcherein Eigenwert Nullstelle des charakteristischen Polynoms ist, sagen wir algebraischeVielfachheit von λ.

Es gilt also: jede (n× n)-Matrix hat hochstens n Eigenwerte, und falls diese mitihrer Algebraischen Vielfachheit gezahlt werden genau n Eigenwerte.

Falls die Matrix reell ist, so sind die Eigenwerte auch reell, oder aber sie treten inkonjugiert-komplexen Paaren auf.

Beispiel 5.1. Wir wollen die Eigenwerte der Matrix

A =

2 1 11 2 11 1 2

berechnen. Dazu berechnen wir zuerst deren charakteristisches Polynom, welches sichso berechnet:

A−λIn = A =

2−λ 1 11 2−λ 11 1 2λ

46

Page 54: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

5.1. EIGENWERTE

Wir entwickeln nach der ersten Spalte und addieren anschliessend die zweite Spalte zurersten. Das ergibt:

PA(λ) =−det(

1− (2−λ)2 −(1−λ)−(1−λ) 1−λ

)=−det

(−(λ2−5λ + 4) −(a−λ)

0 1−λ

)

Das charakteristische Polynom ist also:

PA(λ) = A−λIn) =−(λ−1)(λ2−5λ + 4) =−(λ−1)2(λ−4)

Es gibt folglich 2 Eigenwerte: 1 und 4Der Eigenwert 1 hat die algebraische Vielfachheit 2: λ1 = λ2 = 1Der Eigenwert 4 hat die algebraische Vielfachheit 1: λ3 = 4

5.1.2 Eigenvektoren / EigenraumeSei A eine (n× n)-Matrix, und sei λ ein Eigenwert der Matrix A. Wie wir gesehenhaben, ist dann die Determinante der Matrix (A−λIn) gleich null, und ein Vektor x 6= 0ist genau dann Eigenvektor von A zum Eigenwert λ, wenn

(A−λIn)x = 0

Definition 5.3. Die Menge der Losungen dieser Gleichung heisst Eigenraum von Azum Eigenwert λ : Eλ. Die Dimension dieses Eigenraums heisst geometrische Viel-fachheit von λ.

Satz 5.4. 1≤geometrische Vielfachheit von λ ≤ algebraische Vielfachheit von λ (⇒falls die algebraische Vielfachheit 1 ist, ist auch die geometrische Vielfachheit 1)

Satz 5.5. Hat eine Matrix paarweise verschiedene Eigenwerte, so sind die zugehorigenEigenvektoren linear unabhangig. Sie bilden also eine Basis. Diese nennt man Eigen-basis zur Matrix A

Satz 5.6. Falls die Summe der geometrischen Vielfachheiten einer (nxn) -Matrix gleichn ist, dann gibt es eine Eigenbasis zu A.

Eigenbasen

Definition 5.7. Eine Basis von Eigenvektoren einer Matrix A nennt man Eigenbasis.

Wir definieren 2 Klassen von Matrizen mit Eigenbasen:

• Einfache Matrizen: Alle Eigenwerte haben die algebraische (und geometrische)Vielfachheit 1

• halbeinfache Matrizen: Fur jeden Eigenwert gilt, dass die algebraische gleich dergeometrischen Vielfachheit ist

Daraus folgt: Jede einfache Matrix ist auch halbeinfach.

Definition 5.8. Eine quadratische Matrix A heisst diagonalisierbar, falls es eine re-gulare Matrix T gibt, so dass die Matrix T−1AT eine Diagonalmatrix ist.

⇒ Fur jede Matrix A sind folgende Aussagen aquivalent:

47

Page 55: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 5. DAS EIGENWERTPROBLEM

• Sie ist halbeinfach

• Sie besitzt eine Eigenbasis

• Sie ist diagonalisierbar

Beispiel 5.2. Wie wir schon wissen, hat die Matrix

A =

2 1 11 2 11 1 2

die Eigenwerte λ1 = λ2 = 1undλ3 = 4.Wir wollen nun die zugehorigen Eigenvektoren und Eigenraume ermitteln, und her-

ausfinden, welche geometrische Vielfachheit die Eigenwerte haben.Eigenraum zu λ = 1. Mit dem Gaussverfahren losen wir das Gleichungssystem

(A− In)x = 0:Die Losungsmenge ist {x3 = α,x2 = β,x1 = α,α ∈ R. Es gilt somit

E1 =

−α−β

βα

∣∣∣∣∣∣

α,β ∈ R

=

α

−101

+ β

−110

∣∣∣∣∣∣

α,β ∈ R

= span

−101

,

−111

Die Losungsmenge hat zwei freie Parameter. Die Dimension von E1 ist also zwei. Diegeometrische Vielfachheit von λ = 1 betragt daher 2.

Eigenraum zu λ = 4. Wieder wenden wir den Gaussalgorithmus an. Die Losungenhaben die Form x3 = α,x2 = α,x1 = α,α ∈ R:

E4 =

111

∣∣ α ∈ R

= span

111

Die geometrische Vielfachheit von λ = 4 betragt 1.

5.2 Symmetrische Matrizen AT = A

Die Eigenwerte und Eigenraume symmetrischer Matrizen haben spezielle Eigenschaf-ten, weshalb wir sie hier separat betrachten wollen.

Satz 5.9. Sei A eine reelle, symmetrische Matrix. Dann gilt:

• Alle Eigenwerte von A sind reell.

• Eigenvektoren zu verschiedenen Eigenwerten stehen senkrecht aufeinander

• Die Matrix A ist halbeinfach (und somit diagonalisierbar)

• Es gibt eine orthonormale Eigenbasis zu A

48

Page 56: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

5.3. ERSTE FOLGERUNGEN

• Es gibt eine orthogonale Matrix T , so dass die Matrix T T AT diagonal ist. Inder Diagonalen stehen die Eigenwerte der Matrix A die Spalten von T sind dieentsprechenden Eigenvektoren der Matrix A.⇒ Die Eigenvektoren ergeben eineorthogonale Matrix

• Sie ist positiv definit, das heisst alle Eigenwerte sind grosser oder gleich 1.

Beispiel 5.3. Wir haben schon die Eigenwerte und Eigenraume der Matrix

A =

2 1 11 2 11 1 2

berechnet. Wir wollen jetzt eine Orthonormale Basis fur E1 = span{b(1),b(2)} und

E4 = span{b(3)} mit b(1) =

−101

,b(2) =

−110

und b(3) =

−111

. Mit

dem Schmidtschen Orthogonalisierungsverfahren lassen sich orthonormale Basen inE1 und E4 finden. Orthonormale Basis fur E1:

b(1) :=

−101

;

e(1) := b(1)‖b(1)‖

−1/√

20

1/√

2

;

c(2) := b(2)− (b(2),e(1))e(1) =

−110

−1/2

01/2

=

−1/2

1−1/2

;

e(2) :=c(2)

‖c(2)‖ =

−1/√

62/√

6−1/√

6

;

Orthonormale Basis fur E4:

b(3) =

111

;e(3) =

b(3)

‖b(3)‖ =

1/√

31/√

31/√

3

.

Die Vektoren e(1),e(2),e(3) bilden eine orthonormale Eigenbasis.

5.3 Erste Folgerungen

5.3.1 Berechnung von y = Akx

Es sei eine diagonalisierbare Matrix A und ein Vektor x gegeben, damit soll der Vektory = Akx fur grosse k berechnet werden.

49

Page 57: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 5. DAS EIGENWERTPROBLEM

Ist T die Matrix in deren Spalten die Eigenvektoren u(1),u(2), ...,u(n) stehen, danngilt T−1AT = D = diag(λ1,λ2, ...,λn). Daraus ergibt sich A = T DT−1. Setzt man nundiesen Ausdruck in Ak ein, so erhalt man

Akx = (T DT−1)(T DT−1)(T DT−1) · · · (T DT−1)x = TDkT−1x.

Um den Vektor z = T−1x zu berechnen, lost man am besten das GleichungssystemT z = x nach z auf. Damit kann vermieden werden, die Matrix T−1 berechnen zumussen. Es ergibt sich folgender

Algorithmus

1. Lose das Eigenwertproblem von A

2. Bestimme die Matrizen T und D, so dass T−1AT = D

3. Lose das lineare Gleichungssystem T z = x nach z auf.

4. Berechne Dk.

5. Berechne Dkz = w.

6. Berechne y = Tw.

Bemerkung 5.4. Ist A symetrisch, dann kann T orthogonal gewahlt werden, d.h.T−1 = T T . In diesem Fall ist Ak = T DkT T und es muss kein lineares Gelichungssystemgelost werden.

5.3.2 Die MatrixeponentialfunktionFur eine (n×n)-Matrix A ist die Matrixexponentialfunktion eA wie folgt definiert:

eA = In + A +12!

A2 +13!

A3 + · · ·

Die Frage ist nun, ob dadurch eine (n×n)-Matrix definiert wird. Fur halbeinfache Ma-trizen A lasst sich diese Frage mittels der linearen Algebra einfach beantworten, dazubetarachten wir zuerst den Spezialfall einer Diagonalmatrix D = diag(λ1,λ2, ...,λn):

eD = In + D +12!

D2 +13!

D3 + · · ·=

eλ1 0 00 eλ2 0

0 0. . .

= diag(eλ1 ,eλ2 ,eλ3 , ...)

Sei A eine halbeinfache Matrix, dann wissen wir, dass Ak = T DkT−1 gilt, wobei in derMatrix T , die Eigenvekoren von A in den Spalten stehen und die Diagonalmatrix D dieEigenwerte von A in der Diagonalen hat. Daraus folgt:

eA = T InT−1 + TDT−1 +12!

T D2T−1 +13!

TD3T−1 + · · ·

= T (In + D +12!

D2 +13!

D3 + · · ·)T−1

= TeDT−1

Man kann also die Matrix eA berechnen, indem man das Eigenwertproblem der MatrixA lost.

50

Page 58: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

5.3. ERSTE FOLGERUNGEN

Beispiel 5.5. Gegeben sei A =

(−2 −61 3

), finde eA. Die daraus berechneten Eigen-

werte sind λ1 = 1 und λ2 = 0. Die dazugehorigen Eigenvektoren sind t(1) =

(−21

)

und t(2) =

(−31

). Die Matrix T ist somit

T =

(−2 −31 1

)und die Inverse T−1 =

(1 3−1 −2

). Daraus ergibt sich

eA =

(−2 −31 1

)(e1 00 e0

)(1 3−1 −2

)=

(3−2e 6−6ee−1 3e−2

)

5.3.3 Die 2-Norm ‖A‖2 einer reellen Matrix A

Definition 5.10. Die induzierte Matrixnorm einer quadratischen Matrix ist:

‖A‖2 = supx6=0

{‖Ax‖2‖x‖2

}= sup‖x‖2=1

{‖Ax‖2}

T sei eine beliebige orthogonale Matrix und es gilt x = Ty, so ist

‖x‖2 = ‖Ty‖2 = ‖y‖2 .

Das Quadrat dieser Matrixnorm ist demnach

‖A‖ 22 = sup

‖x‖2=1

{‖Ax‖ 2

2

}= sup‖y‖2=1

{‖ATy‖ 2

2

}= sup‖y‖2=1

{yT T T AT ATy

}

Die Matrix As := AT A ist symmetrisch, daher gibt es ein orthogonales T , so dass giltT T AsT = D = diag(µ1,µ2, ...,µn). Die Zahlenµ1,µ2, ...,µn sind die Eigenwerte der Ma-trix As. So erhalt man

‖A‖ 22 = sup

‖y‖2=1

{yT Dy

}= sup‖y‖2=1

{n

∑i=1

µiy 2i

}= max

i{µi}

‖A‖2 ≥ 0, daraus folgt, dass der grosste Eigenwert µmax von As ist nicht negativ.

Folgerungen

1. Fur jede quadratische Matrix A gilt

‖A‖2 =√

µmax =√

maximaler Eigenwert von AT A

2. Fur jede orthogonale Matrix Q gilt

‖Q‖2 = 1

denn QT Q = In

3. Fur jede symmetrische (n×n)-Matrix A gilt

‖A‖2 = |λmax| ,

wobei λmax der betragsmassig grosste Eigenwert der Matrix A ist.

51

Page 59: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 5. DAS EIGENWERTPROBLEM

5.3.4 Die Matrixnorm der Inversen:Sei A eine invertierbare Matrix und wir berechnen

∥∥A−1∥∥

2.

Definition 5.11. Die Norm der Inversen ist

∥∥A−1∥∥2 = sup

x6=0

{∥∥A−1x∥∥

2‖x‖2

}.

Setzen wir A−1x = y, so ist x = Ay. Somit ergibt sich∥∥A−1∥∥

2 = supx6=0

{ ‖y‖2‖Ay‖2

}= sup‖y‖2=1

{1‖Ay‖2

}=

1inf‖y‖2=1 {‖Ay‖2}

Setzen wir y = Tz, so ergibt sich analog zu vorher∥∥A−1∥∥ 2

2 =1

inf‖y‖2=1 {zT T T AT ATz} =1

inf‖z‖2=1 {zT Dz} =1

mini {µi}Dies bedeutet, dass alle Eigenwerte von AT A = As positiv sind.

Folgerungen

1. Fur jede invertierbare Matrix A gilt∥∥A−1∥∥

2 =1õmin

=1√

minimaler Eigenwert von AT A

2. Fur jede orthogonale Matrix Q gilt

‖Q‖2 =11

= 1

denn QT Q = In

3. Fur jede symmetrische (n×n)-Matrix A gilt∥∥A−1∥∥

2 =1|λmin|

,

wobei λmin der betragsmassig kleinste Eigenwert der Matrix A ist.

5.3.5 Kondidion einer Matrix bzw. eines linearen Gleichungssys-tems

Mathematische Probleme lassen sich auf dem Computer meistens nicht exakt losen,da durch die endliche Arithmetik Rundungsfehler entstehen. Das Gaussverfahren mitrelativer Kolonnenmaximumstrategie ist ein guter Algorithmus, damit Rundungsfehlernicht wesentlich verstarkt werden. Diese Aussage gilt aber nur fur sogennant gut kon-ditionierte Gleichungssysteme. Ein gut konditioniertes Problem kann mit einem gutenAlgorithmus auf dem Computer gelost werden, ohne dass eine wesentliche Verstarkungder Rundungsfehler auftritt. Ist ein Problem schlecht konditioniert, so lasst es sich nurmit grossem Genauigkeitsverlust losen.

Fur die Losung der fogenden beiden Probleme, nehmen wir an, dass die Rechen-operationen auf dem Computer exakt durchgefurt werden konnen. Wir wollen nichtuntersuchen, ob der Algorithmus, der aus dem Input das Resultat berechnet gut oderschlecht ist, sondern wie sich ein Anfangsfehler bei exakter Losung des Problems imResultat auswirkt.

52

Page 60: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

5.3. ERSTE FOLGERUNGEN

Kondition einer Funktion

Aus einer Inputgrosse x wird das Resultat

y = H(x)

berechnet. H(x) ist dabei eine glatte Funktion, d.h. H(x) besitzt eine stetige AbleitungH ′(x). x ist die Computerzahl, welche die Imputgrosse x approximiert. Der Fehler desResultats ist somit

∆y = ∆H(x) = H(x)−H(x) = H(x + ∆x)−H(x)

Annahme: Der absolute Fehler ∆x = x− x des Inputs ist klein.Somit konnen wir H(x + ∆x) in einer Taylorreihe um x entwickeln und erhalten so

∆y = [H(x) + H ′(x)∆x + H ′(x)∆x2 + · · · ]−H(x) = H ′(x)∆x + H ′(x)∆x2 + · · ·

Da sowohl x als auch H(x) nicht null ist, konnen wir den relativen Fehler δy betrachten,indem wir die hoheren Terme ∆x2, ... vernachlassigen.

δy = δH(x) =∆H(x)

H(x)∼= H ′(x)∆x

H(x)=

xH ′(x)

H(x)

∆xx

=xH ′(x)

H(x)δx

|δy|= |x| |H′(x)|

|H(x)| |δx|

Dabei ist κH :=|x||H′(x)||H(x)| die Konditionszahl des Problems H(x). Besitzt der Input x

einen relativen Fehler |δx|, so hat das Resultat einen relativen Fehler von ungefahrκH |δx|. κH ist somit der Verstarkungsfaktor des relativen Fehlers der Inputgrosse xdurch das Problem H(x). Ist κH gross, so hat das Problem eine schlechte Konditionund kann auf dem Computer nur ungenau oder sogar uberhaupt nicht gelost werden.

Kondition einer Matrix

Zu berechnen ist die Losung y des linearen Gleichungssystems

Ay = b,

wobei A eine (n×n)-Matrix mit eindeutiger Losung ist.Wir nehmen an, dass die MatrixA auf dem Computer exakt dargestellt werden kann und nur die Inputgrosse, der n-Vektor b, mit einem Rundungsfehler behaftet ist. Es gilt

y = H(b) = A−1b.

H(b) ist eine Vektorfunktion mit n-Komponenten, die alle von b abhangen. Die Ablei-tung H ′(b) ist demnach die Matrix A−1. Der absolute Fehler wird beschrieben durchden n-Vektor ∆b = b−b und der relative Fehler durch den n-Vektor δb = 1

‖b‖∆b.Die Herleitung der Kondition gilt auch fur das vektorwertige Problem, wenn man

die Betrage druch Vektornormen ersetzt. Somit ist

∆y = ∆H(b) = H(b)−H(b) = H(b + ∆b)−H(b)

53

Page 61: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 5. DAS EIGENWERTPROBLEM

Nach der Entwicklung der Taylorreihe finden wir

∆y = [H(b) + H ′(b)︸ ︷︷ ︸=A−1

∆b]−H(b) = A−1∆b

Daraus folgt

‖δy‖=

∥∥A−1∆b∥∥

‖y‖ =‖b‖

∥∥A−1∆b∥∥

‖y‖‖∆b‖‖∆b‖‖b‖ =

‖b‖∥∥A−1∆b

∥∥‖y‖‖∆b‖ ‖δb‖

Wir ersetzen ‖b‖ durch ‖Ay‖, denn es gilt b = Ay, und erhalten

‖δy‖=‖Ay‖‖y‖

∥∥A−1∆b∥∥

‖∆b‖ ‖δb‖

Satz 5.12. Matrixnormen haben folgende Eigenschaften

• ‖Ax‖ ≤ ‖A‖‖x‖

• ‖AB‖ ≤ ‖A‖‖B‖

Somit gilt‖δy‖ ≤ ‖A‖

∥∥A−1∥∥‖δb‖

Im schlechtesten Fall ist ‖Ay‖= ‖A‖‖y‖ und∥∥A−1∆b

∥∥=∥∥A−1

∥∥‖∆b‖, dann gilt sogar

‖δy‖= ‖A‖∥∥A−1∥∥‖δb‖

Dabei ist κA := ‖A‖∥∥A−1

∥∥ die Konditionszahl der Matrix A. Ist im GleichungssystemAy = b nur die rechte Seite b mit einem Rundungsfeher behaftet, so ist κA die obereSchranke fur die Konditionszahl des linearen Gelichungssystems.

Nach Satz 5.12 giltκA ≤

∥∥AA−1∥∥= ‖In‖= 1

Dies bedeutet, dass die Kondition einer Matrix ≤ 1 ist.Wie wir aus dem vorausgegangenen Abschnitt wissen, kann κA in der 2-Norm be-

rechnet werden, indem man das Eigenwertproblem der Matrix As := AT A lost. Somitist

κA =√

µmax1√µmin

=

õmax

µmin,

wobei µmax und µmin der grosste bzw. kleinste Eingenwert von As ist. Im Fall einersymmetrischen Matrix A gilt

κA =

∣∣∣∣λmax

λmin

∣∣∣∣ ,

wobei λmax und λmin der betragsmassig grosste bzw. kleinste Eigenwert von A ist.

Beispiel 5.6. Berechne die Kondition der symetrischen Matrix

A :=

−2 1 01 −2 10 1 −2

.

54

Page 62: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

5.3. ERSTE FOLGERUNGEN

Die Eigenwerte sind λ1 =−2, λ2 =−2 +√

2, λ3 =−2−√

2.

κA =

∣∣∣∣λmax

λmin

∣∣∣∣=2 +√

22−√

2∼= 5.8

Das lineare Gleichungssystem Ay = b ist somit gut konditioniert.Berechne die Kondition symetrischen der Matrix

B :=(

168 113113 76

).

Die Eigenwerte sind λ1 ∼= 244, λ2 ∼=−0.0041.

κB =

∣∣∣∣λmax

λmin

∣∣∣∣=244

0.0041= 5.95 ·104

Die Matrix B hat eine grosse Kondition. Bei der heutigen auf dem Computer ubliche7-stellige Genauigkeit ware selbst bei exakter Rechnung nur drei richtige Ziffern in derLosung des Gleichungssystems Ay = b zu erwarten.

55

Page 63: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 5. DAS EIGENWERTPROBLEM

56

Page 64: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Kapitel 6

Dynamische Systeme, stabileVerhaltenJonathan SanderUeli Stampfli

Zusammenfassung

In unserem Vortrag behandelten wir Differenzialgleichungen abhangig von der Zeit undeiner Variablen x. Um mehrfache Ableitungen zu vermeiden wurden die Gleichungenin Differentialgleichungssysteme uberfuhrt. Die Taylorreihenentwicklung ermoglichtees uns die nichtliniaren Gleichungssysteme an lineare Gleichungssysteme anzunahern.

Im zweiten Teil behandelten wir das Verhalten der Losungen im zwei und dreidimensionalen Raum.

57

Page 65: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 6. DYNAMISCHE SYSTEME, STABILE VERHALTEN

6.1 Differentialgleichungen

6.1.1 Definition und Notation

Als Differentialgleichung betrachten wir Gleichungen der Form

x = f (t,x) (6.1)

wobei x = dx/dt ist und t ein Skalar, t ∈ R, t wird oft als die Zeit benutzt. Die Vek-torfunktion f : G→ Rn ist kontinuierlich in t und x. G ist ein offener Unterraum vonRn+1. Daraus folgt das x ∈ Rn ist.

Beispiel 1

Mit diesen Bedingungen folgt zum Beispiel:

x =−x (6.2)

welche die Losung

x(t) = ce−t ,c ∈ R (6.3)

hat. Der Graph zur Gleichung sieht dann bei der Annahme c=1 so aus:

Abbildung 6.1: Bsp 1

58

Page 66: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

6.1. DIFFERENTIALGLEICHUNGEN

Beispiel 2

x + x = 0 (6.4)

Gegeben:x1 = x

x2 = x

hieraus folgt:x1 = x2

x2 =−x1

Was beim Auftragen von x gegen x folgende Grafik ergibt:

Beispiel 3

x + x = x2 + sint (6.5)

Gegeben ist:

x =d2xdt2

diese Gleichung kann in die Form der Gleichung (6.1) uberfuhrt werden mit

x = x1

x = x2

daraus folgt:x1 = x2 (6.6)

x2 =−x1 + x21 + sin t

Die Form entspricht der in (6.1) gegeben Form. Der Vektor x aus (6.1) entspricht dannden Komponenten x1;x2 aus der Gleichung (6.6). Man sieht das sich jede skalare Glei-chung n-ter Ordnung

dnxdtn = g(t,x,

dxdt, .....,

dn−1xdtn−1 ) (6.7)

59

Page 67: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 6. DYNAMISCHE SYSTEME, STABILE VERHALTEN

mit g:Rn+1→R, in eine Gleichung der Form (6.1) gebracht werden kann. Mit Hilfe derTaylorerweiterung kann nun jede Funktion f (t,x) der Form (6.7) in eine n x n Matrizegebracht werden:

dx1

dt= f1,

dx2

dt= f2,

dx1

f1= dt

f2 =f1dx2

dx1

A =

∂ f1∂x1

· · · ∂ f1∂xn

.... . .

...∂ fn∂x1

· · · ∂ fn∂xn

(6.8)

wobei x1, ...,xn Komponenten von x und f1, ..., fn Komponenten von f (t,x) sind. ImFall das f1 = 0, so verwendet man f2. Falls auch f2 = 0 so verwendet man f3 usw. Fallsdann auch fn = 0 ist, so befindet man sich an einem kritischen Punkt. Beim gebrauchvon Vektorfunktionen in Rn ist es von Vorteil wenn wir die Norm

‖ f‖=n

∑i=1| fi|

verwenden. Fur die n x n Matrix A mit den Elementen ai j ist die Norm

‖A‖=n

∑i=1

∣∣ai j∣∣

von Vorteil. Wir sollten schliesslich die einheitliche Norm oder Subnorm benutzen.Wenn wir f(t,x) nur fur t0 ≤ t ≤ to + T und x ∈ D setzen (mit D als eine gebundeneDomaine an Rn); dann gilt:

‖ f‖sup = supt0≤t≤t0+T

x∈D

‖ f‖ (6.9)

Taylorreihe1 Eine (n+1)-mal differenzierbare Funktion f(x) lasst sich um das ”Entwicklungszen-trum“x0 wie folgt entwickeln(sog. Taylorsche Form):

f (x) = f (x0) +f ′(x0)

1!(x− x0) +

f ′′(x0)

2!(x− x0)2 + ...+

f n(x0)

n!(x− x0)n + Rn(x)

(6.10)wobei f (x0)+ f ′(x0)

1! (x−x0)+ f ′′(x0)2! (x−x0)2 + ...+ f n(x0)

n! (x−x0)n das Taylorsche Po-lynom fn(x) vom Grade n ist und Rn(x) das Restglied darstellt. Die Gleichung kanndann somit in der Form

f (x) = fn(x) + Rn(x) (6.11)

geschrieben werden kann.1Mathematische Formelsammlung Fur Ingenieure und Naturwissenschaftler, 8. Auflage, Papula Lothar,

Friedrich Vieweg & Sohn Verlag Wiesbaden, 2003

60

Page 68: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

6.1. DIFFERENTIALGLEICHUNGEN

6.1.2 Bestehen und Eindeutigkeit

Fur die Differenzialgleichung (6.1) muss der Vektor f(t,x) bestimmte Bedingungenerfullen. Eine der wichtigsten ist die Lipschitze Bedingung.

Definition

Wenn wir die Funktion f(t,x) mit f: Rn+1→ Rn, |t− t0| ≤ a, x∈ D⊂ Rn; f(t,x) genugtder Lipschitzen Bedingung bezuglich x falls wir in [t0−a, to + a]×D,

‖ f (t,x1)− f (t,x2)‖ ≤ L‖x1− x2‖

haben, mit x1,x2 ∈ D und L eine Konstante ist. L heisst die Lipschitze Konstante. EineFunktion f(t,x) die der Lipschitzen Bedingung genugt kann auch als: “f(t,x) ist Lip-schitzkontinuierlich in x“ genannt werden.

Wir haben das Anfangswerteproblem

x = f (t,x),x(t0) = x0

mit x ∈ D ⊂ Rn, |t− t0| ≤ a; D = {x|‖x− x0‖ ≤ d}, a und d sind positive Konstanten.Wenn die Vektorfunktion f(t,x) nun folgende Bedingungen erfullt:

• f(t,x) ist kontinuierlich in G=[t0−a, to + a]×D

• f(t,x) ist Lipschitzkontinuierlich in x

hat das Anfangswerteproblem genau eine einzige Losung fur|t− t0| ≤ in f (a, dM ) mit

M = supG‖ f‖

Die Lipschitze Bedingung sagt uns, dass das Anfangswerteproblem genau eine garan-tierte Losung hat, solange wir uns mit t nicht zu weit von t0 entfernen. Diese Entfernungist dann wiederum durch die Gleichung |t− t0| ≤ in f (a, d

M ) gegeben.

Beispiele 4

x = x,x(0) = 1, t ≥ 0

Die Losung existiert fur 0≤ t ≤ a mit a als beliebige positive Konstante. Die Losungx(t)=et kann fur alle positiven t fortgesetzt werden und geht gegen Unendlich.

61

Page 69: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 6. DYNAMISCHE SYSTEME, STABILE VERHALTEN

6.1.3 Unabhangige Gleichungen

Wir betrachten hier jetzt die Gleichungen in welchen die unabhangige Variable t nichtklar auftritt:

x = f (x) (6.12)

Eine Vektorgleichung der Form (6.12) heisst selbstandig. Ein Skalargleichung von n.Ordnung wird oft geschrieben als

xn + F(xn−1, ...,x) = 0 (6.13)

in welcher x(k) = dk/dtk,k = 0,1....,n,x(0) = x ist. Was fur uns eigentlich Bedeutet dasdie Losungen unabhangig vom gewahlten Koordinatensystem sind. Es gibt dann dreiverschiedene Typen von Losungen fur unabhangige Gleichungen:

• Gleichgewicht oder stationare Losungen

• periodische Losungen

• integral manifolds

Phasenraume und Orbitale

Wenn wir eine Losung aus (6.12) oder auch (6.13) erhalten, welche wir φ(t) nennen.Die Losungen mussen im Definitionsbereich von D⊂Rn sein. Wir konnen dann sagendass, φ(t− t0) mit t0 als eine Konstante auch eine Losung ist.

Kritische Punkte

Falls wir aus der Matrize (6.7) die Losung f1 = f2 = ... = fn(a) = 0 erhalten, habenwir einen kritischen Punkt. Es gilt auch das a(t) = x(t). Aus diesen beiden Gleichungenfolgt dann auch das

x = 0

wobei ja

x = f (a) +∂ f∂x

(a)(x−a) + ....= 0 +∂ f∂x

(a)(x−a) (6.14)

ist. Wenn wir jetzt in (6.14) x−a durch y ersetzen, erhalten wir:

y =∂ f∂x

(a)y (6.15)

A =

∂ f1∂y1

(a)y · · · ∂ f1∂yn

(a)y...

. . ....

∂ fn∂y1

(a)y . . . ∂ fn∂yn

(a)y

(6.16)

62

Page 70: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

6.2. KRITISCHE PUNKTE

6.2 Kritische PunkteEs ist allgemein so, dass fur eine Differenzialgleichung, falls es uberhaupt eine Losunggibt, auch unendlich viele Losungen existieren. Die exakte Losung wird dann durch dieAnfangsbedingungen gegeben. Im Beispiel eines Schwingsystems, konnte dies zumBeispiel die Auslenkung des Oszillators zu Beginn sein, oder der Dampfungsgrad. Daes jedoch sehr muhsam ist, fur jede Anfangsbedingung die Entwicklung zu bestimmenist es von Vorteil, fur alle Losungen das Verhalten zu betrachten. Dabei sind vor allemdie kritischen Punkte von Bedeutung. Im Falle des Schwingsystems ware das zumBeispiel die Auslenkung 0 oder bei einem Pendel die Auslenkung 180.

Im ersten Kapitel wurde gezeigt, dass lineare Differenzialgleichungssysteme mitmehreren Unbekannten der Form x = f (x) in die Form

y = Ay (6.17)

umgewandelt werden konnen. Wobei A die Matrix

A =

δ f1δy1

. . . δ f1δyn

.... . .

...δ fnδyn

. . . δ fnδyn

ist. Dabei gehen wir davon aus, dass det(A−λI) 6= 0, wobei λ1, . . . ,λn die Eigenwerteder Matrix sind.

Wie bekannt ist, lasst sich zur Vereinfachung die Matrix A durch eine Transformati-onsmatrix T und der Operation T−1AT in die Jordannormalform Umwandeln. Mit derTransformation

y = T z (6.18)

folgt darausz = T−1AT (6.19)

Sind alle n Eigenwerte (λ1,λ2, . . . ,λn) verschieden, so ist T−1AT in Diagonlaform mitden Eigenwerten (λ1,λ2, . . . ,λn) als Diagonalelementen.

6.2.1 2-dimensionale SystemeIn 2- Dimensionalen Systemen treten zwei Falle auf:

1. Fall:Ist λ1 6= λ2

so ist T−1AT von der Form (λ1 00 λ2

)

daraus folgt:

z = T−1AT =

(λ1 00 λ2

)z (6.20)

(z1z2

)=

(λ1 00 λ2

)(z1z2

)=

(λ1z1λ2z2

)(6.21)

Gleichung (6.21) kann als Gleichungssystem mit zwei unbekannten Aufgefasst wer-den:

z1 = λ1z1

63

Page 71: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 6. DYNAMISCHE SYSTEME, STABILE VERHALTEN

z2 = λ2z2

dessen Losung uns bereits bekannt ist als

z(t) =

(C1eλ1t

C2eλ2t

)(6.22)

Fur diese Losung gibt es drei mogliche Falle:

λ1,λ2 < 0 positiver Attraktor

λ1,λ2 > 0 negativer Attraktor

λ1 > 0,λ2 < 0 Sattelpunkt

λ1 < 0,λ2 > 0 Sattelpunkt

Zeichnet man die Losungen der ersten beiden Falle in ein Koordinatensystem mit denAchsen z1,z2, erhalt man einen so genannte Knoten. Abb. 6.2 zeigt ein Beispiel einesKnoten als positiven und eines als negativen Attraktor.

Abbildung 6.2: Knoten

Ein Beispiel fur einen Sattelpunkt ist in Abb. 6.3 gezeigt. Auf den Achsen existiertjeweils ein positiver bzw. negativer Attraktor.

2.Fall:λ1,λ2 sind komplex Konjugiert also von der Form λ1,2 = µ±ωi mit µω 6= 0. Das

System kann hier gleich wie im ersten Fall gelost werden. Man erhalt eine Losung derForm

z1,2 = e(µ±ωi)t . (6.23)

Diese kann als Linearkombination von sin und cos dargestellt werden, so dass man aufdie Losungen

eµt cos(ωt) + eµt sin(ωt) (6.24)

kommt. Ist µ 6= 0, ergibt der Graph der Losungen einen Focus, der fur µ< 0 ein positiverund fur µ > 0 ein negativer Attraktor ist (Abb. 6.4). In Abb. 6.5 ist der Realteil µ = 0und man spricht von einem Zentrum.

64

Page 72: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

6.2. KRITISCHE PUNKTE

Abbildung 6.3: Sattelpunkt

MannigfaltigkeitIn Abb. 6.6 ist ein Beispiel fur Mannigfaltigkeit gegeben. Die Losungen die aus

dem 3. und 4. Quadranten laufen konnen sowohl gegen Unendlich gehen, als auchauf einen stationaren Punkt zulaufen. Das heisst aus der Umgebung kann man nurbeschrankt auf das allgemeine Verhalten schliessen.

6.2.2 3-dimensionale SystemeIn 3-dimensionalen Systemen sind entweder alle Eigenwerte λ1,λ2,λ3 reell oder einerist reell und zwei komplex. Abb. 6.7 zeigt alle moglichen Falle im Eigenwertdiagramm.

1a und 1b ergeben 3-dimensionale positive bzw. negative Attraktoren.

1c und 1d ergeben einen 3-dimensionalen Sattelpunkt (Abb. 6.8)

2a und 2b ergeben einen 3-dimensionalen Focus (Abb. 6.9)

3a und 3b ergeben negative Attraktion in die eine und positive Attraktion in die andereRichtung.

4a und 4b ergeben nur in einer Richtung positive bzw. negative Attraktion.

65

Page 73: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 6. DYNAMISCHE SYSTEME, STABILE VERHALTEN

Abbildung 6.4: FocusAbbildung 6.5: Zentrum

Abbildung 6.6: Mannigfaltigkeit

6.2.3 Nicht lineare SystemeIm Falle eines nicht linearen Differentialgleichungssystem der Form

x = Ax + g(x). (6.25)

kann das System falls

lim‖x‖→∞

=‖g(x)‖‖x‖

66

Page 74: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

6.2. KRITISCHE PUNKTE

Abbildung 6.7: Eigenwertdiagrammen

Abbildung 6.8: 3d-Sattelpunkt

Abbildung 6.9: 3d-Focus

an ein lineares System wie das aus Gleichung (6.17) bekannte

y = Ay

angenahert werden. Ausserdem konnen direkt einige Aussagen uber die Losungen ge-macht werden.

Ist x = 0 ein positiver bzw. negativer Attraktor im linearisierten System, so ist x = 0auch einer im nicht linearisierten.

x = 0 ist kein positiver Attraktor im nicht linearen System, falls der Realteil desEigenwertes λ der Matrix A positiv ist.

Ausserdem kann man sagen, dass in der Umgebung des Systems stabile und insta-bile Mannigfaltigkeit in derselben Dimension wie im linearisierten System existiert. Inx = 0 sind diese Tangential zueinander.

67

Page 75: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 6. DYNAMISCHE SYSTEME, STABILE VERHALTEN

68

Page 76: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Kapitel 7

Matrizeneigenwertaufgaben

Stefan JollerRico BolliGustav Schiefler

Zusammenfassung

Zuerst werden die Eigenschaften von Matrizeneigenwertaufgaben untersucht. Esgeht hauptsachlich um das Losen des Eigenwertproblems (Berechnung der Eigenwer-te). Man teilt das Eigenwertproblem in zwei Kategorien ein. Zum einen das partielleEigenwertproblem, wobei es um das Bestimmen einzelner Eigenwerte von Matrizengeht (i.e. mit den iterativen Verfahren). Zum anderen das vollstandige Eigenwertpro-blem, welches das Auffinden aller Eigenwerte zum Ziel hat (i.e. das Verfahren vonGerschgorin).

Im letzten Abschnitt werden Iterative Verfahren zum Losen des Eigenwertproblemsvorgestellt. Auf eine Herleitung soll in den meisten Fallen aus Platzgrunden verzichtetwerden. Vorgestellt werden zwei Folgen, welche auf der Hauptdiagonalen gegen dieEigenwerte einer Matrix konvergieren: Die LR- und die QR-Zerlegung. Beide Folgen,wie der Name schon sagt, werden durch eine QR bzw. eine LR Zerlegung erstellt. Des-weiteren werden zwei geometrische Iterative Verfahren zur Approximation des Eigen-werts vorgestellt. Dabei handelt es sich zum einen um das Bestimmen des Charakteris-tischen Polynoms nach Hyman, welcher sich die besondere Form des Hessenberg-Typszu Nutzen macht, zum anderen um das Bisektionsverfahren. Das effizienteste der Ver-fahren ist die QR-Zerlegung, auf welches auch genauer eingegangen werden soll. Dieanderen Verfahren seien eher am Rande erwahnt.

69

Page 77: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 7. MATRIZENEIGENWERTAUFGABEN

7.1 Rayleigh-QuotientBekanntlich konnen Eigenvektoren wie folgt aus den Eigenwerten berechnet werden:

(A−λI)ω = 0

Um von den Eigenvektoren auf die Eigenwerte zu kommen benotigt man den Rayleigh-Quotienten:

λ =(Aω,ω)2

‖ ω ‖2

7.2 Eigenwertproblem des char. PolynomsDas charakteristische Polynom ist wie folgt definiert:

χA(z) = det(A− zI)

wobei die Nullstellen des Polynoms die Eigenwerte der Matrix darstellen. Um die Ei-genwerte direkt erkenntlich zu machen, wird das Polynom umgeschrieben.

χA(z) =m

∏i=1

(z−λi)σi

Wobei σi die algebraische Vielfachheit von λ darstellt.Die Eigenwertberechnung des char. Polynoms bei kleinen Matrizen funktioniert oh-

ne grossere Probleme. Die Bestimmung der Eigenwerte bei grossen Matrizen (z.B.20× 20) fuhrt jedoch zu unbrauchbaren Resultaten, da bereits ein kleiner Fehler ineinem Koeffizienten des char. Polynoms die Eigenwerte stark verfalscht.

Beispiel: A ∈ K20×20 mit Eigenwerten λ j , j = 1, 2 . . . ,20

χA(z) =20

∏j=1

(z− j) = z20−210︸ ︷︷ ︸b1

z19 + · · ·+ 20!︸︷︷︸b20

Koeffizient b1 sei gestort:

b1 =−210 + 2−23∼−210,000000119

Dies entspricht einem relativen Fehler von ca. 10−10. Das gestorte Polynom χA(z) hatdann u. a. die Eigenwerte: 16,7 . . .±i2,8 . . .

Es ist nun klar, dass andere Methoden zur Bestimmung der Eigenwerte grosserMatrizen benotigt werden.

7.3 Kreise von GerschgorinDer Satz von Gerschgorin beschreibt eine Methode mit welcher naherungsweise dieEigenwerte einer Matrix bestimmt werden konnen.

K j := {z ∈C :| z− a j j︸︷︷︸Zentrum

| ≤n

∑k=i6= j

| a jk |︸ ︷︷ ︸

Radius

} , j = 1, . . . ,n

70

Page 78: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

7.4. ITERATIVE VERFAHREN

Zusatzlich wissen wir:λ von A = λ von AT

Wir konnen also sagen, dass die Eigenwerte von dem Radius der transponierten unddem der normalen Matrix eingegrenzt wird. Der Radius bildet sich jeweils aus derSumme aller Elemente einer Zeile (ohne Diagonalelement).

Beispiel:

A =

1 0.1 −0.20 2 0.4−0.2 0 3

K1 = {z ∈C :| z−1 |≤ 0.3} KT1 = {z ∈C :| z−1 |≤ 0.2}

K2 = {z ∈C :| z−2 |≤ 0.2} KT2 = {z ∈C :| z−2 |≤ 0.1}

K3 = {z ∈C :| z−3 |≤ 0.2} KT3 = {z ∈C :| z−3 |≤ 0.6}

Abbildung 7.1: Gerschgorin-Kreise zur Matrix A

Man kann also mit den Kreisen von Gerschgorin die Eigenwerte einfach einengen,jedoch nicht exakt bestimmen. Eine Ausnahme bildet die Diagonalmatrix, bei welcherder Radius der Kreise jeweils Null ist. Das heisst also, dass die Kreise zu Punktenwerden und die Diagonalelemente(=Zentren) die Eigenwerte darstellen.

7.4 Iterative VerfahrenIterative Verfahren sind Methoden um schrittweise Eigenwerte zu berechnen, ausge-hend von einem Startvektor (vgl. Reihen/Folgen).

7.4.1 PotenzmethodeDie Potenzmethode dient der Losung des partiellen Eigenwertproblems, also um einze-lene Eigenwerte zu finden (z.B. den kleinsten Eigenwert). Wir nehmen als Startvektor

z(0) ∈Cn mit ‖ z(0) ‖= 1

71

Page 79: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 7. MATRIZENEIGENWERTAUFGABEN

Dann ist die Fixpunkt-Iteration gegeben durch

z(t) = Az(t−1) z(t) =z(t)

‖ z(t) ‖Diese Methode stellt also eine Folge dar, bei welcher nach jedem Schritt normiert wird.

Eigenwert-Berechnung:

λ =(Az(t))k

z(t)k

Interessant ist naturlich zu sehen, wie schnell dieses Verfahren konvergiert (sprich wielange man rechnen muss um auf brauchbare Resltate zu kommen).

Konvergenzgeschwindigkeit:

λ(t)−λn = O(| λn−1

λn|t)

(t→ ∞)

O stellt ein Polynom eines bestimmten Grades dar, kann jedoch der Einfachheithalber als konstant angenommen werden. Die Konvergenz der Potenzmethode ist alsoumso besser, je starker λn (grosster Eigenwert) von den Anderen betragsmassig sepa-riert ist.

Fur symmetrische Matrizen gilt:

λ(t) :=(

Az(t),z(t))

‖ z(t) ‖= 1

Konvergenzgeschwindigkeit:

λ(t)−λn = O(| λn−1

λn|2t)

(t→ ∞)

Konvergenz der Eigenwertnaherung ist also bei symmetrischen Matrizen doppelt soschnell. Die Potenzmethode konvergiert jedoch schlecht falls:

| λn−1

λn|∼= 1

7.4.2 Inverse IterationDie inverse Iteration stellt eine Weiterentwicklung der Potenzmethode dar. Man gehtvon der Annahme aus, dass bereits eine gute Naherung λ von λk bekannt ist (z.B. durchKreise von Gerschgorin).

Es gilt also:

| λk−λ |�| λi−λ | i = 1,2,3, . . .n, i 6= k

Nun wendet man die Potenzmethode auf die Matrix (A−λI)−1 an. Es wird wiedervon einem Startvektor z(0) ausgegangen.

(A−λI)z(t) = z(t−1) z(t) =z(t)

‖ z(t) ‖ t = 1,2, . . .

Konvergenzgeschwindigkeit:

| λ(t)−λmin |∼=(

λmin

λ∗

)2tλ∗ = λmin+1

72

Page 80: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

7.5. ALLGEMEINES

Die inverse Iteration ist also doppelt so schnell wie die herkommliche Potenzmethode.Fazit: Falls eine gute Naherung vorhanden bekannt ist, kann fur diagonalisierbare

Matrizen jedes λ berechnet werden.

7.5 Allgemeines

Um die Eigenwerte einer Matrix zu bestimmen, transformieren wir diese in eine ein-fachere Form. Die Eigenwerte konnen aus dieser einfacheren Form dann bequemerberechnet werden.

Es ist dabei sehr hilfreich folgende Definition zu kennen: Die Matrizen A,B ∈ Rnxn

heissen ahnlich, A B, wenn es eine regulare Matrix T ∈ Rnxn gibt, so dass A = T−1BTist.

Sind namlich zwei Matrizen ahnlich, so besitzen sie das gleiche charakteristischePolynom und somit auch die gleichen Eigenwerte.

Hat man nun zwei ahnliche Matrizen, so lasst sich eine Ahnlichkeitstransformationdurchfuhren: A = A(0) = T−1

1 A(1)T1 = ... = T−1i AiTi Dies ist eine rekursive Formel,

man kann von bekannten Eigenwerten anderer ahnlicher Matrizen auf die Eigenwerteder Ausgangsmatrix schliessen.

Diese Vorgehensweise nennt man Reduktionsmethode.

7.6 Einfache Reduktionen

Als Beispiele fur einfache Reduktionen gelten die Jordansche und die Dreiecks-Normalform.Diese setzen allerdings bekannte Eigenwerte voraus. Wir wollen jedoch gerade dieseherausfinden. Dazu eignet sich beispielsweise das Householder-Verfahren.

7.7 Householder-Verfahren

Man wendet dabei eine leicht veranderte Ahnlichkeitstransformation an: A = A(0) →A1 = T−1

1 A(0)T1→ ...→ Am = T−1m A(m−1)Tm Diese Transformation ermoglicht uns die

Matrix A anhand einer Multiplikation der Transformationsmatrix und dessen Inversemit der Matrix A0 herauszufinden.

Wichtig ist, dass man eine Transformationsmatrix T mit einer guten Konditionwahlt. Ansonsten vermehrt sich ein allfalliger Fehler des Inputs.

7.7.1 Transformationsmatrizen mit einer guten Kondition

• Spiegelungen (Housholder-Transformation)

T = I−2uuT (7.1)

Die Spiegelung besitzt cond (T) = 1

73

Page 81: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 7. MATRIZENEIGENWERTAUFGABEN

• Drehungen

T =

1 0 . . . . . . . . . . . . . . . . . . . . . 0

0. . . 0 . . . . . . . . . . . . . . . . . . 0

0 . . . 1 . . . . . . . . . . . . . . . . . . 00 . . . cosϕ . . . . . . −sinϕ . . . 00 . . . . . . . . . 1 . . . . . . . . . . . . 0

0 . . . . . . . . . . . .. . . . . . . . . . . . 0

0 . . . . . . . . . . . . . . . 1 . . . . . . 00 . . . sinϕ . . . . . . cosϕ . . . 0

0 . . . . . . . . . . . . . . . . . . . . .. . . 0

0 . . . . . . . . . . . . . . . . . . . . . . . . 1

Die Drehung besitzt cond (T) = 1

• Eliminationen

T =

1 0 . . . . . . . . . 0

0. . . 0 . . . . . . 0

0 . . . 1 0 . . . 0

0 . . . li+1,i. . . 0 0

0 . . .... 0

. . . 00 . . . ln,i 0 0 1

Die Elimination besitzt cond (T)≤ 4

Damit kann man folgenden Satz anwenden:Satz: Zu jeder Matrix A ∈ Rn×n existiert eine Folge von Householder-Matrizen

Ti, i = 1, ...,n−2, so dass TAT eine Hessenberg Matrix ist. Symmetrien bleiben erhal-ten.

Eine Hessenberg-Matrix ist aufgrund ihrer Form fur das Berechnen der Eigenwertebesonders bequem. Eine Hessenberg-Matrix hat folgende Gestalt:

A =

ℵ ℵ ℵ ℵℵ ℵ ℵ ℵ0 ℵ ℵ ℵ0 0 ℵ ℵ

ℵ signalisiert dabei, dass eine beliebige Zahl vorkommen kann.Das Householder-Verfahren ist sehr nutzlich, weil symmetrische Matrize ihre Sym-

metrie nicht verlieren. Allerdings sind viele Operationen notwendig um eine Hessenberg-Matrix zu erhalten. Eine Methode, wo nur halb so viele Operationen notig sind, Sym-metrien jedoch verloren gehen, ist die Mehode von Wilkinson.

7.8 Die Methode von WilkinsonDabei fuhrt man eine Ahnlichkeitstransformation mit Permutations- und Eliminations-matrizen durch. Ai = T−1

i A(i−1)Ti wobei Ti = PpiqiEpi

74

Page 82: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

7.9. ITERATIVE VERFAHREN: EIGENWERTPROBLEM

I = Ppq =

1 0 . . .0 1 . . .... . . .

. . .

In der Permutationsmatrix konnen die p-te mit der q-ten Zeile, sowie die p-te mitder q-ten Spalte vertauscht werden.

Ep−1 =

1 0 . . . . . . . . . 0

0. . . 0 . . . . . . 0

0 . . . 1 0 . . . 0

0 . . . lp+1,p. . . 0 0

0 . . .... 0

. . . 00 . . . ln,p 0 0 1

So kann man folgenden Satz formulieren:

Satz 7.1. Zu jeder Matrix A ∈ Rn×n existiert eine Folge von Permutations- und Elimi-nationsmatrizen Pi+1,qiEi, i = 1, ...,n−2, so dass T−1AT mit T = P2,q1E1, ...,Pn−1,qn−2En−2eine Hessenberg-Matrix ist.

Es gibt dabei eine klare Vorgehensweise:

• Bestimmen des Pivotelementes in der 1. Spalte: |ap11|= max j=2,...,n∣∣a j1

∣∣

• Vertauschen der 2− ten mit der p1− ten Zeile sowie der 2− ten mit der p1− tenSpalte: A := P2p1AP2p1

• Multiplikation mit inverser Eliminationsmatrix: A := E−11 A

Nach n-2 Durchgangen befindet sich die Ausgangsmatrix in Hessenberg-Form.

7.9 Iterative Verfahren zum losen des Eigenwertpro-blems von Hessenberg- und Tridiagonalmatrizen:

Einfuhrung

Es gibt drei nennenswerte Verfahren um die Eigenwerte einer Hessenbergmatrize (H)zu bestimmem:

1. LR-Zerlegung: Bei dieser Methode wird mit Hilfe der LR-Zerlegung eine Folgeerstellt, die der Vorschrift,

Hn = Ln ∗Rn (7.2)

Hn+1 = Rn ∗Ln = Ln+1 ∗Rn+1 (7.3)

genugt. Daraus folgt sogleich:

Hn+1 = (Ln)−1 ∗Hn ∗Ln = (Ln)−1 ∗ (Ln ∗Rn)∗Ln (7.4)

Die so ertsellte Folge konvergiert auf der Hauptdiagonalen gegen die Eigenwerteder Matrix H. Auf einen Beweiss wird an dieser Stelle verzichtet, und auch spaternicht eingegangen, da diese Methode einen massives Problem hat: Es gibt nichtimmer eine passende LR Zerlegung!

75

Page 83: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 7. MATRIZENEIGENWERTAUFGABEN

2. QR-Zerlegung: Analog zu LR Zerlegung wird auch hier eine Folge erstellt, beiwelcher die Elemente auf der Hauptdiagonalen gegen die Eigenwerte konvergie-ren. Die Vorschrifft ist sehr ahnlich zu der der LR Zerlegung und lautet:

Hn = Qn ∗Rn (7.5)

Hn+1 = Rn ∗Qn = Qn+1 ∗Rn+1 (7.6)

Hn+1 = (Qn)T ∗Hn ∗Qn = (Qn)T ∗ (Qn ∗Rn)∗Qn (7.7)

Q ist hierbei eine unitare, orthogonale Matrize und R eine obere Dreiecksmatrize.Hintergrund dieser Methode ist die immer mogliche QR Zerlegung. Diese Zerle-gung kann mit Hilfe des an voriger Stelle erwahntem Householder−Ver f ahrenserfolgen. Es sei desweiteren an dieser Stelle darauf hingewiesen, dass fur einesolche Rechnung Programme wie MATLAB oder Mathematica notig sind! Aufdiese Methode wird, inklusive Herleitungen, im Folgenden ausfuhrlicher einge-gangen werden.

3. Bestimmung des charakteristischen Polynoms und Bisektinsverfahren: Das nachdem Mathematiker Hyman (1957) benannte Verfagren zur Bestimmung des cha-rakteristischen Polynoms, pa = det |A− zI|= 0, wird vorgestellt, ebenso wie dasBisektionsverfaheren. Bei beiden Methoden wird auf eine Herleitug verzichtet,sie werden lediglich kurz vorgestellt.

Die QR Zerlegung

Um die Konvergenz nachzuvollziehen, und ihre Eigenschaften zu verstehen, brauchenwir eine Reihe von Satzen und Lemmas zum Teil mit Beweis:

1. Konvergenzlemma: Es seien E t ∈ Rn∗n,t ∈ N, regulare Matrizen mit lim E t = Iund Et = Qt Rt zugehorige QR Zerlegung. Dann gilt notwendiger Weise,

Limt→∞Qt = I = Limt→∞Rt (7.8)

Beweis: Da gilt∥∥Et − I

∥∥2 =

∥∥Qt Rt −Qt(Qt)T∥∥2 =

∥∥Rt − (Qt)T∥∥2→ 0 (7.9)

konvergiert qtjk→ 0(t→ ∞), j ≤ k. Dies erzwigt wegen

I = Qt(Qt)T (7.10)

notwendiger Weise:

qtj j→±1,qt

jk→ 0(t→ ∞), j ≥ k (7.11)

Also konvergiert Qt → diag(±1)(t→ ∞). Wegen

Qt ∗Rt = Et → I(t→ ∞),r j j ≥ 0 (7.12)

ist also Limt→∞Qt = I . Dann ist aber auch:

Limt→∞Rt = Limt→∞(Qt)T Et = I (7.13)

76

Page 84: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

7.9. ITERATIVE VERFAHREN: EIGENWERTPROBLEM

2. QR-Algorithmus: Die Eigenwerte der Matrix A ∈ Rn∗nseien betragsmassig sepa-riert: |λ1 | ≥ |λ2 | ≥ . . .≥ |λn |. Dann gilt fur die durch das QR-Verfahren erzeugtenMatrizen At = (at

jk) j,k=1,...,n:

{Limt→∞(at

j j), j = 1, . . . ,n}

= {λ1 . . .λn} (7.14)

Auf den Beweis soll an dieser Stelle zwar nicht genauer eingegangen werden,doch es ist zu erwahnen, dass es zu dieser Regel eine Ausnahme gibt. DieseAusnahme beruht auf einem Aspekt des Beweises. So muss die inverse MatrixW (−1) eine LR Zerlegung besitzen. Dabei ist die Matrix W = [ω1, · · · ,ωn] undωi sind die normierten Eigenvektoren zum Betrag 1. Falls dies der Fall ist, er-scheinen die Eigenwerte nicht mehr bertagsmassig der Grosse nach separiert.

3. Konvergenzgeschwindigkeit: Die Geschwindigkeits bestimmende Grossen desQR-Verfahrens sind die Eigenwerte selbst. Es gilt:

∣∣∣∣λ j

λk

∣∣∣∣≤ 1, j ≥ k, (7.15)

Daraus folgt, dass die Folge um so schneller konvergiert, desto mehr die spezifi-schen Eigenwerte betragsmassig von einander separiert sind. Fur positiv definiteMatrizen kann sogar gezeigt werden, dass das QR-Verfahren doppelt so schnellkonvergiert wie das LR-Verfahren; es benotigt jedoch pro Itterationsschritt auchetwa doppelt so viele Operationen.

4. Invarianzsatz: Ist A eine Hessenberg-Matrize (oder eine symmetrische Bandma-trix der Bandbreite 2m+1), so gilt dasselbe fr alle vom QR-Algorithmus erzeug-ten Matrizen At . Dies ist von Interesse, da der Hessenberg-Typ eine relativ ein-fahe Form hat, welche in der Rechnung erhalten werden muss, um den Aufwandakzeptabel zu halten.

Verfahren von Hyman zur Bestimmung des charakteristischen Polynoms

Mit dem Vefahren von Hyman kann das charakteristische Polynom einer Hessenberg-Matrix A ∈ Rn∗n berechnet werden. Eine Vorraussetzung ist, dass A nicht in zweiTeilmatrizen vom Hessenberg-Typ zerfallt, d.h.: a j+1, j 6= 0, j = 1, . . . ,n−1. Mit einernoch zu wahlenden Funktion c(z) wird folgendes Gleichungssystem einer Hessenberg-Matrix betrachtet:

(a11− z)x1 + a12x2 + · · ·+ a1,n−1xn−1 + a1nxn =−c(z) (7.16)a21x1 + (a22− z)x2 + · · ·+ a2,n−1xn−1 + a2nxn = 0 (7.17)

... (7.18)an,n−1xn−1 + (ann− z)xn = 0 (7.19)

Wenn xn = 1 gesetzt wird, knen xn−1, . . . ,x1 und c(z) sukzessive bestimmt werden. Ausder Carmenschen Regel folgt:

1 = xn =(−1)nc(z)a21a32 · · ·an,n−1

det |A− zI| (7.20)

77

Page 85: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 7. MATRIZENEIGENWERTAUFGABEN

Daraus folgt unweigerlich:

c(z) = konst.∗det(A− zI) (7.21)

Sofort ersichtlich ist, dass c(z) die gleichen Nullstellen hat wie das charakteristischePolynom pa. So erhalt man nun eine rekursive Formel zur Bestimmung des pa(z).

Bisektionsverfahren

Mittels einer sogenanten Sturmschenkette kann eine Funktion N(ξ) erstellt werden.N(ξ) gibt grade die Anzahl der Nullstellen (λ) des charakteristischen Polynoms pa, furwelche gilt: λ≤ ξ Fur die Eigenwerte λi von einer Matrize A gilt also:

λi ≤ ξ⇔ N(ξ) ≥ i (7.22)

Auf eine Herleitung wird verzichtet, es sei doch am Rande erwahnt, dass es sich beieiner Sturmschenkette um eine Folge stetiger Funktionen handelt. Die Funktion vonN(ξ) ist sehr nutzlich fr die Bestimmung der Eigenwerte, da wir mit den an fruhrerStelle erwahnten gerschgorinschen Kreisen die Eigenwerte auf einen Bereich eingren-zen konnen. In diesen Bereich kann man sich nun sukzessive mit dem dazugehigemN(ξ) den Eigenwerten (Nullstellen von pa) nahren. Dies passiert durch das standigehalbieren des Bereiches. Nach jedem Teilen konnen die Teilbereiche auf die AnzahlNullstellen, die sie enthalten, mit N(ξ) hin untersucht werden. Mit dieser Methodenahrt man sich den Eigenwerten standig an. Es ist zu empfehlen stets den niedrigerenTeilbereich zu betrachten, bis man keine Nullstellen in ihn mehr findet, und sich dannsukzessive hoch zu arbeiten. Auf diesem Wege kann man einem Eigenwert nach demAnderen bestimmen.

78

Page 86: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Kapitel 8

Quadratische Formen

Janina BischofChristina PecnikRaphael Zimmermann

8.1 Einfuhrung in Ellipsen, Parabeln und Hyperbeln

8.1.1 EllipsenDie charakteristische Gleichung einer Ellipse lautet:

x2

a2 +y2

b2 = 1 (8.1)

Dabei sind a und b die Hauptachsen der Ellipse; x und y sind die jeweiligen Koordina-ten. Die nachste geometrische Eigenschaft sind die Brennpunkte F und F ′. Der NameBrennpunkt kommt daher, dass jeder von F ausgehende Lichtstrahl an der Ellipse soreflektiert wird, dass er danach durch F ′ geht, und umgekehrt (siehe 8.1): Mit demBrennpunktsabstand c werden die Brennpunkte mit

F = (c,0) und F ′ = (−c,0) (8.2)

Abbildung 8.1: Brennpunkte

79

Page 87: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 8. QUADRATISCHE FORMEN

beschrieben. Der Brennpunktsabstand c ist wie folgt definiert:

c =√

a2−b2 (8.3)

Betrachten wir einen Punkt p auf der Ellipse, der die Koordinaten (x, y) hat, so gilt

d(p,F) + d(p,F ′) = 2 ·a . (8.4)

Die Gleichung 8.4 gilt fur alle Punkte der Ellipse. Desweiteren entspricht die Notationd(. . . , . . .) dem Abstand zwischen zwei Punkten. Die Abbildung 8.2 stellt die Ellipsemit ihren einzelnen Eigenschaften graphisch dar.

Abbildung 8.2:

8.1.2 Beweis fur Gleichung 8.4 :

Man drucke die Abstande durch x,y und c aus, wobei der Pythagorassatz beim Abstandzwischen zwei Punkten angewendet wird.

√(x− c)2 + y2 +

√(x + c)2 + y2 = 2 ·a (8.5)

Durch doppelte Quadrierung, Ausklammerung und Umformung erhalt man am Schlussdie charakteristische Ellipsengleichung 8.1. Neben dem Brennpunktsabstand ist dieExzentrizitat e eine wichtige Eigenschaft der Ellipse. Sie ist auch ein Mass fur dieAbweichung der Ellipse vom Kreis.

e =ca

mit 0≤ e< 1 (8.6)

80

Page 88: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

8.1. EINFUHRUNG IN ELLIPSEN, PARABELN UND HYPERBELN

Abbildung 8.3: Brennpunkte

Im Speziallfall, wo e = 0 ist, entsteht ein Kreis. Mit dem Begriff Leitlinie bezeichnetman die beiden Parallelen zur Nebenachse im Abstand d = ± a2

c . Ausserdem gilt furjeden Punkt p auf der Ellipse mit der Leitlinie L

e =d(p,F)

d(p,L), (8.7)

wobei diese Aussage nicht fur den Kreis anwendbar ist. Da die Leitlinie des Kreisesunendlich weit weg ist, fallt der Brennpunkt mit den Mittelpunkt des Kreises zusam-men. Man betrachte die untere Abbildung 8.3. Beweis fur Gleichung 8.7 : Man setzeentsprechende Variabelausdrucke fur die Distanzen ein:

(x− c)2 + y2

a2

c−x2

=c2

a2 (8.8)

Durch Quadrierung und Umformung der Gleichung 8.8 erhalt man erneut die Ellipsen-gleichung 8.1.

8.1.3 ParabelnEine Parabel ist die Menge aller Punkte p, deren Abstand zu einem festen Punkt, demBrennpunkt F , und einer Geraden, der Leitlinie L, gleich ist. Dabei fluchtet der zweiteBrennpunkt F ′ ins Unendliche. Der Punkt, welcher genau in der Mitte zwischen Brenn-punkt F und Leitlinie L ist und sich auf der Parabel befindet, nennt man ScheitelpunktS. Die Exzentrizitat ist dabei stets 1. Die Abstandsbedingung lautet fur die Parabel(siehe Abbildung 8.4):

d(p,F) = d(p,L) (8.9)

Durch Umrechnung von Gleichung 8.9 erhalt man die Parabelgleichung 8.10:

81

Page 89: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 8. QUADRATISCHE FORMEN

Abbildung 8.4: Parabelexzentrizitat

Abbildung 8.5: Reflektionseigenschaft

y2 = 4cx (8.10)

Die Parabel, welche als Grenzfall der Ellipse zu betrachten ist, hat die Reflexionsei-genschaft, dass jeder aus dem Brennpunkt F ausgehende Lichstrahl so reflektiert wird,dass nach der Reflexion die Strahlen parallel zueinander sind (siehe Abbildung 8.5).

8.1.4 HyperbelnEine Hyperbel ist eine Kurve, welche aus zwei zueinander symmetrischen, sich insUnendliche streckenden Asten, die auch Asymptoten genannt werden, besteht. Sie istdefiniert als die Menge aller Punkte p, fur die die Differenz der Abstande zu zweigegebenen Punkten, hier die beiden Brennpunkte F und F ′, konstant gleich 2a ist.Man betrachte dazu Abbildung 8.6.

∣∣d(p,F)−d(p,F ′)∣∣= 2a (8.11)

82

Page 90: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

8.2. EBENE SCHNITTE EINES KREISKEGELS

Abbildung 8.6: Hyperbel

Desweiteren ist die Exzentrizitat grosser als 1. So gilt hier die Abstandbedingung:

d(p,F)

d(p,L)= e , (8.12)

wobei die Leitlinie mit x = a2

c definiert ist. Die Brennpunkte bleiben in ihrer bisherigenDefinition bestehen. Fur einen Punkt p auf der Hyperbel ergibt sich durch Einsetzenseiner Koordinaten p = (x,y) in die Abstandsbedingung 8.12 die Hyperbelgleichung

x2

a2 −y2

b2 = 1 (8.13)

Eine weitere charakteristische Gleichung bzw. eine Naherung fur die Hyperbel ist, furgrosse |x|:

y =±ba

√x2−a2 (8.14)

8.2 Ebene Schnitte eines Kreiskegels

8.2.1 Schnittkurven und -ebenen

Betrachten wir im dreidimensionalen Raum einen Kreiskegel mit seiner charakteristi-schen Gleichung

C ={

(x,y,z) ∈ R3 : x2 + y2 = z2} . (8.15)

Drehen wir den Kegel um einen Winkel ϕ mit der y - Achse als Drehachse, so erhaltenwir eine neue Kreiskegelgleichung im neuen Koordinatensystem (x, y, z):

C ={

(x, y, z) ∈ R3 : x2 + y2 = z2} . (8.16)

83

Page 91: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 8. QUADRATISCHE FORMEN

Abbildung 8.7: Kegelschnitt

Die einzelnen, neuen Koordinaten kann man durch Gleichungen mit (x,y,z) - Koordi-naten, also des alten Koordinatensystems, beschreiben:

x = (cosϕ) · x + (sinϕ) · z (8.17)y = y (8.18)z = (−sinϕ) · x + (cosϕ) · z , (8.19)

wobei hier die Drehung in Abhangigkeit des Winkels ϕ dargestellt wird. y = y bleibt un-verandert, da die y-Achse der Drehachse entspricht. Setzen wir die Gleichungen 8.17,8.18 und 8.19 in 8.16 ein, so erhalten wir die gedrehte Kreiskegelgleichung ausgedrucktdurch (x,y,z):

(cos2 ϕ− sin2 ϕ) · x2 + (4 · cosϕ · sinϕ) · x · z + y2 = (cos2 ϕ− sin2 ϕ) · z2 (8.20)

Wird nun der Kreiskegel von einer Ebene bei z = 1 geschnitten, so erhalten wir dieneue Funktion:

(cos2 ϕ− sin2 ϕ) · x2 + (4 · cosϕ · sinϕ) · x · z + y2 = (cos2 ϕ− sin2 ϕ) (8.21)

Die graphische Darstellung dieser mathematischen Ausdrucke ist in Abbildung 8.7 er-sichtlich: Diese Funktion ist charakteristisch fur den sogenannten Kegelschnitt. Je nachWahl des Winkels ϕ (im Bezug auf die y - Achse), unterscheiden wir drei verschiedeneSchnittkurven:

0 ≤ ϕ≤ π4

ϕ ∈[π

4

]

π4≤ ϕ≤ π

2(8.22)

84

Page 92: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

8.2. EBENE SCHNITTE EINES KREISKEGELS

Abbildung 8.8: Kegelschnitte

In 8.22 ergibt sich eine Ellipse, wobei beim Speziallfall ϕ = 0 ein Kreis entsteht. EineParabel erhalten wir, wenn man den Winkel gemass 8.22 wahlt, eine Hyperbel folglichgemass 8.22 (siehe Abbildung 8.8).

Speziell fur die Hyperbel ist hier ein genauerer Kegelschnitt mit Koordinatensystemin Abbildung 8.9 dargestellt. Beweis fur Gleichung 8.22: Fur ϕ = 0 (8.22) erhalten wireingesetzt in 8.21 mit Umformung die Gleichung

y2 =−2x , (8.23)

was genau der Parabelgleichung mit c =− 12 entspricht.

Abbildung 8.9: Kegelschnitt Hyperbel

85

Page 93: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 8. QUADRATISCHE FORMEN

Abbildung 8.10: Dandelische Kugeln

8.2.2 Dandelinsche Kugeln

Eine dandelinsche Kugel (nach Germinal Pierre Dandelin) ist ein geometrisches Hilfs-mittel zum Nachweis der Eigenschaften von Kegelschnitten. Wird ein Kegel von einerEbene geschnitten, so ergibt sich als Schnittfigur ein Kegelschnitt. Man kann dann, jenach Lage der Ebene, eine oder zwei Kugeln finden, die sowohl die Schnittebene alsauch den Kegel von innen beruhren. Dies wird in der nachstehenden Abbildung 8.10 aneinem Beispiel gezeigt: K und K ′ sind die beiden Beruhrkreise zwischen den Kugeln Sund S′ und dem Kegel; F und F ′ sind die Beruhrpunkte zwischen den Kugeln und derSchnittebene E. Damit lasst sich folgende geometrische Uberlegung anstellen: es seip ein beliebiger Punkt auf dem Kegelschnitt, hier eine Ellipse. m sei die Mantellinie,die vom Kegelscheitel G durch p gezogen wird. m trifft die beiden Beruhrkreise in denPunkten q und q′. Folglich gelten die Abstandsbedingungen:

d(p,q) = d(p,F) undd(p,q′) = d(p,F ′) (8.24)

Ausserdem gilt:

d(p,F) + d(p,F ′) = d(q,q′) (8.25)

Die Menge aller Punkte, die von zwei festen Punkten F und F ′ die gleiche Abstandss-umme besitzen, ist aber gerade die Ellipse mit den Brennpunkten F und F ′. Damit istbewiesen, dass der Kegelschnitt eine Ellipse ist, und folglich beruhren die dandelin-schen Kugeln S und S′ die Schnittebene in den Brennpunkten dieser Ellipse.

86

Page 94: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

8.3. BRENNPUNKTSGLEICHUNGEN

Abbildung 8.11:

8.3 BrennpunktsgleichungenHier spielen die fur die Ellipse charakteristischen Begriffe wie Exzentrizitat oder Leit-linie eine wichtige Rolle. Der Grund fur die Bedeutsamkeit der Brennpunktsgleichungliegt daran, dass sie die Schlusselformel fur die Vorhersage von Sternenorten in derAstronomie ist. Hierzu verwendet man zwei Parameter (vergleiche dazu Abbildung8.11):

• Exzentrizitat e⇒ Verhaltnis zwischen Brennpunktsabstand c und Hauptachse a

• Abstand s⇒ Abstand zwischen Brennpunkt F und Leitlinie L

Die entsprechenden Verhaltnisse sind wie folgt gegeben:

e =ca

und

s =b2

c(8.26)

Betrachten wir als Beispiel eine Ellipse, so gilt:

a =e · s

1− e2 und

b =e · s√1− e2

(8.27)

Beweis fur Gleichung 8.27

Fur die Ellipse gelten die Gleichungen 8.26, 8.26 und c2 = a2− b2. Die Exzentrizitatist definiert in den Grenzen 0< e< 1. Man setze gegebene Variabeln entsprechend ein

87

Page 95: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 8. QUADRATISCHE FORMEN

und forme um:

e2 =c2

a2 =a2−b2

a2 =a2− s · c

a2 (8.28)

e2 ·a2 = a2− s · ce2 ·a2−a2 = −s · c

a2 · (e2−1) = −s · ca2 =

s · c1− e2

a2 =s · e ·a1− e2

a =e · s

1− e2 (8.27)

Als zweites Bespiel betrachten wir eine Hyperbel. Fur sie gelten die selben Gleichun-gen wie im Beispiel bei der Ellipse. Jedoch ist die Exzentrizitat mit e > 1 anders de-finiert. Fur die Hauptachsen erhalten wir (Umformung analog zum vorherigen Beweisfur 8.27):

a =e · s

e2−1und

b =e · s√e2−1

Betrachtet man den Nenner in 8.29 und 8.29, so erscheint die Definition der Exzentri-zitat logisch; e darf nie kleiner 1 sein, da sonst das Wurzelziehen nicht gewahrleistetwird. Setzt man fur die Abstandsbedingung 8.7 den Punkt p = (x,y) ein, so erhalt mandie Brennpunktsgleichung:

x2 · (1− e2)−2 · e2 · s · x + y2 = e2 · s2 (8.29)

Die verschiedenen Typen der Kegelschnitte werden von dieser Gleichung bestimmt.Genauer betrachtet beeinflusst der Wert der Exzentrizitat e den Typ eines Kegelschnitts.Fur verschiedene e gibt es drei Schnittgebilde:

0< e< 1 : Ellipse (8.30)e = : Parabel (8.31)

e> 1 : Hyperbel (8.32)

In der Abbildung 8.12 sind verschiedene Schnittgebilde abhangig von der Wahl derExzentrizitat aufgezeichnet.

8.4 Klassifizierung der MatrizenZuerst ist die Definition der Quadrik bzw. einer quadratischen Form notig, um das Fol-gende besser verstehen zu konnen. Als Quadrik bezeichnet man in der linearen Algebraspezielle Polynomfunktionen zweiten Grades mit mehreren Variablen. In Abhangigkeitder Anzahl der Variablen beschreiben diese Funktionen Kurven oder Flachen zweiterOrdnung. Mathematisch ausgedruckt ist eine Quadrik eine Teilmenge Q⊂ Rn. Es exis-tiert ein quadratisches Polynom mit der Gleichung:

Q = {(x1, · · · ,xn) ∈ Rn : P(x1, · · · ,xn) = 0} (8.33)

88

Page 96: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

8.4. KLASSIFIZIERUNG DER MATRIZEN

Abbildung 8.12:

Da Berechnungen mit Quadriken erheblich leichter durch Matrizen erfolgen konnen(siehe Kapitel 5 uber Vereinfachung der Quadrikgleichung mittels Koordinatentrans-formation), so definiert man eine Quadrik auch durch Matrizen:

Q ={

x = (x1, · · · ,xn)t ∈ Rn : x′t ·A′ · x′ = 0}

(8.34)

Die Matrizen A′ und x′ heissen erweiterte Matrizen, die wie folgt definiert sind:

A′ =

a00 a01 . . . a0na10 a11 . . . . . .

......

......

a0n . . . . . . ann

und

x′ =

1x1. . .xn

Man bemerkt, dass die Matrix A ist in A′ enthalten ist. Die Matrix A′ wird durch dieNotation aii = αi j und ai j = a ji = 1/2 ·αi j mit i < j bestimmt, wobei αi j die Koef-fizienten eines Polynoms, hier P von der Quadrikgleichung 8.33, sind. Gehen wir einBeispiel fur die Quadrikgleichung

Q ={

(x1,x2) ∈ Rn : x21 + 2 · x2 = 0

}(8.35)

durch. Durch eine geeignete Wahl von Koordinaten (siehe spater in Kapitel 5) wird diequadratische Gleichung in 8.35 transformiert, ausgedruckt durch y1 und y2:

y1 = 2 · x1 + 3 · x2 + 1 · x0 (8.36)y2 = 5 · x1 + 1 · x2 + 0 · x0 (8.37)

89

Page 97: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 8. QUADRATISCHE FORMEN

Lost man die Gleichungen 8.36 und 8.37 einzeln nach x1 und x2 auf, so erhalt man:

x1 = − 113

(1 · y1−3 · y2−1 · y0) (8.38)

x2 = − 113

(−5 · y1 + 2 · y2 + 5 · y0) (8.39)

Setzt man x1 und x2 mit 8.38 und 8.39 in die Polynomgleichung von 8.33 ein undmultipliziert mit dem Faktor 169, so erhalt man eine neue quadratische Gleichung, diewiederum eine Quadrik beschreibt.

y21 + 9 · y2

2−6 · y1 · y2 + 128 · y1−46 · y2−129 · y0 = 0 (8.40)

Weitere wichtige Matrizen zur Quadrikberechung, die in ihrer Bedeutung in Kapitel 5naher erklart werden:

b =

b1. . .bn

y =

y1. . .yn

y′ =

1y1. . .yn

S′ =

1 0 . . . 0b1. . . Sbn

T′ =

1 0 . . . 0

−S−1 ·b T

Folgende Matrixmultiplikationen sind fur das weitere Kapitel von Bedeutung:

y′ = S′ · x′ (8.41)

T = S−1 (8.42)

x′ = T ′ · y′ (8.43)

Zusammenfassend mit der Quadrikgleichung 8.34 gilt:

x′t ·A′ · x′ = y′t · (T ′t ·A′ ·T ′) · y′ (8.44)

90

Page 98: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

8.5. UMFORMEN DER QUADRIKGLEICHUNG MITTELSKOORDINATENTRANSFORMATION

8.5 Umformen der Quadrikgleichung mittels Koordi-natentransformation

Das Ziel ist die Quadrikgleichung mittels Koordinatentransformation auf eine beson-ders einfache Form zu bringen. Man geht folglich vor:

1. Beseitigung der gemischten Terme

2. Reduktion der linearen Terme

Ein Beispiel:

x21 + x1x2 + x4 + · · · = 0

−→ y21 + y2

2 + 2y1 + 3y4 · · · = 0

Die letztere Gleichung entspricht der Hauptachsenform. In der Matrizenform bringtman die Matrix A′ mit den Elementen {1,−1} in die Diagonalform (Matrix B′):

A′ =

a00 a01 . . . a0na10 a11 . . . . . .

......

......

a0n . . . . . . ann

B′ =

±1 0 . . . 00 ±1 . . . . . ....

......

...0 . . . . . . ±1

8.5.1 Beseitigung der gemischten Terme

Gegeben sei eine Quadrik Q ⊂ Rn. Man ubersetze die Quadrikgleichung in die MatrixA′. Der Orthogonalisierungssatz lautet:

tT1 ·A ·T1 =

Ek 0 00 −Em−k 00 0 0

Dabei ist m der Rang von A und 2k−m = SignA. T ′1 ist wie folgt definiert:

T′1 =

1 0 . . . 00... T10

91

Page 99: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 8. QUADRATISCHE FORMEN

Desweiteren folgt:

T′1 =

c00 c01 . . . . . . . . . . . . . . . . . . . . . c0nc10 1

. . .. . . . . . . . .

. . . 1

. . . −1

. . . . . .. . . . . .

. . . −1

. . . 0

. . . . . . . . .. . .

c0n 0

Damit hat man eine Quadrikgleichung beispielsweise der Form:

y21 + y2

2 + 2y1 + 3y4 · · ·= 0 (8.45)

Allgemein ausgedrckt:

y21 + . . .+ y2

k− y2k+1− . . .− y2

m + 2 · (c01y1 + . . .+ c0nyn) + c00 = 0 (8.46)

8.5.2 Reduktion der linearen TermeFur

T′2 =

1 0 . . . . . . . . . . . . . . . . . . 0−c01 1. . . 1−ck0 . . .ck+1,0 . . .. . . . . .cm0 . . .0 10 1

ist

B′2 =

d00 0 . . . . . . . . . . . . 0 c0,m+1 . . . c0n0 1. . . . . .. . . 1 0. . . −1. . . . . .0 −1

cm+1,0. . . 0 0cn0

mit B′2=t T1 ·B′1 ·T ′2=tT2 ·t T1 ·A′ ·T ′1 ·T ′2 . Somit hat die Quadrikgleichung folgende Form:

w21 + . . .+ w2

k−w2k+1− . . .−w2

m + 2 · (cm+1,0wm+1 + . . .+ cn0wn0) + d00 = 0 (8.47)

Man macht folgende Fallunterscheidung:

92

Page 100: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

8.5. UMFORMEN DER QUADRIKGLEICHUNG MITTELSKOORDINATENTRANSFORMATION

1. c = d = 0

2. c = 0, d 6= 0

3. mindestens ein c 6= 0

Daraus folgt:

1. w21 + . . .+ w2

k−w2k+1− . . .−w2

m = 0

2. durch Transformation w−ρ · y und ρ =√−d00, wobei d < 0

Anders ausgedruckt durch

T′3 =

1 0 0ρ

0 ρ 0ρ

0 0 0

und ρ ·B′3 =t T3 ·t T ′2 ·t T ′1 ·A′ ·T ′1 ·T ′2 ·T ′3 erhalt man

B′ =

−1 0 . . . 00 +1

. . .+1

−1. . . . . .

−10

. . .0 0

odery2

1 + . . .+ y2k− y2

k+1− . . .− y2m = 1 (8.48)

3. Setze 2 · (ccm+1,0wm+1 + . . .+ cn0wn0) + d00 = ym+1, so erhalt man:

B′ =

0 0 . . . . . . 0 1 . . . 00 +1

. . .. . . +1 0. . . −1

. . .0 −11. . . 0 00

odery2

1 + . . .+ y2k− y2

k+1− . . .− y2m + 2ym+1 = 0 (8.49)

93

Page 101: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 8. QUADRATISCHE FORMEN

8.5.3 Schematische RechnungIm Folgenden wird hier ein einfacher Weg die Transformation durchzufuhren anhandeines Beispiels aufgezeigt:

Die Regeln lauten dabei:

• Zeilenoperation: Mitte : von links mit Qab(c) Rechts: von rechts mit Qb

a(c)Links: von links mit Qb

a(c)

• Spaltenoperationen: Mitte : von links mit Sb(c) Rechts: von rechts mit Sb(c)Links: von links mit Sb( 1

c )

Q(c) ist eine quadratische Matrix mit c in der a-ten Spalten und b-ten Zeile, und 1 aufder Diagonalen, sonst 0.S(c) ist eine quadratische Matrix mit c in der b-ten Spalte und a-ten Zeile, und 1 aufder Diagonalen, sonst 0.Mit y′ = S′ · x′ wird die Koordinatentransformation beschrieben. Ein Beispiel:

x21 + 3x2

2 + 9x23 + 4x1xx + 2x1x3 + 10x2x3−2x3 = 2 (8.50)

Die Gleichung wird tranformiert zu:

y21 + y2

2− y33 = 1 (8.51)

94

Page 102: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Kapitel 9

Gruppentheorie undAnwendungen in derKristallographie

Christoph BruhinPedro NevesPatrick Itten

Zusammenfassung

Die Gruppentheorie findet Anwendungen unter anderem in der Physik und im speziel-len in der Kristallographie. Mithilfe der Gruppentheorie konnen komplizierte Symme-trien in Kristallen kompakt und reproduzierbar festgelegt werden.

Dieses Kapitel soll eine Einfuhrung in die Gruppentheorie darstellen. Zu Beginnwerden die vier Gruppenaxiome vorgestellt. Weiter soll gezeigt werden, was kommuta-tive oder abelsche Gruppen sind, was eine Untergruppe, die Ordnung und eine Grup-pentafel sind. Abschliessend werden einige spezielle Gruppen ganz kurz vorgestellt.

95

Page 103: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 9. GRUPPENTHEORIE UND ANWENDUNGEN IN DERKRISTALLOGRAPHIE

9.1 Gruppentheorie

9.1.1 Definition1

Es seien:

• G eine nichtleere Menge

• ◦ : G◦G→ G eine Operation

Man nennt (G,◦) eine Gruppe, wenn die folgenden Axiome gelten:

• Geschlossenheit:p◦q = r ∈ G (9.1)

fur alle p,q ∈ G Verknupft man zwei Elemente aus G, so entsteht wieder einElement in G

• Assoziativgesetz:(pq)r = p(qr) (9.2)

fur alle p,q,r ∈ G Es spielt keine Rolle, welche Verknupfung zuerst vorgenom-men wird. Die Reihenfolge der Elemente darf aber nicht in jedem Fall verandertwerden. Die Eigenschaft der Assoziativitat ist meistens am schwersten zu bewei-sen.

• Einselement: Es existiert ein e ∈ G, so dass gilt:

ep = pe = p (9.3)

fur alle p ∈ G Das Einselement lasst alle anderen Elemente von G invariant.

• Inverselement:

Fur jedes p ∈ G existiert ein p−1 ∈ G, so dass gilt:

pp−1 = p−1 p = e (9.4)

Ein Element hebt sich mit seinem Inverselement verknupft zum Einselement auf.

Beispiele:

1. Die Menge aller ganzen Zahlen Z, uber die Addition:

• Die Gruppe ist geschlossen (9.1): ◦ : Z+Z→ Z• Das Assoziativgesetz (9.2) ist erfullt: (p + q) + r = p + (q + r)

• Das Einselement (9.3) ist: e = 0

• Das Inverselement (9.4) zu q ist: q−1 =−q

2. Die Menge aller rationalen Zahlen ohne Null R∗, uber die Multiplikation:

• Die Gruppe ist geschlossen (9.1): ◦ : R ·R→ R• Das Assoziativgesetz (9.2) ist erfullt: (p ·q) · r = p · (q · r)

1S. Sternberg Group theory and physics, Cambridge University Press, Cambridge, 1997.

96

Page 104: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

9.1. GRUPPENTHEORIE

• Das Einselement (9.3) ist: e = 1• Das Inverselement (9.4) zu q ist: q−1 = 1/q

3. Die Menge der folgenden (2×2)-Matrizen mit Matrixmultiplikation:

e =

(1 00 1

)a =

(0 −11 0

)b =

(−1 00 −1

)c =

(0 1−1 0

)

Beispiel fur die Matrixmultiplikation:

ac =

(0 −11 0

)(0 1−1 0

)=

(1 00 1

)= e

• Die Gruppe ist geschlossen (9.1):– Es gilt: ◦ : R2×R2→ R2

– Es bleibt zu beweisen, dass diese vier Matrizen eine abgeschlosseneGruppe sind. Wir werden dies hier noch nicht tun und werden das Bei-spiel spater nochmals aufgreifen, wenn die Gruppentafel eingefuhrtist.

• Das Assoziativgesetz (9.2) ist erfullt: (p×q)× r = p× (q× r)

• Das Einselement (9.3) ist: e =

(1 00 1

)

• Das Inverselement (9.4)von jedem Element ist seine Matrixinverse

a−1 =

(0 −11 0

)−1

=

(0 1−1 0

)= c

9.1.2 Eindeutigkeit2

Es soll uberpruft werden, ob das Eins- und das Inverselement eindeutig sind.

• Ist G, zusammen mit der Verknupfung◦, eine Gruppe, so ist das neutrale Elementeindeutig. Wahlt man irgendein Element e′ von G, so dass

e′ ◦g = g ∀g ∈ G

so ist insbesonderee′ ◦ e = e

Andererseits ist nach (9.3)e′ ◦ e = e′

Wenn wir also irgendein Element e′ ∈ G wahlen, und dieses Element als Eins-element betrachten, so ist immer e′ = e.

• Ist G, zusammen mit der Verknupfung ◦ , eine Gruppe, so ist das inverse Elementeines jeden Elements g ∈ G eindeutig.Ist namlich g′ ∈ G, so dass

g′ ◦g = e

so istg′ = g′ ◦ e = g′ ◦ (g◦g−1) = (g′ ◦g)◦g−1 = e◦g−1 = g−1.

Wenn wir also irgendein Element g′ ∈ G wahlen, und dieses Element als Inversevon g betrachten, so ist immer g′ = g−1.

2Horst Knorrer Geometrie, Aufbaukurs Mathematik, vieweg & Sohn Verlagsgesellschaft mbH, Braun-schweig, Wiesbaden, 1996.

97

Page 105: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 9. GRUPPENTHEORIE UND ANWENDUNGEN IN DERKRISTALLOGRAPHIE

9.1.3 Ordnung2

Es sei G, zusammen mit der Verknupfung ◦, eine Gruppe.Die Anzahl der Elemente von G heisst die Ordnung von G. Sie kann endlich oder

unendlich sein. Wir bezeichnen sie mit |G|.

Beispiel:

Die Gruppe aus Beispiel 3 besteht aus vier Elementen. Ihre Ordnung |G| ist vier.

9.1.4 Die Kommutative oder Abelsche Gruppe2

Die Gruppe heisst kommutativ oder abelsch, falls

g◦h = h◦g ∀g,h ∈ G. (9.5)

Beispiel:

Die Gruppe aus Beispiel 1 ist kommutativ oder abelsch.Es gilt:

a + b = b + a ∀a,b ∈ R

9.1.5 Untergruppen2

Eine Teilmenge H von G heisst Untergruppe von G, falls

e ∈ H

g◦h∈ H ∀g,h ∈ H

g−1 ∈ H ∀g ∈ H (9.6)

Beispiel:

Nimmt man aus der Gruppe von Beispiel 2 alle negativen Zahlen weg, erhalt man eineUntergruppe H.

e = 1 ∈ H

g ·h∈ H ∀g,h ∈ H

g−1 = 1/g ∈ H ∀g ∈ H

9.1.6 Die GruppentafelIst G, zusammen mit der Verknupfung ◦, eine Gruppe endlicher Ordnung, so codiertman die Rechenregeln in der Gruppe manchmal folgendermassen:

◦ e = g1 g2 g3 · · · gi · · · gne = g1 g1 g2 g3 · · · gi · · · gn

g2 g2 g2 ◦g2 g2 ◦g3 · · · g2 ◦g j · · · g2 ◦gng3 g3 g3 ◦g2 g3 ◦g3 · · · g3 ◦g j · · · g3 ◦gn...

......

.... . .

.... . .

...gi gi gi ◦g2 gi ◦g3 · · · gi ◦g j · · · gi ◦gn...

......

.... . .

.... . .

...gn gn gn ◦g2 gn ◦g3 · · · gn ◦g j · · · gn ◦gn

98

Page 106: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

9.1. GRUPPENTHEORIE

Dieses Schema nennt man Gruppentafel.

Beispiel:

Fur die Gruppe aus Beispiel 3 ergibt sich folgende Gruppentafel:

◦ e a b ce e◦ e e◦a e◦b e◦ ca a◦ e a◦a a◦b a◦ cb b◦ e b◦a b◦b b◦ cc c◦ e c◦a c◦b c◦ c

||

◦ e a b ce e a b ca a b c eb b c e ac c e a b

Man sieht, dass die Ordnung der Gruppe vier ist und die Gruppentafel symmetrisch zurDiagonalen ist. Es handelt sich also um eine abelsche Gruppe (9.5).

9.1.7 Die Operation einer Gruppe auf eine Menge1

Definition

Sei G eine Gruppe und M eine Menge. a,b ∈ G und m ∈MEine Operation von G auf M ist eine Abbildung G×M→M.Es gilt:

a(bm) = (ab)m

und:em = m

∀ a,b ∈ G und m ∈M

Wir wenden die Gruppe auf einen beliebigen Punkt m der Menge M an. Es entstehteine Untermenge von M die alle Punkte der Form

am a = {g1,g2, ...,gn}

beinhaltet.Diese Untermenge von M heisst Orbit von m unter der Operation von G auf M. Er

wird mit G ·m bezeichnet.

G ·m = {am|a ∈ G,m ∈M}

In der Kristallographie nennt man die Anzahl der Elemente im Orbit die Zahligkeiteiner Punktlage m.

99

Page 107: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 9. GRUPPENTHEORIE UND ANWENDUNGEN IN DERKRISTALLOGRAPHIE

Beispiel

Wir betrachten die Gruppe D3 und die Menge M aller Punkte, welche auf einem gleich-schenkligen Dreieck mit Mittelpunkt im Ursprung liegen.

• Lassen wir alle Symmetrieelemente von D3 auf einen Punkt allgemeiner Lage mwirken, so entsteht eine Untermenge D3 ·m, die aus sechs Elementen besteht.

Neben Punkten allgemeiner Lage existieren auch spezielle Lagen.

• Ist s ein Eckpunkt oder ein Mittelpunkt einer Dreiecksseite, so ergibt sich einOrbit von s unter D3, welcher lediglich aus drei Punkten besteht. Alle Punktedieses Orbits sind invariant bezuglich der drei Spiegelebenen.

• Sei f der Mittelpunkt des Dreiecks. Der Orbit von f unter D3 besteht nur auseinem Punkt. f wird immer auf sich selbst abgebildet. Man sagt auch, f istsymmetrie-invariant.

Die Menge aller Punkte, die unter der Operation invariant bleiben nennt manauch die isotropische Menge.

9.1.8 Spezielle Gruppen

Rotationsgruppen Cn

Die Rotationsgruppen werden mit dem Symbol C bezeichnet. Die nachfolgende, tief-gestellte Zahl gibt die Ordnung der Gruppe an.

• C1 ist also die triviale Rotationsgruppe. Sie besteht nur aus dem Einheitselemente, bzw. aus der Rotation um 2π.

• C2 ist die Rotationsymmetrie um π.

• C3 beschreibt die Rotationssymmetrie eines gleichseitigen Dreiecks. Die gesam-te Symmetrie eines gleichschenkligen Dreiecks ware D3, welche Drehungen undSpiegelungen enthalt.

• Cn beschreibt die Rotationssymmetrie des regelmassigen n-eckigen Polygons.Die Gruppe enthalt die Identitat und alle Rotationen um:

2kπ/n k = (1,2,3, ...,n−1)

Wiederum ware die gesamte Symmetrie des n-eckigen Polygons Dn. Diese Grup-pe enthalt die n Drehungen von Cn plus n Spiegelebenen. Diese Spiegelebenenentstehen aus einer einzigen Spiegelebene, die dann durch die Rotationssymme-trie ver-n-facht wird.

• C∞ ist die Rotationssymmetrie des Kreises. Sie enthalt alle Drehungen um jedenbeliebigen Winkel φ ∈ {0,2π}

100

Page 108: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

9.1. GRUPPENTHEORIE

Permutationsgruppen Sn

Definition: (i1, i2, i3, ..., im)∈ Sn mit m≤ n und i j 6= ik fur j 6= k ist die Abbildung, die i1auf i2, i2 auf i3,... im−1 auf im und im auf i1 abbildet und alle anderen Elemente invariantlasst. Eine solche Abbildung heisst ein Zykel.

Als Beispiel betrachten wir die Gruppen S1, S2, S3, S4 und S5.Die Buchstaben i, j,k, l,m bezeichnen im weiteren verschiedene Elemente der Men-

gen {1, . . . ,n}.

• S1 ist die triviale Rotationsgruppe mit dem einzigen Element: {e}

• S2 besteht aus den Elementen: {e,(12)}

• S3 besitzt die Elemente: {e,(12),(13),(23),(123),(132)}(12) vertauscht die Elemente 1 und 2, lsst 3 aber invariant.

(123) vertauscht 1 zu 2, 2 zu 3 und 3 zu 1.

(132) vertauscht 1 zu 3, 3 zu 2 und 2 zu 1.

Es bestehen drei Moglichkeiten fr S(1). Ist S(1) einmal festgelegt, bleiben nochzwei weitere Moglichkeiten fr S(2). Danach bleib noch eine Moglichkeit fr S(3).

Wir sehen, dass S3 3 ·2 ·1 = 6 Elemente enthalt. |S3|= 6

• S4 besitzt folglich 4 ·3 ·2 ·1 = 24 Elemente. |S4|= 24

Diese setzen sich zusammen aus:

e = 1Anzahl Elemente dieser Gestalt (i j) = 10

(i j) = 6(i jk) = 8(i j)(kl) = 3(i jkl) = 6

Wendet man S4 beispielsweise auf die Eckpunkte eines Quadrates an, erhalt manalle Vertauschungen von Eckpunkten.

D4 ist die Symmetriegruppe des Quadrates. Sie enthalt alle Permutationen vonEckpunkten, ausser jene, die zur Folge haben, dass zum Beispiel Ecke A nichtmehr durch eine Kante mit Ecke B verbunden ist. D4 bildet also eine Untergruppevon S4. |D4|= 8

C4 ist die Rotationssymmetrie des Quadrates. Sie enthalt alle Permutationen vonEckpunkten, die die Reihenfolge der Ecken A, B, C und D beziehungsweiseden Drehsinn nicht andern. C4 ist eine Untergruppe von D4 und somit auch eineUntergruppe von S4. |C4|= 4

• S5 besitzt 5 ·4 ·3 ·2 ·1 = 120 Elemente. |S5|= 120

101

Page 109: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 9. GRUPPENTHEORIE UND ANWENDUNGEN IN DERKRISTALLOGRAPHIE

Diese setzen sich zusammen aus:

e = 1Anzahl Elemente dieser Gestalt (i j) = 10

(i jk) = 20(i j)(kl) = 15(i jk)(lm) = 20(i jkl) = 30(i jklm) = 24

Spezielle Lineare und Generelle Lineare Gruppe SL und GL

Mit SL(2,R) bezeichnet man die Menge aller reellen (2×2)-Matrizen A, deren Deter-minante detA = 1 ist, uber der Matrixmultiplikation.

• Die Matrixmultiplikation ist assoziativ.

• Geschlossenheit:

Es gilt: detAB = detA ·detB

• Einselement:

Es gilt: AIn = A

• Inverselement:

Es existiert ein Inverselement A−1 mit AA−1 = In, da detA 6= 0

Das Inverselement liegt ebenfalls in G, weil gilt: detA = 1/detA−1

Dabei unterscheidet man zwischen:

• SL(n,R) Reelle spezielle lineare Gruppe in n-Unbekannten

Menge aller (n×n)-Matrizen mit Determinante detA = 1

• GL(n,R) Reelle generelle lineare Gruppe in n-Unbekannten

Menge aller (n×n)-Matrizen mit Determinante detA 6= 0

Diese Gruppen beschreiben Skalierungen und Verzerrungen. SL(n,R) verandert dabeidie Grossenordnung nicht. Das heisst fur n = 2 bleibt die Flache, fur n = 3 das Volumeneiner Figur konstant.

(Verwendung unter anderem bei inkompressiblen Flussigkeiten)

Orthogonale und spezielle orthogonale Gruppe

Die Gruppe O(3) ist die Gruppe aller orthogonalen Transformationen im dreidimen-sionalen Raum, die die euklidische Distanz nicht verandern. Es muss gelten:

||Av||= ||v||

fur alle Vektoren v im dreidimensionalen Raum.Wahlen wir eine orthonormale Basis so ist A eine orthogonale Transformation nur

dann wenn gilt:AAT = e <=> AT = A−1

102

Page 110: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

9.2. LINEARE ABBILDUNG→ HOMOMORPHISMUS

Die MengeOn = {A ∈Mn×n(R)|AAT = AT A = I}

bildet eine Gruppe. Es lasst sich einfach zeigen, dass jede orthogonale TransformationA die Determinante detA =±1 hat.

Stellt man die zusatzliche Bedingung, dass detA = +1 ist, so erhalt man eine Un-tergruppe von O(3). Wir nennen diese SO(3)

9.1.9 Zusammenfassung

• Eine Gruppe besteht aus einer Menge und einer Operation

• Eine Gruppe erfullt die Gruppenaxiome

• Eine Gruppe ist geschlossen. Es entstehen also nie Elemente, die nicht in dieGruppe gehoren.

• Kommutative Gruppen haben eine symmetrische Gruppentafel

• Die Ordnung einer Untergruppe ist immer ein ganzzahliges Vielfaches der Ord-nung der Gruppe

• Wendet man die Gruppe G auf einen Punkt m ∈M, so entsteht eine UntermengeM′ von M. Diese Untermenge M′ nennt man den Orbit von m unter der Operationvon G.

• Weiss man, dass eine Menge unter einer bestimmten Operation eine Gruppebildet, so kann man direkt viele Aussagen uber die Menge machen. Die Tat-sache, dass eine Menge eine Gruppe bildet, kann man sich vorstellen wie einengeschutzten Rahmen. Ganz gleich, was man dann an der Gruppe dreht und macht,sie bleibt stets sich selbst.

9.2 Lineare Abbildung→ Homomorphismus

Wir betrachten 2 Vektorraume V und W . Dazu benotigen wir noch eine Abbildung f ,fur die gilt: f : V →W. Unter einem Homomorphismus zwischen zwei Gruppen G undH versteht man die Abbildung f : G→ H, die die Gruppenoperation respektiert, d.h.,es ist

f (gh) = f (g) f (h) f uer alle g,h ∈ G.

9.2.1 Allgemeine Definition

Seien V und W Vektorraume uber R. Eine Abbildung f : V →W heisst linear oder einHomomorphismus, wenn:

f (x + y) = f (x) + f (y) oder f (λ∗ x) = λ∗ f (x)

fur alle x,y ∈V und λ ∈ R.

103

Page 111: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 9. GRUPPENTHEORIE UND ANWENDUNGEN IN DERKRISTALLOGRAPHIE

9.2.2 Mehrere lineare Abbildungen

Falls wir mehrere lineare Abbildungen anwenden, zum Beispiel V →W → Y mit f :V →W und g : W → Y gilt:

Vf∗g→ Y, wobei f ∗g = f (g(x)) ist.

9.3 Die verschiedenen Morphismen

Man unterscheidet folgende Morphismen:

• Monomorphismus: lin. Abbildung ist injektiv

• Epimorphismus: lin. Abbildung ist surjektiv

• Isomorphismus: lin. Abbildung ist bijektiv

• Endomorphismus: lin. Abbildung mit V = W

• Automorphismus: lin. Abbildung ist bijektiv und V = W

9.3.1 Zur Erinnerung

• Injektiv bedeutet, dass die Abbildung f : V →W keine 2 Elemente von X aufdem selben Element von Y abbildet.

• Surjekiv bedeutet, dass jedes Element y ∈ Y ein f (x) ist.

• Bijektiv bedeutet, die Abbildung ist sowohl injektiv als auch surjektiv.

9.4 Kern und Bild

9.4.1 Definition

Sei f : V →W eine lineare Abbildung, dann ist das Bild von f die Abbildung allerElemente und der Kern von f alle Elemente die auf 0 abgebildet werden. Die lineareAbbildung ist genau dann injektiv, wenn der Kern f = {0}, denn f (x) = f (y) bedeutetper Definition: 0=x-y ∈ Kern f . Fur diejenigen die den Ausdruck lieber mathematischvorliegen haben gilt:

Kern f = {v ∈V | f (x) = 0}Bild f : f = f (v)

9.4.2 Bemerkung

Ist f : V →W ein Isomorphismus, so ist auch f−1 : V →W ein Isomorphismus.

104

Page 112: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

9.5. BASEN DES ISOMORPHISMUS

Beweis

f−1 ist bijektiv, weil f ein Isomorphismus und damit bijektiv ist. Aber wir mussennoch zeigen, dass f−1 auch linear ist. Wir nehmen also 2 Elemente w und w′ aus W .Diese konnen wir auch als f (v) = w und f (v′) = w′ schreiben. Nun gilt es zu zeigen,dass die allgemeine Definition f (x+y) = f (x)+ f (y) oder f (λ∗x) = λ∗ f (x) auch furf−1 gilt.

⇒ f−1(w + w′) = f−1( f (v) + f (v′)) = f−1( f (v + v′)) = v + v′ = f−1(w) + f−1(w′)

analog:

f−1(λ∗w) = f−1(λ∗ f (v)) = f−1( f (λ∗V )) = λ∗ v = λ∗ f−1(w)

Wir sehen also, dass f−1(w + w′) = f−1(w) + f−1(w′) ist. Auf die selbe Weise lasstsich auch zeigen, dass f−1(λ ∗w) = λ ∗ f−1(w) ist. Damit ist die Linearitat von f−1

bewiesen.

q.e.d.

9.5 Basen des IsomorphismusWir betrachten 2 Vektorraume V und W ber R. Wobei (v1, ...,vn) eine Basis von V ist.Fur jeden Vektor (w1, ...,wn) in W gibt es genau eine lineare Abbildung f : V →W mitf (wi) = wi, i=1,..., n.

9.5.1 BeweisZuerst beweisen wir die Eindeutigkeit (=”es gibt hochstens ein“) und dann die Existenz(=”es gibt ein“) dieser Aussage.

Eindeutigkeit

f und f ′ : V →W mit f ′(vi) = f (vi) = wi, i=1,..., n. Jedes v ∈ V lasst sich als v =(λ1 ∗ v1, ...,λn ∗ vn), λi ∈ R (= Linearkombination) schreiben:

f (v) = f (λ1 ∗ v1 + ...+ λn∗ vn)

f (v) = λ1 ∗ f (v1) + ...+ λn∗ f (vn)

f (v) = λ1 ∗w1 + ...+ λn ∗wn

f (v) = λ1 ∗ f ′(v1) + ...+ λn∗ f ′(vn)

f (v) = f ′(λ1 ∗ v1 + ...+ λn∗ vn)

Es gilt also f (v) = f ′(v) fur alle v ∈V , d.h. f = f ′

Existenz

v = (λ1∗v1, ...,λn ∗vn). Wir definieren f (v) = (λ1 ∗w1, ...,λn ∗wn). Da sich jedes v∈Vnur auf eine Weise als Linearkombination der Basisvektoren schreiben lasst, ist da-durch wirklich eine Abbildung f : V →W definiert. Offenbar ist f linear und hat dieEigenschaft f (vi) = wi, i=1,...,n.

105

Page 113: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 9. GRUPPENTHEORIE UND ANWENDUNGEN IN DERKRISTALLOGRAPHIE

Abbildung 9.1: 3 Wachstumsformen der selben Kristallart

9.5.2 FazitWir konnen also sagen, dass wenn V und W Vektorraume uber R sind und (v1, ...,vn)eine Basis von V ist, dann handelt es sich bei einer Abbildung f : V →W genau dannum einen Isomorphismus, wenn ( f (v1), ..., f (vn)) eine Basis von W ist.

9.6 Zusammenfassung• Der Homomorphismus muss die Gruppenoperation respektieren.

• Fur die Linearitat gilt: f (x+y) = f (x)+ f (y) oder f (λ∗x) = λ∗ f (x), mit x,y∈Vund λ ∈ R.

• Eine lineare Abbildung ist genau dann injektiv und damit ein Isomorphismus,wenn der Kern f = {0} ist.

• Ist ( f (v1), ..., f (vn)) mit vi ∈ V eine Basis von W , dann handelt es sich bei derAbbildung von V nach W um einen Isomorphismus.

9.7 Symmetriegruppen in der Kristallographie

9.7.1 EinleitungWenn man Einkristalle einer bestimmten Zusammensetzung zuchtet, bilden die Atomeimmer dieselben Verknupfungsstrukturen. Die Wachstumsbedingungen des Kristallsmussen dabei aber naturlich gleich oder ahnlich sein. Wenn nun das Wachstum desEinkristalls abgebrochen wird, hat das Kristall eine zufallige Wachstumsform (Habi-tus). Dieses Einkristall kann sich nun in der Wachstumsform von anderen Einkristallen,derselben Zusammensetzung, unterscheiden. (siehe Abb.9.1)

Die Grosse der Grenzflachen kann bei jedem Einkristall variieren. Was aber bei je-dem Einkristall derselben Kristallart gleich ist, sind die Winkel zwischen den entspre-chenden Grenzflachen! Und damit ist auch die Symmetrie derselben Kristallart immergleich! Somit reicht es nur die Flachennormalen anzugeben, um eine Kristallform zubeschreiben. (siehe Abb.9.2)

106

Page 114: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

9.8. STEREOGRAPHISCHE PROJEKTION

Abbildung 9.2: links: Kristallform ; rechts: Flachennormalen mit Miller-Index angege-ben

Wir haben diese Flachennormalen unter den Namen Miller-Index kennen gelernt.

9.8 Stereographische Projektion

Die geeignetste Art der graphischen Darstellung einer Kristallform (oder auch ihresSymmetriegerusts), ist die stereographische Projektion. Diese ist winkel- und kreistreu,d.h. man erhalt keine verzerrte Abbildung. (siehe Abb. 9.3)

9.8.1 Wie erstellt man eine stereographische Projektion?

• Zuerst legt man eine Kugel konzentrisch um das Kristall. In den Durchstosspunk-ten der Flachennormalen mit der Kugeloberflache erhalt man die Flachenpole.

• Dann verbindet man die Flachenpole der Nordhemisphare mit dem Sudpol. Um-gekehrt auch die der Sudhemisphare mit dem Nordpol. Die Projektion der Flachen-pole langs der Verbindungslinien auf die Aquatorialebene ist dann unsere stereo-graphische Projektion.

Ebenso kann man mit den Durchstosspunkten von Drehachsen oder den Schnittkreisenvon Spiegelebenen verfahren. Dann erhalt man die stereographische Projektion desSymmetriegerusts. Was man dabei beachten muss, ist, dass die Achse mit der grosstenSymmetrie senkrecht auf der Projektionsebene liegen soll.

Nehmen wir mal ein einfacheren Einkristall und zeichnen die dazugehorende ste-reographische Projektion dazu: (siehe Abb. 9.4)

Das ist eine ditetragonale Pyramide. Was bei der Orientierung wichtig ist, dass die4-zahlige Drehachse senkrecht zur Projektion steht.

107

Page 115: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 9. GRUPPENTHEORIE UND ANWENDUNGEN IN DERKRISTALLOGRAPHIE

Abbildung 9.3: Stereographische Projektion

Abbildung 9.4: Einkristall mit stereographische Projektion des Symmetriegerusts

108

Page 116: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

9.9. SYMMETRIEGRUPPEN

9.9 SymmetriegruppenWas hat das alles jetzt aber mit der Gruppentheorie zu tun? Diese stereographischenProjektionen beschreiben eben auch die kristallographischen Punktgruppen. Diese Sym-metriegruppen sind auch mathematische Gruppen, deren Elemente Symmetrieoperatio-nen sind. Unter Symmetrieoperationen sind z.B. Drehung oder Spiegelung gemeint.

9.9.1 Beispiel: Punktgruppe 4mmZahlt man die Symmetrieelemente auf, so kommt man auf 8:

• Namlich eine 4-zahlige Achse mit den Elementen:

41(90◦−Drehung), 42(180◦−Drehung),43(270◦−Drehung), 1(360◦−Drehung)

• Und 4 Spiegelebenen: mx, my, mxy, myx

Auch hier kann man dann die 4 Axiome nachprufen:

1. Pruft man die Geschlossenheit, indem man die Gruppentafel erstellt:

4mm 1 41 42 43 mx m m m1 1 41 42 43 mx my mxy myx41 41 42 43 1 mxy myx my mx42 42 43 1 41 my mx myx mxy43 43 1 41 42 myx mxy mx mymx mx mxy my myx 1 42 43 41

m my myx mx mxy 42 1 41 43

m mxy my myx mx 43 41 1 42

m myx mx mxy my 41 43 42 1

Wie man sehen kann, entstehen keine neuen Symmetrieelemente. Die Gruppe istgeschlossen.

2. Das Assoziativ-Gesetz gilt hier.

3. Das Einselement (Rotation um 360◦) ist hier vorhanden.

4. Das inverse Element ist auch vorhanden. Dies erkennt man daran, dass in jederZeile und Spalte die Identitat einmal vorkommt.

Beispiel: Wenn man nun das inverse Element der 90◦−Drehung sucht, geht mander Zeile entlang und schaut beiwelchem Element die Identitat vorkommt.

Diese Gruppe ist sogar eine Abelsche, da es egal ist, welches Element zuerst angewen-det wird. Dies erkennt man auch daran, dass die Gruppentafel symmetrisch ist.

9.9.2 Untergruppen:Wie auch in Mathematik gibt es auch in der Kristallographie Untergruppen.

Definition: Untergruppen sind Teilmengen einer Gruppe, die die Gruppenaxiomefur die gleiche Verknupfungsregel erfullt.

109

Page 117: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 9. GRUPPENTHEORIE UND ANWENDUNGEN IN DERKRISTALLOGRAPHIE

Abbildung 9.5: kristallographische Gruppen

Beispiel: Punktgruppe 4

Diese hat die Ordnung 4. Namlich die 4-zahlige Achse. Allgemein gilt, dass Unter-gruppen nur ganzzahlige Teiler der Obergruppenordnung als Ordnung haben konnen.(siehe Abb. 9.5)

In einer Gruppentafel einer Obergruppe, ist auch immer die Gruppentafel der Un-tergruppe zu finden.

4 1 41 42 43 − − − −1 1 41 42 43 − − − −41 41 42 43 1 − − − −42 42 43 1 41 − − − −43 43 1 41 42 − − − −− − − − − − − − −− − − − − − − − −− − − − − − − − −− − − − − − − − −

9.10 Kristallographie vs. MathematikWas dem Mathematiker evtl. zu schaffen macht, wenn er die kristallographischen Sym-metriegruppen betrachtet, ist die Tatsache, dass es in der Kristallographie zum Beispiel3 Symmetriegruppen der Ordnung Zwei gibt: 2, m und 1. In der Mathematik gibt esnamlich nur eine Gruppe der Ordnung Zwei. Die Erklarung dafur ist, dass diese Sym-metriegruppen gruppentechnisch gleich sind. Wenn man die Gruppentafel der OrdnungZwei zeichnet, erhalt man dies hier:

110

Page 118: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

9.11. QUELLENANGABEN

e ae e aa a e

Da es in der Gruppe ein inverses Element braucht und in einer Spalte (bzw. Zeile)ein Element nur einmal vorkommen darf, ist das die einzige Kombinationsmoglich-keit. In der Kristallographie kann das a nun 2, m oder 1 sein, weil das geometrischunterschiedliche Operationen sind.

9.11 QuellenangabenAbbildung 4 stammt auswww.univ-lemans.fr/enseignements/physique/02/cristallo/atlas.pdf.Alle anderen Bilder die hier verwendet wurden, wurden aus der Kristallographie-Vor-lesung von W. Steurer aus dem Wintersemester 04/05 entnommen.

111

Page 119: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 9. GRUPPENTHEORIE UND ANWENDUNGEN IN DERKRISTALLOGRAPHIE

112

Page 120: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Kapitel 10

Klassische MechanikAndreSprecher, PierrickPretat

Zusammenfassung

In diesem Kapitel wird versucht die Klassische Mechanik auf dem Gerust der Geome-trie und Symmetrie aufzubauen und zu erklaren. In dem ersten Teil werden fur physi-kalisch angepasste Behandlung der Begriffe Raum, Zeit und die euklidische Geometrieaus affiner Sicht eingefuhrt. In einem zweiten Teil wird dann gezeigt, dass eine adaqua-te mathematische Formulierung des Relativitatsprinzip zu einer geometrische Strukturfuhrt, zur Galilei-Raumzeit. Nach der Erlauterung des Raumbegriffes in der Klassi-schen Mechanik wird ein einfaches Modell vorgestellt, welches erlaubt, die Wirkungvon Kraften der Klassischen Mechanik mathematisch zu beschreiben. Die folgendeBegriffe : Konfigurationsraum, Phasenraum und Bewegungsgleichungen werden alsoeingefuhrt.

113

Page 121: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 10. KLASSISCHE MECHANIK

10.1 Klassische Mechanik

10.1.1 Affiner RaumDefinition 10.1. Vereinigt man nun die Menge A an Punkten, mit der Translations-gruppe mit der Abbildung φ : V ×A−→ A so erhalt man den affinen Raum A.

Abbildung 10.1: Punkte des affinen Raumes

Jedoch mussen folgende Eigenschaften erfullt sein:

1. (v + w) + a = v + (w + a) und 0 + a = a

2. v + a = 0−→ v = 0

3. Es gibt z ∈V mit z + a = b (V wirkt transitiv und ist eindeutig bestimmt)

unter der Dimension des affinen Raumes A versteht man die Dimension von V .

10.1.2 GeradeEine Gerade G wird durch zwei nicht zusammenfallende Punkte bestimmt, a und baus A =⇒ G = {t(b−a) + a|t ∈ R}. Es wird angenommen das V endlichdimensionalist, dadurch kann mit der Punkt Menge A, dem Vektorraum V und der Abbildung φden affinen Raum in ein affines Koordinatensystem fuhren. Dazu muss man die Basen(v1,v2,v3, . . . ,vn) wobei n ∈ R und enlich ist und einen ursprung 0 ∈ A festlegen. Sokann man jeden Punkt b ∈ A des affinen Raumes einen eindeutig bestimmten Vektorv ∈ V mit v + 0 = 0 + v = b und eindeutig bestimmte Zahlen qν ∈ R mit b = 0 + qνvνwobei qνvν = ∑n

v=1 qνvν zu ordnen.

10.1.3 Einsteinsche SummenkonventionEine wichtige Anwendung findet diese pseudoeuklidische Metrik in der speziellen Re-lativitatstheorie. Die vierdimensionale Mannigfaltigkeit wird hier durch das vierdimen-

114

Page 122: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

10.1. KLASSISCHE MECHANIK

Abbildung 10.2: Translationsgruppe

sionale Raum-Zeit-Kontinuum mit den Koordinaten gebildet (x,y,z = raumliche Koor-dinaten, t = Zeitkoordinate).

a11x1 +a12x2 + . . . +a1nxn = b1a21x1 +a22x2 + . . . +a2nxn = b2

......

an1x1 +an2x2 + . . . +annxn = bn

=⇒ A→x =→b=⇒

n

∑j=1

ai jx j = bi wobei i, j = 1,2, . . . ,n.

10.1.4 Langen und WinkelEinzig die Erschaffung eines Raumes genugt nicht, um den physikalischen Raum zubeschreiben. Wir konnen zum Beispiel noch keine langen und Winkel beschreiben.Einem euklidisch affinen Raum E mit Vektorraum V und Wirkung φ : V ×E −→ Ewird das Euklidische Skalarprodukt auf dem Vektorraum V eingefuhrt. Es lasst sich

der Abstand d(a,b) zweier Punkte a und b aus E als d(a,b) =

√⟨~ab, ~ab

⟩definieren.

10.1.5 Kartesische Koordinaten eines euklidischen Raumesum kartesische Koordinaten eines euklidischen Raumes zu erzeugen fixiert man 0 ∈ Eals ursprung und wahlt die Orthonormalbasen eν,1 ≤ ν ≤ µ = dimV bezuglich desSkalarprodukt auf V :

⟨eν,eµ

⟩= δνµ aus.

10.1.6 Relativitatsprinzip von GalileiZwei kartesische Koordinatensysteme lassen sich anhand ihres ursprungs und Ortho-normalbasen vergleichen.

115

Page 123: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 10. KLASSISCHE MECHANIK

Abbildung 10.3: Zwei zueinander verschobene kartesische Koordinatensystem

q′= R(t)Q + z(t)

wobei R(t)q die Rotation beschreibt und z(t) die Translation.

1. Falls R und z konstant sind, heisst dass die Bezugsysteme in Ruhe zueinandersind.

2. Falls R konstant und z affin von t abhangt z(t) = tv + w, heisst dass das Bezug-system nicht beschleunigt ist.

Sind die zwei Bedingungen erfullt, handelt es sich um ein Inertialsystem.

Definition 10.2 (Inertialsystem). Ein Inertialsystem lasst sich kennzeichnen dadurch,dass die bahnen von drei vom gleichen Punkt des Raumes aus nach linear unabhangigRichtungen fortgeschleudert und dann sich selbst uberlassenen Massenpunkt geradli-nig in diesem Bezugsystem velaufen.

10.1.7 Galilei RaumzeitAls Standardmodell fur eine Galilei-Raumzeit kann M = R4 als affiner Raum dienen,auf dem der Vektorraum V =R4 als Gruppe von Translationen wirkt. Die Zeitfunktion∆ = R3 ×R als die Projektion auf die letzte Koordinate : ∆(q, t) ∈ V , und als dasSkalarprodukt wird das ubliche Skalarprodukt aufR3 genommen, unubertrage es direktauf Vo = R3×{0}. Das Standardmodell einer Galilei-Raumzeit mit V = R4 uber derZeitachse R und einer Bewegung (“Weltlinie”) eines Massenpunktes (b(t), t), skizziertals Kurve in R3×R.

116

Page 124: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

10.2. EINFACHE KLASSISCHE SYSTEME

Abbildung 10.4: Galilei-Raumzeit

10.2 Einfache Klassische SystemeDefinition 10.3 (Einfaches Klassisches System). Ein einfaches klassisches Systemist ein System zweiter Ordnung, in welchem die Relativitatstheorie von Einstein nichtberucksichtigt wird.

Das Ziel dieses Abschnitts ist es, ein einfaches Modell, um die Wirkung von Kraftender klassischen Mechanik zu beschreiben und vorzustellen.Die folgenden Bebriffe werden also eingefuhrt : Konfigurationsraum, Phasenraum undBewegungsgleichungen.

10.2.1 KonfigurationsraumDefinition 10.4 (konfigurationsraum). Ein Konfigurationsraum ist eine offene unter-menge Q ⊂ Rn, die als der Raum der Ortskoordinaten q = (q1,q2, ...,qn),q ⊂ Q auf-gefasst wird. Q wird Ortsraum, Lageraum, oder Konfigurationsraum des klassischenSystems genannt und gibt die kinematisch moglichen Lagen des Systems an.

10.2.2 BeispieleSei Q einen Konfigurationsraum, Q ⊂ R2k, mit einem System von K Massenpunkten: P1, P2, . . . , Pk. Die Ortskoordinaten sind also q = (q1,q2,q3, . . . ,q2k) ; d.h. zweiKoordinaten sind notwendig, um die Lage eines Massenpunktes zu bestimmen. Dieerhaltenen Punkte sind :

P1 = (q1,q2)

P2 = (q3,q4)

. . .

117

Page 125: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 10. KLASSISCHE MECHANIK

Pk = (q2k−1,q2k)

Sei Q einen Konfigurationsraum, Q ⊂ R3x41, mit einem System von 41 Massenpunk-ten : P1, P2, . . . , P41. Die Ortskoordinaten sind also q = (q1,q2,q3, . . . ,q3x41); Dieerhaltenen Punkte sind :

P1 = (q1,q2,q3)

P2 = (q4,q5,q6)

. . .

P41 = (q121,q122,q123)

Sei Q einen Konfigurationsraum, Q⊂R3x65, mit einem System von 65 Massenpunkten: P1, P2, . . . , P65. Die Ortskoordinaten sind also

q = (q1,q2,q3, . . . ,q3x65);

Die erhaltenen Punkte sind :P1 = (q1,q2,q3)

P2 = (q4,q5,q6)

. . .

P65 = (q193,q194,q195)

10.2.3 PhasenraumDer Phasenraum P besteht aus 2 Raume, den Konfigurationsraum Q, Q ⊂ Rn und denRaum der Geschwindigkeitsvektoren oder TangentenvektorenV = (V 1,V 2, .,V n)∈Rn.Man schreibt : P = Q×Rn ; d.h. man definiert eine Lage und dann eine Geschwindig-keit. Der Phasenraum gibt also die kinematisch moglichen Zustande des klassischenSystems an.

10.2.4 BeispieleSei Q einen Konfigurationsraum, Q ⊂ R3, und V ∈ R3. Ein Punkt q ⊂ Q und seineGeschwindigkeit V sind gegeben durch :

q = (q1,q2,q3)

V = (V 1,V 2,V 3)

das heisst:P1 = (q1,q2,q3)

V1 = (V 1,V 2,V 3)

Sei Q einen Konfigurationsraum, Q ⊂ R3x51undV ∈ R3x51, mit einem System von 51Massenpunkten q ⊂ Q : P1, P2, . , P51 und ihre Geschwindigkeiten V. Wir erhaltenalso :

q = (q1,q2,q3, .,q3x51)

V = (V 1,V 2, .,V 3x51)

das heisst :P1 = (q1,q2,q3,V 1,V 2,V 3)

118

Page 126: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

10.2. EINFACHE KLASSISCHE SYSTEME

P2 = (q4,q5,q6,V 4,V 5,V 6)

. . .

P51 = (q151,q152,q153,V 151,V 152,V 153)

Sei Q einen Konfigurationsraum, Q ⊂ R3x65undV ∈ R3x65, mit einem System von 65Massenpunkten q ⊂ Q : P1, P2, . , P65 und ihre Geschwindigkeiten V. Wir erhaltenalso :

q = (q1,q2,q3, .,q3x65)

V = (V 1,V 2, .,V 3x65)

das heisst :P1 = (q1,q2,q3,V 1,V 2,V 3)

P2 = (q4,q5,q6,V 4,V 5,V 6)

. . .

P51 = (q193,q194,q195,V 193,V 194,V 195)

Sei Q einen Konfigurationsraum, Q⊂R3x220undV ∈R3x220, mit einem System von 220Massenpunkten q ⊂ Q : P1, P2, . , P220 und ihre Geschwindigkeiten V. Wir erhaltenalso :

q = (q1,q2,q3, .,q3x220)

V = (V 1,V 2, .,V 3x220)

das heisst :P1 = (q1,q2,q3,V 1,V 2,V 3)

P2 = (q4,q5,q6,V 4,V 5,V 6)

. . .

P220 = (q658,q659,q660,V 658,V 659,V 660)

10.2.5 BewegungsgleichungenZu dem klassischen System gehort schliesslich noch ganz wesentlich die Dynamik desSystems. Wir drucken also die Ortskoordinaten q = (q1,q2,q3, . . . ,qn), die Geschwin-digkeiten q = (q1, q2, q3, . . . , qn) und die Beschleunigungen q = (q1, q2, q3, . . . , qn) alsFunktion der Zeit t aus. ; t ∈ J ⊂ R. Wir erhalten ein system von gewohnlichen Dif-ferentialgleichungen zweiter Ordnung, den sogenannten Bewegungsgleichungen desSystems : q = Φ(q, q, t) wobei Φ : P −→ Rn eine stetige differenzierbare Abbildungist.

10.2.6 BeispieleDas Newtonsche Kraftgesetzt : mq = F(q, q, t)Die Euler-Lagrange-Gleichung : d

dt × ∂L∂V = ∂L

∂q Es kommt oft vor, dass keine Losun-gen oder Naherungslosungen sich finden lassen. Eine generelle Methode besteht alsoin der Dimension 2n des Phasenraumes auf eine Dimension 2k, k¡n zu verringern. Wirbrauchen also Zwangsbedingungen, welche haufig einen geometrischen ursprung ha-ben und durch Erhaltungsgrossen, welche immer durch Symmetrien erzeugt werden.

119

Page 127: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 10. KLASSISCHE MECHANIK

10.2.7 Das mathematische PendelDer Konfigurationsraum ist hier Q⊂R2, da die Lage mit Hilfe der x und y Koordinatenbestimmt wird. Der Phasenraum ist also P = Q×R2 Was ist hier die Zwangsbedingung

Abbildung 10.5: Das mathematische Pendel

? Wir wissen, dassq(t) = (x(t),y(t))

also|q(t)|=

√(x(t)2 + y(t)2) = r

d.h, die moglichen Bewegungen verlaufen auf der Kreislinie :

S1r

:={

(x,y) ∈ R2|x2 + y2 = r2}

S bedeutet Kugel (sphare), 1 gilt fur eine Dimension, und r ist der Radius. Die Bewe-gung ist jetzt nur mit einer Funktion φ : [a,b]→ R bestimmt. Wir konnen eine zweiteZwangsbedingung finden, da fur die Geschwindigkeit gilt :

|q(t)|2 = r2

daraus folgt :

ddt|q(t)|= 2 |q(t), q(t)|2 = 2< q(t), q(t)>= < q(t), q(t)>= 0

120

Page 128: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

10.2. EINFACHE KLASSISCHE SYSTEME

Der neue Phasenraum ist jetzt : P = Sr1×R. Die Dimension von P ist 2, statt 4 fur P.Achtung : Es gibt hier ein Problem, da wir eine offene untermenge von R brauchen, umzu differenzieren. Der Kreis erfullt diese Bedingung leider nicht. Trotzdem wissen wir,dass dieses Problem losbar ist. Der Losungsweg wird also hier nicht berucksichtigt.Jetzt ist es schliesslich moglich, die Differentialgleichung des mathematischen Pendelszu finden : Die kinetische Energie im Punkt A, EA

kin ist gleich wie die potentielle Energieim Punkt B, EB

pot :

EA(φ)kin = EB

pot(B(r))

MitEA(φ)

kin =12

m(rφ)2

EBpot(B(r)) = mgr(1− cosr)

und dadEges.

dt= mr2φφ + mgr sinrφ = 0

Wir erhalten :rφ + gsinφ = 0

φ =−gr

sinφ

Da wir einen vernachlassigbaren Fehler machen, indem wir sinφ durch φ ersetzen,konnen wir schreiben :

φ =−gr

φ

121

Page 129: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 10. KLASSISCHE MECHANIK

122

Page 130: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

Kapitel 11

Einfuhrung in dieTensorrechnung

Zusammenfassung

Tensoren sind ein mathematisches Konstrukt von indizierten Großen, welche hier uberihre Transformationsgesetze definiert werden. Dazu werden zur Vereinfachung derRechnungen kovariante und kontravariante Vektoren eingefuhrt. Uber das tensoriel-le Produkt, welches eine Verallgemeinerung des bekannten Skalarproduktes darstellt,wird ein Tensorraum mit den dazugehorigen Elementen – den Tensoren – bestimmt.

123

Page 131: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 11. EINFUHRUNG IN DIE TENSORRECHNUNG

11.1 Vektor- und Punktraume

11.1.1 Affiner und euklidischer Vektor- und Punktraum

Bevor der Tensor eingefuhrt wird, muss zuerst ein Raum definiert werden, in welchemwir anschließend rechnen werden. Dazu benotigen wir eine nicht-leere Menge V, derenElemente wir Vektoren nennen, und drei Rechenoperationen: die Addition , die Multi-plikation mit einem Skalar und das Skalarprodukt von zwei Vektoren. Fur die Vektoren~a,~b,~c ∈V , und die Skalare λ,µ kann man dann die folgenden Rechenregeln aufstellen:

1. Addition von Vektoren

(a) ~a +~b =~b +~a (Kommutativgesetz)

(b) ~a + (~b+~c) = (~a +~b) +~c =~a +~b+~c (Assoziativgesetz)

(c) ∃ Nullvektor~0, so dass~a +~0 =~a

(d) ∀~a ∃ −~a, so dass gilt~a + (−~a) = 0

2. Multiplikation mit einem Skalar

(a) 1∗~a =~a

(b) λ(µ~a) = (λµ)~a = λµ~a (Assoziativgesetz)

(c) (λ + µ)~a = λ~a + µ~a (Distributivgesetz)

(d) λ(~a +~b) = λ~a + λ~b (Distributivgesetz)

3. Skalarprodukt

(a) ~a ·~b =~b ·~a (Kommutativgesetz)

(b) (λ~a) ·~b =~a · (λ~b) = λ(~a ·~b) (Assoziativgesetz)

(c) ~a · (~b +~c) =~a ·~b +~a ·~c (Distributivgesetz)

(d) wenn gilt~a ·~b = 0, so folgt aus~a = 0 fur alle~b: ~a ·~b = 0

4. Punktmengen: Jedem Paar (A,B) von Punkten aus einer Menge M soll ein VektorAB aus V zugeordnet sein, so dass gilt:

(a) AB =−BA

(b) AB = AC +CB mit C ∈ M

(c) fur einen beliebigen Punkt 0 ∈ M gilt: ∀ ~x ∈ V existiert genau ein X ∈ Mmit OX =~x

Erfullt eine Menge V die Regeln 1 bis 3, so nennt man diese Menge einen euklidischenVektorraum. Ist hingegen kein Skalarprodukt definiert und erfullt die Menge nur dieRegeln 1 und 2, so nennt man die Menge einen affinen Vektorraum. Erfullt ein eu-klidischer oder ein affiner Vektorraum zusatzlich noch die Regel 4, so ist jeweils eineuklidischer oder ein affiner Punktraum gegeben. Wir werden uns im Folgenden mitdem dreidimensionalen euklidischen Punktraum beschaftigen.

124

Page 132: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

11.1. VEKTOR- UND PUNKTRAUME

11.1.2 SkalarproduktNachdem die Rechenregeln fur das Skalarprodukt im vorherigen Abschnitt aufgestelltwurden, mochten wir uns das Skalarprodukt etwas naher anschauen. Dazu seien dieVektoren ~x,~y und die Basis ~g1,~g2,~g3 gegeben. Die Vektoren ~x,~y lassen sich daherschreiben als:

~x = x1~g1 + x2~g2 + x3~g3

~y = y1~g1 + y2~g2 + y3~g3

Wendet man nun die Rechenregeln fur das Skalarprodukt an, so ergibt sich durch Aus-schreiben des Skalarprodukttermes:

~x ·~y = x1 y1 ~g1 ·~g1 + x1 y2 ~g1 ·~g2 + x1 y3 ~g1 ·~g3 +

x2 y1 ~g2 ·~g1 + x2 y2 ~g2 ·~g2 + x2 y3 ~g2 ·~g3 +

x3 y1 ~g3 ·~g1 + x3 y2 ~g3 ·~g2 + x3 y3 ~g3 ·~g3 (11.1)

Das Skalarprodukt selber wurde hier noch nicht definiert, es muss lediglich eine Re-chenoperation sein, die die oben genannten Rechenregeln erfullt. Wir verwenden hierdas uns aus dem Gymnasium her bekannte Skalarprodukt:

~x ·~y = x1y1 + x2y2 + x3y3

Dies gilt fur das uns bekannte dreidimensionale, orthonormale Koordinatensystem mitden Basisvektoren ~e1,~e2,~e3. Es fallen dabei alle Terme mit ~ei ·~e j mit i 6= j weg. Fureine allgemeine Basis~bi wird die Rechenweise im folgenden Beispiel erlautert:

Beispiel : Gegeben sei die Basis B =

101

,

011

,

110

.

340

B

·

5−21

B

= 3 ·5 ·2 + 3 · (−2)+ 3 ·1 + 4 ·5 + 4 · (−2) ·2 + 4 ·1 + 0 = 35

Man sieht, dass hier man hier nicht einfach die Komponenten multiplizieren und an-schließend addieren kann, denn dabei ware das Ergebnis 7 statt 35.

11.1.3 SummationskonventionWie man an der Gleichung (11.1) auf der vorherigen Seite sieht, ist die herkommli-che Schreibweise ziemlich umstandlich, wenn man Vektoren und Summationen auf-schreiben will. Aus diesem Grund wird hier die einsteinsche Summationskonventioneingefuhrt. Tritt in einem Produkt ein Index einmal oben und einmal unten auf, so wirduber diesen Index summiert:

Beispiel :~x = xi~gi =3

∑i=1

xi~gi

Wenn nicht summiert werden soll, so werden die Indizes in runde Klammern gesetzt.

125

Page 133: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 11. EINFUHRUNG IN DIE TENSORRECHNUNG

Beispiel : x(i)~g(i)→ nicht summieren!

Das Skalarprodukt lasst sich damit vereinfacht schreiben als:

~x ·~y = x1 y1 ~g1 ·~g1 + x1 y2 ~g1 ·~g2 + x1 y3 ~g1 ·~g3 +

x2 y1 ~g2 ·~g1 + x2 y2 ~g2 ·~g2 + x2 y3 ~g2 ·~g3 +

x3 y1 ~g3 ·~g1 + x3 y2 ~g3 ·~g2 + x3 y3 ~g3 ·~g3

= xi y j ~gi ·~g j

11.1.4 Abstand und MetrikkoeffizientenDer Abstand zweier Punkte A und B ist definiert als:

d = | ~AB| ⇒ d2 = ~AB · ~AB mit ~AB =~x

⇒ d2 = xix j ~gi ·~g j︸ ︷︷ ︸Skalar gi j

Der Abstand zweier Punkte ist also nicht nur abhangig von den Komponenten xi, son-dern vor allem von den Skalaren gi j. Ist nun ein Abstand d in einem Raum definiert, sospricht man von einem metrischen Raum. Man nennt deshalb gi j die Metrikkoeffizien-ten und schreibt sie oft als Matrixform:

gi j =

g11 g12 g13g21 g22 g23g31 g32 g33

11.2 Der Tensor 1. StufeSpezifisch fur den Umgang mit Tensoren mussen nun noch einige zusatzliche Begriffeeingefuhrt werden.

11.2.1 Kovariante und kontravariante BasisSei ~g1, ~g2, ~g3 eine Basis im dreidimensionalen Euklidischen Raum. Wir konstruierennun eine weitere Basis ~g1, ~g2, ~g3 welche durch folgende Beziehung mit der ersten ver-knupft ist:

~gi~g j = δ ji .

Gilt diese Gleichung, so nennt man ~gi die kovariante Basis und ~g j die kontravarianteBasis. Der Einheitlichkeit halber nennt man einen Basisvektor kovariant, wenn derIndex unten steht und kontravariant, wenn der Index oben steht.Multipliziert man die einzelnen kovarianten bzw. kontravarianten Basisvektoren skalarmiteinander

~gi~g j = gi j und ~gi~g j = gi j,

126

Page 134: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

11.2. DER TENSOR 1. STUFE

so erhalt man die kovarianten Metrikkoeffizienten gi j und die kontravarianten Metrik-koeffizienten gi j. Mit diesen lassen sich die kovarianten und kontravarianten Basisvek-toren bestimmen:

~gi = gi j~g j und ~gi = gi j~g j.

Die Metrikkoeffizienten selbst sind wiederum uber das Kroneckerdelta miteinanderverknupft:

gi jg jk = δik.

Ausgeschrieben bedeutet dies

g11 g12 g13

g12 g22 g23

g13 g23 g33

·

g11 g12 g13g12 g22 g23g13 g23 g33

=

1 0 00 1 00 0 1

.

und die kontravarianten Metrikkoeffizienten konnen durch einfache Matrixinversionbestimmt werden. Aber aufgepasst: einmal sind die Spalten Basisvektoren, einmal dieReihen!

11.2.2 Kovariante und kontravariante Komponenten eines Vektors

Wir geben uns den Vektor ~A und drucken ihn einmal in der kovarianten Basis ~gi undeinmal in der kontravarianten Basis ~gi aus:

~A = Ai~gi = Ai~gi.

Ai und Ai sind wieder uber die Metrikkoeffizienten miteinander verbunden und es gel-ten:

A j = gi jAi und A j = gi jAi,

wobei A j die kovarianten und A j die kontravarianten Komponenten von ~A sind.

11.2.3 Indexmanipulation

Man kann also mit den Metrikkoeffizienten verschiedene Operationen am Index einerGrosse durchfuhren:

1. Heraufziehen des Index durch Multiplikation mit den kontravarianten Metrikko-effizienten

gi jA j = Ai (11.2)

2. Herunterziehen des Index durch Multiplikation mit den kovarianten Metrikkoef-fizienten

gi jA j = Ai (11.3)

3. Austausch des Index durch Multiplikation mit dem Kroneckerdelta

δ ji Ai = A j (11.4)

127

Page 135: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 11. EINFUHRUNG IN DIE TENSORRECHNUNG

11.2.4 Der Tensor 1. StufeUm zur Definition eines Tensors zu gelangen, betrachten wir sein Transformationsver-halten.Wir gehen aus von der kovarianten Basis ~gi und der entsprechenden kontravariantenBasis ~gi und konstruieren, mit Hilfe der Matrix C und ihrer Inversen D, eine neuekovariante Basis ~hi und ihre entsprechende kontravariante Basis ~hi. Es bestehen alsofolgende Beziehungen:

BASEN

kovariante kontravarianteBasis~gi Basis~gi

| ↑ | ↑C D D C↓ | ↓ |

kovariante kontravarianteBasis~hi Basis~hi

mit C ·D = δ ji

Analog konnen wir mit den diversen Komponenten eines Vektors umgehen und erhal-ten folgende Beziehungen:

VEKTORKOMPONENTEN

kovariante kontravarianteKomponentenai Komponentenai

in der Basis~gi in der Basis~gi

| ↑ | ↑C D D C↓ | ↓ |

kovariante kontravarianteKomponentenbi Komponentenbi

in der Basis~hi in der Basis~hi

Vergleicht man diese beiden Schemata, stellt man leicht fest, dass die kovariantenKomponenten des Vektors sich gleich transformieren wie die kovarianten Basisvekto-ren. Man spricht von kogredientem Transformationsverhalten. Kovariante und kontra-variante Komponenten des Vektors hingegen transformieren sich entgegengesetzt, oderkontragredient zueinander.Trifft dieses Transformationsverhalten zu, so liegt ein Tensor 1. Stufe vor. Der Vektorist ein Beispiel eines Tensors 1. Stufe: Ein Vektor ist eigentlich ein Tensor 1. Stufe,dem man eine Basis zugeordnet hat.

11.3 Tensor 2. Stufe

11.3.1 Tensorielles ProduktFur die Einfuhrung des Tensors 2. Stufe wird zunachst ein neues Produkt von zweiVektoren im 3-dimensionalen euklidischen Punktraum definiert:

T =~x~y tensorielles Produkt (11.5)

Fur das tensorielle Produkt gelten folgende Rechenregeln:

128

Page 136: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

11.3. TENSOR 2. STUFE

1. Wenn~x,~y,~z Vektoren sind, gilt

(a) ~x(~y +~z) =~x~y +~x~z

(b) (~x +~y)~z =~x~z +~y~z (Distributivgesetze)

2. Wenn~x und~y Vektoren sind und α ein Skalar, so gilt

(a) (α~x)~y =~x(α~y) = α~x~y (Assoziativgesetz)

Diese Rechengesetze ahneln denen des Skalarproduktes, jedoch ist das tensorielle Pro-dukt nicht kommutativ. Welche Rechenoperationen beim tensoriellen Produkt durch-gefhrt werden, ist auch nicht explizit gegeben, sie mussen einfach die oben genanntenRechenregeln erfullen. Wir benutzen in den meisten Fallen das Skalarprodukt; allge-mein ist dies jedoch nicht der Fall. Wie beim Skalarprodukt lasst sich das tensorielleProdukt in der Indexschreibweise aufschreiben:

T =~x~y = x1 y1 ~g1 ~g1 + x1 y2 ~g1 ~g2 + x1 y3 ~g1 ~g3 +

x2 y1 ~g2 ~g1 + x2 y2 ~g2 ~g2 + x2 y3 ~g2 ~g3 +

x3 y1 ~g3 ~g1 + x3 y2 ~g3 ~g2 + x3 y3 ~g3 ~g3

= xi y j ~gi ~g j

Da hier das Kommutativgesetz nicht gilt, kann man diese Formel nicht weiter zusam-menfassen, man kann jedoch die Produkte~gi~g j als Basis γi j fur das Produkt T auffassen,wenn man schreibt:

γi j =~gi~g j

Je nachdem, ob die Vektoren ~x und ~y in kovarianter oder kontravarianter Vektorbasisgegeben sind, hat man vier Moglichkeiten, eine Basis fur das Produkt T zu schreiben:

1. γi j =~gi~g j (kovariante Basis)

2. γ ji =~gi~g j (gemischte Basis)

3. γij =~gi~g j (gemischte Basis)

4. γi j =~gi~g j (kontravariante Basis)

Insgesamt gibt es allgemein also 9 verschiedene, linear unabhangige Elemente imRaum, der vom tensoriellen Produkt aufgespannt wird. Somit befindet das tensoriel-le Produkt zweier Vektoren sich also in einem 9-dimensionalen Raum, den wir Ten-sorraum 2. Stufe nennen. Ein beliebiges Element im Tensorraum 2. Stufe heißt dannTensor 2. Stufe. Je nachdem, auf welche Basis man sich bezieht, erhalt man, wenn mandie skalaren Faktoren zusammenfasst:

T = t i j~gi~g j = t ij~gi~g j = t j

i ~gi~g j = ti j~gi~g j

129

Page 137: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 11. EINFUHRUNG IN DIE TENSORRECHNUNG

11.3.2 TransformationsgesetzeZur Erinnerung seien nochmals die Transformationsregeln fur Vektoren schematischaufgezeichnet:

kovariante Basis ~giai j−→ neue kovariante Basis~h j

neue kovariante Basis~h jbi j−→ kovariante Basis ~gi

kontravariante Basis ~gi bi j−→ neue kontravariante Basis~h j

neue kontravariante Basis~h j ai j−→ kontravariante Basis~gi

Man kann nun analog zum Tensor erster Stufe sich die Transformationsregeln herleiten.Dabei erkennt man folgenden Satz:

Satz 11.1. Jeder obere Index transformiert sich wie ein kontravarianter Vektor undjeder untere Index transformiert sich wie in kovarianter Vektor.

Beispiele : t i j = aik a j

l tkl∗ t ji = bk

i a jl t l∗

k

Wir konnen nun den Tensor 2. Stufe analog zum Tensor 1. Stufe uber sein Transforma-tionsverhalten definieren und erhalten damit:

Satz 11.2. Gilt fur eine doppelt indizierte Große obige Transformationsregel, so han-delt es sich dabei um einen Tensor 2. Stufe.

11.3.3 Verjungendes Produkt und MetriktensorWir mochten nun einen in der kovarianten Basis gegebenen Tensor in der kontravarian-ten Form schreiben. Dazu wird eine neue Rechenoperation, das verjungende Produktdefiniert. Das verjungende Produkt eines Tensors T und eines Vektors ~a ist gegebendurch:

T ·~a = (t i j ~gi ~g j) · (~ak ~gk)

= t i j ak ~gi (~g j ·~gk)︸ ︷︷ ︸Skalarprodukt

= t i j ak g jk ~gi

Der rechte Vektor~g j des Tensors wird also herausgelost und skalar mit der Vektorbasis~gk vom Vektor ~a multipliziert. Dies nennt man das verjungende Produkt von rechts.Analog kann man auch von links mit ~a multiplizieren. Dann wird der linke Vektor desTensors in das Skalarprodukt gestellt:

~a ·T = (~ak ~gk) · (t i j ~gi ~g j)

= t i j ak (~gi ·~g j)︸ ︷︷ ︸Skalarprodukt

~gk

= t i j ak gki ~g j

130

Page 138: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

11.3. TENSOR 2. STUFE

Das verjungende Produkt ist also im Allgemeinen nicht kommutativ. Man erkennt, dassdas verjungende Produkt eines Tensors 2. Stufe mit einem Tensor 1. Stufe einen Tensor1. Stufe ergibt. Das verjungende Produkt zweier Tensoren 1. Stufe ergibt einen Skalar,was gerade dem Skalarprodukt entspricht. Ein Tensor wird durch ein verjungendes Pro-dukt also in der Stufe verjungt.

Es sei nun ein Tensor T = tkl ~gk ~gl gegeben. Wendet man darauf nun das verjungendeProdukt von links mit ~gi und das verjungende Produkt von rechts mit ~g j an, so erhaltman mithilfe der Gleichungen (11.2), (11.3) und (11.4):

~gi ·T ·~g j = tkl (~gi ·~gk)(~gl ·~g j)

= tkl δik δ j

l

= t i j

Auf ahnliche Art und Weise erhalt man schließlich die Komponenten des Tensors inallen Basen:

1. t i j =~gi ·T ·~g j

2. t ij =~gi ·T ·~g j

3. t ji =~gi ·T ·~g j

4. ti j =~gi ·T ·~g j

Es sei hier noch angemerkt, dass bei obigen Formeln keine Summationen auftreten,sondern dass man durch das beidseitige verjungende Produkt eines Tensors T mit zweiBasisvektoren~gi und/oder~g j eine einzelne, entsprechende Komponente des Tensors inder anderen Basis erhalt, so z. B. t23 =~g2 ·T ·~g3.

Nun sei noch ein Einheitstensor E gesucht, fur den gilt:

E ·~a =~a ·E =~a

Logischerweise sind die Komponenten von E abhangig von dessen Basis:

E = E i j ~gi ~g j = E ij ~gi ~g j = E j

i ~gi~g j = Ei j ~gi ~g j

Man findet heraus, dass die Metrikkoeffizienten der kovarianten, gemischten und kon-travarianten Basen gerade die Komponenten des Einheitstensors sind. Deshalb wird Eauch der Metriktensor genannt:

E i j = gi j

E ij = E j

i = gij = δi

j (Kronecker−Symbol)

Ei j = gi j

131

Page 139: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 11. EINFUHRUNG IN DIE TENSORRECHNUNG

11.3.4 Der Spannungstensor als Tensor 2. StufeEin Beispiel eines Tensors 2. Stufe ist der Spannungstensor. Wir betrachten einen infi-nitesimalen Tetraeder. Seien dAi die einzelnen Flachenelemente,~n der Einheitsnorma-lenvektor auf die betrachtete Flache dA und ~s der Spannungsvektor auf diese Flache.Es gelten:

~s = si~gi (11.6)und ~si = σi j~g j. (11.7)

Das Kraftegleichgewicht verlangt:

~sdA = ~s1dA1 +~s2dA2 +~s3dA3

= ~sidAi.

Einsetzen von:dA1 = n1dA dA2 = n2dA dA3 = n3dA,

liefert:~s =~sini.

In diese Gleichung setzt man (11.7) ein:

~s = σi jni~g j.

Setzt man nun noch (11.6) ein, so erhalt man:

s j = σi jni.

Diese Beziehung lasst vermuten, dass sich der Spannungsvektor ~s in der durch denEinheitsvektor~n festgelegten Ebene als verjungendes Produkt eines Tensors T mit demVektor~n darstellen lasst:

~s = T~n.

Dies trifft in der Tat zu und es lasst sich herleiten, dass T ein symmetrischer Tensor ist,der Spannungstensor; des weiteren gilt:

T = σi j~gi~g j. (11.8)

Die kontravarianten Komponenten σi j sind die Elemente der Spannungsmatrix, welchewir regelmassig in der Mechanik bestimmen sollen.

11.3.5 Das HauptspannungsproblemIn der Mechanik geht es auch darum, die Hauptspannungen und Hauptspannungsebe-nen zu berechnen. Dazu versucht man die Spannungsmatrix so umzuformen, dass nurnoch Elemente in der Diagonale stehen:

σ11 σ12 σ13

σ12 σ22 σ23

σ13 σ23 σ33

σ∗1 0 00 σ∗2 00 0 σ∗3

?

Durch Losen des homogenen Gleichungssystems

det

σ11−σ∗ σ12 σ13

σ12 σ22−σ∗ σ23

σ13 σ23 σ33−σ∗

= 0

132

Page 140: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

11.4. TENSOREN HOHERER STUFEN

erhalt man die folgende kubische Gleichung

(σ∗)3− J1(σ∗)2 + J2σ∗− J3 = 0,

wobei J1, J2 und J3 die skalaren Invarianten des Spannungstensors sind und die 3Losungen fur σ∗ die sogenannten Eigenwerte oder Hauptspannungen.Die Hauptspannungsebenen lassen sich bestimmen durch Losen von

σi j~xi = σ∗~xi,

wobei ~xi der gesuchte Eigenvektor ist, d.h. der Normalenvektor zur Hauptspannungs-ebene.

11.4 Tensoren hoherer Stufen

Erweitert man das in Gleichung (11.5) beschriebene tensorielle Produkt auf beliebigviele Faktoren, so gelangt man zu Tensoren hoherer Stufe, bei welchen sich der wahreNutzen des Tensor-Konzepts erst wirklich bemerkbar macht.

11.4.1 Definition

Ein Tensor N ter Stufe ist eine invariante Grosse T (N), deren Basis ein tensorielles Pro-dukt von N Grundvektoren ist:

T (N) = T i jk...l~gi~g j~gk . . .~gl

Es gibt 2N Arten von Komponenten. Jede besteht aus 3N Komponenten (im 3-dimensionalenRaum).

Andere Definition:Transformiert sich in einer N-fach indizierten Grosse jeder obere Index wie ein kontra-varianter Vektor, jeder untere wie ein kovarianter Vektor, so handelt es sich um Kom-ponenten eines Tensors Nter Stufe.Ein Beispiel eines Tensors 4. Stufe ist der Steifigkeitstensor ci jkl , den wir in der Me-chanik kennengelernt haben.

11.4.2 Rechenregeln

Die Rechenregeln sind teilweise schon von den Vektoren und den Tensoren 2. Stufebekannt.

1. Addition→ durch Addition der entsprechenden KomponentenBsp:

ui jk~gi~g j~gk + vi jk~gi~g j~gk = wi jk~gi~g j~gk

Es konnen nur Tensoren gleicher Stufen addiert werden.

2. Tensorielles Produktu(M)v(N) = w(M+N)

133

Page 141: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

KAPITEL 11. EINFUHRUNG IN DIE TENSORRECHNUNG

3. Verjungendes Produkt→ durch skalare Multiplikation der zugehorigen GrundvektorenBsp:

(ui jk~gi~g j~gk)(vlm~gl~gm)

= ui jkvlmgkl~gi~g j~gm

= ui jkvmk ~gi~g j~gm

= wi jm~gi~g j~gm

In Komponentendarstellung schreibt man

ui jkvmk = wi jm

und spricht von einer Uberschiebung:

T (M) −→ T (M+N−2)

Uberschiebungmit T (N)

Sind N und M gleich 1, so entspricht die Uberschiebung dem Skalarprodukt; dasSkalarprodukt ist also ein Tensor 0. Stufe, denn 1 + 1−2 = 0.

4. Herauf- und Herunterziehen der Indizes→ mit Hilfe des MetriktensorsBsp: Sei ui j

k ein Tensor 3. Stufe. Durch Uberschiebung mit dem kontravariantenMetriktensors gkl gelangt man zu ui jl .

ui jk gkl = ui jl

5. Verjungung

(a) oberen und unteren Index gleichsetzen

(b) Summation uber dieses Indexpaar liefert T N−2

6. Quotientenregel→ um festzulegen, ob ein Tensor vorliegt.Bsp:

~xi = gi j~x j

wobei~xi und~x j Tensoren 1. Stufe sind und gi j ein Tensor 2. Stufe.

Uber die Quotientenregel gelangt man auch zu einer neuen Definition eines Tensors:Eine invariante Multilinearform in den Vektorkomponentenxik heisst Tensor Nter Stufe:

J = Ti1i2i3...iN xi1 xi2xi3 . . .xiN

wobei Ti1i2i3...iN die Komponenten des Tensors sind.

134

Page 142: Seminar Multlinineare Algebra - ETH Zurichgrsam/MultLinaAlg_MAVT_SS06/multilinalg_prohl.pdf · Kapitel A Uber¤ dieses Seminar Micha Scholl¤ A.1 Generell Schreiben Sie eine Zusammenfassung,

11.4. TENSOREN HOHERER STUFEN

11.4.3 Antisymmetrische TensorenEin Tensor 2. Stufe ist symmetrisch, wenn

ui j = u ji

und antisymmetrisch, wennui j =−u ji

Es gilt: Ein beliebiger Tensor 2. Stufe ist stets als Summe eines symmetrischen undeines antisymmetrischen Tensors darstellbar.Bei Tensoren hoherer Stufe muss prazisiert werden, hinsichtlich welcher Indizes m undn der Tensor symmetrisch oder antisymmetrisch ist.Gilt die Symmetrie bzw. Antisymmetrie fur die Vertauschung beliebiger Indizes, soheisst der Tensor vollstandig symmetrisch bzw. vollstandig antisymmetrisch.

11.4.4 Ausseres ProduktDas aussere Produkt zweier Vektoren ~x = xk~gk und ~y = yl~gl wird gegeben durch dieKomponenten

skl =√

g(xkyl− xlyk)

Dabei handelt es sich im allgemeinen Fall nicht um einen Tensor. Man bemerke, dassdiese Definition fur den dreidimensionalen Raum auf das aussere Produkt des Vektor-kalkuls fuhrt.

135