Lineare Algebra II - uni-regensburg.de · Warum noch mehr Lineare Algebra? Wir werden in der...

242
Lineare Algebra II Sommersemester 2017 Universit¨ at Regensburg Clara L¨ oh

Transcript of Lineare Algebra II - uni-regensburg.de · Warum noch mehr Lineare Algebra? Wir werden in der...

  • Lineare Algebra II

    Sommersemester 2017Universität Regensburg

    Clara Löh

  • Version vom 27. Juli [email protected]̈t für Mathematik, Universität Regensburg, 93040 Regensburg©Clara Löh, 2017

  • Inhaltsverzeichnis

    Literaturhinweise vii

    0 Einführung 1

    1 Euklidische/Unitäre Vektorräume 31.1 Euklidische und unitäre Vektorräume 4

    1.1.1 Bilinearformen und Skalarprodukte 5

    1.1.2 Längen und Winkel 8

    1.1.3 Lineare Isometrien 14

    1.1.4 Matrizenkalkül für Bilinearformen 17

    1.1.5 Matrizenkalkül für Sesquilinearformen 21

    1.2 Orthogonalität 221.2.1 Orthogonale Vektoren 22

    1.2.2 Orthonormalbasen 23

    1.2.3 Die orthogonale Gruppe 29

    1.3 Spektralsätze 351.3.1 Selbstadjungierte Endomorphismen 35

    1.3.2 Der Spektralsatz 37

    1.3.3 Hauptachsentransformation 43

    1.3.4 Der Trägheitssatz und die Signatur 45

    2 Normalformen II: Moduln über Hauptidealringen 492.1 Zerlegung von Endomorphismen und Moduln 502.2 Ringe 52

    2.2.1 Ringe 52

    2.2.2 Ringhomomorphismen 54

  • iv Inhaltsverzeichnis

    2.3 Moduln 572.3.1 Moduln 572.3.2 Modulhomomorphismen 612.3.3 Ideale 632.3.4 Quotientenmoduln 642.3.5 Direkte Summen 68

    2.4 Hauptidealringe 732.4.1 Hauptidealringe 732.4.2 Euklidische Ringe 742.4.3 Teilbarkeit und Primfaktoren 772.4.4 Der größte gemeinsame Teiler 83

    2.5 Moduln über Hauptidealringen 872.5.1 Präsentationen von Moduln 882.5.2 Der Elementarteilersatz 902.5.3 Die Klassifikation endlich erzeugter Moduln 98

    3 Normalformen III: Die Jordansche Normalform 1073.1 Moduln zu Endomorphismen 108

    3.1.1 Zerlegung von Endomorphismen: Modulversion 1083.1.2 Zerlegung von Endomorphismen: Matrizenversion 110

    3.2 Das Minimalpolynom 1123.3 Die Jordansche Normalform 118

    3.3.1 Vorbereitung: Algebraisch abgeschlossene Körper 1203.3.2 Existenz und Eindeutigkeit der Jordanschen Normalform 1213.3.3 Berechnung der Jordanschen Normalform 1233.3.4 Anwendungen der Jordanschen Normalform 134

    4 Multilineare Algebra 1374.1 Das Tensorprodukt 138

    4.1.1 Wozu das Tensorprodukt? 1384.1.2 Rechnen mit Tensorprodukten 1414.1.3 Anwendungen des Tensorprodukts 1454.1.4 Konstruktion des Tensorprodukts 151

    4.2 Das äußere Produkt 1534.2.1 Wozu das äußere Produkt? 1534.2.2 Rechnen mit äußeren Produkten 1554.2.3 Anwendungen des äußeren Produkts 1604.2.4 Konstruktion des äußeren Produkts 165

    A Anhang A 1A.1 Elementare Analysis von Sinus und Kosinus A 3A.2 Kategorien A 5A.3 (Ko)Produkte A 9A.4 Funktoren A 11A.5 Differentialformen A 15A.6 Die LA-Matrix A 19

  • Inhaltsverzeichnis v

    B Übungsblätter B 1

    C Fingerübungen C 1

    D Allgemeine Hinweise D 1

    Literaturverzeichnis C 1

  • vi Inhaltsverzeichnis

  • Literaturhinweise

    Die Vorlesung wird sich nicht an einer einzelnen Quelle orientieren – Siesollten also individuell je nach Thema und eigenen Vorlieben die Literaturauswählen, die am besten zu Ihnen passt.

    Lineare Algebra

    • S. Bosch. Lineare Algebra, fünfte Auflage, Springer Spektrum, 2014.• G. Fischer. Lineare Algebra, Eine Einführung für Studienanfänger,

    18. Auflage, Springer Spektrum, 2013.• K. Jänich. Lineare Algebra, 11. Auflage, Springer, 2013.• W. Klingenberg. Lineare Algebra und Geometrie, Hochschultext, Sprin-

    ger, 1984.• S. Lang. Linear Algebra, Undergraduate Texts in Mathematics, 3. Auf-

    lage, Springer, 1987.

    Sonstige Grundlagen

    • A. Beutelspacher. Das ist o.B.d.A. trivial!, neunte Auflage, Vieweg+-Teubner, 2009.http://link.springer.com/book/10.1007%2F978-3-8348-9599-8

    • A.G. Konforowitsch. Logischen Katastrophen auf der Spur, zweite Auf-lage, Fachbuchverlag Leipzig, 1994.

    • C. Löh, S. Krauss, N. Kilbertus. Quod erat knobelandum, Springer Spek-trum, 2016.

  • viii Literaturhinweise

    • G. Polya, J.H. Conway (Hrsg.). How to Solve it: A New Aspect of Ma-thematical Method, Princeton Science Library, 2014.

    • T. Tao. Solving mathematical problems. A personal perspective, OxfordUniversity Press, 2006.

    Weiterführende Literatur

    • K. Jänich. Vektoranalysis, fünfte Auflage, Springer, 2005.• S. Lang. Algebra, Graduate Texts in Mathematics, 211, dritte überar-

    beitete Auflage, Springer, 2002.• S. Lang. Real and Functional Analysis, Graduate Texts in Mathematics,

    142, dritte Auflage, Springer, 1993.• W. Rudin. Functional Analysis, zweite Auflage, International Series in

    Pure and Applied Mathematics, McGraw-Hill, 1991.

  • 0

    Einführung

    Die Algebra befasst sich mit der abstrakten Struktur allgemeiner”Zahlenbe-

    reiche“. Eine besonders einfache und zugängliche Art solcher Strukturen sindlineare Strukturen, d.h. Vektorräume und lineare Abbildungen zwischen Vek-torräumen. Wie wir bereits in der Linearen Algebra I gesehen haben, tretenlineare Strukturen an vielen verschiedenen Stellen auf:

    • Lösung linearer Gleichungssysteme,

    • elementare ebene und räumliche Geometrie,

    • Computergeometrie und dreidimensionale Modellierung,

    • geschlossene Darstellung kombinatorischer Phänomene,

    • als zentraler Approximationsbaustein in der Analysis,

    • als erste Abstraktionsstufe in der Algebra,

    • . . .

    Warum noch mehr Lineare Algebra?

    Wir werden in der Vorlesung Lineare Algebra II die folgenden Themen be-handeln und an passender Stelle auch Ausblicke auf Anwendungen geben:

    • Euklidische und unitäre Vektorräume. Mithilfe der Methoden der Li-nearen Algebra lassen sich viele Aspekte der zwei- bzw. dreidimensio-nalen Geometrie gut beschreiben und berechnen. Zum Beispiel erhältman so einen rechnerischen Zugang zur Elementargeometrie.

  • 2 0. Einführung

    • Normalformen von Endomorphismen. Wir werden die Existenz derJordanschen Normalform beweisen und untersuchen, wie man diesevernünftig berechnen kann. Zum Beispiel ist dies bei der Lösung li-nearer Differentialgleichungssysteme ein wichtiges Hilfsmittel.

    • Multilineare Algebra. Wir werden die Grundlagen der multilinearenAlgebra kennenlernen, wie zum Beispiel Tensorprodukte und äußereProdukte. Konstruktionen dieser Art treten zum Beispiel bei der Be-trachtung der Geometrie gekrümmter Räume, sogenannter Mannigfal-tigkeiten, auf.

    Anmerkung für Lehramtsstudenten. Auf ganz natürliche Weise werden wirdabei Begriffen und Themen aus der Schulmathematik begegnen und diesevertiefen sowie auch Aspekten der Mathematik, die in Zukunft Bestandteilder Schulmathematik werden könnten. Wichtiger als die Beherrschung desaktuellen Lehrplans ist es, ein solides Fundament zu erlernen, das es erlaubt,Mathematik inhaltlich korrekt, nachvollziehbar und souverän zu lehren undauf das der Unterricht im Rahmen des aktuellen und der zukünftigen Lehr-pläne aufbauen kann.

    Anmerkung zum Lernen. Dieses Skript dokumentiert die in der Vorlesungbehandelten Inhalte. Es dient keineswegs dazu, den Besuch der Vorlesungoder gar der Übungen zu ersetzen. Außerdem spiegelt sich in diesem Skriptnatürlich nur ein kleiner Ausschnitt der Linearen Algebra wider. Sie solltensich unbedingt auch mithilfe anderer Quellen (Bücher!) selbst ein Bild desgesamten Gebietes machen! Referenzen der Form

    ”Satz I.6.4.11“ verweisen

    auf die entsprechende Stelle im Skript zur Linearen Algebra I:

    http://www.mathematik.uni-r.de/loeh/teaching/linalg1 ws1617/lecture notes.pdf

    Wie der Name der Vorlesung bereits andeutet, ist es unabdingbar, dieInhalte der Linearen Algebra I zu beherrschen, um die Lineare Algebra IIverstehen zu können. Lücken in der Linearen Algebra I sollten Sie also zügigfüllen.

  • 1

    Euklidische/Unitäre Vektorräume

    Wir haben bereits gesehen, dass die reellen Vektorräume R2 bzw. R3 geeig-net sind, um Situationen der ebenen bzw. räumlichen Geometrie zu model-lieren. Wir werden dies im folgenden vertiefen und erklären, wie man mithil-fe von sogenannten Skalarprodukten grundlegende geometrische Größen wieLängen und Winkel beschreiben kann. Insbesondere werden wir den Ortho-gonalitätsbegriff und Isometrien von Rn eingehend untersuchen sowie Spek-tralsätze herleiten, die in vielen Anwendungen eine wichtige Rolle spielen.

    Überblick über dieses Kapitel.

    1.1 Euklidische und unitäre Vektorräume 41.2 Orthogonalität 221.3 Spektralsätze 35

    Schlüsselbeispiel. euklidische Metrik auf Rn via Standardskalarprodukt; Spie-gelungen bzw. Drehungen in Rn; Kegelschnitte

  • 4 1. Euklidische/Unitäre Vektorräume

    1.1 Euklidische und unitäre Vektorräume

    Wir werden uns im folgenden mit der Geometrie reeller bzw. komplexer Vek-torräume befassen; daher werden wir uns meistens auf die Grundkörper Rbzw. C einschränken. Die fundamentale geometrische Größe in Rn ist der eu-klidische Abstand eines Punktes vom Ursprung; dieser ist in Anlehnung anden Satz von Pythagoras durch folgende Abbildung (die euklidische Norm)definiert:

    ‖ · ‖2 : Rn −→ R≥0

    x 7−→

    √√√√n∑

    j=1

    x2j

    À

    Á

    (x1x2

    )x2

    x1

    Abbildung 1.1.: Der Abstand vom Ursprung und der Satz von Pythagoras

    Selbst wenn man die Wurzel ignoriert, ist diese Abbildung weit davonentfernt, linear zu sein. Mit einem kleinen Trick wird diese Abbildung je-doch zugänglich für die Methoden aus der linearen Algebra: Statt der Abbil-dung ‖ · ‖2 betrachten wir allgemeiner die, zunächst komplizierter wirkende,Abbildung (das Standardskalarprodukt)

    〈·, ·〉2 : Rn × Rn −→ R

    (x, y) 7−→n∑

    j=1

    xj · yj .

    Auch diese Abbildung ist nicht linear im eigentlichen Sinne, aber immerhinbilinear (d.h. linear in jedem Argument). Und wegen

    ∀x∈Rn ‖x‖2 =√〈x, x〉2

  • 1.1. Euklidische und unitäre Vektorräume 5

    ist es plausibel, dass 〈·, ·〉2 geeignet ist, um euklidische Abstände zu untersu-chen. Auch wenn unser Hauptinteresse dieser konkreten Abbildung gilt, ist essinnvoll, die Theorie allgemeiner für sogenannte Skalarprodukte aufzuziehen.

    1.1.1 Bilinearformen und Skalarprodukte

    Wir führen zunächst die grundlegenden Begriffe für Skalarprodukte ein.

    Definition 1.1.1 (Bilinearform, Symmetrie). Sei K ein Körper und sei V einK-Vektorraum.

    • Eine Bilinearform auf V ist eine bilineare Abbildung V ×V −→ K. EineAbbildung b : V × V −→ K heißt dabei bilinear, wenn für jedes x ∈ Vdie Abbildungen

    b( · , x) : V −→ Kb(x, · ) : V −→ K

    (über K) linear sind.

    • Eine Bilinearform b : V × V −→ K heißt symmetrisch, wenn

    b(x, y) = b(y, x)

    für alle x, y ∈ V gilt.

    Anmerkung zum Lernen. In der Linearen Algebra bezeichnen . . . formen imNormalfall Abbildungen, deren Wertebereich im Grundkörper liegt.

    Erinnern Sie sich noch an die Eigenschaften von Determinanten? Verglei-chen Sie diese mit der obigen Definition!

    Definition 1.1.2 (Definitheit). Sei V ein R-Vektorraum und sei b : V ×V −→ Reine Bilinearform. Die Bilinearform b heißt

    positiv definit, wenn: ∀x∈V \{0} b(x, x) > 0.negativ definit, wenn: ∀x∈V \{0} b(x, x) < 0.positiv semidefinit, wenn: ∀x∈V b(x, x) ≥ 0.negativ semidefinit, wenn: ∀x∈V b(x, x) ≤ 0.indefinit, wenn es x, y ∈ V mit b(x, x) > 0 und b(y, y) < 0 gibt.

    Definition 1.1.3 (Skalarprodukt). Sei V ein R-Vektorraum. Ein Skalarproduktauf V ist eine symmetrische, positiv definite Bilinearform auf V .

    Der Name”Skalarprodukt“ erinnert daran, dass die Werte Skalare (d.h.

    Elemente aus dem Grundkörper) sind. Dies darf natürlich nicht mit der Sk-alarmultiplikation (aus der Vektorraumstruktur) verwechselt werden!

  • 6 1. Euklidische/Unitäre Vektorräume

    Caveat 1.1.4. Skalarprodukte werden oft durch spitze Klammern 〈·, ·〉 no-tiert. In LATEX sollte das auf keinen Fall durch die binären Operatoren ”

    “ dargestellt werden, sondern immer durch vernünftige Klammern,

    wie zum Beispiel \langle und \rangle (aus dem Paket amsmath).

    Beispiel 1.1.5.

    • Sei n ∈ N. Dann ist

    〈·, ·〉2 : Rn × Rn −→ R

    (x, y) 7−→n∑

    j=1

    xj · yj = xT · y

    ein Skalarprodukt auf Rn, das Standardskalarprodukt auf Rn.Dass es sich dabei tatsächlich um ein Skalarprodukt handelt, ist schnellnachgerechnet: Die Bilinearität folgt aus den Eigenschaften der Ma-trixmultiplikation (Proposition I.4.2.11). Die Symmetrie folgt aus derKommutativität der Multiplikation auf R und die positive Definitheitaus der Tatsache, dass Quadrate von reellen Zahlen ungleich Null stetspositiv sind.

    • Analog erhält man, indem man Summieren durch allgemeine Integrati-on ersetzt, das L2-Skalarprodukt auf gewissen Funktionenräumen. ZumBeispiel ist

    C([0, 1],R

    )× C

    ([0, 1],R

    )−→ R

    (f, g) 7−→∫ 1

    0

    f(x) · g(x) dx

    ein Skalarprodukt auf dem R-Vektorraum C([0, 1],R) der stetigen re-ellwertigen Funktionen auf R (nachrechnen).Auf ähnliche Weise erhält man auch ein Skalarprodukt auf dem Vek-torraum `2(R) der quadratsummierbaren Folgen (s. Analysis II).

    Würde man auf Cn analog zum Standardskalarprodukt auf Rn eine bilinea-re Abbildung definieren, so erhielte man natürlich keine positive Definitheit(da Quadrate komplexer Zahlen im allgemeinen keine positiven reellen Zah-len sind). Daher bringt man die komplexe Konjugation ins Spiel. Dies führtzu den folgenden Definitionen:

    Definition 1.1.6 (hermitesches Skalarprodukt). Sei V ein C-Vektorraum. Einhermitesches Skalarprodukt auf V ist eine hermitesche,1 positiv definiteSesquilinearform auf V . Die Begriffe haben dabei die folgende Bedeutung:

    1benannt nach Charles Hermite (1822–1901), einem französischen Mathematiker

  • 1.1. Euklidische und unitäre Vektorräume 7

    • Eine Abbildung b : V × V −→ C ist eine Sesquilinearform, wenn fürjedes x ∈ V die Abbildung

    b(x, · ) : V −→ C

    C-linear ist und die Abbildung

    b( · , x) : V −→ C

    R-linear ist und

    ∀y∈V ∀λ∈C b(λ · y, x) = λ · b(y, x)

    erfüllt.

    • Eine Sesquilinearform b : V × V −→ C ist hermitesch, wenn

    ∀x,y∈V b(x, y) = b(y, x)

    gilt; dabei ist · die komplexe Konjugation. Insbesondere gilt in diesemFall für alle x ∈ V , dass b(x, x) = b(x, x) ist, d.h., dass b(x, x) reell ist.

    • Eine hermitesche Sesquilinearform b : V ×V −→ C heißt positiv definit,wenn

    ∀x∈V \{0} b(x, x) > 0.

    Caveat 1.1.7. In manchen Quellen wird komplexe Linearität im ersten Argu-ment und konjugierte Linearität im zweiten Argument gefordert. Dies führtnatürlich letztendlich zur selben Theorie. Wir haben uns für die obige Va-riante entschieden, da diese gut mit dem Operator · H (s.u.) kompatibelist.

    Beispiel 1.1.8.

    • Sei n ∈ N. Dann ist

    〈·, ·〉2 : Cn × Cn −→ C

    (x, y) 7−→n∑

    j=1

    xj · yj = (x)T · y = xH · y

    ein hermitesches Skalarprodukt auf Cn, nämlich das Standardskalarpro-dukt auf Cn. Dabei bezeichnet AH für komplexe Matrizen A die Matrix,die man erhält, indem man A transponiert und alle Koeffizienten kom-plex konjugiert.

    Dass es sich dabei tatsächlich um ein hermitisches Skalarprodukt han-delt, ist schnell nachgerechnet: Die Sesquilinearität folgt aus den Eigen-schaften der Matrixmultiplikation (Proposition I.4.2.11) und der kom-plexen Konjugation. Dass die Abbildung hermitesch ist, folgt aus der

  • 8 1. Euklidische/Unitäre Vektorräume

    Kommutativität der Multiplikation auf C und der Multiplikativität derkomplexen Konjugation. Die positive Definitheit erhalten wir aus derTatsache, dass x · x = (Rex)2 + (Imx)2 für jede komplexe Zahl x ∈ Ceine Summe reeller Quadrate ist und Quadrate von reellen Zahlen un-gleich Null stets positiv sind.

    • Analog erhält man, indem man Summieren durch allgemeine Integrati-on ersetzt, das L2-Skalarprodukt auf gewissen Funktionenräumen. ZumBeispiel ist

    C([0, 1],C

    )× C

    ([0, 1],C

    )−→ C

    (f, g) 7−→∫ 1

    0

    f(x) · g(x) dx

    ein hermitesches Skalarprodukt auf dem C-Vektorraum C([0, 1],C) derstetigen komplexwertigen Funktionen auf C (nachrechnen).Auf ähnliche Weise erhält man auch ein Skalarprodukt auf dem Vektor-raum `2(C) der quadratsummierbaren komplexwertigen Folgen (s. Ana-lysis II).

    Definition 1.1.9 (euklidischer/unitärer Vektorraum).

    • Ein euklidischer Vektorraum ist ein Paar (V, 〈·, ·〉), bestehend aus einemR-Vektorraum V und einem Skalarprodukt 〈·, ·〉 auf V .

    • Ein unitärer Vektorraum ist ein Paar (V, 〈·, ·〉), bestehend aus einemC-Vektorraum V und einem hermiteschen Skalarprodukt 〈·, ·〉.

    1.1.2 Längen und Winkel

    Wir kehren nun zu unserem eigentlichen Ziel zurück, nämlich zur Beschrei-bung geometrischer Größen wie Längen und Winkel. Wir beginnen mitLängen bzw. Abständen; diese Begriffe passen in den Kontext normierterVektorräume, wobei Normen gerade die

    ”Länge“ von Vektoren (d.h. den Ab-

    stand zum Nullpunkt) messen.

    Definition 1.1.10 (Norm, normierter Vektorraum). Sei K ∈ {R,C}.

    • Sei V ein K-Vektorraum. Eine Norm auf V ist eine Abbildung

    ‖ · ‖ : V −→ R≥0

    mit den folgenden Eigenschaften:

    – Homogenität. Für alle λ ∈ K und alle x ∈ V ist

    ‖λ · x‖ = |λ| · ‖x‖.

  • 1.1. Euklidische und unitäre Vektorräume 9

    – Definitheit. Für alle x ∈ V ist ‖x‖ ≥ 0 und Gleichheit tritt nurfür x = 0 ein.

    – Dreiecksungleichung. Für alle x, y ∈ V ist

    ‖x+ y‖ ≤ ‖x‖+ ‖y‖.

    • Ein normierter K-Vektorraum ist ein Paar (V, ‖·‖), bestehend aus einemK-Vektorraum V und einer Norm ‖ · ‖ auf V .

    Bemerkung 1.1.11 (Metriken aus Normen). Ist (V, ‖ · ‖) ein normierter Vek-torraum, so ist

    V × V −→ R≥0(x, y) 7−→ ‖x− y‖

    eine Metrik auf V (nachrechnen). Insbesondere erhalten wir so auf normiertenVektorräumen auch eine Topologie (d.h. offene bzw. abgeschlossene Mengen)und einen Begriff von Kompaktheit bzw. Stetigkeit (s. Analysis I/II).

    Definition 1.1.12 (induzierte Norm). Sei (V, 〈·, ·〉) ein euklidischer/unitärerVektorraum. Dann definieren wir durch

    ‖ · ‖ : V −→ Rx 7−→

    √〈x, x〉

    die von 〈·, ·〉 induzierte Norm auf V .

    Um nachzuweisen, dass diese Konstruktion tatsächlich die Dreiecksunglei-chung erfüllt, verwenden wir das folgende Hilfsmittel:

    Satz 1.1.13 (Ungleichung von Cauchy-Schwarz). Sei (V, 〈·, ·〉) ein euklidischerbzw. unitärer Vektorraum mit induzierter

    ”Norm“ ‖ · ‖ und seien x, y ∈ V .

    Dann gilt ∣∣〈x, y〉∣∣ ≤ ‖x‖ · ‖y‖.

    Gleichheit tritt genau dann ein, wenn x und y linear abhängig sind.

    Beweis. Ist y = 0, so sieht man leicht, dass die Behauptung gilt. Im folgendennehmen wir daher y 6= 0 an. Die Idee ist, den Term 〈x− λ · y, x− λ · y〉 (derja nicht-negativ ist!) für ein geeignetes λ besser zu verstehen. Wir betrachtendazu

    λ :=〈x, y〉‖y‖2 ∈ C;

    im euklidischen Fall ist dabei λ ∈ R. Dann gilt (sowohl im euklidischen alsauch im unitären Fall!)

  • 10 1. Euklidische/Unitäre Vektorräume

    0 ≤ 〈x− λ · y, x− λ · y〉= 〈x, x〉 − 〈x, λ · y〉 − 〈λ · y, x〉+ 〈λ · y, λ · y〉= 〈x, x〉+ λ · λ · 〈y, y〉 − λ · 〈x, y〉 − λ · 〈x, y〉

    = ‖x‖2 + 1‖y‖2 ·∣∣〈x, y〉

    ∣∣2 − 2 · 1‖y‖2 ·∣∣〈x, y〉

    ∣∣2

    = ‖x‖2 − 1‖y‖2 ·∣∣〈x, y〉

    ∣∣2.

    Also ist ∣∣〈x, y〉∣∣2 ≤ ‖x‖2 · ‖y‖2,

    wobei Gleichheit genau dann auftritt, wenn x − λ · y = 0 ist. Man rechnetleicht nach, dass letztere Bedingung dazu äquivalent ist, dass x und y linearabhängig sind (Übungsaufgabe; diese Rechnung erklärt insbesondere auch,wie man auf die Definition von λ kommt . . . ). Aus dieser Ungleichung folgtmit der Monotonie der Wurzel und der Positivität von ‖ · ‖ die gewünschteUngleichung.

    Korollar 1.1.14 (Normen aus Skalarprodukten). Sei (V, 〈·, ·〉) ein euklidischer[oder unitärer] Vektorraum mit induzierter

    ”Norm“ ‖ · ‖. Dann ist ‖ · ‖ eine

    Norm auf V .

    Beweis. Homogenität und Definitheit folgen direkt aus den entsprechendenEigenschaften des (hermiteschen) Skalarproduktes 〈·, ·〉. Es bleibt also dieDreiecksungleichung zu zeigen: Seien x, y ∈ V . Dann ist (sozusagen die bino-mische Formel für Skalarprodukte)

    ‖x+ y‖2 = 〈x+ y, x+ y〉= 〈x, x〉+ 〈x, y〉+ 〈y, x〉+ 〈y, y〉= ‖x‖2 + 〈x, y〉+ 〈x, y〉+ ‖y‖2.

    Da 〈x, y〉 + 〈x, y〉 = 2 · Re〈x, y〉 reell ist und nach oben durch 2 · |〈x, y〉|beschränkt ist, folgt daraus

    ‖x+ y‖2 ≤ ‖x‖2 + 2 ·∣∣〈x, y〉

    ∣∣+ ‖y‖2.

    Mit der Cauchy-Schwarzschen Ungleichung (Satz 1.1.13) erhalten wir somit

    ‖x+ y‖2 ≤ ‖x‖2 + 2 · ‖x‖ · ‖y‖+ ‖y‖2 =(‖x‖+ ‖y‖

    )2.

    Mit der Monotonie der Wurzel und Positivität der Abbildung ‖ · ‖ folgt dar-aus ‖x+ y‖ ≤ ‖x‖+ ‖y‖, wie gewünscht.

    Beispiel 1.1.15 (euklidische Norm). Sei n ∈ N. Dann schreiben wir ‖ · ‖2 fürdie von 〈·, ·〉2 auf Rn induzierte Norm und bezeichnen diese als euklidischeNorm auf R2.

  • 1.1. Euklidische und unitäre Vektorräume 11

    Falls eine Norm von einem Skalarprodukt induziert wird, so kann man dasSkalarprodukt aus der Norm zurückgewinnen:

    Proposition 1.1.16 (Polarisierung). Sei (V, 〈·, ·〉) ein euklidischer oder unitärerVektorraum und sei ‖ · ‖ die von 〈·, ·〉 induzierte Norm auf V .

    1. Im euklidischen/reellen Fall gilt für alle x, y ∈ V :

    〈x, y〉 = 12·(‖x+ y‖2 − ‖x‖2 − ‖y‖2

    )

    2. Im unitären/komplexen Fall gilt für alle x, y ∈ V :

    〈x, y〉 = 14·(‖x+ y‖2 − ‖x− y‖2

    )− i

    4·(‖x+ i · y‖2 − ‖x− i · y‖2

    )

    Beweis. Dies folgt durch direktes Nachrechnen, indem man die Terme auf derrechten Seite durch das Skalarprodukt ausdrückt und aus

    ”multipliziert“.

    Caveat 1.1.17 (Norm ohne Skalarprodukt). Es gibt jedoch auch Normen, dienicht von Skalarprodukten induziert werden: Die Norm (nachrechnen!)

    ‖ · ‖1 : R2 −→ R≥0x 7−→ |x1|+ |x2|

    auf R2 wird nicht von einem Skalarprodukt induziert: Angenommen, ‖ · ‖1wäre von einem Skalarprodukt 〈·, ·〉1 induziert. Mit der Polarisierungsformel(Proposition 1.1.16) folgt dann für

    x :=

    (11

    )und y :=

    (−1

    1

    ),

    dass

    〈x, y〉1 =1

    2· (22 − 22 − 22) = −2

    〈x,−y〉1 =1

    2· (22 − 22 − 22) = −2 6= −(−2),

    im Widerspruch zur Bilinearität von 〈·, ·〉1. Also kann es ein solches Skalar-produkt 〈·, ·〉1 nicht geben.

    Aus der Analysis ist bekannt, dass alle Normen auf endlich-dimensionalenVektorräumen im folgenden Sinne äquivalent sind (im unendlich-dimensionalenFall stimmt das im allgemeinen nicht !):

    Satz 1.1.18 (Äquivalenz von Normen im endlich-dimensionalen Fall). Sei Vein endlich-dimensionaler reeller oder komplexer Vektorraum und seien ‖ · ‖bzw. ‖ · ‖′ Normen auf V . Dann gibt es eine Konstante C ∈ R≥1 mit

  • 12 1. Euklidische/Unitäre Vektorräume

    ∀x∈V1

    C· ‖x‖ ≤ ‖x‖′ ≤ C · ‖x‖.

    Insbesondere induzieren ‖·‖ und ‖·‖′ dieselbe Topologie auf V (d.h. dieselbenoffenen/abgeschlossenen Mengen, dieselben stetigen Abbildungen, . . . ).

    Beweis. Diese Aussage kann man durch den Vergleich mit der 1-Norm undein Kompaktheitsargument beweisen (s. Analysis II).

    Ausblick 1.1.19 (Banachräume, Hilberträume, Funktionalanalysis). Die Funk-tionalanalysis beschäftigt sich systematisch mit der Theorie der stetigen linea-ren Abbildungen auf (unendlich-dimensionalen) normierten Vektorräumen.Vollständige normierte Vektorräume bezeichnet man als Banachräume; voll-ständige euklidische/unitäre Vektorräume bezeichnet man als Hilberträume.

    Zusätzlich zu Abständen/Längen liefern Skalarprodukte auch einen Win-kelbegriff auf euklidischen Vektorräumen:

    Definition 1.1.20 (Winkel). Sei (V, 〈·, ·〉) ein euklidischer Vektorraum mit in-duzierter Norm ‖ · ‖ und seien x, y ∈ V mit x 6= 0 und y 6= 0. Dann ist derWinkel zwischen x und y definiert als

    ^(x, y) := arccos 〈x, y〉‖x‖ · ‖y‖ ∈ [0, π].

    Dabei bezeichnet arccos : [−1, 1] −→ [0, π] die Umkehrfunktion von cos |[0,π](Analysis I, Anhang A.1). Man beachte, dass das Argument von arccos in derobigen Definition nach der Cauchy-Schwarzschen Ungleichung (Satz 1.1.13)tatsächlich im Intervall [−1, 1] liegt.

    Wie kommt man auf diese Definition von Winkeln bzw., warum liefertdiese Definition einen sinnvollen Winkelbegriff? In der euklidischen Ebeneentspricht die obige Definition der Beschreibung des Winkels mithilfe desKosinussatzes. Außerdem stimmt die obige Definition mit der klassischenAnschauung von Winkeln über Bogenlängen überein (Abbildung 1.2):

    Bemerkung 1.1.21 (klassische Anschauung). Dazu betrachten wir in der eu-klidischen Ebene (R2, 〈·, ·〉2) die Kurve

    γ : [0, π] −→ R2

    t 7−→(

    cos tsin t

    ).

    Mithilfe geeigneter Integrale kann man die Länge von (glatten) Kurven be-stimmen (Analysis II). In diesem Fall erhält man für alle α ∈ [0, π]

    L(γ|[0,α]) =∫ α

    0

    ∥∥γ̇(t)∥∥

    2dt = α = arccos

    (cosα+ 01 · 1

    )= ^

    (e1, γ(α)

    ).

  • 1.1. Euklidische und unitäre Vektorräume 13

    e1cosα

    γ

    γ(α)

    α

    Abbildung 1.2.: Winkel, Bogenlänge und Ankathete

    Anmerkung für Lehramtsstudenten (Winkel in der Schule). Versuchen Siezu verstehen, wie diese Begrifflichkeiten mit dem in der Schule unterrichtetenWinkelbegriff zusammenhängen. Achten Sie dabei insbesondere darauf, wel-che mathematischen Konzepte dabei durch anschauliche Gegenstücke ersetztwerden!

    Beispiel 1.1.22. In (R2, 〈·, ·〉2) gilt (so wie wir es auch aus der Anschauungerwarten würden)

    ^(e1, e2) = arccos〈e1, e2〉2‖e1‖2 · ‖e2‖2

    = arccos 0 = π/2

    und

    ^((

    cosϕsinϕ

    ), e1

    )= arccos cosϕ = ϕ

    für alle ϕ ∈ [0, π].

    Beispiel 1.1.23 (senkrechte Vektoren). Sei (V, 〈·, ·〉) ein euklidischer Vektor-raum und seien x, y ∈ V \ {0}. Nach Definition des Winkels gilt genau dann^(x, y) = π/2, wenn 〈x, y〉 = 0 ist. In diesem Fall nennt man die Vekto-ren x und y orthogonal. Dieses Konzept ist außerordentlich wichtig und wirdausführlich in Kapitel 1.2 behandelt.

    Ausblick 1.1.24 (elementare ebene und räumliche Geometrie). Wir habennun im Prinzip alle Hilfsmittel beisammen, um die (elementare) ebeneund räumliche Geometrie mithilfe der euklidischen Vektorräume (R2, 〈·, ·〉2)bzw. (R3, 〈·, ·〉2) zu modellieren und zu entwickeln. Zum Beispiel könnte mannun die Begriffe

    ”Dreieck“ und

    ”Kreis“ definieren und die Standardsätze

    darüber beweisen (z.B. die Invarianz der Winkelsumme in euklidischen Drei-ecken etc.) [8]. Wir werden uns im folgenden jedoch auf andere Aspekte kon-zentrieren.

  • 14 1. Euklidische/Unitäre Vektorräume

    1.1.3 Lineare Isometrien

    Wir erinnern uns daran, dass zu einer mathematischen Theorie nicht nur Ob-jekte, sondern immer auch strukturerhaltende Morphismen gehören. Im Fallder euklidischen/unitären Vektorräume sind dies die (linearen) Isometrien.

    Definition 1.1.25 (lineare isometrische Einbettung, lineare Isometrie). Seien(V, ‖ · ‖) und (V ′, ‖ · ‖′) normierte Vektorräume über K ∈ {R,C}.

    • Eine lineare isometrische Einbettung (V, ‖ · ‖) −→ (V ′, ‖ · ‖′) ist eineK-lineare Abbildung f : V −→ V ′, die

    ∀x∈V∥∥f(x)

    ∥∥′ = ‖x‖

    erfüllt.

    • Eine lineare Isometrie (V, ‖ · ‖) −→ (V ′, ‖ · ‖′) ist eine lineare isome-trische Einbettung f : V −→ V ′, für die es eine lineare isometrischeEinbettung g : V ′ −→ V mit

    f ◦ g = idV ′ und g ◦ f = idV

    gibt.

    Bemerkung 1.1.26 (alternative Charakterisierung linearer Isometrien). Jede li-neare isometrische Einbettung ist injektiv (nachrechnen). Lineare isometri-sche Einbettungen zwischen endlich-dimensionalen normierten Vektorräumensind also genau dann Isomorphismen, wenn die beiden Vektorräume dieselbeDimension haben (Korollar I.4.4.15). Da in diesem Fall die inverse Abbildungauch automatisch eine isometrische Einbettung ist (nachrechnen), folgt: Li-neare isometrische Einbettungen zwischen endlich-dimensionalen normiertenVektorräumen sind genau dann (lineare) Isometrien, wenn die beiden Vek-torräume dieselbe Dimension haben.

    Beispiel 1.1.27 (Isometrien in der euklidischen Ebene).

    • Drehungen. Wir erinnern kurz an die Rotationsmatrizen: Sei ϕ ∈ R undsei

    R(ϕ) :=

    (cosϕ − sinϕsinϕ cosϕ

    )∈M2×2(R).

    Dann ist L(R(ϕ)) : R2 −→ R2 Rotation um ϕ um den Nullpunkt (Ab-bildung 1.3).

    Die Abbildung L(R(ϕ)) : R2 −→ R2 ist isometrisch bezüglich ‖ · ‖2,denn für alle x ∈ R2 ist

  • 1.1. Euklidische und unitäre Vektorräume 15

    ∥∥R(ϕ) · x∥∥2

    2=

    ∥∥∥∥(

    cosϕ · x1 − sinϕ · x2sinϕ · x1 + cosϕ · x2

    )∥∥∥∥2

    2

    = cos2 ϕ · x21 − 2 · cosϕ · sinϕ · x1 · x2 + sin2 ϕ · x22+ sin2 ϕ · x21 + 2 · cosϕ · sinϕ · x1 · x2 + cos2 ϕ · x22= (cos2 ϕ+ sin2 ϕ) · (x21 + x22)= x21 + x

    22 = ‖x‖22.

    • Spiegelungen. Die Spiegelung an der Geraden R · e2 wird durch dieMatrix

    S :=

    (−1 00 1

    )

    beschrieben. Die Abbildung L(S) : R2 −→ R2 ist isometrisch bezüglichder euklidischen Norm ‖ · ‖2, denn für alle x ∈ R2 ist

    ‖S · x‖22 =∥∥∥∥(−x1x2

    )∥∥∥∥2

    2

    = x21 + x22 = ‖x‖22.

    • Translationen. Sei a ∈ R2 und sei

    f : R2 −→ R2x 7−→ x+ a

    die zugehörige Translationsabbildung. Dann ist f nicht linear, aber imfolgenden Sinne abstandserhaltend bezüglich der von ‖ · ‖2 induziertenMetrik: Für alle x, y ∈ R2 gilt

    ∥∥f(x)− f(y)∥∥

    2= ‖x− y‖2.

    • Streckungen. Streckungs-/Skalierungsabbildungen sind im allgemeinekeine linearen Isometrien: Sei λ ∈ R \ {0}. Dann ist die Streckungs-abbildung

    R2 −→ R2x 7−→ λ · x

    ein Isomorphismus und genau dann isometrisch bezüglich der euklidi-schen Norm ‖ · ‖2, wenn |λ| = 1 ist.

    Bemerkung 1.1.28 (allgemeine euklidische Isometrien). Sei n ∈ N und seif : Rn −→ Rn eine Abbildung, die isometrisch bezüglich des euklidischenAbstands ist, die also

    ∀x,y∈Rn∥∥f(x)− f(y)

    ∥∥2

    = ‖x− y‖2

  • 16 1. Euklidische/Unitäre Vektorräume

    À

    Á

    cosϕ

    sinϕ

    e1

    ϕ

    Bild von e1

    À

    Á

    − sinϕ

    cosϕ

    e2

    ϕ

    Bild von e2

    Abbildung 1.3.: Zusammenhang zwischen Rotation und Rotationsmatrix

    erfüllt. Dann ist f bereits affin linear, d.h. die”verschobene“ Abbildung

    Rn −→ Rnx 7−→ f(x)− f(0)

    ist R-linear (und eine lineare Isometrie in unserem Sinne). Der Beweis dieserTatsache ist elementar [8, Satz 2.5.1], würde uns aber von unseren eigentli-chen Zielen zu weit entfernen. Es ist daher auch geometrisch (nicht nur ausdem Blickwinkel der Linearen Algebra) sinnvoll, sich auf lineare Isometrieneinzuschränken.

    Wir haben bisher nur Strukturerhaltung bezüglich der Norm gefordert.Im euklidischen und unitären Fall könnte man auch noch verlangen, dass dasSkalarprodukt erhalten bleibt. Tatsächlich muss man dies nicht zusätzlichverlangen, da dank Polarisierung der folgende Starrheitssatz gilt:

    Proposition 1.1.29 (Isometrien sind winkeltreu). Seien (V, 〈·, ·〉) und (V ′, 〈·, ·〉′)euklidische Vektorräume und sei f : V −→ V ′ eine lineare Isometrie bezüglichden induzierten Normen. Dann gilt

    ∀x,y∈V \{0} ^(f(x), f(y)

    )= ^(x, y).

    Beweis. Seien x, y ∈ V \ {0}. Da f ein Isomorphismus ist, ist dann auchf(x) 6= 0 und f(y) 6= 0; insbesondere ist der Winkel ^(f(x), f(y)) definiert.Mithilfe von Polarisierung (Proposition 1.1.16) und der Isometrieeigenschaftfolgt 〈

    f(x), f(y)〉′

    = 〈x, y〉.Die Definition des Winkels durch das Skalarprodukt bzw. die Norm liefertdann, dass ^

    (f(x), f(y)

    )= ^(x, y).

    Ein Spezialfall der Isomorphismen sind Automorphismen. Im Fall der li-nearen Isometrien erhält man so die Symmetriegruppe:

  • 1.1. Euklidische und unitäre Vektorräume 17

    Definition 1.1.30 (Isometriegruppe). Sei (V, ‖ · |) ein normierter Vektorraum.Dann ist

    Isom(V, ‖ · ‖

    ):={f∣∣ f : (V, ‖ · ‖) −→ (V, ‖ · ‖) ist eine lineare Isometrie

    }

    eine Gruppe bezüglich Abbildungskomposition (nachrechnen), die Isometrie-gruppe von (V, ‖ · ‖).

    Wir werden in Kapitel 1.2.3 die Isometriegruppen der Anschauungsräu-me (R2, ‖ · ‖2) bzw. (R3, ‖ · ‖2) mithilfe des Orthogonalitätsbegriffs systema-tisch untersuchen und explizit beschreiben. Aufbauend darauf könnte manzum Beispiel die Symmetriegruppen der platonischen Körper explizit berech-nen.

    1.1.4 Matrizenkalkül für Bilinearformen

    Es stellt sich nun die natürliche Frage, wie man die Menge aller Skalarpro-dukte auf Rn bzw. Cn oder allgemeiner der Bilinearformen (mit gewissenEigenschaften) gut beschreiben und klassifizieren kann. Als ersten Schrittin diese Richtung überlegen wir uns, wie man diese Fragestellungen in derSprache von Matrizen ausdrücken kann.

    Da es etwas unübersichtlich ist, den reellen und den komplexen Fall gleich-zeitig zu behandeln, konzentrieren wir uns zuerst auf den reellen Fall undgeben im Anschluss die entsprechenden Resultate im komplexen Fall an (Ka-pitel 1.1.5).

    Bemerkung 1.1.31 (der Raum der Bilinearformen). Ist V ein Vektorraum übereinem Körper K, so schreiben wir BilK(V ) für die Menge aller Bilinearfor-men auf V . Bezüglich punktweiser Addition und Skalarmultiplikation bil-det BilK(V ) einen K-Vektorraum (nachrechnen).

    Bilinearformen lassen sich wie folgt durch Matrizen darstellen, unter Ver-wendung der Notation aus (Korollar I.4.3.3 und Kapitel I.5).

    Proposition 1.1.32 (Bilinearformen aus Matrizen). Sei K ein Körper, sei Vein endlich-dimensionaler K-Vektorraum der Dimension n ∈ N und sei C =(c1, . . . , cn) eine Basis von V . Dann sind

    ϕ : BilK(V ) −→Mn×n(K)b 7−→MC(b) :=

    (b(cj , ck)

    )j,k∈{1,...,n},

    ψ : Mn×n(K) −→ BilK(V )A 7−→ BC(A)

    zueinander inverse Isomorphismen von K-Vektorräumen. Dabei verwendenwir die folgende Notation: Für A ∈Mn×n(K) sei

  • 18 1. Euklidische/Unitäre Vektorräume

    BC(A) : V × V −→ K(x, y) 7−→ TC,En(x)T ·A · TC,En(y).

    Beweis. Zu ϕ: Eine einfache Rechnung zeigt, dass ϕ linear ist.Zu ψ: Ist A ∈ Mn×n(K), so zeigen dieselben Überlegungen wie bei der

    Definition des euklidischen Skalarproduktes, dass BC(A) eine Bilinearformauf V ist. Außerdem ist ψ linear (nachrechnen).

    Zu ϕ ◦ψ: Sei A ∈Mn×n(K). Dann ist ϕ ◦ψ(A) = A, denn: Für alle j, k ∈{1, . . . , n} ist nach Konstruktion

    (ϕ ◦ ψ(A)

    )j,k

    =(TC,En(cj)

    )T ·A · TC,En(ck)= eTj ·A · ek = Aj,k

    Hierbei haben wir verwendet, dass Matrixmultiplikation mit den Standard-einheitsvektoren Zeilen bzw. Spalten extrahiert (Beispiel I.4.2.9).

    Zu ψ ◦ ϕ: Sei b ∈ BilK(V ). Dann ist ψ ◦ ϕ(b) = b, denn: Aufgrundder Bilinearität von ψ ◦ ϕ(b) und b genügt es zu zeigen, dass diese beidenAbbildungen auf Paaren von Basisvektoren aus C übereinstimmen. Für al-le j, k ∈ {1, . . . , n} gilt nach Konstruktion

    (ψ ◦ ϕ(b)

    )(cj , ck) = e

    Tj ·MC(b) · ek =

    (MC(b)

    )j,k

    = b(cj , ck).

    Auch dabei haben wir wieder verwendet, dass Matrixmultiplikation mit denStandardeinheitsvektoren Zeilen bzw. Spalten extrahiert.

    Beispiel 1.1.33 (Standardskalarprodukt). Sei K ein Körper. Ist V = Kn undC = En die Standardbasis, so schreiben wir kurz M(b) := MEn(b) undB(A) := BEn(A). Die Definition von B(A) vereinfacht sich dann zu

    B(A) : Kn ×Kn −→ K(x, y) 7−→ xT ·A · y.

    Ist K = R, so ist B(In) nichts anderes als das Standardskalarprodukt auf Rn.

    In Analogie zu Proposition I.5.1.20 und Korollar I.5.1.21 erhalten wir:

    Proposition 1.1.34 (Basiswechsel und Matrizen von Bilinearformen). Sei K einKörper, sei V ein endlich-dimensionaler K-Vektorraum der Dimension n ∈N, sei b ∈ BilK(V ), sei C eine Basis von V und sei A ∈ Mn×n(K). Dannsind äquivalent:

    1. Es gibt eine Matrix S ∈ GLn(K) mit

    A = ST ·MC(b) · S.

    2. Es gibt eine Basis D von V mit A = MD(b).

  • 1.1. Euklidische und unitäre Vektorräume 19

    Beweis. Wir machen zunächst eine Vorüberlegung zum Basiswechsel: Ist Deine Basis von V und ist S := MD,C ∈ GLn(K) die zugehörige Basiswechsel-matrix, so erhalten wir

    b(x, y) = TC,En(x)T ·MC(b) · TC,En(y)

    = (S · TD,En(x))T ·MC(b) · S · TD,En(y)= TD,En(x)

    T ·(ST ·MC(b) · S

    )· TD,En(y)

    für alle x, y ∈ V . Mit Proposition 1.1.32 (angewendet auf die Basis D) folgtaus dieser Gleichung die Basiswechselformel

    MD(b) = ST ·MC(b) · S.

    Zu 2. =⇒ 1.: Es gebe eine Basis D von V mit A = MD(b). DieVorüberlegung liefert A = MD(b) = S

    T ·MC(b) ·S für S := MD,C ∈ GLn(K).Zu 1. =⇒ 2.: Es gebe eine Matrix S ∈ GLn(K) mit A = ST ·MC(b) ·S. Da

    S invertierbar ist, bilden die Spalten (s1, . . . , sn) von S eine Basis von Kn.

    Also istD :=

    (TEn,C(s1), . . . , TEn,C(sn)

    )

    eine Basis von V und es gilt nach Konstruktion MD,C = S (nachrechnen!).Nach der Vorüberlegung ist somit A = ST ·MC(b) · S = MD(b).

    Caveat 1.1.35. Man beachte, dass sich die Basiswechselformel für Matrizenzu Bilinearformen von der Basiswechselformel für Matrizen zu linearen Ab-bildungen signifikant unterscheidet! Im bilinearen Fall involviert die Trans-formation das Transponierte der Basiswechselmatrix, im linearen Fall dasInverse.

    Beispiel 1.1.36 (Basiswechselwunder für Bilinearformen). Wir betrachten dieBilinearform

    b : R2 × R2 −→ R(x, y) 7−→ 5 · x1 · y1 + 3 · x1 · y2 + 3 · x2 · y1 + 2 · x2 · y2

    auf R2. Dann istME2(b) =

    (5 33 2

    ).

    Für die Basis (nachrechnen!)

    C :=

    ((1−1

    ),

    (1−2

    ))

    von R2 erhalten wir

    MC(b) = MTC ·ME2(b) ·MC =

    (1 −11 −2

    )·(

    5 33 2

    )·(

    1 1−1 −2

    )=

    (1 00 1

    ).

  • 20 1. Euklidische/Unitäre Vektorräume

    Wie im Fall linearer Abbildungen kann also auch bei der Betrachtung von Bi-linearformen der Übergang zu einer anderen Basis die Untersuchung erheblichvereinfachen.

    Mithilfe von Proposition 1.1.32 und Proposition 1.1.34 können wir stattmit Bilinearformen auch einfach mit Matrizen arbeiten. Es stellt sich da-her die Frage, wie sich Eigenschaften von Bilinearformen in entsprechendeEigenschaften von Matrizen übersetzen.

    Proposition 1.1.37 (Symmetriekriterium). Sei K ein Körper, sei V ein endlich-dimensionaler K-Vektorraum, sei C eine Basis und sei b : V ×V −→ K eineBilinearform auf K. Dann ist b genau dann symmetrisch, wenn die Ma-trix MC(b) symmetrisch ist.

    Beweis. Ist b symmetrisch, so folgt aus der Definition von MC(b), dass dieMatrix MC(b) symmetrisch ist.

    Sei umgekehrt A := MC(b) symmetrisch. Da 1× 1-Matrizen symmetrischsind, gilt b(x, y) = b(x, y)T für alle x, y ∈ V . Mit Proposition 1.1.32 undder Kompatibilität von Transponieren und Matrixmultiplikation (diese folgtdurch direktes Nachrechnen oder mithilfe von Proposition I.5.1.16) erhaltenwir somit

    b(x, y) = b(x, y)T

    =(BC(A)(x, y)

    )T

    =(TC,En(x)

    T ·A · TC,En(y))T

    = TC,En(y)T ·AT · (TC,En(x)T)T.

    Da A nach Voraussetzung symmetrisch ist, folgt

    b(x, y) = TC,En(y)T ·A · TC,En(x)

    = BC(A)(y, x)

    = b(y, x).

    Also ist b symmetrisch.

    Etwas komplizierter ist die Lage bei der Untersuchung von Definitheit.

    Definition 1.1.38 (Definitheit von Matrizen). Sei n ∈ N. Ein Matrix A ∈Mn×n(R) heißt positiv definit wenn die Bilinearform B(A) auf Rn positivdefinit ist. Analog definert man negative Definitheit, . . . für Matrizen.

    Wir werden in Korollar 1.3.14 Kriterien kennenlernen, mit denen manüberprüfen kann, ob eine gegebene symmetrische Matrix positiv definit ist.

    Insbesondere folgern wir aus den obigen Betrachtungen: Um symmetrischeBilinearformen auf Rn zu klassifizieren genügt es, symmetrische Matrizenin Mn×n(R) zu klassifizieren. Dies werden wir in Kapitel 1.3 genauer unter-suchen. Die Klassifikation der Skalarprodukte auf Rn erfolgt in Kapitel 1.2.2.

  • 1.1. Euklidische und unitäre Vektorräume 21

    1.1.5 Matrizenkalkül für Sesquilinearformen

    Analog können wir im komplexen Fall verfahren:

    Bemerkung 1.1.39 (der Raum der Sesquilinearformen). Ist V ein C-Vektor-raum, so schreiben wir SilC(V ) für die Menge aller Sesquilinearformen auf V .Bezüglich punktweiser Addition und Skalarmultiplikation bildet SilC(V ) einenC-Vektorraum (nachrechnen).

    Proposition 1.1.40 (Sesquilinearformen aus Matrizen). Sei V ein endlich-dimensionaler C-Vektorraum der Dimension n ∈ N und sei C = (c1, . . . , cn)eine Basis von V . Dann sind

    ϕ : SilC(V ) −→Mn×n(C)b 7−→MC(b) =

    (b(cj , ck)

    )j,k∈{1,...,n},

    ψ : Mn×n(C) −→ SilC(V )A 7−→ BCC(A)

    zueinander inverse Isomorphismen von C-Vektorräumen. Dabei verwendenwir die folgende Notation: Für A ∈Mn×n(C) sei

    BCC(A) : V × V −→ K(x, y) 7−→ TC,En(x)H ·A · TC,En(y).

    Beweis. Dies zeigt man analog zu Proposition 1.1.32.

    Das Standardskalarprodukt auf Cn erhält man in der obigen Notationals BCEn(In).

    Proposition 1.1.41 (Basiswechsel und Matrizen von Bilinearformen). Sei V einendlich-dimensionaler C-Vektorraum der Dimension n ∈ N, sei b ∈ SilC(V ),sei C eine Basis von V und sei A ∈Mn×n(C). Dann sind äquivalent:

    1. Es gibt eine Matrix S ∈ GLn(C) mit

    A = SH ·MC(b) · S.

    2. Es gibt eine Basis D von V mit A = MD(b).

    Beweis. Der Beweis ist analog zum reellen Fall (Proposition 1.1.34).

    Das komplexe Analogon zu symmetrischen Matrizen sind die selbstadjun-gierten Matrizen.

  • 22 1. Euklidische/Unitäre Vektorräume

    Definition 1.1.42 (selbstadjungierte Matrix). Sei n ∈ N. Eine Matrix A ∈Mn×n(C) ist selbstadjungiert, wenn AH = A ist, d.h., wenn

    ∀j,k∈{1,...,k} Ak,j = Aj,k.

    Proposition 1.1.43 (hermitesche Sesquilinearformen aus selbstadjungierten Ma-trizen). Sei V ein endlich-dimensionaler C-Vektorraum, sei C eine Basisvon V und sei b : V × V −→ C eine Sesquilinearform. Dann ist b genaudann hermitesch, wenn die Matrix MC(b) selbstadjungiert ist.

    Beweis. Der Beweis ist analog zum reellen Fall (Proposition 1.1.37), wobeiwir statt Transponieren den Operator ·H verwenden.

    1.2 Orthogonalität

    Der Winkelbegriff (zu einem gegebenen Skalarprodukt) liefert insbesondereauch eine Definition von Orthogonalität. Wir werden im folgenden ortho-gonale Vektoren betrachten und zeigen, dass jeder euklidische Vektorraumeine sogenannte Orthonormalbasis besitzt. Solche Orthonormalbasen liefernin vielen Anwendungen bequeme Koordinaten.

    1.2.1 Orthogonale Vektoren

    In Beispiel 1.1.23 haben wir bereits gesehen, wie man den Winkel π/2 (deranschaulich zur Orthogonalität korrespondiert) mithilfe des Skalarproduktscharakterisieren kann. Es ist außerdem nützlich, diesen Begriff auch auf denNullvektor zu verallgemeinern:

    Definition 1.2.1 (orthogonal). Sei (V, 〈·, ·〉) ein euklidischer/unitärer Vektor-raum.

    • Zwei Vektoren x, y ∈ V heißen orthogonal, falls 〈x, y〉 = 0 gilt. In diesemFall schreiben wir auch

    x ⊥ y.

    • Allgemeiner nennen wir Teilmengen A,B ⊂ V orthogonal (und schrei-ben dann A ⊥ B), wenn

    ∀x∈A ∀y∈B x ⊥ y.

    • Ist A ⊂ V , so nennen wir

    A⊥ := {y ∈ V | ∀x∈A x ⊥ y}

    das orthogonale Komplement von A.

  • 1.2. Orthogonalität 23

    Bemerkung 1.2.2 (Nullvektor). Aufgrund der positiven Definitheit von Ska-larprodukten ist der Nullvektor (in einem euklidischen/unitären Vektorraum)der einzige Vektor, der zu allen anderen Vektoren orthogonal ist.

    Dies hat die folgende Konsequenz: Sei (V, 〈 · , · 〉) ein euklidischer/unitärerVektorraum und sei A ⊂ V . Dann ist

    A ∩A⊥ ⊂ {0},

    denn: Sei x ∈ A∩A⊥. Insbesondere ist x ⊥ x, und damit x = 0. Wir werdendiese Aussage in Korollar 1.2.13 verfeinern.

    Beispiel 1.2.3. Sei n ∈ N. Dann gilt in (Rn, 〈 · , · 〉2) für alle j, k ∈ {1, . . . , n}:

    ej ⊥ ek ⇐⇒ j 6= k

    Außerdem gilt zum Beispiel, dass e1 nicht zu e1 + e2 orthogonal, aber esist (e1 + e2) ⊥ (e1 − e2). Außerdem ist

    {e1}⊥ = (R · e1)⊥ = SpanR{e2, . . . , en}.

    Bemerkung 1.2.4 (Orthogonalität und Abstände). Sei (V, 〈·, ·〉) ein euklidi-scher/unitärer Vektorraum mit induzierter Norm ‖ · ‖ und seien x, y ∈ Vmit x ⊥ y. Dann gilt

    ‖x+ y‖2 = ‖x‖2 + ‖y‖2

    (nachrechnen!). Der Satz des Pythagoras ist also in die Definition des Ska-larprodukts bzw. der induzierten Norm eingebaut.

    1.2.2 Orthonormalbasen

    In euklidischen bzw. unitären Vektorräumen ist es oft nützlich, statt allge-meiner Basen sogenannte Orthonormalbasen zu betrachten.

    Definition 1.2.5 (Orthonormalbasis). Sei (V, 〈 · , · 〉) ein euklidischer/unitärerVektorraum.

    1. Eine Familie (vi)i∈I in V ist ein Orthonormalsystem, wenn

    ∀i,j∈I 〈vi, vj〉 = δi,j

    (d.h. alle Vektoren der Familie haben Länge 1 und die Vektoren stehenalle orthogonal aufeinander).

    2. Eine Orthonormalbasis von (V, 〈 · , · 〉) ist eine Basis von V , die ein Or-thonormalsystem ist.

    Beispiel 1.2.6. Sei n ∈ N. Dann ist die Standardbasis (e1, . . . , en) eine Or-thonormalbasis von (Rn, 〈 · , · 〉2).

  • 24 1. Euklidische/Unitäre Vektorräume

    Lemma 1.2.7 (Orthogonalität und lineare Unabhängigkeit). Sei (V, 〈 · , · 〉) eineuklidischer/unitärer Vektorraum. Jedes Orthonormalsystem in V ist linearunabhängig (im euklidischen Fall über R, im unitären Fall über C).

    Beweis. Sei (vi)i∈I ein Orthonormalsystem in V . Ist J ⊂ I endlich und ist(λj)j∈J eine Familie in R (bzw. im unitären Fall in C), mit

    ∑j∈J λj · vj = 0,

    so folgt mit den Eigenschaften des Skalarprodukts

    0 = 〈vk, 0〉 =〈vk,∑

    j∈Jλj · vj

    〉=∑

    j∈Jλj · 〈vk, vj〉 =

    j∈Jλj · δk,j = λk

    für alle k ∈ J . Also ist (vi)i∈I linear unabhängig.Mit demselben Argument erhält man auch die folgende Verallgemeinerung

    von Bemerkung 1.2.4: Ist (λj)j∈J eine Familie in R (bzw. C), so gilt∥∥∥∥∑

    j∈Jλj · vj

    ∥∥∥∥ =√∑

    j∈J|λj |2

    für die von 〈 · , · 〉 induzierte Norm ‖ · ‖ auf V .

    Jeder endlich-dimensionale euklidische bzw. unitäre Vektorraum besitzteine Orthonormalbasis und eine solche kann mit dem folgenden Verfahrenaus einer gewöhnlichen Basis konstruiert werden:

    Satz 1.2.8 (Orthonormalisierungsverfahren von Gram-Schmidt). Sei (V, 〈 · , · 〉)ein euklidischer/unitärer Vektorraum, sei K der Grundkörper (also R imeuklidischen Fall bzw. C im unitären Fall), sei n ∈ N und sei (v1, . . . , vn)eine linear unabhängige Familie in V . Dann gibt es ein Orthonormalsy-stem (w1, . . . , wn) in V mit

    ∀k∈{1,...,n} SpanK({w1, . . . , wk}

    )= SpanK

    ({v1, . . . , vk}

    ).

    Genauer gilt: Die Familie (w1, . . . , wn), die rekursiv durch

    w1 :=1

    ‖w̃1‖· w̃1 und w̃1 := v1

    und

    wk+1 :=1

    ‖w̃k+1‖· w̃k+1 und w̃k+1 := vk+1 −

    k∑

    j=1

    〈wj , vk+1〉 · wj

    für alle k ∈ {1, . . . , n− 1} definiert ist, hat diese Eigenschaft. Dabei bezeich-net ‖ · ‖ die von 〈 · , · 〉 induzierte Norm auf V .

    Bevor wir mit dem eigentlichen Beweis beginnen, machen wir die Kon-struktion anschaulich plausibel: Nach Konstruktion entsteht wk jeweils aus w̃kdurch Normierung auf die Länge 1.

  • 1.2. Orthogonalität 25

    À

    Á

    w

    x

    〈w, x〉 · w

    Abbildung 1.4.: Extraktion des w-Anteils

    Ist x ∈ V und w ∈ V mit ‖w‖ = 1, so gibt 〈w, x〉·w den w-Anteil von x (imSinne einer orthogonalen Zerlegung) an (Abbildung 1.4). In der rekursivenDefinition

    w̃k+1 := vk+1 −k∑

    j=1

    〈wj , vk+1〉 · wj

    wird also der Anteil von vk+1 extrahiert, der nicht in Richtung der w1, . . . , wkliegt.

    Beweis. Wir beweisen die Behauptung folgendermaßen per Induktion:

    Induktionsanfang. Da (v1, . . . , vn) linear unabhängig ist, ist v1 6= 0. Ins-besondere ist w1 wohldefiniert und ‖w1‖ = 1. Nach Konstruktion ist dabeiSpanK{w1} = SpanK{v1}.

    Induktionsvoraussetzung. Sei k ∈ {1, . . . , n − 1} und es sei bereits ge-zeigt, dass (w1, . . . , wk) ein Orthonormalsystem mit SpanK{w1, . . . , wk} =SpanK{v1, . . . , vk} ist.

    Induktionsschritt. Wir zeigen nun, dass dann auch (w1, . . . , wk+1) ein Or-thonormalsystem mit SpanK{w1, . . . , wk+1} = SpanK{v1, . . . , vk+1} ist.

    • Es ist w̃k+1 6= 0, denn: Nach Induktionsvoraussetzung ist die Linear-kombination

    ∑kj=1〈wj , vk+1〉 · wj ∈ SpanK{v1, . . . , vk}. Da (v1, . . . , vn)

    eine linear unabhängige Familie ist, folgt aus der Konstruktion von w̃k+1,dass w̃k+1 6= 0.

    Also ist wk+1 wohldefiniert und ‖wk+1‖ = 1.

    • Sei ` ∈ {1, . . . , k}. Dann ist 〈w`, wk+1〉 = 0, denn: Es genügt dafür,〈w`, w̃k+1〉 = 0 zu zeigen. Nach Konstruktion und Induktionsvorausset-zung ist

  • 26 1. Euklidische/Unitäre Vektorräume

    〈w`, w̃k+1〉 =〈w`, vk+1 −

    k∑

    j=1

    〈wj , vk+1〉 · wj〉

    = 〈w`, vk+1〉 −k∑

    j=1

    〈wj , vk+1〉 · 〈w`, wj〉

    = 〈w`, vk+1〉 − 〈w`, vk+1〉= 0.

    • Nach Konstruktion von wk+1 und nach Induktionsvoraussetzung istwk+1 ∈ SpanK{v1, . . . , vk+1} und vk+1 ∈ SpanK{w1, . . . , wk+1}. Zusam-men mit der Induktionsvoraussetzung ergibt sich daraus die GleichheitSpanK{w1, . . . , wk+1} = SpanK{v1, . . . , vk+1}.

    Beispiel 1.2.9. Wir betrachten die linear unabhängige Familie

    (v1 :=

    (11

    ), v2 :=

    (20

    ))

    in (R2, 〈 · , · 〉2). Wenden wir das Orthonormalisierungsverfahren von Gram-Schmidt an, so erhalten wir

    w̃1 = v1 =

    (11

    )und w1 =

    1√2· v1 =

    1√2·(

    11

    )

    sowie

    w̃2 = v2 − 〈w1, v2〉2 · w1 =(

    20

    )− 2√

    2· 1√

    2

    (11

    )=

    (1−1

    )

    bzw.

    w2 =1√2·(

    1−1

    ).

    Dann ist (w1, w2) eine Orthonormalbasis von (R2, 〈 · , · 〉2).

    Korollar 1.2.10. Jeder endlich-dimensionale euklidische/unitäre Vektorraumbesitzt eine Orthonormalbasis.

    Beweis. Jeder (endlich-dimensionale) Vektorraum besitzt eine (endliche) Ba-sis. Auf eine solche Basis können wir das Orthonormalisierungsverfahren vonGram-Schmidt anwenden (Satz 1.2.8) und erhalten so eine Orthonormalba-sis.

    Als erste Anwendung des Orthonormalisierungsverfahrens erhalten wir,dass im endlich-dimensionalen Fall das Standardskalarprodukt (bis auf Iso-metrie) das einzige Skalarprodukt ist:

  • 1.2. Orthogonalität 27

    Korollar 1.2.11 (Klassifikation der endlich-dimensionalen euklidischen/unitärenVektorräume). Sei (V, 〈 · , · 〉) ein euklidischer/unitären Vektorraum der end-lichen Dimension n ∈ N und sei K der Grundkörper (also R im euklidischenFall, C im komplexen Fall). Dann gibt es einen Isomorphismus f : V −→ Knmit

    ∀x,y∈V〈f(x), f(y)

    〉2

    = 〈x, y〉.(Dies ist gleichbedeutend damit, dass f eine lineare Isometrie bezüglich derinduzierten Normen ist.)

    Beweis. Aufgrund von Satz 1.2.8 besitzt V eine Orthonormalbasis B. MitBemerkung 1.2.4 folgt dann, dass der Isomorphismus TB,En : V −→ Kn einelineare Isometrie ist. Da lineare Isometrien mit dem Skalarprodukt verträglichsind (Proposition 1.1.16 bzw. Proposition 1.1.29), folgt die Behauptung.

    Aus der Existenz von Orthonormalbasen erhält man außerdem auch daswichtige Werkzeug der orthogonalen Projektionen.

    Korollar 1.2.12 (orthogonale Projektion). Sei (V, 〈 · , · 〉) ein euklidischer/uni-tärer Vektorraum und sei U ⊂ V ein endlich-dimensionaler Untervektor-raum. Dann gibt es genau eine lineare Abbildung pU : V −→ V mit folgendenEigenschaften:

    1. Es gilt im pU ⊂ U

    2. und es gilt im(pU − idV ) ⊂ U⊥.

    Man bezeichnet pU als orthogonale Projektion von V auf U .

    Beweis. Existenz. Nach Orthonormalisierungssatz (Satz 1.2.8) besitzt U eineOrthonormalbasis B = (v1, . . . , vn) (bezüglich dem von V eingeschränktenSkalarprodukt). Dann definieren wir

    pU : V −→ V

    x 7−→n∑

    j=1

    〈vj , x〉 · vj .

    Nach Konstruktion ist pU linear und im pU ⊂ U . (Wegen vj = pU (vj) füralle j ∈ {1, . . . , n} gilt sogar pU (x) = x für alle x ∈ U .)

    Außerdem gilt im(pU − idV ) ⊂ U⊥, denn: Sei x ∈ V und j ∈ {1, . . . , n}.Nach Konstruktion von pU gilt

    〈vj , pU (x)− x〉 =n∑

    k=1

    (〈vj , 〈vk, x〉 · vk

    〉− 〈vj , x〉

    )

    = 〈vj , x〉 · 〈vj , vj〉 − 〈vj , x〉= 0.

  • 28 1. Euklidische/Unitäre Vektorräume

    Daher ist (pU − idV )(x) ∈ {v1, . . . , vn}⊥ = U⊥.Eindeutigkeit. (Übungsaufgabe).

    Orthogonale Komplemente liefern eine Möglichkeit, kanonische komple-mentäre Untervektorräume zu konstruieren:

    Korollar 1.2.13 (Komplemente). Sei (V, 〈·, ·〉) ein euklidischer/unitärer Vek-torraum und sei U ⊂ V ein endlich-dimensionaler Untervektorraum.

    1. Dann ist U⊥ ein zu U komplementärer Untervektorraum.

    2. Insbesondere ist die Abbildung

    U⊥ −→ V/Ux 7−→ x+ U

    ein Isomorphismus von reellen/komplexen Vektorräumen.

    Beweis. Zu 1. Es ist U⊥ ein Untervektorraum, denn: Man kann dies direktnachrechnen. Mit der bereits gelernten Theorie können wir aber auch bequemwie folgt argumentieren. Nach Definition ist

    U⊥ = {y ∈ V | ∀x∈U x ⊥ y}= {y ∈ V | ∀x∈U 〈x, y〉 = 0}=⋂

    x∈Uker〈x, ·〉.

    Da Kerne von linearen Abbildungen Untervektorräume sind und Durchschnit-te von Untervektorräumen Untervektorräume sind, folgt, dass U⊥ ein Unter-vektorraum ist.

    Außerdem sind U und U⊥ komplementär, denn:

    • Es ist U ∩ U⊥ = {0} (Bemerkung 1.2.2).

    • Es ist U + U⊥ = V , denn: Sei x ∈ V . Ist pU : V −→ V die orthogonaleProjektion auf U , so folgt

    x = −(pU (x)− x) + pU (x);

    der erste Term liegt in U⊥, der zweite in U . Also ist x ∈ U + U⊥.Zu 2. Dies folgt aus dem ersten Teil und Bemerkung I.4.4.12.

    Die obigen Aussagen über die Existenz von Orthonormalbasen, orthogona-le Projektionen, komplementäre Untervektorräume, . . . gelten im allgemei-nen nicht, wenn der betrachtete Untervektorraum unendlich-dimensional ist.Im unendlich-dimensionalen Fall werden zusätzlich noch Abgeschlossenheits-eigenschaften bezüglich der induzierten Norm benötigt. Die Untersuchungsolcher Fragen ist Gegenstand der Funktionalanalysis (Ausblick 1.1.19).

  • 1.2. Orthogonalität 29

    Ausblick 1.2.14 (Fouriertransformation). Die zusammengesetzte Familie

    (x 7→

    √2 · sin(2 · π · n · x)

    )n∈N>0 ∪

    (x 7→

    √2 · cos(2 · π · n · x)

    )n∈N

    ist ein Orthonormalsystem in C([0, 1],R) (bezüglich dem L2-Skalarproduktaus Beispiel 1.1.5); dies folgt aus einer länglichen (aber elementaren) Berech-nung der entsprechenden Integrale.

    Es gilt sogar noch mehr: bezüglich der durch das L2-Skalarprodukt indu-zierten Norm ist der von dieser Familie erzeugte Untervektorraum dicht imUntervektorraum der stetigen Funktionen f : [0, 1] −→ R mit f(0) = f(1).Dies ist die Grundlage der sogenannten Fouriertransformation, bei der manperiodische Funktionen als Reihe der obigen Sinus- und Kosinusfunktionendarstellt.

    1.2.3 Die orthogonale Gruppe

    Wir untersuchen im folgenden die Symmetriegruppe der euklidischen Ebenebzw. des dreidimensionalen euklidischen Raums genauer. Dazu betrachtenwir die folgenden Matrixgruppen:

    Definition 1.2.15 (orthogonale Gruppe, unitäre Gruppe). Sei n ∈ N. Danndefiniert man die folgenden Gruppen:

    O(n) := {A ∈ GLn(R) | L(A) ∈ Isom(Rn, ‖ · ‖2)} orthogonale Gruppe von RnSO(n) := {A ∈ O(n) | detA = 1} spezielle orthogonale Gruppe von RnU(n) := {A ∈ GLn(C) | L(A) ∈ Isom(Cn, ‖ · ‖2)} unitäre Gruppe von CnSU(n) := {A ∈ U(n) | detA = 1} spezielle unitäre Gruppe von Cn

    Die Verträglichkeit von Abbildungskomposition mit Matrixmultiplikati-on und die Multplikativität der Determinante zeigen, dass es sich dabeitatsächlich um Gruppen handelt (nachrechnen).

    An dieser Stelle sollte man sich daran erinnern, dass Automorphismenvon Rn mit positiver Determinante orientierungserhaltend sind und solchemit negativer Determinante orientierungsumkehrend sind. Erstere können wirim dreidimensionalen euklidischen Raum praktisch realisieren, letztere imNormalfall nicht: Es ist einfach, sich in eine gewisse Richtung zu drehen;es ist (zum Glück!) nicht ohne weiteres möglich, sich als Ganzes an einerEbene zu spiegeln (viele molekulare Strukturen haben nur in einer der beidenmöglichen Orientierungen den gewünschten Effekt).

    Zum Beispiel enthält O(2) die Rotationen um den Ursprung und die Spie-gelungen an den Geraden in R2 (Beispiel 1.1.27 bzw. Übungsaufgabe). InSatz 1.2.18 werden wir sehen, dass O(2) (wie wir auch aus der Anschauungerwarten würden!) keine weiteren Elemente enthält.

  • 30 1. Euklidische/Unitäre Vektorräume

    In der Praxis ist es bequem, die folgenden alternativen Beschreibungendieser Gruppen zu verwenden. Die erste Eigenschaft erklärt auch die Be-zeichnung als

    ”orthogonale“ Gruppe.

    Proposition 1.2.16. Sei (V, 〈 · , · 〉) ein euklidischer/unitärer Vektorraum derDimension n ∈ N, sei B = (v1, . . . , vn) eine Orthonormalbasis von V und seif : V −→ V ein Endomorphismus.

    1. Es ist f genau dann eine lineare Isometrie (bezüglich der von 〈 · , · 〉 in-duzierten Norm auf V ), wenn (f(v1), . . . , f(vn)) eine Orthonormalbasisvon V ist.

    2. Ist f eine lineare Isometrie, so gilt im euklidischen Fall MB,B(f) ∈O(n) und im unitären Fall MB,B(f) ∈ U(n).

    Beweis. Zu 1. Ist f eine lineare Isometrie, so ist f wegen Polarisierung mitdem Skalarprodukt verträglich (Proposition 1.1.16 und Proposition 1.1.29).Insbesondere bildet f also Orthonormalbasen auf Orthonormalbasen ab.

    Ist umgekehrt (f(v1), . . . , f(vn)) eine Orthonormalbasis von V , so ist feine Isometrie (Bemerkung 1.2.4 und Beweis von Lemma 1.2.7).

    Zu 2. Da B eine Orthonormalbasis ist, ist TB,En : V −→ Kn eine lineareIsometrie bezüglich dem euklidischen Abstand ‖ · ‖2 auf Kn (Beweis vonKorollar 1.2.11); dabei bezeichnet K den Grundkörper. Also ist auch dieKomposition

    L(MB,B(f)

    )= fB,B = TB,En ◦ f ◦ T−1B,En : K

    n −→ Kn

    eine lineare Isometrie bezüglich ‖ · ‖2. Nach Definition ist somit MB,B(f) inder orthogonalen bzw. unitären Gruppe.

    Korollar 1.2.17 (alternative Beschreibung der orthogonalen/unitären Gruppe).Sei n ∈ N. Dann ist

    O(n) ={A ∈Mn×n(R)

    ∣∣ AT ·A = In}

    undU(n) =

    {A ∈Mn×n(C)

    ∣∣ AH ·A = In}.

    Beweis. Wir führen den Beweis nur im euklidischen Fall (der unitäre Fallgeht analog): Ist A ∈ Mn×n(R), so gilt nach Definition des Standardska-larprodukts genau dann AT · A = In, wenn die Spalten von A eine Ortho-normalbasis von (Rn, 〈 · , · 〉2) bilden. Mit Proposition 1.2.16 folgt somit dieBehauptung.

    Satz 1.2.18 (niedrigdimensionale orthogonale Gruppen).

    1. Für alle n ∈ N>0 gilt

    O(n) = SO(n)∪{S ·A

    ∣∣ A ∈ SO(n)},

  • 1.2. Orthogonalität 31

    wobei S die Spiegelungsmatrix

    S :=

    −1 0 . . . 00 1 . . . 0...

    . . .. . . 0

    0 . . . 0 1

    ∈ O(n)

    bezeichnet.

    2. Es gilt SO(2) ={R(ϕ)

    ∣∣ ϕ ∈ [0, 2 · π)}

    . D.h. SO(2) ist die Gruppe derRotationen in R2 um den Ursprung.

    3. Das Komplement O(2)\SO(2) besteht genau aus der Menge aller Spie-gelungen in R2 an Geraden. Genauer: Sei A ∈ M2×2(R). Dann giltgenau dann A ∈ O(2) \ SO(2), wenn es B ∈ O(2) gibt mit

    B−1 ·A ·B =(−1 00 1

    ).

    4. Die Gruppe SO(3) besteht genau aus den Drehungen in R3 um Geraden.Genauer: Sei A ∈ M3×3(R). Dann gilt genau dann A ∈ SO(3), wennes B ∈ O(3) und ϕ ∈ [0, 2 · π) gibt mit

    B−1 ·A ·B =(

    1 00 R(ϕ)

    )=

    1 0 00 cosϕ − sinϕ0 sinϕ cosϕ

    .

    Bemerkung 1.2.19 (über die Konjugation mit orthogonalen Matrizen). Es sein ∈ N und sei A ∈ Mn×n(R). Ist B ∈ O(n), so ist B−1 · A · B, die Matrixfür die lineare Abbildung L(A) : Rn −→ Rn bezüglich der Orthonormalba-sis von Rn, die durch die Spalten von B gegeben ist. Der obige Satz besagtalso, dass Isometrien der euklidischen Ebene bzw. des euklidischen Raumsbezüglich geeigneter orthonormaler(!) Koordinatensysteme ein besonders ein-fache Gestalt haben.

    Beweis. Zu 1. Offenbar ist die rechte Seite in der linken Seite enthalten.

    Sei umgekehrt A ∈ O(n). Mit der Multiplikativität der Determinante undKorollar I.5.3.22 erhalten wir

    1 = det In = det(AT ·A) = detAT · detA = detA · detA,

    und damit detA ∈ {−1, 1}.

    • Ist detA = 1, so gilt nach Definition A ∈ SO(n).

    • Ist detA = −1, so ist

  • 32 1. Euklidische/Unitäre Vektorräume

    det(S−1 ·A) = 1detS

    · detA = (−1) · (−1) = 1,

    und damit S−1 ·A ∈ SO(n). Daher hat A = S · (S−1 ·A) die gewünschteGestalt.

    Zu 2. Ist ϕ ∈ [0, 2 ·π), so ist R(ϕ) ∈ SO(2) (Beispiel 1.1.27). Sei umgekehrt

    A =

    (a bc d

    )∈ SO(2).

    Die Bedingung A ∈ SO(2) liefert (mithilfe von Korollar 1.2.17) die folgendenGleichungen:

    a2 + c2 = (a, c) ·(ac

    )= 1 (1.1)

    b2 + d2 = (b, d) ·(bd

    )= 1 (1.2)

    a · b+ c · d = (b, d) ·(ac

    )= 0 (1.3)

    a · b+ c · d = (a, c) ·(bd

    )= 0 (1.4)

    a · d− b · c = detA = 1 (1.5)

    Wir multiplizieren Gleichung (1.4) mit b, Gleichung (1.5) mit d und addierendie entstehenden Gleichungen; dies liefert

    d = a · (b2 + d2) + b · c · d− b · c · d = a · (b2 + d2).

    Mit Gleichung (1.2) erhalten wir somit a = d. Analog zeigt man b = −c.Aus der Analysis wissen wir außerdem wegen Gleichung (1.1), dass es

    ein ϕ ∈ [0, 2 · π) mita = cosϕ und c = sinϕ

    gibt. Insgesamt folgt daher A = R(ϕ).Zu 3. Dies kann man durch eine geeignete Kombination der ersten beiden

    Teile sehen oder indem man den Beweis des zweiten Teils auf den Fall vonDeterminante −1 anpasst (Übungsaufgabe).

    Zu 4. Eine Rechnung zeigt: Für alle B ∈ O(3) und alle ϕ ∈ [0, 2 · π) ist

    B ·(

    1 00 R(ϕ)

    )·B−1

    ein Element von SO(3).Um zu verstehen, warum alle Elemente von SO(3) von dieser Form sind,

    bietet es sich an, zunächst etwas Spektraltheorie für Isometrien zu entwickeln(Lemma 1.2.20). Sei nun A ∈ SO(3) und f := L(A) : R3 −→ R3. Die Idee ist,

  • 1.2. Orthogonalität 33

    zunächst einen Kandidaten für die Rotationsachse zu finden und sich danndes zweiten bzw. dritten Teils zu bedienen.

    • Eine spezielle Gerade. Der Endomorphismus f besitzt einen Eigenvek-tor v ∈ R3 zum Eigenwert 1 oder −1, denn: Das charakteristische Po-lynom χf ∈ R[T ] von f ist ein Polynom dritten Grades mit Leitkoeffi-zient 1. Also gilt

    limx→−∞

    χf (x) = −∞ und limx→∞

    χf (x) =∞;

    mit dem Zwischenwertsatz folgt daraus, dass χf mindestens eine reelleNullstelle besitzt. Somit besitzt f mindestens einen Eigenwert λ ∈ Rund insbesondere einen Eigenvektor v zum Eigenwert λ. Nach Lem-ma 1.2.20 ist dabei λ ∈ {1,−1}. Indem wir statt v den normiertenVektor 1/‖v‖ · v betrachten, können wir ohne Einschränkung anneh-men, dass ‖v‖ = 1 ist.

    • Reduktion auf den zweidimensionalen Fall. Sei U := (R · v)⊥ ⊂ R3.Dann ist dimR U = 2 (Korollar 1.2.13). Sei (w1, w2) eine Orthonor-malbasis von U . Dann ist (v, w1, w2) eine Orthonormalbasis von R3.Da f als Isometrie Orthonormalbasen auf Orthonormalbasen abbildet,folgt f(w1), f(w2) ∈ {f(v)}⊥ = (R · v)⊥ = U bzw. f(U) ⊂ U . Also istf |U ∈ Isom(U, ‖ · ‖2). Daher ist (Proposition 1.2.16)

    AU := M(w1,w2),(w1,w2)(f |U ) ∈ O(2)

    und (wie man an M(v,w1,w2),(v,w1,w)(f) ablesen kann)

    detAU =detA

    λ=

    1

    λ.

    Wir unterscheiden nun zwei Fälle:

    • Ist λ = 1, so ist AU ∈ SO(2) und es gibt nach dem zweiten Teilein ϕ ∈ [0, 2 · π) mit AU = R(ϕ); in anderen Worten: auf U wirkt fdurch Rotation um ϕ. Wir betrachten dann die Matrix B, deren Spal-ten die Orthonormalbasis (v, w1, w2) bilden. Somit ist B ∈ O(3) undnach Konstruktion gilt

    B−1 ·A ·B =(

    1 00 AU

    )=

    (1 00 R(ϕ)

    ).

    • Ist λ = −1, so ist AU ∈ O(2) \SO(2) und es gibt nach dem dritten Teileine Matrix BU ∈ O(2) mit

    B−1U ·AU ·BU =(−1 00 1

    );

  • 34 1. Euklidische/Unitäre Vektorräume

    in anderen Worten: auf U wirkt f als Spiegelung an einer Geraden. Mitder Matrix

    B :=

    (1 00 BU

    )· (v |w1 |w2) ∈ O(3)

    erhalten wir somit

    B−1 ·A ·B =

    −1 0 00 −1 00 0 1

    .

    Indem wir die erste und dritte Spalte von B tauschen, erhalten wir eineMatrix C ∈ O(3) mit

    C−1 ·A · C =

    1 0 00 −1 00 0 −1

    =

    (1 00 R(π)

    ).

    Damit ist der Satz gezeigt.

    Lemma 1.2.20 (grundlegende spektrale Eigenschaften von Isometrien). Sei(V, 〈 · , · 〉) ein euklidischer/unitärer Vektorraum und sei f ∈ Isom(V, ‖ · ‖),wobei ‖ · ‖ die von 〈 · , · 〉 induzierte Norm auf V bezeichnet. Im euklidischenFall sei K = R, im unitären Fall sei K = C.

    1. Dann ist σK(f) ⊂{λ ∈ K

    ∣∣ |λ| = 1}

    .

    2. Sind λ, µ ∈ σK(f) mit λ 6= µ, so gilt

    Eigλ(f) ⊥ Eigµ(f).

    Insbesondere treffen diese Eigenschaften also auf Matrizen aus O(n) zu.

    Beweis. Zu 1. Sei λ ∈ K ein Eigenwert von f und sei x ∈ V ein Eigenvektorzum Eigenwert λ. Da f eine Isometrie ist, folgt

    ‖x‖ =∥∥f(x)

    ∥∥ = |λ| · ‖x‖.

    Wegen x 6= 0 ist somit |λ| = 1.Zu 2. Seien λ 6= µ Eigenwerte von f und seien x, y ∈ V Eigenvektoren

    zum Eigenwert λ bzw. µ. Da f auch mit dem Skalarprodukt verträglich ist(wegen Polarisierung; Proposition 1.1.16), folgt dann

    〈x, y〉 =〈f(x), f(y)

    〉= 〈λ · x, µ · y〉 = λ · µ · 〈x, y〉.

    Wegen λ 6= µ und |λ| = 1 = |µ| erhalten wir λ · µ 6= 1, und damit 〈x, y〉 = 0.Also ist x ⊥ y.

  • 1.3. Spektralsätze 35

    Korollar 1.2.21. Jede lineare Isometrie von (R2, ‖ · ‖2) lässt sich als Kompo-sition von einer oder zwei Spiegelungen schreiben.

    Beweis. Dies folgt aus Satz 1.2.18 und einem kleinen geometrischen Argu-ment (Übungsaufgabe).

    Beispiel 1.2.22 (kleine unitäre Gruppe). Nach Definition der unitären Grup-pen ist U(1) = {x ∈ C | |x| = 1}. Man beachte dabei, dass {x ∈ C | |x| = 1}nichts anderes als der Einheitskreis in C ist.

    1.3 Spektralsätze

    Die Untersuchung von Endomorphismen auf Diagonalisierbarkeit ist sowohlin den Anwendungen der linearen Algebra als auch für die abstrakte Klassi-fikation von Endomorphismen von Bedeutung. Im euklidischen/unitären Fallstellt sich heraus, dass es eine große Klasse von Endomorphismen gibt, diesich besonders schön diagonalisieren lassen: Dies sind die sogenannten selbst-adjungierten Endomorphismen.

    Wir führen zunächst selbstadjungierte Endomorphismen ein und beweisendann den sogenannten Spektralsatz (also, dass solche Endomorphismen aufeine besonders schöne Weise diagonalisierbar sind). Als Anwendung erhältman zum Beispiel die Hauptachsentransformation. Zum Abschluss betrach-ten wir noch den Sylvesterschen Trägheitssatz und Definitheitskriterien fürsymmetrische Matrizen.

    1.3.1 Selbstadjungierte Endomorphismen

    Ein Endomorphismus eines euklidischen/unitären Vektorraums ist selbstad-jungiert, wenn er sich

    ”durch das Skalarprodukt durchziehen“ lässt.

    Definition 1.3.1 (selbstadjungiert). Sei (V, 〈 · , · 〉) ein euklidischer/unitärerVektorraum. Ein Endomorphimus f : V −→ V ist selbstadjungiert, wenn

    ∀x,y∈V〈x, f(y)

    〉=〈f(x), y

    〉.

    Wir erinnern daran, dass eine komplexe Matrix A selbstadjungiert heißt,wenn AH = A ist. Sind alle Koeffizienten von A reell, so ist dies äquivalentdazu, dass A symmetrisch ist (also AT = A gilt).

    Proposition 1.3.2 (Selbstadjungiertheit via Matrizen). Sei (V, 〈 · , · 〉) ein eu-klidischer/unitärer Vektorraum der Dimension n ∈ N, sei B eine Orthonor-malbasis von V und sei f : V −→ V ein Endomorphismus. Dann ist f genaudann selbstadjungiert, wenn die Matrix MB,B(f) selbstadjungiert ist.

  • 36 1. Euklidische/Unitäre Vektorräume

    Beweis. Wir schreiben B = (v1, . . . , vn). Da B eine Orthonormalbasis ist,gilt für alle j, k ∈ {1, . . . , n}, dass

    〈vj , f(vk)

    〉=

    〈vj ,

    n∑

    `=1

    A`,kv`

    〉= Aj,k

    und analog 〈f(vj), vk

    〉= Ak,j .

    Mit der Bi- bzw. Sesquilinearität des Skalarprodukts folgt daraus die Be-hauptung.

    Der obige Beweis erinnert an die Betrachtungen in Kapitel 1.1.4 und 1.1.5.Tatsächlich gibt es auch die Möglichkeit, beide Aspekte in einem gemeinsa-men Formalismus zu fassen.

    Die Charakterisierung aus Proposition 1.3.2 erlaubt es uns, auf einfacheWeise Beispiele für Selbstadjungiertheit anzugeben:

    Beispiel 1.3.3. Der Endomorphismus

    C2 −→ C

    x 7−→(

    1 i−i 2017

    )· x

    ist selbstadjungiert, aber der Endomorphismus

    C2 −→ C

    x 7−→(i i−i 2017

    )· x

    ist nicht selbstadjungiert.

    Die folgende Beobachtung erklärt den Begriff der Selbstadjungiertheit:

    Proposition 1.3.4 (adjungierte Homomorphismen). Sei (V, 〈 · , · 〉) ein euklidi-scher/unitärer Vektorraum der Dimension n ∈ N und sei f : V −→ V einEndomorphismus. Dann gibt es genau einen Endomorphismus fH : V −→ Vmit

    ∀x,y∈V〈x, f(y)

    〉=〈fH(x), y

    〉.

    Man bezeichnet fH dann auch als adjungierte Abbildung von f .

    Beweis. Existenz. Sei B = (v1, . . . , vn) eine Orthonormalbasis von V und seiA := MB,B(f). Wir definieren den Endomorphismus

    fH := T−1B,En ◦ L(AH)◦ TB,En : V −→ V.

    Für alle j, k ∈ {1, . . . , n} gilt dann nach Konstruktion

  • 1.3. Spektralsätze 37

    〈vj , f(vk)

    〉= Aj,k = AHk,j =

    〈fH(vj), vk

    〉.

    Mit der Bi- bzw. Sesquilinearität des Skalarprodukts folgt daraus 〈x, f(y)〉 =〈fH(x), y〉 für alle x, y ∈ V .

    Eindeutigkeit. Seien F,G : V −→ V Endomorphismen mit

    ∀x,y∈V〈F (x), y

    〉=〈x, f(y)

    〉=〈G(x), y

    〉.

    Sei x ∈ V . Dann gilt für alle y ∈ V (insbesondere für y = F (x)−G(x)), dass〈F (x)−G(x), y

    〉=〈F (x), y

    〉−〈G(x), y

    〉=〈x, f(y)

    〉−〈x, f(y)

    〉= 0.

    Mit der positiven Definitheit erhalten wir daraus F (x)−G(x) = 0 bzw. F (x) =G(x). Dies beweist die Eindeutigkeit.

    Korollar 1.3.5 (Selbst-Adjungiertheit). Sei (V, 〈 · , · 〉) ein endlich-dimensiona-ler euklidischer/unitärer Vektorraum und sei f : V −→ V ein Endomorphis-mus. Dann ist f genau dann selbstadjungiert, wenn f = fH gilt.

    Beweis. Dies folgt direkt aus der vorigen Proposition 1.3.4.

    Caveat 1.3.6. Oft wird die adjungierte Abbildung von f in der Literaturauch mit f∗ bezeichnet. Dies kann jedoch zu Verwechslungen mit der dualenAbbildung führen. Da die duale Abbildung bezüglich (dualer Basen) durchdie transponierte Matrix dargestellt wird (Proposition I.5.1.16) und da manmithilfe von Skalarprodukten auch Dualisieren kann (Übungsaufgabe), stim-men diese beiden Konstruktionen (im reellen Fall) sogar in einem gewissenSinne überein. Wir werden davon im folgenden aber keinen Gebrauch machenund daher die adjungierte Abbildung mit fH bezeichnen.

    1.3.2 Der Spektralsatz

    Satz 1.3.7 (Spektralsatz für selbstadjungierte Endomorphismen). Sei (V, 〈 · , · 〉)ein endlich-dimensionaler euklidischer/unitärer Vektorraum und sei f : V −→V ein selbstadjungierter Endomorphismus. Es bezeichne K den Grundkörpervon V (also R im euklidischen Fall bzw. C im unitären Fall). Dann gilt:

    1. Alle Eigenwerte von f über K sind bereits reell, d.h. σK(f) ⊂ R.2. Es gibt eine Orthonormalbasis von V aus Eigenvektoren von f .

    3. Insbesondere ist f über K diagonalisierbar.

    Wir werden den zweiten Teil dieses Satzes per Induktion über die Dimen-sion des Vektorraums führen. Dazu benötigen wir zwei wesentliche Bausteine:

    • Jeder selbstadjungierte Endomorphismus eines endlich-dimensionaleneuklidischen/unitären Vektorraums besitzt mindestens einen Eigenwert/-vektor.

  • 38 1. Euklidische/Unitäre Vektorräume

    • Ist W ⊂ V ein Untervektorraum von V mit f(W ) ⊂ W , so giltauch f(W⊥) ⊂W⊥.

    Kombinieren wir diese beiden Eigenschaften, so sehen wir, dass wir uns Di-mension für Dimension nach unten (bis zur Dimension 0) hangeln können.

    Anmerkung zum Lernen. Woher kennen Sie diese Beweisstrategie?

    Beweis. Zu 1. Sei λ ∈ σK(f) und sei v ∈ V ein Eigenvektor zum Eigenwert λ.Da f selbstadjungiert ist, folgt

    λ · 〈v, v〉 =〈v, f(v)

    〉=〈f(v), v

    〉= λ · 〈v, v〉.

    Wegen v 6= 0 erhalten wir daraus λ = λ, d.h. λ ist reell.Zu 3. Der dritte Teil ist eine direkte Folgerung aus dem zweiten Teil.Zu 2. Wir beweisen die zweite Behauptung durch Induktion über dimK V :Induktionsanfang. Im Fall dimK V = 0 ist nichts zu zeigen.Induktionsvoraussetzung. Sei n ∈ N>0 und es sei bereits gezeigt, dass es zu

    jedem selbstadjungierten Endomorphismus eines euklidischen/unitären Vek-torraums der Dimension n−1 eine Orthonormalbasis aus Eigenvektoren gibt.

    Induktionsschritt. Sei dimK V = n und sei f : V −→ V selbstadjungiert.• Dann besitzt f mindestens einen Eigenvektor v ∈ V , denn: Wegen n > 0

    besitzt das charakteristische Polynom χf ∈ K[T ] ⊂ C[T ] (das Grad nhat) nach dem Fundamentalsatz der Algebra (Satz I.6.3.8) mindestenseine Nullstelle λ ∈ C. Ist K = C, so ist λ ein Eigenwert von f und nachdem ersten Teil λ ∈ R.Ist K = R, so argumentieren wir wie folgt: Sei B eine Orthonormalbasisvon V und sei A := MB,B(f) ∈Mn×n(R). Da f selbstadjungiert ist, istA symmetrisch bzw. selbstadjungiert (Proposition 1.3.2). Fassen wir Aals Matrix in Mn×n(C) auf, so zeigt das obige Argument im komplexenFall für L(A) : Cn −→ Cn, dass λ eine reelle(!) Nullstelle von χA = χfist (es macht keinen Unterschied, ob wir das charakteristische Polynomvon A über C oder über R berechnen). Somit ist λ auch ein Eigewertder reellen Matrix A bzw. von f .

    Insbesondere besitzt f mindestens einen Eigenvektor v ∈ V .

    • Sei U := (K · v)⊥ ⊂ V . Dann gilt f(U) ⊂ U , denn: Sei x ∈ U . Danngilt (da f selbstadjungiert und v ein Eigenvektor zum Eigenwert λ ist)

    〈f(x), v

    〉=〈x, f(v)

    〉= λ ·

    〈x, v〉

    = 0,

    und damit f(x) ⊥ v. Also ist auch f(x) ∈ {v}⊥ = (K · v)⊥ = U .

    • Anwendung der Induktionsvoraussetzung: Da U komplementär zu K ·vist (Korollar 1.2.13), ist

    dimC U = dimC V − 1 = n− 1.

  • 1.3. Spektralsätze 39

    Die Einschränkung f |U : U −→ U ist nach dem vorigen Schritt tatsäch-lich ein Endomorphismus von U und nach Konstruktion selbstadjun-giert (bezüglich dem von V auf U eingeschränkten Skalarprodukt).

    Nach Induktionsvoraussetzung besitzt somit U eine Orthonormalba-sis (u1, . . . , un−1) aus Eigenvektoren von f |U .

    Dann ist (1/‖v‖ · v, u1, . . . , un) eine Orthonormalbasis von V , die aus Eigen-vektoren von f besteht.

    Bemerkung 1.3.8 (Spektralsatz für normale Operatoren). Allgemeiner giltauch ein leicht modifizerter Spektralsatz für sogenannte normale Operatoren,d.h. für Endomorphismen f mit fH◦f = f ◦fH (mit einem ähnlichen Beweis).Neben den selbstadjungierten Endomorphismen sind auch Endomorphismen,die lineare Isometrien sind, normal. Das Konzept der normalen Operatorenerlaubt es also, die spektralen Eigenschaften von selbstadjungierten und iso-metrischen Endomorphismen gleichzeitig zu behandeln.

    Korollar 1.3.9 (Spektralsatz für symmetrische Matrizen). Sei n ∈ N und seiA ∈Mn×n(R) eine symmetrische Matrix, d.h. A = AT. Dann ist A (über R)diagonalisierbar. Genauer gilt sogar: Es gibt eine Matrix S ∈ O(n) mit derEigenschaft, dass S−1 ·A · S in Diagonalgestalt ist.

    Beweis. Da A symmetrisch ist, ist f := L(A) : Rn −→ Rn bezüglich 〈 · , · 〉2selbstadjungiert. Also können wir den Spektralsatz (Satz 1.3.7) auf f anwen-den und erhalten so eine Orthonormalbasis B von Rn, die aus Eigenvekto-ren von f besteht. Dann hat die Matrix S := MB (d.h. die Matrix, derenSpalten aus den Vektoren aus B besteht) die Eigenschaft, dass S−1 · A · Sin Diagonalgestalt ist. Da B eine Orthonormalbasis ist, gilt dabei außer-dem S ∈ O(n).

    Bemerkung 1.3.10. Mit den bereits entwickelten Techniken können wir fürreelle symmetrische Matrizen A solche Transformationsmatrizen S wie inKorollar 1.3.9 rechnerisch bestimmen:

    • Wir bestimmen die Eigenwerte von A über das charakteristische Poly-nom χA.

    • Wir bestimmen mit dem Gaußschen Eliminationsverfahren Basen fürdie Eigenräume von A.

    • Wir werden das Orthonormalisierungsverfahren auf jede dieser Basenan.

    • Wir setzen diese Basen zu einer Basis des Gesamtraums zusammen undverwenden diese Basisvektoren als Spalten von S.

  • 40 1. Euklidische/Unitäre Vektorräume

    Man beachte, dass die Spalten von S tatsächlich eine Orthonormalbasis bil-den: Nach dem Spektralsatz (alternativ: über eine einfache Rechnung) sinddie Eigenräume orthogonal zueinander. Somit lassen sich Orthonormalbasender Eigenräume zu einer Orthonormalbasis des gesamten Raums zusammen-setzen.

    Bemerkung 1.3.11 (Verzicht auf den Fundementalsatz der Algebra). Im reellenFall kann man auch ohne den Fundamentalsatz der Algebra auskommen. Mankann nämlich mit dem folgenden analytischen Trick auf die Existenz einesreellen Eigenwertes schließen:

    Sei n ∈ N und sei A ∈Mn×n(R) eine symmetrische Matrix. Dazu betrach-ten wir die Abbildung

    R : Sn−1 −→ Rx 7−→ 〈x,A · x〉2

    wobei Sn−1 := {x ∈ Rn | ‖x‖2 = 1} die Einheitssphäre in Rn ist. Wir zeigennun, dass diese Abbildung ein Minimum λ besitzt und dass MinimalstellenEigenvektoren zum Eigenwert λ sind:

    • Existenz eines Minimums: Die Abbildung R ist stetig (sogar glatt) undSn−1 ist kompakt. Also besitzt R ein Minimum λ ∈ R.

    • Das Minimum ist ein Eigenwert von A: Sei v ∈ Sn−1 eine Minimal-stelle von R. Mithilfe der Methode der Lagrangemultiplikatoren für dieBestimmung von Extrema der glatten Funktion R (die sich auch glattauf eine Umgebung von Sn−1 fortsetzen lässt) unter Nebenbedingungen(Analysis II) sieht man dann, dass A · v = λ · v ist.

    Korollar 1.3.12 (Wurzeln aus”nicht-negativen“ symmetrischen Matrizen). Sei

    n ∈ N und sei A ∈ Mn×n(R) eine symmetrische Matrix mit σR(A) ⊂ R≥0.Dann gibt es eine Matrix B ∈Mn×n(R) mit

    B2 = A.

    Beweis. Wir wenden den Konjugationstrick an: Nach dem Spektralsatz fürsymmetrische Matrizen (Korollar 1.3.9) ist A diagonalisierbar. Da σR(A) ⊂R≥0 ist, existieren somit λ1, . . . , λn ∈ R≥0 und eine Matrix S ∈ O(n) mit

    A = S ·D · S−1,

    wobei

    D :=

    λ1 . . . 0...

    . . ....

    0 . . . λn

    .

  • 1.3. Spektralsätze 41

    Wir betrachten dann die Matrix B := S−1 ·√D · S ∈ Mn×n(R), wobei wir

    die suggestive Notation

    √D :=

    √λ1 . . . 0...

    . . ....

    0 . . .√λn

    vewenden. Nach Konstruktion gilt

    B2 = S−1 ·√D · S · S−1 ·

    √D · S = S−1 ·

    √D ·√D · S = S−1 ·D · S = A,

    wie gewünscht.

    Ausblick 1.3.13 (Spektralkalkül). Allgemeiner kann man auf diagonalisierbare(insbesondere auf symmetrische) Matrizen mit demselben Trick auch andereFunktionen sinnvoll anwenden. Die systematische Betrachtung solcher Kon-struktion führt zum sogenannten Spektralkalkül in der Funktionalanalysis.

    Aus dem Spektralsatz erhalten wir zudem auch das folgende Kriterium fürpositive Definitheit symmetrischer Matrizen:

    Korollar 1.3.14 (Definitheitskriterium für symmetrische Matrizen). Sei n ∈ Nund sei A ∈Mn×n(R) eine symmetrische Matrix. Dann ist die Matrix A

    genau dann positiv definit, wenn σR(A) ⊂ R>0genau dann positiv semi-definit, wenn σR(A) ⊂ R≥0genau dann negativ definit, wenn σR(A) ⊂ R0 6= ∅ 6= σR(A) ∩ R

  • 42 1. Euklidische/Unitäre Vektorräume

    Es gelte umgekehrt λj > 0 für alle j ∈ {1, . . . , n}. Sei x ∈ Rn und y := S ·x.Dann folgt

    xT ·A · x = (S · x)T ·D · (S · x) = yT ·D · y =n∑

    j=1

    λj · y2j .

    Ist x 6= 0, so ist y 6= 0 und es gibt ein j ∈ {1, . . . , n} mit yj 6= 0. Wegenλ1, . . . , λn ∈ R>0 erhalten wir somit

    xT ·A · x ≥ λj · y2j > 0.

    Also ist A positiv definit.

    Bemerkung 1.3.15 (das Hauptminorenkriterium). In der Praxis kann auch dasfolgende Kriterium für positive Definitheit nützlich sein: Sei n ∈ N und seiA ∈ Mn×n(R) eine symmetrische Matrix. Dann ist A genau dann positivdefinit, wenn

    ∀j∈{1,...,n} detA(j) > 0ist. Dabei bezeichnet A(j) die Matrix, die man aus A erhält, indem mandie (j + 1)-te, . . . , n-te Zeile und Spalte von A streicht. Die DeterminantendetA(j) bezeichnet man auch als Hauptminoren von A. Dies kann man zumBeispiel durch Induktion über n beweisen (Übungsaufgabe).

    Symmetrische Matrizen treten zum Beispiel auf natürliche Weise in dermehrdimensionalen Analysis auf (als Hesse-Matrizen gutartiger Funktionen)oder in der algebraischen Topologie (im Kontext von Schnittformen).

    Ausblick 1.3.16 (Hesse-Matrix). Definitheitskriterien sind (analog zum ein-dimensionalen Fall) in der mehrdimensionalen Analysis bei der Suche nachlokalen Extrema nützlich:

    Sei n ∈ N und sei f ∈ C2(Rn,R). Ist x ∈ Rn eine lokale Extremalstellevon f , so gilt f ′(x) = 0. Dies ist also eine notwendige Bedingung für lokaleExtremalstellen.

    Ist x ∈ Rn mit f ′(x) = 0, so gibt es das folgende hinreichende Kriterium:Die zweite Ableitung f ′′(x) ist eine symmetrische Bilinearform auf Rn. Istdiese positiv definit, so ist x eine isolierte lokale Minimalstelle. Ist f ′′(x)negativ definit, so ist x eine isolierte lokale Maximalstelle. Ist f ′′(x) indefinit,so ist x keine lokale Extremalstelle.

    Indem man eine Matrix zu f ′′(x) mithilfe der partiellen Ableitungen be-rechnet (sogenannte Hesse-Matrix ), kann man nun Definitheitskriterien fürsymmetrische Matrizen anwenden.

  • 1.3. Spektralsätze 43

    À

    Á

    {x ∈ R2 | x21 + x22 = 1}

    À

    Á

    {x ∈ R2 | 2 · x21 + x22 = 1}

    À

    Á

    {x ∈ R2 | x21 − x22 = 1}

    Abbildung 1.5.: Beispiele für ebene Quadriken

    1.3.3 Hauptachsentransformation

    Eine schöne geometrische Anwendung des Spektralsatzes für symmetrischeMatrizen ist die sogenannte Hauptachsentransformation. Wir beschränkenuns der Einfachheit halber auf

    ”zentrierte“ Quadriken (der allgemeine Fall

    kann daraus aber durch quadratischer Ergänzung erhalten werden und brauchtkeine weiteren theoretischen Hilfsmittel). Quadriken sind Lösungsmengen von(homogenen) quadratischen Gleichungen:

    Definition 1.3.17 (Quadrik). Sei n ∈ N, sei A ∈ Mn×n(R) symmetrisch undsei c ∈ R. Dann ist die zugehörige Quadrik definiert als

    Q(A, c) := {x ∈ Rn | xT ·A · x = c} ⊂ Rn.

    Beispiel 1.3.18. Einfache Beispiele für ebene Quadriken sind (Abbildung 1.5):

    Q

    ((1 00 1

    ), 1

    )= {x ∈ R2 | x21 + x22 = 1} (Einheitskreis)

    Q

    ((2 00 1

    ), 1

    )= {x ∈ R2 | 2 · x21 + x22 = 1} (Ellipse)

    Q

    ((1 00 −1

    ), 1

    )= {x ∈ R2 | x21 − x22 = 1} (Hyperbel)

    Mithilfe des Spektralsatzes für symmetrische Matrizen lassen sich Quadri-ken vollständig klassifizieren. Insbesondere liefert dies auch eine Klassifikationder sogenannten Kegelschnitte.

    Korollar 1.3.19 (Hauptachsentransformation). Sei n ∈ N, sei A ∈ Mn×n(R)symmetrisch und sei c ∈ R. Dann gibt es λ1, . . . , λn ∈ R und eine Isome-trie f ∈ Isom(Rn, ‖ · ‖2) mit

  • 44 1. Euklidische/Unitäre Vektorräume

    Q(A, c) = f

    ({x ∈ Rn

    ∣∣∣∣n∑

    j=1

    λj · x2j = c})

    .

    Man bezeichnet in dieser Situation die Geraden f(R · e1), . . . , f(R · en) (diepaarweise orthogonal zueinander stehen) auch als Hauptachsen von Q(A, c).

    Beweis. Nach dem Spektralsatz für symmetrische Matrizen (Korollar 1.3.9)gibt es eine Matrix S ∈ O(n) und λ1, . . . , λn ∈ R mit

    ST ·A · S = S−1 ·A · S =

    λ1 . . . 0...

    . . ....

    0 . . . λn

    =: D.

    Sei f := L(S) = L((ST)−1) : Rn −→ Rn. Dann ist f eine lineare Isometriebezüglich der euklidischen Norm und

    Q(A, c) = {x ∈ Rn | xT ·A · x = c}={x ∈ Rn

    ∣∣ xT · (S ·D · ST) · x = c}

    ={x ∈ Rn

    ∣∣ (ST · x)T ·D · (ST · x) = c}

    = f({x ∈ Rn

    ∣∣ xT ·D · x = c}).

    Beispiel 1.3.20. Sei

    Q :={x ∈ R2

    ∣∣∣ 54· x21 −

    3

    2·√

    3 · x1 · x2 −1

    4· x22 = 1

    }⊂ R2.

    Um zu verstehen, was dies für ein geometrisches Gebilde ist, führen wir dieHauptachsentransformation durch: Als ersten Schritt schreiben wir Q alsQuadrik einer geeigneten symmetrischen Matrix: Sei

    A :=

    (5/4 −3/4 ·

    √3

    −3/4 ·√

    3 −1/4

    )∈M2×2(R).

    Dann ist A symmetrisch und

    Q = Q(A, 1).

    Als nächsten Schritt bestimmen wir Hauptachsen für Q. Dazu bestimmen wireine Eigenbasis von A. Mithilfe des charakteristischen Polynoms etc. findetman heraus, dass

    (v1 :=

    (−√

    3/21/2

    ), v2 :=

    (1/2√3/2

    ))

    eine Orthonormalbasis aus Eigenvektoren von A ist. Die Eigenwerte sinddabei 2 bzw. −1. Also sind R · v1 und R · v2 Hauptachsen von Q und wir

  • 1.3. Spektralsätze 45

    À

    Á

    Q

    Hauptachsen

    Abbildung 1.6.: Eine Hyperbel und ihre Hauptachsen

    erhaltenQ = f

    ({x ∈ R2 | 2 · x21