Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der...

191
Lineare Algebra Prof. Dr. Katrin Wendland zum Titel der Vorlesung: Algebra: Wort kommt aus dem Arabischen (Abu Jafar Muhammad ibn Musa al- Chwarism: “Kitab al jabr w’al-muqabala”, zu Deutsch: “Das kurzgefasste Buch ¨ uber die Rechenverfahren durch Erg¨ anzen und Ausgleichen”, ca. 825 n. Chr.), “al-jabr”: Zusammenf¨ ugen gebrochener (Knochen-) Teile linear: Schwierigkeitsstufe 1. Ordnung“, d.h. Grundlage zum Studium komplizierterer, auch nichtlinearer Eekte 1 Einleitung: Grundlagen und Ausblick 1.1 Etwas Aussagenlogik also eine kleine Einf¨ uhrung in die Sprache der Mathematik, ganz grob nach Aristoteles (384 - 322 v. Chr.) Motto: In der Mathematik formulieren wir Aussagen, das sind sprachliche Gebilde, von denen es sinnvoll ist zu fragen, ob sie wahr oder falsch sind. Grundannahme (Prinzip der Zweiwertigkeit): Jede Aussage ist entweder wahr (w) oder falsch (f), und niemals beides. — andernfalls ist das Sprachgebilde keine Aussage, die wir in der (standard-)Mathematik studieren werden Beispiel: (“Wahrheitstabelle”) Aussage wahr/falsch A Die dt. Herren-Fußball-Nationalmannschaft ist amtierender Europameister f B Die Frauenfußballmannschaft 1 des Freiburger SC spielt in der 1. Liga w aus einfachen Aussagen“ macht man andere oder schwierigere, z.B. wie folgt: Definition 1.1.1 A, B seien Aussagen. (a) ¬A “ (lies: nicht A “) ist die Verneinung oder Negation von A, d.h. A ¬A w f f w 1

Transcript of Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der...

Page 1: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Lineare Algebra

Prof. Dr. Katrin Wendland

zum Titel der Vorlesung:Algebra: Wort kommt aus dem Arabischen (Abu Jafar Muhammad ibn Musa al-Chwarism: “Kitab al jabr w’al-muqabala”, zu Deutsch: “Das kurzgefasste Buch uberdie Rechenverfahren durch Erganzen und Ausgleichen”, ca. 825 n. Chr.),“al-jabr”: Zusammenfugen gebrochener (Knochen-) Teilelinear:

”Schwierigkeitsstufe 1. Ordnung“, d.h. Grundlage zum Studium komplizierterer,

auch nichtlinearer E↵ekte

1 Einleitung: Grundlagen und Ausblick

1.1 Etwas Aussagenlogik

also eine kleine Einfuhrung in die Sprache der Mathematik, ganz grob nach Aristoteles(⇠ 384 - 322 v. Chr.)

Motto: In der Mathematik formulieren wir Aussagen, das sind sprachliche Gebilde,von denen es sinnvoll ist zu fragen, ob sie wahr oder falsch sind.

Grundannahme (Prinzip der Zweiwertigkeit):Jede Aussage ist entweder wahr (w) oder falsch (f), und niemals beides.

— andernfalls ist das Sprachgebilde keine Aussage, die wir in der (standard-)Mathematikstudieren werden

Beispiel: (“Wahrheitstabelle”)Aussage wahr/falsch

A Die dt. Herren-Fußball-Nationalmannschaft ist amtierender Europameister fB Die Frauenfußballmannschaft 1 des Freiburger SC spielt in der 1. Liga w

aus”einfachen Aussagen“ macht man andere oder schwierigere, z.B. wie folgt:

Definition 1.1.1A, B seien Aussagen.(a)

”¬A“ (lies:

”nicht A“) ist die Verneinung oder Negation von A, d.h.

A ¬Aw ff w

1

Page 2: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(b) Junktoren:(i) A_B ist wahr, genau wenn mindestens eine der beiden Aussagen A, B wahr ist.(ii) A ^B ist wahr, genau wenn beide Aussagen A, B wahr sind.

Das heißt:

A B A _B A ^B

w w w ww f w ff w w ff f f f

(c) Implikatoren:(i)

”A) B“ (gleichbedeutend:

”B ( A“) ist wahr, wenn A die Aussage B impliziert,

mit anderen Worten:”A ist hinreichende Bedingung fur B“,

mit noch anderen Worten:”B ist notwendige Bedingung fur A“

(ii)”A , B“ ist wahr, wenn A die Aussage B impliziert und B die Aussage A

impliziert,mit anderen Worten:

”A ist notwendige und hinreichende Bedingung fur B“.

Das heißt:

A B A) B A, Bw w w ww f f ff w w ff f w w

Bemerkung 1.1.2Das Wort

”Definition“ kommt von

”definire“ (lat.),

”abgrenzen“.

Notation: :, oder :=Beispiel:“Team X heißt amtierender Fußball-Europameister”

:, “X hat das Finale der letzten Fußball-EM gewonnen”N := 2015 bedeutet, dass fortan N Abkurzung fur

”2015“ ist

Beobachtung:fur Aussagen A, B gilt:

A B ¬A ¬B ¬A _ ¬B ¬A ^ ¬B ¬B ) ¬Aw w f f f f ww f f w w f ff w w f w f wf f w w w w w

¬(A ^B) ¬(A _B) A) Bdies beweist:

Satz 1.1.3Fur Aussagen A, B gilt:

(i) (¬A _ ¬B) , ¬(A ^B)(ii) ¬A ^ ¬B , ¬(A _B)(iii) (A) B) , (¬B ) ¬A)

2

Page 3: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

In der Linearen Algebra formulieren wir Aussagen uber einen gewissen Typ sogenannterlinearer Objekte mithilfe dieser Aussagenlogik. Viele anschauliche Beispiele liefert derbekannte R3.

Ubereinkunft (mit Analysis I und dem Rest der Welt):R bezeichnet die reellen Zahlen mit den Verknupfungen

”+“ und

”·“, so dass die ubli-

chen Rechenregeln gelten, die Korperaxiome genannt werden, und auf die wir spaterausfuhrlich zuruck kommen werden. Hierbei sind die reellen Zahlen Elemente der Men-ge R. Aber was ist eigentlich eine Menge? Eine prazise Definition ist sehr schwierig!

1.2 Mengen

nach [Georg Cantor (1845 - 1918), in:”Beitrage zur Begrundung der transfiniten

Mengenlehre (Erster Aufsatz)“ (1895)]:

”Eine MENGE X ist eine Zusammenfassung von bestimmten, wohlunterschiedenen Ob-

jekten unseres Denkens oder unserer Anschauung (welche Elemente von X genanntwerden) zu einem Ganzen.“

Beispiel:Jede Fußballmannschaft auf dem Feld besteht aus 11 Spielern oder Spielerinnen,z.B. (beim Anstoß des Bundeligaspiels am 13.09.2015)FSC 1 der Frauen = { Laura Bankarth, Lisa Karl, Carola Schiewe,... }

" Mengenklammern schließen die Liste aller Elemente ein "

”a 2 X“ heißt:

”a ist Element der Menge X“ (gleichbedeutend: “X 3 a”)

”a /2 X“ heißt:

”a ist nicht Element der Menge X“ (gleichbedeutend: “X 63 a”)

Definition 1.2.1X, Y seien Mengen(a) Zwei Mengen X, Y heißen gleich (

”X = Y“), falls sie die gleichen Elemente

enthalten.(b) Die leere Menge ; ist die Menge, die gar kein Element enthalt: ; = { }(c) (i) X

T

Y = {a |a 2 X ^ a 2 Y } Schnittmenge" lies :

”mit“,

”so dass“

(ii) X [ Y = {a|a 2 X _ a 2 Y } Vereinigungsmenge(iii) X \ Y = {a 2 X|a /2 Y } = {a|a 2 X ^ a /2 Y } Differenzmenge

(d) (i) X ⇢ Y (aquivalent: Y � X) (lies:”X ist enthalten in Y“

oder”X ist Teilmenge von Y“ oder

”Y enthalt X“ oder

”Y umschließt X“)

heißt: “fur alle a 2 X folgt a 2 Y ”(ii) X $ Y (aquivalent: Y % X)

heißt: (X ⇢ Y ^ ¬(X = Y )#

kurz : X 6= Y

)

(lies:”X ist eine echte Teilmenge von Y“)

3

Page 4: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Vorsicht:

• Elemente einer Menge sind wohlunterscheidbar, d.h. mehrfaches Auflisten verviel-facht sie nicht, z.B. {1, 4, 2, 7, 2, 4, 2} = {1, 2, 4, 7}

• Das ist ein”naiver“ Mengenbegri↵, der prazisiert werden muss:

Beispiel 1.2.2 (Mengen von Mengen)

M0 := ;, M1 := {M0} = {;}, M2 := {M0, M1} = {;, {;}}, . . .

Man beachte: Mk ist eine Menge, deren Elemente genau k Mengen sind – damit(wir gehen darauf aber nicht naher ein): Konstruktion der naturlichen Zahlen!

– und wie beschreibt man”alle Mengen“?

Satz 1.2.3 (Russellsche Antinomie [Bertrand Russell, 1872 - 1970])Es gibt keine Menge, deren Elemente genau diejenigen Mengen sind, die sich nicht

selbst als Element enthalten.

Beweis: (durch Widerspruch)Annahme: M ist solch eine Menge.Dann gilt fur jede Menge a: (a 2 M , a /2 a). M ist aber nach Annahme selber eineMenge, und fur a = M muss entweder M 2 M oder M /2 M gelten. Dies steht imWiderspruch zur vorherigen Feststellung. Also muss die Annahme falsch sein, solch eineMenge M gibt es nicht. 2

Bemerkung: Mit”2“ markiert man das Beweisende.

Fazit: Cantors naiver Mengenbegri↵ funktioniert so nicht! Nicht jede Zusammenfassungwohlunterscheidbarer Objekte ist eine Menge — ein Paradoxon zu Russells Zeiten. Diesaubere Definition von Mengen mussen wir allerdings den Logikern uberlassen.

Ubereinkunft (Grundlage der gesamten modernen Mathematik):Wir nehmen an, dass einige Mengen existieren, z.B. R, Q, Z, N, und dass die Konstruk-tionen in Def. 1.2.1 (und einige weitere) neue Mengen aus alten liefern. Nach Obigem istaber die Gesamtheit aller Mengen keine Menge. Ware die Gesamtheit aller Mengen eineMenge, dann ware namlich M aus Satz 1.2.3 eine Teilmenge davon! Andererseits bildetjede Zusammenfassung endlich vieler bestimmter, wohlunterschiedener Objekte unseresDenkens oder unserer Anschauung tatsachlich eine Menge.

1.3 Linearitat

Mit etwas Anstrengung kennen wir nach dem oben Gesagten R, die Menge der reellenZahlen, mit den ublichen, aus der Schule bekannten Rechenregeln.

4

Page 5: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

lt. Wikipedia: ein Ursprung der linearen Algebra ist die rechnerische Beschreibung der

”analytischen Geometrie“ im R2 und R3

Das schauen wir uns jetzt genauer an, um genauer sagen zu konnen, worum es in derlinearen Algebra gehen soll:R3 bezeichnet die Menge aller Tripel reeller Zahlen a1, a2, a3 2 R, also

R3 := {a =

0

@

a1

a2

a3

1

A | a1, a2, a3 2 R3},

und zum Beispiel 0 =

0

@

000

1

A 2 R3, der Ursprung

(Anmerkung: ich schreibe a, nicht ~a oder a¯)

Definition 1.3.1Sind X, Y Mengen, dann ist die Menge aller geordneten Paare (x, y) mit x 2 X,y 2 Y , also

X ⇥ Y := {(x, y) | x 2 X ^ y 2 Y },

das kartesische Produkt von X und Y .

damit: R3 = R⇥R⇥R, allerdings versehen mit”+“ (komponentenweise Addition, so dass

fur alle a, b 2 R3 gilt: a±b 2 R3) und”·“ (

”Streckungen“ �·a 2 R3 fur alle a 2 R3,� 2 R),

fur a =

0

@

a1

a2

a3

1

A 2 R3, b =

0

@

b1

b2

b3

1

A 2 R3, � 2 R :

a + b =

0

@

a1 + b1

a2 + b2

a3 + b3

1

A 2 R3, � · a =

0

@

�a1

�a2

�a3

1

A 2 R3;

das ist die “lineare” Struktur von R3, man sagt: R3 ist ein linearer Raum oder auchein Vektorraum – die prazise Definition werden wir sehr viel spater sehen

Notation 1.3.2 (Quantoren)X sei eine Menge, und fur jedes x 2 X sei A(x) eine Aussage.(i)

”fur alle x 2 X ist die Aussage A(x) wahr“wird notiert als

”8x 2 X : A(x)“

(ii)”X enthalt (genau) ein x 2 X, fur das A(x) wahr ist“wird notiert als

”9x 2 X : A(x)“ (

”9!x 2 X : A(x)“)

5

Page 6: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Satz 1.3.3X sei eine Menge, A(x) eine Aussage fur jedes x 2 X.(i) ¬(8x 2 X : A(x)), (9x 2 X : ¬A(x))(ii) ¬(9x 2 X : A(x)), (8x 2 X : ¬A(x))

Motto: Negieren einer zusammengesetzten Aussage ist Vertauschen der Quantoren undNegieren aller Teilaussagen.

Beispiel 1.3.4(i) Ebene im R3:

E1 := {x 2 R3| 8

3x1 �

1

3x2 �

1

3x3 = 0

| {z }

homogene lineare Gleichung

} 3 0

Beobachtung: 8x, y 2 E1,� 2 R : x ± y 2 E1,�x 2 E1 ; tatsachlich: auch E1 ist einVektorraum.

(ii) Schnitt von E1 mit weiteren Ebenen E2, E3:

E2 := {x 2 R3|x2 + x3 = 0}, E3 := {x 2 R3|43x1 +

1

3x2 +

1

3x3 = 0},

L := E1

T

E2

T

E3

Dann gilt: x 2 L genau wenn x das folgende lineare Gleichungssystem lost:

83x1 � 1

3x2 � 13x3 = 0

x2 + x3 = 043x1 + 1

3x2 + 13x3 = 0

9

=

;

(LGS)

und dies ist wiederum aquivalent zu (x3 = �x2 _ x1 = 0) und somit

L = {t ·

0

@

01�1

1

A |t 2 R}.

Beobachtung: Auch L ist ein Vektorraum.

(iii) Matrixnotation fur das LGS

A :=

0

@

83 �

13 �

13

0 1 143

13

13

1

A

Zahlenschema mit 9 Eintragen aus R, 3 Reihen, 3 SpaltenKurzschreibweise: L = {x 2 R3 | Ax = 0},

6

Page 7: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

wobei0

@

a11 a12 a13

a21 a22 a23

a31 a32 a33

1

Ax :=

0

@

a11x1 + a12x2 + a13x3

a21x1 + a22x2 + a23x3

a31x1 + a32x2 + a33x3

1

A 2 R3 fur aij 2 R, x 2 R3

Beobachtung: A beschreibt eine Abbildung R3 3 x 7! Ax 2 R3, und zwar eine lineareAbbildung:

8x, y 2 R3,8� 2 R : A(x± y) = Ax± Ay, A(� · x) = � · Ax

Themen der linearen Algebra:

• Vektorraume (Definition, Struktur?)

• lineare Abbildungen (Definition, Eigenschaften, Klassifikation)

weiter in unserem Beispiel:(iv) Untersuchung der linearen Abbildung A:wir haben schon gesehen: L = {x 2 R3 | Ax = 0}, d.h. A “staucht” L auf den Ursprung0 zusammenE := {x 2 R3 | x1+x2�2x3 = 0} ist noch ein Vektorraum, wobei wir uberprufen konnen,dass E = AR3, d.h. A “staucht” R3 auf die Ebene E zusammen:falls y = Ax mit x 2 R3, dann uberpruft man sofort y1 + y2� 2y3 = 0, also y 2 E, womitAR3 ⇢ E gezeigt ist;umgekehrt zeigt man

y 2 E ) 9s, t 2 R : y =

0

@

4s8t� 4s

4t

1

A

) 9s, t 2 R : y = Ax mit x =

0

@

s + t5t� 3s3t� s

1

A 2 E

weiter findet man:

A

0

@

111

1

A =

0

@

8/3� 1/3� 1/31 + 1

4/3 + 1/3 + 1/3

1

A = 2 ·

0

@

111

1

A ,

so dass fur

L := {t

0

@

111

1

A | t 2 R} ⇢ E

gilt: AL = L, und A streckt jedes a 2 L um den Faktor 2

Zusammenfassung des E↵ektes von A:E ⇢ R3 ist eine Ebene, L, L sind Geraden,ET

L = {0}, L ⇢ E;

7

Page 8: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

L = {x 2 R3 | Ax = 0}, A staucht L auf 0,AR3 = AE = E, A staucht R3 auf E,AL = L A streckt L in sich selbst

Allerdings habe ich die Ebene E und die Gerade L einfach vorgegeben, ohne zu sagen,woher ich wußte, dass sie nutzlich sein konnten.

Fernziel: Systematisierung dieser Analyse

Vorubung: Diskussion von Abbildungen uberhaupt!

1.4 Abbildungen

aus der Schule bekannt:”Funktionen f : R! R“, z.B. f(x) = sin x

anschaulich: Sind X, Y Mengen, dann ist eine Abbildung f : X ! Y eine Vorschrift,die jedem x 2 X genau ein y 2 Y zuordnet, wobei wir y = f(x) notieren, auch x 7! f(x).zugehoriger Graph: �f = {(x, f(x)) | x 2 X} ⇢ X ⇥ Y

formaler:

Definition 1.4.1X, Y seien Mengen und �f ⇢ X ⇥ Y , so dass gilt:

Fur jedes x 2 X gibt es genau ein y 2 Y mit (x, y) 2 �f .Dann definiert �f ⇢ X ⇥ Y eine Abbildung f : X ! Y (lies:

”f von X nach Y“),

so dass �f = {(x, f(x)) | x 2 X}. �f wird der Graph von f genannt.

Beispiele:

• f : {1, 2, 3, 4} 7! {1, 2, 3, 4}, f(n) :=

n + 1 falls n < 41 falls n = 4

Das ist ein Beispiel einer sog. Permutation: 1, 2, 3, 4 wird in eine andere Reihen-folge gebracht, namlich 2, 3, 4, 1.

• X eine beliebige Menge, f : X ! X, f(x) := x 8x 2 X; diese Abbildung heißtIdentitat von X, Notationen: idX , id, 11, 11X

• X, Y Mengen, c 2 Y beliebig, f : X ! Y , 8x 2 X : f(x) := c heißt konstanteAbbildung, Notation: f ⌘ c

Man sagt: f(x) ist der Wert oder das Bild von f in x 2 X, Auswerten von f inx 2 X liefert f(x) 2 Y .

8

Page 9: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Definition 1.4.2X, Y seien Mengen und f : X ! Y eine Abbildung.(1) X heißt Definitionsbereich, Y heißt Wertebereich von f .(2) W := {y 2 Y |9x 2 X : f(x) = y} heißt Bild von f ,

Notation: W = f(X) = im(f) (von engl.”image“)

(3) Fur Z ⇢ Y heißt

f�1(Z) := {x 2 X | f(x) 2 Z}

das Urbild von Z unter f ,fur Z = {y} schreibt man auch f�1(y) := f�1({y}).

(4) f heißt injektiv oder Injektion, falls gilt:

8x, x0 2 X : f(x) = f(x0)) x = x0, Notation: Xf,! Y

(5) f heißt surjektiv oder Surjektion, falls gilt:

8y 2 Y 9x 2 X : f(x) = y; Notation: Xf⇣ Y

(6) f heißt bijektiv oder Bijektion, falls f injektiv und surjektiv ist,

Notation: f : X⇠=! Y

Beispiele:

• X eine beliebige Menge, dann ist die Identitat auf X bijektiv.

• X, Y beliebige Mengen, c 2 Y , dann ist die konstante Abbildung f ⌘ c von X nachY

- injektiv, genau wenn X = {x} oder X = ;- surjektiv, genau wenn Y = {c}

• f : R! R, x 7! x2 ist weder injektiv noch surjektiv:

- f(1) = f(�1) = 1, 1 6= �1) f ist nicht injektiv

- 8x 2 R: f(x) = x2 � 0 ) �1 /2 f(R)) f ist nicht surjektiv

• f : R! R, x 7! x3 � 3x ist surjektiv, aber nicht injektiv (Ubung aus Analysis I)

• f : R! R, x 7! ex ist injektiv, aber nicht surjektiv (Ubung aus Analysis I)

• f : R! R, x 7! 2x ist bijektiv:

- 8x, x0 2 R: f(x) = f(x0)) 2x = 2x0 ) x = x0, d.h. f ist injektiv

- y 2 R, x := 12y liefert f(x) = 2x = y, d.h. f ist surjektiv

klar: manchmal kann man Abbildungen”hinter einander schalten“

9

Page 10: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beobachtung: fur f : R! R, f(x) = x2, haben wir:

R f! R f! R f! R f! R ! · · ·x 7! x2 7! x4 7! x8 7! x16 7! · · ·

f(x) f(f(x)) f(f(f(x))) · · ·

das geht nur, wenn das Bild von f im Definitionsbereich der nachsten Abbildung liegt

allgemeiner:

Definition 1.4.3X, Y, Z seien Mengen und f : X ! Y , g : Y ! Z seien Abbildungen. Dann ist dieVerkettung oder Hintereinanderschaltung oder Komposition von f und gdefiniert als g � f : X �! Z, x 7! g � f(x) := g(f(x))8x 2 X.(lies:

”g nach f“)

Vorsicht: obwohl f in g � f zuerst ausgefuhrt wird, und wir i.d.R. von links nach rechtslesen, steht f in der Komposition g � f rechts;f �g ergibt a priori gar keinen Sinn, es sei denn, g(Y ) ⇢ X, und dann gilt im allgemeinenf � g 6= g � fBeispiel: X = Y = Z = R, und es seien f(x) = x + 1, g(x) = x2.

f � g(x) = f(x2) = x2 + 1g � f(x) = g(x + 1) = (x + 1)2 = x2 + 2x + 1

Das heißt g � f(x) 6= f � g(x), es sei denn, x = 0.

Wie verhalten sich Injektivitat und Surjektivitat unter Verknupfungen?

Satz 1.4.4X, Y, Z seien Mengen und f : X 7! Y , g : Y ! Z seien Abbildungen.(i) Falls f und g injektiv sind, dann ist g � f injektiv.(ii) Falls f und g surjektiv sind, dann ist g � f surjektiv.(iii)Falls f und g bijektiv sind, dann ist g � f bijektiv.

Beweis: g � f : X ! Z(i) f und g seien injektiv sowie x, x0 2 X mit g � f(x) = g � f(x0), also

g(f(x)) = g(f(x0))g injektiv) f(x) = f(x0)f injektiv) x = x0

2

10

Page 11: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(ii) f und g seien surjektiv.

8z 2 Z : 9y 2 Y mit g(y) = z (da g surjektiv ist)und 9x 2 X mit f(x) = y (da f surjektiv ist)

) 8z 2 Z 9x 2 X : g � f(x) = g(f(x)|{z}

y

) = z

2

(iii) folgt aus (i) + (ii) 2

Satz 1.4.5X, Y, Z seien Mengen und f : X ! Y , g : Y ! Z seien Abbildungen(i) falls g � f injektiv ist, ist f injektiv(ii) falls g � f surjektiv ist, ist g surjektiv

Beweis:(i) g � f sei injektiv, x, x0 2 X mit f(x) = f(x0), also

g � f(x) = g � f(x0)g�f injektiv) x = x0

2

(ii) g � f sei surjektiv, z 2 Z

g�f surjektiv) 9x 2 X : g(f(x)) = z d.h. fur y = f(x) 2 Y gilt g(y) = z

2

Satz 1.4.6X, Y, Z seien Mengen, und f : X ! Y , g : Y ! Z seien Abbildungen.(i) Ist f : X ! Y eine weitere Abbildung, so dass g � f = g � f , und ist g injektiv,dann folgt f = f .(ii) Ist g : Y ! Z eine weitere Abbildung, so dass g � f = g � f , und ist f surjektiv,dann folgt g = g.

Beweis:(i) mit f, f , g wie angegeben: 8x 2 X :

g(f(x)) = g(f(x))g injektiv) f(x) = f(x)

2

(ii) mit f, g, g wie angegeben: da f surjektiv ist, gilt fur alle y 2 Y :

9x 2 X mit f(x) = y , also g(y) = g(f(x))Vor.= g(f(x)) = g(y)

2

es stellt sich die naturliche Frage, ob man eine gegebene Abbildung”umkehren“ kann:

11

Page 12: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Definition 1.4.7X, Y seien Mengen und f : X ! Y eine Abbildung. f heißt umkehrbar, fallses eine Abbildung F : Y ! X gibt mit f � F = idY , F � f = idX . F heißt dannUmkehrabbildung von f und wird F = f�1 notiert.

Beispiele:

• f : R! R, x 7! 2x

hat Umkehrabbildung f�1 : R! R, y 7! 12y

• f : R! R, x 7! �x

hat Umkehrabbildung f�1 : R! R, y 7! �y

klar: ist f�1 Umkehrabbildung von f , dann ist f Umkehrabbildung von f�1.

Satz 1.4.8X, Y seien Mengen, f : X ! Y sei eine Abbildung. Dann gilt:(i) f ist umkehrbar , f ist bijektiv.(ii) Falls f umkehrbar ist, dann ist f�1 eindeutig bestimmt.

Beweis:(i)

”)“

Nach Voraussetzung existiert eine Umkehrabbildung f�1 von f . Fur x, x0 2 X mit f(x) =

f(x0) folgt also: x = f�1(f(x))f(x)=f(x0)

= f�1(f(x0)) = x0. Somit ist f ist injektiv.Weiter gilt: 8y 2 Y : 9x 2 X mit f(x) = y, namlich x = f�1(y), d.h. f ist surjektiv. 2

”(“

f sei bijektiv; fur y 2 Y wahle g(y) 2 X so, dass f(g(y)) = y (solch ein g(y) existiert, daf surjektiv ist). Dies liefert eine Abbildung g : Y ! X mit f � g = idY .Fur alle x 2 X gilt dann mit x0 := g(f(x)):

f(x0) = f(g(f(x))) = (f � g)| {z }

idY

(f(x)) = f(x)f injektiv) x = x0 .

Mit anderen Worten:

8x 2 X : x = g � f(x) , d.h. g � f = idX .

Insgesamt haben wir g = f�1 gezeigt. 2

(ii) f sei umkehrbar, also nach (i) bijektiv, f�1 und f�1 seien Umkehrabbildungen, ins-besondere

f�1 � f#

surj.

= idX = f�1 � f#

surj.

1.4.6(ii)) f�1 = f�1

2

12

Page 13: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beispiel:f : R! R, x 7! sin x ist weder injektiv noch surjektiv:

f(R) = [�1, 1], f(x + 2⇡) = f(x)8x 2 R ;andererseits ist schon f

�⇥

�⇡2 , ⇡

2

⇤�

= [�1, 1] ; falls x, x0 2⇥

�⇡2 , ⇡

2

mit f(x) = f(x0) ,dann folgt x = x0, (denn auf

�⇡2 , ⇡

2

ist f(x) = sin x streng monoton fallend)

Definition 1.4.9X, Y seien Mengen und f : X ! Y sei eine Abbildung. Ist U ⇢ X, dann bezeichnet

f|U die Einschrankung von f auf U mit f

|U : U ! Y , u 7! f(u)8u 2 U .

Obiges Beispiel liefert also eine bijektive Abbildung g :⇥

�⇡2 , ⇡

2

! [�1, 1] mit g(x) :=f|[�⇡

2

, ⇡2

](x) = f(x) fur jedes x 2⇥

�⇡2 , ⇡

2

, wobei f|[�⇡

2

, ⇡2

] :⇥

�⇡2 , ⇡

2

! R;

Vorsicht: f, f|[�⇡

2

, ⇡2

], g sind nach unserer Definition drei verschiedene Funktionen.

Falls fur Mengen X, Y eine Bijektion f : X ! Y existiert, dann leistet f eine”Identi-

fikation“ von X mit Y ; durch”1:1 Abzahlen“ sagt die Intuition: X und Y haben dann

”gleich viele Elemente“ – ein problematisches Konzept, wenn X und Y unendlich viele

Elemente haben; stattdessen:

Definition 1.4.10X, Y seien Mengen. Falls eine Bijektion f : X ! Y existiert, dann heißen X und Ygleich machtig. Falls eine Bijektion f : X ! {1, 2, . . . , N} mit N 2 N existiert,dann schreibt man |X| = N , und N heißt Kardinalitat von X.

klar: |X| = N 2 N, genau wenn X genau N Elemente hat; |X| = |Y | 2 N fur zweiMengen X, Y , genau wenn eine bijektive Abbildung von X nach Y existiert.

Bemerkung: Ich verwende die Konvention N = {0, 1, 2, . . .}, und außerdem gilt furN = 0 die Konvention {1, 2, . . . , N} = ;. Somit hat X = ; nach obiger Definition dieKardinalitat |X| = 0. Einige Autoren bevorzugen eine Konvention, in der 0 nicht zuN gehort⇤. Sicherheitshalber kann man auch N0 = {0, 1, . . .} und N>0 = {1, 2, . . .}schreiben.

Bemerkung 1.4.11X, Y, Z seien Mengen. Dann gilt:

(a) X ist gleich machtig wie X (denn idX : X⇠=! X)

(b) X und Y sind gleich machtig genau wenn Y und X gleich machtig sind (denn f :

X⇠=! Y , f�1 : Y

⇠=! X)(c) Ist X gleich machtig zu Y und Y gleich machtig zu Z, dann ist X gleich machtig zu

Z (denn f : X⇠=! Y , g : Y

⇠=! Z1.4.4(iii)) g � f : X

⇠=! Z)Somit verhalt sich

”gleich machtig zu sein“ wie eine Aquivalenzrelation.

⇤dann muss |;| := 0 separat definiert werden

13

Page 14: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Vorsicht: wie wir wissen, bildet die Gesamtheit aller Mengen keine Menge!allgemein:Ist A eine Menge, dann ist eine Aquivalenzrelation auf A eine Teilmenge R ⇢ A⇥A,so dass gilt:(a’) Reflexivitat: 8a 2 A : (a, a) 2 R(b’) Symmetrie: 8a, b 2 A : ((a, b) 2 R() (b, a) 2 R)(c’) Transitivitat: 8a, b, c 2 A: ( (a, b) 2 R, (b, c) 2 R =) (a, c) 2 R)

Notation: a ⇠ b :, (a, b) 2 R, d.h.(a’) 8a 2 A : a ⇠ a,(b’) 8a, b 2 A : (a ⇠ b, b ⇠ a)(c’) 8a, b, c 2 A : (a ⇠ b ^ b ⇠ c) a ⇠ c)

14

Page 15: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

2 Gruppen, Ringe und Korper

2.1 Mengen mit Verknupfung

Im Folgenden sei X eine Menge.

Definition 2.1.1Eine Verknupfung ⇤ auf einer Menge X ist eine Abbildung

X ⇥X ! X(x, y) 7! x ⇤ y

(i) Die Verknupfung ⇤ heißt assoziativ, falls gilt:

8x, y, z 2 X : (x ⇤ y) ⇤ z = x ⇤ (y ⇤ z)

(ii) Die Verknupfung ⇤ heißt kommutativ, falls gilt:

8x, y 2 X : x ⇤ y = y ⇤ x

Beispiel 2.1.2(a) (R, +), (r, s) 7! r + s ist assoziativ und kommutativ

– ebenso: (Q, +), (Z, +) und (N, +)(b) (R, ·), (r, s) 7! r · s ist assoziativ und kommutativ – ebenso: (Q, ·), (Z, ·) und (N, ·)(c) (N, ⇤), (m, n) 7! m ⇤ n := mn, dann† ist ⇤ nicht kommutativ : 1 ⇤ 2 = 12 = 1

2 ⇤ 1 = 21 = 2und auch nicht assoziativ : (2 ⇤ 2) ⇤ 3 = (22)3 = 43 = 64

2 ⇤ (2 ⇤ 3) = 28 = 256

Bemerkung:Nach Jean-Pierre Serre (*1926) und dem mathematischen Autorenkollektiv Bour-baki aus den 30er Jahren nennt man eine Menge mit Verknupfung manchmal Magma;Verknupfungen auf Mengen X, Y induzieren sofort eine Verknupfung auf X ⇥ Y (s. Auf-gabe 12)

bekanntlich ist “+” in (R, +) assoziativ, und in langen Summen lassen wir der Ubersicht-lichkeit halber gerne alle Klammern weg; das verallgemeinern wir:

Lemma 2.1.3 (Assoziativitat ermußigt Klammern)(X, ⇤) sei eine Menge mit assoziativer Verknupfung; fur x1, . . . , xn 2 X schreiben wirx1 ⇤ · · · ⇤ xn := x1 ⇤ (x2 ⇤ (· · · ⇤ (xn�1 ⇤ xn))). Dann gilt fur alle m, n 2 N \ {0}:

8x1, . . . , xn, y1, . . . , ym 2 X :

(x1 ⇤ · · · ⇤ xn) ⇤ (y1 ⇤ · · · ⇤ ym) = x1 ⇤ · · · ⇤ xn ⇤ y1 ⇤ · · · ⇤ ym .

†wir setzen m

0 := 1 fur alle m 2 N und 0n := 0 falls n 2 N \ {0}

15

Page 16: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beweis (durch Induktion uber n):(zur Beweismethode der vollstandigen Induktion siehe Aufgabe 3)

Induktionsanfang (hier: n = 1):

8x1, , y1, . . . , ym 2 X : x1 ⇤ (y1 ⇤ · · · ⇤ ym)Definition

= x1 ⇤ y1 ⇤ · · · ⇤ ym

Induktionsannahme: Die Behauptung gilt fur ein n 2 N \ {0}.Induktionsschritt “n! n + 1”:8x1, . . . , xn+1, y1, . . . , ym 2 X :

(x1 ⇤ · · · ⇤ xn+1) ⇤ (y1 ⇤ · · · ⇤ ym)Assoziativitat

= x1 ⇤ ((x2 ⇤ · · · ⇤ xn+1) ⇤ (y1 ⇤ · · · ⇤ ym))Induktionsannahme

= x1 ⇤ (x2 ⇤ · · · ⇤ xn+1 ⇤ y1 ⇤ · · · ⇤ ym)Definition

= x1 ⇤ · · · ⇤ xn+1 ⇤ y1 ⇤ · · · ⇤ ym .

2

Welche besonderen Eigenschaften hat die Verknupfung”+“ auf R noch? Die Existenz

einer Null!

Definition 2.1.4Ist ⇤ eine Verknupfung auf X, dann heißt e 2 X neutrales Element von (X, ⇤)oder bezuglich ⇤, falls gilt:

8x 2 X : e ⇤ x = x ⇤ e = x

Satz 2.1.5Ist ⇤ eine Verknupfung auf der Menge X, dann gibt es in X hochstens ein neutralesElement bezuglich ⇤.

Beweis:Sind e, e 2 X neutrale Elemente von (X, ⇤), dann gilt:

e ="

e neutral

e ⇤ e ="

ee neutral

e

2

Notation 2.1.6 (und Konventionen)Ist ⇤ eine assoziative, kommutative Verknupfung auf X, dann schreibt man haufig

”+“ oder

”·“ statt

”⇤“ (

”additive“ bzw.

”multiplikative“ Schreibweise).

Ist I eine endliche Menge und I ! X, i 7! ai eine Abbildung, dann schreibt man:

16

Page 17: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

in additiver Schreibweise:P

i2Iai fur die Verknupfung aller ai mit i 2 I, wobei I = ; nur erlaubt ist, wenn ein

neutrales Element bzgl. “+” existiert, das in der Regel mit “0” bezeichnet wird, und

dann istP

i2;

ai := 0; falls I = {nA, nA + 1, . . . , nB � 1, nB} ⇢ Z:nBP

i=nA

ai :=P

i2Iai

in multiplikativer Schreibweise:Q

i2Iai fur die Verknupfung aller ai mit i 2 I, wobei I = ; nur erlaubt ist, wenn ein

neutrales Element bzgl. “·” existiert, das in der Regel mit “1” bezeichnet wird, und

dann istQ

i2;

ai := 1; falls I = {nA, nA + 1, . . . , nB � 1, nB} ⇢ Z:nBQ

i=nA

ai :=Q

i2Iai

Fur unendliche I sind obige Schreibweisen ebenfalls gebrauchlich, dann muss man aberdie Verknupfungen unendlich vieler Elemente erst definieren.

Fur das Verhalten von Verknupfungen unter Abbildungen von Mengen fordert man haufigVertraglichkeitsbedingungen:

Definition 2.1.7(X, ⇤) und (X, ⇤) seien Mengen mit Verknupfungen. Eine Abbildung ' : X ! X

heißt Homomorphismus, falls gilt:

8x, y 2 X : '(x ⇤ y) = '(x)⇤'(y) .

Ist ' außerdem bijektiv, dann heißt ' Isomorphismus.

die Vokabeln stammen aus dem Griechischen:° morf†: Gestalt, Struktur; Ìmoioc: ahnlich; “svoc: gleich

Ubung: Ist ' ein Isomorphismus zwischen Mengen mit Verknupfung, dann ist '�1 eben-falls ein Isomorphismus (s. Aufgabe 11).

Homomorphismen sind immer”Struktur erhaltende Abbildungen“, ein außerst wichtiges

Konzept, das uns in der linearen Algebra standig begegnen wird.

BeispieleX = Y = R, wobei X mit der Addition + und Y mit der Multiplikation · versehen sei.Dann ist f : X ! Y , x 7! ex ein Homomorphismus:

8x, y 2 R : f(x + y) = ex+y = ex · ey = f(x) · f(y).

Sie finden andererseits viele Beispiele von Abbildungen von R nach R, die keine Homo-morphismen bzgl. der oben genannten Verknupfungen sind.Fur X = Y = R3, wobei X und Y mit der Vektoraddition als Verknupfung versehen seien,ist jede Abbildung f : X ! Y , x 7! Ax mit A einer 3 ⇥ 3 Matrix mit reellen Eintragenwie in Beispiel 1.3.4(iii) ein Homomorphismus, denn 8a, b 2 X : f(x + y) = f(x) + f(y).

17

Page 18: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

2.2 Gruppen

noch eine schone Eigenschaft von R:8x 2 R 9 � x 2 R : �x + x = 0

”Existenz von Inversen“ – insgesamt ist R mit der

Addition “+” eine”Gruppe“:

Definition 2.2.1Eine Gruppe (G, ⇤) ist eine Menge G mit Verknupfung ⇤, so dass gilt:(G1) ⇤ ist assoziativ(G2) Es existiert ein neutrales Element e 2 G.(G3) 8a 2 G 9a 2 G : a ⇤ a = e;

a heißt Inverses von a, haufige Notation: a�1 := a

Die Eigenschaften (G1) - (G3) nennen wir manchmal Gruppenaxiome.

Beispiele:

• (Z, +), (Q, +), (R, +) sind Gruppen

• (R2, +), (Rn, +) sind Gruppen

• mit Q⇤ := Q\{0} und R⇤ := R\{0} sind auch (Q⇤, ·), (R⇤, ·) Gruppen

• folgende Mengen mit Verknupfung bilden keine Gruppen: (Z, ·), (N, +)

Definition 2.2.2 (nach Niels Henrik Abel, 1802 – 1829)Eine Gruppe (G, ⇤) heißt Abelsch oder kommutativ, falls ⇤ kommutativ ist.

Lemma 2.2.3(G, ⇤) sei eine Gruppe. Dann gilt:(i) Ist a 2 G und a�1 ein Inverses von a, dann gilt a ⇤ a�1 = e.(ii) Falls a 2 G und fur a�1 2 G und a 2 G gilt: a�1 ⇤ a = a ⇤ a = e, dann folgt:a�1 = ea. Mit anderen Worten: Das Inverse a�1 zu jedem a 2 G ist eindeutig bestimmt.(iii) 8a, b 2 G : (a�1)�1 = a und (a ⇤ b)�1 = b�1 ⇤ a�1.

Beweis.(i) falls a 2 G und a�1 ⇤ a = e fur ein a�1 2 G, dann folgt

a ⇤ a�1 (a�1)�1

⇤a�1=e= (a�1)�1 ⇤

ez }| {

a�1 ⇤ a ⇤a�1 = (a�1)�1 ⇤ a�1 = e

(ii) falls a 2 G und a�1, a 2 G mit a�1 ⇤ a = a ⇤ a = e, dann gilt

a = a ⇤ e(i)= a ⇤ (a ⇤ a�1) = (a ⇤ a)

| {z }

e

⇤a�1 = a�1

18

Page 19: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(iii) (a�1)�1 = a folgt aus a ⇤ a�1 = e ;

(b�1 ⇤ a�1) ⇤ (a ⇤ b) = b�1 ⇤ (a�1 ⇤ a)| {z }

e

⇤b = b�1 ⇤ b = e

) b�1 ⇤ a�1 = (a ⇤ b)�1

2

Beispiel 2.2.4 (Automorphismengruppen)Es sei X eine Menge und Aut(X) := {f : X ! X | f ist bijektiv}.

Behauptung: (Aut(X), �) ist eine Gruppe.Beweis:Fur f, g 2 Aut(X) ist f �g : X ! X nach Satz 1.4.4 bijektiv, also f �g 2 Aut(X). Somitist � eine Verknupfung auf Aut(X).(G1) � ist assoziativ:Fur alle f, g, h 2 Aut(X) gilt:

8x 2 X : ((f � g) � h)(x) = (f � g)(h(x)) = f(g(h(x))) = f(g � h(x))= (f � (g � h))(x),

d.h. (f � g) � h = f � (g � h).(G2) idX ist das neutrale Element in (Aut(X), �): 8f 2 Aut(X) : f � idX = f = idX � f .

(G3) f 2 Aut(X)1.4.8) 9f�1 2 Aut(X) mit f�1 � f = idX = f � f�1 2

Die Gruppe (Aut(X), �) wird Automorphismengruppe von X genannt, nach demgriechischen aŒtÏc: selbst.

Achtung: (Aut(X), �) ist i.a. nicht Abelsch.Hat man auf X eine Verknupfung ⇤, dann setzt man auch

Aut(X, ⇤) := {f : X ! X | f ist ein Isomorphismus von (X, ⇤) nach (X, ⇤)};

man zeigt dann, dass Aut(X, ⇤) mit der Komposition � als Verknupfung eine Gruppe ist,und nennt diese Gruppe die Automorphismengruppe von (X, ⇤). Wenn auf X mehre-re Verknupfungen ⇤1, . . . , ⇤n gegeben sind, dann definiert man analog Aut(X, ⇤1, . . . , ⇤n).

Bemerkung:Sind (G1, ⇤1) und (G2, ⇤2) Gruppen, dann ist auch (G1 ⇥ G2, ⇤) mit (a1, a2) ⇤ (b1, b2) :=(a1 ⇤1 b1, a2 ⇤2 b2) eine Gruppe (Ubung!).

Definition 2.2.5Eine Gruppe (G, ⇤) heißt endlich, falls G endlich viele Elemente hat, andernfallsheißt sie unendlich. Die Anzahl |G| der Elemente einer endlichen Gruppe G heißtauch Ordnung von G.

Falls g 2 G und gN =N mal

z }| {

g ⇤ · · · ⇤ g = e (neutrales Element) fur N 2 N, N > 0, dannsagt man: g hat endliche Ordnung M = |g| = ord(g), wobei M 2 N\{0} minimalist mit gM = e. Gibt es kein solches M , dann setzt man ord(g) :=1.

19

Page 20: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beispiel 2.2.6 (Zyklische Gruppen der Ordnung m)Es sei m 2 N\{0}, Gm := {[0], [1], . . . , [m� 1]},

fur [a], [b] 2 Gm : [a] ⇤ [b] :=

[a + b], falls a + b < m[a + b�m] sonst

Behauptung: (Gm, ⇤) ist eine Abelsche Gruppe der Ordnung m.Beweis:Beachte: ⇤ definiert eine Verknupfung auf Gm, wobei [a] ⇤ [b] = [c] genau wenn a + b� cdurch m teilbar ist (Standardnotation dafur: a + b ⌘ c(m) oder a + b ⌘ c mod m (lies:“a + b ist kongruent c modulo m”), siehe Aufgabe 10).Daraus folgt sofort, dass ⇤ eine assoziative, kommutative Verknupfung ist;neutrales Element: 8[b] 2 Gm : [0] ⇤ [b] = [b] ⇤ [0] = [b], d.h. [0] ist neutrales Elementinverses Element: [0] ⇤ [0] = [0], d.h. [0] ist sein eigenes Inverses,

[a] 2 Gm mit a � 1 ) [m� a] ⇤ [a] = [a] ⇤ [m� a] = [0]) [m� a] ist das Inverse von [a] .

|Gm| = m ist klar. 2

Man beachte: In Gm gilt [1]a = [a] falls a 2 N mit 0 < a < m, und [1]m = [0]; ins-besondere ist [1] ein Element der Ordnung m, und mit e := [0], g := [1] haben wirGm = {e, g, g2, . . . , gm�1}.Standardnotation fur diese Gruppen: Z/mZ := Gm, meist mit additiver Schreibweise;(Z/mZ, +) heißt zyklische Gruppe der Ordnung m;schreibe also [a] + [b] := [a] ⇤ [b], oder einfach a + b mod m := [a] ⇤ [b] oder a + b (m) :=[a] ⇤ [b].

Beispiel: Fur m = 12 ist Ihnen die folgende Rechnungen vom Lesen jeder Analoguhrvertraut: [11] + [3] = [2].

Allgemein: In Abelschen Gruppen mit additiver Schreibweise fur die Verknupfung be-zeichnet �a das Inverse von a 2 G.

viel eleganter:

Definition 2.2.7Es sei X eine Menge und ⇠ eine Aquivalenzrelation auf X (s. Bem. 1.4.11).(i) fur jedes x 2 X definiere

[x] := {y 2 x|x ⇠ y}, die Aquivalenzklasse von x;

jedes y 2 [x] heißt Reprasentant von [x].(ii) X/⇠ := {[x]|x 2 X} heißt manchmal Quotientenmenge oder einfach Mengeder Aquivalenzklassen; die Abbildung p : X ! X/⇠ , x 7! [x] heißt Quotien-tenabbildung.

20

Page 21: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beispiel 2.2.6 (Fortsetzung):Es sei X = Z und m 2 N\{0}, und fur x, y 2 Z: x ⇠m y :, x ⌘ y mod m. Laut Aufgabe10 definiert ⇠m eine Aquivalenzrelation auf X.Dann gilt fur jedes x 2 Z: [x] = {x + m · n|n 2 Z},d.h. X/⇠m = {[0], [1], . . . , [m� 1]} ist die Menge, die der Gruppe Z/mZ zugrunde liegt.Man uberpruft, dass die oben eingefuhrte Verknupfung “+” auf Z/mZ von der ublichenAddition auf Z ererbt ist:

8a, b 2 Z : [a] + [b] = [a + b] in Z/mZ.

Dies ergibt aber nur deshalb Sinn, weil in Z/⇠m die Aquivalenzklasse von a+b unabhangigist von der Auswahl der Reprasentanten a, b von [a], [b]. Nach Aufgabe 10 gilt namlichfur alle a,ea, b,eb 2 Z, dass aus a ⇠m ea und b ⇠m

eb folgt: a + b ⇠m ea +eb.

Zur praziseren Untersuchung der Menge aller Restklassen:

Proposition 2.2.8Es sei X eine Menge und ⇠ eine Aquivalenzrelation auf X. Dann gilt:(1) 8x, y 2 X : x 2 [x] und (y 2 [x] ) [x] = [y]); insbesondere: jedes x 2 X liegt ingenau einer Aquivalenzklasse.(2) Die Quotientenabbildung p : X ! X/⇠ ist surjektiv; außerdem gilt

p(x) = p(y), x ⇠ y

(3) Es sei f : X ! Y eine Abbildung zwischen Mengen. Dann sind aquivalent:(i) 9f : X/⇠ ! Y mit f � p = f(ii) 8x, y 2 X : x ⇠ y ) f(x) = f(y)

In diesem Fall ist f eindeutig bestimmt.

Beweis:(1) fur x 2 X gilt x ⇠ x wegen der Reflexivitat der Aquivalenzrelation ⇠, also x 2 [x]; seiweiter y 2 [x], also x ⇠ y und somit (wegen der Symmetrie von ⇠) y ⇠ x; Transitivitatund Symmetrie von ⇠ implizieren also fur alle z 2 X, dass gilt: z ⇠ y,z ⇠ x. Darausfolgt [x] = [y].(2) p : X ⇣ X/⇠ ist klar nach Definition; weiter gilt

p(x) = p(y), [x] = [y](1), x ⇠ y

(3)”(i) ) (ii)“

Falls x, y 2 X, x ⇠ y, dann gilt:

p(x)(2)= p(y), d.h. f(x)

(i)= f � p(x) = f � p(y)

(i)= f(y)

”(ii) ) (i)“

Falls [x] 2 X/⇠ , y 2 [x] beliebig, dann hangt f(y) wegen (ii) nicht von der Wahl vony 2 [x] ab, d.h. f([x]) := f(x) ist

”wohldefiniert“; dann folgt f = f �p nach Konstruktion.

21

Page 22: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Eindeutigkeit von f : folgt aus 1.4.6(ii), da p nach (2) surjektiv ist. 2

Beispiel 2.2.6 (Fortsetzung): Mit der obigen Proposition konnen wir jetzt formalnachweisen, dass die Addition auf Z eine wohldefinierte Verknupfung auf Z/mZ induziert:X := Z⇥ Z, auf X definiert

(a, b) ⇠ (a, b) :() (a ⇠m a ^ b ⇠m b)

eine Aquivalenzrelation. Mit Y := Z/mZ betrachten wir f : X ! Y , f((a, b)) := [a + b].Aus Aufgabe 10 ist bekannt, dass gilt: Falls (a, b) ⇠ (a, b), dann ist f((a, b)) = f((a, b)).Nach Proposition 2.2.8.(3) gibt es also eine eindeutig bestimmte Abbildung f : X/⇠! Ymit f � p = f , also f([(a, b)]) = [a + b]. Nutzt man noch X/⇠ = Z/mZ ⇥ Z/mZ und[(a, b)] = ([a], [b]) unter dieser Identifikation, dann folgt [a] + [b] := f([(a, b)]) = [a + b]wie gewunscht.

Lemma 2.2.9Es sei (G, ⇤) eine Menge mit assoziativer Verknupfung ⇤, und G 6= ;. Dann ist dieseine Gruppe genau wenn gilt:

8a, b 2 G 9x, y 2 G : x ⇤ a = b ^ a ⇤ y = b.

Beweis:

”)“ x := b ⇤ a�1, y := a�1 ⇤ b erfullen die beiden Gleichungen in jeder Gruppe (G, ⇤).

”(“ von den Gruppenaxiomen ist noch zu uberprufen:– Existenz des neutralen Elementes (G2)– Existenz inverser Elemente (G3)

zu (G2):Da G 6= ;, konnen wir a 2 G wahlen; dies ist im Folgenden fest gewahlt;nach Voraussetzung 9e, e 2 G : e ⇤ a = a, a ⇤ e = aBehauptung: e = e ist ein neutrales ElementBeweis: 8b 2 G: wahle xb, yb 2 G mit a⇤yb = b und xb⇤a = b (moglich nach Voraussetzung)

) e ⇤ bAssoziativitat

= (e ⇤ a) ⇤ ybKonstruktion

= a ⇤ yb = b

b ⇤ eAssoziativitat

= xb ⇤ (a ⇤ e)Konstruktion

= xb ⇤ a = b.

Es folgt e = e ⇤ e = e und damit auch, dass e = e neutrales Element ist.zu (G3):

8a 2 G : nach Voraussetzung existiert ein a 2 G mit a ⇤ a = e

2

22

Page 23: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Definition 2.2.10 (vgl. 2.1.7)Es seien (H, ⇤H) und (G, ⇤G) Gruppen.(i) Ist ' : H ! G ein Homomorphismus (oder ein Isomorphismus) dieser Mengenmit Verknupfung, dann nennen wir ' einen Gruppen-Homomorphismus (oder -Isomorphismus).(H, ⇤H) und (G, ⇤G) heißen isomorph, falls es einen Gruppen-Isomorphismus ' :H ! G gibt; Notation: H ⇠= G.(ii) Ist H ⇢ G, und ist die Inklusionsabbildung ◆ : H ,! G, ◆(a) := a einGruppen-Homomorphismus, dann nennt man H Untergruppe von G.

mit anderen Worten:Eine Gruppe (H, ⇤H) mit H ⇢ G ist genau dann eine Untergruppe der Gruppe (G, ⇤G),wenn fur die Inklusion ◆ gilt:

8a, b 2 H : a ⇤H b = ◆(a ⇤H b) = ◆(a) ⇤G ◆(b) = a ⇤G b,

also falls ⇤H die Einschrankung von ⇤G auf H ist.

Beispiele:(1) (H = R, +), (G = R⇤, ·), dann ist ' : R! R⇤, '(x) := ex ein Gruppen-Homomorphismus(siehe oben!)(2) H := {[0], [3], [6], [9]} ⇢ Z/12Z =: G(H, +) ist eine Untergruppe von Z/12Z: wir mussen uberprufen, dass

”+“ auf H eine

Verknupfung ist, unter der H zu einer Gruppe wird;Beweis: UbungBemerkung: H ⇠= Z/4Z (Ubung!)

Bemerkung 2.2.11(i) Fur die neutralen Elemente eG 2 G, eH 2 H von Gruppen G gilt unter jedem

Gruppen-Homomorphismus ' : H ! G: '(eH) = eG, denn 8a 2 H :

'(eH) ⇤ '(a) = '(eH ⇤ a) = '(a)) '(eH) = '(eH) ⇤ '(a) ⇤ ('(a))�1 = '(a) ⇤ ('(a))�1 = eG

außerdem: 8a 2 H : '(a�1) ⇤ '(a) = '(a�1 ⇤ a) = '(eH) = eG

) '(a�1) = ('(a))�1

(ii) (G, ⇤) sei eine Gruppe, H ⇢ G mit H 6= ; und ⇤H : H⇥H ! G sei die Einschrankungvon ⇤ auf H ⇥H. Dann gilt:

(H, ⇤H) ist eine Untergruppe , 8a, b 2 H : a ⇤H b 2 H und a�1 2 H

(”H schließt unter Komposition und Inversenbildung“)

(Beweis: Aufgabe 13)(iii) (H, •) und (G, ⇤) seien Gruppen mit neutralen Elementen eH und eG, sowie ' : H !G ein Gruppen-Homomorphismus. Weiter sei

ker' := {a 2 H | '(a) = eG} ⇢ H, im' := {'(a) | a 2 H} ⇢ G.

23

Page 24: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

ker' heißt der Kern von '. Dann sind ker' mit der Einschrankung von • und im' mitder Einschrankung von ⇤ Untergruppen von (H, •) und (G, ⇤).

(Beweis: Aufgabe 17)

nachstes Ziel: Untersuchung der sogenannten Symmetrischen Gruppen – das sinddie Automorphismengruppen endlicher Mengen (vgl. Beispiel 2.2.4)

Definition 2.2.12Falls X = {1, . . . , n}, n � 1, dann schreiben wir Sn := Aut(X). Sn heißt auch sym-metrische Gruppe auf n Elementen, und die � 2 Sn heißen Permutationen.Notationen:

• fur � 2 Sn schreibe � =

1 2 3 · · · n�(1) �(2) �(3) · · · �(n)

;

• � = (i1, i2, . . . , ip) bedeutet

�(i1) = i2,�(i2) = i3, . . . ,�(ip�1) = ip,�(ip) = i1, und �(j) = j falls j 2{1, . . . , n}\{i1, . . . , ip}, wobei man fordert, dass die ik paarweise verschiedensind; � = (i1, i2, . . . , ip) heißt dann Zykel der Lange p oder p-Zykel.

Beispiele:

� =

1 2 32 3 1

, � =

1 2 33 1 2

2 S3

� � � =

1 2 32 3 1

�✓

1 2 33 1 2

=

1 2 31 2 3

= id

d.h. � = ��1

andererseits in Zykelschreibweise: � = (1 2 3), � = (1 3 2)

Ubung: Jedes � 2 Sn ist Komposition endlich vieler Zykel (i1, . . . , ip), die sich nicht uber-schneiden. � kann auch als Komposition aus sogenannten

”Transpositionen“ geschrieben

werden, also von Zykeln der Form (i, j), wobei man sogar mit Transpositionen der Form(1, j) auskommt.

Spater werden wir fur die symmetrischen Gruppen Sn einen speziellen Homomorphismusin die Untergruppe Z2 := {1,�1} von (Q⇤, ·) benotigen:

Definition 2.2.13Es sei � 2 Sn, n � 1; ein Paar (i, j) mit i, j 2 {1, . . . , n} heißt Fehlstand von �,falls i < j und �(i) > �(j).Mit

N(�) := |{(i, j)|i, j 2 {1, . . . , n}, i < j,�(i) > �(j)}|

heißtsign(�) := (�1)N(�),

24

Page 25: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

das Signum von �.� heißt gerade, falls sign(�) = +1, und � heißt ungerade, falls sign(�) = �1.

Beispiele:

• � = id{1,...,n} : N(�) = 0) sign(�) = +1

• Fur n � 2 betrachten wir � = (i, j), eine Transposition, wobei wir (ohne Be-schrankung der Allgemeinheit!) i < j annehmen:

Fehlstande sind genau die (i, j), (i+1, j), . . . , (j�1, j) (davon gibt es j� i) und die(i, j � 1), (i, j � 2), . . . , (i, i + 1) (davon gibt es j � i � 1), also insgesamt N(�) =2(j � i)� 1 und somit sign(�) = �1.

Theorem 2.2.14Fur alle n 2 N\{0} und �, � 2 Sn gilt:

sign(� � �) = sign(�) · sign(�) .

Mit anderen Worten: sign definiert einen Gruppen-Homomorphismus von Sn in dieUntergruppe Z2 := {1,�1} von (Q⇤, ·).

Beweis:Fur i, j 2 {1, . . . , n}, i < j, gilt:

�(j)� �(i)

|�(j)� �(i)| =

+1, falls �(j) > �(i)�1, falls �(j) < �(i) ,

somit:

sign(�) =Y

i<j

�(j)� �(i)

|�(j)� �(i)| (⇤)

Wir nutzen aus, dass

|�(j)� �(i)| = max{�(i),�(j)}�min{�(i),�(j)},

und weil (min{�(i),�(j)}, max{�(i),�(j)}) alle geordneten Paare durchlauft, wenn (i, j)alle geordneten Paare durchlauft, ergibt Umordnen der Faktoren im Nenner von (⇤):

sign(�) =Y

i<j

�(j)� �(i)

j � i. (⇤⇤)

Damit:

sign(� � �)

sign(�)(⇤)=Y

i<j

�(�(j))� �(�(i))

|�(�(j))� �(�(i))| ·|�(j)� �(i)|�(j)� �(i)

=Y

i<j

�(�(j))� �(�(i))

�(j)� �(i), (⇤ ⇤ ⇤)

25

Page 26: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

wobei sich die zweite Umformung wieder durch Umordnen der Faktoren ergibt, analogzur Herleitung von (⇤⇤) aus (⇤). Weil wiederum (min{�(i), �(j)}, max{�(i), �(j)}) allegeordneten Paare durchlauft, wenn (i, j) alle geordnetem Paare durchlauft, und da furjedes Paar (i, j) mit i 6= j

�(�(j))� �(�(i))

�(j)� �(i)=

�(�(i))� �(�(j))

�(i)� �(j)< 0

, (min{�(i), �(j)}, max{�(i), �(j)}) ist ein Fehlstand von �,

erhalten wir mit (⇤⇤) aus (⇤ ⇤ ⇤)

sign(� � �)

sign(�)= sign(�).

2

2.3 Ringe und Korper

Erinnerung: in der Schule haben Sie analytische Geometrie in Rn betrieben; (R, +),(Rn, +), (R⇤, ·) sind Beispiele von Gruppen. Dabei ist R aber ganz besonders: (R, +) und(R\{0}, ·) sind Gruppen, die Verknupfungen

”+“ und

”·“ sind sehr schon mit einander

vertraglich – das verallgemeinern wir jetzt zu abstrakten algebraischen Begri↵en:Im Sinne von a’jabr versehen wir Mengen mit immer weiteren Strukturen, um schließlichbei Korpern anzukommen...

Definition 2.3.1Es sei (R, ·) eine Menge mit Verknupfung.(a) Falls die Verknupfung · assoziativ ist und in R ein neutrales Element 1 2 R bzgl.· existiert, dann heißt (R, ·) ein Monoid.(b) Es sei (R, ·) ein Monoid. Falls “+” eine weitere Verknupfung auf R ist, so dassgilt: (R, +) ist eine Abelsche Gruppe mit neutralem Element 0 2 R, und die Distri-butivgesetze

8 a, b, c 2 R : a · (b + c) = (a · b) + (a · c),(a + b) · c = (a · c) + (b · c),

sind erfullt, dann nennt man (R, +, ·) einen Ring.

”+“ ist die Addition und

”·“ ist die Multiplikation auf R.

(R, +, ·) heißt Kommutativer Ring, falls die Verknupfung”·“ kommutativ ist.

Bemerkung: Manch einer definiert Ringe ohne Einselement, wir tun das nicht.

Beispiele:

• (R, +, ·), (Q, +, ·), (Z, +, ·), sind kommutative Ringe, ebenso wie (Z/mZ, +, ·), wobei8 a, b 2 Z/mZ : [a] · [b] := [a · b] (Ubung)

26

Page 27: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

• Es sei

R := {f : R3 ! R3 | 8x, y 2 R3 : f(x + y) = f(x) + f(y)}= {Gruppenhomomorphismen von (R3, +)}

Dann ist (R, +, �) mit

8 f, g 2 R 8x 2 R3 : (f + g)(x) := f(x) + g(x), f � g(x) := (f(g(x))

ein Ring, der nicht kommutativ ist (Ubung)

• (N, +, ·) ist kein Ring (denn (N, +) ist keine Abelsche Gruppe)

Notation 2.3.2(R, +, ·) sei ein Ring.

•”·“ wird gerne weggelassen: 8 a, b 2 R : ab := a · b, wohingegen

”+“ nicht

weggelassen wird (312 = 3

2 6= 3 + 12 2 R)

• zum Sparen von Klammern:”Punkt vor Strich“, d.h.

8 a, b, c 2 R : ab + c := (a · b) + c

• fur a 2 R ist �a 2 R das Inverse von a bzgl.”+“, und fur a, b 2 R schreibt

man b� a := b + (�a)

Die 0 spielt in Ringen eine ganz besondere Rolle:

Lemma 2.3.3(R, +, ·) sei ein Ring.(1) Es gilt: 8 a 2 R : 0 · a = 0 = a · 0.(2) Weiter besitze jedes a 2 R \ {0} ein multiplikatives Inverses:

8 a 2 R \ {0} 9a�1 2 R : a�1 · a = 1 ;

Dann gilt:(a) 8 a, b 2 R : a · b = 0) a = 0 _ b = 0 (Nullteiler-Freiheit)(b) 8 a, b 2 R \ {0} : a · b 6= 0.

Beweis:(1) 8 a 2 R : 0 · a + 0 · a Distributivgesetz

= (0 + 0) · a = 0 · a) 0 · a = 0 (durch Subtrahieren von 0 · a auf beiden Seiten)

analog folgt a · 0 = 0

27

Page 28: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(2)(a) Falls 1 = 0, folgt fur jedes a 2 R:

a = a · 1 = a · 0 (1)= 0,

also R = {0}, und es ist nichts zu zeigen.Wir nehmen daher im Folgenden an, dass 1 6= 0, also R \ {0} 6= ;.Wir zeigen zunachst, dass aus der Voraussetzung in (2) sogar folgt:

8 a 2 R \ {0} 9a�1 2 R \ {0} : a�1 · a = 1 = a · a�1 ;

fur a 2 R \ {0} folgt namlich wegen (1) sofort a�1 2 R \ {0}, und somit auch

a · a�1 = (a�1)�1 · a�1 · a · a�1 = (a�1)�1 · 1 · a�1 = (a�1)�1 · a�1 = 1,

genau wie im Beweis von Lemma 2.2.3.Es sei jetzt a, b 2 R mit ab = 0.Falls a 6= 0, dann ist zu zeigen: b = 0.Dazu: nach Voraussetzung existiert a�1 2 R mit a�1 · a = 1,

also b = 1 · b = (a�1 · a) · b = a�1(ab)Voraussetzung

= a�1 · 0 (1)= 0.

Falls andererseits b 6= 0, dann ist zu zeigen: a = 0.Dazu: nach Obigem existiert b�1 2 R \ {0} mit b�1 · b = 1 = b · b�1,

also a = a · 1 = a · (b · b�1) = (ab)b�1 Voraussetzung= 0 · b�1 (1)

= 0.(b) folgt sofort aus (a) 2

Damit:Erfullt (R, +, ·) die Voraussetzungen von Lemma 2.3.3(2), dann bildet (R \ {0}, ·) eineGruppe, sofern R \ {0} 6= ;.

Definition 2.3.4Es sei (R, +, ·) ein Ring, so dass R\{0} mit der Einschrankung von · eine Gruppe

ist. Dann nennt man (R, +, ·) einen Schiefkorper und schreibt R⇤ := R\{0}, ·bezeichnet auch die Einschrankung von · auf R⇤.Ist (R⇤, ·) eine Abelsche Gruppe, dann heißt (R, +, ·) Korper (fr.:“corps“,engl.:“field“).

Manche Autoren sagen”Ring mit 1“ statt

”Ring“ und nennen stattdessen (R, +, ·) schon

”Ring“, wenn (R, +) eine Abelsche Gruppe ist und · eine assoziative Verknupfung, so

dass die Distributivgesetze gelten.Wenn die Verknupfungen

”+“ und

”·“ aus dem Kontext klar sind, sagen wir einfach

anstelle von”(K, +, ·) ist ein Korper“, dass K ein Korper ist.

28

Page 29: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(K, +, ·) ist ein Schiefkorper(z.B. Quaternionen)

%% &&(K, +, ·) ist ein Korper (K, +, ·) ist ein Ring

(z.B. R) && %%(K, +, ·) ist ein (z.B. (R, +, �) mit

kommutativer Ring R := {f : R3 ! R3 | 8x, y 2 R3 :(z.B. Z) f(x + y) = f(x) + f(y)})

Rechenregeln in Ringen und Korpern:

Lemma 2.3.5Es sei (K, +, ·) ein Ring. Dann gilt:(1) 8x 2 K : �(�x) = x(2) 8x, y, z 2 K : x + y = z , x = z � y(3) 8x, y, z 2 K : �(x + y) = �x� y(4) 8x, y 2 K : (�x)y = �xy, (�x)(�y) = xy(5) 8x, y, z 2 K : x(y � z) = xy � xzIst (K, +, ·) sogar ein Korper, dann gilt außerdem:(6) 8x 2 K⇤ : (x�1)�1 = x(7) 8x 2 K⇤, y, z 2 K : xy = z , y = zx�1

– als Standardnotation schreiben wir”

zx := zx�1“

(8) 8x, y 2 K⇤, a, b 2 K : ax + b

y = ay+bxxy

Beweis: Ubung

Beispiel 2.3.6(R, +, ·) und (Q, +, ·) bilden Korper.

Sichtweise A:

• (R, +, ·) ist”schon bekannt“, Z ⇢ R auch

• Q := {r 2 R | 9b 2 Z : b · r 2 Z}, und Q”erbt“ Addition und Multiplikation von

R durch Einschrankung von +, · (vgl. Def. 1.4.9) (dann muss man zeigen: fallsr, r0 2 Q ⇢ R, dann folgt r + r0 2 Q, r · r0 2 Q, �r 2 Q und – sofern r 6= 0 –r�1 2 Q, außerdem 0, 1 2 Q)

Sichtweise B:Konstruktion von N mittels Mengelehre: siehe die Bemerkung in Beispiel 1.2.2, Additionund Multiplikation definiert man rekursiv mit Hilfe der Nachfolger-Abbildung ⌫ : N! N,⌫(n) := n + 1, die sich direkt aus der Konstruktion von N ergibtKonstruktion von Z aus N:

29

Page 30: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Z = N⇥ N/⇠, wobei ⇠ folgende Aquivalenzrelation bezeichnet: fur (a, b), (a, b) 2 N⇥ Ngilt (a, b) ⇠ (a, b) :, a+ b = b+ a, und Z ist mit den Verknupfungen [(x, y)]+ [(a, b)] :=[(x + a, y + b)], [(x, y)] · [(a, b)] := [(xa + yb, xb + ya)] versehen (Ubung: all dies istwohldefiniert und liefert die bekannten ganzen Zahlen (Z, +))Konstruktion von Q aus Z:ab mit a, b 2 Z, b 6= 0 ist die Kurzschreibweise fur die Aquivalenzklasse von (a, b) in

Z ⇥ (Z \ {0})/⇠, wobei (a, b) ⇠ (a, b) :, ab = ab (um z.B. ab = a·m

b·m fur alle m 2 Z\{0}zu garantieren), und Q ist mit den Verknupfungen a

x + by := ay+bx

xy , ax ·

by := ab

xy versehen

(Ubung: all dies ist wohldefiniert und liefert die bekannten rationalen Zahlen (Q, +))

allgemein:

Definition 2.3.7Es seien (K, +K , ·K) und (L, +L, ·L) Korper, so dass fur die zugrundeliegenden Men-gen K ⇢ L gilt, und 8 a, b 2 K : a +K b = a +L b, a ·K b = a ·L b. Dann heißt K ⇢ LTeilkorper von L, und L heißt Korpererweiterung von K.

Bemerkung 2.3.8Jeder Korper K besitzt einen eindeutig bestimmten kleinsten Teilkorper, denn ist (Ki)i2I

ein System von Teilkorpern von K, dann ist auchT

i2I Ki ⇢ K ein Teilkorper von K(Ubung); Q ist der kleinste Teilkorper von R.

Beispiel 2.3.9Es sei q 2 N, q � 1, Z/qZ wie in Beispiel 2.2.6, sowie [m]+[n] := [m+n], [m]·[n] := [m·n];nach Aufgabe 10 sind dies wohldefinierte Verknupfungen: falls m ⇠q m, n ⇠q n, dann istm + n ⇠q m + n und mn ⇠q mn;(a) (Z/qZ, +, ·) ist ein kommutativer Ring: nach Beispiel 2.2.6 ist (Z/qZ, +) eine AbelscheGruppe; [1] ist das neutrale Element fur ·, Kommutativitat und Assoziativitat von · sowieDistributivgesetze: Ubung(b) (Z/qZ, +, ·) ist ein Korper , q > 1 ist eine Primzahl: Ubung

2

Bemerkung: falls q = q1 · q2 mit q1, q2 2 N\{0, 1}, dann gilt [q1] · [q2] = [q] = [0] in Z/qZ2.3.3(2)) (Z/qZ, +, ·) ist kein Korper

Auch fur Ringe und Korper mussen wir jetzt Struktur erhaltende Abbildungen definieren:

Definition 2.3.10K und L seien Ringe und ' : K ! L eine Abbildung der zugrunde liegenden Mengen.(1) ' heißt Ring-Homomorphismus, falls gilt:

8 a, b 2 K : '(a + b) = '(a) + '(b),'(ab) = '(a)'(b) und '(1) = 1

30

Page 31: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(2) Sind K und L Korper, und ' erfullt die Bedingungen aus (1), dann heißt 'Korper-Homomorphismus.(3) Ist ' zusatzlich bijektiv, dann ist ' ein Ring – oder ein Korper – Isomorphismus,und K und L heißen isomorph.

Man uberpruft jetzt sofort: Sind (K, +K , ·K) und (L, +L, ·L) Korper mit K ⇢ L, danngilt: K ist Teilkorper von L, genau wenn die Inklusion ◆ : K ,! L, ◆(a) := a ein Korper-Homomorphismus ist.

Lemma 2.3.11K und L seien Korper und ' : K ! L ein Korper-Homomorphismus. Dann gilt:(1) '(0) = 0(2) 8 a 2 K : '(�a) = �'(a)(3) ' ist injektiv(4) falls a 6= 0 : '(a�1) = ('(a))�1

Beweis:(1) + (2) folgen sofort aus Bemerkung 2.2.11(1), da ja insbesondere ' ein Gruppen-Homomorphismus von (K, +) nach (L, +) ist(3) falls a, b 2 K und '(a) = '(b), dann folgt fur c := a� b :

'(c) = '(a� b)(2)= '(a)� '(b) = 0;

es bleibt zu zeigen: c = 0.Beweis durch Widerspruch: angenommen, c 6= 0; dann existiert c�1 2 K und

1 = '(1) = '(c�1 · c) = '(c�1) · '(c) = '(c�1) · 0 2.3.3= 0 ,

aber nach Definition 2.3.4 ist 1 das neutrale Element der Gruppe (R\{0}, ·): Widerspruch!(4) nach (3) ist ' injektiv, also ist '�1(0) = {0}, und somit liefert Einschrankung einenGruppen-Homomorphismus von (K⇤, ·) nach (L⇤, ·), so dass die Behauptung aus Bemer-kung 2.2.11(1) folgt.

2

Beachte: Nach Lemma 2.3.3 ist zwar jeder Korper Nullteiler-frei, nach Beispiel 2.3.9(b)gilt aber fur jede Primzahl p: Im Korper

Fp := Z/pZ : 1 + · · ·+ 1| {z }

p�mal

= 0 .

dazu:

31

Page 32: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Definition 2.3.12Es sei K ein Korper. Fur jedes n 2 N definieren wir n · 1 := 1 + · · ·+ 1

| {z }

n�mal

. Man sagt

(a) K hat Charakteristik 0, falls gilt:

8n 2 N\{0} : n · 1 6= 0

(b) hat K nicht Charakteristik 0, dann hat K Charakteristik p 2 N mit

p := min{n 2 N\{0} | n · 1 = 0} .

Weiter heißt fur Primzahlen p 2 N \ {0, 1} der Korper Fp := Z/pZ mit”+“ und

”·“

wie in Beispiel 2.3.9(b) der Primkorper der Charakteristik p.

Ist K ein Korper, der nicht Charakteristik Null hat, dann ist die Charakteristik von Kalso genau die Ordnung des Elementes 1 in der additiven Gruppe (K, +). Man uberpruftauch sofort, dass ein Korper-Homomorphismus ' : K ! L nur dann exisitieren kann,wenn die Korper K und L diegleiche Charakteristik haben.

Bemerkung 2.3.13(1) Ist K ein Korper der Charakteristik p > 0, dann ist p eine Primzahl (folgt aus derNullteiler-Freiheit von K). Der kleinste Teilkorper von K (vgl. Bemerkung 2.3.8) ist dannisomorph zu Fp. K kann aber trotzdem unendlich viele Elemente enthalten.Weitere Details hierzu lernen Sie in einer Algebra-Vorlesung; in der Linearen Algebraspielen Korper der Charakteristik 0 die großte Rolle, also Korper wie R und Q.(2) Jeder

”vollstandig geordnete Korper“ (siehe Analysis fur die Definition) ist isomorph

zu R.

nachstes Ziel: Einfuhrung des Korpers C der Komplexen Zahlen als echte Korperer-weiterung von R, und Herleitung der wichtigsten Eigenschaften.

Definition 2.3.14Wir definieren die Komplexen Zahlen durch C := R2 mit den Verknupfungen

”+“ und

”·“,

8✓

x

y

,

x

y

2 C :

x

y

+

x

y

:=

x + x

y + y

,

x

y

·✓

x

y

:=

xx� yy

xy + xy

.

Weiter schreiben wir

0 :=

0

0

, 1 :=

1

0

, i :=

0

1

sowie 8x, y 2 R : x + iy :=

x

y

32

Page 33: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Bemerkung 2.3.15(1) Somit: x ist die Abkurzung fur x · 1 =

x0

, und ◆ : R ,! C via x 7!�

x0

erfullt8x, x 2 R : ◆(x + x) = ◆(x) + ◆(x), ◆(x · x) = ◆(x) · ◆(x), ◆(1) = 1.Weiter ist C = {x + iy | x, y 2 R} mit

(x + iy) + (x + iy) = (x + x) + i(y + y) ,

(x + iy) · (x + iy) = (xx� yy) + i(xy + xy) ,

insbesondere i · i = �1 und 8x, y 2 R : 1 · (x + iy) = x + iy.x heißt Realteil und y heißt Imaginarteil von x + iy.

(2) nach Aufgaben 12 und 18 gibt es eine Verknupfung � auf R2 und einen surjektivenHomomorphismus

: (R⇥ R, 2) �! (R2,�) , (r,') 7! |r| ·✓

cos'

sin'

,

wobei (r,')2(r, ') = (r · r,'+ ').Dies liefert die Polarkoordinaten auf R2, wobei |r|, der Radius, sich multiplikativverhalt, und ', der Winkel, additiv ist. Das macht 2 zu einer naturlichen Verknupfung,die wiederum � induziert:Fur

xy

= |r|�

cos 'sin '

,�

xy

= |r|�

cos 'sin '

folgt, da ein Homomorphismus ist:

x

y

�✓

x

y

= ((r,')2(r, ')) = (rr;'+ ')

= |rr|✓

cos('+ ')

sin('+ ')

= |rr|✓

cos' cos '� sin' sin '

cos' sin '+ cos ' sin'

=

xx� yy

xy + xy

=

x

y

·✓

x

y

mit”·“ wie in Definition 2.3.14.

Somit: Die multiplikative Verknupfung auf C ist auf naturliche Weise induziert, wenn manauf C = R2 Polarkoordinaten verwendet und jedes z 7! z · z mit z = x+iy = |r|

cos 'sin '

2 Cals

”Drehstreckung“ interpretiert (

”Dreh“ – Winkel ',

”-streckung“ – Radius |r|).

In den Ubungsaufgaben wurden schon alle wichtigen Eigenschaften von C bewiesen!

Theorem 2.3.16(C, +, ·) wie in Definition 2.3.14 ist ein Korper der Charakteristik 0, wobei0 das neutrale Element bzgl.

”+“,

1 das neutrale Element bzgl.”·“ ist,

und fur z = x + iy 2 C gilt: (�x) + i · (�y) ist das Inverse von z bzgl.”+“,

falls z 6= 0: x�iyx2+y2

ist das Inverse von z bzgl.”·“.

C ist ein Erweiterungskorper von R.Zusatz:Auf C gibt es keine Ordnung, die C zu einem geordneten Korper macht.

33

Page 34: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beweis:(C, +) ist eine Abelsche Gruppe (s. Beispiele nach 2.2.1); (C⇤, ·) ist eine Abelsche Gruppenach Aufgabe 12, die Distributivgesetze gelten ebenfalls nach Aufgabe 12

Def. 2.3.1+2.3.4=) (C, +, ·) ist ein Korper.

Dass C ein Erweiterungskorper von R ist, folgt sofort aus Bemerkung 2.3.15, und darausfolgt wiederum, dass C dieselbe Charakteristik hat wie R, namlich Charakteristik 0.indirekter Beweis fur den Zusatz:Annahme:

”>“ definiert eine Ordnung auf C;

Problem: Gilt dann i > 0 oder i < 0?(a) Beh.: falls a 2 C, a > 0, dann folgt �a < 0, denn ware �a > 0, dann hatten wir0 = a� a > 0, einen Widerspruch;

daher folgt auch aus a < 0, dass �a > 0.(b) Beh.: 1 > 0denn andernfalls ware 1 < 0, also musste wegen (a) gelten: �1 > 0 und somit 1 =(�1) · (�1) > 0

Nach (a) gilt also auch �1 < 0.(c) falls i > 0 : �1 = i · i > 0, undfalls i < 0 : �i > 0 wegen (a), also �1 = (�i) · (�i) > 0, beides im Widerspruch zuObigem

2

Beachte:In R hat x2 + 1 = 0 keine Losungen, in C losen ±i diese Gleichung, die

”polynomial“ ist;

nachstes Ziel: Charakterisierung von C uber das Losungsverhalten solcher Gleichungen

Definition 2.3.17Es sei (R, +, ·) ein kommutativer Ring.(1) ein Polynom uber R in der Variablen x ist ein Ausdruck der Form

p = p(x) =NX

j=0

ajxj mit N 2 N, aj 2 R .

Man setzt dann aj := 0 fur alle j 2 N mit j > N und schreibt p = p(x) =P

1

j=0 ajxj.Die Menge aller Polynome uber R in der Variablen x wird mit R[x] bezeichnet.(2) Fur p 2 R[x], p(x) =

P

1

j=0 ajxj, ist der Grad deg(p) = M von p, falls M 2 N,aM 6= 0 und 8 j > M : aj = 0.Falls aj = 0 fur alle j 2 N, also falls p das Nullpolynom p = 0 ist, dann setzt mandeg(p) := �1.

Beachte: Polynome definieren spezielle Abbildungen, indem man anstelle der Variablenx Werte aus R einsetzt:

34

Page 35: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Definition 2.3.18Es sei (R, +, ·) ein kommutativer Ring und R[x] die Menge der Polynome uber R inder Variablen x.(1) Die Evaluationsabbildung ev : R[x]⇥R! R ist definiert durch

ev(p, r) :=NX

j=0

aj · rj,

falls p =PN

j=0 ajxj und wobei rj := r · · · · · r| {z }

j�mal

und r0 := 1 fur alle r 2 R.

Kurznotation: p(r) =PN

j=0 ajrj, d.h. p definiert eine Abbildung p : R! R.(2) Polynome p 2 R[x] vom Grad deg(p) 0 heißen konstant, und statt a0x0

schreiben wir a0 = a0x0.(3) Auf R[x] definieren wir die folgenden Verknupfungen:Fur p, q 2 R[x] mit

p(x) =NX

j=0

ajxi, q(x) =

MX

k=0

bkxk

setzen wir laut Definition 2.3.17 immer aj := 08 j > N , bk := 08 k > M . Damit sei

p + q 2 R[x], (p + q)(x) :=max{M,N}

X

j=0

(aj + bj)xj ,

p · q 2 R[x], (p · q)(x) :=NX

j=0

MX

k=0

(aj · bk)xj+k

Beobachtung:

(p · q)(x) =M+NX

n=0

nX

j=0

ajbn�j

!

· xn

Man uberpruft sehr leicht, dass”+“ und

”·“ auf R[x] kommutative, assoziative Ver-

knupfungen definiert und R[x] zu einem Ring machen:

Lemma 2.3.19Ist (R, +, ·) ein kommutativer Ring, dann ist (R[x], +, ·) mit

”+“ und

”·“ aus Defi-

nition 2.3.18 ein kommutativer Ring.

Beweis: Ubung.Hinweis: neutrale Elemente: bzgl.

”+“: das Nullpolynom p = 0, und bzgl.

”·“: p = 1

(konstantes Polynom mit a0 = 1)

35

Page 36: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Definition 2.3.20Ist (R, +, ·) ein kommutativer Ring und p 2 R[x] ein Polynom, dann heißt b 2 RNullstelle von p, falls p(b) = 0.

Lemma 2.3.21Es sei p 2 R[x] ein Polynom in der Variablen x uber einem kommutativen Ring

R und b 2 R eine Nullstelle von p. Dann existiert ein Polynom q 2 R[x], so dassp(x) = (x� b)q(x).

Beweis:Vorbemerkung: Fur n 2 N\{0} sei pn(x) := xn � bn. Falls p = pn, dann folgt

pn(x) = xn + xn�1b + xn�2b2 + · · ·+ xbn�1

�xn�1b� xn�2b2 � · · ·� xbn�1 � bn

= (x� b)(xn�1 + xn�2b + · · ·+ xbn�2 + bn�1

| {z }

qn(x)

)

) pn(x) = (x� b) · qn(x) (⇤)Damit:Falls p(x) =

MP

n=0anxn = a0 + a1x + · · ·+ anxM , dann

p(x) = p(x)�0

z}|{

p(b)

= (a0 � a0) + a1(x� b) + a2(x2 � b2) + · · ·+ aM(xM � bM)

=MX

n=1

anpn(x)

(⇤)= (x� b)

MX

n=1

anqn(x)

| {z }

q(x)

2

Lemma 2.3.22Es sei K ein Korper. Dann sind folgende drei Aussagen aquivalent:(1) Jede Gleichung der Form

a0 + a1x + · · ·+ aMxM = 0 mit aj 2 K, M 2 N\{0}, aM 6= 0

hat eine Losung x = b, b 2 K.(2) Jedes Polynom p 2 K[x] vom Grad M � 1 hat eine Nullstelle b 2 K.

36

Page 37: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(3) Jedes p 2 K[x] vom Grad M � 1 erlaubt eine Zerlegung

p(x) = aM(x� b1) · · · (x� bM) mit aM , b1, . . . , bM 2 K ,

wobei jedes b1, . . . , bM eine Nullstelle von p ist.

Beweis:

”(1) , (2)“ nach Definition

”(2) ) (3)“ folgt induktiv aus Lemma 2.3.21

”(3) ) (2)“ nach Definition

2

fur p(x) = x2 + 1 2 R[x] gilt keine der 3 aquivalenten Bedingungen,fur p(x) = x2 + 1 2 C[x] gelten sie alle

Definition 2.3.23Ein Korper K heißt Algebraisch abgeschlossen, falls die drei aquivalenten

Bedingungen aus Lemma 2.3.22 gelten.

Mit Aufgabe 28c) folgern Sie nun: Ein endlicher Korper ist niemals algebraisch abgeschlos-sen. Allerdings hat jeder Korper einen eindeutig bestimmten algebraischen Abschluss,d.h. einen Erweiterungskorper, der minimal ist mit der Eigenschaft, dass er algebraischabgeschlossen ist; insbesondere hat der algebraische Abschluss jedes endlichen Korperspositive Charakteristik, aber unendlich viele Elemente.Folgendes wichtige Resultat hat leider keinen rein algebraischen Beweis – dazu brauchtman Analysis:

Theorem 2.3.24 (Fundamentalsatz der Algebra)[Vermutung von Girard 1629; Gauß 1799]

In C gilt: Jede Gleichung der Form

a0 + a1z + · · ·+ anzM = 0 mit aj 2 C, M 2 N\{0}, aM 6= 0

hat eine Losung z 2 C.

mit anderen Worten: C ist algebraisch abgeschlossen.

Charakterisierungen von C:

• die kleinste Korpererweiterung von R, in der x2 + 1 = 0 losbar ist

• die kleinste algebraisch abgeschlossene Korpererweiterung von R

37

Page 38: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

3 Vektorraume

Erinnerung (an Beispiel 1.3.4)

E1 := {x 2 R3 | 83x1 � 1

3x2 � 13x3 = 0} Ebene in R3

E2 := {x 2 R3 | x2 + x3 = 0} Ebene in R3

E3 := {x 2 R3 | 43x1 + 1

3x2 + 13x3 = 0} Ebene in R3

L := E1

T

E2

T

E3 Gerade in R3

E1, E2, E3, L ⇢ R3 sind Beispiele Linearer Raume X, d.h. 8 a, b 2 X, 8� 2 R:a + b,�a 2 X, wobei “+” die Vektoraddition bezeichnet und �a wie vorher der umden Faktor � gestreckte Vektor a ist;mit

A =

0

@

83 �

13 �

13

0 1 143

13

13

1

A

ist”Ax = 0“ Kurzschreibweise fur ein lineares Gleichungssystem,

L = {x 2 R3 | Ax = 0} ⇢ R3

Motto:Lineare Raume treten in naturlicher Weise beim Losen linearer Gleichungssysteme auf

Ziel:Verallgemeinerung solcher Strukturen, Studium der Eigenschaften

3.1 Vektorraume: Definitionen und Beispiele

Definition 3.1.1Es sei K ein Korper und (V, +) eine Abelsche Gruppe mit einer Abbildung

K ⇥ V ! V(�, v) 7! �v ,

so dass gilt:

8x, y 2 V, 8�, µ 2 K : �(x + y) = (�x) + (�y), (�+ µ)x = (�x) + (µx),�(µx) = (�µ)x, 1x = x

(V )

Dann heißt diese Abbildung skalare Multiplikation, und (V, +) mit der skalarenMultiplikation bildet einen K-Vektorraum oder Vektorraum uber K.

Bemerkung 3.1.2(i) Ist (R, +, ·) ein Ring und (V, +) eine Abelsche Gruppe mit einer Abbildung R⇥V ! V ,(�, x) 7! �x, welche fur alle x, y 2 V und alle �, µ 2 R die Bedingungen (V ) erfullt,dann heißt V ein R-Modul oder Links-R-Modul.(ii)Ist V ein K-Vektorraum, dann gilt:

38

Page 39: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

• Elemente von von V heißen Vektoren (von lat.: vehere – “fahren, transportie-ren”), und Elemente von K heißen Skalare (von lat.: scala –“Treppe”)

• das neutrale Element 0 2 V von (V, +) heißt Nullvektor

• das Inverse von x 2 V bzgl. + heißt Negativer Vektor �x 2 V

(iii) Konvention:”(skalare) Multiplikation vor Strichrechnung“: Wir schreiben �x+µy :=

(�x) + (µy) etc.(iv)Vektorraume uber R heißen Reelle Vektorraume, Vektorraume uber C heißenKomplexe Vektorraume.

Beispiel 3.1.3(i)Rn mit Vektoraddition und skalarer Multiplikation ist ein Vektorraum;

fur beliebige Korper K:

Kn = K ⇥ · · ·⇥K| {z }

n-faches kartesisches Produkt

mit der induzierten Addition

x + y :=

0

B

@

x1 + y1...

xn + yn

1

C

A

wenn x =

0

B

@

x1...

xn

1

C

A

, y =

0

B

@

y1...

yn

1

C

A

2 Kn ,

und skalarer Multiplikation

�x :=

0

B

@

�x1...

�xn

1

C

A

fur � 2 K, x =

0

B

@

x1...

xn

1

C

A

2 Kn

ist ein K-Vektrorraum, wobei wir -wie im Folgenden ublich- die Elemente der Ubersicht-lichkeit halber in Spalten darstellen;man beachte die Spezialfalle n = 1 (jeder Korper K ist ein K-Vektorraum) und n = 0(mit K0 := {0}: der triviale Vektorraum ist ein Vektorraum uber jedem Korper K)(ii) Fur K einen Korper und X eine Menge sei

Abb(X, K) := {f : X ! K} ,

• 8 f, g 2 Abb(X, K) : (f + g)(x) := f(x) + g(x)8x 2 X liefert f + g 2 Abb(X, K)und macht (Abb(x, K), +) zu einer Abelschen Gruppe

• 8 f 2 Abb(X, K),8� 2 K : (�f)(x) := �(f(x))8x 2 X liefert �f 2 Abb(X, K)und definiert eine skalare Multiplikation auf Abb(X, K)

Ubung: (Abb(X, K), +) mit dieser skalaren Multiplikation ist ein K-Vektorraum

39

Page 40: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Lemma 3.1.4Es sei K ein Korper und V ein K-Vektorraum. Dann gilt:(1) (a)

8x 2 V : 0|{z}

2K

x = 0 2 V, 8� 2 K : � 0|{z}

2V

= 0 2 V

(b) falls � 2 K, x 2 V und �x = 0 2 V , dann folgt

� = 0 oder x = 0

(2) 8x 2 V : (�1)x = �x

Beweis:(1)(a)

0x = (0 + 0)x = 0x + 0x) 0x = 0 analog zu 2.3.3(1)

�0 = �(0 + 0) = �0 + �0) �0 = 0 analog zu 2.3.3(1)

(b) zu zeigen: falls � 2 K⇤, x 2 V , �x = 0, dann folgt x = 0; in der Tat:

x(V )= 1x =

"� 6= 0

(��1�)x(V )= ��1( �x

|{z}

0

) = ��10(1)= 0

(2)

8x 2 V : x + (�1)x(V )= 1x + (�1)x

(V )= (1� 1)x

= 0x(1)= 0

) (�1)x = �x

2

Definition 3.1.5Es sei K ein Korper, und (V, +V ) sowie (W, +W ) seien K-Vektorraume, wobei wir

die jeweiligen skalaren Multiplikationen mit K⇥V 3 (�, x) 7! �V x 2 V bzw. K⇥W 3(�, x) 7! �W x 2 W notieren. Falls W ⇢ V und

8x, y 2 W, 8� 2 K : x +W y = x +V y, �W x = �V x

gilt, dann heißt W Untervektorraum von V .

Mit anderen Worten: W ⇢ V wird mit den Einschrankungen von + und der skalarenMultiplikation ein K-Vektorraum, insbesondere ist (W, +) Untergruppe von (V, +).

40

Page 41: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Lemma 3.1.6Es sei K ein Korper und V ein K-Vektorraum. Eine Teilmenge W ⇢ V ist mit denEinschrankungen von + und · ein Untervektorraum von V , genau wenn gilt:(UV1) W 6= ;(UV2) 8x, y 2 W : x + y 2 W (Abgeschlossenheit unter +)(UV3) 8x 2 W,8� 2 K : �x 2 W (Abgeschlossenheit unter skalarer Multiplikation)

Beweis:

”)“

Ist W ⇢ V ein Untervektorraum, dann ist W insbesondere ein K-Vektorraum. Darausfolgen (UV1) – (UV3) unmittelbar.

”(“

Es seien jetzt fur W ⇢ V die Eigenschaften (UV1) – (UV3) erfullt. Wir mussen zeigen:W ist ein K-Vektorraum.Nach Konstruktion und (UV2) ist (W, +) eine Menge mit assoziativer, kommutativerVerknupfung; fur x 2 W gilt nach (UV3): (�1)x 2 W , nach Lemma 3.1.4 ist aber imVektorraum V das Inverse von x genau �x = (�1)x.Mit anderen Worten: (W, +) ist abgeschlossen unter

”+“ und Inversenbildung, W 6= ;

nach (UV1), d.h. (W, +) ist nach 2.2.11(ii) Untergruppe von (V, +).Nach (UV3) definiert die Einschrankung der skalaren Multiplikation auf W eine skalareMultiplikation auf W , fur die alle notwendigen Rechenregeln gelten, da sie ja in V erfulltsind. 2

naturliche Frage:Sind Schnittmengen und Vereinigungsmengen von Vektorraumen wieder Vektorraume?

Lemma 3.1.7Es sei K ein Korper, V ein K-Vektorraum, I eine Menge, und fur jedes a 2 I sei

Wa ⇢ V ein Untervektorraum. Dann gilt:(1) W :=

T

a2I Wa ⇢ V ist ein Untervektorraum(2) Fur a, b 2 I gilt:W := Wa [Wb ⇢ V ist Untervektorraum () Wa ⇢ Wb oder Wb ⇢ Wa

Beweis:(1)folgt mit Lemma 3.1.6, falls wir (UV1) – (UV3) zeigen konnen(UV1) 8 a 2 I : 0 2 Wa, somit gilt 0 2 W und daher auch W 6= ;.(UV2) 8x, y 2 W : x, y 2 Wa fur alle a 2 I, und weil Wa ein Untervektorraum von V ist,folgt x + y 2 Wa fur alle a 2 I und somit x + y 2 W .(UV3) 8x 2 W : x 2 Wa fur alle a 2 I, und weil Wa ein Untervektorraum von V ist,folgt fur jedes � 2 K auch �x 2 Wa fur alle a 2 I und somit �x 2 W .

41

Page 42: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(2)

”(“

folgt sofort, da die Voraussetzung W = Wa oder W = Wb impliziert und Wa und Wb

Untervektorraume sind.

”)“

Angenommen, W := Wa [Wb ⇢ V ist ein Untervektorraum und Wa 6⇢ Wb.Dann ist zu zeigen: Wb ⇢ Wa.

Dazu sei x 2 Wb beliebig; wir sollen x 2 Wa zeigen, dafur wahlen wir y 2 Wa\Wb

(moglich, da Wa 6⇢ Wb); weil W nach Voraussetzung ein Vektorraum ist und x, y 2 W ,folgt, dass x + y 2 W = Wa [Wb, also x + y 2 Wa oder x + y 2 Wb.Da y = (x+y)�x mit x 2 Wb, y /2 Wb, folgt aber x+y /2 Wb (denn Wb ist ein Vektorraum).Also muss x + y 2 Wa gelten und somit wegen y 2 Wa auch x = (x + y)� y 2 Wa, dennWa ist ein Vektorraum. 2

Nachste naturliche Frage: gibt es zu Wa, Wb wie oben einen”kleinsten Vektorraum“ W ,

so dass W � Wa [Wb?

Definition 3.1.8Es sei K ein Korper, V ein K-Vektorraum und E ⇢ V eine Menge.(i) Fur jedes e 2 E sei �e 2 K, so dass nur hochstens endlich viele �e 6= 0. Dannheißt

X

e2E

�ee :=X

e2E mit �e 6=0

�ee 2 V

Linearkombination der e 2 E.(ii) x 2 V heißt Als Linearkombination der e 2 E darstellbar, falls �e 2 Kexistieren, so dass nur hochstens endlich viele �e 6= 0, und x =

P

e2E�ee.

(iii)

span(E) := {x 2 V | x ist als Linearkombination der e 2 E darstellbar}

heißt Erzeugnis von E uber K und wird auch hEi := span(E) notiert. Falls W =hEi, dann heißt E ⇢ V Erzeugendensystem von W .(iv) Eine Menge W ⇢ V heißt endlich erzeugt uber K, falls ein Erzeugenden-system fur W mit nur endlich vielen Elementen existiert.

mittelfristiges Ziel:Bestimmung von moglichst e�zienten Erzeugendensystemen fur Vektorraume

Lemma 3.1.9Es sei K ein Korper, V ein K-Vektorraum und E ⇢ V eine Menge. Dann gilt:(1) span(E) ⇢ V ist ein Untervektorraum(2) Falls W ⇢ V ein Untervektorraum ist mit E ⇢ W , dann gilt span(E) ⇢ W .Mit anderen Worten:

span(E) ⇢ V ist der minimale Untervektorraum von V , der E enthalt.

42

Page 43: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beweis:(1)Folgt aus Lemma 3.1.6, denn 0 2 span(E), also span(E) 6= ;, und nach Definition 3.1.8sind endliche Summen und skalare Vielfache von Linearkombinationen der e 2 E wiederLinearkombinationen der e 2 E.(2)Ist W ⇢ V ein Untervektorraum und E ⇢ W , dann folgt aus der Abgeschlossenheit vonW unter Addition und skalarer Multiplikation: Jede Linearkombination der e 2 E liegtauch in W . 2

3.2 Basen und Dimension

Ziel:moglichst e�ziente (d.h. moglichst kleine) Erzeugendensysteme fur Vektorraume konstru-ieren sowie Kriterien dafur, wann dieses Ziel erreicht istBeispiel:Fur e1 =

10

, e2 =�

01

2 R2:

span{e1, e2} = {xe1 + ye2 | x, y 2 R} = {�

xy

| x, y 2 R} = R2 .

Damit gilt auch mit e3 =�

11

, dass span{e1, e2, e3} = R2, aber das Erzeugendensystem{e1, e2, e3} ist

”ine�zient“, da e3 nicht gebraucht wird, um ganz R2 zu erzeugen; mit

weniger Vektoren als {e1, e2} kommen wir allerdings nicht aus.

Im Folgenden sei K immer ein Korper und V ein K-Vektorraum.

Definition 3.2.1X und I seien Mengen, und fur jedes j 2 I sei ej 2 X. Dann wird die Abbildung

I ! x, j 7! ej als durch I indizierte Familie von Elementen von X odereinfach als Familie von xj 2 X bezeichnet,

Notation: (ej)j2I 2 XI := Abb(I,X)

Beispiel:Ist E ⇢ V und �e 2 K fur jedes e 2 E, so dass nur endlich viele �e 6= 0, dann bilden die(�e)e2E 2 KE die Koe�zienten der Linearkombination

P

e2E �ee 2 V .

Definition 3.2.2Es sei I eine Menge und (vi)i2I eine Familie von Vektoren vi 2 V .(1) (vi)i2I heißt Minimales Erzeugendensystem von V , falls E := {vi | i 2 I} ⇢V ein Erzeugendensystem von V ist und zusatzlich gilt:

J $ I ) span{vj | j 2 J} 6= V .

(2) (vi)i2I heißt linear unabhangig, falls gilt:

43

Page 44: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Falls (�i)i2I 2 KI eine durch I indizierte Menge von Skalaren ist, so dass �i 6= 0 furhochstens endlich viele i 2 I, und

P

i2I �ivi = 0, dann folgt: 8 i 2 I : �i = 0.Ist (vi)i2I nicht linear unabhangig, dann heißt die Familie (vi)i2I linear abhangig.

Mit anderen Worten:(vi)i2I ist linear abhangig genau wenn N 2 N und i1, . . . , iN 2 I,�1, . . . ,�N 2 K existie-ren, so dass

PNj=1 �jvij = 0 und mindestens ein �j 6= 0.

Beispiele:

• Die sogenannten Standard Basisvektoren

e1 =

0

B

B

B

@

10...0

1

C

C

C

A

, e2 =

0

B

B

B

B

B

@

010...0

1

C

C

C

C

C

A

, . . . , en =

0

B

B

B

@

0...01

1

C

C

C

A

2 Rn

sind linear unabhangig, denn fur �1, . . . ,�n 2 R ist

nX

j=1

�jej =

0

B

B

B

@

�1

�2...�n

1

C

C

C

A

,

alsoPn

j=1 �jej = 0 genau wenn �1 = �2 = · · · = �n = 0.

• v1 =�

10

, v2 =�

01

, v3 =�

11

2 R2 bilden eine linear abhangige Familie, denn

0 = v1 + v2 � v3 =3X

j=1

�jvj mit �1 = �2 = 1,�3 = �1 6= 0 .

Ziel:Charakterisierung von minimalen Erzeugendensystemen als linear unabhangige Familien,die Erzeugendensysteme bilden.

Lemma 3.2.3Es sei (vi)i2I eine Familie von Vektoren vi 2 V . Dann gilt:(1) Falls I = ;, dann ist (vi)i2I linear unabhangig.(2) Falls vj = 0 fur ein j 2 I, dann ist (vi)i2I linear abhangig.(3) Falls i, j 2 I existieren mit i 6= j, vi = vj, dann ist (vi)i2I linear abhangig.(4) Falls I = {i}, dann gilt: (vi)i2I ist linear unabhangig , vi 6= 0.(5) Falls (vi)i2I linear unabhangig ist und J ⇢ I, dann ist (vj)j2J linear unabhangig.(6) Falls I 6= ;:

44

Page 45: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(vi)i2I ist linear abhangig, genau wenn gilt:Es existieren j0 2 I und J ⇢ I \ {j0} mit |J | < 1, und eine Familie (µj)j2J vonµj 2 K mit vj

0

=P

j2J µjvj.

Beweis:(1) Falls I = ;, dann ist nichts zu zeigen.(2) 1vj = 0 mit 1 6= 0 beweist die Behauptung.(3) 1vi + (�1)vj = 0 mit 1 6= 0 beweist die Behauptung.(4) folgt sofort aus (2) und der Definition(5) folgt sofort aus der Definition(6)

”)“

nach Voraussetzung ist (vi)i2I linear abhangig, d.h. es existiert (�i)i2I 2 KI mit hochstensendlich vielen �i 6= 0 und �j

0

6= 0, so dassP

i2I �ivi = 0; somit ist

�j0

vj0

= �X

i2I\{j0

}

�ivi ) vj0

=X

i2I\{j0

}

(�j0

)�1(��i)vi

wie behauptet

”(“

Falls vj0

=P

j2J µjvj wie in der Voraussetzung, dann setze �i :=

8

<

:

1 falls i = j0,�µi falls i 2 J,0 sonst ,

dann istP

i2I �ivi = 0, nur endlich viele �i 6= 0, �j0

6= 0. 2

Diese letzte Eigenschaft in obigem Lemma ist außerst nutzlich – am besten sollte mansich diese Eigenschaft als aquivalente Definition fur lineare Abhangigkeit merken!

Theorem 3.2.4Fur eine Familie (vi)i2I von Vektoren vi 2 V ist aquivalent:(1) (vi)i2I ist ein minimales Erzeugendensystem von V .(2) (vi)i2I ist ein linear unabhangiges Erzeugendensystem von V .(3) Jedes v 2 V hat eine eindeutig bestimmte Darstellung als Linearkombination dervi mit i 2 I.(4) (vi)i2I ist eine maximale linear unabhangige Familie, d.h. fur jedes w 2 V ist(w, (vi)i2I) linear abhangig.

Beweis: Wir zeigen: (1) ) (2) ) (3) ) (4) ) (1)

”(1) ) (2)“ (durch Widerspruch)

Annahme: (vi)i2I ist minimales Erzeugendensystem von V und linear abhangig.Dann folgt aus Lemma 3.2.3(6):9 j0 2 I : vj

0

=P

i2I\{j0

}

�ivi mit geeigneten �i 2 K, also vj0

2 span{vi | i 2 I\{j0}}

45

Page 46: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

3.1.9) span{vi | i 2 I} = span{vi | i 2 I\{j0}}, d.h. (vi)i2I war kein minimales Erzeugen-densystem, im Widerspruch zu (1).

”(2) ) (3)“

v 2 V(2)) 9 (�i)i2I 2 KI mit �i 6= 0 fur nur endlich viele i 2 I und v =

P

i2I �ivi.

Falls auch (�i) 2 KI eine solche Darstellung von v definiert, folgt:

0 =X

i2I

�ivi �X

i2I

�ivi =X

i2I

(�i � �i)vi,

und weil (vi)i2I linear unabhangig ist, folgt �i = �i8 i 2 I, d.h. die Darstellung isteindeutig bestimmt.

”(3) ) (4)“

Vorausgesetzt, dass (3) gilt, mussen wir zeigen:(a) (vi)i2I ist linear unabhangig.(b) 8w 2 V : (w, (vi)i2I) ist linear abhangig.ad(a)Es sei (�i)i2I 2 KI mit hochstens endlich vielen �i 6= 0 und

P

i2I �ivi = 0. Da µj := 0fur alle j 2 I eine Linearkombination

P

j2I µjvj = 0 liefert, und nach Voraussetzung (3)auch 0 2 V eine eindeutig bestimmte Darstellung als Linearkombination der (vi)i2I hat,folgt �i = µi = 0 fur alle i 2 I, d.h. (vi)i2I ist linear unabhangig.ad(b) 8w 2 V gilt nach Voraussetzung (3): w ist Linearkombination der (vi)i2I , d.h.w =

P

i2I �ivi fur geeignete �i 2 K, und somit

0 = (�1) · w +X

i2I

�ivi

mit �1 6= 0, d.h. (w, (vi)i2I) ist linear abhangig.

”(4) ) (1)“

Vorausgesetzt, dass (4) gilt, mussen wir zeigen:(a) span{vi | i 2 I} = V(b) Falls J $ I: span{vj | j 2 J} 6= Vad(a): Falls w 2 V \span{vi | i 2 I} existiert, dann ist (w, (vi)i2I) linear unabhangig,denn µw+

P

i2I �ivi = 0 mit µ 2 K und (�i)i2I 2 KI mit hochstens endlich vielen �i 6= 0impliziert µ = 0 (andernfalls ware w als Linearkombination der vi mit i 2 I darstellbar)und somit auch �i = 0 fur alle i 2 I (denn (vi)i2I) ist linear unabhangig). Dies steht aberim Widerspruch zur Maximalitat von (vi)i2I .ad(b) (Beweis durch Widerspruch): Falls V = span{vj | j 2 J} mit J $ I, dannlasst sich vj

0

mit j0 2 I\J als Linearkombination der (vj)j2J darstellen.3.2.3(6)) (vi)i2I ist nicht linear unabhangig im Widerspruch zu (4). 2

Definition 3.2.5Eine Familie (vi)i2I von vi 2 V heißt Basis von V , falls (vi)i2I ein linear unabhangi-ges Erzeugendensystem von V ist.Wir sagen dann auch, dass die Vektoren aus B := {vi | i 2 I} eine Basis von Vbilden.

46

Page 47: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beispiele:

• Fur Kn und

ei :=

0

B

B

B

B

B

B

B

B

B

@

0...010...0

1

C

C

C

C

C

C

C

C

C

A

ite Komponente

ist (ei)i2{1,...,n} eine Basis von Kn, die sogenannte Standardbasis.

Anstelle von (vi)i2{1,...,n} schreiben wir in Zukunft auch (v1, . . . , vn).

• (1, i) ist eine Basis des R-Vektorraumes C.

• (tn)n2N ist eine Basis des K-Vektorraumes K[t] (vgl. Aufgabe 31)

Frage:

• Besitzt jeder Vektorraum eine Basis?

• Wie konstruiert man Basen?

Theorem 3.2.6 (Basisauswahlsatz)Es sei N 2 N, v1, . . . , vN 2 V und V = span{v1, . . . , vN}. Dann existieren i1, . . . , in 2{1, . . . , N}, so dass (vi

1

, . . . , vin) eine Basis von V ist.

Beweis:Idee: verkleinere die Familie (vi)i2{1,...,N}

schrittweise.Ist (vi)i2{1,...,N}

linear unabhangig, dann ist nichts zu tun; andernfalls gibt es nach Lemma3.2.3(b) ein j0 2 {1, . . . , N}, so dass vj

0

2 span{vi | i 2 {1, . . . , N}\{j0}}, also giltV = span{vi | i 2 {1, . . . , N}\{j0}}. Also ist (vi)i2{1,...,N}\{j

0

}

eine neue Familie vonVektoren, die V erzeugt, aber die nur N � 1 Elemente hat.Weiter: induktiv; der Prozess endet, da die Anzahl der Elemente sich in jedem Schrittum 1 verringert, und weil wir mit endlich vielen Elementen begonnen haben. 2

Lemma 3.2.7(v1, . . . , vn) sei eine Basis von V , und w = �1v1 + · · · + �nvn mit �i 2

K fur i 2 {1, . . . , n}. Falls a 2 {1, . . . , n} mit �a 6= 0, dann ist auch(v1, . . . , va�1, w, va+1, . . . , vn) eine Basis von V .

47

Page 48: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beweis:Durch Umnummerieren: o.B.d.A. a = 1, d.h. w = �1v1 + · · ·+ �nvn, �1 6= 0.Zu zeigen: (w, v2, . . . , vn) ist Basis von V .(a) (w, v2, . . . , vn) ist Erzeugendensystem von V :Fur v 2 V : 9µ1, . . . , µn 2 K mit v = µ1v1 + · · ·+ µnvn, da (v1, . . . , vn) Basis von V ist;v1 = ��1

1 (w � �2v2 � · · ·� �nvn) nach Voraussetzung (�1 6= 0!), somit

v =µ1

�1w +

µ2 � µ1�2

�1

v2 + · · ·+✓

µn � µ1�n

�1

vn 2 span{w, v2, . . . , vn}

(b) (w, v2, . . . , vn) ist linear unabhangigFalls µi 2 K mit µ1w + µ2v2 + · · · + µnvn = 0, mussen wir µ1 = µ2 = · · · = µn = 0beweisen.Durch Einsetzen von w = �1v1 + · · ·+ �nvn:

µ1�1v1 + (µ2 + µ1�2)v2 + · · ·+ (µ2 + µ1,�n)vn = 0.

Da (v1, . . . , vn) linear unabhangig ist, folgt:

µ1�1 = µ2 + µ1�2 = · · · = µn + µ1�n = 0

�1

6=0) µ1 = 0, µ2 = µ2 + µ1�2 = 0, . . . , µn = µn + µ1�n = 0. 2

Theorem 3.2.8 (Basisaustauschsatz von Steinitz)[Ernst Steinitz; 1871 – 1928]

Ist (v1, . . . , vn) eine Basis von V und (w1, . . . , wm) eine linear unabhangige Familievon Vektoren in V , dann gilt:(a) m n(b) (v1, . . . , vn) kann so umnummeriert werden, dass (w1, . . . , wm, vm+1, . . . , vn) eineBasis von V ist.

Beweis (durch Induktion uber m):Induktionsanfang (m = 0): es ist nichts zu zeigen.Induktionsannahme:Die Behauptungen gelten fur jede linear unabhangige Familie (w1, . . . , wm) von Vektorenin V .Induktionsschritt (

”m! m + 1“)

(w1, . . . , wm+1) sei eine linear unabhangige Familie von Vektoren in V .Nach Lemma 3.2.3(5) ist dann (w1, . . . , wm) linear unabhangig, und die Induktionsan-nahme liefert:m n, und nach geeigneter Umnummerierung der vi ist (w1, . . . , wm, vm+1, . . . , vn) eineBasis von V . (a) und (b) mussen jetzt fur die Familie (w1, . . . , wm+1) bewiesen werden.zu (a): Beweis durch WiderspruchAnnahme: m + 1 > n.Dann folgt n = m, da ja wir ja schon n � m wissen. Dann ist nach Obigem (w1, . . . , wm)eine Basis von V , also maximal linear unabhangig nach Theorem 3.2.4, im Widerspruchzur linearen Unabhangigkeit von (w1, . . . , wm+1).

48

Page 49: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

zu (b): Zu zeigen ist, dass gegebenenfalls nach Umnummerieren von vm+1, . . . , vn in derBasis (w1, . . . , wm, vm+1, . . . , vn) der Vektor vm+1 gegen wm+1 ausgetauscht werden kann.Dazu: wm+1 = �1w1 + · · · + �mwm + �m+1vm+1 + · · · + �nvn fur geeignete �i 2 K (da(w1, . . . , wm, vm+1, . . . , vn) Basis von V ist), wobei �a 6= 0 fur ein a � m+1 (da andernfalls(w1, . . . , wm+1) linear abhangig ware). Durch Umnummerieren der vi ist also o.B.d.A.�m+1 6= 0 und nach Lemma 3.2.7 ist (w1, . . . , wm+1, vm+2, . . . , vn) eine Basis von V . 2

Das Theorem 3.2.8 hat folgende wichtige Konsequenz:

Korollar 3.2.9V besitze eine Basis (v1, . . . , vn) mit n 2 N. Dann hat jede Basis von V genau n

Elemente.

(lat. ‘corollarium’: ‘Zugabe’, ‘Geschenk’; als Korollare bezeichnen wir unmittelbare Fol-gerungen aus dem vorher Gesagten)Beweis:Es sei (wi)i2I eine weitere Basis von V . Dann ist |I| n, denn andernfalls liefert jedeAuswahl von m := n + 1 Vektoren wi, i 2 I, eine linear unabhangige Familie aus m > nVektoren, im Widerspruch zum Basisaustauschsatz 3.2.8. Insbesondere ist I endlich. Fallsaber m := |I| < n, dann liefert Theorem 3.2.8 ebenfalls einen Widerspruch, indem wirdie Rollen von (v1, . . . , vn) und (w1, . . . , wm) vertauschen. Also folgt m = n. 2

Definition 3.2.10Es sei K ein Korper und V ein K-Vektorraum. Wir setzen

dimK(V ) :=

1, falls V keine endliche Basis besitztn, falls V eine Basis mit n Elementen besitzt .

dimK(V ) heißt Dimension von V uber K. Falls klar ist, welcher Korper K gemeintist, schreibt man auch dimV oder dim(V ) statt dimK(V ).

Bemerkungen:

• Nach Korollar 3.2.9 gilt: dimK(V ) ist fur jeden K-Vektorraum eindeutig bestimmt;uber die Existenz von Basen machen wir uns weiter unten Gedanken.

• dimC(C) = 1, dimR(C) = 2, dimK(K[t]) =1 (Ubung)

Theorem 3.2.11 (Basiserganzungssatz von Steinitz)Falls V endlich erzeugt ist und (wi)i2I eine linear unabhangige Familie von Vektorenaus V ist, dann gibt es eine Basis von V , die alle wi enthalt. Insbesondere besitztjeder endlich erzeugte Vektorraum eine Basis.

49

Page 50: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beweis:Es seien v1, . . . , vN 2 V mit span{v1, . . . , vN} = V , N 2 N. Nach Basisauswahlsatz 3.2.6:o.B.d.A. ist (v1, . . . , vn) eine Basis von V , wobei nach dem Basisaustauschsatz 3.2.8 gilt:m := |I| n, da (wi)i2I linear unabhangig ist, sowie gegebenenfalls nach Umnummerie-ren/Umbenennen: (w1, . . . , wm, vm+1, . . . , vn) ist eine Basis von V , wie behauptet.Da (wi)i2; nach Lemma 3.2.3(1) in jedem K-Vektorraum linear unabhangig ist, folgt dieExistenz einer Basis in jedem endlich erzeugten Vektorraum. 2

Lemma 3.2.12Falls n = dimK(V ) <1, dann gilt:(1) Ist die Familie (v1, . . . , vn) 2 V {1,...,n} linear unabhangig, dann ist sie eine Basisvon V .(2) Ist W ⇢ V ein Untervektorraum, dann gilt dimW dimV mit

”=“ genau wenn

W = V .

Beweis:(1) folgt sofort aus dem Basisaustauschsatz 3.2.8.(2) falls w1, . . . , wm 2 W linear unabhangig sind, folgt m n aus 3.2.8, denn (w1, . . . , wm)ist auch in V linear unabhangig; insbesondere folgt dimW dimV mit dem Basi-serganzungssatz 3.2.11. Falls dimW = dimV , dann hat jede Basis von W genau n Ele-mente, ist nach (1) also auch Basis von V . 2

Bemerkung 3.2.13 (Jeder Vektorraum besitzt eine Basis.)Beweisskizze im unendlich-dimensionalen Fall:V sei ein K-Vektorraum und

M := {A ⇢ V |A ist linear unabhangig}

(hier: A ist linear unabhangig :, (a)a2A ist linear unabhangig).M ist durch “⇢” halb geordnet, d.h. fur alle A, B, C 2M gilt: A ⇢ A; falls A ⇢ Bund B ⇢ A, dann gilt A = B; falls A ⇢ B und B ⇢ C, dann gilt A ⇢ C.Betrachte Teilmengen U ⇢M, die total geordnet sind, d.h. falls A1, A2 2 U , danngilt A1 ⇢ A2 oder A2 ⇢ A1.

M(U) :=[

A2U

A ⇢ V

Dann gilt:(i) 8A 2 U : A ⇢M(U)(ii) Falls a1, . . . , aN 2M(U) und �1, . . . ,�N 2 K mit �1a1 + · · ·+�NaN = 0: es existierenMengen A1, . . . , AN 2 U , so dass ai 2 Ai. O.B.d.A. gilt A1 ⇢ A2 ⇢ · · · ⇢ AN , alsoa1, . . . , aN 2 AN . Da AN linear unabhangig ist, folgt �1 = · · · = �N = 0.Mit anderen Worten: M(U) 2M ist wegen (i) eine obere Schranke der total geord-neten Teilmenge U ⇢M, d.h. jede total geordnete Teilmenge von M besitzt eine obereSchranke in M.

50

Page 51: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Wir verwenden jetzt das Lemma von Zorn‡ [Max Zorn, 1906 – 1993], das besagt: Tragteine Menge M eine Halbordnung , und existiert fur jede total geordnete Teilmenge vonM eine obere Schranke in M, dann gibt es ein maximales Element in A 2 M, d.h. esgilt: Falls B 2M und A B, dann folgt B = A.Wir folgern damit:Es gibt eine maximale linear unabhangige Menge A ⇢ V , nach Theorem 3.2.4 also eineBasis von V .

Bemerkung 3.2.14 (unendl. dim. Vektorraume unterschiedlicher Dimension)

(i) Erweiterung von Definition 1.4.10:X, Y seien Mengen.|X| = |Y | :, X und Y sind gleich machtig, d.h. es gibt eine Bijektion X ! Y|X| |Y | :, es gibt eine Injektion X ,! Y|X| < |Y | :, |X| |Y | und |X| 6= |Y |

(ii) Georg Cantor [1845 – 1918] beweist um 1890:

• |N| = |Q| < |R| (s. Analysis);

eine Menge X heißt abzahlbar unendlich, falls |N| = |X|, und uberabzahlbarunendlich, falls |N| < |X|

• fur X eine Menge und P(X) ihre Potenzmenge gilt:

|X| < |P(X)| (vgl. Aufgabe 3: falls |X| = n 2 N, dann ist |P(X)| = 2n);

|R| = |P(N)|

• falls X eine Menge ist mit |X| /2 |N|, dann gilt: |N| |X|

(iii) Cantor vermutete:

• Kardinalzahlen konnen als die”moglichen Werte“ von |X| fur Mengen X defi-

niert werden und sind total geordnet – wurde 1904 von Zermelo bewiesen, manbenotigt das Auswahlaxiom (siehe Bemerkung 3.2.13);

falls |X| 2 N: |X| heißt endliche Kardinalzahl;

falls |X| /2 N: |X| heißt transfinite Kardinalzahl;

@0 := |N| (lies”Aleph-Null“),

alle transfiniten Kardinalzahlen haben eine Notation @↵;

rekursiv: @↵+1 := kleinste Kardinalzahl mit @↵ < @↵+1.

‡Zorns Lemma wurde zuerst von Kazimierz Kuratowski [1896 – 1980] bewiesen und ist aqui-valent zum Auswahlaxiom: Ist M eine Menge von Mengen, dann gibt es eine Auswahlfunktion↵ : M\{;} �!

S

A2M A, so dass 8A 2 M : ↵(A) 2 A. Zum Beispiel fur M = {A ⇢ R|A 6= ;}kann man das Auswahlaxiom nicht beweisen. Nach [Sierpinski 1947] folgt das Auswahlaxiom aus der

”verallgemeinerten Kontinuumshypothese“ (mehr dazu in Bemerkung 3.2.14). In der modernen Mathe-matik wird das Auswahlaxiom meist voraus gesetzt.

51

Page 52: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

• Kontinuumshypothese: |R| = @1

[Godel 1938]: Konsistenz der Kontinuumshypothese mit den Zermelo-Fraenkel-Axiomen der Mengenlehre (incl. Auswahlaxiom, siehe Bemerkung 3.2.13);

[Cohen 1960]: Die Kontinuumshypothese ist aus den Axiomen der Mengenlehrenicht beweisbar.

• Verallgemeinerte Kontinuumshypothese:

|X| = @↵ ) |P(X)| = @↵+1

(Erinnerung: laut Bemerkung 3.2.13 folgt das Auswahlaxiom aus der verallgemei-nerten Kontinuumshypothese)

(iv) Definition 3.2.10 lasst sich jetzt so verallgemeinern, dass dimK(V ) durch die Kardi-nalitat einer beliebigen Basis gegeben ist, denn Korollar 3.2.9 verallgemeinert sich.

(v) Es sei V 6= {0} ein K-Vektorraum und (vj)j2I eine Basis von V , B := {vj | j 2 I},wobei K oder B eine unendliche Menge sei. Dann zeigt man mit einigem Zusatzwissenaus der Mengenlehre:

|V | = max{|B|, |K|}Folgerung: Jede Basis von R uber Q ist uberabzahlbar, denn mit V = R, K = Q giltnach (ii): |V | > |K| = @0; solch eine Basis kann ich nicht angeben.Beachte: Trotzdem gibt es Korper K mit Q $ K $ R, z.B. K = Q(

p2) = {a +

p2b |

a, b 2 Q} aber |Q(p

2)| = |Q| = @0.Auch Korper K mit Q $ K $ R mit @0 < |K| existieren.

3.3 Lineare Abbildungen: Definitionen und Eigenschaften

In diesem Kapitel geht es also um Struktur erhaltende Abbildungen zwischen Vektorraum-en. K sei im Folgenden immer ein Korper.

Definition 3.3.1V und W seien K-Vektorraume.(i) Eine Abbildung F : V ! W heißt K-linear (aquivalent: Vektorraum-Homomorphismus), falls gilt:

8x, y 2 V, 8� 2 K : F (x + y) = F (x) + F (y) (L1)F (�x) = �F (x) (L2)

Falls V = W , dann heißt F Endomorphismus von V .

HomK(V, W ) := {F : V ! W | F ist K-linear},EndK(V ) := HomK(V, V )

(ii) Ein Vektorraum-Isomorphismus ist ein bijektiver Vektorraum-Homomorphismus. Falls ein Vektorraum-Isomorphismus von V nach W existiert,dann heißen V und W isomorph, Notation: V ⇠= W .

52

Page 53: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(iii)AutK(V ) := {F 2 EndK(V ) | F ist bijektiv}

ist die Menge der Vektorraum-Automorphismen von V .

Bemerkung:V ⇢ V ist Untervektorraum

, Die Inklusion ◆ : V ,! V, ◆(x) := x ist ein Vektorraum-Homomorphismus.Ubung:

• HomK(V, W ) ⇢ Abb(V, W ) ist ein Untervektorraum.

• EndK(V ) tragt außerdem die Struktur eines Ringes, und 8 f, g 2 EndK(V ), 8� 2K : (�f)�g = �(f�g) = f�(�g); ein K-Vektorraum, der außerdem eine Ringstrukturtragt, so dass diese Vertraglichkeitsbedingung gilt, heißt K-Algebra.

• AutK(V ) ist eine Gruppe, aber fur V 6= {0} kein K-Vektorraum.

Beispiel 3.3.2(a) V := {f : R ! R | f ist di↵erenzierbar}, W := Abb(R, R), D : V ! W , f 7! f 0 ist

R-linear:8 f, g 2 V, 8� 2 R : (f + g)0 = f 0 + g0, (�f)0 = �f 0

(b) Fur m, n 2 N\{0} und aij 2 K fur i 2 {1, . . . ,m}, j 2 {1, . . . , n}

A =

0

B

@

a11 a12 · · · a1n...

am1 am2 · · · amn

1

C

A

definiert eine K-lineare Abbildung

FA : Kn ! Km, x =

0

B

@

x1...

xn

1

C

A

7! Ax =

0

B

@

Pnj=1 a1jxj

...Pn

j=1 amjxj

1

C

A

2 Km

(siehe Beispiel 1.3.4(iii) und Aufgabe 8)

Erinnerung:Lineare Abbildungen regieren lineare Gleichungssysteme – darum studieren wir sie!

Lemma 3.3.3U , V und W seien K-Vektorraume, F 2 HomK(V, W ), G 2 HomK(U, V ). Dann gilt:(1) F (0) = 0, 8x, y 2 V : F (x� y) = F (x)� F (y).(2) F �G 2 HomK(U,W ).(3) Falls F ein Vektorraum-Isomorphismus ist, dann gilt F�1 2 HomK(W,V ).

53

Page 54: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(4) Ist I eine Indexmenge und (vj)j2I 2 V I , dann gilt:(a) (vj)j2I ist linear abhangig ) (F (vj))j2I ist linear abhangig.(b) (F (vj))j2I ist linear unabhangig ) (vj)j2I ist linear unabhangig.

(5) (a) Ist V ⇢ V ein Untervektorraum, dann ist auch F (V ) ⇢ W ein Untervektor-raum; insbesondere ist im(F ) ⇢ W ein Untervektorraum.

(b) Ist W ⇢ W ein Untervektorraum, dann ist auch F�1(W ) ⇢ V ein Untervek-torraum; insbesondere ist ker(F ) ⇢ V ein Untervektorraum.

(c) Ist F ein Isomorphismus, dann gilt F (V ) ⇠= V fur jeden UntervektorraumV ⇢ V .(6) dim(im(F )) dim(V ).

Beweis: Ubung

Theorem 3.3.4V , W seien K-Vektorraume, I eine Indexmenge und (vj)j2I eine Basis von V .

(wj)j2I 2 W I sei irgendeine Familie von Vektoren aus W . Dann gilt:Es existiert genau eine K-lineare-Abbildung F : V ! W mit F (vj) = wj 8 j 2 I, unddieses F erfullt(a) im(F ) = span{wj | j 2 I}(b) F ist injektiv , (wj)j2I ist linear unabhangig

Beweis:Falls F (vj) = wj 8 j 2 I und F 2 HomK(V, W ):Fur alle Linearkombinationen

P

j2I �jvj 2 V mit �j 2 K fur alle j 2 I gilt:

F

X

j2I

�jvj

!

="

K � Linearitat

X

j2I

�jF (vj) =X

j2I

�jwj. (⇤)

Nach Theorem 3.2.4 ist jedes x 2 V eindeutig als Linearkombination der (vj)j2I darstell-bar, d.h. (⇤) definiert F eindeutig.Behauptung: F ist dann linearBeweis: Fur x =

P

j2I �jvj, y =P

j2I µjvj 2 V und � 2 K:

F (x + y) = F

P

j2I(�j + µj)vj

!

(⇤)=

P

j2I(�j + µj)wj

=P

j2I�jwj +

P

j2Iµjwj

(⇤)= F (x) + F (y)

F (�x) = F

P

j2I(��j)vj

!

(⇤)=

P

j2I(��j)wj

= �

P

j2I�jwj

!

(⇤)= �F (x)

54

Page 55: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

2

Behauptung: im(F ) = span{wj | j 2 I} – klar wegen (⇤).Behauptung: F ist injektiv , (wj)j2I ist linear unabhangigBeweis: (durch Kontraposition)F ist nicht injektiv

, 9x, y 2 V , x 6= y : F (x) = F (y), 9 z := x� y 2 V , z 6= 0 : F (z) = 0

, 9 z =P

j2I�jvj 2 V , nicht alle �j = 0, so dass 0 = F (z)

(⇤)=P

j2I�jwj

, (wj)j2I ist linear abhangig. 2

im Beweis vom letzten Teil haben wir auch gezeigt:

Nachtrag zu Theorem 3.3.4(c) G 2 HomK(V, W ) ist injektiv , ker(G) = {0}.

Korollar 3.3.5Es sei V ein K-Vektorraum mit n = dimK(V ) < 1. Dann gilt: V ⇠= Kn, und fur

jeden K-Vektorraum W mit dimK(W ) = n gilt: V ⇠= W .

Beweis:Nach Theorem 3.2.11 existiert eine Basis A = (v1, . . . , vn) von V , und E (n) = (e1, . . . , en)bezeichne die Standardbasis von Kn. Nach Theorem 3.3.4 gibt es genau einen Vektorraum-Homomorphismus I

A

2 HomK(V, Kn) mit IA

(vi) = ei 8 i 2 {1, . . . , n}, und IA

ist sur-jektiv nach Theorem 3.3.4(a) sowie injektiv nach Theorem 3.3.4(b) (denn (e1, . . . , en) istErzeugendensystem von Kn und linear unabhangig). V ⇠= W falls dimW = n folgt ausSatz 1.4.4 und Lemma 3.3.3. 2

Fazit: Bis auf Isomorphie gibt es genau einen n-dimensionalen K-Vektorraum; als Bei-spiele sind die Vektorraume Kn also viel allgemeiner verwendbar als zunachst gedacht!Da der Isomorphismus V ⇠= Kn aus Korollar 3.3.5 von der Wahl einer Basis (v1, . . . , vn)von V abhangt, ist dieser nicht eindeutig bestimmt;

man sagt: Der Isomorphismus ist nicht kanonisch.

Wir untersuchen jetzt die Vektorraume im(F ) und ker(F ) genauer.

Definition 3.3.6V und W seien K-Vektorraume und F 2 HomK(V, W ).

Dann heißt rg(F ) := dimK(F (V )) der Rang von F .

Bemerkung:aus Lemma 3.3.3 folgt, falls G, G Isomorphismen sind, G 2 HomK(U, V ), G 2 HomK(W, U):

rg(F ) = rg(F �G) = rg(G � F )

55

Page 56: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Theorem 3.3.7 (Dimensionsformel)Sind V , W K-Vektorraume, F 2 HomK(V, W ) und dimK(V ) <1, dann gilt:

dimK(V ) = dimK(kerF ) + rg(F ) .

Beweis:Nach Lemma 3.3.3 ist ker(F ) ⇢ V ein Untervektorraum, nach Lemma 3.2.12 also ebenfallsendlich dimensional, ebenso wie F (V ) ⇢ W nach Lemma 3.3.3.Beweisidee: Wahl geeigneter BasenEs sei(v1, . . . , vm): Basis von ker(F )(w1, . . . , wr): Basis von im(F )u1, . . . , ur 2 V mit F (uj) = wj 8 j 2 {1, . . . , r}zu zeigen: m + r = dimVwir beweisen dazu: (u1, . . . , ur, v1, . . . , vm) ist Basis von V(a) zu zeigen: {u1, . . . , ur, v1, . . . , vm} erzeugt V :Fur x 2 V gibt es �1, . . . ,�m 2 K, so dassF (x) =

Prj=1 �jwj (da (w1, . . . , wr) Basis von F (V ) ist); y := x�

Prj=1 �juj erfullt dann

F (y) = F (x)�rX

j=1

�j F (uj)| {z }

wj

= 0, also y 2 ker(F ),

und weil (v1, . . . , vm) Basis von ker(F ) ist, gibt es µ1, . . . , µm 2 K mit y =Pm

j=1 µjvj,also

x =rX

j=1

�juj +mX

j=1

µjvj 2 span{u1, . . . , ur, v1, . . . , vm}

(b) zu zeigen: (u1, . . . , ur, v1, . . . , vm) ist linear unabhangig:Falls �1, . . . ,�r, µ1, . . . , µm 2 K und

0 =rX

j=1

�juj +mX

j=1

µjvj, (⇤)

dann folgt:

0Lemma 3.3.3

= F (0)(⇤)= F

rP

j=1�juj +

mP

j=1µjvj

!

F ist K-linear=

rP

j=1�j F (uj)| {z }

wj

+mP

j=1µj F (vj)

| {z }

0, da vj2ker(F )

=rP

j=1�jwj ,

und da (w1, . . . , wr) Basis von im(F ) ist, muss �1 = · · · = �r = 0 gelten.

56

Page 57: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(⇤) liefert dann: 0 =Pm

j=1 µjvj, also auch µ1 = · · · = µm = 0, da (v1, . . . , vm) Basis vonker(F ) ist. 2

Beobachtung:Im obigen Beweis seien V1 := ker(F ), V2 := span{u1, . . . , ur} ⇠= im(F ), dann gilt V =span(V1 [ V2), V1

T

V2 = {0}. Solche Konstellationen brauchen wir haufig:

Definition 3.3.8V sei ein K-Vektorraum, und V1, V2 ⇢ V seien Untervektorraume.(1) Wir schreiben V1 + V2 := span(V1 [ V2)(2) Wir schreiben W = V1 � V2, falls

W = V1 + V2 und V1

T

V2 = {0} .

W heißt dann direkte Summe von V1, V2,V1 und V2 heißen komplementare Untervektorraume von V .

Beobachtung:Falls W = V1 � V2, xj 2 Vj, dann ist (x1, x2) linear unabhangig, genau wenn x1 6= 0 undx2 6= 0, d.h. Beispiele direkter Summen ergeben sich aus linear unabhangigen Familien(vj)j2I von vj 2 V : Falls fur solch eine Familie I = I1 [ I2, I1

T

I2 = ; gilt, setzeW := span{vj | j 2 I} und Va := span{vj | j 2 Ia}, dann folgt

W = V1 � V2.

Satz 3.3.9Ist V ein K-Vektorraum, und sind V1, V2 ⇢ V Untervektorraume, dann gilt:

dim(V1 + V2) = dim(V1) + dim(V2)� dim(V1

T

V2) ;

insbesondere gilt, falls V1

T

V2 = {0}:

dim(V1 � V2) = dim(V1) + dim(V2)

Beweis: Ubunggewissermaßen die Umkehrkonstruktion:

Satz 3.3.10Es sei V ein K-Vektorraum und W ⇢ V ein Untervektorraum. Fur x, y 2 V sei

x ⇠ y :, x� y 2 W . Dann gilt:

•”⇠“ ist eine Aquivalenzrelation auf V .

• auf V := V/⇠ gibt es genau eine K-Vektorraumstruktur, so dass die Quotien-tenabbildung p : V ! V ein K-Vektorraum-Homomorphismus ist.

57

Page 58: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beweis:(1)“⇠“ ist eine Aquivalenzrelation:Reflexivitat: 8x 2 V : x� x = 0 2 W , also x ⇠ xSymmetrie: 8x, y 2 V : falls x ⇠ y, also x� y 2 W , folgt y � x = (�1)(x� y) 2 W , d.h.y ⇠ xTransitivitat: 8x, y, z 2 V : falls x ⇠ y und y ⇠ z, also x � y, y � z 2 W , folgt x � z =(x� y) + (y � z) 2 W , also x ⇠ z

(jeweils da W ein K-Vektorraum ist)(2) Vektorraum-Struktur auf V , so dass p 2 HomK(V, V ):

8 [x], [y] 2 V : [x] + [y] = p(x) + p(y)!= p(x + y) = [x + y].

Diese Verknupfung auf V ist wohldefiniert: falls x ⇠ x und y ⇠ y, dann ist

(x + y)� (x + y) = (x� x)| {z }

2W

+ (y � y)| {z }

2W

2 W, also x + y ⇠ x + y (vgl. Prop. 2.2.8)

8 [x] 2 V ,8� 2 K : �[x] = �p(x)!= p(�x) = [�x].

Diese skalare Multiplikation auf V ist wohldefiniert: falls x ⇠ x, dann ist

�x� �x = � (x� x)| {z }

2W

2 W, also �x ⇠ �x

Nachrechnen:• V wird mit dieser Verknupfung

”+“ und skalarer Multiplikation �[x] := [�x] zu einem

K-Vektorraum (alle Eigenschaften folgen sofort aus denen von V ).• Eindeutigkeit: wir hatten gar keine Wahl, da p surjektiv ist. 2

Obiges Ergebnis ermoglicht jetzt die folgende Definition:

Definition 3.3.11Ist V ein K-Vektorraum, W ⇢ V ein Untervektorraum, dann sei wie in Satz 3.3.10

8x, y 2 V : x ⇠ y :, x� y 2 W ,

und V = V/⇠ mit der K-Vektorraum-Struktur aus Satz 3.3.10 versehen. Dann heißtV Quotientenvektorraum,Notation: V = V/W .

Behauptung:Mit F 2 HomK(V, W ), V1 := ker(F ) wie in Theorem 3.3.7 wurde in dessen Beweis V2 ⇢ Vmit V2

⇠= im(F ) so konstruiert, dass V = V1 � V2; wir beweisen jetzt

im(F ) ⇠= V/V2 ,

bzw. eine Verallgemeinerung dieser Behauptung:

58

Page 59: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Theorem 3.3.12 (Homomorphiesatz)V und W seien K-Vektorraume und F 2 HomK(V, W ). Dann induziert F einen

K-Vektorraum-Isomorphismus

F : V/ker(F )! im(F )

Beweis:Wir verwenden F 2 HomK(V, F (V )) mit F (x) := F (x) fur alle x 2 V sowie die Quo-tientenabbildung p : V ! V/ ker(F ). Nach Proposition 2.2.8 induziert F eine eindeutigbestimmte Abbildung F : V/ ker(F )! F (V ) mit F = F � p, falls gilt:

8x, y 2 V : falls p(x) = p(y), dann ist F (x) = F (y).

Wir haben aber

p(x) = p(y) , x� y 2 ker(F )

, F (x� y) = 0 ,"

F istK � linear

F (x) = F (y)

Damit ist F : V/ker(F )! F (V ) = im(F ) gefunden.Nachrechnen:

• F ist K-linear (folgt sofort aus F � p = F , da p surjektiv ist)

• F ist surjektiv (nach Konstruktion, da F surjektiv ist)

• F ist injektiv, denn

[x] 2 ker(F ) ) F (x) = F ([x]) = 0) x 2 ker(F )) [x] = 0

2

Theorem 3.3.13 (Isomorphiesatze)Es seien V ein K-Vektorraum und V1, V2 ⇢ V Untervektorraume. Dann gilt:(1)

(V1 + V2)/V1⇠= V2/V1

T

V2

(2) Falls V1 ⇢ V2 ⇢ V :(V/V1)/(V2/V1) ⇠= V/V2

Beweis: durch Ruckfuhrung auf 3.3.12 (Ubung)Fur (1): zeige mit F : V2 ! (V1 + V2)/V1, x 7! [x] (wohldefiniert, da V2 ⇢ V1 + V2), dassim(F ) = (V1 + V2)/V1 und ker(F ) = V1

T

V2.Fur (2): zeige mit F : V/V1 ! V/V2, [x] 7! [x] (wohldefiniert, da V1 ⇢ V2), dass im(F ) =V/V2 und ker(F ) = V2/V1. 2

59

Page 60: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

3.4 Matrizen und lineare Gleichungssysteme

Erinnerung:Matrizen haben uns von Anfang der Vorlesung an begleitet, weil sie

”lineare“ Abbildungen

sehr e�zient kodieren – jetzt dazu die o�ziellen Definitionen!

Definition 3.4.1Ist X eine Menge und m, n 2 N\{0}, dann heißt ein rechteckiges Schema

A =

0

B

B

B

@

a11 a12 · · · a1n

a21 a22 · · · a2n...

am1 am2 · · · amn

1

C

C

C

A

mit aij 2 X

eine (m⇥ n)-Matrix, Kurzschreibweise: A = (aij)1im1jn

, auch: A = (aij).

Die aij heißen Eintrage oder Komponenten von A;

(ai1 ai2 . . . ain) heißt ite Zeile von A,

0

B

B

B

@

a1j

a2j...

amj

1

C

C

C

A

heißt jte Spalte von A;

i heißt Zeilenindex von A = (aij), j heißt Spaltenindex.MatX(m⇥ n) := {(m⇥ n)�Matrizen mit Eintragen aus X}.

K sei im Folgenden ein Korper.

Satz 3.4.2Falls m, n 2 N\{0}, dann tragt MatK(m ⇥ n) die Struktur eines K-Vektorraumes,

so dass Kmn ⇠= MatK(m⇥ n) ⇠= HomK(Kn, Km).

Beweis:Addition und Multiplikation mit Skalaren � 2 K definiert man auf MatK(m ⇥ n) kom-ponentenweise und uberpruft sofort, dass MatK(m⇥ n) damit ein K-Vektorraum wird.Die erste Behauptung MatK(m⇥ n) ⇠= Kmn ist dann auch klar mit dem Isomorphismus

MatK(m⇥ n)! Kmn, (aij) 7!

0

B

B

B

B

B

B

B

B

B

@

a11

a21...

am1

a21...

amn

1

C

C

C

C

C

C

C

C

C

A

.

60

Page 61: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Fur die zweite Behauptung benutzen wir

MatK(m⇥ n)! HomK(Kn, Km), A 7! FA,

wobei FA(x) = Ax mit (Ax)i =Pn

j=1 aijxj 8 i 2 {1, . . . , n} wie in Beispiel 1.3.4(iii),wobei nach Konstruktion gilt (nachrechnen!):

8A, B 2 MatK(m⇥ n), 8� 2 K : FA+B = FA + FB, F�A = �FA,

d.h. A 7! FA ist ein K-Vektorraum-Isomorphismus.

Injektivitat von A 7! FA:Angenommen, FA = 0 in HomK(Kn, Km). Dann folgt fur alle j 2 {1, . . . , n} :

0 = FA(ej) =

0

B

@

a1j...

amj

1

C

A

) A = 0.

Surjektivitat von A 7! FA:

Falls F 2 HomK(Kn, Km), F (ej) =

0

B

@

a1j...

amj

1

C

A

2 Km 8 j 2 {1, . . . , n}, dann stimmen F und

FA, A = (aij), auf der Basis (e1, . . . , en) von Kn uberein, d.h. nach Theorem 3.3.4 giltF = FA. 2

Merkregel:Die Spaltenvektoren von A sind die Bilder der Standardbasisvektoren e1, . . . , en 2 Kn

unter FA.

Frage:Laut Lemma 3.3.3 gilt fur F 2 HomK(Kn, Km), G 2 HomK(K`, Kn), dass F � G 2HomK(K`, Km), wobei nach Satz 3.4.2 gilt:F = FA, G = FB, F � G = FC fur geeignete A 2 MatK(m ⇥ n), B 2 MatK(n ⇥ `),C 2 MatK(m⇥ `) – wie ergibt sich C aus A und B?

Antwort, laut obiger Merkregel:Fur FC = FA � FB mit A = (aij), B = (bij), C = (cij), 8 j 2 {1, . . . , `}:

0

B

B

B

@

c1j

c2j...

cmj

1

C

C

C

A

e(`)j 2 K`

#= FA � FB(e(`)

j ) = FA

0

B

@

b1j...

bnj

1

C

A

e(n)s 2 Kn

#= FA

nP

s=1bsje

(n)s

Linearitatvon FA=

nP

s=1bsjFA(e(n)

s ) =nP

s=1bsj

0

B

@

a1s...

ams

1

C

A

=

0

B

B

B

B

@

nP

s=1a1sbsj

...nP

s=1amsbsj

1

C

C

C

C

A

61

Page 62: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Dies motiviert

Definition 3.4.3Fur m, n, ` 2 N\{0} und A = (aij) 2 MatK(m⇥n), B = (bij) 2 MatK(n⇥ `) ist dasMatrixprodukt A ·B = C = (cij) 2 MatK(m⇥ `) definiert durch

cij :=nX

s=1

aisbsj

Bemerkung 3.4.4(1) Vor Definition 3.4.3 haben wir nachgerechnet, dass gilt:

A 2 MatK(m⇥ n), B 2 MatK(n⇥ `) ) FA � FB = FAB .

Außerdem ist nach Satz 3.4.2 die Abbildung A 7! FA ein K-Vektorraum-IsomorphismusMatK(m⇥ n) ⇠= HomK(Kn, Km). Damit zeigt man direkt:

(A + B) · C = A · C + B · CeC · (A + B) = eC · A + eC ·B(B · C) ·D = B · (C ·D)

fur alle Matrizen A, B, C, eC, D, so dass”+“ und

”·“ jeweils definiert sind.

(2) Vorsicht: Matrizen A, B konnen nur zu AB multipliziert werden, wenn A so vieleSpalten hat wie B Zeilen hat (damit FA � FB definiert ist!).Merkschema:

A B C

i!

0

B

B

B

B

B

B

B

@

...

...ai1 · · · ais · · · ain

...

...

1

C

C

C

C

C

C

C

A

0

B

B

B

B

B

@

b1j...

· · · bsj · · ·...

bnj

1

C

C

C

C

C

A

="

cij =nP

s=1ais · bsj

0

B

B

B

B

B

B

B

@

...

...· · · cij · · ·

...

...

1

C

C

C

C

C

C

C

A

i

"j

"j

62

Page 63: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Falk’sches Schema (nach Sigurd Falk):

⇥ 1 B...⇥ s...⇥ n

A C?

?

?

?

y

1 s n# # #⇥ · · · ⇥ · · · ⇥ �! cij

9

>

>

>

>

>

=

>

>

>

>

>

;

n

i

| {z }

n| {z }

`"j

Beispiel:

A =

0

@

1 42 53 �6

1

A , B =

�1 11 �2

�1 11 �2

1 4 3 �72 5 3 �83 �6 �9 15

; AB = C =

0

@

3 �73 �8�9 15

1

A

Vorsicht:Selbst fur A, B 2 MatK(n⇥ n) gilt i.a. AB 6= BA (denn i.a. ist FA � FB 6= FB � FA).

(3) Spezialfall: MatK(n⇥ 1) = Kn.Fur x 2 MatK(n⇥ 1), A 2 MatK(m⇥ n) ist Ax 2 MatK(m⇥ 1) = Km wohldefiniert,

A = (aij), x =

0

B

@

x1...

xn

1

C

A

) Ax =

0

B

B

B

B

B

@

nP

j=1a1jxj

...nP

j=1amjxj

1

C

C

C

C

C

A

= FA(x),

wie gehabt.(4)

En :=

0

B

@

1 0. . .

0 1

1

C

A

2 MatK(n⇥ n)

63

Page 64: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

heißt Einheitsmatrix und erfullt

FEn = idKn , 8B 2 MatK(n⇥ `) : EnB = B, 8A 2 MatK(m⇥ n) : AEn = A.

Beispiel 3.4.5Es seien m, n 2 N\{0}, A 2 MatK(m ⇥ n) beliebig, i, j 2 {1, . . . ,m} mit i 6= j sowie� 2 K.(I)

Pij :=

i

j

0

B

B

B

B

B

B

B

B

B

B

B

B

B

B

B

B

B

B

@

1 0 · · · · · · · · · 0

0. . .

......

10 0 0 · · · 0 1 0

0 1 · · · · 0 ·...

......

. . ....

......

0 1 01 0 · · · 0 0 0

0 1. . . 0

0 · · · · 0 · · · · · 0 · · · · 1

1

C

C

C

C

C

C

C

C

C

C

C

C

C

C

C

C

C

C

A

2 MatK(m⇥m) ,

i j

dann gilt:

• PijA entsteht aus A durch Vertauschung der iten und der jten Zeile von A

• Pij · Pij = Em 2 MatK(m⇥m)

(II)

Mi(�) := i

0

B

B

B

B

B

B

B

B

B

B

B

@

1...

. . .... 0

1 0 00 � 00 0 1

0...

. . .... 1

1

C

C

C

C

C

C

C

C

C

C

C

A

2 MatK(m⇥m) ,

i

dann gilt:

• Mi(�)A entsteht aus A, indem die ite Zeile von A mit � multipliziert wird

• falls � 6= 0, dann ist Mi(�) ·Mi(��1) = Mi(��1)Mi(�) = Em

64

Page 65: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(III)

Qij(�) =

i

j

0

B

B

B

B

B

B

B

B

B

B

B

B

B

B

B

B

B

B

B

B

@

1. . . 0

·1

· · · 0 · · · 0 1

0

0...

. . .

0 1· · · · · · · 0 � 0 · · · · 0 1

0 · · · · 0 1

0...

.... . .

0 0 1

1

C

C

C

C

C

C

C

C

C

C

C

C

C

C

C

C

C

C

C

C

A

2 MatK(m⇥m) ,

i j

dann gilt:

• Qij(�)A entsteht aus A, indem das �-fache der iten Zeile zur jten Zeile addiert wird

• Qij(�) ·Qij(��) = Qij(��)Qij(�) = Em

Definition 3.4.6Es seien m, n 2 N\{0}.(a) Die Matrizen Pij, Mi(�) mit � 6= 0, Qij(�) 2 MatK(m ⇥ m) aus Beispiel 3.4.5heißen Elementarmatrizen.(b) A 2 MatK(n ⇥ n) heißt invertierbar, falls eine Matrix A�1 2 MatK(n ⇥ n)existiert, so dass A · A�1 = A�1 · A = En.

Anmerkungen:

• A 2 MatK(n⇥ n) ist invertierbar

, FA 2 HomK(Kn, Kn) ist ein Isomorphismus

• obwohl das nicht ganz prazise ist (denn A ist keine lineare Abbildung sondernkodiert nur die lineare Abbildung FA), ist es ublich, rg(A) anstelle von rg(FA) zuschreiben; weiter schreibt man gerne ker(A) anstelle von ker(FA) und im(A) anstellevon im(FA)

• alle Elementarmatrizen sind laut Beispiel 3.4.5 invertierbar

65

Page 66: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Motivation:Losung linearer Gleichungssysteme uber K, also fur m, n 2 N\{0}, aij 2 K, bi 2 K miti 2 {1, . . . , n}, j 2 {1, . . . ,m}: Finde x1, . . . , xn 2 K mit

a11x1 + · · ·+ a1nxn = b1

a21x1 + · · ·+ a2nxn = b2...

am1x1 + · · ·+ amnxn = bm

9

>

>

>

=

>

>

>

;

(⇤)

mit anderen Worten: Finde x =

0

B

@

x1...

xn

1

C

A

2 Kn, so dass Ax = b, wobei A = (aij) 2

MatK(m⇥ n), b =

0

B

@

b1...

bm

1

C

A

; (⇤) heißt Lineares Gleichungssystem.

Beobachtung:Falls A invertierbar ist und A�1 bekannt ist (also insbesondere muss m = n gelten):

x = A�1(Ax) = A�1b lost (⇤).Wenn wir mit unseren Voraussetzungen etwas weniger anspruchsvoll sein wollen, bemer-ken wir, dass sich ein LGS auch in folgender Form direkt losen lasst:

a1j1

xj1

+ · · · · · · · · · + a1nxn = b1

a2j2

xj2

+ · · · · · · + a2nxn = b2...

arjrxjr + · · · + arnxn = br

9

>

>

>

=

>

>

>

;

(⇤) ,

solange j1 < j2 < · · · < jr und asjs 6= 0 fur alle s 2 {1, . . . , r}. Wahle namlich rekursiv

xjr+1, . . . , xn beliebig , xjr := (arjr)�1

br �nP

`=jr+1

ar`x`

!

xjs+1, . . . , xjs+1

�1 beliebig , xjs := (asjs)�1

bs �nP

`=js+1as`x`

!

; Strategie: Ruckfuhrung beliebiger Gleichungssysteme auf diese Form!

Definition 3.4.7Eine Matrix A = (aij) 2 MatK(m⇥ n) mit m, n 2 N\{0} heißt in Zeilen-Stufen-Form, falls gilt: Es gibt ein r 2 {1, . . . ,m} sowie 1 j1 < · · · < jr n, so dass(i) aij = 0 falls i > r oder j < ji,(ii) asjs 6= 0 8 s 2 {1, . . . , r},

66

Page 67: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

also wenn A folgende Form hat:

A =

0

B

B

B

B

B

B

B

B

B

B

B

B

@

0 · · · 0 a1j1

a1j1

+1 · · · a1n

0 · · · 0 a2j2

· · · a2n... 0

......

......

0 0 0 · · · 0 arjr arn

0 0 0 0...

...0 0

1

C

C

C

C

C

C

C

C

C

C

C

C

A

Idee:Durch Multiplikation von links mit Elementarmatrizen kann jede Matrix in diese Formgebracht werden.Wir sagen: A 2 MatK(m⇥ n) wird aus A 2 MatK(m⇥ n) durch elementare Zeilen-operationen gewonnen, falls es ein Produkt P 2 MatK(m⇥m) von Elementarmatrizengibt, so dass A = PA.

Theorem 3.4.8 (Gauß-Algorithmus)Zu jeder Matrix A 2 MatK(m ⇥ n), m, n 2 N\{0}, existiert eine Matrix A 2

MatK(m ⇥ n) in Zeilen-Stufen-Form, die aus A durch elementare Zeilenoperationengewonnen wird.

Beweis (algorithmisch):Durch Angabe von Matrizen B1, . . . , Bn+1, die aus A durch elementare Zeilenoperationengewonnen werden, so dass in Bs die ersten s� 1 Spalten in Zeilen-Stufen-Form sind:

Bs =

0

B

B

B

B

B

B

B

B

B

@

0 · · · 0 b1j1

· · · · · · b1n

0... 0 b2j

2

· · · · · · b2n...

...... 0

......

... 0 bts · · · btn...

......

......

0 · · · 0 0 0 0 bms · · · bmn

1

C

C

C

C

C

C

C

C

C

A

mit t s. Dies ist also ein Induktionsbeweis.Anfang: B1 := A.Gewinnung von Bs+1 aus Bs:

• falls 8 i � t : bis = 0 : Bs+1 := Bs,• falls bis 6= 0 fur ein i � t:

(i) falls bss 6= 0: Bs := Bs; andernfalls Bs := PitBs mit bis 6= 0,

67

Page 68: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

d.h. in jedem Fall erreichen wir bts 6= 0 in Bs = (bij),

(ii) Bs+1 := Qt t+1

� bt+1s

bts

· · ·Qtm

� bms

bts

Bs.

Nach Konstruktion: A = Bn+1 ist wie gewunscht. 2

Beispiel 3.4.9in MatR(5⇥ 4):

A =

0

B

B

B

B

@

0 0 0 82 3 4 54 7 9 92 4 5 62 3 4 3

1

C

C

C

C

A

; da b11 = 0, b21 6= 0 : B1 = P12A =

0

B

B

B

B

@

2 3 4 50 0 0 84 7 9 92 4 5 62 3 4 3

1

C

C

C

C

A

B2 = Q12(0)Q13(�2)Q14(�1)Q15(�1)B1 =

0

B

B

B

B

@

2 3 4 50 0 0 80 1 1 �10 1 1 10 0 0 �2

1

C

C

C

C

A

B2 = P23B2 =

0

B

B

B

B

@

2 3 4 50 1 1 �10 0 0 80 1 1 10 0 0 �2

1

C

C

C

C

A

, B3 = Q23(0)Q24(�1)Q25(0)B2 =

0

B

B

B

B

@

2 3 4 50 1 1 �10 0 0 80 0 0 20 0 0 �2

1

C

C

C

C

A

B3 = B3, B4 = B3, B4 = B4, B5 = Q34(�14)Q35(

14)B4 =

0

B

B

B

B

@

2 3 4 50 1 1 �10 0 0 80 0 0 00 0 0 0

1

C

C

C

C

A

und B5 ist in Zeilen-Stufen-Form!

Jetzt zur Anwendung fur die Losung linearer Gleichungssysteme:

Theorem 3.4.10Es seien m, n 2 N\{0}, A 2 MatK(m⇥ n) und b 2 Km. Wir untersuchen das LGS

Ax = b und fuhren dafur die erweiterte Koeffizientenmatrix A = (A b) 2MatK(m ⇥ (n + 1)) ein, d.h. die ersten n Spalten von A sind die n Spalten vonA, und die (n + 1)te Spalte von A ist b. C = (A b) sei aus A durch elementareZeilenoperationen gewonnen und in Zeilen-Stufen-Form (nach Thm. 3.4.8). Danngilt:(1) x 2 Kn erfullt Ax = b, genau wenn Ax = b gilt.(2) rg(A) ist die Anzahl der von 0 verschiedenen Zeilen von A,

rg(A) ist die Anzahl der von 0 verschiedenen Zeilen von C.

68

Page 69: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(3) Das LGS Ax = b ist genau dann losbar, wenn r = rg(A) = rg(A), und eineLosung ergibt sich dann aus

A = (aij), b =

0

B

@

b1...

bm

1

C

A

fur s = r, s = r � 1, . . . bis s = 1 rekursiv mit Hilfe der Formel

js := min{j | asj 6= 0},

xjs := (as js)�1

bs �P

j>js

asjxj

!

und den xj mit j /2 {j1, . . . , jr} zur freien Wahl. Insbesondere ist das LGS eindeutiglosbar, genau wenn rg(A) = rg(A) = n.

Beweis:Vorbemerkung: Nach Konstruktion ist C = PA, A = PA, b = Pb, wobei P 2 MatK(m⇥m) ein Produkt aus Elementarmatrizen ist.(1)Aus der Vorbemerkung ergibt sich sofort:

Ax = b , Ax = PAx = Pb = b,

da P als Produkt von Elementarmatrizen invertierbar ist.(2)rg(A) = rg(A), da A = PA mit invertierbarem P (P definiert also einen IsomorphismusFP : Km ! Km, und somit auch einen Isomorphismus von im(FA) nach im(FA) wegenLemma 3.3.3(5c)).Wir verwenden Bezeichnungen wie in Definition 3.4.7, d.h. r bezeichnet die Anzahl dervon 0 verschiedenen Zeilen in A = (aij), 1 j1 < j2 < · · · < jr n und asjs 6= 08 s 2{1, . . . , r} sowie aij = 0 falls i > 0 oder j < ji:v1, . . . , vn seien die Spalten von A, also vj = Aej fur j 2 {1, . . . , n}, und

(⇤) im(FA)Thm. 3.3.4

= span{v1, . . . , vn} ⇢ {x 2 Km | xj = 08 j > r} ⇠= Kr.

Dabei gilt nach Konstruktion

(vj1

. . . vjr) =

0

B

@

a1j1

⇤. . .

0 arjr

1

C

A

2 MatK(r ⇥ r)

mit asjs 6= 0 fur alle s 2 {1, . . . , r}. Somit ist (vj1

, . . . , vjr) linear unabhangig, denn falls

�1vj1

+ · · ·+ �rvjr = 0 fur �1, . . . ,�r 2 K ,

69

Page 70: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

dann ist die letzte Komponente des Vektors auf der linken Seite �rarjr = 0 mit arjr 6= 0,also �r = 0, und sukzessive folgt �1 = · · · = �r = 0. Es folgt

r = dim span{vj1

, . . . , vjr} dim im(FA)(⇤)

r

d.h. in der Ungleichungskette gilt uberall”=“, r = rg(A), wie behauptet.

Die Behauptung fur C folgt analog.(3)Wegen (1) ist Ax = b genau dann losbar, wenn Ax = b losbar ist, aber da C = (A b) inZeilen-Stufen-Form ist, liefert die behauptete Formel eine Losung, genau wenn bs = 0 fur

alle s > r = rg(A)(2)= Anzahl der von Null verschiedenen Zeilen von A.

Mit anderen Worten: Ax = b ist losbar genau wenn A und C gleich viele von 0 verschie-denen Zeilen haben, also genau wenn rg(A) = rg(C).Die behauptete Losungsformel folgt aus den Uberlegungen vor Def. 3.4.7. Eindeutig istdie Losung also, genau wenn {j1, . . . , jr} = {1, . . . , n}, also r = n. 2

Korollar 3.4.11Es sei A 2 MatK(m ⇥ n) mit m, n 2 N\{0}. Dann stimmt rg(A) mit dem Spal-

tenrang von A, also mit der Dimension des von den Spalten von A aufgespanntenVektorraumes, uberein, und rg(A) stimmt auch mit dem Zeilenrang von A uberein,also der Dimension des von den Zeilen von A aufgespannten Vektorraumes.

Beweis:rg(A) = Spaltenrang (A) gilt nach Definition (siehe Beweis von Theorem 3.4.10(2)). FallsA aus A durch elementare Zeilenoperationen gewonnen wurde und Zeilen-Stufen-Formhat (existiert nach Theorem 3.4.8), dann gilt nach Theorem 3.4.10:

rg(A) = Anzahl der von Null verschiedenen Zeilen von A= Zeilenrang (A) ,

da die von Null verschiedenen Zeilen von A linear unabhangig sind (mit demgleichenArgument wie fur die lineare Unabhangigkeit von vj

1

, . . . , vjr im Beweis von Theorem3.4.10(2)). Elementare Zeilenoperationen verandern aber den von den Zeilen aufgespann-ten Vektorraum nicht (Pij vertauscht nur die Zeilen wi und wj von A, Mi(�) mit � 6= 0streckt wi nur, Qij(�) ersetzt wi durch wi + �wj, aber wi = (wi + �wj)� �wj).Also folgt rg(A) = Zeilenrang (A) = Zeilenrang (A). 2

Fazit:Der Gauß-Algorithmus liefert ein Verfahren zur Losung linearer Gleichungssysteme – undbestimmt auch gleich den Rang von Matrizen.

70

Page 71: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beispiel 3.4.9 (Fortsetzung)

A =

0

B

B

B

B

@

0 0 0 82 3 4 54 7 9 92 4 5 62 3 4 3

1

C

C

C

C

A

,

AQij(0)=E

5

= Q34(�14)Q35(

14)Q24(�1)P23Q13(�2)Q14(�1)Q15(�1)P12A

=

0

B

B

B

B

@

2 3 4 50 1 1 �10 0 0 80 0 0 00 0 0 0

1

C

C

C

C

A

) rg(A) = 3

fur b =

0

B

B

B

B

@

11111

1

C

C

C

C

A

: bP

127�!

0

B

B

B

B

@

11111

1

C

C

C

C

A

Q13

(�2)Q14

(�1)Q15

(�1)7�!

0

B

B

B

B

@

11�100

1

C

C

C

C

A

P237�!

0

B

B

B

B

@

1�1100

1

C

C

C

C

A

Q24

(�1)7�!

0

B

B

B

B

@

1�1110

1

C

C

C

C

A

Q34

(� 1

4

)Q35

( 1

4

)7�!

0

B

B

B

B

@

1�113414

1

C

C

C

C

A

) (A b) hat Zeilen-Stufen-Form

0

B

B

B

B

@

2 3 4 5 10 1 1 �1 �10 0 0 8 10 0 0 0 3

40 0 0 0 0

1

C

C

C

C

A

und großeren Rang (namlich 4) als rg(A), Ax = b ist also nicht losbar.

Die analoge Rechnung liefert fur b =

0

B

B

B

B

@

82330

1

C

C

C

C

A

dann b =

0

B

B

B

B

@

2�1800

1

C

C

C

C

A

, d.h. rg(A) = rg(A b), womit

gezeigt ist, dass fur diese Wahl von b die Gleichung Ax = b losbar ist:x4 = 1, x3 beliebig, x2 = �1� x3 + 1 = �x3, x1 = 1

2(2� 3x2 � 4x3 � 5) = �32 �

x3

2 .

71

Page 72: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Korollar 3.4.12Es sei A 2 MatK(m ⇥ n) mit m, n 2 N\{0}. Dann ist A genau dann invertierbar,

wenn m = n = rg(A). In diesem Fall kann die Matrix

(A En) 2 MatK(n⇥ 2n)

durch elementare Zeilenoperationen in die spezielle Zeilen-Stufen-Form

(En A) 2 MatK(n⇥ 2n)

gebracht werden, und dann folgt A = A�1.

Beweis:Wie ublich sei FA : Kn ! Km mit FAx = Ax.Dann gilt:

A ist invertierbarDef. 3.4.6, FA ist ein Isomorphismus, rg(A) =

"Surjektivitat

m, dim ker(A) ="

Injektivitat

0

Dimensionsformel 3.3.7, n = m = rg(A)

A sei jetzt invertierbar, a1, . . . , am seien die Spalten von A�1. Dann ist fur alle j 2{1, . . . ,m} der Vektor x = aj die (eindeutige) Losung des LGS Ax = ej. Sei dazu P 2MatK(m⇥m) ein Produkt aus Elementarmatrizen, so dass P (A En) = (A P ) in Zeilen-Stufen-Form ist (existiert nach Theorem 3.4.8). Nach Theorem 3.4.10: m = rg(A) =rg(A), also A = (aij) mit ajj 6= 08 j 2 {1, . . . ,m}.Dann gilt:

Qm 1(�a1m) · · · · ·Qm m�1(�am�1 m)Mm(a�1mm)A

hat em als letzten Spaltenvektor, und sukzessive findet man ein Produkt Q aus Elemen-tarmatrizen, so dass QA = En, d.h. insgesamt QP (A En) = (En QP ), QP = A = A�1. 2

Betrachten wir jetzt die Losungsmengen inhomogener linearer Gleichungssysteme:Beobachtung:Falls A 2 MatK(m⇥n), b 2 Km, X := {x 2 Kn | Ax = b} = F�1

A ({b}) und X 6= ;: X isti.a. kein Untervektorraum von Kn (denn i.a. gilt 0 62 X), aber 8 v, w 2 X : A(v � w) =Av � Aw = b � b = 0, also v � w 2 ker(A), und weil A(v + y) = Av + Ay = b, fallsy 2 ker(A), folgt:

X = {v + y | y 2 ker(A)},

d.h. X sieht aus wie ker(A), aber verschoben um ein v 2 F�1A ({b}).

Solche geometrischen Gebilde verallgemeinert man zu

72

Page 73: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Definition 3.4.13V sei ein K-Vektorraum und X ⇢ V eine Menge. X heißt Affiner Unterraum

von V , falls gilt:Es existiert ein Untervektorraum W ⇢ V , so dass gilt:

8 v 2 X : X = v + W := {v + y | y 2 W} .

Falls X = ;, dann setzen wir dimX := �1;andernfalls ist dimX := dimW , falls X = v + W mit v 2 X und einem Untervektor-raum W ⇢ V .

spater:Dimensionsformeln fur Schnitte a�ner Raume, Definition des

”a�ne linearen Spans“,

abstrakte Definition a�ner Raume (”ohne umgebenden Vektorraum V “)

Fazit:

• Matrizen beschreiben Beispiele linearer Abbildungen, namlich FA 2 HomK(Kn, Km),falls A 2 MatK(m⇥ n)

• damit kodieren sie homogene und inhomogene lineare Gleichungssysteme, die wie-derum die bekannten Strukturen aus der analytischen Geometrie beschreiben

Idee:Alle endlich-dimensionalen Vektorraume sehen aus wie Kn, denn laut Korollar 3.3.5 gilt:Ist V ein n-dimensionaler K-Vektorraum, dann gilt V ⇠= Kn.Ziel: Mithilfe von Matrizen sollen alle F 2 HomK(V, W ) beschrieben werden, solange Vund W endlich-dimensionale K-Vektorraume sind.Dazu beobachten wir zunachst MatK(`⇥m) = (K`){1,...,m}, und die Matrixmultiplikationliefert

(K`){1,...,m} ⇥MatK(m⇥ n) ! (K`){1,...,n}

(b1, . . . , bm)⇥ (aij) 7!

mX

i=1

ai1bi, . . . ,mX

i=1

ainbi

!

.

Dies verallgemeinern wir wie folgt:

Definition 3.4.14Es sei W ein K-Vektorraum und m, n 2 N\{0}. Dann sei

W {1,...,m} ⇥MatK(m⇥ n) ! W {1,...,n}

(w1, . . . , wm)⇥ (aij) 7!

mX

i=1

ai1wi, . . . ,mX

i=1

ainwi

!

,

73

Page 74: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

und als Kurzschreibweise verwenden wir

(B, A) 7! B · A, falls B = (w1, . . . , wm) 2 W {1,...,m}

A = (aij) 2 MatK(m⇥ n).

Beobachtung 3.4.15Es seien V und W Vektorraume uber K, F 2 HomK(V, W ), und A = (v1, . . . , vn) eine

Basis von V , B = (w1, . . . , wm) eine Basis von W . Dann gilt:

9 aij 2 K mit F (vj) =mX

i=1

aijwi 8 j 2 {1, . . . ,m} .

Nach Theorem 3.3.4 ist klar: A bestimmt F eindeutig. Mit A := (aij) 2 MatK(m ⇥ n)und der Notation aus Definition 3.4.14:

“F (A) :=00 (F (v1), . . . , F (vn)) = B · A.

Spezialfall: V = W und F = id:

(v1, . . . , vm) = (w1, . . . , wm) · (aij)

ist die Kurzschreibweise fur

8j 2 {1, . . . , n} : vj =mX

i=1

aijwi,

d.h. die Koe�zienten aij beschreiben “den Ubergang von der Basis A zur Basis B”.

Definition 3.4.16Es seien V und W Vektorraume uber K mit Basen A = (v1, . . . , vn) von V undB = (w1, . . . , wm) von W .(i) Falls F 2 HomK(V, W ) und F (vj) =

Pmi=1 aijwi fur j 2 {1, . . . , n} und aij 2

K, dann bezeichnet M(B, F,A) := (aij)1im1jn

2 MatK(m ⇥ n) die Darstellende

Matrix von F bezuglich der Basen A und B.Notation:

F (A) = B ·M(B, F,A)

(ii) Falls V = W und F = id 2 EndK(W ), dann heißt M(B,A) := M(B, id,A)Basiswechselmatrix von A nach B.

Die folgende Bemerkung ist in allen Anwendungen außerst wichtig:

74

Page 75: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Bemerkung 3.4.17V, W,A,B und F seien wie in Definition 3.4.16.

Erinnerung: Im Beweis von Korollar 3.3.5 haben wir Isomorphismen IA

: V⇠=! Kn, I

B

:

W⇠=! Km konstruiert mit I

A

(vj) = e(n)j , I

B

(wi) = e(m)i 8 j 2 {1, . . . , n}, i 2 {1, . . . ,m}.

(i)F

vj

V ���������! Wwivj 7!

mP

i=1aijwi7�!

?

?

?

y

IA

IB

?

?

?

y

7�!e(n)

jKn ���������! Km

e(m)i

IB

� F � I�1A

also

IB

� F � I�1A

(e(n)j ) = I

B

(F (vj)) = IB

mX

i=1

aijwi

!

=mX

i=1

aije(m)i

= jte Spalte von [A = (aij) = M(B, F,A)] ,

also:IB

� F � I�1A

= FM(B,F,A)

und unsere Merkregel gilt nach wie vor: Die Spalten von M(B, F,A) sind die Bilder derBasisvektoren v1, . . . , vn unter F , allerdings kodiert durch Auflistung ihrer Koe�zientenbzgl. der Basis B.

Da IA

, IB

Isomorphismen sind, folgt mit Lemma 3.3.3:

rg(F ) = rg�

FM(B,F,A)

= rg (M(B, F,A)) ,

dim ker(F ) = dim ker�

FM(B,F,A)

= dim ker (M(B, F,A)) .

Das heißt, die etwas unprazise Notation rg(A) = rg(FA) ist damit nachtraglich gerecht-fertigt.

Bisher haben wir Matrizen fur die Beschreibung linearer Abbildungen von V = Kn nachW = Km bzgl. der Standardbasen verwendet:Mit A = E (n) = (e(n)

1 , . . . , e(n)n ), B = E (m) = (e(m)

1 , . . . , e(m)m ), sei (bij) = B 2 MatK(m⇥ n)

und F = FB, also F (x) = Bx fur alle x 2 Kn. Dann gilt

F (e(n)j ) =

mX

i=1

bije(m)i ,

d.h. B = M(B, F,A), und somit

M�

E (m), FB, E (n)�

= B

(ii) Falls V = W und F = id, also wenn M(B, F,A) = M(B,A) = (aij) eine Basiswech-selmatrix ist:

75

Page 76: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Standardproblem:Gegeben v =

Pmj=1 �jvj 2 W , d.h. v hat bezuglich der Basis A die Koe�zienten

(�1, . . . ,�m) 2 K{1,...,m}; wie lauten die Koe�zienten bezuglich der Basis B?Antwort:

idv =

mP

j=1�jvj W ���������! W v =

mP

i=1µiwi

7�!

?

?

?

y

IA

IB

?

?

?

y

7�!

Km ���������! Km

FM(B,A) = IB

� I�1A

0

B

@

�1...�m

1

C

A 7���������������������!

0

B

@

µ1...

µm

1

C

A = M(B,A)

0

B

@

�1...�m

1

C

A

=) µi =mX

j=1

aij�j

Kontrolle:

vj =mP

i=1aijwi nach Definition 3.4.16, also

v =mX

j=1

�jvj =mX

i,j=1

�jaijwi =mX

i=1

mX

j=1

aij�j

!

| {z }

µi

wi.

Daher sprechen wir von der Basiswechselmatrix M(B,A) von A nach B.

Satz 3.4.18Es seien V und W Vektorraume uber K mit Basen A = (v1, . . . , vn) bzw. B =

(w1, . . . , wm), und es sei F 2 HomK(V, W ). Dann gilt fur alle x 2 Kn = MatK(n⇥1):

F (A · x) = B ·M(B, F,A) · x ,

wobei wir die Notationen aus Definition 3.4.14 und 3.4.16 verwenden.

Beweis:

Nach Definition 3.4.14 ist A·x = (v1, . . . , vn) ·

0

B

@

x1...

xn

1

C

A

=nP

j=1xjvj, also wegen der Linearitat

von F

F (A · x) =nX

j=1

xjF (vj) = (F (v1), . . . , F (vn)) ·

0

B

@

x1...

xn

1

C

A

= F (A) · x,

woraus mit Definition 3.4.16 die Behauptung folgt. 2

76

Page 77: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Korollar 3.4.19Es seien V und W Vektorraume uber K, A = (v1, . . . , vn) und A = (v1, . . . , vn) seienBasen von V , B = (w1, . . . , wm) und B = (w1, . . . , wm) seien Basen von W , sowieF 2 HomK(V, W ). Dann gilt:

M(B, F, A) = M(B,B) ·M(B, F,A)M(A, A)

Beweis:M(B, F,A)M(A, A) = M(B, F, A) folgt durch Einsetzen der Spalten von M(A, A) inSatz 3.4.18, da A · xj = vj fur die jte Spalte xj von M(A, A);

M(B,B)M(B, F, A) = M(B, F, A) folgt analog.alternativer Beweis:

FM(B,F,A)

Kn ���������������������! Km

��� ��� ���

IA

IB

���!���!���!

FM(A,A)

x

?

?

?

?

V �����!F

W

?

?

?

?

y

FM(B,B)

��� ��� ���IA

IB

���!���!���!

Kn ���������������������! Km

FM(B,F,A)

”Diagrammjagd“

liefert FM(B,F,A) = FM(B,B) � FM(B,F,A) � FM(A,A) und damit die Behauptung. 2

Bemerkung 3.4.20(1)

(a)Basiswechselmatrizen sind immer invertierbar, und es gilt M(A, A) = M(A,A)�1 furBasen A, A eines endlich-dimensionalen K-Vektorraumes V .(b) Sind U, V, W endlich-dimensionale K-Vektorraume mit Basen A,B, C, dann gilt furF 2 HomK(V, W ) und G 2 HomK(U, V ):

M(C, F �G,A) = M(C, F,B)M(B, G,A).

(2) Wir konnen jetzt samtliche Ergebnisse aus der Matrizenrechnung, also fur

MatK(m⇥ n)Satz 3.4.2⇠= HomK(Kn, Km),

auf HomK(V, W ) ubertragen:Es seien V und W Vektorraume uber K, dimKV = n, dimKW = m und m, n 2 N \ {0}.Dann gilt:

• HomK(V, W )(⇤)⇠= MatK(m ⇥ n)

Satz 3.4.2⇠= Kmn, wobei (⇤) nach Wahl beliebiger, aberfest gewahlter Basen B = (w1, . . . , wm) von W und A = (v1, . . . , vn) von V gegebenist durch

F 7!M(B, F,A).

77

Page 78: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

• zu jedem F 2 HomK(V, W ) gibt es Basen A,B wie oben, so dass

M(B, F,A) =

r

8

>

>

<

>

>

:

0

B

B

B

B

B

B

B

B

B

B

B

@

1 0 · · · 0. . . 0 ...

0. . .

...

1

0 · · · · · · · · · 0...

...0 · · · · · · · · · 0

1

C

C

C

C

C

C

C

C

C

C

C

A

, r = rg(F )

(Beweis: Ubung)

• Falls F 2 HomK(V, W ) und b 2 W , dann ist {x 2 V | Ax = b} ⇢ V ein a�nerUnterraum und kann mit dem Gauß-Algorithmus bestimmt werden.

3.5 Dualraume

K sei im Folgenden ein Korper.

Beobachtung:Es sei V ein K-Vektorraum mit Basis A = (v1, . . . , vn),

IA

: V ! Kn, IA

(x1v1 + · · ·+ xnvn) =

0

B

@

x1...

xn

1

C

A

wie vorher.Fur j 2 {1, . . . , n} sei

v⇤j : V ! K, v⇤j (x1v1 + · · ·+ xnvn) := xj ,

d.h. v⇤j ordnet dem Vektor x 2 V seine jte Koordinate bezuglich der Basis A zu.

Behauptung 1:8 j 2 {1, . . . , n}: v⇤j 2 HomK(V, K)Beweis:8x = x1v1 + · · ·+ xnvn, y = y1v1 + · · ·+ ynvn 2 V , 8� 2 K:

v⇤j (x + y) = v⇤j ((x1 + y1)v1 + · · ·+ (xn + yn)vn)

= xj + yj = v⇤j (x) + v⇤j (y) (L1)

v⇤j (�x) = v⇤j ((�x1)v1 + · · ·+ (�xn)vn)

= �xj = �v⇤j (x) (L2)

2

78

Page 79: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Behauptung 2:(v⇤1, . . . , v

n) ist eine Basis des K-Vektorraums HomK(V, K)Beweis:(a) (v⇤1, . . . , v

n) ist Erzeugendensystem:Falls F 2 HomK(V, K), setze �j := F (vj) fur alle j 2 {1, . . . , n}, dann ist

F =nX

j=1

�jv⇤

j ,

denn 8x = x1v1 + · · ·+ xnvn 2 V :

F (x) ="

Linearitatvon F

nX

j=1

xj F (vj)| {z }

nach Def.: �j

=nX

j=1

xj|{z}

nach Def.: v

j (x)

�j =nX

j=1

�jv⇤

j (x)

2

(b) (v⇤1, . . . , v⇤

n) ist linear unabhangig:Falls �1, . . . ,�n 2 K und �1v⇤1 + · · ·+ �nv⇤n = 0, dann gilt

8 j 2 {1, . . . , n} : 0 = (�1v⇤1 + · · ·+ �nv⇤n)(vj) = �j

2

Definition 3.5.1Es sei V ein K-Vektorraum.(1) V ⇤ := HomK(V, K) heißt Dualraum von V . Die Elemente von V ⇤ heißen Li-nearformen.(2) Falls A = (v1, . . . , vn) eine Basis von V ist, dann heißt (v⇤1, . . . , v

n) mit v⇤j 2 V ⇤,wobei 8 j, a 2 {1, . . . , n}:

v⇤j (va) = �ja =

1 falls j = a0 sonst

(Kronecker-Delta),

die zu A duale Basis.

Theorem 3.5.2Es sei V ein endlich dimensionaler K-Vektorraum. Dann gilt:(1) Zu jeder Basis von V gibt es eine eindeutig bestimmte duale Basis, und diesebildet eine Basis von V ⇤.(2) V und V ⇤ sind isomorph, insbesondere dimKV = dimKV ⇤.

Beweis: klar mit obigen Behauptungen 1 + 2 und Korollar 3.3.5. 2

Jede Basis A = (v1, . . . , vn) definiert einen Isomorphismus V ! V ⇤ viaP

j xjvj 7!

79

Page 80: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

P

i xjv⇤j ; dieser Isomorphismus ist nicht kanonisch: er hangt von der Wahl der Basis Aab.

Beispiele:

• V = Rn, ↵ = (↵1 · · ·↵n) 2 MatK(1⇥ n) definiert eine Linearform ↵ 2 V ⇤, namlich

8x =

0

B

@

x1...

xn

1

C

A

2 Rn : ↵

0

B

@

x1...

xn

1

C

A

= ↵1x1 + · · ·+ ↵nxn;

nach Theorem 3.5.2 sehen alle ↵ 2 V ⇤ so aus, und statt V = Rn funktioniert dasallgemein fur V = Kn;

• unendlich dimensionale Beispiele:

- V = C0(R, R) := {f : R! R | f ist stetig};8 f 2 V : ↵1(f) := f(1) definiert ↵1 2 V ⇤;

8 f 2 V : 8 t 2 R : ↵t(f) := f(t) definiert ↵t 2 V ⇤;

8 f 2 V : ↵(f) :=1R

0

f(x)dx definiert ↵ 2 V ⇤.

- V = C1(R, R) := {f : R! R | f ist beliebig oft di↵erenzierbar},8 f 2 V : �1(f) := f 0(1) definiert �1 2 V ⇤.

Korollar 3.5.3Es sei V ein K-Vektorraum. Dann gilt: 8x 2 V \{0} 9↵ 2 V ⇤, so dass ↵(x) 6= 0.

Beweis:Es sei x 2 V mit x 6= 0. Dann gilt nach dem Basiserganzungssatz 3.2.11, den man mit denTechniken aus Bemerkung 3.2.13 auch im unendlich dimensionalen Fall beweisen kann:V besitzt eine Basis (vi)i2I mit va = x fur ein a 2 I.Falls V endlich dimensional ist, konnen wir mit der zu (vi)i2I dualen Basis (v⇤i )i2I arbeiten,die nach Theorem 3.5.2 existiert. Dann gilt namlich fur ↵ := v⇤a 2 V ⇤ : ↵(x) = v⇤a(va) =1 6= 0.Um auch unendlich dimensionale V zuzulassen, verwenden wir Theorem 3.3.4, demzufolgeein eindeutig bestimmtes ↵ 2 HomK(V, K) = V ⇤ existiert mit

8i 2 I : ↵(vi) =

1 falls i = a0 sonst.

Dann gilt ↵(x) = ↵(va) = 1 6= 0. 2

Da im endlich dimensionalen Fall V ⇠= V ⇤ gilt, muss es induzierte Isomorphismen zwischenHomomorphismen-Raumen und deren Dualraumen geben:

80

Page 81: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Theorem 3.5.4V und W seien K-Vektorraume, und fur F 2 HomK(V, W ) und ↵ 2 W ⇤ sei F T (↵) :=↵ � F . Dann gilt:(1) 8↵ 2 W ⇤ : F T (↵) 2 V ⇤ und F T 2 HomK(W ⇤, V ⇤).(2) Die Abbildung F 7! F T ist ein injektiver K-Vektorraum-HomomorphismusHomK(V, W )! HomK(W ⇤, V ⇤).(3) Falls V und W endlich dimensional sind, ist F 7! F T ein K-Vektorraum-Isomorphismus.

Beweis:(1) Folgt aus Lemma 3.3.3, da F und ↵ linear sind, zusammen mit den bekannten Re-chenregeln fur lineare Abbildungen.(2) K-Linearitat:8F, G 2 HomK(V, W ), 8↵ 2 W ⇤:

(F + G)T (↵) = ↵ � (F + G)↵ ist linear

= ↵ � F + ↵ �G = F T (↵) + GT (↵)

= (F T + GT )(↵) (L1)

8� 2 K : (�F )T (↵) = ↵ � (�F ) = �↵ � F

= �F T (↵) (L2)

Injektivitat:Laut Nachtrag (c) zu Theorem 3.3.4 genugt es, zu zeigen:

Falls F 6= 0, dann ist F T 6= 0.Sei also F 6= 0, d.h. 9 y 2 V \{0} mit x := F (y) 6= 0; nach Korollar 3.5.3: 9↵ 2 W ⇤ mit↵(x) 6= 0, d.h.

(F T (↵))(y) = (↵ � F )(y) = ↵(F (y)) = ↵(x) 6= 0,

also F T (↵) 6= 0, also F T 6= 0. 2

(3) Es genugt zu zeigen, dass der Rang der Abbildung F 7! F T fur n = dimK(V ),m = dimK(W ) gleich

dimK(HomK(W ⇤, V ⇤))3.4.20= dimK(W ⇤) · dimK(V ⇤)

3.5.2= m · n

ist.Das folgt aber sofort aus der Dimensionsformel 3.3.7, da F 7! F T nach (2) injektiv ist

und dimK(HomK(V, W ))3.4.20= m · n. 2

Definition 3.5.5(1) V und W seien K-Vektorraume, F 2 HomK(V, W ). Dann heißt der Homomor-

phismus F T 2 HomK(W ⇤, V ⇤) mit F T (↵) := ↵ � F 8↵ 2 W ⇤ der zu F duale odertransponierte Homomorphismus.(2) Fur m, n 2 N\{0} sei A 2 MatK(m ⇥ n), A = (aij)1im

1jn. Die Matrix AT =

(aTij) 1in

1jm2 MatK(n⇥m) mit aT

ij := aji 8 i, j heißt dann die Transponierte zu A.

81

Page 82: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beispiele:

(1 2 3 4)T =

0

B

B

@

1234

1

C

C

A

,

1 20 1

◆T

=

1 02 1

,

1 2 30 4 6

◆T

=

0

@

1 02 43 6

1

A

Satz 3.5.6V und W seien K-Vektorraume, A = (v1, . . . , vn) sei Basis von V und B =

(w1, . . . , wm) sei Basis von W sowie F 2 HomK(V, W ). Dann gilt:

M(B, F,A)T = M(A⇤, F T ,B⇤),

wobei A⇤ = (v⇤1, . . . , v⇤

n), B⇤ = (w⇤

1, . . . , w⇤

m) die zu A,B dualen Basen sind.

Beweis:Falls M(A⇤, F T ,B⇤) = (aij)ij 2 MatK(n⇥m), dann gilt nach Definition 3.4.16: F T (w⇤

j ) =Pn

`=1 a`jv⇤` , also

8 i, j : (F T (w⇤

j ))(vi) =nX

`=1

a`jv⇤

` (vi) =nX

`=1

a`j�`j = aij.

Mit M(B, F,A) = (aij)ij 2 MatK(m⇥ n) und somit F (vi) =Pm

`=1 a`iw` folgt:

8 i, j : aij = (F T (w⇤

j ))(vi) = (w⇤

j � F )(vi) = w⇤

j (F (vi)) = w⇤

j

mX

`=1

a`iw`

!

= aji.

2

Bemerkung 3.5.7(1) Rechenregeln fur Matrizen, die jeweils die richtige Große haben sollen, damit die

Gleichungen Sinn ergeben:(a) (A ·B) · C = A · (B · C)(b) (A + B) · C = A · C + B · C(c) A · (B + C) = A ·B + A · C(d) (A ·B)T = BT · AT

(e) (AT )�1 = (A�1)T , falls A invertierbar ist(2) Rechenregeln fur K-Vektorraum-Homomorphismen, jeweils zwischen geeigneten K-Vektorraumen, damit die Gleichungen Sinn ergeben:(a) (F �G) �H = F � (G �H)(b) (F + G) �H = F �H + G �H(c) F � (G + H) = F �G + F �H(d) (F �G)T = GT � F T

(e) (F T )�1 = (F�1)T , falls F invertierbar ist

82

Page 83: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beobachtung:8A 2 MatK(m ⇥ n) : (AT )T = A, d.h. (F T )T scheint fur beliebige K-Vektorraum-Homomorphismen F zuruckzuliefern – oder?

Theorem 3.5.8V und W seien K-Vektorraume.(1) Die Abbildung V ! (V ⇤)⇤, x 7! xTT mit xTT (↵) := ↵(x) 8x 2 V,↵ 2 V ⇤ lieferteinen injektiven K-Vektorraum-Homomorphismus, der im Falle von dimK(V ) < 1ein kanonischer Isomorphismus ist.(2) Falls F 2 HomK(V, W ), dann gilt fur F TT := (F T )T :

8x 2 V : (F (x))TT = F TT (xTT ) ,

d.h. fur endlich dimensionale V, W gilt bis auf kanonische Isomorphismen

F (x) 7! F (x)TT , x 7! xTT ,

dass F mit F TT ubereinstimmt.

Beweis:(1) K-Linearitat:

8x, y 2 V, 8↵ 2 V ⇤ : (x + y)TT (↵) = ↵(x + y) = ↵(x) + ↵(y)

= xTT (↵) + yTT (↵) = (xTT + yTT )(↵)

8� 2 K : (�x)TT (↵) = ↵(�x) = �↵(x)

= �xTT (↵) = (�xTT )(↵) ,

d.h. (L1) + (L2) gelten;

Injektivitat (mit dem Nachtrag (c) zu Theorem 3.3.4):Falls x 2 V \{0} und ↵ 2 V ⇤ mit ↵(x) 6= 0 (existiert nach Korollar 3.5.3): xTT (↵) =↵(x) 6= 0, also xTT 6= 0.

Surjektivitat, falls n = dimK(V ) <1:

dimK((V ⇤)⇤)3.5.2= dimK(V ⇤)

3.5.2= dimK(V ) = n, und nach Dimensionsformel 3.3.7 ist der

Rang von x 7! xTT gleich dimKV = n, da die Abbildung nach (1) ja injektiv ist.

Der Isomorphismus ist kanonisch, da keine Wahlen getro↵en wurden. 2

(2) Falls F 2 HomK(V, W ):

8x 2 V, 8↵ 2 W ⇤ : (F (x))TT (↵) = ↵(F (x)) = (↵ � F )(x)

= F T (↵)(x) = xTT (F T (↵))

= (xTT � F T )(↵) = (F TT (xTT ))(↵)

2

83

Page 84: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Bemerkung: V ⇤⇤ := (V ⇤)⇤ wird Bidualraum von V genannt.

letztes Ziel beim Thema”Dualraume“:

Formulierung linearer Gleichungssysteme mit ihrer Hilfe:

Definition 3.5.9Es sei V ein K-Vektorraum und W ⇢ V ein Untervektorraum. Dann heißt

W 0 := {↵ 2 V ⇤ | ↵(w) = 08w 2 W}

der zu W orthogonale Raum.

Erklarung:

R2 =

⇢✓

x1

x2

| xi 2 R�

, (R2)⇤ = {(x1, x2) | xi 2 R} ⇠= R2

"

(x1, x2) 7!✓

x1

x2

Falls W =

ab

| � 2 R�

mit fest gewahlten a, b 2 R:

W 0 = {(x1, x2) 2 R2 | �(x1a + x2b) = 08� 2 R}= {µ · (�b, a) | µ 2 R},

und (�b, a) ist”orthogonal“ zu

ab

.

Satz 3.5.10Es sei V ein endlich dimensionaler K-Vektorraum und W ⇢ V ein Untervektorraum.Dann ist W 0 ⇢ V ⇤ ein Untervektorraum der Dimension

dimW 0 = dimV � dimW

Beweis: Es sei (v1, . . . , vr) eine Basis von W und (v1, . . . , vr, vr+1, . . . , vn) eine Basis vonV (existiert nach Basiserganzungssatz 3.2.11); (v⇤1, . . . , v

n) sei die zugehorige duale Basisvon V ⇤.Behauptung: W 0 = spanK{v⇤r+1, . . . , v

n}Beweis:

”⇢“

↵ 2 W 0 ) ↵ 2 V ⇤, also ↵ =Pn

i=1 �iv⇤i fur geeignete �1, . . . ,�n 2 K, da (v⇤1, . . . , v⇤

n)Basis von V ⇤ ist, und außerdem ↵(v1) = · · · = ↵(vr) = 0, da v1, . . . , vr 2 W . Dann folgt:

8 j 2 {1, . . . , r} : 0 = ↵(vj) ="

v⇤i (vj) = �ij

�j

84

Page 85: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

und somit ↵ 2 spanK{v⇤r+1, . . . , v⇤

n}. 2

”�“

Falls ↵ =nP

j=r+1�jv⇤j , x =

rP

a=1xava 2 W mit �j, xa 2 K:

a(x) ="

v⇤j ist linear

X

j>r�a

�jxa v⇤j (va)| {z }

�ja

= 0,

also ↵ 2 W 0. 2

Mit der somit bewiesenen Behauptung folgt:

• W 0 ⇢ V ⇤ ist ein Untervektorraum (nach Lemma 3.1.9)

• (v⇤r+1, . . . , v⇤

n) ist Basis von W 0 (da linear unabhangig als Teil einer Basis von V ⇤,nach Lemma 3.2.3(5))

) dimW 0 = n� r = dimV � dimW .2

Bemerkung 3.5.11 (Neuformulierung linearer Gleichungssysteme)Falls m, n 2 N\{0}, aij 2 K fur 1 i m, 1 j m: Betrachte das LGS

a11x1 + · · · + a1nxn = 0...

......

am1x1 + · · · + amnxn = 0

9

>

=

>

;

(⇤)

, 8 i 2 {1, . . . ,m} : ↵i := (ai1 ai2 · · · ain) 2 (Kn)⇤ erfullt ↵i(x) = 0

D.h. U := spanK{↵1, . . . ,↵m} ⇢ (Kn)⇤ kodiert (⇤), und x 2 Kn lost (⇤) genau wenn8 i 2 {1, . . . ,m} : 0 = ↵i(x) = xTT (↵i), also genau wenn xTT 2 U0.Mit anderen Worten: Bis auf den kanonischen Isomorphismus Kn ⇠= (Kn)⇤⇤ aus Theorem3.5.8 ist U0 der Losungsraum von (⇤).

85

Page 86: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

1.5 Wiederholung und Ausblick

Erinnerung: Beispiel 1.3.4Wir betrachten V := R3 = R ⇥ R ⇥ R, das ist ein Vektorraum uber dem Korper(R, +, ·). Insbesondere gilt fur jedes a 2 R3:

• es gibt eindeutig bestimmte a1, a2, a3 2 R:

a = a1

0

@

100

1

A+a2

0

@

010

1

A+a3

0

@

001

1

A

" " "(Standard-)Basis

,

insbesondere dimRR3 = 3

• 8 b 2 R3 : a± b 2 R3, genauer: (R3, +) ist eine Abelsche Gruppe

• 8� 2 R : �a 2 R3,

und zusatzlich gelten die ublichen Rechenregeln.

weitere bekannte Beispiele fur Gruppen

• die symmetrischen Gruppen (Sn, ·) mit n 2 N\{0},

• die zyklischen Gruppen (Z/mZ, +) mit m 2 N\{0}

• die Untergruppen (Zm, ·) von (C⇤, ·) mit m 2 N\{0}, wobei Zm = {⇣ 2 C⇤ | ⇣m = 1}und (Zm, ·) isomorph ist zu (Z/mZ, +)

Dabei verwenden wir die folgenden Standard-Notationen in Sn:

Fur � 2 Sn schreiben wir � =

1 2 3 · · · n�(1) �(2) �(3) · · · �(n)

,

oder in Zykelschreibweise � =�

i11, . . . , i1p1

� · · · ��

ir1, . . . , irpr

,

zum Beispiel S3 = {(1), (1, 2), (1, 3), (2, 3), (1, 2, 3), (1, 3, 2)} .

Weiter hatten wir den Gruppen-Homomorphismus

sign : (Sn, �) �! (Z2 = {±1}, ·)

definiert, wobei fur alle � 2 Sn gilt:

sign(�) = +1 , � ist gerade, � hat eine gerade Anzahl von Fehlstanden, � = ⌧1 � · · · � ⌧2N fur Transpositionen ⌧1, . . . , ⌧2N 2 Sn,

zum Beispiel, wegen (1, 2, 3) = (12) � (23) und (1, 3, 2) = (13) � (32):

A3 = {� 2 S3 | sign(�) = +1} = {(1), (1, 2, 3), (1, 3, 2)}.

86

Page 87: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Falls m n und � 2 Sn ein Zykel der Lange m ist, dann gilt �m = id = (1) und

Zm⇠= {(1),�,�2, . . . ,�m�1} ⇢ Sn.

"Untergruppe

Im Folgenden werden Abbildungen wichtig werden, die mit der symmetrischen Gruppebesonders gut vertraglich sind:

Definition 1.5.1Es seien X, Y Mengen, m 2 N\{0}, Xm := X ⇥ · · ·⇥X

| {z }

m mal

, und f : Xm ! Y sei eine

Abbildung.f heißt symmetrisch, falls gilt:

8� 2 Sm,8x1, . . . , xm 2 X : f(x1, . . . , xm) = f(x�(1), . . . , x�(m))

Ist Y ein Vektorraum uber einem Korper K, dann heißt f antisymmetrisch, fallsgilt:

8� 2 Sm,8x1, . . . , xm 2 X : f(x1, . . . , xm) = sign(�) · f(x�(1), . . . , x�(m)) .

Beispiel 1.5.2

1) X = Y = R

i) m = 2, f(x1, x2) = (x1 � x2)2 ist symmetrischf(x1, x2) = (x1 � x2)3 ist antisymmetrisch

ii) m = 3, f(x1, x2, x3) = (x1 � x2)2 ist weder symmetrisch noch antisymmetrischf(x1, x2, x3) = x1x2x3 ist symmetrischf(x1, x2, x3) = x1x2(x1 � x2) + x2x3(x2 � x3) + x3x1(x3 � x1)

ist antisymmetrisch

2) X = R2, Y = R, m = 2,

f

✓✓

x1

y1

,

x2

y2

◆◆

= x1y2 � y1x2 ist antisymmetrisch

Beispiel 1.3.4 (Fortsetzung)Ebene im R3: E1 := {x 2 R3 | 1

3(8x1 � x2 � x3) = 0} ⇢ R3 ist ein 2-dimensionalerUntervektorraum.

Beispiel einer Basis von E1 :

0

@

0

@

180

1

A ,

0

@

01�1

1

A

1

A

(Ubung: Zeigen Sie: Dies ist tatsachlich eine Basis!)

87

Page 88: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

weitere Ebenen:

E2 := {x 2 R3 | x2 + x3 = 0}, E3 := {x 2 R4 | 13(4x1 + x2 + x3) = 0}

Basis von E2 :

0

@

0

@

100

1

A ,

0

@

01�1

1

A

1

A , Basis von E3 :

0

@

0

@

1�40

1

A ,

0

@

01�1

1

A

1

A .

L := E1

T

E2

T

E3 ⇢ R3 ist noch ein Untervektorraum von R3, von dem wir jetztmithilfe der Dimensionsformel die Dimension bestimmen konnen:

dim(E1

T

E2) = dimE1 + dimE2 � dim(E1 + E2),

wobei E1 + E2 = R3, da die Vektoren

0

@

100

1

A ,

0

@

01�1

1

A ,

0

@

180

1

A 2 E1 + E2 linear unabhangig

sind (Nachprufen!), also

dim(E1

T

E2) = 2 + 2� 3 = 1, Basis von E1

T

E2 :

0

@

0

@

01�1

1

A

1

A .

Fur L verfahren wir analog: E1

T

E2 ⇢ E3, also dim(E1

T

E2 + E3) = 2 (Nachprufen!).Damit:

dimL = dim(E1

T

E2)| {z }

1

+ dimE3| {z }

2

�dim (E1

T

E2 + E3)| {z }

2

= 1,

Basis von L :

0

@

0

@

01�1

1

A

1

A.

Formulierung mit Hilfe eines LGS:

x 2 L()

8

<

:

83x1 � 1

3x2 � 13x3 = 0 (E1)

x2 + x3 = 0 (E2)43x1 + 1

3x2 + 13x3 = 0 (E3)

; Losung z.B. mit Hilfe des Gauß-Algorithmus.

Matrixnotation:

A :=

0

@

83 � 1

3 � 13

0 1 143

13

13

1

A 2 MatR(3⇥ 3) und x 2 L, Ax = 0.

Genauer: A definiert eine Lineare Abbildung

FA : R3 ! R2, x 7! Ax ,

und L = ker(FA). Hier ist A die darstellende Matrix der linearen Abbildung FA

bzgl. der Standardbasis (e1, e2, e3) von R3 (im Bild- und im Urbildraum).

88

Page 89: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Darstellung von FA bzgl. der Basis A =

0

@

0

@

100

1

A ,

0

@

01�1

1

A ,

0

@

180

1

A

1

A:

FA(

0

@

100

1

A) =

0

@

83043

1

A = 52

0

@

100

1

A� 43

0

@

01�1

1

A+ 16

0

@

180

1

A ,

FA(

0

@

01�1

1

A) =

0

@

000

1

A = 0

0

@

100

1

A+ 0

0

@

01�1

1

A+ 0

0

@

180

1

A ,

FA(

0

@

180

1

A) =

0

@

084

1

A = �32

0

@

100

1

A� 4

0

@

01�1

1

A+ 32

0

@

180

1

A .

Somit erhalten wir eine neue darstellende Matrix

M(A, FA,A) =

0

@

52 0 �3

2�4

3 0 �416 0 3

2

1

A .

analog:E1 = ker(↵1) ,

wobei

↵1 : R3 ! R mit ↵1(

0

@

x1

x2

x3

1

A) :=8

3x1 �

1

3x2 �

1

3x3

eine lineare Abbildung ist; mit anderen Worten: ↵1 2 Hom(R3, R) = (R3)⇤, dem Dual-raum von R3.Darstellende Matrix von ↵1 bzgl. der Standardbasen E (3) = (e1, e2, e3) von R3 und E (1) =(1) von R:

M(E (1),↵1, E (3)) =

8

3� 1

3� 1

3

.

Zu (e1, e2, e3) duale Basis (e⇤1, e⇤

2, e⇤

3) von (R3)⇤: e⇤i (ej) = �ij fur i, j 2 {1, 2, 3}; danngilt ↵1 = 8

3e⇤

1 � 13e⇤

2 � 13e⇤

3 (Nachprufen!).

Erinnerung:K sei ein Korper, V und W seien K-Vektorraume.

• V ⇤ := HomK(V, K) und HomK(V, W ) sind K-Vektorraume (Nachprufen!).

• Falls dimKV = m, dimKW = n:

HomK(V, W ) ⇠= MatK(m⇥ n) ⇠= Kmn (Vektorraum-Isomorphismen!).

89

Page 90: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Folgerung:Wir erhalten eine Basis (Eij)1im

1jnvon MatK(m⇥ n) als Urbild der Standardbasis unter

obigem Isomorphismus, d.h. Eij 2 MatK(m ⇥ n) hat einen Eintrag 1 an der Stelle (i, j)und 0 uberall sonst.

Verallgemeinerung linearer Abbildungen:

Definition 1.5.3Es sei K ein Korper und V1, . . . , Vq, W seien K-Vektorraume.

(1) Eine Abbildung ↵ : V1 ⇥ · · · ⇥ Vq ! W heißt q-multilinear (oder q-linearoder multilinear), falls gilt:

8xj 2 Vj, 8 ` 2 {1, . . . , q} ist die Abbildung

V` ! W, x 7! ↵(x1, . . . , x`�1, x, x`+1, . . . , xq)

linear.

(2) Falls V1 = · · · = Vq = V und W = K, dann heißen die q-multilinearen Abbil-dungen

↵ : V ⇥ · · ·⇥ V| {z }

q�mal

! K

auch q-linear-Formen oder q-kontravariante Tensoren.

Beispiele:

(1) q = 1, W = K, V = V1:

V ⇤ = {1-lineare Abbildungen V ! K} = {Linearformen}.

(2) Es sei q 2 N\{0}, V1 = · · · = Vq = Rn mit Standardbasis (e1, . . . , en) und dazudualer Basis (e⇤1, . . . , e

n);

↵ : V ⇥ · · ·⇥ V| {z }

q�mal

�! R ,

(x1, . . . , xq) 7!(

e⇤1(x1) · · · · · e⇤q(xq) falls q n

e⇤1(x1) · · · · · e⇤n(xn) falls q > n

ist eine q-multilineare Abbildung .

Notation: ↵ = e⇤1 ⌦ · · ·⌦ e⇤q bzw. ↵ = e⇤1 ⌦ · · ·⌦ e⇤n (”Tensorprodukt“).

Beispiel 1.3.4 (Fortsetzung)

FA(x) =

0

@

83 �

13 �

13

0 1 143

13

13

1

Ax

90

Page 91: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

darstellende Matrix bzgl. der Basis

B =

0

@

0

@

111

1

A ,

0

@

201

1

A ,

0

@

01�1

1

A

1

A

(Nachprufen, dass dies eine Basis ist!).

FA(

0

@

111

1

A) =

0

@

222

1

A = 2 ·

0

@

111

1

A+ 0 ·

0

@

201

1

A+ 0 ·

0

@

01�1

1

A ,

FA(

0

@

201

1

A) =

0

@

513

1

A = 1 ·

0

@

111

1

A+ 2 ·

0

@

201

1

A+ 0 ·

0

@

01�1

1

A ,

FA(

0

@

01�1

1

A) = 0,

also M(B, FA,B) =

0

@

2 1 00 2 00 0 0

1

A (”Jordan-Normalform“ ).

L := spanR

8

<

:

0

@

01�1

1

A

9

=

;

,

L := spanR

8

<

:

0

@

111

1

A

9

=

;

,

E := spanR

8

<

:

0

@

111

1

A ,

0

@

201

1

A

9

=

;

;

L, L sind Geraden, E eine Ebene, L ⇢ E; FA staucht L auf 0 und R3 auf E zusammen,und streckt L in sich selbst.

Definition 1.5.4Es sei K ein Korper, V ein K-Vektorraum und F 2 HomK(V, V ).

(1) x 2 V heißt Eigenvektor von F , falls gilt:

x 6= 0 und 9� 2 K mit F (x) = �x.

(2) � 2 K heißt Eigenwert von F , falls gilt:

9x 2 V : x ist ein Eigenvektor von F mit F (x) = �x.

91

Page 92: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Themen der Linearen Algebra II:

• Multilinear-Formen verschiedener Arten auf einem Vektorraum V (insbesondereantisymmetrische n-Linear-Formen wenn dim V = n, und symmetrische 2-Linear-Formen); Folgerungen aus deren Existenz

• Eigenwerte, Eigenvektoren, Jordan-Normalform

4 Determinanten und ihre Anwendungen

Im Folgenden sei K ein Korper.Leitmotiv:Das Losen linearer Gleichungssysteme lasst sich elegant mithilfe von Matrizen beschrei-ben; sei jetzt A 2 MatK(n⇥ n) mit n 2 N \ {0};falls A invertierbar ist:

8 b 2 Kn : (Ax = b, x = A�1b)

Ziel: Finde ein”Verfahren“, um die Invertierbarkeit von A zu testen;

genauer: eine Abbildung det : MatK(n⇥ n)! K mit

det(A) 6= 0 , A 2 MatK(n⇥ n) ist invertierbar.

Idee:A 2 MatK(n⇥ n) ist invertierbar

, FA : Kn ! Kn, x 7! Ax, hat maximalen Rang (also rg(FA) = n), Die Spaltenvektoren von A sind linear unabhangig, Die Spaltenvektoren von A erzeugen Kn

Insbesondere ist fur K = R aquivalent: A hat Spaltenvektoren a1, . . . , an 2 Rn, die ein

”Parallelepiped“ PA erzeugen mit vol(PA) > 0:

Fur n = 2:A 2 MatR(2⇥2) habe Spaltenvektoren a1, a2 2 R2, die die Kanten eines Parallelogrammesdefinieren; falls

a1 =

a11

a21

, a2 =

a12

a22

= � ·✓

�a21

a11

+ µ ·✓

a11

a21

mit �, µ 2 R,

dann gilt:

A ist invertierbar, � 6= 0

, vol(PA) 6= 0 mit vol(PA) =

�a21

a11

· ||a1||

= |�| · (a211 + a2

21)

= |a11(�a11 + µa21)� a21(��a21 + µa11)|= | a11 · a22 � a21 · a12

| {z }

=: det(A)

|

92

Page 93: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

allgemein werden wir fur Vektorraume uber R”det“ so definieren, dass

|det(A)| = vol(PA) ;

insbesondere:

• det(A) = 0, falls zwei Spalten von A ubereinstimmen

• det ist multilinear in den Spaltenvektoren

• det(En) = 1

4.1 Definition der Determinante fur Matrizen

Definition 4.1.1 (Weierstraß, spatestens 1864)Es sei n 2 N\{0}.

(1) col : Kn ⇥ · · ·⇥Kn

| {z }

n mal

! MatK(n⇥ n) sei definiert durch

0

B

@

0

B

@

a11...

an1

1

C

A

, . . . ,

0

B

@

a1n...

ann

1

C

A

1

C

A

7!

0

B

@

a11 · · · a1n...

...an1 · · · ann

1

C

A

;

Kurzschreibweise:

(a1 · · · an) = (a1, . . . , an) = col(a1, . . . , an)

fur a1, . . . , an 2 Kn.

(2) Eine Abbildung det : MatK(n⇥ n)! K heißt Determinante, falls gilt:

(D1) det ist linear in jeder Spalte, d.h.

f := det � col : Kn ⇥ · · ·⇥Kn

| {z }

n mal

! K

ist n-multilinear.

(D2) det ist alternierend, das heißt: Falls zwei Spalten von A ubereinstim-men, dann gilt det(A) = 0.

(D3) det ist normiert, d.h.det(En) = 1

fur die Einheitsmatrix En 2 MatK(n⇥ n).

93

Page 94: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Bemerkung:

• Fur n = 2 ist det

a bc d

:= ad � bc ein Beispiel fur eine Determinante (wird in

Aufgabe 4 gezeigt).

• Wir werden zeigen: Fur jedes n 2 N\{0} existiert genau eine Determinante.

Nachste Aufgabe:Als Vorbereitung fur den Existenz- und Eindeutigkeitsbeweis von

”det“ leiten wir erste

Eigenschaften von Determinanten her.

Proposition 4.1.2Es sei n 2 N\{0}, und det : MatK(n⇥ n)! K sei eine Determinante. Dann gilt:

(1) 8� 2 K : det(�A) = �n · det(A).

(2) Falls eine Spalte von A der Nullvektor ist, dann gilt det(A) = 0.

(3) Entsteht A aus A durch Vertauschen zweier Spalten, A = APij mit Pij wie inBeispiel 3.4.5, dann gilt

det A = �det A.

(4) Es sei � 2 K und i 6= j. Ensteht A aus A durch Addition der �-Fachen der jten

Spalte zur iten Spalte, A = AQij(�) mit Qij(�) wie in Beispiel 3.4.5, dann gilt

det A = det A.

Beweis:Falls A = (a1, . . . , an) mit a1, . . . , an 2 Kn:

(1) det(�a1,�a2, . . . ,�an)(D1)= (� · · · · · �

| {z }

n mal

)det(a1, . . . , an) = �ndet(A)

(2) Falls aj = 0:

8� 2 K : � · det A(D1)= det(a1, . . . , �aj

|{z}

=0=aj

, . . . , an) = det A ,

insbesondere mit � = 0 : det A = 0.

94

Page 95: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(3) Falls i < j, also A = (a1, . . . , ai�1, aj, ai+1, . . . , aj�1, ai, aj, . . . , an) :

det A + det A = det(a1, . . . , ai�1, ai, ai+1, . . . , aj�1, aj, aj+1, . . . , an)+ det(a1, . . . , ai�1, aj, ai+1, . . . , aj�1, aj, aj+1, . . . , an)| {z }

=0 wg. (D2)

+ det(a1, . . . , ai�1, ai, ai+1, . . . , aj�1, ai, aj+1, . . . , an)| {z }

=0 wg. (D2)

+det(a1, . . . , ai�1, aj, ai+1, . . . , aj�1, ai, aj+1, . . . , an)(D1)= det(a1, . . . , ai�1, ai + aj, ai+1, . . . , aj�1, aj, aj+1, . . . , an)

+det(a1, . . . , ai�1, ai + aj, ai+1, . . . , aj�1, ai, aj+1, . . . , an)(D1)= det(a1, . . . , ai�1, ai + aj, ai+1, . . . , aj�1, ai + aj, aj+1, . . . , an)

(D2)= 0

(4)det A = det(a1, . . . , ai�1, ai + �aj, ai+1, . . . , an)

(D1)= det(a1, . . . , ai�1, ai, ai+1, . . . , an)

+� det(a1, . . . , ai�1, aj, ai+1, . . . , aj�1, aj, aj+1, . . . , an)| {z }

=0 wg. (D2)

= det A .

Konkrete Berechnung fur Beispielklassen:

Proposition 4.1.3Es sei n 2 N \ {0}, und det : MatK(n⇥ n)! K sei eine Determinante.

(1) Falls � 2 Sn und A = (e�(1), . . . , e�(n)) mit den Standardbasisvektorene1, . . . , en 2 Kn, dann gilt

det(A) = sign(�).

(2) Ist A eine obere Dreiecksmatrix, also

A =

0

B

@

�1 ⇤0

. . .�n

1

C

A

mit �1, . . . ,�n 2 K ,

dann gilt det(A) = �1 · · · · · �n.

Beweis:

(1) Wir schreiben � = ⌧1 � · · · � ⌧N mit Transpositionen ⌧1, . . . , ⌧N 2 Sn, also sign(�) =(�1)N . Induktive Anwendung von Proposition 4.1.2(3) zeigt dann:

det(A) = (�1)Ndet(En)(D3)= sign(�).

95

Page 96: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(2) Fallunterscheidung:

Falls �1 = 0: det A4.1.2(2)

= 0 =nQ

j=1�j.

Falls �1 6= 0: Durch Addieren geeigneter Vielfacher der 1. Spalte von A zu denubrigen Spalten entsteht eine Matrix der Form

A =

0

B

B

B

@

�1 0 · · · 0�2 ⇤ · · · ⇤

0. . . ⇤

�n

1

C

C

C

A

,

mit det A = det A nach Proposition 4.1.2(4). Induktiv folgt

det A = det

0

B

@

�1 0. . .

0 �n

1

C

A

(D1)=

nY

j=1

�j det(En)(D3)=

nY

j=1

�j.

2

Proposition 4.1.4Es sei n 2 N\{0}, und det : MatK(n⇥n)! K sei eine Determinante. Dann gilt furA = (aij) 2 MatK(n⇥ n):

det(A) =X

�2Sn

sign(�)nY

j=1

a�(j)j.

Beweis:Falls A = (a1, . . . , an) mit a1, . . . , an 2 Kn, dann gilt fur alle j 2 {1, . . . , n}:aj =

nP

`j=1a`jje`j , also

det(A)(D1)=

nP

`1

=1a`

1

1 · det(e`1

, a2, . . . , an)

(D1)= · · · (D1)

=nP

`1

=1· · ·

nP

`n=1

nQ

j=1a`jj · det(e`

1

, . . . , e`n).

In diesem letzten Ausdruck kommen alle Kombinationen (`1, . . . , `n) mit `j 2 {1, . . . , n}vor. Wegen (D2) sind nur solche Summanden nicht Null, fur die (genau!) ein � 2 Sn

existiert mit (`1, . . . , `n) = (�(1), . . . ,�(n)). Also ist

det(A) =X

�2Sn

a�(1)1 · · · a�(n)n det(e�(1), . . . , e�(n))| {z }

sign(�)nach Prop. 4.1.3(1)

.

2

96

Page 97: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Bemerkung:

• schon aus Aufgabe 6(b) folgt: es gibt hochstens eine Abbildung det: MatK(n⇥n)!K mit (D1) – (D3)

• noch zu zeigen: die explizite Formel aus Proposition 4.1.4 erfullt (D1) – (D3)

• Struktur dieser Formel: Jeder Summand enthalt genau einen Faktor aij aus jederZeile i und aus jeder Spalte j.

Theorem 4.1.5Fur jedes n 2 N\{0} existiert genau eine Determinante det : MatK(n ⇥ n) ! K,

namlich

det(aij) =X

�2Sn

sign(�) ·nY

j=1

a�(j)j =X

�2Sn

sign(�) ·nY

j=1

aj�(j).

Beweis:Wir setzen zuerst

� : MatK(n⇥ n)! K, �((aij)) :=X

�2Sn

sign(�) · a�(1)1 · · · a�(n)n.

(1) Zuerst beweisen wir, dass die beiden angegebenen Formeln ubereinstimmen:

�((aij)) ="

Umordnender Faktoren

a�(1)1

,...,a�(n)n

X

�2Sn

sign(�) · a1��1(1) · · · an��1(n)

="

�:=��1mitsign(�)=sign(��1)

X

�2Sn

sign(�) · a1�(1) · · · an�(n) ,

d.h. die beiden Formeln fur det(A) stimmen in der Tat uberein.

(2) Wegen Proposition 4.1.4 ist nur noch zu zeigen: � erfullt (D1) – (D3).

(D1) Aufgabe 4b)

(D2) Falls A = (a1, . . . , an) mit a1, . . . , an 2 Kn und ai = aj fur i 6= j (insbesonderen > 1):

Mit ⌧ := (i, j) 2 Sn gilt nach Aufgabe 2:

Sn = An [ An⌧ mit An = {� 2 Sn | sign(�) = 1},An⌧ = {� 2 Sn | sign(�) = �1} ,

97

Page 98: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

also An

T

An⌧ = ;, und � 7! � � ⌧ definiert eine Bijektion zwischen An undAn⌧ . Somit gilt:

�(A) =X

�2An

sign(�) · a�(1)1 · · · a�(n)n + sign(� � ⌧) · a��⌧(1)1 · · · a��⌧(n)n

.

Dabei gilt:

Fur alle � 2 An ist

⇤ sign(�) = 1, sign(� � ⌧) = �1.

⇤ a��⌧(`)` ="

ai=aj

8

>

<

>

:

a�(`)` falls ` /2 {i, j},a�(j)i = a�(j)j falls ` = i,

a�(i)j = a�(i)i falls ` = j,

d.h. a��⌧(1)1 · · · a��⌧(n)n = a�(1)1 · · · a�(n)n fur alle � 2 An; somit: �(A) = 0.

(D3)

det

0

B

@

1 0. . .

0 1

1

C

A

=X

�2Sn

sign(�) �1�(1) · · · �n�(n)| {z }

=0 falls � 6=id

= 1.

2

Korollar 4.1.6Falls n 2 N\{0}, dann gilt fur jedes A 2 MatK(n⇥ n):

(1) det AT = det A

(2) Geht A aus A durch elementare Zeilenoperationen vom Typ I oder III wie inBeispiel 3.4.5 hervor, dann gilt det A = ±det A.

Beweis:

(1) Folgt aus der Definition von AT (Definition 3.5.5 mit AT = (aTij), a

Tij = aji fur alle

i, j 2 {1, . . . , n}) und Theorem 4.1.5.

(2) Aufgabe 72

Erinnerung:Wir wollen

”det“ so konstruieren, dass es

”mißt“, ob die Spaltenvektoren von A linear

unabhangig sind. Das haben wir in der Tat erreicht:

Theorem 4.1.7Fur jedes A 2 MatK(n⇥ n) mit n 2 N\{0} gilt:

(1) det A = 0, Die Spaltenvektoren a1, . . . , an 2 Kn von A sind linear abhangig.

(2) det A 6= 0, A ist invertierbar.

98

Page 99: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beweis:

(1) A gehe aus A durch elementare Zeilenoperationen vom Typ I und III hervor undsei in Zeilen-Stufen-Form (moglich nach dem Beweis von Theorem 3.4.8); da A =(aij) 2 MatK(n⇥n) in Zeilen-Stufen-Form ist, hat diese Matrix insbesondere obereDreiecksgestalt, so dass

det AProp. 4.1.3(2)

= a11 · · · ann.

Weiter gilt:

det A = 0Kor. 4.1.6() det A = 0

˜A in Zeilen-Stufen-Form() ann = 0

Kor. 3.4.11() rg(A) < nThm. 3.4.10() rg(A) < n

Kor. 3.4.11() a1, . . . , an sind linear abhangig.

(2) Wegen (1) gilt det A 6= 0 genau wenn rg(A) = n, also wenn FA surjektiv ist; furlineare Abbildungen zwischen endlich dimensionalen Vektorraumen gleicher Dimen-sion ist wegen der Dimensionsformel 3.3.7 aber die Invertierbarkeit aquivalent zurSurjektivitat, und damit folgt: A ist invertierbar genau wenn det A 6= 0.

2

Bemerkung 4.1.8 (vgl. Aufgabe 5)Ist V ein K-Vektorraum und f : V m ! K multilinear, dann gilt:

(1) Falls f alternierend ist, dann ist f antisymmetrisch.

(2) Falls char(K) 6= 2, dann gilt auch die Umkehrung von (1).

Beispiel:Uber K = F2 mit V = F2, m = 2: F2 = {0, 1} mit Additions- und Multiplikationstafel

+ 0 10 0 11 1 0

· 0 10 0 01 0 1

,

insbesondere �1 = 1, so dass fur

f : V ⇥ V ! K , f(1, 1) := 1, f(0, 1) = f(1, 0) = f(0, 0) := 0

gilt: f ist multilinear und antisymmetrisch, aber nicht alternierend.

99

Page 100: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

4.2 Rechenregeln fur Determinanten

Nutzliche erste Eigenschaft: Die Determinante”verhalt sich multiplikativ“:

Theorem 4.2.1 (Cauchy 1812)Fur n 2 N\{0} und A, B 2 MatK(n⇥ n) gilt:

det(A ·B) = det(A) · det(B).

Beweis:Fallunterscheidung:Fall I: A ist nicht invertierbarEs gilt also det A = 0 nach Theorem 4.1.7; dann ist auch AB nicht invertierbar (z.B.nach Satz 1.4.5), also

det(A ·B)Thm. 4.1.7

= 0 = det A · det B.

2

Fall II: A ist invertierbarDann ist det A 6= 0 laut Theorem 4.1.7, und

� : MatK(n⇥ n)! K, X 7! det(A ·X)

det(A)

ist wohldefiniert.Behauptung: � ist eine Determinante.Beweis: Falls A = (aij), X = (xij), dann ist A = (a1, . . . , an), A ·X = (a1, . . . , an) mit

aj =nP

i=1

nP

`=1ai`x`j

ei ="

a`=nP

i=1

ai`ei

nP

`=1x`ja`

=) X 7! �(X) = (det A)�1 · det

nP

`=1x`1a`, . . . ,

nP

`=1x`na`

erfullt (D1) + (D2), da x`j, ` 2 {1, . . . , n}, die Koe�zienten der jten Spalte von X sind,

und (D3) wegen �(En) = det(A)det(A) = 1. 2

Damit folgt aus Theorem 4.1.5: �(X) = det(X) fur alle X 2 MatK(n⇥ n), insbesondere

det(B) = �(B) =det(A ·B)

det A.

2

100

Page 101: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Korollar 4.2.2Es sei n 2 N\{0}. Dann gilt

(1) 8A, B 2 MatK(n⇥ n): det(A ·B) = det(B · A).

(2) 8A 2 MatK(n⇥ n): Falls A invertierbar ist, dann gilt det(A�1) = (det(A))�1.

(3) det : {A 2 MatK(n⇥ n) | A ist invertierbar}! K⇤

ist ein Gruppen-Homomorphismus.

Definition 4.2.3Fur n 2 N\{0} setzt man

Gln(K) := {A 2 MatK(n⇥ n) | det A 6= 0}

”general linear group“,

Sln(K) := {A 2 MatK(n⇥ n) | det A = 1}

”special linear group“.

Korollar 4.2.4Es sei n 2 N\{0}. Dann gilt: Gln(K) mit der Matrixmultiplikation ist eine Gruppe,

und Sln(K) ⇢ Gln(K) ist eine Untergruppe.

(Neuer!) Beweis:En 2 Gln(K) ist klar wegen (D3),

A, B 2 Gln(K)Thm.4.2.1,

=)Kor.4.2.2

A ·B, A�1 2 Gln(K) ,

und die Assoziativitat der Matrixmultiplikation ist schon bekannt (Bemerkung 3.5.7).Da Sln(K) = ker(det), wobei det : Gln(K) ! K⇤ nach Korollar 4.2.2 ein Gruppen-Homomorphismus ist, folgt die zweite Behauptung (s. Bemerkung 2.2.11).

2

Nachstes Ziel:Herleitung geschlossener, wenn moglich vereinfachender Formeln fur Rechnungen mitDeterminanten.

Beobachtung: Fur A =

a bc d

2 MatK(2 ⇥ 2) mit det(A) = ad � bc 6= 0 gilt (vgl.

Aufgabe 1):

A�1 =1

det A

d �b�c a

.

101

Page 102: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Diese Formel werden wir auf beliebige A 2 MatK(n⇥ n) verallgemeinern (auch wenn dieFormel in der Praxis unbrauchbar ist).Ein Hilfssatz dafur:

Proposition 4.2.5Es sei n 2 N \ {0} und A = (aij) = (a1, . . . , an) 2 MatK(n⇥n) mit a1, . . . , an 2 Kn.Fur i, j 2 {1, . . . , n} setzen wir

Aij := i!

0

B

B

B

B

B

@

a11 · · · 0 · · · a1n...

......

0 · · · 1 · · · 0...

......

an1 · · · 0 · · · ann

1

C

C

C

C

C

A

2 MatK(n⇥ n) ,

"

j

falls n > 1:

A0

ij := i!

0

B

B

B

B

B

B

@

a11 · · · a1j · · · a1n...

......

ai1 · · · aij · · · ain

......

...an1 · · · anj · · · ann

1

C

C

C

C

C

C

A

2 MatK((n� 1)⇥ (n� 1)) ,

"

j

d.h. Aij entsteht aus A durch Ersetzen von aj durch ei und der iten Zeile durch eTj ;

A0

ij entsteht aus A durch Streichen der iten Zeile und der jten Spalte (und heißt auchStreichungsmatrix).Dann gilt, falls n > 1,

(1) det(a1, . . . , aj�1, ei, aj+1, . . . , an) = (�1)i+jdet A0

ij.

(2) det Aij = (�1)i+jdet A0

ij.

Beweis:Wir verwenden ab sofort die folgende gangige Notation:Um in einer Auflistung wie z1, . . . , zn ein Element zj wegzulassen, schreibt man kurzz1, . . . , zj, . . . , zn, d.h. zj hat seinen Hut genommen und

z1, . . . , zj, . . . , zn ist Kurzschreibweise fur z1, . . . , zj�1, zj+1, . . . , zn.

102

Page 103: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Mit den Bezeichnungen aus der Proposition gilt:

(1) det(a1, . . . , aj�1, ei, aj+1, . . . , an) ="

(n�j) Vertauschungenvon Spalten nach

Prop. 4.1.2

(�1)n�jdet(a1, . . . , aj, . . . , an, ei)

="

(n�i) Vertauschungenvon Zeilen nach

Kor. 4.1.6

(�1)i+j det

0

B

B

B

@

0

A0

ij

...0

ai1 · · · aij · · · ain 1

1

C

C

C

A

| {z }

A00

.

Mit A0

ij = (a0k`), A00 = (a00k`):

det A00 =X

�2Sn

sign(�) · a00�(1)1 · · · a00�(n)n| {z }

a00�(n)n 6=0 , �(n)=n

, a00�(n)n=1

=X

{�2Sn|�(n)=n}

sign(�) · a0�(1)1 · · · a0�(n�1),n�1

=X

�2Sn�1

sign(�) · a0�(1)1 · · · a0�(n�1),n�1

= det A0

ij

beweist (1).

(2) Folgt aus der gleichen Rechnung, da das Ergebnis unabhangig von den Eintragenai1, . . . , aij, . . . , ain ist: (ai1, . . . , ain) kann durch eT

j ersetzt werden, ohne das Ergeb-nis zu verandern.

2

Definition 4.2.6Es sei n 2 N\{0} und A 2 MatK(n⇥n). Mit Bezeichnungen wie in Proposition 4.2.5sei fur i, j 2 {1, . . . , n}

aij := det Aji .

Dann heißt A := (aij)1in1jn

die zu A komplementare Matrix. Die komplementare

Matrix wird auch haufig die Adjunkte genannt.

Theorem 4.2.7Es sei n 2 N\{0} und A 2 MatK(n⇥ n), A = (a1, . . . , an).

(1) Fur die zu A komplementare Matrix A gilt:

A · A = A · A = det(A) · En

103

Page 104: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(2) Falls A invertierbar ist, dann gilt:

(a) A�1 = (↵ij), wobei 8 i, j 2 {1, . . . , n} und mit Bezeichnungen wie in Pro-position 4.2.5:

↵ij =det Aji

det Afalls n>1

= (�1)i+j det A0

ji

det A.

(b) Fur x, b 2 Kn gilt Ax = b genau wenn

8 j 2 {1, . . . , n} : xj =det(a1, . . . , aj�1, b, aj+1, . . . , an)

det A

(”Cramersche Regel“).

Beweis: klar fur n = 1; andernfalls:

(1) (a) Fur B := A ·A = (bij) zeigen wir: Fur alle i, j 2 {1, . . . , n} ist bij = �ij ·det(A):

bij =nX

`=1

ai`a`j =nX

`=1

(�1)i+`det A0

`ia`j

Prop. 4.2.5=

nX

`=1

a`jdet(a1, . . . , ai�1, e`, ai+1, . . . , an)

(D1)= det(a1, . . . , ai�1,

nX

`=1

a`je`

| {z }

aj

ai+1, . . . , an)

(D2)= �ij · det(A).

(b) Fur C := A · A gilt CT = AT · AT ; aus Definition 4.2.6 folgt: AT = fAT ist diezu AT komplementare Matrix, und daher wegen (a)

CT = det(AT ) · EnKor. 4.1.6

= det(A) · En, also C = det(A) · En,

wie behauptet.

(2) Falls A invertierbar ist, dann gilt det(A) 6= 0 nach Theorem 4.1.7, also wegen (1)und (2) A�1 = (det A)�1A, d.h.

(a)

↵ij =aij

det ADef. 4.2.6

= (�1)i+j det A0

ji

det A.

104

Page 105: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(b) Ax = b, x = A�1b mit

xj(a)= (det A)�1

nX

i=1

det Aij · bi

Prop. 4.2.5= (det A)�1

nX

i=1

bi · det(a1, . . . , aj�1, ei, aj+1, . . . , an)

(D1)= det(A)�1det(a1, . . . , aj�1, b, aj+1, . . . , an).

2

Idee: Ist A 2 MatK(n ⇥ n) eine”dunn besetzte“ Matrix (d.h. A = (aij), so dass viele

aij = 0), dann verschwinden viele Summanden in det(A) =P

�2Sn

sign(�)a1�(1) · · · an�(n);konnen wir das systematisch ausnutzen?

Theorem 4.2.8 (Laplacescher Entwicklungssatz)Es sei n 2 N\{0, 1} und A = (aij) 2 MatK(n ⇥ n). Dann gilt mit den Notationen

aus Proposition 4.2.5:

8 i 2 {1, . . . , n} : det(A) =nX

j=1

(�1)i+jaijdet A0

ij

”Entwicklung nach der iten Zeile“ ,

8 j 2 {1, . . . , n} : det(A) =nX

i=1

(�1)i+jaijdet A0

ij

”Entwicklung nach der jten Spalte“ .

Beweis:Es sei A die zu A komplementare Matrix.

(1) A · A Prop. 4.2.7= det(A) · En, so dass fur alle i 2 {1, . . . , n} gilt:

det(A) = (A · A)ii =nX

j=1

aij ajiDef. 4.2.6

=nX

j=1

(�1)i+jaijdet A0

ij.

(2) Analog wie (1) mit A · A Prop. 4.2.7= det(A) · En.

2

Merkregel/Beispiel:Bei Entwicklung nach der iten Zeile markiert man diese Zeile in A und benutzt die Strei-chungsmatrizen A0

i1, . . . , A0

in:

det(A) = (�1)i+1ai1det A0

i1 � (�1)i+1ai1det A0

i1 ± · · ·+ (�1)i+naindet A0

in .

105

Page 106: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Vorzeichenschema:

((�1)i+j) =

0

B

B

B

@

+ � + · · ·� + � · · ·+ � + · · ·...

......

1

C

C

C

A

.

Etwa fur A =

0

@

5 6 70 0 89 10 11

1

A, Entwicklung nach der 2. Zeile:

det(A) = �0 · det A0

21 + 0 · det A0

22 � 8 · det A0

23

= �8 · det

5 69 10

= �8 · (50� 54) = 32 ,;

fur B =

0

B

B

@

1 2 3 45 6 7 00 0 8 09 10 11 0

1

C

C

A

, Entwicklung nach der 4. Spalte:

det B = �4 · det

0

@

5 6 70 0 89 10 11

1

A

| {z }

A

= �4 · 32 = �128.

4.3 Determinanten von Endomorphismen

Erinnerung (Beobachtung 3.4.15):Matrizen A 2 MatK(n ⇥ n), n 2 N\{0}, kodieren Endomorphismen F 2 EndK(V ),wenn dimK(V ) = n und in V eine Basis A = (v1, . . . , vn) gewahlt wurde:

A = M(A, F,A) (Spezialfall A = B von Definition 3.4.16).

Bisher: V = Kn, A = E (n), F = FA, passend zum Spezialfall.Idee: det(A) 2 K sollte fur V ⇠= Kn, A = M(A, F,A) wie oben eine von der Basiswahlunabhangige Interpretation haben:

Proposition 4.3.1Es sei V ein n-dimensionaler K-Vektorraum, n 2 N\{0}, und A und B seien Basenvon V . Dann gilt fur jedes F 2 EndK(V ):

det(M(A, F,A)) = det(M(B, F,B))

Beweis:Nach Korollar 3.4.19 und Bemerkung 3.4.20 sind M(A, F,A) und M(B, F,B) ahnlicheMatrizen, d.h.

9S 2 Gln(K) : M(B, F,B) = S�1 ·M(A, F,A) · S,

106

Page 107: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

namlich S = M(A,B) mit S�1 = M(B,A) nach Bemerkung 3.4.20. Mit Theorem 4.2.1und Korollar 4.2.2 folgt dann:

det(M(B, F,B)) = det(S)�1det(M(A, F,A))det(S) = det(M(A, F,A)).

2

Definition 4.3.2Es sei V ein endlich dimensionaler Vektorraum uber K und A eine Basis von

V . Wir definieren die Determinante det : EndK(V ) ! K durch det(F ) :=det(M(A, F,A)) fur alle F 2 EndK(V ). Falls dimKV = 0, setzen wir det(F ) := 1fur alle F 2 EndK(V ).

Laut Proposition 4.3.1 ist die Definition unabhangig von der Wahl von A.

Bemerkung 4.3.3det : EndK(V )! K in Definition 4.3.2 kann ohne Basiswahl wie folgt definiert werden,

wenn dimKV > 0: Man setzt

⇤mV ⇤ :=

↵ : V ⇥ · · ·⇥ V| {z }

m�mal

! K�

↵ ist multilinear und alternierend, d.h.↵(v1, . . . , vm) = 0, falls vi = vj fur i 6= j

und zeigt

• ⇤mV ⇤ tragt eine naturliche K-Vektorraum-Struktur.

• Fur jedes F 2 EndK(V ) und jedes ↵ 2 ⇤mV ⇤ gilt:

(F ⇤↵)(v1, . . . , vm) := ↵(F (v1), . . . , F (vm))

fur v1, . . . , vm 2 V definiert F ⇤↵ 2 ⇤mV ⇤.

• Falls m = n = dimK(V ), dann ist dimK(⇤nV ⇤) = 1, und fur jedes F 2 EndK(V )und jedes ↵ 2 ⇤nV ⇤ gilt F ⇤↵ = det(F ) · ↵ , was man umgekehrt als Definition vondet(F ) verwenden kann.

Satz 4.3.4V sei ein endlich dimensionaler K-Vektorraum. Dann gilt fur alle F, G 2 EndK(V ):

det(F �G) = det(F ) · det(G)

Beweis: klar fur n = 0; sonst:

107

Page 108: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

A sei eine Basis von V , dann gilt:

det(F �G)Def. 4.3.2

= det(M(A, F �G,A))Bem. 3.4.20

= det(M(A, F,A) ·M(A, G,A))Thm. 4.2.1

= det(M(A, F,A)) · det(M(A, G,A))Def. 4.3.2

= det(F ) · det(G).

2

Erinnerung:Fur A 2 MatR(n⇥n) ist |det(A)| der

”Verzerrungsfaktor“ unter FA : Rn ! Rn, x 7! Ax.

Hat auch das Vorzeichen von det(A) eine geometrische Bedeutung?Anhaltspunkt: Falls A = (a1, . . . , an), dann gilt

8� 2 Sn : det(a�(1), . . . , a�(n))Prop. 4.1.2

= sign(�)det(A).

Das heißt, das Vorzeichen der Determinante hangt von der Reihenfolge der Spaltenvek-toren ab, wovon wiederum der

”Verzerrungsfaktor“ |det(A)| unabhangig ist.

Definition 4.3.5Es sei K ⇢ R, und V sei ein n-dimensionaler K-Vektorraum mit n � 1. Dann gilt:

(1) F 2 EndK(V ) heißt orientierungstreu oder orientierungserhaltend,falls det(F ) > 0.

(2) Zwei Basen A und B von V heißen gleich orientiert, falls fur die Basis-wechselmatrix M(B,A) aus Definition 3.4.16 gilt: det M(B,A) > 0. Andernfallsheißen die Basen entgegengesetzt orientiert.

Beispiele:

(1) orientierungserhaltend:

– id 2 EndK(V ) (denn M(A, id,A) = En, det En = 1 fur jede Basis A von V ).

– FA 2 EndR(R2) mit A =

�1 00 �1

oder A =

0 1�1 0

oder (mit ' 2 R)

A =

cos' � sin'sin' cos'

.

nicht orientierungserhaltend:

– FA 2 EndR(R2), A =

�1 00 1

oder A =

0 11 0

.

– FA 2 EndR(R3), A = �E3.

(2) Jede Basis (e�(1), . . . , e�(n)) mit � 2 An ist gleich orientiert wie die Standardbasisvon Rn.

Beobachtung:Fur K und V wie in Definition 4.3.5 ist

”gleich orientiert sein“ eine Aquivalenzrelation

auf der Menge M aller Basen von V . M zerfallt also in zwei (disjunkte) Klassen.

108

Page 109: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Definition 4.3.6

(1) Es sei K ⇢ R und V ein K-Vektorraum mit n = dimK(V ) 2 N\{0}. EineOrientierung von V ist eine Aquivalenzklasse gleich orientierter Basen. DieBasen in dieser Aquivalenzklasse heißen dann positiv orientiert, die in deranderen Aquivalenzklasse heißen negativ orientiert.

(2) Die Aquivalenzklasse aller Basen von Rn, die gleich orientiert sind wie die Stan-dardbasis, heißt Standardorientierung.

Bemerkung 4.3.7

(1) Ist K = R und V ein n-dimensionaler R-Vektorraum mit n 2 N\{0}, dann sindzwei Basen A,B von V genau dann gleich orientiert, wenn sie stetig in einanderdeformierbar sind, d.h. (s. Analysis) es gibt eine stetige Abbildung F : [0, 1] !MatR(n ⇥ n) mit F (0) = En und F (1) = M(B,A), und so dass fur jedes t 2 [0, 1]gilt: F (t) = M(B(t),A), wobei B(t) eine Basis von V ist. Insbesondere gilt alsodet F (t) > 0 fur alle t 2 [0, 1], und die Basen B(t) von V sind alle gleich orientiert.

(2) Ist K = C und V ein n-dimensionaler C-Vektorraum mit n 2 N\{0}, dann sind jezwei beliebige Basen A,B von V stetig in einander deformierbar.

Hier, und fur allgemeine Korper K, hat man also keinen so hubschen”Zerfall in

zwei Aquivalenzklassen“.

4.4 Charakteristische Polynome, Eigenwerte und Diagonalisier-barkeit

Als nachstes verfolgen wir das folgende naturliche Anliegen:Gegeben F 2 EndK(V ) fur V , einen endlich-dimensionalen K-Vektorraum, suchen wireine Basis A von V , so dass M(A, F,A) besonders einfache Gestalt hat. Zum Beispielware

M(A, F,A) =

0

B

@

�1 0. . .

0 �n

1

C

A

, �1, . . . ,�n 2 K ,

also mitA = (v1, . . . , vn) und F (vj) = �jvj fur alle j 2 {1, . . . , n}, sehr praktisch. So schoneinfach wird M(A, F,A) i.a. nicht sein; trotzdem suchen wir zuerst nach moglichst vielenVektoren vj, fur die F (vj) = �jvj mit �j 2 K gilt. Das ist auch deshalb ein nutzlichesUnterfangen, weil zum Beispiel viele Gleichungen in der Physik die Form F (x) = �x mit� 2 K haben.

109

Page 110: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Definition 4.4.1V sei ein K-Vektorraum und F 2 EndK(V ).

(1) x 2 V heißt Eigenvektor von F , falls gilt:

x 6= 0 und 9� 2 K mit F (x) = �x.

(2) � 2 K heißt Eigenwert von F , falls es einen Eigenvektor x 2 V von F gibtmit F (x) = �x. Dann heißt x Eigenvektor von F zum Eigenwert �.

(3) Fur � 2 K heißt Eig�(F ) := {x 2 V | F (x) = �x} der Eigenraum von F zumEigenwert �.

Die englische Ubersetzung von Eigenvektor/Eigenwert lautet”eigenvector/eigenvalue“ –

dabei wird das Wort einfach aus dem Deutschen (nach David Hilbert) ubernommen undhat nichts mit dem Physiko-Chemiker und Nobelpreistrager Manfred Eigen zu tun.

Man beachte:Mit obiger Definition gilt 8� 2 K : 0 2 Eig�(F ), aber 0 ist kein Eigenvektor von F .

Satz 4.4.2Es sei V ein K-Vektorraum und F 2 EndK(V ). Dann gilt fur alle � 2 K:

(1) Eig�(F ) ⇢ V ist ein Untervektorraum.

(2) Eig�(F ) \ {0} = {Eigenvektoren von F zum Eigenwert �}.

(3) � ist Eigenwert von F , Eig�(F ) 6= {0}.

(4) Eig�(F ) = ker(F � �id).

(5) 8�1,�2 2 K : �1 6= �2 ) Eig�1

(F )T

Eig�2

(F ) = {0}.

Beweis:(2) – (4) folgen unmittelbar aus der Definition (insbesondere (4):

x 2 Eig�(F ) , F (x) = �x, (F � � · id)x = 0 , x 2 ker(F � � · id)).

(1) folgt aus (4), da F �� · id eine lineare Abbildung ist und nach Lemma 3.3.3 der Kernjeder linearen Abbildung F 2 HomK(V, W ) ein Untervektorraum von V ist.(5) Falls x 2 Eig�

1

(F )T

Eig�2

(F ), dann folgt

�1x = F (x) = �2x ) (�1 � �2)x = 0�1

��2

6=0) x = 0.

2

110

Page 111: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Bemerkung:Satz 4.4.2(5) besagt: Je zwei Eigenvektoren von F zu unterschiedlichen Eigenwerten sindlinear unabhangig.

Korollar 4.4.3Ist V ein K-Vektorraum, F 2 EndK(V ), und sind v1, . . . , vr 2 V Eigenvektoren von

F zu paarweise verschiedenen Eigenwerten �1, . . . ,�r 2 K, dann ist (v1, . . . , vr) linearunabhangig.

Beweis: Induktion uber r (Ubung). 2

Beispiel:

Es sei F 2 EndR(R2) mit F

xy

:=

�x + 3y3x� y

. Wir suchen Eigenwerte und Eigenvek-

toren von F :

F

xy

= �

xy

,⇢

�x + 3y = �x,3x� y = �y.

Das Gleichungssystem hat einen ganz neuen Aspekt: Neben x, y 2 R ist auch � unbekannt,und außerdem interessiert uns die triviale Losung x = y = 0, die es fur jedes beliebige� 2 R gibt, nicht!Umformung des Gleichungssystemes:

(�+ 1)x� 3y = 0

3x� (�+ 1)y = 0

)

) (�9 + (�+ 1)2)y = 0.

Da wir nach Losungen

xy

6= 0 suchen, folgt � 2 {2,�4}, wobei

Eig2(F ) = spanR

⇢✓

11

◆�

, Eig�4(F ) = spanR

⇢✓

1�1

◆�

.

Allgemein:

� ist Eigenwert von FSatz 4.4.2, ker(F � �id) 6= {0},

und fur endlich dimensionale V und F 2 EndK(V ) ist (z.B. wegen der Dimensionsformel3.3.7) aquivalent: F � �id ist nicht invertierbar, also det(F � �id) = 0 nach Theorem4.1.7.In unserem Beispiel:

Die darstellende Matrix von F bezuglich der Standardbasis ist

�1 33 �1

, also gilt fur

jedes � 2 K:

det(F � �id) = det

�1� � 33 �1� �

= (�+ 1)2 � 9

mit Nullstellen � 2 {2,�4}.

111

Page 112: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Definition 4.4.4Es sei V ein n-dimensionaler K-Vektorraum, n 2 N \ {0}, und F 2 EndK(V ). A seieine Basis von V und A = M(A, F,A) = (aij) 2 MatK(n⇥ n). Dann heißt

�F (�) := det(A� �En) =X

�2Sn

sign(�)nY

j=1

(aj�(j) � ��j�(j)) 2 K[�]

charakteristisches Polynom von F .

Bemerkung:

(1) Da En = M(A, id,A) fur jede Basis A von V , also A � �En = M(A, F � �id,A),und wegen Proposition 4.3.1 ist �F (�) durch F eindeutig bestimmt. �F 2 K[�]folgt, da alle aj�(j) � ��j�(j) 2 K[�], sign(�) 2 K als konstantes Polynom ebenfallsals Element von K[�] aufgefasst werden kann, und weil K[�] ein (kommutativer)Ring ist (Lemma 2.3.19).

(2) �F 2 K[�] definiert eine Abbildung �F : K ! K (vgl. Definition 2.3.18), und fur� 2 K gilt:

�F (�) = 0 , det(F � � · id) = 0

, ker(F � �id) 6= {0}, � ist Eigenwert von F .

Mit anderen Worten:

Satz 4.4.5Es sei V ein endlich dimensionaler K-Vektorraum mit dimK(V ) > 0 und F 2

EndK(V ). Dann gilt:

(1) F besitzt ein eindeutig bestimmtes charakteristisches Polynom �F 2 K[�].

(2) Die Nullstellen von �F sind genau die Eigenwerte von F .

Bemerkung 4.4.6 (Aufgabe 12)Der Formel aus Definition 4.4.4 entnimmt man unmittelbar:

Fur F 2 EndK(V ) mit n = dimKV > 0, A := M(A, F,A) = (aij) fur irgendeine Basis Avon V , ist �F (�) =

nP

j=0cj�j ein Polynom vom Grad n mit

• cn = (�1)n 6= 0,

• c0 = �F (0) =P

�2Sn

sign(�)nQ

j=1aj�(j) = det(A) = det(F ),

112

Page 113: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

• cn�1 = (�1)n�1nP

j=1ajj =: (�1)n�1 · tr(A).

Dabei ist tr(A) =nP

j=1ajj die sogenannte Spur von A (englisch:

”trace“).

Folgerung:

Die Spur tr(F ) := tr(M(A, F,A)) von F ist unabhangig von der Wahl der BasisA, da �F es ist.

Zuruck zur ursprunglichen Frage:Konnen wir zu gegebenem F 2 EndK(V ) eine Basis A von V finden, so dass A =M(A, F,A)

”besonders einfach“ aussieht? Zum Beispiel eine Basis aus Eigenvektoren?

Hat jedes F 2 EndK(V ) Eigenvektoren? Wegen Satz 4.4.5 ist aquivalent: Hat jedes �F 2K[�] Nullstellen?Erinnerung (Definition 2.3.23 und Fundamentalsatz der Algebra 2.3.24)

• K ist algebraisch abgeschlossen, genau wenn jedes p 2 K[x] mit M = deg(p) > 0in Linearfaktoren zerfallt, d.h. es existieren b1, . . . , bM , aM 2 K, so dass

p(x) = aM

MY

j=1

(x� bj).

• C ist algebraisch abgeschlossen.

Korollar 4.4.7Es sei K ein algebraisch abgeschlossener Korper, V ein endlich dimensionaler K-

Vektorraum mit dimK(V ) > 0 und F 2 EndK(V ). Dann besitzt F mindestens einenEigenvektor x 2 V .

Beispiel:

V = R2 mit K = R und F = FA, A = 1p

2

1 �11 1

(das ist eine 45�-Drehung);

R ist nicht algebraisch abgeschlossen.Bestimmung von Eigenwerten von F :

�F (�) = det

1p

2� � � 1

p

21p

21p

2� �

!

=⇣

1p

2� �

⌘2+ 1

2 = 1�p

2�+ �2

mit Nullstellen � = 1p

2+q

12 � 1 /2 R, Eigenvektoren in R2 gibt es daher nicht.

Fasst man aber A als Matrix eA 2 MatC(2⇥ 2) auf, untersucht also eF := F eA 2 EndC(C2),

dann hat eF Eigenwerte �±

= 1±ip

22 C und zugehorige Eigenvektoren x

±

=

1± i1⌥ i

2 C2.

Und wann genau gibt es fur einen gegebenen Endomorphismus eine Basis aus Eigenvek-toren?

113

Page 114: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Definition 4.4.8Es sei V ein endlich dimensionaler K-Vektorraum. F 2 EndK(V ) heißt diago-

nalisierbar, falls es in V eine Basis A = (v1, . . . , vn) aus Eigenvektoren von Fgibt.

Klar:Ist A = (v1, . . . , vn) eine Basis von V aus Eigenvektoren von F 2 EndK(V ), also

F (vj) = �jvj mit �j 2 K fur j 2 {1, . . . , n},

dann ist

M(A, F,A) =

0

B

@

�1 0. . .

0 �n

1

C

A

tatsachlich besonders einfach; solche Basen existieren nicht immer, z.B. fur F = FA 2

EndC(C2), A =

1 10 1

erhalten wir �F (�) = (�� 1)2, d.h. einziger Eigenwert von F ist

� = 1 mit

Eig1(F ) = ker(A� E2) = ker

✓✓

0 10 0

◆◆

= spanC{e1} $ C2.

Definition 4.4.9Es sei V ein endlich dimensionaler K-Vektorraum mit dimK(V ) > 0 und F 2

EndK(V ) sowie �F 2 K[�] das charakteristische Polynom von F . �1, . . . ,�r 2 Kseien die paarweise verschiedenen Nullstellen von �F , und

�F (�) =rY

j=1

(�� �j)µjQ(�)

mit µ1, . . . , µr 2 N \ {0} und Q 2 K[�], so dass Q keine Nullstellen hat.Dann heißt fur j 2 {1, . . . , r} die Nullstellenordnung µj von �j algebraische

Multiplizitat von �j, µj = µ(�j), und ⌫j := ⌫(�j) := dimK

Eig�j(F )

heißt

geometrische Multiplizitat von �j.

Satz 4.4.10Es sei V ein endlich dimensionaler K-Vektorraum, F 2 EndK(V ) und �

2 K einEigenwert von F . Dann gilt:

geometrische Multiplizitat ⌫(�⇤

) µ(�⇤

) algebraische Multiplizitat.

114

Page 115: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beweis:Nach Voraussetzung ist �

Eigenwert von F , also

1 dimK

Eig�⇤(F )�

= ⌫(�⇤

) =: ⌫ .

(v1, . . . , v⌫) sei eine Basis von Eig�⇤(F ), die nach dem Basiserganzungssatz 3.2.11 zu einerBasis A = (v1, . . . , v⌫ , v⌫+1, . . . , vn) von V erganzt werden kann. Nach Konstruktion giltdann:

M(A, F,A) =

0

B

B

B

@

�⇤

0

0. . . ⇤

�⇤

0 · · · 0 C| {z }

1

C

C

C

A

mit C 2 MatK ((n� ⌫)⇥ (n� ⌫)) ,

also

�F (�)Aufgabe 8

= det

0

B

@

�⇤

� � 0

0. . .

�⇤

� �

1

C

A

| {z }

·det(C � �En�⌫)

Prop. 4.1.3= (�

� �)⌫ · p(�)

mit p 2 K[�]. Die Behauptung folgt also sofort aus Definition 4.4.9.2

Im letzten Schritt vom Beweis des obigen Satzes 4.4.10 wird auch klar: Falls fur irgendei-nen Eigenwert �

von F die geometrische Multiplizitat ⌫(�⇤

) echt kleiner ist als die alge-braische Multiplizitat µ(�

), dann kann F nicht diagonalisierbar sein. Dann hat namlich(mit den Bezeichungen aus dem Beweis) p(�) eine Nullstelle in � = �

, die nicht zu einemEigenvektor von F gehort, da die Beitrage von Eig�⇤(F ) zu �F (�) schon komplett imVorfaktor (�

� �)⌫ erfasst sind.Man kann auch folgendermaßen argumentieren:Ist F diagonalisierbar, dann muss fur die paarweise verschiedenen Eigenwerte �1, . . . ,�r

von F gelten: V =rL

j=1Eig�j

(F ) (dass die Eigenraume eine direkte Summe bilden, haben

Sie in Aufgabe 18 gezeigt, und es folgt aus Korollar 4.4.3), also n = dimK(V ) =rP

j=1⌫(�j).

Dann zerfallt das charakteristische Polynom von F in Linearfaktoren, und sein Grad ist

nach Bemerkung 4.4.6 durch n =rP

j=1µ(�j) gegeben. Daher folgt aus ⌫(�j) µ(�j) fur

alle j 2 {1, . . . , r} nach Satz 4.4.10 schon ⌫(�j) = µ(�j) fur alle j 2 {1, . . . , r}.

Bemerkung 4.4.11Aus dem bisher Gesagten folgt sofort fur jedes F 2 EndK(V ) mit endlich dimensionalemK-Vektorraum V und dimK(V ) > 0, dass die folgenden Aussagen aquivalent sind:

(1) F ist diagonalisierbar.

115

Page 116: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(2) Es gibt eine Basis A von V , so dass

M(A, F,A) =

0

B

@

�1 0. . .

0 �n

1

C

A

mit �1, . . . ,�n 2 K.

(3) Das charakteristische Polynom von F zerfallt in Linearfaktoren, und fur jeden Ei-genwert �

von F gilt:

geometrische Multiplizitat ⌫(�⇤

) = µ(�⇤

) algebraische Multiplizitat.

(4) Sind �1, . . . ,�r 2 K die paarweise verschiedenen Eigenwerte von F , dann gilt:

V = Eig�1

(F )� · · ·� Eig�r(F ).

Korollar 4.4.12V sei ein endlich dimensionaler K-Vektorraum, und F 2 EndK(V ) habe n =

dimK(V ) paarweise verschiedene Eigenwerte �1, . . . ,�n 2 K. Dann ist F diagona-lisierbar.

Beweis:Aus Korollar 4.4.3 folgt, dass die Eigenraume von F eine direkte Summe bilden (Aufgabe

18), d.h. fur den UnterraumnL

j=1Eig�j

(F ) von V folgt

n = dimK(V ) � dimK

nM

j=1

Eig�j(F )

!

Satz 3.3.9=

nX

j=1

dimK

Eig�j(F )

| {z }

�1

� n ,

also sind alle obigen Ungleichungen Gleichungen, so dassnL

j=1Eig�j

(F ) = V , und darausfolgt sofort die Behauptung mit Bemerkung 4.4.11. 2

Fazit:Nicht jeder Endomorphismus auf einem endlich dimensionalen Vektorraum ist diago-nalisierbar; wir sollten spezielle Beispielklassen auszeichnen, die diagonalisierbar sind,zumindest wenn K = K.In der Praxis ist aber schon

”Trigonalisierbarkeit“ sehr nutzlich:

Definition 4.4.13Es sei V ein endlich dimensionaler K-Vektorraum und F 2 EndK(V ). F heißt

trigonalisierbar, falls es eine Basis A von V gibt, so dass M(A, F,A) eine obereDreiecksmatrix ist.

116

Page 117: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Trigonalisierbarkeit gilt immer uber dem algebraischen Abschluss von K, genauer immerdann, wenn das charakteristische Polynom in Linearfaktoren zerfallt:

Theorem 4.4.14Es sei V ein endlich dimensionaler K-Vektorraum mit n := dim(V ) > 0 und F 2

EndK(V ). Dann sind folgende Aussagen aquivalent:

(1) F ist trigonalisierbar.

(2) Das charakteristische Polynom �F von F zerfallt in Linearfaktoren.

Beweis:

”(1) ) (2)“

Folgt sofort aus Definition 4.4.13, Definition 4.4.4 und Proposition 4.1.3, da mit A 2MatK(n ⇥ n) auch A � �En eine obere Dreiecksmatrix ist, d.h. falls A = (aij) obereDreiecksform hat, dann folgt

�F (�) =nY

j=1

(ajj � �) ,

womit eine Zerlegung von �F in Linearfaktoren gefunden ist.

”(2) ) (1)“

Beweis durch Induktion uber n = dimK(V ).Indunktionsanfang (n = 1)Wenn dimK(V ) = 1, dann gilt bzgl. jeder Basis A von V , dass M(A, F,A) eine obereDreiecksmatrix ist, d.h. (1) folgt direkt.Induktionsannahme (n)Fur jeden K-Vektorraum W mit 0 < dimKW n gelte: Falls F 2 EndK(W ) und �F inLinearfaktoren zerfallt, dann ist F trigonalisierbar.Induktionsschluss (n! n + 1)Es sei V ein K-Vektorraum, dimKV = n + 1, F 2 EndK(V ), und �F zerfalle in Linear-faktoren. Nach Satz 4.4.5 besitzt F also einen Eigenvektor vn+1 2 V , F (vn+1) = �

vn+1

mit �⇤

2 K.A = (v1, v2, . . . , vn+1) sei eine Basis von V (existiert nach Basiserganzungssatz 3.2.11),

W := spanK{v1, . . . , vn}

mit Basis B := (v1, . . . , vn).Idee 0: Anwendung der Induktionsannahme auf F

|W .Problem 1: Im allgemeinen gilt F

|W /2 EndK(W );

dazu: Mit A := M(A, F,A) = (aij), also F (vj) =n+1P

i=1aijvi fur alle j 2 {1, . . . , n + 1}, sei

F 2 EndK(W ) die eindeutig bestimmte lineare Abbildung mit

8j 2 {1, . . . , n} : F (vj) :=nX

i=1

aijvi.

117

Page 118: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Nach Konstruktion gilt also:

8w 2 W : F (w)� F (w) 2 SpanK{vn+1}. (⇤)

Idee 1: Anwendung der Induktionsannahme auf F .Problem 2: Wir mussen zeigen, dass �F in Linearfaktoren zerfallt;dazu: B := M(B, F ,B) = (aij)1in

1jnnach Konstruktion, und

A =

B 0⇤ �

,

also

�F (�) =X

�2Sn+1

sign(�)n+1Y

j=1

a�(j)j � ���(j)j

mit a�(n+1)n+1 � ���(n+1)n 6= 0 nur wenn �(n + 1) = n + 1, d.h. wenn � 2 Sn ⇢ Sn+1. Esfolgt

�F (�) =X

�2Sn

sign(�)nY

j=1

a�(j)j � ���(j)j

· (�⇤

� �) = (�⇤

� �) · �F (�) ;

da �F nach Voraussetzung in Linearfaktoren zerfallt, folgt dies auch fur �F . Die Indukti-onsannahme kann somit auf F 2 EndK(W ) angewandt werden: W besitzt demnach eineBasis B, so dass B = M(B, F , B) eine obere Dreiecksmatrix ist; wegen (⇤) liefert danndie neue Basis A := (vn+1, B) von V als darstellende Matrix

M(A, F, A) =

�⇤

⇤0 B

,

eine obere Dreiecksmatrix. 2

Bemerkung 4.4.15Jede Matrix A 2 MatR(n ⇥ n) kann auch als Matrix mit Koe�zienten in C aufgefasst

werden, denn R ⇢ C. Mit anderen Worten:

EndR(Rn) ⇠= MatR(n⇥ n) ⇢ MatC(n⇥ n) ⇠= EndC(Cn).

In der Tat, Rn ⇢ Cn, wobei Cn als C-Vektorraum dieselbe Standardbasis hat wie Rn, undF 2 EndC(Cn) ist ja nach Theorem 3.3.4 eindeutig bestimmt durch F (e1), . . . , F (en) 2Rn ⇢ Cn. Dies definiert die C-lineare Fortsetzung von F 2 EndR(Rn) zu ei-nem Endomorphismus F 2 EndC(Cn). Analog kann jeder R-Vektorraum V zu einemC-Vektorraum V C

”komplexifiziert“ werden mit V ⇢ V C, dimR(V ) = dimC(V C) und

EndR(V ) ⇢ EndC(V C), namlich durch “lineare Fortsetzung” (wenn (vi)i2I eine Ba-sis von V ist, dann konstruiere V C als C-Vektorraum mit Basis (vi)i2I). Analog kanndurch lineare Fortsetzung auch jeder K-Vektorraum V als K-Untervektorraum eines K-Vektorraumes V K aufgefasst werden, wobei K den algebraischen Abschluss von K be-zeichnet (vgl. die Bemerkungen zu Definition 2.3.23), mit dimK(V ) = dimK(V K) undEndK(V ) ⇢ EndK(V K). Fur F 2 EndK(V ) kann also das charakteristische Polynom �F

als Polynom in K[�] aufgefasst werden, wo es in Linearfaktoren zerfallt, und als cha-rakteristisches Polynom der linearen Fortsetzung von F zu einem Endomorphismus ausEndK(V K) interpretiert werden.

118

Page 119: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beispiel (vgl. das Beispiel zu Korollar 4.4.7):

V = R2, K = R, F = FA mit A = 1p

2

1 �11 1

, �F (�) = 1�p

2�+ �2. Das charakteri-

stische Polynom �F hat in R keine Nullstellen, aber mit K = C, V K = C2, hat �F 2 C[�]Nullstellen

�±

=1± ip

2, �F (�) = (�+ � �)(�

� �) .

Insbesondere ist FA uber C trigonalisierbar, aber nicht uber R; nach Korollar 4.4.12 istFA uber C sogar diagonalisierbar.

Beobachtung:F 2 EndK(V ) mit endlich dimensionalem K-Vektorraum V habe einen Eigenvektor x 2V , F (x) = �

x,�⇤

2 K. Dann gilt

F j(x) := F � · · · � F| {z }

j mal

(x) = �j⇤

· x ,

d.h. wenn �F (�) =nP

j=0cj�j, dann folgt

nP

j=0cjF j(x) = �F (�

)| {z }

=0

·x = 0. Um diese Beobach-

tung zu systematisieren, setzen wir �F (F ) :=nP

j=0cjF j:

Definition 4.4.16Es sei V ein K-Vektorraum; wir definieren die Einsetzungsabbildung K[�] ⇥

EndK(V )! EndK(V ), (p, F ) 7! p(F ) wie folgt: Fur p 2 K[�] mit

p(�) =nX

j=0

cj�j

und F 2 EndK(V ) setzen wir

p(F ) :=nX

j=0

cjFj 2 EndK(V ) mit F j = F � · · · � F

| {z }

j mal

, wobei F 0 := idV .

Mit Bezeichnungen wie in Definition 4.4.16 gilt fur alle p, q 2 K[�] und F 2 EndK(V ):(p · q)(F ) = p(F ) � q(F ) (Ubung!).

Satz 4.4.17 (Satz von Cayley-Hamilton)Es sei V ein n-dimensionaler K-Vektorraum, n 2 N \ {0}, F 2 EndK(V ) und�F 2 K[�] sei das charakteristische Polynom von F . Dann gilt �F (F ) = 0.

(nach [Arthur Cayley, 1821–1895] und [William R. Hamilton, 1805–1865])

119

Page 120: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beweis:Durch Ubergang zu V K wie in Bemerkung 4.4.15 arbeiten wir ab sofort uber einemalgebraisch abgeschlossenen Korper K, d.h. �F zerfallt in Linearfaktoren, und F 2EndK(V K). Nach Theorem 4.4.14 ist F also trigonalisierbar,

M(A, F,A) = (aij) =

0

B

@

a11 ⇤. . .

0 ann

1

C

A

(⇤)

fur eine geeignete BasisA = (v1, . . . , vn) von V K . Wir definieren Vj := spanK{v1, . . . , vj} ⇢V K fur j 2 {1, . . . , n}, also

V0 := {0} ⇢ V1 ⇢ · · · ⇢ Vn = V K ,

und nach (⇤) gilt fur alle j 2 {1, . . . , n}: (ajj · id � F )(Vj) ⇢ Vj�1. Andererseits gilt fur

das charakteristische Polynom �F (�)(⇤)=

nQ

j=1(ajj � �), so dass insgesamt

�F (F )(V K) = (a11 · id� F ) � · · · � (an�1,n�1 · id� F ) � (ann · id� F )(Vn)| {z }

⇢Vn�1

| {z }

··· ⇢Vn�2

| {z }

⇢V0

={0}

,

also �F (F ) = 0. 2

Vorsicht:Fur G 2 EndK(V ) haben wir mit Definition 4.4.16 die Abbildung �F (G) 2 EndK(V )definiert, dies hat aber nichts mit det(F �G) zu tun – wahrend �F (G) 2 EndK(V ), giltdet(F �G) 2 K.

Beispiel:

Fur K = C und V = C2 betrachten wir F = FA mit A =

1 10 1

, und G = FB,

B =

0 11 0

; �F (�) = (1� �)2 = 1� 2�+ �2, also �F (G) = id� 2G + G2 = FC ,

C =

1 00 1

� 2

0 11 0

+

1 00 1

=

2 �2�2 2

.

Andererseits haben wir det(F �G) = det

1 0�1 1

= 1.

Wert des Satzes von Cayley-Hamilton:Er liefert eine algebraische Charakterisierung von F via �F (F ) = 0. Es geht aber nochbesser: Im allgemeinen gibt es ein Polynom QF 6= 0 kleineren Grades als �F mit QF (F ) =0, das

”Minimalpolynom“; wir kommen spater darauf zuruck – und darauf, ob es fur

beliebige F 2 EndK(V ) im Fall K = K noch”bessere“ Basen A von V gibt, so dass

120

Page 121: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

in M(A, F,A) nicht nur unterhalb der Diagonalen alle Eintrage verschwinden, sondernauch oberhalb der Nebendiagonalen.

Als nachstes werden wir nun spezielle Endomorphismen suchen, die diagonalisierbar sind.Um diese zu charakterisieren, fuhren wir geeignete Zusatzbedingungen und Zusatzstruk-turen ein:

5 Euklidische und unitare Vektorraume

Auf (einigen) Vektorraumen scha↵en wir jetzt namlich zusatzlich die Moglichkeit,”Langen“

und”Winkel“ – oder Verallgemeinerungen davon – zu messen. Das kennen alle aus der

Schule, von R2 und R3. Zur Erinnerung und Vorbereitung der spateren, abstrakterenHerangehensweise besprechen wir diese Spezialfalle jetzt nochmal ausfuhrlich:

5.1 Der Rn mit Euklidischem Skalarprodukt

Im Folgenden sei immer n 2 N.

Definition 5.1.1

Fur V = Rn, x =

0

B

@

x1...

xn

1

C

A

, y =

0

B

@

y1...yn

1

C

A

2 Rn bezeichnet

(1)

hx, yi :=nX

j=1

xjyj = T x · y 2 R das Euklidische Skalarprodukt,

(2)

||x|| :=

v

u

u

t

nX

j=1

x2j =p

T x · x 2 R die Euklidische Norm,

(3) d(x, y) := ||x� y|| 2 R den Euklidischen Abstand.

Beobachtung 5.1.2h·, ·i, || · || und d(·, ·) aus Definition 5.1.1 haben die folgenden Eigenschaften:

(1) 8x, y, z 2 Rn, 8� 2 R:

hx + �y, zi = hx, zi+ �hy, zi,hx, y + �zi = hx, yi+ �hx, zi,

d.h. h·, ·i : Rn ⇥ Rn ! R ist eine Bilinearform (vgl. Definition 1.5.3).

(2) 8x 2 Rn, 8� 2 R : ||�x|| = |�| · ||x||;man sagt: || · || : Rn ! R ist halblinear.

121

Page 122: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(3) 8x, y 2 Rn: hx, yi = hy, xi und d(x, y) = d(y, x), d.h. h·, ·i : Rn ⇥ Rn ! R undd : Rn ⇥ Rn ! R sind symmetrisch laut Definition 1.5.1.

(4) 8x, y 2 Rn:

hx, xi = ||x||2 � 0 mit hx, xi = 0 genau wenn x = 0

d(x, y) � 0 mit d(x, y) = 0 genau wenn x = y ;

man sagt: h·, ·i, || · || und d(·, ·) sind positiv definit.

(5) 8x, y 2 Rn:||x + y||2 = ||x||2 + ||y||2 + 2hx, yi,d(x, y)2 = d(x, 0)2 + d(y, 0)2 � 2hx, yi

heißt Satz des Pythagoras.

(6) 8x, y, z 2 Rn:

||x + y|| ||x||+ ||y||, d(x, z) d(x, y) + d(y, z)

heißt Dreiecksungleichung und wird spater noch bewiesen.

Naturliche Fragen:Wenn

”Langenmessung“ etwas Naturliches ist – wie vertragen sich lineare Abbildungen

auf Rn mit der Langenmessung? Wie sehen Langen-erhaltende Abbildungen aus?Wir werden sehen: Sie sind automatisch lineare Abbildungen mit besonders einfacherStruktur!

Definition 5.1.3

(1) x, y 2 Rn heißen orthogonal zu einander (Notation: x ? y), falls hx, yi = 0.

(2) Eine Orthonormalbasis (ONB) von Rn ist eine Basis (v1, . . . , vn) von Rn

mit hvi, vji = �ij fur alle i, j 2 {0, . . . , n}.

(3) Eine orthogonale Abbildung auf Rn ist eine Abbildung

F 2 Abb(Rn, Rn) = {Abbildungen Rn ! Rn}

mit F (0) = 0 und so dass F Abstand erhaltend ist, d.h. fur alle x, y 2 Rn

gilt: d(x, y) = d(F (x), F (y)).

Lemma 5.1.4Es sei G 2 Abb(Rn, Rn) = {Abbildungen Rn ! Rn}. Dann gilt:

G ist Abstand erhaltend, also 8x, y 2 Rn : d(x, y) = d(G(x), G(y)), genau wenn einc 2 Rn und eine orthogonale Abbildung F 2 Abb(Rn, Rn) existieren mit

8x 2 Rn : G(x) = F (x) + c.

122

Page 123: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beweis:

”)“

Mit Abstand erhaltendem G 2 Abb(Rn, Rn) sowie c := G(0), F (x) := G(x)� c 8x 2 Rn

folgt nach Konstruktion F (0) = G(0)� c = 0, und

8x, y 2 Rn : d(F (x), F (y)) = ||F (x)� F (y)||= ||G(x)�G(y)||

G ist Abstand erhaltend= d(G(x), G(y))= d(x, y) ,

d.h. F ist orthogonal.

”(“

Fur c 2 Rn, F orthogonal und G(x) = F (x) + c 8x 2 Rn folgt mit dergleichen Rechnungwie oben, dass G Abstand erhaltend ist. 2

Definition 5.1.5Fur c 2 Rn heißt tc : Rn ! Rn, x 7! x + c, die Translation um c.

Somit besagt Lemma 5.1.4:Die Abstand erhaltenden Abbildungen sind genau die Kompositionen von orthogonalenAbbildungen mit Translationen.

Lemma 5.1.6Es sei F 2 Abb(Rn, Rn). Dann sind aquivalent:

(1) F ist orthogonal.

(2) 8x, y 2 Rn : hF (x), F (y)i = hx, yi.

(3) F ist linear und bildet jede Orthonormalbasis von Rn auf eine Orthonormalbasisvon Rn ab.

(4) F ist linear, und es gibt eine Orthonormalbasis von Rn, die unter F auf eineOrthonormalbasis abgebildet wird.

Beweis:

”(1) ) (2)“

F 2 Abb(Rn, Rn) sei orthogonal;

8x, y 2 Rn : hF (x), F (y)i 5.1.2(5)= 1

2(d(F (x), 0)2 + d(F (y), 0)2 � d(F (x), F (y))2)F ist orthogonal

= 12(d(x, 0)2 + d(y, 0)2 � d(x, y)2)

5.1.2(5)= hx, yi.

2

123

Page 124: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

”(2) ) (3)“

F 2 Abb(Rn, Rn) erfulle (2), A = (v1, . . . , vn) sei eine Orthonormalbasis von Rn (z.B. dieStandardbasis), und es sei B = (w1, . . . , wn) mit wj = F (vj)8 j 2 {1, . . . , n}.(i) Behauptung: Die w1, . . . , wn sind paarweise orthogonal und auf Lange 1 normiert.Beweis:Fur alle i, j 2 {1, . . . , n} gilt:

hwi, wji = hF (vi), F (vj)i(2)= hvi, vji

A ist ONB= �ij .

2

(ii) Behauptung: B = (w1, . . . , wn) ist eine Orthonormalbasis von Rn.Beweis:Wir mussen wegen (i) nur noch zeigen, dass B linear unabhangig ist, denn jede linearunabhangige Familie aus n Vektoren im Rn ist eine Basis (s. Lemma 3.2.12).Sei also

0 =nX

j=1

�jwj mit �1, . . . ,�n 2 R,

dann folgt

8 i 2 {1, . . . , n} : 0 =

*

nX

j=1

�jwj, wi

+

=nX

j=1

�j hwj, wii| {z }

�ji

= �i

2

(iii) Behauptung: F ist linear.Beweis:Dazu seien x, x 2 Rn, � 2 R, beliebig,

z := F (x + �x)� F (x)� �F (x) ;

zu zeigen: z = 0.Da B = (w1, . . . , wn) nach (ii) eine Basis von Rn ist, folgt: Es existieren zj 2 R, so dass

z =nP

j=1zjwj, also fur alle j 2 {1, . . . , n}:

zjs.o.= hz, wji = hF (x + �x), F (vj)i � hF (x), F (vj)i � �hF (x), F (vj)i

(2)= hx + �x, vji � hx, vji � �hx, vji= 0,

also z =nP

j=1zjwj = 0. 2

”(3)) (4)“ ist klar, wobei die Existenz einer Orthonormalbasis von Rn bekannt ist, denn

wir haben ja die Standardbasis.

”(4) ) (1)“

Es sei F 2 EndR(Rn, Rn), A = (v1, . . . , vn) sei eine Orthonormalbasis von Rn, so dassB = (w1, . . . , wn) mit F (vj) = wj fur alle j 2 {1, . . . , n} ebenfalls eine Orthonormalbasisvon Rn ist.

124

Page 125: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

F (0) = 0 folgt aus der Linearitat von F (Lemma 3.3.3(1)).

Fur beliebige x, y 2 Rn sei z := x � y =nP

j=1zjvj mit zj 2 R (denn A ist Basis von Rn).

Da F linear ist, folgt F (z) =nP

j=1zjwj, also

d(F (x), F (y))2 = hF (x)� F (y), F (x)� F (y)iF linear

= hF (z), F (z)i s.o.=

nX

i,j=1

zizj hwi, wji| {z }

=�ij=hvi,vji

=nX

i,j=1

zizjhvi, vji = hz, zi = hx� y, x� yi = d(x, y)2.

2

Satz 5.1.7Es sei G 2 Abb(Rn, Rn) mit n > 0; dann gilt:

G ist Abstand erhaltend, genau wenn c 2 Rn und A 2 MatR(n⇥n) existieren, so dass

8x 2 Rn : G(x) = FA(x) + c, AT · A = En.

Beweis:Wegen Lemma 5.1.4 genugt es zu zeigen: Fur A 2 MatR(n⇥ n) ist FA orthogonal, genauwenn AT · A = En.Dazu:

FA ist orthogonalLemma 5.1.6, A = (a1, . . . , an) mit aj := FA(ej) fur j 2 {1, . . . , n}

ist eine Orthonormalbasis von Rn.Merkregel zu FA, Die Spaltenvektoren a1, . . . , an von A

bilden eine Orthonormalbasis A von Rn.

Def. 5.1.1+5.1.3,Beweisschritt

“(2) ) (3)”(ii) von 5.1.6

Fur die Spaltenvektoren a1, . . . , an von A gilt:

8 i, j 2 {1, . . . , n} : aTi · aj = �ij

, AT · A = En

2

Bemerkung:Spater werden wir die orthogonale Gruppe O(n) := {A 2 MatR(n⇥n)|AT ·A = En}und ihre Cousine U(n) := {A 2 MatC(n ⇥ n)|AT · A = En}, die unitare Gruppe,genauer untersuchen. Insbesondere werden wir fur A 2 MatC(n ⇥ n), n > 0, zeigen:FA 2 EndC(Cn, Cn) besitzt eine Orthonormalbasis aus Eigenvektoren und alle Eigenwertehaben Betrag 1, genau wenn A 2 U(n).

125

Page 126: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

5.2 Skalarprodukte und Hermitesche Produkte

Jetzt verallgemeinern wir unsere Beobachtungen vom Euklidischen Rn auf beliebige R-und C-Vektorraume, und noch ein wenig mehr:K sei im Folgenden ein Korper.

Erinnerung/Erganzung (Definition 1.5.3):Ist V ein K-Vektorraum, dann heißt eine Abbildung ↵ : V ⇥ V ! K mit

8x, x, y, y 2 V, � 2 K : ↵(x + �x, y) = ↵(x, y) + �↵(x, y) ,

↵(x, y + �y) = ↵(x, y) + �↵(x, y)

2-Linearform oder Bilinearform.Uber K = R ist das genau die Sorte Abbildung, die wir brauchen, uber K = C sieht esetwas anders aus:

Definition 5.2.1V und W seien C-Vektorraume.

(1) F : V ! W heißt semilinear, falls gilt:

(SL1) 8x, y 2 V : F (x + y) = F (x) + F (y),

(SL2) 8x 2 V,� 2 C : F (�x) = �F (x).

(2) s : V ⇥W ! C heißt sesquilinear (-Form), falls gilt:

8w 2 W : V ! C, x 7! s(x, w) ist linear,

und 8 v 2 V : W ! C, y 7! s(v, y) ist semilinear .

Vorsicht:Fur Sesquilinearformen findet man haufig Definitionen, in denen die Rollen der beidenEintrage im Vergleich zur obigen Definition 5.2.1 vertauscht sind.

Ubrigens konnten wir in Definition 5.2.1 und im Folgenden anstelle von K = C auchmit einem beliebigen Teilkorper K ⇢ C arbeiten - zur Vereinfachung der Darstellungschreiben wir das aber nirgends ausdrucklich aus.

Beispiel 5.2.2

(1) F : C3 ! C2,

0

@

xyz

1

A 7!✓

yx

ist semilinear.

(2) s : C3 ⇥ C2 ! C, s

0

@

0

@

xyz

1

A ,

ab

1

A = xa + zb ist bilinear.

126

Page 127: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(3) s : C3 ⇥ C2 ! C, s

0

@

0

@

xyz

1

A ,

ab

1

A = xa + zb ist sesquilinear.

(4) Standardbeispiele:”Euklidische Skalarprodukte“

auf Rn: h·, ·i : Rn ⇥ Rn ! R, hx, yi := xT · y =nP

j=1xjyj ist bilinear;

auf Cn: h·, ·i : Cn ⇥ Cn ! C, hx, yi := xT · y =nP

j=1xjyj ist sesquilinear;

die Euklidischen Skalarprodukte werden auch oft mit runden Klammern oder dickemPunkt notiert.

Definition 5.2.3Es sei V ein K-Vektorraum und s : V ⇥V ! K eine Bilinear- oder Sesquilinearform.B = (v1, . . . , vn) sei eine Basis von V , und fur alle i, j 2 {1, . . . , n} sei

bij := s(vi, vj) 2 K, B := (bij)1in1jn

2 MatK(n⇥ n) .

Dann heißt B die darstellende Matrix oder die Gramsche Matrix von sbezuglich B.

nach [Jørgen Pedersen Gram, 1850 – 1916].

Bemerkung 5.2.4

(1) Bedeutung der Gramschen Matrix:

Die darstellende Matrix B bestimmt s eindeutig:

Mit Bezeichnungen wie in Definition 5.2.3 gilt namlich, dass wir fur alle x, y 2 V

Koe�zienten xj, yj 2 K finden mit x =nP

j=1xjvj, y =

nP

j=1yjvj, und

s(x, y) =X

i,j

xi(yj

)s(vi, vj) =nX

i,j=1

xibij(yj

)

= (x1, . . . , xn) ·B ·

0

B

@

(y1)

...(yn

)

1

C

A

.

Umgekehrt definiert die obige Formel zu jeder Matrix B 2 MatK(n⇥n) eine Biline-arform bzw. eine Sesquilinearform auf V (Nachprufen - vgl. Aufgabe 6). Tatsachlichinduziert die Wahl der Basis B = (v1, . . . , vn) von V einen K-Vektorraum-Isomorphismuszwischen dem K-Vektorraum der Bilinearformen auf V und MatK(n⇥n), und fallsK = C zusatzlich einen C-Vektorraum-Isomorphismus zwischen dem C-Vektorraumder Sesquilinearformen auf V und MatC(n⇥ n).

127

Page 128: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(2) Die darstellende Matrix der Euklidischen Skalarprodukte bezuglich der Standard-basis ist B = En.

(3) Auf V = Rn oder V = Cn mit Euklidischem Skalarprodukt h·, ·i seien a1, . . . , am 2V beliebige Vektoren, B := (hai, aji)1in

1jn= AT ·

(

A)

, wobei A die Matrix mit

Spaltenvektoren a1, . . . , am 2 V ist.

Dann gilt: (a1, . . . , am) ist genau dann linear unabhangig, wenn det B > 0 (Ubung!).

Erinnerung/Nachtrag (Definition 1.5.1)Ist s : V ⇥ V ! K eine Bilinearform, dann heißt s symmetrisch, falls gilt:

8x, y 2 V : s(x, y) = s(y, x) .

Ist dagegen K = C und s sesquilinear mit s 6⌘ 0, dann kann s nicht symmetrisch sein:

8x, y 2 V, 8� 2 C : s(�x, y) = �s(x, y)

s(y,�x) = �s(y, x).

Falls x, y 2 V fest gewahlt sind mit s(x, y) 6= 0, und � 2 C mit � 6= �, dann kann nichts(x, y) = s(y, x) und gleichzeitig s(�x, y) = s(y,�x) gelten!

Statt der Symmetrie fordern wir daher die folgende Eigenschaft:

Definition 5.2.5Ist V ein C-Vektorraum und s : V ⇥ V ! C eine Sesquilinearform, dann heißt s

Hermitesch, falls gilt:

8x, y 2 V : s(x, y) = s(y, x).

nach [Charles Hermite, 1822 – 1901]

Proposition 5.2.6Es sei V ein n-dimensionaler K-Vektorraum, n > 0, und s : V ⇥V ! K sei bilinear(bzw. sesquilinear). Dann gilt:

s ist symmetrisch (bzw. Hermitesch)

, bezuglich jeder Basis B von V erfullt die darstellende Matrix

B von s die Gleichung BT = B (bzw. BT = B).

Beweis:B = (v1, . . . , vn) sei eine Basis von V und B := (bij) mit bij = s(vi, vj) die darstellendeMatrix von s bzgl. B.

128

Page 129: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

”)“

Falls s symmetrisch (Hermitesch) ist, dann folgt

8 i, j 2 {1, . . . , n} : bji = s(vj, vi) =

(

s(vi, vj) = bij falls s symmetrisch bilinear ist,

s(vi, vj) = bij falls s Hermitesch sesquilinear ist.

2

”(“

Zu x, y 2 V seien xi, yi 2 K mit x =nP

i=1xivi, y =

nP

j=1yjvj, dann gilt

(

s(y, x)) Bem. 5.2.4

=

(

nX

i,j=1

yj(xi

)bji

)

=nX

i,j=1

xi(yj

)

(

bji

)

BT =(

B)

=nX

i,j=1

xi(yj

)bijBem. 5.2.4

= s(x, y)

2

Definition 5.2.7Es sei n 2 N\{0}. Dann heißt B 2 MatK(n⇥ n) symmetrisch, falls BT = B.Fur K = C heißt B 2 MatC(n⇥ n) Hermitesch, falls BT = B.

Korollar 5.2.8V sei ein n-dimensionaler K-Vektorraum, n 2 N\{0}. Dann induziert die Wahl

einer Basis von V einen K-Vektorraum-Isomorphismus⇢

symmetrische Bili-nearformen auf V

⇠= {B 2 MatK(n⇥ n)|B ist symmetrisch} .

Falls K = C, hat man zusatzlich⇢

Hermitesche Sesqui-linearformen auf V

⇠= {B 2 MatC(n⇥ n)|B ist Hermitesch} .

Von besonderem Interesse sind bei symmetrischen und Hermiteschen Bilinear- bzw. Ses-quilinearformen die Diagonaleintrage; dazu:

Definition 5.2.9Ist V ein K-Vektorraum und s : V ⇥ V ! K symmetrisch bilinear oder Hermitesch

sesquilinear, dann ist die zugehorige quadratische Form gegeben durch

qs : V ! K, 8x 2 V : qs(x) := s(x, x) .

129

Page 130: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Die Terminologie erklart sich aus folgendem Verhalten der quadratischen Form:

8x 2 V, 8� 2 K :qs(�x) = s(�x,�x)

=

(

�2qs(x), falls s symmetrisch bilinear ist,

|�|2qs(x), falls s Hermitesch sesquilinear ist (also K = C).

Bemerkung 5.2.10 (Polarisierungsformeln)V sei ein n-dimensionaler K-Vektorraum, n 2 N\{0}.

(1) Ist s : V ⇥ V ! K symmetrisch und bilinear mit zugehoriger quadratischer Formqs, dann gilt:

8x, y 2 V : s(x, y) = 12(qs(x + y)� qs(x)� qs(y))

= 14(qs(x + y)� qs(x� y))

(Nachrechnen!)

(2) Ist K = C und s : V ⇥ V ! C Hermitesch und sesquilinear mit zugehoriger qua-dratischer Form qs, dann gilt:

8x, y 2 V : s(x, y) = 14(qs(x + y)� qs(x� y) + iqs(x + iy)� iqs(x� iy))

(Nachrechnen!)

Außerdem gilt fur alle x 2 V :

qs(x) = s(x, x) = s(x, x) = qs(x),

d.h. qs : V ⇥ V ! R.

Erinnerung:Die symmetrischen Bilinearformen und die Hermiteschen Sesquilinearformen betrachtenwir, da sie die Euklidischen Skalarprodukte auf Rn bzw. Cn verallgemeinern; letzteregenugen aber noch zusatzlichen Bedingungen:

In Verallgemeinerung§ von 5.1.2(4):

Definition 5.2.11Es sei K = R (bzw. K = C).

(1) V sei ein K-Vektorraum, und s : V ⇥ V ! K sei eine symmetrische Bilinear-form (bzw. Hermitesche Sesquilinearform) mit zugehoriger quadratischer Formqs : V ⇥ V ! R.

s heißt positiv definit, falls gilt:

8x 2 V : x 6= 0 ) qs(x) > 0.

§Hier und im Folgenden konnte man uberall mit Teilkorpern K ⇢ R (bzw. K ⇢ C) arbeiten; zurVereinfachung der Darstellung ersparen wir es uns aber, das jedes Mal auszuschreiben.

130

Page 131: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(2) Es sei n 2 N\{0}. Fur B 2 MatK(n⇥n), B = (bij) mit BT = B (bzw. BT = B)sei

qB : Kn ! K, qB

0

B

@

0

B

@

x1...

xn

1

C

A

1

C

A

:=nX

i,j=1

xi(xj

)bij .

qB heißt die zu B gehorige quadratische Form, und B heißt positivdefinit, falls gilt:

8x 2 Kn : x 6= 0 ) qB(x) > 0.

Bemerkung:

• Fur K, V,B, qB wie in Definition 5.2.11 ist B die darstellende Matrix von

sB : Kn ⇥Kn �! K,

0

B

@

0

B

@

x1...

xn

1

C

A

,

0

B

@

y1...

yn

1

C

A

1

C

A

=nX

i,j=1

xi(yj

)bij ,

also sB(x, y) = xT ·B(y), qB = qsB , und B ist positiv definit, genau wenn sB es ist.

• Fur positiv definite s wie in Definition 5.2.11 gilt nach Konstruktion:

8x 2 V : qs(x) = 0 , x = 0.

Wir verallgemeinern jetzt die Definition 5.1.1 auf Vektorraume V wie in Definition 5.2.11:

Definition 5.2.12Es sei K = R oder K = C, und V sei ein K-Vektorraum. Weiter sei s : V ⇥ V !

K eine symmetrische Bilinearform (oder Hermitesche Sesquilinearform) und positivdefinit.

(1) s heißt Skalarprodukt, und (V, s) heißt Euklidischer (oder unitarer)Vektorraum;

Standardnotation: 8x, y 2 V : hx, yi := s(x, y).

(2)|| · || : V ! R, 8x 2 V : ||x|| :=

p

hx, xi =p

qs(x)

heißt die zu h·, ·i gehorige Norm.

(3)d : V ⇥ V ! R, 8x, y 2 V : d(x, y) := ||x� y||

heißt der zu h·, ·i gehorige Abstand.

131

Page 132: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Die Terminologie stammt von weiter gefassten Begri↵en, in Verallgemeinerung von Be-obachtung 5.1.2:

Definition 5.2.13K und V seien wie in Definition 5.2.12.

(1) Eine Abbildung || · || : V ! R heißt Norm auf V , falls gilt:

(N1) Halblinearitat: 8x 2 V 8� 2 K : ||�x|| = |�| · ||x||.(N2) Dreiecksungleichung: 8x, y 2 V : ||x + y|| ||x||+ ||y||.(N3) positive Definitheit: 8x 2 V : ||x|| � 0, und ||x|| = 0 genau wenn

x = 0.

(2) Eine Abbildung d : V ⇥ V ! R heißt Abstand auf V , falls gilt:

(A1) Symmetrie: 8x, y 2 V : d(x, y) = d(y, x).

(A2) Dreiecksungleichung: 8x, y, z 2 V : d(x, z) d(x, y) + d(y, z).

(A3) positive Definitheit: 8x, y 2 V : d(x, y) � 0, und d(x, y) = 0 genauwenn x = y.

Bemerkung 5.2.14

(1) Der Abstandsbegri↵ kann auf beliebigen Mengen X eingefuhrt werden, namlich alsAbbildung d : X ⇥X ! R mit (A1) – (A3).

(2) Anstelle von (N3) kann man

(N30) : 8x 2 V : ||x|| = 0, x = 0

verwenden, denn aus (N1), (N2), (N30) folgt (N3):

8x 2 V : 0(N30)= ||x� x||

(N2)

||x||+ ||� x|| (N1)= ||x||+ |� 1| · ||x|| = 2||x||

) ||x|| � 0.

(3) Durch Einsetzen zeigt man:

Falls || · || : V ! R eine Norm auf V ist, dann definiert d(x, y) := ||x � y|| einenAbstand auf V .

nachstes Ziel:Wir mussen zeigen, dass die zu Skalarprodukten gehorigen Normen und Abstande gemaßDefinition 5.2.13 Normen und Abstande sind.

132

Page 133: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Theorem 5.2.15 (Cauchy-Schwarzsche Ungleichung (CSU))(V, h·, ·i) sei ein Euklidischer oder ein unitarer Vektorraum. Dann gilt:

8x, y 2 V : |hx, yi| ||x|| · ||y||

mit”=“ genau wenn (x, y) linear abhangig ist.

nach[Augustin-Louis Cauchy, 1789 – 1857] und [Hermann Armandus Schwarz, 1843 – 1921]

Beweis:Wir wahlen x, y 2 V fest.Falls y = 0, dann ist nichts zu zeigen. Also nehmen wir fur das Folgende o.B.d.A. an,dass y 6= 0 gilt.Es sei L ⇢ V die a�ne Gerade durch x und x + y, also

L := {x + ty | t 2 K}.

Da h·, ·i positiv definit ist, gilt 0 hz, zi fur alle z = x + ty 2 L, und insbesondere istdas richtig fur

t = t⇤

:= �hx, yihy, yi ,

d.h. wenn hx+ t⇤

y, yi = 0 (man zeigt, dass hz, zi fur z = x+ t⇤

y den minimalen Wert aufL annimmt, vgl. Aufgabe 22). Dann haben wir

0 hx + t⇤

y, x + t⇤

yi = hx + t⇤

y, xi = ||x||2 � hx, yihy, xihy, yi = ||x||2 � |hx, yi|2

||y||2 ,

woraus sofort die behauptete Ungleichung folgt.Gleichheit liegt vor, genau wenn hx+t

y, x+t⇤

yi = 0, wegen der positiven Definitheit alsogenau wenn x + t

y = 0 (d.h. wenn L durch den Ursprung geht). Dies ist aber aquivalentdazu, dass (x, y) linear abhangig ist (denn wenn (x, y) linear abhangig ist, also wegeny 6= 0 fur irgendein µ 2 K: x + µy = 0, dann folgt aus x = �µy sofort t

= µ und damitx + t

y = 0). 2

Korollar 5.2.16(V, h·, ·i) sei ein Euklidischer oder ein unitarer Vektorraum. Dann ist ||·|| : V ! R mit||x|| :=

p

hx, xi fur alle x 2 V eine Norm, und d : V ⇥V ! R mit d(x, y) := ||x� y||fur alle x, y 2 V ist ein Abstand auf V .

Beweis:

(N1) 8x 2 V, 8� 2 K : ||�x|| =p

h�x,�xi =p

|�|2hx, xi = |�| · ||x||.

133

Page 134: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(N2)

8x, y 2 V : ||x + y||2 = ||x||2 + hx, yi+ hy, xi+ ||y||2

= ||x||2 + 2 Rehx, yi+ ||y||2

||x||2 + 2 |hx, yi|+ ||y||2CSU ||x||2 + 2 ||x|| · ||y||+ ||y||2 = (||x||+ ||y||)2.

Da ||x + y||2 = hx + y, y + yi � 0 wegen der positiven Definitheit von h·, ·i, folgtdie Dreiecksungleichung (N2) sofort durch Wurzelziehen auf beiden Seiten der be-wiesenen Ungleichung.

(N3) folgt direkt aus der Definition von h·, ·i als Skalarprodukt.

Die Eigenschaften (A1)–(A3) fur d(·, ·) folgen direkt aus Bemerkung 5.2.14(3). 2

Fazit:Wir haben alle Eigenschaften (1) – (6) aus Beobachtung 5.1.2 auf beliebige EuklidischeVektorraume mit der zugehorigen Norm und dem zugehorigen Abstand verallgemeinert;fur unitare Vektorraume gelten alle Bedingungen ebenso, allerdings haben wir anstellevon (5):

(50)8x, y 2 V : ||x + y||2 = ||x||2 + ||y||2 + 2 Rehx, yi,

d(x, y)2 = d(x, 0)2 + d(y, 0)2 � 2 Rehx, yi.

5.3 Orthogonalitat

(V, h·, ·i) ist im Folgenden immer ein Euklidischer bzw. ein unitarer Vektorraum ubereinem Korper K, also K = R oder K = C (etwas allgemeiner konnten wir TeilkorperK ⇢ R bzw. K ⇢ C zulassen).

Definition 5.3.1(V, h·, ·i) sei ein Euklidischer oder unitarer K-Vektorraum.

(1) x, y 2 V sind orthogonal zu einander (Notation: x ? y), falls hx, yi = 0.

(2) Zwei Untervektorraume U,W von V heißen orthogonal zu einander (Nota-tion: U ? W ), falls 8x 2 U , 8 y 2 W : hx, yi = 0.

(3) Eine Familie (vi)i2I von Vektoren vi 2 V heißt orthogonal, falls gilt: Furalle i, j 2 I mit i 6= j gilt: hvi, vji = 0.

(4) Eine Familie (vi)i2I von Vektoren vi 2 V heißt orthonormal, falls gilt: Furalle i, j 2 I gilt: hvi, vji = �ij.

(5) Eine Orthonormalbasis (kurz: ONB) von V ist eine Basis von V , die eineorthonormale Familie bildet.

134

Page 135: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(6) Ist W ⇢ V ein Untervektorraum, dann heißt

W? := {x 2 V |hx, yi = 08 y 2 W}

das orthogonale Komplement von W .

Die Techniken, die wir vom Euklidischen Rn kennen, funktionieren jetzt analog:

Bemerkung 5.3.2Mit Bezeichnungen wie in Definition 5.3.1:

(1) Behauptung:

(vi)i2I sei eine orthogonale Familie von Vektoren vi 2 V \{0}. Dann ist (vi)i2I linearunabhangig.

Beweis (vgl. den Beweis von Lemma 5.1.6):

FallsP

i2I↵ivi = 0 fur eine Linearkombination

P

i2I↵ivi der vi (also ↵i 2 K fur alle

i 2 I, und ↵i 6= 0 fur hochstens endlich viele i 2 I), dann folgt

8 j 2 I : 0 =D

X

i2I

↵ivi, vj

E

=X

i2I

↵ihvi, vji = ↵j hvj, vji| {z }

>0

,

also ↵j = 0 fur alle j 2 I. 2

(2) Falls x 2 V , und fur alle y 2 V gilt hx, yi = 0, dann folgt x = 0

– denn insbesondere erhalt man hx, xi = 0, wenn man y = x wahlt, und wegen derpositiven Definitheit von h·, ·i folgt x = 0.

Analog gilt: Falls y 2 V , und fur alle x 2 V gilt hx, yi = 0, dann folgt y = 0.

Man sagt: Die Form h·, ·i ist nicht ausgeartet.

(3) Ist A = (v1, . . . , vn) eine Basis von V und B die darstellende Matrix von h·, ·ibezuglich A, dann gilt fur x, y 2 V mit x =

nP

i=1xivi, y =

nP

j=1yjvj:

hx, yi = (x1, . . . , xn)T ·B

0

B

@

(y1)

...(yn

)

1

C

A

.

Dabei ist B eine invertierbare Matrix (Ubung!), und falls A eine Orthonormalbasisist, dann gilt B = En. Die Suche nach Orthonormalbasen fur beliebige endlichdimensionale Vektorraume, mit der wir in Kurze beginnen werden, lohnt sich also!

(4) Ist W ⇢ V ein Untervektorraum, dann ist auch W? ⇢ V ein Untervektorraum(Ubung!).

135

Page 136: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Eigenartig,”orthogonale“ Raume haben wir schon einmal gesehen, und zwar ganz am

Ende der Vorlesung Lineare Algebra I:

Erinnerung (Definition 3.5.5 und 3.5.9):Fur endlich dimensionale K-Vektorraume U, V , und fur F 2 HomK(U, V ) haben wir dentransponierten Homomorphismus F T 2 Hom(V ⇤, U⇤), wobei V ⇤ = Hom(V, K) ⇠=V :

8↵ 2 V ⇤ : F T (↵) := ↵ � F 2 U⇤ .

W ⇢ V sei jetzt ein Untervektorraum. Man zeigt fur die Inklusion ◆ : W ,! V , dass◆T (↵) = ↵

|W fur jedes ↵ 2 V ⇤ (Ubung!); nach Definition 3.5.9 ist dann der zu W ortho-gonale Raum

W 0 = {↵ 2 V ⇤|↵(y) = 08 y 2 W} = ker(◆T ).

Der Zusammenhang zwischen diesen Begri↵en und dem in Definition 5.3.1 gegebenenOrthogonalitatsbegri↵ ist nun wie folgt:

Satz 5.3.3(U, h·, ·i) und (V, h·, ·i) seien endlich dimensionale Euklidische (bzw. unitare) K-

Vektorraume. Dann gilt:

(1) Die folgende Abbildung ist ein Isomorphismus (bzw. ein semi-Isomorphismus,also eine semilineare Bijektion):

V ! V ⇤, v 7! v⇤, wobei 8x 2 V : v⇤(x) := hx, vi.

(2) Es gibt einen eindeutig bestimmten Isomorphismus (bzw. semi-Isomorphismus)

HomK(U, V )! HomK(V, U), F 7! F ad,

so dass gilt:

8x 2 U,8 y 2 V : hF (x), yi = hx, F ad(y)i. (⇤)

(3) Jeder Untervektorraum W ⇢ V tragt eine kanonische Struktur als Euklidischer(bzw. unitarer) Vektorraum, und der semi-Isomorphismus V ! V ⇤, v 7! v⇤ aus

(1) induziert einen (semi-)Isomorphismus W?

⇠=�! W 0.

Beweis:

(1) (a) Zu zeigen: v⇤ 2 V ⇤.

Dies folgt aus der Linearitat von h·, ·i in der ersten Komponente.

(b) Zu zeigen: v 7! v⇤ ist linear (bzw. semilinear).

Dies folgt aus der Linearitat (bzw. Semilinearitat) von h·, ·i in der zweitenKomponente.

136

Page 137: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(c) Zu zeigen: v 7! V ⇤ ist injektiv.

Falls v, w 2 V und v⇤ = w⇤, dann gilt:

8x 2 V : 0 = v⇤(x)� w⇤(x) = hx, v � wi 5.3.2(2)) v � w = 0.

(d) Zu zeigen: v 7! v⇤ ist surjektiv.

Dies folgt aus (b) + (c), da dim V = dim V ⇤ <1. Uberzeugen Sie sich davon,dass dieser Schluss auch fur semilineare Abbildungen gilt!

(2) (a) Zu zeigen: Die Bedingung (⇤) bestimmt eindeutig eine Abbildung F ad : V ! U .

Fur y 2 V ist F ad(y) 2 U gesucht. Dazu definieren wir ⌘ 2 U⇤ durch

8x 2 U : ⌘(x) := hF (x), yi

(die Linearitat von ⌘ : U ! K folgt aus der Linearitat von F zusammen mitder Linearitat von h·, ·i in der 1. Komponente). Weiter sei u 2 U der nach (1)eindeutig bestimmte Vektor mit ⌘ = u⇤, d.h.

8x 2 U : hx, ui = hF (x), yi,

so dass mit F ad(y) := u die Bedingung (⇤) erfullt ist. Erfullt auch u0 2 U dieBedingung

8x 2 U : hx, u0i = hF (x), yi,

dann folgt8x 2 U : hx, u� u0i = 0,

also u = u0 wegen Bemerkung 5.3.2(2). Somit exisistert ein eindeutig bestimm-tes F ad(y) 2 U , das der Bedingung (⇤) genugt. 2

(b) Zu zeigen: F ad 2 Hom(V, U).

Fur beliebige y, y 2 V , � 2 K sei

z := F ad(y + �y)� F ad(y)� �F ad(y) 2 U.

Zu zeigen ist dann z = 0. Es gilt aber

8x 2 U : hx, zi = hx, F ad(y + �y)i � hx, F ad(y)i � (

�)hx, F ad(y)i

(⇤)= hF (x), y + �yi � hF (x), yi � (

�)hF (x), yi

= 0,

so dass aus Bemerkung 5.3.2(2) folgt: z = 0. 2

(c) Zu zeigen: F 7! F ad ist linear (bzw. semilinear).

Dies folgt aus der Linearitat (bzw. Semilinearitat) von h·, ·i in der zweitenKomponente.

137

Page 138: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(d) Zu zeigen: F 7! F ad ist bijektiv.

Wegen dim (HomK(U, V )) = dim (HomK(V, U)) < 1 genugt es wie in (1)wegen (c), die Injektivitat zu zeigen; falls F, G 2 Hom(U, V ) und F ad = Gad,also

8x 2 U 8 y 2 V : hF (x), yi (⇤)= hx, F ad(y)i = hx, Gad(y)i

(⇤)= hG(x), yi,

folgt fur alle x 2 U und alle y 2 V , dass hF (x) � G(x), yi = 0, also F (x) �G(x) = 0 fur alle x 2 U nach Bemerkung 5.3.2(2), und somit F = G. 2

(3) W ⇢ V wird durch Einschrankung des Skalarproduktes h·, ·i : V ⇥ V ! K aufW ⇥W zu einem Euklidischen (oder unitaren) Vektorraum.

Es ist also noch zu zeigen, dass W? ⇠= W 0 unter dem Isomorphismus aus (1) gilt.Dazu:

W 0 = {↵ 2 V ⇤ | 8x 2 W : ↵(x) = 0}(1)= {y⇤ | y 2 V, 8x 2 W : y⇤(x) = hx, yi = 0}=

y⇤ | y 2 W?

,

d.h. die lineare (bzw. semilineare) Abbildung V ! V ⇤ aus (1) induziert durchEinschrankung auf W? eine lineare (bzw. semilineare) Surjektion W? ! W 0, dieauch injektiv ist, da v 7! v⇤ nach (1) bijektiv ist. 2

F ad hat naturlich auch einen Namen:

Definition 5.3.4(U, h·, ·i), (V, h·, ·i) seien endlich dimensionale Euklidische (oder unitare) K-

Vektorraume und F 2 HomK(U, V ).

(1) Die laut Satz 5.3.3 eindeutig bestimmte Abbildung

F ad 2 HomK(V, U) mit 8x 2 U,8 y 2 V : hF (x), yi = hx, F ad(y)i

heißt die zu F adjungierte Abbildung.

(2) Falls (U, h·, ·i) = (V, h·, ·i) und F = F ad, dann heißt F selbstadjungiert.

Bemerkung 5.3.5(U, h·, ·i), (V, h·, ·i) seien endlich dimensionale Euklidische (oder unitare) K-Vektorraumeund F 2 HomK(U, V ).

(1) Koordinatenform der Adjungierten:

A = (u1, . . . , un) sei eine Basis von U , und B = (v1, . . . , vm) sei eine Basis vonV , BU und BV seien die darstellenden Matrizen der Skalarprodukte auf U und V

138

Page 139: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

bezuglich A und B. Weiter sei A := M(B, F,A), d.h. fur x =nP

j=1xjuj 2 U gilt

F (x) =mP

i=1zivi mit

0

B

@

z1...

zm

1

C

A

= A

0

B

@

x1...

xn

1

C

A

, (z1, . . . , zm) = (x1, . . . , xn) · AT .

Mit y =mP

j=1yjvj 2 V haben wir dann

hF (x), yi = (z1, . . . , zm) ·BV

0

B

@

(y1)

...(ym

)

1

C

A

= (x1, . . . , xn) · AT ·BV

0

B

@

(y1)

...(ym

)

1

C

A

.

Analog haben wir

hx, F ad(y)i = (x1, . . . , xn) ·BU ·(

M(A, F ad,B))

0

B

@

(y1)

...(ym

)

1

C

A

.

Damit also hF (x), yi = hx, F ad(y)i fur alle x 2 U und y 2 V gilt, erhalten wir die

Bedingung AT ·BV = BU ·(

M(A, F ad,B))

. Da nach Bemerkung 5.3.2(3) die MatrizenBU und BV invertierbar sind, liefert dies einen zweiten Beweis fur die Existenz undEindeutigkeit einer linearen Abbildung F ad 2 HomK(V, U) mit den gewunschtenEigenschaften, und im Ubrigen die Formel

M(A, F ad,B) =(

B�1U · AT ·BV

)

=(

B�1U ·M(B, F,A)T ·BV

)

.

Sind A und B Orthonormalbasen, dann gilt BU = En und BV = Em, und wir haben

M(A, F ad,B) =(

A)

T=

(

M(B, F,A)T)

.

In der Tat, falls U = Kn und V = Km mit den Euklidischen Skalarproduktenversehen sind und A 2 MatK(m⇥ n):

8x 2 U, y 2 V : hAx, yi = (Ax)T · (y) = xT · AT · (y) = xT ·(

(

AT)

y)

= hx,(

AT)

yi.

Motto:

Fur darstellende Matrizen bzgl. Orthonormalbasen ist Adjungieren beschriebendurch Transponieren, ggf. plus Konjugieren. Insbesondere gilt fur die Endomor-phismen F von V : F ist selbstadjungiert genau wenn die darstellende Matrix vonF bezuglich irgendeiner (und damit jeder) Orthonormalbasis von V symmetrisch(bzw. Hermitesch) ist.

139

Page 140: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(2) Rechenregeln furs Adjungieren:

Es gilt (F ad)ad = F , und falls G 2 HomK(W,U) fur einen weiteren endlich dimen-sionalen Euklidischen (bzw. unitaren) K-Vektorraum W , dann gilt (F � G)ad =Gad � F ad.

Beweis:

8x 2 U, y 2 V : h(F ad)ad(x), yi = hx, F ad(y)i = hF (x), yi5.3.3(2)) (F ad)ad(x) = F (x),

wobei wir fur F 2 HomK(V, U) und x 2 U, y 2 V verwendet haben, dass

hF ad(x), yi =(

hy, F ad(x)i)

=(

hF (y), xi)

= hx, F (y)i.

Weiter gilt fur G wie in der Behauptung:

8x 2 W, y 2 V : hx, (F �G)ad(y)i = h(F �G)(x), yi= hG(x), F ad(y)i = hx, Gad � F ad(y)i,

woraus wieder mit Bemerkung 5.3.2(2) die Behauptung folgt. 2

(3) Behauptung: Mit V ! V ⇤, v 7! v⇤ und analog U ! U⇤, u 7! u⇤ wie in Satz 5.3.3gilt:

8 v 2 V : (F ad(v))⇤ = F T (v⇤).

In Worten:

Die kanonische Bijektion von V nach V ⇤ mithilfe des Skalarproduktes fuhrt dieAdjungierte von F in die Transponierte uber.

Beweis:

8x 2 U : (F ad(v))⇤(x) = hx, F ad(v)i = hF (x), vi= v⇤(F (x)) = F T (v⇤)(x).

2

Als nachstes Ziel soll gezeigt werden, dass jeder endlich dimensionale Euklidische oderunitare Vektorraum Orthonormalbasen besitzt – fur deren Konstruktion verwenden wir

Definition 5.3.6Ist (V, h·, ·i) ein endlich dimensionaler Euklidischer oder unitarer K-Vektorraum und⇡ 2 EndK(V ) mit

(1) ⇡ � ⇡ = (”⇡2 = “ )⇡, (2) ⇡ad = ⇡ ,

dann heißt ⇡ orthogonale Projektion (auf im(⇡)).

140

Page 141: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beispiel:In Kn mit Euklidischem Skalarprodukt h·, ·i:Fur m 2 N mit 1 m n definiere

⇡ : Kn ! Kn,

0

B

B

B

B

B

B

B

B

B

@

x1............

xn

1

C

C

C

C

C

C

C

C

C

A

7!

0

B

B

B

B

B

B

B

@

x1...

xm

0...0

1

C

C

C

C

C

C

C

A

.

Dann gilt ⇡ 2 EndK(Kn), ⇡2 = ⇡, und fur alle x, y 2 Kn mit x =

0

B

@

x1...

xn

1

C

A

, y =

0

B

@

y1...

yn

1

C

A

:

hx, ⇡(y)i =mX

j=1

xjyj = h⇡(x), yi = hx, ⇡ad(y)i,

also ⇡ = ⇡ad. Mit anderen Worten: ⇡ ist orthogonale Projektion – und sogar der Prototypaller orthogonalen Projektionen.

Satz 5.3.7(V, h·, ·i) sei ein endlich dimensionaler Euklidischer (oder unitarer) K-Vektorraum

und ⇡ 2 EndK(V ).

(1) ⇡ ist eine orthogonale Projektion, genau wenn ⇡? := id � ⇡ eine orthogonaleProjektion ist.

(2) Es sei ⇡ eine orthogonale Projektion. Dann gilt:

(a) ker(⇡) = im(id� ⇡) = (im(⇡))?,

(b) im(⇡) = ker(id� ⇡) = (ker(⇡))?,

(c) V = ker(⇡)� im(⇡).

Beweis:

(1) Da (⇡?)2 = id� 2⇡ + ⇡2 und (⇡?)ad = id� ⇡ad:

⇡2 = ⇡ , (⇡?)2 = ⇡?, ⇡ad = ⇡ , (⇡?)ad = ⇡? .

(2) Wir zeigen zuerst:

(i) im(⇡) ? im(⇡?),

(ii) im(⇡) = ker(⇡?),

(iii) V = im(⇡?) + im(⇡).

141

Page 142: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

ad (i):

8x, y 2 V : h⇡(x), ⇡?(y)i = h⇡(x), yi � h⇡(x), ⇡(y)i⇡=⇡ad

= h⇡(x), yi � h⇡2(x), yi⇡2=⇡= h⇡(x), yi � h⇡(x), yi = 0.

ad (ii):

”im(⇡) ⇢ ker(⇡?)“: 8x 2 V : ⇡?(⇡(x)) = (id� ⇡)(⇡(x))

⇡2=⇡= ⇡(x)� ⇡(x) = 0. 2

”ker(⇡?) ⇢ im(⇡)“: 8x 2 V : ⇡?(x) = 0) x = ⇡(x) 2 im(⇡). 2

ad (iii):

8x 2 V : x = x� ⇡(x) + ⇡(x) = ⇡?(x) + ⇡(x) 2 im(⇡?) + im(⇡). 2

Wegen (⇡?)? = id� ⇡? = ⇡ und (1) gelten (i)–(iii) genauso, wenn ⇡ uberall durch⇡? ersetzt wird. Es folgt:

(a0) ker(⇡)(ii)= im(⇡?)

(i)⇢ (im(⇡))?,

(b0) ker(⇡?)(ii)= im(⇡)

(i)⇢ (im(⇡?))?

(ii)= (ker(⇡))?,

(c0) V(iii)= im(⇡?) + im(⇡)

(ii)= ker(⇡) + im(⇡).

Wir zeigen noch

(iv) (im(⇡))? ⇢ ker(⇡):

Falls x 2 (im(⇡))?, dann gilt namlich:

8 y 2 V : 0 = hx, ⇡(y)i ⇡=⇡ad

= h⇡(x), yi 5.3.2(2)) ⇡(x) = 0.

2

Damit folgt (a) direkt aus (a0);

da (⇡?)? = ⇡, liefert (iv) auch (im(⇡?))? ⇢ ker(⇡?), so dass (b) aus (b0) folgt;

(c) folgt aus (c0), da ker(⇡)(a)= im(⇡?) wegen (i) orthogonal ist zu im(⇡), so dass

Bemerkung 5.3.2(1) zeigt: ker(⇡) + im(⇡) ist eine direkte Summe. 2

Wir verallgemeinern jetzt das Beispiel nach Definition 5.3.6.

Beispiel 5.3.8Es sei (V, h·, ·i) ein endlich dimensionaler Euklidischer (oder unitarer) K-Vektorraum,

und (w1, . . . , wm) sei eine orthonormale Familie von Vektoren in V . Wir setzen W :=spanK{w1, . . . , wm}; fur x 2 V sei

⇡(x) := x�mX

j=1

hx, wjiwj.

142

Page 143: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Behauptung: ⇡ ist eine orthogonale Projektion auf W?.Beweis:

(i) ⇡ 2 EndK(V ) folgt aus der Linearitat von h·, ·i in der 1. Komponente.

(ii) ker(⇡) = W , denn

”⇢“: x 2 ker(⇡) ) x =

mP

j=1hx, wjiwj 2 W ,

”�“: 8 i 2 {1, . . . ,m} : ⇡(wi) = wi �

mP

j=1hwi, wji| {z }

�ij

wj = 0 ,

d.h. ⇡ verschwindet auf einer Basis von W und damit auf W .

(iii)

8x 2 V : ⇡2(x) = ⇡

x�mX

j=1

hx, wjiwj

!

(i)= ⇡(x)�

mX

j=1

hx, wji ⇡(wj)| {z }

0 wg. (ii)

= ⇡(x),

also ⇡2 = ⇡.

(iv)

8x, y 2 V : h⇡(x), yi = hx, yi �mX

j=1

hx, wjihwj, yi

= hx, yi �D

x,mX

j=1

hy, wjiwj

E

= hx, ⇡(y)i,

also ⇡ad = ⇡.

Somit: ⇡ ist eine orthogonale Projektion wegen (i), (iii) und (iv), d.h.

im(⇡)Satz 5.3.7

= (ker(⇡))?(ii)= W?. 2

Die so konstruierte Projektion konnen wir verwenden, um zu”orthonormalisieren“, und

um zu sehen: V zerfallt in eine direkte Summe aus W und seinem orthogonalen Komple-ment.

Theorem 5.3.9 (Orthonormalisierungsverfahren von Gram-Schmidt)Es sei (V, h·, ·i) ein n-dimensionaler Euklidischer oder unitarer Vektorraum, n 2

N\{0}, und W ⇢ V ein Untervektorraum. Dann gilt:Jede Orthonormalbasis von W kann zu einer Orthonormalbasis von V erganzt werden.

143

Page 144: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

nach [J.P. Gram], s.o., und [Erhard Schmidt, 1876 – 1959]Beweis:Gegeben sei eine Orthonormalbasis (w1, . . . , wm) von W . Weiter sei

B = (w1, . . . , wm, vm+1, . . . , vn) (⇤)

eine Basis von V (existiert nach Basiserganzungssatz 3.2.11).Zu zeigen: Es konnen Vektoren (wm+1, . . . , wn) so gewahlt werden, dass (w1, . . . , wm,wm+1, . . . , wn) eine Orthonormalbasis von V ist.Wir beweisen dies durch Induktion uber n�m = dim V � dim W .

Induktionsanfang (n = m): Es ist nichts zu zeigen.Induktionsannahme: Ist n�m k, dann gilt die Behauptung.Induktionsschluss (k ! k + 1):B sei wie in (⇤) mit n �m = k + 1, und ⇡ : V ! V sei die orthogonale Projektion aufim(⇡) = W? wie in Beispiel 5.3.8, also

⇡(x) = x�mX

j=1

hx, wjiwj .

(1) Behauptung: B = (w1, . . . , wn) mit

wi :=

(

wi falls 1 i m ,

⇡(vi) falls m < i n

ist ebenfalls eine Basis von V .

Beweis: Da dim V = n, genugt es zu zeigen, dass B linear unabhangig ist (vgl.Lemma 3.2.12); es sei also mit ↵1, . . . ,↵n 2 K

0 =nX

j=1

↵jwj =mX

j=1

↵jwj

| {z }

=:x

+ ⇡(nX

j=m+1

↵jvj

| {z }

=:y

), (⇤⇤)

d.h. wegen x 2 W = ker(⇡) nach Beispiel 5.3.8 und weil ⇡ eine orthogonale Projek-tion ist, folgt

0(⇤⇤)= ⇡(x) + ⇡2(y) = ⇡(y).

Somit liefert (⇤⇤), dass 0 = x =mP

j=1↵jwj, und da (w1, . . . , wm) eine Basis von W ist,

folgt ↵1 = · · ·↵m = 0. Weiter gilt wegen (⇤⇤), dass y 2 ker(⇡) = W nach Beispiel5.3.8, d.h. es gibt �1, . . . , �m 2 K, so dass

nX

j=m+1

↵jvj =mX

j=1

�jwj.

Da B nach Voraussetzung eine Basis von V ist, folgt �1 = · · · = �m = ↵m+1 = · · · =↵n = 0, also die Behauptung. 2

144

Page 145: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(2) Induktionsschluss

Aus (1) folgt: wm+1 2 W? und wm+1 6= 0, d.h.⇣

w1, . . . , wm, wm+1

||wm+1

||

ist eine Or-

thonormalbasis vonW := spanK{w1, . . . , wm+1} ,

mitdim V � dim W = n� (m + 1) = (n�m)� 1 = k .

Die Induktionsannahme kann also auf W angewandt werden und liefert die Behaup-tung fur W .

2

Wichtig: Der Beweis liefert einen Algorithmus zur Konstruktion von Orthonormalbasen!

Korollar 5.3.10(V, h·, ·i) sei ein n-dimensionaler Euklidischer oder unitarer Vektorraum mit n 2

N\{0}. Dann gilt:

(1) V besitzt eine Orthonormalbasis.

(2) Ist W ⇢ V ein Untervektorraum, dann gilt:

(a) V = W �W?, insbesondere dim W? = dim V � dim W und (W?)? = W .

(b) Es gibt genau eine orthogonale Projektion ⇡? 2 EndK(V ) auf W .

Beweis:(1) folgt aus dem Spezialfall dim W = 1 von Theorem 5.3.9, und (2) folgt durch Wahleiner Orthonormalbasis von W , die nach Theorem 5.3.9 zu einer Orthonormalbasis vonV erganzt wird, und mit der ⇡ und ⇡? wie in Beispiel 5.3.8 und Definition 5.3.7 kon-struiert werden. Nach Aufgabe 31 ist dann ubrigens ⇡? = ◆ � ◆ad, wenn ◆ : W ,! V dieInklusionsabbildung ist. 2

Beispiel:Auf R3 betrachten wir

*

0

@

x1

x2

x3

1

A ,

0

@

y1

y2

y3

1

A

+

:= 4x1y1 + 2x2y2 + x3y3 + x1y2 + x2y1.

• Bilinearitat und Symmetrie von h·, ·i sind klar.

• Positive Definitheit von h·, ·i zeigt man wie folgt: Fur alle x =

0

@

x1

x2

x3

1

A gilt

hx, xi = 4x21 + 2x2

2 + x23 + 2x1x2 = (x1 + x2)

2 + 3x21 + x2

2 + x23 � 0,

mit Gleichheit genau wenn x1 + x2 = x1 = x2 = x3 = 0, also genau wenn x = 0.

Somit ist (R3, h·, ·i) ein Euklidischer Vektorraum.

145

Page 146: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

• Die darstellende Matrix von h·, ·i bzgl. der Standardbasis ist

0

@

4 1 01 2 00 0 1

1

A .

Konstruktion einer Orthonormalbasis von R3 bzgl. h·, ·i

1. Start:

Wir beginnen mit der Basis (v1, v2, v3) = (e1, e2, e3), also der Standardbasis von R3.W := spanR{v1} hat (w1) als Orthonormalbasis bzgl. h·, ·i mit

w1 :=v1

||v1||=

1

2

0

@

100

1

A .

2. Schritt: Konstruktion einer Basis von W?.

⇡2(x) := x� hx, w1iw1 liefert

w2 := ⇡2(v2) = v2 � hv2, w1i| {z }

1/2

w1 =

0

@

�1/410

1

A ,

w3 := ⇡2(v3) = v3 � hv3, w1i| {z }

0

w1 =

0

@

001

1

A ,

und (w2, w3) ist Basis von W?. Somit ist (w1, w2) mit

w2 :=w2

||w2||=

2p7

0

@

�1/410

1

A

eine Orthonormalbasis von W := spanR{w1, w2}.

3. Schritt: Konstruktion einer Basis von W?.

w3 := ⇡3(w3) = w3 � hw3, w1iw1 � hw3, w2iw2 =

0

@

001

1

A ,

w3 :=w3

||w3||=

0

@

001

1

A

liefert die gesuchte Orthonormalbasis (w1, w2, w3) von R3 bzgl. h·, ·i.

146

Page 147: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Bemerkung 5.3.11 (Quotientenvektorraume)Ist (V, h·, ·i) ein endlich dimensionaler Euklidischer oder unitarer Vektorraum und W ⇢ Vein Untervektorraum, dann gibt es einen kanonischen Isomorphismus ⇡ : V/W ! W?.Beweis:⇡? : V ! W? sei die orthogonale Projektion auf W? (nach Korollar 5.3.10), p : V !V/W sei die Quotientenabbildung (Satz 3.3.10):

V⇡?���! W?

p

?

?

?

y ���!���!���!⇡

V/W

Da W = ker(⇡), W? = im(⇡), liefert der Homomorphiesatz (Theorem 3.3.12) die Be-hauptung: ⇡(x + W ) := ⇡(x) ist ein K-Vektorraum-Isomorphismus. 2

Bemerkung 5.3.12 (Kreuzprodukt)Das Kreuzprodukt ⇥ : R3 ⇥ R3 ! R3 mit

0

@

v1

v2

v3

1

A⇥

0

@

w1

w2

w3

1

A :=

0

@

v2w3 � v3w2

v3w1 � v1w3

v1w2 � v2w1

1

A

hat folgende Eigenschaften auf dem Euklidischen R3 (Aufgaben 25 und 26):

• ⇥ ist bilinear und antisymmetrisch.

• 8u, v, w 2 R3: hu, v ⇥ wi = det(col(u, v, w)).

• Ist (v, w) eine orthonormale Familie von Vektoren in R3, dann ist (v, w, v⇥w) einebzgl. der Standardorientierung positiv orientierte Orthonormalbasis von R3.

6 Spezielle Endomorphismen

Im Folgenden ist (V, h·, ·i) immer ein Euklidischer (bzw. ein unitarer) Vektorraum uberdem Korper K – also K = R oder K = C. Dann hat V so viel Struktur, dass wir spezielleFamilien von Endomorphismen auf V definieren konnen, die besonders angenehme Ei-genschaften bzgl. Eigenvektoren und Eigenwerten haben (insbesondere diagonalisierbarsind!). Um solche spezielle Endomorphismen geht es in diesem Kapitel.

6.1 Orthogonale und unitare Endomorphismen

Als naturliche Verallgemeinerung von Definition 5.1.3 ergibt sich:

Definition 6.1.1(V, h·, ·i) sein ein Euklidischer (bzw. ein unitarer) K-Vektorraum. Eine Abbildung

F : V ! V heißt orthogonal (bzw. unitar), falls gilt:

8x, y 2 V : hF (x), F (y)i = hx, yi.

147

Page 148: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Satz 6.1.2(V, h·, ·i) sein ein Euklidischer (bzw. ein unitarer) K-Vektorraum und F : V ! V

sei eine Abbildung. Dann sind aquivalent:

(1) F ist orthogonal (bzw. unitar).

(2) F ist Abstand erhaltend und F (0) = 0.

(3) F 2 EndK(V ), und es gibt eine Orthonormalbasis von V , die unter F auf eineOrthonormalbasis von V abgebildet wird.

(4) F 2 EndK(V ), und F bildet jede Orthonormalbasis von V auf eine Orthonor-malbasis von V ab.

Beweis: Wortlich wie Lemma 5.1.4 und Lemma 5.1.6. 2

Bemerkung 6.1.3Es sei F 2 EndK(V ) und dimK(V ) <1. Dann gilt:

(1) Es gilt:

8x, y 2 V : hF (x), F (y)i = hx, F ad � F (y)i = hF ad � F (x), yi.

Daher sind die folgenden Bedingungen aquivalent:

(a) F ist orthogonal (bzw. unitar).

(b) F ad � F = id.

(c) F ist invertierbar und F�1 = F ad.

(c) F � F ad = id.

(2) Falls F orthogonal (bzw. unitar) ist, dann gilt (vgl. Aufgabe 24):

(a) F ist ein K-Vektorraum-Isomorphismus (denn nach (1) ist F�1 = F ad), undauch F�1 ist orthogonal (bzw. unitar), denn

8x, y 2 V : hF�1(x), F�1(y)iF orthogonal

(unitar)

= hF � F�1(x), F � F�1(y)i= hx, yi

(b) Ist � 2 K ein Eigenwert von F , dann gilt |�| = 1, denn:

Ist x 2 V ein zugehoriger Eigenvektor, also x 6= 0, F (x) = �x, dann gilt:

|�|2hx, xi = h�x,�xi = hF (x), F (x)i = hx, xi| {z }

>0, da x 6=0

,

woraus sofort |�| = 1 folgt.

148

Page 149: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(c) Sind �, µ 2 K Eigenwerte von F mit � 6= µ und zugehorigen Eigenvektorenx, y 2 V , dann gilt:

�hx, yi = h�x, yi = hF (x), yi (1c)= hx, F�1(y)i (2b)

= hx, µyi = µhx, yi,

so dass wegen � 6= µ folgt: hx, yi = 0.

Satz 6.1.4Es sei (V, h·, ·i) ein Euklidischer (bzw. ein unitarer) K-Vektorraum und A =

(v1, . . . , vn) eine Orthonormalbasis von V . Kn sei mit dem Euklidischen Standard-Skalarprodukt versehen. Weiter sei F 2 EndK(V ) mit A = M(A, F,A) = (aij) 2MatK(n⇥ n). Dann sind aquivalent:

(1) F ist orthogonal (bzw. unitar).

(2) AT · (A

)= En.

(3) A ·(

AT)

= En.

(4) Die Spaltenvektoren von A bilden eine Orthonormalbasis von Kn.

(5) Die Zeilenvektoren von A bilden eine Orthonormalbasis von Kn.

Beweis:Mit einer Orthonormalbasis A von V sowie F und A wie in den Voraussetzungen:

8 j 2 {1, . . . , n} : F (vj) =nX

i=1

aijvi ,

d.h. fur die Spaltenvektoren a1, . . . , an von A gilt:

8 j, k 2 {1, . . . , n} : aTj · (ak

) =nX

i=1

aij(aik

)

=nX

i,`=1

aij(a`k

) hvi, v`i| {z }

�i`

=D

nX

i=1

aijvi,nX

`=1

a`kv`

E

= hF (vj), F (vk)i, (⇤)

das heißt,

149

Page 150: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

F ist orthogonal (unitar)Satz 6.1.2, (F (v1), . . . , F (vn)) ist eine Orthonormalbasis von V.

(⇤), Die Spaltenvektoren a1, . . . , an von A bilden eine Orthonormalbasis von Kn.

, AT · (

A)

= En.

, A ist invertierbar und A�1 =(

A)

T.

, A · (

A)

T= En.

, Die Spaltenvektoren von AT bilden eine Orthonormalbasis von Kn.

, Die Zeilenvektoren von A bilden eine Orthonormalbasis von Kn.

Fazit:Orthonormale bzw. unitare Abbildungen sind recht einfach zu handhaben (insbesonderesind sie invertierbar!); als anschauliche Beispiele dienen Drehungen und Spiegelungen.

Definition 6.1.5Es sei (V, h·, ·i) ein Euklidischer oder unitarer K-Vektorraum und n 2 N \ {0}.Falls K = R, dann heißen

O(V ) := {F 2 EndR(V )|F ist orthogonal}

undO(n) := {A 2 MatR(n⇥ n)|AT A = En}

die orthogonalen Gruppen.Falls K = C, dann heißen

U(V ) := {F 2 EndC(V )|F ist unitar}

undU(n) := {A 2 MatC(n⇥ n)|AT · A = En}

die unitaren Gruppen.Weiter sei dimK(V ) <1, dann heißen

SO(V ) := {F 2 O(V )|det(F ) = 1} ,

SO(n) := {A 2 O(n)|det(A) = 1} ,

SU(V ) := {F 2 U(V )|det(F ) = 1} ,

SU(n) := {A 2 U(n)|det(A) = 1}

die speziellen orthonormalen bzw. unitaren Gruppen.Matrizen A 2 MatK(n ⇥ n) heißen orthogonal, falls K = R und A 2 O(n), bzw.unitar, falls K = C und A 2 U(n).

Nach Satz 6.1.4 gilt: F gehort zu O(V ) bzw. zu U(V ) genau dann, wenn die darstellendeMatrix bzgl. jeder Orthonormalbasis zu O(n) bzw. zu U(n) gehort.

150

Page 151: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Satz 6.1.6Mit der Matrixmultiplikation als Verknupfung sind O(n), U(n), SO(n) und SU(n)

Gruppen, ebenso wie O(V ) und SO(V ) fur jeden Euklidischen Vektorraum (V, h·, ·i)und U(V ) und SU(V ) fur jeden unitaren Vektorraum (V, h·, ·i) mit der Kompositionals Verknupfung.

Beweis: Ubung.

Die unitaren Endomorphismen sind”besonders schon“ diagonalisierbar:

Theorem 6.1.7Es sei V ein n-dimensionaler unitarer C-Vektorraum, n 2 N\{0}. Dann gilt fur

F 2 EndC(V ):F ist genau dann unitar, wenn es eine Orthonormalbasis A = (v1, . . . , vn) aus Eigen-vektoren von F gibt, also F (vj) = �jvj, �j 2 C, fur alle j 2 {1, . . . , n}, und wennaußerdem |�j| = 1 fur alle j 2 {1, . . . , n}.

Man sagt:”F ist unitar diagonalisierbar“, wenn solch eine

”orthonormale Eigenbasis“

(v1, . . . , vn) existiert, denn der Basiswechsel von einer beliebigen Orthonormalbasis vonV auf (v1, . . . , vn) ist unitar (s. Bemerkung 6.2.1). Spater beweisen wir ein allgemeineresDiagonalisierbarkeitsresultat, der Beweis ist dann aber komplizierter, daher jetzt schonein Beweis im Spezialfall:

Beweis:

”(“

folgt sofort, da unter den angegebenen Voraussetzungen |�j|2 = 1 fur alle j 2 {1, . . . , n}gilt, also

A := M(A, F,A) =

0

B

@

�1 0. . .

0 �n

1

C

A

, AT · A = En .

Also ist F nach Satz 6.1.4 unitar.

”)“

Aus Bemerkung 6.1.3(2b) wissen wir schon:|�| = 1 fur jeden Eigenwert � von F . (⇤)

Der Beweis der unitaren Diagonalisierbarkeit erfolgt durch Induktion uber n = dimCV .Induktionsanfang (n = 1): Es ist nichts mehr zu zeigen.Induktionsannahme: Die Behauptung gilt fur alle V mit dimCV n.Induktionsschluss (

”n! n + 1“):

Sei jetzt dimCV = n + 1. Uber C zerfallt das charakteristische Polynom von F inLinearfaktoren, es gibt also einen Eigenwert � 2 C; W := (Eig�(F ))? erfullt dann

151

Page 152: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

dimC W < dimC V = n + 1, und F := F|W erfullt

8x 2 W, 8 y 2 Eig�(F ) (also F (y) = �y, |�| = 1 nach (⇤)) :

hF (x), yi = hF (x), yi F unitar= hx, F�1(y)i

= hx,��1yi = ��1hx, yi W?Eig�(F )

= 0,

d.h. F (x) 2 (Eig�(F ))? = W fur alle x 2 W . Wir konnen also F au↵assen als Endomor-phismus von W . F ist nach Konstruktion unitar, d.h. nach Induktionsannahme existierteine Orthonormalbasis von W aus Eigenvektoren von F , die jede Orthonormalbasis vonEig�(F ) zu einer Orthonormalbasis von V aus Eigenvektoren von F erganzt. Die Behaup-tung folgt also mit (⇤). 2

Wir mussen noch die orthonormalen Abbildungen versorgen:

Lemma 6.1.8Es sei A 2 O(2). Dann gilt entweder

det A = 1 und A =

cos↵ � sin↵sin↵ cos↵

fur ein ↵ 2 R ,

oder

det A = �1 und A =

cos↵ sin↵sin↵ � cos↵

fur ein ↵ 2 R .

Im ersten Fall beschreibt A eine Drehung um 0 um den Winkel ↵, im zweiten Fallbeschreibt A eine Spiegelung an der Geraden

t

1 + cos↵sin↵

t 2 R�

.

Beweis:Fur A 2 O(2) gilt nach Definition E2 = AT A, also 1 = det(AT A) = det(A)2 und somitdet(A) 2 {±1}. Wir haben also

A =

a bc d

, ad� bc = ±1,

und nach Satz 6.1.4 gilt:

✓✓

ac

,

bd

◆◆

ist eine Orthonormalbasis von R2. Mit anderen

Worten:a2 + c2 = 1 = b2 + d2, ab + cd = 0. (⇤)

Es folgt:

a, b, c, d 2 [�1, 1], a = cos↵ fur ein ↵ 2 R,

c = sin↵ (ggf. ↵ durch �↵ ersetzen),

152

Page 153: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

und mit (⇤) folgt

bd

= ±✓

� sin↵cos↵

. Alle ubrigen Behauptungen rechnet man unmit-telbar nach. 2

Theorem 6.1.9 (Normalform orthogonaler Endomorphismen)Es sei (V, h·, ·i) ein n-dimensionaler Euklidischer R-Vektorraum, n 2 N\{0}, und

F 2 EndR(V ). Dann gilt: F ist orthogonal genau wenn es eine Orthonormalbasis Avon V gibt, so dass

M(A, F,A) =

0

B

B

B

B

B

B

B

B

B

B

B

B

B

B

@

1. . .

1�1 0

. . .�1

0 A1

. . .Ar

1

C

C

C

C

C

C

C

C

C

C

C

C

C

C

A

,

wobei fur alle j 2 {1, . . . , r} gilt: Aj =

cos↵j � sin↵j

sin↵j cos↵j

2 SO(2), ↵j 2 R \ ⇡Z .

Beweis:

”(“ Ubung.

”)“

Wir gehen in mehreren Schritten vor. Man beachte: K = R.

(1) Abspalten der Eigenraume

Nach Bemerkung 6.1.3 sind die einzigen moglichen Eigenwerte von F durch ±1gegeben, und zugehorige Eigenvektoren sind paarweise orthogonal; d.h. mit

U := (Eig1(F )� Eig�1(F ))?

gilt wegen Korollar 5.3.10

V = Eig1(F )� Eig�1(F )� U ,

wobei die Untervektorraume Eig±1(F ), U paarweise orthogonal sind.

Einschrankung von F auf U :

Fur alle y 2 Eig1(F )�Eig�1(F ) gilt: y = y+ +y

mit y±

2 Eig±1(F ), also F (y

±

) =±y

±

= F�1(y±

). Damit haben wir

F�1(y) = y+ � y�

2 Eig1(F )� Eig�1(F ),

153

Page 154: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

so dass fur alle x 2 U gilt:

hF (x), yi = hx, F ad(y)i F2O(V )= hx, F�1(y)i = hx, y+ � y

i = 0.

Es folgt F (x) 2 U fur alle x 2 U und somit F|U 2 O(U), da hF (x), F (y)i = hx, yi

8x, y 2 U .

(2) C-lineare Fortsetzungen

Es sei B = (v1, . . . , vm) eine Basis von U , B := M(B, F|U ,B). Wie in Bemerkung

4.4.15 sei UC der m-dimensionale C-Vektorraum mit Basis B, so dass

U =n

mX

j=1

xjvj | xj 2 R 8 j 2 {1, . . . ,m}o

⇢ UC, U =�

x 2 UC | x = x

,

wobei x =mP

j=1xjvj fur x =

mP

j=1xjvj 2 UC. Wir setzen jetzt h·, ·i und F

|U nach UC

fort:

8x =mX

j=1

xjvj, y =mX

j=1

yjvj 2 UC : hx, yiC :=mX

i,j=1

xiyjhvi, vji

G

mX

j=1

xjvj

!

:=mX

j=1

xjF (vj).

Man uberpruft sofort, dass diese Fortsetzung von h·, ·iC sesquilinear und Hermiteschist. Der Beweis der positiven Definitheit ist eine gute Ubung (Aufgabe 36). Es istalso (UC, h·, ·iC) ein unitarer m-dimensionaler C-Vektorraum mit Basis B,

B = M(B, G,B) 2 MatC(m⇥m), B = B, BT ·B = Em,

und insbesondere ist G unitar. Außerdem folgt

8x 2 UC : G(x)B=B= G(x).

(3) Eigenvektoren von G

Theorem 6.1.9 kann wegen (2) auf G angewandt werden, d.h. G ist insbesonderediagonalisierbar. Es sei � ein Eigenwert von G, d.h. nach Bemerkung 6.1.3 gilt |�| =1. Fur u 2 Eig�(F ) \ {0} sei u = u1 + iu2 mit u1, u2 2 U und ohne Beschrankungder Allgemeinheit

||u||2 = ||u1||2 + ||u2||2 = 2.

Nach Konstruktion folgt jetzt � 62 R, denn ware G(u) = ±u, dann hatten wirG(uk) = ±uk fur k 2 {1, 2}, aber u1, u2 2 U ? Eig1(F )� Eig

�1(F ) nach (1), alsou1 = u2 = 0.

Wir haben also � 6= �, und weiter

G(u)(2)= G(u) = �u = �u,

154

Page 155: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

d.h. u ist ebenfalls Eigenvektor und u ? u nach Bemerkung 6.1.3. Es folgt

0 = hu, uiC = hu1 + iu2, u1 � iu2iC = ||u1||2 � ||u2||2 + i(hu2, u1i+ hu1, u2i).

Da Real- und Imaginarteil dieser komplexen Zahl einzeln verschwinden mussen,hu1, u2i = hu2, u1i fur u1, u2 2 U , und ||u||2 = 2, erhalten wir

hu1, u2i = 0, ||u1||2 = ||u2||2 = 1.

Theorem 6.1.9 impliziert also: G besitzt eine Orthonormalbasis aus Eigenvektorender Form

1p

2u(1), 1

p

2u(1), . . . , 1

p

2u(r), 1

p

2u(r)

, 8j 2 {1, . . . , r} : G(u(j)) = �ju(j),

wobei u(j) = u(j)1 + iu(j)

2 mit paarweise orthogonalen u(j)k 2 U , so dass

A :=⇣

u(1)1 , u(1)

2 , u(2)1 , u(2)

2 , . . . , u(r)1 , u(r)

2

eine Orthonormalbasis von U ist.

(4) Konstruktion der gesuchten Basis:

Mit Uj := spanR{u(j)1 , u(j)

2 } fur j 2 {1, . . . , r} gilt nach (1) und (3):

V = Eig1(F )� Eig�1(F )�

rM

j=1

Uj

mit paarweise orthogonalen Eig1(F ), Eig�1(F ), Uj. Da

F⇣

u(j)1

= G⇣

12

u(j) + u(j)⌘⌘

= 12

�ju(j) + �ju(j)⌘

= 12

�j + �j

| {z }

2R

u(j)1 + i

2

�j � �j

| {z }

2R

u(j)2 2 Uj

und analog F⇣

u(j)2

2 Uj, folgt fur Fj := F|Uj , dass Fj 2 EndR(Uj). Weiter gilt

nach Konstruktion

det(Fj) = det(G|spanC{u(j),u(j)

}

) = �j�j = 1,

also Fj 2 SO(Uj). Aus Lemma 6.1.8 folgt jetzt mit Bj :=⇣

u(j)1 , u(j)

2

, dass

Aj := M(Bj, Fj,Bj) 2 SO(2), also Aj =

cos↵j � sin↵j

sin↵j cos↵j

fur ein ↵j 2 R.

Dabei ist ↵j 62 ⇡Z, da nach Obigem �j 62 {±1}. Sind A1,A�1 Orthonormal-basen von Eig1(F ), Eig

�1(F ), dann gilt bezuglich der Orthonormalbasis A :=

155

Page 156: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(A1,A�1,B1, . . . ,Br):

M(A, F,A) =

0

B

B

B

B

B

B

B

B

B

B

B

B

B

B

@

1. . .

1�1 0

. . .�1

0 A1

. . .Ar

1

C

C

C

C

C

C

C

C

C

C

C

C

C

C

A

,

wie behauptet. 2

6.2 Selbstadjungierte Endomorphismen

Erinnerung:Laut Definition 5.3.4 ist fur einen endlich dimensionalen Euklidischen oder unitaren K-Vektorraum (V, h·, ·i) die Abbildung F 2 EndK(V ) selbstadjungiert, genau wennF ad = F ; laut Bemerkung 5.3.5 ist aquivalent: Fur jede Orthonormalbasis A von V istM(A, F,A) symmetrisch (Hermitesch).

Beispiele:

• Orthogonale Projektionen (Definition 5.3.6) sind selbstadjungiert.

• Darstellende Matrizen symmetrischer Bilinearformen (bzw. Hermitescher Sesquili-nearformen) sind symmetrisch (bzw. Hermitesch) (Korollar 5.2.8).

Ziel:Wir zeigen im Folgenden die unitare Diagonalisierbarkeit solcher Endomorphismen.

Bemerkung 6.2.1 (vgl. Theorem 6.1.7)Fur einen endlich dimensionalen Euklidischen oder unitaren K-Vektorraum (V, h·, ·i) istF 2 EndK(V ) heißt unitar diagonalisierbar, falls es eine Orthonormalbasis A =(v1, . . . , vn) aus Eigenvektoren von F gibt, also mit F (vj) = �jvj, �j 2 K fur alle j 2{1, . . . , n}. Dann gilt fur jede andere Orthonormalbasis B = (w1, . . . , wn) von V :

mit A := M(B, F,B), S := M(B,A) : S�1AS =

0

B

@

�1 0. . .

0 �n

1

C

A

,

und S · (

S)

T= En, d.h. S 2 O(n) bzw. S 2 U(n), da S = M(B, G,B) fur G 2 EndK(V )

mit G(wj) = vj fur alle j 2 {1, . . . , n}, d.h. G ist nach Satz 6.1.2 orthogonal (bzw.Hermitesch).Eine orthogonale oder unitare Abbildung, die eine gegebene Basis von V auf eine Basisaus Eigenvektoren von F abbildet, wird auch Hauptachsentransformation fur Fgenannt, wenn alle Eigenwerte von F reell sind.

156

Page 157: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Theorem 6.2.2Es sei (V, h·, ·i) ein endlich dimensionaler Euklidischer oder unitarer K-Vektorraum.F 2 EndK(V ) ist genau dann selbstadjungiert, wenn F unitar diagonalisierbar istund alle Eigenwerte von F reell sind.

Beweis:

”(“

Ist A = (v1, . . . , vn) eine Orthonormalbasis von V und F (vj) = �jvj fur alle j 2 {1, . . . , n}mit �j 2 R, dann gilt:

M(A, F,A) =

0

B

@

�1 0. . .

0 �n

1

C

A

ist symmetrisch bzw. Hermitesch, d.h. F ad = F nach Bemerkung 5.3.5.

”)“

(1) Behauptung: Alle Eigenwerte von F sind reell, und F hat mindestens einen Eigen-wert.

Beweis:

Falls K = R:

Wie im Beweis von Theorem 6.1.7 sei V C die Komplexifizierung von V , d.h. V C hatuber C die gleichen Basen wie V uber R, und

V =�

x 2 V C | x = x

.

Weiter sei h·, ·iC wie im Beweis von Theorem 6.1.7 die sesquilineare Fortsetzung vonh·, ·i nach V C, so dass (V C, h·, ·iC) ein unitarer Vektorraum ist, und G die C-lineareFortsetzung von F auf V C. Dann gilt

8x 2 V C : G(x) = G(x), Gad = G,

wobei die Selbstadjungiertheit von G analog zum Beweis von Theorem 6.1.7 ausder Selbstadjungiertheit von F folgt, da beide bezuglich einer beliebigen Orthonor-malbasis von V (und damit von V C) die gleiche symmetrische darstellende Matrixhaben.

Falls K = C: V C := V , G := F .

In beiden Fallen folgt fur G, da C algebraisch abgeschlossen ist, dass G mindestenseinen Eigenwert � 2 C hat (Korollar 4.4.7). Falls x 2 Eig�(G) mit ||x|| = 1:

� = �hx, xi = h�x, xi = hG(x), xi G=Gad

= hx, G(x)i = hx,�xi = �,

also � 2 R. Also gilt o.B.d.A. x 2 V . Die Behauptung (1) ist damit bewiesen. 2

157

Page 158: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(2) Beweis der unitaren Diagonalisierbarkeit: Induktionsbeweis uber n = dimK(V ).

Induktionsanfang (n = 1): Es ist nichts zu zeigen.

Induktionsannahme: Die Behauptung gilt, falls dimK(V ) n.

Induktionsschluss (n! n + 1):

Es sei dimK(V ) = n + 1 und � 2 R ein Eigenwert von F (existiert nach (1)). FurW := (Eig�(F ))? gilt F (W ) ⇢ W , denn falls x 2 Eig�(F ) und y 2 W , dann folgt

hx, F (y)i F=F ad

= hF (x), yi = �hx, yi = 0.

und da dies fur alle x 2 Eig�(F ) gilt, folgt F (y) 2 (Eig�(F ))? = W . F := F|W

ist dann nach Konstruktion selbstadjungiert mit F 2 EndK(W ) und dimK(W ) =dimK(V )� dimK(Eig�(F )) n. Anwendung der Induktionsannahme auf F liefertalso eine Orthonormalbasis von W aus Eigenvektoren von F , die durch jede Ortho-normalbasis von Eig�(F ) zu einer Orthonormalbasis von V aus Eigenvektoren vonF erganzt wird. 2

Damit folgt insbesondere fur die darstellenden Matrizen B symmetrischer Bilinearfor-men und Hermitescher Sesquilinearformen: Nach Proposition 5.2.6 ist B symmetrischoder Hermitesch, d.h. FB 2 EndK(Kn) ist bzgl. des Euklidischen Standardskalarproduk-tes selbstadjungiert und somit nach obigem Theorem unitar diagonalisierbar mit reellenEigenwerten. Das wird uns dabei helfen, die naturliche Frage zu beantworten, wann ei-gentlich solch eine Matrix zu einer positiv definiten Form gehort.

Satz 6.2.3Es sei V ein n-dimensionaler K-Vektorraum, n 2 N\{0}, und es sei s : V ⇥ V !

K = R symmetrisch bilinear oder s : V ⇥ V ! K = C Hermitesch sesquilinear.Dann gilt:s ist positiv definit, genau wenn bzgl. jeder Basis von V die darstellende Matrix Bvon s eine Abbildung FB 2 EndK(Kn) definiert, deren Eigenwerte alle positiv sind.

Beweis:Es sei B eine Basis von V , B 2 MatK(n⇥n) die darstellende Matrix von s : V ⇥V ! Kbzgl. B, und FB 2 EndK(Kn), FB(x) := Bx fur alle x 2 Kn, wobei Kn mit demEuklidischen Standardskalarprodukt h·, ·i versehen sei. Nach Proposition 5.2.6 ist alsoB symmetrisch bzw. Hermitesch, und somit ist FB nach Bemerkung 5.3.5 selbstadjun-giert. Nach Theorem 6.2.2 existiert also eine Orthonormalbasis (v1, . . . , vn) von Kn mitFB(vj) = Bvj = �jvj, �j 2 R, fur alle j 2 {1, . . . , n}.

158

Page 159: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Somit gilt:

s ist positiv definitBem. 5.2.4, s : Kn ⇥Kn ! K , (x, y) 7! hx, Byi, ist positiv definit

, 8x =nP

j=1xjvj 2 Kn :

0 s(x, x) =nP

i,j=1xi

(xj) hvi, Bvji| {z }

�j�ij

=nP

j=1�j|xj|2

mit s(x, x) = 0 genau wenn x = 0

, 8 j 2 {1, . . . , n} : �j > 0

2

Damit bietet es sich an, Definition 5.2.11 wie folgt zu verallgemeinern:

Definition 6.2.4(V, h·, ·i) sei ein endlich dimensionaler Euklidischer oder unitarer K-Vektorraum,

und F 2 EndK(V ) sei selbstadjungiert. F heißt positiv definit, falls gilt:

8x 2 V \{0} : hx, F (x)i > 0 .

F ist somit genau dann positiv definit, wenn die darstellende Matrix von F bzgl. jederOrthonormalbasis von V positiv definit ist.

Nachstes Ziel:Herleitung eines praktischeren Kriteriums fur positive Definitheit von Matrizen!

Theorem 6.2.5 (Hurwitz-Kriterium)Es sei A 2 MatR(n ⇥ n) symmetrisch oder A 2 MatC(n ⇥ n) Hermitesch, A =

(aij)1i,jn. Weiter sei fur jedes ` 2 {1, . . . , n}:

A` := (aij)1i,j` .

Dann gilt:

A ist positiv definit , 8 ` 2 {1, . . . , n} : det A` > 0.

nach [Adolf Hurwitz, 1859 – 1919]Beweis:Mit (e1, . . . , en) sei wie ublich die Standardbasis von Kn bezeichnet, und h·, ·i sei das Eu-klidische Standardskalarprodukt auf Kn. Fur ` 2 {1, . . . , n} sei V` := spanK{e1, . . . , e`},und F` 2 EndK(V`) habe bzgl. der Basis (e1, . . . , e`) die darstellende Matrix A`. NachVoraussetzung ist A symmetrisch oder Hermitesch, d.h. nach Konstruktion gilt dies auchfur A`, und somit ist F` nach Bemerkung 5.3.5 selbstadjungiert. Es gilt außerdem nach

159

Page 160: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Konstruktion

8i, j 2 {1, . . . , `} : F`(ej) = FA(ej)�nP

m=`+1amjem,

hei, F`(ej)i = hei, FA(ej)i.(⇤)

”)“

Es sei ` 2 {1, . . . , n} und x 2 V` \ {0}, dann gilt

hx, F`(x)i (⇤)= hx, FA(x)i > 0,

da A nach Voraussetzung positiv definit ist, d.h. F` ist positiv definit. Es folgt

8 ` 2 {1, . . . , n} : det A` > 0,

da F` nach Theorem 6.2.2 diagonalisierbar ist und die Determinante das Produkt allerEigenwerte von F` ist, die allesamt reell und nach Satz 6.2.3 positiv sind. 2

”(“

Beweis durch vollstandige Induktion uber n.Induktionsanfang (n = 1): Es ist nichts zu zeigen.Induktionsannahme: Fur alle symmetrischen (Hermiteschen) (n� 1)⇥ (n� 1)-Matrizenstimmt die Behauptung.Induktionsschluss (

”n� 1! n“):

Es sei jetzt A 2 MatK(n ⇥ n) symmetrisch (Hermitesch) und det A` > 0 fur alle ` 2{1, . . . , n}.Nach Induktionsannahme ist also An�1 positiv definit, und nach Theorem 6.2.2 gibt eseine Orthonormalbasis A = (v1, . . . , vn�1) von Vn�1, so dass

M(A, FAn�1

,A) =

0

B

@

�1 0. . .

0 �n�1

1

C

A

wobei �1, . . . ,�n�1 2 R und nach Satz 6.2.3 fur alle j 2 {1, . . . , n� 1} gilt: �j > 0.Da en ? Vn�1 und ||en|| = 1, erhalten wir mit vn := en eine Orthonormalbasis A =(v1, . . . , vn) von Kn, und A := M(A, FA, A) ist symmetrisch (oder Hermitesch), da FA =F ad

A . Wegen (⇤) hat A = (aij) die Form

A =

0

B

B

B

@

�1 0(

b1)

. . ....

0 �n�1(

bn�1)

b1 · · · bn�1 bn

1

C

C

C

A

mit bn 2 R .

160

Page 161: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Weiter gilt nach Voraussetzung

0 < det FA = det A =X

�2Sn

sign(�) a1�(1) · · · an�(n)| {z }

6= 0 hochstens fur� = id oder � = (j, n), j < n

= �1 · · ·�n�1 · bn +n�1X

j=1

(�1)�1 · · · b�j · · ·�n�1 · bj ·(

bj)

= �1 · · ·�n�1 ·

bn �n�1X

j=1

|bj|2

�j

!

,

d.h. wegen �j > 0 fur alle j 2 {1, . . . , n� 1} folgt

bn �n�1X

j=1

|bj|2

�j> 0. (⇤⇤)

Damit folgt wegen

hvi, FA(vj)i = hvi,nX

m=1

amjvjiamj=ajm

=nX

m=1

ajm hvi, vji| {z }

=�ij

= aji

fur jedes x =nP

j=1xjvj 2 Kn:

hx, FA(x)i = (x1, . . . , xn) · AT

0

B

@

(x1)

...(xn

)

1

C

A

=n�1X

j=1

xj(�j(xj

) + bj(xn

)) + xn ·

n�1X

j=1

(

bj

)

(xj) + bn

(xn)

!

=n�1X

j=1

�j

xj +bj

(xn)

�j

2

�n�1X

j=1

|bj|2

�j|xn|2 + bn|xn|2

=n�1X

j=1

�j

xj +bj

(xn)

�j

2

+

bn �n�1X

j=1

|bj|2

�j

!

|xn|2(⇤⇤)

� 0 ,

wobei Gleichheit eintritt, genau wenn xn = xn�1 = · · · = x1 = 0, also genau wenn x = 0.2

Im Zweifelsfall lasst sich dieses Kriterium leichter uberprufen als die Positivitat allerEigenwerte (nach Satz 6.2.3).

Zu guter Letzt werden wir noch diskutieren, welche Konsequenzen das bisher Bewiesenefur symmetrische Bilinearformen und Hermitesche Sesquilinearformen hat:

161

Page 162: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Theorem 6.2.6 (Hauptachsentransformation)Es sei V ein n-dimensionaler K-Vektorraum mit K = R oder K = C und n 2

N\{0}, und s : V ⇥ V ! K sei symmetrisch bilinear (falls K = R) oder Hermiteschsesquilinear (falls K = C).Dann gibt es zu jeder Basis B = (w1, . . . , wn) von V eine Hauptachsentransfor-mation, d.h. eine weitere Basis A = (v1, . . . , vn) von V , so dass S := M(B,A) 2O(n) (oder M(B,A) 2 U(n)), und so dass die darstellende Matrix von s bzgl. ADiagonalgestalt hat mit Diagonaleintragen �1, . . . ,�n 2 R.

Beweis:B sei gegeben, B = (bij) 2 MatK(n ⇥ n) sei die darstellende Matrix von s bzgl. B,d.h. nach Proposition 5.2.6 ist B symmetrisch (oder Hermitesch). Nach Bemerkung 5.3.5ist also FB 2 EndK(Kn) selbstadjungiert, wobei Kn mit dem Euklidischen Standard-skalarprodukt versehen ist. Somit existiert nach Theorem 6.2.2 eine Orthonormalbasis((s1

), . . . , (sn)) von Kn aus Eigenvektoren von FB:

8 j 2 {1, . . . , n} : FB((sj)) = �j

(sj) mit �j 2 R.

Nach Satz 6.1.4 gilt nun S := col(s1, . . . , sn) 2 O(n) (oder S 2 U(n)). Mit

S = (sij)1i,jn, 8 j 2 {1, . . . , n} : vj :=nX

i=1

sijwi

ist A := (v1, . . . , vn) ebenfalls eine Basis von V , da S invertierbar ist, und S = M(B,A)nach Konstruktion. Es folgt

8i, j 2 {1, . . . , n} : s(vi, vj) =nX

`,m=1

s`i(smj

)s(w`, wm)

= (s1i, . . . , sni) ·B

0

B

@

(s1j)

...(snj

)

1

C

A

= sTi · FB((sj

))| {z }

�j(sj

)

= �j�ij ,

woraus die Behauptung direkt folgt. 2

Bei der Interpretation von obigem Ergebnis ist etwas Vorsicht geboten:Die Diagonaleintrage �1, . . . ,�n 2 R der darstellenden Matrix im obigen Theorem hangenvon der Wahl der Basis B ab. Sind B

B

und BB

die darstellenden Matrizen von s bzgl. derBasen B und B von V , dann gilt nach Aufgabe 27

BB

= M(B,B)T ·BB

·(

M(B,B))

,

162

Page 163: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

d.h. ein Basiswechsel verandert die darstellenden Matrizen von symmetrischen bzw. Her-miteschen Bilinear- oder Sesquilinearformen im allgemeinen nicht durch Ahnlichkeit-stransformationen. Somit ist die geometrische Interpretation der konkreten Diagonalein-trage �1, . . . ,�n 2 R in der darstellenden Matrix aus obigem Theorem fraglich. Es gibtaber stattdessen eine schone Normalform fur diese darstellenden Matrizen:

Theorem 6.2.7 (Sylvesterscher Tragheitssatz)Es sei V ein n-dimensionaler K-Vektorraum, n 2 N\{0}, und entweder sei s :

V ⇥ V ! K = R symmetrisch bilinear oder s : V ⇥ V ! K = C sei Hermitesch ses-quilinear. Dann existiert eine Basis C = (u1, . . . , un) von V , so dass die darstellendeMatrix von s bzgl. C mit k+, k

, k0 2 N die Gestalt

k+

8

<

:

k�

8

<

:

k0

8

<

:

0

B

B

B

B

B

B

B

B

B

B

B

B

B

B

@

1 0. . . 0 0

0 1�1 0

0. . . 0

0 �10 0

0 0. . .

0 0

1

C

C

C

C

C

C

C

C

C

C

C

C

C

C

A

,

also Sylvester Normalform hat. Dabei sind k+, k�

, k0 allein durch s eindeutigbestimmt.

nach [James Joseph Sylvester, 1814 – 1897]Beweis:

(1) Existenz von C:

Es sei A = (v1, . . . , vn) eine Basis von V wie in Theorem 6.2.6, so dass die darstel-lende Matrix von s bzgl. A die Form

0

B

@

�1 0. . .

0 �n

1

C

A

mit �1, . . . ,�n 2 R hat. O.B.d.A. seien (v1, . . . , vn) so angeordnet, dass k+, k�

2 Nexistieren mit

8 j 2 {1, . . . , n} : �j > 0, falls j k+ ,�j < 0, falls k+ < j k+ + k

,�j = 0, falls j > k+ + k

.

Wir setzen fur j 2 {1, . . . , n}:

uj :=

( vjp|�j |

, falls j k+ + k�

,

vi, falls j > k+ + k�

,

163

Page 164: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

und k0 := n � k+ � k�

. Dann folgt fur die quadratische Form qs zu s und fur allei, j 2 {1, . . . , n}:

s(ui, uj) = qs(uj)�ij,

qs(uj) =

8

>

<

>

:

|�j|�1qs(vj) =

1, falls j k+,�1, falls k+ < j k+ + k

,

0, falls j > k+ + k�

,

d.h. C = (u1, . . . , un) ist wie gesucht. 2

(2) k+, k�

, k0 sind unabhangig von allen Wahlen

Mit C wie in (1) sei

V+ := spanK {uj | j k+} ,

V�

:= spanK {uj | k+ < j k+ + k�

} ,

V0 := spanK {uj | j > k+ + k�

} ,

also V = V+ � V�

� V0, k±

= dim V±

, k0 = dim V0. Weil

8x =nX

i=1

xiui, y =nX

j=1

yjuj 2 V : s (x, y) =k+

X

i=1

xi(yi

)�k+

+k�X

i=k+

+1

xi(yi

) ,

gilt:

8x 2 V+\{0} : s(x, x) > 0,

8x 2 V�

\{0} : s(x, x) < 0 ,

8x 2 V0 : 8 y 2 V : s(x, y) = 0 .

Insbesondere folgt

8x 2 V0, 8y 2 V�

: s(x + y, x + y) = s(y, x + y) = s(y, y) 0. (⇤)

Ist C eine weitere Basis wie in (1) und V = V+� V�

� V0 analog wie oben definiert,dann folgt:

V+

T

(V�

� V0) = {0} ,

denn falls z 2 V+\{0}, dann gilt s(z, z) > 0 und somit z /2 V�

� V0 wegen (⇤). Esfolgt:

V+ + (V�

� V0) = V+ � (V�

� V0) ⇢ V ,

alsodim V+ dim V � dim V

� dim V0 = k+ .

Weil aber analog V+

T

(V�

� V0) = {0} gilt, folgt auch dim V+ � k+, also insgesamtdim V+ = k+ und analog dim V

= k�

, woraus dim V0 = k0 folgt.

164

Page 165: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

2

Bemerkung:Im obigen Beweis sind V+, V+ (i.a. verschiedene) Untervektorraume von V maximalerDimension mit der Eigenschaft, dass fur alle x 2 V+\{0} oder x 2 V+\{0} gilt: s(x, x) > 0;analog sind V

, V�

(i.a. verschieden und) maximal-dimensional mit: 8x 2 V�

\ {0} oderx 2 V

\ {0} : s(x, x) < 0. Schließlich gilt V0 = V0 = {x 2 V | 8 y 2 V : s(x, y) = 0}.

Definition 6.2.8Es sei V ein n-dimensionaler K-Vektorraum, n 2 N\{0}, und entweder sei s :

V ⇥ V ! K = R symmetrisch bilinear oder s : V ⇥ V ! K = C sei Hermiteschsesquilinear. C sei eine Basis von V wie in Theorem 6.2.7, so dass die darstellendeMatrix von s bzgl. C die Gestalt

k+

8

<

:

k�

8

<

:

k0

8

<

:

0

B

B

B

B

B

B

B

B

B

B

B

B

B

B

@

1 0. . . 0 0

0 1�1 0

0. . . 0

0 �10 0

0 0. . .

0 0

1

C

C

C

C

C

C

C

C

C

C

C

C

C

C

A

hat. Dann heißt (k+, k�

, k0) die Signatur von s, und k+ � k�

heißt Index oderTragheitsindex von s.

Zum Abschluss studieren wir eine Klasse von Endomorphismen, welche beide Sortenspezieller Endomorphismen enthalt, die wir bisher genauer kennen gelernt haben:

6.3 Normale Endomorphismen

Definition 6.3.1(V, h·, ·i) sei ein endlich dimensionaler Euklidischer oder unitarer K-Vektorraum.

Dann heißt F 2 EndK(V ) normal, falls gilt:

F ad � F = F � F ad.

Schon bekannte Beispiele normaler Endomorphismen:Orthogonale (unitare) und selbstadjungierte Endomorphismen sind nach Definition nor-mal.

Allgemein macht es den Umgang mit mehreren Endomorphismen einfacher, wenn diese

”kommutieren“:

165

Page 166: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Satz 6.3.2V sei ein K-Vektorraum und F, G 2 EndK(V ) seien kommutierende Endomor-

phismen, d.h. F �G = G � F .Dann gilt fur alle µ 2 K:

F (Eigµ(G)) ⇢ Eigµ(G).

Ist dimK(V ) = n 2 N\{0} und sind F, G 2 EndK(V ) kommutierend sowie beidediagonalisierbar, dann sind F und G simultan diagonalisierbar, d.h. es existierteine Basis (v1, . . . , vn) von V mit

8 j 2 {1, . . . , n} : F (vj) = �jvj, G(vj) = µjvj, �j, µj 2 K .

Beweis:Es gelte F �G = G � F .

(1) Behauptung: 8µ 2 K : F (Eigµ(G)) ⇢ Eigµ(G).

Beweis:

8x 2 Eigµ(G) : G(F (x)) = F (G(x)) = F (µx) = µF (x)

) F (x) 2 Eigµ(G).

2

(2) Behauptung: Sind F und G beide diagonalisierbar, dann sind sie simultan diagona-lisierbar.

Beweis:

Es sei also

V =kM

j=1

Eig�j(F ) (da F diagonalisierbar ist)

=mM

`=1

Eigµ`(G) (da G diagonalisierbar ist), (⇤)

mit paarweise verschiedenen �1, . . . ,�k 2 K und paarweise verschiedenen µ1, . . . , µ` 2K.

Wir zeigen fur jedes j 2 {1, . . . , k}:

Eig�j(F ) =

mM

`=1

(Eig�j(F )

T

Eigµ`(G)),

denn dann kann die gesuchte Basis aus Basen der Eig�j(F )

T

Eigµ`(G) zusammen

gesetzt werden. Dabei ist klar, dass die direkte Summe der Eig�j(F )

T

Eigµ`(G) in

Eig�j(F ) enthalten ist.

166

Page 167: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Fur die umgekehrte Inklusion sei x 2 Eig�j(F ) ⇢ V , dann hat x wegen (⇤) eine

eindeutige Zerlegung

x =mX

`=1

y` mit y` 2 Eigµ`(G) 8 ` 2 {1, . . . ,m} .

Zu zeigen ist also, dass fur alle ` 2 {1, . . . ,m} gilt: y` 2 Eig�j(F ).

Dazu folgern wir aus der obigen Zerlegung von x, dass

mX

`=1

F (y`) = F (x) = �jx =mX

`=1

�jy` ,

wobei fur alle ` 2 {1, . . . ,m} nach (1) gilt: F (y`),�jy` 2 Eigµ`(G). Da aber wegen

(⇤) die Zerlegung von F (x) in seine Komponenten aus den Eigµ`(G) eindeutig ist,

folgt:8 ` 2 {1, . . . ,m} : F (y`) = �jy`, also y` 2 Eig�j

(F ).

2

Fur den spateren Beweis der Diagonalisierbarkeit von normalen Endomorphismen aufunitaren Vektorraumen werden wir die Existenz eines simultanen Eigenvektors benotigen,auch dann, wenn Diagonalisierbarkeit noch nicht bekannt ist:

Lemma 6.3.3V sei ein n-dimensionaler K-Vektorraum mit n 2 N\{0}, und K sei algebraisch

abgeschlossen. Weiter seien F, G 2 EndK(V ) kommutierende Endomorphismen. Dannbesitzen F und G einen gemeinsamen Eigenvektor in V .

Beweis:Da K algebraisch abgeschlossen ist, besitzt F nach Korollar 4.4.7 einen Eigenwert � 2 K.Wir wahlen ein x 2 Eig�(F )\{0}. Dann gilt nach Satz 6.3.2 auch G(x) 2 Eig�(F ), undsukzessive Anwendung von Satz 6.3.2 zeigt:

8 ` 2 N : G`(x) 2 Eig�(F ).

Es folgt:W := spanK

G`(x) | ` 2 N

⇢ Eig�(F ) ⇢ V ,

d.h.

0x2W\{0}

< dimK(W ) dimK(V ) = n.

Nach Konstruktion gilt fur alle y 2 W , dass auch G(y) 2 W , d.h. G|W 2 EndK(W ), und

G|W besitzt wegen Korollar 4.4.7 einen Eigenwert µ 2 K.

Jedes y 2 Eigµ(G|W ) ⇢ W ⇢ Eig�(F ) mit y 6= 0 ist dann simultaner Eigenvektor von F

und G, denn es gilt G(y) = µy, F (y) = �y. 2

Damit sind alle Voraussetzungen gescha↵en, um folgendes allgemeine Resultat zu bewei-sen:

167

Page 168: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Theorem 6.3.4 (Spektralsatz)Es sei (V, h·, ·i) ein n-dimensionaler unitarer C-Vektorraum, n 2 N\{0} und F 2

EndC(V ). Dann gilt:

(1) F ist genau dann normal, wenn F unitar diagonalisierbar ist.

(2) Falls F normal ist, dann gilt:

F ad ist ebenfalls normal, und falls µ1, . . . , µm 2 C die paarweise verschiede-nen Eigenwerte von F sind, dann sind µ1, . . . , µm die paarweise verschiedenenEigenwerte von F ad, und

8 j 2 {1, . . . ,m} : Eigµj(F ) = Eigµj

(F ad) .

Beweis:

(0) Falls (v1, . . . , vn) eine Orthonormalbasis von V ist und fur alle j 2 {1, . . . , n}:F (vj) = �jvj, dann gilt:

8 i, j 2 {1, . . . , n} :

hvi, Fad(vj)i = hF (vi), vji = �i hvi, vji

| {z }

�ij

= �jhvi, vji = hvi,�jvji

) 8 j 2 {1, . . . , n} : F ad(vj) = �jvj .

(1)”(“

(v1, . . . , vn) sei eine Orthonormalbasis von V aus Eigenvektoren von F mit F (vj) =�jvj fur alle j 2 {1, . . . , n}, dann gilt wegen (0) auch F ad(vj) = �jvj fur allej 2 {1, . . . , n}. Also ist

8 j 2 {1, . . . , n} : F � F ad(vj) = F (�jvj) = |�j|2vj = �jFad(vj) = F ad � F (vj)

und somit F � F ad = F ad � F . 2

”)“

Beweis durch Induktion uber n.

Induktionsanfang (n = 1): Es ist nichts zu zeigen, denn alle Endomorphismen sindnormal und unitar diagonalisierbar.

Induktionsannahme: Die Behauptung gilt fur alle normalen Endomorphismen aufVektorraumen der Dimension hochstens n.

Induktionsschluss (n! n + 1):

Es sei dimC(V ) = n+1, und F 2 EndC(V ) sei normal. Nach Lemma 6.3.3 haben Fund F ad also einen gemeinsamen Eigenvektor y 2 V mit ||y|| = 1 sowie F (y) = �y,

168

Page 169: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

F ad(y) = µy, �, µ 2 C. Fur W := (spanC{y})? gilt also:

8x 2 W : hF (x), yi = hx, F ad(y)i = hx, µyi = µ hx, yi| {z }

=0

= 0

) F (x) 2 W ,

und F ad(x) 2 W analog.

Somit ist F|W 2 EndK(W ) normal mit dimCW = n. Nach Induktionsannahme

existiert also eine Orthonormalbasis von W aus Eigenvektoren von F , die durch yzu einer Orthonormalbasis von V aus Eigenvektoren von F erganzt wird. 2

(2) folgt jetzt mithilfe von (F ad)ad = F (Bemerkung 5.3.5) sofort aus (1) und (0). 2

Bemerkung 6.3.5Ist (V, h·, ·i) ein n-dimensionaler Euklidischer R-Vektorraum und n 2 N\{0}, dann zeigtman mit demgleichen Beweis wie fur Theorem 6.3.4 fur F 2 EndR(V ), dass V genaudann eine Orthonormalbasis aus Eigenvektoren von F besitzt, wenn F normal ist und�F in Linearfaktoren zerfallt.

Korollar 6.3.6Es sei (V, h·, ·i) ein n-dimensionaler unitarer C-Vektorraum und F 2 EndC(V ). Danngilt:

(1) F ist genau dann normal, wenn F unitar diagonalisierbar ist.

(2) F ist genau dann selbstadjungiert, wenn F normal ist und alle Eigenwerte vonF reell sind.

(3) F ist genau dann unitar, wenn F normal ist und alle Eigenwerte von F Betrag1 haben.

7 Der Satz von Jordan

K bezeichne im Folgenden einen Korper.

Erinnerung (Korollar 4.4.12):Falls V ein n-dimensionaler K-Vektorraum ist, n 2 N\{0}, und F 2 EndK(V ) paarweiseverschiedene Eigenwerte �1, . . . ,�n 2 K besitzt, dann ist F diagonalisierbar. Das ist der

”generische“, also lax gesprochen der

”haufigere“ Fall: Falls �F in Linearfaktoren zerfallt,

dann fuhren”kleine“ Veranderungen in �F bzw. F dazu, dass die n Eigenwerte

”getrennt“

werden, d.h. dazu, dass garantiert Diagonalisierbarkeit vorliegt.Was gibt es sonst?Nach Bemerkung 4.4.11 ist F 2 EndK(V ) auch dann nicht unbedingt diagonalisierbar,wenn �F in Linearfaktoren zerfallt: F ist nicht diagonalisierbar, wenn F einen Eigenwert�⇤

2 K besitzt, fur den die geometrische Multiplizitat ⌫(�⇤

) = dimK

Eig�⇤(F )�

echt

169

Page 170: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

kleiner ist als die algebraische Multiplizitat µ(�⇤

), also als die Nullstellenordnung von �⇤

in �F .

Beispiel:Fur " 2 R und A =

1 10 1 + "

2 MatR(2⇥ 2) hat FA Eigenwerte 1 und 1 + ",

Eig1(FA) = spanR

⇢✓

10

◆�

, Eig1+"(FA) = spanR

⇢✓

1"

◆�

,

und

✓✓

10

,

1"

◆◆

ist genau dann eine Basis von R2, wenn " 6= 0. Mit anderen Worten:

FA ist genau dann diagonalisierbar, wenn " 6= 0.

Ziel: Bestimmung einer Normalform allein unter der Voraussetzung, dass �F in Linear-faktoren zerfallt.Wir werden fur beliebige Korper K zeigen:Falls F 2 EndK(V ) und �F (�) in Linearfaktoren zerfallt, dann existiert eine Basis B vonV , so dass

M(B, F,B) =

0

B

B

B

@

J(�1, n1) 0J(�2, n2)

. . .0 J(�s, ns)

1

C

C

C

A

mit �1, . . . ,�s 2 K, n1, . . . , nr 2 N\{0},

8 j 2 {1, . . . , s} : J(�j, nj) =

0

B

B

B

@

�j 1 0. . . . . .

. . . 10 �j

1

C

C

C

A

2 MatK(nj ⇥ nj) .

Definition 7.1Fur � 2 K und n 2 N\{0} heißt

J(�, n) :=

0

B

B

B

@

� 1 0. . . . . .

. . . 10 �

1

C

C

C

A

2 MatK(n⇥ n)

Jordanblock (der Große n zum Eigenwert �).

(nach [M.E.Camille Jordan, 1838 – 1922])

Plan:Wir untersuchen zunachst die charakterisierenden Eigenschaften solcher Jordanblocke,um sie spater fur beliebige Endomorphismen F identifizieren zu konnen.

170

Page 171: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

7.1 Verallgemeinerte Eigenraume

Beobachtung:Falls n 2 N\{0} und � 2 K, dann hat

N := J(�, n)� � · En =

0

B

B

B

@

0 1 0. . . . . .

. . . 10 0

1

C

C

C

A

= J(0, n)

die folgende wichtige Eigenschaft:

N2 =

0

B

B

B

B

B

B

@

0 0 1 0. . . . . . . . .

. . . . . . 1. . . 0

0 0

1

C

C

C

C

C

C

A

, . . . , Nn = 0 .

Dabei ist fur ` 2 {0, . . . , n}

ker(N `) = spanK{e1, . . . , e`}, also dimK

ker(N `)�

= `,

{0} ⇢ ker(N) ⇢ ker(N2) ⇢ · · · ⇢ ker(Nn) = Kn.

Allgemeiner gilt:Falls V ein n-dimensionaler K-Vektorraum ist und F 2 EndK(V ) sowie � 2 K, dannfolgt

{0} ⇢ ker(F � � · id) = Eig�(F ) ⇢ ker((F � � · id)2) ⇢ · · · ⇢ ker((F � � · id)n) ⇢ V.

In Verallgemeinerung der Eigenraume definieren wir jetzt die Hauptraume Hau�(F ) �Eig�(F ) als Kerne einer hinreichend hohen Potenz von (F � � · id):

Definition 7.1.1V sei ein endlich dimensionaler K-Vektorraum, F 2 EndK(V ) und � 2 K.Dann ist der Hauptraum oder verallgemeinerte Eigenraum (

”von F zu � 2

K“) definiert durch

Hau�(F ) :=[

s2Nker((F � � · id)s) .

Bemerkung 7.1.2V , F , � seien wie in Definition 7.1.1.

(1) Der verallgemeinerte Eigenraum Hau�(F ) ist zunachst als Vereinigung unendlichvieler Unterraume von V definiert, die aber sukzessive in einander enthalten sindund sich nach endlich vielen Schritten stabilisieren: Es existiert ein s0 2 N mit

Hau�(F ) = ker(F � � · id)s0 , s0 dimK(V ),

171

Page 172: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

denn fur alle G 2 EndK(V ) (insbesondere fur G := F � � · id) gilt:

{0} ⇢ ker G ⇢ ker G2 ⇢ · · · ⇢ ker Gs ⇢ V mit dimK(V ) <1 .

Beim Ubergang von ker Gs zu ker Gs+1 kann sich die Dimension des Unterraumesvergroßern. Falls aber ker Gs = ker Gs+1, dann folgt fur jedes ` > 0:

x 2 ker Gs+` ) G`�1(x) 2 ker Gs+1 = ker Gs ) x 2 ker Gs+`�1

) · · ·) x 2 ker Gs ,

also ker Gs = ker Gs+` fur jedes ` > 0.

Insbesondere ist also Hau�(F ) = ker(F � �id)s0 fur irgendein s0 dimK(V ), und

jeder Hauptraum von F ist ein Untervektorraum von V .

(2) � ist nicht Eigenwert von F , det(F � �id) 6= 0

, 8 s 2 N : det((F � �id)s) = (det(F � �id))s 6= 0

, Hau�(F ) = {0}.

Spater werden wir folgende Verscharfung des Theorems 4.4.14 uber die Trigonalisierbar-keit aller F 2 EndK(V ) benotigen, deren charakteristisches Polynom in Linearfaktorenzerfallt:

Theorem 7.1.3Es sei V ein n-dimensionaler K-Vektorraum, n 2 N\{0}, F 2 EndK(V ) und

�F (�) =mY

j=1

(�j � �)rj

mit r1, . . . , rm 2 N\{0} und paarweise verschiedenen �1, . . . ,�m 2 K.Dann existiert eine Basis A = (v1, . . . , vn) von V , so dass

M(A, F,A) =

0

B

B

B

B

B

B

B

B

B

B

B

B

B

B

@

�1

. . .�1 ⇤

�2

. . .�2

0 �3

. . .�m

1

C

C

C

C

C

C

C

C

C

C

C

C

C

C

A

172

Page 173: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beweis:Bis auf die Anordnung der Diagonalelemente wurde die behauptete Aussage schon inTheorem 4.4.14 gezeigt. Wie im Beweis dieses Theorems arbeiten wir jetzt mit Induktionuber n = dimK(V ):Induktionsanfang (n = 1): Es ist nichts zu zeigen.Induktionsannahme:

Die Behauptung gilt auf jedem hochstens n-dimensionalen K-Vektorraum W .Induktionsschritt (n! n + 1):Es sei F 2 EndK(V ), dimK(V ) = n + 1, und

�F (�) =mY

j=1

(�j � �)rj mit r1, . . . , rm 2 N\{0} .

Weiter sei v1 2 Eig�1

(F )\{0} und (v1, w2, . . . , wn+1) eine Basis von V (existiert nachBasiserganzungssatz 3.2.11). Wir setzen

W := spanK{w2, . . . , wn+1} ⇢ V.

Mit dem Beweis von Theorem 4.4.14 folgt jetzt: Es existiert eine Basis B = (w2, . . . , wn+1)von W , so dass fur die Basis A := (v1, w2, . . . , wn+1) von V gilt:

M(A, F, A) =

0

B

B

B

@

�1 ⇤0... B0

1

C

C

C

A

,

und F 2 EndK(W ) mit B = M(B, F , B) erfullt

�F (�) = (�1 � �)r1

�1mY

j=2

(�j � �)rj .

Nach Induktionsannahme besitzt W nun eine Basis B = (v2, . . . , vn+1), so dass

M(B, F ,B) =

r1 � 1

8

<

:

0

B

B

B

B

B

B

B

@

�1 ⇤. . . ⇤

0 �1

�2 ⇤0

. . .0 �n

1

C

C

C

C

C

C

C

A

,

und A = (v1, v2, . . . , vn+1) ist eine Basis mit den gesuchten Eigenschaften. 2

Korollar 7.1.4V sei ein n-dimensionaler K-Vektorraum, n 2 N\{0}, F 2 EndK(V ), und �F zerfallein Linearfaktoren. Weiter sei �⇤ 2 K, und r 2 N sei die Nullstellenordnung von �⇤

in �F . Dann gilt:

173

Page 174: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(1) Hau�⇤(F ) = ker(F � �⇤ · id)r und r = dimK(Hau�⇤(F )).

(2) F (Hau�⇤(F )) ⇢ Hau�⇤(F ).

(3) G := F|Hau�⇤ (F ) 2 EndK(Hau�⇤(F )) erfullt �G(�) = (�⇤ � �)r.

Beweis:B = (v1, . . . , vn) sei nach Theorem 7.1.3 eine Basis von V , so dass

M(B, F,B) =

r

8

<

:

0

B

B

B

B

B

B

B

@

�⇤ ⇤. . . ⇤

0 �⇤

�2 ⇤0

. . .0 �m

1

C

C

C

C

C

C

C

A

, �j 6= �⇤ 8 j 2 {2, . . . ,m} ,

wobei

�F (�) = (�⇤ � �)r ·mY

j=2

(�j � �)rj .

Somit gilt fur N := F � �⇤ · id:

M(B, N,B) =

r

8

<

:

0

B

B

B

B

B

B

B

@

0 ⇤. . . ⇤

0 0

0 D

1

C

C

C

C

C

C

C

A

, D =

0

B

@

�2 � �⇤ ⇤. . .

0 �m � �⇤

1

C

A

,

`z }| {

M(B, N `,B) =

r

8

>

>

>

>

>

>

>

>

>

<

>

>

>

>

>

>

>

>

>

:

0

B

B

B

B

B

B

B

B

B

B

B

B

B

B

B

@

0 · · · 0 ⇤ · · · ⇤. . . . . . . . .

.... . . . . . ⇤ ⇤

. . . 0

0. . .

...0

0 D`

1

C

C

C

C

C

C

C

C

C

C

C

C

C

C

C

A

174

Page 175: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

mit det D` =⇣ mQ

j=2(�j � �⇤)rj

⌘`6= 0, d.h. D` ist invertierbar. Es folgt:

Hau�⇤(F )Def. 7.1.1

=Bem. 7.1.2

ker(Nn)8 `2N : det D`

6=0= ker(N r) = spanK{v1, . . . , vr} ,

und (1) – (3) folgen sofort aus der Gestalt von M(B, F,B). 2

In Verallgemeinerung von Bemerkung 4.4.11”(1) , (4)“ gilt:

Korollar 7.1.5V sei ein n-dimensionaler K-Vektorraum, n 2 N\{0}, und F 2 EndK(V ), so dass�F in Linearfaktoren zerfallt,

�F (�) =mY

j=1

(�j � �)rj , �1, . . . ,�m 2 K paarweise verschieden,

r1, . . . , rm 2 N\{0} .

Dann gilt:V = Hau�

1

(F )� · · ·� Hau�m(F ) .

Beweis:Wir benutzen ahnliche Ideen wie im Beweis vom Satz von Cayley-Hamilton 4.4.17:

8 j 2 {1, . . . ,m} : j := (F � �j · id)rj 2 EndK(V ) .

Es gilt:

(1) 8 i, j 2 {1, . . . ,m} : i � j = j � i,

denn alle F a, (�i · id)b, (�j · id)c mit a, b, c 2 N kommutieren.

(2) 8 i, j 2 {1, . . . ,m} : j|Hau�i

(F ) 2 EndK(Hau�i(F )),

denn nach Korollar 7.1.4 gilt F (Hau�i(F )) ⇢ Hau�i(F ), daher auch

(F � �j · id)(Hau�i(F )) ⇢ Hau�i(F ), j(Hau�i(F )) ⇢ Hau�i(F ).

(3) 8 i, j 2 {1, . . . ,m} mit i 6= j: j|Hau�i

(F ) ist invertierbar,

da ker( i) = Hau�i(F ) nach Korollar 7.1.4, und falls x 2 ker(F��j ·id)T

Hau�i(F ),dann gilt F (x) = �jx und daher

8 s 2 N : (F � �i · id)s(x) = (�j � �i)s

| {z }

6=0

x,

175

Page 176: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

d.h. x 2 Hau�i(F ) impliziert x = 0. Somit ist (F��j ·id)|Hau�i

(F ) 2 EndK(Hau�i(F ))injektiv und mithin auch bijektiv, woraus die Invertierbarkeit von j

|Hau�i(F ) folgt.

Folgerung: 8 i 2 {1, . . . ,m} : Hau�i(F )T

spanK

S

j 6=iHau�j(F )

= {0}, (⇤)

denn

:= ( 1 � · · · � i�1 � i+1 � · · · � m)|Hau�i

(F )

(2)2 EndK(Hau�i(F ))

ist nach (3) invertierbar, aber falls x =P

j 6=ixj 2 Hau�i(F ) mit xj 2 Hau�j(F ) fur

alle j 2 {1, . . . ,m}\{i}, dann folgt aus (1) und Korollar 7.1.4, dass (xj) = 0, also (x) = 0 und somit x = 0.

(⇤) zeigt nun: Die Hauptraume bilden sogar eine direkte Summe, und

dimK(Hau�1

(F )� · · ·� Hau�m(F ))Satz 3.3.9

=mX

j=1

dimK(Hau�j(F ))

Korollar 7.1.4=

mX

j=1

rj = deg(�F ) = n ,

woraus die Behauptung folgt. 2

Bemerkung:Wie im Beweis vom Satz von Cayley-Hamilton 4.4.17 haben wir im obigen Beweis paar-weise kommutierende Endomorphismen 1, . . . , m von V so konstruiert, dass 1 � · · · � m ⌘ 0, aber j 6⌘ 0 fur alle j 2 {1, . . . ,m}, sofern m > 1.

Fazit 7.1.6Ist V ein n-dimensionaler K-Vektorraum, n 2 N \ {0}, und F 2 EndK(V ), so dass �F

in Linearfaktoren zerfallt, dann existiert eine Basis A von V , so dass

M(A, F,A) =

0

B

@

A1 0. . .

0 Am

1

C

A

,

8 j 2 {1, . . . ,m} : Aj =

0

B

@

�j ⇤. . .

0 �j

1

C

A

2 MatK(rj ⇥ rj), rj 2 N\{0} ,

also Aj = �j · Erj + Nj, (Nj)rj = 0.

Definition 7.1.7Ist V ein K-Vektorraum und F 2 EndK(V ) so, dass ein r 2 N existiert mit F r = 0,dann heißt F nilpotent. Analog heißt fur n 2 N\{0} eine Matrix A 2 MatK(n⇥n)nilpotent, falls Ar = 0 fur irgendein r 2 N.Das jeweils kleinste r 2 N mit F r = 0 bzw. Ar = 0 heißt Nilpotenzindex von Fbzw. A.

176

Page 177: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beispiele:Es sei n 2 N\{0}.

• Der Jordanblock J(0, n) aus Definition 7.1 ist nilpotent mit Nilpotenzindex n.

• Jedes N 2 MatK(n ⇥ n) der Form N =

0

B

@

0 ⇤. . .

0 0

1

C

A

ist nilpotent mit Nilpotenz-index n.

• Nilpotenz bleibt unter Ahnlichkeitstransformationen erhalten:

8A 2 MatK(n⇥ n), 8S 2 GLn(K) :

(SAS�1)r = SA

Enz }| {

S�1S AS�1 · · ·SAS�1| {z }

r�mal

= SArS�1 ,

also (SAS�1)r = 0, Ar = 0.

Insgesamt haben wir schon eine bessere Normalform als vorher erreicht: Falls �F in Linear-faktoren zerfallt, gibt es eine Basis, bzgl. der die darstellende Matrix Blockdiagonalgestalthat, und F zerfallt in

”diagonal“ plus

”nilpotent“.

Um Jordan-Normalform zu erreichen, mussen wir den nilpotenten Anteil noch in Nor-malform bringen, also nilpotente Endomorphismen besser verstehen:

7.2 Strukturanalyse nilpotenter Endomorphismen

Bemerkung 7.2.1 (Rechenvorschrift)Gegeben: W : ein r-dimensionaler K-Vektorraum, r 2 N\{0}, sowie ein nilpotentes G 2

EndK(W ) mit Nilpotenzindex q 2 N\{0}.Zum Beispiel: W = Hau�⇤(F ) fur ein F 2 EndK(V ) mit dimK(V ) <1 und �F (�

) = 0,G := (F � �

· id)|W ).

Gesucht: Eine Basis B = (v1, . . . , vr) von W , so dass

M(B, G,B) =

0

B

B

B

@

J(0, n1) 0J(0, n2)

. . .0 J(0, nk)

1

C

C

C

A

mit n1 � n2 � · · · � nk,kP

j=1nj = r (man sagt:

”die nj bilden eine Partition von r“.

Dann gilt: n1 = q und G(vj) = 0 fur j 2 {1, n1 + 1, n1 + n2 + 1, . . . }, G(vj) = vj�1 sonst.

Idee fur eine Rechenvorschrift:

• Neue Bezeichnungen:

(v1, . . . , vn1

) =: (v(1)1 , . . . , v(1)

n1

), (vn1

+1, . . . , vn1

+n2

) := (v(2)1 , . . . , v(2)

n2

), etc.

177

Page 178: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

• Sind die v(j)nj gefunden, dann bekommt man aus v(j)

nj�` := G`(v(j)nj ) alle Basisvektoren

v1, . . . , vr.

• vn1

2 ker(Gq) \ ker(Gq�1) = W \ ker(Gq�1), da q = n1. Mit anderen Worten: Inker(Gq)/ker(Gq�1) ist [vn

1

] 6= 0.

Wir bestimmen daher sukzessive fur jedes p 2 {0, 1, . . . , q} die Raume W (p) :=ker(Gp), wobei nach Konstruktion

{0} = W (0) ✓ W (1) ✓ · · · ✓ W (q) ✓ W.

Dann schopfen wir W aus, indem wir sukzessive, beginnend mit W (q)/W (q�1), jeweilsfur die W (p)/W (p�1) Basen suchen:

(i) Wir bestimmen Reprasentanten w(q)1 , . . . , w(q)

mq 2 W (q) = W einer Basis vonW (q)/W (q�1).

(ii) Wir setzen p := q � 1.

Dann erganzen wir w(p)1 := G(w(p+1)

1 ), . . . , w(p)mp+1

:= G(w(p)mp+1

) durch geeignete

Vektoren w(p)mp+1

+1, . . . , w(p)mp 2 W (p) zu Reprasentanten einer Basis von W (p)/

W (p�1).

(iii) Wir wiederholen (ii) sukzessive, indem wir nach einander p durch p�1 ersetzen,bis p = 1.

Zum Beispiel fur q = 4:

# = n1 # = n2 # = n3 # = n4 # = n5

# # # # ## = m1 ! G3(w(q)

1 ) G3(w(q)2 ) G(w(q�2)

3 ) w(q�3)4 w(q�3)

5

# = mq�2 ! G2(w(q)1 ) G2(w(q)

2 ) w(q�2)3

# = mq�1 ! G(w(q)1 ) G(w(q)

2 )

# = mq ! w(q)1 w(q)

2

Die Anzahl der Vektoren in den funf Spalten betragt n1, n2, . . . , n5, wahrenddie vier Zeilen m1, m2 = mq�2, m3 = mq�1 bzw. m4 = mq Vektoren enthalten.

Strategie:Wir mussen im Folgenden beweisen, dass die obige Rechenvorschrift tatsachlich eine Basisder gewunschten Art liefert.Dazu (Plan!):

1. Wir mussen zuerst die Partitionen n1 � n2 � · · · und m1 � m2 � · · · von r undderen Bedeutung besser verstehen.

2. Wir mussen die Eigenschaften der W (p) genauer untersuchen.

3. Wir mussen die Eigenschaften der w(p)j genauer untersuchen.

178

Page 179: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Definition 7.2.2Es sei r 2 N\{0}.

(1) Eine Partition von r ist ein Tupel P = (n1, . . . , nk) 2 Nk mit

n1 � n2 � · · · � nk,kX

j=1

nj = r.

(2) Die zu einer Partition P = (n1, . . . , nk) von r duale Partition P ⇤ =(m1, m2, . . . ,mq) ist gegeben durch

mj := ]{` 2 N | j n`}.

Veranschaulichung:Stelle P = (n1, . . . , nk) anschaulich dar durch ein Diagramm aus k Spalten, die jeweilsn1, n2, . . . , nk Kastchen 2 enthalten:

# = n1 # = n2 # = n3 # = n4 # = n5

# # # # #

# = m1 !

# = m2 !

# = m3 !

# = m4 !

(hier ist P = (4, 4, 2, 1, 1), r = ]{2} = 12, n` = ]{2 in Spalte `}).

mj = ] {Spalten ` mit mindestens j 2} = ] {2 in Zeile j} .

Aus diesen Uberlegungen folgt sofort:

Korollar 7.2.3Ist P = (n1, n2, . . . , nk) eine Partition von r 2 N\{0}, dann gilt fur die duale Parti-tion P ⇤ = (m1, . . . ,mq):

179

Page 180: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(1) (a)qX

j=1

mj = r,

(b) m1 � m2 � · · · � mq.

Mit anderen Worten: P ⇤ ist eine Partition von r.

(2) (P ⇤)⇤ = P .

Als nachstes schauen wir uns die W (p) aus Bemerkung 7.2.1 genauer an, um die Durchfuhr-barkeit der dort gegebenen Rechenvorschrift zu zeigen:

Satz 7.2.4W sei ein r-dimensionaler K-Vektorraum, und G 2 EndK(W ) sei nilpotent mit

Nilpotenzindex q, wobei r, q 2 N\{0}. Fur p 2 {0, . . . , q} sei W (p) := ker(Gp). Danngilt:

(1) {0} = W (0) ⇢ W (1) ⇢ W (2) ⇢ · · · ⇢ W (q) = W .

(2) 8 p 2 {1, . . . , q} : G(W (p)) ⇢ W (p�1), G�1(W (p�1)) = W (p).

Beweis:Es sei p 2 {0, . . . , q}.

(1) 8x 2 W (p):

Gp+1(x) = G(Gp(x)| {z }

0

) = 0 ) x 2 W (p+1) ,

und W (0) = ker(id) = {0}, W (q) = ker( Gq|{z}

0

) = W .

(2) Falls p � 1:

x 2 W (p) , Gp(x) = 0 , Gp�1(G(x)) = 0 ,

, G(x) 2 W (p�1) , x 2 G�1(W (p�1)).

2

Satz 7.2.5W, r, G, q und die W (p) seien wie im Satz 7.2.4. Dann gilt:

180

Page 181: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(1)

8 p 2 {2, . . . , q} : G : W (p)/W (p�1) �! W (p�1)/W (p�2)

[x] 7! [G(x)]

definiert eine lineare Abbildung.

(2) Die Abbildung G aus (1) ist injektiv.

(3) Es sei p 2 {2, . . . , q} und [w(p)1 ], . . . , [w(p)

mp ] 2 W (p)/W (p�1) mit w(p)j 2 W (p) sei-

en linear unabhangig. Dann sind die [G(w(p)1 )], . . . , [G(w(p)

mp)] 2 W (p�1)/W (p�2)

linear unabhangig.

Beweis:Es sei p 2 {2, . . . , q}.

(1) Wegen Satz 7.2.4 sind W (p)/W (p�1), W (p�1)/W (p�2) und W (p) ! W (p�1)/W (p�2),x 7! [G(x)] wohldefiniert; letztere Abbildung ist linear, da G es ist.

Außerdem: Falls x, y 2 W (p) mit [x] = [y] in W (p)/W (p�1), dann gilt y = x + � furein � 2 W (p�1), also in W (p�1)/W (p�2):

[G(y)] = [G(x)] + [G(�)|{z}

2W (p�2)

nach Satz 7.2.4

] = [G(x)] .

Also ist G 2 HomK(W (p)/W (p�1), W (p�1)/W (p�2)) wohldefiniert wie behauptet. 2

(2) Falls x 2 W (p) mit G([x]) = 0, dann gilt in W (p�1)/W (p�2), dass 0 = [G(x)], alsoG(x) 2 W (p�2) und somit

x 2 G�1(W (p�2))Satz 7.2.4

= W (p�1) ,

mit anderen Worten [x] = 0 in W (p)/W (p�1). 2

(3) Mit w(p)j 2 W (p) wie in der Behauptung sei

0 =

mpX

j=1

aj[G(w(p)j )] =

h

G⇣

mpX

j=1

ajw(p)j

⌘i

= G⇣h

mpX

j=1

ajw(p)j

i⌘

,

d.h. nach (2) folgt

0 =h

mpX

j=1

ajw(p)j

i

=

mpX

j=1

aj[w(p)j ].

Da die [w(p)j ] nach Voraussetzung linear unabhangig sind, folgt a1 = · · · = amp = 0

und damit die Behauptung. 2

181

Page 182: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Folgerung:Die Rechenvorschrift aus Bemerkung 7.2.1 liefert mittels absteigender Induktion uber pVektoren w(p)

j 2 W (p) mit p 2 {q, . . . , 1}, j 2 {1, . . . ,mp}, so dass fur alle p 2 {1, . . . , q}gilt: ([w(p)

1 ], . . . , [w(p)mp ]) ist eine Basis von W (p)/W (p�1), und w(p)

j = G(w(p+1)j ) fur alle j

mit j mp+1, sofern p < q – denn dann ist

[G(w(p+1)1 )

| {z }

w(p)

1

], . . . , [G(w(p+1)mp+1

)| {z }

w(p)

mp+1

]⌘

nach Satz 7.2.5 linear unabhangig, wenn⇣

[w(p+1)1 ], . . . , [w(p+1)

mp+1

]⌘

es ist.

Theorem 7.2.6W sei ein r-dimensionaler K-Vektorraum, G 2 EndK(W ) sei nilpotent mit Nilpo-

tenzindex q, und es seien q, r 2 N\{0}. Fur p 2 {0, . . . , q} sei W (p) := ker(Gp), undfalls p > 0, dann sei mp := dim(W (p)/W (p�1)). Dann ist P ⇤ = (m1, . . . ,mq) einePartition von r, und fur die zu P ⇤ duale Partition P = (n1, . . . , nk) gilt: Es existierteine Basis B = (v1, . . . , vr) von W , so dass

M(B, G,B) =

0

B

B

B

@

J(0, n1)J(0, n2)

. . .J(0, nk)

1

C

C

C

A

.

Beweis:

(1) Behauptung: P ⇤ := (m1, . . . ,mq) ist eine Partition von r.

Beweis:

Es sei p 2 {2, . . . , q}. Dann ist nach Satz 7.2.5

G : W (p)/W (p�1) �! W (p�1)/W (p�2), [x] 7! [G(x)]

eine injektive lineare Abbildung, daher mp mp�1. Außerdem liefert die Dimensi-onsformel 3.3.7 (angewandt auf die Quotientenabbildung F : W (p) ! W (p)/W (p�1))

dimK(W (p)/W (p�1)) = dimK(W (p))� dimK(W (p�1)) ,

daher

r = dim W = dim(W/W (q�1)) + dim(W (q�1)/W (q�2)) + · · ·+ dim(W (1)/ W (0)|{z}

{0}

)

=qX

j=1

mj.

2

182

Page 183: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(2) Anwendung der Rechenvorschrift aus Bemerkung 7.2.1:

Laut Satz 7.2.5 (bzw. laut der Folgerung aus diesem Satz) existiert eine Fami-

lie B := (w(p)j )

1pq1jmp

von Vektoren aus W , so dass fur jedes p 2 {1, . . . , q} die⇣

w(p)1 , . . . , w(p)

mp

eine Basis von W (p)/W (p�1) reprasentieren, und falls p < q, dann

w(p)j = G(w(p+1)

j ) fur alle j 2 {1, . . . ,mp+1}.

Behauptung: B ist eine Basis von W .

Beweis:

DaqP

j=1mj

(1)= r = dim(W ), genugt es, die lineare Unabhangigkeit von B zu zeigen.

Falls

0 =qX

p=1

mpX

j=1

a(p)j w(p)

j

mit a(p)j 2 K, dann gilt

8 p < q, j 2 {1, . . . ,mp} : w(p)j 2 W (p) ⇢ W (q�1) ,

d.h. in W (q)/W (q�1) gilt

0 =h

qX

p=1

mpX

j=1

a(p)j w(p)

j

i

=qX

p=1

mpX

j=1

a(p)j [w(p)

j ]| {z }

=0, falls p<q

=

mqX

j=1

a(q)j [w(q)

j ] ,

und da (w(q)1 , . . . , w(q)

mq) eine Basis von W (q)/W (q�1) reprasentieren, folgt a(q)1 = · · · =

a(q)mq = 0, sowie

0 =q�1X

p=1

mpX

j=1

a(p)j w(p)

j .

Durch absteigende Induktion uber p folgt dann analog durch Projektion auf W (p)/

W (p�1): Fur alle p 2 {1, . . . , q} gilt 0 =mpP

j=1a(p)

j [w(p)j ] in W (p)/W (p�1), und da die

w(p)1 , . . . , w(p)

mp

eine Basis von W (p)/W (p�1) reprasentieren:

a(p)1 = · · · = a(p)

mp= 0.

2

183

Page 184: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(3) Bestimmung von M(B, G,B):

Wie in Bemerkung 7.2.1:

G y

G y

G yw(1)

1 =: v1 w(1)1 =: vq+1 · · · w(1)

mq w(1)mq+1

· · · · · · w(1)mq�1

· · · · · · w(1)m

1

=: vr

w(2)1 =: v2 · · · · · · · · · · · ·

......

......

.........

......

...

w(q�1)1 =: vq�1 w(q�1)

2 · · · w(q�1)mq w(q�1)

mq+1

· · · w(q�1)mq�1

w(q)1 =: vq w(q)

2 =: vn1

+n2

· · · w(q)mq

q = n1, mit P = (n1, . . . , nk) wie behauptet,

8 j 2 {1, n1 + 1, . . . , n1 + · · ·+ nk�1 + 1} : G(vj) = 0 ,sonst : G(vj) = vj�1 ,

d.h. M(B, G,B) hat die behauptete Gestalt. 2

7.3 Der Satz von Jordan

Fur den Beweis des Satzes von Jordan, der die Existenz einer Jordan-Normalform furalle Endomorphismen auf endlich dimensionalen Vektorraumen besagt, deren charakte-ristisches Polynom in Linearfaktoren zerfallt, mussen wir jetzt nur noch die bisherigenErgebnisse zusammenfuhren. Das ist eine gute Gelegenheit, um nochmal zu wiederholen,und um uns Uberblick zu verscha↵en:

Theorem 7.3.1 (Satz von Jordan)Es sei V ein n-dimensionaler K-Vektorraum, n 2 N\{0}, und F 2 EndK(V ) mit

�F (�) =mY

j=1

(�j � �)rj ,

wobei �1, . . . , �m 2 K paarweise verschieden seien und r1, . . . , rm 2 N\{0}. Dannexistiert eine Jordan-Basis von V fur F , d.h. eine Basis B von V , so dassM(B, F,B) Jordan-Normalform hat, also

M(B, F,B) =

0

B

@

J(�1, n1) 0. . .

0 J(�s, ns)

1

C

A

mit Jordanblocken J(�j, nj) wie in Definition 7.1. Dabei gilt {�1, . . . ,�s} ={�1, . . . , �m}, und fur alle j 2 {1, . . . ,m} gilt: rj =

P

` : �`=�j

n`.

Bis auf die Reihenfolge der Jordanblocke ist die Jordan-Normalform durch F eindeutigbestimmt.

184

Page 185: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Beweis/Rechenanleitung:

(0) Bestimmung von �F und damit von �1, . . . , �m 2 K (also von den paarweiseverschiedenen Eigenwerten von F ) und von deren algebraischen Multiplizitatenr1, . . . , rm 2 N \ {0}.

(1) Bestimmung der verallgemeinerten Eigenraume:

Fur jedes j 2 {1, . . . ,m}:

Wj = Hau�j(F )

Korollar 7.1.4= ker(F � �jid)rj ,

wobei rj = dimK(Wj) nach Korollar 7.1.4, und wobei

Gj := F|Wj � �j · idWj 2 EndK(Wj)

nilpotent ist mit Nilpotenzindex qj rj.

(2) Fur jedes j 2 {1, . . . ,m}:

Bestimmung der W (p)j := ker((Gj)p) fur p 2 {0, . . . , qj}. Damit gilt nach Theorem

7.2.6: Die

m(j)p := dim(W (p)

j /W (p�1)j ) = dim(W (p)

j )� dim(W (p�1)j )

liefern die Partition P ⇤

j = (m(j)1 , . . . ,m(j)

qj ) von rj und damit deren duale Partition

Pj = (n(j)1 , . . . , n(j)

kj), welche die Große der Jordanblocke der Jordan-Normalform

von Gj angibt:

Laut Theorem 7.2.6 gibt es eine Basis Bj von Wj, so dass

M(Bj, Gj,Bj) =

0

B

@

J(0, n(j)1 ) 0

. . .

0 J(0, n(j)kj

)

1

C

A

,

d.h.

M(Bj, F|Wj ,Bj) =

0

B

@

J(�j, n(j)1 ) 0

. . .

0 J(�j, n(j)kj

)

1

C

A

.

Bj bestimmt man nach der Rechenvorschrift 7.2.1.

(3) B = (B1, . . . ,Bm) ist eine Basis mit den gesuchten Eigenschaften, denn

V = W1 � · · ·�Wm

nach Korollar 7.1.5. Umbenennen liefert die behauptete Jordan-Normalform.

185

Page 186: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(4) Eindeutigkeitsaussage:

�1, . . . , �m 2 K sind eindeutig durch �F und damit durch F bestimmt, ebenso wierj = dim(Hau�j

(F )) fur jedes j 2 {1, . . . ,m}. rj gibt die Anzahl der Diagonalein-

trage �j in der Jordan-Normalform an. Nach (2) sind aber auch die Partitionen P ⇤

j

von rj und damit die Pj durch F eindeutig bestimmt, die wiederum die Großen derJordanblocke zum Eigenwert �j festlegen. 2

Beispiel 7.3.2Es sei V = R4, F = FA 2 EndR(V ) mit

A =1

2

0

B

B

@

3 1 1 �10 4 2 01 �1 5 10 0 0 4

1

C

C

A

.

Gemaß der Rechenvorschrift aus dem Beweis von Theorem 7.3.1:

(0)

�F (�) = (2� �) · det

0

@

32 � �

12

12

0 2� � 112 �1

252 � �

1

A

= (2� �)

(32 � �)det

2� � 1�1

252 � �

+ 12 · det

12

12

2� � 1

◆�

= (2� �)⇥

(32 � �)

(2� �)(52 � �) + 1

2

+ 12

12 �

12(2� �)

( 3

2

��)· 12

+ 1

4

= 1

2

·(2��)#

= (2� �)2⇥

(32 � �)(5

2 � �) + 12 �

14

| {z }

�2

�4�+4

= (2� �)4,

also haben wir m = 1, �1 = 2 und r1 = 4.

(1) Wir haben W1 = Hau�1

(F ) = R4 und G1 :=⇣

F � �1 · id⌘

|W1

= FN mit

N = A� 2E4 =1

2

0

B

B

@

�1 1 1 �10 0 2 01 �1 1 10 0 0 0

1

C

C

A

Bestimmung des Nilpotenzindex q von N :

N2 =1

4

0

B

B

@

2 �2 2 22 �2 2 20 0 0 00 0 0 0

1

C

C

A

=1

2

0

B

B

@

1 �1 1 11 �1 1 10 0 0 00 0 0 0

1

C

C

A

, N3 = 0,

186

Page 187: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

also q = 3. Die Jordan-Normalform konnen wir schon jetzt ablesen, weil es einenJordanblock der Große n1 = q = 3 geben muss, d.h. wir haben

n1

=3 n2

=1

# #

m1

=2 !

m2

=1 !

m3

=1 !

also n2 = 1, P1 = (3, 1) und P ⇤

1 = (2, 1, 1); insgesamt finden wir die

Jordan-Normalform

0

B

B

@

2 1 0 00 2 1 00 0 2 00 0 0 2

1

C

C

A

.

(2) Bestimmung einer Jordan-Basis:

Wir bestimmen zunachst die Unterraume W (p) = ker((G1)p) von V = R4:

W (0) = {0},

W (1) =

8

>

>

<

>

>

:

0

B

B

@

x1

x2

0x2 � x1

1

C

C

A

x1, x2 2 R

9

>

>

=

>

>

;

,

W (2) =

8

>

>

<

>

>

:

0

B

B

@

x1

x2

x3

x2 � x1 � x3

1

C

C

A

x1, x2, x3 2 R

9

>

>

=

>

>

;

,

W (3) = R4;

187

Page 188: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Reprasentanten von Basen der W (p)/W (p�1):

w(3)1 =

0

B

B

@

0001

1

C

C

A

reprasentiert eine Basis von W (3)/W (2),

w(2)1 := G1(w

(3)1 ) =

1

2

0

B

B

@

�1010

1

C

C

A

reprasentiert eine Basis von W (2)/W (1),

w(1)1 := G1(w

(2)1 ) = (G1)

2(w(3)1 ) =

1

2

0

B

B

@

1100

1

C

C

A

;

mit w(1)2 :=

0

B

B

@

100�1

1

C

C

A

reprasentieren (w(1)1 , w(1)

2 ) eine Basis von W (1)/W (0) = W (1).

Umnummerieren liefert jetzt die gesuchte Jordan-Basis:

v1 := w(1)1 v4 := w(1)

2

v2 := w(2)1

v3 := w(3)1

(v1, v2, v3, v4) =

0

B

B

@

12

0

B

B

@

1100

1

C

C

A

, 12

0

B

B

@

�1010

1

C

C

A

,

0

B

B

@

0001

1

C

C

A

,

0

B

B

@

100�1

1

C

C

A

1

C

C

A

ist eine Jordan-Basis.

7.4 Minimalpolynom

Erinnerung (Satz von Cayley-Hamilton 4.4.17):Fur V , einen n-dimensionalen K-Vektorraum mit n 2 N \ {0}, und F 2 EndK(V ) gilt:�F (F ) = 0 2 EndK(V ), deg(�F ) = n. Wir werden jetzt zeigen: Es gibt mitunter ein nicht-triviales Polonom kleineren Grades, das bei Einsetzen von F den Null-Endomorphismusliefert.

Definition 7.4.1Es sei V ein endlich dimensionaler K-Vektorraum und F 2 EndK(V ). Dann heißt

P 2 K[t] Minimalpolynom von F , falls gilt:

(1) P (F ) = 0.

188

Page 189: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

(2) P 6= 0.

(3) Falls P 2 K[t] \ {0} und P (F ) = 0, dann folgt deg(P ) � deg(P )(Minimalitat).

(4) Falls deg(P ) = d, P (t) =dP

j=0ajtj, dann ist ad = 1, d.h. P ist normiert.

Satz 7.4.2Es sei V ein n-dimensionaler K-Vektorraum, n 2 N\{0} und F 2 EndK(V ).Dann existiert ein eindeutig bestimmtes Minimalpolynom PF 2 K[t] von F .Falls Q 2 K[t] mit Q(F ) = 0, dann existiert ein � 2 K[t] mit Q = � · PF .

Beweis:

(1) Existenz eines PF :

Die Existenz von PF folgt sofort, da aus dem Satz von Cayley-Hamilton 4.4.17 ein�F 2 K[t] mit �F (F ) = 0 und deg(�F ) = n > 0 bereits bekannt ist. Somit existiertauch ein Polynom in K[t] \ {0}, das minimalen Grad hat mit der Eigenschaft, dasses bei Einsetzen von F den Null-Endomorphismus liefert. Da K ein Korper ist,kann jedes solche Polynom normiert werden, so dass der fuhrende Koe�zient 1 ist.

(2) Eindeutigkeit von PF :

Es seien PF , PF 2 K[t] Minimalpolynome von F , d.h. nach Definition 7.4.1 giltdeg (PF ) = deg (PF ) > deg(PF � PF ), da PF und PF beide fuhrenden Koe�zienten1 haben. Da aber

(PF � PF )(F ) = PF (F )� PF (F ) = 0,

folgt aus Definition 7.4.1, dass PF � PF = 0.

(3) Faktorisierung von Q 2 K[t], falls Q(F ) = 0:

Aus Q(F ) = 0 folgt wegen Definition 7.4.1, dass Q = 0 oder deg(Q) � deg(PF ),d.h. nach Polynomdivision (Aufgabe 35 aus LA I) gilt

Q = � · PF + R mit R,� 2 K[t], deg(R) < deg(PF ).

Es folgtR(F ) = Q(F )

| {z }

0

��(F ) · PF (F )| {z }

0

= 0,

also R = 0 nach Definition 7.4.1, woraus die Behauptung folgt. 2

Somit enthalt das charakteristische Polynom das Minimalpolynom als Faktor; wie kannman dann das Minimalpolynom konkret bestimmen?

189

Page 190: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Satz 7.4.3V und F seien wie in Satz 7.4.2; dann stimmen die Nullstellen des MinimalpolynomsPF von F mit denen von �F uberein.

Beweis:Es sei � eine Nullstelle von �F , also ein Eigenwert von F . Fur x 2 Eig�(F )\{0} gilt, wenn

PF (t) =dP

j=0ajtj:

PF (F )(x) =dX

j=0

ajFj(x) =

dX

j=0

aj�j · x = PF (�) · x ,

aber da PF (F ) = 0, folgt mit x 6= 0, dass PF (�) = 0.Umgekehrt folgt aus dem Satz von Cayley-Hamilton 4.4.17, dass �F (F ) = 0, d.h. nachSatz 7.4.2 folgt: �F = � · PF fur ein � 2 K[t]. Falls also µ 2 K mit PF (µ) = 0, dannfolgt �F (µ) = �(µ) · PF (µ) = 0. 2

Theorem 7.4.4Es sei V ein n-dimensionaler K-Vektorraum, F 2 EndK(V ), und

�F (�) =mY

j=1

(�j � �)rj

mit paarweise verschiedenen �1, . . . ,�m 2 K und r1, . . . , rm 2 N \ {0}.Dann ist das Minimalpolynom von F durch

PF (�) =mY

j=1

(�� �j)nj

gegeben, wobei nj 2 N \ {0} die Große des großten Jordanblockes zum Eigenwert �j

in der Jordan-Normalform von F ist.

Beweis:Nach Theorem 7.3.1 kann F in Jordan-Normalform gebracht werden, d.h. fur eine geeig-nete Basis B von V gilt

M(B, F,B) =

0

B

B

B

B

B

B

B

B

@

J(�1, n(1)1 )

. . . 0

J(�1, n(1)k1

)

J(�2, n(2)1 )

0. . .

J(�m, n(m)km

)

1

C

C

C

C

C

C

C

C

A

.

190

Page 191: Lineare Algebra - uni-freiburg.dehome.mathematik.uni-freiburg.de/mathphys/lehre/SoSe16/LA...In der Linearen Algebra formulieren wir Aussagen ¨uber einen gewissen Typ sogenannter linearer

Es folgt fur ` 2 N, dass

M(B, F `,B) =

0

B

B

B

B

B

B

B

B

B

@

h

J(�1, n(1)1 )

i`0

. . .h

J(�2, n(2)1 )

i`

. . .

0. . .

1

C

C

C

C

C

C

C

C

C

A

,

d.h. PF (F ) = 0 kann nur gelten, wenn PF (J(�j, n(j)i )) = 0 fur alle j 2 {1, . . . ,m} und

i 2 {1, . . . , kj}. PF ist das Polynom kleinsten Grades mit dieser Eigenschaft, und nachSatz 7.4.3 gilt

PF (�) =mY

j=1

(�� �j)nj

mit 0 < nj rj fur alle j 2 {1, . . . ,m}. Nun ist fur a 2 {1, . . . ,m}, ` 2 N undQ(�) := (�� �a)` o↵enbar

Q(J(�j, n(j)i )) =

0

B

@

(�j � �a)` ⇤. . .

0 (�j � �a)`

1

C

A

2 MatK(n(j)i ⇥ n(j)

i ) ,

wenn j 2 {1, . . . ,m} und i 2 {1, . . . , kj}, also Q(J(�j, n(j)i )) 6= 0, falls j 6= a, dann ist

Q(J(�j, n(j)i )) sogar invertierbar. Andererseits ist

`z }| {

Q(J(�a, n(a)i )) =

0

B

B

B

B

B

B

B

B

B

B

B

@

0 · · · 0 1 0 · · · 0

. . . . . . . . .

...0

. . . . . . 1. . . 0

0. . .

...0

1

C

C

C

C

C

C

C

C

C

C

C

A

also Q(J(�a, n(a)i )) = 0, genau wenn ` � n(a)

i . Mit anderen Worten:

P (�) =mY

j=1

(�� �j)nj

erfullt P (F ) = 0, genau wenn nj � n(j)i fur alle i 2 {1, . . . , rj}, d.h. PF mit nj =

max{n(j)i | i 2 {1, . . . , rj}} liefert das Minimalpolynom. 2

Beispiel:Fur F wie in Beispiel 7.3.2 ist �F (�) = (2� �)4 und PF (�) = (�� 2)3.

191