Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung...

142
Skript zur Vorlesung Lineare Algebra ur Grund-, Mittel- und F¨ orderschullehramt Dr. Jan-David Hardtke Universit¨ at Leipzig Institut f¨ ur Mathematik Stand: Sommersemester 2018

Transcript of Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung...

Page 1: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Skript zur Vorlesung

Lineare Algebra

fur Grund-, Mittel- und Forderschullehramt

Dr. Jan-David Hardtke

Universitat LeipzigInstitut fur Mathematik

Stand: Sommersemester 2018

Page 2: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Vorbemerkung:

Dies ist eine vorlaufige Version des Vorlesungsskriptes. Der bestehende Textwird im Laufe der Zeit um weitere Kapitel und Anhange erganzt. Daher kannes auch passieren, dass im Text schon auf eventuell noch nicht existierendeTeile des Skriptes verwiesen wird.

Falls Sie etwaige Tippfehler oder auch inhaltliche Fehler bemerken, sendenSie mir diese bitte per Email an [email protected].

Jan-David Hardtke, 20. Marz 2019

2

Page 3: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Inhaltsverzeichnis

I Mengen und Abbildungen 5

I.1 Grundlegendes uber Mengen . . . . . . . . . . . . . . . . . . . 5

I.2 Grundlegendes uber Abbildungen . . . . . . . . . . . . . . . . 9

II Die Zahlenbereiche von N bis R 14

II.1 Naturliche, ganze, rationale und reelle Zahlen . . . . . . . . . 14

II.2 Vollstandige Induktion . . . . . . . . . . . . . . . . . . . . . . 20

II.3 Der Euklidische Algorithmus . . . . . . . . . . . . . . . . . . 25

IIIAlgebraische Strukturen 31

III.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

III.2 Korper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

III.3 Der Korper der komplexen Zahlen . . . . . . . . . . . . . . . 34

III.4 Restklassenkorper . . . . . . . . . . . . . . . . . . . . . . . . 37

IV Vektorraume 43

IV.1 Vektorraume: Definition und Beispiele . . . . . . . . . . . . . 43

IV.2 Unterraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

IV.3 Lineare Unabhangigkeit, Basen und Dimension . . . . . . . . 51

V Lineare Abbildungen und Matrizen 63

V.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 63

V.2 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

V.3 Der Gaußsche Algorithmus . . . . . . . . . . . . . . . . . . . 83

VI Determinanten 100

VI.1 Vorbereitung: Permutationen . . . . . . . . . . . . . . . . . . 100

VI.2 Die Determinante einer Matrix . . . . . . . . . . . . . . . . . 104

VII Skalarprodukte 114

VII.1Skalarprodukte und ihre Eigenschaften . . . . . . . . . . . . . 114

VII.2Orthogonalitat . . . . . . . . . . . . . . . . . . . . . . . . . . 120

3

Page 4: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

VIIIEigenwerttheorie 124VIII.1Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . 124VIII.2Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . 128VIII.3Anwendung: Der PageRank . . . . . . . . . . . . . . . . . . 135

A Anhang 139A.1 Logiksymbole . . . . . . . . . . . . . . . . . . . . . . . . . . . 139A.2 Das griechische Alphabet . . . . . . . . . . . . . . . . . . . . 141

Literaturhinweise 142

4

Page 5: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

I Mengen und Abbildungen

Der Mengenbegriff und der Begriff einer Abbildung (Funktion) zwischen zweiMengen sind grundlegend nicht nur fur die lineare Algebra, sondern fur diegesamte Mathematik. Daher soll in diesem einleitenden Kapitel kurz dasNotigste zum Thema Mengen und Abbildungen zusammengestellt werden,wobei, im Interesse der Kurze und Einfachheit, die Diskussion an einigenStellen bewusst etwas informal gehalten ist.

I.1 Grundlegendes uber Mengen

Unter einer Menge verstehen wir hier einfach die Zusammenfassung gewissermathematischer Objekte zu einem neuen mathematischen Objekt. Die Aus-gangsobjekte bilden dabei die sogenannten Elemente der Menge. Bei diesenkann es sich z. B. um naturliche, rationale oder reelle Zahlen, aber auch umganzlich andere Objekte handeln. So konnen etwa die Elemente einer Mengeauch selbst wieder Mengen sein.

Um auszudrucken, dass ein Objekt x Element einer Menge A ist, schreibenwir x ∈ A, anderenfalls x /∈ A.

Zwei Mengen A und B sind gleich (A = B), falls sie dieselben Elementehaben, d. h. falls jedes Element von A auch ein Element von B und umgekehrtjedes Element von B auch ein Element von A ist.

Mengen werden haufig uber Eigenschaften ihrer Elemente definiert. Ist Eeine mathematische Eigenschaft1, so bezeichnet

x : x hat die Eigenschaft E

die Menge aller x mit der Eigenschaft E .Ist M eine bereits vorgegebene Menge, so schreibt man kurz

x ∈M : x hat die Eigenschaft E

fur die Menge

x : x ∈M und x hat die Eigenschaft E.1Ich vermeide hier bewusst eine Prazisierung, in der Praxis wird man (hoffentlich)

schnell verstehen, was gemeint ist.

5

Page 6: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Einige konkrete Beispiele: Bezeichnen wir wie ublich die Mengen der naturlich-en, rationalen und reellen Zahlen2 mit N, Q und R, so steht

n ∈ N : n > 5

fur die Menge aller naturlichen Zahlen großer als 5,

n ∈ N : es existiert ein k ∈ N mit n = 2k

ist die Menge aller geraden Zahlen undx ∈ R : x2 ∈ Q

bezeichnet die Menge aller reellen Zahlen, deren Quadrat rational ist.

Als Nachstes kommen wir zum wichtigen Begriff der Teilmengen.

Definition I.1.1. Sind A und B zwei Mengen, so heißt A eine Teilmengevon B (in Zeichen: A ⊆ B), falls jedes Element von A auch ein Element vonB ist.3

Das obige Gleichheitskriterium fur Mengen liest sich damit kurzer wiefolgt: Fur alle Mengen A und B gilt4

A = B ⇔ (A ⊆ B und B ⊆ A).

Wir werden dieses Kriterium zum Beispiel unten im Beweis von Lemma I.1.4anwenden. Zuvor noch einige weitere Definitionen.

Definition I.1.2. Die leere Menge ist diejenige Menge, welche keine Ele-mente enthalt. Sie wird mit ∅ bezeichnet.

Fur jedes mathematische Objekt a bezeichne a diejenige Menge, die aals einziges Element enthalt. a heißt die Einermenge mit Element a.

In der obigen “Eigenschaftenschreibweise” ist z. B. a = x : x = a.Als kleine Ubung mache man sich klar, dass die Mengen ∅, ∅ und ∅

jeweils voneinander verschieden sind.

Wir definieren als Nachstes zwei wichtige Operationen mit Mengen.

2Diese Zahlenbereichen werden offiziell erst spater eingefuhrt (siehe Kapitel II), sindIhnen aber sicherlich schon aus der Schule hinlanglich vertraut.

3Eine kleine Warnung hinsichtlich der Schreibweise: Manche Autoren schreiben A ⊂ Banstelle von A ⊆ B, bei wieder anderen steht A ⊂ B jedoch fur eine echte Teilmenge, alsofur A ⊆ B und A 6= B. Wir werden hier nur die Schreibweise A ⊆ B verwenden und ggf.A 6= B explizit dazu schreiben.

4Das Symbol ⇔ bedeutet “genau dann, wenn”, siehe Anhang A.1 zur Erklarung derLogiksymbole.

6

Page 7: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Definition I.1.3. Fur zwei Mengen A und B definieren wir die Vereinigungvon A und B durch5

A ∪B := x : x ∈ A oder x ∈ B

und den Durchschnitt von A und B durch

A ∩B := x : x ∈ A und x ∈ B.

A und B heißen disjunkt, falls A ∩ B = ∅ gilt, d. h. falls A und B keinegemeinsamen Elemente haben.

Ausgehend von Einermengen konnen wir durch Vereinigung “großere”Mengen erzeugen. So definieren wir Paarmengen a, b durch a, b :=a ∪ b, Dreiermengen durch a, b, c := a, b ∪ c und so fort. Dabeibezeichnen a, b, c, . . . beliebige mathematische Objekte, die nicht notwendigverschieden sein mussen. Ist z. B. a = b, so ist a, b = a. Auch dieReihenfolge der Elemente spielt keine Rolle, z. B. ist a, b = b, a unda, b, c = c, a, b.

Hier noch ein paar konkrete Beispiele: Es ist 1, 2, 3∪2, 4 = 1, 2, 3, 4,1, 2, 3 ∩ 2, 4 = 2 und 1, 3 ∩ 2, 4 = ∅.

Als Nachstes stellen wir einige allgemeine “Rechenregeln” fur Vereinigungund Durchschnitt zusammen.

Lemma I.1.4. Fur alle Mengen A, B und C gilt:

(i) (A ∪B) ∪ C = A ∪ (B ∪ C)

(ii) (A ∩B) ∩ C = A ∩ (B ∩ C)

(iii) A ∪B = B ∪A

(iv) A ∩B = B ∩A

(v) (A ∪B) ∩ C = (A ∩ C) ∪ (B ∩ C)

(vi) (A ∩B) ∪ C = (A ∪ C) ∩ (B ∪ C)

Beweis. Wir beweisen nur exemplarisch die Aussage (v). Die ubrigen Beweisesind den Leserinnen und Lesern selbst zur Ubung uberlassen.Zum Beweis verwenden wir das obige Gleichheitskriterium fur Mengen. Wirhaben also (A∪B)∩C ⊆ (A∩C)∪(B∩C) und (A∩C)∪(B∩C) ⊆ (A∪B)∩Czu zeigen.1) Beweis von (A ∪B) ∩ C ⊆ (A ∩ C) ∪ (B ∩ C).Sei x ∈ (A ∪B) ∩ C. Dann ist x ∈ A ∪B und x ∈ C.

5Hier und im Folgenden bedeutet die Schreibweise := eine Gleichheit per definitionem,d. h. das Objekt, welches links von := steht, wird durch das rechts von := stehende Objektdefiniert.

7

Page 8: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Wegen x ∈ A ∪B gilt x ∈ A oder x ∈ B. Im ersten Fall folgt wegen x ∈ Cauch x ∈ A ∩ C, im zweiten Fall folgt analog x ∈ B ∩ C. Also gilt in jedemFall x ∈ (A ∩ C) ∪ (B ∩ C).2) Beweis von (A ∩ C) ∪ (B ∩ C) ⊆ (A ∪B) ∩ C.Sei x ∈ (A ∩ C) ∪ (B ∩ C). Dann ist x ∈ A ∩ C oder x ∈ B ∩ C.Im ersten Fall ist x ∈ A und x ∈ C, also auch x ∈ A ∪ B und x ∈ C, alsox ∈ (A ∪B) ∩ C.Im zweiten Fall ist x ∈ B und x ∈ C, folglich auch x ∈ A ∪ B und x ∈ C,also x ∈ (A ∪B) ∩ C. Damit ist der Beweis abgeschlossen.

Wir definieren nun noch die Differenz zweier Mengen.

Definition I.1.5. Sind A und B zwei Mengen, so heißt die Menge

A \B := x : x ∈ A und x /∈ B

die Differenzmenge von A und B.

Man beachte, dass bei dieser Definition nicht unbedingt B ⊆ A vorausge-setzt ist. Beispielsweise ist 1, 2, 3 \ 1, 4 = 2, 3.

Schließlich kommen wir noch zum Begriff der geordneten Paare. Wir hat-ten oben schon bemerkt, dass fur Paarmengen a, b = b, a gilt. Manchmalwill man aber zwei Objekte auch unter Berucksichtigung der Reihenfolge zueinem neuen Objekt zusammenfassen. Dazu dient der Begriff der geordnetenPaare.

Definition I.1.6. Fur zwei mathematische Objekte a und b definieren wirdas geordnete Paar (a, b) durch (a, b) := a, a, b.

Es gilt dann das folgende Gleichheitskriterium (das war der Sinn derDefinition).

Lemma I.1.7. Fur alle mathematischen Objekte a, b, c, d gilt:

(a, b) = (c, d) ⇔ a = c und b = d.

Beweis. Die Schlussrichtung “⇐” ist klar. Wir zeigen nun “⇒”.Sei also (a, b) = (c, d). Dann ist insbesondere a ∈ c, c, d, also a =c oder a = c, d, woraus in jedem Fall a = c folgt.Weiter ist auch a, b ∈ c, c, d = a, a, d (die letzte Gleichheitfolgt aus der schon bewiesenen Tatsache a = c). Wir unterscheiden zweiFalle.1) Ist a = b, so folgt (a, b) = (b, b) = b. Wegen (c, d) = (a, b) folgt daherc, d = b, also d = b.2) Ist a 6= b, so folgt aus der oben beobachteten Tatsache a, b ∈ a, a, d,dass a, b = a, d sein muss. Also ist b ∈ a, d, aber a 6= b, also b = d.

8

Page 9: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Fur drei Objekte a, b, c definiert man das geordnete Tripel durch (a, b, c) :=((a, b), c). Dann gilt offenbar (a, b, c) = (d, e, f) genau dann, wenn a = d,b = e und c = f ist.

Entsprechend werden Vierertupel (Quadrupel) (a, b, c, d) erklart durch(a, b, c, d) := ((a, b, c), d) und es gilt ein analoges Gleichheitskriterium. Ebensoverfahrt man fur Funfertupel, etc.

Auch geordnete Paare lassen sich naturlich wieder zu neuen Mengenzusammenfassen.

Definition I.1.8. Fur zwei Mengen A und B ist ihr kartesisches Produkt6

definiert durch

A×B := (a, b) : a ∈ A, b ∈ B.

Hierzu eine kleine Bemerkung: Die obige Definition musste eigentlichausfuhrlich

A×B := x : es existieren ein a ∈ A und ein b ∈ B mit x = (a, b)

lauten. Allerdings verwendet man in solchen Fallen haufig abkurzende Schreib-weisen wie die obige. In der Praxis sollte recht schnell klar werden, was jeweilsgemeint ist.

Beispiel: 1, 2 × 1, 2, 3 = (1, 1), (1, 2), (1, 3), (2, 1), (2, 2), (2, 3).Naturlich kann man auch Produkte von mehr als zwei Mengen defi-

nieren. Fur drei Mengen A,B,C setzt man entsprechend A × B × C :=(a, b, c) : a ∈ A, b ∈ B, c ∈ C, usw.

I.2 Grundlegendes uber Abbildungen

Wir kommen nun zum Begriff der Abbildungen (Funktionen). In den Beispie-len werden wir dabei im Vorgriff schon einige elementare Funktionen (wiez. B. die Quadratfunktion und die Wurzelfunktion) verwenden, die offiziellerst spater eingefuhrt werden, Ihnen aber sicherlich schon aus der Schulehinreichend bekannt sind, um damit zu arbeiten.

Hier nun die Definition:

Definition I.2.1. Seien A und B zwei Mengen. Eine Abbildung oder Funktionvon A nach B ist ein Tripel (A,B, f), wobei f eine Zuordnungsvorschrift ist,die jedem Element a ∈ A genau ein Element f(a) ∈ B zuweist.f(a) heißt der Wert der Funktion an der Stelle a.A heißt der Definitionsbereich und B der Wertebereich der Funktion.

6Benannt nach Rene Descartes (1596–1650): franzosischer Philosoph und Mathematiker,lieferte wichtige Beitrage zur Geometrie.

9

Page 10: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Anstelle von (A,B, f) schreibt man in der Regel f : A→ B oder kurz nur f ,falls Definitions- und Wertebereich implizit klar sind.7

Zwei Abbildungen f : A → B und g : C → D sind gleich genau dann,wenn ihre Definitions- und Wertebereiche ubereinstimmen (also A = C undB = D gilt) und sie an jeder Stelle denselben Funktionswert haben (alsof(a) = g(a) fur alle a ∈ A = C gilt).

Einige Beispiele fur Abbildungen:1) f : 1, 2, 3 → 2, 3, 4 definiert durch f(a) := a+ 1 fur a ∈ 1, 2, 3.2) f : N→ N definiert durch f(n) := 1 fur alle n ∈ N (konstante Funktion).3) f : N→ Q definiert durch f(n) := 1

n fur alle n ∈ N.4) f : R→ R definiert durch f(x) := x fur alle x ∈ R.5) f : R→ R definiert durch f(x) := x2 fur alle x ∈ R.6) f : R+

0 → R+0 definiert durch f(x) := x2 fur alle x ∈ R+

0 . Hierbei istR+0 := x ∈ R : x ≥ 0. Beachten Sie, dass diese Funktion von der aus Beispiel

5) verschieden ist (Definitions- und Wertebereich gehoren ausdrucklich zueiner Funktion dazu).7) f : R → R definiert durch f(x) := x fur x ≥ 0 und f(x) := x3 furx < 0 definiert ebenfalls eine Funktion. Die Funktionswerte mussen sich nichtimmer durch eine geschlossene Formel angeben lassen.

Das obige Beispiel 4) lasst sich naturlich analog auf jeder beliebigen Mengebetrachten. Hierzu eine extra Definition.

Definition I.2.2. Sei A eine Menge. Die Abbildung idA : A→ A definiertdurch idA(a) := a fur alle a ∈ A heißt die identische Abbildung (oderidentische Funktion) auf A.

idA bildet also jedes Element von A auf sich selbst ab.

Auch das obige Beispiel 2) einer konstanten Funktionen lasst sich naturlichverallgemeinern.

Definition I.2.3. Seien A und B zwei Mengen und sei b0 ∈ B. Wir definiereneine Funktion b0 : A→ B durch b0(a) := b0 fur alle a ∈ A.b0 heißt die konstante Funktion auf A mit Wert b0.

Die Funktion b0 bildet also jedes Element aus A auf denselben Wert b0ab. Diese Funktion ist zu unterscheiden vom Element b0 selbst (z. B. ist1 : R → R, die konstante Funktion mit Wert 1 auf R, etwas anderes alsdie Zahl 1). In der Praxis schreibt man dennoch haufig nur b0 anstatt b0

7Zu dieser Funktionsdefinitions ist zu bemerken, dass sie eigentlich nicht mathematischprazise ist (was genau bedeutet “Zuordnungsvorschrift”?). Die mathematisch saubereDefinition lautet: f ist eine Teilmenge von A×B, so dass fur alle a ∈ A genau ein b ∈ Bmit (a, b) ∈ f existiert. Fur praktische Zwecke ist die obige Definition aber gut genug undwir wollen daher den streng formalen Funktionsbegriff hier nicht weiter diskutieren.

10

Page 11: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

und man muss aus dem Kontext schließen, ob b0 selbst oder die zugehorigekonstante Funktion gemeint ist.

Als Nachstes definieren wir noch Graph und Bild einer Funktion.

Definition I.2.4. Seien A und B zwei Mengen und sei f : A → B eineFunktion. Dann ist der Graph von f definiert durch

gr(f) := (a, f(a)) : a ∈ A.

Das Bild von f ist definiert durch

Im(f) := f(a) : a ∈ A.

Der Graph von f ist also eine Teilmenge von A×B. Etwas salopp gesagtbesteht er aus all jenen “Punkten” (a, f(a)), welche von f “getroffen” werden.

Das Bild von f ist eine Teilmenge des Wertebereichs B. Sie besteht ausdenjenigen Elementen von B, welche als Funktionswerte von f auftreten. Manbeachte, dass Im(f) deutlich kleiner sein kann als B, z. B. besteht bei einerkonstanten Funktion das Bild nur aus einem einzigen Element (vergleicheauch die Definition der Surjektivitat weiter unten).8

Nun kommen wir zur Hintereinanderausfuhrung (Verkettung) zweierAbbildungen.

Definition I.2.5. Gegeben seien Mengen A,B,C und Abbildungen g : A→B und f : B → C. Dann ist die Verkettung von f und g definiert durchf g : A→ C mit

(f g)(a) := f(g(a)) fur alle a ∈ A.

Fur diese Definition ist es wesentlich, dass die Funktionswerte von g imDefinitionsbereich von f liegen, anderenfalls ware f(g(a)) gar nicht definiert.f g wird ubrigens gelesen als “f nach g”, eben weil man erst die Abbildungg und danach die Abbildung f anwendet.

Wir betrachten wieder einige Beispiele:1) Sei g : N→ Q definiert durch g(n) := 1/n fur alle n ∈ N und f : Q→ Qdurch f(q) := q2 fur alle q ∈ Q.

Dann ist f g eine Abbildung von N nach Q und es gilt (f g)(n) =f(g(n)) = f(1/n) = (1/n)2 = 1/n2 fur n ∈ N.2) Sei g : R+

0 → R definiert durch g(x) :=√x fur alle x ∈ R+

0 (zur ErinnerungR+0 = x ∈ R : x ≥ 0). Weiter sei f : R → R definiert durch f(y) :=

y2 + 3y + 1 fur jedes y ∈ R.Dann ist f g : R+

0 → R mit (f g)(x) = f(g(x)) = f(√x) = (

√x)2 +

3√x+ 1 = x+ 3

√x+ 1 fur alle x ≥ 0.

8Die Bezeichnung Im(f) fur das Bild von f stammt ubrigens vom englischen Wort“image”. Manche Autoren schreiben stattdessen ran(f) fur das Bild von f (von englisch“range”).

11

Page 12: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

3) Sei f : R → R erklart durch f(y) :=√y2 + 1 fur alle y ∈ R und sei

g : R→ R definiert durch g(x) := x+ 1. Dann ist f g eine Funktion vonR nach R mit (f g)(x) = f(g(x)) = f(x + 1) =

√(x+ 1)2 + 1, was man

mittels binomischer Formel auch als (f g)(x) =√x2 + 2x+ 2 schreiben

kann.

Als Nachstes wollen wir die wichtigen Begriffe der Injektivitat und Surjekti-vitat kennenlernen.

Definition I.2.6. Seien A und B zwei Mengen und sei f : A → B eineAbbildung.

(i) f heißt injektiv, falls fur alle Elemente a1, a2 ∈ A mit a1 6= a2 auchf(a1) 6= f(a2) gilt.

(ii) f heißt surjektiv, falls fur alle b ∈ B ein a ∈ A mit f(a) = b existiert.

(iii) f heißt bijektiv, falls f sowohl injektiv als auch surjektiv ist.

Injektivitat von f bedeutet also, dass f verschiedene Elemente aus Aauch auf verschiedene Elemente von B abbildet. Surjektivitat bedeutet, dassjedes Element von B als Funktionswert von f auftritt. Die Formulierung “esexistiert ein a ∈ A mit f(a) = b” bedeutet dabei, dass mindestens ein solchesa existiert, eventuell kann es mehrere (sogar unendlich viele) solche Elementegeben.

Mit Hilfe des Bildes von f lasst sich die Definition der Surjektivitat kurzerfassen:

f ist surjektiv ⇔ Im(f) = B.

Wir betrachten wiederum einige konkrete Beispiele:1) Fur jede Menge A ist die identische Abbildung idA bijektiv, wie sofort ausder Definition folgt.2) Die Abbildung f : 1, 2, 3 → 2, 3, 4 mit f(a) := a+ 1 fur a ∈ 1, 2, 3ist bijektiv, wie man leicht sieht.3) Die Abbildung f : N→ Q mit f(n) := 1/n fur n ∈ N ist injektiv, denn ausf(n1) = f(n2) folgt durch Kehrwertbildung n1 = n2. Hingegen ist f nichtsurjektiv, da z. B. 2 /∈ Im(f) ist.4) Die Abbildung f : R→ R mit f(x) := x2 fur alle x ∈ R ist nicht injektiv,da z. B. f(1) = f(−1) ist. Ferner ist f auch nicht surjektiv, denn es istf(x) ≥ 0 fur alle x ∈ R, das Bild Im(f) enthalt also keine negativen Zahlen.5) Im Unterschied zu Beispiel 4) ist die Abbildung f : R+

0 → R+0 mit

f(x) := x2 bijektiv.Begrundung: Sind x, y ≥ 0 mit x 6= y, so konnen wir ohne Einschrankung

0 ≤ x < y annehmen und daraus x2 < y2, also f(x) 6= f(y) schließen. Daszeigt die Injektivitat von f .

Fur die Surjektivitat nehme man ein beliebiges y ∈ R+0 her. Dann ist

x :=√y ∈ R+

0 mit f(x) = y.

12

Page 13: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Als letzten Punkt in diesem Kapitel wollen wir nun noch den Begriff derUmkehrabbildung einfuhren: Ist f : A → B bijektiv, so existiert zu jedemb ∈ B genau ein a ∈ A mit f(a) = b (wegen der Surjektivitat existiertmindestens ein solches a, wegen der Injektivitat kann es nicht mehr als einesgeben). Das fuhrt zu folgender Definition.

Definition I.2.7. Seien A und B zwei Mengen und sei f : A → B einebijektive Abbildung. Die Umkehrabbildung (oder Umkehrfunktion) f−1 : B →A wird folgendermaßen erklart: Fur alle b ∈ B ist f−1(b) dasjenige Elementvon A mit f(f−1(b)) = b.

Fur bijektives f : A→ B ergibt sich unmittelbar aus der Definition derUmkehrabbildung:

f f−1 = idB und f−1 f = idA.

Ferner ist leicht zu sehen, dass auch f−1 wieder bijektiv ist und dass(f−1)−1 = f gilt (die Details uberlasse ich Ihnen zur Ubung).

Zum Abschluss betrachten wir ein paar Beispiele, die sich an die obigenBeispiele zur Bijketivitat anschließen:1) Wir hatten oben schon festgestellt, dass fur jede Menge A die identischeAbbildung idA bijektiv ist. Aus den Definitionen folgt nun unmittelbarid−1A = idA.2) Fur die Abbildung f : 1, 2, 3 → 2, 3, 4 mit f(a) := a+ 1 hatten wirauch schon die Bijektivitat festgestellt. Die Umkehrabbildung ist gegebendurch: f−1 : 2, 3, 4 → 1, 2, 3 mit f−1(b) = b− 1.3) Ebenfalls hatten wir schon gesehen, dass die Abbildung f : R+

0 → R+0

mit f(x) := x2 bijektiv ist. Aus der obigen Rechnung folgt auch gleichf−1(y) =

√y fur y ≥ 0.

13

Page 14: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

II Die Zahlenbereiche von N bis R

Wir wollen in diesem Kapitel das Wichtigste zu den Bereichen der naturlichen,ganzen, rationalen und reellen Zahlen zusammenstellen, wobei wir die Exis-tenz dieser Zahlenbereiche allerdings als gegeben hinnehmen.

II.1 Naturliche, ganze, rationale und reelle Zahlen

Wir beginnen mit den naturlichen Zahlen. Zwar hatten wir diese schon beiden Beispielen in Kapitel I verwendet, wir fuhren sie aber noch einmal offiziellein: Es bezeichnet

N := 1, 2, 3, 4, . . .

die Menge der naturlichen Zahlen. Diese ist Ihnen sicherlich aus der Schulebestens bekannt und daher soll die Natur dieser Menge und ihrer Elementehier auch nicht weiter hinterfragt werden. Wir setzen die naturlichen Zahlenals Grundobjekte voraus.

Manchmal will man nicht bei 1 sondern bei 0 anfangen zu zahlen, daherdefinieren wir noch

N0 := N ∪ 0 = 0, 1, 2, 3, 4, . . ..

(Bei der Notation ist etwas Vorsicht geboten, denn bei einigen Autorenschließt die Menge N die Null bereits mit ein.)

Eigentlich musste man nun zunachst das Beweisprinzip der vollstandigenInduktion und das Prinzip der rekursiven Definitionen fur die Menge dernaturlichen Zahlen diskutieren (ersteres werden wir noch tun, allerdings erstim nachsten Abschnitt) und musste die ublichen arithmetischen Operationen(Addition und Multiplikation), sowie die Ordnungsstruktur der naturlichenZahlen einfuhren. Anschließend musste man aus den naturlichen Zahlen dieganzen Zahlen, aus diesen wiederum die rationalen Zahlen und schließlichaus den rationalen die reellen Zahlen konstruieren. Dieses Vorgehen istallerdings insgesamt sehr aufwendig und wird erfahrungsgemaß nur vonwenigen Studienanfangern wirklich verstanden.

Daher setzen wir hier einfach die reellen Zahlen mit ihrer ublichen Arith-metik und Ordnungsstruktur als gegeben voraus und stellen nur ihre we-sentlichen Eigenschaften zusammen. Die ganzen und die rationalen Zahlen

14

Page 15: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

fallen uns dann als Teilmengen in den Schoß. Im Anhang dieses Skripteswerden aber die Konstruktionen der ganzen, rationalen und reellen Zahlenzumindest kurz skizziert.

Die Menge der reellen Zahlen bezeichnen wir, wie schon in den Beispielenin Kapitel I, mit R. Sie umfasst die Menge der naturlichen Zahlen inklusiveder Null, also N0 ⊆ R.

Weiter existieren auf R eine Addition (bezeichnet mit +) und eine Multi-plikation (bezeichnet mit ·), die folgende Eigenschaften haben1:

(i) (a+b)+c = a+(b+c) fur alle a, b, c ∈ R (Assoziativgesetz der Addition)

(ii) a+ b = b+ a fur alle a, b ∈ R (Kommutativgesetz der Addition)

(iii) 0 + a = a fur alle a ∈ R (Null ist neutrales Element der Addition)

(iv) Fur alle a ∈ R existiert genau ein Element −a ∈ R mit (−a) + a = 0.(Existenz von additiven Inversen)

(v) (ab)c = a(bc) fur alle a, b, c ∈ R (Assoziativgesetz der Multiplikation)

(vi) ab = ba fur alle a, b ∈ R (Kommutativgesetz der Multiplikation)

(vii) 1a = a fur alle a ∈ R (Eins ist neutrales Element der Multiplikation)

(viii) Fur alle a ∈ R \ 0 existiert genau ein Element a−1 ∈ R \ 0 mita−1a = 1. (Existenz von multiplikativen Inversen)2

(ix) a(b+ c) = ab+ ac fur alle a, b, c ∈ R (Distributivgesetz)

Man beachte, dass wegen (ii) und (iii) auch a+ 0 = a fur alle a ∈ R gilt.Ebenso ist auch a+ (−a) = 0 und a1 = a fur alle a ∈ R, sowie aa−1 = 1 furalle a ∈ R \ 0. Weiter folgt aus den obigen Eigenschaften (wie?): Es ist−0 = 0 und −(−a) = a, sowie 1−1 = 1 und (a−1)−1 = a (falls a 6= 0).

Auch alle weiteren bekannten Rechenregeln fur die reellen Zahlen lassensich aus den obigen Eigenschaften herleiten. Ein Beispiel:

Lemma II.1.1. Fur alle a, b ∈ R gilt:

(a) 0a = 0 = a0.

(b) (−a)b = −(ab) = a(−b) (insbesondere ist (−1)b = −b = b(−1)).

1Bei + und · handelt es sich eigentlich um Funktionen von R× R nach R, wobei mandie Funktionswerte an der Stelle (a, b) ∈ R× R als a + b bzw. a · b (oder kurz ab) notiert.

2Das “genau ein” ist eigentlich nicht notig. Man kann zeigen, dass die additiven undmultiplikativen Inversen automatisch eindeutig bestimmt sind, falls sie existieren. Ebensokann man beweisen, dass die neutralen Elemente 0 und 1 bereits durch ihre oben angegebeneEigenschaft eindeutig bestimmt sind, siehe dazu den Abschnitt uber Gruppen in KapitelIII.

15

Page 16: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Zu (a): Wegen der Neutralitatseigenschaft der 0 und des Distribu-tivgesetzes ist

0a = (0 + 0)a = 0a+ 0a. (II.1)

Hier haben wir bereits das Distributivgesetz in der Form (x+ y)z = xz + yzbenutzt. Es ergibt sich aus der ursprunglichen Form (ix) zusammen mit demKommutativgesetz der Multiplikation.Nun addieren wir zu beiden Seiten der Gleichung (II.1) das Element −(0a)und erhalten:

0 = −(0a) + 0a = −(0a) + (0a+ 0a).

Die rechte Seite lasst sich wegen der Assoziativitat der Addition weiterumformen und man erhalt:

0 = (−(0a) + 0a) + 0a = 0 + 0a = 0a.

Also ist in der Tat 0a = 0. Wegen der Kommutativitat der Multiplikation istdann auch a0 = 0a = 0.Zu (b): Nach Teil (a) ist 0b = 0 (das Element a in Teil (a) war eine belie-bige reelle Zahl, also gilt die Aussage ebenso fur b). Daher folgt mit demDistributivgesetz

(−a)b+ ab = ((−a) + a)b = 0b = 0.

Nun addieren wir zu beiden Seiten −(ab) und erhalten:

((−a)b+ ab) + (−(ab)) = 0 + (−(ab)) = −(ab). (II.2)

Wegen der Assoziativitat von + gilt aber

((−a)b+ab) + (−(ab)) = (−a)b+ (ab+ (−ab)) = (−a)b+ 0 = (−a)b. (II.3)

Aus (II.2) und (II.3) folgt nun (−a)b = −(ab).Da a und b beliebig waren gilt entsprechend auch (−b)a = −(ba). Wegen derKommutativitat der Multiplikation folgt daraus a(−b) = −(ab).

Hier noch eine weitere Regel.

Lemma II.1.2. Seien a, b ∈ R mit a 6= 0 und b 6= 0. Dann ist auch ab 6= 0und es gilt (ab)−1 = a−1b−1.

Beweis. Es ist

(ab)(a−1b−1) = (ba)(a−1b−1) = ((ba)a−1)b−1

= (b(aa−1))b−1 = (b1)b−1 = bb−1 = 1

(machen Sie sich selbst klar, welche der obigen Regeln (i)–(ix) in jedemRechenschritt benutzt wurden).

16

Page 17: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Wegen Lemma II.1.1 gilt 0(a−1b−1) = 0, daher folgt ab 6= 0. Nun multiplizie-ren wir die obige Gleichung von links mit (ab)−1 und erhalten

(ab)−1((ab)(a−1b−1)) = (ab)−1.

Daraus folgt

(ab)−1 = ((ab)−1(ab))(a−1b−1) = a−1b−1

(machen Sie sich wieder klar, welche der obigen Regeln (i)–(ix) hier angewen-det wurden).

Auch Differenzen und Bruche konnen wir nun definieren.

Definition II.1.3. Fur a, b ∈ R setzen wir

a− b := a+ (−b).

Ist b 6= 0, so setzen wir zudem

a

b:= ab−1.

Es gelten die folgenden bekannten Rechenregeln fur Bruche.

Lemma II.1.4. Fur alle a, b, c, d ∈ R gilt:

(a) a1 = a und 1

b = b−1, falls b 6= 0.

(b) acbd = a

bcd , falls b 6= 0 und d 6= 0.

Insbesondere ist ab = ac

bc , falls b, c 6= 0 (Kurzen/Erweitern).

(c) a+bc = a

c + bc , falls c 6= 0.

(d) (ab )−1 = ba , falls a 6= 0 und b 6= 0 (Kehrwertbildung).

(e) ab + c

d = ad+bcbd , falls b 6= 0 und d 6= 0.

Beweis. Die Beweise fur (a), (b) und (d) konnen Sie sich selbst zur Ubunguberlegen. Um (c) zu beweisen schreiben wir mit Hilfe des Distributivgesetzes:

a+ b

c= (a+ b)c−1 = ac−1 + bc−1 =

a

c+a

b.

Zum Beweis von (e) beobachtet man zunachst, dass wegen (c)

ad+ bc

bd=ad

bd+bc

bd

gilt. Wegen (b) folgt daraus die Behauptung.

17

Page 18: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Als Nachstes definieren die Menge Z der ganzen Zahlen, indem wir zu Nnoch die Null und die entsprechenden additiven Inversen hinzunehmen. Wirsetzen also

Z := N0 ∪ −n : n ∈ N = 0, 1, 2, 3, . . . ∪ −1,−2,−3, . . ..

Schließlich definieren wir die Menge Q der rationalen Zahlen als die Mengealler Bruche zweier ganzer Zahlen, also

Q :=

p

q: p, q ∈ Z, q 6= 0

.

Neben den oben beschriebenen Rechenoperationen verfugen die reellenZahlen auch uber eine Ordnungsrelation <, mit deren Hilfe man zwei reelleZahlen der Große nach vergleichen kann. Wie schon zuvor bei der Additionund der Multiplikation, wollen wir nicht formal definieren, was genau “a < b”bedeutet. Wir nehmen die Ordnungsstruktur von R schlichtweg als gegebenhin und stellen nur ihre wesentlichsten Eigenschaften zusammen.

Fur alle a, b, c ∈ R gilt:

(i) a < b ⇒ a 6= b (Irreflexivitat)

(ii) a < b und b < c ⇒ a < c (Transitivitat)

(iii) Es gilt genau eine der drei Aussagen a = b, a < b oder b < a. (Linearitat)

(iv) a < b ⇒ a+ c < b+ c

(v) a < b und 0 < c ⇒ ac < bc

Die Zahl a heißt positiv, falls 0 < a gilt und negativ, falls a < 0 gilt.

Anstelle von a < b schreibt man naturlich auch b > a. Falls a < b undb < c gilt, so schreibt man auch kurz a < b < c. Weiter schreibt man a ≤ b(oder b ≥ a), falls a < b oder a = b gilt.3 Fur die Relation ≤ gelten diefolgenden Regeln (fur alle a, b, c ∈ R):

(i’) a ≤ a (Reflexivitat)

(ii’) a ≤ b und b ≤ c ⇒ a ≤ c (Transitivitat)

(iii’) a ≤ b und b ≤ a ⇒ a = b. (Antisymmetrie)

(iv’) Es gilt a ≤ b oder b ≤ a. (Linearitat)

(v’) a ≤ b ⇒ a+ c ≤ b+ c

(vi’) a ≤ b und 0 ≤ c ⇒ ac ≤ bc3“a ≤ b” wird gelesen als “a kleiner gleich b” (das “oder” wird verschluckt).

18

Page 19: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Diese Aussagen ergeben sich aus den obigen Regeln fur die Relation <(Beweis als Ubung). Ferner gelten noch folgende Regeln.

Lemma II.1.5. Fur alle a, b, c, d ∈ R gilt:

(a) a < b und c < d ⇒ a+ c < b+ d

(b) c < 0 ⇔ −c > 0

(c) a < b und c < 0 ⇒ ac > bc

(d) a2 > 0, falls a 6= 0 (insbesondere ist 1 = 12 > 0)

(e) Ist a > 0, so ist auch 1a > 0. Ist a < 0, so ist 1

a < 0.

(f) 0 < a < b ⇒ 1a >

1b

(g) a < b < 0 ⇒ 1a >

1b

Analoge Aussagen gelten auch fur die Relation ≤ (soweit sinnvoll).

Beweis. (a) Angenommen es gilt a < b und c < d. Dann ist wegen der obigenRegel (iv) auch a + c < b + c und b + c < b + d. Die Transitivitat von <impliziert daher a+ c < b+ d.(b) Ist c < 0, so folgt wiederum wegen der obigen Regel (iv) durch Additionvon −c, dass 0 < −c gilt. Ist umgekehrt 0 < −c, so folgt durch Addition vonc analog c < 0.(c) Seien a < b und c < 0. Wegen (b) ist dann −c > 0 und daher folgt ausder obigen Regel (v): −ac < −bc. Addition von ac zu beiden Seiten liefert0 < ac− bc. Nun addiert man noch bc zu beiden Seiten und erhalt bc < ac.(d) Sei a 6= 0. Ist a > 0, so folgt aus (v), dass auch a2 = aa > 0 gilt. Ista < 0, so folgt aus (c) ebenfalls a2 = aa > 0.(e) Sei a > 0. Ware 1

a < 0, so ware wegen (v) 1 = a 1a < 0, im Widerspruch

zu (d). Also muss 1a > 0 gelten. Analog sieht man: a < 0 ⇒ 1

a < 0.(f) Es gelte 0 < a < b. Da nach (e) 1

a > 0 gilt, folgt 1 = a 1a < b 1a . Multiplika-

tion mit 1b > 0 liefert 1

b <1b b

1a = 1

a .Aussage (g) konnen Sie als Ubung in analoger Weise selbst beweisen. DasFormulieren und Beweisen entsprechender Regeln fur ≤ uberlasse ich Ihnenebenfalls zur Ubung.

Zum Schluss dieses Abschnitts fuhren wir noch die wichtige Betragsfunk-tion ein.

Definition II.1.6. Fur x ∈ R setzen wir

|x| :=

x falls x ≥ 0

−x falls x < 0.

|x| heißt der Betrag von x.

19

Page 20: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Die Betragsfunktion hat folgende Eigenschaften.

Lemma II.1.7. Fur alle x, y ∈ R gilt:

(a) |xy| = |x||y|

(b) |x+ y| ≤ |x|+ |y| (Dreiecksungleichung)

(c) ||x| − |y|| ≤ |x− y| (umgekehrte Dreiecksungleichung)

Beweis. (a) beweist man leicht durch Fallunterscheidung nach den Vorzeichenvon x und y. Die Details uberlasse ich Ihnen zur Ubung.

(b) Wir bemerken zunachst, dass a ≤ |a| fur alle a ∈ R gilt. Also ist x ≤ |x|und y ≤ |y|, folglich auch

x+ y ≤ |x|+ |y|.

Ebenso ist −x ≤ | − x| = |x| und −y ≤ | − y| = |y|, also auch

−(x+ y) = −x− y ≤ |x|+ |y|.

Da |x + y| = x + y oder |x + y| = −(x + y) gilt, folgt in jedem Fall|x+ y| ≤ |x|+ |y|.(c) Nach der schon bewiesenen Dreiecksungleichung gilt

|x| = |x− y + y| ≤ |x− y|+ |y|,

also

|x| − |y| ≤ |x− y|.

Analog zeigt man auch

|y| − |x| ≤ |y − x| = |x− y|,

also gilt in jedem Fall ||x| − |y|| ≤ |x− y|.

II.2 Vollstandige Induktion

In diesem Abschnitt wollen wir das wichtige Beweisprinzip der vollstandigenInduktion fur die Menge der naturlichen Zahlen kennenlernen.

Prinzip der vollstandigen Induktion (Version 1): Sei E ⊆ N eine Men-ge von naturlichen Zahlen, welche die folgenden beiden Eigenschaften besitzt:1) Es ist 1 ∈ E.2) Fur alle n ∈ E ist auch n+ 1 ∈ E.Dann gilt E = N.

20

Page 21: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Dieses Prinzip kann man sich folgendermaßen veranschaulichen: Nach Eigen-schaft 1) ist 1 ∈ E. Wegen der Eigenschaft 2) ist dann auch 1 + 1 = 2 ∈ E.Eine erneute Anwendung von 2) ergibt dann 2 + 1 = 3 ∈ E, anschließendfolgt 3 + 1 = 4 ∈ E, 4 + 1 = 5 ∈ E, 5 + 1 = 6 ∈ E etc.

Auf eine formalere Begrundung dieses Prinzip wollen wir hier verzichten,wir formulieren aber noch eine leicht andere Version.

Prinzip der vollstandigen Induktion (Version 2): Es sei E eine Eigen-schaft, welche naturliche Zahlen besitzen konnen. Es gelte:1) 1 hat die Eigenschaft E .2) Fur alle naturlichen Zahlen n gilt: Hat n die Eigenschaft E , so hat auchn+ 1 die Eigenschaft E .Dann hat jede naturliche Zahl die Eigenschaft E .

Zum Beweis wende man einfach das Prinzip der vollstandigen Induktion inder Version 1 auf die Menge E = n ∈ N : n hat die Eigenschaft E an.

Will man also durch vollstandige Induktion zeigen, dass jede naturlicheZahl eine bestimmte Eigenschaft E besitzt, so hat man zwei Schritte aus-zufuhren: Erstens muss man nachweisen, dass 1 die fragliche Eigenschaftbesitzt. Dieser erste Schritt wird auch Induktionsanfang genannt (er ist inder Regel einfach). Zweitens muss man zeigen, dass fur jede naturliche Zahln mit der Eigenschaft E auch n + 1 diese Eigenschaft besitzt. Das ist dersogenannte Induktionsschritt.

Ein analoges Beweisprinzip gilt naturlich auch fur N0. Dann ist derInduktionsanfang bei 0 zu wahlen und im Induktionsschritt ist zu zeigen:Hat n ∈ N0 die Eigenschaft E , so auch n + 1. Ebenso kann die Induktionauch bei irgendeiner naturlichen n0 ≥ 2 beginnen.

Wir werden sogleich ein erstes Beispiel betrachten. Zuvor fuhren wir abernoch folgende Schreibweise ein: Fur reelle Zahlen a1, a2, . . . , an setzen wir

n∑i=1

ai := a1 + a2 + · · ·+ an

undn∏i=1

ai := a1 · a2 · · · · · an.

Aufgrund der Assoziativitat von Addition und Multiplikation ist es gleichgultig,wo man in solch einer endlichen Summe/einem endlichen Produkt Klam-mern setzt. Jede Klammerung fuhrt zu demselben Ergebnis4, weshalb dieKlammern meist von vornherein weggelassen werden.5

4Das musste eigentlich formal bewiesen werden, ist aber ziemlich technisch. Da dieAussage intuitiv klar ist, verzichten wir hier auf einen Beweis.

5Die Verwendung des Buchstaben i fur den Index solcher Summen oder Produkte ist

21

Page 22: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Nun kommen wir zum ersten Beispiel fur einen Beweis durch vollstandigeInduktion.

Beispiel II.2.1. (Gaußsche Summenformel6) Fur alle n ∈ N gilt

n∑i=1

i = 1 + 2 + 3 + · · ·+ n =n(n+ 1)

2.

Beweis. Im Induktionsanfang haben wir die Richtigkeit der Behauptung furn = 1 zu uberprufen. Das ist einfach: Fur n = 1 ergeben beide Seiten derobigen Gleichung 1.Kommen wir nun zum Induktionsschritt: Angenommen n ist eine naturlicheZahl mit

n∑i=1

i =n(n+ 1)

2. (II.4)

Wir mussen zeigen, dass dann auch

n+1∑i=1

i =(n+ 1)((n+ 1) + 1)

2

gilt.Dazu addieren wir n+ 1 zu (II.4) und erhalten:

n+1∑i=1

i =

n∑i=1

i+ n+ 1 =n(n+ 1)

2+ n+ 1

= (n+ 1)(n

2+ 1)

= (n+ 1)n+ 2

2=

(n+ 1)((n+ 1) + 1)

2.

Damit ist der Beweis abgeschlossen.

Bevor wir zum nachsten Beispiel kommen, fuhren wir noch einmal offizielPotenzen ein:

Definition II.2.2. Fur a ∈ R und n ∈ N setzen wir

an :=n∏i=1

a = a · a · · · · · a︸ ︷︷ ︸n mal

.

Außerdem setzen wir noch a0 := 1.

naturlich nicht wesentlich, man kann auch jeden anderen Buchstaben zur Bezeichnungwahlen (j und k sind ebenfalls sehr beliebt). Naturlich ist es auch erlaubt, dass eineSumme/ein Produkt bei irgendeinem anderen Index m ∈ N0 anstelle bei m = 1 beginnt.

6Carl Friedrich Gauß (1777–1855): deutscher Mathematiker mit zahlreichen wichtigenBeitragen zu verschiedenen Teilgebieten der Mathematik, unter anderem zur Zahlentheorieund zur Geometrie. Der nach ihm benannte Gaußsche Integralsatz ist in der Analysis vonVektorfeldern und damit auch fur Anwendungen in der Physik von großer Bedeutung.

22

Page 23: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Es gelten die bekannten Potenzgesetze

an+m = anam (am)n = anm (ab)n = anbn,

wobei a, b ∈ R und n,m ∈ N0 beliebig sind. Auch diese Regeln musste manstreng genommen durch vollstandige Induktion beweisen, was ich Ihnen zurUbung uberlasse (fuhren Sie jeweils eine vollstandige Induktion nach n durch,bei beliebigen, aber festen Werten a, b und m).

Hier betrachten wir stattdessen noch einige etwas interessantere Beispiele.

Beispiel II.2.3. (Geometrische Summenformel) Sei q ∈ R mit q 6= 1. Furalle n ∈ N0 gilt

n∑i=0

qi = 1 + q + q2 + · · ·+ qn =1− qn+1

1− q.

Beweis. Der Induktionsanfang ist wieder einfach: Fur n = 0 steht auf beidenSeiten der obigen Gleichung 1.Induktionsschritt: Sei n ∈ N0 mit

n∑i=0

qi =1− qn+1

1− q.

Dann folgt:

n+1∑i=0

qi =

n∑i=0

qi + qn+1 =1− qn+1

1− q+ qn+1 =

1− qn+1 + (1− q)qn+1

1− q

=1− qn+1 + qn+1 − qn+2

1− q=

1− qn+2

1− q,

was gerade die Behauptung fur n+1 ist, also ist der Beweis abgeschlossen.

Vor dem nachsten Beispiel fuhren wir noch offiziell den Begriff der Teil-barkeit ein.

Definition II.2.4. Seien a, b ∈ Z. Dann heißt a ein Teiler von b (in Zeichena | b, gelesen als “a teilt b”), falls ein k ∈ Z mit b = ka existiert.

Fur alle ganzen Zahlen a, b, c gilt:

(i) a | b und a | c ⇒ a | b+ c

(ii) a | b ⇒ a | cb

(Beweis als Ubung)Hier nun ein Beispiel fur einen Induktionsbeweis aus der Teilbarkeitstheo-

rie.

23

Page 24: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beispiel II.2.5. Seien a, b, c ∈ Z mit c | a+ b und c | a− 1. Dann gilt auchc | an + b fur alle n ∈ N.

Beweis. Induktionsanfang: Fur n = 1 ist nichts zu zeigen, da a + b nachVoraussetzung teilbar durch c ist.Induktionsschritt: Sei n ∈ N derart, dass an + b durch c teilbar ist. Es gilt

an+1 + b = a · an + b = (a− 1)an + an + b (II.5)

Da nach Voraussetzung c | a− 1 gilt, gilt auch c | (a− 1)an (siehe die obigeRegel (ii)). Wegen c | an + b folgt daraus mit Hilfe der Regel (i) und (II.5)auch c | an+1 + b. Damit ist der Beweis abgeschlossen.

Weiter gibt es noch folgende Variante der vollstandigen Induktion, diebisweilen sehr nutzlich ist.

Starkes Prinzip der vollstandigen Induktion: Es sei E eine Eigenschaft,welche naturliche Zahlen besitzen konnen. Es gelte:1) 1 hat die Eigenschaft E .2) Fur alle naturlichen Zahlen n gilt: Hat jede der Zahlen 1, . . . , n die Eigen-schaft E , so hat auch n+ 1 die Eigenschaft E .Dann hat jede naturliche Zahl die Eigenschaft E .

Auch dieses Prinzip gilt naturlich entsprechend, wenn man nicht bei Einssondern bei einer anderen Zahl n0 ∈ N0 beginnt.

Zum Beweis des Prinzips wende man einfach das ursprungliche vollstandigeInduktionsprinzip auf die Eigenschaft E ′ an, die folgendermaßen erklart ist:Eine naturliche n hat die Eigenschaft E ′, falls jede der Zahlen 1, . . . , n dieEigenschaft E hat.

Ein klassisches Beispiel fur eine Anwendung des starken Prinzips dervollstandigen Induktion ist der Beweis der Existenz der Primfaktorzerlegung.Zur Erinnerung hier noch einmal die Definition einer Primzahl.

Definition II.2.6. Eine naturliche Zahl p ≥ 2 heißt Primzahl, falls 1 undp die einzigen positiven Teiler von p sind. Die Menge aller Primzahlenbezeichnen wir mit P.

Die ersten Primzahlen sind 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31. Wesentlichlangere Listen von Primzahlen finden sich in einschlagigen Tafelwerken.

Nun zur Existenz der Primfaktorzerlegung.

Satz II.2.7 (Existenz der Primfaktorzerlegung). Jede naturliche Zahl n ≥ 2lasst sich als Produkt von Primzahlen schreiben, d. h. es existieren Primzahlenp1, . . . , ps mit n =

∏si=1 pi = p1p2 . . . ps.

Die Primfaktoren p1, . . . , ps mussen dabei naturlich nicht alle verschiedensein, z. B. ist 12 = 2 · 2 · 3.

24

Page 25: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Induktionsanfang: Da 2 selbst eine Primzahl ist, ist hier nichts weiterzu zeigen.Induktionsschritt: Sei n ∈ N mit n ≥ 2 derart, dass sich jede naturliche Zahl2 ≤ k ≤ n als Produkt von Primzahlen darstellen lasst.Ist n+ 1 selbst eine Primzahl, so muss man nichts weiter beweisen. Ist n+ 1keine Primzahl, so existiert ein k ∈ 2, . . . , n, welches n+ 1 teilt. Also istn+ 1 = kl fur ein l ∈ N. Wegen k ≥ 2 und k ≤ n ist auch l ≤ n und l ≥ 2.Laut unserer Annahme sind also k und l beide als Produkt von Primzahlendarstellbar, etwa k =

∏si=1 pi und l =

∏ti=1 qi.

Dann ist auch n+ 1 = kl = (p1p2 . . . ps)(q1q2 . . . qt) ein Produkt von Prim-zahlen.

Eine wichtige Konsequenz des obigen Satzes ist die Tatsache, dass esunendlich viele Primzahlen geben muss, der sogenannte Satz von Euklid.7

Satz II.2.8 (Satz von Euklid). Die Menge P der Primzahlen ist unendlich.

Beweis. Wir fuhren den Beweis durch Widerspruch. Angenommen die MengeP ware endlich. D. h. sie lasst sich in der Form P = p1, p2, . . . , pn aufzahlen.Nun setzen wir a :=

∏ni=1 pi = p1p2 . . . pn und b := a+ 1.

Nach Satz II.2.7 ist b als Produkt von Primzahlen darstellbar. Insbesondereexistiert ein p ∈ P mit p | b.Wegen P = p1, p2, . . . , pn ist aber p = pi fur ein i ∈ 1, . . . , n.Nach Definition von a gilt also auch p | a.Daraus wurde folgen, dass p auch ein Teiler von b− a = 1 ist, was naturlichunmoglich ist. Somit muss P unendlich sein.

Man kann ubrigens auch beweisen, dass die Primfaktorzerlegung einerZahl eindeutig bestimmt ist (bis auf die Reihenfolge der Faktoren). Daswerden wir im nacshten Anschnitt tun (siehe Satz II.3.7).

II.3 Der Euklidische Algorithmus

In diesem Abschnitt wollen wir den sogenannten Euklidischen Algorithmus,ein Verfahren zur Bestimmung des großten gemeinsamen Teilers zweierZahlen, kennenlernen. Zunachst formulieren wir nochmal offiziell die Divisionmit Rest in Z.

Satz II.3.1 (Division mit Rest). Seien a, b ∈ Z mit b 6= 0. Dann existiereneindeutig bestimmte Zahlen q ∈ Z und r ∈ N0 mit a = qb+ r und r < |b|.

7Euklid von Alexandria: Griechischer Mathematiker, lebte vermutlich im 3.Jahrhundertv. Chr., lieferte grundlegende Beitrage zur Geometrie, Arithmetik und Zahlentheorie,sowie zur Musiktheorie (diese war im antiken Griechenland ein Teilgebiet der Mathematik,aufbauend auf der Arithmetik). Sein beruhmtestes Werk “Elemente” war in vielen Landernnoch bis ins 20.Jahrhundert hinein Grundlage des Geometrieunterrichts an Schulen. Auchder im nachsten Abschnitt behandelte Euklidische Algorithmus stammt von ihm.

25

Page 26: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Im obigen Satz ist q der ganzzahlige Anteil des Quotienten a/b und rist der verbleibende Rest. Naturlich musste dieser Satz eigentlich formalbewiesen werden, aber da die Aussage intuitiv klar ist, verzichten wir hierdarauf.

Als Nachstes definieren wir den großten gemeinsamen Teiler (ggT) zweierZahlen.

Definition II.3.2. Seien a, b ∈ Z mit a 6= 0 oder b 6= 0. Dann bezeichnet

ggT(a, b) := maxc ∈ N : c | a und c | b

den großten gemeinsamen Teiler von a und b (max steht fur Maximum, alsodas großte Element der Menge).

Der folgende Euklidische Algorithmus8 erlaubt es, den ggT zweier Zahlendurch wiederholte Division mit Rest zu bestimmen.

Satz II.3.3 (Euklidischer Algorithmus). Seien a, b ∈ Z mit b 6= 0. Wirbestimmen zunachst q0, r0 ∈ Z mit

a = q0b+ r0, 0 ≤ r0 < |b|.

Ist r0 = 0, so ist ggT(a, b) = b.Anderenfalls finden wir q1, r1 ∈ Z mit

b = q1r0 + r1, 0 ≤ r1 < r0.

Ist r1 = 0, so ist ggT(a, b) = r0.Anderenfalls gibt es q2, r2 ∈ Z mit

r0 = q2r1 + r2, 0 ≤ r2 < r1.

Ist r2 = 0, so ist ggT(a, b) = r1.Anderenfalls bestimme q3, r3 ∈ Z mit

r1 = q3r2 + r3, 0 ≤ r3 < r2.

So fortfahrend erhalten wir q0, . . . , qn, r0. . . . , rn ∈ Z mit

ri−1 = qi+1ri + ri+1, 0 ≤ ri+1 < ri

fur i = 1, . . . , n− 1, wobei r0, . . . , rn−1 6= 0 und rn = 0.Dann gilt ggT(a, b) = rn−1, der großte gemeinsame Teiler von a und b istalso gleich dem letzten nicht verschwindenden Rest.

8Siehe Fußnote zum Satz von Euklid.

26

Page 27: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Zunachst ist klar, dass das Verfahren wirklich nach endlich vielenSchritten bei rn = 0 ankommt, da die Reste wegen ri+1 < ri in jedem Schrittum mindestens 1 kleiner werden.

Falls bereits r0 = 0 ist, so gilt b | a und somit naturlich ggT(a, b) = b.

Ansonsten haben wir

ri−1 = qi+1ri + ri+1 fur i = 0, . . . , n− 1

(wobei wir r−1 := b setzen).

Wegen rn = 0 ist rn−2 = qnrn−1, also rn−1 | rn−2.Wegen rn−3 = qn−1rn−2 + rn−1 folgt daraus auch rn−1 | rn−3.Aus rn−4 = qn−2rn−3 + rn−2 folgt dann rn−1 | rn−4.So fortfahrend erhalt man rn−1 | ri fur alle i = 0, . . . , n− 1 und schließlichauch rn−1 | r−1 = b.

Aus a = q0b + r0 folgt dann auch rn−1 | a, also ist rn−1 ein gemeinsamerTeiler von a und b.

Sei nun c ∈ N irgendein gemeinsamer Teiler von a und b. Wir wollen c ≤ rn−1nachweisen. Zunachst folgt aus r0 = a− q0b auch c | r0.Wegen r1 = b− q1r0 folgt dann auch c | r1.Aus r2 = r0 − q2r1 folgt dann wiederum c | r2.So fahren wir fort bis wir schließlich bei c | rn−1 angelangt sind. Insbesonderefolgt daraus c ≤ rn−1.Also ist tatsachlich rn−1 = ggT(a, b).

Im obigen Beweis haben wir gleich noch folgende Tatsache mitbewiesen.

Korollar II.3.4. Seien a, b ∈ Z mit a 6= 0 oder b 6= 0. Dann gilt fur allec ∈ N:

c | a und c | b ⇒ c | ggT(a, b).

Jeder gemeinsame Teiler von a und b teilt also auch ihren großten ge-meinsamen Teiler.

Es folgt ein konkretes Rechenbeispiel: Wir wollen ggT(969, 627) bestim-men. Der Euklidische Algorithmus liefert:

969 = 1 · 627 + 342

627 = 1 · 342 + 285

342 = 1 · 285 + 57

285 = 5 · 57 + 0

Also ist ggT(969, 627) = 57.

27

Page 28: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Als weiteres Beispiel bestimmen wir ggT(4828, 2624). Der EuklidischeAlgorithmus liefert in diesem Fall:

4828 = 1 · 2624 + 2204

2624 = 1 · 2204 + 420

2204 = 5 · 420 + 104

420 = 4 · 104 + 4

104 = 4 · 26 + 0

Damit ist ggT(4828, 2624) = 4.Als Nachstes beweisen wir noch die folgende Eigenschaft des ggT.

Lemma II.3.5. Seien a, b ∈ Z mit a 6= 0 oder b 6= 0. Dann gilt

ggT(ca, cb) = c · ggT(a, b)

fur alle c ∈ N.

Beweis. Ohne Einschrankung sei b 6= 0. Wir fuhren den Euklidischen Al-gorithmus fur die Startwerte a und b aus und erhalten q0 . . . , qn ∈ Z undr0 . . . , rn ∈ Z mit r0, . . . , rn−1 6= 0, rn = 0 und

a = q0b+ r0, 0 ≤ r0 < |b|,ri−1 = qi+1ri + ri+1, 0 ≤ ri+1 < ri fur i = 0, . . . , n− 1,

wobei r−1 := b.Multipliziert man alles mit c, so erhalt man

ca = q0cb+ cr0, 0 ≤ cr0 < |cb|,cri−1 = qi+1cri + cri+1, 0 ≤ cri+1 < cri fur i = 0, . . . , n− 1.

Das ist gerade der Euklidische Algorithmus fur die Startwerte ca und cb.Also ist ggT(ca, cb) = crn−1 = cggT(a, b).

Nun konnen wir auch die folgende wichtige Eigenschaft von Primzahlenbeweisen.

Lemma II.3.6. Seien a, b ∈ Z und sei p eine Primzahl mit p | ab. Dann giltp | a oder p | b.

Beweis. Im Fall p | a ist nichts zu zeigen. Sei also p kein Teiler von a.Wir wollen zeigen, dass dann p ein Teiler von b sein muss, wobei wir ohneEinschrankung b > 0 annehmen durfen.Da p eine Primzahl ist, welche a nicht teilt, ist ggT(a, p) = 1. Aus LemmaII.3.5 folgt damit ggT(ab, pb) = b · ggT(a, p) = b.Naturlich gilt p | pb und nach Voraussetzung auch p | ab. Wegen KorollarII.3.4 folgt daraus p | ggT(ab, ap), also p | b.

28

Page 29: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Jetzt sind wir so weit, die bereits im letzten Abschnitt erwahnte Eindeu-tigkeit der Primfaktorzerlegung zu beweisen.

Satz II.3.7 (Eindeutigkeit der Primfaktorzerlegung). Seien p1, . . . , pn undq1, . . . , qm Primzahlen mit p1p2 . . . pn = q1q2 . . . qm. Dann gilt n = m undnach einer eventuellen Umsortierung q′1, . . . , q

′n von q1, . . . , qn gilt pi = q′i fur

i = 1, . . . , n.

Beweis. Wegen p1p2 . . . pn = q1q2 . . . qm ist p1 ein Teiler von q1q2 . . . qm. Dap1 eine Primzahl ist, folgt aus Lemma II.3.6 (mehrfach angewendet), dass p1einen der Faktoren q1, q2, . . . , qm teilen muss. Sei also etwa i1 ∈ 1, . . . ,mmit p1 | qi1 . Da aber qi1 eine Primzahl ist, folgt daraus p1 = qi1 =: q′1.

Durch Kurzen in p1p2 . . . pn = q1q2 . . . qm folgt

n∏i=2

pi =∏i∈I

qi,

wobei I := 1, . . . ,m \ i1.Also ist p2 ein Teiler von

∏i∈I qi und dasselbe Argument wie eben liefert

p2 = qi2 =: q′2 fur ein i2 ∈ I.

Kurzen liefert dannn∏i=3

pi =∏i∈J

qi,

wobei J := 1, . . . ,m \ i1, i2.So fortfahrend erhalt man n = m 9 und p1 = q′1, p2 = q′2, . . . , pn = q′n beigeeigneter Umsortierung der qi.

Ubrigens gibt es kein bekanntes Verfahren zur effizienten Berechnung10

der Primfaktorzerlegung einer gegebenen (großen) Zahl. Dieser Umstand istentscheidend fur viele moderne Verschlusselungsverfahren.

Zum Schluss dieses Abschnitts betrachten wir noch, sozusagen als Ge-genstuck zum ggT, das kleinste gemeinsame Vielfache (kgV).

Definition II.3.8. Seien a, b ∈ N. Dann heißt

kgV(a, b) := minc ∈ N : a | c und b | c

das kleinste gemeinsame Vielfache von a und b (min steht fur Minimum).

Naturlich ist ab stets ein gemeinsames Vielfaches von a und b, aber nichtunbedingt das kleinste. Den Zusammenhang zwischen kgV und ggT stelltder folgende Satz her.

9Anderenfalls stunde irgendwann auf einer Seite der Gleichung nur noch eine 1 und aufder anderen noch ein Produkt von Primzahlen.

10Wir verzichten hier auf eine Praziserung des Begriffs “effizient”.

29

Page 30: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Satz II.3.9. Fur alle a, b ∈ N gilt

kgV(a, b) =ab

ggT(a, b).

Beweis. 1) Wir betrachten zuerst den Spezialfall ggT(a, b) = 1. In diesemFall wollen wir also kgV(a, b) = ab nachweisen. Ohne Einschrankung konnenwir a ≥ 2 und b ≥ 2 annehmen (ansonsten ist die Behauptung trivialerweiseerfullt). Klar ist auch kgV(a, b) ≤ ab.Sei nun c ∈ N irgendein gemeinsames Vielfaches von a und b. Dann existierenk, l ∈ N mit c = ka = lb. Da ggT(a, b) = 1 und a, b ≥ 2 gilt, muss auchk, l ≥ 2 gelten.Wir schreiben nun die Zahlen k, l, a, b als Produkte von Primfaktoren, etwaa = p1 . . . pn, b = q1 . . . qm, k = v1 . . . vs, l = w1 . . . wt.Dann gilt (v1 . . . vs)(p1 . . . pn) = (w1 . . . wt)(q1 . . . qm). Wegen der Eindeutig-keit der Primfaktorzerlegung muss jede der Primzahlen p1, . . . , pn auch aufder rechten Seite auftauchen. Da aber ggT(a, b) = 1 gilt, kann keines der pimit einem der qj ubereinstimmen. Die Zahlen p1, . . . , pn mussen also alle inw1, . . . , wt auftauchen. Mit anderen Worten a = p1 . . . pn ist ein Teiler vonw1 . . . wt = l. Wir konnen also l = da fur ein geeignetes d ∈ N schreiben.Dann folgt aber c = lb = dab ≥ ab.Also ist in der Tat ab das kleinste gemeinsame Vielfache von a und b.2) Bevor wir zum allgemeinen Fall kommen, halten wir noch folgendes fest:Fur alle a, b, c ∈ N gilt kgV(ca, cb) = c · kgV(a, b).Das beweist man leicht direkt anhand der Definition des kgV (Ubung).3) Seien nun a, b ∈ N beliebig. Wir setzen c := ggT(a, b), sowie a′ := a/c undb′ := b/c. Aus Lemma II.3.5 folgt ggT(a′, b′) = 1.Nach dem schon bewiesenen Teil 1) gilt also kgV(a′, b′) = a′b′ = ab/c2.Andererseits folgt aus 2) auch kgV(a′, b′) = kgV(a, b)/c.Zusammen impliziert das kgV(a, b) = ab/c, was zu beweisen war.

Beispiel: Oben hatten wir schon mit Hilfe des Euklidischen AlgorithmusggT(969, 627) = 57 nachgewiesen. Aus dem obigen Satz erhalten wir damitfur das kgV:

kgV(969, 627) =969 · 627

57= 969 · 11 = 10659

30

Page 31: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

III Algebraische Strukturen

In diesem Kapitel wollen wir uns mit den wichtigsten algebraischen Struk-turen, Gruppen und Korpern, beschaftigen. Die Grundidee dabei ist es, diebeispielsweise von den ganzen oder den reellen Zahlen bekannten Rechenge-setze in einen abstrakten Kontext zu ubertragen.

III.1 Gruppen

Wir beginnen mit der folgenden Definition.

Definition III.1.1. Sei G eine nicht leere Menge und ∗ : G×G→ G eineVerknupfung (Abbildung).1) (G, ∗) heißt Halbgruppe, falls das Assoziativgesetz

(a ∗ b) ∗ c = a ∗ (b ∗ c) ∀a, b, c ∈ G

gilt.2) (G, ∗) heißt Monoid, falls (G, ∗) eine Halbgruppe ist und zusatzlich einneutrales Element e ∈ G existiert, d. h. ein Element e mit

e ∗ a = a = a ∗ e ∀a ∈ G.

Bemerkung III.1.2. Ein Monoid (G, ∗) besitzt genau ein neutrales Ele-ment.

Beweis. Sind e, e′ ∈ G beide neutrale Elemente, so folgt wegen der Neutralitatvon e′ sofort e = e′ ∗ e. Andererseits muss wegen der Neutralitat von e auche′ ∗ e = e′ gelten, also ist e = e′.

Nun konnen wir auch Gruppen definieren.

Definition III.1.3. Ein Monoid (G, ∗) heißt Gruppe, falls es zu jedem a ∈ Gein inverses Element gibt, d. h. ein Element b ∈ G mit b∗a = e = a∗ b, wobeie das neutrale Element von (G, ∗) ist.

Bemerkung III.1.4. Sei (G, ∗) eine Gruppe und sei a ∈ G. Dann besitzt agenau ein inverses Element, welches ublicherweise mit a−1 bezeichnet wird.

31

Page 32: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Seien b, c ∈ G beide inverse Elemente von a. Dann gilt b = b ∗ e =b ∗ (a ∗ c) = (b ∗ a) ∗ c = e ∗ c = c.

Es gilt das folgende Lemma fur Inverse Elemente.

Lemma III.1.5. Sei (G, ∗) eine Gruppe und seien a, b ∈ G. Dann gilt(a ∗ b)−1 = b−1 ∗ a−1.

Beweis. Es bezeichne e das neutrale Element von (G, ∗). Dann gilt

(a ∗ b) ∗ (b−1 ∗ a−1) = ((a ∗ b) ∗ b−1) ∗ a−1 = (a ∗ (b ∗ b−1)) ∗ a−1

= (a ∗ e) ∗ a−1 = a ∗ a−1 = e.

Daraus folgt

(a ∗ b)−1 ∗ ((a ∗ b) ∗ (b−1 ∗ a−1)) = (a ∗ b)−1 ∗ e = (a ∗ b)−1.

Andererseits ist

(a ∗ b)−1 ∗ ((a ∗ b) ∗ (b−1 ∗ a−1)) = ((a ∗ b)−1 ∗ (a ∗ b)) ∗ (b−1 ∗ a−1)= e ∗ (b−1 ∗ a−1) = b−1 ∗ a−1.

Also ist (a ∗ b)−1 = b−1 ∗ a−1.

Im obigen Lemma ist unbedingt die Reihenfolge der Elemente zu beachten,es sei denn die Gruppe ist kommutativ. Dieser Begriff ist wie folgt definiert.

Definition III.1.6. Eine Gruppe (G, ∗) heißt kommutative oder abelscheGruppe1, falls das Kommutativgesetz

a ∗ b = b ∗ a ∀a, b ∈ G

gilt.

Noch eine Bemerkung zur Schreibweise: In vielen Fallen bezeichnet mandie Verknupfung einer Gruppe mit · oder + anstelle von ∗ und schreibt dann1 bzw. 0 fur das neutrale Element. In einer Gruppe (G,+) wird das inverseElement zu a mit −a bezeichnet.

Beispiele:1) (Z,+), (Q,+) und (R,+) bilden jeweils eine kommutative Gruppe, (N,+)dagegen nur eine Halbgruppe (+ bezeichnet hier die ubliche Addition in R).2) Mit der ublichen Multiplikation · bilden (Q \ 0, ·) und (R \ 0, ·) jeweilseine kommutative Gruppe, (Z \ 0, ·) dagegen nicht. Die 0 darf man hier

1Benannt nach dem norwegischen Mathematiker Niels Henrik Abel (1802–1829), einemder Begrunder der Gruppentheorie.

32

Page 33: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

nicht mit dazu nehmen, denn sie besitzt kein multiplikatives Inverses.2

3) Wir erklaren auf der Menge R2 := R×R = (a, b) : a, b ∈ R eine Additiondurch

(a1, b1) + (a2, b2) := (a1 + a2, b1 + b2) ∀(a1, b1), (a2, b2) ∈ R2.

Die “Punkte” im R2 werden also koordinatenweise addiert, wobei rechts inden einzelnen Koordinaten die ubliche Addition in R gemeint ist.Dann ist (R2,+) eine kommutative Gruppe, wie man leicht nachrechnet (neu-trales Element ist (0, 0), inverses Element zu (a, b) ist (−a,−b); die Detailsuberlasse ich Ihnen zur Ubung).

III.2 Korper

Wir kommen nun zum Begriff des Korpers. Diesen hatten wir implizit schonbei der Zusammenstellung der Eigenschaften der reellen Zahlen in Kapitel IIkennengelernt, fuhren ihn jetzt aber nochmals explizit ein.

Definition III.2.1. Sei K eine nicht leere Menge versehen mit zwei Ver-knupfungen + : K ×K → K und · : K ×K → K. Dann heißt (K,+, ·) einKorper, falls folgendes gilt:1) (K,+) ist eine kommutative Gruppe.2) (K \ 0, ·) ist eine kommutative Gruppe.3) Es gilt das Distributivgesetz

a(b+ c) = ab+ ac ∀a, b, c ∈ K.

Die in Abschnitt II.1 zusammengestellten Rechenregeln besagen alsogerade, dass (R,+, ·) ein Korper ist. Ebenso bilden die rationalen Zahlen(Q,+, ·) einen Korper (Beweis?), die ganzen Zahlen dagegen nicht (hier fehlendie multiplikativen Inversen).

Der Begriff “Korper” hat hier ubrigens nichts mit Korpern im geometri-schen Sinne, noch etwas mit dem menschlichen Korper zu tun. Vielmehr istder Begriff (genau wie der der Gruppe) abgeleitet aus der Soziologie (vgl.das Wort “Korperschaften”).

Falls klar ist, welche Verknupfungen auf der Menge K betrachtet werdensollen, so schreibt man meist nur K anstelle von (K,+, ·). So wird z. B.auf R stets die ubliche Addition und Multiplikation betrachtet, wenn nichtausdrucklich etwas anderes gesagt ist.

Die Aussagen der Lemmata II.1.1 und II.1.2 gelten nicht nur in R sondernin beliebigen Korpern (mit praktisch demselben Beweis). Ebenso kann manin jedem Korper K Differenzen und Bruche definieren und die in AbschnittII.1 zusammengestellten Rechenregeln gelten entsprechend.

2Denn fur alle x ∈ R ist 0 · x = 0 6= 1.

33

Page 34: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Außer R und Q kennen wir bislang keine Beispiele fur Korper. Im nachstenAbschnitt fuhren wir aber noch den wichtigen Korper der komplexen Zahlenein, sowie im ubernachsten Abschnitt die sogenannten Restklassenkorper.

III.3 Der Korper der komplexen Zahlen

In diesem Abschnitt fuhren wir die sogenannten komplexen Zahlen ein. Diesesind Paare von reellen Zahlen, also Elemente von R2 := R × R. Auf derMenge R2 hatten wir oben schon die naheliegende Addition

(a1, b1) + (a2, b2) := (a1 + a2, b1 + b2) ∀(a1, b1), (a2, b2) ∈ R2

eingefuhrt und festgestellt, dass es sich bei (R2,+) um eine kommutativeGruppe handelt.

Als Nachstes wollen wir auch eine Multiplikation auf R2 erklaren undzwar derart, dass ein Korper entsteht. Die Definition hierzu mag zunachstetwas seltsam wirken, wir werden aber spater sehen, was der Sinn dahinterist.

Definition III.3.1. Fur alle (a1, b1), (a2, b2) ∈ R2 setzen wir

(a1, b1) · (a2, b2) := (a1a2 − b1b2, a1b2 + a2b1).

Zunachst zeigen wir, dass (R2,+, ·) tatsachlich einen Korper bildet.

Satz III.3.2. (R2,+, ·) ist ein Korper.

Beweis. Wir wissen schon, dass (R2,+) eine kommutative Gruppe ist. DasAssoziativ- und das Kommutativgesetz fur die Multiplikation, sowie dasDistributivgesetz kann man direkt nachrechnen (Ubung). Ebenfalls rechnetman leicht nach, dass (1, 0) neutrales Element der Multiplikation ist. Damitfehlen uns zu einem Korper nur noch die multiplikativen Inversen. Sei also(a, b) ∈ R2 \ (0, 0). Dann gilt

(a, b)·(

a

a2 + b2,−b

a2 + b2

)=

(a2

a2 + b2− −b2

a2 + b2,−ab

a2 + b2+

ab

a2 + b2

)= (1, 0)

und wegen der Kommutativitat der Multiplikation auch(a

a2 + b2,−b

a2 + b2

)· (a, b) = (1, 0).

Also ist

(a, b)−1 =

(a

a2 + b2,−b

a2 + b2

).

34

Page 35: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Nun konnen wir den Korper auch offiziell benennen.

Definition III.3.3. Der Korper (R2,+, ·) heißt Korper der komplexen Zah-len und wird mit C bezeichnet. Die komplexe Zahl i := (0, 1) wird dieimaginare Einheit genannt.

Entscheidend ist nun die Beobachtung i2 = i · i = (0, 1) · (0, 1) = (−1, 0).Ferner beachte man, dass (a, 0) + (b, 0) = (a+ b, 0) und (a, 0)(b, 0) = (ab, 0)fur alle a, b ∈ R gilt. Indem man also eine reelle Zahl a mit der komplexenZahl (a, 0) identifiziert, kann man R als Teilmenge von C auffassen. In diesemSinne gilt dann also i2 = −1.

Das ist die wesentliche Motivation fur die Einfuhrung der komplexenZahlen, denn im Bereich der reellen Zahlen hat die Gleichung x2 = −1 keineLosung.

Nun konnen wir komplexe Zahlen auch etwas anders darstellen, es giltnamlich (a, b) = a+ ib, wie man leicht nachrechnet. Die Multiplikation kannman dann mit Hilfe des Distributivgesetzes und der Beziehung i2 = −1 ganzeinfach ausfuhren: Es ist

(a+ ib)(c+ id) = ac+ iad+ ibc+ i2bd = ac− bd+ i(ad+ bc).

Zum Beispiel ist (1 + i)(2 + i) = 2 + 2i+ i+ i2 = 1 + 3i.Als Nachstes fuhren wir noch die folgenden Begriffe ein.

Definition III.3.4. Sei z = a+ib eine komplexe Zahl. Dann heißt Re(z) := ader Realteil und Im(z) := b der Imaginarteil von z. Ferner heißt z := a− ibdie komplex konjugierte Zahl von z.

Stellt man sich die komplexen Zahlen geometrisch als Punkte in der Ebenevor, so ist der Realteil gerade die Koordinate auf der horizontalen Achseund der Imaginarteil die Koordinate auf der vertikalen Achse. Die Operationder komlexen Konjugation bedeutet geometrisch eine Spiegelung an derhorizontalen Achse. Mit ihrer Hilfe lassen sich auch Bruche komplexer Zahlenleicht berechnen, indem man namlich mit dem komplex Konjugierten desNenners erweitert: Seien z = a+ ib und w = c+ id zwei komplexe Zahlen,wobei w 6= 0 sei. Dann gilt

z

w=zw

ww=

zw

(c+ id)(c− id)=

zw

c2 + d2,

wobei wir im letzten Schritt die dritte binomische Formel3, sowie die Tatsachei2 = −1 ausgenutzt haben. Der Witz hierbei ist, dass nun im Nenner nurnoch eine reelle Zahl steht und den Zahler zw kann man leicht ausrechnen.Beispiel: Es ist

1 + i

3 + 2i=

(1 + i)(3− 2i)

(3 + 2i)(3− 2i)=

3− 2i+ 3i− 2i2

9 + 4=

5

13+

1

13i.

3(x + y)(x− y) = x2 − y2 Diese Formel gilt nicht nur in R sondern in jedem beliebigenKorper (Beweis durch direktes Nachrechnen), also insbesondere auch in C.

35

Page 36: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Nun definieren wir noch den Betrag einer komplexen Zahl.

Definition III.3.5. Sei z = a + ib ∈ C (wobei a, b ∈ R). Wir setzen|z| :=

√a2 + b2.

Aus dem Satz des Pythagoras4 ergibt sich, dass |z| gerade der Abstanddes Punktes (a, b) vom Koordinatenursprung (0, 0) ist.

Bezeichnet man mit ϕ den Winkel, der von der Verbindungsstreckezwischen (0, 0) und (a, b) und der positiven reellen Achse eingeschlossen wird,so gilt a = |z| cos(ϕ) und b = |z| sin(ϕ). Dabei steht sin fur Sinus und cos furKosinus und man verwendet die Definitionen

sin(ϕ) = Lange der Gegenkathete durch Lange der Hypotenuse,

cos(ϕ) = Lange der Ankathete durch Lange der Hypotenuse.

Es gilt also

z = |z|(cos(ϕ) + i sin(ϕ)).

Diese Darstellung nennt man auch die Polarkoordinatendarstellung der kom-plexen Zahl z. Der Winkel ϕ ist naturlich nur bis auf Addition eines ganz-zahligen Vielfachen von 2π eindeutig bestimmt.

Ohne Beweis halten wir die folgenden Additionstheoreme fur Sinus undKosinus fest: Fur alle Winkel ϕ und ψ gilt

sin(ϕ+ ψ) = sin(ϕ) cos(ψ) + cos(ϕ) sin(ψ),

cos(ϕ+ ψ) = cos(ϕ) cos(ψ)− sin(ϕ) sin(ψ).

Sind nun zwei komplexe Zahlen z und w mit Polarkoordinatendarstellungen

z = |z|(cos(ϕ) + i sin(ϕ)) und w = |w|(cos(ψ) + i sin(ψ))

gegeben, so folgt durch Ausmultiplizieren mit Hilfe der Additionstheoremeleicht

zw = |z||w|(cos(ϕ+ ψ) + i sin(ϕ+ ψ)).

Damit haben wir eine anschauliche geometrische Deutung der Multiplikationin C: Die Betrage der komplexen Zahlen werden im gewohnlichen (reellen)Sinne multipliziert, die zugehorigen Winkel werden addiert.

Im nachsten Abschnitt wollen wir nun noch weitere Beispiele fur Korperkennenlernen, die sich von den bisherigen Beispielen Q, R und C starkunterscheiden, insofern sie namlich nur aus endlich vielen Elementen bestehen.

4In einem rechtwinkligen Dreieck mit Hypotenuse der Lange c und Katheten der Langena und b gilt c2 = a2 + b2.

36

Page 37: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

III.4 Restklassenkorper

In diesem Abschnitt wollen wir uns mit Restklassen beschaftigen. Dazufuhren wir zunachst allgemein den Begriff einer Aquivalenzrelation ein.

Definition III.4.1. Es sei M eine nicht leere Menge. Unter einer Aquivalenz-relation auf M versteht man eine Teilmenge R ⊆M ×M , die die folgendenBedingungen erfullt:

(i) (a, a) ∈ R fur alle a ∈M (Reflexivitat).

(ii) Fur alle a, b ∈M gilt: (a, b) ∈ R ⇒ (b, a) ∈ R (Symmetrie).

(iii) Fur alle a, b, c ∈ M gilt: (a, b) ∈ R und (b, c) ∈ R ⇒ (a, c) ∈ R(Transitivitat).

Anstelle von (a, b) ∈ R schreibt man haufig auch aRb.

Beispiele:1) Sei M irgendeine nicht leere Menge und R := (a, a) : a ∈M. Mit ande-ren Worten es gilt (a, b) ∈ R genau dann, wenn a = b ist. R ist also geradedie Gleichheitsrelation. Diese ist offensichtlich eine Aquivalenzrelation.2) Sei R :=

(a, b) ∈ R2 : |a| = |b|

. Dann ist R eine Aquivalenzrelation auf

R, wie man leicht sieht.3) Sei R :=

(a, b) ∈ R2 : a− b ∈ Q

. Dann ist R wiederum eine Aquivalenz-

relation auf R. Beweis:(a) Reflexivitat: Fur alle a ∈ R ist a− a = 0 ∈ Q, also (a, a) ∈ R.(b) Symmetrie: Ist (a, b) ∈ R, so ist definitionsgemaß a − b ∈ Q. Dann istaber auch b− a = −(a− b) ∈ Q, also (b, a) ∈ R.(c) Transitivitat: Seien (a, b) ∈ R und (b, c) ∈ R. Dann ist a − b ∈ Q undb− c ∈ Q. Folglich ist auch a− c = a− b+ (b− c) ∈ Q und somit (a, c) ∈ R.

Als Nachstes fuhren wir noch den zugehorigen Begriff der Aquivalenzklassenein.

Definition III.4.2. Sei M eine nicht leere Menge und R eine Aquivalenzrela-tion auf M . Fur alle a ∈M setzen wir

[a]R := b ∈M : (a, b) ∈ R.

[a]R heißt die von a erzeugte Aquivalenzklasse (bzgl. R).

Die Aquivalenzklasse [a]R besteht also aus all jenen Elementen, wel-che bzgl. der Aquivalenzrelation R zu a aquivalent sind. Wie sehen dieAquivalenzklassen in den obigen Beispielen aus?1) Ist R := (a, a) : a ∈M, so ist offenbar [a]R = a fur alle a ∈M .2) Ist R :=

(a, b) ∈ R2 : |a| = |b|

, so gilt [a]R = b ∈ R : |a| = |b| =

37

Page 38: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

a,−a fur alle a ∈ R.3) Ist R :=

(a, b) ∈ R2 : a− b ∈ Q

, so ist [a]R = b ∈ R : a− b ∈ Q =

a+ q : q ∈ Q. Das konnen Sie zur Ubung leicht selbst nachweisen.

Hier noch ein allgemeines Lemma uber Aquivalenzklassen.

Lemma III.4.3. Sei M eine nicht leere Menge und R eine Aquivalenzrelationauf M . Weiter seien a, b ∈M . Dann sind folgende Aussagen aquivalent:

(i) (a, b) ∈ R

(ii) [a]R = [b]R

(iii) [a]R ∩ [b]R 6= ∅

Beweis. (i) ⇒ (ii): Es gelte (a, b) ∈ R. Sei c ∈ [a]R beliebig. Dann ist(a, c) ∈ R. Aus (a, b) ∈ R folgt wegen der Symmetrie auch (b, a) ∈ R. Wegender Transitivitat folgt aus (b, a) ∈ R und (a, c) ∈ R auch (b, c) ∈ R. Also istc ∈ [b]R.Damit ist [a]R ⊆ [b]R gezeigt. Analog beweist man auch [b]R ⊆ [a]R. Somitist [a]R = [b]R.(ii) ⇒ (iii): Sei [a]R = [b]R. Dann ist naturlich [a]R ∩ [b]R = [a]R 6= ∅, denna ∈ [a]R.(iii) ⇒ (i): Sei [a]R ∩ [b]R 6= ∅. Dann existiert ein c ∈ [a]R ∩ [b]R. Es folgt(a, c) ∈ R und (b, c) ∈ R. Mit Symmetrie und Transitivitat folgt daraus(a, b) ∈ R.

Nun definieren wir die fur uns entscheidenden Aquivalenzrelationen aufZ.

Definition III.4.4. Sei m ∈ N mit m ≥ 2 und seien a, b ∈ Z. Dann heißta kongruent zu b modulo m (in Zeichen: a ≡ b mod m), falls a − b teilbardurch m ist. Wir setzen Rm :=

(a, b) ∈ Z2 : a ≡ b mod m

.

Zum Beispiel ist 9 ≡ 3 mod 2, denn 9− 3 = 6 ist teilbar durch 2.Wir weisen nun zunachst nach, dass es sich bei Rm wirklich um eine

Aquivalenzrelation handelt.

Lemma III.4.5. Sei m ∈ N mit m ≥ 2. Dann ist Rm eine Aquivalenzrelationauf Z.

Beweis. 1) Reflexivitat: Fur alle a ∈ Z gilt a ≡ a mod m, denn a− a = 0ist naturlich durch m teilbar.2) Symmetrie: Sei a ≡ b mod m. Dann gilt also m | a− b und folglich auchm | −(a− b), also m | b− a. Daher ist auch b ≡ a mod m.3) Transitivitat: Es gelte a ≡ b mod m und b ≡ c mod m, also m | a − bund m | b− c. Dann ist m auch ein Teiler von a− b+ b− c = a− c, also gilta ≡ c mod m.

38

Page 39: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Als Nachstes zeigen wir, dass zwei Zahlen a und b genau dann kongruentmodulo m sind, wenn sie bei Division durch m denselben Rest lassen.

Lemma III.4.6. Sei m ∈ N mit m ≥ 2 und seien a, b ∈ Z. Seien q1, q2 ∈ Zund r1, r1 ∈ N0 mit a = q1m+ r1, b = q2m+ r2 und r1, r2 < m.Dann gilt: a ≡ b mod m ⇔ r1 = r2

Beweis. 1) Es gelte r1 = r2. Dann ist a− b = m(q1 − q2), also m | a− b.2) Es gelte m | a − b. Wegen a − b = m(q1 − q2) + r1 − r2 ist r1 − r1 =a− b−m(q1− q2) und es folgt m | r1− r2, also r1− r2 = mk fur ein gewissesk ∈ Z.Ware k 6= 0, so ware |r1 − r2| = |k|m ≥ m. Andererseits ist wegen 0 ≤r1, r2 < m aber |r1 − r2| < m.Also muss k = 0 und somit r1 = r2 gelten.

Nun betrachten wir die Aquivalenzklassen in Z bzgl. der AquivalenzrelationRm. Anstelle von [a]Rm schreiben wir kurz [a]m. Man nennt diese Aquivalenz-klasse auch die Restklasse von a modulo m. Die Menge aller Restklassenmodulo m bezeichnen wir mit Zm, also

Zm := [a]m : a ∈ Z.

Auch wenn es auf den ersten Blick vielleicht nicht so aussieht, ist dieMenge Zm tatsachlich endlich, wie das folgende Lemma zeigt.

Lemma III.4.7. Sei m ∈ N mit m ≥ 2. Die Menge Zm ist endlich mit mElementen, genauer gilt Zm = [0]m, [1]m, . . . , [m− 1]m, wobei die Klassen[0]m, [1]m, . . . , [m− 1]m paarweise verschieden sind.

Beweis. Ist a ∈ Z, so schreiben wir per Division mit Rest a = qm+ r, wobeiq ∈ Z und r ∈ 0, . . . ,m− 1 ist. Somit ist a ≡ r mod m und daher nachLemma III.4.3 [a]m = [r]m.Damit ist Zm = [0]m, [1]m, . . . , [m− 1]m gezeigt.Sind i, j ∈ 0, . . . ,m− 1 mit i 6= j, so folgt aus Lemma III.4.6 i 6≡ j mod mund daher ist nach Lemma III.4.3 [i]m 6= [j]m.

Wir wollen nun auf Zm eine Addition und eine Multiplikation einfuhren.Dazu liegt folgende Definition nahe:

[a]m + [b]m := [a+ b]m und [a]m · [b]m := [ab]m fur a, b ∈ Z.

Allerdings gibt es hier noch ein kleines Problem: Was wenn [a]m = [c]mund [b]m = [d]m ist? Ist dann auch [a+ b]m = [c+ d]m und [ab]m = [cd]m?Anderenfalls ware die Definition nicht sinnvoll.

Sei also [a]m = [c]m und [b]m = [d]m. Dann ist m | a − c und m | b − d.Wegen a+b−(c+d) = a−c+b−d ist dann auch a+b−(c+d) durch m teilbar,also a+ b ≡ c+ d mod m und Lemma III.4.3 impliziert [a+ b]m = [c+ d]m.

39

Page 40: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Weiter gilt ab− cd = a(b− d) + d(a− c), also ist m auch ein Teiler vonab− cd und es folgt wie eben [ab]m = [cd]m.

Addition und Multiplikation in Zm sind also wohldefiniert.Nun ist es nicht schwierig, folgendes zu beweisen.

Lemma III.4.8. Sei m ∈ N mit m ≥ 2. Dann ist (Zm,+) eine kommu-tative Gruppe und (Zm, ·) ist ein kommutatives Monoid. Ferner gilt dasDistributivgesetz in (Zm,+, ·).

Beweis. Das konnen Sie zur Ubung leicht selbst nachrechnen (neutralesElement in (Zm,+) ist naturlich [0]m, das additive Inverse von [a]m ist[−a]m, neutrales Element in (Zm, ·) ist [1]m).

Den Inhalt des obigen Lemmas fasst man in der Sprache der Algebraauch folgendermaßen zusammen: (Zm,+, ·) ist ein kommutativer Ring mitEinselement.

Das einzige, was Zm zu einem Korper noch fehlt, sind die multiplikativenInversen. Es stellt sich jedoch heraus, dass diese nicht immer existieren. Derfolgende Satz gibt Auskunft daruber, wann Zm ein Korper ist.

Satz III.4.9. Sei m ∈ N mit m ≥ 2. Dann gilt: (Zm,+, ·) ist ein Korpergenau dann, wenn m eine Primzahl ist.

Beweis. 1) Seim eine Primzahl. Wir zeigen zunachst folgendes: Sind [a]m, [b]m ∈Zm mit [a]m[b]m = [0]m, so ist [a]m = [0]m oder [b]m = [0]m.Ist namlich [0]m = [a]m[b]m = [ab]m, so gilt m | ab und da m eine Primzahlist, folgt aus Lemma II.3.6 m | a oder m | b, also ist [a]m = [0]m oder[b]m = [0]m.Nun setzen wir zur Abkurzung Z∗m := Zm \[0]m, nehmen uns ein beliebigesElement [a]m ∈ Z∗m her und betrachten die Abbildung f : Z∗m → Z∗m, diedurch f([b]m) := [a]m[b]m definiert ist. Aufgrund unserer Voruberlegungbildet f wirklich nach Z∗m ab.Weiter ist die Abbildung f auch injektiv, denn ist f([b]m) = f([c]m), sofolgt [a]m[b− c]m = [0]m und wegen [a]m 6= [0]m folgt [b− c]m = [0]m, also[b]m = [c]m.f bildet also verschiedene Elemente von Z∗m wieder auf verschiedene Elementevon Z∗m ab. Da die Menge Z∗m aber endlich ist (sie hat m− 1 Elemente), istdas nur moglich, wenn auch jedes Element von Z∗m von der Abbildung fgetroffen wird. Mit anderen Worten: f ist auch surjektiv.Insbesondere muss es ein [b]m ∈ Z∗m mit f([b]m) = [1]m geben. Es folgt[a]m[b]m = [1]m, also ist [b]m inverses Element zu [a]m.Damit bewiesen, dass (Zm,+, ·) einen Korper bildet.2) Sei nun m keine Primzahl. Dann existieren naturliche Zahlen k und l mit1 < k, l < m und kl = m. Es folgt [k]m[l]m = [kl]m = [m]m = [0]m.Wegen 1 < k < m ist [k]m 6= [0]m. Ware (Zm,+, ·) ein Korper, so gabe esalso ein [a]m ∈ Zm mit [a]m[k]m = [1]m.

40

Page 41: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Es folgt [l]m = [a]m([k]m[l]m) = [a]m[0]m = [0]m, was aber wegen 1 < l < munmoglich ist.Also ist (Zm,+, ·) in diesem Fall kein Korper.

Fur eine Primzahl p bezeichnet man Zp als den zugehorigen Restklas-senkorper. Dieser besteht aus p Elementen.

Als eine Anwendung der Restklassen beweisen wir nun den Kleinen Satzvon Fermat.5

Satz III.4.10 (Kleiner Satz von Fermat). Sei p eine Primzahl und a einenaturliche Zahl, die nicht durch p teilbar ist. Dann gilt ap−1 ≡ 1 mod p.

Beweis. Da p eine Primzahl ist, ist wie oben bewiesen Zp ein Korper, d. h.jedes Element aus Z∗p := Zp \ [0]p = [1]p, . . . , [p− 1]p besitzt ein multi-plikatives Inverses. Da a nicht durch p teilbar ist, ist [a]p ∈ Z∗p.Wir definieren nun eine Abbildung σ : Z∗p → Z∗p durch σ([b]p) := [a]p[b]p.Dann ist σ bijektiv. Beweis dazu: Ist σ([b]p) = σ([c]p), so folgt durch Multi-plikation mit [a]−1p auch [b]p = [c]p, also ist σ injektiv. Ist ferner [c]p ∈ Z∗p, soist auch [a]−1p [c]p ∈ Z∗p mit σ([a]−1p [c]p) = [c]p, also ist σ auch surjektiv.Wegen der Bijektivitat von σ ist also σ([1]p), . . . , σ([p− 1]p) eine Umordnungvon [1]p, . . . , [p− 1]p und wegen der Kommutativitat der Multiplikation folgt

[1]p[2]p . . . [p− 1]p = σ([1]p)σ([2]p) . . . σ([p− 1]p)

= [a]p[1]p[a]p[2]p . . . [a]p[p− 1]p = [ap−1]p[1]p[2]p . . . [p− 1]p

Multipliziert man nun mit dem Inversen von [1]p[2]p . . . [p − 1]p, so folgt[1]p = [ap−1]p, also ap−1 ≡ 1 mod p.

Dieser Satz liefert das folgende Korollar.

Korollar III.4.11. Fur alle Primzahlen p und alle a ∈ N gilt ap ≡ amod p.

Beweis. Ist p ein Teiler von a, so gilt naturlich auch p | ap − a, also ap ≡ amod p.Anderenfalls gilt nach dem Kleinen Satz von Fermat p | ap−1 − 1, also auchp | a(ap−1 − 1), also ap ≡ a mod p.

Eine Verallgemeinerung des Kleinen Satzes von Fermat ist der Satzvon Euler6. Fur n ∈ N bezeichne ϕ(n) die Anzahl aller a ∈ 1, . . . , n mitggT(a, n) = 1 (Eulersche ϕ-Funktion). Zum Beispiel gilt fur Primzahlen pstets ϕ(p) = p− 1.

5Benannt nach Pierre de Fermat (1607–1665): franzosischer Mathematiker und Jurist.Nach ihm ist auch das Fermatsche Prinzip benannt (ein Variationsprinzip der theoretischenPhysik, das die Ausbreitung von Licht in einem Medium beschreibt). Der Große Satzvon Fermat besagt, dass fur naturliche Zahlen n ≥ 3 keine naturlichen Zahlen a, b, c mitan + bn = cn existieren. Bewiesen wurde dieser Satz allerdings erst 1994 von Andrew Wiles.

6Leonhard Euler (1707–1783): Schweizer Mathematiker und Physiker mit diversenwichtigen Beitragen u. a. zur Analysis und zur Zahlentheorie.

41

Page 42: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Satz III.4.12 (Satz von Euler). Fur alle naturlichen Zahlen n ≥ 2 und allea ∈ N mit ggT(a, n) = 1 gilt aϕ(n) ≡ 1 mod n.

Auf einen Beweis dieses Satzes wollen wir hier verzichten.Als Letztes befassen wir uns noch mit dem Satz von Wilson7. Dazu

zunachst noch eine Definition.

Definition III.4.13. Fur n ∈ N sei

n! :=

n∏i=1

i = 1 · 2 . . . n.

n! wird gelesen als n Fakultat. Zusatzlich definiert man noch 0! := 1.

Zum Beispiel ist 1! = 1, 2! = 2, 3! = 6, 4! = 24, 5! = 120.Der Satz von Wilson lautet nun wie folgt.

Satz III.4.14 (Satz von Wilson). Sei n ∈ N mit n ≥ 2. Dann gilt: n isteine Primzahl genau dann, wenn (n− 1)! + 1 durch n teilbar ist.

Beweis. 1) Wir nehmen zunachst an, dass n keine Primzahl ist. Dann existiertein k ∈ 2, . . . , n− 1 mit k | n. Wegen (n − 1)! = 1 · 2 . . . k . . . n − 1 giltk | (n− 1)!.Ware k auch ein Teiler von (n− 1)! + 1, so ware k ein Teiler von (n− 1)! +1− (n− 1)! = 1, was wegen k ≥ 2 unmoglich ist. Also ist k kein Teiler von(n− 1)! + 1. Wegen k | n ist daher erst recht n kein Teiler von (n− 1)! + 1.D. h. umgekehrt: Ist n ein Teiler von (n− 1)! + 1, so ist n eine Primzahl.2) Sei nun n eine Primzahl. Dann ist Zn ein Korper (Satz III.4.9), also besitztjedes Element in Z∗n := Zn \ [0]n = [1]n, . . . , [n− 1]n ein multiplikativesInverses. Es sei A :=

v ∈ Z∗n : v−1 = v

Naturlich gilt [1]n ∈ A und [n− 1]n = [−1]n ∈ A. Ist umgekehrt v ∈ A, sofolgt v2 = vv = vv−1 = [1]n und somit (v − [1]n)(v + [1]n) = v2 − [1]n = [0]n.Ist v 6= [1]n, so ist v − [1]n ∈ Z∗n und Multiplikation mit (v − [1]n)−1 liefertv + [1]n = [0]n, also v = [−1]n = [n− 1]n.Es gilt also A = [1]n, [n− 1]n.Nun betrachten wir das Produkt [(n− 1)!]n = [1]n[2]n . . . [n− 1]n. Hier lassensich alle Elemente von Z∗n \A zu Paaren vv−1 zusammenfassen. Diese hebensich also insgesamt auf und es bleibt nur [(n−1)!]n = [1]n[n−1]n = [n−1]n =[−1]n.Also gilt (n− 1)! ≡ −1 mod n, d. h. (n− 1)! + 1 ist durch n teilbar.

Fur die Praxis ist der obige Primzahltest allerdings wenig hilfreich, da dieZahlen (n−1)! mit wachsendem n rasch so groß werden, dass eine Berechnungfaktisch unmoglich ist (auch nicht mit modernsten Computern).

7Benannt nach John Wilson (1741–1793): britischer Mathematiker und Jurist.

42

Page 43: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

IV Vektorraume

Mit diesem Kapitel beginnt nun die eigentliche lineare Algebra. Ihre zentralenObjekte sind die sogenannten Vektorraume, die wir im Folgenden diskutierenwollen.

IV.1 Vektorraume: Definition und Beispiele

Wir geben zunachst einfach die formale Definition an.

Definition IV.1.1. Sei K ein Korper und V eine Menge, die mit einerAddition + : V × V → V und einer weiteren Verknupfung · : K × V → Vversehen ist. Es gelte:1) (V,+) ist eine kommutative Gruppe.2) λ(µv) = (λµ)v fur alle λ, µ ∈ K und alle v ∈ V .3) (λ+ µ)v = λv + µv fur alle λ, µ ∈ K und alle v ∈ V .4) λ(v + w) = λv + λw fur alle λ ∈ K und alle v, w ∈ V .5) 1v = v fur alle v ∈ V .Dann heißt (V,+, ·) ein Vektorraum uber dem Korper K oder kurz einK-Vektorraum. Die Elemente von V nennt man Vektoren1. Die Elementevon K werden in diesem Zusammenhang auch als Skalare bezeichnet. DieEigenschaften 1)–5) nennt man Vektorraumaxiome.

Es ist zu beachten, dass die Symbole + und · hier in zwei unterschiedli-chen Bedeutungen auftreten, einmal als die Addition und Multiplikation imKorper K, einmal als die Addition und die Multiplikation mit Skalaren imVektorraum V . Beispielsweise bezeichnet das + auf der linken Seite von 3)die Addition in K, das + auf der rechten Seite von 3) ist die Addition in V .

Der fur uns wichtigste Fall ist K = R, also der Fall reeller Vektorraume.Als Erstes betrachten wir nun einige Beispiele.

Beispiele:1) Das wichtigste Beispiel zuerst: Es sei n eine naturliche Zahl und wirbetrachten die Menge Rn aller Spalten der Lange n mit reellen Eintragen,

1Das Wort Vektor leitet sich ab vom lateinischen Wort “vehere”, was “tragen” oder“transportieren” bedeutet.

43

Page 44: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

also

Rn :=

x1

...xn

: x1, . . . , xn ∈ R

.Das ist im Grunde nur das n-fache kartesische Produkt R×· · ·×R, allerdingswerden die Elemente jetzt nicht als n-Tupel (also zeilenweise), sondern alsSpalten aufgeschrieben (der Grund dafur wird spater bei der Matrizenrech-nung klar werden).

Ein Element

(x1x2

)des R2 kann man sich als Pfeil in der Ebene veran-

schaulichen, der vom Koordinatenurpsrung (0, 0) zum Punkt (x1, x2) weist(entsprechend fur Elemente des R3 mit Pfeilen im Raum).

Auf der Menge Rn definieren wir nun in naheliegender Weise eine Additiondurch x1

...xn

+

y1...yn

:=

x1 + y1...

xn + yn

und eine Multiplikation mit λ ∈ R durch

λ

x1...xn

:=

λx1...

λxn

.

Die Addition und die Multiplikation mit λ erfolgen also koordinatenweise.Es ist leicht nachzuweisen, dass (Rn,+, ·) tatsachlich ein Vektorraum

uber dem Korper R ist. Die Rechenregeln beweist man, indem man siekoordinatenweise auf die entsprechenden Rechenregeln in R zuruckfuhrt(Ubung). Das neutrale Element der Addition (der Nullvektor) ist 0

...0

(diesen bezeichnet man ublicherweise wieder mit 0). Ferner ist naturlich

x1...xn

=

−x1...−xn

.

Wie schon gesagt, ist Rn das fur uns wichtigste Beispiel eines Vektorraumes.Man kann aber auch zu einem beliebigen Korper K in vollig analoger Weiseeinen Vektorraum Kn definieren. Zumindest der komplexe Vektorraum Cnwird uns spater auch noch begegnen.

44

Page 45: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

2) Als weiteres Beispiel betrachten wir einen Vektorraum von Abbildungen.Sei M eine beliebige nicht leere Menge und sei VM die Menge aller Abbil-dungen von M nach R.Fur zwei Abbildungen f, g : M → R definieren wir f + g : M → R durch(f + g)(x) := f(x) + g(x) fur alle x ∈M . Ist ferner λ ∈ R, so definieren wirλf : M → R durch (λf)(x) := λf(x) fur alle x ∈M .Wiederum kann man leicht nachweisen, dass VM auf diese Weise zu einemVektorraum uber R wird. In diesem Fall sind die Vektoren also Abbildungen.3) Hier noch ein etwas exotischeres Beispiel: Man kann die Menge R derreellen Zahlen als einen Vektorraum uber dem Korper Q der rationalenZahlen auffassen. Die Addition ist einfach die ubliche Addition reeller Zahlenund die Multiplikation von x ∈ R mit einem Skalar q ∈ Q ist durch dasgewohnliche Produkt qx erklart. Aus den Korpereigenschaften von R folgtunmittelbar, dass auf diese Weise ein Vektorraum uber Q entsteht.

Im nachsten Abschnitt werden wir den Begriff der Unterraume einfuhren,mit dem sich leicht diverse weitere Beispiele finden lassen. Zunachst hal-ten wir aber noch ein paar einfache Aussagen fest, die in jedem beliebigenVektorraum gelten.

Lemma IV.1.2. Sei K ein Korper und V ein Vektorraum uber K. Danngilt fur alle v ∈ V und alle λ ∈ K:

(i) λv = 0 ⇔ λ = 0 oder v = 0

(ii) (−λ)v = −(λv) = λ(−v) (insbesondere ist (−1)v = −v)

Beweis. (i) 0v = 0 und λ0 = 0 beweist man ganz ahnlich wie Teil (a)von Lemma II.1.1 (Ubung). Ist umgekehrt λv = 0, aber λ 6= 0, so folgt0 = λ−10 = λ−1(λv) = (λ−1λ)v = 1v = v.(ii) Das beweist man ahnlich wie Teil (b) von Lemma II.1.1 (Ubung).

IV.2 Unterraume

In diesem Abschnitt geht es um Untervektorraume, also solche Vektorraume,die in einem gegebenen Vektorraum enthalten sind. Die genaue Definitionlautet wie folgt.

Definition IV.2.1. Sei K ein Korper und sei V ein Vektorraum uber K. Fer-ner sei U eine Teilmenge von V . Dann heißt U ein Untervektorraum oder kurzUnterraum von V , falls U versehen mit der Addition und Skalarmultiplikationvon V selbst wieder einen Vektorraum uber K bildet.

Die obige Bedingung beinhaltet naturlich insbesondere, dass U bezuglichder Addition und Skalarmultiplikation von V abgeschlossen ist, d. h. mit uund v sind auch u+ v und λu (λ ∈ K) wieder Elemente von U . Tatsachlich

45

Page 46: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

ist diese Bedingung auch schon hinreichend (abgesehen von der trivialenZusatzbedingung U 6= ∅), wie das folgende Lemma zeigt.

Lemma IV.2.2. Seien K ein Korper, V ein Vektorraum uber K und U ⊆ V .Dann sind folgende Aussagen aquivalent:(a) U ist ein Unterraum von V .(b) U 6= ∅ und fur alle u, v ∈ U und alle λ ∈ K gilt auch u + v ∈ U undλu ∈ U .

Beweis. (a) ⇒ (b) ist klar. Gelte nun umgekehrt (b). Wir mussen die Vek-torraumaxiome fur U nachweisen. Da aber die Vektorraumaxiome 2)–5)ohnehin fur alle Elemente von V gelten, gelten sie naturlich erst recht furalle Elemente von U , hier ist also nichts zu zeigen. Dasselbe gilt fur dasAssoziativ- und das Kommutativgesetz der Addition.Weiter existiert wegen U 6= ∅ ein u0 ∈ U und nach Voraussetzung ist dannauch 0 = 0u0 ∈ U . Das zeigt die Existenz des neutralen Elements in U .Ebenso gilt fur alle u ∈ U auch −u = (−1)u ∈ U , also existieren auch dieadditiven Inversen in U .

Beispiele:1) Sei V ein beliebiger Vektorraum uber irgendeinem Korper K. Naturlichist V selbst stets ein Unterraum von V . Ebenso ist 0 stets ein Unterraum,der sogenannte Nullraum.2) Sei

U :=

(x0

): x ∈ R

.

Dann ist U ein Unterraum des R2, wie man anhand des obigen Lemmasleicht einsieht. U ist gerade die x-Achse in der Ebene R2.3) Verallgemeinerung von 2): Sei n ∈ N und v ∈ Rn \ 0. Dann ist

U := tv : t ∈ R

ein Unterraum des Rn (Beweis wieder mit Hilfe des obigen Kriteriums). ImFalle n = 2 oder n = 3 ist U eine Gerade durch den Koordinatenursprung inRichtung des Vektors v. Dieses Beispiel funktioniert naturlich analog auchin jedem beliebigen Vektorraum.4) Fur alle a, b ∈ R sei fa,b : R → R definiert durch fa,b(x) := ax + b furx ∈ R. Dann ist

U := fa,b : a, b ∈ R

ein Unterraum des oben eingefuhrten Vektorraumes VR aller Funktionen vonR nach R (Beweis als Ubung, wieder mit dem obigen Lemma). U bestehtgerade aus allen Polynomen vom Grad≤ 1.

Als Nachstes halten wir noch folgende einfache aber wichtige Beobachtungfest.

46

Page 47: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Lemma IV.2.3. Sei K ein Korper und sei V ein Vektorraum uber K. SeienU1, U2 ⊆ V Unterraume von V . Dann ist auch U1∩U2 wieder ein Unterraumvon V .

Beweis. Es ist 0 ∈ U1 und 0 ∈ U2, also auch 0 ∈ U1 ∩ U2.

Seien nun u, v ∈ U1 ∩ U2. Dann gilt u, v ∈ U1 und u, v ∈ U2. Da U1 undU2 Unterraume sind, folgt u + v ∈ U1 und u + v ∈ U2, sowie λu ∈ U1 undλu ∈ U2 fur alle λ ∈ K. Somit ist auch u + v ∈ U1 ∩ U2 und λu ∈ U1 ∩ U2

fur alle λ ∈ K.

Bei Vereinigungen von Unterraumen sieht die Sache dagegen deutlichanders aus: Sind U1 und U2 Unterraume von V , so gilt

U1 ∪ U2 ist ein Unterraum von V ⇔ U1 ⊆ U2 oder U2 ⊆ U1.

Die Vereinigung von zwei Unterraumen ist also nur dann wieder ein Unter-raum, wenn der eine bereits im anderen enthalten ist. Den Beweis uberlasseich Ihnen zur Ubung.

Nun definieren wir noch den Begriff des von einer Teilmenge aufgespann-ten Unterraumes.

Definition IV.2.4. Seien K ein Korper, V ein Vektorraum uber K undA ⊆ V eine Teilmenge von V mit A 6= ∅. Dann heißt

span(A) :=

n∑i=1

λixi : n ∈ N, λ1, . . . , λn ∈ K,x1, . . . , xn ∈ A

der von A aufgspannte (oder erzeugte) Unterraum von V oder auch die lineareHulle von A. Der Vollstandigkeit halber setzt man noch span(∅) := 0.

span(A) besteht also aus allen Vektoren der Form

n∑i=1

λixi = λ1x1 + · · ·+ λnxn

mit x1, . . . , xn ∈ A und λ1, . . . , λn ∈ K (das Summenzeichen in V ist analogzum Summenzeichen in R definiert). Einen Ausdruck der Form

∑ni=1 λixi

nennt man auch eine Linearkombination der Vektoren x1, . . . , xn. Die Langen der Linearkombinationen in der Definition von span(A) ist dabei nicht festvorgegeben sondern darf uber ganz N variieren.

Um die Bezeichnung zu rechtfertigen, muss naturlich noch gezeigt werden,dass es sich bei span(A) wirklich um einen Unterraum handelt. Das tunwir im folgenden Lemma. Tatsachlich zeigen wir sogar mehr, namlich, dassspan(A) der kleinste Unterraum von V ist, der A enthalt.

47

Page 48: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Lemma IV.2.5. Sei K ein Korper und sei V ein Vektorraum uber K.Ferner sei A ⊆ V . Dann gilt:1) span(A) ist ein Unterraum von V mit A ⊆ span(A).2) Fur alle Unterraume U von V mit A ⊆ U gilt span(A) ⊆ U .

Beweis. Im Fall A = ∅ sind die beiden Aussagen trivialerweise erfullt. Seialso A 6= ∅.1) Klar ist 0 ∈ span(A). Seien nun x, y ∈ span(A) beliebig. Dann existierenn,m ∈ N, x1, . . . , xn ∈ A, y1, . . . , ym ∈ A und λ1, . . . , λn ∈ K, µ1, . . . , µm ∈K mit

x =n∑i=1

λixi und y =m∑i=1

µiyi.

Dann ist x+y = λ1x1 + . . . λnxn+µ1y1 + · · ·+µmym eine Linearkombinationvon n+m Elementen aus A, also gilt auch x+ y ∈ span(A).

Weiter gilt fur λ ∈ K auch λx =∑n

i=1(λλi)xi ∈ span(A). Also ist span(A)ein Unterraum von V .

Ferner gilt fur alle x ∈ A auch x = 1x ∈ span(A), also ist A ⊆ span(A).

2) Sei U irgendein Unterraum von V mit A ⊆ U . Sei x ∈ span(A) beliebig.Wieder schreiben wir x in der Form x =

∑ni=1 λixi mit x1, . . . , xn ∈ A und

λ1, . . . , λn ∈ K. Wegen A ⊆ U folgt x1, . . . , xn ∈ U . Da U ein Unterraum ist,folgt daraus auch λ1x1, . . . , λnxn ∈ U . Wiederum wegen der Unterraumei-genschaft von U folgt daraus λ1x1 +λ2x2 ∈ U , dann λ1x1 +λ2x2 +λ3x3 ∈ U ,usw. bis man schließlich x = λ1x1 + · · · + λnxn ∈ U erhalt. Also giltspan(A) ⊆ U .

Ist V ein Vektorraum uber irgendeinem Korper K und v ∈ V , so istspan(v) = λv : λ ∈ K. Allgemeiner gilt fur alle v1, . . . , vn ∈ V

span(v1, . . . , vn) =

n∑i=1

λivi : λ1, . . . , λn ∈ K

(das ergibt sich leicht aus der Definition, indem man in einer beliebigen Li-nearkombination

∑mi=1 αixi mit x1, . . . , xm ∈ v1, . . . , vn einfach die Terme

nach den vi sortiert und zusammenfasst).

Beispiele:1) Wir definieren im Rn Vektoren e1, . . . , en wie folgt:

e1 :=

100...0

, e2 :=

010...0

, . . . , en :=

00...01

.

48

Page 49: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Der Vektor ei hat also an der i-ten Stelle eine 1 und alle anderen Eintragesind 0.Nun gilt fur alle Vektoren x ∈ Rn

x =

x1...xn

= x1e1 + x2e2 + · · ·+ xnen.

Also gilt span(e1, . . . , en) = Rn.2) Betrachtet man zum Beispiel nur die beiden Vektoren e1, e2 ∈ R3, so gilt

spane1, e2 = xe1 + ye2 : x, y ∈ R =

x

y0

: x, y ∈ R

.Der aufgespannte Raum ist also gerade die x-y-Ebene.3) Es ist

span

1

22

,

−102

=

λ− µ

2λ2(λ+ µ)

: λ, µ ∈ R

.Das ist eine schief im Raum liegende, durch den Ursprung verlaufende Ebene.4) Zum Schluß noch ein Beispiel im Vektorraum VR aller Funktionen vonR nach R. Fur alle k ∈ N0 sei pk(x) := xk fur x ∈ R. pk ist also die k-tePotenzfunktion. Dann gilt fur alle n ∈ N0

span(p0, . . . , pn) =

n∑i=0

aipi : a0, . . . , an ∈ R

.

span(p0, . . . , pn) besteht also aus all jenen Funktionen f : R→ R, die sichin der Form f(x) =

∑ni=0 aix

i darstellen lassen, also aus allen Polynomenvom Grad≤ n.

Als Nachstes fuhren wir noch den wichtigen Begriff eines Erzeugendensystemsein.

Definition IV.2.6. Sei K ein Korper und V ein Vektorraum uber K. EineTeilmenge A ⊆ V heißt Erzeugendensystem von V , falls span(A) = V gilt.

Beispiele:1) Wir hatten oben schon gesehen, dass e1, . . . , en ein Erzeugendensystemdes Rn ist.2) Selbstverstandlich kann ein Vektorraum nicht nur auf eine Weise erzeugtwerden. So ist z. B. auch

E :=

1

10

,

011

,

101

49

Page 50: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

ein Erzeugendensystem des R3, denn fur alle

x =

x1x2x3

∈ R3

gilt

x =x1 + x2 − x3

2

110

+x2 + x3 − x1

2

011

+x1 + x3 − x2

2

101

,

wie man leicht nachrechnet. Also ist span(E) = R3.3) Wie wir oben schon gesehen hatten, bilden die Potenzfunktionen p0, . . . , pnein Erzeugendensystem fur den Vektorraum aller Polynomfunktionen vomGrad≤ n.

Als letzten Punkt in diesem Abschnitt wollen wir noch Summen von Un-terraumen betrachten. Dazu definieren wir zunachst allgemein Summen vonMengen.

Definition IV.2.7. Sei V ein Vektorraum uber einem Korper K. SeienA,B ⊆ V . Wir setzen

A+B := a+ b : a ∈ A, b ∈ B.

A+B heißt die Summe von A und B.

Nun zeigen wir, dass die Summe von zwei Unterraumen wieder einUnterraum ist.

Lemma IV.2.8. Sei V ein Vektorraum uber einem Korper K und seien U1

und U2 Unterraume von V . Dann gilt U1 +U2 = span(U1∪U2). Insbesondereist U1 + U2 wieder ein Unterraum von V .

Beweis. 1) Sei x ∈ U1 + U2. Dann ist x = u + v fur gewisse u ∈ U1,v ∈ U2. Es folgt u, v ∈ U1 ∪ U2 ⊆ span(U1 ∪ U2) und da span(U1 ∪ U2) einUnterraum von V , muss auch x = u + v ∈ span(U1 ∪ U2) gelten. Also istU1 + U2 ⊆ span(U1 ∪ U2).2) Anhand des ublichen Unterraumkriteriums (Lemma IV.2.2) weist manleicht nach, dass U1 + U2 ein Unterraum von V ist (Ubung).Ferner ist u = u+ 0 ∈ U1 + U2 fur alle u ∈ U1, also U1 ⊆ U1 + U2. Ebensosieht man U2 ⊆ U1 + U2 und somit ist auch U1 ∪ U2 ⊆ U1 + U2. Aus LemmaIV.2.5 folgt nun span(U1 ∪ U2) ⊆ U1 + U2.Insgesamt gilt also span(U1 ∪ U2) = U1 + U2.

Besonders wichtig ist der Fall einer Zerlegung des Vektorraumes V ineine sogenannte direkte Summe. Dies ist wie folgt erklart.

50

Page 51: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Definition IV.2.9. Sei V ein Vektorraum uber einem Korper K und seienU1 und U2 Unterraume von V . Dann nennt man V die direkte Summe vonU1 und U2 (in Zeichen V = U1 ⊕ U2), falls U1 + U2 = V und U1 ∩ U2 = 0gilt.

Ein Beispiel: Sei U1 := span(e1) und U2 := span(e2) im R2. Dann istR2 = U1 ⊕ U2, wie man leicht sieht.

Direkte Summen lassen sich wie folgt charakterisieren.

Lemma IV.2.10. Sei V ein Vektorraum uber einem Korper K und seienU1 und U2 Unterraume von V . Dann sind folgende Aussagen aquivalent:1) V = U1 ⊕ U2

2) Fur alle v ∈ V existiert genau ein Paar (u1, u2) ∈ U1×U2 mit u1 +u2 = v.

Beweis. 1) ⇒ 2): Sei V = U1 ⊕ U2. Dann gilt insbesondere V = U1 + U2

und somit ist die Existenzaussage in 2) klar. Seien nun u1, u′1 ∈ U1 und

u2, u′2 ∈ U2 mit u1 + u2 = u′1 + u′2. Dann ist u1 − u′1 ∈ U1, denn U1 ist ein

Unterraum. Ebenso ist u′2 − u2 ∈ U2. Es gilt aber u1 − u′1 = u′2 − u2.Also ist u1 − u′1 ∈ U1 ∩ U2 = 0 und es folgt u1 = u′1 und u2 = u′2. Damitist auch die Eindeutigkeitsaussage in 2) gezeigt.2) ⇒ 1): Es gelte 2). Dann ist naturlich V = U1 + U2. Sei nun v ∈ U1 ∩ U2.Nach Voraussetzung laßt sich 0 eindeutig als 0 = u1 + u2 mit u1 ∈ U1 undu2 ∈ U2 darstellen. Eine solche Darstellung ist naturlich 0 = 0 + 0. Eineweitere ist aber 0 = v − v, denn v ∈ U1 und −v ∈ U2. Folglich muss v = 0sein. Also ist U1 ∩ U2 = 0.

IV.3 Lineare Unabhangigkeit, Basen und Dimen-sion

In diesem Abschnitt beschaftigen wir uns mit dem zentralen Begriff der linea-ren Unabhangigkeit von Vektoren, sowie (darauf aufbauend) dem Konzepteiner Basis eines Vektorraums und dem Dimensionsbegriff.

Hier nun zunachst die Definition linearer Unabhangigkeit.

Definition IV.3.1. Sei V ein Vektorraum uber einem Korper K und sei(v1, . . . , vn) ein n-Tupel von Vektoren aus V . Dann heißt (v1, . . . , vn) linearunabhangig, falls folgendes gilt: Sind λ1, . . . , λn ∈ K, so gilt

n∑i=1

λivi = 0 ⇒ λ1 = λ2 = · · · = λn = 0.

Anderenfalls heißt (v1, . . . , vn) linear abhangig.

Man kann diese Definition naturlich auch umgekehrt lesen: Lineare Un-abhangigkeit von (v1, . . . , vn) bedeutet: Ist wenigstens einer der Skalareλ1, . . . , λn von Null verschieden, so ist auch

∑ni=1 λivi 6= 0.

51

Page 52: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Zuerst einige Bemerkungen: Ist eines der vi gleich 0, so ist (v1, . . . , vn)offenbar linear abhangig, denn dann gilt 0v1 + · · · + 0vi−1 + 1vi + 0vi+1 +· · ·+ 0vn = 0.

Taucht in (v1, . . . , vn) ein Vektor mehrfach auf (etwa vk = vl mit k 6= l),so ist (v1, . . . , vn) ebenfalls linear abhangig (setze λi := 0 fur k 6= i 6= l undλk := 1, λl := −1).

Die Reihenfolge der Vektoren v1, . . . , vn spielt dagegen fur die Frage derlinearen Unabhangigkeit keine Rolle (da die Addition in V kommutativ ist).

Beispiele:1) Ein einzelner Vektor v ∈ V ist offenbar genau dann linear unabhangig,wenn v 6= 0 gilt.2) (e1, . . . , en) ist linear unabhangig im Rn, denn sind λ1, . . . , λn ∈ R mit∑n

i=1 λiei = 0, so folgt λ1...λn

=

0...0

,

also λ1 = λ2 = · · · = λn = 0.3) Die Vektoren

v1 :=

(11

)und v2 :=

(12

)sind linear unabhangig im R2, denn sind λ1, λ2 ∈ R mit λ1v1 + λ2v2 = 0, sofolgt λ1 + λ2 = 0 und λ1 + 2λ2 = 0. Das impliziert aber λ1 = −2λ2 = 2λ1und daraus folgt λ1 = 0 = λ2.4) Im Gegensatz zu 2) sind die Vektoren

w1 :=

(11

)und w2 :=

(22

)naturlich linear abhangig, denn 2w1 − w2 = 0.Allgemein sind zwei Vektoren genau dann linear abhangig, wenn der eine einVielfaches des anderen ist.5) Die Vektoren

v1 :=

101

, v2 :=

1−22

, v3 :=

221

sind linear abhangig, da z. B. 3v1 − v2 − v3 = 0 ist.6) Die Vektoren

w1 :=

110

, w2 :=

011

, w3 :=

101

52

Page 53: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

sind linear unabhangig im R3.Beweis: Seien λ1, λ2, λ3 ∈ R mit λ1v1 + λ2v2 + λ3v3 = 0. Dann folgt

λ1 + λ3 = 0

λ1 + λ2 = 0

λ2 + λ3 = 0

Das impliziert λ1 = −λ3 = λ2 = −λ1. Daraus folgt λ1 = 0 = λ2 = λ3.7) Die Funktionen f, g : R → R seien definiert durch f(x) := x2 undg(x) := (x + 1)2 fur x ∈ R. Dann sind f und g linear unabhangig imVektorraum VR aller Abbildungen von R nach R.Beweis: Seien λ1, λ2 ∈ R mit λ1f + λ2g = 0. Es folgt λ1x

2 + λ2(x+ 1)2 = 0fur alle x ∈ R. Das lasst sich mittels binomischer Formel umformen zu

(λ1 + λ2)x2 + 2λ2x+ λ2 = 0 ∀x ∈ R.

Insbesondere folgt fur x = 0, dass λ2 = 0 sein muss. Dann folgt aber λ1x2 = 0

fur alle x ∈ R und somit auch λ1 = 0.

Nun definieren wir noch den Begriff der linearen Unabhangigkeit fur Mengen.

Definition IV.3.2. Sei V ein Vektorraum uber einem Korper K und sei A ⊆V . Dann heißt A linear unabhangig, falls fur alle paarweise verschiedenen2

a1, . . . , an ∈ A gilt: (a1, . . . , an) ist linear unabhangig.Anderenfalls heißt A linear abhangig.

Man beachte, dass gemaß dieser Definition die leere Menge ∅ linearunabhangig ist. Sind ferner a1, . . . , an ∈ V paarweise verschieden, so istoffenbar a1, . . . , an linear unabhangig genau dann, wenn (a1, . . . , an) linearunabhangig ist. In manchen Vektorraumen gibt es aber auch unendliche, linearunabhangige Mengen. Hierzu ein Beispiel: Wir betrachten den VektorraumVR aller Abbildungen von R nach R und darin die Menge A := pn : n ∈ N0der Potenzfunktionen. Wir wollen zeigen, dass A linear unabhangig ist.Dazu genugt es zu zeigen, dass (p0, . . . , pn) linear unabhangig ist fur allen ∈ N (wieso?). Sei also n ∈ N beliebig und seien λ0, . . . , λn ∈ R mit∑n

i=0 λipi = 0, d. h.∑n

i=0 λixi = 0 fur alle x ∈ R. Aus dem Prinzip des

Koeffizientenvergleichs (siehe den Anhang uber Polynome) folgt dann aberλi = 0 fur alle i = 0, . . . , n.

Nun kommen wir zur Definition einer Basis eines Vektorraums.

Definition IV.3.3. Sei V ein Vektorraum uber einem Korper K und seiB ⊆ V . Dann heißt B eine Basis von V , falls B sowohl linear unabhangigals auch ein Erzeugendensystem von V ist.

2Das heißt ai 6= aj fur i 6= j.

53

Page 54: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Aus unseren bisherigen Beispielen zu Erzeugendensystemen und linearerUnabhangigkeit ergeben sich nun unmittelbar die folgenden Beispiele furBasen:1) Die leere ∅ ist eine Basis des Nullraumes 0.2) Die Menge e1, . . . , en ist eine Basis des Rn. Diese wird auch die kanoni-sche Basis des Rn genannt.3) Die Menge

E :=

1

10

,

011

,

101

ist eine Basis des R3.4) Fur alle n ∈ N0 ist p0, . . . , pn eine Basis des Vektorraums aller Poly-nomfunktionen vom Grad≤ n.5) Die Menge pn : n ∈ N0 ist eine Basis des Vektorraums aller Polynom-funktionen.

Basen von Vektorraumen lassen sich folgendermaßen charakterisieren.

Satz IV.3.4. Sei V ein Vektorraum uber einem Korper K und sei B ⊆ V .Dann sind folgende Aussagen aquivalent:1) B ist eine Basis von V .2) B ist maximal linear unabhangig, d. h. B ist linear unabhangig und istA ⊆ V eine linear unabhangige Menge mit B ⊆ A, so folgt B = A.3) B ist ein minimales Erzeugendensystem von V , d. h. B ist ein Erzeugen-densystem von V und ist A ein Erzeugendensystem von V mit A ⊆ B, sofolgt A = B.

Beweis. 1)⇒ 2): Sei B eine Basis von V . Dann ist B definitionsgemaß linearunabhangig. Sei nun A ⊆ V linear unabhangig mit B ⊆ A und sei v ∈ Abeliebig. Wir wollen zeigen, dass bereits v ∈ B gelten muss.

Da B eine Basis von V ist, gilt V = span(B) und folglich existieren paarweiseverschiedene Vektoren b1, . . . , bn ∈ B und Skalare λ1, . . . , λn ∈ K mit v =∑n

i=1 λibi.

Nun gilt aber auch b1, . . . , bn ∈ A, da B ⊆ A. Ware also v 6= bi fur allei = 1, . . . , n, so waren b1, . . . , bn, v ∈ A paarweise verschieden und wegen∑n

i=1 λibi − v = 0 ware (b1, . . . , bn, v) linear abhangig, im Widerspruch zurlinearen Unabhangigkeit von A.

Also muss v = bi fur ein i ∈ 1, . . . , n gelten und somit ist v ∈ B.

2) ⇒ 1): Sei B maximal linear unabhangig. Wir wollen zeigen, dass B auchein Erzeugendensystem und somit eine Basis von V ist. Sei dazu v ∈ Vbeliebig. Ist v ∈ B, so ist naturlich auch v ∈ span(B), wir konnen also ohneEinschrankung v 6∈ B annehmen.

Nach Voraussetzung ist dann aber die Menge B ∪v linear abhangig. Daherexistieren paarweise verschiedene b1, . . . , bn ∈ B ∪ v, so dass (b1, . . . , bn)

54

Page 55: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

linear abhangig ist. Da aber B linear unabhangig ist, muss eines der bi gleichv sein. Ohne Einschrankung konnen wir bn = v annehmen.

Wegen der linearen Abhangigkeit von (b1, . . . , bn) existieren λ1, . . . , λn ∈ Kmit

∑ni=1 λibi = 0, wobei nicht alle λi gleich 0 sind.

Ware aber λn = 0, so ware∑n−1

i=1 λibi = 0 und wegen der linearen Un-abhangigkeit von B musste dann auch λ1 = · · · = λn−1 = 0 gelten.

Also ist λn 6= 0 und aus∑n

i=1 λibi = 0 folgt daher

v = bn = − 1

λn

n−1∑i=1

λibi.

Somit ist v ∈ span(B), was die Argumentation abschließt.

1) ⇒ 3): Sei wieder B eine Basis von V . Dann ist B auch ein Erzeugenden-system von V . Sei A ⊆ B ebenfalls ein Erzeugendensystem von V und seib ∈ B beliebig. Wir haben b ∈ A zu zeigen.

Wegen span(A) = V existieren paarweise verschiedene a1, . . . , an ∈ A undSkalare λ1, . . . , λn ∈ K mit b =

∑ni=1 λiai.

Wegen A ⊆ B gilt auch a1, . . . , an ∈ B. Ware also b 6∈ a1, . . . , an , sowaren a1, . . . , an, b ∈ B paarweise verschieden und wegen b−

∑ni=1 λiai = 0

ware (a1, . . . , an, b) linear abhangig, was der linearen Unabhangigleit von Bwiderspricht. Also ist b = ai fur ein i ∈ 1, . . . , n und somit b ∈ A.

3)⇒ 1): Sei B ein minimales Erzeugendensystem von V . Wir wollen die linea-re Unabhangigkeit von B nachweisen. Seien dazu b1, . . . , bn ∈ B paarweiseverschieden und seien λ1, . . . , λn ∈ K mit

∑ni=1 λibi = 0.

Angenommen es existiert ein i0 ∈ 1, . . . , n mit λi0 6= 0. Dann folgt

bi0 = − 1

λi0

∑i∈I

λibi, (IV.1)

wobei I := 1, . . . , n \ i0.Setze A := B \ bi0. Dann folgt aus (IV.1) bi0 ∈ span(A).

Ferner ist naturlich auch A ⊆ span(A), also B = A ∪ bi0 ⊆ span(A).

Aus Lemma IV.2.5 folgt dann aber V = span(B) ⊆ span(A). Also istspan(A) = V , d. h. A ist ein Erzeugendensystem von V .

Es ist aber A ⊆ B und A 6= B (denn bi0 ∈ B \ A), im Widerspruch zurVoraussetzung 3).

Also muss λi = 0 fur alle i ∈ 1, . . . , n gelten, was zu beweisen war.

Als Nachstes wollen wir den sogenannten Austauschsatz von Steinitz3

beweisen. Als Vorbereitung zeigen wir zunachst ein entsprechendes Aus-tauschlemma.

3Ernst Steinitz (1871–1928): deutscher Mathematiker, lieferte wichtige Beitrage vor allemzur Algebra (insbesondere zur Korpertheorie), aber zum Beispiel auch zur Graphentheorie.

55

Page 56: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Lemma IV.3.5 (Austauschlemma von Steinitz). Sei V ein Vektorraumuber einem Korper K und sei B eine Basis von V . Sei v ∈ V und seienλ1, . . . , λn ∈ K und b1, . . . , bn ∈ B paarweise verschieden mit v =

∑ni=1 λibi.

Ist j ∈ 1, . . . , n mit λj 6= 0, so ist (B \ bj) ∪ v wieder eine Basisvon V .

Beweis. Zur Abkurzung setzen wir C := (B \ bj) ∪ v.1) Wir wollen zuerst zeigen, dass C ein Erzeugendensystem von V ist. Ausv =

∑ni=1 λibi und λj 6= 0 folgt durch umstellen

bj =1

λjv −

∑i∈I

λiλjbi,

wobei I := 1, . . . , n \ j. Das zeigt bj ∈ span(C).Ferner ist naturlich auch B \ bj ⊆ span(C), also B ⊆ span(C).Dann muss aber auch span(B) ⊆ span(C) gelten. Da B eine Basis von V ist,ist aber span(B) = V . Also ist auch span(C) = V .2) Nun zeigen wir noch die lineare Unabhangigkeit von C. Seien dazuc1, . . . , cm ∈ C paarweise verschieden und α1, . . . , αm ∈ K mit

∑mi=1 αici = 0.

1. Fall: ci 6= v fur alle i = 1, . . . ,m. Dann gilt c1, . . . , cm ∈ B \bj und wegender linearen Unabhangigkeit von B folgt α1 = · · · = αm = 0.2. Fall: Es existiert ein i0 ∈ 1, . . . ,m mit ci0 = v. Sei J := 1, . . . ,m\i0.Es folgt

0 =m∑i=1

αici = αi0v +∑i∈J

αici =n∑i=1

αi0λibi +∑i∈J

αici.

Dies lasst sich wiederum zusammenfassen zu einer Linearkombination vonpaarweise verschiedenen Elementen aus der Menge B. Der Koeffizient vonbj ist dabei einfach αi0λj , denn in der Summe

∑i∈J αici kommt kein Term

mit bj vor. Wegen der linearen Unabhangigkeit von B folgt also αi0λj = 0.Wegen λj 6= 0 muss somit αi0 = 0 gelten.Dann folgt aber

∑i∈J αici = 0 und die lineare Unabhangigleit von B impli-

ziert dann auch αi = 0 fur alle i ∈ J = 1, . . . ,m \ i0.Also ist auch C linear unabhangig.

Nun kommen wir zum Austauschsatz.

Satz IV.3.6 (Austauschsatz von Steinitz). Sei V ein Vektorraum ubereinem Korper K. Sei B eine Basis von V und sei A eine endliche, linearunabhangige Teilmenge von V . Dann gibt es eine endliche Teilmenge C ⊆ B,die genauso viele Elemente wie A hat, so dass (B \C)∪A wieder eine Basisvon V ist.

Der Satz besagt also, dass man die linear unabhangige Menge A in dieBasis B “hineintauschen”kann.

56

Page 57: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Der Beweis erfolgt durch vollstandige Induktion nach der Anzahlder Elemente von A.

Induktionsanfang: A hat keine Elemente, also A = ∅. Dann kann (bzw. muss)man naturlich C = ∅ wahlen.

Induktionsschritt: Angenommen nun die Behauptung stimmt fur linear un-abhangige Mengen mit n Elementen.

Sei A ⊆ V linear unabhangig mit n + 1 Elementen. Sei v ∈ A. Dann istA′ := A \ v eine n-elementige linear unabhangige Teilmenge von V . NachVoraussetzung existiert also eine n-elementige Teilmenge C ⊆ B, so dass(B \ C) ∪A′ wieder eine Basis von V ist.

Folglich konnen wir auch v schreiben als

v =

n∑i=1

λibi +

m∑i=1

µiai,

wobei λ1, . . . , λn, µ1 . . . , µm ∈ K und b1, . . . , bn ∈ B\(C∪A′) und a1, . . . , am ∈A′ jeweils paarweise verschieden sind.

Ware λ1 = · · · = λn = 0, so ware 0 = −v +∑m

i=1 µiai, was der linearenUnabhangigkeit von A = A′ ∪ v widerspricht.

Also existiert ein j ∈ 1, . . . , n mit λj 6= 0. Aus dem Austauschlemma folgtdann, dass (((B \ C) ∪A′) \ bj) ∪ v = (B \ (C ∪ bj)) ∪A wieder eineBasis von V ist. Also ist C ′ := C ∪ bj die gesuchte (n + 1)-elementigeTeilmenge von B.

Bislang wissen wir noch nicht, ob uberhaupt jeder Vektorraum eine Basisbesitzt. Es gelten jedoch die beiden folgenden Satze.

Satz IV.3.7 (Basiserganzungssatz). Sei K ein Korper und V ein Vektorraumuber K. Sei A ⊆ V linear unabhangig. Dann existiert eine Basis B von Vmit A ⊆ B.

Satz IV.3.8 (Basisauswahlsatz). Sei K ein Korper und V ein Vektorraumuber K. Sei E ⊆ V ein Erzeugendensystem von V . Dann existiert eine BasisB von V mit B ⊆ E.

Daraus ergibt sich insbesondere, dass jeder Vektorraum wenigstens eineBasis besitzt.

Satz IV.3.9 (Basisexistenzsatz). Sei K ein Korper und V ein Vektorraumuber K. Dann besitzt V eine Basis.

Beweis. Wende den Basiserganzungssatz auf die linear unabhangige Menge∅ oder den Basisauswahlsatz auf das Erzeugendensystem V an.

Die Beweise fur Basiserganzungs- und Basisauswahlsatz sind jedoch involler Allgemeinheit relativ schwierig (sie beruhen auf dem sogenannten

57

Page 58: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Zornschen Lemma, das selbst erst mit Hilfe des sogenannten Auswahlaxiomsbewiesen werden muss).4 Wir wollen sie daher hier nicht fuhren, sondernbeschranken uns im wesentlich auf den fur uns wichtigsten Fall, dass derVektorraum ein endliches Erzeugendensystem besitzt, was die Sache einfachermacht. Solche Vektorraume lassen sich wie folgt charakterisieren.

Satz IV.3.10. Sei V ein Vektorraum uber einem Korper K. Dann sindfolgende Aussagen aquivalent:

(a) V hat ein endliches Erzeugendensystem.

(b) Fur alle Erzeugendensysteme E von V gilt: Es existiert eine endlicheTeilmenge E′ ⊆ E, so dass E′ immer noch ein Erzeugendensystem vonV ist.

(c) Fur alle Erzeugendensysteme E von V gilt: Es existiert eine endlicheBasis B von V mit B ⊆ E.

Beweis. (a) ⇒ (b): Es existiere ein endliches Erzeugendensystem von V ,etwa A = a1, . . . , an. Sei nun E irgendein Erzeugendensystem von V , alsospan(E) = V . Dann lasst sich insbesondere jedes ai als Linearkombinationvon endlich vielen Elementen aus E schreiben, d. h. es existieren endlicheMengen E1, . . . , En ⊆ E mit ai ∈ span(Ei) fur i = 1, . . . , n.

Die Menge E′ := E1 ∪ E2 ∪ · · · ∪ En ist als Vereinigung endlich vielerendlicher Teilmengen von E wieder eine endliche Teilmenge von E. Fernergilt ai ∈ span(Ei) ⊆ span(E′) fur alle i = 1, . . . , n, also A ⊆ span(E′) unddaher auch span(A) ⊆ span(E′). Wegen span(A) = V folgt span(E′) = V ,also ist E′ ein Erzeugendensystem von V .

(b)⇒ (c): Es gelte (b). Wir zeigen zunachst, dass jedes endliche Erzeugenden-system C von V eine Basis von V enthalt. Dazu fuhren wir eine vollstandigeInduktion nach der Anzahl der Elemente von C durch.

Induktionsanfang: Ist die Anzahl der Elemente von C gleich 0, so folgt C = ∅und somit V = span(C) = 0. Dann ist aber C = ∅ auch eine Basis von V .

Induktionsschritt: Die Behauptung gelte fur alle Erzeugendensysteme von Vmit hochstens n Elementen und es sei C ein Erzeugendensystem von V mitn+ 1 Elementen. Wir unterscheiden zwei Falle:

1.Fall: Fur alle echten Teilmengen von C, also alle D ⊆ C mit D 6= C, gilt: Dist kein Erzeugendensytem von V . Mit anderen Worten C ist ein minimalesErzeugendensystem und daher nach Satz IV.3.4 eine Basis von V .

2.Fall: Es existiert ein D ⊆ C mit D 6= C und span(D) = V . Dann ist Dendlich und die Anzahl der Elemente von D ist echt kleiner die Anzahl der

4Es ist ferner zu bemerken, dass es sich bei diesen Satzen um reine Existenzsatzehandelt. Im Allgemeinen gibt es keine Methode, eine Basis eines Vektorraums explizit zukonstruieren. Beispielsweise hat niemand jemals eine Basis des Vektorraums VR tatsachlich“gesehen”.

58

Page 59: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Elemente von C, also hochstens n. Nach Voraussetzung existiert dann eineBasis B von V mit B ⊆ D ⊆ C.

Sei nun E ein beliebiges Erzeugendensystem von V . Wegen (b) existiert eineendliche Teilmenge E′ ⊆ E, die immer noch ein Erzeugendensystem von Vist und nach unserer obigen Uberlegung muss E′ eine Basis von V enthalten.

(c)⇒ (a): Es gelte (c). Da V selbst naturlich ein Erzeugendensystem von Vist, muss also eine endliche Basis B ⊆ V existieren, insbesondere gilt (a).

Dieser Satz beinhaltet insbesondere den Basisauswahlsatz fur Vektorraumemit einem endlichen Erzeugendensystem. In Kombination mit dem Austausch-satz von Steinitz erhalt man nun folgenden wichtigen Anzahlsatz.

Satz IV.3.11. Sei V ein Vektorraum uber einem Korper K, sei A ⊆ Vlinear unabhangig und sei E ⊆ V ein Erzeugendensystem von V . Ist Eendlich, so ist auch A endlich und hat hochstens so viele Elemente wie E.

Beweis. Sei E endlich, sagen wir mit m Elementen. Nach Satz IV.3.10existiert dann eine endliche Basis B von V mit B ⊆ E. Die Anzahl derElemente von B sei n ≤ m.

Angenommen nun A ware unendlich oder aber endlich mit mehr als nElementen. Dann gabe es eine (n+ 1)-elementige Teilmenge A′ ⊆ A. Da Alinear unabhangig ist, trifft dies naturlich erst recht auf A′ zu. Nach demAustauschsatz von Steinitz gabe es dann aber eine endliche Teilmenge C ⊆ Bmit n+ 1 Elementen, so dass (B \ C) ∪A′ wieder eine Basis von V ist. Dasist aber ein Widerspruch, denn B hat nur n Elemente.

Also ist A endlich mit hochsten n ≤ m Elementen.

Damit erhalten wir nun das folgende wichtige Korollar.

Korollar IV.3.12. Sei V ein Vektorraum uber einem Korper K, welcherein endliches Erzeugendensystem besitzt. Dann gilt:1) V besitzt eine endliche Basis.2) Jede Basis von V ist endlich und je zwei Basen von V haben die gleicheAnzahl von Elementen.

Beweis. 1) Das folgt bereits aus Satz IV.3.10.

2) Sei B irgendeine Basis von V . Nach 1) existiert eine endliche Basis B0

von V , etwa mit n Elementen. Insbesondere ist B0 ein Erzeugendensystemund B linear unabhangig, also folgt aus Satz IV.3.11, dass B endlich ist undaus hochstens n Elementen besteht.

Andererseits ist auch B ein Erzeugendensystem und B0 linear unabhangig,also folgt aus Satz IV.3.11 auch, dass die Anzahl der Elemente von Bmindestens n sein muss. Also hat B genau n Elemente.

Dieses Korollar gestattet es nun, den Begriff der Dimension eines Vektor-raumes einzufuhren.

59

Page 60: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Definition IV.3.13. Sei V ein Vektorraum uber einem Korper K. BesitztV ein endliches Erzeugendensystem, so bezeichne mit dim(V ) die Anzahl derElemente in einer Basis von V (wegen Korollar IV.3.12 ist das wohldefiniert).Anderenfalls setze dim(V ) :=∞.

dim(V ) heißt die Dimension von V .

Beispiele:1) Wir hatten oben schon gesehen, dass e1, . . . , en eine Basis des Rn bildet,also ist dim(Rn) = n (wie man es erwarten wurde).2) Ebenfalls hatten iwr oben schon gesehen, dass die Potenzfunktionenp0, . . . , pn eine Basis des Vektorraumes aller Polynomfunktionen vomGrad≤ n bilden. Dieser Vektorraum hat also die Dimension n+ 1.3) Der Vektorraum aller Polynomfunktionen ist dagegen unendlich-dimensional,denn er hat z. B. pn : n ∈ N0 als Basis (siehe oben).

Jetzt beweisen wir noch folgende Charakterisierung.

Lemma IV.3.14. Sei V ein Vektorraum uber einem Korper K. Dann sindfolgende Aussagen aquivalent:1) dim(V ) =∞2) Es gibt eine unendliche Folge v1, v2, . . . von Vektoren in V , deren An-fangsstucke (v1, . . . , vn) jeweils linear unabhangig sind (fur alle n ∈ N).

Beweis. Sei zunachst dim(V ) = ∞. Dann besitzt V also kein endlichesErzeugendensystem. Insbesondere ist V 6= 0 und somit existiert ein v1 ∈ Vmit v1 6= 0. Dieses ist dann naturlich linear unabhangig.

Angenommen nun es sind bereits linear unabhangig Vektoren (v1, . . . , vn)in V konstruiert. Da V kein endliches Erzeugendensystem besitzt, existiertein vn+1 ∈ V mit vn+1 6∈ spanv1, . . . , vn. Wir wollen zeigen, dass auch(v1, . . . , vn+1) noch linear unabhangig ist. Seien also λ1, . . . , λn+1 ∈ K mit∑n+1

i=1 λivi = 0. Ware λn+1 6= 0, so konnte man dies umstellen zu vn+1 =−∑n

i=1 λiλ−1n+1vi, was im Widerspruch zu vn+1 6∈ spanv1, . . . , vn steht.

Also ist λn+1 = 0 und somit∑n

i=1 λivi = 0. Wegen der linearen Un-abhangigkeit von (v1, . . . , vn) folgt daraus auch λ1 = · · · = λn = 0 undwir sind fertig.

Ist V endlich-dimensional, etwa dim(V ) = n, so besitzt V eine Basis ausn Elementen und aus Satz IV.3.11 folgt daher, dass es keine n + 1 linearunabhangigen Vektoren in V geben kann.

Als Folgerung erhalt man, dass Unterraume von endlich-dimensionalenVektorraumen wieder endlich-dimensional sind.

Korollar IV.3.15. Sei V ein Vektorraum uber einem Korper K mit dim(V ) <∞ und sei U ⊆ V ein Unterraum. Dann ist auch dim(U) <∞.

60

Page 61: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Ware dim(U) =∞, so gabe es nach dem vorigen Satz eine unendlicheFolge u1, u2, . . . in U , so dass (u1, . . . , un) linear unabhangig in U (undfolglich auch in V ) ist fur alle n ∈ N, was aber der Tatsache dim(V ) < ∞widerspricht.

Als Nachstes zeigen wir noch den Basiserganzungssatz fur endlich-dimensionaleVektorraume.

Satz IV.3.16. Sei V ein Vektorraum uber einem Korper K mit dim(V ) <∞und sei A ⊆ V linear unabhangig. Dann existiert eine Basis B von V mitA ⊆ B.

Beweis. Da V endlich-dimensional ist, muss wegen Satz IV.3.11 die Menge Aendlich sein. Ist B0 eine Basis von V , so existiert also nach dem Austauschsatzvon Steinitz eine Teilmenge C ⊆ B0, so dass B := (B0 \ C) ∪ A eine Basisvon V ist.

Schließlich erhalten wir noch folgende Aussage uber die Dimension vonUnterraumen.

Korollar IV.3.17. Sei V ein Vektorraum uber einem Korper K und seiU ⊆ V ein Unterraum. Dann gilt dim(U) ≤ dim(V ).

Ist ferner dim(V ) <∞, so gilt U = V ⇔ dim(U) = dim(V ).

Beweis. Die Aussage ist klar fur dim(V ) =∞. Sei also dim(V ) <∞. NachKorollar IV.3.15 ist dann auch dim(U) < ∞ und folglich existiert eineendliche Basis A von U . Diese ist insbesondere in U und daher auch in Vlinear unabhangig, also existiert nach Satz IV.3.16 eine Basis B von V mitA ⊆ B. Folglich ist die Anzahl der Elemente von A kleiner oder gleich derAnzahl der Elemente von B, also dim(U) ≤ dim(V ).

Gilt sogar dim(U) = dim(V ), so kann A keine echte Teilmenge von B sein.Also A = B und es folgt U = span(A) = span(B) = V .

Als letzten Punkt in diesem Kapitel betrachten wir noch die Dimensionvon direkten Summen.

Lemma IV.3.18. Sei V ein endlichdimensionaler Vektorraum uber einemKorper K und seien U1, U2 ⊆ V Unterraume mit V = U1 ⊕ U2. Dann giltdim(V ) = dim(U1) + dim(U2).

Beweis. Seien n1 := dim(U1) und n2 := dim(U2). Sei B1 eine Basis von U1

und B2 eine Basis von U2. Dann hat B1 genau n1 Elemente und B2 genaun2 Elemente. Setze B := B1 ∪B2.

Es gilt Ui = span(Bi) ⊆ span(B) fur i = 1, 2, also auch U1 + U2 ⊆ span(B)(denn span(B) ist ein Unterraum von V ). Wegen V = U1 ⊕ U2 folgt daherspan(B) = V , d. h. B ist ein Erzeugendensystem von V .

61

Page 62: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Ferner gilt B1 ∩B2 ⊆ U1 ∩ U2 = 0 und da B1 und B2 linear unabhangigsind (folglich die 0 nicht enthalten), folgt B1 ∩B2 = ∅.Schreibe B1 = v1, . . . , vn1 und B2 = w1, . . . , wn2. Wegen B1 ∩ B2 = ∅hat B = v1, . . . , vn1 , w1, . . . , wn2 also n1 + n2 Elemente.Außerdem ist B linear unabhangig.Beweis dazu: Seien λ1, . . . , λn1 , µ1, . . . , µn2 ∈ K mit

∑n1i=1 λivi+

∑n2i=1 µiwi =

0. Die erste Summe gehort zu U1, die zweite zu U2. Wegen V = U1 ⊕ U2

folgt also∑n1

i=1 λivi = 0 und∑n2

i=1 µiwi = 0. Da B1 und B2 jeweils linearunabhangig sind, folgt λi = 0 fur alle i = 1, . . . , n1 und µi = 0 fur allei = 1, . . . , n2.Also ist B eine Basis von V und daher dim(V ) = n1 + n2.

62

Page 63: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

V Lineare Abbildungen und Matrizen

In diesem Kapitel befassen wir uns mit sogenannten linearen Abbildungenzwischen Vektorraumen und der eng damit verwandten Matrizenrechnung.

V.1 Lineare Abbildungen

Unter einer linearen Abbildung von einem Vektorraum in einen anderenversteht man eine Abbildung, die die Vektorraumstruktur (also die Additionund Skalarmultiplikation) erhalt. Die genaue Definition lautet wie folgt.

Definition V.1.1. Seien V undW zwei Vektorraume uber demselben KorperK und sei F : V →W eine Abbildung. F heißt linear, falls folgendes gilt:

(a) F (v + w) = F (v) + F (w) fur alle v, w ∈ V .

(b) F (λv) = λF (v) fur alle v ∈ V und alle λ ∈ K.

Die Addition und die Skalarmultiplikation in V und in W werden hierjeweils mit dem gleichen Symbol bezeichnet, was erfahrungsgemaß nicht zuVerwechslungen fuhrt. Ebenso verfahrt man hinsichtlich der neutralen undinversen Elemente von V und W .

Anstelle von einer linearen Abbildung spricht man auch von einem Vektor-raumhomomorphismus oder kurz Homomorphismus. Die Menge aller linearenAbbildungen von V nach W bezeichnet man daher auch mit Hom(V,W ). ImFall V = W spricht man auch von Endomorphismen und schreibt End(V )anstelle von Hom(V, V )

Bevor wir zu den Beispielen kommen zunachst noch eine allgemeineBemerkung.

Bemerkung V.1.2. Seien V und W zwei Vektorraume uber demselbenKorper K und sei F : V → W eine lineare Abbildung. Dann gilt F (0) = 0und F (−v) = −F (v) fur alle v ∈ V .

Beweis. Sei v0 irgendein Element von V . Aus der Linearitat von F folgtF (0) = F (0v0) = 0F (v0) = 0.

Weiter gilt fur alle v ∈ V auch F (−v) = F ((−1)v) = (−1)F (v) = −F (v).

63

Page 64: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beispiele:1) Fur je zwei Vektorraume V und W ist die konstante Abbildung von Vnach W mit Wert 0 offensichtlich linear.2) Die Abbildung F : R2 → R2 definiert durch

F

((xy

)):=

(x0

)ist linear, denn es ist

F

((x1y1

)+

(x2y2

))=

(x1 + x2

0

)= F

((x1y1

))+ F

((x2y2

))und

F

(xy

))=

(λx0

)= λF

((xy

))fur λ ∈ R.3) Fur alle Vektorraume V uber einem Korper K und alle µ ∈ K gilt: DieAbbildung F : V → V definiert durch F (v) := µv fur alle v ∈ V ist linear,wie man leicht nachrechnet.Ferner ist fur alle v0 ∈ V die Abbildung G : K → V definiert durchG(a) := av0 fur a ∈ K linear, wie man ebenfalls leicht nachrechnet.4) Die Abbildung F : R3 → R2 definiert durch

F

xyz

:=

(2x+ y3x+ z

)

ist linear (Nachrechnen zur Ubung).5) Es bezeichne wieder VR den Vektorraum aller Funktionen von R nach R undes sei x0 ∈ R. Die Abbildung F : VR → R sei definiert durch F (f) := f(x0)fur alle f ∈ VR (Auswertung an der Stelle x0). Diese Abbildung ist linear,wie man leicht sieht.

Wir wollen nun einige einfache Eigenschaften linearer Abbildungen zusam-menstellen. Dazu zuerst noch folgende allgemeine Definition.

Definition V.1.3. Seien A und B beliebige Mengen und sei f : A→ B einebeliebige Abbildung. Fur Teilmengen C ⊆ A heißt

f [C] := f(x) : x ∈ C

das Bild von C unter f .Fur Teilmengen D ⊆ B heißt

f−1[D] := x ∈ A : f(x) ∈ D

das Urbild von D unter f .

64

Page 65: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Es ist insbesondere f [A] = Im(f) das Bild von f .Nun wollen wir zeigen, dass Bilder und Urbilder von Unterraumen unter

linearen Abbildungen wieder Unterraume sind.

Lemma V.1.4. Seien V und W Vektorraume uber dem Korper K und seiF : V → W eine lineare Abbildung. Sei U ⊆ V ein Unterraum von V undsei U ′ ⊆W ein Unterraum von W . Dann ist auch F [U ] ⊆W ein Unterraumvon W und F−1[U ′] ⊆ V ein Unterraum von V .

Beweis. Es ist 0 = F (0) ∈ F [U ], also F [U ] 6= ∅. Sind ferner w1, w2 ∈ F [U ], soexistieren definitionsgemaß u1, u2 ∈ U mit w1 = F (u1), w2 = F (u2). Wegender Linearitat von F folgt w1 + w2 = F (u1) + F (u2) = F (u1 + u2), sowieλw1 = λF (u1) = F (λu1) fur λ ∈ K. Da U ein Unterraum von V ist, giltauch u1 +u2 ∈ U und λu1 ∈ U . Daher folgt w1 +w2 ∈ F [U ] und λw1 ∈ F [U ].Also ist F [U ] ein Unterraum.Den Beweis fur das Urbild konnen Sie zur Ubung selbst durchfuhren.

Als Nachstes definieren wir noch den Kern einer linearen Abbildung.

Definition V.1.5. Seien K ein Korper und V und W Vektorraume uber K.Sei F : V →W eine lineare Abbildung. Dann heißt die Menge

ker(F ) := v ∈ V : F (v) = 0

der Kern von F .

Es ist also gerade ker(F ) = F−1[0] und daher ist ker(F ) nach demvorigen Lemma ein Unterraum von V . Mit Hilfe des Kerns lasst sich dieInjektivitat einer linearen Abbildung leicht wie folgt charakterisieren.

Lemma V.1.6. Seien K ein Korper und V und W Vektorraume uber K.Sei F : V →W eine lineare Abbildung. Dann gilt: F ist injektiv genau dann,wenn ker(F ) = 0.

Beweis. 1) Sei F injektiv und sei v ∈ ker(F ). Dann ist F (v) = 0 = F (0) undwegen der Injektivitat folgt v = 0.2) Sei ker(F ) = 0 und seien v, w ∈ V mit F (v) = F (w). Wegen derLinearitat von F folgt F (v − w) = F (v) − F (w) = 0, also ist v − w ∈ker(F ) = 0. Es folgt v − w = 0, also v = w. Das zeigt die Injektivitat vonF .

Sei wieder K ein Korper und seien V und W Vektorraume uber K. Furzwei lineare Abbildungen F,G : V →W und λ ∈ K werden F +G : V →Wund λF : V →W definiert durch (F +G)(v) := F (v) +G(v) und (λF )(v) :=λF (v) fur alle v ∈ V .

Es ist nicht schwer nachzuweisen, dass auch F +G und λF wieder lineareAbbildungen sind und dass Hom(V,W ) auf diese Weise zu einem Vektorraumuber K wird (Ubung).

65

Page 66: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Das nachste Lemma zeigt, dass auch die Verkettung linearer Abbildungenwieder linear ist.

Lemma V.1.7. Sei K ein Korper und seien U , V und W Vektorraumeuber K. Seien G : V → U und F : U → W lineare Abbildungen. Dann istauch F G : V →W linear.

Beweis. Seien v, w ∈ V und sei λ ∈ K. Wegen der Linearitat von G giltG(v + w) = G(v) + G(w) und G(λv) = λG(v). Wegen der Linearitat vonF folgt daraus (F G)(v + w) = F (G(v + w)) = F (G(v) + G(w)) =F (G(v))+F (G(w)) = (F G)(v)+(F G)(w) und (F G)(λv) = F (G(λv)) =F (λG(v)) = λF (G(v)) = λ(F G)(v).

Als Nachstes betrachten wir den folgenden Satz, dessen erster Teil besagt,dass eine lineare Abbildung bereits eindeutig bestimmt ist, sobald man weiß,welche Werte sie auf einem Erzeugendensystem annimmt. Der zweite Teilbesagt, dass man jede Abbildung auf einer Basis eines Vektorraumes zu einerlinearen Abbildung auf dem ganzen Raum fortsetzen kann.

Satz V.1.8. Sei K ein Korper und seien V und W Vektorraume uber K.Dann gilt:1) Ist E ein Erzeugendensystem von V und sind F,G : V → W lineareAbbildungen mit F (v) = G(v) fur alle v ∈ E, so gilt F = G.2) Ist B eine Basis von V und f : B →W eine Abbildung, so existiert genaueine lineare Abbildung F : V →W mit F (b) = f(b) fur alle b ∈ B.

Beweis. 1) Seien E, F und G wie oben und sei v ∈ V beliebig. Wegenspan(E) = V existieren v1, . . . , vn ∈ E und λ1, . . . , λn ∈ K mit v =∑n

i=1 λivi. Da F und G linear sind, gilt

F (v) = F (λ1v1 + · · ·+ λnvn) = λ1F (v1) + · · ·+ λnF (vn),

G(v) = G(λ1v1 + · · ·+ λnvn) = λ1G(v1) + · · ·+ λnG(vn).

Wegen vi ∈ E gilt nach Voraussetzung aber F (vi) = G(vi) fur i = 1, . . . , n,daher folgt F (v) = G(v).

2) Sei B eine Basis von V und sei f : B →W irgendeine Abbildung. Ich fuhreden Beweis der Einfachheit halber hier nur fur den Fall n := dim(V ) <∞,die Aussage gilt aber allgemein.

Im endlichdimensionalen Fall konnen wir B in der Form B = b1, . . . , bnschreiben. Jedes v ∈ V lasst sich dann als Linearkombination v =

∑ni=1 λibi

mit λ1, . . . , λn ∈ K schreiben und diese Darstellung ist auch eindeutig be-stimmt, denn sind auch µ1, . . . , µn ∈ K mit

∑ni=1 µibi = v =

∑ni=1 λibi,

so folgt∑n

i=1(λi − µi)bi =∑n

i=1 λibi −∑n

i=1 µibi = 0 und die lineare Un-abhangigkeit von B impliziert dann λi = µi fur i = 1, . . . , n.

Daher ist es wohldefinert, F (v) :=∑n

i=1 λif(bi) ∈W zu setzen.

66

Page 67: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Um die Linearitat von F nachzuweisen, nehmen wir uns zwei Vektorenv =

∑ni=1 λibi und v′ =

∑ni=1 λ

′ibi her. Dann gilt v + v′ =

∑ni=1(λi + λ′i)bi

und daher

F (v + v′) =n∑i=1

(λi + λ′i)f(bi) =n∑i=1

λif(bi) +n∑i=1

λ′if(bi) = F (v) + F (v′).

Ahnlich zeigt man auch F (λv) = λF (v) fur alle λ ∈ K.Ferner hat naturlich bj die Darstellung bj =

∑ni=1 αibi, wobei αi = 0 fur

i 6= j und αj = 1 ist, also gilt F (bj) =∑n

i=1 αif(bi) = f(bj). Das zeigtF (b) = f(b) fur alle b ∈ B.Nun noch zur Eindeutigkeit: Ist G eine weitere lineare Abbildung von V nachW mit G(b) = f(b) = F (b) fur alle b ∈ B, so folgt aus 1) sofort F = G.

Nun fuhren wir noch das wichtige Konzept der Isomorphie von Vek-torraumen ein.

Definition V.1.9. Seien K ein Korper und V und W Vektorraume uber K.Eine bijektive lineare Abbildung F : V →W nennt man einen Isomorphismusvon V nach W .

V und W heißen isomorph (in Zeichen: V ∼= W ), falls es einen Isomor-phismus von V nach W gibt.

Die Idee dabei ist, dass zwei isomorphe Vektorraume sich nicht wesentlichvoneinander unterscheiden (es unterscheiden sich sozusagen nur die Namenihrer Elemente und Verknupfungen).

Als Erstes wollen wir nun folgende Beobachtung festhalten.

Lemma V.1.10. Seien K ein Korper und V und W Vektorraume uber K.Sei F : V →W ein Isomorphismus. Dann ist auch F−1 : W → V wieder einIsomorphismus.

Beweis. Klar ist F−1 bijektiv, wir mussen also nur die Linearitat von F−1

nachweisen. Seien dazu w1, w2 ∈W beliebig. Dann sind F−1(w1), F−1(w2) ∈V und da F linear ist, gilt

F (F−1(w1) + F−1(w2)) = F (F−1(w1)) + F (F−1(w2)) = w1 + w2.

Wendet man hier nun auf beiden Seiten F−1 an, so folgt

F−1(w1) + F−1(w2) = F−1(F (F−1(w1) + F−1(w2))) = F−1(w1 + w2).

Analog zeigt man auch F−1(λw) = λF−1(w) fur λ ∈ K und w ∈W .

Fur Vektorraume U , V und W uber demselben Korper K gelten folgendeRegeln bzgl. der Isomorphie:

(i) V ∼= V

67

Page 68: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

(ii) V ∼= W ⇒W ∼= V

(iii) V ∼= W und W ∼= U ⇒ V ∼= U

(i) ist klar, denn die identische Abbildung idV : V → V ist ein Isomor-phismus. (ii) folgt direkt aus Lemma V.1.10 und fur (iii) beachte man, dassdie Verkettung zweier Isomorphismen wieder ein Isomorphismus ist (Ubung).

Nun zeigen wir, dass ein Isomorphismus stets Basen wieder in Basenuberfuhrt.

Lemma V.1.11. Sei K ein Korper und seien V und W Vektorraume uberK. Sei F : V → W ein Isomorphismus und sei B ⊆ V eine Basis von V .Dann ist F [B] eine Basis von W .

Insbesondere gilt dim(V ) = dim(W ), falls V ∼= W .

Beweis. 1) Sei w ∈ W beliebig. Dann ist v := F−1(w) ∈ V und da Beine Basis, also insbesondere ein Erzeugendensystem, von V ist, existierenb1, . . . , bn ∈ B und λ1, . . . , λn ∈ K mit v =

∑ni=1 λibi. Wegen der Linearitat

von F folgt

w = F (v) = F (λ1b1 + · · ·+ λnbn) = λ1F (b1) + · · ·+ λnF (bn).

Wegen F (b1), . . . , F (bn) ∈ F [B] folgt daraus w ∈ span(F [B]). Also ist F [B]ein Erzeugendensystem von W .2) Seien nun w1, . . . , wn ∈ F [B] paarweise verschieden und seien λ1, . . . , λn ∈K mit

∑ni=1 λiwi = 0. Wegen w1, . . . , wn ∈ F [B] gilt bi := F−1(wi) ∈ B fur

alle i = 1, . . . , n. Nach Lemma V.1.10 ist auch F−1 linear, daher folgt

0 = F−1(λ1w1+· · ·+λnwn) = λ1F−1(w1)+· · ·+λnF−1(wn) = λ1b1+· · ·+λnbn.

Wegen der Injektivitat von F−1 sind auch die Elemente b1, . . . , bn paarweiseverschieden. Die lineare Unabhangigkeit von B impliziert daher λ1 = · · · =λn = 0.Also ist F [B] auch linear unabhangig und damit eine Basis von W .Der Zusatz ergibt sich so: Ist dim(V ) = n ∈ N, so besteht B aus n Elementen.Wegen der Bijektivitat von F ist dann auch die Anzahl der Elemente vonF [B] gleich n, also dim(W ) = n.Ist dagegen V unendlichdimensional, so muss auch W unendlichdimensionalsein, denn anderenfalls gabe es eine endliche Basis C fur W und nachderselben Uberlegung wie oben ware dann F−1[C] eine endliche Basis fur V ,die es aber nicht geben kann.

Als Nachstes wollen wir begrunden, dass tatsachlich jeder n-dimensionaleVektorraum uber K isomorph zum Kn ist.1 Dazu fuhren wir zunachst denBegriff einer geordneten Basis ein.

1Zur Erinnerung: Der Vektorraum Kn fur einen beliebigen Korper K ist in volligerAnalogie zum Vektorraum Rn definiert.

68

Page 69: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Definition V.1.12. Sei K ein Korper und V ein Vektorraum uber K mitdim(V ) = n ∈ N. Ein n-Tupel A = (a1, . . . , an) von Vektoren in V heißt einegeordnete Basis von V , falls a1, . . . , an eine Basis von V ist.

Naturlich A = (a1, . . . , an) genau dann eine geordnete Basis von V , wenn(a1, . . . , an) linear unabhangig ist, denn aus der linearen Unabhangigkeit folgtwegen des Basiserganzungssatzes die Existenz einer BasisB mit a1, . . . , an ⊆B, aber B muss n Elemente haben, also B = a1, . . . , an. Ebenso folgt ausdem Basisauswahlsatz, dass A genau dann eine geordnete Basis von V ist,wenn spana1, . . . , an = V gilt.

Ist nun A = (a1, . . . , an) eine geordnete Basis von V , so definieren wireine Abbildung ΦA : Kn → V durch

ΦA

x1

...xn

:=

n∑i=1

xiai.

Es ist leicht nachzurechnen, dass ΦA linear ist. Ferner ist die Abbildung wegenspana1, . . . , an = V auch surjektiv. Ist zudem x ∈ Kn mit ΦA(x) = 0, soimpliziert die lineare Unabhangigkeit von (a1, . . . , an), dass x = 0 sein muss.Also ist ker(ΦA) = 0 und daher ist ΦA nach Lemma V.1.6 auch injektiv.Also ist ΦA ein Isomorphismus.

Es gilt also Kn ∼= V , falls V die Dimension n hat. Dieses Resultat lasstsich noch wie folgt ausbauen.

Satz V.1.13. Sei K ein Korper und seien V und W Vektorraume uber Kmit n := dim(V ) = dim(W ) <∞. Dann gilt V ∼= W .

Beweis. Nach unserer obigen Uberlegung gilt Kn ∼= V und Kn ∼= W . Ausden oben erwahnten Regeln fur Isomorphie folgt dann aber auch V ∼= W .

Die Umkehrabbildung von ΦA ist nach Lemma V.1.10 ebenfalls einIsomorphismus. Sie wird auch mit KA bezeichnet. Fur v ∈ V heißt KA(v) ∈Kn der Koordinatenvektor von v bzgl. A.

Als Nachstes wollen wir noch die wichtige Dimensionsformel fur lineareAbbildungen herleiten. Dazu zeigen wir zunachst folgenden Satz.

Satz V.1.14. Sei K ein Korper und seien V und W Vektorraume uber K.Sei F : V →W eine lineare Abbildung. Sei A eine Basis fur ker(F ) und Beine Basis fur Im(F ). Ferner sei C ⊆ F−1[B] mit folgender Eiegnschaft: Furalle b ∈ B existiert genau ein c ∈ C mit F (c) = b.

Dann gilt A ∩ C = ∅ und A ∪ C ist eine Basis von V .

Beweis. 1) Seien a ∈ A und c ∈ C beliebig. Ware a = c, so ware F (a) =F (c) ∈ B, da c ∈ F−1[B]. Da aber a ∈ ker(F ) ist, ist F (a) = 0. Also ware0 ∈ B, was der linearen Unabhangigkeit von B widerspricht. Also ist a 6= c.Damit ist A ∩ C = ∅ gezeigt.

69

Page 70: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

2) Seien nun a1, . . . , an ∈ A paarweise verschieden und c1, . . . , cm ∈ Cpaarweise verschieden und seien λ1, . . . , λn, µ1 . . . , µm ∈ K mit

∑ni=1 λiai +∑m

i=1 µici = 0. Wegen A ⊆ ker(F ) ist F (ai) = 0 fur alle i = 1, . . . , n undwegen der Linearitat von F folgt

0 = F (0) = F

(n∑i=1

λiai +m∑i=1

µici

)=

n∑i=1

λiF (ai)+m∑i=1

µiF (ci) =m∑i=1

µiF (ci).

Nach Voraussetzung ist bi := F (ci) ∈ B fur alle i = 1, . . . , n und die Vektorenb1, . . . , bn sind paarweise verschieden. Wegen

∑mi=1 µibi = 0 und der linearen

Unabhangigkeit von B folgt µ1 = · · · = µm = 0.Dann folgt aber

∑ni=1 λiai = 0 und die lineare Unabhangigkeit von A impli-

ziert λ1 = · · · = λn = 0.Damit ist die lineare Unabhangigkeit von A ∪ C bewiesen.3) Es sei nun v ∈ V beliebig. Dann ist F (v) ∈ Im(F ) und folglich existierenb1, . . . , bn ∈ B und α1, . . . , αn ∈ K mit F (v) =

∑ni=1 αibi. Nach Vorausset-

zung existieren c1, . . . , cn ∈ C mit F (ci) = bi fur i = 1, . . . , n.Sei v :=

∑ni=1 αici ∈ V . Dann ist F (v) =

∑ni=1 αiF (ci) = F (v), also

F (v − v) = 0, d. h. v − v ∈ ker(F ) = span(A).Nach Definition ist auch v ∈ span(C), also folgt v = v+ v− v ∈ span(A∪C).Also ist A ∪ C auch ein Erzeugendensystem von V .

Nun kommen wir zur angekundigten Dimensionsformel fur lineare Abbil-dungen.

Satz V.1.15. Sei K ein Korper und sei V ein Vektorraum uber K mitdim(V ) < ∞. Ferner sei W ein beliebiger Vektorraum uber K und es seiF : V → W eine lineare Abbildung. Dann sind auch ker(F ) und Im(F )endlich-dimensional und es gilt

dim(V ) = dim(ker(F )) + dim(Im(F )).

Beweis. Da V endlich-dimensional ist, ist naturlich auch der Unterraumker(F ) endlich-dimensional. Ist ferner E ein endliches Erzeugendensystemvon V , so ist auch F [E] ⊆ Im(F ) endlich und es gilt Im(F ) = span(F [E])(Ubung), also ist auch Im(F ) endlich-dimensional.Nun wahlen wir eine Basis A von ker(F ) und eine Basis B von Im(F ).Die Anzahl der Elemente von A sei k, die Anzahl der Elemente von B seim. Wir schreiben B in der Form B = b1, . . . , bm und wahlen zu jedemi ∈ 1, . . . ,m ein ci ∈ V mit F (ci) = bi. Setze C := c1, . . . , cm.Nach Satz V.1.14 gilt A ∩ C = ∅ und A ∪ C ist eine Basis von V . Daher istdie Anzahl der Elemente von A ∪ C einerseits gleich k +m und andererseitsgleich dim(V ), also ist

dim(V ) = k +m = dim(ker(F )) + dim(Im(F )).

70

Page 71: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Die Dimensionsformel liefert folgendes wichtiges Korollar.

Korollar V.1.16. Sei K ein Korper und seien V und W Vektorraume uberK mit n := dim(V ) = dim(W ) <∞. Sei F : V →W eine lineare Abbildung.Dann gilt: F ist injektiv ⇔ F ist surjektiv.

Beweis. Laut Dimensionsformel gilt dim(ker(F )) + dim(Im(F )) = n. In-jektivitat von F ist aquivalent zu ker(F ) = 0 (Lemma V.1.6), also zudim(ker(F )) = 0 und damit zu dim(Im(F )) = n = dim(W ). Wegen KorollarIV.3.17 ist das aber aquivalent zu Im(F ) = W , also zur Surjektivitat vonF .

V.2 Matrizen

In diesem Abschnitt beginnen wir mit der Matrizenrechnung, die fur die linea-re Algebra von großter Bedeutung ist, da sich mit ihrer Hilfe samtliche linea-ren Abbildungen zwischen endlich-dimensionalen Vektorraumen beschreibenlassen. Zudem ist sie wichtig fur die Behandlung linearer Gleichungssysteme(siehe den folgenden Abschnitt). Nun zunachst zur grundlegenden Definition.

Definition V.2.1. Sei K ein Korper und seien m,n ∈ N. Eine m×n-MatrixA mit Eintragen aus K ist nichts anderes als rechteckiges Schema (eineTabelle2) mit Eintragen aus K, die aus m Zeilen und n Spalten besteht:

A =

a11 a12 . . . a1na21 a22 . . . a2n...

......

am1 am2 . . . amn

Man schreibt dafur kurz A = (aij)

m,ni,j=1 (der erste Index gibt die Zeile i an,

in der das Element in der Matrix A auftaucht, der zweite Index j gibt dieentsprechende Spalte an).

Die Menge aller m × n-Matrizen mit Eintragen aus K bezeichnen wirmit M(m× n,K).

Im Falle m = n spricht man von quadratischen Matrizen. Auch die Fallem = 1 (einzeilige Matrizen) oder n = 1 (einspaltige Matrizen) sind zugelassen.Insbesondere ist M(m× 1,K) = Km. Ganz konkrete Beispiele fur Matrizensind etwa

(1 23 5

) 1 4 −21 0 3−1 7 9

(1 1 2 −20 4 4 −2

)2Ganz formal handelt es sich um eine Abbildung von 1, . . . ,m × 1, . . . , n nach K.

71

Page 72: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

oder 1/21/31/4

(2 3 4

) 1 3−1 03 0

.

Auf der Menge M(m×n,K) konnen wir in naheliegender Weise eine Additionund eine Multiplikation mit Skalaren definieren: Fur A = (aij)

m,ni,j=1, B =

(bij)m,ni,j=1 und λ ∈ K setzen wir A+B := (aij+bij)

m,ni,j=1 und λA := (λaij)

m,ni,j=1

oder schematisch

A+B =

a11 + b11 a12 + b12 . . . a1n + b1na21 + b21 a22 + b22 . . . a2n + b2n

......

...am1 + bm1 am2 + bm2 . . . amn + bmn

und

λA =

λa11 λa12 . . . λa1nλa21 λa22 . . . λa2n

......

...λam1 λam2 . . . λamn

.

Es ist leicht nachzurechnen, dass M(m × n,K) auf diese Weise zu einemVektorraum uber K wird (Ubung). Dessen Dimension ist mn, wie der folgendeSatz zeigt.

Satz V.2.2. Seien K ein Korper und m,n ∈ N. Es gilt dim(M(m×n,K)) =mn.

Beweis. Fur alle Paare (i, j) ∈ 1, . . . ,m×1, . . . , n bezeichne Eij diejenigem× n-Matrix, deren Eintrag in der i-ten Zeile und j-ten Spalte gleich 1 ist,wahrend aller anderen Eintrage gleich 0 sind. Dann gilt offenbar fur alleMatrizen A = (aij)

m,ni,j=1

A =

m∑i=1

n∑j=1

aijEij .

Also ist B := Eij : (i, j) ∈ 1, . . . ,m × 1, . . . , n ein Erzeugendensystemvon M(m × n,K). Dasselbe Argument ruckwarts gelesen zeigt auch, dassaus

m∑i=1

n∑j=1

λijEij = 0

λij = 0 fur alle i und j folgt. Also ist B auch linear unabhangig und somiteine Basis fur M(m × n,K). Da B genau mn Elemente besitzt, folgt dieBehauptung.

Als Nachstes definieren wir noch die Multiplikation von Matrizen.

72

Page 73: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Definition V.2.3. Seien K ein Korper und seien m,n, k ∈ N. Sei A =(aij)

m,ki,j=1 eine m× k-Matrix mit Eintragen aus K und sei B = (bij)

k,ni,j=1 eine

k × n-Matrix mit Eintragen aus K. Dann ist das Produkt AB eine m× n-Matrix, deren Eintrag (AB)ij an der Stelle (i, j) ∈ 1, . . . ,m × 1, . . . , ngegeben ist durch

(AB)ij :=k∑l=1

ailblj .

Der Eintrag (AB)ij entsteht also dadurch, dass man jedes Element ausder i-ten Zeile von A mit dem entsprechenden Element aus der j-ten Spaltevon B multipliziert und diese Produkte anschließend aufsummiert. Dazu istes erforderlich, dass die Anzahl der Spalten von A mit der Anzahl der Zeilenvon B ubereinstimmt. Anderenfalls ist das Produkt AB nicht definiert. Hierein paar konkrete Beispiele:

1) Es ist (1 23 2

)(3 −10 2

)=

(3 39 1

).

Dagegen ist (3 −10 2

)(1 23 2

)=

(0 46 4

).

Die Matrixmultiplikation ist also im Allgemeinen nicht kommutativ.2) Es gilt 1 −2 1/2

2 −3 21 0 −1

1/2 0 12 3 −15 1 1

=

−1 −11/2 7/25 −7 7−9/2 −1 0

.

3) Es ist (1 2 3−1 4 4

) 1 1−1 04 5

=

(11 1611 19

).

4) Es gilt

(1 2 3−1 4 4

) 1 2 02 3 11 4 −1

=

(8 20 −111 26 0

).

Hier noch ein wichtiger Spezialfall der Matrizenmultiplikation: Elemente desKn sind, wie gesagt, nichts anderes als Matrizen mit nur einer Spalte und nZeilen. Ist also A = (aij)

m,ni,j=1 eine m× n-Matrix mit Eintragen aus K und

x ∈ Kn mit den Koordinaten x1, . . . , xn, so ist das Produkt Ax definiert. Ax

73

Page 74: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

eine Matrix mit m Zeilen und einer Spalte, also Ax ∈ Km. Fur i ∈ 1, . . . ,mist die i-te Koordinate von Ax gegeben durch

∑nj=1 aijxj . Zum Beispiel ist(

1 23 2

)(3−1

)=

(17

)und 1 4 3

3 −2 0−1 1 2

1−12

=

352

.

Nun stellen wir ein paar allgemeine Rechenregeln fur die Multiplikation vonMatrizen zusammen.

Lemma V.2.4. Sei K ein Korper und seien m,n, k, l ∈ N. Ferner seienA,A′ ∈ M(m × k,K), B,B′ ∈ M(k × n,K) und C ∈ M(n × l,K). Danngilt:1) (λA)B = λ(AB) = A(λB) fur alle λ ∈ K.2) A(B +B′) = AB +AB′

3) (A+A′)B = AB +A′B4) A(BC) = (AB)C

Beweis. 1), 2) und 3) konnen Sie zur Ubung selbst beweisen.4) Man beachte zunachst, dass beide Produkte A(BC) und (AB)C wohlde-finiert sind und jeweils eine m× l-Matrix ergeben. Die Eintrage von A, Bund C bezeichnen wir wie ublich mit ais, bst, ctj .

Fur i ∈ 1, . . . ,m und j ∈ 1, . . . , l ist der Eintrag von A(BC) an derStelle (i, j) gegeben durch

(A(BC))ij =k∑s=1

ais(BC)sj =k∑s=1

ais

n∑t=1

bstctj =k∑s=1

n∑t=1

aisbstctj .

In dieser Doppelsumme kann man nun die Reihenfolge der Summationvertauschen (Kommutativitat der Addition in K). So erhalt man

(A(BC))ij =

n∑t=1

k∑s=1

aisbstctj =

n∑t=1

ctj

k∑s=1

aisbst =

n∑t=1

ctj(AB)it.

Das ist aber gerade ((AB)C)ij , der Eintrag von (AB)C an der Stelle (i, j).Also ist ((AB)C)ij = (A(BC))ij und der Beweis ist abgeschlossen.

Nach dem obigen Lemma ist die Matrixmultiplikation also assoziativ und(von beiden Seiten) distributiv. Hingegen hatten wir oben schon gesehen,dass das Kommutativgesetz im Allgemeinen nicht gilt.

74

Page 75: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Bei einer quadratischen Matrix

A =

a11 a12 . . . a1na21 a22 . . . a2n...

......

an1 an2 . . . ann

bezeichnet man die von links oben nach rechts unten verlaufende Diagonalemit den Eintragen a11, a22, . . . , ann als die Hauptdiagonale von A. Sind alleEintrage von A außerhalb der Hauptdiagonalen gleich Null (aij = 0 furi 6= j), so nennt man A eine Diagonalmatrix. Sind alle Eintrage unterhalbder Hauptdiagonalen gleich Null (aij = 0 fur j < i), so heißt A eine obereDreiecksmatrix. Sind alle Eintrage oberhalb der Hauptdiagonalen gleich Null(aij = 0 fur j > i), so heißt A eine untere Dreiecksmatrix. Eine spezielleDiagonalmatrix ist die sogenannte Einheitsmatrix.

Definition V.2.5. Fur n ∈ N bezeichne mit En diejenige n × n-Matrix,deren Eintrage auf der Hauptdiagonalen alle gleich 1 sind, wahrend dieEintrage außerhalb der Hauptdiagonalen alle gleich 0 sind. Es ist also

En :=

1 0 0 . . . 00 1 0 . . . 0...

......

......

0 0 0 . . . 1

.

En nennt man die n× n-Einheitsmatrix.

Den Eintrag von En an der Stelle (i, j) ∈ 1, . . . , n × 1, . . . , n be-zeichnet man auch mit δij (das sogenannte Kronecker-Symbol 3). Es gilt alsoδij = 0 fur i 6= j und δii = 1.

Fur alle m× n-Matrizen A rechnet man leicht folgendes nach:

EmA = A und AEn = A.

Insbesondere fungiert die Einheitsmatrix En also als neutrales Element inM(n× n,K). Das wirft dann auch sofort die Frage nach der Existenz voninversen Matrizen auf.

Definition V.2.6. Sei K ein Korper und sei n ∈ N. Eine Matrix A ∈M(n× n,K) heißt invertierbar, falls es eine Matrix B ∈ M(n× n,K) mitAB = En = BA gibt.

Bemerkung V.2.7. Ist A ∈ M(n × n,K) invertierbar, so existiert genauein B ∈ M(n× n,K) mit AB = En = BA. Diese Matrix nennt man danndie inverse Matrix von A und bezeichnet sie mit A−1.

3Benannt nach dem deutschen Mathematiker Leopold Kronecker (1823–1891).

75

Page 76: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Genauso wie Bemerkung III.1.4.

Beispiele:1) Die Einheitsmatrix En ist naturlich invertierbar mit E−1n = En. Dagegenist die Nullmatrix 0 (alle Eintrage gleich Null) nicht invertierbar, denn0B = 0 6= En fur alle B ∈M(n× n,K).2) Die Matrix

A :=

(1 23 4

)ist invertierbar mit

A−1 =

(−2 13/2 −1/2

),

denn(1 23 4

)(−2 13/2 −1/2

)=

(1 00 1

)=

(−2 13/2 −1/2

)(1 23 4

).

3) Neben der Nullmatrix gibt es noch diverse weitere Matrizen, die nichtinvertierbar sind, z. B. ist die Matrix(

1 21 2

)nicht invertierbar. Anderenfalls gabe es namlich a, b, c, d ∈ R mit(

1 21 2

)(a bc d

)=

(1 00 1

)und dann musste einerseits a+ 2c = 1 und andererseits a+ 2c = 0 sein.

Wie man allgemein feststellen kann, ob eine gegebene Matrix invertierbarist (und ggf. auch die inverse Matrix explizit bestimmt), werden wir erst imnachsten Abschnitt sehen. Hier halten wir noch folgendes fest.

Lemma V.2.8. Sei K ein Korper, sei n ∈ N und seien A,B ∈M(n×n,K)invertierbar. Dann ist auch AB invertierbar und es gilt (AB)−1 = B−1A−1.

Beweis. Es gilt (AB)(B−1A−1) = ((AB)B−1)A−1 = (A(BB−1))A−1 =(AEn)A−1 = AA−1 = En und analog zeigt man auch (B−1A−1)(AB) = En.Daraus folgt die Behauptung.

Wir setzen

GL(n,K) := A ∈M(n× n,K) : A ist invertierbar.

Nach dem obigen Lemma gilt fur A,B ∈ GL(n,K) auch AB ∈ GL(n,K). Esist leicht nachzuweisen, dass GL(n,K) bezuglich der Matrixmultiplikationeine Gruppe bildet (GL steht fur “general linear group”).

Eine weitere wichtige Operation ist die Transposition von Matrizen.

76

Page 77: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Definition V.2.9. Sei A = (aij)m,ni,j=1 eine m× n-Matrix mit Eintragen aus

einem Korper K. Die transponierte Matrix AT von A ist eine n×m-Matrix,deren Eintrag an der Stelle (j, i) ∈ 1, . . . , n × 1, . . . ,m gerade aij ist.

Nach der obigen Vorschrift entsteht die i-te Spalte von AT also dadurch,dass man die i-te Zeile von A “senkrecht aufstellt.” Zum Beispiel ist

(1 23 4

)T=

(1 32 4

)und

1 0 41 2 −23 5 6

T

=

1 1 30 2 54 −2 6

.

Fur quadratische Matrizen ist die Transposition nichts anderes als eineSpiegelung an der Hauptdiagonalen. Aber auch nicht-quadratische Matrizenlassen sich transponieren, z. B. ist

(1 1 20 3 4

)T=

1 01 32 4

.

Fur die Transposition von Matrizen gelten die folgenden Rechenregeln.

Lemma V.2.10. Sei K ein Korper und seien m,n, k ∈ N. Fur alle A,B ∈M(m× n,K) und alle C ∈M(n× k,K) gilt:1) (λA)T = λAT fur alle λ ∈ K.2) (A+B)T = AT +BT

3) (AC)T = CTAT .

Den Beweis dieses Lemmas uberlasse ich Ihnen zur Ubung.Nun kommen wir zum entscheidenden Zusammenhang zwischen Matrizenund linearen Abbildungen. Ist A ∈ M(m × n,K), so ist die AbbildungFA : Kn → Km definiert durch FA(x) := Ax fur alle x ∈ Kn linear, wiesofort aus den Rechenregeln in Lemma V.2.4 folgt. Tatsachlich ist jede lineareAbbildung von Kn nach Km von dieser Form, wie der folgende Satz zeigt.

Satz V.2.11. Sei K ein Korper und seien m,n ∈ N. Sei ferner F : Kn →Km linear. Dann existiert genau eine Matrix A ∈M(m×n,K) mit F = FA.Die j-te Spalte von A ist gegeben durch den Vektor F (ej) fur alle j ∈1, . . . , n.

Beweis. Sei A = (aij)m,ni,j=1 diejenige m× n-Matrix, deren j-te Spalte gerade

gleich F (ej) ist fur alle j ∈ 1, . . . , n. Fur i ∈ 1, . . . ,m bezeichne F (ej)idie i-te Koordinate von F (ej). Mit anderen Worten ist F (ej)i = aij . Sei

x =

x1...xn

∈ Kn

77

Page 78: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

beliebig. Dann gilt wegen der Linearitat von F aber F (x) = F (∑n

j=1 xjej) =∑nj=1 xjF (ej). Fur alle i ∈ 1, . . . ,m ist die i-te Koordinate von F (x) also

geraden∑j=1

xjF (ej)i =

n∑j=1

aijxj ,

was genau die i-te Koordinate von Ax ist. Also ist F (x) = Ax = FA(x).

Zur Eindeutigkeit: Ist B = (bij)m,ni,j=1 eine weitere Matrix mit FB = F , so

folgt F (ej) = Bej fur alle j ∈ 1, . . . , n. Der i-te Eintrag von Bej ist abergerade

n∑k=1

bikδkj = bij

fur alle i ∈ 1, . . . ,m. Also ist Bej gerade der j-te Spaltenvektor von B.Dieser stimmt uberein mit F (ej), dem j-ten Spaltenvektor von A (fur allej ∈ 1, . . . , n), also ist A = B.

Beispiel: Sei F : R3 → R3 definiert durch

F

xyz

:=

2x− 4y2z

3x− z

.

Dann ist F linear, wie man leicht nachrechnet. Es gilt

F (e1) =

203

, F (e2) =

−400

, F (e3) =

02−1

.

Fur

A :=

2 −4 00 0 23 0 −1

gilt also nach dem obigen Satz FA = F .

Jetzt zeigen wir noch das folgende Ergebnis, dass die Suche nach inver-sen Matrizen erleichtert, weil man nur noch eine Seite prufen muss.

Satz V.2.12. Seien K ein Korper, n ∈ N und A,B ∈M(n× n,K). Dannsind folgende Aussagen aquivalent:1) A ist invertierbar mit A−1 = B.2) AB = En3) BA = En

78

Page 79: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Aus 1) folgt naturlich 2) und 3).Gelte nun AB = En. Ist x ∈ Kn mit FB(x) = Bx = 0, so folgt x = Enx =(AB)x = A(Bx) = 0. Also ist ker(FB) = 0, d. h. FB : Kn → Kn istinjektiv. Nach Korollar V.1.16 ist F := FB dann auch surjektiv, also einIsomorphismus. Wir wissen, dass auch F−1 wieder linear ist, also existiertnach Satz V.2.11 eine Matrix C ∈ M(n × n,K) mit F−1 = FC . Fur allex ∈ Kn gilt dann (BC)x = (FB FC)(x) = (F F−1)(x) = x.Insbesondere ist (BC)ei = ei fur alle i ∈ 1, . . . , n und (BC)ei ist geradeder i-te Spaltenvektor von BC. Also gilt BC = En.Es folgt A = AEn = A(BC) = (AB)C = EnC = C und somit BA = BC =En.Gilt umgekehrt BA = En, so zeigt dasselbe Argument wie eben (nur mitvertauschten Rollen von A und B), dass auch AB = En gilt.

Als Nachstes wollen wir das Prinzip der Darstellung linearer Abbildun-gen durch Matrizen auch auf abstrakte endlich-dimensionale Vektorraumeverallgemeinern. Sei also wieder K ein beliebiger Korper und seien V undW Vektorraume uber K mit dim(V ) = n ∈ N und dim(W ) = m ∈ N. Wirwahlen eine geordnete Basis A = (a1, . . . , an) von V und eine geordneteBasis B = (b1, . . . , bm) von W und betrachten die im letzten Abschnittdefinierten Isomorphismen ΦA : Kn → V und ΦB : Km → W , sowie ihreUmkehrabbildungen KA := Φ−1A und KB := Φ−1B .

Ist nun F : V → W eine lineare Abbildung, so ist auch KB (F ΦA) :Kn → Km linear. Also existiert nach Satz V.2.11 genau eine m×n-Matrix Amit FA = KB (F ΦA). Diese Matrix A nennen wir die darstellende Matrixvon F bezuglich A unf B und bezeichnen sie mit MAB (F ).

Nach Satz V.2.11 ist die j-te Spalte von MAB (F ) gerade der VektorKB(F (ΦA(ej))) = KB(F (aj)) (fur alle j ∈ 1, . . . , n).

Außerdem gilt fur alle v ∈ V :

KB(F (v)) = (KB (F ΦA))(KA(v)) = FA(KA(v)) =MAB (F )KA(v).

Ist V = W und A = B, so schreibt man auch kurz MB(F ) anstelle vonMBB(F ).

Ist V = Kn und W = Km und verwendet man fur A und B jeweils diekanonische Basis, so ist MAB (F ) naturlich nichts anderes als die Matrix mitden Spalten F (e1), . . . , F (en) aus Satz V.2.11. Manchmal will man allerdingsauch hier eine andere Basis als die kanonische verwenden.

Beispiel:Sei F : R3 → R2 definiert durch

F

xyz

:=

(x+ y2x− z

).

79

Page 80: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Dann ist F linear, wie man leicht nachrechnet. Es sei A := (e1, e2, e3) diekanonische Basis des R3 und es sei B := (b1, b2), wobei

b1 :=

(1−1

)und b2 :=

(12

).

(B ist eine geordnete Basis des R2, wie man leicht sieht).Wir wollen die darstellende Matrix MAB (F ) bestimmen. Zunachst ist

F (e1) =

(12

)= b2 = ΦB

((01

)),

F (e2) =

(10

)=

1

3(2b1 + b2) = ΦB

((2/31/3

)),

F (e3) =

(0−1

)=

1

3(b1 − b2) = ΦB

((1/3−1/3

)).

Die i-te Spalte von MAB (F ) ist gerade KB(F (ei)) = Φ−1B (F (ei)) fur allei = 1, 2, 3. Also gilt

MAB (F ) =

(0 2/3 1/31 1/3 −1/3

).

Als Nachstes wollen wir noch die darstellende Matrix der Kompositionzweier linearer Abbildungen bestimmen.

Lemma V.2.13. Sei K ein Korper und seien U , V , W Vektorraume uberK mit den Dimensionen dim(U) = k ∈ N, dim(V ) = n ∈ N und dim(W ) =m ∈ N. Seien A eine geordnete Basis von V , B eine geordnete Basis von Wund C eine geordnete Basis von U . Ferner seien F : V →W und G : U → Vlineare Abbildungen. Dann gilt:

MCB(F G) =MAB (F )MCA(G)

Beweis. Wir schreiben C = (c1, . . . , ck). Nach unseren obigen Uberlegungenist fur j ∈ 1, . . . , k die j-te Spalte vonMCB(F G) gerade KB(F (G(cj))) =MAB (F )KA(G(cj)) und KA(G(cj)) =MCA(G)KC(cj) =MCA(G)ej .

Also gilt KB(F (G(cj))) =MAB (F )MCA(G)ej und das ist genau die j-te Spaltevon MAB (F )MCA(G).

Mit Hilfe darstellender Matrizen konnen wir auch das folgende wichtigeErgebnis zeigen.

Satz V.2.14. Seien V und W Vektorraume uber demselben Korper Kmit dim(V ) = n ∈ N und dim(W ) = m ∈ N. Dann gilt Hom(V,W ) ∼=M(m× n,K). Insbesondere ist dim(Hom(V,W )) = mn.

80

Page 81: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Wir wahlen eine geordnete Basis A von V und eine geordnete BasisB von W . Es ist leicht nachzurechnen, dassMAB (F +G) =MAB (F )+MAB (G)und MAB (λF ) = λMAB (F ) fur alle F,G ∈ Hom(V,W ) und alle λ ∈ K gilt(Ubung). Mit anderen Worten die Abbildung T : Hom(V,W )→M(m×n,K)definiert durch T (F ) :=MAB (F ) fur F ∈ Hom(V,W ) ist linear.

Ist F : V → W linear mit T (F ) = MAB (F ) = 0, so folgt KB(F (v)) =MAB (F )KA(v) = 0 und folglich F (v) = 0 fur alle v ∈ V . Also ist ker(T ) = 0und somit ist T injektiv.

Sei nun A = (aij)m,ni,j=1 eine beliebige m × n-Matrix mit Eintragen aus K.

Sei A = (a1, . . . , an). Aus Satz V.1.8 folgt: Es existiert genau eine lineareAbbildung F : V →W mit

F (aj) = ΦB

a1j

...amj

∀j = 1, . . . , n.

Dann ist der j-te Spaltenvektor von MAB (F ) gerade gleich KB(F (aj)) undsomit gleich dem j-ten Spaltenvektor von A. Also gilt T (F ) =MAB (F ) = A.Damit ist auch die Surjektivitat von T gezeigt. T ist also ein Isomorphismus.

Zum Zusatz: Wegen Hom(V,W ) ∼= M(m × n,K) gilt nach Lemma V.1.11dim(Hom(V,W )) = dim(M(m× n,K)).

Aus Satz V.2.2 folgt damit dim(Hom(V,W )) = mn.

Das nachste Lemma zeigt den Zusammenhang zwischen Isomorphismenund der Invertierbarkeit von Matrizen.

Lemma V.2.15. Seien V und W Vektorraume uber demselben Korper Kmit dim(V ) = dim(W ) = n ∈ N. Sei A eine geordnete Basis von V und seiB eine geordnete Basis von W . Ferner sei F : V →W linear. Dann gilt: Fist ein Isomorphismus genau dann, wenn MAB (F ) invertierbar ist. Ggf. giltdann (MAB (F ))−1 =MBA(F−1).

Beweis. 1) Sei C :=MAB (F ) invertierbar. Ist v ∈ V mit F (v) = 0, so folgtCKA(v) = KB(F (v)) = 0 und somit 0 = C−1(CKA(v)) = KA(v). Darausfolgt v = 0. Es ist also ker(F ) = 0 und daher ist F injektiv.Nun sei w ∈ W beliebig. Wir setzen v := ΦA(C−1KB(w)) ∈ V . Dann giltKB(F (v)) = CKA(v) = C(C−1KB(w)) = KB(w) und deshalb auch F (v) = w.Also ist F auch surjektiv.

2) Sei nun F ein Isomorphismus. Aus Lemma V.2.13 folgtMAB (F )MBA(F−1) =MB(F F−1) =MB(idW ) = En. Nach Satz V.2.12 ist also MAB (F ) inver-tierbar mit (MAB (F ))−1 =MBA(F−1).

Schließlich wollen wir noch untersuchen, wie sich die darstellende Ma-trix einer linearen Abbildung verandert, wenn man die verwendeten Basenverandert. Dazu fuhren wir zuerst folgenden Begriff ein.

81

Page 82: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Definition V.2.16. Sei K ein Korper und sei V ein Vektorraum uber Kder Dimension n ∈ N. Seien B = (b1, . . . , bn) und B′ = (b′1, . . . , b

′n) zwei

geordnete Basen von V . Dann heißt TBB′ :=MBB′(idV ) die Basiswechselmatrixoder Transformationsmatrix von B zu B′.

TBB′ ist also eine n× n-Matrix, deren j-te Spalte der KoordinatenvektorKB′(bj) ist. Es gilt KB′(v) = TBB′KB(v) fur alle v ∈ V (daher der NameBasiswechselmatrix). Zudem folgt aus Lemma V.2.15: TBB′ ist invertierbarmit (TBB′)

−1 = TB′B .

Es gilt nun die folgende Formel.

Lemma V.2.17. Seien V und W zwei endlich-dimensionale Vektorraumeuber demselben Korper K und sei F : V → W linear. Seien A und A′geordnete Basen von V und B und B′ geordnete Basen von W . Dann gilt:

MA′B′ (F ) = TBB′MAB (F )TA′A

Beweis. Aus Lemma V.2.13 folgt

TBB′MAB (F ) =MBB′(idW )MAB (F ) =MAB′(idW F ) =MAB′(F ).

Eine weitere Anwendung dieses Lemmas liefert

TBB′MAB (F )TA′A =MAB′(F )TA

′A =MAB′(F )MA′A (idV )

=MA′B′ (F idV ) =MA′B′ (F ).

Als letzten Punkt in diesem Abschnitt fuhren wir die wichtigen Begriffedes Zeilen- und des Spaltenrangs einer Matrix ein.

Definition V.2.18. Seien K ein Korper, m,n ∈ N und A ∈M(m× n,K).Wir bezeichnen die Spaltenvektoren von A mit a1, . . . , an ∈ Km und dieZeilenvektoren von A mit z1, . . . , zm ∈M(1× n,K) und setzen

S(A) := spana1, . . . , an

und

Z(A) := spanz1, . . . , zm.

S(A) heißt der Spaltenraum und Z(A) der Zeilenraum von A. Ferner heißtS-Rang(A) := dim(S(A)) der Spaltenrang und Z-Rang(A) := dim(Z(A)) derZeilenrang von A.

Wir werden spater zeigen, dass Zeilen- und Spaltenrang einer Matrixstets ubereinstimmen. Einstweilen mussen wir die Unterscheidung aber nochvornehmen.

82

Page 83: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Fur alle Vektoren x ∈ Kn (mit Koordinaten x1, . . . , xn) gilt Ax =∑nj=1 xjaj , wie man leicht nachrechnet. Daher gilt also

S(A) = spana1, . . . , an = Ax : x ∈ Kn = Im(FA).

Die Invertierbarkeit einer quadratischen Matrix lasst sich nun wie folgtcharakterisieren.

Lemma V.2.19. Seien K ein Korper, n ∈ N und A ∈M(n× n,K). A istinvertierbar genau dann, wenn S-Rang(A) = n gilt.

Beweis. Wegen S(A) = Im(FA) gilt S-Rang(A) = n genau dann, wennIm(FA) = Kn ist. Diese Bedingung, die Surjektivitat von FA, ist aber wegenKorollar V.1.16 aquivalent dazu, dass FA ein Isomorphismus ist. Das istwegen Lemma V.2.15 aber aquivalent zur Invertierbarkeit von A.

V.3 Der Gaußsche Algorithmus

In diesem Abschnitt beschaftigen wir uns mit linearen Gleichungssystemen,d. h. mit Systemen der Form

a11x1 + a12x2 + · · ·+ a1nxn = b1

a21x1 + a22x2 + · · ·+ a2nxn = b2...

......

am1x1 + am2x2 + · · ·+ amnxn = bm

bestehend aus m Gleichungen fur die n Variablen x1, . . . , xn ∈ K, wobeidie Koeffizienten aij ∈ K und die b1, . . . , bm ∈ K vorgegeben sind (K kannein beliebiger Korper sein, der wichtigste Fall ist aber wieder K = R).Solche Systeme treten in verschiedensten Anwendungsproblemen auf, vomAusbalancieren chemischer Reaktionsgleichungen, uber Wirtschaftsmodellebis hin zur Kryptographie.

Setzt man A := (aij)m,ni,j=1 und

x :=

x1...xn

, b :=

b1...bm

,

so ist das obige lineare Gleichungssystem offenbar aquivalent zu Ax = b.Im Falle b = 0 heißt das System homogen, anderenfalls inhomogen. Die

Matrix A heißt die Koeffizientenmatrix. Fugt man an A zusatzlich nochden Vektor b als (n+ 1)-te Spalte an (symbolisch (A|b)), so erhalt man diesogenannte erweiterte Koeffizientenmatrix. Weiter setzen wir

L(A, b) := x ∈ Kn : Ax = b.

83

Page 84: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

L(A, b) ist die Losungsmenge des linearen Gleichungssystems Ax = b. Siestimmt offenbar gerade mit dem Urbild F−1A (b) uberein. Fur die Losungsmen-ge des entsprechenden homogenen Systems schreiben wir kurz L(A) :=L(A, 0). Mit anderen Worten ist L(A) = ker(FA).

Die Mengen L(A) und L(A, b) hangen wie folgt zusammen.

Lemma V.3.1. Seien K ein Korper und m,n ∈ N, sowie A ∈M(m×n,K)und b ∈ Km. Ist x0 ∈ L(A, b), so gilt

L(A, b) = x0 + x : x ∈ L(A).

Beweis. Sei S := x0 + x : x ∈ L(A). Fur alle x ∈ L(A) gilt Ax = 0 undsomit A(x0 + x) = Ax0 +Ax = Ax0 = b (letzteres wegen x0 ∈ L(A, b)). Alsoist x0 + x ∈ L(A, b). Das zeigt S ⊆ L(A, b).

Sei nun umgekehrt y ∈ L(A, b). Setze x := y−x0. Dann gilt Ax = A(y−x0) =Ay −Ax0 = b− b = 0, also x ∈ L(A) und somit ist y = x0 + x ∈ S. Also giltauch L(A, b) ⊆ S.

Um die allgemeine Losung eines inhomogenen linearen GleichungssystemAx = b zu bestimmen, braucht man also nur eine spezielle Losung x0desselben zu finden und anschließend die allgemeine Losungsmenge L(A)des zugehorigen homogenen Systems zu bestimmen. Samtliche Losungen desinhomogenen Systems sind dann von der Form x0 + x mit x ∈ L(A).

Es kann aber auch vorkommen, dass das inhomogene System Ax = buberhaupt keine Losung besitzt, dass also L(A, b) = ∅ gilt (siehe die Beispieleunten).

Um ein lineares Gleichungssystem zu losen, geht man in der Regel so vor,dass man schrittweise Variablen zu eliminieren versucht, bis in einer Gleichungnur noch eine Variable auftaucht. Dabei darf man zu einer Gleichung ein Viel-faches einer anderen Gleichung addieren, man darf eine Gleichung mit einemvon Null verschiedenen Faktor multiplizieren und man darf zwei Gleichungenvertauschen. All diese Operationen andern nichts an der Losungsmenge desGleichungssystems. Fur eine Matrix A sehen die entsprechenden Umformun-gen wie folgt aus:

Typ (I) Umformungen: Vertauschen zweier Zeilen von A

Typ (II) Umformungen: Addition des λ-fachen einer Zeile von A zu ei-ner anderen Zeile von A (λ ∈ K)

Typ (III) Umformungen: Multiplizieren einer Zeile von A mit einem Faktorλ ∈ K \ 0

Solche Umformungen nennt man elementare Zeilenumformungen.

84

Page 85: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Sind A,A′ ∈M(m× n,K) und b, b′ ∈ Km derart, dass (A′|b′) durch ele-mentare Zeilenumformungen aus (A|b) hervorgeht, so gilt L(A, b) = L(A′, b′).

Diesen Umstand wollen wir ausnutzen, indem wir (A|b) mittels elemen-tarer Zeilenumformungen auf eine besonders einfache Form bringen, in dersich die Losungsmenge des Gleichungssystems leicht ablesen lasst.

Sei also A = (aij)m,ni,j=1.

Zunachst konnen wir nach einer eventuellen Zeilenvertauschung (Typ (I)Umformung) a11 6= 0 annehmen (falls tatsachlich alle Eintrage in der erstenSpalte gleich Null sind, gehen wir im folgenden Schema gleich zur nachstenSpalte uber).

Nun ziehen wir fur alle i = 2, . . . ,m von der i-ten Zeile jeweils dasai1/a11-fache der ersten Zeile ab (Typ (II) Umformungen). Dadurch werdenalle Eintrage in der ersten Spalte unterhalb von a11 zu Null. Die neue Matrix

nennen wir provisorisch A(1) und ihre Eintrage a(1)ij .

Nun betrachten wir die zweite Spalte von A(1). Ist a(1)i2 6= 0 fur we-

nigstens ein i ∈ 2, . . . ,m, so kann man mittels Zeilenvertauschung ohne

Einschrankung auch a(1)22 6= 0 annehmen. Dann ziehen wir fur alle i = 3, . . . ,m

das ai2/a22-fache der zweiten Zeile von der i-ten Zeiel ab (Typ (II) Umfor-mungen). Auf diese Weise erhalten wir eine Matrix A(2), in der alle Eintragein der ersten Spalte unterhalb des ersten Eintrags gleich Null sind und auchalle Eintrage in der zweiten Spalte unterhalb des zweiten Eintrags gleichNull sind. Anschließend verfahrt man genauso mit der dritten Spalte etc. Ist

dagegen a(1)i2 = 0 fur alle i = 2, . . . ,m, so geht man einfach gleich zur dritten

Spalte uber.

Letztendlich erhalt man eine Matrix A′ = (a′ij)m,ni,j=1 der folgenden Form:

Es existieren ein r ∈ 1, . . . ,m und Indizes 1 ≤ j1 < j2 < · · · < jr ≤ n, sodass folgendes gilt:

1) Fur alle r < i ≤ m enthalt die i-te Zeile von A′ nur Nullen als Ein-trage.2) Fur alle i = 1, . . . , r ist a′iji 6= 0 und a′ij = 0 fur j < ji.

Man sagt A′ habe Zeilenstufenform. Das oben beschriebene Verfahren zumErreichen dieser Zeilenstufenform nennt man den Gaußschen Algorithmus.4

Man beachte, dass dieser Algorithmus nur Typ (I) und Typ (II) Umformun-gen (keine vom Typ (III)) verwendet. Naturlich durfen aber auch Typ (III)Umformungen verwendet werden, um die Rechnung ggf. zu vereinfachen.

Die obigen Elemente aiji heißen die Pivotelemente und die zugehorigenSpalten die Pivotspalten.

Der Witz ist nun, dass sich bei einer Koeffizientenmatrix in Zeilenstufen-form die Losungsmenge des zugehorigen linearen Gleichungssystems leicht

4Nach C. F. Gauß, siehe Fußnote zur Gaußschen Summenformel.

85

Page 86: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

ablesen lasst. Es folgen dazu einige konkrete Beispiele.

Beispiele:1) Wir betrachten das folgende homogene lineare Gleichungssystem:

2x+ y + 4z = 0

2x+ 3y − z = 0

4x+ 4y − z = 0

Die Koeffizientenmatrix ist

A =

2 1 42 3 −14 4 −1

.

Diese wollen wir mit Hilfe des Gaußschen Algorithmus in Zeilenstufenformuberfuhren. Wir ziehen dazu zunachst von der zweiten Zeile die erste Zeileund von der dritten Zeile das 2-fache der ersten Zeile ab und erhalten dieMatrix: 2 1 4

0 2 −50 2 −9

Als Nachstes ziehen wir von der dritten Zeile die zweite Zeile ab und erhalten: 2 1 4

0 2 −50 0 −4

Das entsprechende homogene lineare Gleichungssystem lautet:

2x+ y + 4z = 0

2y − 5z = 0

− 4z = 0

Aus der letzten Gleichung folgt sofort z = 0. Aus der zweiten Gleichung folgtdann auch y = 0 und aus der ersten Gleichung schließlich auch x = 0. DasGleichungssystem hat also nur die triviale Losung x = y = z = 0, d. h. es istL(A) = 0.2) Betrachten wir nun das folgende inhomogene lineare Gleichungssystem:

x+ y + 2z = 1

2x+ 3y − z = 4

3x+ y + 3z = 12

86

Page 87: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Die erweiterte Koeffizientenmatrix ist

(A|b) =

1 1 2 12 3 −1 43 1 3 12

.

Wir wollen nun A mit dem Gaußschen Algorithmus in Zeilenstufenformuberfuhren und wenden dabei jeweils auch dieselben Zeilenumformungenauf die zusatzliche letzte Spalte an. Zunachst ziehen wir von der 2.Zeiledas 2-fache der 1.Zeile und von der 3.Zeile das 3-fache der 1.Zeile ab underhalten: 1 1 2 1

0 1 −5 20 −2 −3 9

.

Nun addieren wir zur 3.Zeile das 2-fache der 2.Zeile. Das liefert 1 1 2 10 1 −5 20 0 −13 13

.

Das zugehorige lineare Gleichungssystem lautet:

x+ y + 2z = 1

y − 5z = 2

− 13z = 13

Es folgt sofort z = −1, y = 2 + 5z = −3 und x = 1 − y − 2z = 6. Also istunser Gleichungssystem eindeutig losbar und es gilt

L(A, b) =

6−3−1

.3) Nun betrachten wir das homogene lineare Gleichungssystem

− y + z = 0

3x+ y + 4z = 0

3x+ 2y + 3z = 0.

Die Koeffizientenmatrix ist

A =

0 −1 13 1 43 2 3

.

Wir vertauschen zuerst die erste und die zweite Zeile und erhalten 3 1 40 −1 13 2 3

.

87

Page 88: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Ziehen wir von der dritten Zeile die erste Zeile ab, so erhalten wir 3 1 40 −1 10 1 −1

.

Nun addieren wir noch zur dritten Zeile die zweite Zeile, was 3 1 40 −1 10 0 0

liefert. Das entsprechende homogene lineare Gleichungssystem ist also:

3x+ y + 4z = 0

− y + z = 0

Es folgt y = z und x = (1/3)(−y − 4z) = −5z/3, wobei z ∈ R beliebig seinkann. Also gilt

L(A) =

z −5/3

11

: z ∈ R

= span

−5/3

11

.L(A) ist also eindimensional.4) Nun betrachten wir das folgende inhomogene System, dass dieselbe Koef-fizientenmatrix wie in 3) hat:

− y + z = 1

3x+ y + 4z = 3

3x+ 2y + 3z = 3

Die erweiterte Koeffizientenmatrix ist

(A|b) =

0 −1 1 13 1 4 33 2 3 3

.

Dieselben Zeilenumformungen wie in 3) fuhren zu 3 1 4 30 −1 1 10 0 0 1

.

Die dritte Gleichung im zugehorigen System fuhrt aber auf den Widerspruch0 = 0x+ 0y + 0z = 1. Also kann dieses Gleichungssystem (und daher auch

88

Page 89: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

das ursprungliche) keine Losung besitzen, d. h. es gilt L(A, b) = ∅.5) Wie betrachten das inhomogene System

− y + z = 1

3x+ y + 4z = 1

3x+ 2y + 3z = 0

mit der erweiterten Koeffizientenmatrix

(A|b) =

0 −1 1 13 1 4 13 2 3 0

.

Wieder fuhrne wir dieselben Zeilenumformungen wie bei 3) durch und erhalten 3 1 4 10 −1 1 10 0 0 0

.

Das entsprechende lineare Gleichungssystem ist

3x+ y + 4z = 1

− y + z = 1.

Dieses hat speziell die Losung z = 0, y = −1, x = (1/3)(1− y) = 2/3. NachLemma V.3.1 gilt dann

L(A, b) =

2/3−10

+

xyz

:

xyz

∈ L(A)

.Die Losungsmenge L(A) des homogenen Systems hatten wir schon in 3)bestimmt. Es folgt

L(A, b) =

2/3−10

+ z

−5/311

: z ∈ R

.6) Betrachten wir nun das homogene lineare Gleichungssytem

2x− 3y = 0

x+ y = 0

4x− y = 0.

Die Koeffizientenmatrix ist

A =

2 −31 14 −1

.

89

Page 90: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Zieht man von der zweiten Zeile das 1/2-fache der ersten Zeile und von derdritten Zeile das 2-fache der ersten Zeile ab, so erhalt man die Matrix 2 −3

0 5/20 5

.

Zieht man nun von der dritten Zeile noch das 2-fache der zweiten Zeile ab,so erhalt man 2 −3

0 5/20 0

mit dem zugehorigen Gleichungssystem

2x− 3y = 0

5

2y = 0.

Es folgt y = 0 = x, d. h. L(A) = 0.7) Zum Schluß betrachten wir noch das inhomogene lineare Gleichungssystem

x1 + x2 + x3 − x4 = 1

2x1 + 2x2 − x3 + 4x4 = 2

5x1 + 5x2 + 8x3 − 11x4 = 5.

Die erweiterte Koeffizientenmatrix ist

(A|b) =

1 1 1 −1 12 2 −1 4 25 5 8 −11 5

.

Wir ziehen von der zweiten Zeile das 2-fache der ersten Zeile und von derdritten Zeile das 5-fache der ersten Zeile ab und erhalten 1 1 1 −1 1

0 0 −3 6 00 0 3 −6 0

.

Nun addieren wir noch zur dritten Zeile die zweite Zeile und kommen aufdie Matrix 1 1 1 −1 1

0 0 −3 6 00 0 0 0 0

mit dem zugehorigen Gleichungssystem

x1 + x2 + x3 − x4 = 1

− 3x3 + 6x4 = 0.

90

Page 91: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Eine spezielle Losung ist offensichtlich gegeben durch x3 = x4 = 0 = x2 undx1 = 1. Das entsprechende homogene System lautet

x1 + x2 + x3 − x4 = 0

− 3x3 + 6x4 = 0.

Setzt man hier λ := x2 und µ := x4, so folgt x3 = 2µ und x1 = −λ− µ, alsoist

L(A) =

−λ− µλ2µµ

: λ, µ ∈ R

= span

−1100

,

−1021

.

Man sieht leicht, dass diese beiden Vektoren auch linear unabhangig sind,also ist L(A) zweidimensional.Nach Lemma V.3.1 gilt fur die allgemeine Losung des inhomogenen Systemsdann

L(A, b) =

1000

+ λ

−1100

+ µ

−1021

: λ, µ ∈ R

.

Hat man eine Matrix A = (aij)m,ni,j=1 in Zeilenstufenform vorliegen (mit

r von Null verschiedenen Zeilen), so kann man noch alle Pivotelemente aiji ,i = 1, . . . , r, zu 1 machen, indem man die i-te Zeile jeweils mit 1/aiji multi-pliziert (Typ (III) Umformungen). Die so erhaltene Matrix sei A′ = (a′ij)

m,ni,j=1.

Nun kann man in A′ noch alle Eintrage oberhalb des r-ten Pivotelementsdurch Typ (II) Umformungen zu Null machen, indem man fur i = 1, . . . , r−1jeweils das a′ijr -fache der r-ten Zeile von der i-ten Zeile abzieht. Danachmacht man entsprechend alle Eintrage oberhalb des (r−1)-ten Pivotelementszu Null usw., bis oberhalb aller Pivotelemente nur noch Nullen stehen. DieseForm nennt man dann auch reduzierte Zeilenstufenform. Bei einer Koeffizien-tenmatrix in reduzierter Zeilenstufenform ist die Losungsmenge des linearenGleichungssystems noch leichter abzulesen. Hierzu ein Beispiel:

Wir betrachten das lineare Gleichungssystem

4x1 + 2x2 − x3 − x4 = 1

2x1 + 2x2 − x3 + 5x4 = 1

2x1 + x2 + x3 − 6x4 = 1

4x1 + x2 + x3 − 12x4 = 1,

91

Page 92: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

das die erweiterte Koeffizientenmatrix

(A|b) =

4 2 −1 −1 12 2 −1 5 12 1 1 −6 14 1 1 −12 1

hat. Der Gaußsche Algorithmus fuhrt zunachst auf

4 2 −1 −1 10 1 −1/2 11/2 1/20 0 3/2 −11/2 1/20 0 0 0 0

(nachrechnen). Nun multiplizieren wir noch die dritte Zeile mit 2/3 und dieerste Zeile mit 1/4 und erhalten

1 1/2 −1/4 −1/4 1/40 1 −1/2 11/2 1/20 0 1 −11/3 1/30 0 0 0 0

.

Jetzt addieren wir zur zweiten Zeile das 1/2-fache der dritten Zeile und zurersten Zeile das 1/4-fache der dritten Zeile. Das fuhrt auf

1 1/2 0 −7/6 1/30 1 0 11/3 2/30 0 1 −11/3 1/30 0 0 0 0

.

Schließlich ziehen wir noch von der ersten Zeile das 1/2-fache der zweitenZeile ab und erhalten so die reduzierte Zeilenstufenform

1 0 0 −3 00 1 0 11/3 2/30 0 1 −11/3 1/30 0 0 0 0

.

Setzt man λ := x4, so erhalt man aus dem zugehorigen linearen Gleichungs-system sofort x3 = 1/3 + (11/3)λ, x2 = 2/3− (11/3)λ und x1 = 3λ. Es istalso

L(A, b) =

02/31/30

+ λ

3

−11/311/3

1

: λ ∈ R

.

Nun betrachten wir noch den Zusammenhang zwischen der Losbarkeit qua-dratischer linearer Gleichungssysteme und der Invertierbarkeit der Koeffizi-entenmatrix.

92

Page 93: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Lemma V.3.2. Sei K ein Korper und sei n ∈ N. Ferner sei A ∈ M(n ×n,K). Dann sind folgende Aussagen aquivalent:1) A ist invertierbar.2) Fur alle b ∈ Kn ist das lineare Gleichungssystem Ax = b eindeutig losbar.

Beweis. Sei zunachst A invertierbar und sei b ∈ Kn beliebig. Dann gilt wegenA−1A = En aber

Ax = b ⇔ A−1(Ax) = A−1b ⇔ x = A−1b.

Also hat Ax = b genau eine Losung, namlich x = A−1b.Nehmen wir nun umgekehrt an es gelte 2). Dann ist insbesondere FA surjektiv,also S-Rang(A) = n und somit folgt aus Lemma V.2.19 die Invertierbarkeitvon A.

Wir kommen nun nochmal auf Zeilenrang und Spaltenrang einer Ma-trix zu sprechen. Wir wollen darauf hinaus, dass diese beiden Zahlen stetsubereinstimmen. Dies zeigen wir zunachst fur Matrizen in Zeilenstufenform.

Lemma V.3.3. Sei K ein Korper, seien m,n ∈ N und sei A ∈M(m×n,K)eine Matrix in Zeilenstufenform. Dann gilt Z-Rang(A) =S-Rang(A) = r,wobei r die Anzahl der von Null verschiedenen Zeilen von A ist.

Beweis. Die Zeilen von A seien z1, . . . , zm, die Spalten seien a1, . . . , an, diePivotspalten seien aj1 , . . . , ajr , wobei j1 < j2 < · · · < jr. Es gilt also zi = 0fur i > r und somit ist der Zeilenraum Z(A) = spanz1, . . . , zr. Wegender Stufenform von A sind die Zeilen z1, . . . , zr offensichtlich auch linearunabhangig, also gilt Z-Rang(A) = r. Ebenso sind aufgrund der Stufenformdie Pivotspalten aj1 , . . . , ajr linear unabhangig. Da alle Zeilen unterhalb derr-ten Zeile gleich Null sind, kann man die Spalten auch als Vektoren imKr auffassen. Als r linear unabhangige Vektoren bilden aj1 , . . . , ajr dannbereits eine Basis des Kr, also lasst sich jeder Spaltenvektor aus ihnenlinear kombinieren. D. h. es gilt S(A) = spanaj1 , . . . , ajr und somit S-Rang(A) = r.

Als Nachstes halten wir fest, dass sich der Zeilenraum (und folglich auchder Zeilenrang) bei elementaren Zeilenumformungen nicht andert.

Lemma V.3.4. Sei K ein Korper, seien m,n ∈ N und seien A,A′ ∈M(m×n,K). Falls A′ durch elementare Zeilenumformungen aus A hervorgeht, sogilt Z(A) = Z(A′).

Beweis. Es genugt, die Behauptung fur den Fall einer einzigen elementarenZeilenumformung zu zeigen. Fur den Fall einer Typ (I) Umformung (Zeilen-vertauschung) ist das klar. Betrachten wir nun den Fall einer Typ (II) Umfor-mung: Es seien z1, . . . , zm die Zeilen von A und A′ gehe aus A durch Addition

93

Page 94: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

von λzi zu zj hervor (wobei i 6= j). Dann ist also Z(A) = spanz1, . . . , zmund

Z(A′) = spanz1, . . . , zj−1, zj + λzi, zj+1, . . . , zm.

Es ist aber zj + λzi ∈ Z(A) und folglich Z(A′) ⊆ Z(A). Umgekehrt ist auchzj = (zj + λzi)− λzi ∈ Z(A′) und somit auch Z(A) ⊆ Z(A′).

Den Fall einer Typ (III) Umformung konnen Sie zur Ubung selbst beweisen.

Das nachste Lemma besagt, dass sich der Spaltenrang einer Matrix beiMultiplikation von links mit einer invertierbaren Matrix nicht verandert.

Lemma V.3.5. Sei K ein Korper, seien m,n ∈ N und sei A ∈M(m×n,K).Ferner sei B ∈ M(m × m,K) invertierbar. Dann gilt S-Rang(BA) = S-Rang(A).

Beweis. Wir wissen S(A) = Im(FA) und S(BA) = Im(FBA). Daher ist dieAbbildung G : S(A)→ S(BA) mit G(y) := By fur y ∈ S(A) wohldefiniert.Ferner ist G naturlich linear und aus G(y) = By = 0 folgt durch Multi-plikation mit B−1 sofort y = 0. Also ist ker(G) = 0 und daher ist Ginjektiv.

Ist nun z ∈ S(BA), so existiert ein x ∈ Kn mit z = (BA)x. Dann isty := Ax ∈ S(A) mit G(y) = By = z. Also ist G auch surjektiv und somitein Isomorphimus. Es ist also S(A) ∼= S(BA). Daraus folgt S-Rang(A) =dim(S(A)) = dim(S(BA)) = S-Rang(BA).

Als Nachstes zeigen wir, dass elementare Zeilenumformungen sich durchMultiplikation von links mit einer geeigneten invertierbaren Matrix aus-drucken lassen.

Lemma V.3.6. Sei K ein Korper, seien m,n ∈ N und seien A,A′ ∈M(m× n,K) derart, dass A′ durch elementare Zeilenumformungen aus Ahervorgeht. Dann existiert eine invertierbare Matrix B ∈M(m×m,K) mitA′ = BA.

Beweis. 1) Wir betrachten zunachst den Fall, dass A′ durch eine einzigeelementare Zeilenumformung aus A hervorgeht.

Typ (II) Umformung: A′ gehe aus A durch Addition des λ-fachen der i-tenZeile zur j-ten Zeile hervor (wobei i 6= j und λ ∈ K).

Es sei A = (akl)m,nk,l=1 und wir definieren die m ×m-Matrix B = (bkl)

m,mk,l=1

durch

bkl :=

δkl fur k 6= j,

δjl + λδil fur k = j.

B ist gerade diejenige Matrix, die entsteht, wenn man in Em das λ-fache deri-ten Zeile zur j-ten Zeile addiert.

94

Page 95: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Nun gilt fur alle k ∈ 1, . . . ,m mit k 6= j und alle l ∈ 1, . . . , n:

(BA)kl =m∑s=1

bksasl =m∑s=1

δksasl = akl

und außerdem

(BA)jl =

m∑s=1

bjsasl =

m∑s=1

(δjs+λδis)asl =

m∑s=1

δjsasl+λ

m∑s=1

δisasl = ajl+λail.

Die k-te Zeile von BA stimmt also mit der k-ten Zeile von A′ uberein furalle k = 1, . . . ,m, also ist A′ = BA.

Definiert man ferner C ∈ M(m ×m,K) analog zu B nur mit −λ anstellevon λ, so kann man leicht BC = Em = CB nachrechnen (Ubung). Also sitB invertierbar mit B−1 = C.

Typ (I) Umformungen: A′ gehe aus A durch Vertauschung der i-ten und derj-ten Zeile hervor.

Es sei B diejenige m × m-Matrix, die aus der Einheitsmatrix Em durchVertauschung der i-ten und der j-ten Zeile entsteht. Dann rechnet manleicht A′ = BA und B2 = Em nach (Ubung). Letzteres impliziert dieInvertierbarkeit von B mit B−1 = B.

Typ (III) Umformungen: A′ entstehe aus A durch Multiplikation der i-tenZeile mit λ ∈ K \ 0. Sei B diejenige Matrix, die aus Em mittels Multi-plikation der i-ten Zeile mit λ hervorgeht (d. h. B ist eine Diagonalmatrix,der i-te Diagonaleintrag ist λ, alle anderen Diagonaleintrage sind 1). Durchdirektes Nachrechnen sieht man A′ = BA (Ubung). Ferner zeigt man leichtBC = CB = Em, wobei C diejenige Matrix ist, die aus Em mittels Mul-tiplikation der i-ten Zeile mit 1/λ entsteht. Also ist B invertierbar mitB−1 = C.

2) Angenommen nun A′ entsteht durch ν elementare Zeilenumformungen ausA. Nach 1) existieren dann invertierbare m ×m-Matrizen B1, . . . , Bν mitA′ = (BνBν−1 . . . B1)A.

Wir setzen B := BνBν−1 . . . B1. Dann ist A′ = BA und aus Lemma V.2.8(mehrfach angewendet) folgt: B ist invertierbar mit B−1 = B−11 B−12 . . . B−1ν .

Nun konnen wir endlich zeigen, dass Zeilenrang und Spaltenrang einerMatrix stets ubereinstimmen.

Satz V.3.7. Sei K ein Korper, seien m,n ∈ N und sei A ∈M(m× n,K).Dann gilt S-Rang(A) = Z-Rang(A).

Beweis. Mit Hilfe des Gaußschen Algorithmus kann man A mittels elemen-tarer Zeilenumformungen in Zeilenstufenform uberfuhren. Diese Matrix inZeilenstufenform heiße A′. Nach Lemma V.3.4 gilt Z-Rang(A) = Z-Rang(A′).

95

Page 96: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Da A′ Zeilenstufenform hat, gilt nach Lemma V.3.3 aber Z-Rang(A′) =S-Rang(A′).Außerdem existiert nach Lemma V.3.6 eine invertierbare Matrix B ∈M(m×m,K) mit A′ = BA. Wegen Lemma V.3.5 folgt daraus S-Rang(A′) = S-Rang(A).Insgesamt folgt also S-Rang(A) = Z-Rang(A).

Da wir nun wissen, dass stets S-Rang(A) = Z-Rang(A) gilt, konnen wirdiese Zahl einfach mit Rang(A) bezeichnen und nennen sie den Rang von A.Fur diesen gelten folgende Aussagen.

Lemma V.3.8. Sei K ein Korper, seien m,n ∈ N und sei A ∈M(m×n,K).Dann gilt:1) Rang(A) ≤ minm,n52) Rang(A) = Rang(AT )3) Rang(BA) = Rang(A) fur invertierbares B ∈M(m×m,K)4) Rang(AC) = Rang(A) fur invertierbares C ∈M(n× n,K)5) Ist m = n, so ist A invertierbar genau dann, wenn Rang(A) = n gilt.

Beweis. 1) Da der Zeilenraum Z(A) ein Unterraum des n-dimensionalenVektorraumes M(1× n,K) ist, ist Rang(A) = dim(Z(A)) ≤ n. Andererseitsist der Spaltenraum S(A) ein Unterraum des m-dimensionalen Vektorrau-mes Km und daher gilt auch Rang(A) = dim(S(A)) ≤ m. Daraus folgtRang(A) ≤ minm,n.2) Es seien a1, . . . , an die Spaltenvektoren von A. Dann sind aT1 , . . . , a

Tn

gerade die Zeilenvektoren von AT . Daraus folgt leicht, dass die Abbildung G :S(A)→ Z(AT ) mit G(y) := yT fur y ∈ S(A) ein Isomorphismus ist (Detailsals Ubung). Somit gilt Rang(A) = dim(S(A)) = dim(Z(AT )) = Rang(AT ).3) folgt aus Lemma V.3.5.4) Sei C ∈ M(n × n,K) invertierbar. Es gilt CT (C−1)T = (C−1C)T =ETn = En und analog auch (C−1)TCT = En. Also ist auch CT invertierbarmit (CT )−1 = (C−1)T . Mit Hilfe von 2) und 3) folgt nun Rang(AC) =Rang((AC)T ) = Rang(CTAT ) = Rang(AT ) = Rang(A).5) folgt aus Lemma V.2.19.

Das folgende Lemma charakterisiert die Losbarkeit eines linearen Glei-chungssystems anhand des Ranges der Koeffizientenmatrix und der erweiter-ten Koeffizientenmatrix.

Lemma V.3.9. Sei K ein Korper, seien m,n ∈ N und sei A ∈ M(m ×n,K). Ferner sei b ∈ Km. Dann gilt Rang(A) ≤ Rang(A|b). Das lineareGleichungssystem Ax = b ist losbar genau dann, wenn Rang(A) = Rang(A|b)gilt.

Weiterhin gilt fur die Dimension des Losungsraumes L(A) des homogenenSystems: dim(L(A)) = n− Rang(A).

5minm,n steht fur das Minimum von m und n, also die kleinere der beiden Zahlen.

96

Page 97: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Die Spaltenvektoren von A seien a1, . . . , an. Dann gilt fur die Spal-tenraume S(A) = spana1, . . . , an und S(A|b) = spana1, . . . , an, b, alsoS(A) ⊆ S(A|b) und folglich Rang(A) ≤ Rang(A|b).Angenommen nun es gibt ein x ∈ Kn mit Ax = b. Die Koordinaten vonx seien x1, . . . , xn. Dann gilt b = Ax =

∑nj=1 xjaj und daher ist b ∈ S(A).

Also ist a1, . . . , an, b ⊆ S(A) und es folgt S(A|b) = S(A), also auchRang(A) = Rang(A|b).Sei nun umgekehrt Rang(A) = Rang(A|b), also dim(S(A)) = dim(S(A|b)).Wegen S(A) ⊆ S(A|b) folgt daraus S(A) = S(A|b). Insbesondere ist b ∈ S(A).D. h. es existieren x1, . . . , xn ∈ K mit b =

∑nj=1 xjaj . Bezeichnet wieder

x ∈ Kn den Vektor mit den Koordinaten x1, . . . , xn, so heißt das geradeAx = b.

Wegen L(A) = ker(FA) und Rang(A) = dim(S(A)) = dim(Im(FA)) folgt ausder Dimensionsformel fur lineare Abbildungen dim(L(A))+Rang(A) = n.

Als letzten Punkt wollen wir noch das Problem der konkreten Berechnungder Inversen einer Matrix angehen. Auch dieses kann mit Hilfe des GaußschenAlgorithmus gelost werden. Es sei also A eine n× n-Matrix mit Eintragenaus einem Korper K. Wir bilden zunachst die n× 2n-Matrix (A|En). Dieseformen wir nun mittels elementarer Zeilentransformationen so weit um, dassdie linke n× n-Matrix Zeilenstufenform hat. Das Ergebnis sei etwa (A′|B).Falls A′ mindestens eine Nullzeile enthalt, so folgt aus unseren bisherigenUberlegungen Rang(A) = Rang(A′) < n und somit ist A nicht invertierbar.

Enthalt A′ dagegen keine Nullzeilen, so ist Rang(A) = Rang(A′) = n,was die Invertierbarkeit von A impliziert. Um A−1 zu bestimmen, formen wir(A′|B) nun noch weiter um und uberfuhren A′ mittels elementarer Zeilen-umformungen in reduzierte Zeilenstufenform, welche bei einer quadratischenMatrix ohne Nullzeilen aber die Einheitsmatrix En sein muss. Als Ergebniserhalten wir also eine n× 2n-Matrix der Form (En|C).

Wir wollen begrunden, dass A−1 = C gilt. Die Spalten von C seienc1, . . . , cn. Dann geht die Matrix (En|ci) also jeweils durch elementare Zeilen-umformungen aus (A|ei) hervor (denn wir hatten mit der Matrix (A|En)begonnen und die i-te Spalte von En ist gerade ei). Es folgt L(A, ei) =L(En, ci) fur alle i = 1, . . . , n. Aber naturlich ist L(En, ci) = ci. Es folgtAci = ei fur alle i = 1, . . . , n. Aci ist aber gerade die i-te Spalte von AC. Alsogilt AC = En. Multiplikation mit von links mit A−1 liefert nun C = A−1.

Zur Illustration des oben beschriebenen Verfahrens betrachten wir zweiBeispiele.

Beispiele:1) Sei

A =

2 −1 −13 2 42 6 10

.

97

Page 98: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Wir bilden die Matrix

(A|E3) =

2 −1 −1 1 0 03 2 4 0 1 02 6 10 0 0 1

.

Hier ziehen wir zunachst das 3/2-fache der ersten Zeile von der zweiten Zeileund von der dritten Zeile die erste Zeile ab. Das liefert 2 −1 −1 1 0 0

0 7/2 11/2 −3/2 1 00 7 11 −1 0 1

.

Nun ziehen wir von der dritten Zeile das 2-fache der zweiten Zeile ab underhalten 2 −1 −1 1 0 0

0 7/2 11/2 −3/2 1 00 0 0 2 −2 1

.

Da links eine Nullzeile entstanden ist, ist A nicht invertierbar.2) Sei

A =

1 3 42 4 1−1 3 2

.

Wir bilden

(A|E3) =

1 3 4 1 0 02 4 1 0 1 0−1 3 2 0 0 1

.

Von der zweiten Zeile ziehen wir das 2-fache der ersten Zeile ab und zurdritten Zeile addieren wir die erste Zeile. Das liefert 1 3 4 1 0 0

0 −2 −7 −2 1 00 6 6 1 0 1

.

Nun addieren wir zur dritten Zeile das 3-fache der zweiten Zeile. Damiterhalten wir 1 3 4 1 0 0

0 −2 −7 −2 1 00 0 −15 −5 3 1

.

Jetzt multiplizieren wir die dritte Zeile mit −1/15 und die zweite Zeile mit−1/2 und erhalten dadurch 1 3 4 1 0 0

0 1 7/2 1 −1/2 00 0 1 1/3 −1/5 −1/15

.

98

Page 99: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Von der zweiten Zeile ziehen wir nun das 7/2-fache der dritten Zeile ab undvon der ersten Zeile subtrahieren wir das 4-fache der dritten Zeile. Das fuhrtauf 1 3 0 −1/3 4/5 4/15

0 1 0 −1/6 1/5 7/300 0 1 1/3 −1/5 −1/15

.

Schließlich ziehen wir noch von der ersten Zeile das 3-fache der zweiten Zeileab und erhalten 1 0 0 1/6 1/5 −13/30

0 1 0 −1/6 1/5 7/300 0 1 1/3 −1/5 −1/15

.

A ist also invertierbar und es gilt

A−1 =

1/6 1/5 −13/30−1/6 1/5 7/301/3 −1/5 −1/15

.

99

Page 100: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

VI Determinanten

In diesem Kapitel wollen wir eine wichtige Kennzahl einer Matrix, ihresogenannte Determinante, einfuhren. Als Vorbereitung dazu betrachten wirPermutationen, welche auch fur sich genommen ein interessantes Themadarstellen.

VI.1 Vorbereitung: Permutationen

Unter einer Permutation von n Elementen (sagen wir 1, . . . , n) versteht maneine Umordnung, in der jedes Element genau einmal vorkommt. Formal isteine Permutation von 1, . . . , n also nichts anderes als eine bijektive Abbildungσ : 1, . . . , n → 1, . . . , n. Die Menge all dieser Permutationen σ bezeichnenwir mit Sn.

Ein Element σ ∈ Sn gibt man haufig auch als eine 2× n-Matrix an:(1 2 . . . n

σ(1) σ(2) . . . σ(n)

).

Es ist nicht schwierig zu zeigen, dass Sn versehen mit der Verkettung alsVerknupfung eine Gruppe bildet, die sogenannte symmetrische Gruppe derOrdnung der n (neutrales Element ist die identische Abbildung id, Inverseszu σ ∈ Sn ist die Umkehrabbildung σ−1). Die Gruppe Sn ist allerdings furn ≥ 3 nicht kommutativ, wie wir gleich zeigen werden. Zuvor definierenwir erst noch spezielle Permutationen, namlich solche, die zwei Elementevertauschen, aber die anderen unverandert lassen: Seien i, j ∈ 1, . . . , n miti 6= j. Wir definieren τij : 1, . . . , n → 1, . . . , n durch

τij(k) :=

i fur k = j,

j fur k = i,

k fur k ∈ 1, . . . , n \ i, j.

Offensichtlich ist τij bijektiv, also τij ∈ Sn. Es gilt τij τij = id, alsoτ−1ij = τij . Permutationen der Form τij nennt man auch Transpositionen.

Offenbar gilt S2 = id, τ12 und folglich ist S2 kommutativ. Ist aber n ≥ 3,so gilt z. B. (τ12 τ13)(1) = 3 und (τ13 τ12)(1) = 2, also τ12 τ13 6= τ13 τ12.

100

Page 101: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Wie viele Permutationen von 1, . . . , n gibt es? Zur Konstruktion einerPermutation σ : 1, . . . , n → 1, . . . , n hat man zunachst n Wahlmoglichkei-ten zur Definition von σ(1), anschließend noch n− 1 Wahlmoglichkeiten furσ(2), dann noch n− 2 Wahlmoglichkeiten fur σ(3) usw., bis man schließlichnur noch 2 Moglichkeiten fur σ(n− 1) und nur eine einzige Moglichkeit furσ(n) hat. Das ergibt insgesamt n(n− 1)(n− 2) . . . 2 · 1 Moglichkeiten. DieseZahl bezeichnet man ublicherweise mit n! (gelesen als “n Fakultat”). DieMenge Sn hat also n! Elemente.

Als Nachstes zeigen wir das wichtige Ergebnis, dass sich jede Permutationals Produkt (Verkettung) von Transpositionen schreiben lasst, d. h. mankann jede Umordnung der Elemente 1, . . . , n durch sukzessives Vertauschenvon je zwei Elementen erreichen.

Satz VI.1.1. Fur alle n ≥ 2 und alle σ ∈ Sn gilt: Es existieren Transposi-tionen σ1, . . . , σm ∈ Sn mit σ = σ1 · · · σm.

Beweis. Ist σ ∈ Sn mit σ 6= id, so gibt es ein k ∈ 1, . . . , n mit σ(k) 6= k.Wir setzen

k0(σ) := mink ∈ 1, . . . , n : σ(k) 6= k

(min steht fur das Minimum, also das kleinste Element der Menge). Weitersetzen wir noch k0(id) := n.

Wir zeigen nun induktiv folgendes: Fur alle i ∈ 0. . . . , n− 1 lasst sichjedes σ ∈ Sn mit k0(σ) ≥ n− i als Produkt von Transpositionen schreiben.Damit ist dann unsere Behauptung bewiesen (denn fur jedes σ ∈ Sn giltk0(σ) ∈ 1, . . . , n, also k0(σ) = n− i fur ein i ∈ 0, . . . , n− 1).Induktionsanfang: i = 0 Es sei also σ ∈ Sn mit k0(σ) = n. Ware σ 6= id, sohieße das nach Definition von k0 aber σ(k) = k fur k = 1, . . . , n − 1 undσ(n) 6= n, was aber wegen der Bijektivitat von σ nicht sein kann. Also mussσ = id gelten und es ist z. B. id = τ12 τ12.Induktionsschritt: Die Behauptung gelte fur ein i ∈ 0, . . . , n− 2. Es seiσ ∈ Sn mit k0(σ) ≥ n − (i + 1) = n − i − 1. Ist sogar k0(σ) ≥ n − i, sowissen wir nach Induktionsvoraussetzung schon, dass σ ein Produkt vonTranspositionen ist. Sei also k0(σ) = n− i− 1.

Die Definition von k0 impliziert dann σ(k) = k fur k = 1, . . . , n− i− 2 undσ(n− i− 1) 6= n− i− 1. Es folgt σ(n− i− 1) > n− i− 1.

Es sei τ ∈ Sn die Vertauschung von n− i− 1 und σ(n− i− 1) und ρ := τ σ.Dann gilt ρ(k) = k fur alle k = 1, . . . , n−i−1, wie man leicht durch einsetzenbestatigt. Daher gilt k0(ρ) ≥ n− i.Nach Induktionsvoraussetzung lasst sich also ρ als Produkt von Transpo-sitionen schreiben und folglich ist auch σ = τ ρ wieder ein Produkt vonTranspositionen.

Als Nachstes wollen wir das Vorzeichen (oder Signum) einer Permutationdefinieren.

101

Page 102: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Definition VI.1.2. Seien n ∈ N und σ ∈ Sn. Wir setzen

Fσ :=

(i, j) ∈ 1, . . . , n2 : i < j und σ(i) > σ(j)

und bezeichnen mit f(σ) die Anzahl der Elemente von Fσ. f(σ) heißt dieAnzahl der Fehlstande von σ. Schließlich setzen wir sign(σ) := (−1)f(σ).sign(σ) heißt das Vorzeichen oder Signum von σ.

Zum Beispiel gilt sign(id) = 1 und sign(τ) = −1 fur alle Transpositionenτ ∈ Sn (Ubung).

Wir zeigen nun folgende nutzliche Darstellung des Vorzeichens einerPermutation.

Lemma VI.1.3. Seien n ∈ N und σ ∈ Sn. Dann gilt

sign(σ) =∏

(i,j)∈In

σ(i)− σ(j)

i− j,

wobei In :=

(i, j) ∈ 1, . . . , n2 : i < j

.

Beweis. Wir definieren ϕ : In → In wie folgt:

ϕ(i, j) :=

(σ(i), σ(j)), falls σ(i) < σ(j),

(σ(j), σ(i)), falls σ(i) > σ(j).

Es ist nicht schwierig zu zeigen, dass ϕ bijektiv ist (Ubung).Wir setzen weiter

A := (i, j) ∈ In : σ(i) > σ(j) und B := In \A.Ferner sei G(i, j) := i− j fur alle (i, j) ∈ In. Da ϕ : In → In bijektiv ist, gilt∏

(i,j)∈In

G(i, j) =∏

(i,j)∈In

G(ϕ(i, j)),

denn links wie rechts stehen dieselben Faktoren, nur in einer anderen Rei-henfolge. Nun ist aber nach Definition von ϕ

G(ϕ(i, j)) =

σ(i)− σ(j) fur (i, j) ∈ B,−(σ(i)− σ(j)) fur (i, j) ∈ A.

Es folgt: ∏(i,j)∈In

(i− j) =∏

(i,j)∈In

G(i, j) =∏

(i,j)∈In

G(ϕ(i, j))

=∏

(i,j)∈B

(σ(i)− σ(j))∏

(i,j)∈A

(−(σ(i)− σ(j)))

= (−1)f(σ)∏

(i,j)∈B

(σ(i)− σ(j))∏

(i,j)∈A

(σ(i)− σ(j))

= sign(σ)∏

(i,j)∈In

(σ(i)− σ(j)),

102

Page 103: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

denn die Anzahl der Elemente von A ist gerade f(σ).

Nun folgt aber

∏(i,j)∈In

σ(i)− σ(j)

i− j=

∏(i,j)∈In(σ(i)− σ(j))∏

(i,j)∈In(i− j)=

1

sign(σ)= sign(σ).

Damit konnen wir nun den folgenden entscheidenden Satz zeigen.

Satz VI.1.4. Sei n ∈ N und seien σ1, σ2 ∈ Sn. Dann gilt

sign(σ1 σ2) = sign(σ1)sign(σ2).

Beweis. Nach dem obigen Lemma gilt

sign(σ1 σ2) =∏

(i,j)∈In

σ1(σ2(i))− σ1(σ2(j))i− j

=∏

(i,j)∈In

σ2(i)− σ2(j)i− j

∏(i,j)∈In

σ1(σ2(i))− σ1(σ2(j))σ2(i)− σ2(j)

= sign(σ2)∏

(i,j)∈In

σ1(σ2(i))− σ1(σ2(j))σ2(i)− σ2(j)

.

Wie im vorigen Beweis definieren wir eine bijektive Abbildung ϕ : In → Inwie folgt:

ϕ(i, j) :=

(σ2(i), σ2(j)), falls σ2(i) < σ2(j),

(σ2(j), σ2(i)), falls σ2(i) > σ2(j).

Ferner sei

H(k, l) :=σ1(k)− σ1(l)

k − l∀(k, l) ∈ In.

Dann gilt H(ϕ(i, j)) = (σ1(σ2(i))− σ1(σ2(j))/(σ2(i)− σ2(j)) fur alle (i, j) ∈In, wie man sofort nachpruft. Es folgt

sign(σ1 σ2) = sign(σ2)∏

(i,j)∈In

H(ϕ(i, j)) = sign(σ2)∏

(i,j)∈In

H(i, j).

Nach dem obigen Lemma ist aber∏

(i,j)∈In H(i, j) = sign(σ1).

Aus dem obigen Satz ergibt sich sofort folgendes Korollar.

Korollar VI.1.5. Sei n ∈ N und sei σ ∈ Sn. Sind σ1, . . . , σm ∈ Sn Trans-positionen mit σ = σ1 · · · σm, so gilt sign(σ) = (−1)m.

103

Page 104: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Aus Satz VI.1.4 folgt sign(σ) = sign(σ1· · ·σm) =∏mi=1 sign(σi) =

(−1)m, da Transpositionen stets das Signum −1 haben.

Dieses Korollar impliziert insbesondere, dass man eine Permutation σnicht einerseits als Produkt von einer geraden Anzahl von Transpositionenund andererseits als ein Produkt von einer ungeraden Anzahl Transpositionendarstellen kann.

VI.2 Die Determinante einer Matrix

Nach der Vorbereitung im letzten Abschnitt konnen wir nun direkt dieDeterminante definieren. Diese ist nur fur quadratische Matrizen erklart.

Definition VI.2.1. Sei K ein Korper und sei A = (aij)n,ni,j=1 eine n × n-

Matrix mit Eintragen in K. Die Determinante von A ist definiert durch

det(A) :=∑σ∈Sn

sign(σ)a1σ(1)a2σ(2) . . . anσ(n)

(diese Formel heißt Leibniz-Formel1). Anstelle von det(A) schreibt man auch|A|.

Die obige Summe erstreckt sich uber alle Elemente σ von Sn, sie bestehtalso aus n! Summanden. In jedem Summanden bildet man das Produkta1σ(1)a2σ(2) . . . anσ(n) und versieht dieses mit dem Vorzeichen der Permutationσ.

Wir wollen nun zunachst die Determinante einer 2× 2-Matrix bestimmen.Da S2 nur die beiden Elemente id und τ12 hat (mit Vorzeichen 1 bzw. −1),folgt

det

(a bc d

)=

∣∣∣∣a bc d

∣∣∣∣ = ad− bc

(bei der Schreibweise mit den senkrechten Strichen lasst man die rundenKlammern um die Matrix in der Regel weg). Die Determinante einer 2× 2-Matrix berechnet sich also, indem man die Eintrage “uber Kreuz multipliziert”und anschließend die Differenz bildet. Zum Beispiel gilt∣∣∣∣2 3

4 2

∣∣∣∣ = 2 · 2− 3 · 4 = −8.

1Gottfried Wilhelm Leibniz (1646–1716): deutscher Universalgelehrter (unter anderemMathematiker, Philosoph, Historiker), Erfinder der Differentialrechnung (unabhangig vonIsaac Newton).

104

Page 105: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Fur 3× 3-Matrizen wird es bereits deutlich komplizierter. Die Menge S3hat 3! = 6 Elemente, namlich(

1 2 31 2 3

),

(1 2 33 1 2

),

(1 2 32 3 1

),(

1 2 32 1 3

),

(1 2 31 3 2

),

(1 2 33 2 1

).

Von diesen haben die ersten drei das Vorzeichen 1, die anderen das Vorzeichen−1, wie man leicht nachpruft.

Damit erhalt man folgenden Ausdruck fur die Determinante einer 3× 3-Matrix:∣∣∣∣∣∣a11 a12 a13a21 a22 a23a31 a32 a33

∣∣∣∣∣∣ = a11a22a33 + a13a21a32 + a12a23a31 − a12a21a33 − a11a23a32

− a13a22a31 = a11(a22a33 − a23a32)− a12(a21a33 − a23a31) + a13(a21a32 − a22a31)

= a11

∣∣∣∣a22 a23a32 a33

∣∣∣∣− a12 ∣∣∣∣a21 a23a31 a33

∣∣∣∣+ a13

∣∣∣∣a21 a22a31 a32

∣∣∣∣ .Tatsachlich ist dies nur ein Spezialfall eines allgemeinen Entwicklungssatzes(siehe Satz VI.2.6).

Beispiel: Es gilt∣∣∣∣∣∣1 2 02 −1 33 4 −2

∣∣∣∣∣∣ = 1 · (2− 12)− 2 · (−4− 9) + 0 · (8 + 3) = −10 + 26 = 16.

Als Nachstes stellen wir einige wichtige Eigenschaften von Determinantenzusammen.

Lemma VI.2.2. Es sei K ein Korper und es seien A,A′ ∈ M(n × n,K).Ferner sei b ∈M(1×n,K) ein Zeilenvektor der Lange n und Ai,b sei diejenigeMatrix, in aus A entsteht, indem man die i-te Zeile durch b ersetzt. Danngilt:1) Entsteht A′ aus A durch Multiplikation einer Zeile mit λ ∈ K, so giltdet(A′) = λdet(A).2) Es gilt det(λA) = λndet(A) fur alle λ ∈ K.3) Ensteht aus A′ aus A durch Addition des Zeilenvektors b zur i-ten Zeile,so gilt det(A′) = det(A) + det(Ai,b).4) Sind zwei Zeilen in A identisch, so ist det(A) = 0.5) Entsteht A′ aus A durch Vertauschung zweier Zeilen, so ist det(A′) =−det(A).6) Ensteht aus A′ aus A durch eine Zeilenumformung vom Typ (II), so giltdet(A′) = det(A).7) Es ist det(En) = 1.

105

Page 106: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. 1) A′ entstehe aus A durch Multiplikation der i-ten Zeile mit λ.Dann gilt:

det(A′) =∑σ∈Sn

sign(σ)a1σ(1) . . . (λaiσ(i)) . . . anσ(n)

= λ∑σ∈Sn

sign(σ)a1σ(1) . . . anσ(n) = λdet(A).

2) folgt durch n-fache Anwendung von 1).

3) Sei b = (b1 . . . bn). Es gilt

det(A′) =∑σ∈Sn

sign(σ)a1σ(1) . . . (aiσ(i) + bσ(i)) . . . anσ(n)

=∑σ∈Sn

sign(σ)(a1σ(1) . . . anσ(n) + a1σ(1) . . . bσ(i) . . . anσ(n))

=∑σ∈Sn

sign(σ)a1σ(1) . . . anσ(n) +∑σ∈Sn

sign(σ)a1σ(1) . . . bσ(i) . . . anσ(n)

= det(A) + det(Ai,b).

4) Seien i, j ∈ 1, . . . , n mit i 6= j und aik = ajk fur alle k = 1, . . . , n. Es seiτ die Transposition τij . Wir setzen

An := σ ∈ Sn : sign(σ) = 1,Bn := σ ∈ Sn : sign(σ) = −1.

Ferner sei ϕ : An → Bn definiert durch ϕ(σ) := στ fur alle σ ∈ An. Dann istϕ wohldefiniert (d. h. ϕ bildet tatsachlich nach Bn ab) und bijektiv (Ubung).Es gilt

det(A) =∑σ∈Sn

sign(σ)n∏s=1

asσ(s) =∑σ∈An

n∏s=1

asσ(s) −∑σ∈Bn

n∏s=1

asσ(s)

=∑σ∈An

n∏s=1

asσ(s) −∑σ∈An

n∏s=1

asσ(τ(s))

(Letzteres wegen der Bijektivitat von ϕ). Wegen der Bijektivitat von τ undτ τ = id ist aber

n∏s=1

asσ(τ(s)) =n∏s=1

aτ(s)σ(τ(τ(s))) =n∏s=1

aτ(s)σ(s) =n∏s=1

asσ(s)

fur alle σ ∈ An, wobei wir im letzten Schritt die Voraussetzung “i-te Zeilevon A” = “j-te Zeile von A” ausgenutzt haben.

Insgesamt folgt also det(A) = 0.

106

Page 107: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

5) Sind v1, . . . , vn ∈ M(1 × n,K), so schreiben wir det(v1, . . . , vn) fur dieDeterminante der Matrix mit den Zeilenvektoren v1, . . . , vn.

Es seien nun z1, . . . , zn die Zeilenvektoren von A und A′ entstehe aus Adurch Vertauschung von Zeile i und Zeile j (wobei i 6= j). Dann gilt wegen 4)det(z1, . . . , zi + zj , . . . , zi + zj , . . . , zn) = 0, wobei hier an der i-ten und derj-ten Stelle jeweils zi + zj stehen soll, an allen Stellen k ∈ 1, . . . , n \ i, jsteht zk.

Andererseits folgt aus 3)

0 = det(z1, . . . , zi + zj , . . . , zi + zj , . . . , zn) =

det(z1, . . . , zi, . . . , zi, . . . , zn) + det(z1, . . . , zi, . . . , zj , . . . , zn)

+ det(z1, . . . , zj , . . . , zi, . . . , zn) + det(z1, . . . , zj , . . . , zj , . . . , zn)

= det(A) + det(A′),

denn wiederum wegen 4) gilt

det(z1, . . . , zi, . . . , zi, . . . , zn) = 0 = det(z1, . . . , zj , . . . , zj , . . . , zn).

Es folgt det(A′) = −det(A).

6) A′ entstehe aus A durch Addition des λ-fachen der j-ten Zeile zur i-tenZeile (wobei i 6= j). Die Zeilenvektoren von A seien wieder z1, . . . , zn. Danngilt wegen 3) und 1)

det(A′) = det(z1. . . . , zi + λzj , . . . , zn)

= det(z1, . . . , zi, . . . , zn) + λdet(z1. . . . , zj , . . . , zn)

= det(A) + λdet(z1. . . . , zj , . . . , zn).

In det(z1. . . . , zj , . . . , zn) steht sowohl in der i-ten als auch in der j-ten Zeilezj , also ist wegen 4) det(z1. . . . , zj , . . . , zn) = 0 und es folgt det(A′) = det(A).

7) Fur alle σ ∈ Sn mit σ 6= id existiert ein k ∈ 1, . . . , n mit σ(k) 6= k, alsoδkσ(k) = 0, also

∏ns=1 δsσ(s) = 0. Es folgt

det(En) =∑σ∈Sn

sign(σ)n∏s=1

δsσ(s) = sign(id)n∏s=1

δss = 1.

Die Eigenschaften 1) und 3) besagen gerade, dass die Determinante injeder Zeile linear ist. Als Abbildung vom Vektorraum M(n× n,K) nach Kist det dagegen nicht linear. Das folgt allein schon aus Punkt 2) des obigenLemmas, aber ferner ist im Allgemeinen auch det(A+B) 6= det(A) + det(B),wie man sich leicht anhand von Beispielen klar macht.

Als Nachstes zeigen wir noch, dass die Determinante einer Matrix stetsmit der Determinante ihrer Transponierten ubereinstimmt.

107

Page 108: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Satz VI.2.3. Sei K ein Korper und sei A ∈ M(n × n,K). Dann giltdet(AT ) = det(A).

Beweis. Wie man leicht sieht, ist die Abbildung ψ : Sn → Sn mit ψ(σ) := σ−1

fur alle σ ∈ Sn bijektiv. Daher gilt

det(AT ) =∑σ∈Sn

sign(σ)n∏i=1

aσ(i)i =∑σ∈Sn

sign(σ−1)n∏i=1

aσ−1(i)i

(denn man hat nur die Summanden mittels ψ umgeordnet).

Nun gilt aber

1 = sign(id) = sign(σ−1 σ) = sign(σ−1)sign(σ),

also

sign(σ−1) = 1/sign(σ) = sign(σ)

und fernern∏i=1

aσ−1(i)i =

n∏i=1

aiσ(i)

(wegen der Bijektivitat von σ).

Es folgt

det(AT ) =∑σ∈Sn

sign(σ)

n∏i=1

aiσ(i) = det(A).

Aus diesem Satz folgt sofort, dass alles was wir in Lemma VI.2.2 hin-sichtlich des Verhaltens der Determinante bei Veranderung der Zeilen derMatrix festgestellt hatten, sinngemaß auch fur die Spalten der Matrix gilt.

Das folgende Invertierbarkeitskriterium ist eine Hauptanwendung derDeterminanten.

Satz VI.2.4. Sei K ein Korper und sei A ∈M(n× n,K). Dann gilt:1) A ist invertierbar genau dann, wenn det(A) 6= 0 gilt.2) Es existiert ein x ∈ Kn \ 0 mit Ax = 0 genau dann, wenn det(A) = 0gilt.

Beweis. 1) Seien z1, . . . , zn die Zeilenvektoren von A. Wir wissen schon, dassA genau dann invertierbar ist, wenn Rang(A) = n gilt. Das wiederum istaquivalent zur linearen Unabhangigkeit von z1, . . . , zn.

a) Seien z1, . . . , zn linear unabhangig. Dann ist (z1, . . . , zn) eine geordneteBasis von M(1× n,K) und folglich existieren αij ∈ K (i, j = 1, . . . , n) miteTi =

∑nj=1 αijzj fur alle i = 1, . . . , n.

108

Page 109: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Da die Determinante in jeder Zeile linear ist, ergibt sich

1 = det(En) = det(eT1 , . . . , eTn )

= det

n∑j1=1

α1j1zj1 ,n∑

j2=1

α2j2zj2 , . . . ,n∑

jn=1

αnjnzjn

=

n∑j1=1

α1j1det

zj1 , n∑j2=1

α2j2zj2 , . . . ,n∑

jn=1

αnjnzjn

=

n∑j1=1

n∑j2=1

α1j1α2j2det

zj1 , zj2 , n∑j3=1

α3j3zj3 , . . . ,n∑

jn=1

αnjnzjn

= · · · =

=n∑

j1=1

n∑j2=1

· · ·n∑

jn=1

α1j1α2j2 . . . αnjndet(zj1 , . . . , zjn).

Nun ist aber det(zj1 , . . . , zjn) = 0, falls zwei der Indizes j1, . . . , jn gleichsind. Wir mussen also nur uber alle n-Tupel (j1, . . . , jn) von paarweiseverschiedenen Indizes aus 1, . . . , n, sprich uber alle Permutationen von1, . . . , n summieren. Es folgt

1 =∑σ∈Sn

α1σ(1)α2σ(2) . . . αnσ(n)det(zσ(1), . . . , zσ(n)).

Stellt man eine Permutation σ ∈ Sn als Produkt von Transpositionenσ = σ · · · σm dar, so ist det(zσ(1), . . . , zσ(n)) = (−1)mdet(z1, . . . , zn) =sign(σ)det(A), denn jede der m Zeilenvertauschungen andert das Vorzeichenum −1. Es folgt

1 = det(A)∑σ∈Sn

sign(σ)α1σ(1)α2σ(2) . . . αnσ(n)

und folglich muss det(A) 6= 0 gelten.

b) Seien nun z1, . . . , zn linear abhangig. Dann existieren λ1, . . . , λn ∈ K mit∑ni=1 λizi = 0, wobei nicht alle λi gleich Null sind. Sei j ∈ 1, . . . , n mit

λj 6= 0. Dann folgt zj = −λ−1j∑

i∈I λizi, wobei I := 1, . . . , n \ j. Damitfolgt

det(A) = det(z1, . . . , zj , . . . , zn) = − 1

λj

∑i∈I

λidet(z1, . . . , zi, . . . , zn) = 0,

denn in det(z1, . . . , zi, . . . , zn) (zi steht an der j-ten Stelle) stimmt jeweilsdie j-te Zeile mit der i-ten uberein, also ist diese Determinante gleich Nullfur alle i ∈ I.

109

Page 110: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

2) Seien a1, . . . , an die Spaltenvektoren von A. Dann gilt:

∃x ∈ Kn \ 0 Ax = 0

⇔ ∃(x1, . . . , xn)T ∈ Kn \ 0n∑j=1

xjaj = 0

⇔ a1, . . . , an sind linear abhangig

⇔ Rang(A) < n

⇔ A ist nicht invertierbar.

Letzteres ist nach 1) aquivalent zu det(A) = 0.

Ohne Beweis geben wir noch den sogenannten Determinantenmultiplika-tionssatz an.

Satz VI.2.5. Sei K ein Korper. Fur alle A,B ∈M(n×n,K) gilt det(AB) =det(A)det(B).

Ist A ∈M(n×n,K) und sind i, j ∈ 1, . . . , n, so bezeichnen wir mit Aijdiejenige (n− 1)× (n− 1)-Matrix, die aus A durch Streichen der i-ten Zeileund der j-ten Spalte hervorgeht. Mit dieser Notation gilt dann der folgendeSatz.

Satz VI.2.6 (Entwicklungssatz fur Determinanten). Sei K ein Korper undsei A = (aij)

n,ni,j=1 ∈M(n× n,K). Dann gilt:

det(A) =

n∑j=1

(−1)i+jaijdet(Aij) ∀i = 1, . . . , n

(Entwicklung nach der i-ten Zeile),

det(A) =

n∑i=1

(−1)i+jaijdet(Aij) ∀j = 1, . . . , n

(Entwicklung nach der j-ten Spalte).

Dieser Satz erlaubt es also, die Berechnung einer n× n-Determinante aufdie Berechnung von (hochstens) n Determinanten des Formats (n−1)×(n−1)zuruckzufuhren. Die oben gefundene Formel fur 3×3-Determinanten ist nichtsanderes als die Entwicklung derselben nach der ersten Zeile. Auf einen Beweisdes allgemeinen Entwicklungssatzes wollen wir hier aus Grunden der Zeitund Einfachheit verzichten.

Um den Rechenaufwand moglichst gering zu halten, empfiehlt es sich(wenn moglich) nach einer Zeile oder Spalte zu entwickeln, die besondersviele Nullen enthalt.

110

Page 111: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beispiel: Durch Entwicklung nach der zweiten Spalte erhalt man∣∣∣∣∣∣∣∣2 0 3 1−1 1 4 12 0 −3 21 0 4 −1

∣∣∣∣∣∣∣∣ = −0 +

∣∣∣∣∣∣2 3 12 −3 21 4 −1

∣∣∣∣∣∣− 0 + 0

= 2(3− 8)− 3(−2− 2) + 8 + 3 = −10 + 12 + 11 = 13.

Eine wichtige Folgerung aus dem Entwicklungssatz ist die folgende Formelzur Berechnung der Determinante einer Dreiecksmatrix: Diese ist gleich demProdukt der Eintrage auf der Hauptdiagonalen.

Korollar VI.2.7. Sei K ein Korper. Fur alle n ∈ N und alle oberen/unterenDreiecksmatrizen A = (aij)

n,ni,j=1 ∈M(n× n,K) gilt

det(A) =n∏i=1

aii.

Beweis. 1) Wir betrachten zunachst den Fall oberer Dreiecksmatrizen undargumentieren mittels vollstandiger Induktion nach n. Fur n = 1 ist nichtsweiter zeigen. Angenommen nun die Behauptung gilt fur ein n ∈ N und essei A = (aij)

n+1,n+1i,j=1 eine obere Dreiecksmatrix mit n+ 1 Zeilen und Spalten.

Dann ist ai1 = 0 fur alle i = 2, . . . , n+ 1 und daher liefert eine Entwicklungnach der ersten Spalte det(A) = a11det(A11).

Aber A11 ist wieder eine obere Dreiecksmatrix vom Format n× n mit denHauptdiagonaleintragen a22, . . . , an+1n+1. Nach Induktionsvoraussetzung giltalso det(A11) = a22 . . . an+1n+1 und es folgt det(A) = a11a22 . . . an+1n+1.

2) Ist nun A = (aij)n,ni,j=1 eine untere Dreiecksmatrix, so ist AT eine obere

Dreiecksmatrix. Somit folgt aus 1) det(AT ) = a11 . . . ann. Nach Satz VI.2.3ist aber det(A) = det(AT ), also det(A) = a11 . . . ann.

Beispiel: Es ist ∣∣∣∣∣∣3 2 60 −1 80 0 5

∣∣∣∣∣∣ = 3 · (−1) · 5 = −15.

Mit Hilfe des Gaußschen Algorithmus kann man jede quadratische Ma-trix mittels elementarer Zeilenumformungen in eine obere Dreiecksmatrixuberfuhren, fur welche sich die Determinante leicht ausrechnen lasst. Aller-dings ist dabei etwas Vorsicht geboten: Wir hatten oben schon festgestellt,dass Typ (II) Umformungen die Determinante unverandert lassen. Dagegen

111

Page 112: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

andert sich bei Typ (I) Umformungen (Zeilenvertauschungen) das Vorzei-chen der Determinante und bei Typ (III) Umformungen muss man denentsprechenden Faktor aus der Determinante herausziehen.

Beispiel: Es gilt∣∣∣∣∣∣∣∣0 3 −1 21 2 4 13 1 2 12 1 4 1

∣∣∣∣∣∣∣∣ = −

∣∣∣∣∣∣∣∣1 2 4 10 3 −1 23 1 2 12 1 4 1

∣∣∣∣∣∣∣∣ = −

∣∣∣∣∣∣∣∣1 2 4 10 3 −1 20 −5 −10 −20 −3 −4 −1

∣∣∣∣∣∣∣∣= −

∣∣∣∣∣∣∣∣1 2 4 10 3 −1 20 0 −35/3 4/30 0 −5 1

∣∣∣∣∣∣∣∣ = −1

3

∣∣∣∣∣∣∣∣1 2 4 10 3 −1 20 0 −35 40 0 −5 1

∣∣∣∣∣∣∣∣ = −1

3

∣∣∣∣∣∣∣∣1 2 4 10 3 −1 20 0 −35 40 0 0 3/7

∣∣∣∣∣∣∣∣= −1

3· 1 · 3 · (−35) · 3

7= 15

(machen Sie sich klar, welche Umformungen in den einzelnen Schritten ver-wendet wurden).

Ohne Beweis geben wir noch den folgenden Satz an.

Satz VI.2.8. Sei K ein Korper und seien A ∈M(n× n,K), B ∈M(m×m,K), C ∈M(n×m,K). Ferner bezeichne N die m× n-Nullmatrix. Es seiM die durch

M :=

(A CN B

)definierte (n+m)× (n+m)-Matrix.Dann gilt det(M) = det(A)det(B).

Oben hatten wir schon gezeigt, dass eine quadratische Matrix A genaudann invertierbar ist, wenn det(A) 6= 0 gilt. Es ist auch moglich, die Inversevon A mit Hilfe von Determinanten zu berechnen, namlich wie folgt.

Satz VI.2.9. Sei K ein Korper und sei A ∈M(n× n,K) mit det(A) 6= 0.Dann ist A invertierbar und es gilt

A−1 =

((−1)i+jdet(Aji)

det(A)

)n,ni,j=1

(beachten Sie die Reihenfolge der Indizes).

Fur die konkrete Berechnung einer inversen Matrix ist diese Formel aller-dings nicht zu empfehlen, da die Determinantenberechnung sehr aufwendigist. Die Methode der Inversenbestimmung mit dem Gaußschen Algorithmus

112

Page 113: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

ist sehr viel effizienter. Wir verzichten daher auch auf einen Beweis diesesSatzes.

Zum Schluß geben wir noch, ebenfalls ohne Beweis, die sogenannte Cra-mersche Regel 2 an.

Satz VI.2.10 (Cramersche Regel). Sei K ein Korper und sei A ∈M(n×n,K) mit det(A) 6= 0. Sei b ∈ Kn und fur alle i = 1, . . . , n sei Ai,b diejenigeMatrix, die aus A ensteht, indem man die i-te Spalte durch b ersetzt. Sei

xi :=det(Ai,b)

det(A)∀i = 1, . . . , n

und

x :=

x1...xn

.

Dann gilt Ax = b.

Auch diese Formel ist jedoch fur die konkrete Berechnung der Losung eineslinearen Gleichungssystems eher ungeeignet (wegen des hohen Aufwands zurDeterminantenberechnung). Auch hier ist der Gauß-Algorithmus wesentlicheffizienter.

2Benannt nach Gabriel Cramer (1704–1752), einem Mathematiker aus Genf.

113

Page 114: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

VII Skalarprodukte

In diesem Kapitel betrachten wir Vektorraume mit einer zusatzlichen Ver-knupfung, einem sogenannten Skalarprodukt. Auch den dadurch induziertenAbstandsbegriff und das Konzept der Orthogonalitat wollen wir kurz bespre-chen.

VII.1 Skalarprodukte und ihre Eigenschaften

Wir beginnen mit der Definition der Bilinearitat.

Definition VII.1.1. Es sei K ein Korper und V ein Vektorraum uber K.Eine Abbildung ϕ : V × V → K heißt Bilinearform, falls folgendes gilt:

(i) ϕ(λv,w) = λϕ(v, w) = ϕ(v, λw) fur alle v, w ∈ V und alle λ ∈ K.

(ii) ϕ(v1 + v2, w) = ϕ(v1, w) + ϕ(v2, w) fur alle v1, v2, w ∈ V .

(iii) ϕ(v, w1 + w2) = ϕ(v, w1) + ϕ(v, w2) fur alle w1, w2, v ∈ V .

Bilinearitat von ϕ bedeutet also nichts anderes, als dass ϕ in jeder derbeiden Variablen linear ist, wenn man die jeweils andere Variable festhalt.

Beispiel: Die Abbildung ϕ : R2 × R2 → R mit

ϕ

((x1y1

),

(x2y2

)):=

∣∣∣∣x1 x2y1 y2

∣∣∣∣ = x1y2 − x2y1

ist eine Bilinearform.

Skalarprodukte sind nur auf reellen oder komplexen Vektorraumen definiert.Wir beginnen mit dem reellen Fall.

Definition VII.1.2. Sei V ein Vektorraum uber R. Eine Abbildung 〈·, ·〉 :V × V → R heißt Skalarprodukt auf V , falls folgendes gilt:

(a) 〈·, ·〉 ist eine Bilinearform.

(b) 〈·, ·〉 ist symmetrisch, d. h. 〈v, w〉 = 〈w, v〉 fur alle v, w ∈ V .

(c) 〈·, ·〉 ist positiv definit, d. h. 〈v, v〉 > 0 fur alle v ∈ V \ 0.

114

Page 115: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beispiele:1) Fur x = (x1 . . . xn)T , y = (y1 . . . yn)T ∈ Rn setzen wir

〈x, y〉 :=

n∑i=1

xiyi.

Dann ist 〈·, ·〉 eine symmetrische Bilinearform auf Rn, wie man leicht nach-rechnet (Ubung). Ist ferner x 6= 0, so ist xj 6= 0 und somit x2j > 0 fur

mindestens ein j ∈ 1, . . . , n, wahrend x2i ≥ 0 fur alle i ∈ 1, . . . , n \ j.Das impliziert 〈x, x〉 =

∑ni=1 x

2i > 0.

Also ist 〈·, ·〉 ein Skalarprodukt auf Rn, das sogenannte euklidische (oderkanonische) Skalarprodukt.2) Es sei [0, 1] das Intervall x ∈ R : 0 ≤ x ≤ 1 und V der Vektorraum allerPolynomfunktionen f : [0, 1] → R vom Grad≤ 2 mit f(0) = 0 (V ist einUnterraum des Raumes aller Abbildungen von [0, 1] nach R, wie man leichtnachweist). Fur alle f, g ∈ V existieren eindeutig bestimmte a, b, c, d ∈ R mitf(x) = ax2 + bx und g(x) = cx2 + dx fur alle x ∈ [0, 1]. Wir setzen

〈f, g〉 :=1

5ac+

1

4(ad+ bc) +

1

3bd.

Das mag zunachst etwas seltsam aussehen, wer aber bereits ein wenig mitder Integralrechnung vertraut ist, der kann leicht nachrechnen, dass

〈f, g〉 =

∫ 1

0f(x)g(x) dx

gilt. In dieser Version wirkt die Definition sicherlich etwas naturlicher.Nun kann man entweder direkt anhand der Definition oder anhand der Inte-graldarstellung nachweisen, dass 〈·, ·〉 eine symmetrische Bilinearform auf Vist (Ubung). Ferner gilt

〈f, f〉 =1

5a2 +

1

2ab+

1

3b2 =

1

5(a+ 5b/4)2 +

1

3b2 − 5

16b2

=1

5(a+ 5b/4)2 +

1

48b2.

Ist f 6= 0, so folgt b 6= 0 oder a 6= 0. Im ersten Fall ist 〈f, f〉 ≥ b2/48 > 0.Ist dagegen b = 0, so ist 〈f, f〉 = a2/5 > 0. Also ist 〈·, ·〉 auch positiv definitund damit ein Skalarprodukt auf V .

Bevor wie auch Skalarprodukte auf komplexen Vektorraumen definierenkonnen, mussen wir noch den Begriff einer Sesquilinearform einfuhren.

Definition VII.1.3. Es sei V ein Vektorraum uber C. Eine Abbildungϕ : V × V → C heißt Sesquilinearform, falls folgendes gilt:

115

Page 116: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

(i) ϕ(λv,w) = λϕ(v, w) und ϕ(v, λw) = λϕ(v, w) fur alle v, w ∈ V undalle λ ∈ C.

(ii) ϕ(v1 + v2, w) = ϕ(v1, w) + ϕ(v2, w) fur alle v1, v2, w ∈ V .

(iii) ϕ(v, w1 + w2) = ϕ(v, w1) + ϕ(v, w2) fur alle w1, w2, v ∈ V .

Beispiel: Die Abbildung ϕ : C2 × C2 → C mit

ϕ

((z1u1

),

(z2u2

)):=

∣∣∣∣z1 z2u1 u2

∣∣∣∣ = z1u2 − z2u1

ist eine Sesquilinearform.

Nun konnen wir auch Skalarprodukte auf Vektorraumen uber C definie-ren.

Definition VII.1.4. Sei V ein Vektorraum uber C. Eine Abbildung 〈·, ·〉 :V × V → C heißt Skalarprodukt auf V , falls folgendes gilt:

(a) 〈·, ·〉 ist eine Sesquilinearform.

(b) 〈·, ·〉 ist hermitesch1, d. h. 〈v, w〉 = 〈w, v〉 fur alle v, w ∈ V .

(c) 〈·, ·〉 ist positiv definit, d. h. 〈v, v〉 > 0 fur alle v ∈ V \ 0.

Beispiel: Fur z = (z1 . . . zn)T , u = (u1 . . . un)T ∈ Cn setzen wir

〈z, u〉 :=

n∑i=1

ziui.

Dann ist 〈·, ·〉 eine hermitesche Sesquilinearform (Ubung) und fur alle z ∈Cn \ 0 gilt 〈z, z〉 =

∑ni=1 zizi =

∑ni=1 |zi|2 > 0. Also ist 〈·; ·〉 ein Skalarpro-

dukt, das kanonische Skalarprodukt auf Cn.

Als Nachstes fuhren wir noch den wichtigen Begriff einer Norm ein.

Definition VII.1.5. Sei V ein Vektorraum uber K = R oder C und sei‖·‖ : V → R+

0 eine Abbildung (R+0 := x ∈ R : x ≥ 0). Fur alle v, w ∈ V

und alle λ ∈ K gelte:

(i) ‖λv‖ = |λ|‖v‖

(ii) ‖v‖ = 0 ⇔ v = 0

1Nach dem franzosischen Mathematiker Charles Hermite (1822–1901).

116

Page 117: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

(iii) ‖v + w‖ ≤ ‖v‖+ ‖w‖ (Dreiecksungleichung)

Dann heißt ‖·‖ eine Norm auf V .

Die Anschauung dabei ist, dass die Zahl ‖v‖ die “Lange” des Vektors vbeschreibt.

Beispiel: Fur x = (x1 . . . xn)T ∈ Rn sei

‖x‖1 :=n∑i=1

|xi|.

Dann ist ‖·‖1 eine Norm auf Rn, wie Sie zur Ubung leicht selbst nachweisenkonnen.

Wir wollen nun zeigen, dass jedes Skalarprodukt auch eine Norm induziert,namlich wie folgt.

Definition VII.1.6. Sei V ein Vektorraum uber K = R oder C und sei 〈·, ·〉ein Skalarprodukt auf V . Setze ‖v‖ :=

√〈v, v〉 fur alle v ∈ V .

Wegen 〈v, v〉 ≥ 0 ist ‖·‖ in jedem Fall wohldefiniert. Wir mussen abernaturlich noch nachweisen, dass es sich tatsachlich um eine Norm handelt.Zunachst gilt wegen der positiven Definitheit von 〈·, ·〉

‖v‖ = 0 ⇔ 〈v, v〉 = 0 ⇔ v = 0.

Ferner gilt fur alle Skalare λ und alle v ∈ V

‖λv‖ =√〈λv, λv〉 =

√λλ〈v, v〉 =

√|λ|2〈v, v〉 = |λ|

√〈v, v〉 = |λ|‖v‖

(im reellen Fall muss man sich die komplexe Konjugation einfach wegdenken).

Damit bleibt nur noch die Dreiecksungleichung zu zeigen, was allerdingsnicht ganz einfach ist. Wir zeigen dazu zunachst eine andere Ungleichung,namlich die sogenannte Cauchy-Schwarz-Ungleichung.2

Satz VII.1.7 (Cauchy-Schwarz-Ungleichung). Sei V ein Vektorraum uberK = R oder C und sei 〈·, ·〉 ein Skalarprodukt auf V . Sei ‖v‖ :=

√〈v, v〉 fur

alle v ∈ V . Dann gilt

|〈v, w〉| ≤ ‖v‖‖w‖ ∀v, w ∈ V.2Benannt ist sie nach dem franzosischen Mathematiker Augustin-Louis Cauchy (1789–

1857) und dem deutschen Mathematiker Hermann Amandus Schwarz (1843–1921).

117

Page 118: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Fur w = 0 ist die Aussage klar. Sei nun also w 6= 0. Wir setzenλ := −〈v, w〉/‖w‖2. Dann gilt

0 ≤ ‖v + λw‖2 = 〈v + λw, v + λw〉 = 〈v, v〉+ 〈v, λw〉+ 〈λw, v〉+ 〈λw, λw〉= ‖v‖2 + λ〈v, w〉+ λ〈v, w〉+ λλ‖w‖2 = ‖v‖2 + λ〈v, w〉+ λ〈v, w〉+ |λ|2‖w‖2

= ‖v‖2 − 2〈v, w〉〈v, w〉‖w‖2

+|〈v, w〉|2

‖w‖4‖w‖2 = ‖v‖2 − |〈v, w〉|

2

‖w‖2.

Es folgt |〈v, w〉|2 ≤ ‖v‖2‖w‖2 und somit |〈v, w〉| ≤ ‖v‖‖w‖ (im reellen Fallkann man sich wieder einfach die komplexe Konjugation wegdenken).

Nun konnen wir auch beweisen, dass die Vorschrift ‖v‖ :=√〈v, v〉 wirklich

eine Norm definiert.

Satz VII.1.8. Sei V ein Vektorraum uber K = R oder C und sei 〈·, ·〉 einSkalarprodukt auf V . Sei ‖v‖ :=

√〈v, v〉 fur alle v ∈ V . Dann ist ‖·‖ eine

Norm auf V .

Beweis. Nach unseren obigen Uberlegungen mussen wir nur noch die Drei-ecksungleichung beweisen. Wir fuhren das wieder nur fur den Fall K = Caus, der Fall K = R ist vollig analog.

Seien also v, w ∈ V beliebig. Es gilt

‖v + w‖2 = 〈v + w, v + w〉 = 〈v, v〉+ 〈v, w〉+ 〈w, v〉+ 〈w,w〉= ‖v‖2 + 〈v, w〉+ 〈v, w〉+ ‖w‖2 = ‖v‖2 + 2Re(〈v, w〉) + ‖w‖2

≤ ‖v‖2 + 2|〈v, w〉|+ ‖w‖2,

wobei wir die Tatsachen z + z = 2Re(z) und Re(z) ≤ |z| fur alle z ∈ Cverwendet haben, die Sie zur Ubung leicht selbst beweisen konnen.

Nach der Cauchy-Schwarz-Ungleichung ist |〈v, w〉| ≤ ‖v‖‖w‖ und somit folgt

‖v + w‖2 ≤ ‖v‖2 + 2‖v‖‖w‖+ ‖w‖2 = (‖v‖+ ‖w‖)2,

also ‖v + w‖ ≤ ‖v‖+ ‖w‖.

Jedes Skalarprodukt induziert also eine Norm. Jedoch stammt umgekehrtnicht jede Norm von einem Skalarprodukt. Zum Beispiel kann man zeigen,dass die obige Norm ‖·‖1 auf Rn nicht durch ein Skalarprodukt induziertwird.

Wichtigstes Beispiel ist wieder das euklidische Skalarprodukt auf demRn. Hier ist die induzierte Norm die euklidische Norm

‖x‖2 =

√√√√ n∑i=1

x2i

118

Page 119: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

(wobei x1, . . . , xn naturlich die Koordinaten des Vektors x sind).

Stellt man Vektoren im R2 oder R3 wieder als Pfeile dar, so ergibt sichaus dem Satz des Pythagoras, dass ‖x‖2 gerade gleich der Lange des Pfeilsist (im Sinne der ublichen, euklidischen Geometrie).

Jede Norm ‖·‖ auf einem (reellen oder komplexen) Vektorraum V indu-ziert auch einen Abstandsbegriff, namlich wie folgt: Fur alle v, w ∈ V setzenwir d(v, w) := ‖v−w‖ und nennen dies den Abstand von v zu w. Es gilt dann

(a) d(v, w) ≥ 0 fur alle v, w ∈ V ,

(b) d(v, w) = 0 ⇔ v = w,

(c) d(v, w) = d(w, v) fur alle v, w ∈ V ,

(d) d(v, w) ≤ d(v, u) + d(u,w) fur alle v, w, u ∈ V .

Das konnen Sie zur Ubung selbst beweisen. Eigenschaft (d) nennt manwieder Dreiecksungleichung. Insgesamnt fasst man die Aussagen (a)–(d) auchfolgendermaßen zusammen: d ist eine Metrik auf V . Im Falle des R2 oder R3

mit der euklidischen Norm erhalt man auf diese Weise gerade den ublichen,euklidischen Abstand.

Weiterhin eroffnen Skalarprodukte auch die Moglcihkeit, Winkel zwischenzwei Vektoren zu definieren.

Definition VII.1.9. Sei V ein reeller Vektorraum mit einem Skalarprodukt〈·, ·〉. Seien v, w ∈ V \ 0. Wir setzen

∠(v, w) := arccos

(〈v, w〉‖v‖‖w‖

)und nennen dies den Winkel zwischen v und w. Hierbei bezeichnet arccos dieArcus-Kosinusfunktion, also die Umkehrfunktion des Kosinus auf der Mengeϕ ∈ R : 0 ≤ ϕ ≤ π.

Mit der obigen Definition gilt dann also

〈v, w〉 = ‖v‖‖w‖ cos(∠(v, w)).

Zum Schluß dieses Abschnitts zeigen wir noch das folgende wichtigeLemma.

Lemma VII.1.10. Sei K = R oder C und sei A = (aij)m,ni,j=1 ∈M(m×n,K).

Wir bezeichnen das kanonische Skalarprodukt sowohl auf dem Kn als auchauf dem Km mit 〈·, ·〉.1) Im Fall K = R gilt: 〈Ax, y〉 = 〈x,AT y〉.2) Im Fall K = C gilt: 〈Ax, y〉 = 〈x, AT y〉 (hierbei bezeichnet A die Matrix(aij)

m,ni,j=1).

119

Page 120: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. 1) Sei x = (x1 . . . xn)T und y = (y1 . . . ym)T . Dann gilt

〈Ax, y〉 =m∑i=1

(Ax)iyi =m∑i=1

yi n∑j=1

aijxj

=m∑i=1

n∑j=1

aijyixj

=n∑j=1

m∑i=1

aijyixj =n∑j=1

(xj

m∑i=1

aijyi

)=

n∑j=1

xj(AT y)j = 〈x,AT y〉.

2) beweist man analog.

VII.2 Orthogonalitat

In diesem Abschnitt fuhren wir das wichtige Konzept der Orthogonalitat ein.Die Definition lautet wie folgt.

Definition VII.2.1. Sei V ein reeller oder komplexer Vektorraum und sei〈·, ·〉 ein Skalarprodukt auf V . Seien v, w ∈ V . Man sagt, dass v senkrecht aufw steht (oder auch: v ist orthogonal zu w), falls 〈v, w〉 = 0 gilt. In Zeichen:v ⊥ w.

Fur einen reellen Vektorraum mit Skalarprodukt gilt mit unserer Defi-nition des Zwischenwinkels also v ⊥ w ⇔ ∠(v, w) = π/2 (was genau 90

entspricht).

Mit diesem abstrakten Begriff von Orthogonalitat erhalten wir auch eineabstrakte Version des Satzes von Pythagoras.

Satz VII.2.2 (Satz des Pythagoras). Sei V ein reeller oder komplexerVektorraum mit Skalarprodukt 〈·, ·〉. Seien v, w ∈ V mit v ⊥ w. Dann gilt‖v + w‖2 = ‖v‖2 + ‖w‖2.

Beweis. Es gilt

‖v + w‖2 = ‖v‖2 + 2Re(〈v, w〉) + ‖w‖2

(siehe den Beweis von Satz VII.1.8). Nach Voraussetzung ist aber 〈v, w〉 = 0,also folgt die Behauptung.

Als Nachstes definieren wir gleich noch den Begriff eines Orthonormal-systems.

Definition VII.2.3. Sei V ein reeller oder komplexer Vektorraum mitSkalarprodukt 〈·, ·〉. Seien v1, . . . , vn ∈ V . Wir sagen, dass (v1, . . . , vn) einOrthonormalsystem (kurz ONS) bildet, falls vi ⊥ vj fur alle i, j ∈ 1, . . . , nmit i 6= j und ‖vi‖ = 1 fur alle i = 1, . . . , n gilt.

120

Page 121: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

(v1, . . . , vn) ist also ein ONS, falls die Vektoren paarweise senkrecht auf-einander stehen und alle die Norm 1 haben. Das kann man auch aquivalentals 〈vi, vj〉 = δij fur alle i, j = 1, . . . , n ausdrucken.

Beispiele:1) (e1, . . . , en) bildet ein ONS im Rn bzgl. des euklidischen Skalarprodukts.2) Die Vektoren

v1 :=1√2

110

, v2 :=1√2

1−10

, v3 :=

001

bilden ein ONS im R3 bzgl. des euklidischen Skalarprodukts.

Eine einfache aber wichtige Beobachtung besteht nun darin, dass jedesONS automatisch linear unabhangig ist.

Lemma VII.2.4. Sei V ein reeller oder komplexer Vektorraum mit Skalar-produkt 〈·, ·〉 und sei (v1, . . . , vn) ein ONS in V . Dann ist (v1, . . . , vn) linearunabhangig.

Beweis. Seien λ1, . . . , λn Skalare mit∑n

i=1 λivi = 0. Dann gilt fur alle j =1, . . . , n:

0 =

⟨n∑i=1

λivi, vj

⟩=

n∑i=1

λi〈vi, vj〉 =n∑i=1

λiδij = λj .

Daraus ergibt sich sofort folgendes Korollar.

Korollar VII.2.5. Sei V ein reeller oder komplexer Vektorraum mit Skalar-produkt und sei dim(V ) = n. Ist (v1, . . . , vn) ein ONS in V , so ist (v1, . . . , vn)eine geordnete Basis von V .

In diesem Fall spricht man auch von einer Orthonormalbasis (kurz ONB).Zum Beispiel ist (e1, . . . , en) eine ONB des Rn bzgl. des euklidischen Skalar-produkts. Bezuglich einer ONB lassen sich die Koordinaten eines Vektorsleicht berechnen, namlich wie folgt.

Lemma VII.2.6. Sei V ein reeller oder komplexer Vektorraum mit Skalar-produkt 〈·, ·〉 und sei B = (v1, . . . , vn) eine ONB von V . Dann ist

KB(v) =

〈v, v1〉...〈v, vn〉

fur alle v ∈ V .

121

Page 122: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Sei KB(v) = (x1 . . . xn)T . Dann gilt v =∑n

i=1 xivi. Es folgt furalle j ∈ 1, . . . , n:

〈v, vj〉 =

⟨n∑i=1

xivi, vj

⟩=

n∑i=1

xi〈vi, vj〉 =

n∑i=1

xiδij = xj .

Noch wissen wir allerdings nicht, ob jeder endlich-dimensionale Vektor-raum mit Skalarprodukt wirklich eine ONB besitzt. Dies folgt jedoch ausdem folgenden Satz.

Satz VII.2.7. Sei V ein reeller oder komplexer Vektorraum mit Skalar-produkt 〈·, ·〉 und seien v1, . . . , vn ∈ V linear unabhangig. Dann existierenVektoren w1, . . . , wn ∈ V mit den folgenden beiden Eigenschaften:1) (w1, . . . , wn) ist ein ONS.2) Fur alle k ∈ 1, . . . , n gilt spanv1, . . . , vk = spanw1, . . . , wk.

Beweis. Wir konstruieren die Vektoren w1, . . . , wn induktiv. Zunachst setzenwir w1 := v1/‖v1‖ (das ist moglich, da wegen der linearen Unabhangigkeitv1 6= 0 gilt). Dann gilt naturlich ‖w1‖ = 1 und spanw1 = spanv1.Nun nehmen wir an, dass fur ein m ∈ 1, . . . , n− 1 die Vektoren w1, . . . , wmbereits wie gewunscht konstruiert sind, d. h. (w1, . . . , wm) ist ein ONS undspanw1, . . . , wk = spanv1, . . . , vk fur alle k = 1, . . . ,m.

Ware vm+1 =∑m

k=1〈vm+1, wk〉wk, so ware vm+1 ∈ spanw1, . . . , wm =spanv1, . . . , vm, was der linearen Unabhangigkeit von (v1, . . . , vn) wider-spricht. Also muss vm+1 6=

∑mk=1〈vm+1, wk〉wk gelten und somit konnen

wir

wm+1 :=vm+1 −

∑mk=1〈vm+1, wk〉wk

‖vm+1 −∑m

k=1〈vm+1, wk〉wk‖(VII.1)

setzen. Dann ist naturlich ‖wm+1‖ = 1 und bezeichnen wir den Nenner in(VII.1) kurz mit λ, so gilt fur alle i = 1, . . . ,m

〈wm+1, wi〉 =1

λ〈vm+1, wi〉 −

1

λ

⟨m∑k=1

〈vm+1, wk〉wk, wi

=1

λ〈vm+1, wi〉 −

1

λ

m∑k=1

〈vm+1, wk〉〈wk, wi〉

=1

λ〈vm+1, wi〉 −

1

λ

m∑k=1

〈vm+1, wk〉δik

=1

λ〈vm+1, wi〉 −

1

λ〈vm+1, wi〉 = 0.

Also ist (w1, . . . , wm+1) ein ONS.

122

Page 123: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Ferner gilt∑m

k=1〈vm+1, wk〉wk ∈ spanw1, . . . , wm = spanv1, . . . , vm undfolglich wm+1 ∈ spanv1, . . . , vm, vm+1. Es folgt spanw1, . . . , wm+1 ⊆spanv1, . . . , vm+1.Umgekehrt ist vm+1 = λwm+1 +

∑mk=1〈vm+1, wk〉wk ∈ spanw1, . . . , wm+1.

Damit folgt auch spanv1, . . . , vm+1 ⊆ spanw1, . . . , wm+1.

Das im obigen Beweis angewendete Verfahren zur Konstruktion der wknennt man auch das Gram-Schmidt-Orthonormalisierungsverfahren.3

Als Nachstes fuhren wir noch orthogonale Komplemente ein.

Definition VII.2.8. Sei V ein reeller oder komplexer Vektorraum mitSkalarprodukt 〈·, ·〉 und sei A ⊆ V . Dann heißt

A⊥ := v ∈ V : 〈v, a〉 = 0 ∀a ∈ A

das orthogonale Komplement von A.

A⊥ besteht also aus all jenen Vektoren, die auf der gesamten Menge Asenkrecht stehen. Als Ubung konnen Sie folgende Aussagen beweisen:1) A⊥ ist ein Unterraum von V .2) Es gilt A⊥ = (span(A))⊥.

Wichtig ist der folgende Zerlegungssatz.

Satz VII.2.9. Sei V ein reeller oder komplexer Vektorraum mit Skalarpro-dukt 〈·, ·〉 und sei U ⊆ V ein Unterraum. Es gelte dim(V ) < ∞. Dann istV = U ⊕ U⊥. Insbesondere ist dim(V ) = dim(U) + dim(U⊥).

Beweis. Die Aussage ist klar fur U = 0 (denn dann ist U⊥ = V ). Sei alsoU 6= 0 und sei (u1, . . . , uk) eine geordnete ONB von U .Ist v ∈ V , so setzen wir u :=

∑ki=1〈v, ui〉ui. Dann ist u ∈ U und fur alle

j = 1, . . . , k gilt

〈v − u, uj〉 = 〈v, uj〉 −k∑i=1

〈v, ui〉〈ui, uj〉 = 〈v, uj〉 −k∑i=1

〈v, ui〉δij

= 〈v, uj〉 − 〈v, uj〉 = 0.

Also ist v − u ∈ u1, . . . , uk⊥ = (spanu1, . . . , uk)⊥ = U⊥ und es folgtv = u+ v − u ∈ U + U⊥.Also ist V = U + U⊥.Ist ferner v ∈ U∩U⊥, so folgt 〈v, v〉 = 0 und somit v = 0, also ist U∩U⊥ = 0und es gilt V = U ⊕ U⊥.Wegen Lemma IV.3.18 folgt daraus dim(V ) = dim(U) + dim(U⊥).

3Benannt nach dem danischen Mathematiker Jørgen Pedersen Gram (1850–1916) unddem deutschen Mathematiker Erhard Schmidt (1876–1959).

123

Page 124: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

VIII Eigenwerttheorie

In diesem Kapitel befassen wir uns mit sogenannten Eigenwertproblemen.Diese haben vielfaltige Anwendungen z. B. in der Physik (etwa bei derBestimmung der Eigenfrequenzen eines schwingungsfahigen mechanischenSystems), aber auch in anderen Bereichen (beispielsweise beim PageRank-Algorithmus von Google, siehe Abschnitt VIII.3).

VIII.1 Eigenwerte und Eigenvektoren

Die Eigenwerte einer Matrix sind wie folgt definiert.

Definition VIII.1.1. Sei K = R oder C und sei A ∈ M(n × n,K). EineZahl λ ∈ K heißt ein Eigenwert von A, falls es ein x ∈ Kn \ 0 mit Ax = λxgibt. In diesem Fall heißt x ein Eigenvektor von A zum Eigenwert λ.

Es geht bei Eigenwertproblemen also darum, einen von Null verschiedenenVektor zu finden, der von der Matrix A wieder auf ein Vielfaches von sichselbst abgebildet wird.

Beispiel:Seien

A :=

(2 14 −1

)und x :=

(11

).

Dann gilt

Ax =

(2 14 −1

)(11

)=

(33

)= 3x.

Also ist 3 ein Eigenwert von A und x ist ein zugehoriger Eigenvektor.

Zur systematischen Bestimmung samtlicher Eigenwerte einer Matrixverwendet man in der Regel das sogenannte charakteristische Polynom.

Definition VIII.1.2. Sei K = R oder C und sei A ∈M(n× n,K). Setze

χA(λ) := det(A− λEn) ∀λ ∈ K.

Die Funktion χA nennt man das charakteristische Polynom von A.

124

Page 125: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Um die Bezeichnung “charakteristisches Polynom” zu rechtfertigen, mussman naturlich noch zeigen, dass es sich bei χA wirklich um ein Polynomhandelt. Das besagt Teil 1) des folgenden Lemmas. Der zweite, entscheidendeTeil besagt, dass die Nullstellen von χA genau die Eigenwerte von A sind.

Lemma VIII.1.3. Sei K = R oder C und sei A = (aij)n,ni,j=1 ∈M(n×n,K).

Dann gilt:1) χA ist ein Polynom n-ten Grades.2) Eine Zahl λ ∈ K ist ein Eigenwert von A genau dann, wenn χA(λ) = 0gilt.

Beweis. 1) Fur alle σ ∈ Sn und alle λ ∈ K sei

pσ(λ) := sign(σ)

n∏i=1

(aiσ(i) − λδiσ(i)).

Dann gilt

χA(λ) = det(A− λEn) =∑σ∈Sn

pσ(λ).

pid ist als Produkt von n Polynomen ersten Grades ein Polynom vom Grad n.Fur alle σ ∈ Sn \ id existiert mindestens ein i ∈ 1, . . . , n mit δiσ(i) = 0,so dass pσ ein Polynom vom Grad≤ n− 1 ist.Insgesamt ist also χA als Summe der pσ ein Polynom vom Grad n.2) Sei λ ∈ K. Die Gleichung Ax = λx ist aquivalent zu (A−λEn)x = 0. NachSatz VI.2.4 besitzt diese eine nichttriviale Losung (d. h. λ ist ein Eigenwertvon A) genau dann, wenn χA(λ) = det(A− λEn) = 0 gilt.

Aus diesem Lemma folgt insbesondere, dass eine n×n-Matrix A hochstensn verschiedene Eigenwerte besitzen kann, denn ein Polynom n-ten Gradeshat hochstens n paarweise verschiedene Nullstellen.

Beispiel: Sei wieder

A :=

(2 14 −1

).

Wir hatten oben schon gesehen, dass 3 ein Eigenwert von A ist. Das charak-teristische Polynom von A ist

χA(λ) =

∣∣∣∣2− λ 14 −1− λ

∣∣∣∣ = (2− λ)(−1− λ)− 4

= −2− 2λ+ λ+ λ2 − 4 = λ2 − λ− 6.

Dieses quadratische Polynom hat die beiden Nullstellen

λ1/2 =1

2±√

1

4+ 6 =

1

2±√

25

4=

1

2± 5

2,

125

Page 126: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

also λ1 = 3 und λ2 = −2. Dies sind die Eigenwerte von A.

Als Nachstes definieren wir noch den zu einem Eigenwert gehorigen Ei-genraum.

Definition VIII.1.4. Sei K = R oder C und sei A ∈M(n×n,K). Ist λ ∈ Kein Eigenwert von A, so setzen wir

EA(λ) := x ∈ Kn : Ax = λx = x ∈ Kn : (A− λEn)x = 0 = L(A−λEn).

EA(λ) heißt der Eigenraum von A zum Eigenwert λ. Weiter heißt gA(λ) :=dim(EA(λ)) die geometrische Vielfachheit des Eigenwertes λ von A.

EA(λ) besteht also aus allen Eigenvektoren von A zum Eigenwert λzuzuglich des Nullvektors. Hat man einen Eigenwert λ von A bestimmt, sokann man den zugehorigen Eigenraum als Losungsmenge des homogenenlinearen Gleichungssystems (A − λEn)x = 0 wie gewohnt mit Hilfe desGaußschen Algorithmus bestimmen.

Bevor wir fortfahren konnen, benotigen wir noch einen kurzen Einschububer Polynome (einige Beweise finden sich im Anhang): Die Menge allerPolynome p : K → K bezeichnen wir mit K[x] (wobei wieder K = R oderC ist). Sei nun p ∈ K[x] ein nicht konstantes Polynom. Eine Zahl a ∈ Kist eine Nullstelle von p genau dann, wenn es ein Polynom q ∈ K[x] mitp(x) = q(x)(x− a) fur alle x ∈ K gibt.

Ist a eine Nullstelle von p, so heißt

k(a, p) := maxk ∈ N : ∃q ∈ K[x] ∀x ∈ K p(x) = q(x)(x− a)k

die Vielfachheit von a als Nullstelle von p.

Man sagt, p zerfalle uber K in Linearfaktoren, falls es paarweise ver-schiedene Zahlen a1, . . . , am ∈ K, sowie k1, . . . , km ∈ N und a ∈ K gibt, sodass

p(x) = a(x− a1)k1 . . . (x− am)km ∀x ∈ K

gilt. In diesem Fall sind a1, . . . , am naturlich genau die Nullstellen von p undes gilt k(ai, p) = ki fur alle i = 1, . . . ,m.

Nicht jedes reelle Polynom zerfallt uber R in Linearfaktoren, z. B. hatp(x) := x2+1 keine reelle Nullstelle. Hingegen besagt der Fundamentalsatz derAlgebra, dass jedes nicht konstante Polynom p ∈ C[x] uber C in Linearfaktorenzerfallt (z. B. ist z2+1 = (z+i)(z−i) fur alle z ∈ C). Dieser Satz ist allerdingsziemlich tiefliegend und soll in dieser Vorlesung nicht bewiesen werden.

Nun kehren wir zur Thematik der Eigenwerte zuruck und geben zunachstfolgende Definition an.

Definition VIII.1.5. Sei K = R oder C und sei A ∈M(n×n,K). Ist λ ∈ Kein Eigenwert von A, so heißt kA(λ) := k(λ, χA) die algebraische Vielfachheitvon λ als Eigenwert von A.

126

Page 127: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Die algebraische Vielfachheit eines Eigenwertes ist also seine Vielfachheitals Nullstelle des charakteristischen Polynoms, seine geometrische Vielfachheitist die Dimension des zugehorigen Eigenraumes. Das folgende Lemma stellteinen Zusammenhang zwischen beiden Vielfachheiten her.

Lemma VIII.1.6. Sei K = R oder C, sei A ∈M(n× n,K) und sei λ ∈ Kein Eigenwert von A. Dann gilt gA(λ) ≤ kA(λ).

Beweis. Sei l := gA(λ) = dim(EA(λ)). Sei (x1, . . . , xl) eine geordnete Basisvon EA(λ). Nach dem Basiserganzungssatz gibt es Vektoren xl+1, . . . , xn ∈Kn, so dass B := (x1, . . . , xl, xl+1, . . . , xn) eine geordnete Basis des Kn bildet.Es sei A := (e1, . . . , en) die kanonische Basis des Kn und T := TAB diezugehorige Basiswechselmatrix. Dann ist T invertierbar mit T−1 = TBA . SetzeB := TAT−1.Dann gilt B = TABMA(FA)TBA =MB(FA).Die i-te Spalte von MB(FA) ist KB(FA(xi)) = KB(Axi) = KB(λxi) = λeifur alle i = 1, . . . , l, denn xi ist jeweils ein Eigenvektor von A zum Eigenwertλ. Damit hat also B die Form

B =

(λEl B1

0 B2

)fur gewisse Matrizen B1 ∈M(l× (n− l),K) und B2 ∈M((n− l)× (n− l),K).Mit Hilfe von Satz VI.2.8 folgt

χB(t) = det

((λ− t)El B1

0 B2 − tEn−l

)= det((λ− t)El)det(B2 − tEn−l)

= (λ− t)lχB2(t) = (−1)l(t− λ)lχB2(t)

fur alle t ∈ K.Andererseits gilt aber wegen des Determinantenmultiplikationssatzes

χB(t) = det(B − tEn) = det(TAT−1 − tEn) = det(T (A− tEn)T−1)

= det(T )det(A− tEn)det(T−1) = det(TT−1)χA(t)

= det(En)χA(t) = χA(t)

fur alle t ∈ K.Also ist χA(t) = (−1)l(t − λ)lχB2(t) fur alle t ∈ K und daher gilt fur diealgebraische Vielfachheit kA(λ) ≥ l = gA(λ).

Als Nachstes zeigen wir noch, dass Eigenvektoren zu paarweise verschie-denen Eigenwerten stets linear unabhangig sind.

Lemma VIII.1.7. Sei K = R oder C und sei A ∈ M(n × n,K). Sindλ1, . . . , λm ∈ K paarweise verschiedene Eigenwerte von A und ist xi ∈ Kn einEigenvektor von A zum Eigenwert λi fur alle i = 1, . . . ,m, so ist (x1, . . . , xm)linear unabhangig.

127

Page 128: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Wir argumentieren mittels vollstandiger Induktion nach m. Furm = 1 ist nur zu bemerken, dass x1 als Eigenvektor von Null verschiedenund somit linear unabhangig ist.Angenommen nun die Behauptung gilt fur m paarweise verschiedene Eigen-werte λ1, . . . , λm und es sei λm+1 ein weiterer Eigenwert mit λm+1 6= λi furalle i = 1, . . . ,m. Sei xi ein Eigenvektor von A zum Eigenwert λi fur allei = 1, . . . ,m+ 1.Seien α1, . . . , αm+1 ∈ K mit

∑m+1i=1 αixi = 0. Es folgt

m∑i=1

αi(λm+1 − λi)xi = λm+1

m∑i=1

αixi −m∑i=1

αiλixi

= −λm+1αm+1xm+1 −m∑i=1

αiAxi = −λm+1αm+1xm+1 −A

(m∑i=1

αixi

)= −λm+1αm+1xm+1 −A(−αm+1xm+1)

= −λm+1αm+1xm+1 + λm+1αm+1xm+1 = 0.

Da nach Induktionsvoraussetzung (x1, . . . , xm) linear unabhangig ist, folgtαi(λm+1 − λi) = 0 fur alle i = 1, . . . ,m. Wegen λm+1 6= λi impliziert dasαi = 0 fur alle i = 1, . . . ,m.Aus

∑m+1i=1 αixi = 0 folgt damit αm+1xm+1 = 0 und wegen xm+1 6= 0 muss

also auch αm+1 = 0 gelten.

VIII.2 Diagonalisierbarkeit

In diesem Abschnitt geht es um Diagonalisierbarkeit von Matrizen, d. h. manmochte eine gegebene Matrix auf eine moglichst einfache Form, namlich aufDiagonalform, bringen. Dazu fuhren wir zunachst den Begriff der Ahnlichkeitzweier Matrizen ein.

Definition VIII.2.1. Sei K = R oder C und seien A,B ∈M(n× n,K). Aheißt ahnlich zu B (in Zeichen: A ∼ B), falls es eine invertierbare MatrixT ∈M(n× n,K) mit TAT−1 = B gibt.

Als Ubung konnen Sie beweisen, dass es sich bei der Aihnlichkeit um eineAquivalenzrelation auf der Menge M(n× n,K) handelt.

Diagonalisierbarkeit wird nun einfach definiert als Ahnlichkeit zu einerDiagonalmatrix.

Definition VIII.2.2. Sei K = R oder C. Eine Matrix A ∈ M(n × n,K)heißt diagonalisierbar, falls es eine Diagonalmatrix D mit A ∼ D gibt.

Zuerst zeigen wir nun das folgende Lemma.

Lemma VIII.2.3. Sei K = R oder C und sei A ∈M(n× n,K). Dann gilt:A ist diagonalisierbar genau dann, wenn es eine Basis des Kn gibt, die ausEigenvektoren von A besteht.

128

Page 129: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. 1) Sei zunachst A diagonalisierbar. Dann existieren eine invertierbareMatrix T und µ1, . . . , µn ∈ K mit

Es folgt µiei = Dei = (TAT−1)ei und somit µiT−1ei = A(T−1ei), d. h. µi

ist ein Eigenwert von A und T−1ei ein zugehoriger Eigenvektor (fur allei = 1, . . . , n).

Da T−1 invertierbar ist, gilt Rang(T−1) = n und somit sind die SpaltenT−1e1, . . . , T

−1en von T−1 linear unabhangig, d. h. sie bilden eine Basis desKn, die aus Eigenvektoren von A besteht.

2) Nehmen wir nun umgekehrt an es gibt eine Basis B = (b1, . . . , bn) desKn aus Eigenvektoren von A. Fur alle i = 1, . . . , n sei µi der zu bi gehorigeEigenwert von A. Ferner sei A = (e1, . . . , en) die kanonische Basis des Kn

und T := TAB die Basiswechselmatrix.

T ist invertierbar mit T−1 = TBA und es gilt TAT−1 = TABMA(FA)TBA =MB(FA).

Die i-te Spalte von MB(FA) ist KB(FA(bi)) = KB(Abi) = KB(µibi) = µiei(fur alle i = 1, . . . , n), also gilt

TAT−1 =MB(FA) =

µ1 0 . . . 00 µ2 . . . 0...

......

...0 0 . . . µn

.

Nun kommen wir zum Hauptkriterium fur Diagonalisierbarkeit.

Satz VIII.2.4. Sei K = R oder C und sei A ∈ M(n × n,K). Dann gilt:A ist diagonalisierbar genau dann, wenn das charakteristische Polynom χAuber K in Linearfaktoren zerfallt und gA(λ) = kA(λ) fur alle Eigenwerte λvon A gilt.

Beweis. 1) Nehmen wir zunachst an A sei diagonalisierbar. Dann existiereneine invertierbare Matrix T und µ1, . . . , µn ∈ K mit

TAT−1 =

µ1 0 . . . 00 µ2 . . . 0...

......

...0 0 . . . µn

=: D

Es sei m die Anzahl der Elemente von µ1, . . . , µn und λ1, . . . , λm =µ1, . . . , µn. Fur alle i ∈ 1, . . . ,m sei Ji := j ∈ 1, . . . , n : µj = λi undki die Anzahl der Elemente von Ji. D. h. in der Folge µ1, . . . , µn kommt derWert λi genau ki mal vor.

129

Page 130: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Eine analoge Rechnung wie im Beweis von Lemma VIII.1.6 zeigt χA = χD.Es folgt

χA(t) =

∣∣∣∣∣∣∣∣∣µ1 − t 0 . . . 0

0 µ2 − t . . . 0...

......

...0 0 . . . µn − t

∣∣∣∣∣∣∣∣∣ = (µ1 − t)(µ2 − t) . . . (µn − t)

= (−1)n(t− µ1)(t− µ2) . . . (t− µn) = (−1)n(t− λ1)k1 . . . (t− λm)km

fur alle t ∈ K. Das charakteristische Polynom von A zerfallt also in Linearfak-toren, die Eigenwerte von A sind genau λ1, . . . , λm und fur die algebraischenVielfachheiten gilt kA(λi) = ki fur i = 1, . . . ,m.Sei nun i ∈ 1, . . . ,m beliebig und x ∈ Kn beliebig. Dann gilt

Dx = λix ⇔ T−1Dx = λiT−1x ⇔ AT−1x = λiT

−1x.

Es folgt Ui := L(D − λiEn) =x ∈ Kn : T−1x ∈ EA(λi)

. Daher ist die Ab-

bildung ψi : EA(λi)→ Ui mit ψi(y) := Ty fur y ∈ EA(λi) ein Isomorphismus.Folglich gilt gA(λi) = dim(EA(λi)) = dim(Ui).Ferner gilt fur alle x = (x1 . . . xn)T ∈ Kn

x ∈ Ui ⇔ Dx = λix ⇔

µ1x1...

µnxn

=

λix1...

λixn

⇔ µjxj = λixj ∀j = 1, . . . , n ⇔ xj = 0 ∀j ∈ 1, . . . , n \ Ji⇔ x ∈ spanej : j ∈ Ji.

Es gilt also Ui = spanej : j ∈ Ji und daher gA(λi) = dim(Ui) = ki =kA(λi).2) Nehmen wir nun umgekehrt an, dass das charakteristische Polynom inLinearfaktoren zerfallt, etwa

χA(t) = (−1)n(t− λ1)k1 . . . (t− λm)km ,

wobei k1, . . . , km ∈ N und λ1, . . . , λm ∈ K paarweise verschieden sein sollen.Weiterhin nehmen wir gA(λi) = kA(λi) = ki fur alle i = 1, . . . ,m an.

Fur alle i = 1, . . . ,m sei (b(i)1 , . . . , b

(i)ki

) eine geordnete Basis von EA(λi).Da χA den Grad n hat, gilt

∑mi=1 ki = n. Es sei

(b1, . . . , bn) := (b(1)1 , . . . , b

(1)k1, b

(2)1 , . . . , b

(2)k2, . . . , b

(m)1 , . . . , b

(m)km

).

Wir wollen zeigen, dass (b1, . . . , bn) linear unabhangig ist.

Seien dazu α(1)1 , . . . , α

(1)k1, α

(2)1 , . . . , α

(2)k2, . . . , α

(m)1 , . . . , α

(m)km∈ K mit

m∑i=1

ki∑j=1

α(i)j b

(i)j = 0.

130

Page 131: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Sei vi :=∑ki

j=1 α(i)j b

(i)j fur alle i = 1, . . . ,m. Dann gilt vi ∈ EA(λi) fur alle

i = 1, . . . ,m und∑m

i=1 vi = 0.

Da Eigenvektoren zu paarweise verschiedenen Eigenwerten linear unabhangigsind (Lemma VIII.1.7), folgt daraus vi = 0 fur alle i = 1, . . . ,m.

Also ist∑ki

j=1 α(i)j b

(i)j = 0 und somit (da (b

(i)1 , . . . , b

(i)ki

) linear unabhangig ist)

α(i)j = 0 fur alle j = 1, . . . , ki und alle i = 1, . . . ,m. Das zeigt die lineare

Unabhangigkeit von (b1, . . . , bn).

Somit ist (b1, . . . , bn) also eine geordnete Basis des Kn, die aus Eigenvektorenvon A besteht. Nach Lemma VIII.2.3 ist A also diagonalisierbar.

Beispiele:1) Sei

A :=

1 1 00 1 00 0 2

.

Da A eine obere Dreiecksmatrix ist, folgt fur das charakteristische Polynomleicht χA(t) = −(t− 1)2(t− 2). Die Eigenwerte von A sind also 1 und 2 mitden algebraischen Vielfachheiten kA(1) = 2 und kA(2) = 1.Mit Hilfe des Gaußschen Algorithmus bestimmt man die zugehorigen Ei-genraume zu EA(1) = spane1 und EA(2) = spane3. Also gilt gA(2) =1 = kA(2) und gA(1) = 1 < 2 = kA(1). Nach dem obigen Satz ist also A nichtdiagonalisierbar.2) Sei

B :=

1 0 −10 1 00 0 2

.

Fur das charakteristische Polynom ergibt sich wieder χB(t) = −(t−1)2(t−2),die Eigenwerte sind also wieder 1 und 2 mit den algebraischen VielfachheitenkB(1) = 2 und kB(2) = 1.Mit dem Gaußschen Algorithmus bestimmt man die Eigenraume zu EB(1) =spane1, e2 und EB(2) = spane1 − e3. Also ist gB(1) = 2 = kB(1) undgB(2) = 1 = kB(2). Daher ist nach dem obigen Satz B diagonalisierbar.Eine Basis des R3 aus Eigenvektoren von B erhalt man, indem man Basender einzelnen Eigenraume wahlt und diese zusammenfugt (vgl. den Beweisdes obigen Satzes). Also ist B := (e1, e2, e1 − e3) eine geordnete Basis des R3

aus Eigenvektoren von B.Sei T := TAB , wobei A die kanonische Basis des R3 bezeichnet. Dann gilt

TAT−1 =MB(FA) =

1 0 00 1 00 0 2

.

131

Page 132: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Da A die kanonische Basis ist, ist

T−1 = TBA =

1 0 10 1 00 0 −1

.

Durch Inversenbildung mit dem Gaußschen Algorithmus erhalt man

T = (T−1)−1 =

1 0 10 1 00 0 −1

= T−1.

Als Nachstes wollen wir uns noch speziell mit der Diagonalisierbarkeit von so-genannten symmetrischen/hermiteschen Matrizen befassen. Hierzu zunachstdie Definition.

Definition VIII.2.5. Sei n ∈ N.1) Eine Matrix A ∈M(n× n,R) heißt symmetrisch, falls A = AT gilt.

2) Eine Matrix A ∈M(n× n,C) heißt hermitesch, falls A = AT

gilt.Anstelle von symmetrisch oder hermitesch sagt man auch, die Matrix A seiselbstadjungiert.

Selbstadjungierte Matrizen lassen sich wie folgt charakterisieren.

Lemma VIII.2.6. Sei K = R oder C und sei A ∈ M(n × n,K). Sei 〈·, ·〉das kanonische Skalarprodukt auf Kn. Sei A ∈M(n× n,K). Dann gilt: A istselbstadjungiert genau dann, wenn 〈Ax, y〉 = 〈x,Ay〉 fur alle x, y ∈ Kn gilt.

Beweis. Sei A∗ := AT , falls K = R bzw. A∗ := AT

, falls K = C. IstA selbstadjungiert, so ist A∗ = A und aus Lemma VII.1.10 folgt daher〈Ax, y〉 = 〈x,Ay〉 fur alle x, y ∈ Kn.Gilt umgekehrt 〈Ax, y〉 = 〈x,Ay〉 fur alle x, y ∈ Kn, so folgt aus LemmaVII.1.10 〈x,Ay〉 = 〈x,A∗y〉, also 〈x, (A − A∗)y〉 = 0 fur alle x, y ∈ Kn.Insbesondere ist ‖(A − A∗)y‖2 = 〈(A − A∗)y, (A − A∗)y〉 = 0 und somit(A−A∗)y = 0 fur alle y ∈ Kn.Also ist (A−A∗)ei = 0 fur alle i = 1, . . . , n. (A−A∗)ei ist aber gerade diei-te Spalte von A−A∗. Also ist A = A∗, d. h. A ist selbstadjungiert.

Als Nachstes beobachten wir, dass samtliche Eigenwerte einer hermite-schen Matrix reell sein mussen.

Lemma VIII.2.7. Sei A ∈ M(n × n,C) hermitesch und λ ∈ C sei einEigenwert von A. Dann ist λ ∈ R.

Beweis. Sei x ∈ Cn mit Ax = λx und x 6= 0. Da A hermitesch ist, folgt

λ‖x‖2 = λ〈x, x〉 = 〈λx, x〉 = 〈Ax, x〉 = 〈x,Ax〉 = 〈x, λx〉 = λ〈x, x〉 = λ‖x‖2.

Wegen x 6= 0 ist ‖x‖2 > 0 und es folgt λ = λ, also λ ∈ R.

132

Page 133: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Es folgt die wichtige Erkenntnis, dass die Eigenvektoren zu paarweiseverschiedenen Eigenwerten einer selbstadjungierten Matrix senkrecht aufein-ander stehen.

Lemma VIII.2.8. Sei K = R oder C und sei A ∈ M(n × n,K) selbst-adjungiert. Seien λ und µ Eigenwerte von A mit λ 6= µ. Sei x ∈ Kn einEigenvektor von A zum Eigenwert λ und sei y ∈ Kn ein Eigenvektor von Azum Eigenwert µ. Dann gilt x ⊥ y (bzgl. des kanonischen Skalarprodukts aufKn).

Beweis. Wegen der Selbstadjungiertheit von A gilt

λ〈x, y〉 = 〈λx, y〉 = 〈Ax, y〉 = 〈x,Ay〉 = 〈x, µy〉 = µ〈x, y〉,

wobei wir im letzten Schritt µ ∈ R ausgenutzt haben.Wegen λ 6= µ folgt aus der obigen Gleichung 〈x, y〉 = 0.

Als Nachstes definieren wir noch orthogonale und unitare Matrizen.

Definition VIII.2.9. Fur n ∈ N sei

O(n) :=A ∈M(n× n,R) : A ist invertierbar mit A−1 = AT

und

U(n) :=A ∈M(n× n,C) : A ist invertierbar mit A−1 = A

T.

Die Elemente von O(n) heißen orthogonale Matrizen, die Elemente von U(n)nennt man unitare Matrizen.

Es ist leicht zu zeigen, dass O(n) und U(n) jeweils bzgl. der Matrix-multiplikation eine Gruppe bilden, die sogenannte orthogonale bzw. unitareGruppe.

Ist A ∈M(n×n,R) und bezeichnen wir die Spalten von A mit a1, . . . , anund die Zeilen mit z1, . . . , zn, so gilt:

A ∈ O(n) ⇔ 〈ai, aj〉 = δij ∀i, j = 1, . . . , n ⇔ 〈zi, zj〉 = δij ∀i, j = 1, . . . , n

(Beweis als Ubung). A ist also genau dann eine orthogonale Matrix, wennihre Spalten (bzw. Zeilen) eine Orthonormalbasis des Rn bzgl. des euklidi-schen Skalarprodukts bilden. Eine analoge Charakterisierung gilt fur unitareMatrizen.

Nun kommen wir zum entscheidenden Satz uber die Diagonalisierbarkeitselbstadjungierter Matrizen, dem sogenannten Satz von der Hauptachsen-transformation.

Satz VIII.2.10 (Satz von der Hauptachsentransformation). Sei K = R oderC und sei A ∈M(n× n,K) selbstadjungiert. Dann existiert eine Orthonor-malbasis des Kn (bzgl. des Standardskalarprodukts), die aus Eigenvektorenvon A besteht. Insbesondere ist A diagonalisierbar.

133

Page 134: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Beweis. Wir wollen zunachst argumentieren, dass A mindestens einen Ei-genwert besitzt. Im Falle K = C ist das wegen des Fundamentalsatzes derAlgebra klar: Das charakteristische Polynom χA muss eine Nullstelle inC haben. Wegen Lemma VIII.2.7 muss diese aber sogar in R liegen. ImFalle K = R konnen wir A auch kunstlich als eine hermitesche Matrix inM(n × n,C) auffassen, deren Eintrage nur “zufallig” alle reell sind. Dannargumentiert man wie eben, dass χA eine reelle Nullstelle, also A einen reellenEigenwert besitzt.Nun zeigen wir die eigentliche Behauptung des Satzes durch vollstandigeInduktion nach n. Fur n = 1 ist die Aussage klar.Angenommen nun die Behauptung stimmt fur selbstadjungierte Matrizenvom Format n×n und es ist A eine selbstadjungierte (n+1)× (n+1)-Matrix.Wie eben gezeigt, existiert ein reeller Eigenwert λ von A. Es sei x0 ∈ Kn+1

ein Eigenvektor von A zum Eigenwert λ. Indem man ggf. x0 durch x0/‖x0‖ersetzt, kann man ‖x0‖ = 1 annehmen.Wir setzen U := spanx0 und

W :=x ∈ Kn+1 : 〈x, x0〉 = 0

= U⊥.

Aus Satz VII.2.9 folgt dim(W ) = n+ 1−dim(U) = n. Es sei B = (b1, . . . , bn)eine geordnete ONB von W .Ist x ∈W , so folgt wegen der Selbstadjungiertheit von A und Ax0 = λx0

〈Ax, x0〉 = 〈x,Ax0〉 = 〈x, λx0〉 = λ〈x, x0〉 = 0,

also ist auch Ax ∈W .Daher ist die Abbildung G : W → W mit G(x) := Ax fur alle x ∈ Wwohldefiniert und naturlich ist G linear.Es sei B :=MB(G) ∈M(n× n,K).Als Nachstes machen wir folgende Beobachtung: Es gilt

〈x, y〉 = 〈ΦB(x),ΦB(y)〉 ∀x, y ∈ Kn. (VIII.1)

Beweis dazu: Fur x = (x1 . . . xn)T und y = (y1 . . . yn)T gilt

〈ΦB(x),ΦB(y)〉 =

⟨n∑i=1

xibi,

n∑j=1

yjbj

=

n∑i=1

n∑j=1

xiyj〈bi, bj〉 =n∑i=1

n∑j=1

xiyjδij

=

n∑i=1

xiyi = 〈x, y〉.

Sind nun v, w ∈ Kn, so gilt mit a := ΦB(v) und b := ΦB(w)

〈Bv,w〉 = 〈MB(G)KB(a),KB(b)〉 = 〈KB(G(a)),KB(b)〉 = 〈G(a), b〉,

134

Page 135: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

wobei wir im letzten Schritt (VIII.1) benutzt haben. Es folgt

〈Bv,w〉 = 〈Aa, b〉 = 〈a,Ab〉 = 〈a,G(b)〉 = 〈KB(a),KB(G(b))〉= 〈KB(a),MB(G)KB(b)〉 = 〈v,Bw〉,

wobei wir die Selbstadjungiertheit von A und erneut (VIII.1) ausgenutzthaben.

Also it B selbstadjungiert und somit existiert nach Induktionsvoraussetzungeine geordnete ONB A = (a1, . . . , an) des Kn, die aus Eigenvektoren von Bbesteht. Sei λi der zu ai gehorige Eigenwert von B fur alle i = 1, . . . , n.

Wir setzen xi := ΦB(ai) ∈W fur alle i = 1, . . . , n.

Es folgt KB(G(xi)) =MB(G)KB(xi) = Bai = λiai = λiKB(xi), also Axi =G(xi) = λixi, d. h. xi ist ein Eigenvektor von A fur alle i = 1, . . . , n.

Ferner gilt wegen (VIII.1) auch 〈xi, xj〉 = 〈ai, aj〉 = δij fur alle i, j = 1, . . . , n.

Außerdem ist x0 ein Eigenvektor von A mit ‖x0‖ = 1 und wegen x1, . . . , xn ∈W gilt 〈xi, x0〉 = 0 fur alle i = 1, . . . , n. Also ist (x0, x1, . . . , xn) eine ONBdes Kn+1, die aus Eigenvektoren von A besteht.

Als Korollar erhalt man folgendes Resultat.

Korollar VIII.2.11. Ist A eine symmetrische bzw. hermitesche (n × n)-Matrix, so existieren eine Diagonalmatrix D und eine Matrix T ∈ O(n) bzw.T ∈ U(n) mit TAT−1 = D.

Beweis. Nach dem Satz uber die Hauptachsentransformation gibt es einegeordnete ONB B = (b1, . . . , bn) des Kn, die aus Eigenvektoren von A besteht.Es sei A = (e1, . . . , en) die kanonische Basis des Kn und T := TAB . Dann istTAT−1 = TAB AT

BA =MB(FA) =: D eine Diagonalmatrix.

Ferner sind die Spalten von T−1 = TBA gerade die Vektoren b1, . . . , bn, dieeine ONB des Kn bilden. Also ist T−1 und damit auch T eine orthogonalebzw. unitare Matrix.

VIII.3 Anwendung: Der PageRank

In diesem letzten Abschnitt wollen wir eine Anwendung der Eigenwerttheoriediskutieren, den sogenannten PageRank, den die Google-Grunder Sergei Brinund Larry Page zur Bewertung der Relevanz von Internetseiten bei der Sucheim Web eingefuhrt haben.1

Es bezeichne N die Gesamtzahl aller Webseiten im Internet (die von1, . . . , N durchnummeriert werden). Es bezeichne weiter cj die Anzahl dervon Seite j ausgehenden Links. Ist cj > 0, so setzen wir aij := 1/cj , falls eseinen Link von Seite j auf Seite i gibt und aij = 0, falls das nicht der Fall ist.

1Die Originalpublikation ist: S. Brin, L. Page, The Anatomy of a Large-Scale HypertextualWeb Search Engine, Computer Networks and ISDN Systems 30, 107–117 (1998).

135

Page 136: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Ist cj = 0, so setzen wir aij = 1/N fur alle i = 1, . . . , N . Außerdem fixierenwir noch eine Zahl 0 < d < 1.

Nun betrachten wir ein Modell eines Zufallssurfers, der bei einer beliebiggewahlten Webseite startet und sich gemaß des folgenden Prinzips zufalligvon Seite zu Seite weiter klickt. Befindet sich der Surfer gerade auf Seitej, so fuhrt er mit Wahrscheinlichkeit d folgenden Schritt aus: Falls es min-destens einen von Seite j ausgehenden Link gibt (d. h. cj > 0), so wahlt erzufallig einen dieser Links aus und klickt zur entsprechenden Seite weiter.Die Wahrscheinlichkeit, dass er dabei auf Seite i landet ist gerade aij . Fallses keinen von Seite j ausgehenden Link gibt (cj = 0), so gibt er zufallig eineneue Webaddresse in der Browserleiste ein. Die Wahrscheinlichkeit, dass erdabei auf Seite i gelangt ist gerade 1/N = aij .

Mit Wahrscheinlichkeit 1 − d gibt er dagegen direkt zufallig eine neueWebaddresse ein, unabhangig davon, ob es von Seite j ausgehende Links gibtoder nicht. Die Wahrscheinlichkeit, dabei auf Seite i zu landen ist wieder1/N .

Dieses wahrscheinlichkeitstheoretische Modell ist ein Beispiel fur einesogenannte Markov-Kette (die genaue Definition einer solchen wollen wir hiernicht extra anfuhren).

Jeder Seite soll nun eine gewisse positive Zahl, ihr PageRank, zugeordnetwerden. Wir bezeichnen die PageRanks der Seiten 1, . . . , N mit p1, . . . , pN .Diese Zahlen sollen eine stationare Verteilung fur die obige Markov-Kettebilden, d. h. es soll

∑Nj=1 pj = 1 und

pi =N∑j=1

(daij + (1− d)/N)pj ∀i = 1, . . . , N (VIII.2)

gelten.

Setzt man

Gij =1− dN

+ daij

fur alle i, j = 1, . . . , N , G = (Gij)N,Ni,j=1 und p = (p1 . . . pn)T , so ist (VIII.2)

aquivalent zu Gp = p. Es handelt sich also um ein Eigenwertproblem furdie Matrix G (die sogenannte Google-Matrix). Der Parameter d wird auchDampfungsfaktor genannt. Typischerweise setzt man d = 0, 85 (wir werdenunten sehen, wo wir die Voraussetzung d < 1 brauchen).

Wir suchen also einen Eigenvektor fur die Matrix G zum Eigenwert 1,der die zusatzlichen Bedingungen erfullt, dass alle seine Koordinaten positivsind und sich zu 1 aufsummieren.

Um zu beweisen, dass dieses Problem tatsachlich eine eindeutige Losungbesitzt, ist folgende Eigenschaft der Matrix G entscheidend: G ist einestrikt positive, spaltenstochastische Matrix, d. h. es gilt Gij > 0 fur alle

i, j = 1, . . . , N und∑N

i=1Gij = 1 fur alle j = 1, . . . , N .

136

Page 137: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Das sieht man wie folgt ein: Zunachst gilt (wegen d > 0 und aij ≥ 0)Gij ≥ (1− d)/N > 0 (hier brauchen wir d < 1).

Weiter gilt fur j ∈ 1, . . . , N

N∑i=1

Gij =N∑i=1

((1− d)/N + daij) =N∑i=1

(1− d)/N + dN∑i=1

aij

= N(1− d)/N + dN∑i=1

aij = 1− d+ dN∑i=1

aij .

Ist cj > 0, so gilt∑N

i=1 aij =∑

i∈Lj1/cj , wobei Lj die Menge aller i ∈

1, . . . , N bezeichnet, fur die es einen Link von Seite j auf Seite i gibt. DieAnzahl der Elemente von Lj ist also gerade die Gesamtzahl der von Seite j

ausgehenden Links, also cj . Es folgt∑N

i=1 aij = cj(1/cj) = 1.

Ist cj = 0, so folgt∑N

i=1 aij =∑N

i=1 1/N = N/N = 1.

Insgesamt folgt also∑N

i=1Gij = 1− d+ d∑N

i=1 aij = 1− d+ d = 1 furalle j = 1, . . . , N .

Fur strikt positive, spaltenstochastische Matrizen gibt es den folgendenSatz von Perron-Frobenius.

Satz VIII.3.1 (Satz von Perron-Frobenius). Es sei S = (sij)N,Ni,j=1 eine strikt

positive, spaltenstochastische Matrix. Dann gilt:

(a) 1 ist ein Eigenwert von S.

(b) Der Eigenraum ES(1) ist eindimensional.

(c) Es gibt genau ein y = (y1 . . . yn)T ∈ ES(1) mit yj > 0 fur alle j =

1, . . . , N und∑N

j=1 yj = 1.

Beweis. (a) Es sei v := (1 . . . 1)T . Dann gilt nach Voraussetzung fur denj-ten Eintrag von ST v

(ST v)j =N∑i=1

sij = 1.

Also ist ST v = v und daher ist 1 ein Eigenwert von ST , d. h. χST (1) = 0.

Es folgt χS(1) = det(S−En) = det((S−En)T ) = det(ST−En) = χST (1) = 0.Also ist 1 auch ein Eigenwert von S.

(b) und (c): Es sei x = (x1 . . . xn)T ∈ ES(1) \ 0 beliebig. Angenommen esgabe k, l ∈ 1, . . . , N mit xk > 0 und xl < 0. Dann gilt fur alle i = 1, . . . , N

|xi| =

∣∣∣∣∣∣N∑j=1

sijxj

∣∣∣∣∣∣ <N∑j=1

sij |xj |

137

Page 138: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

(Ersteres wegen Sx = x, Letzteres wegen unserer Annahme und der Unglei-chung |a + b| < |a| + |b| fur a < 0 < b, die Sie leicht als Ubung beweisenkonnen). Es folgt

N∑i=1

|xi| <N∑i=1

N∑j=1

sij |xj | =N∑j=1

N∑i=1

sij |xj | =N∑j=1

|xj |N∑i=1

sij =N∑j=1

|xj |,

was naturlich ein Widerspruch ist.Also gilt xj ≥ 0 fur alle j = 1, . . . , N oder xj ≤ 0 fur alle j = 1, . . . , N .Wegen x 6= 0 existiert weiterhin ein j0 ∈ 1, . . . , N mit xj0 6= 0. Da alleKoordinaten von x dasselbe Vorzeichen haben, folgt

|xi| =N∑j=1

sij |xj | ≥ sij0 |xj0 | > 0

fur alle i = 1, . . . , N .Also gilt sogar xj > 0 fur alle j = 1, . . . , N oder xj < 0 fur alle j = 1, . . . , N .Insbesondere folgt, dass es einen Vektor u = (u1 . . . un)T ∈ ES(1) mit uj > 0

fur alle j = 1, . . . , N gibt. Es sei s :=∑N

j=1 uj und y = (y1 . . . yn)T :=

u/s ∈ ES(1). Dann ist yj = uj/s > 0 fur alle j = 1, . . . , N und∑N

j=1 yj = 1.

Ist w = (w1 . . . wn)T ∈ ES(1) beliebig, so ist auch z := y1w − w1y ∈ ES(1)und die erste Koordinate von z ist y1w1 − w1y1 = 0. Nach unserer obigenUberlegung muss also z = 0 und damit w = (w1/y1)y gelten.Es gilt also spany = ES(1) und somit dim(ES(1)) = 1.Es bleibt nur noch die Eindeutigkeit von y zu zeigen. Ist auch y′ = (y′1 . . . y

′n)T

ein Element von ES(1) mit y′j > 0 fur alle j = 1, . . . , N und∑N

j=1 y′j = 1, so

existiert ein λ ∈ R mit y′ = λy. Es folgt 1 =∑N

j=1 y′j = λ

∑Nj=1 yj = λ, also

y′ = y.

Aus dem Satz von Perron-Frobenius folgt, dass der PageRank-Vektorexistiert und eindeutig bestimmt ist. Offen bleibt damit allerdings nochdas Problem der konkreten Berechnung des PageRanks. Es gibt hunderteMillionen von Seiten im Web, die Google-Matrix ist also viel zu groß, als dasseine Berechnung mit dem Gaußschen Algorithmus noch praktikabel ware.Stattdessen bedient man sich numerischer Methoden zur approximativen(naherungsweisen) Losung linearer Gleichungssysteme, siehe z. B. [7].

138

Page 139: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

A Anhang

A.1 Logiksymbole

Wir wollen hier kurz die am haufigsten verwendeten Logiksymbole zusam-menstellen und ihre Bedeutung klaren. Dabei sollen A und B stets zweimathematische Aussagen bezeichnen. Wir verwenden dann folgende Schreib-weisen:

(i) A ∧ B steht fur die Aussage “A und B”.

(ii) A∨B steht fur die Aussage “A oder B” (im Sinne eines einschließendenoders, d. h. es gilt mindestens eine der beiden Aussagen A, B, eventuellauch beide).

(iii) A ⇒ B steht fur die Aussage “aus A folgt B”.

(iv) A ⇔ B steht fur die Aussage “A ist aquivalent zu B” (auch gelesen als“A genau dann, wenn B”). Das bedeutet definitionsgemaß “A ⇒ B undB ⇒ A”.

(v) ¬A steht fur die Verneinung von A (gelesen als “nicht A”).

Die Symbole ∧,∨,¬,⇒,⇔ werden auch Junktoren genannt. Hinzu kommennoch die sogenannten Quantoren ∀ und ∃, die wie folgt erklart sind:

(vi) ∀x A bedeutet “fur alle x gilt A”.

(vii) ∃x A bedeutet “es existiert (mindestens) ein x, fur das A gilt”.

Das Symbol ∀ heißt Allquantor, das Symbol ∃ wird Existenzquantor genannt.Haufig verwendet man diese Symbole auch in folgender Weise (wobei M einevorgegebene Menge ist): ∀x ∈M A bedeutet “fur alle Elemente x der MengeM gilt A” und ∃x ∈M A steht fur “es existiert (mindestens) ein Elementx ∈M , fur welches A gilt”.

Die Symbole ∧,∨ und ¬ werden wir in dieser Vorlesung eher seltenoder gar nicht gebrauchen (stattdessen schreiben wir “und”, “oder”, “nicht”einfach aus), die Zeichen ⇒,⇔, ∀ und ∃ werden wir dagegen des Ofteren zurAbkurzung verwenden.

139

Page 140: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Zum Abschluss ein paar konkrete Beispiele fur den Gebrauch der Logik-symbole:

(i) a > 0⇔ −a < 0 bedeutet “a > 0 ist aquivalent zu −a < 0”.

(ii) ((a < b) ∧ (b < c)) ⇒ (a < c) bedeutet “aus a < b und b < c folgta < c”.

(iii) x 6= 0⇒ (x > 0 ∨ x < 0) bedeutet “aus x 6= 0 folgt x > 0 oder x < 0”.

(iv) ∀x ∈ R x2 ≥ 0 bedeutet “fur alle reellen Zahlen x ist x2 ≥ 0”.

(v) ∀x ∈ R ∃n ∈ N n > x bedeutet “fur alle reellen Zahlen x existiert einenaturliche Zahl n mit n > x”.

(vi) ¬ (∃x ∈ Q x2 = 2) bedeutet “es existiert keine rationale Zahl x mitx2 = 2”.

140

Page 141: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

A.2 Das griechische Alphabet

In der Mathematik (und auch in der Physik) werden haufig neben denlateinischen auch griechische Buchstaben zur Bezeichnung mathematischer(physikalischer) Großen verwendet. Das griechische Alphabet lautet wie folgt:

Name Großbuchstabe Kleinbuchstabe

Alpha A α

Beta B β

Gamma Γ γ

Delta ∆ δ

Epsilon E ε oder ε

Zeta Z ζ

Eta H η

Theta Θ θ oder ϑ

Iota I ι

Kappa K κ

Lambda Λ λ

My M µ

Ny N ν

Xi Ξ ξ

Omikron O o

Pi Π π

Rho P ρ

Sigma Σ σ

Tau T τ

Ypsilon Υ υ

Phi Φ ϕ oder φ

Chi X χ

Psi Ψ ψ

Omega Ω ω

141

Page 142: Lineare Algebra - math.uni-leipzig.deeder/teaching/2019/hardtke-2018.pdf · Skript zur Vorlesung Lineare Algebra fur Grund-, Mittel- und F orderschullehramt Dr. Jan-David Hardtke

Literaturhinweise

Es gibt diverse einfuhrende Lehrbucher zur Linearen Algebra. Hier eine kleineAuswahl:

[1] A. Beutelspacher, Lineare Algebra, Springer, Heidelberg, 2014. (8.Auflage).

[2] S. Bosch, Lineare Algebra, Springer, Heidelberg, 2014. (5.Auflage).

[3] G. Fischer, Lineare Algebra, Springer, Heidelberg, 2014. (18.Auflage).

[4] K. Janich, Lineare Algebra, Springer, Berlin, 2008. (11.Auflage).

[5] H.-J. Kowalsky und G. O. Michler, Lineare Algebra, Walter de Gruyter, Berlin, 2003.(12.Auflage).

Zum Aufbau der Zahlenbereiche siehe etwa:

[6] H.-D. Ebbinghaus, H. Hermes, F. Hirzebruch, M. Koecher, K. Mainzer, J. Neukirch,A. Prestel, R. Remmert, Zahlen, Springer, Berlin–Heidelberg, 1992. (3.Auflage).

Zur numerischen Linearen Algebra:

[7] F. Bornemann, Numerische Lineare Algebra, Springer Spektrum, Wiesbaden, 2016.

142