Lineare Algebra I - aam.uni-freiburg.de€¦ · Lineare Algebra I Zusammenfassung Patrick Dondl 7....

27
Lineare Algebra I Zusammenfassung Patrick Dondl 7. M¨ arz 2018 Die Algebra besch¨ aftigt sich mit grundlegenden mathematischen Symbolen und Struk- turen sowie den Eigenschaften der dazugeh¨ origen Rechenoperationen. In der linearen Algebra liegt der Fokus auf linearen Abbildungen und linearen R¨ aumen, sogenannten Vektorr¨ aumen. 0 Lineare Gleichungssysteme und der R n In diesem Kapitel verwenden wir vorab elementare Begriffe aus der Mengenlehre. Weiters benutzen wir die reellen Zahlen, geschrieben R, mit den bekannten Rechenregeln sowie die nat¨ urlichen Zahlen N = {1, 2,... }. 0.1 Der n-dimensionale reelle Raum – F¨ ur gegebenes n N bezeichnen wir mit R n = {x =(x 1 ,x 2 ,...,x n ): x 1 ,x 2 ,...,x n R} die Menge aller geordneten n-Tupel reeller Zahlen. – Wir bezeichnen solche n - T upel auch als Vektoren. – Durch Definition von x + y =(x 1 + y 1 ,...,x n + y n ) ur x, y R n und λx =(λx 1 ,...,λx n ) ur x R n R onnen die Rechenregeln f¨ ur Vektoren aus denen der reellen Zahlen abgeleitet werden. – Als Nullvektor 0 in R n bezeichnen wir den Vektor, f¨ ur den alle n Eintr¨ age Null sind. – Der Sonderfall R 0 ist die Menge {0}, welche nur das Element 0 enth¨ alt. 1

Transcript of Lineare Algebra I - aam.uni-freiburg.de€¦ · Lineare Algebra I Zusammenfassung Patrick Dondl 7....

Lineare Algebra IZusammenfassung

Patrick Dondl

7. Marz 2018

Die Algebra beschaftigt sich mit grundlegenden mathematischen Symbolen und Struk-turen sowie den Eigenschaften der dazugehorigen Rechenoperationen. In der linearenAlgebra liegt der Fokus auf linearen Abbildungen und linearen Raumen, sogenanntenVektorraumen.

0 Lineare Gleichungssysteme und der Rn

In diesem Kapitel verwenden wir vorab elementare Begriffe aus der Mengenlehre. Weitersbenutzen wir die reellen Zahlen, geschrieben R, mit den bekannten Rechenregeln sowiedie naturlichen Zahlen N = {1, 2, . . . }.

0.1 Der n-dimensionale reelle Raum

– Fur gegebenes n ∈ N bezeichnen wir mit

Rn = {x = (x1, x2, . . . , xn) : x1, x2, . . . , xn ∈ R}

die Menge aller geordneten n-Tupel reeller Zahlen.

– Wir bezeichnen solche n− Tupel auch als Vektoren.

– Durch Definition von

x+ y = (x1 + y1, . . . , xn + yn) fur x, y ∈ Rn

undλx = (λx1, . . . , λxn) fur x ∈ Rn, λ ∈ R

konnen die Rechenregeln fur Vektoren aus denen der reellen Zahlen abgeleitetwerden.

– Als Nullvektor 0 in Rn bezeichnen wir den Vektor, fur den alle n Eintrage Nullsind.

– Der Sonderfall R0 ist die Menge {0}, welche nur das Element 0 enthalt.

1

0.2 Lineare Gleichungssysteme

– Seien m,n ∈ N. Ein reelles, lineares Gleichungssystem mit m Gleichungen und nUnbekannten ist ein Ausdruck der Form

a1,1x1 +a1,2x2 + . . . +a1,nxn = b1a2,1x1 +a2,2x2 + . . . +a2,nxn = b2...am,1x1 +am,2x2 + . . . +am,nxn = bm

,

wobei b = (b1, b2, . . . , bm) ein Vektor in Rm und ai,j fur 1 ≤ i ≤ m, 1 ≤ j ≤ nZahlen in R sind.

– Das Komma zwischen i und j in den ai,j wird gerne auch weggelassen.

– Eine Losung des obigen Gleichungssystems is ein Vektor ξ = (ξ1, . . . , ξn) ∈ Rn,welcher, eingesetzt fur xj , 1 ≤ j ≤ n, das Gleichungssystem erfullt.

– Als Losungsmenge des Gleichungssystems bezeichnen wir die Menge aller Vektorenξ, welche das Gleichungssystem erfullen.

– Das obige Gleichungssystem lasst sich kurz schreiben als

n∑j=1

ai,jxj = bi fur 1 ≤ i ≤ m.

– Noch kurzer ist die Matrixschreibweise

Ax = b,

wobei A als Matrix des Gleichungssystems bezeichnet wird. Der Vektor b heißtrechte Seite des Gleichungssystems.

– Falls m = n, so heißt das Gleichungssystem quadratisch, falls b der Nullvektor ist,so heißt das Gleichungssystem homogen.

– Wir sagen, dass ein Gleichungssystem (bzw. die dazugehorige Matrix) in Normal-form ist, falls es die besondere Gestalt

x1 +a1,k+1xk+1 + . . . +a1,nxn = b1x2 +a2,k+1xk+1 + . . . +a2,nxn = b2

. . ....

......

xk +ak,k+1xk+1 + . . . +ak,nxn = bk0 = bk+1...

...0 = bm,

besitzt.

2

– Die ganze Zahl k bezeichnet man als Rang des Gleichungssystems. Es gilt 0 ≤ k ≤min{m,n}.

– Die Losungsmenge eines Gleichungssystems in Normalform lasst sich direkt able-sen:

· Das Gleichungssystem besitzt genau dann eine Losung, wenn gilt bk+1 = · · · =bm = 0.

· Um die Losungsmenge zu bestimmen, kann man ξk+1, . . . , ξn beliebig vorge-ben und wahlt dann ξ1, . . . , ξk so, dass gilt

ξi +n∑

j=k+1

ai,jξj = bi

fur 1 ≤ i ≤ k. Die Losungsmenge ist damit gegeben durch die Mengeb1 − n∑

j=k+1

a1,jξj , . . . , bk −n∑

j=k+1

ak,jξj , ξk+1, . . . , ξn

: ξk+1, . . . , ξn ∈ R

· Eine solche Menge, in der (n − k) Werte frei als Parameter gewahlt werden

konnen, heißt n-parametrig.

– Aus den vorhergehenden Uberlegungen folgt unser erstes LemmaLemma 0.1. Eine Matrix in Normalform mit m Zeilen und n Spalten, sowieRang k, sei gegeben. Dann gilt, dass k = n genau dann, wenn jedes Gleichungs-system, welches man mit dieser Matrix schreiben kann (d.h. Ax = b fur beliebigesb), hochstens eine Losung besitzt. Weiters gilt, dass k = m wenn jedes Gleichungs-system, welches man mit dieser Matrix schreiben kann, mindestens eine Losungbesitzt.

Beweis. Folgt aus Betrachtung der Losungsmenge eines Gleichungssystems in Nor-malform. Fur k = n kann kein Parameter frei vorgegeben werden. Fur k = m ergibtsich keine Bedingung an die rechte Seite b.

– Durch Anwendung von Zeilenoperationen konnen wir ein Gleichungssystem in einneues Gleichungssystem uberfuhren.

· Mit Zλi , wobei 1 ≤ i ≤ m, λ ∈ R, λ 6= 0, bezeichnen wir die Operation, beider die i-te Zeile des Gleichungssystems mit der Zahl λ multipliziert wird.

· Mit Zλi,j , wobei 1 ≤ i ≤ m, 1 ≤ j ≤ m, λ ∈ R, bezeichnen wir die Operation,bei der das λ-fache der i-ten Zeile zur j-ten Zeile hinzuaddiert wird.

· Diese Zeilenoperationen sind umkehrbar, so ist z.B. Z1λi die Umkehrung von

Zλi .

– Aus der Umkehrbarkeit der Zeilenoperationen folgt

3

Lemma 0.2. Die Anwendung von Zeilenoperationen andert die Losungsmengeeines linearen Gleichungssystems nicht.

– Dieser Satz (und der dazugehorige Beweis mittels expliziter Konstruktion) ermoglichtdie Bestimmung der Losungsmenge von linearen Gleichungssystemen.Satz 0.3. Jedes lineare Gleichungssystem (bzw. jede Matrix) lasst sich durch dieAnwendung von Zeilenoperationen und Vertauschung von Variablen (d.h., Vertau-schung von Spalten in der dazugehorigen Matrix) in Normalform uberfuhren.Korollar 0.4. Sei A eine Matrix mit m Zeilen und n Spalten, k sei der Rang ei-ner Normalform von A, welche durch Zeilenoperationen und Spaltentausch aus Aentstanden ist. Dann besitzt jedes Gleichungssystem der Form Ax = b (d.h., jedeslineare Gleichungssystem mit Matrix A) entweder keine Losung oder ein n − k-parametriges System von Losungen. Es gilt k = m genau dann, wenn jedes Glei-chungssystem der Form Ax = b (mindestens) eine Losung besitzt. Es gilt k = ngenau dann, wenn jedes Gleichungssystem der Form Ax = b hochstens eine Losungbesitzt.Korollar 0.5. Jedes homogene lineare Gleichungssystem mit weniger Zeilen alsSpalten besitzt mindestens eine nichttriviale (d.h. von Null verschiedene) Losung.Bemerkung. Ein homogenes lineares Gleichungssystem besitzt immer die trivialeLosung ξ1 = ξ2 = · · · = ξn = 0.

– Der Begriff der linearen Unabhangigkeit ist zentral in der linearen Algebra.Definition 0.6. Eine Kollektion a1, a2, . . . , an von Vektoren in Rm heißt linearunabhangig, wenn sich keiner der Vektoren als Linearkombination (d.h. als mitreellen Zahlen gewichtete Summe) der anderen Vektoren schreiben lasst.Lemma 0.7. Die Vektoren a1, a2, . . . , an sind genau dann linear unabhangig wennfur alle ξ1, . . . , ξn ∈ R gilt, dass aus

0 = ξ1a1 + ξ2a2 + · · ·+ ξnan

schon folgt, dassξ1 = ξ2 = · · · = ξn = 0.

Bemerkung. Ein einzelner Vektor a ist linear unabhangig, falls a 6= 0. Die leereKollektion von Vektoren (n = 0) betrachten wir als linear unabhangig.Lemma 0.8. Es seien a1, a2, . . . , an linear unabhangige Vektoren und es gelte b =∑n

j=1 λjaj. Dann ist diese Darstellung von b als Linearkombination der Vektorena1, a2, . . . , an eindeutig.

– Mit den folgenden Aussagen lassen sich gewisse Invarianten von linearen Glei-chungssystemen definieren.Satz 0.9. Wenn ein lineares Gleichungssystem durch Zeilenoperationen und Spal-tentausch in Normalform gebracht wurde, so erhalt man immer denselben Rang.Bemerkung. Damit lasst sich der Rang als Eigenschaft eines Gleichungssystems(oder einer Matrix) definieren.

4

Korollar 0.10. Wird ein lineares Gleichungssystem nur durch Zeilenoperationen(also ohne Variablentausch) auf Normalform gebracht, so ist die resultierende Ma-trix eindeutig. Falls das lineare Gleichungssystem losbar ist, so ist in diesem Fallauch die rechte Seite der Normalform eindeutig bestimmt.

0.3 Elementare Euklidische Geometrie

0.3.1 Geraden und Ebenen

– Im Sinne der Geometrie bezeichnen wir in diesem Abschnitt Vektoren in Rn auchals Punkte in Rn.

– Wir betrachten zunachst Geraden.Definition 0.11. Es sei v 6= 0 ein Vektor in Rn. Wir bezeichnen mit Rv die Menge

Rv = {x ∈ Rn : es existiert λ ∈ R mit x = λv}

Definition 0.12. Es seien a, v Vektoren in Rn mit v 6= 0. Eine Gerade g im Rnist eine Menge der Form

g = {x ∈ Rn : es existiert λ ∈ R mit x = a+ λv} = a+ Rv.

Die Menge Rv heißt in diesem Fall der Richtungsraum von g.

– Eine Gerade kann auf unterschiedliche Weise dargestellt werden.Lemma 0.13. Zwei Geraden a+Rv und b+Rw sind genau dann gleich (d.h. dieMengen bestehen aus den gleichen Punkten), wenn Rv = Rw und a− b ∈ Rv.Lemma 0.14. Durch zwei verschiedene Punkte in Rn geht genau eine Gerade.Definition 0.15. Zwei Geraden heißen parallel, wenn sie die gleichen Richtungsraumehaben.

– In ahnlicher Weise lassen sich Ebenen im Rn betrachten.Definition 0.16. Es seien v und w linear unabhangige Vektoren in Rn. Eine affineEbene E ist eine Menge der Form a+ Rv + Rw.Lemma 0.17. Zwei nicht parallele Geraden, die in einer Ebene liegen, schneidensich.

0.3.2 Das Skalarprodukt in Rn

– Das Skalarprodukt wird sich als sehr nutzlich erweisen, um beispielsweise Winkelzwischen Vektoren zu definieren.Definition 0.18. Es seien x = (x1, . . . xn), y = (y1, . . . , yn) Vektoren in Rn. AlsSkalarprodukt zwischen x und y bezeichnen wir den Ausdruck

(x, y) =

n∑j=1

xjyj

5

Lemma 0.19. Das Skalarprodukt in Rn ist eine symmetrische, positiv definiteBilinearform, das heißt

1. (λx, y) = λ(x, y),

2. (x+ y, z) = (x, y) + (z, y),

3. (x, y) = (y, x),

4. (x, x) ≥ 0,

5. (x, x) = 0 genau dann wenn x = 0.Bemerkung. Es folgt auch, dass gilt (x, λy) = λ(x, y) und (x, y+z) = (x, y)+(x, z).Definition 0.20. Als Lange (oder Norm) eines Vektors x in Rn bezeichnen wirden Ausdruck

‖x‖ =√

(x, x).

Definition 0.21. Es seien x 6= 0, y 6= 0 Vektoren in Rn. Als Winkel zwischendiesen Vektoren bezeichnen wir die Zahl α, 0 ≤ α ≤ π, fur die gilt

cosα =(x, y)

‖x‖‖y‖

– Damit diese Definition Sinn ergibt, benotigen wir eine Abschatzung (nachdem derKosinus ja nur Werte zwischen −1 und 1 annimmt.Lemma 0.22 (Cauchy-Schwarz’sche Ungleichung). Es gilt (x, y) ≤ ‖x‖‖y‖.Lemma 0.23 (Dreiecksungleichung). Es gilt ‖x+ y‖ ≤ ‖x‖+ ‖y‖.Korollar 0.24. Es seien x, y Vektoren in Rn. Der Ausdruck

d(x, y) = ‖x− y‖

definiert eine Metrik (oder einen Abstand), das heißt

1. d(x, y) ≥ 0,

2. d(x, y) = 0 genau dann wenn x = y,

3. d(x, y) = d(y, x),

4. d(x, z) ≤ d(x, y) + d(y, z).

1 Grundlegende Strukturen

1.1 Etwas elementare Aussagenlogik

– Als Aussage im Mathematischen Sinne bezeichnen wir ein sprachliches Gebilde,dem entweder der Wahrheitswert wahr (w) oder falsch (f) zugeordnet werdenkann.

– Mittels einer Wahrheitstabelle lassen sich Aussagen gut darstellen.

Aussage wahr/falsch

A”Es sind mehr als 10 Personen im Rundbau“ w

B”Es sind weniger als 20 Personen im Rundbau“ f

6

– Aus gegebenen Aussagen lassen sich neue Aussagen generieren.Definition 1.1. A,B seien Aussagen.

1. Nicht A, (”¬A“) ist die Negation von A.

A ¬Aw ff w

2. A oder B (”A∨B“) ist wahr genau dann wenn mindestens eine der Aussagen

A, B wahr ist. A und B (”A∧B“) ist wahr genau dann, wenn beide Aussagen

A, B wahr sind.A B A ∨B A ∧Bw w w wf w w fw f w ff f f f

3. Aus A folgt B (”A ⇒ B“) ist wahr, genau dann wenn die Aussage A die

Aussage B impliziert. A ist aquivalent zu B (”A⇔ B“) ist wahr, genau dann

wenn die Aussage A die Aussage B impliziert und die Aussage B die AussageA impliziert.

Bemerkung. Um A⇒ B zu zeigen, kann man annehmen, dass A wahr ist und mussdann B folgern.

1.2 Mengen und Abbildungen

– Die Frage, was eigentlich genau eine Menge ist, ist schwer zu beantworten. Wirbegnugen uns damit, die Existenz einiger bestimmter Mengen anzunehmen unddaraus neue Mengen zu generieren.

– Endliche Mengen lassen sich durch Aufzahlung ihrer Elemente beschreiben, wirschreiben A = {1, 3, 15, 32}, als die Menge, welche die Zahlen 1, 3, 15 und 32 alsElemente enthalt. Wir schreiben 1 ∈ A fur

”Die Menge A enthalt das Element 1“.

– Die Reihenfolge der Aufzahlung von Elementen ist irrelevant, ebenso werden wie-derholte Elemente in der Aufzahlung ignoriert. Die Anzahl paarweise verschiedenerElemente einer Menge ist die Machtigkeit einer Menge.

– Eine wichtige Menge ist die leere Menge ∅, welche keine Elemente enthalt.

– Mengen konnen auch weitere Mengen als Elemente enthalten, beispielsweise istA = {1, {1, 3}, 2} die Menge, welche als Elemente die Zahlen 1 und 2, sowie eineMenge mit den Zahlen 1 und 3 enthalt.

– Manche Mengen enthalten alle Elemente einer anderen Menge, man spricht dannvon Teilmengen.

7

Definition 1.2. 1. Es seien A, B Mengen. A ist eine Teilmenge von B, fallsjedes Element in A auch in B enthalten ist. Wir schreiben A ⊂ B.

2. Es gilt A = B, falls A ⊂ B und B ⊂ A.

3. Falls A 6= B, aber A ⊂ B, so sprechen wir von einer echten Teilmenge undschreiben gegebenenfalls A ( B.

– Wir nehmen an, dass eine unendliche Menge N, die Menge der naturlichen Zahlen,

N = {1, 2, 3, . . . },

mit den ublichen Rechenregeln existiert, welche die folgende Eigenschaft (”Induk-

tionsprinzip“) besitzt:

Sei M ⊂ N und es gelte

1. 1 ∈M ,

2. Falls n ∈M so gilt auch n+ 1 ∈M .

Dann gilt bereits M = N.

– Durch Erweiterung von Zahlbereichen lassen sich aus N auch die Mengen der gan-zen Zahlen Z, der rationalen Zahlen Q und der reellen Zahlen R, sowie der kom-plexen Zahlen C erzeugen.

– Es sei M eine Menge, und E eine Eigenschaft, von der fur jedes Element in Muberpruft werden kann, ob die Eigenschaft fur dieses Element zutrifft. Man kannnun aus M eine Teilmenge mit den Elementen erzeugen, welche die Eigenschaft Ebesitzen. Wir schreiben

X = {x ∈M : x besitzt die Eigenschaft E}

– Aus gegebenen Mengen lassen sich neue Mengen erzeugen.Definition 1.3. X und Y seien Mengen.

1. Die Vereinigung X ∪ Y ist die Menge der Elemente, welche in X oder in Y(oder in beiden) sind.

2. Der Schnitt X ∩ Y ist die Menge der Elemente, welche sowohl in X als auchin Y sind.

3. Falls X ⊂ Y , so ist die Differenzmenge Y \X die Menge der Elemente, welchein Y aber nicht in X enthalten sind.

4. Das kartesische Produkt X × Y ist die Menge der geordneten Tupel aus Ele-menten in X und in Y , X × Y = {(x, y) : x ∈ X, y ∈ Y }.

Bemerkung. · Der bereits bekannte euklidische Raum R2 ist nichts anderes alsdas kartesische Produkt von R mit sich selbst, also R× R = R2.

· Diese Operationen lassen sich auch mehrmals nacheinander ausfuhren. Im Falldes kartesischen Produktes verkurzen wir ((x1, x2), x3) zu (x1, x2, x3).

8

– Abbildungen konnen Beziehungen zwischen Mengen darstellen.Definition 1.4. X und Y seien Mengen. Eine Abbildung f von X nach Y ist eineVorschrift, die jedem Element x in X genau ein Element f(x) in Y zuordnet. Wirschreiben

f : X → Y, x 7→ f(x).

Definition 1.5. Zwei Abbildungen f : X → Y und g : X → Y heißen gleich, fallsgilt f(x) = g(x) fur alle x ∈ X.

– Mittels Abbildungen konnen auch (Teil-)Mengen transportiert werden.Definition 1.6. Es seien X,Y Mengen, f : X → Y eine Abbildung. Weiters seiN ⊂ X, M ⊂ Y .

1. f(N) = {y ∈ Y : es existiert ein x ∈ N mit y = f(x)} ⊂ Y , das Bild von N ,

2. f−1(M) = {x ∈ X : f(x) ∈M}, das Urbild von M .

– Besonders wichtige Arten von Abbildungen bekommen Namen.Definition 1.7. Es seien X,Y Mengen, f : X → Y eine Abbildung.

1. Die Abbildung f heißt injektiv, falls fur x, x aus X mit f(x) = f(x) schonfolgt, dass x = x.

2. Die Abbildung f heißt surjektiv, falls gilt f(X) = Y .

3. Die Abbildung f heißt bijektiv, falls sie sowohl injektiv als auch surjektiv ist.Bemerkung. Fur bijektive Abbildungen f : X → Y gilt, dass die Menge f−1({y}mit y ∈ Y immer genau ein Element enthalt. Wir definieren dann eine Abbildungf−1 : Y → X, wobei f−1(y) = x, so dass y = f(x).Satz 1.8. Sei X eine endliche Menge, f : X → X ein (Selbst-)abbildung der MengeX. Dann sind die folgenden Aussagen aquivalent:

1. f ist injektiv,

2. f ist surjektiv,

3. f ist bijektiv.

– Man kann Abbildungen auch nacheinander ausfuhren.Definition 1.9. Es seien X, Y und Z Mengen, f : X → Y und g : Y → Z Abbil-dungen. Dann definiert

g ◦ f : X → Z x 7→ (g ◦ f)(x) = g(f(x))

eine neue Abbildung, die Komposition von f und g.Bemerkung. Die Komposition ist assoziativ, aber nicht kommutativ.Definition 1.10. Die Abbildung

IdX : X → X, x 7→ x

heißt Identitatsabbildung auf X.

9

Lemma 1.11. Es seien X und Y nichtleere Mengen, f : X → Y eine Abbildung.Dann gilt

1. f ist genau dann injektiv, wenn eine Abbildung g : Y → X existiert mit g◦f =IdX ,

2. f ist genau dann surjektiv, wenn eine Abbildung g : Y → X existiert mitf ◦ g = IdY ,

3. f ist genau dann bijektiv, wenn eine Abbildung g : Y → X existiert mit g◦f =IdX und f ◦ g = IdY . In diesem Fall gilt g = f−1.

– Das kartesische Produkt haben wir bereits kennen gelernt. Es ist nutzlich zurDefinition einer Reihe anderer Strukturen und Objekte.Definition 1.12. Es sei f : X → Y eine Abbildung, X, Y Mengen. Der Graphvon f ist die Menge

Γf = {(x, f(x)) fur x ∈ X} ⊂ X × Y.

–Definition 1.13. Seien X,Y Mengen. Mit Abb(X,Y ) bezeichnen wir die Mengealler Abbildungen von X nach Y .Bemerkung. Alle surjektiven Abbildungen von X nach Y lassen sich nun beispiels-weise schreiben als {f ∈ Abb(X,Y ) : f surjektiv}.Definition 1.14. Es seienX,Y Mengen. Wir sagenX besitzt die selbe Machtigkeitwie Y , falls eine bijektive Abbildung von X nach Y existiert.Bemerkung. Fur endliche Mengen gilt #X = n genau dann wenn X gleichmachtigwie {1, 2, . . . , n}.Definition 1.15. Mit 2X bezeichnen wir die Potenzmenge von X, d.h. die Mengealler Teilmengen von X.Satz 1.16. Es sei M eine endliche Menge, #M = n mit n ∈ N ∪ {0}. Dann gilt#2M = 2n.

Beweis. Mittels Induktion.

– Das kartesische Produkt zweier Mengen ist nutzlich, um zum Beispiel den Grapheneiner Funktion zu definieren.Definition 1.17. Es sei f : X → Y eine Funktion. Als Graph von f bezeichnenwir die Menge

Γf = {(x, f(x) ∈ X × Y }.

– Insbesondere wichtig sind Relationen zwischen Elementen einer Menge.Definition 1.18. Eine Teilmenge R ⊂ X × X bezeichnen wir als Relation undschreiben

x ∼ y falls (x, y) ∈ R.

Wir sagen dann, dass x in Relation steht mit y.Definition 1.19. Eine Relation auf X heißt Aquivalenzrelation, falls gilt

10

1. x ∼ x”Reflexivitat“,

2. x ∼ y ⇒ y ∼ x”Symmetrie“,

3. x ∼ y und y ∼ z ⇒ x ∼ z”Transitivitat“,

fur alle x, y, z ∈ X.Definition 1.20. Es sei X eine Menge mit Aquivalenzrelation ∼. Eine MengeA ⊂ X heißt Aquivalenzklasse, falls gilt

1. A 6= ∅,2. x, y ∈ A⇒ x ∼ y,

3. x ∈ A, y ∈ X,x ∼ y ⇒ y ∈ A.Proposition 1.21. Es sei X eine Menge mit Aquivalenzrelation ∼. Dann gehortjedes Element a ∈ X zu genau einer Aquivalenzklasse. Insbesondere sind zweiAquivalenzklassen entweder gleich oder disjunkt.

1.3 Gruppen

– Eine Verknupfung ist ein mathematisches Objekt, das elementare Rechenoperatio-nen verallgemeinert.Definition 1.22. Es sei G eine Menge. Eine Verknupfung ist eine Abbildung

∗ : G×G→ G ∗ : (a, b) 7→ ∗(a, b).

Bemerkung. Wir schreiben ublicherweise a ∗ b fur ∗(a, b), eventuell auch a · b oderab.Definition 1.23. Es sei G eine Menge, ∗ eine Verknupfung auf G. (G, ∗) heißtGruppe, falls gilt

1. (a ∗ b) ∗ c = a ∗ (b ∗ c) (Assoziativgesetz),

2. Es existiert ein e ∈ G, so dass

a) e ∗ a = a fur alle a ∈ G,

b) zu jedem a ∈ G existiert a′ ∈ G mit a′ ∗ a = e.Bemerkung. e wird neutrales Element der Gruppe genannt, a′ inverses Element zua.Definition 1.24. Eine Gruppe (G, ∗) heißt abelsch, falls die Verknupfung kom-mutiert, d.h. a ∗ b = b ∗ a fur alle a, b ∈ G.Proposition 1.25. Es sei (G, ∗) eine Gruppe. Dann gilt

· Das neutrale Element e ist eindeutig bestimmt und es gilt auch a ∗ e = a furalle a ∈ G,

· Das inverse Element a′ zu a ist fur jedes a ∈ G eindeutig bestimmt und esgilt auch a ∗ a′ = e fur alle a ∈ G.

Bemerkung. 1. Das Inverse zu a bezeichnen wir als a−1. Es gilt

a−1 ∗ a = a ∗ a−1 = e, (a−1)−1 = a, (a ∗ b)−1 = b−1 ∗ a−1

11

2. Es gilta ∗ x = a ∗ x⇒ x = x und y ∗ a = y ∗ a⇒ y = y.

Definition 1.26. Es sei (G, ∗) eine Gruppe, a ∈ G. Als Rechts- bzw. Linkstrans-lation bezeichnen wir die Abbildungen

τa : G→ G, x 7→ x ∗ a,aτ : G→ G, x 7→ a ∗ x.

Lemma 1.27. Es sei (G, ∗). Dann sind die Abbildungen τa und aτ fur jedes a ∈G bijektiv. Sei andererseits G eine Menge mit assoziativer Verknupfung ∗. Fallssowohl τa als auch aτ surjektiv sind, so ist (G, ∗) bereits eine Gruppe.Definition 1.28. Es sei (G, ∗) eine Gruppe, G′ ⊂ G. G′ heißt Untergruppe vonG, falls gilt

a, b ∈ G′ ⇒ a ∗ b ∈ G′ und a−1 ∈ G′.

Definition 1.29. Es seien (G, ·), (H,�) Gruppen. Eine Abbildung φ : G → Hheißt (Gruppen-)Homomorphismus, falls gilt

φ(a · b) = φ(a)� φ(b) fur alle a, b ∈ G.

Bemerkung. Ein bijektiver Homomorphismus heißt Isomorphismus.Proposition 1.30. Es sei (G, ∗) eine Gruppe G′ eine Untergruppe. Dann gilt(G′, ∗) ist eine Gruppe.Proposition 1.31. Es seien (G, ·), (H,�) Gruppen. Die Abbildung φ : G→ H seiein Homomorphismus. Dann gilt

1. φ(e) = e′ mit neutralen Elementen e ∈ G, e′ ∈ H,

2. φ(a−1) = φ(a)−1 fur alle a ∈ G,

3. Ist φ ein Isomorphismus, so ist auch φ−1 : H → G ein Isomorphismus.Beispiel. Wir betrachten die Gruppe (Z,+). Es sei m ∈ N. Dann ist (mZ,+) mitmZ = {m · a : a ∈ Z} eine Untergruppe. Fur r ∈ {0, 1, . . . ,m − 1} schreiben wirr + mZ = {r + m · a : a ∈ Z}, die Restklassen modulo m. Jedes a ∈ Z gehortgenau zu einer solchen Restklasse (Division mit Rest!), die Menge der Restklassenbezeichnen wir mit Z/mZ. Wir schreiben a ≡ bmodm falls a und b zur selbenRestklasse gehoren. Es sei a die zu a gehorige Restklasse. Auf diesen Restklassendefinieren wir nun eine Addition a+ b = a+ b.Proposition. Diese Addition ist Wohldefiniert, das heißt das Ergebnis hangt nichtvon der Wahl der jeweiligen Reprasentanten ab.Satz. Die Restklassen modulo m bilden eine abelsche Gruppe. Die Abbildung

Z→ Z/mZ, a 7→ a+mZ

ist ein surjektiver Homomorphismus.

12

1.4 Ringe und Korper

– Wir benotigen auch eine Struktur fur Mengen mit zwei Verknupfungen.Definition 1.32. Es sei R eine Menge mit den Verknupfungen

+: R×R→ R, +(a, b) 7→ a+ b,

· : R×R→ R, ·(a, b) 7→ a · b.

(R,+, ·) heißt Ring, falls gilt

1. (R,+) ist eine abelsche Gruppe,

2. die Multiplikation · ist assoziativ,

3. es gelten die Distributivgesetze

a · (b+ c) = a · b+ a · c und (a+ b) · c = a · c+ b · c.

Bemerkung. Ein Ring heißt kommutativ, falls die Multiplikation kommutiert. Dasneutrale Element der Addition in einem Ring bezeichnen wir als Nullelement 0.Falls ein Element 1 ∈ R existiert, mit 1 ·a = a ·1 = a fur jedes a ∈ R, so bezeichnenwir dieses als Einselement.Proposition 1.33. Es sei (R,+, ·) ein Ring mit Nullelement 0. Dann gilt fur jedesa ∈ R

0 · a = a · 0 = 0.

Definition 1.34. 1. Es sei (R,+, ·) ein Ring und R′ ⊂ R. R′ heißt Unterring,falls R′ eine Untergruppe bezuglich der Addition ist, und gilt a · b ∈ R′ furalle a, b ∈ R′.

2. Es seien (R,+, ·) und (S,⊕,�) Ringe. Eine Abbildung φ : R→ S heißt (Ring-)Homomorphismus, wenn fur alle a, b ∈ R gilt φ(a + b) = φ(a) ⊕ φ(b) undφ(a · b) = φ(a)� φ(b).

Definition 1.35. Eine Menge K mit zwei Verknupfungen +: K × K → K und· : K ×K → K heißt Korper, wenn gilt

1. (K,+) ist eine abelsche Gruppe (mit neutralem Element 0 und inversem Ele-ment −a zu a).

2. Es sei K∗ = K \ {0}. Dann gilt, dass a · b ∈ K∗ fur alle a, b ∈ K∗ und (K∗, ·)ist eine abelsche Gruppe (mit neutralem Element 1 und inversem Element 1

azu a.

3. Es gelten die Distributivgesetze a·(b+c) = a·b+a·c und (a+b)·c = a·c+b·c.Proposition 1.36. In einem Korper gelten die folgenden Rechenregeln:

· 1 6= 0,

· 0 · a = a · 0 = 0,

· a · b = 0⇒ a = 0 oder b = 0,

· a · (−b) = −(a · b) und (−a) · (−b) = a · b,

13

· x · a = x · a fur a ∈ K∗ ⇒ x = x.Beispiel. 1. R und Q mit der ublichen Addition und Multiplikation sind Korper.

2. Die komplexen Zahlen C sind ein Korper.Definition 1.37. Ein Ring (R,+, ·) heißt nullteilerfrei, falls fur alle a, b ∈ R gilta · b = 0⇒ a = 0 oder b = 0.Satz 1.38. Der Restklassenring Z/mZ ist genau dann nullteilerfrei, wenn m einePrimzahl ist.Bemerkung. Jeder Korper ist ein abelscher nullteilerfreier Ring.Satz 1.39. Ein nullteilerfreier, kommutativer Ring K mit endlich vielen Elemen-ten und Eins ist ein Korper.Bemerkung. Es sei R ein Ring. Fur n ∈ N und x ∈ R schreiben wir n · x =x+ x+ · · ·+ x (n-mal).Definition 1.40. Es sei R ein Ring mit Einselement 1 (ein unitarer Ring). DieCharakteristik von R ist definiert durch

χ(R) =

{0 falls n · 1 6= 0 fur alle n ∈ N.min{n ∈ N : n · 1 = 0} sonst.

Lemma 1.41. Es sei K ein Korper. Dann ist χ(K) entweder Null oder einePrimzahl.

2 Vektorraume

2.1 Definition und grundlegende Eigenschaften

– Wir haben bereits den Rn kennengelernt und werden nun diese Struktur verallge-meinern.Definition 2.1. Es sei K ein Korper und (V,+) eine abelsche Gruppe. Weiterssei eine Abbildung

K × V → V

(λ, v) 7→ λv

gegeben, so dass gilt

λ(x+ y) = λx+ λy, (λ+ µ)x = (λx) + (µx)

λ(µx) = (λµ)x, 1x = x

fur alle x, y ∈ V, λ, µ ∈ K. Dann heißt (V,+) zusammen mit der definierten Abbil-dung K-Vektorraum.Bemerkung. 1. Die oben definierte Abbildung heißt Skalarmultiplikation, Ele-

mente aus K heißen Skalare, Elemente aus V heißen Vektoren,

2. Das neutrale Element 0 ∈ V heißt Nullvektor,

3. Das inverse Element zu x ∈ V wird mit −x bezeichnet.

14

4. Ist nur ein Ring R gegeben, der Rest von Definition 2.1 aber erfullt, so heißt VLinks-R-Modul (bzw. Rechts-R-Modul bei Skalarmultiplikation von rechts).

Lemma 2.2. Es sei V ein K-Vektorraum. Dann gilt

1. 0x = 0, λ0 = 0 fur alle x ∈ V , λ ∈ K,

2. λx = 0⇒ λ = 0 oder x = 0,

3. (−1)x = −xfur alle λ ∈ K,x ∈ V .Definition 2.3. Es sei V ein K-Vektorraum, W ⊂ V heißt Untervektorraum,wenn gilt

1. W 6= ∅,2. x+ y ∈W fur alle x, y ∈W ,

3. λx ∈W fur alle λ ∈ K, x ∈W .Proposition 2.4. Jeder Untervektorraum ist ein Vektorraum (mit der Einschrankungder jeweiligen Abbildungen auf die Teilmenge).

– Wir betrachten die Frage, welche Vektorraume wir aus einer gegebenen Menge vonVektoren erzeugen konnen.Bemerkung. Es sei I eine Menge (eine sogenannte Indexmenge) und Ma fur jedesa ∈ I wieder eine Menge. Wir schreiben

1.⋃a∈IMa = {x : x ∈Ma fur ein a ∈ I},

2.⋂a∈IMa = {x : x ∈Ma fur alle a ∈ I}

Lemma 2.5. Es sei V ein K-Vektorraum, I eine Indexmenge, und Wa sei einUntervektorraum von V fur jedes a ∈ I. Dann gilt

1. W =⋂a∈IWa ist ein Untervektorraum von V ,

2. W = Wa ∪Wb ist ein Untervektorraum fur a, b ∈ I ⇒ Wa ⊂ Wb oder Wb ⊂Wa.

Definition 2.6. Es sei V ein K-Vektorraum, E ⊂ V .

1. Es sei λe ∈ K fur jedes e ∈ E, so dass nur fur endlich viele λe gilt λe 6= 0.Dann ist ∑

e∈Eλee =

∑e∈E mit λe 6=0

λee ∈ V

eine Linearkombination der e ∈ E.

2. x ∈ V heißt darstellbar als Linearkombination der e ∈ E falls λe ∈ K, mitnur endlich vielen λe 6= 0 existieren mit x =

∑e∈E λee.

3. Wir schreiben

span(E) = {x ∈ V : x ist als Linearkombination der e ∈ E darstellbar}.

Falls W = span(E), so heißt E Erzeugendensystem von W .

15

4. Eine Menge W ⊂ V heißt endlich erzeugt, falls ein Erzeugendensystem vonW mit nur endlich vielen Elementen existert.

Lemma 2.7. Es sei V ein K-Vektorraum und E ⊂ V . Dann gilt

1. span(E) ist ein Untervektorraum von V ,

2. Falls W ⊂ V ein Untervektorraum ist und E ⊂W , so gilt span(E) ⊂W .

2.2 Basis und Dimension

– Wir wollen Vektorraume aus moglichst kleinen Mengen von Vektoren erzeugen. Indiesem Abschnitt ist immer K ein Korper V ein Vektorraum uber K.Definition 2.8. X und I seien Mengen, und fur j ∈ I sei ej ∈ X. Dann wirddie Abbildung I → X, j 7→ ej als Familie von ej ∈ X bezeichnet. Wir schreiben(ej)j∈I ∈ XI = Abb(I,X).Definition 2.9. Es sei I eine Menge und (vi)i∈I eine Familie von Vektoren in V .

1. (vi)i∈I heißt minimales Erzeugendensystem von V , wenn E = {vi : i ∈ I} einErzeugendensystem von V ist und gilt

J ( I ⇒ span{vj : j ∈ J} 6= V.

2. (vi)i∈I heißt linear unabhangig, falls gilt: Der Nullvektor is Linearkombinationvon Vektoren in E = {vi : i ∈ I}, so sind alle Koeffizienten Null.

Nicht linear unabhangige Familien von Vektoren bezeichnen wir als linearabhangig.

Bemerkung. Die leere Familie von Vektoren gilt als linear unabhangig.

– Wie in Abschnitt 0 charakterisieren wir linear unabhangige Mengen von Vektorenweiter.Lemma 2.10. Es sei (vi)i∈I eine Familie von Vektoren in V . Dann gilt:

1. Falls vj = 0 fur ein j ∈ I, so ist (vi)i∈I linear abhangig.

2. Falls i, j ∈ I existieren mit i 6= j, vi = vj, so ist (vi)i∈I linear abhangig.

3. Einelementige Familien von Vektoren sind genau dann linear unabhangig, fallsder enthaltene Vektor nicht der Nullvektor ist.

4. Falls (vi)i∈I linear unabhangig ist und J ⊂ I, so ist (vj)j∈J linear unabhangig.

5. Es sei I 6= ∅. Dann gilt (vi)i∈I ist linear abhangig genau dann, wenn sicheiner der enthaltenen Vektoren als Linearkombination der anderen schreibenlasst.

Satz 2.11. Fur eine Familie (vi)i∈I von Vektoren in V sind die folgenden Aussagenaquivalent:

1. (vi)i∈I ist ein minimales Erzeugendensystem von V .

2. (vi)i∈I ist ein linear unabhangiges Erzeugendensystem von V .

16

3. Jedes v ∈ V hat eine eindeutig bestimmte Darstellung als Linearkombinationder Vektoren (vi)i∈I .

4. (vi)i∈I ist eine maximale linear unabhangige Familie, d.h. fur jedes w ∈ Vgilt (w, (vi)i∈I) ist linear abhangig.

Definition 2.12. Eine Familie (vi)i∈I heißt Basis von V , falls (vi)i∈I ein linearunabhangiges Erzeugendensystem von V ist.

– Wie kann man eine Basis eines Vektorraumes bestimmen?Satz 2.13 (Basisauswahlsatz). Es sei N ∈ N, v1, . . . , vN ∈ V und V = span({v1, . . . , vN}).Dann existieren n ∈ N, i1, . . . , in ∈ {1, . . . , N} so dass (vi1 , . . . , vin) eine Basis vonV bilden.Lemma 2.14. (v1, . . . , vn) sei eine Basis von V , und w = λ1v1 + · · · + λnvn mitλa 6= 0 fur ein a ∈ {1, . . . , n}. Dann ist (v1, . . . , va−1, w, va+1, . . . , vn) ebenfalls eineBasis von V .Satz 2.15 (Basisaustauschsatz von Steinitz). Es sei (v1, . . . , vn) eine Basis von Vund (w1, . . . , wm) eine linear unabhangige Familie von Vektoren in V . Dann gilt:

1. m ≤ n.

2. Nach einer geeigneten Umnummerierung von (v1, . . . , vn) ist (w1, . . . , wm, vm+1, . . . , vn)eine Basis von V .

Korollar 2.16. V besitze eine Basis aus n Vektoren. Dann hat jede Basis von Vgenau n Vektoren.Definition 2.17. Wir schreiben

dimK(V ) =

{∞ falls V nicht endlich erzeugt ist,n falls V eine Basis aus n Vektoren besitzt.

dimK(V ) wird als Dimension von V bezeichnet.Satz 2.18 (Basiserganzungssatz von Steinitz). V sei ein endlich erzeugter Vektor-raum, und (wi)i∈I eine Familie linear unabhangiger Vektoren. Dann existiert eineBasis, welche alle Vektoren aus (wi)i∈I enthalt. Insbesondere besitzt jeder endlicherzeugte Vektorraum eine Basis.Lemma 2.19. Es sei dimK(V ) = n < ∞. Dann ist jede linear unabhangige Fa-milie von n Vektoren eine Basis von V . Weiters gilt, dass die Dimension einesUntervektorraumes von V nicht großer sein kann, als die Dimension von V selbst.Satz. Jeder Vektorraum besitzt eine Basis.

3 Lineare Abbildungen

3.1 Definition und grundlegende Eigenschaften

– Im Folgenden sei K ein Korper und V ein Vektorraum uber K.

–Definition 3.1. V und W seien K-Vektorraume.

17

1. Eine Abbildung F : V →W heißt (K)-linear (bzw. Vektorraum-Homomorphismus),falls gilt

a) F (x+ y) = F (x) + F (y) fur alle x, y ∈ V ,

b) F (λx) = λF (x) fur alle x ∈ V , λ ∈ K.

Wir schreiben in diesem Fall F ∈ HomK(V,W ) ⊂ Abb(V,W ).

2. Falls gilt V = W , dann heißt F Vektorraum-Endomorphismus und wir schrei-ben F ∈ EndK(V ) = Hom(V, V ).

3. Ein bijektiver Vektorraum-Homomorphismus heißt Vektorraum-Isomorphismus.Falls ein solcher von V nach W existiert, heißt V isomorph zu W und wirschreiben V ∼= W .

4. Falls F ein bijektiver Vektorraum-Endomorphismus ist, so heißt F Vektorraum-Automorphismus und wir schreiben F ∈ AutK(V ) ⊂ End(V ).

Bemerkung. 1. HomK(V,W ) ⊂ Abb(V,W ) ist ein Untervektorraum.

2. EndK(V ) besitzt außerdem die Struktur eines Ringes (mit der Vektoradditi-on induziert von Abb(V,W ) und der Nacheinanderausfuhrung als Multipli-kation). Weiters gilt die Kompatibilitatsbedingung (λF ) ◦ G = λ(F ◦ G) =F ◦ (λG). Eine solches Objekt heißt K-Algebra.

3. AutK(V ) ist eine Gruppe (bzgl. der Nacheinanderausfuhrung als Multiplika-tion), aber kein Vektorraum.

Lemma 3.2. U, V,W seien K-Vektorraume, F ∈ HomK(V,W ), G ∈ HomK(U, V ).Dann gilt

1. F (0) = 0,

2. F (x− y) = F (x)− F (y),

3. F ◦G ∈ HomK(U,W ),

4. Falls F ein Vektorraum-Isomorphismus ist, so gilt F−1 ∈ HomK(W,V ),

5. Es sei (vi)i∈I eine Familie linear abhangiger Vektoren. Dann ist auch (F (vi))i∈Ilinear abhangig.

6. a) Falls V ⊂ V ein Untervektorraum ist, so ist auch F (V ) ⊂W ein Unter-vektorraum, insbesondere ist Im(F ) = F (V ) ein Untervektorraum,

b) Falls W ⊂ W ein Untervektorraum ist, so ist auch F−1(W ) ⊂ V einUntervektorraum, insbesondere ist Ker(F ) = F−1({0}) ein Untervektor-raum,

c) Falls F ein Vektorraum-Isomorphismus ist, so gilt F (V ) ∼= V fur jedenUntervektorraum V von V .

7. dimK(Im(V )) ≤ dimK(V ).Satz 3.3. V,W seien K-Vektorraume, I eine Indexmenge und (vi)i∈I sei eineBasis von V . Weiters sei (wi)i∈I eine Familie von Vektoren in W . Dann existiertgenau eine K-lineare Abbildung F : V → W , so dass F (vi) = wi fur alle i ∈ I.Dieses F erfullt weiters

18

1. Im(F ) = span{wi : i ∈ I},2. F injektiv ⇔ (wi)i∈I linear unabhangig.

Proposition 3.4. Es gilt G ∈ HomK(V,W ) injektiv ⇔ ker(G) = {0}.Korollar 3.5. Es sei V ein K-Vektorraum mit dimK(V ) = n < ∞. Dann gilt:V ∼= Kn. Weiters gilt fur jeden K-Vektorraum W mit dimK(W ) = n, dass V ∼= W .

– Die Vektorraume Im(F ) und ker(F ) sind eine weitere Betrachtung wert.Definition 3.6. Zu F ∈ HomK(V,W ) heißt rg(F ) = dimK(F (V )) der Rang vonF .Satz 3.7 (Dimensionsformel). Es sei F ∈ HomK(V,W ), dimK(V ) < ∞. Danngilt

dimK(V ) = dimK(ker(F )) + rg(F ).

Definition 3.8. V sei ein K-Vektorraum, V1, V2 Untervektorraume.

1. V1 + V2 = span(V1 ∪ V2)2. Wir schreiben W = V1⊕V2, falls W = V1 +V2 und V1∩V2 = ∅. In diesem Fall

heißt W direkte Summe von V1 und V2. V1 und V2 heißen dann komplementareUntervektorraume von V .

Satz 3.9. Es gilt

dimK(V1 + V2) = dimK(V1) + dimK(V2)− dimK(V1 ∩ V2).

Satz 3.10. Es sei V ein K-Vektorraum, W ⊂ V ein Untervektorraum. Wir schrei-ben fur x, y ∈ V , dass x ∼ y wenn x− y ∈W . Dann gilt

1. ∼ ist eine Aquivalenzrelation,

2. Auf V = V/ ∼ existiert eine eindeutige Vektorraumstruktur, so dass die Quo-tientenabbildung p : V → V , p : x 7→ [x] ein Homomorphismus ist.

Definition 3.11. V mit der Vektorraumstruktur aus dem obigen Satz heißt Quo-tientenvektorraum V/W .Satz 3.12 (Homomorphiesatz). V und W seien K-Vektorraume, F ∈ HomK(V,W ).Dann existiert genau eine lineare Abbildung

F : V/ ker(F )→ im(F )

mit F (x) = (F ◦ p)(x) fur alle x ∈ V , wobei p die Quotientenabbildung V →V/ ker(F ) darstellt. Die Abbildung F ist ein Isomorphismus.Satz 3.13 (Isomorphiesatze). Es seien V ein K-Vektorraum, V1, V2 ⊂ V Unter-vektorraume. Dann gilt

(V1 + V2)/V1 ∼= V2/(V1 ∩ V2)

und, falls V1 ⊂ V2 ⊂ V ,(V/V1)/(V2/V1) ∼= V/V2

19

4 Matrizen

– Wir kennen lineare Gleichungssysteme und Matrizen im Reellen bereits aus Kapitel0. Hier werden wir diese Aussagen verallgemeinern.Definition 4.1. 1. Es sei X eine Menge, m,n ∈ N. Dann heißt ein rechteckiges

Schema

A =

a11 a12 . . . a1na21 a22 . . . a2n

...am1 am2 . . . amn

mit aij ∈ X eine (m× n)-Matrix. Wir schreiben A = (aij).

2. Die aij heißen Eintrage (oder Komponenten) von A.

3.(ai1 ai2 . . . ain

)heißt i-te Zeile von A,

a1ja2j...

amj

heißt j-te Spalte von A.

4. Die Menge aller (m × n)-Matrizen mit Eintragen aus X bezeichnen wir mitMatX(m× n).

– Matrizen mit Eintragen aus einem Korper K sind naturlich besonders wichtig.Satz 4.2. MatK(m× n) besitzt die Struktur eines K-Vektorraumes und es gilt

Kmn ∼= MatK(m× n) ∼= HomK(Kn,Km).

Bemerkung. Die Spaltenvektoren von A sind die Bilder der Standardbasisvektorender Kn.Bemerkung. Mit Matrizen uber einem Korper K lasst sich nun genauso rechnen,wie im Kapitel 0 bereits im Reellen besprochen. Die bekannte Matrixmultiplika-tion entspricht einer Hintereinanderausfuhrung von linearen Abbildungen. Ebensolassen sich nun lineare Gleichungssysteme Ax = b in Kn ebenso wie in Kapitel 0losen. Dank der Isomorphie aus Satz 4.2 ubertragen sich auch samtliche Dimensi-onsformeln auf das Rechnen mit Matrizen.Definition 4.3. 1. Es sei A = (aij) ∈ MatK(m × n). Mit A> ∈ MatK(n ×m)

bezeichnen wir die transponierte Matrix mit Eintragen (a>ij) = (aji).

2. Die zur Identitatsabbildung Id: Kn → Kn gehorige Matrix

En =

1 0 0 . . . 0 00 1 0 . . . 0 0...0 0 0 . . . 0 1

heißt Einheitsmatrix.

3. A ∈ MatK(n × n) heißt invertierbar, falls eine Matrix A−1 ∈ MatK(n × n)existiert mit A−1A = En.

20

Bemerkung. Die Zeilenoperationen Zλj und Zλij aus Kapitel 0 lassen sich durchMatrizen darstellen (welche von links an eine Matrix A multipliziert werden).

– Nachdem alle n-dimensionalen K-Vektorraume isomorph zu Kn sind, lassen sich(nach Wahl einer Basis) beliebige lineare Abbildungen zwischen endlichdimensio-nalen Vektorraumen als Matrizen darstellen.Definition 4.4. Es sei W ein K-Vektorraum und m,n ∈ N. Dann schreiben wir

W {1,...,m} ×MatK(m× n)→W {1,...,n}

(w1, . . . , wm)× (aij) 7→

(n∑i=1

ai1w1, . . . ,

n∑i=1

aimwm

)oder kurz

(B, A) 7→ B ·A,

mit B = (w1, . . . , wm) ∈W {1,...,m}, A = (aij) ∈ Mat(m× n).Definition 4.5. Es seien V,W K-Vektorraume mit jeweiligen BasenA = (v1, . . . , vn)beziehungsweise B = (w1, . . . , wm).

1. Fur F ∈ HomK(V,W ) mit F (vj) =∑m

i=1 aijwi, j = 1, . . . , n, (aij) ∈ Kbezeichnet M(B, F,A) = (aij) ∈ MatK(m×n) die darstellende Matrix von Fbezuglich B und A. Wir schreiben

F (A) = B ·M(B, F,A).

2. Im Falle V = W , F = Id ∈ EndK(W ) heißt M(B,A) = M(B, Id,A) Basis-wechselmatrix von A nach B.

Bemerkung. 1. Wieder sind die Spalten von M(B, F,A) die Bilder der Basisvek-toren von V , kodiert durch die Koeffizenten wenn diese Bilder in der Basis Bausgedruckt werden.

2. Wir kennen die bei gegebenen Basen A und B festgelegten kanonischen Iso-morphismen IA : V → Kn bzw. IB : W → Km. Es gilt nun der wichtigeZusammenhang

IB ◦ F ◦ I−1A = FM(B,F,A).

3. Damit folgt auch, dass gilt

M(E(m), FA, E(n)) = A,

wobei E(m) und E(n) die Standardbasen des Km bzw. Kn bezeichnen. UnsereNotation ist also konsistent: Die darstellende Matrix einer durch eine MatrixA beschriebenen Abbildung FA : Kn → Km ist wieder A.

Satz 4.6. Es seien V,W K-Vektorraume mit jeweiligen Basen A = (v1, . . . , vn)beziehungsweise B = (w1, . . . , wm) und es sei F ∈ HomK(V,W ). Dann gilt furx ∈ Kn = MatK(n× 1), dass

F (A · x) = B ·M(B, F,A) · x.

21

Korollar 4.7. Es seien V ein K-Vektorraume mit Basen A = (v1, . . . , vn) undA = (v1, . . . , vn), W ein K-Vektorraume mit Basen B = (w1, . . . , wm) und B =(w1, . . . , wm), F ∈ HomK(V,W ). Dann gilt

M(B, F, A) = M(B,B) ·M(B, F,A) ·M(A, A)

Bemerkung. 1. Basiswechselmatrizen sind immer invertierbar.

2. Samtliche Ergebnisse fur das Rechnen mit Matrizen lassen sich nun auf HomK(V,W )ubertragen (solange V und W endlichdimensional sind).

3. Insbesondere lassen sich fur gegebenes F ∈ HomK(V,W ) immer Basen A undB von V und W finden, so dass gilt

M(B, F,A) =

1 0 . . . 0 0 . . . 00 1 . . . 0 0 . . . 0...0 0 . . . 1 0 . . . 00 0 . . . 0 0 . . . 0...0 0 . . . 0 0 . . . 0

,

wobei die Einheitsmatrix in der oberen linken Ecke die Große r × r besitztmit r = rg(F ).

5 Dualraume

– In diesem Abschnitt betrachten wir die linearen Abbildungen von einemK-VektorraumV in dessen Grundkorper K.Definition 5.1. 1. V ∗ = HomK(V,K) heißt Dualraum von V . Die Elemente

von V ∗ heißen Linearformen.

2. Falls A = (v1, . . . , vn) eine Basis von V ist, so heißt (v∗1, . . . , v∗n) mit v∗j ∈ V ∗,

so dass

v∗j (vi) = δji =

{1 falls j = i,0 sonst,

die zu A duale Basis.Satz 5.2. Es sei V eine endlichdimensionaler Vektorraum uber K. Dann gilt

1. Zu jeder Basis von V gibt es eine eindeutig bestimmte duale Basis, welcheeine Basis von V ∗ bildet.

2. V und V ∗ sind isomorph, insbesondere gilt also dimK(V ) = dimK(V ∗).Korollar 5.3. V sei ein K-Vektorraum. Dann existiert zu jedem x 6= 0 ∈ V einα ∈ V ∗ mit α(x) 6= 0.

– Wir betrachten nun, welche linearen Abbildungen auf Dualraumen von linearenAbbildungen auf Vektorraumen induziert werden

22

Satz 5.4. Es seien V,W K-Vektorraume, F ∈ HomK(V,W ), α ∈W ∗. Wir schrei-ben F>(α) = α ◦ F . Dann gilt

1. F T (α) ∈ V ∗, F> ∈ HomK(W ∗, V ∗),

2. F 7→ F> is ein injektiver Homomorphismus HomK(V,W )→ HomK(W ∗, V ∗),

3. Falls V und W endlichdimensional sind, ist F → F> ein Vektorraum-Isomorphismus.Definition 5.5. Die in Satz 5.4. eingefuhrte Abbildung F> heißt die zu F trans-ponierte (oder duale) Abbildung.Bemerkung. Wir erinnern uns an die transponierte Matrix.Satz 5.6. Es sei V ein K-Vektorraum mit Basis A, W ein K-Vektorraum mitBasis B und F ∈ HomK(V,W ). Dann gilt

M(B, F,A)> = M(A∗, F>,B∗).

Bemerkung. Mit A∗ bezeichnen wir die zu A duale Basis.

– Es bleibt noch die Frage zu beantworten, was eine zweimalige Transposition be-wirkt.Satz 5.7. V und W seien K-Vektorraume. Dann gilt

1. Die Abbildung V → (V ∗)∗, x 7→ x>> mit x>>(α) = α(x) fur x ∈ V , α ∈V ∗ ist ein injektiver Homomorphismus. Man nennt diesen die kanonischeInjektion in den Bidualraum.

2. Im Fall dimK(V ) <∞ ist der Homomorphismus aus 1. ein Isomorphismus.

3. Es sei F ∈ HomK(V,W ). Wir schreiben F>> = (F>)> und es gilt

(F (x))>> = F>>(x>>).

6 Determinanten

6.1 Permutationen und deren Signatur

– Wir betrachten in diesem Unterabschnitt Permutationen, das sind bijektive Selbst-abbildungen endlicher Mengen.Definition 6.1. Die Gruppe der bijektiven Selbstabbildungen einer endlichenMenge X bezeichnen wir mit Sym(X).Definition 6.2. Es sei X eine endliche Menge, s : X2 → {−1, 0, 1} eine Ori-entierung, d.h. s(x, y) = 0 falls x = y und s(x, y) ∈ {−1, 1} fur x 6= y mits(x, y) = −s(y, x).

Es sei nun π ∈ Sym(X). Wir schreiben

sign(π) =∏ s(πx, πy)

s(x, y),

wobei das Produkt uber alle ungeordenten Paare in X genommen wird, d.h. allemoglichen zweielementigen Teilmengen {x, y} von X mit x 6= y.

23

Bemerkung. Die Signatur einer Permutation ist unabhangig von der ursprunglichenWahl der Orientierungsabbildung. Man sieht, dass nur die Anzahl der ungeordetenPaaren entscheidend ist, deren Orientierung von π geandert wird. Solche Paarenennt man Fehlstande von π.Definition (Alternative Variante von Definition 6.2).

sign(π) = (−1)Anzahl Fehlstande von π.

Satz 6.3. Die Signaturabbildung

sign: Sym(X)→ {−1, 1}

ist ein Gruppenhomomorphismus.Bemerkung. Es sei (x1, . . . , xk) ∈ X{1,...,k} eine Familie paarweise verschiedenerElemente aus X. Die Abbildung π ∈ Sym(X), welche xi auf xi+1 fur 1 ≤ i < k,xk auf x1 und alle anderen Elemente auf sich selbst abbildet wird als Zyklus von(x1, . . . , xk) bezeichnet. Man berechnet leicht, dass ein solcher Zyklus die Signatur(−1)k−1 besitzt.Satz 6.4. Jede Permutation laßt sich (bis auf die Reihenfolge) eindeutig als Pro-dukt von disjunkten Zyklen schreiben.Korollar 6.5. Jede Permutation ist Produkt von Transpositionen, das sind Zyklender Lange 2.Satz 6.6. sign ist der einzige nicht–triviale Homomorphismus Sym(X)→ {−1, 1}.

6.2 k-Formen

Definition 6.7. Es sei V ein K-Vektorraum. Eine Abbildung µ : V k → K heißtk-stellige multilineare Abbildung (oder Multilinearform), falls µ linear in jedemArgument ist, d.h.

µ(x1, . . . , λxj + yj , . . . , xk) = λµ(x1, . . . , xj , . . . , xk) + µ(x1, . . . , yj , . . . , xk).

fur xi ∈ V , i = 1, . . . , k, yj ∈ V , λ ∈ K.Definition 6.8. Eine k–stellige multilineare Abbildung µ : V k → K heißt al-ternierend oder k–Form, wenn sie die zwei folgenden (aquivalenten) Bedingungenerfullt:

1. µ(x1, . . . , xk) = 0, falls ein Vektor zweimal vorkommt.

2. µ(x1, . . . , xj + λxi, . . . , xk) = µ(x1, . . . , xj , . . . , xk) fur 1 ≤ i 6= j ≤ k.Lemma 6.9. Eine Multilinearform µ ist genau dann alternierend, wenn µ(x1, . . . , xk) =0 fur alle linear abhangigen Familien von Vektoren (xj).Lemma 6.10. Seien U und V K-Vektorraume. Dann gilt

1. Jede Linearkombination von k–Formen auf V ist wieder eine k–Form.

24

2. Sei F : V → U eine lineare Abbildung und µ eine k–Form auf U . Dann istµF , definiert durch

µF (a1, . . . , ak) = µ(F (a1), . . . , F (ak))

eine k-Form auf V .Lemma 6.11. Sei µ eine k–Form auf V . Dann ist fur alle x1, . . . , xk ∈ V undalle 1 ≤ i < j ≤ k

µ(x1, . . . , xi, . . . , xj , . . . , xk) = −µ(x1, . . . , xj , . . . , xi, . . . , xk)

Bemerkung. Falls K ein Korper mit Charakteristik ungleich 2 ist, so ist jede Mul-tilinearform mit der Eigenschaft aus dem vorangegangenen Lemma automatischauch eine k-Form. Im Fall χ(K) = 2 gilt aber 1 + 1 = 0, somit 1 = −1 und es folgtaus der Eigenschaft µ(x1, . . . , xi, . . . , xi, . . . , xk) = −µ(x1, . . . , xi, . . . , xi, . . . , xk)nicht, dass µ(x1, . . . , xi, . . . , xi, . . . , xk) = 0.Lemma 6.12. Sei µ : V k → K eine k-Form, x1, . . . , xk ∈ V und τ ∈ Abb({1, 2, . . . , k}).Dann gilt

µ(τ(x1), . . . , τ(xk)) = sign(τ)µ(x1, . . . , xk),

wobei wir sign(τ) = 0 fur τ ∈ Abb(X) \ Sym(X) gesetzt haben.Korollar 6.13. Sei v1, . . . , vn eine Basis von V , µ eine k-Form. Dann ist µ ein-deutig festgelegt durch die Werte

µ(vi1 , vi2 , . . . , vik) mit 1 ≤ i1 < i2 < · · · < ik ≤ n.

Korollar 6.14. Falls dimK(V ) < k, so ist 0 die einzige k-Form auf V .

6.3 Determinanten

– Wir betrachten nun die (bis auf einen Faktor) eindeutige n-Form auf V mit dimK(V ) =n.Satz 6.15. Es sei v1, . . . , vn eine Basis von V und β ∈ K. Dann existiert genaueine n-Form µ auf V mit µ(v1, . . . , vn = β.Korollar 6.16. Es sei dimK(V ) = n und µ eine nicht-triviale (d.h. µ nicht iden-tisch Null) n-Form auf V . Weiters sei ν eine n-Form auf V . Dann existiert β ∈ Kmit ν = βµ.

– Es sei e1, . . . , en die Standardbasis des Kn und µ0 sei die eindeutig bestimmten-Form mit µ0(e1, . . . , en) = 1. Wir nennen µ0 die Standard-n-Form des Kn. DieDeterminante einer Matrix A ∈ MatK(n × n) mit Spaltenvektoren a1, . . . , an istnun gegeben durch

det(A) = µ0(a1, . . . , an).

Alternativ schreiben wirDefinition 6.17. Die Determinante det(A) ist eine alternierende Form in denSpalten einer Matrix A mit det(En) = 1.

25

Lemma 6.18. Mit A = (aij)i,j=1...,n gilt

det(A) =∑

π∈Sym({1,...,n})

sign(π)n∏j=1

aπ(j),j .

Satz 6.19. Es gilt

1. det(A ·B) = det(A) · det(B)

2. det(A) = 0⇔ A nicht invertierbar.Satz 6.20. Es gilt

1. det(A>) = det(A)

2. Die Determinante ist eine alternierende Form in den Spalten einer Matrix.

6.4 Der Laplacesche Entwicklungssatz

– Wir lernen nun eine weitere Methode kennen, um die Determinante einer Matrixzu berechnen.Satz 6.21 (Cramersche Regel, Variante I). Es sei A = (a1, . . . , an) ∈ MatK(n×n)invertierbar, und Ax = b. Dann gilt fur x = (x1, . . . , xn)

xj =det(a1, . . . , aj−1, b, aj+1, . . . , an)

det(A).

– Fur A ∈ MatK(n×n) bezeichnen wir mit Aij ∈ MatK((n−1)×(n−1)) die Matrix,die entsteht, wenn aus A die i-te Zeile und die j-te Spalte entfernt werden.Satz 6.22 (Laplacescher Entwicklungssatz). Es sei A = (aij)i,j=1,...,n ∈ MatK(n×n) und j0 ∈ {1, . . . , n}. Dann gilt

det(A) =n∑i=1

(−1)i+j0ai,j0 det(Ai,j0)

Definition 6.23. Es sei A ∈ MatK n× n. Die zu A adjunkte Matrix adj(A) =(gij) ∈ MatK(n× n) ist die Matrix mit den Eintragen

gij = (−1)i+j det(Aji).

Satz 6.24. Es gilt adj(A) ·A = det(A)En.Bemerkung. 1. Es gilt auch A · adj(A) = det(A)En

2. Falls A invertierbar ist, so folgt A−1 = adj(A)det(A) .

6.5 Die Determinante als Volumen

– Die geometrische Interpretation einer Determinante ist die eines vorzeichenbehaf-teten Volumens. Mit vol(a1, . . . , an) fur aj ∈ Rn, j = 1, . . . , n, sei das Volumen der

26

Menge

PE(a1, . . . , an) =

n∑j=1

λjaj : 0 ≤ λj ≤ 1 fur j = 1, . . . , n

⊂ Rn,

also des Spats (oder Parallelepipeds), bezeichnet.Satz 6.25. Es gilt vol(a1, . . . , an) = | det(a1, . . . , an)|.Definition 6.26. Eine Volumenform auf V mit dimK(V ) = n ist eine nicht-trivialen-Form.Definition 6.27. Fur F ∈ HomK(V, V ) definieren wir det(F ) durch

µF = det(F )µ

fur eine beliebige Volumenform µ auf V .Satz 6.28. Es sei V ein n-dimensionaler Vektorraum mit Basis A und F ∈EndK(V ). Dann gilt

det(F ) = det(M(A, F,A)).

Korollar 6.29. Es gilt

1. Die Determinante einer Matrix ist invariant unter einem Basiswechsel,

2. det(F ◦G) = det(F ) ◦ det(G).

27