Post on 09-Oct-2019
Vektorraume Definition und Geometrie von Vektoren
Ubersicht Kapitel 9Vektorraume
9.1 Definition und Geometrie von Vektoren
9.2 Teilraume
9.3 Linearkombinationen und Erzeugendensysteme
9.4 Lineare Abhangigkeiten und lineare Unabhangigkeiten
9.5 Basis und Dimension
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 293 / 669
Vektorraume Definition und Geometrie von Vektoren
Ubersicht Kapitel 9Vektorraume
9.1 Definition und Geometrie von Vektoren
9.2 Teilraume
9.3 Linearkombinationen und Erzeugendensysteme
9.4 Lineare Abhangigkeiten und lineare Unabhangigkeiten
9.5 Basis und Dimension
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 294 / 669
Vektorraume Definition und Geometrie von Vektoren
Kapitel 9 Vektorraume
9.1 Definition und Geometrievon Vektoren
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 295 / 669
Vektorraume Definition und Geometrie von Vektoren
K -Vektorraume
Definition 4.1.1 (K -Vektorraum)
Es sei (K , +, ·) ein Korper.Ein K -Vektorraum ist eine Menge V zusammen mit Abbildungen
+ : V × V → V (~v , ~w) 7→ ~v + ~w (Addition)· : K × V → V (s, ~v) 7→ s · ~v (skalare Mult.)
fur die die folgenden Regeln gelten:
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 296 / 669
Vektorraume Definition und Geometrie von Vektoren
K -Vektorraume (Forts.)
Definition 4.1.1 (K -Vektorraum)
(i) (V ,+) ist kommutative Gruppe; das neutrale Element der Addition istder Nullvektor ~0. Das inverse Element zu ~v wird mit −~v bezeichnet.
(ii) 1 · ~v = ~v fur alle ~v ∈ V . (Dabei bezeichnet 1 das Einselement desKorpers K .)
(iii) (s · s ′) · ~v = s · (s ′ · ~v) fur alle s, s ′ ∈ K , ~v ∈ V .
(iv) (s + s ′) · ~v = (s · ~v) + (s ′ · ~v) fur alle s, s ′ ∈ K , ~v ∈ V .
(v) s · (~v + ~w) = (s · ~v) + (s · ~w) fur alle s ∈ K , ~v , ~w ∈ V .Die Elemente von V heißen Vektoren.
Achtung: Die Symbole “+” und “·” werden ublicherweise sowohl furAddition und Multiplikation im Korper K als auch fur Addition undSkalarmultiplikation fur den Vektorraum V verwendet !
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 297 / 669
Vektorraume Definition und Geometrie von Vektoren
Vektorraume und Module
Bemerkung: Ist (K ,+, ·) kein Korper, sondern nur ein Ring mit Eins, sospricht man statt von einem K -Vektorraum von einem K -Modul.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 298 / 669
Vektorraume Definition und Geometrie von Vektoren
Vektorraume – Beispiel K n
Eines der wichtigsten Beispiele ist der Vektorraum Kn der n-dimensionalenSpaltenvektoren
~x =
x1
x2...xn
mit x1, . . . , xn ∈ K . Addition und Skalarmultiplikation werden hier wiefolgt definiert:
x1
x2...xn
+
y1
y2...yn
=
x1 + y1
x2 + y2...
xn + yn
, s ·
x1
x2...xn
=
s · x1
s · x2...
s · xn
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 299 / 669
Vektorraume Definition und Geometrie von Vektoren
Vektorraume – Beispiel K n
Beweis: z.z.: Kn ist ein Vektorraum
Wiederholung Definition K -Vektorraum
Sei (K , +, ·) ein Korper. Ein K -Vektorraum ist eine Menge V zusam-men mit Abbildungen
+ : V × V → V (~v , ~w) 7→ ~v + ~w
· : K × V → V (s, ~v) 7→ s · ~v
Fur s, s ′ ∈ K , ~v , ~w ∈ V soll gelten:
(i) (V ,+) ist eine kommutative Gruppe.
(ii) 1 · ~v = ~v
(iii) (s · s ′) · ~v = s · (s ′ · ~v)
(iv) (s + s ′) · ~v = (s · ~v) + (s ′ · ~v)
(v) s · (~v + ~w) = (s · ~v) + (s · ~w)
z.z.: (Kn,+) ist eine kommutative Gruppe:
~x + ~y = ~y + ~x
(~x + ~y) + ~z = ~x + (~y + ~z)
~0 =(0 . . . 0
)t ~x =
x1...xn
⇒ −~x =
−x1...−xn
Sei ~x ∈ Kn.
1 · ~x = 1 ·
x1...xn
=
1 · x1...
1 · xn
=
x1...xn
= ~x
Folgt aus der Assoziativitat der Multiplikation in K . Folgen aus derDistributivitat in K .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 300 / 669
Vektorraume Definition und Geometrie von Vektoren
Vektorraume – Beispiele Ebene, Raum
Fur K = R und n = 2 kann man sich den Vektorraum R2 als Ebene mitublicher Vektoraddition und skalarer Multiplikation vorstellen.
Entsprechend kann man sich den Vektorraum R3 als “normalen”dreidimensionalen Raum vorstellen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 301 / 669
Vektorraume Definition und Geometrie von Vektoren
Vektorraume – Beispiele Ebene, Raum (Forts.)
x1y1 x1+y1
x2
y2
x2+y2
~x
32~x
~y
~x + ~y
Figure : Addition und Streckung von Vektoren in der Ebene.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 302 / 669
Vektorraume Definition und Geometrie von Vektoren
Vektorraume – Beispiel Matrizen
Seien m, n ∈N. Ein Schema der Form
A =
a11 a12 · · · a1m
a21 a22 · · · a2m...
an1 an2 · · · anm
mit aij ∈ K heißt Matrix, genauer n×m-Matrix uber K . n ist dabei dieAnzahl der Zeilen und m die Anzahl der Spalten.
Die Menge aller n ×m-Matrizen uber K wird mit Kn×m bezeichnet.
Eine n×1-Matrix ist nichts anderes als ein n-dimensionaler Spaltenvektor.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 303 / 669
Vektorraume Definition und Geometrie von Vektoren
Vektorraume – Beispiel Matrizen (Forts.)
Seien A,B ∈ Kn×m n×m-Matrizen, A = (aij),B = (bij).
Wir definieren eine Verknupfung (Addition) “+” auf Kn×m wie folgt:
A + B := (aij + bij),
d.h. Matrixelemente auf derselben Position werden addiert.
Weiterhin definieren wir die skalare Multiplikation “·” wie folgt:Fur s ∈ K und A = (aij) ∈ Kn×m sei
s · A := (s · aij),
d.h. alle Matrixelemente werden mit dem Skalar s multipliziert.
Die Menge Kn×m der n ×m Matrizen uber K ist mit der Matrixadditionund der Skalarmultiplikation ein K -Vektorraum. ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 304 / 669
Vektorraume Definition und Geometrie von Vektoren
Vektorraume – Beispiel Funktionenraum
Es sei M eine beliebige Menge und K ein beliebiger Korper.
Dann wird die Menge KM der Abbildungen von M nach K mit derfolgenden Addition und Skalarmultiplikation zu einem Vektorraum:Fur f , g ∈ KM und s ∈ K definieren wir
(f + g)(x) := f (x) + g(x) fur alle x ∈ M,
(s · f )(x) := s · f (x) fur alle x ∈ M.
Der Nullvektor dieses Vektorraums ist die Nullabbildung, d.h. x 7→ 0 furalle x ∈ M.
Das Inverse zu f ist die Abbildung −f mit −f (x) := −(f (x)). ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 305 / 669
Vektorraume Definition und Geometrie von Vektoren
Rechnen mit Vektoren
Lemma 4.1.2 (Rechenregeln in Vektorraumen)
Es sei (K ,+, ·) ein Korper und (V ,+, ·) ein K -Vektorraum. Dann gilt:
(i) 0 · ~v = ~0 fur alle ~v ∈ V .
(ii) s ·~0 = ~0 fur alle s ∈ K .
(iii) Fur s ∈ K und ~v ∈ V gilt: s · ~v = ~0⇐⇒ (s = 0 ∨ ~v = ~0).
(iv) (−s) · ~v = −(s · ~v) fur alle s ∈ K , ~v ∈ V .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 306 / 669
Vektorraume Definition und Geometrie von Vektoren
Rechnen mit Vektoren
Lemma 4.1.2 (Rechenregeln in Vektorraumen)
Es sei (K ,+, ·) ein Korper und (V ,+, ·) ein K -Vektorraum. Dann gilt:
(i) 0 · ~v = ~0 fur alle ~v ∈ V .
(ii) s ·~0 = ~0 fur alle s ∈ K .
(iii) Fur s ∈ K und ~v ∈ V gilt: s · ~v = ~0⇐⇒ (s = 0 ∨ ~v = ~0).
(iv) (−s) · ~v = −(s · ~v) fur alle s ∈ K , ~v ∈ V .
Beweis: (i) Sei ~v ∈ V
0 · ~v = (0 + 0) · ~v= 0 · ~v + 0 · ~v | − 0 · ~v
⇒ 0 · ~v = ~0
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 307 / 669
Vektorraume Definition und Geometrie von Vektoren
Rechnen mit Vektoren
Lemma 4.1.2 (Rechenregeln in Vektorraumen)
Es sei (K ,+, ·) ein Korper und (V ,+, ·) ein K -Vektorraum. Dann gilt:
(i) 0 · ~v = ~0 fur alle ~v ∈ V .
(ii) s ·~0 = ~0 fur alle s ∈ K .
(iii) Fur s ∈ K und ~v ∈ V gilt: s · ~v = ~0⇐⇒ (s = 0 ∨ ~v = ~0).
(iv) (−s) · ~v = −(s · ~v) fur alle s ∈ K , ~v ∈ V .
Beweis: (ii) Sei s ∈ K .
s ·~0 = s · (~0 +~0)
= s ·~0 + s ·~0 | − s ·~0⇒ s ·~0 = ~0
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 308 / 669
Vektorraume Definition und Geometrie von Vektoren
Rechnen mit Vektoren
Lemma 4.1.2 (Rechenregeln in Vektorraumen)
Es sei (K ,+, ·) ein Korper und (V ,+, ·) ein K -Vektorraum. Dann gilt:
(i) 0 · ~v = ~0 fur alle ~v ∈ V .
(ii) s ·~0 = ~0 fur alle s ∈ K .
(iii) Fur s ∈ K und ~v ∈ V gilt: s · ~v = ~0⇐⇒ (s = 0 ∨ ~v = ~0).
(iv) (−s) · ~v = −(s · ~v) fur alle s ∈ K , ~v ∈ V .
Beweis: (iii) Seien s ∈ K und ~v ∈ V .
”‘⇒”’ Sei s · ~v = ~0. z.z.: s = 0 oder ~v = ~0s = 0 Xs 6= 0 ⇒ ∃s−1 ∈ K :
~0 = s · ~v | · s−1 ⇔ ~0 = s−1 · (s · ~v) = (s−1 · s) · ~v= 1 · ~v = ~v
.Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 309 / 669
Vektorraume Definition und Geometrie von Vektoren
Rechnen mit Vektoren
Lemma 4.1.2 (Rechenregeln in Vektorraumen)
Es sei (K ,+, ·) ein Korper und (V ,+, ·) ein K -Vektorraum. Dann gilt:
(i) 0 · ~v = ~0 fur alle ~v ∈ V .
(ii) s ·~0 = ~0 fur alle s ∈ K .
(iii) Fur s ∈ K und ~v ∈ V gilt: s · ~v = ~0⇐⇒ (s = 0 ∨ ~v = ~0).
(iv) (−s) · ~v = −(s · ~v) fur alle s ∈ K , ~v ∈ V .
Beweis: (iii) Seien s ∈ K und ~v ∈ V .
”’⇐”’ Klar wegen (i) und (ii).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 310 / 669
Vektorraume Definition und Geometrie von Vektoren
Rechnen mit Vektoren
Lemma 4.1.2 (Rechenregeln in Vektorraumen)
Es sei (K ,+, ·) ein Korper und (V ,+, ·) ein K -Vektorraum. Dann gilt:
(i) 0 · ~v = ~0 fur alle ~v ∈ V .
(ii) s ·~0 = ~0 fur alle s ∈ K .
(iii) Fur s ∈ K und ~v ∈ V gilt: s · ~v = ~0⇐⇒ (s = 0 ∨ ~v = ~0).
(iv) (−s) · ~v = −(s · ~v) fur alle s ∈ K , ~v ∈ V .
Beweis: (iv) Seien s ∈ K , ~v ∈ V .z.z.: (−s) · ~v ist das (additive) Inverse zu s · ~v in K .
(−s) · ~v + s · ~v = (−s + s) · ~v= 0 · ~v= ~0
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 311 / 669
Vektorraume Definition und Geometrie von Vektoren
Multiplizieren von Matrizen
Definition 4.1.3 (Matrixmultiplikation)
Es seien l ,m, n ∈ N und A = (aik) ∈ Kn×m,B = (bkj) ∈ Km×l . Dann istdas Produkt A · B ∈ Kn×l wie folgt definiert:
(A · B)ij := ai1 · b1j + ai2 · b2j + · · ·+ ain · bnj =m∑
k=1
aik · bkj
Es muss also gelten
Spaltenzahl der linken Matrix = Zeilenzahl der rechten Matrix.
Wenn l = m = n ist, dann lassen sich je zwei Matrizen derselben Art (alsoaus Kn×n) miteinander multiplizieren.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 312 / 669
Vektorraume Definition und Geometrie von Vektoren
Matrizenring
Satz 4.1.4 (Ring der n × n Matrizen)
Die Menge Kn×n der n × n Matrizen uber einem Korper K bildenzusammen mit der oben definierten Addition und Multiplikation einennicht-kommutativen Ring mit Einselement
En =
1 0 · · · 00 1 · · · 0
...0 0 · · · 1
.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 313 / 669
Vektorraume Definition und Geometrie von Vektoren
Matrizenring
Satz 4.1.4 (Ring der n × n Matrizen)
Die Menge Kn×n der n × n Matrizen uber einem Korper K bildenzusammen mit der oben definierten Addition und Multiplikation einennicht-kommutativen Ring mit Einselement En.
Beweis:
(Kn×n,+) ist eine kommutative Gruppe
die Eigenschaften der Addition von dem Korper K ubertragen sich aufdie Addition von Matrizendas neutrale Element ist die Nullmatrix
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 314 / 669
Vektorraume Definition und Geometrie von Vektoren
Matrizenring
Satz 4.1.4 (Ring der n × n Matrizen)
Die Menge Kn×n der n × n Matrizen uber einem Korper K bildenzusammen mit der oben definierten Addition und Multiplikation einennicht-kommutativen Ring mit Einselement En.
Beweis:
(Kn×n,+) ist eine kommutative Gruppe
Die Matrixmultiplikation ist assoziativ.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 315 / 669
Vektorraume Definition und Geometrie von Vektoren
Matrizenring
Die Matrixmultiplikation ist assoziativ:Sei A = (aij),B = (bij),C = (cij) ∈ Kn×n.
((A · B) · C )ij=n∑
k=1
(A · B)ik · ckj =n∑
k=1
(n∑
l=1
ail · blk) · ckj
=n∑
k=1
n∑l=1
ail · blk · ckj =n∑
l=1
n∑k=1
ail · blk · ckj
=n∑
l=1
ail · (n∑
k=1
blk · ckj︸ ︷︷ ︸(B·C)lj
)=(A · (B · C ))ij
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 316 / 669
Vektorraume Definition und Geometrie von Vektoren
Matrizenring
Satz 4.1.4 (Ring der n × n Matrizen)
Die Menge Kn×n der n × n Matrizen uber einem Korper K bildenzusammen mit der oben definierten Addition und Multiplikation einennicht-kommutativen Ring mit Einselement En.
Beweis:
(Kn×n,+) ist eine kommutative Gruppe
Die Matrixmultiplikation ist assoziativ.
Die Matrixmultiplikation ist nicht kommutativ.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 317 / 669
Vektorraume Definition und Geometrie von Vektoren
Matrizenring
Die Matrixmultiplikation ist nicht kommutativ.
Gegenbeispiel:(2 34 1
)(1 23 4
)=
(2 · 1 + 3 · 3 2 · 2 + 3 · 44 · 1 + 1 · 3 4 · 2 + 1 · 4
)=
(11 167 12
)(
1 23 4
)(2 34 1
)=
(1 · 2 + 2 · 4 1 · 3 + 2 · 13 · 2 + 4 · 4 3 · 3 + 4 · 1
)=
(10 522 13
)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 318 / 669
Vektorraume Definition und Geometrie von Vektoren
Matrizenring
Satz 4.1.4 (Ring der n × n Matrizen)
Die Menge Kn×n der n × n Matrizen uber einem Korper K bildenzusammen mit der oben definierten Addition und Multiplikation einennicht-kommutativen Ring mit Einselement En.
Beweis:
(Kn×n,+) ist eine kommutative Gruppe
Die Matrixmultiplikation ist assoziativ.
Die Matrixmultiplikation ist nicht kommutativ
En ist das neutrale Element bzgl. der Matrixmultiplikation
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 319 / 669
Vektorraume Definition und Geometrie von Vektoren
Matrizenring
En ist das neutrale Element bzgl. der Matrixmultiplikation
Sei A = (aij) ∈ Kn×n.
A · En = (aik)(ekj) = (n∑
k=1
aikekj)
= (aijejj)
= (aij).
Ebenso zeigt man, dass En · A = (eik)(akj) = (aij) ist.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 320 / 669
Vektorraume Definition und Geometrie von Vektoren
Matrizenring
Satz 4.1.4 (Ring der n × n Matrizen)
Die Menge Kn×n der n × n Matrizen uber einem Korper K bildenzusammen mit der oben definierten Addition und Multiplikation einennicht-kommutativen Ring mit Einselement En.
Beweis:
(Kn×n,+) ist eine kommutative Gruppe
Die Matrixmultiplikation ist assoziativ.
Die Matrixmultiplikation ist nicht kommutativ
En ist das neutrale Element bzgl. der Matrixmultiplikation
Matrizen sind im Allgemeinen nicht invertierbar (bezgl. derMatrixmultiplikation). Invertierbare Matrizen in Kn×n heißen auch regular.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 321 / 669
Vektorraume Definition und Geometrie von Vektoren
Transponierte Matrizen
Manchmal benotigt man Matrizen in einer “umgedrehten” Form, d.h. mitvertauschten Zeilen und Spalten:
A =
a11 a12 · · · a1m
a21 a22 · · · a2m...
an1 an2 · · · anm
Transponierung−→ At =
a11 a21 · · · an1
a12 a22 · · · an2...
a1m a2m · · · anm
At heißt transponierte Matrix von A. Ist A ∈ Kn×m, so ist At ∈ Km×n.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 322 / 669
Vektorraume Definition und Geometrie von Vektoren
Skalarprodukt
(Spalten)Vektoren aus Kn sind n × 1-Matrizen:Kn ≡ Kn×1.
Kann man Vektoren miteinander multiplizieren?Im Prinzip ja, wenn man einen von ihnen transponiert.
Sei
~x =
x1
x2...xn
, ~y =
y1
y2...yn
.
Dann ist~x • ~y := ~x t · ~y = x1y1 + . . .+ xnyn ∈ K
das Skalarprodukt auf Kn.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 323 / 669
Vektorraume Definition und Geometrie von Vektoren
Skalarprodukt – Beispiele
Beispiele: Betrachte die Vektoren
~u =
(20
), ~v =
(11
), ~x =
(22
), ~y =
(02
).
Es ist~u • ~v = 2~x • ~y = 4~u • ~y = 0~v • ~x = 4
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 324 / 669
Vektorraume Definition und Geometrie von Vektoren
Geometrie von Vektoren im Rn
Definition 4.1.5 (Lange von Vektoren)
Die Lange eines Vektors ~v =
v1
v2...vn
∈ Rn ist definiert als
| ~v |=√v2
1 + v22 + . . .+ v2
n .
Es ist also| ~v |=
√~v • ~v .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 325 / 669
Vektorraume Definition und Geometrie von Vektoren
Geometrie von Vektoren (Forts.)
Seien ~x , ~y ∈ Rn, sei ∠(~x , ~y) der Winkel zwischen diesen Vektoren.
Man kann zeigen:
Cosinus und Skalarprodukt
~x • ~y =| ~x || ~y | cos∠(~x , ~y).
1
1| ~a || ~b |
Θ
cos Θ
| ~a || ~b | cos Θ
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 326 / 669
Vektorraume Definition und Geometrie von Vektoren
Skalarprodukt, Cosinus und Ahnlichkeiten
Folgendes Lemma lasst sich leicht beweisen:
Lemma 4.1.6
Seien ~x , ~y ∈ Rn Vektoren.
Stehen ~x , ~y aufeinander senkrecht, so gilt ~x • ~y = 0.
cos∠(~x , ~y) =~x • ~y| ~x || ~y |
.
Wegen der Beziehung zum Cosinus wird das Skalarprodukt inAnwendungen (z.B. Information Retrieval, Suchmaschinen) oft alsAhnlichkeitsmaß verwendet.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 327 / 669
Vektorraume Definition und Geometrie von Vektoren
Cosinus und Ahnlichkeit – Beispiel
Betrachte die Vektoren
~u =
(20
), ~v =
(11
), ~x =
(22
), ~y =
(02
).
Es ist | ~u |= 2, | ~v |=√
2, | ~x |= 2√
2, | ~y |= 2.
~u • ~v = 2 cos∠(~u, ~v) = 1√2
~x • ~y = 4 cos∠(~x , ~y) = 1√2
~u • ~y = 0 cos∠(~u, ~y) = 0 orthogonal~v • ~x = 4 cos∠(~v , ~x) = 1 vollkommen ahnlich!
♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 328 / 669
Vektorraume Teilraume
Ubersicht Kapitel 9 Vektorraume
9.1 Definition und Geometrie von Vektoren
9.2 Teilraume
9.3 Linearkombinationen und Erzeugendensysteme
9.4 Lineare Abhangigkeiten und lineare Unabhangigkeiten
9.5 Basis und Dimension
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 329 / 669
Vektorraume Teilraume
Kapitel 9 Vektorraume
9.2 Teilraume
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 330 / 669
Vektorraume Teilraume
Untervektorraume
Definition 4.2.1 (Teilraume, Untervektorraume)
Es sei (K ,+, ·) ein Korper und (V ,+, ·) ein K -Vektorraum.Sei U ⊆ V eine Teilmenge von V . U heißt Teilraum oder Untervektorraumvon V , wenn es die folgenden Bedingungen erfullt:
(i) U 6= ∅,(ii) ~v , ~w ∈ U =⇒ (~v + ~w) ∈ U,
(iii) s ∈ K , ~v ∈ U =⇒ (s · ~v) ∈ U.
Satz 4.2.2
Ein Teilraum U eines K -Vektorraumes (V ,+, ·) zusammen mit derEinschrankung der Addition +|U×U und Skalarmultiplikation ·|K×U auf Uist selbst wieder ein K -Vektorraum.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 331 / 669
Vektorraume Teilraume
Untervektorraume
Definition 4.2.1 (Teilraume, Untervektorraume)
Es sei (K ,+, ·) ein Korper und (V ,+, ·) einK -Vektorraum. Sei U ⊆ V , U heißt Teil-raum von V , wenn gilt:
(i) U 6= ∅,(ii) ~v , ~w ∈ U ⇒ (~v + ~w) ∈ U,
(iii) s ∈ K , ~v ∈ U ⇒ (s · ~v) ∈ U.
Beweis: Sei U Teilraum eines K -Vektorraumes (V ,+, ·).z.z.: (U,+|U×U , ·|K×U) ist ein K -Vektorraum
Wohldefiniertheit:
+|U×U : U × U → U (~v , ~w) 7→ ~v + ~w X(ii)
·|K×U : K × U → U (s, ~v) 7→ s · ~v X(iii)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 332 / 669
Vektorraume Teilraume
Untervektorraume
Definition 4.2.1 (Teilraume, Untervektorraume)
Es sei (K ,+, ·) ein Korper und (V ,+, ·) einK -Vektorraum. Sei U ⊆ V , U heißt Teil-raum von V , wenn gilt:
(i) U 6= ∅,(ii) ~v , ~w ∈ U ⇒ (~v + ~w) ∈ U,
(iii) s ∈ K , ~v ∈ U ⇒ (s · ~v) ∈ U.
Beweis: Sei U Teilraum eines K -Vektorraumes (V ,+, ·).z.z.: (U,+|U×U , ·|K×U) ist ein K -Vektorraum
Wohldefiniertheit(U,+) ist eine kommutative Gruppe
Kommutativitat ubertragt sich aus VAssoziativitat ubertragt sich aus Vneutrales Element:
U 6= ∅ ⇒ ∃~v ∈ U
⇒ 0 · ~v ∈ U
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 333 / 669
Vektorraume Teilraume
Untervektorraume
Definition 4.2.1 (Teilraume, Untervektorraume)
Es sei (K ,+, ·) ein Korper und (V ,+, ·) einK -Vektorraum. Sei U ⊆ V , U heißt Teil-raum von V , wenn gilt:
(i) U 6= ∅,(ii) ~v , ~w ∈ U ⇒ (~v + ~w) ∈ U,
(iii) s ∈ K , ~v ∈ U ⇒ (s · ~v) ∈ U.
Beweis: Sei U Teilraum eines K -Vektorraumes (V ,+, ·).z.z.: (U,+|U×U , ·|K×U) ist ein K -Vektorraum
Wohldefiniertheit(U,+) ist eine kommutative Gruppe
Kommutativitat ubertragt sich aus VAssoziativitat ubertragt sich aus Vneutrales Element ~0 ∈ Uinverse Elemente : Sei ~v ∈ U. Dann gilt:
−~v = −(1 · ~v) = (−1) · ~v ∈ U
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 334 / 669
Vektorraume Teilraume
Untervektorraume
Definition 4.2.1 (Teilraume, Untervektorraume)
Es sei (K ,+, ·) ein Korper und (V ,+, ·) einK -Vektorraum. Sei U ⊆ V , U heißt Teil-raum von V , wenn gilt:
(i) U 6= ∅,(ii) ~v , ~w ∈ U ⇒ (~v + ~w) ∈ U,
(iii) s ∈ K , ~v ∈ U ⇒ (s · ~v) ∈ U.
Beweis: Sei U Teilraum eines K -Vektorraumes (V ,+, ·).z.z.: (U,+|U×U , ·|K×U) ist ein K -Vektorraum
Wohldefiniertheit
(U,+) ist eine kommutative Gruppe
1 · ~v = ~v ∀~v ∈ V ubertragt sich aus V
(s · s ′) · ~v = s · (s ′ · ~v) ∀s, s ′ ∈ K , ~v ∈ V ubertragt sich aus V
(s + s ′) · ~v = (s · ~v) + (s ′ · ~v) ∀s, s ′ ∈ K , ~v ∈ V ubertragt sich aus V
s · (~v + ~w) = (s · ~v) + (s · ~w) ∀s ∈ K , ~v , ~w ∈ V ubertragt sich aus V
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 335 / 669
Vektorraume Teilraume
Charakterisierung von Teilraumen
Korollar 4.2.3 (Teilraume und Nullvektor)
Zu jedem Teilraum gehort der Nullvektor ~0.
Beweis: Sei U ein Teilraum.
⇒ U 6= ∅⇒ ∃~v ∈ U
⇒ 0 · ~v = ~0 ∈ U
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 336 / 669
Vektorraume Teilraume
Charakterisierung von Teilraumen
Lemma 4.2.4 (Charakterisierung von Teilraumen)
Es sei (V ,+, ·) ein K -Vektorraum. Eine nichtleere Teilmenge U ⊆ V istgenau dann ein Teilraum von V , wenn die folgende Bedingung erfullt ist:
s ∈ K , ~v , ~w ∈ U ⇒ ((s · ~v) + ~w) ∈ U.
Beweis: Seien (V ,+, ·) ein K -Vektorraum, U ∈ V und U ⊆ ∅.”‘⇒”’ Sei U ein Teilraum, s ∈ K und ~v , ~w ∈ U.
⇒ ((s · ~v)︸ ︷︷ ︸∈U
+~w) ∈ U
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 337 / 669
Vektorraume Teilraume
Charakterisierung von Teilraumen
Lemma 4.2.4 (Charakterisierung von Teilraumen)
Es sei (V ,+, ·) ein K -Vektorraum. Eine nichtleere Teilmenge U ⊆ V istgenau dann ein Teilraum von V , wenn die folgende Bedingung erfullt ist:
s ∈ K , ~v , ~w ∈ U ⇒ ((s · ~v) + ~w) ∈ U.
Beweis: Seien (V ,+, ·) ein K -Vektorraum, U ⊆ V und U 6= ∅.”‘⇐”’ Sei U ∈ V , U 6= ∅ mit ((s · ~v) + ~w) ∈ U ∀s ∈ K , ~v , ~w ∈ U.z.z.: U ist ein Teilraum von V
U 6= ∅ XSei ~v , ~w ∈ U ⇒ (~v + ~w) = ((1 · ~v) + ~w) ∈ U
Sei s ∈ K , ~v ∈ U ⇒ (s · ~v) = (s · ~v) +~0 ∈ U
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 338 / 669
Vektorraume Teilraume
Untervektorraume - Beispiele Geraden/Ebenen
Beispiel (Geraden im R2/R3): Jede durch den Ursprung verlaufendeGerade im R2/R3 ist ein Untervektorraum des (R2/R3,+, ·). ♣
Beispiel (Ebenen im R3): Alle Ebenen des R3, die durch den Ursprungverlaufen, sind Untervektorraume des (R3,+, ·). ♣
Beispiel (Ebene im R3): Es sei M ⊆ R3 die Menge
M = { (x , y , z) ∈ R3 | z = x + y }
M ist ein Untervektorraum des (R3,+, ·). ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 339 / 669
Vektorraume Teilraume
Untervektorraume - Beispiel
Sei A ∈ Kn×m eine n ×m-Matrix.
Sei N(A) ⊆ Km die Menge
N(A) = { ~x ∈ Km | A~x = ~0 }.
N(A) ist ein Teilvektorraum von (Km,+, ·).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 340 / 669
Vektorraume Teilraume
Triviale Untervektorraume
Satz 4.2.5
Jeder Vektorraum V enthalt auf jeden Fall die trivialen UntervektorraumeV (also sich selbst) und den Nullvektorraum {~0}.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 341 / 669
Vektorraume Teilraume
Weitere wichtige Teilraume
Wir diskutieren als nachstes Teilraume, die aus anderen Teilraumen durchSchnittbildung und Addition entstehen.
Lemma 4.2.6
Es sei (V ,+, ·) ein K -Vektorraum und U1,U2 zwei Teilraume von V . Dannsind auch
U1 ∩ U2 und
U1 + U2 := {~u1 + ~u2 | ~u1 ∈ U1 und ~u2 ∈ U2}Teilraume von V .
Bemerkung: Ist I eine beliebige Indexmenge und ist fur alle i ∈ I dieMenge Ui ein Teilraum von V , so ist auch
⋂i∈I Ui ein Teilraum von V .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 342 / 669
Vektorraume Teilraume
Weitere wichtige Teilraume
Beweis: Seien U1, U2 Teilraume von V .
z.z.: U1 ∩ U2 ist ein Teilraum von V~0 ∈ U1 ∩ U2 6= ∅Sei s ∈ K , ~v , ~w ∈ U1 ∩ U2.
⇒ ~v , ~w ∈ U1 ∧ ~v , ~w ∈ U2
⇒ ((s · ~v) + ~w) ∈ U1 ∧ ((s · ~v) + ~w) ∈ U2
⇒ ((s · ~v) + ~w) ∈ U1 ∩ U2
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 343 / 669
Vektorraume Teilraume
Weitere wichtige Teilraume
Beweis: Seien U1, U2 Teilraume von V .
z.z.: U1 ∩ U2 ist ein Teilraum von V Xz.z.: U1 + U2 ist ein Teilraum von V
~0 = ~0 +~0 ∈ U1 + U2 6= ∅Sei s ∈ K , ~v , ~w ∈ U1 + U2.⇒ ~v = ~v1 + ~v2, ~w = ~w1 + ~w2 mit ~v1, ~w1 ∈ U1, ~v2, ~w2 ∈ U2
⇒ ((s · ~v) + ~w) = (s · (~v1 + ~v2)) + ( ~w1 + ~w2)
= ((s · ~v1) + (s · ~v2)) + ( ~w1 + ~w2)
= ((s · ~v1) + ~w1)︸ ︷︷ ︸∈U1
+ ((s · ~v2) + ~w2)︸ ︷︷ ︸∈U2
∈ U1 + U2
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 344 / 669
Vektorraume Teilraume
Erzeugte Teilraume
Es sei V ein K -Vektorraum. Fur ~v ∈ V definieren wir
〈~v〉 := {s · ~v | s ∈ K}.
Dann ist 〈~v〉 ein Teilraum von V . Man nennt ihn den von ~v erzeugtenTeilraum.
Beispiel (Geraden im R2): Im R-Vektorraum R2 kann man sich den voneinem Vektor
(xy
)6= ~0 erzeugten Teilraum als die Punkte auf der
eindeutigen Geraden durch den Nullpunkt und den Punkt(xy
)vorstellen.
♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 345 / 669
Vektorraume Teilraume
Erzeugte Teilraume (Forts.)
Sind ~v1 und ~v2 zwei Vektoren in V , so ist (nach Lemma 4.2.6)
〈~v1〉+ 〈~v2〉 = {s1 ~v1 + s2 ~v2 | s1, s2 ∈ K}
auch ein Teilraum.
Solche Teilraume wollen wir uns im Folgenden naher anschauen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 346 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Ubersicht Kapitel 9 Vektorraume
9.1 Definition und Geometrie von Vektoren
9.2 Teilraume
9.3 Linearkombinationen und Erzeugendensysteme
9.4 Lineare Abhangigkeiten und lineare Unabhangigkeiten
9.5 Basis und Dimension
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 347 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Kapitel 9 Vektorraume
9.3 Linearkombinationen undErzeugendensysteme
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 348 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Erzeugung von Vektorraumen durch Linearkombinationen
Eine wichtige Rolle im Zusammenhang mit Vektor- und Teilraumen spielenLinearkombinationen von Vektoren. Das sind neue Vektoren, die durchSkalarmultiplikation und Vektoraddition aus gegebenen Vektorenentstehen.
Wir hatten gerade gesehen, dass solche Linearkombinationen bei derErzeugung von Teilraumen auftreten. Mit Hilfe von Linearkombinationenkann man einen Teilraum also “von innen heraus” erzeugen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 349 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Linearkombinationen und Erzeugnisse
Definition 4.3.1 (Linearkombinationen , Erzeugnisse)
Es sei (V ,+, ·) ein K -Vektorraum mit Vektoren ~v1, . . . , ~vn ∈ V .Dann heißt der Vektor ~v ∈ V eine Linearkombinationen der Vektoren{~v1, . . . , ~vn}, wenn es s1, . . . , sn ∈ K gibt mit
~v = s1 · ~v1 + · · ·+ sn · ~vn.
Ist M ⊆ V eine Teilmenge von V , so definieren wir das Erzeugnis von Mals
〈M〉 :=
{n∑
i=1
si · ~vi∣∣∣∣ n ∈ N, si ∈ K und ~vi ∈ M fur i = 1, . . . , n
},
wobei der leeren Summe der Nullvektor entspricht:∑∅
= ~0
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 350 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Erzeugte Teilraume
Lemma 4.3.2
Es sei (V ,+, ·) ein K -Vektorraum und M ⊆ V eine beliebige Teilmengevon V . Dann ist das Erzeugnis 〈M〉 von M ein Teilraum von V .
Beweis: Sei (V ,+, ·) ein K -Vektorraum und sei M ⊆ V .~0 =
∑∅ ∈ 〈M〉 ⇒ 〈M〉 6= ∅.
Seien s ∈ K , ~v , ~w ∈ 〈M〉 ⇒ ∃~v1, . . . ~vn, ~w1 . . . ~wn ∈ M, n,m ∈ N:
~v = s1 · ~v1 + · · ·+ sn · ~vn,~w = t1 · ~w1 + · · ·+ tn · ~wn,
Daraus folgt:
s · ~v + ~w = s · (s1 · ~v1 + · · ·+ sn · ~vn) + t1 · ~w1 + · · ·+ tn · ~wn
= (s · s1)~v1 + · · ·+ (s · sn)~vn + t1 · ~w1 + · · ·+ tn · ~wn
∈< M >
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 351 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Erzeugte Teilraume
〈M〉 heißt auch der von M erzeugte Teilraum von V . Die Menge M heißtErzeugendensystem von 〈M〉.
Lemma 4.3.3
〈M〉 ist der kleinste Teilraum (bezuglich Mengeninklusion) von V , der Menthalt.
Beweis: Sei M ⊆ V , U ein Teilraum von V mit M ⊆ U.
z.z.: 〈M〉 ⊆ U
Sei ~v ∈ 〈M〉 ⇒ ~v = s1 · ~v1 + · · ·+ sn · ~vnfur einige ~v1, . . . , ~vn ∈ M, s1, . . . , sn ∈ K
⇒ ~v1, . . . , ~vn ∈ U, da M ⊆ U
⇒ ~v ∈ U
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 352 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Erzeugte Teilraume
〈M〉 heißt auch der von M erzeugte Teilraum von V . Die Menge M heißtErzeugendensystem von 〈M〉.
Lemma 4.3.3
〈M〉 ist der kleinste Teilraum (bezuglich Mengeninklusion) von V , der Menthalt.
Demnach macht es Sinn, als Erzeugnis der leeren Menge den trivialenTeilraum von V , der nur aus dem Nullvektor besteht, zu definieren, also
〈∅〉 := {~0}.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 353 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Endliche Erzeugendensysteme
Definition 4.3.4 (Endlich erzeugten (Unter)Vektorraum)
Es sei (V ,+, ·) ein K -Vektorraum und U ⊆ V ein Untervektorraum.Gibt es eine endliche Menge M ⊆ V , also M = {~v1, . . . ~vn} mit n ∈ N, sodass U = 〈M〉, so sagen wir, dass U endlich erzeugt ist. Wir schreibenauch
〈M〉 = 〈{~v1, . . . , ~vn}〉 = 〈~v1, . . . , ~vn〉
=
{n∑
i=1
si · ~vi∣∣∣∣ si ∈ K fur i = 1, . . . , n
}
Die Schreibweise〈~v〉 = {s · ~v | s ∈ K}
fur ~v ∈ V haben wir schon am Ende des letzten Unterabschnittesverwendet.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 354 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Beispiel – erzeugter Teilraum in R2
Es sei V = R2 und
M =
{(1
1
),
(−1
1
),
(1
0
)}.
Dann ist〈M〉 = R2,
denn ein beliebiger Vektor(xy
)∈ R2 kann wie folgt als Linearkombination
der Elemente von M geschrieben werden:(x
y
)= x ·
(1
1
)+ (y − x) ·
(−1
1
)+ (y − x) ·
(1
0
).
Damit ist{(1
1
),(−1
1
),(1
0
)}also ein Erzeugendensystem des Vektorraums
R2 und R2 ist folglich endlich erzeugt.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 355 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Beispiel – erzeugter Teilraum in R2 (Forts.)
Bereits die Teilmenge{(1
1
),(1
0
)}von M ist ein Erzeugendensystem von
R2, da ein beliebiger Vektor(xy
)∈ R2 geschrieben werden kann als(
x
y
)= y ·
(1
1
)+ (x − y) ·
(1
0
)♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 356 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Beispiel – K n und Einheitsvektoren
Wir betrachten den K -Vektorraum Kn. Fur i = 1, . . . , n sei ~e i der Vektor,dessen i-ter Eintrag 1 ist und alle anderen Eintrage 0, d.h.
~ei =
0...010...0
← i (~ei )j =
{1 falls j = i ,
0 sonst.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 357 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Beispiel – K n und Einheitsvektoren (Forts.)
Der Vektor ~e i heißt i-ter Einheitsvektor. Dann ist {~e1, . . . , ~en} einErzeugendensystem von Kn, also Kn = 〈~e1, . . . , ~en〉, dennx1
...xn
= x1 · ~e1 + · · ·+ xn · ~en fur alle x1, . . . , xn ∈ K .
Folglich ist der Vektorraum Kn endlich erzeugt. ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 358 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Idee der Vektorraumbasis
Idee der Basis: Mit Hilfe von Erzeugendensysteme lassen sich(Unter)Vektorraume leicht kompakt reprasentieren, sie enthalten offenbaralle wichtigen Informationen uber den Vektorraum.
Wie kann man diese Art der Reprasentation von Vektorraumen optimieren?
Minimalitat: Kein Vektor in dem optimalen Erzeugendensystem istuberflussig.
Unabhangigkeit: Die Vektoren im optimalen Erzeugendensystem sind(irgendwie) unabhangig voneinander.
Eindeutigkeit: Jeder Vektor des erzeugten Vektorraumes hat genaueine Darstellung als Linearkombination der Vektoren desErzeugendensystems.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 359 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Vektorraumbasis
Definition 4.3.5 (Basis)
Es sei (V ,+, ·) ein K -Vektorraum.
Eine Teilmenge M ⊆ V heißt Basis von V , wenn sich jedes ~v ∈ Veindeutig als Linearkombination von paarweise verschiedenen Vektoren ausM schreiben lasst.
Außerdem definieren wir, dass die leere Menge ∅ eine Basis des trivialenK -Vektorraums {~0} ist.
Insbesondere ist jede Basis von V auch ein Erzeugendensystem von V .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 360 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Endliche Basen
Zunachst einmal charakterisieren wir endliche Basen, die fur viele Beispieleund Anwendungen wichtig sind:
Satz 4.3.6
Es sei (V ,+, ·) ein K -Vektorraum. Die endliche Teilmenge
{~v1, . . . , ~vn} ⊆ V
ist Basis von V genau dann, wenn ~v1, . . . , ~vn paarweise verschieden sindund es zu jedem ~u ∈ V genau ein n-Tupel (x1, . . . , xn) ∈ Kn gibt mit
~u = x1 · ~v1 + ·+ xn · ~vn
Beispiel (Einheitsvektoren im Kn): Die Menge der Einheitsvektoren{~e1, . . . , ~en} ist eine Basis des K -Vektorraums Kn. ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 361 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Endliche Basen
Definition 4.3.5 (Basis)
Sei (V ,+, ·) ein K -Vektorraum. M ⊆ V heißt Basis von V:⇔ jedes ~v ∈ V sich eindeutig als Linearkombination von paarw. verschiedenen Vektorenaus M schreiben lasst.
Beweis: Sei (V ,+, ·) ein K -Vektorraum.z.z.: {~v1, . . . , ~vn} ⊆ V ist Basis von V ⇔
(i) ~v1, . . . , ~vn sind paarweise verschieden
(ii) zu jedem ~u ∈ V existiert genau ein (x1, . . . , xn) ∈ Kn mit
~u = x1 · ~v1 + ·+ xn · ~vn
”‘⇒”’ Sei {~v1, . . . , ~vn} eine Basis von V.
(i) Ann.: ~vi = ~vj , fur 1 ≤ i 6= j ≤ n ⇒ ~vi = 1 · ~vi = 1 · ~vj (ii) Sei ~u ∈ V . ⇒ ~u lasst sich eindeutig als Linearkombination von{~v1, . . . , ~vn} schreiben X
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 362 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Endliche Basen
Definition 4.3.5 (Basis)
Sei (V ,+, ·) ein K -Vektorraum. M ⊆ V heißt Basis von V:⇔ jedes ~v ∈ V sich eindeutig als Linearkombination von paarw. verschiedenen Vektorenaus M schreiben lasst.
Beweis: Sei (V ,+, ·) ein K -Vektorraum.z.z.: {~v1, . . . , ~vn} ⊆ V ist Basis von V ⇔
(i) ~v1, . . . , ~vn sind paarweise verschieden
(ii) zu jedem ~u ∈ V existiert genau ein (x1, . . . , xn) ∈ Kn mit
~u = x1 · ~v1 + ·+ xn · ~vn
”‘⇐”’ Folgt aus der Definition.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 363 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Vektorraumbasis – Beispiele
Negatives Beispiel 1: Wie wir weiter oben beobachtet haben, gilt⟨(11
),(−1
1
),(1
0
)⟩= R2. Die Menge
{(11
),(−1
1
),(1
0
)}ist jedoch keine Basis
von R2, denn (−11
)= 0 ·
(11
)+ 1 ·
(−11
)+ 0 ·
(10
)und andererseits(
−11
)= 1 ·
(11
)+ 0 ·
(−11
)− 2 ·
(10
)♣
Negatives Beispiel 2: Der Nullvektor ~0 kann nie Element einer Basis sein,denn
0 · ~0 = 1 · ~0 = ~0 ,
so dass also die Koeffizienten der Darstellung nicht eindeutig sind. ♣Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 364 / 669
Vektorraume Linearkombinationen und Erzeugendensysteme
Vektorraumbasis – Beispiele
Beispiel: Die Menge{(1
1
),(1
0
)}ist Basis von R2, denn fur
(xy
)∈ R2 gilt(
xy
)= y ·
(11
)+ (x − y) ·
(10
).
Gilt auch (xy
)= a ·
(11
)+ b ·
(10
)fur a, b ∈ R, so muss x = a + b und y = a gelten. Daraus folgt aber a = yund b = x − y , so dass die Koeffizienten also eindeutig sind. ♣
Beispiel (Rn): Der R-Vektorraum R2 hat unendlich viele Basen: ZumBeispiel ist die Menge {~e1, c · ~e2} fur alle c ∈ R\{0} eine Basis von R2. ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 365 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ubersicht Kapitel 9 Vektorraume
9.1 Definition und Geometrie von Vektoren
9.2 Teilraume
9.3 Linearkombinationen und Erzeugendensysteme
9.4 Lineare Abhangigkeiten und lineare Unabhangigkeiten
9.5 Basis und Dimension
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 366 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Kapitel 9 Vektorraume
9.4 Lineare Abhangigkeiten und lineareUnabhangigkeiten
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 367 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Lineare Unabhangigkeit
Bei der Idee eines optimalen Erzeugendensystems (also einer Basis) sollteauch die Idee der Unabhangigkeit umgesetzt werden. Das wollen wir nunkonkretisieren.
Definition 4.4.1 (Lineare Unabhangigkeit)
Es sei (V ,+, ·) ein K -Vektorraum.
Eine Teilmenge M ⊆ V heißt linear unabhangig, wenn fur jedes ~v ∈ M
gilt, dass⟨M \ ~{v}
⟩6= 〈M〉.
Die Teilmenge M heißt linear abhangig, wenn M nicht linear unabhangigist, das heißt
M ist linear abhangig ⇐⇒ ∃~v ∈ M : 〈M \ {~v}〉 = 〈M〉.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 368 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Lineare Unabhangigkeit – Beispiele
Beispiel: Die leere Menge ∅ ist linear unabhangig. ♣
Beispiel: Ist ~0 ∈ M, so ist M linear abhangig, da 〈M \ {~0}〉 = 〈M〉. ♣
Beispiel: Die Menge{(1
1
),(−1
1
),(1
0
)}ist linear abhangig, weil 〈M〉 = R2
aber auch schon⟨M \
{(−11
)}⟩= R2. ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 369 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein einfaches Lemma
Lemma 4.4.2
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sindaquivalent:
(i) M ist linear abhangig.
(ii) Es gibt ein ~v ∈ M mit ~v ∈ 〈M \ {~v}〉.
Das Lemma sagt also aus, dass es in einer linear abhangigen Teilmenge Mein Element gibt, das als Linearkombination der anderen Elemente aus Mgeschrieben werden kann.
In einer linear abhangigen Menge gibt es also “uberflussige” Elemente.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 370 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein einfaches Lemma
Lemma 4.4.2
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sindaquivalent:
(i) M ist linear abhangig.
(ii) Es gibt ein ~v ∈ M mit ~v ∈ 〈M \ {~v}〉.
Beweis: (i)⇒ (ii) Sei M ⊆ V eine linear abhangige Teilmenge von V .
⇒ ∃~v ∈ M mit 〈M \ {~v}〉 = 〈M〉⇒ ~v ∈ M ⊆ 〈M〉 = 〈M \ {~v}〉.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 371 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein einfaches Lemma
Lemma 4.4.3
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sindaquivalent:
(i) M ist linear abhangig.
(ii) Es gibt ein ~v ∈ M mit ~v ∈ 〈M \ {~v}〉.
Beweis: (ii)⇒ (i) Sei ~v ∈ M mit ~v ∈ 〈M \ {~v}〉. Dann ist
~v =n∑
i=1
si · ~vi fur si ∈ K , ~vi ∈ M \ {~v}
z.z.: 〈M \ {~v}〉 = 〈M〉
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 372 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein einfaches Lemma
Beweis: (ii)⇒ (i) Sei ~v ∈ M mit ~v ∈ 〈M \ {~v}〉. Dann ist
~v =n∑
i=1
si · ~vi fur si ∈ K , ~vi ∈ M \ {~v}
z.z.: 〈M \ {~v}〉 = 〈M〉
”‘⊆”’ M \ {~v} ⊆ M ⇒ 〈M \ {~v}〉 ⊆ 〈M〉
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 373 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein einfaches Lemma
Beweis: (ii)⇒ (i) Sei ~v ∈ M mit ~v ∈ 〈M \ {~v}〉. Dann ist
~v =n∑
i=1
si · ~vi fur si ∈ K , ~vi ∈ M \ {~v}
z.z.: 〈M \ {~v}〉 = 〈M〉
”‘⊇”’ Sei ~w ∈ 〈M〉. z.z.: ~w ∈ 〈M \ {~v}〉
~w =m∑j=1
tj · ~wj fur tj ∈ K , ~wj ∈ M
1. Fall: ~v 6= ~wj ∀1 ≤ j ≤ m ⇒ ~w ∈ 〈M \ {~v}〉
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 374 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein einfaches Lemma
Beweis: (ii)⇒ (i) Sei ~v ∈ M mit ~v ∈ 〈M \ {~v}〉. Dann ist
~v =n∑
i=1
si · ~vi fur si ∈ K , ~vi ∈ M \ {~v}
z.z.: 〈M \ {~v}〉 = 〈M〉
”‘⊇”’ Sei ~w ∈ 〈M〉. z.z.: ~w ∈ 〈M \ {~v}〉
~w =m∑j=1
tj · ~wj fur tj ∈ K , ~wj ∈ M
2. Fall: ~v = ~wj fur ein j , o.B.d.A. ~v = ~w1. Dann gilt:
~w = t1 · ~v +m∑j=2
tj · ~wj = t1(n∑
i=1
si · ~vi ) +m∑j=2
tj · ~wj
=n∑
i=1
(t1 · si ) · ~vi +m∑j=2
tj · ~wj ∈ 〈M \ {~v}〉
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 375 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Lineare Abhangigkeit – Beispiel
Es sei V = R3 und
M :=
1
10
,
100
,
010
,
001
.
Dann ist M linear abhangig, da110
∈ ⟨1
00
,
010
,
001
⟩.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 376 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Lineare Abhangigkeit – Beispiel (Forts.)
Es gilt auch 100
∈ ⟨1
10
,
010
,
001
⟩
und 010
∈ ⟨1
10
,
100
,
001
⟩.
Man beachte jedoch, dass001
/∈
⟨ 110
,
100
,
010
⟩.
♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 377 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Folgerung Lineare Abhangigkeit
Welche Folgerung konnen wir aus dem letzten Beispiel ziehen?
Bemerkung: Bei einer linear abhangigen Menge M muss nicht jedesElement ~v ∈ M in dem von den ubrigen erzeugten Teilraum liegen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 378 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein wichtiges Lemma
Lemma 4.4.4
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sindaquivalent:
(i) M ist linear abhangig.
(ii) Es gibt paarweise verschiedene Vektoren ~v1, . . . , ~vn ∈ M mitzugehorigen Skalaren s1, . . . , sn ∈ K , die nicht alle Null sind, mit
s1 · ~v1 + · · ·+ sn · ~vn = ~0.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 379 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein wichtiges Lemma
Lemma 4.4.4
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind aquivalent:
(i) M ist linear abhangig.
(ii) Es gibt paarweise verschiedene Vektoren ~v1, . . . , ~vn ∈ M mit zugehorigen Skalarens1, . . . , sn ∈ K , die nicht alle Null sind, mit
s1 · ~v1 + · · ·+ sn · ~vn = ~0.
Beweis: (i)⇒ (ii) Sei M linear abhangig. ⇒ ∃~v1 ∈ M : ~v1 ∈ 〈M \ {~v1}〉1. Fall: M \ {~v1} = ∅.
⇒ ~v1 ∈ 〈∅〉 ={~0}
⇒ ~v1 = ~0, s1 := 1 ∈ K
⇒ s1 · ~v1 = 1 ·~0 = ~0
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 380 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein wichtiges Lemma
Lemma 4.4.4
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind aquivalent:
(i) M ist linear abhangig.
(ii) Es gibt paarweise verschiedene Vektoren ~v1, . . . , ~vn ∈ M mit zugehorigen Skalarens1, . . . , sn ∈ K , die nicht alle Null sind, mit
s1 · ~v1 + · · ·+ sn · ~vn = ~0.
Beweis: (i)⇒ (ii) Sei M linear abhangig. ⇒ ∃~v1 ∈ M : ~v1 ∈ 〈M \ {~v1}〉2. Fall: M \ {~v1} 6= ∅.⇒ ∃ paarw. verschiedene ~v2, . . . , ~vn ∈ 〈M \ {~v1}〉 und s2, . . . , sn ∈ K :
~v1 = s2 · ~v2 + · · ·+ sn · ~vn⇔ ~0 = −~v1 + s2 · ~v2 + · · ·+ sn · ~vn
mit s1 = −1 6= 0.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 381 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein wichtiges Lemma
Lemma 4.4.4
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind aquivalent:
(i) M ist linear abhangig.
(ii) Es gibt paarweise verschiedene Vektoren ~v1, . . . , ~vn ∈ M mit zugehorigen Skalarens1, . . . , sn ∈ K , die nicht alle Null sind, mit
s1 · ~v1 + · · ·+ sn · ~vn = ~0.
Beweis: (ii)⇒ (i) Seien ~v1, . . . , ~vn ∈ M paarweise verschieden unds1, . . . , sn ∈ K , mit s1 · ~v1 + · · ·+ sn · ~vn = ~0. Mindestens ein si ist 6= 0, seidies o.B.d.A. s1. Dann ist
s1 · ~v1 = −s2 · ~v2 − · · · − sn · ~vn | · s−1
⇔ ~v1 = −s−11 (s2 · ~v2)− · · · − s−1
1 (sn · ~vn)
= −(s−11 s2) · ~v2 − · · · − (s−1
1 sn) · ~vn⇒ ~v1 ∈ 〈~v2, . . . , ~vn〉 ⊆ 〈M \ {~v1}〉 .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 382 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein wichtiges Korollar
Als unmittelbare Folgerung aus Lemma 9.4.4 erhalten wir das nachsteKorollar.
Korollar 4.4.5
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sindaquivalent:
(i) M ist linear unabhangig.
(ii) Fur beliebige paarweise verschiedene Vektoren ~v1, . . . , ~vn ∈ M undbeliebige Skalare s1, . . . , sn ∈ K , gilt:
s1 · ~v1 + · · ·+ sn · ~vn = ~0 =⇒ s1 = · · · = sn = 0.
Bemerkung: Die Implikation in Teil (ii) des obigen Korollars ist eigentlicheine Aquivalenz.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 383 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein wichtiges Korollar
Lemma 4.4.4
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind aquivalent:
(i) M ist linear abhangig. =: A
(ii) ∃ paarweise verschiedene Vektoren ~v1, . . . , ~vn ∈ M mit s1, . . . , sn ∈ K :
s1 · ~v1 + · · ·+ sn · ~vn = ~0 ∧ ¬(s1 = · · · = sn = 0).=: B
Korollar 4.4.5
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind aquivalent:
(i) M ist linear unabhangig. z.z.: = ¬A(ii) ∀ paarweise verschiedene Vektoren ~v1, . . . , ~vn ∈ M und s1, . . . , sn ∈ K , gilt:
s1 · ~v1 + · · ·+ sn · ~vn = ~0 =⇒ s1 = · · · = sn = 0. z.z.: = ¬B
Beweis: Es gilt: (A⇔ B)⇔ (¬A⇔ ¬B).Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 384 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein wichtiges Korollar
Korollar 4.4.5
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind aquivalent:
(i) M ist linear unabhangig. z.z.: = ¬A X
(ii) ∀ paarweise verschiedene Vektoren ~v1, . . . , ~vn ∈ M und s1, . . . , sn ∈ K , gilt:
s1 · ~v1 + · · ·+ sn · ~vn = ~0 =⇒ s1 = · · · = sn = 0. z.z.: = ¬B
Beweis: Sei V ein K -Vektorraum und M ⊆ V .A := M ist linear abhangigB := ∃ paarw. verschiedene ~v1, . . . , ~vn ∈ M, s1, . . . , sn ∈ K
s1 · ~v1 + · · ·+ sn · ~vn = ~0 ∧ ¬(s1 = · · · = sn = 0)
¬B ≡ ∀ paarw. verschiedene ~v1, . . . , ~vn ∈ M, s1, . . . , sn ∈ K
¬(s1 · ~v1 + · · ·+ sn · ~vn = ~0 ∧ ¬(s1 = · · · = sn = 0))
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 385 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Ein wichtiges Korollar
Korollar 4.4.5
Es sei V ein K -Vektorraum und M ⊆ V . Die folgenden Aussagen sind aquivalent:
(i) M ist linear unabhangig. z.z.: = ¬A X
(ii) ∀ paarweise verschiedene Vektoren ~v1, . . . , ~vn ∈ M und s1, . . . , sn ∈ K , gilt:
s1 · ~v1 + · · ·+ sn · ~vn = ~0 =⇒ s1 = · · · = sn = 0. z.z.: = ¬BX
Beweis:
¬B ≡∀ paarw. verschiedene ~v1, . . . , ~vn ∈ M, s1, . . . , sn ∈ K :
¬(s1 · ~v1 + · · ·+ sn · ~vn = ~0 ∧ ¬(s1 = · · · = sn = 0))
≡∀ paarw. verschiedene ~v1, . . . , ~vn ∈ M, s1, . . . , sn ∈ K :
¬(s1 · ~v1 + · · ·+ sn · ~vn = ~0) ∨ s1 = · · · = sn = 0
≡∀ paarw. verschiedene ~v1, . . . , ~vn ∈ M, s1, . . . , sn ∈ K :
s1 · ~v1 + · · ·+ sn · ~vn = ~0⇒ s1 = · · · = sn = 0
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 386 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Teilmengen linear unabhangiger Mengen
Ein Korollar zum Korollar . . .
Korollar 4.4.6
Teilmengen linear unabhangiger Mengen sind selbst wieder linearunabhangig sind.
Gilt dieses Korollar auch fur linear abhangige Mengen ?
Nein! Gegenbeispiel?
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 387 / 669
Vektorraume Lineare Abhangigkeiten und lineare Unabhangigkeiten
Lineare Abhangigkeit - Beispiel
Es sei V = R3 und
M =
1
11
,
123
,
135
Um festzustellen, ob M linear abhangig ist, mussen wir nach Lemma 9.4.4uberprufen, ob es Skalare x1, x2, x3 ∈ R gibt mit (x1, x2, x3) 6= (0, 0, 0), sodass
x1 ·
111
+ x2 ·
123
+ x3 ·
135
=
000
gilt.Dies ist z.B. fur (x1, x2, x3) = (1,−2, 1) der Fall.Also ist M linear abhangig.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 388 / 669
Vektorraume Basen
Ubersicht Kapitel 10 Vektorraume
10.1 Definition und Geometrie von Vektoren
10.2 Teilraume
10.3 Linearkombinationen und Erzeugendensysteme
10.4 Lineare Abhangigkeiten und lineare Unabhangigkeiten
10.5 Basis und Dimension
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 389 / 669
Vektorraume Basen
Kapitel 10 Vektorraume
10.5 Basis und Dimension
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 390 / 669
Vektorraume Basen
Charakterisierung von Basen - Voruberlegungen
Wir bringen nun die Begriffe “Vektorraumbasis” und “lineareUnabhangigkeit” zusammen und verbinden diese außerdem mit demBegriff der “Minimalitat”.
Wir werden auch sehen, dass eine Vektorraumbasis optimal ist in Bezugauf “maximale Ausschopfung”.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 391 / 669
Vektorraume Basen
Charakterisierung von Basen
Satz 4.5.1 (Charakterisierung von Basen)
Es sei (V ,+, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgendenAussagen aquivalent:
(i) M ist Basis von V .
(ii) M ist linear unabhangiges Erzeugendensystem von V .
(iii) M ist inklusionsminimales Erzeugendensystem von V , d.h.
〈M〉 = V und 〈M \ {~u}〉 6= V fur alle ~u ∈ M.
(iv) M ist eine inklusionsmaximale linear unabhangige Teilmenge von V ,d.h. M ist linear unabhangig, aber M ∪ {~v} ist fur jedes ~v ∈ V \Mlinear abhangig.
Beweis: Mittels Ringschluss: (i)⇒ (ii)⇒ (iii)⇒ (iv)⇒ (i)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 392 / 669
Vektorraume Basen
Charakterisierung von Basen
Satz 4.5.1 (Charakterisierung von Basen)
Es sei (V ,+, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden Aussagenaquivalent:
(i) M ist Basis von V .
(ii) M ist linear unabhangiges Erzeugendensystem von V .
(iii) M ist inklusionsminimales Erzeugendensystem von V , d.h.
〈M〉 = V und 〈M \ {~u}〉 6= V fur alle ~u ∈ M.
(iv) M ist eine inklusionsmaximale linear unabhangige Teilmenge von V , d.h. M istlinear unabhangig, aber M ∪ {~v} ist fur jedes ~v ∈ V \M linear abhangig.
Beweis: (i)⇒ (ii) Sei M eine Basis von V .
z.z.: M ist linear unabhangiges Erzeugendensystem von V
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 393 / 669
Vektorraume Basen
Charakterisierung von Basen
Beweis: (i)⇒ (ii) Sei M eine Basis von V .
z.z.: M ist linear unabhangiges Erzeugendensystem von V
Jedes ~v ∈ V lasst sich eindeutig als Linearkombination von paarw.verschiedenen Vektoren aus M schreiben. (Defn Basis)⇒ M ist Erzeugendensystem von V
z.z.: M ist linear unabhangig
Seien ~v1, . . . , ~vn ∈ M, paarweise verschieden, mit s1, . . . , sn ∈ K , so dass
s1 · ~v1 + · · ·+ sn · ~vn = ~0 = 0 · ~v1 + · · ·+ 0 · ~vn.
Wegen der Eindeutigkeit der Darstellung ist dann s1 = · · · = sn = 0.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 394 / 669
Vektorraume Basen
Charakterisierung von Basen
Satz 4.5.1 (Charakterisierung von Basen)
Es sei (V ,+, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden Aussagenaquivalent:
(i) M ist Basis von V .
(ii) M ist linear unabhangiges Erzeugendensystem von V .
(iii) M ist inklusionsminimales Erzeugendensystem von V , d.h.
〈M〉 = V und 〈M \ {~u}〉 6= V fur alle ~u ∈ M.
(iv) M ist eine inklusionsmaximale linear unabhangige Teilmenge von V , d.h. M istlinear unabhangig, aber M ∪ {~v} ist fur jedes ~v ∈ V \M linear abhangig.
Beweis: (ii)⇒ (iii) Sei M ein linear unabhangiges Erzeugendensystemvon V .
z.z.: 〈M〉 = V und 〈M \ {~u}〉 6= V fur alle ~u ∈ M.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 395 / 669
Vektorraume Basen
Charakterisierung von Basen
Beweis: (ii)⇒ (iii) Sei M ein linear unabhangiges Erzeugendensystemvon V .
z.z.: 〈M〉 = V und 〈M \ {~u}〉 6= V fur alle ~u ∈ M.
M ist Erzeugendensystem ⇒ 〈M〉 = V
M ist linear unabhangig ⇒ ∀~u ∈ M : 〈M \ ~u〉 6= 〈M〉= V
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 396 / 669
Vektorraume Basen
Charakterisierung von Basen
Satz 4.5.1 (Charakterisierung von Basen)
Es sei (V ,+, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden Aussagenaquivalent:
(i) M ist Basis von V .
(ii) M ist linear unabhangiges Erzeugendensystem von V .
(iii) M ist inklusionsminimales Erzeugendensystem von V , d.h.
〈M〉 = V und 〈M \ {~u}〉 6= V fur alle ~u ∈ M.
(iv) M ist eine inklusionsmaximale linear unabhangige Teilmenge von V , d.h. M istlinear unabhangig, aber M ∪ {~v} ist fur jedes ~v ∈ V \M linear abhangig.
Beweis: (iii)⇒ (iv) Sei 〈M〉 = V und 〈M \ {~u}〉 6= V fur alle ~u ∈ M⇒ M ist linear unabhangig
z.z.: M ∪ {~v} ist fur alle ~v ∈ V \M linear abhangig.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 397 / 669
Vektorraume Basen
Charakterisierung von Basen
Beweis: (iii)⇒ (iv) Sei 〈M〉 = V und 〈M \ {~u}〉 6= V fur alle ~u ∈ M⇒ M ist linear unabhangig
z.z.: M ∪ {~v} ist fur alle ~v ∈ V \M linear abhangig.
Sei ~v ∈ V \M. Dann ist
V = 〈M〉 ⊆ 〈M ∪ {~v}〉 ⊆ V
Damit gilt
〈M ∪ {~v}〉 = V und 〈(M ∪ {~v}) \ ~v〉 = 〈M〉 = V
und damit ist M ∪ {~v} linear abhangig.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 398 / 669
Vektorraume Basen
Charakterisierung von Basen
Satz 4.5.1 (Charakterisierung von Basen)
Es sei (V ,+, ·) ein K -Vektorraum und M ⊆ V . Dann sind die folgenden Aussagenaquivalent:
(i) M ist Basis von V .
(ii) M ist linear unabhangiges Erzeugendensystem von V .
(iii) M ist inklusionsminimales Erzeugendensystem von V , d.h.
〈M〉 = V und 〈M \ {~u}〉 6= V fur alle ~u ∈ M.
(iv) M ist eine inklusionsmaximale linear unabhangige Teilmenge von V , d.h. M istlinear unabhangig, aber M ∪ {~v} ist fur jedes ~v ∈ V \M linear abhangig.
Beweis: (iv)⇒ (i) Sei M inklusionsmaximale linear unabhangigeTeilmenge von V.
z.z.: Jedes ~v ∈ V lasst sich eindeutig als Linearkombination von Vektorenaus M schreiben
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 399 / 669
Vektorraume Basen
Charakterisierung von Basen
Beweis: (iv)⇒ (i) Sei M inklusionsmaximale linear unabhangigeTeilmenge von V.
z.z.: Jedes ~v ∈ V lasst sich eindeutig als Linearkombination von Vektorenaus M schreiben
〈M〉 = V~v ∈ M X~v /∈ M ⇒ M ∪ {v} ist linear abhangigAlso gibt es ~v1, . . . , ~vn ∈ M und s, s1, . . . , sn ∈ K , nicht alle gleich 0:
s · ~v + s1 · ~v1 + · · ·+ sn~vn = ~0.
Da M linear unabhangig ist, muss s 6= 0 sein. Also gilt
−s · ~v = s1 · ~v1 + · · ·+ sn · ~vn⇒ ~v = (−s)−1s1 · ~v1 + · · ·+ (−s)−1sn · ~vn
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 400 / 669
Vektorraume Basen
Charakterisierung von Basen
Beweis: (iv)⇒ (i) Sei M inklusionsmaximale linear unabhangigeTeilmenge von V.
z.z.: Jedes ~v ∈ V lasst sich eindeutig als Linearkombination von Vektorenaus M schreiben
〈M〉 = V
Eindeutigkeit: Sei ~v ∈ V .Ann.: ∃s1, . . . , sn, t1, . . . , tm ∈ K , ~v1, . . . , ~vn, ~w1, . . . , ~wm ∈ M
~v = s1~v1 + · · ·+ sn~vn
= t1~w1 + · · ·+ tm ~wm
Dann ist fur ein q ≤ n + m
{~v1, . . . , ~vn, ~w1, . . . , ~wm} = {~u1, . . . , ~uq} ⊆ M
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 401 / 669
Vektorraume Basen
Charakterisierung von Basen
Eindeutigkeit: Sei ~v ∈ V .Ann.: ∃s1, . . . , sn, t1, . . . , tm ∈ K , ~v1, . . . , ~vn, ~w1, . . . , ~wm ∈ M
~v = s1~v1 + · · ·+ sn~vn
= t1~w1 + · · ·+ tm ~wm
Dann ist fur ein q ≤ n + m
{~v1, . . . , ~vn, ~w1, . . . , ~wm} = {~u1, . . . , ~uq} ⊆ M
Fur bestimmte s ′1, . . . , s′n, t′1, . . . , t
′m ∈ K gilt dann:
~v = s ′1~u1 + · · ·+ s ′q~uq
~v = t ′1~u1 + · · ·+ t ′q~uq
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 402 / 669
Vektorraume Basen
Charakterisierung von Basen
Eindeutigkeit: Sei ~v ∈ V .Ann.: ∃s1, . . . , sn, t1, . . . , tm ∈ K , ~v1, . . . , ~vn, ~w1, . . . , ~wm ∈ M
~v = s1~v1 + · · ·+ sn~vn
= t1~w1 + · · ·+ tm ~wm
Dann ist fur ein q ≤ n + m
{~v1, . . . , ~vn, ~w1, . . . , ~wm} = {~u1, . . . , ~uq} ⊆ M
Fur bestimmte s ′1, . . . , s′n, t′1, . . . , t
′m ∈ K gilt dann:
~v = s ′1~u1 + · · ·+ s ′q~uq
− ~v = t ′1~u1 + · · ·+ t ′q~uq
~0 = (s ′1 − t ′1)~u1 + · · ·+ (s ′q − t ′q)~uq
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 403 / 669
Vektorraume Basen
Charakterisierung von Basen
Beweis: (iv)⇒ (i) Sei M inklusionsmaximale linear unabhangigeTeilmenge von V.
z.z.: Jedes ~v ∈ V lasst sich eindeutig als Linearkombination von Vektorenaus M schreiben
〈M〉 = V
Eindeutigkeit: Sei ~v ∈ V .Fur bestimmte s ′1, . . . , s
′n, t′1, . . . , t
′m ∈ K gilt dann:
~0 = (s ′1 − t ′1)~u1 + · · ·+ (s ′q − t ′q)~uq
Da {~u1, . . . , ~uq} ⊆ M und M linear unabhangig ist, gilt s ′i = t ′i fur allei , 1 ≤ i ≤ q.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 404 / 669
Vektorraume Basen
Endliche Erzeugendensysteme und Basen
Wir haben bislang nur an speziellen Beispielen gesehen, dass Basen vonVektorraumen tatsachlich existieren konnen. Der folgende Satz belegt,dass das kein Zufall ist.
Satz 4.5.2 (Existenz von Basen)
Jeder endlich erzeugte K -Vektorraum besitzt eine Basis.
Beweis: Sei M ein endliches Erzeugendensystem von V . Solange es(rekursiv) einen Vektor ~v ∈ M gibt, so dass 〈M \ ~v〉 = 〈V 〉 ist, entfernediesen. Da M endlich ist, sind wir in endlich vielen Schritten fertig underhalten ein inklusionsminimales Erzeugendensystem von V , also eineBasis.
Korollar 4.5.3
Jedes endliche Erzeugendensystem eines Vektorraums enthalt eine Basis.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 405 / 669
Vektorraume Basen
Konstruktion von Basen
Wir wenden uns jetzt dem Problem zu, fur einen endlich erzeugtenVektorraum aus einem Erzeugendensystem eine Basis zu konstruieren. DasVerfahren beruht auf dem folgenden Lemma.
Lemma 4.5.4
Es sei V ein K -Vektorraum und ~v1, . . . , ~vn ∈ V .
(i) Fur i 6= j und s ∈ K gilt
〈~v1, . . . , ~vj , . . . , ~vn〉 = 〈~v1, . . . , ~vj + s~vi , . . . , ~vn〉.
(ii) Fur i ∈ {1, . . . , n} und t ∈ K\{0} gilt
〈~v1, . . . , ~vi , . . . , ~vn〉 = 〈~v1, . . . , t~vi , . . . , ~vn〉
(iii) 〈~v1, . . . , ~vn〉 = 〈~v1, . . . , ~vn,~0〉.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 406 / 669
Vektorraume Basen
Konstruktion von Basen
Lemma 4.5.4
Es sei V ein K -Vektorraum und ~v1, . . . , ~vn ∈ V .
(i) Fur i 6= j und s ∈ K gilt
〈~v1, . . . , ~vj , . . . , ~vn〉 = 〈~v1, . . . , ~vj + s~vi , . . . , ~vn〉.
(ii) Fur i ∈ {1, . . . , n} und t ∈ K\{0} gilt
〈~v1, . . . , ~vi , . . . , ~vn〉 = 〈~v1, . . . , t~vi , . . . , ~vn〉
(iii) 〈~v1, . . . , ~vn〉 = 〈~v1, . . . , ~vn,~0〉.
Beweis: (i) Sei s ∈ K .”‘⊆”’
~vj = (~vj + s~vi )− s~vi ∈ 〈~v1, . . . , ~vj + s~vi , . . . , ~vn〉
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 407 / 669
Vektorraume Basen
Konstruktion von Basen
Lemma 4.5.4
Es sei V ein K -Vektorraum und ~v1, . . . , ~vn ∈ V .
(i) Fur i 6= j und s ∈ K gilt
〈~v1, . . . , ~vj , . . . , ~vn〉 = 〈~v1, . . . , ~vj + s~vi , . . . , ~vn〉.
(ii) Fur i ∈ {1, . . . , n} und t ∈ K\{0} gilt
〈~v1, . . . , ~vi , . . . , ~vn〉 = 〈~v1, . . . , t~vi , . . . , ~vn〉
(iii) 〈~v1, . . . , ~vn〉 = 〈~v1, . . . , ~vn,~0〉.
Beweis: (i) Sei s ∈ K .”‘⊇”’
~vj + s~vi ∈ 〈~v1, . . . , ~vj , . . . , ~vn〉
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 408 / 669
Vektorraume Basen
Konstruktion von Basen
Lemma 4.5.4
Es sei V ein K -Vektorraum und ~v1, . . . , ~vn ∈ V .
(i) Fur i 6= j und s ∈ K gilt
〈~v1, . . . , ~vj , . . . , ~vn〉 = 〈~v1, . . . , ~vj + s~vi , . . . , ~vn〉.
(ii) Fur i ∈ {1, . . . , n} und t ∈ K\{0} gilt
〈~v1, . . . , ~vi , . . . , ~vn〉 = 〈~v1, . . . , t~vi , . . . , ~vn〉
(iii) 〈~v1, . . . , ~vn〉 = 〈~v1, . . . , ~vn,~0〉.
Beweis: (ii) Sei t ∈ K \ {0}.”‘⊆”’
~vi = t−1 · t~vi”‘⊇”’ X
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 409 / 669
Vektorraume Basen
Konstruktion von Basen
Lemma 4.5.4
Es sei V ein K -Vektorraum und ~v1, . . . , ~vn ∈ V .
(i) Fur i 6= j und s ∈ K gilt
〈~v1, . . . , ~vj , . . . , ~vn〉 = 〈~v1, . . . , ~vj + s~vi , . . . , ~vn〉.
(ii) Fur i ∈ {1, . . . , n} und t ∈ K\{0} gilt
〈~v1, . . . , ~vi , . . . , ~vn〉 = 〈~v1, . . . , t~vi , . . . , ~vn〉
(iii) 〈~v1, . . . , ~vn〉 = 〈~v1, . . . , ~vn,~0〉.
Beweis: (iii)”‘⊆”’ X”‘⊇”’
~0 = 0 · ~v1 ∈ 〈~v1, . . . , ~vn〉
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 410 / 669
Vektorraume Basen
Konstruktion von Basen – Vorgehensweise
Wir wenden Lemma 4.5.4 an, um Erzeugendensysteme so zu modifizieren,dass linear abhangige Teile auf Nullvektoren reduziert werden, so dass dieBasisvektoren (als Nicht-Nullvektoren) direkt abgelesen werden konnen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 411 / 669
Vektorraume Basen
Konstruktionen von Basen - Beispiel
Es sei K = R und
V :=
⟨~v1 =
111
, ~v2 =
135
, ~v3 =
16
11
⟩ .Wegen Lemma 4.5.4 ist dann
V = 〈~v1, ~v2 − ~v1, ~v3〉= 〈~v1, ~v2 − ~v1, ~v3 − ~v1〉
=
⟨111
=: ~v ′1,
024
=: ~v ′2,
05
10
=: ~v ′3
⟩
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 412 / 669
Vektorraume Basen
Konstruktionen von Basen - Beispiel
Wir halten jetzt ~v ′1 fest und machen mit ~v ′2,~v ′3 nach Lemma 4.5.4 weiter:
V =
⟨~v ′1,
1
2~v ′2,
~v ′3 −5
2~v ′2
⟩
=
⟨111
,
012
,
000
⟩
=
⟨111
,
012
⟩ (wegen Lemma 4.5.4 (iii))
Da die letzten beiden Vektoren linear unabhangig sind, bilden sie also eineBasis von V .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 413 / 669
Vektorraume Basen
Basiserganzung – Voruberlegungen
Vektorraumbasen haben zwei charakteristische Eigenschaften:
sie sind linear unabhangig, und
sie bilden ein Erzeugendensystem.
Wir haben oben gezeigt, dass man mit Hilfe von Lemma 4.5.4 aus jedemendlichen Erzeugendensystem eines Vektorraums V eine Basis von Verhalten kann.
Der folgende Satz stellt die umgekehrte Vorgehensweise zur Findung einerBasis dar – linear unabhangige Teilmengen lassen sich zur Basis erganzen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 414 / 669
Vektorraume Basen
Basiserganzung
Satz 4.5.5 (Basiserganzungssatz)
Es sei V ein endlich erzeugter K -Vektorraum mit endlichemErzeugendensystem E ⊆ V , also V = 〈E 〉. Weiterhin sei M ⊆ V linearunabhangig. Dann gibt es eine Teilmenge E ′ ⊆ E , so dass M ∪ E ′ eineBasis von V ist.
Beweis: Seien V = 〈E 〉, E endlich und M ⊆ V linear unabhangig.Sei E ′ ⊆ E eine inklusionsminimale Menge mit 〈E ′ ∪M〉 = V , also
〈(E ′ \ {~v}) ∪M〉 6= V fur alle ~v ∈ E ′
z.z.: E ′ ∪M ist eine Basis von V
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 415 / 669
Vektorraume Basen
Basiserganzung
Beweis: Seien V = 〈E 〉, E endlich und M ⊆ V linear unabhangig.Sei E ′ ⊆ E eine inklusionsminimale Menge mit 〈E ′ ∪M〉 = V , also
〈(E ′ \ {~v}) ∪M〉 6= V fur alle ~v ∈ E ′
z.z.: E ′ ∪M ist eine Basis von V
Erzeugendensystem XLineare Unabhangigkeit: Seien ~v1, . . . , ~vm ∈ E ′, ~w1, . . . , ~wn ∈ M :
s1~v1 + · · ·+ sm~vm + t1~w1 + · · ·+ tn ~wn = ~0.
z.z.: s1 = · · · = sm = t1 = · · · = tn = 0Ann.: si 6= 0 fur ein i , o.B.d.A s1 6= 0
⇒ ~v1 =− (s−11 s2)~v2 − · · · − (s−1
1 sm)~vm
− (s−11 t1)~w1 − · · · − (s−1
1 tn)~wn
∈〈E ′ \ {~v1} ∪M〉
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 416 / 669
Vektorraume Basen
Basiserganzung
Beweis: Seien V = 〈E 〉, E endlich und M ⊆ V linear unabhangig.Sei E ′ ⊆ E eine inklusionsminimale Menge mit 〈E ′ ∪M〉 = V , also
〈(E ′ \ {~v}) ∪M〉 6= V fur alle ~v ∈ E ′
z.z.: E ′ ∪M ist eine Basis von V
Erzeugendensystem X
Lineare Unabhangigkeit: Seien ~v1, . . . , ~vm ∈ E ′, ~w1, . . . , ~wn ∈ M :
s1~v1 + · · ·+ sm~vm + t1~w1 + · · ·+ tn ~wn = ~0.
z.z.: t1 = · · · = tn = 0
⇒ t1~w1 + · · ·+ tn ~wn = ~0
⇒ t1 = . . . tn = 0
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 417 / 669
Vektorraume Basen
Beispiel zu Satz 4.5.5
Wir betrachten das Erzeugendensystem
E :=
{(1 00 0
),
(0 10 0
),
(0 01 0
),
(0 00 1
)}des R-Vektorraums R2×2 (Raum der reellen 2× 2-Matrizen). Die Menge
M :=
{(1 00 1
),
(0 11 0
)}ist linear unabhangig. Wir kombinieren nun M mit E und bilden die Menge
B :=
(
1 00 1
),
(0 11 0
)︸ ︷︷ ︸
M
,
(1 00 0
),
(0 10 0
) ,
die M und Teile von E enthalt. B ist eine Basis von R2×2.Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 418 / 669
Vektorraume Basen
Beispiel zu Satz 4.5.5 (Forts.)
Man beachte jedoch, dass die Menge
B ′ :=
{(1 00 1
),
(0 11 0
),
(1 00 0
),
(0 00 1
)}zwar M enthalt, aber keine Basis von R2×2 ist, da diese Menge linearabhangig ist (der erste Vektor ist die Summe der beiden letzten Vektoren).
♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 419 / 669
Vektorraume Basen
Basen als Schlusselinformation fur Vektorraume
Wir fassen noch einmal die Ergebnisse bisher zusammen:
Korollar 4.5.6
1 Jeder Vektorraum besitzt eine Basis.
2 In jedem Erzeugendensystem eines Vektorraumes ist eine Basisenthalten.
3 Jede linear unabhangige Menge lasst sich zu einer Basis erganzen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 420 / 669
Vektorraume Basen
Basen als Schlusselinformation fur Vektorraume (Forts.)
Das folgende Korollar verdeutlicht noch einmal die Optimalitat von Basen:
Korollar 4.5.7
Die folgenden Aussagen fur eine Teilmenge B eines Vektorraumes V sindaquivalent:
1 B ist eine Basis von V .
2 B ist eine minimale Erzeugendenmenge.
3 B ist eine maximal linear unabhangige Menge.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 421 / 669
Vektorraume Basen
Was ist die Dimension eines Vektorraumes?
Wir haben gesehen, dass
Basen als minimale Erzeugendensysteme optimale (und platzsparende)Darstellungen der Information in einem Vektorraum sind.
Wir wollen nun diese Minimalitat zahlenmaßig erfassen:Wie “groß” ist eine Basis?
Ziel des Folgenden ist es zu zeigen, dass
alle Basen eines Vektorraums dieselbe Kardinalitat besitzen, die danndie Dimension des Vektorraums genannt wird.
Dazu mussen wir unsere vorherigen Uberlegungen noch starker prazisieren.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 422 / 669
Vektorraume Basen
Der Austauschsatz von Steinitz
Satz 4.5.8 (Austauschsatz von Steinitz)
Es sei V ein K -Vektorraum und {~v1, . . . , ~vn} Basis von V . Ferner sei Ieine beliebige Indexmenge und {~ui | i ∈ I} eine weitere Basis von V . Danngibt es zu jedem i ∈ {1, . . . , n} ein ji ∈ I , so dass
{~v1, . . . , ~vi−1, ~uji , ~vi+1, . . . , ~vn}
eine Basis von V ist.
D.h., jedes Element einer Basis lasst sich durch ein geeignetes Elementeiner anderen Basis ersetzen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 423 / 669
Vektorraume Basen
Der Austauschsatz von Steinitz
Satz 4.5.8 (Austauschsatz von Steinitz)
Es sei V ein K -Vektorraum und {~v1, . . . , ~vn} Basis von V . Ferner sei I eine beliebigeIndexmenge und {~ui | i ∈ I} eine weitere Basis von V . Dann gibt es zu jedemi ∈ {1, . . . , n} ein ji ∈ I , so dass
{~v1, . . . , ~vi−1, ~uji , ~vi+1, . . . , ~vn}
eine Basis von V ist.
Beweis: Seien B = {~v1, . . . , ~vn} und {~ui |i ∈ I} Basen von V .Sei i ∈ {1, . . . , n} und B = B \ {~vi}. Dann gilt
〈B〉 = 〈{~v1, . . . .~vi−1, ~vi+1. . . . , ~vn}〉 ( V = 〈{~ui |i ∈ I}〉
⇒ es gibt ein ji ∈ I mit ~uji /∈ 〈B〉
z.z.: B ′ = (B \ {~vi}) ∪ ~uji = {~v1, . . . , ~vi−1, ~uji , ~vi+1, . . . , ~vn}ist eine Basis von V
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 424 / 669
Vektorraume Basen
Der Austauschsatz von Steinitz
Beweis: Seien B = {~v1, . . . , ~vn} und {~ui |i ∈ I} Basen von V .Sei i ∈ {1, . . . , n} und B = B \ {~vi}. Dann gilt
〈B〉 = 〈{~v1, . . . .~vi−1, ~vi+1. . . . , ~vn}〉 ( V = 〈{~ui |i ∈ I}〉
⇒ es gibt ein ji ∈ I mit ~uji /∈ 〈B〉
z.z.: B ′ = (B \ {~vi}) ∪ ~uji = {~v1, . . . , ~vi−1, ~uji , ~vi+1, . . . , ~vn}ist eine Basis von V
Lineare Unabhangigkeit: Seien s1, . . . , si−1, si+1, . . . , sn, t ∈ K mit
s1~v1 + · · ·+ si−1~vi−1 + t~uji + si+1~vi+1 + · · ·+ sn~vn = ~0
~uji /∈ 〈~v1, . . . , ~vi−1, ~vi+1, . . . , ~vn〉 ⇒ t = 0{~v1, . . . , ~vi−1, ~vi+1, . . . , ~vn} sind linear unabhangig
⇒ s1 = · · · = si−1 = si+1 = sn = 0
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 425 / 669
Vektorraume Basen
Der Austauschsatz von Steinitz
Beweis: Seien B = {~v1, . . . , ~vn} und {~ui |i ∈ I} Basen von V .Sei i ∈ {1, . . . , n} und B = B \ {~vi}. Dann gilt
〈B〉 = 〈{~v1, . . . .~vi−1, ~vi+1. . . . , ~vn}〉 ( V = 〈{~ui |i ∈ I}〉
⇒ es gibt ein ji ∈ I mit ~uji /∈ 〈B〉
z.z.: B ′ = (B \ {~vi}) ∪ ~uji = {~v1, . . . , ~vi−1, ~uji , ~vi+1, . . . , ~vn}ist eine Basis von V
Lineare Unabhangigkeit XErzeugendensystem: Basiserganzungssatz ⇒ ∃E ′ ⊆ B, so dassB ′ ∪ E ′ eine Basis von V ist.
1. Fall: ~vi /∈ E ′ : ⇒ B ′ ∪ E ′ = B ′ ist eine Basis von V .2. Fall: ~vi ∈ E ′ : ⇒ B ′ ∪ E ′ = B ∪ {~uji} ist eine Basis von V .
B ist inklusionsmaximal linear unabhangig ⇒ ~uji ∈ {~v1, . . . , ~vn}(insbesondere ~uji = ~vi ), d.h. B ′ = B.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 426 / 669
Vektorraume Basen
“Große” einer Vektorraumbasis
Der folgende Satz enthalt das wichtigste Resultat zum Begriff derDimension:
Satz 4.5.9
Es sei V ein K -Vektorraum und B = {~v1, . . . , ~vn} eine Basis von V mit npaarweise verschiedenen Elementen, d.h. |B| = n. Dann gilt:
(i) Ist B ′ eine beliebige Basis von V , so ist |B ′| = n.
(ii) Ist M ⊆ V linear unabhangig, so ist |M| ≤ n.
(iii) Ist M ⊆ V linear unabhangig und |M| = n, so ist M Basis von V .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 427 / 669
Vektorraume Basen
“Große” einer Vektorraumbasis
Satz 4.5.9
Es sei V ein K -Vektorraum und B = {~v1, . . . , ~vn} eine Basis von V mit npaarweise verschiedenen Elementen, d.h. |B| = n. Dann gilt:
(i) Ist B ′ eine beliebige Basis von V , so ist |B ′| = n.
(ii) Ist M ⊆ V linear unabhangig, so ist |M| ≤ n.
(iii) Ist M ⊆ V linear unabhangig und |M| = n, so ist M Basis von V .
Beweis: Sei B = {~vj1, . . . , ~vn} eine Basis von V , |B| = n.
(i) Sei B ′ eine beliebige Basis von V . z.z.: |B ′| = n
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 428 / 669
Vektorraume Basen
“Große” einer Vektorraumbasis
Beweis: Sei B = {~vj1, . . . , ~vn} eine Basis von V , |B| = n.
(i) Sei B ′ eine beliebige Basis von V . z.z.: |B ′| = nNach dem Austauschsatz von Steinitz folgt:
zu ~v1 ∈ B ∃~uj1 ∈ B ′ : {~uj1 , ~v2, . . . , ~vn}︸ ︷︷ ︸=:B1
ist eine Basis von V .
zu ~v2 ∈ B1 ∃~uj2 ∈ B ′ : {~uj1 , ~uj2 , ~v3, . . . , ~vn}︸ ︷︷ ︸=:B2
ist eine Basis von V .
...
zu ~vn ∈ Bn−1 ∃~ujn ∈ B ′ : {~uj1 , . . . , ~ujn}︸ ︷︷ ︸=:Bn
ist eine Basis von V .
Bn ⊆ B ′ und B ′ ist inklusionsminimal (bzgl. Erzeugendensystem)⇒ Bn = B ′ und damit |B ′| = n.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 429 / 669
Vektorraume Basen
“Große” einer Vektorraumbasis
Satz 4.5.9
Es sei V ein K -Vektorraum und B = {~v1, . . . , ~vn} eine Basis von V mit npaarweise verschiedenen Elementen, d.h. |B| = n. Dann gilt:
(i) Ist B ′ eine beliebige Basis von V , so ist |B ′| = n.
(ii) Ist M ⊆ V linear unabhangig, so ist |M| ≤ n.
(iii) Ist M ⊆ V linear unabhangig und |M| = n, so ist M Basis von V .
Beweis: Sei B = {~vj1, . . . , ~vn} eine Basis von V , |B| = n.
(ii) Sei M ⊆ V linear unabhangig. Nach dem Basiserganzungssatz kannman M zu einer Basis B ′ erganzen. Damit folgt
|M| ≤∣∣B ′∣∣ (i)
= n.
(iii) Argumentation wie im Beweis zu (ii).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 430 / 669
Vektorraume Basen
Der Begriff der Dimension
Definition 4.5.10 (Dimension eines Vektorraums)
Wenn der Vektorraum V eine endliche Basis besitzt, so wird die Anzahl nder Vektoren der Basis die Dimension von V genannt: dimV = n.Besitzt ein Vektorraum V keine endliche Basis, so ist seine Dimensionunendlich, also dimV =∞. Man sagt auch, dass V unendlich dimensionalist.
Bemerkung: Es folgt aus Korollar 4.5.3, dass jeder endlich erzeugteVektorraum auch endlich dimensional ist.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 431 / 669
Vektorraume Basen
Beispiele zur Dimension
Beispiel (Kn): Die Dimension des K -Vektorraums Kn ist n, dabeispielsweise die Menge der Einheitsvektoren {~e1, . . . , ~en} eine Basis vonKn bildet. ♣
Beispiel (im R3): Es sei K = R und
V :=
⟨111
,
135
,
16
11
⟩ .Wie weiter oben 1 schon gezeigt wurde, ist
V =
⟨111
,
012
⟩ mit dimV = 2.
♣1s. Beispiel zur Konstruktion von BasenProf. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 432 / 669
Vektorraume Basen
Beispiele zur Dimension (Forts.)
Beispiel (Matrizen): Die Dimension des K -Vektorraums aller m × nMatrizen Km×n ist m · n. Eine Basis von Km×n ist die Menge
{Eij | 1 ≤ i ≤ m und 1 ≤ j ≤ n},
wobei Eij die m× n Matrix bezeichnet, deren Eintrag in der i-ten Zeile undj-ten Spalte eine Eins ist und die sonst nur Null-Eintrage hat. ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 433 / 669
Vektorraume Basen
Dimension von Teilraumen
Korollar 4.5.11
Ist V ein endlich dimensionaler K -Vektorraum und U ein Teilraum von V ,dann ist auch U endlich dimensional, und es gilt
dimU ≤ dimV .
Ist dimU = dimV , so ist U = V .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 434 / 669
Vektorraume Basen
Dimensionsformel fur Teilraume
Satz 4.5.12 (Dimensionsformel fur Teilraume)
Es sei V ein endlich dimensionaler K -Vektorraum und U1,U2 seienTeilraume von V . Dann ist
dim U1 + dim U2 = dim (U1 + U2) + dim (U1 ∩ U2).
Beweis: Sei V ein endlich dimensionaler K -Vektorraum, und seien U1,U2
Teilraume von V . ⇒ U1 und U2 sind endlich dimensional.
z.z.: dim U1 + dim U2 = dim (U1 + U2) + dim (U1 ∩ U2).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 435 / 669
Vektorraume Basen
Dimensionsformel fur Teilraume
Beweis: Sei V ein endlich dimensionaler K -Vektorraum, und seien U1,U2
Teilraume von V . ⇒ U1 und U2 sind endlich dimensional.
z.z.: dim U1 + dim U2 = dim (U1 + U2) + dim (U1 ∩ U2).
Sei B = {~u1, . . . , ~ud} eine Basis von U1 ∩ U2. (dimU1 ∩ U2 = d)B lasst sich zu Basen B1 von U1 bzw. B2 von U2 erweitern:
B1 = {~u1, . . . , ~ud , ~v1, . . . , ~vm} ⇒ dimU1 = d + m
B2 = {~u1, . . . , ~ud , ~w1, . . . , ~wn} ⇒ dimU2 = d + n
⇒ dimU1 + dimU2 = d + m + d + n
= dim(U1 ∩ U2) + m + n + d .
z.z.: dim(U1 + U2) = m + n + d
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 436 / 669
Vektorraume Basen
Dimensionsformel fur Teilraume
Beweis: Fur zwei Teilraume U1,U2 eines K -Vektorraums V gelte
B = {~u1, . . . , ~ud} eine Basis von U1 ∩ U2,B1 = {~u1, . . . , ~ud , ~v1, . . . , ~vm} eine Basis von U1,B2 = {~u1, . . . , ~ud , ~w1, . . . , ~wn} eine Basis von U2.
z.z.: dim(U1 + U2) = m + n + d
Wir zeigen:C = {~u1, . . . , ~ud , ~v1, . . . , ~vm, ~w1, . . . , ~wn}
ist eine Basis von U1 + U2. Da die Elemente von C paarweise verschiedensind, folgt dann
dimU1 + U2 = |C | = d + m + n.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 437 / 669
Vektorraume Basen
Dimensionsformel fur Teilraume
Beweis: Seien U1,U2 zwei Teilraume eines K -Vektorraums V .
z.z.: C = {B1 Basis von U1︷ ︸︸ ︷
~v1, . . . , ~vm, ~u1, . . . , ~ud ,︸ ︷︷ ︸B Basis von U1∩U2
~w1, . . . , ~wn
︸ ︷︷ ︸B2 Basis von U2
} ist Basis von U1 + U2.
〈C 〉 = U1 + U2, d.h. C erzeugt U1 + U2:⊆ X, da da jedes Element aus C in U1 oder U2 liegt.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 438 / 669
Vektorraume Basen
Dimensionsformel fur Teilraume
Beweis: Seien U1,U2 zwei Teilraume eines K -Vektorraums V .
z.z.: C = {B1 Basis von U1︷ ︸︸ ︷
~v1, . . . , ~vm, ~u1, . . . , ~ud ,︸ ︷︷ ︸B Basis von U1∩U2
~w1, . . . , ~wn
︸ ︷︷ ︸B2 Basis von U2
} ist Basis von U1 + U2.
〈C 〉 = U1 + U2, d.h. C erzeugt U1 + U2:⊇ Sei ~x ∈ U1 + U2 ⇒ ~x = ~x1 + ~x2, mit ~x1 ∈ U1, ~x2 ∈ U2.
⇒ ~x1 =d∑
i=1
si ~ui +m∑j=1
rj~vj , ~x2 =d∑
i=1
s ′i ~ui +m∑
k=1
tk~vj
⇒ ~x1 + ~x2 =d∑
i=1
(si + s ′i )~ui +m∑j=1
rj~vj +n∑
k=1
tk ~wk
∈ 〈C 〉Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 439 / 669
Vektorraume Basen
Dimensionsformel fur Teilraume
Beweis: Seien U1,U2 zwei Teilraume eines K -Vektorraums V .
z.z.: C = {B1 Basis von U1︷ ︸︸ ︷
~v1, . . . , ~vm, ~u1, . . . , ~ud ,︸ ︷︷ ︸B Basis von U1∩U2
~w1, . . . , ~wn
︸ ︷︷ ︸B2 Basis von U2
} ist Basis von U1 + U2.
〈C 〉 = U1 + U2, d.h. C erzeugt U1 + U2
C ist linear unabhangig. Seien si , rj , tk ∈ K mit
d∑i=1
si ~ui +m∑j=1
rj~vj +n∑
k=1
tk ~wk = ~0
n∑k=1
tk ~wk︸ ︷︷ ︸∈U2
= −d∑
i=1
si ~ui −m∑j=1
rj~vj︸ ︷︷ ︸∈U1
∈ U1 ∩ U2
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 440 / 669
Vektorraume Basen
Dimensionsformel fur Teilraume
Beweis: Seien U1,U2 zwei Teilraume eines K -Vektorraums V .
z.z.: C = {B1 Basis von U1︷ ︸︸ ︷
~v1, . . . , ~vm, ~u1, . . . , ~ud ,︸ ︷︷ ︸B Basis von U1∩U2
~w1, . . . , ~wn
︸ ︷︷ ︸B2 Basis von U2
} ist Basis von U1 + U2.
〈C 〉 = U1 + U2, d.h. C erzeugt U1 + U2
C ist linear unabhangig. Seien si , rj , tk ∈ K mit
n∑k=1
tk ~wk︸ ︷︷ ︸∈U2
= −d∑
i=1
si ~ui −m∑j=1
rj~vj︸ ︷︷ ︸∈U1
∈ U1 ∩ U2
⇒ ∃s ′i ∈ K :n∑
k=1
tk ~wk =d∑
i=1
s ′i ~ui ⇔n∑
k=1
tk ~wk −d∑
i=1
s ′i ~ui = ~0
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 441 / 669
Vektorraume Basen
Dimensionsformel fur Teilraume
Beweis: Seien U1,U2 zwei Teilraume eines K -Vektorraums V .
z.z.: C = {B1 Basis von U1︷ ︸︸ ︷
~v1, . . . , ~vm, ~u1, . . . , ~ud ,︸ ︷︷ ︸B Basis von U1∩U2
~w1, . . . , ~wn
︸ ︷︷ ︸B2 Basis von U2
} ist Basis von U1 + U2.
〈C 〉 = U1 + U2, d.h. C erzeugt U1 + U2:C ist linear unabhangig. Seien si , rj , tk ∈ K mit
n∑k=1
tk ~wk︸ ︷︷ ︸∈U2
= −d∑
i=1
si ~ui −m∑j=1
rj~vj︸ ︷︷ ︸∈U1
∈ U1 ∩ U2
⇒ ∃s ′i ∈ K :n∑
k=1
tk ~wk −d∑
i=1
s ′i ~ui = ~0 ⇒ s ′i = tk = 0
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 442 / 669
Vektorraume Basen
Dimensionsformel fur Teilraume
Beweis: Seien U1,U2 zwei Teilraume eines K -Vektorraums V .
z.z.: C = {B1 Basis von U1︷ ︸︸ ︷
~v1, . . . , ~vm, ~u1, . . . , ~ud ,︸ ︷︷ ︸B Basis von U1∩U2
~w1, . . . , ~wn
︸ ︷︷ ︸B2 Basis von U2
} ist Basis von U1 + U2.
〈C 〉 = U1 + U2, d.h. C erzeugt U1 + U2:C ist linear unabhangig. Seien si , rj , tk ∈ K mit
n∑k=1
tk ~wk︸ ︷︷ ︸=~0
= −d∑
i=1
si ~ui −m∑j=1
rj~vj︸ ︷︷ ︸∈U1
∈ U1 ∩ U2
⇒ ∃s ′i ∈ K :n∑
k=1
tk ~wk −d∑
i=1
s ′i ~ui = ~0 ⇒ s ′i = tk = 0 = rj = si
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 443 / 669
Vektorraume Basen
Beispiel – Dimensionsformel fur Teilraume
Es sei V ein dreidimensionaler K -Vektorraum, und U1 6= U2 seien zweiverschiedene Teilraume von V mit dim U1 = dim U2 = 2.Dann muss
dim (U1 ∩ U2) = 1
gelten, denn:
Fur dim (U1 + U2) kommen nur 2 oder 3 in Betracht.
Ware dim (U1 + U2) = 2 = dim Ui , i = 1, 2, dann wareU1 = U1 + U2 = U2. im Widerspruch zur Voraussetzung U1 6= U2. Alsomuss dim (U1 + U2) = 3 sein. Mit der Dimensionsformel folgt dieBehauptung. ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 444 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele
Ubersicht Kapitel 10Lineare Gleichungssysteme und Invertieren von Matrizen
10.1 Definitionen und Beispiele
10.2 Das Gauß’sche Eliminationsverfahren
10.3 Invertieren von Matrizen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 445 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele
Ubersicht Kapitel 10Lineare Gleichungssysteme und Invertieren von Matrizen
10.1 Definitionen und Beispiele
10.2 Das Gauß’sche Eliminationsverfahren
10.3 Invertieren von Matrizen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 446 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele
Kapitel 10Lineare Gleichungssysteme und Invertieren von Matrizen
10.1 Definitionen und Beispiele
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 447 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele
Lineare Gleichungssysteme
Es sei im Folgenden immer (K ,+, ·) ein Korper (z.B. Q,R,C,Z2,Z3. . . ),d.h., man kann “normal rechnen”.
Definition 5.1.1 (Lineares Gleichungssystem)
Ein lineares Gleichungssystem mit n Gleichungen und m Variablen hat dieForm:
a1,1x1 + a1,2x2 + · · · + a1,mxm = b1
a2,1x1 + a2,2x2 + · · · + a2,mxm = b2...
an,1x1 + an,2x2 + · · · + an,mxm = bn
(5.1)
Die aij heißen Koeffizienten und die bi heißen rechte Seiten, mitaij , bi ∈ K .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 448 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele
Lineare Gleichungssysteme – Losungsmenge
Gesucht sind dann Werte x1, x2, . . . , xm ∈ K , die (5.1) erfullen.
Die Losungsmenge des linearen Gleichungssystems (5.1) ist die Menge
L :={
(x1, x2, . . . , xm)t ∈ Km | x1, x2, . . . , xm erfullen 5.1}
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 449 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele
Koeffizientenmatrix
Definition 5.1.2 (Koeffizientenmatrix)
Die Koeffizientenmatrix des linearen Gleichungssystems (5.1) uber K istdie Matrix
A =
a11 a12 · · · a1m
a21 a22 · · · a2m...
an1 an2 · · · anm
∈ Kn×m.
Mit ~x = (x1, x2, . . . , xm)t ∈ Km und ~b = (b1, . . . , bn)t ∈ Kn konnen wirdann (5.1) auch in der Form
A~x = ~b
schreiben, mit Losungsmenge
L ={
(x1, x2, . . . , xm)t ∈ Km | A~x = ~b}.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 450 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele
Erweiterte Koeffizientenmatrix
Definition 5.1.3 (Erweiterte Koeffizientenmatrix)
Die erweiterte Matrix des linearen Gleichungssystems (5.1) ist die Matrix
(A, ~b) :=
a11 a12 · · · a1m b1
a21 a22 · · · a2m b2...
an1 an2 · · · amm bn
∈ Kn×(m+1).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 451 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele
Beispiele
Beispiel (mit genau einer Losung): Das lineare Gleichungssystem
2x + 2y = −2y + z = 4
x + z = 1
uber Q hat genau eine Losung, namlich x = −2, y = 1, z = 3.In Matrix-Schreibweise hat dieses Gleichungssystem die Form2 2 0
0 1 11 0 1
︸ ︷︷ ︸
A
xyz
︸ ︷︷ ︸
~x
=
−241
︸ ︷︷ ︸
~b
,
und es istL = {(−2, 1, 3)t} ⊂ Q3.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 452 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele
Beispiele (Forts.)
Beispiel (mit keiner Losung): Das lineare Gleichungssystem uber Q
x1 + x2 + x3 = 0
x1 + x2 + x3 = 1
besitzt offensichtlich keine Losung: L = ∅. ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 453 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele
Beispiele (Forts.)
Beispiel (mit mehreren Losungen): Das lineare Gleichungssystem uber R
x1 + 2x2 + x4 = 1x1 + 2x2 + 2x3 + 3x4 = 5
2x1 + 4x2 + 3x4 = 53x3 + 2x4 = 3
besitzt mehrere Losungen, z.B.:
x1 = −2, x2 = 0, x3 = −1, x4 = 3 oder
x1 = 0, x2 = −1, x3 = −1, x4 = 3.
♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 454 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Definitionen und Beispiele
Anwendungen
Lineare Gleichungssysteme gehoren zu den einfachsten Formen, umZusammenhange in Systemen zu beschreiben. Man findet sie z.B. in derlinearen Optimierung (→ wirtschaftswissenschaftliche Anwendungen).
Beispiel aus Informatikvorlesung Eingebettete Systeme (Prof. Marwedel):
Sog. Petri-Netze zur Modellierung der Bewegungen von Thalys-Zugenzwischen Koln, Amsterdam, Brussel und Paris.
Matrix zur Abbildung der Transitionen zwischen den Stationen(Knoten).
Belegung der Stationen mit Zugen liefert fur jede Transition einelineare Gleichung mit konstantem Ergebnis (0) (Invariante!).
Insgesamt entsteht ein lineares Gleichungssystem, wobei Losungen in{0, 1}(!) gesucht werden.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 455 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Ubersicht Kapitel 10Lineare Gleichungssysteme und Invertieren von Matrizen
10.1 Definitionen und Beispiele
10.2 Das Gauß’sche Eliminationsverfahren
10.3 Invertieren von Matrizen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 456 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Kapitel 10Lineare Gleichungssysteme und Invertieren von Matrizen
10.2 Das Gauß’sche Eliminationsverfahren
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 457 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen von Gleichungssystemen
Grundlegend fur die systematische Losung linearer Gleichungssysteme istdas folgende einfache Lemma.
Lemma 5.2.1
Die Losungsmenge eines linearen Gleichungssystems uber K andert sichnicht, wenn man
(i) zwei Gleichungen vertauscht,
(ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K )
(iii) eine Gleichung mit c ∈ K \ {0} multipliziert.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 458 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen von Gleichungssystemen
Lemma 5.2.1
Die Losungsmenge eines linearen Gleichungssystems uber K andert sich nicht, wenn man
(i) zwei Gleichungen vertauscht,
(ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K)
(iii) eine Gleichung mit c ∈ K \ {0} multipliziert.
Beweis: (i) Sei A~x = ~b ein lineares Gleichungssystem:~at1...~atn
~x =
b1...bn
⇔~at1~x = b1
...~atn~x = bn
Das Vertauschen zweier Gleichungen andert die Bedingung also nicht.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 459 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen von Gleichungssystemen
Lemma 5.2.1
Die Losungsmenge eines linearen Gleichungssystems uber K andert sich nicht, wenn man
(i) zwei Gleichungen vertauscht,
(ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K)
(iii) eine Gleichung mit c ∈ K \ {0} multipliziert.
Beweis: (ii) Sei A~x = ~b ein lineares Gleichungssystem:
~at1~x = b1...~ati ~x = bi...~atj ~x = bj...~atn~x = bn
⇒⇔
~at1~x = b1...~ati ~x + c~atj ~x = bi + cbj...
~atj ~x = bj...~atn~x = bn
·ceinsetzen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 460 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen von Gleichungssystemen
Lemma 5.2.1
Die Losungsmenge eines linearen Gleichungssystems uber K andert sich nicht, wenn man
(i) zwei Gleichungen vertauscht,
(ii) das c-fache einer Gleichung zu einer anderen addiert (c ∈ K)
(iii) eine Gleichung mit c ∈ K \ {0} multipliziert.
Beweis: (iii) Sei A~x = ~b ein lineares Gleichungssystem, c ∈ K \ {0}:
~ati ~x = bi | · c ⇒ ⇔ c~ati ~x = cbi | · c−1
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 461 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Wir wollen uns diese Umformungen an einem Beispiel veranschaulichen:Beispiel:
3x3+2x4 = 3
x1+2x2+2x3+3x4 = 5
2x1+4x2 +3x4 = 5
x1+2x2 + x4 = 1
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 462 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
3x3+2x4 = 3
x1+2x2+2x3+3x4 = 5
2x1+4x2 +3x4 = 5
x1+2x2 + x4 = 1
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 463 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x1+2x2+2x3+3x4 = 5
2x1+4x2 +3x4 = 5
3x3+2x4 = 3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 464 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x1+2x2+2x3+3x4 = 5
2x1+4x2 +3x4 = 5
3x3+2x4 = 3
(−1) (−2)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 465 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
−x1−2x2 − x4 =−1
x1+2x2+2x3+3x4 = 5
2x1+4x2 +3x4 = 5
3x3+2x4 = 3
(−2)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 466 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
−x1−2x2 − x4 =−1
x1+2x2+2x3+3x4 = 5
2x1+4x2 +3x4 = 5
3x3+2x4 = 3
(−2)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 467 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1−2x2 − x4 =−1
0+2x2+2x3+3x4 = 5
2x1+4x2 +3x4 = 5
3x3+2x4 = 3
(−2)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 468 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 − x4 =−1
0+ 0+2x3+3x4 = 5
2x1+4x2 +3x4 = 5
3x3+2x4 = 3
(−2)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 469 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 − x4 =−1
0+ 0+2x3+3x4 = 5
2x1+4x2 +3x4 = 5
3x3+2x4 = 3
(−2)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 470 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 =−1
0+ 0+2x3+2x4 = 5
2x1+4x2 +3x4 = 5
3x3+2x4 = 3
(−2)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 471 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
0+ 0+2x3+2x4 = 4
2x1+4x2 +3x4 = 5
3x3+2x4 = 3
(−2)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 472 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
2x3+2x4 = 4
2x1+4x2 +3x4 = 5
3x3+2x4 = 3
(−2)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 473 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
−2x1−4x2 −2x4 =−2
2x3+2x4 = 4
2x1+4x2 +3x4 = 5
3x3+2x4 = 3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 474 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
−2x1−4x2 −2x4 =−2
2x3+2x4 = 4
2x1+4x2 +3x4 = 5
3x3+2x4 = 3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 475 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1−4x2 −2x4 =−2
2x3+2x4 = 4
0+4x2 +3x4 = 5
3x3+2x4 = 3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 476 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 −2x4 =−2
2x3+2x4 = 4
0+ 0 +3x4 = 5
3x3+2x4 = 3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 477 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 =−2
2x3+2x4 = 4
0+ 0 + x4 = 5
3x3+2x4 = 3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 478 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
2x3+2x4 = 4
0+ 0 + x4 = 3
3x3+2x4 = 3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 479 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
2x3+2x4 = 4
x4 = 3
3x3+2x4 = 3
| · 1/2
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 480 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x3+ x4 = 2
x4 = 3
3x3+2x4 = 3
| · 1/2
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 481 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x3+ x4 = 2
x4 = 3
3x3+2x4 = 3
| · 1/2(−3)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 482 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
−3x3−3x4 =−6
x4 = 3
3x3+2x4 = 3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 483 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
−3x3−3x4 =−6
x4 = 3
3x3+2x4 = 3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 484 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x3−3x4 =−6
x4 = 3
0+2x4 = 3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 485 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x3+ x4 =−6
x4 = 3
0− x4 = 3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 486 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x3+ x4 = 2
x4 = 3
0− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 487 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x3+ x4 = 2
x4 = 3
− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 488 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x3+ x4 = 2
x4 = 3
− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 489 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x3+ x4 = 2
0 = 0
− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 490 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x3+ x4 = 2
0 = 0
− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 491 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x3+ x4 = 2
0 = 0
− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 492 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x3+ 0 =−1
0 = 0
− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 493 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x3 =−1
0 = 0
− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 494 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + x4 = 1
x3 =−1
0 = 0
− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 495 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 + 0 =−2
x3 =−1
0 = 0
− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 496 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 =−2
x3 =−1
0 = 0
− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 497 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 =−2
x3 =−1
0 = 0
− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 498 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 =−2⇒ x1 = −2− 2x2
x3 =−1
0 = 0
− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 499 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 =−2⇒ x1 = −2− 2x2
x3 =−1⇒ x3 = −1
0 = 0
− x4 =−3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 500 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 =−2⇒ x1 = −2− 2x2
x3 =−1⇒ x3 = −1
0 = 0
− x4 =−3⇒ x4 = 3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 501 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen in lin. Gleichungssystemen
Beispiel (Forts.):
x1+2x2 =−2⇒ x1 = −2− 2x2
x3 =−1⇒ x3 = −1
0 = 0
− x4 =−3⇒ x4 = 3
Somit ergibt sich als Losungsmenge des linearen Gleichungssystems:
L = {(−2− 2x2, x2,−1, 3)|x2 ∈ R}
♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 502 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Gauß’scher Algorithmus
Der Gauß’sche Algorithmus (auch Gauß’sches Eliminationsverfahrengenannt) benutzt die Operationen aus Lemma 5.2.1 sukzessive, um eingegebenes lineares Gleichungssystem in ein anderes mit derselbenLosungsmenge(!) zu uberfuhren, bei dem man die Losung direkt ablesenkann.
Definition 5.2.2 (Aquivalenz von lin. Gleichungssystemen)
Zwei lineare Gleichungssysteme heißen aquivalent, wenn ihreLosungsmengen identisch sind.
Man nutzt also wieder eine Invarianten-Eigenschaft aus, um ein Problemzu vereinfachen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 503 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Elementare Zeilenumformungen bei Matrizen
Die in Lemma 5.2.1 genannten System-Umformungen wirken sich auch aufdie Matrizen A bzw. (A, ~b) des Gleichungssystems aus bzw. lassen sichdurch Matrix-Umformungen realisieren:
Definition 5.2.3 (Elementare Zeilenumformungen)
Elementare Zeilenumformungen auf Matrizen aus Kn×m sind Abbildungender folgenden Form (fur 1 ≤ k , l ≤ n):
(i) Vk,l : Kn×m → Kn×m: “Vertausche k-te und l-te Zeile einer Matrix.”
(ii) Ak,l(c) : Kn×m → Kn×m fur c ∈ K :“Addiere das c-fache der k-ten Zeile zur l-ten Zeile einer Matrix.”
(iii) Mk(c) : Kn×m → Kn×m fur c ∈ K \ {0}:“Multipliziere die k-te Zeile einer Matrix mit c .”
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 504 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Wir wollen auch diese Umformungen an dem Beispiel von obenveranschaulichen.
Beispiel: 0 0 3 2 31 2 2 3 52 4 0 3 51 2 0 1 1
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 505 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.): 0 0 3 2 31 2 2 3 52 4 0 3 51 2 0 1 1
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 506 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.): 1 2 0 1 11 2 2 3 52 4 0 3 50 0 3 2 3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 507 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.): 1 2 0 1 11 2 2 3 52 4 0 3 50 0 3 2 3
(−1) (−2)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 508 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.):1 2 0 1 11 2 2 3 52 4 0 3 50 0 3 2 3
⇔
1 2 0 1 10 0 2 2 40 0 0 1 30 0 3 2 3
(−1) (−2)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 509 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.):1 2 0 1 10 0 2 2 40 0 0 1 30 0 3 2 3
⇔
1 2 0 1 10 0 1 1 20 0 0 1 30 0 0 − 1 − 3
| · 1/2 (−3)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 510 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.):1 2 0 1 10 0 1 1 20 0 0 1 30 0 0 −1 −3
⇔
1 2 0 0 − 20 0 1 0 − 10 0 0 0 00 0 0 −1 −3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 511 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.):1 2 0 0 −20 0 1 0 −10 0 0 0 00 0 0 −1 −3
⇔
1 2 0 0 −20 0 1 0 −10 0 0 1 30 0 0 0 0
| · (−1)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 512 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Matrixumformungen – Beispiel
Beispiel (Forts.):Die entstandene Matrix ist in Stufenform:
1 2 0 0 −20 0 1 0 −10 0 0 1 30 0 0 0 0
♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 513 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen durch Matrixmultiplikation
Satz 5.2.4
Jede elementare Zeilenumformung (und damit jede Folge von elementarenZeilenumformungen) an einer Matrix A ∈ Kn×m ist Ergebnis einerMultiplikation von links mit einer regularen Matrix U ∈ Kn×n.
Beweis: Fur jeden Typ der elementaren Zeilenumformungen wollen wirdie entsprechende regulare Matrix U ∈ Kn×n angeben.
Definition 5.2.3 (Elementare Zeilenumformungen)
Elementare Zeilenumformungen auf Matrizen aus K n×m sind Abbildungen der folgendenForm (fur 1 ≤ k, l ≤ n):
(i) Vk,l : K n×m → K n×m: “Vertausche k-te und l-te Zeile einer Matrix.”
(ii) Ak,l(c) : K n×m → K n×m fur c ∈ K :“Addiere das c-fache der k-ten Zeile zur l-ten Zeile einer Matrix.”
(iii) Mk(c) : K n×m → K n×m fur c ∈ K \ {0}:“Multipliziere die k-te Zeile einer Matrix mit c.”
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 514 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen durch Matrixmultiplikation (Forts.)
Beweis: Sei Eij diejenige Matrix aus Kn×n, die uberall mit Nullen besetztist bis auf die Position (i , j), an der sie eine 1 hat:
Eij =
0 . . . 0. . .
... 1...
. . .
0 . . . 0
Die elementaren Zeilenumformungen entsprechen dann einer Multiplikationvon links mit den folgenden Matrizen U:
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 515 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen durch Matrixmultiplikation (Forts.)
Beweis: (i) Vk,l : Kn×m → Kn×m:”‘Vertausche k-te und l-te Zeile einer Matrix.”’
U ist regular, da U · U = En.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 516 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen durch Matrixmultiplikation (Forts.)
Beweis: (ii) Ak,l(c) : Kn×m → Kn×m fur c ∈ K :”‘Addiere das c-fache der k-ten Zeile zur l-ten Zeile einer Matrix.”’
U ′ ist regular, da
U ′ = En + c · Elk und
(U ′)−1 = En − c · Elk
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 517 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Umformungen durch Matrixmultiplikation (Forts.)
Beweis: (iii) Mk(c) : Kn×m → Kn×m fur c ∈ K \ {0}:”‘Multipliziere die k-te Zeile einer Matrix mit c.”’
U ′′ ist regular, da
U ′′ = En + (c − 1) · Ekk und
(U ′′)−1 = En + (c−1 − 1) · Ekk
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 518 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Definition der Stufenform
Durch elementare Zeilenumformungen kann man eine beliebige n ×mMatrix auf sogenannte Stufenform bringen.
Definition 5.2.5 (Stufenform)
Eine Matrix A ∈ Kn×m hat Stufenform, wenn sie wie folgt aussieht:
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 519 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Satz 5.2.6 (Stufenform)
Jede Matrix A ∈ Kn×m kann man durch elementare Zeilenumformungenauf Stufenform bringen.
Beweis: Induktion uber die Zahl n der Zeilen.
n = 1 : A = (a11, a12, . . . , a1m).
1. Fall: alle a1j = 0 ⇒ A ist in Stufenform2. Fall: es gibt ein j1 = min{j | a1j 6= 0}.
⇒ A = (0, . . . , 0, a1j1 , ∗ · · · ∗)M1(a−1
1j1)
→ (0, . . . , 0, 1, ∗ · · · ∗)
ist in Stufenform.
I. V.: Alle Matrizen des Kn×m lassen sich auf Stufenform bringen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 520 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Beweis: Induktion uber die Zahl n der Zeilen.
I. V.: Alle Matrizen des Kn×m lassen sich auf Stufenform bringen.
n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen.
1. Fall: alle aij = 0 ⇒ A ist in Stufenform2. Fall: es gibt ein j1 = min{j | ∃i : aij 6= 0} und ein i1 = min{i | aij1 6= 0},
A =
0 . . . 0 0 ∗ . . . ∗...
......
0 . . . 0 0 ∗ . . . ∗0 . . . 0 ai1j1 ∗ . . . ∗0 . . . 0 ∗ ∗ . . . ∗
......
...0 . . . 0 ∗ ∗ . . . ∗
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 521 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Beweis: Induktion uber die Zahl n der Zeilen.
I. V.: Alle Matrizen aus Kn×m lassen sich auf Stufenform bringen.
n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen.
1. Fall alle aij = 0⇒ A ist in Stufenform2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}.
0 . . . 0 0 ∗ . . . ∗...
......
0 . . . 0 0 ∗ . . . ∗0 . . . 0 ai1j1 ∗ . . . ∗0 . . . 0 ∗ ∗ . . . ∗
......
...0 . . . 0 ∗ ∗ . . . ∗
Mi1
(a−1i1 j1
)
→
0 . . . 0 0 ∗ . . . ∗...
......
0 . . . 0 0 ∗ . . . ∗0 . . . 0 1 ∗ . . . ∗0 . . . 0 ∗ ∗ . . . ∗
......
...0 . . . 0 ∗ ∗ . . . ∗
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 522 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Beweis: Induktion uber die Zahl n der Zeilen.
I. V.: Alle Matrizen aus Kn×m lassen sich auf Stufenform bringen.
n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen.
1. Fall alle aij = 0⇒ A ist in Stufenform2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}.
0 . . . 0 0 ∗ . . . ∗...
......
0 . . . 0 0 ∗ . . . ∗0 . . . 0 1 ∗ . . . ∗0 . . . 0 ∗ ∗ . . . ∗
......
...0 . . . 0 ∗ ∗ . . . ∗
Ai1,k
(−akj1 ),k 6=i1→
0 . . . 0 0 ∗ . . . ∗...
......
0 . . . 0 0 ∗ . . . ∗0 . . . 0 1 ∗ . . . ∗0 . . . 0 0 ∗ . . . ∗
......
...0 . . . 0 0 ∗ . . . ∗
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 523 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Beweis: Induktion uber die Zahl n der Zeilen.
I. V.: Alle Matrizen aus Kn×m lassen sich auf Stufenform bringen.
n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen.
1. Fall alle aij = 0⇒ A ist in Stufenform2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}.
0 . . . 0 0 ∗ . . . ∗...
......
0 . . . 0 0 ∗ . . . ∗0 . . . 0 1 ∗ . . . ∗0 . . . 0 0 ∗ . . . ∗
......
...0 . . . 0 0 ∗ . . . ∗
Vi1,1→
0 . . . 0 1 ∗ . . . ∗0 . . . 0 0 ∗ . . . ∗
......
...0 . . . 0 0 ∗ . . . ∗
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 524 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Beweis: Induktion uber die Zahl n der Zeilen.
I. V.: Alle Matrizen aus Kn×m lassen sich auf Stufenform bringen.
n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen.
1. Fall alle aij = 0⇒ A ist in Stufenform2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}.
0 . . . 0 1 ∗ . . . ∗0 . . . 0 0 ∗ . . . ∗
......
...0 . . . 0 0 ∗ . . . ∗
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 525 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Beweis: Induktion uber die Zahl n der Zeilen.
I. V.: Alle Matrizen aus Kn×m lassen sich auf Stufenform bringen.
n → n + 1 : Sei A ∈ K (n+1)×m eine Matrix mit n + 1 Zeilen.
1. Fall alle aij = 0⇒ A ist in Stufenform2. Fall es gibt j1 = min{j | ∃i : aij 6= 0} und i1 = min{i | aij1 6= 0}.
0 . . . 0 1 ∗ . . . ∗0 . . . 0 0 ∗ . . . ∗
......
...0 . . . 0 0 ∗ . . . ∗
Sei B ∈ K n×m die Matrix, die aus den Zeilen 2 bis n + 1 besteht.
I.V.: B lasst sich auf Stufenform bringen.Die Eintrage in der ersten Zeile oberhalb der Stufen konnen schließlichmithilfe von Ak,1(c)- Operationen auf 0 gebracht werden.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 526 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Reduktion auf Stufenform
Satz 5.2.6 (Stufenform)
Jede Matrix A ∈ Kn×m kann man durch elementare Zeilenumformungenauf Stufenform bringen.
Wir wenden den Satz auf die erweiterte Matrix (A, ~b) eines linearenGleichungssystems an und nehmen an, dass die Stufen in den Spaltenj1 ≤ j2 ≤ · · · ≤ jr ≤ m + 1 auftreten.
Die Spalte ji , i = 1, . . . , r , ist also die Spalte, in der die i-te Zeile denersten Eintrag ungleich Null (bzw. gleich 1) enthalt.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 527 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Behandlung der Stufenform
Wir unterscheiden nun zwei Falle.
1. Fall: jr = m + 1, d.h., die r -te Gleichung des umgeformten linearenGleichungssystems lautet
0x1 + 0x2 + · · ·+ 0xn = 1,
so dass das Gleichungssystem offenbar keine Losung besitzt. Indiesem Fall ist also L = ∅.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 528 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Behandlung der Stufenform (Forts.)
2. Fall: jr ≤ m Das umgeformte Gleichungssystem lautet also:
xj1 +n∑
j=j1+1j 6=j2,...,jr
a′1jxj = a′1,n+1
xj2 +n∑
j=j2+1j 6=j3,...,jr
a′2jxj = a′2,n+1
...
xjr +n∑
j=jr+1
a′rj xj = a′r ,n+1
0 = 0...
0 = 0
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 529 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Behandlung der Stufenform (Forts.)
Alle xi außer den xj1 , . . . , xjr sind frei wahlbar; aus der Wahl dieser anderenxi ergeben sich dann die restlichen xj1 , . . . , xjr wie folgt:
xj1 := a′1,n+1 −n∑
j=j1+1j 6=j2,...,jr
a′1j xj
xj2 := a′2,n+1 −n∑
j=j2+1j 6=j3,...,jr
a′2j xj
...
xjr := a′r ,n+1 −n∑
j=jr+1
a′rj xj
Damit haben wir also eine vollstandige Beschreibung der Losungsmengedes linearen Gleichungssystems.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 530 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Eindeutige Losbarkeit
Aus der konstruktiven Beschreibung der Losungsmenge sehen wir sofort,dass das Gleichungssystem genau dann eindeutig losbar ist, wenn keine ximehr frei wahlbar sind, sondern die Losungen durch die (umgeformten)rechten Seiten eindeutig bestimmt werden.
Das ist genau dann der Fall, wenn {j1, . . . , jr} = {1, . . . ,m} ist.Insbesondere ist dann r = m.
Da es hochstens so viele Stufen wie Zeilen gibt, erhalten wir also dasfolgende Korollar:
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 531 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Eindeutige Losbarkeit
Wdh. Definition 5.1.1
Ein lineares Gleichungssystem mit n Gleichungen und m Variablen hat die Form:
a1,1x1 + a1,2x2 + · · · + a1,mxm = b1
a2,1x1 + a2,2x2 + · · · + a2,mxm = b2
...an,1x1 + an,2x2 + · · · + an,mxm = bn
Die aij heißen Koeffizienten und die bi heißen rechte Seiten, mit aij , bi ∈ K .
Korollar 5.2.7
Falls das lineare Gleichungssystem (s.o.) eine eindeutige Losung besitzt, sogilt m ≤ n.
Beweis: Falls das lineare Gleichungssystem eine eindeutige Losung besitzt,gilt {j1, . . . , jr} = {1, . . . ,m}.
⇒ r = m, r ≤ n ⇒ m ≤ nProf. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 532 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Homogene lineare Gleichungssysteme
Wdh. Definition 5.1.1
Ein lineares Gleichungssystem mit n Gleichungen und m Variablen hat die Form:
a1,1x1 + a1,2x2 + · · · + a1,mxm = b1
a2,1x1 + a2,2x2 + · · · + a2,mxm = b2
...an,1x1 + an,2x2 + · · · + an,mxm = bn
Die aij heißen Koeffizienten und die bi heißen rechte Seiten, mit aij , bi ∈ K .
Definition 5.2.8 (Homogene lineare Gleichungssysteme)
Das lineare Gleichungssystem (5.1) heißt homogen, wennb1 = b2 = . . . = bm = 0.Ein homogen lineares Gleichungssystem hat immer eine Losung, namlichx1 = x2 = . . . = xn = 0.Diese Losung (x1, . . . , xn)t = ~0 heißt triviale Losung.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 533 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Homogene Systeme und eindeutige Losbarkeit
Satz 5.2.9
Ist n = m und hat das homogene lineare Gleichungssystem
a11x1 + a12x2 + · · · + a1nxn = 0a21x1 + a22x2 + · · · + a2nxn = 0
...am1x1 + am2x2 + · · · + amnxn = 0
nur die triviale Losung, so hat (5.1) fur jede rechte Seite b1, . . . , bm eineeindeutig bestimmte Losung.
Beweis: Wir betrachten die erweiterte Matrix (A,~0) des homogenenGleichungssystems. Da dieses eindeutig losbar ist, muss sich (A,~0) durchelementare Zeilenumformungen in die folgende Stufenform bringen lassen:
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 534 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Homogene Systeme und eindeutige Losbarkeit
Beweis: Wir betrachten die erweiterte Matrix (A,~0) des homogenenGleichungssystems. Da dieses eindeutig losbar ist, muss sich (A,~0) durchelementare Zeilenumformungen in die folgende Stufenform bringen lassen:
1 0 . . . 0 00 1 . . . 0 0...
.... . .
......
0 0 . . . 1 0
(⇒ n = m). Wendet man dieselben Zeilenumformungen auf die Matrix(A, ~b) fur ein beliebiges ~b ∈ Kn an, so erhalt man die Matrix
1 0 . . . 0 b′10 1 . . . 0 b′2...
.... . .
......
0 0 . . . 1 b′n
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 535 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Das Gauß’sche Eliminationsverfahren
Homogene Systeme und eindeutige Losbarkeit
Beweis:Wendet man dieselben Zeilenumformungen auf die Matrix (A, ~b)fur ein beliebiges ~b ∈ Kn an, so erhalt man die Matrix
1 0 . . . 0 b′10 1 . . . 0 b′2...
.... . .
......
0 0 . . . 1 b′n
Die eindeutige Losung des zugehorigen Gleichungssystems lasst sich darausablesen.
x1 = b′1, x2 = b′2, . . . , xn = b′n
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 536 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen
Ubersicht Kapitel 10Lineare Gleichungssysteme und Invertieren von Matrizen
10.1 Definitionen und Beispiele
10.2 Das Gauß’sche Eliminationsverfahren
10.3 Invertieren von Matrizen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 537 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen
Kapitel 10Lineare Gleichungssysteme und Invertieren von Matrizen
10.3 Invertieren von Matrizen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 538 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen
Erweiterung des Gauß-Algorithmus
Im letzten Abschnitt haben wir gesehen, wie man lineareGleichungssysteme A~x = ~b algorithmisch lost und dabei gleichzeitigAussagen uber die allgemeine Losbarkeit solcher Gleichungssysteme erhalt.
Von zentraler Bedeutung waren dabei elementare Zeilenumformungen, dieman auch durch Multiplikation (von links) mit regularen, d.h.invertierbaren Matrizen realisieren kann.
Die Losbarkeit homogener Gleichungssysteme ist fundamental fur dieLosbarkeit ganzer Klassen von Gleichungssystemen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 539 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen
Erweiterung des Gauß-Algorithmus (Forts.)
In diesem Abschnitt wollen wir zeigen, wie man durch eine Erweiterung derAnwendung des Gauß-Algorithmus
gleichzeitig Losungen fur beliebige rechte Seiten erhalten (bzw.vorbereiten) und
das Inverse einer regularen Matrix berechnen kann.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 540 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen
Eine allgemeine Gleichungssystem-Matrix
Um ein Gleichungssystem A~x = ~b, A ∈ Kn×m zu losen, haben wir denGauß-Algorithmus auf die Matrix (A, ~b) angewendet.
Wollen wir danach ein System A~x = ~c losen, mussen wir den Algorithmusmit der Matrix (A, ~c) wiederholen.
Um diesen Aufwand zu reduzieren, losen wir nun Gleichungssysteme miteiner generischen rechten Seite –wir wenden den Gauß-Algorithmus auf die Matrix (A,En) ∈ Kn×(m+n) an.
Die Matrix En nimmt bei der Modifizierung die Informationen derZeilenumformungen auf.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 541 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen
Identifikation der Umformungsinformationen
Konkret passiert bei den Zeilenumformungen der Matrix (A,En) folgendes:
Wir formen A und damit (A,En) auf Stufenform um und erhalten eineMatrix (B,C );
dies entspricht einer Multiplikation von links mit einer (regularen)Umformungsmatrix U, also
B = U · A und C = U · En = U.
B hat Stufenform und C ist die Umformungsmatrix.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 542 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen
Losung beliebiger Gleichungssysteme A~x = ∗
Fur beliebige rechte Seiten ~b des Gleichungssystems A~x = ~b kann mannun die Informationen zur Stufenform wie folgt ausnutzen:
Stufenform wird erreicht durch B~x = U · A~x = U · ~b;
Wegen U · A~x = U · ~b genau dann, wenn A~x = ~b (U invertierbar!) istjede Losung von U ·A~x = U · ~b (die sich in der Regel leicht berechnenlasst) auch eine Losung von A~x = ~b.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 543 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen
Invertieren von Matrizen
Dieselbe Idee – namlich die Betrachtung der Matrix (A,En) anstelle von A– kann man auch benutzen, um das Inverse von (regularen) Matrizenauszurechnen.
Sei A~x = ~b ein Gleichungssystem mit regularer Matrix A ∈ Kn×n. Dannist A~x = ~b genau dann, wenn ~x = A−1~b, das Gleichungssystem ist alsoeindeutig losbar. Durch Anwendung des Gauß-Algorithmus erhalten wiraus der Matrix (A,En) die Matrix (En,U) mit En = B = U · A, also istU = A−1. Wir konnen daher mit Hilfe des Gauß-Algorithmus zu regularenMatrizen das (multiplikative) Inverse bestimmen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 544 / 669
Lineare Gleichungssysteme und Invertieren von Matrizen Invertierung von Matrizen
Invertieren von Matrizen (Forts.)
Satz 5.3.1
Sei A ∈ Kn×n eine regulare quadratische Matrix. Dann ist A~x = ~beindeutig losbar, und man erhalt das Inverse A−1, indem man dieselbenZeilenumformungen auf die Einheitsmatrix in derselben Reihenfolgeanwendet.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 545 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Ubersicht Kapitel 11Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen und Isomorphismen
11.2 Matrizen linearer Abbildungen
11.3 Dimensionssatz und Homomorphiesatz
11.4 Hauptsatz uber lineare Gleichungssysteme
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 546 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Ubersicht Kapitel 11Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen und Isomorphismen
11.2 Matrizen linearer Abbildungen
11.3 Dimensionssatz und Homomorphiesatz
11.4 Hauptsatz uber lineare Gleichungssysteme
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 547 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Kapitel 11Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen undIsomorphismen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 548 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Lineare Abbildungen
Homomorphismen sind strukturerhaltende Abbildungen, d.h. Abbildungen,die mit den Verknupfungen auf Mengen vertraglich sind.Vektorraumhomomorphismen werden auch lineare Abbildungen genannt;sie sind mit der Addition von Vektoren und mit der Skalarmultiplikationvertraglich.
Definition 6.1.1 (Lineare Abbildungen, Vektorraumhomomorphismus)
Es seien V und W zwei K -Vektorraume und ϕ : V →W eine Abbildung.Dann heißt ϕ linear oder Vektorraumhomomorphismus, falls
ϕ(~v + ~v ′) = ϕ(~v) + ϕ(~v ′) fur alle ~v , ~v ′ ∈ V
und
ϕ(s · ~v) = s · ϕ(~v) fur alle s ∈ K und ~v ∈ V .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 549 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Eigenschaften linearer Abbildungen
Nullvektoren werden unter Vektorraumhomomorphismen wieder aufNullvektoren abgebildet:
Satz 6.1.2
Sind V und W zwei K -Vektorraume und ist ϕ : V →W eine lineareAbbildung, so ist ϕ(~0) = ~0.
Beweis:ϕ(~0) = ϕ(0 ·~0) = 0 · ϕ(~0) = ~0.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 550 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Eigenschaften linearer Abbildungen (Forts.)
Vektorraumhomomorphismen/Lineare Abbildungen lassen sich auch durcheine Bedingung charaktierisieren:
Satz 6.1.3 (Charakterisierung linearer Abbildungen)
Es seien V und W zwei K -Vektorraume und ϕ : V →W eine Abbildung.Die Abbildung ϕ ist genau dann linear, wenn
ϕ(s · ~v + ~v ′) = s · ϕ(~v) + ϕ(~v ′) fur alle s ∈ K und ~v , ~v ′ ∈ V . (6.1)
Beweis: Seien ~v , ~v ′ ∈ V , s ∈ K .”‘⇒”’ Sei ϕ linear. Dann ist
ϕ(s · ~v + ~v ′) = ϕ(s · ~v) + ϕ(~v ′) (Additivitat)
= s · ϕ(~v) + ϕ(~v ′). (Homogenitat)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 551 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Eigenschaften linearer Abbildungen (Forts.)
Satz 6.1.3 (Charakterisierung linearer Abbildungen)
Es seien V und W zwei K -Vektorraume und ϕ : V →W eine Abbildung.Die Abbildung ϕ ist genau dann linear, wenn
ϕ(s · ~v + ~v ′) = s · ϕ(~v) + ϕ(~v ′) fur alle s ∈ K und ~v , ~v ′ ∈ V .
Beweis: Seien ~v , ~v ′ ∈ V , s ∈ K .”‘⇐”’ Sei ϕ(s · ~v + ~v ′) = s · ϕ(~v) + ϕ(~v ′) fur alle s ∈ K und ~v , ~v ′ ∈ V .
Additivitat:
ϕ(~v + ~v ′) = ϕ(1 · ~v + ~v ′)
= 1 · ϕ(~v) + ϕ(~v ′)
= ϕ(~v) + ϕ(~v ′)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 552 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Eigenschaften linearer Abbildungen (Forts.)
Satz 6.1.3 (Charakterisierung linearer Abbildungen)
Es seien V und W zwei K -Vektorraume und ϕ : V →W eine Abbildung.Die Abbildung ϕ ist genau dann linear, wenn
ϕ(s · ~v + ~v ′) = s · ϕ(~v) + ϕ(~v ′) fur alle s ∈ K und ~v , ~v ′ ∈ V .
Beweis: Seien ~v , ~v ′ ∈ V , s ∈ K .”‘⇐”’ Sei ϕ(s · ~v + ~v ′) = s · ϕ(~v) + ϕ(~v ′) fur alle s ∈ K und ~v , ~v ′ ∈ V .
Additivitat
Homogenitat:
ϕ(s · ~v) = ϕ(s · ~v +~0)
= s · ϕ(~v) + ϕ(~0)
= s · ϕ(~v)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 553 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Lineare Abbildungen – Beispiele
Beispiel: Es sei V ein K -Vektorraum und c ∈ K ein Skalar. Dann ist dieAbbildung
ϕc : V → V
~v 7→ c · ~v
linear. Denn
ϕc(s · ~v + ~v ′) = c · (s · ~v + ~v ′)
= s · (c · ~v) + c · ~v ′
= s · ϕc(~v) + ϕc(~v ′)
fur alle s ∈ K und ~v , ~v ′ ∈ V . ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 554 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Lineare Abbildungen – Beispiele (Forts.)
Beispiel (Nullabbildung): Sind V und W zwei K -Vektorraume, dann istdie Abbildung
ϕ : V →W
~v 7→ ~0
fur alle ~v ∈ V linear, also ein Vektorraumhomomorphismus. ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 555 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Lineare Abbildungen – Beispiele (Forts.)
Beispiel (Differenzierbare Funktionen): Es sei V der R-Vektorraum allerdifferenzierbarer Funktionen von R nach R, also
V := { f : R→ R | f ist differenzierbar } ⊂ RR,
und f ′ bezeichne die Ableitung der Funktion f ∈ V .
Dann ist die durchf 7→ f ′
definierte Abbildung von V nach RR linear.Dies folgt sofort aus den bekannten Ableitungsregeln fur Funktionen. ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 556 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Lineare Abbildung einer Matrix
Ein besonders wichtiges Beispiel fur eine lineare Abbildung wird durch denfolgenden Satz gegeben:
Satz 6.1.4
Sei A ∈ Km×n eine Matrix. Definiere ϕA durch
ϕA : Kn → Km,
~x 7→ A · ~x .
Jede solche Abbildung ϕA ist linear.
Beweis: Folgt sofort aus den Rechenregeln fur Matrizen.
Wir werden spater sehen, dass alle linearen Abbildungen zwischenVektorraumen Km und Kn diese Form haben, also durch Matrizendarstellbar sind.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 557 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Hintereinanderschaltung linearer Abbildungen
Schaltet man zwei lineare Abbildungen (geeignet) hintereinander, so erhaltman wieder eine lineare Abbildung:
Lemma 6.1.5
Es seien U,V und W drei K -Vektorraume. Sind ϕ : U → V undψ : V →W lineare Abbildungen, so ist die Hintereinanderausfuhrung
ψ ◦ ϕ : U →W
~v 7→ ψ(ϕ(~v))
ebenfalls eine lineare Abbildung.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 558 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Hintereinanderschaltung linearer Abbildungen
Lemma 6.1.5
Es seien U,V und W drei K -Vektorraume. Sind ϕ : U → V und ψ : V →W lineareAbbildungen, so ist die Hintereinanderausfuhrung
ψ ◦ ϕ : U →W
~v 7→ ψ(ϕ(~v))
ebenfalls eine lineare Abbildung.
Beweis: Seien ~v , ~w ∈ V und s ∈ K .
z.z.: ψ ◦ ϕ (s · ~v + ~w) = s · ψ ◦ ϕ(~v) + ψ ◦ ϕ(~w)
ψ ◦ ϕ (s · ~v + ~w) = ψ(ϕ(s · ~v + ~w))
= ψ(s · ϕ(~v) + ϕ(~w))
= s · ψ(ϕ(~v)) + ψ(ϕ(~w))
= s · ψ ◦ ϕ(~v) + ψ ◦ ϕ(~w)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 559 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Basen und lineare Abbildungen
Satz 6.1.6
Es seien V und W zwei K -Vektorraume, {~v1, . . . , ~vn} ⊂ V sei eine Basisvon V , und ~w1, . . . , ~wn ∈W seien n Vektoren in W .Dann gibt es genau eine lineare Abbildung
ϕ : V →W
mitϕ(~vi ) = ~wi fur i = 1, · · · , n. (6.2)
Lineare Abbildungen auf V sind also durch die Bilder auf einer Basis vonV eindeutig bestimmt.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 560 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Basen und lineare Abbildungen
Satz 6.1.6
Es seien V und W zwei K -Vektorraume, {~v1, . . . , ~vn} ⊂ V sei eine Basis von V , und~w1, . . . , ~wn ∈W seien n Vektoren in W . Dann gibt es genau eine lineare Abbildung
ϕ : V →W
mitϕ(~vi ) = ~wi fur i = 1, · · · , n. (6.3)
Beweis: Sei ~v ∈ V , ϕ : V →W linear mit ϕ(~vi ) = ~wi fur i = 1, · · · , n.
⇒ ϕ(~v) = ϕ(s1 · ~v1 + · · ·+ sn · ~vn)
= s1ϕ(~v1) + · · ·+ snϕ(~vn)
= s1 · ~w1 + · · ·+ sn · ~wn
Eindeutigkeit der Darstellung als Linearkombination von Basisvektoren⇒ ϕ ist unter den Annahmen eindeutig bestimmt
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 561 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Basen und lineare Abbildungen
Beweis: Sei ~v ∈ V , ϕ : V →W linear mit ϕ(~vi ) = ~wi fur i = 1, · · · , n.
⇒ ϕ(~v) = ϕ(s1 · ~v1 + · · ·+ sn · ~vn)
= s1 · ~w1 + · · ·+ sn · ~wn
⇒ ϕ ist unter den Annahmen eindeutig bestimmt
z.z.: Die Annahmen treffen auf ϕ zu
Linearitat: Seien ~u, ~v ∈ V .
⇒ ϕ(r · ~u + ~v) = ϕ(r · (s1 · ~v1 + · · ·+ sn · ~vn) + t1 · ~v1 + · · ·+ tn · ~vn)
= ϕ((rs1 + t1) · ~v1 + · · ·+ (rsn + tn) · ~vn)
= (rs1 + t1) · ~w1 + · · ·+ (rsn + tn) · ~wn
= r(s1 · ~w1 + · · ·+ sn · ~wn) + t1 · ~w1 + · · ·+ tn · ~wn
= rϕ(~u) + ϕ(~v).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 562 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Basen und lineare Abbildungen
Beweis: Sei ~v ∈ V , ϕ : V →W linear mit ϕ(~vi ) = ~wi fur i = 1, · · · , n.
⇒ ϕ(~v) = ϕ(s1 · ~v1 + · · ·+ sn · ~vn)
= s1 · ~w1 + · · ·+ sn · ~wn
⇒ ϕ ist unter den Annahmen eindeutig bestimmt
z.z.: Die Annahmen treffen auf ϕ zu
Linearitat
ϕ(~vi ) = ~wi fur i = 1, · · · , n : Sei i ∈ {1, · · · , n}
⇒ ϕ(~vi ) = ϕ(1 · ~vi ) = 1~wi
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 563 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Basen und lineare Abbildungen
Beispiel (im R2): Wir betrachten den R-Vektorraum R2 mit der Basis{~e1, ~e2}.
Eine lineare Abbildung ϕ : R2 → R2 ist dann eindeutig durch die Bilder~w1 := ϕ(~e1) und ~w2 := ϕ(~e2) gegeben (z.B. ~w1 =
(11
)und ~w2 =
(02
)).
Fur einen beliebigen Vektor ~v =(s1s2
)∈ R2 gilt dann
ϕ(~v) = s1 · ~w1 + s2 · ~w2.
Fur ~w1 =(1
1
)und ~w2 =
(02
)ist dann ϕ(~v) =
( s1s1+2s2
). ♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 564 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Darstellende Matrix einer linearen Abbildung
Korollar 6.1.7
Jede lineare Abbildung ϕ : Kn → Km ist von der Form ϕ = ϕA fur eineMatrix A ∈ Km×n, wobei
ϕA : Kn → Km,
~x 7→ A · ~x .
Die Matrix A heißt auch darstellende Matrix von ϕ.
Beweis: Sei ϕ : Kn → Km eine lineare Abbildung
z.z.: Es gibt ein A ∈ Km×n mit ϕ(~x) = A · ~x ∀~x ∈ Kn
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 565 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Darstellende Matrix einer linearen Abbildung
Beweis: Sei ϕ : Kn → Km eine lineare Abbildung.
z.z.: Es gibt ein A ∈ Km×n mit ϕ(~x) = A · ~x ∀~x ∈ Kn
Sei {~e1, . . . , ~en} die Standardbasis des Kn und
ϕ(~ei ) =
a1i...
ami
∈ Km, 1 ≤ i ≤ n.
Definiere
A =
a11 . . . a1n...
...am1 . . . amn
∈ Km×n.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 566 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Darstellende Matrix einer linearen Abbildung
Beweis: Sei ϕ : Kn → Km eine lineare Abbildung.
z.z.: Es gibt ein A ∈ Km×n mit ϕ(~x) = A · ~x ∀~x ∈ Kn
Sei {~e1, . . . , ~en} die Standardbasis des Kn und
ϕ(~ei ) =
a1i...
ami
, A =
a11 . . . a1n...
...am1 . . . amn
∈ Km×n.
⇒ ϕ(~ei ) =
a1i...
ami
= A · ~ei
⇒ ϕ(~x) = A · ~x ∀~x ∈ Kn
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 567 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Charakterisierung linearer Abbildungen – Idee
Damit kennen wir alle linearen Abbildungen zwischen Kn und Km. Wirwollen diese Erkenntnis im nachsten Unterkapitel auch fur lineareAbbildungen zwischen beliebigen Vektorraumen V und W nutzen.
Idee: Wir “zerlegen” eine lineare Abbildung ϕ : V →W durchHintereinanderschaltung linearer Abbildungen
ϕ : Vϕ1−→ Kn ϕ2−→ Km ϕ3−→W (n,m geeignet).
ϕ2 muss dann ein Homomorphismus ϕA sein, ϕ1 und ϕ3 “klassifizieren” Vbzw. W .
Zu diesem Zweck sind die Eigenschaften der Injektivitat und Surjektivitatnutzlich.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 568 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Isomorphismen & Co.
Lineare Abbildungen konnen injektiv, surjektiv und auch bijektiv sein:
Definition 6.1.8 (Monomorphismus, Epimorphismus, Isomorphismus)
(i) Ein injektiver Vektorraumhomomorphismus heißt (Vektorraum-)Monomorphismus.
(ii) Ein surjektiver Vektorraumhomomorphismus heißt (Vektorraum-)Epimorphismus.
(iii) Ein bijektiver Vektorraumhomomorphismus heißt (Vektorraum-)Isomorphismus.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 569 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Isomorphe Vektorraume
Definition 6.1.9 (Isomorphie)
Zwei K -Vektorraume V und W heißen isomorph (in Zeichen V ∼= W ),falls es einen Vektorraumisomorphismus ϕ : V →W gibt.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 570 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Eigenschaften von Isomorphismen
Satz 6.1.10 (Eigenschaften von Isomorphismen)
Es seien U,V und W drei K -Vektorraume.
(i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildungϕ−1 : V → U ein Isomorphismus.
(ii) Sind ϕ : U → V und ψ : V →W Isomorphismen, so ist auch dieHintereinanderausfuhrung ψ ◦ ϕ : U →W ein Isomorphismus.
(iii) Die Isomorphie “ ∼= “ ist eine Aquivalenzrelation auf der Menge derK -Vektorraume.
Beweis: (i) Sei ϕ : U → V ein Isomorphismus (linear und bijektiv).⇒ ϕ−1 : V → U ist definiert und bijektiv.
z.z.: ϕ−1 ist linear
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 571 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Eigenschaften von Isomorphismen
Beweis: (i) Sei ϕ : U → V ein Isomorphismus (linear und bijektiv).⇒ ϕ−1 : V → U ist definiert und bijektiv.
z.z.: ϕ−1 ist linear
ϕ−1(s · ~v1 + ~v2) = ϕ−1(s · ϕ(~u1) + ϕ(~u2))
= ϕ−1(ϕ(s · ~u1) + ϕ(~u2))
= ϕ−1(ϕ(s · ~u1 + ~u2))
= s · ~u1 + ~u2
= s · ϕ−1(~v1) + ϕ−1(~v2)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 572 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Eigenschaften von Isomorphismen
Satz 6.1.10 (Eigenschaften von Isomorphismen)
Es seien U,V und W drei K -Vektorraume.
(i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildungϕ−1 : V → U ein Isomorphismus.
(ii) Sind ϕ : U → V und ψ : V →W Isomorphismen, so ist auch dieHintereinanderausfuhrung ψ ◦ ϕ : U →W ein Isomorphismus.
(iii) Die Isomorphie “ ∼= “ ist eine Aquivalenzrelation auf der Menge derK -Vektorraume.
Beweis: (ii) Folgt aus der Bijektivitat von Hintereinanderausfuhrungenbijektiver Abbildungen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 573 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Eigenschaften von Isomorphismen
Satz 6.1.10 (Eigenschaften von Isomorphismen)
Es seien U,V und W drei K -Vektorraume.
(i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildungϕ−1 : V → U ein Isomorphismus.
(ii) Sind ϕ : U → V und ψ : V →W Isomorphismen, so ist auch dieHintereinanderausfuhrung ψ ◦ ϕ : U →W ein Isomorphismus.
(iii) Die Isomorphie “ ∼= “ ist eine Aquivalenzrelation auf der Menge derK -Vektorraume.
Beweis: (iii) V ∼= W ⇔ ∃ Isomorphismus ϕ : V →W
Reflexivitat: idV : V → V , ~v 7→ ~v ist ein Isomorphismus⇒ V ∼= V
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 574 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Eigenschaften von Isomorphismen
Satz 6.1.10 (Eigenschaften von Isomorphismen)
Es seien U,V und W drei K -Vektorraume.
(i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildungϕ−1 : V → U ein Isomorphismus.
(ii) Sind ϕ : U → V und ψ : V →W Isomorphismen, so ist auch dieHintereinanderausfuhrung ψ ◦ ϕ : U →W ein Isomorphismus.
(iii) Die Isomorphie “ ∼= “ ist eine Aquivalenzrelation auf der Menge derK -Vektorraume.
Beweis: (iii) V ∼= W ⇔ ∃ Isomorphismus ϕ : V →W
Reflexivitat
Symmetrie: (i)⇒ aus V ∼= W folgt W ∼= V
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 575 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Eigenschaften von Isomorphismen
Satz 6.1.10 (Eigenschaften von Isomorphismen)
Es seien U,V und W drei K -Vektorraume.
(i) Ist ϕ : U → V ein Isomorphismus, so ist auch die Umkehrabbildungϕ−1 : V → U ein Isomorphismus.
(ii) Sind ϕ : U → V und ψ : V →W Isomorphismen, so ist auch dieHintereinanderausfuhrung ψ ◦ ϕ : U →W ein Isomorphismus.
(iii) Die Isomorphie “ ∼= “ ist eine Aquivalenzrelation auf der Menge derK -Vektorraume.
Beweis: (iii) V ∼= W ⇔ ∃ Isomorphismus ϕ : V →W
Reflexivitat
Symmetrie
Transitivitat: (ii)⇒ aus U ∼= V und V ∼= W folgt U ∼= W
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 576 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Die Abbildung cB
Sei V ein K -Vektorraum der Dimension n, sei B = {~v1, . . . , ~vn} ⊂ V eineBasis von V . Wir wollen im Folgenden immer voraussetzen, dass durch dieNummerierung i = 1, . . . , n eine Reihenfolge der Basiselemente ~v1, . . . , ~vnvon B festgelegt ist.
Aus der Definition von Basen folgt, dass es zu jedem Vektor ~v ∈ Veindeutige Koeffizienten s1, . . . , sn ∈ K gibt mit
~v = s1 · ~v1 + · · ·+ sn · ~vn.
Wegen der Festlegung der Reihenfolge konnen wir dem Vektor ~v ∈ V dieseKoeffizienten eindeutig zuordnen und erhalten eine Abbildung
cB : V → Kn, ~v = s1 · ~v1 + · · ·+ sn · ~vn 7→
s1...sn
. (6.4)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 577 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Die Abbildung cB (Forts.)
Satz 6.1.11
Die in (6.4) definierte Abbildung cB : V → Kn ist ein Isomorphismus mitUmkehrabbildung
c−1B : Kn → V ,
s1...sn
7→ ~v = s1 · ~v1 + · · ·+ sn · ~vn.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 578 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Die Abbildung cB (Forts.)
Satz 6.1.11
Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mitUmkehrabbildung
c−1B : K n → V ,
s1
...sn
7→ ~v = s1 · ~v1 + · · ·+ sn · ~vn.
Beweis: Seien ~v , ~w ∈ V , s ∈ K , und
~v = s1 · ~v1 + · · ·+ sn · ~vn~w = t1 · ~v1 + · · ·+ tn · ~wn.
cB ist linear:
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 579 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Die Abbildung cB (Forts.)
Beweis: Seien ~v , ~w ∈ V , s ∈ K , und
~v = s1 · ~v1 + · · ·+ sn · ~vn~w = t1 · ~v1 + · · ·+ tn · ~wn.
cB ist linear:
s · ~v + ~w = (ss1 + t1) · ~v1 + · · ·+ (ssn + tn) · ~vn
⇒ cB(s · ~v + ~w) =
ss1 + t1...
ssn + tn
= s
s1...sn
+
t1...tn
= s · cB(~v) + cB(~w)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 580 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Die Abbildung cB (Forts.)
Satz 6.1.11
Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mitUmkehrabbildung
c−1B : K n → V ,
s1
...sn
7→ ~v = s1 · ~v1 + · · ·+ sn · ~vn.
Beweis: Seien ~v , ~w ∈ V , s ∈ K , und
~v = s1 · ~v1 + · · ·+ sn · ~vn~w = t1 · ~v1 + · · ·+ tn · ~wn.
cB ist linear
cB ist injektiv:
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 581 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Die Abbildung cB (Forts.)
Beweis: Seien ~v , ~w ∈ V , s ∈ K , und
~v = s1 · ~v1 + · · ·+ sn · ~vn~w = t1 · ~v1 + · · ·+ tn · ~wn.
cB ist linear
cB ist injektiv: Sei cB(~v) = cB(~w), d.h.s1...sn
=
t1...tn
⇒ s1 = t1, . . . , sn = tn ⇒ ~v = ~w
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 582 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Die Abbildung cB (Forts.)
Satz 6.1.11
Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mitUmkehrabbildung
c−1B : K n → V ,
s1
...sn
7→ ~v = s1 · ~v1 + · · ·+ sn · ~vn.
Beweis: Seien ~v , ~w ∈ V , s ∈ K , und
~v = s1 · ~v1 + · · ·+ sn · ~vn~w = t1 · ~v1 + · · ·+ tn · ~wn.
cB ist linear
cB ist injektiv
cB ist surjektiv:
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 583 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Die Abbildung cB (Forts.)
Beweis: Seien ~v , ~w ∈ V , s ∈ K , und
~v = s1 · ~v1 + · · ·+ sn · ~vn~w = t1 · ~v1 + · · ·+ tn · ~wn.
cB ist linear
cB ist injektiv
cB ist surjektiv: Sei
s1...sn
∈ Kn
⇒ ∃~v = s1 · ~v1 + · · ·+ sn · ~vn ∈ V , cB(~v) =
s1...sn
∈ Kn
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 584 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Die Abbildung cB (Forts.)
Satz 6.1.11
Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mitUmkehrabbildung
c−1B : K n → V ,
s1
...sn
7→ ~v = s1 · ~v1 + · · ·+ sn · ~vn.
Beweis: Seien ~v , ~w ∈ V , s ∈ K , und
~v = s1 · ~v1 + · · ·+ sn · ~vn~w = t1 · ~v1 + · · ·+ tn · ~wn.
cB ist linear
cB ist injektiv
cB ist surjektiv
Die Umkehrabbildung ist wie angegeben XProf. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 585 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
Die Abbildung cB (Forts.)
Satz 6.1.11
Die in (6.4) definierte Abbildung cB : V → K n ist ein Isomorphismus mitUmkehrabbildung
c−1B : K n → V ,
s1
...sn
7→ ~v = s1 · ~v1 + · · ·+ sn · ~vn.
Korollar 6.1.12
Jeder n-dimensionale Vektorraum ist isomorph zu Kn.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 586 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
K n als Prototyp eines n-dimensionalen Vektorraumes
Daraus ergibt sich sofort der folgende Satz:
Satz 6.1.13
Je zwei endlich dimensionale K -Vektorraume derselben Dimension n sindisomorph.
Die K -Vektorraume der Dimension n bilden also eineIsomorphie-Aquivalenzklasse mit dem bekanntesten Vertreter Kn.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 587 / 669
Lineare Abbildungen und Matrizen Lineare Abbildungen
K n als Prototyp eines n-dimensionalen Vektorraumes
Satz 6.1.13
Je zwei endlich dimensionale K -Vektorraume derselben Dimension n sindisomorph.
Beweis: Seien V1,V2 zwei K -Vektorr”aume mit dimV1 = dimV2 = n undB1,B2 Basen von V1 bzw V2 mit festgelegter Reihenfolge.
⇒ cB1 : V1 → Kn
c−1B2
: Kn → V2
sind Isomorphismen.⇒ cB1 ◦ c
−1B2
: V1 → V2
ist ein Isomorphismus. ⇒ V1∼= V2,
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 588 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Ubersicht Kapitel 11Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen und Isomorphismen
11.2 Matrizen linearer Abbildungen
11.3 Dimensionssatz und Homomorphiesatz
11.4 Hauptsatz uber lineare Gleichungssysteme
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 589 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Kapitel 11Lineare Abbildungen und Matrizen
11.2 Matrizen linearer Abbildungen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 590 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Charakterisierung linearer Abbildungen
Wir setzen unsere Uberlegungen zur Charakterisierung beliebiger linearerAbbildungen ϕ : V →W (V , W endlich dimensionale K -Vektorraume)fort.
Nach Satz 6.1.6 ist ϕ eindeutig bestimmt durch die Bilder auf einer Basisvon V . Ganz ahnlich wie im Beweis von Korollar 6.1.7 kann ϕ durch eineMatrix beschrieben werden.
Dies wollen wir uns im Folgenden genauer anschauen.
Sei dim V = n mit Basis B = (~v1, . . . , ~vn),dim W = m mit Basis B ′ = (~w1, . . . , ~wm),
wobei wir – wie ublich – sowohl fur B als auch fur B ′ die Reihenfolge derElemente festlegen (sonst muss man alle Permutationen der Reihenfolgebetrachten).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 591 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Festlegung linearer Abbildungen durch Basen
Dann ist nach Satz 6.1.6 ϕ durch die Angabe von
ϕ(~vj) ∈W fur j = 1, . . . , n
vollstandig bestimmt.
Der Vektor ϕ(~vj) ∈W lasst sich eindeutig in der Basis B ′ ausdrucken:
ϕ(~vj) =m∑i=1
aij · ~wi fur j = 1, . . . , n,
wobei aij ∈ K fur i = 1, . . . ,m und j = 1, . . . , n, d.h. (aij) ∈ Km×n.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 592 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Festlegung linearer Abbildungen durch Basen (Forts.)
Definition 6.2.1 (Matrix einer linearen Abbildung)
Seien V , W endlich dimensionale K -Vektorraume, dim V = n mit BasisB = (~v1, . . . , ~vn) und dim W = m mit Basis B ′ = (~w1, . . . , ~wm), seiϕ : V →W eine lineare Abbildung.
Die durch
ϕ(~vj) =m∑i=1
aij · ~wi fur i = 1, . . . ,m, j = 1, . . . , n, (6.5)
definierte Matrix (aij) ∈ Km×n heißt Matrix von ϕ bezuglich der Basen Bund B’, in Zeichen
B′ [ϕ]B = (aij) ∈ Km×n.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 593 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Matrix bzgl. B und B ′ – Beispiel 1
Es sei A ∈ Km×n und ϕA : Kn → Km die zugehorige lineare Abbildung mitϕA(~x) = A · ~x .
Es seien B = (~e1, . . . , ~en) die Standardbasis von Kn undB ′ = (~e ′1, . . . , ~e ′m) die Standardbasis von Km.
Dann ist
ϕA(~ej) = A · ~ej =
a1j...
amj
=m∑i=1
aij · ~e ′i fur j = 1, . . . , n.
Folglich ist also
B′ [ϕA]B = A.
♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 594 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Matrix bzgl. B und B ′ – Beispiel 2
Sei V = R3,W = R2 mit den Basen
B =
~v1 =
110
, ~v2 =
101
, ~v3 =
011
,
Basis von V
B ′ =
{~w1 =
(10
), ~w2 =
(01
),
}Basis von W .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 595 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Matrix bzgl. B und B ′ – Beispiel 2 (Forts.)
Sei ϕ : V →W definiert durch
ϕ(~v1) =
(11
)= 1 · ~w1 + 1 · ~w2
ϕ(~v2) =
(10
)= 1 · ~w1 + 0 · ~w2
ϕ(~v3) =
(01
)= 0 · ~w1 + 1 · ~w2
Dann ist
B′ [ϕ]B =
(1 1 01 0 1
).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 596 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Die Isomorphismen cB
Es gilt V ∼= Kn und W ∼= Km dank der Isomorphismen
cB : V → Kn, ~v = s1 · ~v1 + · · ·+ sn · ~vn 7→
s1...sn
cB′ : W → Km, ~w = t1 · ~w1 + · · ·+ tm · ~wm 7→
t1...tm
(s. (6.4)). Ist also ϕ : V →W eine lineare Abbildung von V nach W , soist
cB′ ◦ ϕ : V → Km
eine lineare Abbildung von V nach Km. Wir wollen im Folgenden cB′ ◦ ϕmit Hilfe der Matrix B′ [ϕA]B beschreiben.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 597 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Kombinationen mit cB
Satz 6.2.2
Es seien V und W zwei K -Vektorraume, B = {~v1, . . . , ~vn} eine Basis vonV und B ′ = {~w1, . . . , ~wm} eine Basis von W . Sei weiterhin ϕ : V →Weine lineare Abbildung, und sei A := B′ [ϕ]B .Dann gilt
cB′ ◦ ϕ = ϕA ◦ cB .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 598 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Kombinationen mit cB
Satz 6.2.2
Es seien V und W zwei K -Vektorraume, B = {~v1, . . . , ~vn} eine Basis von V undB ′ = {~w1, . . . , ~wm} eine Basis von W . Sei weiterhin ϕ : V →W eine lineare Abbildung,und sei A := B′ [ϕ]B .Dann gilt
cB′ ◦ ϕ = ϕA ◦ cB .
Beweis: Sei 1 ≤ i ≤ n.
z.z.:cB′ ◦ ϕ(~vi ) = ϕA ◦ cB(~vi )
Sei ϕ(~vi ) = a1i ~w1 + · · ·+ ami ~wm, dann gilt
cB′ ◦ ϕ(~vi ) = cB′(ϕ(~vi )) =
( a1i
...ami
)ϕA ◦ cB(~vi ) = ϕA(~ei ) = A · ~ei
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 599 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Kombinationen mit cB
Satz 6.2.2
Es seien V und W zwei K -Vektorraume, B = {~v1, . . . , ~vn} eine Basis von V undB ′ = {~w1, . . . , ~wm} eine Basis von W . Sei weiterhin ϕ : V →W eine lineare Abbildung,und sei A := B′ [ϕ]B .Dann gilt
cB′ ◦ ϕ = ϕA ◦ cB .
Beweis: Sei 1 ≤ i ≤ n.
z.z.:cB′ ◦ ϕ(~vi ) = ϕA ◦ cB(~vi )
Sei ϕ(~vi ) = a1i ~w1 + · · ·+ ami ~wm, dann gilt
A =
a11 . . . a1i . . . a1n...
......
am1 . . . ami . . . amn
⇒ A · ~ei =
a1i...
ami
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 600 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Kombinationen mit cB
Satz 6.2.2
Es seien V und W zwei K -Vektorraume, B = {~v1, . . . , ~vn} eine Basis von V undB ′ = {~w1, . . . , ~wm} eine Basis von W . Sei weiterhin ϕ : V →W eine lineare Abbildung,und sei A := B′ [ϕ]B .Dann gilt
cB′ ◦ ϕ = ϕA ◦ cB .
Beweis: Sei 1 ≤ i ≤ n.
z.z.:cB′ ◦ ϕ(~vi ) = ϕA ◦ cB(~vi )
Sei ϕ(~vi ) = a1i ~w1 + · · ·+ ami ~wm, dann gilt
cB′ ◦ ϕ(~vi ) = cB′(ϕ(~vi )) =
( a1i
...ami
)ϕA ◦ cB(~vi ) = ϕA(~ei ) = A · ~ei =
( a1i
...ami
)Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 601 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Ein kommutatives Abbildungsdiagramm
Das folgende Abbildungsdiagramm ist also kommutativ:
ϕA
cB′
ϕ
cB
Kn Km
WV
cB′ ◦ ϕ = ϕA ◦ cB
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 602 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Motivation der Matrixmultiplikation
Das folgende Korollar zeigt, dass die Matrixmultiplikation durch dieKompatibilitat mit der Hintereinanderschaltung linearer Abbildungenmotiviert ist:
Korollar 6.2.3
Es seien U, V und W drei endlich-dimensionale K -Vektorraume undϕ : U → V und ψ : V →W lineare Abbildungen. Ist B Basis von U, B ′
Basis von V und B ′′ Basis von W , so gilt
B′′ [ψ ◦ ϕ]B = B′′ [ψ]B′ · B′ [ϕ]B .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 603 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Motivation der Matrixmultiplikation
Korollar 6.2.3
Es seien U, V und W drei endlich-dimensionale K -Vektorraume und ϕ : U → V undψ : V →W lineare Abbildungen. Ist B Basis von U, B ′ Basis von V und B ′′ Basis vonW , so gilt
B′′ [ψ ◦ ϕ]B = B′′ [ψ]B′ · B′ [ϕ]B .
Beweis: Sei B = {~u1, . . . , ~un}, 1 ≤ i ≤ n.
z.z.: B′′ [ψ ◦ ϕ]B︸ ︷︷ ︸D
·~ei = B′′ [ψ]B′︸ ︷︷ ︸C
· B′ [ϕ]B︸ ︷︷ ︸A
·~ei
B′′ [ψ ◦ ϕ]B · ~ei = ϕD ◦ cB(~ui )
= cB′′ ◦ (ψ ◦ ϕ)(~ui )
= (cB′′ ◦ ψ) ◦ ϕ(~ui )
= (ϕC ◦ cB′) ◦ ϕ(~ui )
= ϕC ◦ (cB′ ◦ ϕ)(~ui )
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 604 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Motivation der Matrixmultiplikation
Korollar 6.2.3
Es seien U, V und W drei endlich-dimensionale K -Vektorraume und ϕ : U → V undψ : V →W lineare Abbildungen. Ist B Basis von U, B ′ Basis von V und B ′′ Basis vonW , so gilt
B′′ [ψ ◦ ϕ]B = B′′ [ψ]B′ · B′ [ϕ]B .
Beweis: Sei B = {~u1, . . . , ~un}, 1 ≤ i ≤ n.
z.z.: B′′ [ψ ◦ ϕ]B︸ ︷︷ ︸D
·~ei = B′′ [ψ]B′︸ ︷︷ ︸C
· B′ [ϕ]B︸ ︷︷ ︸A
·~ei
B′′ [ψ ◦ ϕ]B · ~ei = ϕC ◦ (cB′ ◦ ϕ)(~ui )
= ϕC ◦ (ϕA ◦ cB)(~ui )
= ϕC (ϕA(cB(~ui )))
= ϕC (ϕA(~ei ))
= ϕC (B′ [ϕ]B · ~ei ) =B′′ [ψ]B′ ·B′ [ϕ]B · ~eiProf. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 605 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Assoziativitat der Matrixmultiplikation
Man kann die Assoziativitat der Matrixmultiplikation durch Ausrechnenzeigen, eleganter folgt das mit diesem Korollar:
Korollar 6.2.4
Die Matrixmultiplikation ist assoziativ, d.h. fur A ∈ Km×n,B ∈ Kn×p undC ∈ Kp×q gilt
(A · B) · C = A · (B · C ).
Dies folgt leicht durch Betrachtung der zugehorigen linearen AbbildungenϕA, ϕB , ϕC aus Satz 6.2.3, da die Hintereinanderschaltung vonAbbildungen assoziativ ist.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 606 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Basiswechsel
Im Folgenden wollen wir uns nicht auf die lineare Abbildung selbstkonzentrieren, sondern die Darstellung von Vektoren bezgl.unterschiedlicher Basen (desselben Vektorraums) untersuchen.
Sei also V ein K -Vektorraum mit dim V = n und idV : V → V dieidentische Abbildung.
Definition 6.2.5 (Basiswechselmatrix)
Sei V ein K -Vektorraum mit Basen B = (~v1, . . . , ~vn) undB ′ = (~w1, . . . , ~wn). Dann heißt die Matrix Q = (qij) := B′ [idV ]BBasiswechselmatrix.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 607 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Basiswechsel (Forts.)
Jeder Vektor ~v ∈ V lasst sich sowohl bzgl. B als auch bzgl. B ′ eindeutigdarstellen:
~v =n∑
i=1
si~vi und ~v =n∑
i=1
s ′i ~wi ,
das heißt
cB(~v) =
s1...sn
und cB′(~v) =
s ′1...s ′n
.
Mit Hilfe der Basiswechselmatrix Q = (qij) lasst sich die eine Darstellungleicht aus der anderen gewinnen:
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 608 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Basiswechsel (Forts.)
Lemma 6.2.6
Die Voraussetzungen und Notationen seien wie in Definition 6.2.5. Furjeden Vektor ~v ∈ V gilt dann
cB′(~v) = Q · cB(~v),
und insbesondere erhalt man fur jeden Basisvektor ~vj die folgendeDarstellung:
~vj =n∑
i=1
qij ~wi .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 609 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Iterierter Basiswechsel
Wir konnen nun die Abbildung idV auch bezgl. iterierter Basiswechselbetrachten:
B → B ′ → BB ′ → B → B ′
Mit Satz 6.2.3 gilt dann (wegen idV ◦ idV = idV )
B′ [idV ]B · B [idV ]B′ = B′ [idV ]B′ = En
und
B [idV ]B′ · B′ [idV ]B = B [idV ]B = En,
wobei En ∈ Kn×n die n× n Einheitsmatrix ist. Folglich ist B [idV ]B′ = Q−1
die zu Q := B′ [idV ]B inverse Matrix.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 610 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Invertierbarkeit der Basiswechselmatrix
Satz 6.2.7
Sei V ein K -Vektorraum der Dimension n, seien B,B ′ Basen von V . Dannist die Basiswechselmatrix Q =B′ [idV ]B invertierbar, die inverse Matrix istQ−1 =B [idV ]B′ .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 611 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Basiswechsel bei linearen Abbildungen
Wir untersuchen nun, wie sich Basiswechsel auf die Matrizen linearerAbbildungen auswirken:
Satz 6.2.8
Es seien V und W zwei endlich-dimensionale K -Vektorraume undϕ : V →W eine lineare Abbildung. Weiter seien B und B ′ Basen von Vund C und C ′ Basen von W . Dann ist
C ′ [ϕ]B′ = C ′ [idW ]C · C [ϕ]B · B [idV ]B′ .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 612 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Basiswechsel – Beispiel
Wir betrachten den Vektorraum V = R2 mit den Basen
B = {~e1, ~e2} =
{(10
),
(01
)}und B ′ = {~w1, ~w2} =
{(12
),
(1−1
)}Es sei ϕ : V → V die durch
ϕ(~e1) =
(−1
343
)und ϕ(~e2) =
(2313
)
definierte lineare Abbildung. Dann ist fur beliebige Vektoren
ϕ
(x1
x2
)= x1ϕ(~e1) + x2ϕ(~e2) =
(−1
3x1 + 23x2
43x1 + 1
3x2
).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 613 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Basiswechsel – Beispiel (Forts.)
Wegen
ϕ(~e1) =
(−1
343
)= −1
3~e1 +
4
3~e2
und
ϕ(~e2) =
(2313
)=
2
3~e1 +
1
3~e2
ist
B [ϕ]B =
(−1
323
43
13
)Mit Satz 6.2.8 ist dann
B′ [ϕ]B′ = B′ [idV ]B · B [ϕ]B · B [idV ]B′
mit B′ [idV ]B = (B [idV ]B′)−1.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 614 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Basiswechsel – Beispiel (Forts.)
Man sieht sofort, dass
B [idV ]B′ =
(1 1
2 −1
)
ist, daraus erhalt man durch Invertieren
B′ [idV ]B =
(13
13
23 −1
3
).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 615 / 669
Lineare Abbildungen und Matrizen Matrix einer linearen Abbildung
Basiswechsel – Beispiel (Forts.)
Insgesamt ist also
B′ [ϕ]B′ =
(13
13
23 −1
3
)·
(−1
323
43
13
)·
(1 1
2 −1
)
=
(13
13
−23
13
)·
(1 1
2 −1
)
=
(1 0
0 −1
).
♣
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 616 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Ubersicht Kapitel 11Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen und Isomorphismen
11.2 Matrizen linearer Abbildungen
11.3 Dimensionssatz und Homomorphiesatz
11.4 Hauptsatz uber lineare Gleichungssysteme
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 617 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Kapitel 11Lineare Abbildungen und Matrizen
11.3 Dimensionssatz undHomomorphiesatz
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 618 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Kern und Bild
Auch bei Vektorraumhomomorphismen sind Kern und Bild besondersinteressant:
Definition 6.3.1 (Kern und Bild einer linearen Abbildung)
Es seien V und W zwei K -Vektorraume und ϕ : V →W eine lineareAbbildung. Dann ist
Kern(ϕ) := { ~v ∈ V | ϕ(~v) = ~0 } ⊆ V
Bild(ϕ) := {ϕ(~v) | ~v ∈ V } = ϕ(V ) ⊆W
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 619 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Kern und Bild – Beispiel
Wir betrachten den R-Vektorraum V = W = R2 und die lineareAbbildung ϕ : V →W mit
ϕ
(xy
):=
(x − yy − x
)=
(1 −1−1 1
)·(xy
).
Dann ist
Kern(ϕ) =
{(xy
)∈ R2
∣∣∣∣ x − y = 0 ∧ y − x = 0
}=
⟨(11
)⟩und
Bild(ϕ) =
{(ab
)∈ R2
∣∣∣∣b = −a}
=
⟨(1−1
)⟩
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 620 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Kern und Bild – Beispiel (Forts.)
Kern(ϕ)
Bild(ϕ)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 621 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Kern, Bild und Homomorphismen
Satz 6.3.2
Es seien V und W zwei K -Vektorraume und ϕ : V →W eine lineareAbbildung. Dann gilt:
(i) Kern(ϕ) ist Teilraum von V und
Kern(ϕ) = {~0} ⇔ ϕ injektiv (Monomorphismus).
(ii) Bild(ϕ) ist Teilraum von W und
Bild(ϕ) = W ⇔ ϕ surjektiv (Epimorphismus).
Ist V = 〈~v1, . . . , ~vn〉, so ist Bild(ϕ) = 〈ϕ(~v1), . . . , ϕ(~vn)〉
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 622 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Der Dimensionssatz
Satz 6.3.3 (Dimensionssatz fur Homomorphismen)
Es seien V und W zwei K -Vektorraume und ϕ : V →W eine lineareAbbildung. Ist V endlich-dimensional, so ist
dimV = dimKern(ϕ) + dimBild(ϕ)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 623 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Rang einer linearen Abbildung
Definition 6.3.4
Es seien V und W zwei K -Vektorraume und ϕ : V →W eine lineareAbbildung. Der Rang von ϕ ist die Dimension von Bild(ϕ), also
Rang(ϕ) := dimBild(ϕ).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 624 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Eigenschaften des Rangs
Satz 6.3.5
Es seien V und W zwei K -Vektorraume und ϕ : V →W eine lineareAbbildung. Ist V endlich dimensional, so gilt:
(i) ϕ surjektiv ⇔ Rang(ϕ) = dimW
(ii) ϕ injektiv ⇔ Rang(ϕ) = dimV
(iii) Ist dimV = dimW , so gilt: ϕ surjektiv ⇔ ϕ injektiv.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 625 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Kern, Bild und Gleichungssysteme
Es sei A eine m × n Matrix uber dem Korper K , also A ∈ Km×n, und
ϕA : Kn → Km,
~x 7→ A · ~x .
Dann ist Kern(ϕA) = { ~x ∈ Kn |A · ~x = ~0 } die Losungsmenge des duch dieMatrix A gegebenen homogenen linearen Gleichungssystems A · ~x = ~0.Nach dem Dimensionssatz 6.3.3 gilt
dim Kern(ϕA) = n − Rang(ϕA).
Fur ~b ∈ Km ist die Losungsmenge { ~x ∈ Kn |A · ~x = ~b } des(inhomogenen) linearen Gleichungssystems A · ~x = ~b das Urbild desVektors ~b unter der Abbildung ϕA, also
{ ~x ∈ Kn | A · ~x = ~b } = ϕ−1A (~b).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 626 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Rang und Isomorphismen
Kombiniert man eine lineare Abbildung mit Isomorphismen, so andert sichihr Rang nicht.
Satz 6.3.6
Seien U,V ,W ,Y K -Vektorraume, sei ϕ : V →W eine lineare Abbildung,seien ϕ1 : U → V und ϕ2 : W → Y Isomorphismen. Dann ist
Rang(ϕ) = Rang(ϕ ◦ ϕ1)
= Rang(ϕ2 ◦ ϕ)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 627 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Nebenklassen von Teilraumen
Bei Gruppen haben wir Restklassen und Faktorgruppen kennengelernt,solche Strukturen gibt es auch bei Vektorraumen:
Definition 6.3.7
Ist U ein Teilraum des K -Vektorraums V und ~v0 ∈ V , dann sei
~v0 + U := { ~v0 + ~u | ~u ∈ U }.
Man nennt ~v0 + U auch die Nebenklasse oder Restklasse von ~v0 nach U.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 628 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Nebenklassen – Beispiel
V = R2, U =
{s ·(
12
)∣∣∣∣s ∈ R}, ~v0 =
(20
)
⇒ ~v0 + U =
{(20
)+ s ·
(12
)∣∣∣∣s ∈ R}
x
y
1 2 3
1
2
3
U
~v0
~v0 + U
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 629 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Nebenklassen und lineare Abbildungen
Nebenklassen entstehen z.B. durch Bildung von Urbildern linearerAbbildungen:
Satz 6.3.8
Es seien V und W zwei K -Vektorraume, ϕ : V →W eine lineareAbbildungWeiter seien ~v0 ∈ V und ~w ∈W mit ϕ(~v0) = ~w . Dann ist
ϕ−1(~w) = ~v0 + Kern(ϕ).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 630 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Nebenklassen – Beispiel
A =
(2 −6−1 3
)∈ K 2×2, ϕA : R2 → R2, ~x 7→ A · ~x
⇒ Kern(ϕ) = 〈(
31
)〉, Bild(ϕ) = 〈
(2−1
)〉
x
y
−1−2 1 2 3
1
2
3
Kern(ϕ)Bild(ϕ)
ϕ−1(~w)
Sei ~w =(
4−2
).
Dann ist ( 20 ) ∈ ϕ−1(~w), und damit
gilt
ϕ−1(
4−2
)= {( 2
0 ) + s · ( 31 )|s ∈ R} .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 631 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Partitionierung durch Nebenklassen
Lemma 6.3.9
Die Menge der Nebenklassen eines Teilraums U des K -Vektorraums Vbildet eine Partitionierung der Menge V .
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 632 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Partitionierung durch Nebenklassen – Beispiel
V = R2 =⋃
~v0∈R2
(~v0 + U), U = Kern(ϕ)
=
{~v0 + s ·
(31
)∣∣∣∣~v0 ∈ R2, s ∈ R}
x
y
−1−2 1 2
1
2
U
V lasst sich in Nebenklassen nach U zer-legen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 633 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Partitionierung durch Nebenklassen – Beispiel
V = R2 =⋃
~v0∈R2
(~v0 + U), U = Kern(ϕ)
=
{~v0 + s ·
(31
)∣∣∣∣~v0 ∈ R2, s ∈ R}
x
y
−1−2 1 2
1
2
U
V lasst sich in Nebenklassen nach U zer-legen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 634 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Partitionierung durch Nebenklassen – Beispiel
V = R2 =⋃
~v0∈R2
(~v0 + U), U = Kern(ϕ)
=
{~v0 + s ·
(31
)∣∣∣∣~v0 ∈ R2, s ∈ R}
x
y
−1−2 1 2
1
2
U~w
~w + U
Die Nebenklasse zu einem Punkt in V isteindeutig bestimmt. Sei ~w ∈ V
⇒ Es gibt genau eine Nebenklasse die~w enthalt.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 635 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Faktorraum
Satz 6.3.10 (Restklassenraum, Faktorraum, Quotientenraum)
Es seien V ein K -Vektorraum und U ein Teilraum von V . Weiter sei
V /U := { ~v + U | ~v ∈ V }
die Menge der Nebenklassen nach U. Fur ~v , ~w ∈ V und s ∈ K definiertman
(~v + U) + (~w + U) := (~v + ~w) + U
unds · (~v + U) := (s · ~v) + U,
damit wird V /U ein K -Vektorraum. V /U wird Restklassenraum,Quotientenraum oder Faktorraum von V nach U genannt.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 636 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Die Abbildung π : V → V /U
Lemma 6.3.11
Es seien V ein K -Vektorraum, U ein Teilraum von V und V /U derFaktorraum von V nach U.Die Abbildung π : V → V /U mit π(~v) := ~v + U ist ein Epimorphismusmit Kern(π) = U.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 637 / 669
Lineare Abbildungen und Matrizen Dimensionssatz und Homomorphiesatz
Der Homomorphiesatz
Satz 6.3.12 (Homomorphiesatz fur Vektorraume)
Es seien V und W zwei K -Vektorraume und ϕ : V →W eine lineareAbbildung. Dann ist die Abbildung Φ : V /Kern(ϕ)→ Bild(ϕ) mit
Φ(~v + Kern(ϕ)) := ϕ(~v)
ein Isomorphismus.
Daraus folgt sofort:
Korollar 6.3.13
Es seien V und W zwei K -Vektorraume und ϕ : V →W eine lineareAbbildung. Dann ist
V /Kern(ϕ) ∼= Bild(ϕ).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 638 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Ubersicht Kapitel 11Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen und Isomorphismen
11.2 Matrizen linearer Abbildunge
11.3 Dimensionssatz und Homomorphiesatz
11.4 Hauptsatz uber lineare Gleichungssysteme
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 639 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Kapitel 11Lineare Abbildungen und Matrizen
11.4 Hauptsatz uber lineareGleichungssysteme
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 640 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Rang einer Matrix
Um den Rang einer Matrix zu definieren, nutzen wir die Verbindungzwischen Matrizen und linearen Abbildungen.
Definition 6.4.1 (Rang einer Matrix)
Zu einer n ×m Matrix A uber dem Korper K , also A ∈ Kn×m, betrachtenwir die zugehorige lineare Abbildung
ϕA : Km → Kn,
~x 7→ A · ~x .
Dann ist der Rang der Matrix A definiert als
Rang(A) := Rang(ϕA) = dim Bild(ϕA).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 641 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Range von linearen Abbildungen und Matrizen
Die Rangbegriffe von Matrizen und linearen Abbildungen sind vollmiteinander kompatibel.
Satz 6.4.2
Es seien V und W zwei K -Vektorraume, B = {~v1, . . . , ~vn} eine Basis vonV und B ′ = {~w1, . . . , ~wm} eine Basis von W . Fur eine lineare Abbildungϕ : V →W gilt dann
Rang(ϕ) = Rang(B′ [ϕ]B).
Insbesondere ist der Rang der Matrizen B′ [ϕ]B unabhangig von der Wahlder speziellen B,B ′.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 642 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Spaltenraum einer Matrix
Im Folgenden sei A eine n ×m Matrix uber dem Korper K , also
A =
a11 · · · a1m...
...an1 · · · anm
∈ Kn×m.
Definition 6.4.3 (Spaltenraum)
Der Spaltenraum SR(A) ist der Teilvektorraum von Kn, der durch dieSpalten von A erzeugt wird, also
SR(A) :=
⟨a11...
an1
,
a12...
an2
, . . . ,
a1m...
anm
⟩ .Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 643 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Zeilenraum einer Matrix
Definition 6.4.4 (Zeilenraum)
Der Zeilenraum ZR(A) ist der Teilvektorraum von K 1×m, der durch dieZeilen von A erzeugt wird, also
ZR(A) := 〈(a11, . . . , a1m), (a21, . . . , a2m), . . . , (an1, . . . , anm)〉
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 644 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Rang(A) als Invariante
Elementare Spaltenumformungen lassen sich analog zu elementarenZeilenumformungen definieren (vgl. Kapitel 11.2).
Satz 6.4.5 (Charakterisierung des Rangs einer Matrix)
Es sei A eine n ×m Matrix uber dem Korper K . Dann gilt:
(i) Rang(A) = dim SR(A), d.h., der Rang von A ist die Dimension ihresSpaltenraumes.
(ii) Der Rang von A andert sich durch elementare Spaltenumformungennicht.
(iii) Der Rang von A andert sich durch elementare Zeilenumformungennicht.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 645 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Zeilenrang = Rang = Spaltenrang
Satz 6.4.6
Es sei A eine n ×m Matrix uber dem Korper K . Dann gilt:
(i) Man kann A durch elementare Zeilen- und Spaltenumformungen aufdie Form
1 0 · · · 0 0 · · · 0
0 1. . .
......
......
. . .. . . 0 0 · · · 0
0 · · · 0 1 0 · · · 00 · · · 0 0 0 · · · 0...
......
......
0 · · · 0 0 0 · · · 0
(6.6)
mit r Einsen auf der Hauptdiagonalen bringen. Insbesondere erhaltman dadurch Rang(A) = r .
(ii) Rang(A) = dim(SR(A)) = dim(ZR(A)).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 646 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix
rang
1 2 3 4 −1 4 3 52 4 7 8 13 14 5 03 6 9 12 2 10 4 −5
=rang
1 2 3 4 −1 4 3 50 0 1 0 15 6 − 1 − 100 0 0 0 5 − 2 − 5 − 20
(−2) (−3)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 647 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix
rang
1 2 3 4 −1 4 3 50 0 1 0 15 6 −1 −100 0 0 0 5 −2 −5 −20
=rang
1 0 0 0 0 0 0 00 0 1 0 15 6 − 1 − 100 0 0 0 5 − 2 − 5 − 20
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 648 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix
rang
1 0 0 0 0 0 0 00 0 1 0 15 6 −1 −100 0 0 0 5 −2 −5 −20
=rang
1 0 0 0 0 0 0 00 0 1 0 0 0 0 00 0 0 0 5 − 2 − 5 − 20
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 649 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix
rang
1 0 0 0 0 0 0 00 0 1 0 0 0 0 00 0 0 0 5 −2 −5 −20
=rang
1 0 0 0 0 0 0 00 0 1 0 0 0 0 00 0 0 0 1 − 2
5 − 1 − 4
| · 1
5
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 650 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix
rang
1 0 0 0 0 0 0 00 0 1 0 0 0 0 00 0 0 0 1 −2
5 −1 −4
=rang
1 0 0 0 0 0 0 00 0 1 0 0 0 0 00 0 0 0 1 0 0 0
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 651 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix
rang
1 0 0 0 0 0 0 00 0 1 0 0 0 0 00 0 0 0 1 0 0 0
=rang
1 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 0 0 1 0 0 0
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 652 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Berechnung des Rangs einer Matrix
rang
1 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 0 0 1 0 0 0
=rang
1 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 1 0 0 0 0 0
=3
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 653 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Hauptsatz uber lineare Gleichungssysteme I
Damit konnen wir nun direkt Aussagen uber Losbarkeit und Losungsmengelinearer Gleichungssysteme machen.
Satz 6.4.7 (Hauptsatz uber homogene lineare Gleichungssysteme)
Es sei A ∈ Kn×m.
(i) Die Losungsmenge L := {~x ∈ Km |A · ~x = ~0} des homogenen linearenGleichungssystems A · ~x = ~0 ist ein Teilraum von Km mit
dim L = m − Rang(A).
(ii) Insbesondere ist A · ~x = ~0 genau dann eindeutig losbar, wennRang(A) = m ist.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 654 / 669
Lineare Abbildungen und Matrizen Hauptsatz /”uber lineare Gleichungssysteme
Hauptsatz uber lineare Gleichungssysteme II
Satz 6.4.8 (Hauptsatz uber inhomogene lin. Gleichungssysteme)
Es sei A ∈ K n×m, sei ~b ∈ Km.
(i) Das inhomogene lineare Gleichungssystem A · ~x = ~b ist genau dann losbar,
wenn Rang(A) = Rang([A, ~b]), wobei [A, ~b] die erweiterte Matrix des
linearen Gleichungssystems A · ~x = ~b ist.
(ii) Ist ~v0 ∈ Km mit A · ~v0 = ~b eine Losung des Gleichungssystems, so kann dieLosungsmenge
L~b := {~x ∈ Km |A · ~x = ~b}
geschrieben werden als (L wie in Satz 6.4.7)
L~b = ~v0 + L = {~v0 + ~w ∈ Km | ~w ∈ L}.
Insbesondere ist das inhomogene lin. Gleichungssystem A · ~x = ~b genau danneindeutig losbar, wenn Rang(A) = m und L~b 6= 0 ist.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 655 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
Ubersicht Kapitel 11Lineare Abbildungen und Matrizen
11.1 Lineare Abbildungen und Isomorphismen
11.2 Matrizen linearer Abbildungen
11.3 Dimensionssatz und Homomorphiesatz
11.4 Hauptsatz uber lineare Gleichungssysteme
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 656 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
Kapitel 11Lineare Abbildungen und Matrizen
11.5 Algebra der linearen Abbildungen
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 657 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
Der Raum Hom(V ,W ) der Homomorphismen
Definition 6.5.1 (Hom(V ,W ), Endomorphismen)
Es seien V und W zwei K -Vektorraume. Dann bezeichnen wir die Mengeder linearen Abbildungen von V nach W mit
Hom(V ,W ) := {ϕ : V →W | ϕ linear}.
Im Spezialfall V = W bezeichnen wir eine lineare Abbildung von V nachV auch als Endomorphismus und setzen
End(V ) := {ϕ : V → V | ϕ linear}.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 658 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
Der Raum Hom(V ,W ) der Homomorphismen (Forts.)
Satz 6.5.2
Es seien V und W zwei K -Vektorraume.
(i) Die Menge Hom(V ,W ) bildet einen Teilraum des K -VektorraumsAbb(V ,W ) aller Abbildungen von V nach W .
(ii) Ist dim(V ) = n und dim(W ) = m, so ist Hom(V ,W ) ∼= Km×n.Insbesondere ist dim(Hom(V ,W )) = m · n.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 659 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
Der Ring der Endomorphismen
Satz 6.5.3
Es sei V ein K -Vektorraum. Die Menge der Endomorphismen End(V )bildet mit der Addition
(ϕ+ ψ)(~v) := ϕ(~v) + ψ(~v) fur ϕ,ψ ∈ End(V ), ~v ∈ V
und der Multiplikation
(ϕ ◦ ψ)(~v) := ϕ(ψ(~v)) fur ϕ,ψ ∈ End(V ), ~v ∈ V
einen Ring mit Eins.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 660 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
Matrix ≡ Endomorphismus
Satz 6.5.4
Ist dim(V ) = n und B eine Basis von V , dann ist
µB : End(V ) → Kn×n
ϕ 7→ B [ϕ]B
ein Ring-Isomorphismus, d.h., µB ist bijektiv mit
µB(ϕ+ ψ) = µB(ϕ) + µB(ψ) und µB(ϕ ◦ ψ) = µB(ϕ) · µB(ψ)
fur ϕ,ψ ∈ End(V ).
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 661 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
K-Algebren
Definition 6.5.5 (K -Algebra)
Es sei K ein Korper. Ein Ring R mit Eins, der gleichzeitig einK -Vektorraum ist (mit derselben Addition wie im Ring), so dass außerdemnoch
s · (a · b) = (s · a) · b = a · (s · b) fur alle s ∈ K , a, b ∈ R (6.7)
gilt, heißt eine K -Algebra (mit Eins).
Endomorphismenringe und Matrizenringe sind also K -Algebren.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 662 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
Automorphismen
Satz 6.5.6 (Automorphismen, volle lineare Gruppe)
(i) Ist V ein K -Vektorraum, so ist
GL(V ) := {ϕ ∈ End(V ) | ϕ ist bijektiv}
zusammen mit der Verknupfung von Abbildungen “ ◦ “ eine Gruppe,genannt die volle lineare Gruppe. Die Elemente von GL(V ) heißenauch Automorphismen.
(ii) Fur n ∈ N ist
GL(n,K ) := {A ∈ Kn×n | A invertierbar},
mit der Matrixmultiplikation eine Gruppe, die Gruppe der regularenn × n Matrizen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 663 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
GL(V ) ∼= GL(n,K )
Lemma 6.5.7
Sind V ein K -Vektorraum mit dimV = n und B eine Basis von V , so ist
µB : GL(V ) → GL(n,K )
ϕ 7→ B [ϕ]B
ein Isomorphismus von Gruppen, das heißt µB ist bijektiv und
µB(ϕ ◦ ψ) = µB(ϕ) · µB(ψ) fur ϕ,ψ ∈ GL(V ). (6.8)
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 664 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
Charakterisierung von GL(V ) und GL(n,K )
Korollar 6.5.8
Es sei V ein K -Vektorraum mit dimV = n, ϕ ∈ End(V ) und A ∈ Kn×n.Dann gilt
ϕ ∈ GL(V ) ⇐⇒ Rang(ϕ) = n
undA ∈ GL(n,K ) ⇐⇒ Rang(A) = n.
Mit Satz 6.4.8 folgt dann:
Korollar 6.5.9
Es sei A ∈ Kn×n, sei ~b ∈ Kn. Das lineare Gleichungssystem A · ~x = ~b istgenau dann eindeutig losbar, wenn A invertierbar, also A ∈ GL(n,K ) ist.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 665 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
GL(V ) ist (i.Allg.) nicht kommutativ
Bemerkung:Ist V ein K -Vektorraum mit dimV > 1, so ist GL(V ) nicht kommutativ.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 666 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
Zeilenumformungen und Invertierbarkeit von Matrizen
Aus Kapitel 10.2 wissen wir:
Es sei A ∈ GL(n,K ). Bringt man die n × 2n Matrix (A,En) durchelementare Zeilenoperationen auf Stufenform, so erhalt man einen × 2n Matrix der Form (En,U), wobei U = A−1 ist.
Ist A nicht regular, so lasst sich die Matrix (A,En) durch elementareZeilenoperationen nicht in diese Form bringen.
Jede elementare Zeilenoperation entspricht der Multiplikation miteiner regularen Matrix von links (Satz 10.2.4). Diese Matrizen werdenauch Elementarmatrizen genannt.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 667 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
Elementarmatrizen
Definition 6.5.10 (Elementarmatrizen)
Es sei n ∈ N, i , j ∈ {1, . . . , n} mit i 6= j und s ∈ K\{0}.(i) Die Elementarmatrix Vi ,j ∈ GL(n,K ) entsteht aus der Einheitsmatrix
En durch Vertauschen der i-ten und j-ten Zeile.
(ii) Die Elementarmatrix Mi (s) ∈ GL(n,K ) entsteht aus derEinheitsmatrix En durch Multiplikation der i-ten Zeile mit s.
(iii) Die Elementarmatrix Ai ,j(s) ∈ GL(n,K ) entsteht aus derEinheitsmatrix En durch Addition des s-fachen der i-ten Zeile zurj-ten Zeile.
Diese Matrizen sind gerade die im Zusammenhang mit Satz 10.2.4behandelten Matrizen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 668 / 669
Lineare Abbildungen und Matrizen Algebra der linearen Abbildungen
Matrizen aus GL(n,K )
Lemma 6.5.11
Die inverse Matrix einer Elementarmatrix ist selbst eine Elementarmatrix.
Da die Umformungsmatrix einer regularen Matrix das Inverse der Matrixist und diese Umformungsmatrix als Produkt von Elementarmatrizenentsteht, folgt sofort:
Satz 6.5.12
Jede Matrix A ∈ GL(n,K ) ist ein Produkt von Elementarmatrizen.
Prof. Dr. Bernhard Steffen Mathematik fur Informatiker 1 - 2012 669 / 669