Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der...

263
TECHNISCHE UNIVERSIT ¨ AT BRAUNSCHWEIG Skripten der Mathematischen Institute Wolfgang Marten Lineare Algebra ur Studierende der Informatik und Wirtschaftsinformatik Wintersemester 2014/2015 Neunte, ¨ uberarbeitete Auflage Institut Computational Mathematics AG Partielle Differentialgleichungen 1 http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Transcript of Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der...

Page 1: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

TECHNISCHE UNIVERSITAT BRAUNSCHWEIG

Skripten der Mathematischen Institute

Wolfgang Marten

Lineare Algebra

fur Studierende der

Informatik und Wirtschaftsinformatik

Wintersemester 2014/2015

Neunte, uberarbeitete Auflage

Institut Computational MathematicsAG Partielle Differentialgleichungen

1

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 2: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Dr. Wolfgang MartenTechnische Universitat BraunschweigInstitut Computational MathematicsAG Partielle DifferentialgleichungenAm Fallersleber Tore 1D-38100 BraunschweigTel.: 0531 391 7404E-Mail: [email protected]

Haftungsausschluss: Die Informationen dieses Skiptes sind sorgfaltig zusam-mengestellt und ausgearbeitet worden. Irgendeine Haftung fur die Richtigkeitund Vollstandigkeit wird nicht ubernommen. Das Skript ist fur den begleitendenGebrauch zum Modul Lineare Algebra fur Informatiker der TU Braunschweiggeschrieben worden.

c⃝ Wolfgang Marten 2014. Alle Rechte vorbehalten.

2

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 3: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Lineare Algebra

fur Studierende der

Informatik und Wirtschaftsinformatik

Wolfgang Marten

Technische Universitat Braunschweig

Oktober 2014Neunte, uberarbeitete Auflage

Inhaltsverzeichnis

1 Einfuhrendes Beispiel 5

2 Vektorraume. Basen. Lineare Abildungen 14

3 Inneres Produkt. Euklidische Vektorraume 31

4 Erganzung: Hesse-Normalform 46

5 Matrizen. Die allgemeine lineare Gruppe 56

6 Kern und Bild einer Matrix. Gauß-Jordan 75

7 Koordinaten und Matrixdarstellungen 97

8 Diagonalisierung 102

9 Bestandteile der strikten Bruhat-Zerlegung 107

10 Strikte Bruhat-Zerlegung 121

11 LU-Zerlegung 132

12 Determinante. Bruhat. Laplace. Leibniz 134

13 Adjunkte und Regel von Cramer 149

14 Cayley-Hamilton. Leverrier-Faddeev 154

15 Matrixmodell der komplexen Zahlen 163

16 Spektralsatz. Projektionen. Gram-Schmidt 170

3

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 4: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

17 Erganzung: Kleinste Fehlerquadrate. Gauß-Legendre 181

18 Erganzung: Cholesky-Zerlegung 186

19 Erganzung: Orthogonale Spiegelungen 189

20 Drehungen. Euler-Winkel 191

21 Erganzung: Gruppen 210

22 Erganzung: Euklidische Bewegungen 215

23 Erganzung: Abbildungen 219

24 Anhang: Klausuren 222

Literatur 261

Ab dem Wintersemester 2007/08 mussen die Studierenden der Wirtschafts-informatik lediglich die erste Halfte der Vorlesung horen. Diese erste Halfteumfasst die Abschnitte 1 bis 8, 11, 23 und Teile von 12, 13, 14, 17.

In Anbetracht der ublichen Ausfallempfehlungen nimmt die erste Halfte derVorlesung sieben bis acht Wochen des Wintersemesters in Anspruch.

Von den ersten acht Auflagen des Skriptes wurden Druckfassungen an dieStudierenden verteilt. Der Druck und die Bindung wurden aus Studiengebuhrenund aus dem Institutsetat finanziert. Die gedruckten Versionen enthielten einenkompletten Satz Ubungsblatter aus einem fruheren Wintersemester und alteKlausuren mit den Korrekturvorlagen.

Das Skript ersetzt weder die Teilnahme an den vorgesehenen Lehrveranstal-tungen noch eine eingehende Nachbereitung. Die Beschrankung auf sogenannteklausurrelevante Themen fuhrt in der Regel zu mangelhaften Studienerfolgen.Zur Nachbereitung gehoren beispielsweise das Nachvollziehen der Beweise unddas Nachrechnen der Beispiele.

4

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 5: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

1 Einfuhrendes Beispiel

Wir beginnen mit der Erorterung eines einfachen linearen Gleichungssystems,das von einer geometrischen Fragestellung ausgeht. Bei dieser Gelegenheit wer-den wir die Verfahren von Gauß und Gauss-Jordan in Aktion sehen und einenSpezialfall der Regel von Cramer kennenlernen.

Eine Gerade ist durch die Angabe eines beliebigen Paares zweier verschiede-ner Punkte, die auf der Geraden liegen, eindeutig bestimmt. Seien

g1 : Gerade durch (3, 0) und (−4, 6) ,

g2 : Gerade durch (1,−1) und (6,−4)

gegeben. Einer Skizze entnehmen wir, dass beide Geraden nicht zusammenfallenund auch nicht parallel sind. Also gibt es genau einen Schnittpunkt. Gesuchtsind die Koordinaten x1 und x2 des Schnittpunktes.

Wir beschreiben die beiden Geraden g1 und g2 durch lineare Gleichungen:

g1 : 6x1 + 7x2 = 18 ,

g2 : 3x1 + 5x2 = −2 .

Die Koordinaten x1 und x2 des Schnittpunktes von g1 und g2 sind Losungendes inhomogenen linearen Gleichungssystems

6x1 + 7x2 = 18 ,

3x1 + 5x2 = −2 .

Wir losen das Gleichungssystems durch elementare Zeilenumformungen undRuckwartselimination. Nach den geometrischen Vorbetrachtungen vermuten wir,dass es genau eine Losung (x1, x2) gibt.

6x1 + 7x2 = 18

3x1 + 5x2 = −2

−−−−−−−−−−−6x1 + 7x2 = 18

32x2 = −11 Z2 − 1

2Z1

Rechts neben der Rechnung haben wir den Typ der elementaren Zeilenumfor-mung als Kommentar notiert. Dabei beziehen sich Z1 und Z2 auf die erste re-spektive zweite Zeile des vorherigen Schrittes oberhalb der gestrichelten Linie.Die Halfte der ersten Zeile Z1 ist von der zweiten Zeile Z2 abgezogen worden.Die erste Zeile Z1 ist unverandert ubernommen worden.

Durch eine elementare Zeilenumformung ist das Gleichungssystem in eineStufenform gebracht worden, aus der sich zuerst x2 und dann x1 berechnenlasst:

32x2 = −11

=⇒ x2 = − 223

5

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 6: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

=⇒ 6x1 + 7 · (− 223 ) = 18

=⇒ 6x1 = 54+1543 = 208

3

=⇒ x1 = 1049 .

Diese sukzessive Berechnung von x2 und x1 heißt Ruckwartselimination.

Wir uberlegen uns, was wir bisher erreicht haben. Unter der Annahme, dassdas (x1, x2) eine Losung ist, haben wir gezeigt, dass

(x1, x2) = ( 1049 ,−223 )

gelten muss. Eine Probe zeigt, dass wir tatsachlich eine Losung erhalten haben.

6 · 1049 + 7 · (− 22

3 ) = 208−1543 = 54

3 = 18 ,

3 · 1049 + 5 · (− 22

3 ) = 104−1103 = −6

3 = −2 .

Damit haben wir abschließend gezeigt, dass

(x1, x2) = ( 1049 ,−223 )

die einzige Losung des Gleichungssystems ist.

Die Rechnung lasst sich in zweierlei Hinsicht vereinfachen. Wir notieren le-diglich das Koeffizientenschema und ersetzen die Ruckelimination durch wei-tere elementare Zeilenumformungen bis wir die Treppennormalform des Koef-fizientenschemas erreicht haben. Weil alle vorgenommenen Zeilenumformungenruckgangig gemacht werden konnen, erhalten wir ein lineares Gleichungssystem,das dieselben Losungen wie das ursprunglich gegebene besitzt.

Hier sei schon darauf hingewiesen, dass uns die Treppennormalform spatermehrfach begegnen wird. Die Treppennormalform eines Koeffizientenschemasoder einer Matrix, wie wir sagen werden, hangt nicht von den vorgenommenenZeilenumformungen ab.

Wir fuhren den angekundigten vereinfachten Rechengang zur Losung desinhomogenen linearen Gleichungssystems im Einzelnen vor.

6 7 18

3 5 −2

6 7 18

0 32 −11 Z2 − 1

2Z1

1 76 3 1

6Z1

0 1 − 223

23Z2

1 0 1049 Z1 − 7

6Z2

0 1 − 223

6

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 7: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Rechts neben dem vertikalen Doppelstrich notieren wir die vorgenommenen ele-mentaren Zeilenumformungen. Die letzte Spalte der Treppennormalform enthaltdie Losung des Gleichungssystem. Die Ruckwartselimination reduziert sich indieser Situation auf ein bloßes Ablesen.

Das zusammenfassende Schema des Rechenganges legt nahe, die Koordi-naten des gesuchten Schnittpunktes als Komponenten in einen Spaltenvektoreinzutragen. Entsprechend werden die Koeffizienten der rechten Seite des Glei-chungssystems als Komponenten in einen Spaltenvektor und die Koeffizientender linken Seite als Eintrage in eine (2×2)-Matrix eingetragen. Das Gleichungs-system nimmt dann die Form(

6 7

3 5

)(x1

x2

)=

(18

−2

)

an. Die bloße Ubersetzung eines Systems linearer Gleichungen in eine Matrix-gleichung ist noch keine großartige Leistung. Entscheidend ist, dass mit Matrizenund Vektoren gerechnet werden kann.

Die Rechengesetze fur Matrizen und Vektoren bilden eines der Themen derLinearen Algebra. Die Rechengesetze sind so gemacht, dass sie das Rechnen mitlinearen Gleichungen wiedergeben und uberschaubarer gestalten.

Wir setzen die Erorterung des Beispiels(6 7

3 5

)(x1

x2

)=

(18

−2

)

fort. Auf der linken Seite der Gleichung steht ein Produkt einer (2× 2)-Matrixmit einem 2-komponentigen Spaltenvektor. Das Ergebnis auf der rechten Seiteist ebenfalls ein 2-komponentiger Spaltenvektor. Wir formulieren die Rechen-regel fur diesen Spezialfall. Die Komponenten bi des Spaltenvektors(

b1

b2

)=

(a11 a12

a21 a22

)(x1

x2

)(1.1)

sind durch die Gleichungen

bi =2∑j=1

aijxj , i = 1, 2 (1.2)

definiert. Wir haben gesehen, dass die Gleichung(6 7

3 5

)(x1

x2

)=

(18

−2

)

genau eine Losung besitzt. Kann diese Losung durch Inversion der Matrix(6 7

3 5

)

7

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 8: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

berechnet werden? Das heißt, gibt es eine (2×2)-Matrix mit Eintragen cij derart,dass (

x1

x2

)=

(c11 c12

c21 c22

)(18

−2

)gilt?

Satz 1.1. Seien aij ∈ R und bi ∈ R mit i, j = 1, 2 und

d = a11a22 − a21a12 = 0 (1.3)

gegeben. Dann gibt es eindeutig bestimmte xi ∈ R mit i = 1, 2 und(a11 a12

a21 a22

)(x1

x2

)=

(b1

b2

). (1.4)

Es gilt (x1

x2

)=

a22d

−a12d

−a21d

a11d

(b1b2

). (1.5)

Ausgeschrieben bedeutet dies

x1 =a22b1 − a12b2a11a22 − a21a12

, (1.6)

x2 =−a21b1 + a11b2a11a22 − a21a12

. (1.7)

Bemerkungen. Die Formeln (1.6) und (1.7) sind ein Spezialfall der Regel vonCramer. Wir werden sehen, dass

d = a11a22 − a21a12

die Determinante der Matrix (a11 a12

a21 a22

)ist. Wir schreiben

det

(a11 a12

a21 a22

)= a11a22 − a21a12 . (1.8)

Die Bedingung d = 0 bedeutet, dass diese Matrix invertierbar ist. Die inverseMatrix ist (

a11 a12

a21 a22

)−1

=

a22d

−a12d

−a21d

a11d

.

Bevor wir den Beweis des Satzes 1.1 behandeln, wenden wir den Satz auf dasobige Beispiel an.

8

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 9: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 1.2. (6 7

3 5

)(x1

x2

)=

(18

−2

).

Der Satz ist anwendbar, denn es gilt

d = 6 · 5− 3 · 7 = 30− 21 = 9 = 0 .

Damit erhalten wir unser fruheres Ergebnis(x1

x2

)=

(59 −7

9

−39

69

)(18

−2

)=

(90+14

9−54−12

9

)=

(1049

−223

).

Beweis. Wir zerlegen den Beweis des Satzes 1.1 in drei Teilschritte. Jeder Teil-schritt enthalt typische Vorgehensweisen.

Erster Schritt. Zuerst rechnen wir nach, dass die Formeln

x1 =a22b1 − a12b2a11a22 − a21a12

, x2 =−a21b1 + a11b2a11a22 − a21a12

Losungen des Gleichungssystems

a11x1 + a12x2 = b1 ,

a21x1 + a22x2 = b2

liefern. Einsetzen ergibt

a11x1 + a12x2 =a11(a22b1 − a12b2) + a12(−a21b1 + a11b2)

a11a22 − a21a12= b1 ,

a21x1 + a22x2 =a21(a22b1 − a12b2) + a22(−a21b1 + a11b2)

a11a22 − a21a12= b2 .

Damit ist bewiesen, dass die Formeln tatsachlich Losungen liefern. Der Nachweisder Einzigkeitsaussage benotigt eine Vorbereitung, die wir im zweiten Schritttreffen.

Zweiter Schritt. Wir uberlegen uns, dass das zugehorige homogene lineareGleichungssystem

a11x1 + a12x2 = 0 ,

a21x1 + a22x2 = 0

nur die Losungen x1 = x2 = 0 besitzt. Nach Voraussetzung gilt

a11a22 − a21a12 = 0 .

Also konnen a11 und a12 nicht zugleich verschwinden. Wir betrachten zuerstden Fall a11 = 0. Auflosen der ersten Gleichung nach x1 ergibt

x1 = −a12a11

x2 .

9

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 10: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Einsetzen in die zweite Gleichung liefert

0 = a21x1 + a22x2 = −a21a12a11

x2 + a22x2 =a11a22 − a21a12

a11x2

Wegen a11a22 − a21a12 = 0 folgt

x2 = 0 , x1 = −a12a11

x2 = 0 .

Den Fall a12 = 0 behandeln wir analog. Auflosen der ersten Gleichung nach x2ergibt

x2 = −a11a12

x1 .

Einsetzen in die zweite Gleichung ergibt

0 = a21x1 + a22x2 = a21x1 − a22a11a12

x1 =a21a12 − a22a11

a12x1 .

Wegen a11a22 − a21a12 = 0 folgt

x1 = 0 , x2 = −a11a12

x1 = 0 .

Damit ist die Behauptung uber die Losungen des zugehorigen homogenen linea-ren Gleichungssystems bewiesen.

Dritter Schritt. Nun beweisen wir die Einzigkeitsaussage des Satzes. Es seienx1, x2, y1, y2 ∈ R mit

a11x1 + a12x2 = b1 ,

a21x1 + a22x2 = b2 ,

a11y1 + a12y2 = b1 ,

a21y1 + a22y2 = b2

gegeben. Differenzbildung der ersten und dritten respektive der zweiten und dervierten Gleichung ergibt

a11(x1 − y1) + a12(x2 − y2) = b1 − b1 = 0 ,

a21(x1 − y1) + a22(x2 − y2) = b2 − b2 = 0 .

Nach den obigen Ausfuhrungen folgt

x1 = y1 , x2 = y2 .

Damit ist der Beweis des Satzes 1.1 beendet.

Beispiel 1.3.

(15

16

16

17

)(x1

x2

)=

(76

1

).

10

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 11: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

15

16

76

16

17 1

1 56

356 5Z1

16

17 1

1 56

356

0 1252

136 Z2 − 1

6Z1

1 56

356

0 1 7 252Z2

1 0 0 Z1 − 56Z2

0 1 7

15 · 1

7 − 16 · 1

6 = 36−351260 = 1

1260 = 0 .

(x1

x2

)=

(12607 −1260

6

−12606

12605

)(76

1

)

=

(180 −210

−210 252

)(76

1

)

=

(210− 210

−245 + 252

)=

(0

7

).

11

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 12: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Im Hinblick auf die Untersuchung von linearen Gleichungssystemen mit nGleichungen inm Unbekannten verallgemeinern wir (1.1) und (1.2). Ein linearesGleichungssystem

a11x1 + . . .+ a1mxm = bm ,

...

an1x1 + . . .+ anmxm = bm

in den Unbekannten x1, . . . , xm schreiben wir in der Form

m∑j=1

aijxj = bi , i = 1, . . . , n . (1.9)

Dafur schreiben wir a11 . . . a1m...

...

am1 . . . anm

x1...

xm

=

b1...

bm

. (1.10)

Die (n×m)-Matrix (aij) mit

(aij) = (aij) i=1,...,nj=1,...,m

=

a11 . . . a1m...

...

am1 . . . anm

heißt die Systemmatrix von (1.9) respektive (1.10). Mit Rn×m bezeichnen wirdie Menge der reellen (n×m)-Matrizen. Im Fall n = m lasst sich fur beliebigesn ∈ N die Regel von Cramer beweisen. Siehe 13.5. Dazu ist es erforderlich, dieDeterminante fur (n × n)-Matrizen zu definieren. Eine mogliche Definition istdie direkte Definition 1.4 durch Rekursion.

Definition 1.4. Sei A = (aνµ) ∈ Rn×n. Im Fall n ≥ 2 sei Aij ∈ R(n−1)×(n−1)

die quadratische Matrix, die aus A durch Streichen der i-ten Zeile und j-tenSpalte entsteht. Die Determinante det(A) der Matrix A wird rekursiv durch

det(A) =

a11 , n = 1 ,

a11a22 − a21a12 , n = 2 ,

n∑ν=1

(−1)ν+1aν1 det(Aν1) , n ≥ 2

definiert.

In Abschnitt 12 werden wir die Determinante einer quadratischen Matrix,die invertierbar ist, mit Hilfe einer Bruhat-Zerlegung der Matrix definieren und

12

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 13: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

auf diese Weise die allgemeinen Eigenschaften der Determinante herleiten. DieInvertierbarkeit und die strikte Bruhat-Zerlegung konnen simultan mit einerAbwandlung des Gauß-Jordan-Verfahrens bestimmt werden. Dieses Verfahrenberuht auf elementaren Zeilenumformungen.

Beispiel 1.5.

det

2 0 0

1 9 −4

2 14 −6

= 2 · 2− 1 · 0 + 2 · 0 = 4 .

Siehe Beispiel 8.9. �

13

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 14: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

2 Vektorraume. Basen. Lineare Abildungen

Die reellen Zahlen nennen wir auch Skalare. Produkte von Skalaren mit Spalten-vektoren und Summen von Spaltenvektoren werden komponentenweise definiert.Auf diese Weise werden bestimmte Rechenregeln von den reellen Zahlen auf dieSpaltenvektoren ubertragen. Damit erhalten wir den Raum Rn der Spalten-vektoren. Der Raum Rn der Zeilenvektoren wird analog definiert. In 2.10 gebenwir Definitionen, die die spezielle Anordnungen der Komponenten als Spalten-vektoren respektive Zeilenvektoren vermeiden. Die vorlaufige Definition des Rnals Spaltenraum dient zur Motivation des Vektorraumbegriffes in Definition 2.2.

Mit Rn bezeichnen wir die Menge der n-komponentigen Spaltenvektoren

x = (xi) = (xi)i=1,...,n =

x1...

xn

,

deren Komponenten x1, . . . , xn reelle Zahlen sind. Fur eine Definition, die diesespezielle Anordnung der Komponenten vermeidet, siehe 2.10. Die reelle Zahl xiist die i-te Komponente von x. In Formeln schreiben wir

Rn = { (xi)i=1,...,n | xi ∈ R , i = 1, . . . , n }

= {

x1...

xn

| xi ∈ R , i = 1, . . . , n } .

Die Notation als Spaltenvektoren ist eine Konvention, die aus Grunden derRechentechnik verabredet wird. Im laufenden Text ist oft gunstiger, eine Zeilen-schreibweise zu verwenden. Dies geschieht mit Hilfe der Transposition. DieseOperation uberfuhrt Zeilen in Spalten und Spalten in Zeilen.

(x1, . . . , xn)t =

x1...

xn

,

x1...

xn

t

= (x1, . . . , xn) .

Doppelte Anwendung der Transposition ist die identische Operation.

(x1, . . . , xn)t t = (x1, . . . , xn) ,

x1...

xn

t t

=

x1...

xn

.

Die Definition der Menge Rn konnen wir nun in der Form

Rn = { (xi)i=1,...,n | xi ∈ R , i = 1, . . . , n }

= { (x1, . . . , xn)t | xi ∈ R , i = 1, . . . , n }

ausdrucken.

14

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 15: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Nach diesen Vorbereitungen definieren wir die Multiplikation eines Skalarsmit einem Spaltenvektor und die Addition zweier Spaltenvektoren. Fur einenbeliebigen Skalar γ ∈ R und beliebige Spaltenvektoren

x = (xi)i=1,...,n =

x1...

xn

∈ Rn , y = (yi)i=1,...,n =

y1...

yn

∈ Rn

definieren wir

γx ≡ γ · x ≡ (γxi)i=1,...,n =

γx1...

γxn

∈ Rn , (2.1)

wobei wir im Allgemeinen das Multiplikationszeichen fortlassen, und

x+ y ≡ (xi + yi)i=1,...,n =

x1 + y1

...

xn + yn

∈ Rn . (2.2)

Nach Definition gilt

γxi = i-te Komponente von γx ,

xi + yi = i-te Komponente von x+ y .

Trivialerweise gilt

1x = 1 · x = x . (2.3)

Wir heben ausdrucklich hervor, dass der Ausdruck xγ nicht definiert wordenist. Ein Skalar wird nach Formel (2.1) von links an einen Spaltenvektor multi-pliziert. Durch Formel (2.2) wird lediglich die Addition zweier Spaltenvektorenmit derselben Anzahl von Komponenten definiert. Beispielsweise ist die Summe

(−2

5

)+

78

−1

23

durch (2.2) nicht definiert. In den Formeln (2.1) und (2.2) bezeichnen xi und yidie Komponenten von x respektive y.

In anderen Situationen bezeichnen wir mit xi und yi Spaltenvektoren oderandere mathematische Objekte. Was gemeint ist, geht aus der Angabe, in wel-cher Menge die xi und yi enthalten sind, hervor.

15

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 16: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 2.1. Gegeben seien der reelle Skalar γ = 5 und die Spaltenvektoren

x =

−3

7

23

−25

, y =

45

0

−21

14

im R4. Dann gilt

γx = 5

−3

7

23

−25

=

−15

35

115

−125

, x+ y =

−3

7

23

−25

+

45

0

−21

14

=

42

7

2

−11

.

Ein Spaltenvektor x = (x1, . . . , xn)t ∈ Rn mit xi = 0 fur i = 1, . . . , n heißt

Nullvektor und wird ebenfalls mit 0 bezeichnet.

0 ≡ (0, . . . , 0)t =

0...

0

∈ Rn . (2.4)

Sei x ∈ Rn ein beliebiger Spaltenvektor. Aus (2.1) und (2.4) folgt

0x = 0 · x = 0 . (2.5)

Im linken und im mittleren Teil der Gleichungskette (2.5) wird der Spalten-vektor x ∈ Rn von links mit dem Skalar 0 ∈ R multipliziert. Im rechten Teilsteht der Nullvektor 0 ∈ Rn.

Mit dem Symbol 0 bezeichnen wir generell das neutrale Element bezuglicheiner Addition. Nach (2.12) ist der Nullvektor das neutrale Element bezuglichder Addition von Spaltenvektoren. Neben dem Nullvektor sind die Nullfunktion,das Nullpolynom und die Nullmatrix weitere Beispiele.

Wir definieren den negativen Vektor−x ∈ Rn eines beliebigen Spaltenvektorsx = (x1, . . . , xn)

t ∈ Rn durch die Gleichung

−x ≡ (−1)x =

(−1)x1

...

(−1)xn

=

−x1...

−xn

∈ Rn . (2.6)

Dabei haben wir von der Rechenregel −α = (−1)α fur reelle Zahlen Gebrauchgemacht. Der Ausdruck −x auf der linken Seite der Formel (2.6) ist als ein neuesSymbol zu lesen. Zur Betonung dieser Lesart wird das Symbol −x innerhalbeiner Rechnung in Klammern eingeschlossen. Klammern werden gesetzt, umReihungen der Form −− oder +− zu vermeiden.

16

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 17: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Im Sinne der Klammerkonvention gilt

−x+ y = (−x) + y =

−x1...

−xn

+

y1...

yn

=

−x1 + y1

...

−xn + yn

. (2.7)

Aus (2.7) und (2.4) folgt als Spezialfall die Rechenregel

−x+ x = 0 . (2.8)

Die Summe von y und −x schreiben wir im Sinne der Klammerkonvention inder Form

y + (−x)

nieder. Nach (2.6) gilt

y + (−x) =

y1...

yn

+

−x1...

−xn

=

y1 + (−x1)

...

yn + (−xn)

=

y1 − x1

...

yn − xn

.

Die Definition α − β = α + (−β) fur die Differenzbildung reeller Zahlen uber-tragen wir auf das Rechnen mit Spaltenvektoren und definieren

y − x ≡ y + (−x) =

y1 − x1

...

yn − xn

. (2.9)

Aus (2.9) und (2.4) folgt als Spezialfall die Rechenregel

x− x = 0 . (2.10)

Aus der Formel −(−α) = α fur reelle Zahlen ergibt sich die analoge Formelfur Spaltenvektoren.

−(−x) = −

−x1...

−xn

=

−(−x1)

...

−(−xn)

=

x1...

xn

= x . (2.11)

Wir wenden uns noch einmal dem Nullvektor zu. Aus (2.2) folgt

x =

x1...

xn

=

x1 + 0

...

xn + 0

=

0 + x1

...

0 + xn

.

Nach (2.2) und (2.4) lassen sich diese Gleichungen in der Form

x = x+ 0 = 0 + x (2.12)

17

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 18: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

schreiben. Die Gleichungen (2.12) bedeuten, dass der Nullvektor 0 ∈ Rn das neu-trale Element bezuglich der Addition von Spaltenvektoren ist. Aus der Rechen-regel −0 = 0 fur 0 ∈ R folgt die entsprechende Regel

−0 =

−0...

−0

=

0...

0

= 0 (2.13)

fur den Nullvektor 0 ∈ Rn.

Wir ziehen aus den Definitionen (2.1) und (2.2) weitere Konsequenzen. Ausder Assoziativitat und der Kommutativitat der Addition reeller Zahlen ergebensich die entsprechenden Rechenregeln

(x+ y) + z = x+ (y + z) , (2.14)

x+ y = y + x (2.15)

fur die Addition von Spaltenvektoren. Das Assoziativgesetz fur die Multiplika-tion reeller Zahlen liefert das Assoziativgesetz

(αβ)x = α(βx) (2.16)

fur die Multiplikation von Skalaren und Spaltenvektoren. Die beiden Distribu-tivgesetze fur das Rechnen mit reellen Zahlen liefern die entsprechenden Re-chengesetze

α(x+ y) = αx+ αy , (2.17)

(α+ β)x = αx+ βx (2.18)

fur Skalarmultiplikation und Spaltenvektoraddition.

Auf der Menge Rn der reellen Zeilen mit n-Komponenten werden durch

λ(x1, . . . , xn) = (λx1, . . . , λxn) ,

(x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn)

eine Multiplikation von reellen Zahlen mit Zeilen und eine Addition von Zeilendefiniert. Siehe 2.10.

Wir fassen die obigen Ausfuhrungen zusammen. Mit der Multiplikation (2.1)und der Addition (2.2) bilden die reellen Spaltenvektoren einen reellen Vektor-raum im Sinne der folgenden Definition 2.2. Ein weiteres Beispiel liefern diereellen Polynome mit den ublichen Rechenregeln.

18

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 19: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Definition 2.2 (Reelle Vektorraume). Ein Tripel (V, · ,+) bestehend aus einernicht-leeren Menge V , einer Abbildung · : R× V → V mit

(λ, x) 7→ λx = λ · x

und einer Abbildung +: V × V → V mit

(x, y) 7→ x+ y

heißt ein reeller Vektorraum oder ein Vektorraum uber R, wenn die folgendenBedingungen (1) bis (7) erfullt sind.

(1) (∀x, y ∈ V ) : x+ y = y + x .

(2) (∀x, y, z ∈ V ) : (x+ y) + z = x+ (y + z) .

(3) Es gibt genau ein Element 0 ∈ V derart, dass (3.1) und (3.2) gelten.

(3.1) (∀x ∈ V ) : x+ 0 = 0 + x = x .

(3.2) (∀x ∈ V )(∃!y ∈ V ) : x+ y = y + x = 0 .

(4) (∀x ∈ V ) : 1x = 1 · x = x .

(5) (∀α, β ∈ R)(∀x ∈ V ) : (αβ)x = α(βx) .

(6) (∀α, β ∈ R)(∀x ∈ V ) : (α+ β)x = αx+ βx .

(7) (∀α ∈ R)(∀x, y ∈ V ) : α(x+ y) = αx+ αy .

Wir sagen dann auch, dass die Abbildungen · und + auf V die Struktur einesreellen Vektorraumes definieren.

Um die Definition 2.2 nicht zu uberfrachten, stellen wir die Erorterung einigerBezeichnungen und Fachbegriffe nach. Wichtig sind die Rechengesetze (1) bis(7). Damit uberhaupt etwas nennenswertes geschieht, verlangen wir, dass dieGrundmenge V nicht leer sein moge.

Die Elemente der Grundmenge V des Vektorraumes (V, · ,+) heißen Vekto-ren. Oft vereinfachen wir die Ausdrucksweise und sagen, dass V ein Vektorraumist. Die Elemente von R heißen Skalare.

Die Abbildung · heißt die Multiplikation mit Skalaren. Das Unitaritatsgesetz(4) verhindert, dass diese Multiplikation trivial wird. Nach (5) ist die Multipli-kation mit Skalaren assoziativ. Die Multiplikation mit Skalaren und die Multi-plikation in R bezeichnen wir mit demselben Symbol.

Die Vektoraddition + ist nach (1) kommutativ und nach (2) assoziativ. Siebesitzt nach (3.1) das neutrale Element 0. Der Vektor 0 heißt der Nullvektor.

Wie ublich bezeichnen wir die neutralen Elemente der Vektoradditon in Vund der Addition in R mit demselben Symbol. Ebenso bezeichnen wir die Ad-ditionen in V und R mit demselben Symbol.

19

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 20: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Sei x ∈ V . Nach (3.2) gibt es genau ein y ∈ V mit x+ y = y+ x = 0. DieserVektor heißt der negative Vektor zu x und wird mit −x oder (−x) bezeichnet.

Die Multiplikation mit Skalaren und die Vektoraddition sind durch die bei-den Distributivgesetze (6) und (7) miteinander verknupft. In (6) und (7) ver-wenden wir die Konvention, dass eine Punktrechnung vor einer Strichrechnungausgefuhrt wird.

Satz und Definition 2.3. Sei (X, · ,+) ein reeller Vektorraum. Eine nicht-leere Teilmenge M ⊆ X heißt ein reeller Teilvektorraum von X, wenn diebeiden folgenden Bedingungen (1) und (2) erfullt sind.

(1) (∀α ∈ R)(∀x ∈M) : αx ∈M .

(2) (∀x, y ∈M) : x+ y ∈M .

Mit den Einschrankungen von · und + auf R ×M respektive M ×M ist einreeller Teilvektorraum M von X ein reeller Vektorraum.

Definition 2.4 (Lineare Abbildungen). Seien X, Y reelle Vektorraume.

(1) Eine Abbildung φ : X → Y heißt reell-linear oder linear, wenn die beidenBedingungen (i) und (ii) erfullt sind.

(i) (∀α ∈ R)(∀x ∈ X) : φ(αx) = αφ(x) .

(ii) (∀x1, x2 ∈ X) : φ(x1 + x2) = φ(x1) + φ(x2) .

Die beiden Bedingungen (i) und (ii) konnen durch die Bedingung (iii)gleichwertig ersetzt werden.

(iii) (∀α1, α2 ∈ R)(∀x1, x2 ∈ X) : φ(α1x1 + α2x2) = α1φ(x1) + α2φ(x2) .

Wenn φ linear ist, dann gilt φ(0) = 0. Lineare Abbildungen heißen auchlineare Homomorphismen oder Homomorphismen.

(2) Eine reell-lineare Abbildung ψ : X → R heißt eine reelle Linearform aufX. Vereinfachend sagen wir, dass ψ eine Linearform ist. Siehe 2.10.

(3) Injektive Homomorphismes heißen Monomorphismen. Siehe 23.3.

(4) Surjektive Homomorphismes heißen Epimorphismen. Siehe 23.3.

(5) Eine bijektive lineare Abbildung φ : X → Y heißt ein Isomorphismus vonX auf Y . Wir schreiben dann X ∼=φ Y . Die Umkehrabbildung φ−1 : Y →X ist ebenfalls ein Isomorphismus. Siehe 23.3 und 23.5.

(6) Wenn es einen Isomorphismus von X auf Y gibt, dann heißen X und Yisomorph. Wir schreiben dann X ∼= Y . Isomorphe Vektorraume konnenmiteinander identifiziert werden. Siehe 2.10 und 2.21.

20

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 21: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

In 2.2, 2.3, 2.4 kann der Korper R der reellen Zahlen durch einen beliebigenKorper K im Sinne von Definition 15.1 ersetzt werden. Viele der folgenden Defi-nitionen und Satze machen auch uber beliebigen Korpern Sinn. Wir gehen dar-auf mundlich in der Vorlesung ein. Im Abschnitt 16 arbeiten wir im Beweis derreellen Version 16.6 des Spektralsatzes vorubergehend in der KorpererweiterungC von R.

Beispiele 2.5.

(1) Die Nullabbildung φ : X → Y mit φ(x) = 0 fur alle x ∈ X eine lineareAbbildung. Die Nullabbildung wird oft mit 0 bezeichnet.

(2) Die identische Abbildung idX : X → X mit idX(x) = x fur alle x ∈ X isteine lineare Abbildung.

(3) Fur alle linearen Abbildungen φ : X → Y gilt φ(0) = 0.

(4) Die Menge L(X,Y ) der linearen Abbildungen φ : X → Y ist mit

(λψ)(x) = λψ(x) , (φ1 + φ2)(x) = φ1(x) + φ2(x)

ein reller Vektorraum.

Die folgenden Beispiele 2.6 und 2.7 bereiten spatere Uberlegungen vor. Indiesen Beispielen verwenden wir die Rechenoperationen (1.1), (1.2), (1.8) ausder Erorterung des einfuhrenden Beispieles im ersten Abschnitt.

Beispiel 2.6 (Matrizen als lineare Abbildungen). Sei A = (aij)i,j=1,2 eine reelle(2× 2)-Matrix. Dann definiert A vermittels

x =

(x1

x2

)7→ Ax =

(a11 a12

a21 a22

)(x1

x2

)=

(a11x1 + a12x2

a21x1 + a22x2

)

eine lineare Abbildung φ : R2 → R2. Siehe Satz 5.9. �

Beispiel 2.7 (Linearitat der Determinante in jeder Spalte). Seien a = (a1, a2)t,

b = (b1, b2) ∈ R2 gegeben. Dann definiert die Determinante vermittels

x =

(x1

x2

)7→ det

(x1 b1

x2 b2

)= x1b2 − x2b1 ,

x =

(x1

x2

)7→ det

(a1 x1

a2 x2

)= a1x2 − a2x1

zwei reelle Linearformen auf dem arithmetischen Vektorraum R2. Dafur sagenwir auch, dass die Determinante in jeder Spalte linear ist. Siehe Satz 12.5. �

21

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 22: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz und Definition 2.8. Seien X, Y reelle Vektorraume. Sei φ : X → Yeine lineare Abbildung.

(1) Der reelle Teilvektorraum

ker(φ) = {x ∈ X | φ(x) = 0 }

von X heißt der Kern oder der Nullraum von φ.

(2) Der reelle Teilvektorraum

im(φ) = { y ∈ Y | (∃x ∈ X) : φ(x) = y }

von Y heißt das Bild von φ.

Zur Losung eines linearen Gleichungssystems ist es wichtig, eine maximaleMenge linear unabhangiger Spalten der Systemmatrix zu finden. Wir formulie-ren den Begriff der linearen Unabhangigkeit.

Satz und Definition 2.9 (Lineare Unabhangigkeit). Sei X ein reeller Vektor-raum.

(1) Sei m ∈ N. Eine endliche Familie F aus den Vektoren x1, . . . , xm ∈ Xheißt linear unabhangig uber R oder linear unabhangig, wenn aus

m∑i=1

αixi ≡ α1x1 + . . .+ αnxm = 0 (2.19)

mit α1, . . . , αm ∈ R stets

α1 = . . . = αm = 0 (2.20)

folgt. Andernfalls heißt die Familie F (uber R) linear abhangig .1

(2) Die lineare Unabhangigkeit respektive die lineare Abhangigkeit ist eineEigenschaft der Familie F . Vereinfachend sagen wir, dass die Vektorenx1, . . . , xm ∈ X linear unabhangig respektive linear abhangig sind.

(3) Eine Summe der Form α1x1+. . .+αmxm heißt eine endliche reelle Linear-kombination oder Linearkombination der Vektoren x1, . . . , xm mit den re-ellen Koeffizienten α1, . . . , αm. Wenn alle Koeffizienten αi verschwinden,dann heißt die Linearkombination trivial.

(4) Wenn mindestens zwei Vektoren der Familie F ubereinstimmen, dann istF linear abhangig.

(5) Sei x ∈ X mit x = 0 gegeben. Dann ist die einelementige Menge x linearunabhangig.

1Eine Familie ist eine Menge aus indizierten Elemente. Es kann durchaus sein, dass in einerFamilie einige Elemente mehrfach vorkommen. Beispielsweise konnen mehrere Spalten einerMatrix ubereinstimmen. Die Elemente einer Familie unterscheiden sich durch ihre Indizes.Jede Menge ist eine Familie.

22

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 23: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(6) Die leere Menge ist eine endliche Familie. Die leere Menge ist stets linearunabhangig.

(7) Eine beliebige Familie G aus Vektoren des Vektorraumes V heißt linearunabhangig, wenn jede endliche Teilfamilie von G linear unabhangig ist.Andernfalls heißt G linear abhangig. Wieder sagen wir vereinfachend, dassdie Vektoren der Familie G linear unabhangig respektive linear abhangigsind.

(8) Sei m ∈ N. Seien x1, . . . , xm ∈ X linear unabhangig. Sei x ∈ X. Wenn dieVektoren x1, . . . , xm, x linear abhanigig sind, dann ist der Vektor x eineLinearkombination der Vektoren x1, . . . , xm ∈ X.

Beispiele 2.10. Siehe Beispiele 2.20.

(1) Die Teilmenge R0 = {0} ⊆ R ist mit

λ · 0 = 0 , 0 + 0

ein reeller Vektorraum. Die leere Menge ist die einzige linear unabhangigeTeilmenge von R0. Eine einelementige Menge V = {v} ist mit

λv = v , v + v = v

ein reeller Vektorraumes. Dabei ist v das neutrale Element bezuglich derVektoraddition. Alle reellen Vektoraume, die nur aus einem Element be-stehen, konnen mit dem kanonischen Nullraum R0 identifiziert werden.

(2) Die reellen Zahlen bilden mit der ublichen Multiplikation und der ublichenAddition einen reellen Vektorraum (R, · ,+).

(3) Sei n ∈ N. Dann bilden die n-komponentigen reellen Spaltenvektoren mitden komponentenweise erkarten Rechenoperationen (2.1)und (2.2) einenreellen Vektorraum (Rn, · ,+). Die n-komponentigen Spaltenvektoren

e(n)1 =

1

0...

0

, e(n)2 =

0

1...

0

, . . . , e(n)n =

0

0...

1

(2.21)

sind linear unabhangig. Wenn keine Verwechslungen zu befurchten sind

schreiben wir ei anstelle von e(n)i . Wir identifizieren (R, · ,+) mit (R1, · ,+)

vermittels λ 7→ (λ).

(4) Sei n ∈ N. Wir formulieren die Definition des Vektorraumes Rn um. Dabeiwird die spezielle Anordnung der Komponenten in einer Spalte zunachstvermieden. Mit Rn bezeichnen wir die Menge der Abbildungen

x : {1, . . . , n} → R . (2.22)

23

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 24: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Fur k = 1, . . . , n setzen wir xk = x(k). Dann kann x : {1, . . . , n} → R mitdem Spaltenvektor

x1...

xn

identifiziert werden. Auf dem Abbildungsraum Rn = Abb({1, . . . , n},R)definieren

(λx)(k) = λx(k) , (x+ y)(k) = x(k) + y(k) (2.23)

die Struktur eines reellen Vektorraumes. Diese stimmt mit der durch (2.1)und (2.2) definierten Struktur uberein.

(5) Die Linearformen auf Rn bilden mit

(λφ)(x) = λφ(x) , (φ+ ψ)(x) = φ(x) + ψ(x)

einen reellen Vektorraum ((Rn)∗, · ,+), der mit dem Zeilenraum

Rn = {xt | x ∈ Rn}

identifiziert werden kann. Siehe 7.4. Dabei wird eine Linearform φ ∈ (Rn)∗mit dem Zeilenvektor

(φ(e1), . . . , φ(en)) ∈ Rn

identifiziert. Die Zeilen et1, . . . , etn sind linear unabhangig.

(6) Die reellen Polynome in einer Variablen x bilden mit den monomweiseerklarten Rechenoperationen

λ ·

(n∑i=0

aixi

)=

n∑i=0

λaixi , (2.24)

(n∑i=0

aixi

)+

(n∑i=0

bixi

)=

n∑i=0

(ai + bi)xi (2.25)

einen reellen Vektorraum (R[x], · ,+). Die unendlich vielen Monome

x0, x1, x2, x3, . . . (2.26)

sind linear unabhangig.

Wir haben Spaltenvektoren und Matrizen eingefuhrt, um lineare Gleichungs-systeme behandeln zu konnen. Umgekehrt fuhrt auch das Rechnen mit Spalten-vektoren auf lineare Gleichungssysteme. Beispielsweise fuhrt die Untersuchungauf lineare Unabhangigkeit auf ein homogenes Gleichungssystem.

24

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 25: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 2.11. Wir untersuchen die Vektoren

x1 =

(6

3

), x2 =

(7

5

)auf lineare Unabhangigkeit. Mit Satz 1.1 erhalten wir

α1x1 + α2x2 = 0 ⇐⇒ α1

(6

3

)+ α2

(7

5

)=

(0

0

)

⇐⇒

(6 7

3 5

)(α1

α2

)=

(0

0

)

⇐⇒

(α1

α2

)=

(0

0

),

denn es gilt 6 · 5− 3 · 7 = 9 = 0. Also sind die Spaltenvektoren x1 und x2 linearunabhangig. �

Beispiel 2.12. Die Vektoren

x1 =

(6

3

), x2 =

(24

12

)sind linear abhangig. Offenbar gilt

(−4α) ·

(6

3

)+ α ·

(24

12

)=

(0

0

)fur alle α ∈ R. Zum Nachweis der linearen Abhangigkeit von x1 und x2 wahlenwir irgendein reelles α = 0. �

Beispiel 2.13. Zwei beliebige Spaltenvektoren a = (a1, a2)t ∈ R2 und b =

(b1, b2)t ∈ R2 sind genau dann linear abhangig, wenn

det

(a1 b1

a2 b2

)= a1b2 − a2b1 = 0

gilt. Siehe Satz 13.1. �

Definition 2.14. Sei X ein reeller Vektorraum.

(1) Sei M ⊆ Rn nicht-leer. Dann heißt die Menge [M ] aller x ∈ X mit

(∃k ∈ N)(∃α1, . . . , αk ∈ R)(∃a1, . . . ak ∈M) : x =k∑κ=1

ακaκ

die lineare Hulle vonM . Die nicht-leere Menge [M ] ist ein Teilvektorraumvon X.

25

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 26: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(2) Wir betrachten den Nullraum R0 = {0} als lineare Hulle [∅] der leerenMenge ∅.

(3) M ⊆ X heißt ein Erzeugendensystem von X, wenn [M ] = X gilt. WennX ein endliches Erzeugendensystem besitzt, dann heißt X endlich erzeugt.

(4) A ⊆ X heißt eine Basis von X, wenn A ein Erzeudensystem von X istund die Menge A linear unabhangig ist. Die leere Menge eine einzige Basisdes Nullraumes.

(5) X heißt endlich-dimensional, wenn X eine endliche Basis besitzt.

Satz 2.15. Sei X = {0} ein reeller Vektorraum. Eine Teilmenge

A = {a1, . . . , ak} ⊆ X

mit k ∈ N ist genau dann eine Basis von X, wenn die Bedingung

(∀x ∈ X)(∃!α1 ∈ R) . . . (∃!αk ∈ R) : x =k∑κ=1

ακaκ

erfullt ist.

Wir zeigen im Folgenden, dass jeder endlich erzeugte reelle Vektorraum eineBasis besitzt. Dazu verwenden wir den Schrankensatz 2.17. Der Schrankensatzberuht auf dem Satz 2.16, nach dem ein homogenes lineares Gleichungssystemmit mehr Unbekannten als Gleichungen mindesten eine nicht-triviale Losungbesitzt. Dieser Satz wird durch vollstandige Induktion bewiesen. In Satz 6.8,Aussage (4) formulieren wir diesen Satz in eine Aussage uber den Kern be-stimmter Matrizen um.

Satz 2.16. Seien m, n ∈ N mit m > n und ανµ ∈ R fur ν = 1, . . . , n undµ = 1, . . . ,m gegeben. Ein homogenes lineares Gleichungssystem

m∑µ=1

ανµβµ = 0 , ν = 1, . . . , n

besitzt eine nicht-triviale Losung (β1, . . . , βm)t ∈ Rm.

Beweis. Wir verwenden, dass die Losungsmenge eines homogenen linearen Glei-chungssystems durch elementare Zeilenumformungen nicht geandert wird.

Erster Schritt. Sei m = n + 1. In diesem Fall wird der Beweis vermittelsvollstandiger Induktion nach n erbracht.

26

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 27: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Induktionsanfang. Fur n = 1 erhalten wir die Gleichung

α11β1 + α12β2 = 0

in den Unbekannten β1 und β2. Diese Gleichung besitzt offenbar nicht-trivialeLosungen (β1, β2)

t.

Induktionsschluss. Wir betrachten

n+2∑µ=1

ανµβµ = 0 , ν = 1, . . . , n+ 1 .

Dabei konnen wir annehmen, dass die Systemmatrix (ανµ) in oberer Stufen-form vorliegt. Diese Situtation kann durch elementare Zeilenumformungen er-reicht werden. Wir nehmen eine Fallunterscheidung von. Die folgenden drei Fallekonnen auftreten.

(1) Die (n + 1)-te Zeile der Systemmatrix sei die Nullzeile. Dann setzen wirβn+2 = 0. Nach Induktionsvoraussetzung gibt es β1, . . . , βn+1 ∈ R derart,dass (β1, . . . , βn+1, 0)

t eine nicht-triviale Losung ist.

(2) Sei αn+1n+1 der erste Koeffizient, der in der (n + 1)-ten Zeile nicht ver-schwindet. In diesem Fall konnen wir annehmen, dass samtliche Koeffizi-enten in der (n+ 1)-Spalte, die oberhalb des Diagonalelementes αn+1n+1

liegen, verschwinden. Nach der Induktionsvoraussetzung gibt es βµ mitµ = n+ 1, die eine nicht-triviale Losung der ersten n Gleichungen bilden.Dann wird βn+1 so bestimmt, dass auch die (n + 1)-te Gleichung erfulltist. Damit ist eine nicht-triviale Losung (β1, . . . , βn+2)

t gefunden.

(3) Sei αn+1n+2 der erste Koeffizient, der in der (n + 1)-ten Zeile nicht ver-schwindet. Wir setzen βn+2 = 0. Nach Induktionsvoraussetzung gibt esβ1, . . . , βn+1 ∈ R derart, dass (β1, . . . , βn+1, 0)

t eine nicht-triviale Losungist.

Damit ist der Induktionsschluss beendet.

Zweiter Schritt. Sei m > n+1. Sei (β1, . . . , βn+1)t eine nicht-triviale Losung

des Gleichungssystems

n+1∑µ=1

ανµβµ = 0 , ν = 1, . . . , n .

Wir setzen βn+2 = . . . = βm = 0. Dann ist (β1, . . . , βm)t eine nicht-trivialeLosung von

m∑µ=1

ανµβµ = 0 , ν = 1, . . . , n .

Damit ist der Beweis beendet.

27

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 28: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz 2.17 (Schrankensatz). Sei X ein reeller Vektorraum. Sei n ∈ N0. WennX ein Erzeugendensysten aus n Elementen besitzt, dann sind n + 1 Vektorenaus X linear abhangig.

Beweis. Der Satz gilt offenbar im Fall X = {0}. Wir setzen X = {0} voraus.Die Menge {a1, . . . an} ⊆ X mit n ∈ N sei ein Erzeugendensystem von X. Seienx1, . . . , xn+1 ∈ X beliebig gewahlt. Dann gibt es ανµ ∈ R mit

xµ =

n∑ν=1

ανµaν , µ = 1, . . . , n+ 1 . (2.27)

Wir betrachten eine Linearkombination

n+1∑µ=1

βµxµ .

Einsetzen von (2.27) ergibt

n+1∑µ=1

βµxµ =n∑ν=1

(n+1∑µ=1

ανµβµ

)aν .

Wenn das homogene lineare Gleichungssystem

n+1∑µ=1

ανµβµ = 0 , ν = 1, . . . , n (2.28)

aus n Gleichungen und in den Unbekannten β1, . . . , βn+1 eine nicht-trivialeLosung besitzt, dann sind x1, . . . , xn+1 linear abhangig. Nach Satz 2.16 gibtes eine nicht-triale Losung von 2.28. Also sind x1, . . . , xn+1 linear abhangig.

Satz 2.18. Sei X = {0} ein endlich erzeugte reeller Vektorraum.

(1) Sei A = {a1, . . . , ar} ⊆ X mit r ∈ N linear unabhangig. Dann ist A eineBasis von X oder es gibt ar+1, . . . , am ∈ X mit m ∈ N und m > r derart,dass C = {a1, . . . , am} eine Basis von X ist.

(2) X besitzt eine endliche Basis.

(3) Zwei Basen von X besitzen gleich viele Elemente.

Beweis. Wir wenden den Schrankensatz 2.17 mehrfach an.

Nachweis von (1). Die linear unabhangige Menge A = {a1, . . . , ar} sei keineBasis von X. Dann gibt es ar+1 ∈ X mit ar+1 /∈ [A]. Die erweiterte Menge

A1 = A ∪ {ar+1}

28

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 29: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

ist linear unabhangig. Dieses Verfahren der Hinzunahme eines weiteren Vektorsderart, dass die erweiterte Menge ebenfalls linear unabhangig ist, bricht nachendlich vielen Schritten ab. Dies folgt aus dem Schrankensatz 2.17, weil X end-lich erzeugt ist. Also gibt es m ∈ N derart, dass Am eine linear unabhangigeMenge mit |Am| = X ist. Die Menge Am wird im (m− r)-ten Schritt erreicht.

Nachweis von (2). Wegen X = {0} gibt es v1 ∈ X \ {0}. Also ist {v1} linearunabhangig. Wenn {v1} noch keine Basis von X ist, dann kann {v1} nach (1)zu einer endlichen Basis von X erganzt werden.

Nachweis von (3). Mit |M | bezeichnen wir die Anzahl der Elemente einerendlichen Menge. Sei A eine endliche Basis von X. Nach dem Schrankensatz2.17 sind |A| + 1 Elemente von X linear abhangig. Also ist jede Basis von Xendlich. Außerdem gilt |B| ≤ |A| fur irgendeine andere Basis B von X. Wirbeginnen mit der Basis B. Nach dem Schrankensatz 2.17 gilt |A| ≤ |B|. Damitist auch (3) bewiesen.

Der Nullraum ist endlich erzeugt. Er besitzt nur die leere Menge als Ba-sis. Es gilt |∅| = 0. Die leere Menge ist endlich. Wegen Satz 2.18 ist daher diefolgende Begriffsbildung 2.19 sinnvoll. Ein reeller Vektorraum ist genau dannendlich-dimensional, wenn er endlich erzeugt ist. Beliebige reelle Vektorraumebesitzen ebenfalls Basen. Dabei sind zwei Basen gleichmachtig. Den Dimensions-begriff formulieren wir in dieser Vorlesung nur im Fall endlich erzeugter reellerVektorraume.

Definition 2.19.

(1) Sei X ein endlich erzeugter reeller Vektorraum. Die Anzahl |A| der Ele-mente einer beliebigen Basis A von X heißt die Dimension von X. DieDimension von X hangt nicht von der Wahl der Basis ab. Die Dimensionvon X bezeichnen wir mit dim(X). Offenbar gilt dim(X) ∈ N0.

(2) Sei X ein reeller Vektorraum, der nicht endlich erzeugt ist. Dann setzenwir dim(X) = ∞ und sagen, dass Y unendlich-dimensional ist.

(3) Wir schreiben dim(X) <∞ genau dann, wenn X endlich-dimensional ist.

Beispiele 2.20. Siehe Beispiele 2.10.

(1) dim(R0) = 0.

(2) Sei n ∈ Rn. Die Menge En = {e(n)1 , . . . , e(n)n } ist eine Basis von Rn. Die

Basis En heißt die kanonische Basis des Rn. Es gilt dim(Rn) = n.

(3) Die Monome xn mit n ∈ N0 bilden eine Basis des Vektoraumes R[x] derreellen Polynome in der Unbestimmten x. Diese Basis ist nicht endlich.

29

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 30: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Ein reeller Vektorraum X mit dim(X) <∞ kann mit dem Vektorraum Rn,wobei n = dim(X) gilt, identifiziert werden.

Satz 2.21. Sei X ein reeller Vektorraum mit n = dim(X) <∞.

(1) Sei n = 0. Dann ist die Nullabbildung 0 der einzige Isomorphimus von Xauf R0. Es gilt also X ∼=0 R0.

(2) Sei n ∈ N. Dann gibt es zu jeder Basis A = {a1, . . . , an} genau einen

Isomorphismus φ : X → Rn mit φ(ai) = e(n)i fur alle i = 1, . . . , n. Es gilt

also X ∼=φ Rn.

(3) X ∼= Rn.

(4) Sei Y ⊆ X ein reeller Teilvektorraum von X. Dann gelten:

(i) dim(Y ) ≤ dim(X).

(ii) Y = X ⇔ dim(Y ) = dim(X)

30

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 31: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

3 Inneres Produkt. Euklidische Vektorraume

In diesem Abschnitt definieren wir das euklidische innere Produkt zweier Spal-tenvektoren des Rn. Wenn keine Verwechslungen zu befurchten sind, sprechenwir einfach vom inneren Produkt. Fur das innere Produkt ist auch der NameSkalarprodukt ublich. Wir ziehen die Bezeichnung inneres Produkt vor, um Ver-wechslungen mit der Skalarmultiplikation (2.1) zu vermeiden. Das innere Pro-dukt gestattet es wiederum, Lange von Vektoren, den eingeschlossenen Winkelzwischen zwei Vektoren und den wichtigen Begriff der Orthogonalitat algebra-isch zu definieren. Mit diesem Instrumentarium konnen Begiffe und Resulta-te der Elementargeometrie einer algebraischen Behandlung zuganglich gemachtwerden. Umgekehrt ermoglichen es diese geometrischen Anwendungen, Begriffeund Resulatate der linearen Algebra geometrisch zu deuten.

Definition 3.1. Das euklidische innere Produkt oder einfach innere Produktzweier Spaltenvektoren x = (x1, . . . , xn)

t ∈ Rn und y = (y1, . . . , yn)t ∈ Rn wird

durch

⟨x, y⟩ ≡ x · y ≡n∑i=1

xiyi ≡ x1y1 + . . .+ xnyn ∈ R (3.1)

definiert.

Auf Grund der Schreibweise x · y mit einem fett gedruckten Punkt als Mul-tiplikationszeichen wird das innere Produkt in der angelsachsischen Literaturauch als dot product bezeichnet. Wir verwenden im Folgenden beide Schreib-weisen. Wenn die Spalten ausgeschrieben werden, empfiehlt sich der Lesbarkeithalber die Schreibweise mit einem fett gedruckten Punkt.

Beispiel 3.2. Fur die Spaltenvektoren x, y ∈ R4 mit

x =

−3

7

23

−25

, y =

45

0

−21

14

erhalten wir

⟨x, y⟩ = ⟨

−3

7

23

−25

,

45

0

−21

14

= (−3) · 45 + 7 · 0 + 23 · (−21) + (−25) · 14

= −135 + 0− 483− 350 = −968 .

31

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 32: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

In der Schreibweise mit dem fett gedruckten Punkt gestaltet sich die erste Zeileetwas ubersichtlicher. Am Ergebnis andert sich naturlich nichts.

x · y =

−3

7

23

−25

·

45

0

−21

14

= (−3) · 45 + 7 · 0 + 23 · (−21) + (−25) · 14

= −135 + 0− 483− 350 = −968 .

Manchmal mischen wir auch die Schreibweisen.

⟨x, x⟩ =

−3

7

23

−25

·

−3

7

23

−25

= (−3)2 + 72 + 232 + (−25)2

= 9 + 49 + 529 + 625 = 1212 .

Beispiel 3.3. Fur die Spaltenvektoren

x1 =

(6

3

), x2 =

(7

5

)erhalten wir

⟨x1, x1⟩ = 36 + 9 = 45 ,

⟨x1, x2⟩ = 42 + 15 = 57 ,

⟨x2, x2⟩ = 49 + 25 = 74 .

Folglich gilt

⟨x1, x2⟩⟨x1, x2⟩ = 57 · 57

= 3249

< 3330

= 45 · 74

= ⟨x1, x1⟩⟨x2, x2⟩ .

Hier haben wir ein Beispiel fur die Cauchy-Schwarz’sche Ungleichung kennen-gelernt. �

32

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 33: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Wir ziehen erste Konsequenzen aus der definierenden Gleichung (3.1) undformulieren die grundlegenden Rechengesetze fur innere Produkte. Diese Gesetzebehalten wir bei, wenn wir den Begriff des inneren Produktes vom Modell derMenge der Spaltenvektoren auf beliebige reelle Vektorraume ubertragen.

Satz 3.4. Seien x, y, z ∈ Rn und α, β ∈ R beliebig gegeben. Dann gelten diefolgenden sechs Aussagen.

(1) ⟨x, y⟩ = ⟨y, x⟩.

(2) ⟨x, x⟩ ≥ 0.

(3) ⟨x, x⟩ = 0 ⇐⇒ x = 0.

(4) ⟨αx+ βy, z⟩ = α⟨x, z⟩+ β⟨y, z⟩.

(5) ⟨z, αx+ βy⟩ = α⟨z, x⟩+ β⟨z, y⟩.

(6) ⟨x, 0⟩ = ⟨0, x⟩ = 0.

Beweis. Die Aussagen (1) bis (6) folgen direkt aus der Definition (3.1). Wiruberlassen die einfachen Rechnungen dem geneigten Auditorium zur Ubung alsHausaufgabe.

Wir fuhren einige Fachbegriffe ein, die die Eigenschaften (1) bis (5) innererProdukte benennen. Nach (1) ist das innere Produkt symmetrisch. Nach (2) und(3) ist es positiv definit. Nach (4) ist das innere Produkt bei festgehaltenem zwei-ten Argument bezuglich des ersten Argumentes linear. Nach (5) ist das innereProdukt bei festgehaltenem ersten Argument bezuglich des zweiten Argumenteslinear. Beide Eigenschaften (4) und (5) fassen wir zusammen, indem wir sagen,dass das innere Produkt bilinear ist. Eigenschaft (6) folgt aus der Bilinearitat.Der Vektorraum Rn ist mit dem euklidischen inneren Produkt ein euklidischerVektorraum im Sinne der folgenden Definition.

Definition 3.5. Sei X ein reeller Vektorraum mit dim(X) < ∞. Eine Abbil-dung ⟨ . , . ⟩ : X ×X → R, die die Eigenschaften (1) bis (5) aus Satz 3.4 fur allex, y, z ∈ X und alle α, β ∈ R erfullt, heißt ein inneres Produkt auf X. DasPaar (X, ⟨ . , . ⟩) heißt dann ein euklidischer Vektorraum.

Viele der Satze, die wir im Folgenden fur den Rn und das euklidische innereProdukt formulieren, gelten auch in beliebigen euklidischen Vektorraumen. DieBeweise sind so formuliert, dass sie sich meist direkt auf den allgemeinen Fallubertragen lassen.

Satz 3.6 (Cauchy-Schwarz’sche Ungleichung). Seien x, y ∈ Rn zwei beliebigeSpaltenvektoren. Dann gilt

|⟨x, y⟩|2 ≤ ⟨x, x⟩⟨y, y⟩ . (3.2)

Das Gleichheitszeichen gilt genau dann, wenn die beiden Spaltenvektoren x undy linear abhangig sind.

33

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 34: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Bemerkungen. Ungleichung (3.2) heißt Cauchy-Schwarz’sche Ungleichung.Mit ihrer Hilfe werden wir die Dreiecks-Ungleichung beweisen. Vergleiche Satz3.10, Aussage (4). Die Betragsstriche auf der linken Seite der Ungleichung sindbeim Rechnen uber R uberflussig. Auf die Betragsstriche kann in der analogenFormel fur komplexe Spaltenvektoren allerdings nicht verzichtet werden. Wennwir auf beiden Seiten die positive Quadratwurzel ziehen, dann mussen die Be-tragsstriche auch beim Rechnen uber R stehen bleiben. Vergleiche (3.6).

Beweis. Erster Schritt. Im Fall y = 0 ist die Beziehung (3.2) mit dem Gleich-heitszeichen erfullt. Außerdem sind x und y in diesem Fall linear abhangig.

Zweiter Schritt. Wir nehmen im Folgenden an, dass y = 0 gilt. Sei λ ∈ Rbeliebig gewahlt. Dann gilt

0 ≤ ⟨x− λy, x− λy⟩

= ⟨x, x⟩ − λ⟨x, y⟩ − λ⟨y, x⟩+ (−λ)2⟨y, y⟩

= ⟨x, x⟩ − 2λ⟨x, y⟩+ λ2⟨y, y⟩ .

Wir treffen eine spezielle Wahl fur λ. Sei

λ =⟨x, y⟩⟨y, y⟩

.

Dieser Quotient ist sinnvoll gebildet, weil wir y = 0 vorausgesetzt haben. Ein-setzen ergibt

0 ≤ ⟨x, x⟩ − 2⟨x, y⟩⟨y, y⟩

⟨x, y⟩+ ⟨x, y⟩2

⟨y, y⟩2⟨y, y⟩ .

Nach der Multiplikation beider Seiten mit ⟨y, y⟩ > 0 erhalten wir

0 ≤ ⟨x, x⟩⟨y, y⟩ − 2⟨x, y⟩2 + ⟨x, y⟩2 = ⟨x, x⟩⟨y, y⟩ − ⟨x, y⟩2 .

Nun folgt die behauptete Ungleichung

|⟨x, y⟩|2 = ⟨x, y⟩2 ≤ ⟨x, x⟩⟨y, y⟩ .

Dritter Schritt. Wir untersuchen im Fall y = 0, wann in (3.2) das Gleich-heitszeichen gilt. Wenn x und y linear abhangig sind, dann gibt es µ ∈ R mitx = µy. Wir erhalten

|⟨x, y⟩|2 = ⟨µy, y⟩2 = µ2⟨y, y⟩2 = ⟨µy, µy⟩⟨y, y⟩ = ⟨x, x⟩⟨y, y⟩ .

Damit folgt die Gleichheit in (3.2). Nun setzen wir umgekehrt die Gleichheitvoraus. Dann folgt⟨

x− ⟨x, y⟩⟨y, y⟩

y , x− ⟨x, y⟩⟨y, y⟩

y

⟩= ⟨x, x⟩ − 2

⟨x, y⟩2

⟨y, y⟩+

⟨x, y⟩2

⟨y, y⟩

=⟨x, x⟩⟨y, y⟩ − ⟨x, y⟩2

⟨y, y⟩= 0 .

34

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 35: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Mit Aussage (3) des Satzes 3.4 folgt schließlich

x− ⟨x, y⟩⟨y, y⟩

y = 0 .

Folglich sind x und y linear abhangig.

Definition 3.7 (Euklidische Norm). Sei n ∈ N.

(1) Die euklidische Lange oder euklidische Norm eines Spaltenvektors

x = (x1, . . . , xn)t ∈ Rn

wird durch

∥x∥ ≡√

⟨x, x⟩ =√x21 + . . .+ x2n ≥ 0 (3.3)

definiert. Wenn keine Verwechslungen zu befurchten sind, sprechen wireinfach von der Lange oder der Norm eines Spaltenvektors.

(2) Ein Spaltenvektor u ∈ Rn heißt normierter Vektor, Einheitsvektor oderRichtungsvektor, wenn

∥u∥ = 1 (3.4)

gilt. Einheitsvektoren definieren Richtungen.

(3) Wenn x ∈ Rn nicht der Nullvektor ist, dann ist

x

∥x∥≡ 1

∥x∥x (3.5)

ein normierter Vektor. Den Einheitsvektor (3.5) nennen wie die Richtungdes Vektors x = 0. Dem Nullvektor ordnen wir keine Richtung zu.

(4) Die Einheitsvektoren des Rn bilden die Einheitssphare Sn−1.

Beispiele 3.8.

(1) Wie ublich identifizieren wir die reellen Vektorraume R1 und R vermittelsder Abbildung (α) 7→ α. Dann gilt S0 = {−1, 1} ⊆ R.

(2) Die Sphare S1 ⊆ R2 ist die Einheitskreislinie in der Ebene um den Ur-sprung. Sie besteht aus allen Punkten der Form(

cos(φ)

sin(φ)

)mit φ ∈ [0, 2π). Die Winkelfunktionen Cosinus und Sinus sind durchReihenentwicklungen fur alle x ∈ R definiert. Es gelten

cos(x) =∞∑k=0

(−1)k

(2k)!x2k , sin(x) =

∞∑l=0

(−1)l

(2l + 1)!x2l+1 .

Diese Reihen konvergieren in allen x ∈ R absolut. Siehe Analysis-Skript,Abschnitt 5, Satz und Definition 5.1.

35

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 36: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Nach Aussage (2) von Satz 3.4 kann die positive Quadratwurzel aus ⟨x, x⟩gezogen werden. Mit Hilfe der Norm kann die Cauchy-Schwarz’sche Ungleichung(3.2) wie folgt geschrieben werden.

Satz 3.9 (Cauchy-Schwarz’sche Ungleichung). Seien x, y ∈ Rn zwei beliebigeSpaltenvektoren. Dann gilt

|⟨x, y⟩| ≤ ∥x∥ ∥y∥ . (3.6)

Das Gleichheitszeichen gilt genau dann, wenn die beiden Spaltenvektoren x undy linear abhangig sind.

Satz 3.10. Seien x, y ∈ Rn und α ∈ R beliebig gegeben. Dann gelten diefolgenden sechs Aussagen.

(1) ∥x∥ ≥ 0.

(2) ∥x∥ = 0 ⇐⇒ x = 0.

(3) ∥αx∥ = |α| ∥x∥.

(4) ∥ − x∥ = ∥(−1)x∥ = ∥x∥.

(5) ∥x+ y∥ ≤ ∥x∥+ ∥y∥.

Das Gleichheitszeichen gilt in Ungleichung (5) genau dann, wenn y = 0 oderx = λy mit λ ≥ 0 erfullt ist.

(6) | ∥x∥ − ∥y∥ | ≤ ∥x− y∥.

Das Gleichheitszeichen gilt in Ungleichung (6) genau dann, wenn y = 0 oderx = λy mit λ ≥ 0 erfullt ist.

Bemerkungen. Die Ungleichung (5) des Satzes 3.10 heißt Dreiecks-Ungleichung.Auf die Bedingung λ ≥ 0 kann im Zusatz zu Ungleichung (5) nicht verzichtetwerden, wie das Beispiel x = −y = 0 zeigt.

0 = ∥0∥ = ∥x+ (−x)∥ ,

0 < 2∥x∥ = ∥x∥+ ∥x∥ = ∥x∥+ ∥ − x∥ .

Auf der linken Seite der Ungleichung (6) steht der Betrag einer Differenz zweiernicht-negativer reeller Zahlen. Auf die Bedingung λ ≥ 0 kann auch im Zusatzzu Ungleichung (6) nicht verzichtet werden, wie wieder das Beispiel x = −y = 0zeigt.

0 = |0| = | ∥x∥ − ∥x∥ | = | ∥x∥ − ∥ − x∥ | ,

0 < 2∥x∥ = ∥x+ x∥ = ∥x− (−x)∥ .

Wir wenden uns dem Beweis des Satzes 3.10 zu.

36

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 37: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beweis. Die Aussagen (1) bis (3) folgen nach leichter Rechnung aus der Defini-tion (3.3). Aussage (4) folgt aus (3) mit α = −1. Der Nachweis der Dreiecks-Ungleichung (5) ist auf direktem Wege beschwerlich. Wir folgern (5) mit Hilfeder Cauchy-Schwarz’sche Ungleichung.

Wir beginnen mit dem Quadrat der linken Seite der Dreiecks-Ungleichung.Nach Definition (3.3) und der Cauchy-Schwarz’sche Ungleichung (3.6) gilt

∥x+ y∥2 = ⟨x+ y, x+ y⟩

= ⟨x, x⟩+ ⟨x, y⟩+ ⟨y, x⟩+ ⟨y, y⟩

= ∥x∥2 + 2⟨x, y⟩+ ∥y∥2

≤ ∥x∥2 + 2 ∥x∥ ∥y∥+ ∥y∥2

= (∥x∥+ ∥y∥)2 .

Die behauptete Ungleichung (5) folgt nun durch Ubergang zu den positivenQuadratwurzeln.

Wir beweisen den Zusatz zu Ungleichung (5). Im Fall y = 0 gilt das Gleich-heitszeichen in (5). Wir setzen y = 0 voraus. Die vorstehende Rechnung und derZusatz zur Cauchy-Schwarz’schen Ungleichung in Satz 3.9 zeigen die Gultigkeitder Implikationen

∥x+ y∥ = ∥x∥+ ∥y∥ =⇒ ⟨x, y⟩ = ∥x∥ ∥y∥

=⇒ (∃λ ∈ R) : x = λy .

Einsetzen von x = λy in ⟨x, y⟩ = ∥x∥ ∥y∥ ergibt λ ≥ 0. Umgekehrt folgt furx = λy mit λ ≥ 0 die Gultigkeit von

∥x+ y∥ = ∥λy + y∥

= (λ+ 1) ∥y∥

= λ ∥y∥+ ∥y∥

= ∥λy∥+ ∥y∥ = ∥x∥+ ∥y∥ .

Damit ist der Zusatz zu Ungleichung (5) bewiesen.

Wir beweisen Ungleichung (6). Dazu wenden wir die Dreiecks-Ungleichungzweimal an. Aus den beiden Ungleichungen

∥x∥ = ∥(x− y) + y∥ ≤ ∥x− y∥+ ∥y∥ ,

∥y∥ = ∥x+ (y − x)∥ ≤ ∥x∥+ ∥y − x∥ = ∥x∥+ ∥x− y∥

folgen durch Umordnen die beiden Ungleichungen

∥x∥ − ∥y∥ ≤ ∥x− y∥ ,

37

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 38: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

∥y∥ − ∥x∥ ≤ ∥x− y∥ .

Zusammenfassen ergibt die behauptete Ungleichung

| ∥x∥ − ∥y∥ | ≤ ∥x− y∥ .

Damit ist Ungleichung (6) bewiesen.

Wir beweisen den Zusatz zu Ungleichung (6). Es ist klar, dass im Fall y = 0Gleichheit gilt. Fur y = 0 und x = λy mit λ ≥ 0 gilt

| ∥x∥ − ∥y∥ | = |λ · ∥y∥ − 1 · ∥y∥ | = |λ− 1| ∥y∥ = ∥(λ− 1)y∥ = ∥x− y∥ .

Nun setzen wir y = 0 und | ∥x∥ − ∥y∥ | = ∥x− y∥ voraus. Zuerst betrachten wirden Fall ∥x∥ ≥ ∥y∥. Es folgt

∥x∥ = ∥x− y∥+ ∥y∥ .

Nach dem Zusatz zur Dreiecks-Ungleichung gibt es ein α ≥ 0 mit

x− y = αy , x = (1 + α)y .

Also liefert λ = 1 + α ≥ 0 die behauptete Darstellung der Form x = λy mitnicht-negativem λ. Abschließend betrachten wir den Fall ∥y∥ > ∥x∥. Es folgt

∥y∥ = ∥x− y∥+ ∥x∥ = ∥x∥+ ∥y − x∥ , y − x = 0 .

Nach dem Zusatz zur Dreiecks-Ungleichung gibt es ein β ≥ 0 mit

x = β(y − x) , x = β1+β y .

Also liefert λ = β1+β ≥ 0 die behauptete Darstellung der Form x = λy mit

nicht-negativem λ. Damit ist der Zusatz zu Ungleichung (6) bewiesen und derBeweis des Satzes 3.10 beendet.

Definition 3.11. Seien x, y ∈ Rn vom Nullvektor verschiedene Spaltenvekto-ren. Der Cosinus des von x und y eingeschlossenen Winkels wird durch

cos(x, y) ≡ ⟨x, y⟩∥x∥ ∥y∥

(3.7)

definiert.

Diese Definition macht nur Sinn, wenn die Vektoren x und y normierbarsind. Wegen der Cauchy-Schwarz’sche Ungleichung (3.6) gilt

−1 ≤ cos(x, y) ≤ 1 . (3.8)

Also macht es Sinn, die rechte Seite von (3.7) als Cosinus einer eindeutig be-stimmten reellen Zahl φ ∈ [0, π] aufzufassen, wobei φ geometrisch als unori-entierter eingeschlossener Winkel gedeutet wird. Wir schreiben ](x, y) fur φ.Damit erhalten wir

cos(](x, y)) = cos(x, y) ≡ ⟨x, y⟩∥x∥ ∥y∥

.

Wir fassen zusammen:

38

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 39: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz und Definition 3.12 (Unorientierter Winkel). Seien x, y ∈ Rn vomNullvektor verschiedene Spaltenvektoren.

(1) Die reelle Zahl ](x, y) ∈ [0, π] mit

](x, y) = arccos

(⟨x, y⟩∥x∥ ∥y∥

)heißt der unorierentierte Winkel zwischen x und y. Dabei ist

arccos : [−1, 1] → [0, π] ⊆ R

die Umkehrfunktion der Einschrankung des Cosinus auf das Intervall [0, π].

(2) In der Analysis werden Funktionen oft durch Integrale definiert. Es gilt

arccos(τ) =

π , τ = −1 ,∫ 1

τ

dt√1− t2

, τ ∈ (−1, 1) ,

0 , τ = 1 .

(3.9)

Das Integral in (3.9) ist ein uneigentliches Riemann-Integral. Die Substitu-tion ξ = cos(t) liefert die behauptete Integraldarstellung des Arcuscosinus.Siehe Analysis-Skript, Abschnitt 17. Der Arcuscosinus ist auf [−1, 1] strengmonoton fallend.

(3) Es gilt

](x, y) = ](

x

∥x∥,y

∥y∥

).

Der unorientierte Winkel zwischen x und y ist gleich dem unorientiertenWinkel zwischen den entsprechenden Richtungsvektoren x/∥x∥ und y/∥y∥.

Im Folgenden begrunden wir, warum eine Deutung als Sinus nicht sinnvollist. Wir heben ausdrucklich hervor, dass wir Definition und Rechenregeln furCosinus und Sinus der Analysis entlehnen. Insbesondere ubernehmen wir diewichtige Formel

cos2(ξ) + sin2(ξ) = 1 , ξ ∈ R . (3.10)

Die Formel (3.10) ist eine analytische Version des Satzes des Pythagoras. In Satz3.16 geben wir eine geometrische Version mit Hilfe der Norm.

Der Spezialfall x = y = 0 zeigt, dass eine alternative Deutung der rechtenSeite von Definition (3.7) wegen

cos(0) = 1 , sin(0) = 0

als Sinus des eingeschlossenen Winkels geometrisch keinen Sinn macht.

39

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 40: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Außerdem ist es geometrisch evident, dass beim Ersetzen von x durch −xder eingeschlossene Winkel φ ∈ [0, π] durch den Winkel π − φ ∈ [0, π] ersetztwird. Die Additionstheoreme

cos(π − φ) = − cos(φ) , sin(π − φ) = sin(φ) .

zeigen, dass eine Deutung der rechten Seite von (3.7) als Sinus im Gegensatzzur Deutung als Cosinus keinen Sinn macht.

Bevor wir den Zusammenhang zwischen (3.7) und der elementargeometri-schen Einfuhrung des Cosinus herstellen konnen, mussen wir den Begriff derOrthogonalitat einfuhren. Wir erinnern an

cos(π2 ) = 0 , sin(π2 ) = 1 .

Definition 3.13. Zwei Spaltenvektoren x, y ∈ Rn heißen orthogonal oder senk-recht, wenn

⟨x, y⟩ = x · y = 0 (3.11)

gilt. Wir sagen dann auch, dass x zu y orthogonal oder senkrecht ist. Wenn xzu y orthogonal ist, ist y zu x orthogonal. Der Nullvektor 0 ∈ Rn ist zu allenVektoren des Rn orthogonal.

Das folgende Beispiel stellt den Zusammenhang von Definition (3.7) mit derelementargeometrischen Einfuhrung des Cosinus eines Winkels her.

Beispiel 3.14. Wir betrachten in der Ebene R2 das rechtwinklige Dreieck mitden Eckpunkten 0 und x, y mit

x =

(cos(φ)

0

), y =

(cos(φ)

sin(φ)

), 0 < φ < π

2 .

Die Verbindungsstrecke zwischen 0 und y ist die Hypothenuse, die zwischen 0und x ist die Ankathete des Dreiecks. Am Eckpunkt x liegt der rechte Winkeldes Dreiecks.

⟨y − x, 0− x⟩ =

(0

sin(φ)

)·(− cos(φ)

0

)= 0 .

Die Normen

∥y∥ =

√cos2(φ) + sin2(φ) = 1 , ∥x∥ =

√cos2(φ) = | cos(φ)| = cos(φ)

sind die Langen von Hypothenuse respektive Ankathete. Einsetzen ergibt

cos(x, y) =⟨x, y⟩∥x∥ ∥y∥

=cos(φ) · cos(φ) + 0 · sin(φ)

cos(φ) · 1= cos(φ) =

∥x∥∥y∥

.

Damit ist der Zusammenhang zur elementargeometrischen Einfuhrung des Co-sinus hergestellt. Mit Hilfe der Analysis kann die Lange glatter Kurven definiertwerden. Danach ist die positive reelle Zahl φ die Lange des Kreisbogens vomRadius 1 um 0 ∈ R2, der die beiden Punkte x und y verbindet. �

40

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 41: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aus (3.7) folgt

⟨x, y⟩ = cos(x, y) ∥x∥ ∥y∥ . (3.12)

Die linke Seite von (3.12) ist nach Satz 3.4 bilinear in den Argumenten x und y.Aus dieser Formel folgen der Cosinussatz 3.15 und als Spezialfall der Satz 3.16des Pythagoras.

Satz 3.15 (Cosinussatz). Es seien x, y ∈ Rn beliebige vom Nullvektor ver-schiedene Spaltenvektoren. Dann gelten die beiden Formeln

∥x+ y∥2 = ∥x∥2 + ∥y∥2 + 2 ∥x∥ ∥y∥ cos(x, y) ,

∥x− y∥2 = ∥x∥2 + ∥y∥2 − 2 ∥x∥ ∥y∥ cos(x, y) .

Dafur schreiben wir zusammenfassend

∥x± y∥2 = ∥x∥2 + ∥y∥2 ± 2 ∥x∥ ∥y∥ cos(x, y) . (3.13)

Beweis. Aus (3.3) und (3.12) folgt

∥x± y∥2 = ⟨x± y, x± y⟩

= ⟨x, x⟩ ± 2 ⟨x, y⟩+ ⟨y, y⟩

= ∥x∥2 ± 2 cos(x, y) ∥x∥ ∥y∥+ ∥y∥2 .

Damit ist der Beweis des Cosinussatzes beendet.

Satz 3.16 (Satz des Pythagoras). Es seien x, y ∈ Rn beliebige Spaltenvektoren.Dann gilt

∥x+ y∥2 = ∥x∥2 + ∥y∥2 (3.14)

genau dann, wenn x und y orthogonal sind.

Beweis. Die Formel (3.14) gilt trivialerweise, wenn einer der beiden Vektorender Nullvektor ist. In diesem Fall sind x und y orthogonal.

Wir nehmen an, dass x und y vom Nullvektor verschiedene orthogonaleVektoren sind. Dann gilt cos(x, y) = 0. Aus (3.13) folgt damit

∥x+ y∥2 = ∥x∥2 + ∥y∥2 .

Wir nehmen nun an, dass x und y vom Nullvektor verschiedene Vektorensind, die (3.14) erfullen. Dann gilt

0 = ∥x+ y∥2 − ∥x∥2 − ∥y∥2 = 2 ⟨x, y⟩ .

Also sind x und y orthogonal.

41

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 42: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Die Formel ∥x+y∥2 = ∥x∥2+∥y∥2 gilt genau dann, wenn die Vektoren x undy orthogonal sind. In diesem Fall ist das Paar (x, y) eine orthogonale Zerlegungdes Vektors x+ y. Wir formulieren eine Variante des Satzes von Pythagoras.

Satz 3.17 (Orthogonale Zerlegungen, orthogonale Projektionen). Seien a, b ∈Rn mit b = 0 gegeben. Dann sind

v =⟨a, b⟩⟨b, b⟩

b , w = a− ⟨a, b⟩⟨b, b⟩

b (3.15)

die einzigen Vektoren v, w ∈ Rn, die (1), (2), (3) erfullen.

(1) a = v + w.

(2) v ∈ Rb = {λb | λ ∈ R}.

(3) ⟨w, b⟩ = 0.

Der Vektor v heißt die orthogonale Projektion von a in Richtung des Vektors b.Das Paar (v, w) heißt die orthogonale Zerlegung von a bezuglich b. Die folgendegeometrische Sprechweise ist ublich: Der Punkt v ist der Fußpunkt des Lotesdes Punktes a auf die Gerade Rb. Dabei ist die Norm ∥w∥ die Lange des Lotes.

Beweis. Erster Schritt. Wir setzen (3.15) voraus. Dann sind (1) und (2) offenbarerfullt. Wegen

⟨w, b⟩ = ⟨a− ⟨a, b⟩⟨b, b⟩

b, b⟩

= ⟨a, b⟩ − ⟨a, b⟩⟨b, b⟩

⟨b, b⟩

= ⟨a, b⟩ − ⟨a, b⟩ = 0

gilt auch (3).

Zweiter Schritt. Wir setzen (1), (2), (3) voraus. Wegen (2) gibt es λ ∈ R mitv = λb. Aus (1) und (3) folgt dann

⟨a, b⟩ = ⟨v + w, b⟩

= ⟨λb+ w, b⟩

= ⟨λb, b⟩+ ⟨w, b⟩

= λ⟨b, b⟩ .

Wegen b = 0 gilt ⟨b, b⟩ = 0. Also gelten die Formeln (3.15). Damit ist auch dieEinzigkeitsaussage bewiesen.

42

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 43: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 3.18 (Orthogonale Zerlegung). Wir berechnen fur die beiden Spalten-vektoren a, b ∈ R3 mit

a =

4

−5

3

, b =

2

1

−2

die orthogonale Zerlegung von a nach b. Mit Hilfe von (3.15) erhalten wir

v =⟨a, b⟩⟨b, b⟩

b =8− 5− 6

4 + 1 + 4

2

1

−2

= −1

3

2

1

−2

und

w = a− v =

4

−5

3

+1

3

2

1

−2

=1

3

12

−15

9

+1

3

2

1

−2

=1

3

14

−14

7

.

Nach Konstruktion gilt a = v + w. Wir rechnen nach, das die Vektoren v undw zueinander orthogonal sind. Es gilt

⟨v, w⟩ = −28− 14− 14

9= 0 .

Siehe Beispiel 5.7. �

Satz 3.19 (Parallelogrammregel). Fur alle x, y ∈ Rn gilt

∥x+ y∥2 + ∥x− y∥2 = 2(∥x∥2 + ∥y∥2) . (3.16)

Beweis. Aus Definition (3.3) folgen

∥x+ y∥2 = ∥x∥2 + 2⟨x, y⟩+ ∥y∥2 ,∥x− y∥2 = ∥x∥2 − 2⟨x, y⟩+ ∥y∥2 .

Addition beider Gleichungen liefert die Parallelogrammregel (3.16).

Satz 3.20 (Polarisierung). Fur alle x, y ∈ Rn gilt

⟨x, y⟩ = 14 (∥x+ y∥2 − ∥x− y∥2) . (3.17)

Beweis. Aus Definition (3.3) folgen

∥x+ y∥2 = ∥x∥2 + 2⟨x, y⟩+ ∥y∥2 ,∥x− y∥2 = ∥x∥2 − 2⟨x, y⟩+ ∥y∥2 .

Subtraktion beider Gleichungen liefert die Polarisierungsformel (3.17).

43

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 44: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aus der euklidischen Norm lasst sich ein Abstand zwischen Spaltenvektorenkonstruieren.

Definition 3.21. Der euklidische Abstand zweier beliebiger Spaltenvektoren x,y ∈ Rn wird durch

d(x, y) = ∥x− y∥ (3.18)

definiert. Die Abbildung d : Rn × Rn → R heißt auch euklidische Metrik. NachDefinition (3.3) der euklidischen Norm bedeutet (3.18) ausgeschrieben, dass

d(x, y) =

(n∑i=1

(xi − yi)2

) 12

=√(x1 − y1)2 + . . .+ (xn − yn)2 (3.19)

gilt.

An Formel (3.19) konnen wir ablesen, dass die euklidsische Metrik den Satzdes Pythagoras codiert.

Beispiel 3.22. Fur die Spaltenvektoren

x =

(6

3

), y =

(7

5

)

erhalten wir

d(x, y) =√(6− 7)2 + (3− 5)2 =

√1 + 4 =

√5 ,

d(x, 0) =√62 + 32 =

√36 + 9 =

√45 = ∥x∥ ,

d(y, 0) =√72 + 52 =

√49 + 25 =

√74 = ∥y∥ .

Die Abschatzungen

8.6 <√74 < 8.7 , 6.7 <

√45 < 6.8 , 2.2 <

√5 < 2.4

lassen sich leicht durch Quadrieren nachrechnen. Es folgt√74−

√45 < 8.7− 6.7 = 2.0 <

√5 .

Damit ergibt sich

| ∥x∥ − ∥y∥ | = |√45−

√74| ≤ d(x, y) =

√5 ≤

√45 +

√74 = ∥x∥+ ∥y∥ .

Die Aussagen des folgenden Satzes 3.23 sind einfache Konsequenzen aus derDefinition (3.18) der euklidischen Metrik und dem Satz 3.10 uber die Eigen-schaften der euklidischen Norm.

44

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 45: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz 3.23. Seien x, y, z ∈ Rn beliebig gegeben. Dann gelten die folgendenAussagen.

(1) d(x, y) ≥ 0.

(2) d(x, y) = 0 ⇐⇒ x = y.

(3) d(x, y) = d(y, x).

(4) d(x, 0) = d(0, x) = ∥x∥.

(5) | ∥x∥ − ∥y∥ | ≤ d(x, y) ≤ ∥x∥+ ∥y∥.

(6) d(x, z) ≤ d(x, y) + d(y, z).

(7) d(x+ z, y + z) = d(x, y).

Dabei ist d : Rn × Rn → R die euklidische Metrik und ∥ . ∥ : Rn → R dieeuklidische Norm.

Beweis. Die Aussagen (1) bis (7) folgen aus der Definition (3.18) und den Ei-genschaften der euklidischen Norm, die in Satz 3.10 ausgesprochen worden sind.Wir arbeiten die Behauptungen der Reihe ab.

Nachweis von (1). Satz 3.10, Aussage (1) liefert

d(x, y) = ∥x− y∥ ≥ 0 .

Nachweis von (2). Satz 3.10, Aussage (2) liefert

d(x, y) = 0 ⇐⇒ ∥x− y∥ = 0

⇐⇒ x− y = 0 ⇐⇒ x = y .

Nachweis von der Symmetrie (3). Satz 3.10, Aussage (4) liefert

d(x, y) = ∥x− y∥ = ∥ − (x− y)∥ = ∥y − x∥ = d(y, x) .

Nachweis von (4). Aus (3) und Satz 3.10, Aussage (4) folgt

d(x, 0) = d(0, x) = ∥0− x∥ = ∥ − x∥ = ∥x∥ .

Nachweis von (5). Die Aussagen (6), (4), (5) des Satzes 3.10 liefern

| ∥x∥ − ∥y∥ | ≤ d(x, y) ≡ ∥x− y∥ ≤ ∥x∥+ ∥y∥ .

Nachweis der Dreiecks-Ungleichung (6). Aus der Dreiecks-Ungleichung furdie euklidische Norm nach Aussage (5) des Satzes 3.10 folgt

d(x, z) = ∥x− z∥ = ∥(x− y) + (y − z)∥

≤ ∥x− y∥+ ∥y − z∥ = d(x, y) + d(y, z) .

Nachweis der Translationsinvarianz (7) der euklidischen Metrik.

d(x+ z, y + z) = ∥(x+ z)− (y + z)∥ = ∥x− y∥ = d(x, y) .

45

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 46: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

4 Erganzung: Hesse-Normalform

Als Anwendung der inneren Produktes behandeln wir die Hesse-Normalform vonHyperebenen. Wir beginnen mit der Erorterung eines Beispieles in der Ebene.

• Gegeben sei die Gerade

g1 ⊆ R2 : 6x1 + 7x2 = 18 .

• Gesucht sind

(1) der euklidische Abstand d(0, g1) des Nullvektors 0 ∈ R2 und

(2) der euklidische Abstand d(P1, g1) des Punktes P1 = (−2,−3)t ∈ R2

von der Geraden g1.

Zur Losung dieser Probleme fuhren wir die Hesse-Normalform ein. Wir ersetzendie gegebene Geradengleichung(

6

7

)·(x1

x2

)= 6x1 + 7x2 = 18 (4.1)

durch eine aquivalente Gleichung der Form

⟨n, x⟩ = δ , ∥n∥ = 1 , δ ≥ 0 . (4.2)

Entsprechend verfahren wir mit der Gleichung

g ⊆ R2 : α1x1 + α2x2 = γ , α21 + α2

2 = 0

einer beliebigen Geraden g ⊆ R2. In den obigen Gleichungen reprasentieren dieSpaltenvektoren x = (x1, x2)

t die Punkte, die auf der betrachteten Geradenliegen. Eine Geradengleichung der Form (4.2) heißt Hesse-Normalform.

Offenbar gilt δ = 0 genau dann, wenn die Gerade g ⊆ R2 durch den Null-vektor 0 ∈ R2 lauft. In diesem Fall ist der Einheitsvektor n ∈ R2 bis auf dasVorzeichen eindeutig bestimmt. Im Fall δ = 0 ist n dagegen eindeutig bestimmt.

Die beiden Bestimmungsstucke n und δ der Hesse-Normalform lassen sichgeometrisch deuten:

n = Normalenrichtung zu g, die vom Nullvektor wegweist , (4.3)

δ = euklidischer Abstand zwischen dem Nullvektor und g . (4.4)

Folglich legen n und δ die Lage der Geraden g in der Ebene R2 fest. Spaterersetzen wir (4.4) durch die allgemeinere Abstandsformel (4.7)

Fur die Geradengleichung der Gerade g1 erhalten wir aus

n =1√

36 + 49

(6

7

)=

1√85

(6

7

), δ =

18√85

= d(0, g1) .

46

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 47: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

die Hesse-Normalform

6√85x1 +

7√85x2 = 18√

85. (4.5)

Es gilt die Einschließung

1.952 < 18√85< 1.953 .

Damit ist Problem (1) gelost. Wir heben ausdrucklich hervor, dass die beidenGleichungen (4.1) und (4.5) aquivalent sind. Dagegen lasst sich die geometri-sche Lage der Geraden g1 in Ebene R2 ohne weitere Rechnung allein an denKoeffizienten der Hesse-Normalform (4.5) ablesen.

Wir wenden uns nun der Begrundung der in (4.3) und (4.4) ausgesprochenengeometrischen Deutung zu. Offenbar gilt

⟨δn, n⟩ = δ⟨n, n⟩ = δ , δn ∈ g .

Die Gerade g kann auch durch eine Gleichung der Form

g : x = tw + δn , ∥w∥ = 1 , t ∈ R

dargestellt werden. Dabei ist der Einheitsvektor w ∈ R2 ein Richtungsvektorund t ∈ R ein reeller Parameter, der die Punkte auf der Geraden g parame-trisiert. Wie wir gesehen haben, ist δn ein Punkt auf der Geraden. Der Punktδn wird durch t = 0 dargestellt. Es ist klar, dass das Paar (w, t) durch dasPaar (−w,−t) ersetzt werden kann. Einsetzen der Parameterdarstellung in dieHesse-Normalform ergibt

(∀t ∈ R) : δ = ⟨n, x⟩ = ⟨n, tw + δn⟩ = t ⟨n,w⟩+ δ

=⇒ (∀t ∈ R) : 0 = t ⟨n,w⟩

=⇒ ⟨n,w⟩ = 0 .

Die Einheitsvektoren n und w sind demnach orthogonal. Folglich schneiden sichdie beiden Geraden g und

h : x = tn , t ∈ R

im Punkte δn ∈ R2 orthogonal. Damit ist die Deutung (4.3) gerechtfertigt.

Weil n normiert ist, gilt

δ = ∥δn∥ = d(δn, 0) = d(0, δn) .

Weil die normierten Vektoren n und w orthogonal sind, gilt nach dem Satz 3.16des Pythagoras

∥x∥2 = ∥tw∥2 + ∥δn∥2 = t2 + δ2 ≥ δ2

fur jeden Parameterwert t ∈ R. Also ist δn unter allen Punkten, die auf derGeraden g liegen, der eindeutig bestimmte Punkt mit dem kleinsten Abstand

47

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 48: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

zum Nullvektor 0 ∈ R2. Der euklidische Abstand zwischen einem beliebigenPunkt P ∈ R2 und der Geraden g ⊆ R2 wird durch die Gleichung

d(P, g) ≡ min{ d(P, x) | x ∈ g } (4.6)

definiert. Nach den obigen Uberlegungen gilt

d(0, g) = min{ d(0, x) | x ∈ g } = d(0, δn) = δ .

Damit ist auch die Deutung (4.4) gerechtfertigt.

Wir wenden uns dem Problem (2) zu. Sei P = (p1, p2)t ∈ R2 irgendein Punkt

der Ebene. Fur alle t ∈ R gilt

∥P − (tw + δn)∥2 = ⟨P − (tw + δn), P − (tw + δn)⟩

= (∥P∥2 − 2δ⟨P, n⟩+ δ2) + (t2 − 2⟨P,w⟩t) .

Wir nehmen die Analysis zu Hilfe. Die Summe in der ersten Klammer auf derrechten Seite der Gleichung hangt nicht von dem reellen Parameter t ab. Diequadratische Funktion

t 7→ t2 − 2⟨P,w⟩t

nimmt bei t = ⟨P,w⟩ das Minimum −⟨P,w⟩2 an. Die Einheitsvektoren n und wsind orthogonal. Also gelten

n =

(n1

n2

), n2

1 + n22 = ∥n∥2 = 1 , w = ±

(n2

−n1

).

Folglich besitzt P die orthogonale Zerlegung

P =⟨(p1p2

),

(n2

−n1

)⟩( n2

−n1

)+⟨(p1p2

),

(n1

n2

)⟩(n1n2

)

= ⟨P,w⟩w + ⟨P, n⟩n .

Damit folgt

(d(P, g))2 = ∥P − (⟨P,w⟩w + δn)∥2

= ∥(P − ⟨P,w⟩w)− δn∥2

= ∥⟨P, n⟩n− δn∥2

= |⟨P, n⟩ − δ|2 · ∥n∥2 = |⟨P, n⟩ − δ|2 .

Der Ubergang zu den positiven Quadratwurzeln liefert

d(P, g) = |⟨n, P ⟩ − δ| . (4.7)

Nach der Abstandsformel (4.7) gehen in die Berechnung des euklidischenAbstandes d(P, g) zwischen P und g aus der Beschreibung der Geraden g nurdie Bestimmungsstucke n und δ der Hesse-Normalform

g ⊆ R2 : ⟨n, x⟩ = δ , ∥n∥ = 1 , δ ≥ 0

ein. Dieser Sachverhalt unterstreicht noch einmal die geometrische Bedeutungder Hesse-Normalform. Im Fall P = 0 liefert (4.7) die fruhere Formel (4.4).

48

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 49: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Abschließend berechnen wir d(P1, g1) fur

P1 =

(−2

−3

), g1 : 6√

85x1 +

7√85x2 = 18√

85.

Die Abstandsformel (4.7) liefert

d(P1, g1) = |⟨n, P1⟩ − δ| = |(− 12√85

− 21√85)− 18√

85| = 51√

85.

Es gilt die Einschließung

5.531 < 51√85< 5.532 .

Damit sind die Ausfuhrungen zum Beispiel beendet.

Die Uberlegungen zur Hesse-Normalform lassen sich auf Hyperebenen desRm verallgemeinern.

Definition 4.1.

(1) Eine Teilmenge H ⊆ Rm heißt Hyperebene des Rm, wenn es einen Spalten-vektor w ∈ Rm \ {0} und ein γ ∈ R derart gibt, dass

H = {x ∈ Rm : ⟨w, x⟩ = γ}

gilt. Wir schreiben dann auch

H ⊆ Rm : ⟨w, x⟩ = γ , x ∈ Rm .

Wenn keine Verwechslungen zu befurchten sind, schreiben wir einfach

⟨w, x⟩ = γ .

(2) Fur jedes λ ∈ R \ {0} beschreibt das Paar (λw, λγ) dieselbe Hyperebene Hwie das Paar (w, γ). Daher kann ohne Einschrankung w als Einheitsvektorund γ ≥ 0 gewahlt werden. Siehe Satz 4.2.

(3) Eine Darstellung der Form

H ⊆ Rm : ⟨n, x⟩ = δ , x ∈ Rm ,

wobei n ∈ Rm ein Spaltenvektor mit ∥n∥ = 1 ist und δ ≥ 0 gilt, heißt eineHesse-Normalform von H. Wegen der Symmetrie des inneren Produktesschreiben wir ⟨x, n⟩ = δ an Stelle von ⟨n, x⟩ = δ.

Im Fall δ = 0 ist die Hesse-Normalform eindeutig durch die Hyperebene Hbestimmt. Im Fall δ = 0 wirdH durch die beiden Hesse-Normalformen ⟨n, x⟩ = 0und ⟨−n, x⟩ = 0 mit ∥n∥ = 1 beschrieben.

Satz 4.2. Zwei Gleichungen

⟨wi, x⟩ = γi

mit wi ∈ Rm \ {0} und γi ∈ R fur i = 1, 2 beschreiben genau dann dieselbeHyperebene H ⊆ Rm, wenn es ein λ ∈ R \ {0} mit

λw1 = w2 , λγ1 = γ2

gibt.

49

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 50: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beweis. Nach Multiplikation mit geeigneten von Null verschiedenen reellen Zah-len konnen wir es so einrichten, dass die Bedingungen ∥w1∥ = ∥w2∥ = 1 undγ1 ≥ 0 und γ2 ≥ 0 erfullt sind.

Fall A. Wir nehmen an, dass 0 /∈ H gilt. Dann gilt

γi > 0 , 0 = γiwi ∈ H

fur i = 1, 2. Folglich sind die Gleichungen

⟨γ2w2, w1⟩ = γ1 , ⟨γ1w1, w2⟩ = γ2

erfullt. Addition liefert unter Beachtung der Symmetrie des inneren Produktes

(γ1 + γ2)⟨w1, w2⟩ = γ1 + γ2 = 0 .

Auflosen nach ⟨w1, w2⟩ ergibt

⟨w1, w2⟩ = 1 , cos(w1, w2) =⟨w1, w2⟩∥w1∥ ∥w2∥

= 1 .

Aus dem Cosinussatz folgt

∥w1 − w2∥2 = ∥w1∥2 + ∥w2∥2 − 2 ∥w1∥ ∥w2∥ cos(w1, w2) = 1 + 1− 2 = 0 .

Aus der positiven Definitheit der euklidischen Norm folgt w1 = w2. Wegen

⟨γ2w2, w1⟩ = γ1

gilt daher γ1 = γ2. In Fall A gilt also λ = 1.

Fall B. Wir nehmen an, dass 0 ∈ H gilt. Wir zeigen, dass

H ′ = w1 +H = {y ∈ Rm : ((∃x ∈ H) : y = w1 + x)}

eine Hyperebene mit 0 /∈ H ′ und den aquivalenten darstellenden Gleichungen

⟨y, w1⟩ = 1 , ⟨y, w2⟩ = ⟨w1, w2⟩ , y ∈ Rm

ist.Weil dann außerdem ⟨w1, w2⟩2 = 1 gilt, ergibt sich nach Fall A, dass w1 = w2

oder w1 = −w2 gilt.

Erster Schritt: H ′ wird durch ⟨y, w1⟩ = 1 beschrieben. Sei y ∈ H ′. Dann gibtes x ∈ H mit y = w1 + x. Folglich gilt

⟨y, w1⟩ = ⟨w1 + x,w1⟩ = ⟨w1, w1⟩+ ⟨x,w1⟩ = 1 + 0 = 1 .

Es gelte umgekehrt ⟨y, w1⟩ = 1. Dann gibt es eine orthogonale Zerlegung

y = ⟨y, w1⟩w1 + x = w1 + x , ⟨x,w1⟩ = 0 .

Das Bestehen der Gleichung ⟨x,w1⟩ = 0 bedeutet, dass x in H liegt. Folglichgehort y = w1 + x zu H ′.

50

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 51: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Zweiter Schritt: H ′ wird durch ⟨y, w2⟩ = ⟨w1, w2⟩ beschrieben. Sei y ∈ H ′.Dann gibt es x ∈ H mit y = w1 + x. Folglich gilt

⟨y, w2⟩ = ⟨w1 + x,w2⟩ = ⟨w1, w2⟩+ ⟨x,w2⟩ = ⟨w1, w2⟩+ 0 = ⟨w1, w2⟩ .

Wir zeigen, dass fur alle y ∈ Rm mit ⟨y, w2⟩ = ⟨w1, w2⟩ die Gleichung

⟨y, w1⟩ = ⟨w1, w2⟩2

erfullt ist. Speziell fur y = w1 ergibt sich

⟨w1, w2⟩2 = 1 .

Nach dem ersten Schritt liegen alle y ∈ Rn mit ⟨y, w2⟩ = ⟨w1, w2⟩ in der Hyper-ebene H ′.

Sei y ∈ Rm mit ⟨y, w2⟩ = ⟨w1, w2⟩ beliebig gegeben. Es gibt eine orthogonaleZerlegung

y = ⟨y, w2⟩w2 + x = ⟨w1, w2⟩w2 + x , ⟨x,w2⟩ = 0 .

Wegen ⟨x,w2⟩ = 0 folgt x ∈ H und damit ⟨x,w1⟩ = 0. Innere Multiplikationmit w1 ergibt

⟨y, w1⟩ = ⟨w1, w2⟩⟨w2, w1⟩+ ⟨x,w1⟩ = ⟨w1, w2⟩2 .

Speziell fur y = w1 ergibt sich

⟨w1, w2⟩2 = 1 .

Damit erhalten wir

⟨y, w1⟩ = ⟨w1, w2⟩2 = 1 .

Nach dem ersten Schritt liegt y in H ′.

Dritter Schritt. Die Gleichung ⟨y, w1⟩ = 1 ist eine Hesse-Normalform derHyperebene H ′. Sei

ϵ = sgn⟨w1, w2⟩ .

Dann ist ⟨y, ϵw2⟩ = 1 ebenfalls eine Hesse-Normalform von H ′. Nach Konstruk-tion gilt 0 /∈ H ′. Nach Schritt A gilt w1 = ϵw2. Im Fall B gilt demnach λ = ±1.Der Beweis des Satzes ist damit beendet.

Satz und Definition 4.3. Sei H ⊆ Rm eine Hyperebene und

⟨n, x⟩ = δ

eine Hesse-Normalform von H.

(1) Sei ξ ∈ H beliebig gewahlt. Dann besteht H aus allen z ∈ Rm der Form

z = ξ + y , ⟨n, y⟩ = 0 , y ∈ Rm .

51

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 52: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(2) Fur alle ξ1, ξ2 ∈ H sind die Vektoren ξ1 − ξ2 und n orthogonal.

(3) Ein Vektor y ∈ Rm heißt orthogonal zu H, wenn y und n linear abhangigsind.

(4) Sei y ∈ Rm gegeben. Dann enthalt die Menge

{λ ∈ R | (∃x ∈ H) : d(y, x) = λ}

ein minimales Element d(y,H). Offenbar gilt d(y,H) ≥ 0.

(5) Sei y ∈ Rm gegeben. Dann heißt das Minimum

d(y,H) = min{λ ∈ R | (∃x ∈ H) : d(y, x) = λ}

der euklidische Abstand von y und H.

(6) Es gilt die Abstandsformel

d(y,H) = |⟨n, y⟩ − δ| .

Insbesondere fur y = 0 ergibt sich

d(0,H) = δ .

(7) Fur y ∈ Rm gilt y ∈ H genau dann, wenn d(y,H) = 0 erfullt ist.

(8) Sei y ∈ Rm beliebig gegeben. Dann gilt

yH = y − (⟨n, y⟩ − δ)n ∈ H .

Der Vektor yH ist der einzige Vektor ξ ∈ H mit

d(y, ξ) = d(y,H) .

(9) Fur y ∈ Rm gilt yH = y genau dann, wenn y ∈ H gilt.

(10) Sei y ∈ Rm gegeben. Dann heißt der Vektor yH ∈ H der Fußpunkt desLotes von y auf H.

Satz 4.4. Seien a1, . . . , ak ∈ Rm mit k ≥ m beliebig gegeben. Es gibt genau danneine eindeutig bestimmte Hyperebene H ⊆ Rm mit aκ ∈ H fur κ = 1, . . . , k,wenn eine der beiden folgenden Alternativen erfullt ist.

(1) Es gibt einen Einheitsvektor n ∈ Rm derart, dass w = n und w = −n dieeinzigen normierten Losungen von

⟨w, aκ⟩ = 0 , κ = 1, . . . , k .

sind. In diesem Fall gilt 0 ∈ H und die beiden aquivalenten Gleichungen

⟨n, x⟩ = 0 , ⟨−n, x⟩ = 0 , x ∈ Rm

sind die Hesse-Normalformen von H.

52

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 53: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(2) Es gibt einen eindeutig bestimmten Spaltenvektor w ∈ Rm \ {0} mit

⟨w, aκ⟩ = 1 , κ = 1, . . . , k .

In diesem Fall gilt 0 /∈ H und⟨w

∥w∥, x

⟩=

1

∥w∥, x ∈ Rm

ist die einzige Hesse-Normalform von H.

Definition 4.5. Sei H ⊆ Rm eine Hyperebene. Sei ⟨x, n⟩ = δ eine Hesse-Normalform von H. Die Teilmengen

H+n,δ = {x ∈ Rm : ⟨n, x⟩ > δ} , H−

n,δ = {x ∈ Rm : ⟨n, x⟩ < δ}

von Rm \H heißen die zu H assozierten offenen Halbraume. Es gilt

H+n,δ ∪H

−n,δ = Rm \H , H+

n,δ ∩H−n,δ = ∅ .

Wir sagen, dass y, z ∈ Rm \ H durch H getrennt werden, wenn y und z inverschiedenen zu H assozierten offenen Halbraumen enthalten sind.

Beispiel 4.6. Gegeben seien im R4 die vier Punkte

A =

1

0

−1

0

, B =

2

4

3

1

, C =

1

−2

−3

0

, D =

0

3

−2

−3

sowie die beiden Punkte

P =

1

2

1

1

, Q =

2

1

1

1

.

(1) Wir zeigen zuerst, dass es genau eine Hyperebene H ⊆ R4 gibt, die dievier Punkte A, B, C und D enthalt.

Nach Satz 4.4 ist das lineare Gleichungssystem1 0 −1 0

2 4 3 1

1 −2 −3 0

0 3 −2 −3

w1

w2

w3

w4

=

γ

γ

γ

γ

zu untersuchen. Wir wenden das Verfahren von Gauß-Jordan an.

53

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 54: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

1 0 −1 0 γ

2 4 3 1 γ

1 −2 −3 0 γ

0 3 −2 −3 γ

1 0 −1 0 γ Z1

0 4 5 1 −γ Z2 − 2Z1

0 −2 −2 0 0 Z3 − Z1

0 3 −2 −3 γ Z4

1 0 −1 0 γ Z1

0 1 54

14 − 1

4γ14Z2

0 0 12

12 − 1

2γ Z3 +12Z2

0 0 −234 − 15

474γ Z4 − 3

4Z2

1 0 0 1 0 Z1 + 2Z3

0 1 0 −1 γ Z2 − 52Z3

0 0 1 1 −γ 2Z3

0 0 0 2 −4γ Z4 +232 Z3

1 0 0 0 2γ Z1 − 12Z4

0 1 0 0 −γ Z2 +12Z4

0 0 1 0 γ Z3 − 12Z4

0 0 0 1 −2γ 12Z4

Wir erhalten das aquivalente Gleichungssystem1 0 0 0

0 1 0 0

0 0 1 0

0 0 0 1

w1

w2

w3

w4

=

−γγ

−2γ

. (4.8)

Es gelten die folgenden beiden Aussagen (i) und (ii).

(i) Fur γ = 0 besitzt (4.8) nur die triviale Losung w = 0 ∈ R4.

(ii) Fur γ = 1 besitzt (4.8) nur die nicht-triviale Losung

w =

2

−1

1

−2

.

54

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 55: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Also ist die Alternative (2) aus Satz 4.4 erfullt. Daher gibt es eine einzige Hyper-ebene H ⊆ R4 mit A, B, C, D ∈ H. Es gilt 0 /∈ H.

(2) Das Gleichungssystem (4.8) besitzt fur γ = 1 die eindeutig bestimmtenicht-triviale Losung w = (2,−1, 1,−2)t. Daher wird H durch die Gleichung

2x1 − x2 + x3 − 2x4 = 1

beschrieben. Normieren ergibt die Hesse-Normalform

2√10x1 −

1√10x2 +

1√10x3 −

2√10x4 =

1√10

fur die Hyperebene H. Wir setzen

n =w

∥w∥=

1√10

2

−1

1

−2

, δ =1√10.

(3) Wir berechnen nach Satz 4.3 die Abstande der Punkte 0 und P von H.

d(0,H) = δ =1√10,

d(P,H) = |⟨P, n⟩ − δ| =∣∣∣∣− 1√

10− 1√

10

∣∣∣∣ = 2√10.

(4) Sei g ⊆ R4 die Gerade durch den Punkt P , die die Hyperebene H ortho-gonal schneidet. Wir berechnen den Schnittpunkt PH ∈ R4 von g und H.

Die Gerade g besteht aus allen x ∈ R4 mit x = P + tn, wobei t ∈ R einParameter ist. Einsetzen in die Hesse-Normalform ⟨x, n⟩ = δ und Auflosen nacht ergibt t = δ − ⟨P, n⟩. Daher folgt

PH = P + (δ − ⟨P, n⟩)n =1

5

7

9

6

3

.

(5) Zum Abschluss untersuchen wir, welche der drei Punkte 0, P , Q ∈ R4

durch die Hyperebene H voneinander getrennt werden.

Es gelten

⟨0, n⟩ = 0 < δ , ⟨P, n⟩ = − 1√10

< δ , ⟨Q,n⟩ = 2√10

> δ .

Also liegen 0 und P im Halbraum ⟨x, n⟩ < δ. Dagegen liegt Q im Halbraum⟨x, n⟩ > δ. Daher trennt H den Punkt Q von den Punkten 0 und P . Die beidenPunkte 0 und P werden durch H nicht getrennt.

55

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 56: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

5 Matrizen. Die allgemeine lineare Gruppe

In diesem Abschnitt definieren wir die Multiplikation eines Skalars mit einerMatrix sowie die Addition und die Multiplikation zweier Matrizen. Die genann-ten Rechenoperationen werden auf die algebraischen Rechenoperationen reellerZahlen zuruckgefuhrt. Außerdem definieren wir die Transposition von Matrizen.Beim Rechnen mit Matrizen treten neue Phanomene auf.

(1) Die Matrixmultiplikation erfullt das Kommutativgesetz nicht: Es gibt Ma-trizen A und B mit AB = BA.

(2) Es gibt Nullteiler: Es gibt Matrizen A = 0 und B = 0 mit AB = 0.

(3) Es gibt nilpotente Matrizen: Es gibt Matrizen A = 0 und n ∈ N mitAn = 0.

Diese Phanomene treten bereits beim Rechnen mit (2 × 2)-Matrizen auf (ver-gleiche Beispiel 5.15) und mussen bei der Konstruktion von Normalformen furMatrizen berucksichtigt werden. Wie bereits mehrfach gesagt, sind die Rechen-operationen fur Matrizen und Spaltenvektoren derart definiert worden, dass siedas Rechnen mit linearen Gleichungssystemen wiedergeben und uberschaubargestalten. Insbesondere lassen sich die elementaren Spalten- und Zeilenumfor-mungen durch die Multiplikation mit Matrizen beschreiben.

Mit Rn×m bezeichnen wir die Menge der reellen (n × m)-Matrizen. JedeMatrix A ∈ Rn×m besteht aus nm Eintragen aνµ ∈ R mit ν = 1, . . . , n und µ =1, . . . ,m. Die Eintrage aνµ werden in einem Rechtecksschema aus n Zeilen undm Spalten angeordnet, wobei der erste Index ν der Zeilenindex und der zweiteIndex µ der Spaltenindex ist. Der Lesbarkeit halber wird das Rechtecksschemader Eintrage aνµ in Klammern eingeschlossen.

A = (aνµ) = (aνµ) ν=1,...,nµ=1,...,m

=

a11 a12 . . . a1m

a21 a22 . . . a2m...

......

an1 an2 . . . anm

.

Der Eintrag aνµ heißt auch Eintrag von A an der Position νµ. Manchmal ver-wenden wir im Zusammenhang mit Matrizen an Stelle des Ausdruckes Eintragden Ausdruck Matrixeintrag.

Die Matrix A wird auch als Zusammenstellung ihrer m Spaltenvektoren sµrespektive ihrer n Zeilenvektoren zν mit

sµ =

a1µ...

anµ

∈ Rn , µ = 1, . . .m ,

zν = (aν1, . . . , aνm) ∈ (Rm)t , ztν =

aν1

. . .

aνm

∈ Rm , ν = 1, . . . , n

56

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 57: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

aufgefasst. Dementsprechend schreiben wir

A = (s1, . . . , sm) =

z1...

zn

∈ Rn×m . (5.1)

Wir identifizieren n-komponentigen Spaltenvektoren mit (n × 1)-Matrizen undm-komponentigen Zeilenvektoren mit (1×m)-Matrizen. Schließlich identifizierenwir die reellen (1 × 1)-Matrizen mit den reellen Zahlen. Um die Identifikationstrukturierter Mengen von der Gleichheit zu unterscheiden, verwenden wir dasZeichen ∼= und schreiben

Rn×1 ∼= Rn , R1×m ∼= (Rm)t ∼= Rm , R1×1 ∼= R1 ∼= (R1)t ∼= R . (5.2)

Die in (5.2) auftretenden Mengen tragen eine Vektorraumstruktur. Wir werdenspater sehen, dass die durch die Beziehungen (5.2) miteinander identifiziertenstrukturierten Mengen als reelle Vektorraume isomorph sind. Isomorphe Vek-torraume werden als strukturgleiche mathematische Objekte identifiziert. DieIsomorphie ist ein abgeschwachter Gleichheitsbegriff.

Zwei Matrizen A = (aνµ) und B = (bνµ) aus der Menge Rn×m sind nachDefinition genau dann gleich, wenn aνµ = bνµ fur alle ν = 1, . . . , n und alleµ = 1, . . . ,m gilt. In Zeichen:

(∀A,B ∈ Rn×m) :

A = B ⇐⇒ (∀ν = 1, . . . n)(∀µ = 1, . . .m) : aνµ = bνµ .(5.3)

Eine (n × m)-Matrix, deren samtliche Eintrage verschwinden, heißt Null-matrix und wird mit 0n×m oder 0 bezeichnet. Die Mengen Rn×m sind nicht leer,denn sie enthalten die entsprechende Nullmatrix:

(∀n,m ∈ N) : 0 ≡ 0n×m ∈ Rn×m . (5.4)

Eine (n×m)-Matrix A mit n = m heißt quadratische Matrix. Ein wichtigesBeispiel ist die Einheitsmatrix E. Zur ihrer bequemen Beschreibung dient dasKronecker-Symbol. Fur ν, µ = 1, . . . , n wird das Kronecker-Symbol δνµ durch

δνµ =

{1 , ν = µ ,

0 , ν = µ(5.5)

definiert. Die Einheitsmatrix E ∈ Rn×n besitzt auf der Hauptdiagonalen lau-ter Eintrage gleich 1, wahrend alle anderen Eintrage verschwinden. Mit demKronecker-Symbol lasst sich die Definition der Einheitsmatrix in der Form

E = (δνµ)ν=1,...,nµ=1,...,n

=

1 0 . . . 0

0 1 . . . 0...

......

0 0 . . . 1

∈ Rn×n (5.6)

57

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 58: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

ausdrucken. Die Spalten von E ∈ Rn×n sind die kanonischen Basisvektoren

eµ = (δνµ) = (δνµ)ν=1,...,n ∈ Rn , µ = 1, . . . , n . (5.7)

Ausgeschrieben bedeutet dies

e1 =

1

0...

0

, e2 =

0

1...

0

, . . . , en =

0

0...

1

. (5.8)

Damit erhalten wir

E = (e1, e2, . . . , en) =

1 0 . . . 0

0 1 . . . 0...

......

0 0 . . . 1

∈ Rn×n . (5.9)

Um Verwechslungen mit den kanonischen Basisvektoren anderer Spaltenraumezu vermeiden, schreiben wir fur die kanonischen Basisvektoren des Rn etwasumstandlich

e(n)1 , . . . , e(n)n .

Entsprechend schreiben wir

En = (e(n)1 , . . . , e(n)n )

fur die Einheitsmatrix im Matrixraum Rn×n und

δ(n)νµ =

{1 , ν = µ ,

0 , ν = µ

fur das Kronecker-Symbol, das die Eintrage von En beschreibt. Vergleiche etwaSatz 5.8 uber die Matrixeintrage. Der folgende Satz 5.1 ergibt sich direkt ausden Definitionen.

Satz 5.1. Seien e1, . . . , en ∈ Rn die kanonischen Basisvektoren. Sei ⟨. , .⟩ daseuklidische innere Produkt und ∥ . ∥ die euklidische Norm des Rn. Dann geltendie folgenden Aussagen.

(1) Fur alle i, j = 1, . . . , n gilt ⟨ei, ej⟩ = δij.

(2) Fur alle i = 1, . . . , n gilt ∥ei∥ = 1.

(3) Die Menge {e1, . . . , en} ist linear unabhangig.

(4) Fur jeden Spaltenvektor x = (xi)i=1,...,n ∈ Rn gilt

x =

x1

x2

x3...

xn

= x1

1

0

0...

0

+ x2

0

1

0...

0

+ . . .+ xn

0

0

0...

1

=

n∑i=1

xiei .

58

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 59: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(5) Jeder Spaltenvektor x ∈ Rn besitzt eine eindeutig bestimmte Darstellungder Form

x =n∑i=1

αiei , αi ∈ R .

Dabei sind die eindeutig bestimmten Entwicklungskoeffizienten αi durch

αi = ⟨x, ei⟩ , i = 1, . . . , n

gegeben. Wenn x1, . . . , xn die Komponenten des Spaltenvektors x sind,dann gilt xi = αi fur jeden Index i = 1, . . . , n.

Vermittels der Transposition werden Spalten- in Zeilenvektoren und umge-kehrt Zeilen- in Spaltenvektoren uberfuhrt. Wenn wir diese Operationen aufdie Spalten respektive Zeilen einer (n×m)-Matrix A anwenden, ergibt sich eine(m×n)-Matrix, die mit At bezeichnet wird. Die Transposition ist die Abbildungt : Rn×m → Rm×n mit

a11 a12 . . . a1m

a21 a22 . . . a2m...

......

an1 an2 . . . anm

t

=

a11 a21 . . . an1

a12 a22 . . . an2...

......

a1m a2m . . . anm

. (5.10)

Die Transposition macht aus dem ν-ten Zeilenindex von A den ν-ten Spaltenin-dex von At und aus dem µ-ten Spaltenindex von At den µ-ten Zeilenindex vonAt. In Zeichen:

t : Rn×m → Rm×n ,

A = (aνµ) ν=1,...,nµ=1,...,m

7→ At = (aµν)µ=1,...,mν=1,...,n

, aµν = aνµ .(5.11)

Fur die Matrixeintrage bedeutet dies mit anderen Worten

Eintrag von At an der Position µν

= Eintrag von A an der Position νµ .(5.12)

Mit den Bezeichnungen aus (5.1) lasst sich die Wirkung der Transposition auchin der Form

A = (s1, . . . , sm) =

z1...

zn

7→ At =

st1...

stm

= (zt1, . . . , ztn) (5.13)

schreiben. Offenbar gilt

Att ≡ (At)t = A (5.14)

fur alle Matrizen A ∈ Rn×m.

59

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 60: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 5.2.

E =

1 0 . . . 0

0 1 . . . 0...

......

0 0 . . . 1

, Et =

1 0 . . . 0

0 1 . . . 0...

......

0 0 . . . 1

= E .

A =

1 −2 0

−2 10 3

0 3 −49

= At .

B =

(1 −2

2 3

), Bt =

(1 2

−2 3

)= B .

C =

(1 2 3 4

5 6 7 8

), Ct =

1 5

2 6

3 7

4 8

.

Seien nun α ∈ R und A = (aνµ) ∈ Rn×m beliebig gegeben. Dann wird dieMatrix αA = α ·A ∈ Rn×m durch

αA = α ·A = (αaνµ) ν=1,...,nµ=1,...,m

=

αa11 αa12 . . . αa1m

αa21 αa22 . . . αa2m...

......

αan1 αan2 . . . αanm

(5.15)

definiert. Insbesondere ergeben sich fur die Skalare α = 0 und α = 1 die Bezie-hungen

0 ·A = 0n×m ∈ Rn×m , 1 ·A = A ∈ Rn×m . (5.16)

Beispiel 5.3.

αE = α

1 0 . . . 0

0 1 . . . 0...

......

0 0 . . . 1

=

α 0 . . . 0

0 α . . . 0...

......

0 0 . . . α

.

α

(1 −2 3

0 6 −8

)=

(α −2α 3α

0 6α −8α

).

60

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 61: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(−7) ·

(1 −2 3

0 6 −8

)=

(−7 14 −21

0 −42 56

).

Nach Definition wird eine Matrix A = (aνµ) ∈ Rn×m von links mit einemSkalar α ∈ R multipliziert, indem jeder Eintrag aνµ der Matrix A mit α multi-pliziert wird:

αaνµ = Eintrag von αA an der Position νµ . (5.17)

Wir erinnern an die entsprechende Bemerkungen zu Definition (2.1) und hebenausdrucklich hervor, dass ein Produkt Aα nicht definiert worden ist.

Die (n ×m)-Matrix A = (aνµ) ∈ Rn×m und der Spaltenvektor x = (xµ) ∈Rm seien beliebig gegeben. Dann seien die Komponenten yν des Spaltenvektorsy = (yν) ∈ Rn durch die Gleichungen

yν ≡m∑µ=1

aνµxµ , ν = 1, . . . , n (5.18)

definiert. Wir setzen

Ax ≡ y ∈ Rn . (5.19)

Der Spaltenvektor Ax heißt Bild des Spaltenvektors x unter der Anwendung derMatrix A oder einfach Bild von x unter A. Außerdem bezeichnen wir Ax alsProdukt der Matrix A mit dem Spaltenvektor x.

Beispiele 5.4.1 0 −3

−1 4 8

0 1 0

2 2 2

2

−1

−1

=

2− 0 + 3

−2− 4− 8

0− 1− 0

4− 2− 2

=

5

−14

−1

0

.

1 0 −3

−1 4 8

0 1 0

2 2 2

0

0

1

=

−3

8

0

2

.

1 −1 0 2

0 4 1 2

−3 8 0 2

4

−3

2

−1

=

4 + 3 + 0− 2

0− 12 + 2− 2

−12− 24 + 0− 2

=

5

−12

−38

.

61

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 62: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

1 −1 0 2

0 4 1 2

−3 8 0 2

0

1

0

0

=

−1

4

8

.

5

−14

−1

0

·

4

−3

2

−1

= 20 + 42− 2− 0 = 60 .

2

−1

−1

·

5

−12

−38

= 10 + 12 + 38 = 60 .

Matrizen konnen auf verschiedene Weisen konstruiert werden. Eine wichtigeKonstruktion ist das Kronecker-Produkt. Aus einem Spaltenvektor a ∈ Rn undeinem Spaltenvektor b ∈ Rm wird eine (n ×m)-Matrix a ⊗ b konstruiert. Einetypische Anwendung ist die folgende. Sei v ∈ Rn ein Einheitsvektor. Dann wirddie orthogonale Projektion des Rn auf die Gerade Rv durch die Projektions-matrix v⊗v beschrieben. Ein erstes Beispiel wird in 5.7 behandelt. Fur eine sys-tematische Anwendung des Kronecker-Produktes siehe die Ausfuhrungen zumSpektralsatz in Abschnitt 16. Der Spektralsatz wird in der Quanteninformatikverwendet.

Satz und Definition 5.5 (Kronecker-Produkt). Seien n, m ∈ N. Seien a =(aν)ν=1,...,n ∈ Rn und b = (bµ)µ=1,...,m ∈ Rm beliebig gegeben.

(1) Die Matrix

a⊗ b = (tνµ) ν=1,...,nµ=1,...,m

∈ Rn×m , tνµ = aνbµ

heißt das Kronecker-Produkt oder das Tensorprodukt von a und b.

(2) Fur alle x ∈ Rm gilt

(a⊗ b)x = ⟨x, b⟩a ∈ Rn .

Dabei ist ⟨ . , . ⟩ das euklidische innere Produkt des Rm.

Beweis. Mit Satz 5.1 erhalten wir

(a⊗ b)x =

n∑ν=1

(m∑µ=1

tνµxµ

)e(n)ν

62

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 63: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

=n∑ν=1

(m∑µ=1

aνbµxµ

)e(n)ν

=

(m∑µ=1

bµxµ

)(n∑ν=1

aνe(n)ν

)

= ⟨x, b⟩a ∈ Rn .

Damit ist Aussage (2) bewiesen.

Beispiele 5.6.1

2

3

5

6

7

=

1 · 5 1 · 6 1 · 72 · 5 2 · 6 2 · 73 · 5 3 · 6 3 · 7

=

5 6 7

10 12 14

15 18 21

∈ R3×3 .

1

2

3

4

5

6

7

=

1 · 4 1 · 5 1 · 6 1 · 72 · 4 2 · 5 2 · 6 2 · 73 · 4 3 · 5 3 · 6 3 · 7

=

4 5 6 7

8 10 12 14

12 15 18 21

∈ R3×4 .

Beispiel 5.7 (Projektionsmatrizen). Wir betrachten nocheinmal die beidenSpaltenvektoren

a =

4

−5

3

, b =

2

1

−2

aus Beispiel 3.18. Die lineare Abbildung, die jedem Spaltenvektor x ∈ R3 seinenFußpunkt

⟨x, b⟩⟨b, b⟩

b

auf der Geraden R3b zuordnet, lasst sich durch eine Matrix P ∈ R3×3 beschrei-ben. Mit 5.5 erhalten wir

Px =⟨x, b⟩⟨b, b⟩

b =b⊗ b

⟨b, b⟩x =

b1b1∥b∥2

b1b2∥b∥2

b1b3∥b∥2

b2b1∥b∥2

b2b2∥b∥2

b2b3∥b∥2

b3b1∥b∥2

b3b2∥b∥2

b3b3∥b∥2

x1x2x3

.

63

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 64: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Im vorliegenden Fall gilt

P =1

2

1

−2

2

1

−2

=

1

9

4 2 −4

2 1 −2

−4 −2 4

=

49

29 −4

9

29

19 −2

9

− 49 −2

949

.

Insbesondere gilt

Pa =1

9

4 2 −4

2 1 −2

−4 −2 4

4

−5

3

= −1

3

2

1

−2

.

Es gelten P = P t und P 2 = P . Reelle Matrizen mit diesen beiden Eigenschaftenheißen Projektionsmatrizen. �

Der folgende Satz bringt noch einmal zu Ausdruck, dass Matrizen durch ihreEintrage respektive durch ihre Spalten charakterisiert sind.

Satz 5.8. Sei ⟨ . , . ⟩ das euklidische innere Produkt des Rn. Es seien e(n)1 , . . . ,

e(n)n die kanonischen Basisvektoren von Rn und e

(m)1 , . . . , e

(m)m die kanonischen

Basisvektoren von Rm. Es sei A = (aνµ) ∈ Rn×m eine beliebige Matrix. DieSpaltenvektoren a1, . . . , am ∈ Rn seien die Spalten der Matrix A. Dann geltendie folgenden Aussagen.

(1) (∀µ = 1, . . . ,m) : aµ = Ae(m)µ ∈ Rn.

(2) (∀ν = 1, . . . , n)(∀µ = 1, . . . ,m) : aνµ = ⟨e(n)ν , Ae(m)µ ⟩.

Beweis. Nachweis von (1). Wir haben fur jedes µ = 1, . . . ,m und jedes ν =1, . . . , n zu zeigen, dass die ν-te Komponente von aµ mit der ν-ten Komponentevon Aeµ ubereinstimmt. Nach Definition gilt

aµ = (aνµ)ν=1,...,n , eµ = (δκµ)κ=1,...,m

fur µ = 1, . . . ,m. Aus (5.18) und der Definition (5.5) des Kronecker-Symbolsfolgt

ν-te Komponente von Aeµ

=m∑κ=1

aνκδκµ = aνµ = ν-te Komponente von aµ .

Damit ist Aussage (1) bewiesen.

Nachweis von (2). Aus Aussage (5) des Satzes 5.1 und der soeben bewiesenenAussage (1) folgt

aνµ = ν-te Komponente von aµ

= ⟨aµ, e(n)ν ⟩ = ⟨e(n)ν , aµ⟩ = ⟨e(n)ν , Ae(m)µ ⟩ .

Damit ist auch Aussage (2) bewiesen. Der Beweis ist damit beendet.

64

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 65: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Reelle (n×m)-Matrizen definieren lineare Abbildungen des Rm in den Rn.Spater werden wir sehen, dass alle lineare Abbildungen zwischen Vektorraumenendlicher Dimension durch Matrizen beschrieben werden konnen.

Satz 5.9. Sei A ∈ Rn×m beliebig gegeben. Dann definiert

φ(x) = Ax , x ∈ Rm (5.20)

eine lineare Abbildung φ : Rm → Rn. Die Spalten aµ und die Matrixeintrageaνµ der Matrix A lassen sich aus der Abbildung φ rekonstruieren.

(1) (∀µ = 1, . . . ,m) : aµ = φ(e(m)µ ) ∈ Rn.

(2) (∀ν = 1, . . . , n)(∀µ = 1, . . . ,m) : aνµ = ⟨e(n)ν , φ(e(m)µ )⟩.

Die Aussagen (1) und (2) sind lediglich Umformulierungen der entsprechendenAussagen des Satzes 5.8.

Beweis. Zum Nachweis der Linearitat von φ haben wir zu zeigen, dass

(∀α, β ∈ R)(∀x, y ∈ Rm) : A(αx+ βy) = α(Ax) + β(Ay) (5.21)

gilt. Wir rechnen dies komponentenweise nach. Es gilt

m∑µ=1

aνµ(αxµ + βyµ) =

m∑µ=1

α(aνµxµ) +

m∑µ=1

β(aνµyµ)

= α

(m∑µ=1

aνµxµ

)+ β

(m∑µ=1

aνµyµ

).

Nach den Definitionen (5.18) und (5.19) ist die Linearitatsbedingung (5.21)damit komponentenweise nachgerechnet. Die Aussagen (1) und (2) sind Umfor-mulierungen der entsprechenden Aussagen des Satzes 5.8.

Aus den Satzen 5.8 und 5.9 folgt eine koordinatenfreie Charakterisierung dertransponierten Matrix einer (n×m)-Matrix mit Hilfe des euklidischen innerenProduktes.

Satz 5.10. Sei A ∈ Rn×m beliebig gegeben. Dann ist At die einzige MatrixB ∈ Rm×n, die die Bedingung

(∀x ∈ Rm)(∀y ∈ Rn) : ⟨Ax, y⟩ = ⟨x,By⟩ (5.22)

erfullt. Auf der linken Seite der Gleichung (5.22) ist ⟨ . , . ⟩ das euklidische in-nere Produkt des Rn. Auf der rechten Seite der Gleichung (5.22) ist ⟨ . , . ⟩ daseuklidische innere Produkt des Rm.

65

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 66: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beweis. Wir nehmen an, dass die Bedingung (5.22) erfullt ist. Einsetzen der

kanonischen Basisvektoren e(n)ν fur y ∈ Rn respektive e

(m)µ fur x ∈ Rm in Formel

(2) des Satzes 5.8 liefert

bµν = ⟨e(m)µ , Be(n)ν ⟩ = ⟨Ae(m)

µ , e(n)ν ⟩ = ⟨e(n)ν , Ae(m)µ ⟩ = aνµ

fur alle ν = 1, . . . , n und alle µ = 1, . . . ,m. Folglich ist B = At.

Wir nehmen umgekehrt an, dass B = At gilt. Nach Definition gilt dannbµν = aνµ fur alle ν = 1, . . . , n und alle µ = 1, . . . ,m. Mit Aussage (2) desSatzes 5.8 folgt

⟨e(m)µ , Be(n)ν ⟩ = bµν = aνµ = ⟨e(n)ν , Ae(m)

µ ⟩

fur alle ν = 1, . . . , n und alle µ = 1, . . . ,m. Weil das euklidische innere Produktnach Satz 3.4 bilinear ist, folgt nun mit Satz 5.9 und Aussage (5) aus Satz 5.1die Behauptung (5.22).

Aus dem Beweis des Satzes 5.10 folgt, dass (5.22) und

(∀µ = 1, . . . ,m)(∀ν = 1, . . . , n) : ⟨Ae(m)µ , e(n)ν ⟩ = ⟨e(m)

µ , Be(n)ν ⟩ (5.23)

aquivalente Aussagen sind.

Definition 5.11. Eine quadratische Matrix A = (aνµ) ∈ Rn×n heißt symme-trisch, wenn

A = At (5.24)

gilt. Die Bedingung (5.24) ist genau dann erfullt, wenn

(∀µ = 1, . . . ,m)(∀ν = 1, . . . , n) : aνµ = aµν (5.25)

erfullt ist.

Aus Satz 5.10 ergibt sich eine koordinatenfreie Charakterisierung symmetri-scher Matrizen.

Satz 5.12. Eine quadratische Matrix A ∈ Rn×n ist genau dann eine symmetri-sche Matrix, wenn sie die Bedingung

(∀x, y ∈ Rn) : ⟨Ax, y⟩ = ⟨x,Ay⟩ (5.26)

erfullt, wobei ⟨ . , . ⟩ das euklidische innere Produkt des Rn ist.

66

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 67: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 5.13. Wir rechnen (5.26) fur die symmetrische Matrix A ∈ R4×4 unddie Spaltenvektoren x, y ∈ R4 mit

A =

−7 0 2 −2

0 −2 −5 −1

2 −5 1 5

−2 −1 5 1

, x =

3

−4

0

2

, y =

1

0

−2

5

explizit nach.

Ax =

−7 0 2 −2

0 −2 −5 −1

2 −5 1 5

−2 −1 5 1

3

−4

0

2

=

−25

6

36

0

,

⟨Ax, y⟩ =

−25

6

36

0

·

1

0

−2

5

= −97 ,

Ay =

−7 0 2 −2

0 −2 −5 −1

2 −5 1 5

−2 −1 5 1

1

0

−2

5

=

−21

5

25

−7

,

⟨x,Ay⟩ =

3

−4

0

2

·

−21

5

25

−7

= −97 .

Wir kommen nun zur Definition der Matrixmultiplikation. Die Definitionwird so getroffen, dass die fruheren Definitionen (5.18) und (5.19) im Falle desProduktes einer (n×m)-Matrix mit einer (m× 1)-Matrix reproduziert werden.Wieder lassen wir uns von der Auffassung leiten, dass Matrizen Zusammenstel-lungen ihrer Spalten sind.

Seien A = (aνµ) ∈ Rn×m und B = (bµλ) ∈ Rm×l beliebig gegeben. Sei dannC = (cνλ) ∈ Rn×l die Matrix mit den Eintragen

cνλ =m∑µ=1

aνµbµλ , ν = 1, . . . , n , λ = 1, . . . , l . (5.27)

67

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 68: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Wir setzen

A ◦B ≡ AB ≡ C ∈ Rn×l . (5.28)

Die Matrixmultiplikation ◦ wird durch

◦ : Rn×m × Rm×l → Rn×l , (A,B) 7→ A ◦B = AB (5.29)

definiert. Wir heben ausdrucklich hervor, dass die Produktmatrix AB zweierMatrizen A und B nur dann definiert ist, wenn die Spaltenzahl von A mit derZeilenzahl von B ubereinstimmt.

Satz 5.14. Seien A = (aνµ) ∈ Rn×m und B = (bµλ) ∈ Rm×l beliebig gegeben.Dann gelten die folgenden Aussagen.

(1) 0n×m ◦B = 0n×l.

(2) A ◦ 0m×l = 0n×l.

(3) En ◦A = A ◦ Em = A.

Beweis. Nach (5.27) verschwinden alle Eintrage der Produktmatrix AB, wenneine der beiden Matrizen A oder B eine Nullmatrix ist. Damit sind die Aussagen(1) und (2) bewiesen. Die Gultigkeit der Aussage (3) folgt aus

n∑ν=1

δ(n)νν aνµ = δ(n)νν aνµ = aνµ , ν = 1, . . . , n , µ = 1, . . . ,m

respektive aus

m∑µ=1

aνµδ(m)µµ = aνµδ

(m)µµ = aνµ , ν = 1, . . . , n , µ = 1, . . . ,m .

Damit ist der Beweis beendet.

Wie allgemein ublich schreiben wir die Formeln der Aussagen des Satzes 5.14in der vereinfachten Form

0B = 0 , A0 = 0 , EA = AE = A .

Zu Beginn des vorliegenden Abschnittes haben wir eigens darauf hingewie-sen, dass beim Rechnen mit Matrizen neue Phanomene auftreten: Die Matrix-multiplikation verletzt das Kommutativgesetz und lasst Nullteiler zu. BeidePhanomene treten bereits beim Rechnen mit (2× 2)-Matrizen auf, wie das fol-gende Beispiel zeigt.

68

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 69: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 5.15. Die (2× 2)-Matrix(0 1

0 0

)

ist ein Beispiel fur eine quadratische Matrix A ∈ Rn×n mit den Eigenschaften

A = 0 , AtA = AAt , AA = 0 .

Eine einfache Rechnung ergibt(0 0

1 0

)(0 1

0 0

)=

(0 0

0 1

),

(0 1

0 0

)(0 0

1 0

)=

(1 0

0 0

),

(0 1

0 0

)(0 1

0 0

)=

(0 0

0 0

).

Die Matrixmultiplikation ist in R2×2 weder kommutativ noch nullteilerfrei. �

Bevor wir die Assoziativgesetze formulieren und beweisen, notieren wir dieRegeln uber das Herausziehen von Skalaren.

Satz 5.16. Fur A ∈ Rn×m, B ∈ Rm×l, x ∈ Rm und α ∈ R gelten:

(1) A(αx) = (αA)x = α(Ax).

(2) A(αB) = (αA)B = α(AB).

Nun wenden wir uns den Assoziativgesetzen zu. Eine wichtige Anwendungdes Assoziativgesetzes (5) des folgenden Satzes 5.17 ist der Nachweis der Ein-zigkeit der inversen Matrix in Satz 5.21.

Satz 5.17. Es seien A ∈ Rn×m, B ∈ Rm×l, C ∈ Rl×k, x ∈ Rm, y ∈ Rl sowieα, β ∈ R beliebig gegeben. Dann gelten die folgenden Assoziativgesetze.

(1) (αβ)x = α(βx).

(2) (αβ)A = α(βA).

(3) α(Ax) = (αA)x.

(4) A(By) = (AB)y.

(5) A(BC) = (AB)C.

69

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 70: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beweis. Nachweis von (3). Fur beliebige Skalare α ∈ R und Matrizen A =(aνµ) ∈ Rn×m sowie Spaltenvektoren x = (xµ) ∈ Rm gilt

α

(m∑µ=1

aνµxµ

)=

m∑µ=1

(αaνµ)xµ

fur alle Indizes ν = 1, . . . , n.

Nachweis von (4). Fur beliebige Matrizen A = (aνµ) ∈ Rn×m und B =(bµλ) ∈ Rm×l sowie Spaltenvektoren x = (xλ) ∈ Rl) gilt

m∑µ=1

aνµ

(l∑

λ=1

bµλxλ

)=

m∑µ=1

(l∑

λ=1

aνµ(bµλxλ)

)

=l∑

λ=1

((m∑µ=1

aνµbµλ

)xλ

)

fur alle Indizes ν = 1, . . . , n.

Nachweis von (5). Fur beliebige Matrizen A = (aνµ) ∈ Rn×m und B =(bµλ) ∈ Rm×l sowie C = (cλκ) ∈ Rl×k) gilt

m∑µ=1

aνµ

(l∑

λ=1

bµλcλκ

)=

m∑µ=1

(l∑

λ=1

aνµ(bµλcλκ)

)

=

l∑λ=1

((m∑µ=1

aνµbµλ

)cλκ

)

fur alle Indizes ν = 1, . . . , n und κ = 1, . . . , k.

Wir studieren das Verhalten von Matrizenprodukten bei Transposition. Wiebei der Inversion wird die Reihenfolge der Matrixmultiplikationen umgekehrt.Vergleiche die Satze 5.18 und 5.23.

Satz 5.18. Es gelten die folgenden Aussagen.

(1) (∀A ∈ Rn×m)(∀B ∈ Rm×l) : (AB)t = BtAt.

(2) Sei A ∈ Rn×m beliebig gegeben. Dann gilt At ∈ Rm×n. Außerdem sind diebeiden Produktmatrizen

AtA ∈ Rm×m , AAt ∈ Rn×n

symmetrische Matrizen.

70

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 71: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beweis. Nachweis von (1). Ein direkter Beweis kann durch explizites Nachrech-nen der Gleichheit der Matrixeintrage erbracht werden. Wir geben stattdesseneinen koordinatenfreien Beweis mit Hilfe des Satzes 5.10 und des Assoziativ-gesetzes (4) aus Satz 5.17. Fur alle x ∈ Rl und alle y ∈ Rn gilt

⟨x, (AB)ty⟩ = ⟨(AB)x, y⟩ = ⟨A(Bx), y⟩

= ⟨Bx,Aty⟩ = ⟨x,Bt(Aty)⟩ = ⟨x, (BtAt)y⟩ .

Aus Satz 5.10 folgt (AB)t = BtAt.

Nachweis von (2). Nach Definition der Matrixmultiplikation gilt AtA ∈Rm×m und AAt ∈ Rn×n. Aussage (1) liefert die Symmetrie der beiden Pro-duktmatrizen:

(AtA)t = AtAtt = AtA , (AAt)t = AttAt = AAt .

Damit ist der Beweis beendet.

Beispiel 5.19.

A =

(1 2 3

6 5 4

), At =

1 6

2 5

3 4

.

B =

1 0 −2 −3

4 0 5 −6

1 −1 3 −2

, Bt =

1 4 1

0 0 −1

−2 5 3

−3 −6 −2

.

AB =

(1 2 3

6 5 4

)1 0 −2 −3

4 0 5 −6

1 −1 3 −2

=

(12 −3 17 −21

30 −4 25 −56

).

BtAt =

1 4 1

0 0 −1

−2 5 3

−3 −6 −2

1 6

2 5

3 4

=

12 30

−3 −4

17 25

−21 −56

.

Beispiel 5.20.

A =

(1 2 3

6 5 4

), At =

1 6

2 5

3 4

,

71

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 72: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

AtA =

37 32 27

32 29 26

27 26 25

, AAt =

(14 28

28 77

).

Wir betrachten nun eine besondere Klasse von quadratischen Matrizen.

Satz und Definition 5.21. Sei A ∈ Rn×n beliebig gegeben. Dann sind diebeiden folgenden Aussagen (1) und (2) aquivalent.

(1) (∃B ∈ Rn×n) : AB = BA = E.

(2) (∃!B ∈ Rn×n) : AB = BA = E.

Wenn eine der aquivalenten Bedingungen (1) oder (2) erfullt ist, dann heißt diequadratische Matrix A invertierbar. Andernfalls heißt A singular. Beide Begriffewerden nur fur quadratische Matrizen definiert.

Beweis. Es ist klar, dass (1) aus (2) folgt. Wir zeigen umgekehrt, dass (2) aus(1) folgt. Es ist lediglich die Einzigkeit zu beweisen. Die Existenz wird in (1)bereits vorausgesetzt. Seien Matrizen B, C ∈ Rn×n mit

AB = BA = E , AC = CA = E

gegeben. Dann folgt mit dem Assoziativgesetz (5) aus Satz 5.17 und der Eigen-schaft (3) der Einheitsmatrix aus Satz 5.14, dass

B = BE = B(AC) = (BA)C = EC = C

gilt. Dies liefert die Einzigkeitsaussage. Damit ist der Beweis beendet.

Definition 5.22. Wenn die Matrix A ∈ Rn×n invertierbar ist, dann heißt dieeindeutig bestimmte Matrix B ∈ Rn×n mit AB = BA = E die inverse Matrixoder die Inverse zu A. Die inverse Matrix zu A wird mit A−1 bezeichnet. Sei

GL(n,R) = {A ∈ Rn×n | (∃B ∈ Rn×n) : AB = BA = E }

die Menge der invertierbaren reellen (n × n)-Matrizen. Siehe Satz 5.24. Wieublich identifizieren wir R1×1 und R vermittels der Abbildung (α) 7→ α. Wirsetzen

R× = R \ {0} = {α ∈ R | α = 0 } .

Es gilt R× = GL(1,R). Eine reelle Zahl α ∈ R× heißt invertierbar. Die Inver-tierbarkeit einer Matrix und die Inverse einer Matrix konnen mit dem Verfahrenvon Gauß-Jordan bestimmt werden. Siehe Satz 6.13.

72

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 73: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Wir untersuchen das Verhalten von Matrizenprodukten bei Inversion. Wiebei der Transposition wird die Reihenfolge der Matrixmultiplikationen umge-kehrt. Inversion und Transposition sind auf GL(n,R) vertauschbare Operatio-nen.

Satz 5.23. Es gelten die folgenden Aussagen.

(1) Es gilt E ∈ GL(n,R) mit E−1 = E.

(2) (∀α ∈ R×)(∀A ∈ GL(n,R)) : αA ∈ GL(n,R) , (αA)−1 = 1αA

−1.

(3) (∀A,B ∈ GL(n,R)) : AB ∈ GL(n,R) , (AB)−1 = B−1A−1.

(4) (∀A ∈ GL(n,R)) : At ∈ GL(n,R) , (At)−1 = (A−1)t.

Beweis. Nachweis von (1). Es gilt

EE = E .

Damit ist (1) bewiesen. Aus den Regeln uber das Herausziehen von Skalarenund dem Assoziativgesetz fur das Rechen mit Skalaren und Matrizen folgen dieBeziehungen

(αA)( 1αA

−1) = α(A( 1αA

−1)) = α( 1α (AA

−1))

= (α 1α )(AA

−1) = 1 · E = E ,

( 1αA

−1)(αA) = 1α (A

−1(αA)) = 1α (α(A

−1A))

= ( 1αα)(A

−1A) = 1 · E = E .

Damit ist (2) bewiesen. Aus dem Assoziativgesetz fur die Matrixmultiplikationfolgen die Beziehungen

(AB)(B−1A−1) = A(B(B−1A−1)) = A((BB−1)A−1)

= A(EA−1) = AA−1 = E ,

(B−1A−1)(AB) = B−1(A−1(AB)) = B−1((A−1A)B)

= B−1(EB) = B−1B = E .

Damit ist (3) bewiesen. Aus der Rechenregel uber die Transposition eines Ma-trixproduktes folgen die Beziehungen

(A−1)tAt = (AA−1)t = Et = E ,

At(A−1)t = (A−1A)t = Et = E .

Damit ist auch (4) bewiesen.

73

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 74: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Die invertierbaren (n×n)-Matrizen bilden mit der Komposition von Matrizeneine Gruppe im Sinne von Definition 21.1.

Satz 5.24. Sei n ∈ N. Das Paar (GL(n,R), ◦) ist eine Gruppe. Dabei ist dieEinheitsmatrix En das neutrale Element dieser Gruppe.

Nun definieren wir die Summe von Matrizen. Seien A = (aνµ) ∈ Rn×m undB = (bνµ) ∈ Rn×m beliebig gegeben. Sei dann C = (cνµ) ∈ Rn×m die Matrixmit den Eintragen

cνµ = aνµ + bνµ , ν = 1, . . . , n , µ = 1, . . . ,m . (5.30)

Wir setzen

A+B = C . (5.31)

Die Matrix C heißt Summe der Matrizen A und B. Zusatzlich wird

−B = (−1)B , A−B = A+ (−B) (5.32)

gesetzt. Wir heben ausdrucklich hervor, dass die Summe zweier Matrizen A undB nur dann erklart ist, wenn erstens die Zeilenzahl von A mit Zeilenzahl von Bund zweitens die Spaltenzahl von A mit der Spaltenzahl von B ubereinstimmt.

Satz 5.25. Seien n, m, k ∈ N. Dann gelten:

(1) Das Tripel (Rn×m, · ,+) mit den durch (5.15), (5.30), (5.31) definiertenOperationen ist ein reeller Vektorraum.

(2) Fur i = 1, . . . , n und j = 1, . . .m sei Eij = E(nm)ij ∈ Rn×m die Matrix,

die an der Stelle (i, j) den Eintrag Eins und sonst nur verschwindendeEintrage besitzt. Es gilt

A = (aij) i=1,...,nj=1,...,m

=n∑i=1

m∑j=1

aijE(nm)ij

fur alle A = (aij) ∈ Rn×n. Die Menge

Enm = {Eij ∈ Rn×m | i = 1, . . . , n , j = 1, . . .m}

ist eine Basis von Rn×m.

(3) dim(Rn×m) = nm .

(4) Sei C ∈ Rm×k gegeben. Dann ist ρC : Rn×m → Rn×k mit A 7→ AC linear.

(5) Sei C ∈ Rk×n gegeben. Dann ist λC : Rn×m → Rk×m mit A 7→ CA linear.

(6) Die Transposition t : Rn×n → Rm×n mit A 7→ At ist ein Isomorphismus.

74

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 75: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

6 Kern und Bild einer Matrix. Gauß-Jordan

Eine Matrix A ∈ Rn×m fassen wir als lineare Abbbildung φA : Rm → Rn mitx 7→ Ax auf. Den Kern und das Bild von φA bezeichnen wir als Kern respektiveBild der Matrix A. Wir setzen also

ker(A) = ker(φA) , im(A) = im(φA) .

Wir schreiben die Definitionen von ker(A) und im(A) im Hinblick auf die Glei-chungstheorie aus und formulieren erste Eigenschaften. Siehe 2.8 und 23.3.

Satz und Definition 6.1. Seien n, m ∈ N. Sei A = (a1, . . . , am) ∈ Rn×m eine(n×m)-Matrix mit den Spalten a1, . . . , am ∈ Rn.

(1) Die Teilmenge

ker(A) = {x ∈ Rm | Ax = 0 }

heißt Kern oder Nullraum von A. Weil x 7→ Ax nach Satz 5.9 eine lineareAbbildung φA von Rm nach Rn ist, ist ker(A) ⊆ Rm ein Teilvektorraumdes Rm. Der Teilvektorraum ker(A) besteht aus allen Losungen x ∈ Rmdes homogenen Gleichungssystems Ax = 0.

(2) Die Teilmenge

im(A) = { y ∈ Rn | (∃x ∈ Rm) : Ax = y }

heißt Bild oder Spaltenraum von A. Weil φA : x 7→ Ax nach Satz 5.9 einelineare Abbildung von Rm nach Rn ist, ist im(A) ⊆ Rn ein Teilvektorraumdes Rn. Die Menge im(A) besteht aus allen Bildern Ax mit x ∈ Rm. AusSatz 5.8, Aussage (1) folgt, dass

(∀µ = 1, . . . ,m) : aµ ∈ im(A)

gilt. Dies rechtfertigt die Bezeichnung Spaltenraum fur den Teilvektorraumim(A). Ein inhomogenes Gleichungssystem Ax = b ist genau dann losbar,wenn b ∈ im(A) gilt.

(3) φA ist genau dann injektiv, wenn ker(A) = {0} gilt.

(4) φA ist genau dann surjektiv, wenn im(A) = Rn gilt.

Siehe die Satze 7.6 und 13.1.

Der Kern und das Bild einer Matrix sind endlich-dimensionale Teilvektor-raume. Diese lassen sich durch Basen bequem beschreiben. In den Satzen 6.17und 6.18 geben wir Verfahren zur Bestimmung von entsprechenden Basen an.Daraus ergeben sich ein Losbarkeitskriterium sowie ein Losungsverfahren furlineare Gleichungssysteme in den Satzen 6.19 und 6.20. Ein zentrales Hilfsmittelist das Gauß-Jordan-Verfahren.

75

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 76: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Wir werden in Satz 6.8 sehen, dass der Kern einer Matrix unter elementarenZeilenumformungen invariant ist. Zum Nachweis uberlegen wir uns, dass die An-wendung einer elementaren Zeilenumformung zu der linksseitigen Multiplikationmit einer sogenannten Elementarmatrix aquivalent ist.

Zuerst einmal ubersetzen wir die elementaren Zeilenumformungen in dieSprache der Matrixmultiplikationen. Sei

A =

z1...

zn

∈ Rn×m

eine (n×m)-Matrix mit den Zeilen zt1, . . . , ztn ∈ Rm. Im Folgenden bezeichnen

wir mit i, j ∈ {1, . . . , n} die Zeilenindizes. Wir listen die elementaren Zeilen-umformungen auf. Es gibt drei Typen. Elementare Zeilenumformungen werdeneingefuhrt, um aquivalente Umformungen von linearen Gleichungssystemen vor-nehmen zu konnen. Im Matrixkalkul bedeutet dies, dass sie durch invertierbare(n× n)-Matrizen reprasentiert werden.

(1) Die Vertauschung Zi↔j der i-ten mit der j-ten Zeile wird durch die links-seitige Multiplikation von A mit der Matrix

Ei↔j ∈ GL(n,R) (6.1)

erreicht, wobei Ei↔j aus der Einheitsmatrix E ∈ Rn×n durch Vertauschender i-ten und der j-ten Zeile entsteht. Die Matrix Ei↔j ist involutorisch,das heißt, es gilt

Ei↔jEi↔j = E . (6.2)

Die Matrix Ei↔j ist invertierbar mit

E−1i↔j ≡ (Ei↔j)

−1 = Ei↔j . (6.3)

Im Fall i = j ist Ei↔j die Einheitsmatrix E.

(2) Die Multiplikation αZi der i-ten Zeile mit α ∈ R× wird durch die links-seitige Multiplikation von A mit der Matrix

Eα;i ∈ GL(n,R) (6.4)

erreicht. Die Matrix Eα;i entsteht aus der Einheitsmatrix E ∈ Rn×n, in-dem die i-te Zeile eti durch die Zeile αeti ersetzt wird. Es gilt

E−1α;i ≡ (Eα;i)

−1 = E 1α ;i . (6.5)

Im Fall α = 1 ist Eα;i die Einheitsmatrix.

(3) Die Addition Zj +αZi der α-fachen i-ten Zeile zur j-Zeile mit α ∈ R undi = j wird durch die linksseitige Multiplikation von A mit der Matrix

Ej;α;i ∈ GL(n,R) (6.6)

76

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 77: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

erreicht. Die Matrix Ej;α;i entsteht aus der Einheitsmatrix E ∈ Rn×n,indem die j-te Zeile etj durch die Zeile etj + αeti ersetzt wird. Es gilt

E−1j;α;i ≡ (Ej;α;i)

−1 = Ej;−α;i . (6.7)

Im Fall α = 0 ist Ej;α;i die Einheitsmatrix.

Um hervorzuheben, dass die betrachteten Elementarmatrizen (n× n)-Matrizen

sind, schreiben wir E(n)i↔j , E

(n)α;i oder E

(n)j;α;i anstelle von Ei↔j , Eα;i oder Ej;α;i.

Satz und Definition 6.2. Seien n,m ∈ N. Die Anwendung elementarer Zeilen-umformungen einer Matrix A ∈ Rn×m kann durch die linksseitige Multiplikationmit invertierbaren Matrizen vom Typ

(1) Ei↔j,

(2) Eα;i mit α ∈ R \ {0} oder

(3) Ej;α;i mit α ∈ R und i = j

beschrieben werden. Wir nennen diese Matrizen Elementarmatrizen und be-zeichnen mit Z(n,R) die Menge aller Elementarmatrizen aus GL(n,R). Weiterbestehe die Teilmenge Z(n,R) ⊆ GL(n,R) aus allen endlichen Produkten vonMatrizen aus Z(n,R).

Sei A ∈ Rn×m. Die Wirkung der linkseitigen Multiplikation mit einer derElementarmatrizen Ei↔j , Eα;i, Ej;α;i ∈ GL(n,R) schreiben wir schematisch inder Form

A

Ei↔j ◦A Zi↔j

,A

Eα;i ◦A αZi,

A

Ej;α;i ◦A Zj + αZi.

Dabei ist jeweils die rechte Spalte der drei Schemata die Kommentarspalte.Insbesondere fur A = E = En erhalten wir

E

Ei↔j Zi↔j

,E

Eα;i αZi,

E

Ej;α;i Zj + αZi.

Wir weisen auf die entsprechende Erorterung der Wirkung von Permutations-matrizen im Anschluss an Beispiel 9.9 hin.

Beispiel 6.3. Wir notieren einige Elementarmatrizen explizit:

E(4)2↔4 =

1 0 0 0

0 0 0 1

0 0 1 0

0 1 0 0

, E(5)2↔4 =

1 0 0 0 0

0 0 0 1 0

0 0 1 0 0

0 1 0 0 0

0 0 0 0 1

,

77

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 78: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

E(4)7;3 =

1 0 0 0

0 1 0 0

0 0 7 0

0 0 0 1

, E(5)7;3 =

1 0 0 0 0

0 1 0 0 0

0 0 7 0 0

0 0 0 1 0

0 0 0 0 1

,

E(4)3;17;1 =

1 0 0 0

0 1 0 0

17 0 1 0

0 0 0 1

, E(5)3;17;1 =

1 0 0 0 0

0 1 0 0 0

17 0 1 0 0

0 0 0 1 0

0 0 0 0 1

.

Die Wirkung von E(4)3;17;1 beschreiben wir in Beispiel 6.4. �

Beispiel 6.4. Gegeben sei A ∈ R4×5 mit

A =

1 2 2 4 3

2 4 3 8 4

3 6 4 12 5

4 8 5 16 4

Die linksseitige Multiplikation mit der Elementarmatrix E

(4)3;17;1 ergibt

E(4)3;17;1 ◦A =

1 0 0 0

0 1 0 0

17 0 1 0

0 0 0 1

1 2 2 4 3

2 4 3 8 4

3 6 4 12 5

4 8 5 16 4

=

1 2 2 4 3

2 4 3 8 4

20 40 38 80 56

4 8 5 16 4

.

Schematisch konnen wir dies folgendermaßen beschreiben:

1 2 2 4 3

2 4 3 8 4

3 6 4 12 5

4 8 5 16 4

1 2 2 4 3 Z1

2 4 3 8 4 Z2

20 40 38 80 56 Z3 + 17Z1

4 8 5 16 4 Z4

78

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 79: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Mit Hilfe von elementaren Zeilenumformungen kann eine beliebige Matrixauf obere Stufenform gebracht werden. Siehe Satz 6.6. Eine obere Stufenformhangt allerdings von den verwendeten Zeilenumformungen ab. Die Treppennor-malform hangt nach Satz 6.13 dagegen nicht von der Wahl der elementarenZeilenumformungen ab.

Definition 6.5. Seien n, m ∈ N.

(1) Wenn in einer Zeile einer Matrix Eintrage aus R× vorkommen, so nen-nen wir den Eintrag aus R× mit dem kleinsten Spaltenindex das Pivot-element dieser Zeile. Eine Nullzeile besitzt demnach kein Pivotelement.Eine Matrix, die nicht die Nullmatrix ist, heißt pivotnormiert, wenn allePivotelemente gleich 1 sind. Die Einheitsmatrix En ist pivotnormiert.

(2) Sei A ∈ Rn×m. Mit PV (A) bezeichnen wir die Menge der indiziertenPivotelemente von A. Die Pivotelemente einer Matrix werden durch ihrePositionen unterschieden. Demnach besteht PV (En) der EinheitsmatrixEn aus n Elementen. Es gilt PV (0n×m) = ∅.

(3) Eine Matrix U ∈ Rn×m heißt eine obere Stufenmatrix, wenn das Pivot-element jeder Zeile einen kleineren Spaltenindex als das Pivotelement dernachsten Zeile besitzt.

(4) Uq(Rn×m) bezeichne die Menge der oberen Stufenmatrizen aus Rn×m. Ins-besondere gilt 0n×m ∈ Uq(Rn×m).

(5) Eine Spalte einer oberen Stufenmatrix U ∈ Uq(Rn×m) heißt eine Pivot-spalte, wenn sie ein Pivotelement enthalt. Die Nullmatrix 0n×m enthaltkeine Pivotspalte.

(6) Wenn U ∈ Uq(Rn×m) durch elementare Zeilenumformungen aus einerMatrix A ∈ Rn×m hervorgeht, dann heißt U eine Stufenform von A. Wirsagen dann auch, dass A auf Stufenform gebracht worden ist.

(7) Eine Stufenmatrix U ∈ Uq(Rn×m) heißt eine Treppennormalform, wennsie eine der folgenden Bedingungen (7.1) oder (7.2) erfullt.

(7.1) U = 0.

(7.2) U ist pivotnormiert und alle Eintrage oberhalb der Pivotelemente ver-schwinden.

(8) T(Rn×m) bezeichne die Menge der Treppennormalformen in Rn×m.

(9) Wenn T ∈ T(Rn×m) aus einer Matrix A ∈ Rn×m durch elementare Zeilen-umformungen hervorgeht, dann heißt T eine Treppennormalform von A.Wir sagen dann, dass A auf Treppennormalform gebracht worden ist.

(10) Die Pivotspalten eine beliebigen Matrix A ∈ Rn×m konnen erst in Satzund Definition 6.13 definiert werden.

Wir deuten die Verfahren von Gauß und Gauß-Jordan als Satz uber einemultiplikative Zerlegung von Matrizen. Die Verfahren werden im Beweis desfolgenden Satzes 6.6 beschrieben. Siehe Definition 6.7.

79

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 80: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz 6.6. Seien n, m ∈ N. Dann gelten:

(1) (∀A ∈ Rn×m)(∃C ∈ GL(n,R)) : CA ∈ Uq(Rn×m).

(2) (∀A ∈ Rn×m)(∃C ∈ GL(n,R)) : CA ∈ T(Rn×m).

Beweis. Ein Beweis liefern die Verfahren von Gauß respektive Gauß-Jordan.Nach diesen Verfahren konnen die Matrizen C als endliche Produkte von Ele-mentarmatrizen gewahlt werden. Sei A ∈ Rn×m. Wir setzen k0 = min{n,m}.

Nachweis von (1). Wir beschreiben das strikte Gauß-Verfahren.

Erster Schritt. Wir konstruieren eine Matrix C1 ∈ GL(n,R) derart, dass inder ersten Spalte von

A1 = C1A ∈ Rn×m

hochstens der erste Eintrag von Null verschieden ist.

• Im Fall a1 = 0n ∈ Rn setzen wir C1 = En.

• Im Fall a1 = 0n ∈ Rn gibt es einen kleinsten Zeilenindex ν ∈ 1, . . . , n mitaν1 = 0. Dieser Index sei ν1. Wir vertauschen die erste und die ν1-te Zeile

von A. Die Matrix E(n)1↔ν1

◦ A besitzt an der Position (1, 1) den Eintragaν11 = 0. Anschließend annullieren wir die Eintrage an den Positionen(1, 2) bis (1, n) mit Hilfe der ersten Zeile. Wir setzen

C1 = E(n)

n;−an1a−1ν11;1

◦ . . . ◦ E(n)

2;−a21a−1ν11;1

◦ E(n)1↔ν1

∈ GL(n,R) .

Dabei verwenden wir die Konvention, dass ein Produkt uber eine leereIndexmenge gleich der Einheitsmatrix ist. Dann ist A1 = C1A ∈ Rn×meine Matrix, die in ersten Spalte nur an der Position (1, 1) einen von Nullverschiedenen Eintrag besitzt.

Zweiter Schritt. Im Fall n,m ≥ 2 streichen wir die erste Zeile und die Spaltevon A1 und erhalten eine Matrix

A′1 ∈ R(n−1)×(m−1) .

Dann wenden wir auf A′1 das Verfahren aus dem ersten Schritt an. Wir erhalten

eine invertierbare Matrix C ′2 ∈ GL(n− 1,R) derart, dass die erste Spalte von

A′2 = C ′

2A′1 ∈ R(n−1)×(m−1)

hochstens an der Position (1, 1) einen von Null verschiedenen Eintrag besitzt.Wir setzen

C2 =

(1 0

0 C ′2

)∈ GL(n,R) , A2 = C2A1 = C2C1A .

80

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 81: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Dritter Schritt. Im Fall n,m ≥ 3 streichen wir die ersten beiden Zeilen undSpalten von A2 und erhalten eine Matrix

A′2 ∈ R(n−2)×(m−2) .

Wir wenden auf A′2 das Verfahren aus dem ersten Schritt an und erhalten C ′

3 ∈GL(n− 2,R) derart, dass die erste Spalte von

C ′3A

′2 ∈ R(n−2)×(m−2)

hochstens an der Position (1, 1) einen von Null verschiedenen Eintrag besitzt.Wir setzen

C3 =

(E2 0

0 C ′3

)∈ GL(n,R) , A3 = C3A2 = C3C2C1A .

Der k-te Schritt. Im Fall

2 ≤ k ≤ k0 = min{n,m}

streichen wir die ersten k−1 Spalten und Zeilen der bereits konstruierten MatrixAk−1 ∈ Rn×m und erhalten

A′k ∈ R(n−(k−1))×(m−(k−1)) .

Nach dem Verfahren aus dem ersten Schritt konstruieren wir C ′k ∈ GL(n−2,R)

derart, dass

C ′kA

′k ∈ R(n−(k−1))×(m−(k−1))

hochstens an der Position (1, 1) einen von Null verschiedenen Eintrag besitzt.Wir setzen

Ck =

(Ek−1 0

0 C ′k−1

)∈ GL(n,R) , Ak = CkAk−1 .

Der k0-te Schritt. Wir erhalten C1, . . . , Ck0 ∈ GL(n,R) mit

Ak0 = Ck0 ◦ . . . ◦ C1 ◦A ∈ Uq(Rn×m) .

Damit ist der Beweis von Aussage (1) beendet.

Nachweis von (2). Wir beschreiben das strikte Verfahren von Gauß-Jordan.

Erster Schritt. Wir konstruieren eine Matrix C1 ∈ GL(n,R) derart, dass inder ersten Spalte von

A1 = C1A ∈ Rn×m

entweder der Nullvektor 0n oder der kanonische Basisvektor e(n)1 steht.

• Im Fall a1 = 0n ∈ Rn setzen wir C1 = En.

81

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 82: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

• Im Fall a1 = 0n ∈ Rn gibt es einen kleinsten Zeilenindex ν ∈ 1, . . . , n mitaν1 = 0. Dieser Index sei ν1. Wir vertauschen die erste und die ν1-te Zeilevon A. Dann normieren wir die erste Zeile. Anschließend annullieren wirdie Eintrage an den Positionen (1, 2) bis (1, n) mit Hilfe der ersten Zeile.Wir setzen

C1 = E(n)n;−an1;1

◦ . . . ◦ E(n)2;−a21;1 ◦ Ea−1

ν11;1◦ E(n)

1↔ν1∈ GL(n,R) .

Der k-te Schritt. Im Fall

2 ≤ k ≤ k0 = min{n,m}

konstruieren wir eine Matrix Ck ∈ GL(n,R) derart, dass in der k-ten Spalte von

Ak = (a(k)νµ ) = (a(k)1 , . . . , a(k−1)

m ) = CkAk−1 ∈ Rn×m

entweder die k-te Spalte a(k−1)k von Ak−1 oder ein kanonischer Basisvektor aus

{e(n)1 , . . . , e(n)n } \ {a(k−1)1 , . . . , a

(k−1)k−1 }

steht.

• Wenn a(k−1)νk = 0 fur alle ν = k, . . . , n gilt, setzen wir Ck = En.

• Andernfalls sei

νk = min{k ≤ ν ≤ n | a(k−1)νk = 0} .

Wir vertauschen die k-te und die νk-te Zeile von Ak−1. Dann normie-ren wir die neue k-te Zeile. Anschließend annullieren wir die Eintrage anden Positionen (k, 1) bis (k, k − 1) und (k + 1, k) bis (n, k) mit Hilfe dernormierten k-ten Zeile. Wir setzen

Ck = E(n)

n;−a(k−1)nk ;k

◦ . . . ◦ E(n)

k+1;−a(k−1)k+1k ;k

◦ E(n)

k−1;−a(k−1)k−1k ;k

◦ . . . ◦ E(n)

1;−a(k−1)1k ;k

◦ E1/a

(k−1)νkk ;k

◦ E(n)k↔νk

.

Der k0-te Schritt. Wir erhalten C1, . . . , Ck0 ∈ GL(n,R) mit

Ak0 = Ck0 ◦ . . . ◦ C1 ◦A ∈ T(Rn×m) .

Damit ist der Beweis von Aussage (2) beendet.

Definition 6.7.

(1) Jede Folge aus endlich vielen elementaren Zeilenumformungen, die auseiner Matrix A ∈ Rn×m eine Stufenform aus Uq(Rn×m) herstellt, heißtein Gauß-Verfahren.

82

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 83: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(2) Das im Beweis der Aussage (1) des Satzes 6.6 beschriebene Verfahren zurHerstellung einer oberen Stufenform heißt das strikte Gauß-Verfahren.

(3) Jede Folge aus endlich vielen elementaren Zeilenumformungen, die auseiner Matrix A ∈ Rn×m eine Treppennormalform aus T(Rn×m) herstellt,heißt ein Gauß-Jordan-Verfahren.

(4) Das im Beweis der Aussage (2) des Satzes 6.6 beschriebene Verfahrenzur Herstellung einer Treppenormalform heißt das strikte Gauß-Jordan-Verfahren.

Manchmal ist es gunstiger von den strikten Verfahren abzuweichen und an-dere elementare Zeilenumformungen einzuschalten.

Wir wenden uns der Untersuchung von Kernen zu. Die Aussage (4) desfolgenden Satzes 6.8 ist eine Umformulierung des Satzes 2.16.

Satz 6.8. Seien n, m ∈ N. Sei A ∈ Rn×m. Dann gelten die folgenden Aussagen:

(1) Sei n = m. Wenn A invertierbar ist, gilt ker(A) = {0}.

(2) (∀C ∈ GL(n,R)) : ker(CA) = ker(A).

(3) Die Matrix A′ ∈ Rn×m gehe aus A durch elementare Zeilenumformungenhervor. Dann gilt

ker(A′) = ker(A) .

(4) Fur n < m gilt ker(A) = {0}.

(5) (∀C ∈ GL(m,R)) : im(A) = im(AC).

Beweis. Nachweis von (1). Sei n = m und A ∈ Rn×n invertierbar. Trivialerweisegilt {0} ⊆ ker(A). Fur alle x ∈ ker(A) gilt

x = (A−1A)x = A−1(Ax) = A−10 = 0 .

Also gilt ker(A) = {0}.

Nachweis von (2). Sei C ∈ GL(n,R) und A ∈ Rn×m. Dann gilt

x ∈ ker(A) ⇐⇒ Ax = 0

⇐⇒ C(Ax) = 0

⇐⇒ (CA)x = 0

⇐⇒ x ∈ ker(CA)

fur alle x ∈ Rm. Damit ist (2) bewiesen.

Aussage (3) folgt aus (2), weil eine elementare Zeilenumformung durch ei-ne linksseitige Multiplikationen mit einer Elementarmatrix beschrieben werdenkann.

83

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 84: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aussage (4) ist eine Umformulierung des Satzes 2.16.

Nachweis von (5). Sei y ∈ im(A). Dann gibt es x ∈ Rm mit y = Ax. NachVoraussetzung gilt C ∈ GL(m,R). Es folgt

y = Ax = (A ◦ (CC−1))x = (AC)(C−1x) .

Also gilt y ∈ im(AC). Wir setzen umgekehrt y ∈ im(AC) voraus. Dann gibt esz ∈ Rm mit y = (AC)z = A(Cz). Also folgt y ∈ im(A).

Definition 6.9. Seien n, m ∈ N und A ∈ Rn×m. Dann definieren wir:

(1) rg(A) = dim(im(A)).

(2) def(A) = dim(ker(A)).

Wir nennen rg(A) den Rang und def(A) den Defekt der Matrix A.

Satz 6.10 (Rang, Defekt, Dimensionsformel). Seien n, m ∈ N. Dann gelten diefolgenden Aussagen (1) bis (7).

(1) (∀T ∈ T(Rn×m)) : rg(T t) = rg(T ) = #(PV (T )).

(2) (∀C ∈ GL(n,R))(∀A ∈ Rn×m) : rg(CA) = rg(A).

(3) (∀A ∈ Rn×m) : rg(At) = rg(A).

(4) (∀T ∈ T(Rn×m)) : def(T ) = m−#(PV (T )).

(5) (∀C ∈ GL(n,R))(∀A ∈ Rn×m) : def(CA) = def(A).

(6) (∀A ∈ Rn×m) : 0 ≤ rg(A) ≤ min{m,n}.

(7) (∀A ∈ Rn×m) : rg(A) + def(A) = m.

Die Gleichung in Aussage (7) ist die Dimensionsformel.

Beweis. Nachweis von (1). Sei T ∈ T(Rn×m) eine Treppennormalform mit r =

#(PV (T )) ∈ N. Dann wird im(T ) ⊆ Rn von den ersten r Vektoren e(n)1 , . . . , e

(n)r

der kanonischen Basis En aufgespannt. Es gilt

rg(T ) = dim(im(T )) = r = #(PV (T )) .

Seien z1, . . . , zn ∈ Rm die Zeilen von T . Wir transponieren T . Dann bilden dieersten r Spalten zt1, . . . , z

tr ∈ Rm von T t eine Basis von im(T t) ⊆ Rm. Also gilt

rg(T t) = dim(im(T t)) = r = rg(T ) .

Im Fall rg(T ) = 0 ist Aussage (1) trivialerweise erfullt.

Nachweis von (2). Offenbar gilt rg(A) = 0 genau dann, wenn A = 0n×m gilt.Daher ist (2) im Fall rg(A) = 0 klar. Wir setzen nun rg(A) = r ∈ N voraus.

84

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 85: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Dann gibt es eine Basis {s1, . . . , sr} von im(A). Wegen C ∈ GL(n,R) ist dieMenge {Cs1, . . . , Csr} linear unabhangig. Also gilt

rg(A) = r ≤ rg(CA) .

Analog folgt fur CA und C−1 anstelle von A respektive C, dass

rg(CA) ≤ rg(C−1(CA)) = rg(A)

gilt. Also folgt rg(CA) = rg(A).

Nachweis von (3). Nach Satz 6.6 gibt es C ∈ GL(n,R) und T ∈ T(Rn×m)mit A = CT . Folglich gilt At = T tCt. Mit C ist auch Ct invertierbar. Nach Satz6.8, Aussage (5) gilt

im(At) = im(T tCt) = im(T t) .

Mit den bereits bewiesenen Aussagen (1) und (2) erhalten wir

rg(At) = rg(T t) = rg(T ) = rg(CT ) = rg(A) .

Nachweis von (4) bis (6). Ruckwartselimination liefert die Gultigkeit von(4). Aussage (5) ist eine Umformulierung von Satz 6.8, (2). Aussage (6) folgtaus (3).

Nachweis von (7). Die Dimensionsformel gilt nach (4) fur alle Matrizen ausT(Rn×m). Fur eine beliebige Matrix A ∈ Rn×m gibt es nach Satz 6.6 MatrizenC ∈ GL(n,R) und T ∈ T(Rn×m) mit A = CT . Nach den Aussagen (2) und (5)gilt die Dimensionsformel daher auch fur A.

Satz 6.11 (Streichen und Erganzen). Seien m,n ∈ N und T ∈ T (Rn×m). EineBasis von ker(T ) ⊆ Rm kann auf folgende Weise berechnet werden:

(1) Sei r = rg(T ) = #(PV (T )).

(2) Sei T ′ ∈ T(Rr×m) die Matrix, die durch Streichen aller Nullzeilen aus Thervorgeht.

(3) Die Matrix

T ′′ = (t′′µλ)µ=1,...,mλ=1,...,m

∈ Rm×m

entstehe aus T ′, indem (m− r) Zeilen aus Rm, die an genau einer Stelleeine −1 und sonst lauter Nullen enthalten, derart erganzt werden, dass

t′′µµ = ±1

fur alle µ = 1, . . .m gilt.

(4) Die (m − r) Spalten von T ′′, die eine erganzte −1 enthalten, bilden eineBasis A(ker(T )) von ker(T ).

85

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 86: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(5) Nach der Dimensionsformel gilt

dim(ker(T )) = m− r .

Siehe Satz 6.10, Aussage (7).

Wir sagen, dass die Matrix T ′′ ∈ Rm×m und die Basis A(ker(T )) ⊆ Rm durchStreichen und Erganzen aus T hervorgehen.

Beweis. Wir beweisen Aussage (4). Sei T = (tνµ) ∈ T(Rn×m). In den Fallenr = 0 und m − r = 0 ist Aussage (4) klar. Wir betrachten den Fall 1 ≤ r =rg(T ) ≤ min{n,m} und 1 ≤ k = def(T ) = m − r. Seien 1 ≤ i1 < . . . < ir ≤ mdie Indizes der Pivotspalten und 1 ≤ j1 < . . . < jk ≤ m die Indizes der ubrigenSpalten. Die quadratische Matrix

T ′′ = (t′′µλ) = (t′′1 , . . . , t′′m) ∈ T(Rm×m)

mit den Spalten t′′1 , . . . , t′′m ∈ Rm entstehe aus T durch Streichen und Erganzen.

Siehe (2) und (3). Wir zeigen nun, dass die k linear unabhangigen Vektorent′′j1 , . . . , t

′′jk

∈ Rm im Kern der Matrix T enthalten sind.

(i) Fur ν = 1, . . . , r gilt

tνiρ = δνρ , ρ = 1, . . . , r .

(ii) Fur µ = 1, . . . ,m und σ = 1, . . . , k gilt

t′′µjσ =

−δκσ , µ = jκ , κ = 1, . . . , k ,

tρjσ , µ = iρ , ρ = 1, . . . , r .

Fur ν = 1, . . . , r und σ = 1, . . . , k erhalten wir

m∑µ=1

tνµt′′µjσ =

r∑ρ=1

tνiρt′′iρjσ +

k∑κ=1

tνjκt′′jκjσ

=

r∑ρ=1

δνρ · tρjσ +

k∑κ=1

tνjκ · (−δκσ)

= tνjσ + (−tνjσ ) = 0 .

Fur ν = r + 1, . . . ,m und σ = 1, . . . , k erhalten wir

m∑µ=1

tνµt′′µjσ =

m∑µ=1

0 · t′′µjσ = 0 .

Also ist {t′′j1 , . . . , t′′jk} eine Basis von ker(T ).

86

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 87: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 6.12. Gegeben sei die Treppennormalform

T = (t1, t2, t3, t4, t5) =

1 2 0 4 0

0 0 1 0 0

0 0 0 0 1

0 0 0 0 0

∈ T (R4×5) .

Die Vektoren t1, t3, t5 ∈ R4 sind die Pivotspalten von T . Es gilt rg(T ) = 3. DieVektoren

z1 = t′′2 =

2

−1

0

0

0

∈ R5 , z2 = t′′4 =

4

0

0

−1

0

∈ R5

bilden nach Satz 6.11 eine Basis von ker(T ) ⊆ R5. Siehe Beispiel 6.21. �

Nach diesen Vorbereitungen konnen wir den angekundigten Zerlegungssatzfur Matrizen beweisen. Aus der Einzigkeitsaussage des Zerlegungssatzes 6.13folgt insbesondere, dass eine Treppennormalform nicht von den elementaren Zei-lenumformungen abhangt. Die Einzigkeit der Treppennormalform einer Matrixgestattet es, die Pivotspalten einer beliebigen Matrix zu definieren.

Satz und Definition 6.13 (Gauß-Jordan-Zerlegung). Seien m,n ∈ N und

A = (a1, . . . , am) ∈ Rn×m

mit den Spalten a1, . . . , am ∈ Rn beliebig gegeben.

(1) Es gibt Matrizen C ∈ GL(n,R) und T ∈ T(Rn×m) mit

A = C ◦ T .

Eine solche Zerlegung heißt eine Gauß-Jordan-Zerlegung der Matrix A.Die Treppennormalform T ist durch A eindeutig bestimmt. Sie heißt dieTreppennormalform von A und wird mit T (A) bezeichnet.

(2) Die Matrix T (A) ist die einzige Treppennormalform in T (Rn×m), die ausA durch elementare Zeilenumformungen hervorgeht.

(3) Sei r = rg(A) ∈ N. Seien tµ1 , . . . , tµr mit 1 ≤ µ1 < . . . < µr ≤ m die rPivotspalten von

T (A) = (t1, . . . , tm) .

Dann heißen die r Spalten aµ1 , . . . , aµr die Pivotspalten der Matrix A. ImFall rg(A) = 0 besitzt A keine Pivotspalten.

87

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 88: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(4) Die invertierbare Matrix C ist im Allgemeinen nicht durch A eindeutigbestimmt, wie das Beispiel(

0 1

0 0

)=

(1 α

0 β

)(0 1

0 0

), α ∈ R , β ∈ R×

zeigt. Im Spezialfall rg(A) = n ist die invertierbare Matrix C eindeutigdurch die Matrix A bestimmt.

(5) Werden die Zeilenumformungen, die A in T (A) uberfuhren, in derselbenReihenfolge auf die Einheitsmatrix En angewendet, so ergibt sich aus Endie inverse Matrix C−1 einer invertierbaren Matrix C mit A = C ◦ T (A).Schematisch:

A En

T (A) C−1

C−1 En T (A)

En C A

Die Matrix C hangt von den elementaren Zeilenumformungen ab, die Ain T (A) uberfuhren. Siehe Beispiel 6.21.

Beweis. Nachweis von (1). Sei A ∈ Rn×m beliebig gegeben. Nach Satz 6.6 gibtes C ∈ GL(n,R) und T ∈ T(Rn×m) mit

A = CT .

Nachweis von (2). Wir zeigen, dass die Treppennormalform T durch A ein-deutig bestimmt ist. Seien C1, C2 ∈ GL(n,R) und T1, T2 ∈ T(Rn×m) mit

A = C1T1 = C2T2

gegeben. Nach Satz 6.8 gilt

ker(A) = ker(T1) = ker(T2) .

Eine Basis des Kernes einer Treppennormalform ergibt sich durch Streichen undErganzen. Dies zeigt, dass die Spalten von T1 und T2 ubereinstimmen, die keinePivotspalten sind. Nach Satz 6.10 gilt

rg(A) = #(PV (T1)) = #(PV (T2)) .

Die Pivotspalten von T1 und T2 sind kanonische Basisvektoren. Also stimmenauch die Pivotspalten von T1 und T2 uberein.

Nachweis von (4). Sei A = (a1, . . . , am) ∈ Rn×m mit rg(A) = n gegeben.Nach (1) gibt es C = (c1, . . . , cn) ∈ GL(n,R) mit

A = C ◦ T (A) .

88

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 89: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Fur die n Pivotspalten aµν von A und die n Pivotspalten tµν = e(n)ν von T (A)

gilt

aµν = Ctµν = Ce(n)ν = cν .

Daher wird C im Fall rg(A) = n eindeutig durch A bestimmt.

Aussage (5) folgt aus dem Verfahren von Gauß-Jordan.

Wir charakterisieren die invertierbaren Matrizen. Das Verfahren von Gauß-Jordan ergibt ein Verfahren zur Berechnung der inversen Matrix.

Satz 6.14 (Charakterisierung invertierbarer Matrizen). Sei n ∈ N. Sei A =(a1, . . . , an) ∈ Rn×n eine (n×n)-Matrix mit den Spalten a1, . . . , an ∈ Rn. Dannsind die folgenden Aussagen (1) bis (7) aquivalent.

(1) ker(A) = {0}.

(2) im(A) = Rn.

(3) A = {a1, . . . , an} ist eine Basis des Rn.

(4) (∃B ∈ Rn×n) : AB = En.

(5) (∃B ∈ Rn×n) : BA = En.

(6) T (A) = En.

(7) A ∈ GL(n,R).

Die Matrizen B ∈ Rn in den Aussagen (4) und (5) sind eindeutig durch Abestimmt. Es gilt

B = A−1 .

Eine Matrix A ∈ Rn×n ist genau dann invertierbar, wenn A durch elementareZeilenumformungen in die Einheitsmatrix En ∈ Rn×n uberfuhrt werden kann.Werden diese elementaren Zeilenumformungen in derselben Reihenfolge auf dieMatrix En angewendet, so entsteht die inversen Matrix A−1.

A En

En A−1

Beweis. Nach der Dimensionsformel aus Satz 6.10 sind (1) und (2) aquivalent.Aussage (1) bedeutet, dass a1, . . . , an linear unabhangig sind. Aussage (2) be-deutet [A] = Rn. Also sind (1), (2) und (3) aquivalent.

Nach dem Zerlegungsatz 6.13 sind (6) und (7) aquivalent. Aus (7) folgt (1).

Aus (2) folgt (4). Wir setzen (4) voraus. Aus AB = En folgt ker(B) = {0}.Folglich gibt es C ∈ Rn×n mit BC = En. Wir erhalten

BA = (BA)(BC) = B(AB)C = BC = En .

89

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 90: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Also folgen (5) und (7) aus (4). Bisher haben wir die Aquivalenz von (1), (2),(3), (4), (6) und (7) bewiesen.

Wir setzen (5) voraus. Aus BA = En folgt AtBt = Etn = En. Nach derbereits bewiesenen Aquivalenz von (4) und (7) ist die Matrix At invertierbar.Damit erhalten wir (At)−1 = Bt. Also gilt BtAt = En. Es folgt AB = En. Alsofolgt (4) aus (5). Damit haben wir Aquivalenz von (1) bis (7) bewiesen.

Das Gauß-Jordan-Verfahren liefert nach 6.13 und 6.14 eine Zerlegung einerinvertierbaren Matrix in ein Produkt aus endlich vielen Elementarmatrizen.Allerdings ist eine solche Zerlegung nicht eindeutig bestimmt.

Satz 6.15 (Zerlegung in Elementarmatrizen). Eine Matrix A ∈ Rn×n ist genaudann invertierbar, wenn es Elementarmatrizen C1, . . . , Ck ∈ Z(n,R) mit

A = C1 · · ·Ck

gibt. Eine solche Zerlegung invertierbarer Matrizen ist nicht eindeutig bestimmt.

Beispiel 6.16. Die Matrix A ∈ R2×2 mit

A =

(15

16

16

17

)

ist invertierbar mit

A−1 =

(180 −210

−210 252

).

Das Gauß-Verfahren liefert

15

16 1 0

16

17 0 1

1 56 5 0 5Z1

16

17 0 1

1 56 5 0

0 1252 − 5

6 1 Z2 − 16Z1

1 56 5 0

0 1 −210 252 252Z2

1 0 180 −210 Z1 − 56Z2

0 1 −210 252

90

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 91: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

In Matrixschreibweise erhalten wir(5 0

0 1

)(15

16 1 0 7

616

17 0 1 1

)=

(1 5

6 5 0 356

16

17 0 1 1

),

(1 0

−16 1

)(1 5

6 5 0 356

16

17 0 1 1

)=

(1 5

6 5 0 356

0 1252 −5

6 1 136

),

(1 0

0 252

)(1 5

6 5 0 356

0 1252 −5

6 1 136

)=

(1 5

6 5 0 356

0 1 −210 252 7

),

(1 − 5

6

0 1

)(1 5

6 5 0 356

0 1 −210 252 7

)=

(1 0 180 −210 0

0 1 −210 252 7

).

Dementsprechend erhalten die Zerlegung(15

16

16

17

)=

(15 0

0 1

)(1 016 1

)(1 0

0 1252

)(1 5

6

0 1

).

Solche eine Zerlegung hangt offenbar von den elementaren Zeilenumformungenab, die zur Herstellung der Treppennormalform verwendet worden sind. �

Nach diesen Vorbereitungen konnen wir die bereits erwahnten Satze zurBestimmung von Basen des Kernes und des Bildes einer Matrix formulieren.

Satz 6.17 (Berechnung einer Basis des Kernes). Seienm,n ∈ N und A ∈ Rn×m.Eine Basis von ker(A) kann auf folgende Weise berechnet werden:

(1) Berechnung des Ranges r = rg(A) und der Treppennormalform T (A) derMatrix A mit dem Verfahren von Gauß-Jordan.

(2) Sei T ′(A) ∈ T(Rr×m) die Matrix, die durch Streichen aller Nullzeilen ausT (A) hervorgeht.

(3) Die Matrix

T ′′(A) = (t′′νµ)ν=1,...,mµ=1,...,m

∈ Rm×m

entstehe aus T ′(A), indem (m − r) Zeilen aus Rm, die an genau einerStelle eine −1 und sonst lauter Nullen enthalten, derart erganzt werden,dass t′′νν = ±1 fur alle ν = 1, . . .m gilt.

(4) Die Spalten von T ′′(A), die eine erganzte −1 enthalten, bilden eine Basisvon ker(A).

91

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 92: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz 6.18 (Extraktion einer Basis). Seien m,n ∈ N und a1, . . . , am ∈ Rngegeben. Sei

X = [a1, . . . , am] = [{a1, . . . , am}] ⊆ Rn

der Teilvektorraum, der von den Vektoren a1, . . . , am erzeugt wird. Sei weiter

A = (a1, . . . , am) ∈ Rn×m

die (n×m)-Matrix mit den Spalten a1, . . . , am. Eine Basis von X = im(A) kannaus den Vektoren a1, . . . , am auf folgende Weise extrahiert werden:

(1) Berechnung des Ranges r = rg(A) und der Treppennormalform T (A) derMatrix A mit dem Verfahren von Gauß-Jordan.

(2) r = rg(A) = rg(T (A)) = #(PV (T (A))).

(3) Seien tµ1 , . . . , tµr die Pivotspalten der Treppenormalform von T (A). Dannheißen die Spaltenvektoren aµ1 , . . . , aµr die Pivotspalten der Matrix A.

(4) Die Pivotspalten aµ1 , . . . , aµr der Matrix A bilden eine Basis

A = {aµ1 , . . . , aµr}

des Teilraumes X = im(A).

Wir verwenden vorstehende Ergebnisse, um ein Losungsverfahren fur lineareinhomogene Gleichungsysteme zu formulieren.

Satz 6.19 (Losbarkeit linearer Gleichungssysteme). Seien n, m ∈ N. SeienA = (a1, . . . , am) ∈ Rn×m und b ∈ Rm gegeben. Dann sind die folgenden Aus-sagen (1), (2), (3) aqivalent.

(1) Ax = b ist losbar.

(2) b ∈ im(A).

(3) rg(A) = rg(A′).

Dabei ist

A′ = (A, b) = (a1, . . . , am, b) ∈ Rn×(m+1)

die n× (m+ 1)-Matrix, die aus A durch Hinzunahme von b als einer (m+ 1)-ten Spalte hervorgeht. Die Matrix (A, b) heißt dann auch die erweiterte Matrix.Rang und Treppennormalform der erweiterten Matrix (A, b) bezeichnen wir mitrg(A, b) respektive T (A, b). Offenbar sind homogene lineare GleichungssystemAx = 0 stets losbar.

92

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 93: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz 6.20. Seien n, m ∈ N. Seien A = (a1, . . . , am) ∈ Rn×m und b ∈ im(A)gegeben. Sei L ⊆ Rm die Menge aller Losungen von Ax = b. Dann gelten:

(1) Ax = b ist losbar.

(2) Fur alle ξ ∈ L gilt

L = ξ + ker(A) = {x ∈ Rm | (∃z ∈ ker(A)) : x = ξ + z } .

(3) Fur Aussage (2) ist folgende Ausdrucksweise ublich. Ein fest gewahlteξ ∈ L heißt eine spezielle Losung. Jede Losung des inhomogenen Glei-chungssystems ist die Summe einer speziellen Losung und einer Losungdes homogenen Gleichungssystems.

(4) Sei r = rg(A) und T ′(A, b) ∈ T(Rr×(m+1)) die Matrix, die durch Streichenaller Nullzeilen aus T (A, b) hervorgeht.

(5) Die Matrix

T ′′(A, b) = (t′′νµ)ν=1,...,mµ=1,...,m+1

∈ Rm×(m+1)

entstehe aus T ′(A, b), indem (m−r) Zeilen aus Rm+1, die an genau einerStelle eine −1 und sonst lauter Nullen enthalten, derart erganzt werden,dass t′′νν = ±1 fur alle ν = 1, . . . ,m gilt.

(6) Die Spalten von T ′′(A, b), die eine erganzte −1 enthalten, bilden eine Basisvon ker(A).

(7) Die (m+ 1)-te Spalte von T ′′(A, b) ist ein Element von L.

Beispiel 6.21. Wir betrachten die Matrix A ∈ R4×5 und den Vektor b ∈ R4

mit

A = (a1, a2, a3, a4, a5) =

1 2 2 4 3

2 4 3 8 4

3 6 4 12 5

4 8 5 16 4

, b =

7

10

13

12

.

Die Zerlegungen1 2 2 4 3

2 4 3 8 4

3 6 4 12 5

4 8 5 16 4

=

1 2 3 0

2 3 4 0

3 4 5 α

4 5 4 β

1 2 0 4 0

0 0 1 0 0

0 0 0 0 1

0 0 0 0 0

mit α ∈ R× und β ∈ R sind Gauß-Jordan-Zerlegungen von A. Es gibt auch nochandere Gauß-Jordan-Zerlegungen von A. Den Rang, eine Basis des Kernes unddie Pivotspalten von A konnen wir an der Treppennormalform

T (A) = (t1, t2, t3, t4, t5) =

1 2 0 4 0

0 0 1 0 0

0 0 0 0 1

0 0 0 0 0

∈ T(R4×5)

93

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 94: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

ablesen. Es gilt rg(A) = rg(T (A)) = 3. Streichen und Erganzen liefert

T ′′(A) = (t′′1 , t′′2 , t

′′3 , t

′′4 , t

′′5) =

1 2 0 4 0

0 −1 0 0 0

0 0 1 0 0

0 0 0 −1 0

0 0 0 0 1

∈ R5×5 .

Die Vektoren

z1 = t′′2 =

2

−1

0

0

0

∈ R5 , z2 = t′′4 =

4

0

0

−1

0

∈ R5

bilden nach Satz 6.17 eine Basis von ker(A) = ker(T (A)). Siehe Beispiel 6.12.Die Vektoren t1, t3, t5 sind die Pivotspalten von T (A). Daher sind

a1 =

1

2

3

4

∈ R4 , a3 =

2

3

4

5

∈ R4 , a5 =

3

4

5

4

∈ R4

die Pivotspalten der gegebenen Matrix A. Nach Satz 6.18 bilden die Pivotspaltenvon A eine Basis A = {a1, a3, a5} von im(A). Aus der Treppennormalform

T (A, b) =

1 2 0 4 0 1

0 0 1 0 0 0

0 0 0 0 1 2

0 0 0 0 0 0

∈ R4×6 .

der erweiterten Matrix (A, b) = (a1, a2, a3, a4, a5, b) folgt, dass das inhomogenelineare Gleichungssystem Ax = b losbar ist, denn es gilt

rg(A, b) = rg(T (A, b)) = rg(T (A)) = rg(A) .

Siehe Satz 6.19. Streichen und Erganzen liefert

T ′′(A, b) = (t′′1 , t′′2 , t

′′3 , t

′′4 , t

′′5 , t

′′6) =

1 2 0 4 0 1

0 −1 0 0 0 0

0 0 1 0 0 0

0 0 0 −1 0 0

0 0 0 0 1 2

∈ R5×6 .

94

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 95: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Im Falle der Losbarkeit gilt T ′′(A, b) = (T ′′(A), t′′6), wobei

ξ = t′′6 =

1

0

0

0

2

∈ R5

nach Satz 6.20 eine spezielle Losung von Ax = b ist. Demnach bilden alle Vek-toren x ∈ R5 der Form

x = ξ + λ1z1 + λ2z2 , λ1 ∈ R , λ2 ∈ R

die Losungsmenge von Ax = b. �

95

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 96: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Schema 6.22.

• A = (a1, . . . , am) ∈ Rn×m mit r = rg(A) ∈ N

• ti1 , . . . , tir mit 1 ≤ i1 < . . . < ir ≤ m seien die Pivotspalten von T (A)

• A = {ai1 , . . . , air} ist eine Basis von im(A)

• (ai1 , . . . , air ) ∈ Rn×r

• b ∈ Rn

• L = {x ∈ Rm | Ax = b }

Kriterium: L = ∅ ⇐⇒ b ∈ im(A) ⇐⇒ rg(T (A, b)) = rg(T (A))

• b ∈ im(A) =⇒

T ′(A, b) = (T ′(A), bA) ∈ Rr×(m+1) ,

(ai1 , . . . , air ) bA = b

• b ∈ im(A) =⇒

T ′′(A, b) = (T ′′(A), ξ) ∈ Rm×(m+1) ,

Aξ = b

• b ∈ im(A) =⇒ L = ξ + ker(A) = { ξ + η | η ∈ ker(A) }

• def(A) = k = m− r ∈ N

• tj1 , . . . , tjk mit 1 ≤ j1 < . . . < jk ≤ m seien die ubrigen Spalten von T (A)

• T ′′(A) = (t′′1 , . . . , t′′m) ∈ Rm×m

• N = {t′′j1 , . . . , t′′jk} ist eine Basis von ker(A) = ker(T (A))

96

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 97: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

7 Koordinaten und Matrixdarstellungen

Im Folgenden seien X ⊆ Rm′, Y ⊆ Rn′

und Z ⊆ Rk′ beliebige Teilvektorraume.Wir wollen dies so verstehen, dass Gleichheit X = Y die Gleichheit m′ = n′

impliziert. SeiX nicht der Nullraum. Dann ist eine lineare Abbildung φ : X → Ydurch die Bilder der Vektoren einer Basis von X eindeutig bestimmt. Wenn Yebenfalls nicht der Nullraum ist, dann kann φ bezuglich einer Basis A von Xund einer Basis B von Y durch eine Matrix MAB dargestellt werden. Auf dieseWeise lassen sich lineare Abbildungen mit dem Matrixkalkul untersuchen. Wirbeginnen mit der Definition der Koordinatenvektoren.

Satz und Definition 7.1. Sei m ∈ N und Em = {e(m)1 , . . . , e

(m)m } die kanoni-

sche Basis des Rm. Sei weiter A = {a1, . . . , am} eine beliebige Basis von X.

(1) Jeder Vektor x ∈ X besitzt eine eindeutig bestimme Darstellung

x =

m∑µ=1

αµaµ

mit α1, . . . , αm ∈ R. Der Spaltenvektor

xA =m∑µ=1

αµe(m)µ =

α1

...

αm

∈ Rm

heißt der Koordinatenvektor von x bezuglich A. Dementsprechend heißendie Komponenten α1, . . . , αm des Spaltenvektors xA die Koordinaten vonx bezuglich A.

(2) Sei A = (a1, . . . , am) ∈ Rm′×m die Matrix mit den Spalten a1, . . . , am.Dann gelten (2.1), (2.2), (2.3), (2.4).

(2.1) rg(A) = m ≤ m′.

(2.2) X = im(A) = [a1, . . . , am] ⊆ Rm′.

(2.3) Fur alle x ∈ X gilt

x = AxA = (a1, . . . am)

α1

...

αm

=

m∑µ=1

αµaµ .

(2.4) Fur jeden Vektor x ∈ X ist der Koordinatenvektor xA ∈ Rm ist dieeinzige Losung ξ ∈ Rm des inhomogenen linearen Gleichungssystems

Aξ = x .

(3) Sei x ∈ X beliebig gegeben. Der Koordinatenvektor xA ∈ Rm entstehtaus der Treppennormalform T (A, x) ∈ T(Rm′×(m+1)) durch Streichen der(m′ −m) Nullzeilen und der ersten m Spalten.

(4) Es gilt

(aµ)A = e(m)µ

fur alle µ = 1, . . . ,m.

97

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 98: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Wir heben ausdrucklich hervor, dass der Koordinatenvektor xA ∈ Rm vomVektor x ∈ X ⊆ Rm′

im Allgemeinen sorgfaltig unterschieden werden muss. ImFall m < m′ ist dies offenkundig. Wir betrachten ein Beispiel mit m = m′ = 3.Dagegen gilt stets x = xE , wenn E die kanonische Basis ist.

Beispiel 7.2. Die Vektoren

a1 =

1

1

2

, a2 =

−3

1

1

, a3 =

0

1

2

bilden eine Basis A des R3. Wir betrachten

x =

−2

7

3

= 31

1

1

2

+ 11

−3

1

1

− 35

0

1

2

, xA =

31

11

−35

.

Dann gilt x = xA. �

Beispiel 7.3. Sei m ∈ N und E ⊆ Rm die kanonische Basis des Rm. Dann giltx = xE fur alle x ∈ Rm. �

Satz und Definition 7.4. Seien m,n ∈ N. Seien A = {a1, . . . , am} und B ={b1, . . . , bn} Basen von X respektive Y . Sei φ : X → Y eine lineare Abbildung.

(1) Fur alle µ = 1, . . . ,m gibt es eindeutig bestimmte Koeffizienten

γ1µ, . . . , γnµ ∈ R

derart, dass

φ(aµ) =n∑ν=1

γνµbν = γ1µb1 + . . .+ γnµbn

gilt. Dabei wird zur Berechnung von φ(aµ) uber den ersten Index ν vonγνµ summiert. Die (n×m)-Matrix

MAB(φ) =

γ11 . . . γ1m...

...

γn1 . . . γnm

∈ Rn×m

heißt die Matrixdarstellung von φ bezuglich A und B.

(2) Fur alle Vektoren x ∈ X gilt

(φ(x))B =MAB(φ)xA .

Dabei sind xA und (φ(x))B die Koordinatenvektoren von x bezuglich Arespektive von φ(x) bezuglich B.

98

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 99: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(3) Die Matrixdarstellung MAB(φ) ist die einzige Matrix M ∈ Rn×m, die

(φ(x))B =MxA

fur alle x ∈ X erfullt.

(4) Sei (MAB(φ))µ die µ-te Spalte der Matrix MAB(φ). Es gilt

(MAB(φ))µ = (φ(aµ))B =

γ1µ...

γnµ

fur alle µ = 1, . . . ,m.

(5) Die Matrixdarstellung MAB(φ) entsteht aus der Treppennormalform

T (b1, . . . , bn, (φ(a1))B, . . . , (φ(am))B) ∈ T(Rn′×(n+m))

durch Streichen der (n′ − n) Nullzeilen und der ersten n Spalten. Dabeiist

T (b1, . . . , bn, (φ(a1))B, . . . , (φ(am))B)

die Treppennormalform der Matrix mit den (n+m) Spalten

b1, . . . , bn, (φ(a1))B, . . . , (φ(am))B ∈ Rn′.

(6) Im Spezialfall X = Y mit A = B und n = m sowie aν = bν fur ν = 1, . . . , nheißt MAA(φ) die Matrixdarstellung von φ bezuglich A.

(7) Im Spezialfall X = Y mit n = m und φ = idX heißt die Matrixdarstellung

MAB =MAB(idX)

die Transformationsmatrix oder Ubergangsmatrix von A nach B.

Wir heben die Stellung der Indizes in (1) ausdrucklich hervor. In (1) wird uberden ersten Index ν summiert, damit in (2) der Koordinatenvektor yB durchlinksseitige Multiplikation mit der Matrix MAB(φ) aus dem KoordinatenvektorxA hervorgeht.

Beweis. Zu jedem Vektor x ∈ X und jedem Vektor y ∈ Y gibt es eindeutigbestimmte Koeffizienten α1, . . . , αm ∈ R und β1, . . . , βn ∈ R mit

x =

m∑µ=1

αµaµ , y =

n∑ν=1

βνbν .

Wir betrachten fur x ∈ X den Vektor φ(x) ∈ Y . Es gilt

φ(x) =m∑µ=1

αµφ(aµ) =m∑µ=1

(n∑ν=1

αµγνµ

)bν =

n∑ν=1

(m∑µ=1

γνµαµ

)bν .

99

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 100: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Folglich gilt y = φ(x) genau dann, wenn

βν =

m∑µ=1

γνµαµ .

fur alle ν = 1, . . . , n) gilt. Nach dieser Uberlegung ist es klar, dass (2) bis (5)lediglich Umformulierungen von (1) sind.

Beispiele 7.5.

(1) Sei A ∈ Rn×m beliebig gegeben. Nach Satz 5.9 ist φA : Rm → Rn mit

φ(x) = Ax

eine lineare Abbildung. Nach Satz 7.4 gilt

A =MEmEn(φA) .

(2) Fur fur alle Basen A von X gilt

MAA =MAA(idX) = Em .

(3) Seien A = {a1, . . . , am} und B = {b1, . . . , bm} zwei beliebige Basen desRm sowie A = (a1, . . . , am) ∈ GL(m,R) und B = (b1, . . . , bm) ∈ GL(m,R)die entsprechenden invertierbaren Matrizen mit den Spalten a1, . . . , amrespektive b1, . . . , bm. Nach Satz 7.4 gilt

MAB =MAB(idRm) = B−1A .

(4) Wenn φ : X → Y die Nullabbildung ist, dann gilt

MAB(φ) = 0m×n ∈ Rn×m

fur alle Basen A von X und alle Basen B von Y . �

Satz 7.6. Seien A,B, C Basen von X, Y respektive Z. Seien φ,ψ : X → Y undη : Y → Z lineare Abbildungen. Sei c ∈ R. Dann gelten die folgenden Regeln.

(1) MAB(cφ) = cMAB(φ).

(2) MAB(φ+ ψ) =MAB(φ) +MAB(ψ).

(3) MAC(η ◦ φ) =MBC(η)MAB(φ).

(4) dim(im(φ)) = dim(im(MAB(φ)).

(5) dim(ker(φ)) = dim(ker(MAB(φ)).

(6) φ ist genau dann surjektiv, wenn rg(MAB(φ)) = dim(Y ) gilt.

(7) φ ist genau dann injektiv, wenn ker(MAB(φ)) = {0} gilt.

100

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 101: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Wir wenden uns nun linearen Abbildungen φ : Rm → Rm zu, die hinsichtlicheiner geeigneten Basis V eine Diagonalmatrix als Matrixdarstellung besitzen.

Satz 7.7. Sei E = {e1, . . . , em} die kanonische Basis und V = {v1, . . . , vm}eine beliebige Basis des Rm. Sei V = (v1, . . . , vm) ∈ GL(m,R) die invertierbareMatrix mit den Spalten v1, . . . , vm. Dann gelten fur alle x ∈ Rm und alle φ ∈L(Rm,Rm) die Formeln (1), (2), (3).

(1) xV = V −1x.

(2) (φ(x))V =MVV(φ)xV .

(3) MVV(φ) = V −1MEE(φ)V .

Beweis. Die Gultigkeit der Formeln (1) und (2) folgt direkt aus 7.1 und 7.4. ImFall V = E und V = E gelten (1), (2), (3) trivialerweise. Seien φ ∈ L(Rm,Rm)und x ∈ Rm beliebig gewahlt. Dann gilt

MVV(φ)V−1x =MVV(φ)xV

= (φ(x))V

= V −1 φ(x)

= V −1 (φ(x))E

= V −1MEE(φ)xE

= V −1MEE(φ)x .

Weil x ∈ Rm beliebig gewahlt war, folgt

MVV(φ)V−1 = V −1MEE(φ) .

Multiplikation von rechts mit V ergibt (2). Damit ist der Beweis beendet.

101

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 102: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

8 Diagonalisierung

Sei m ∈ N. Gegeben sei eine lineare Abbildung φ : Rm → Rm mit der Ma-trixdarstellung

A =MEE(φ) ∈ Rm×m .

Gesucht ist eine Basis V = {v1 . . . , vm} des Rm derart, dass die Matrixdarstel-lung

MVV(φ) = V −1AV

moglichst einfach wird. Dabei ist V = (v1 . . . , vm) ∈ Rm×m die Matrix mit denSpalten v1 . . . , vm. Wir nehmen an, dass wir V so wahlen konnen, dass MVV(φ)eine Diagonalmatrix ist.

Definition 8.1. Eine Matrix D = (dνµ) ∈ Rm×m heißt Diagonalmatrix, wenndνµ = 0 fur alle ν, µ ∈ {1, . . . ,m} mit ν = µ gilt. Wir schreiben dann

D = diag(λ1, . . . , λm) ,

wobei wir λµ = dµµ fur µ = 1, . . . ,m gesetzt haben.

Die zusatzliche Annahme, dass MVV(φ) eine Diagonalmatrix ist, fuhrt aufden Begriff des Eigenwertes und des Eigenvektors einer Matrix.

Satz 8.2. Sei m ∈ N. Fur A ∈ Rm×m und V = (v1, . . . , vm) ∈ GL(m,R) sinddie folgenden Aussagen (1) bis (4) aquivalent.

(1) diag(λ1, . . . , λm) = V −1AV .

(2) V ◦ diag(λ1, . . . , λm) = A ◦ V .

(3) A ◦ V = (λ1v1, . . . , λmvm).

(4) (∀µ = 1, . . . ,m) : Avµ = λµvµ.

Definition 8.3. Seien m ∈ N und A ∈ Rm×m gegeben.

(1) Ein Vektor v ∈ Rm \ {0} heißt ein Eigenvektor von A genau dann, wennes ein λ ∈ R mit Av = λv gibt. Die reelle Zahl λ heißt der Eigenwert vonA zum Eigenvektor v.

(2) Die Matrix A heißt diagonalisierbar, wenn es eine Basis V = {v1, . . . , vm}des Rm aus Eigenvektoren v1, . . . , vm von A gibt.

(3) Wenn die Matrix A diagonalisierbar ist, dann gibt es linear unabhangigeEigenvektoren v1, . . . , vm ∈ Rm. Seien λ1, . . . , λm ∈ R die zugehorigenEigenwerte. Sei V = (v1, . . . , vm) ∈ GL(m,R). Die Beziehung

diag(λ1, . . . , λm) = V −1AV

heißt eine Diagonaldarstellung von A.

102

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 103: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 8.4. Gegeben seien A ∈ R3×3 und v1, v2, v3 ∈ R3 mit

A =

2 0 0

1 9 −4

2 14 −6

, v1 =

1

1

2

, v2 =

−3

1

1

, v3 =

0

1

2

.

Wir zeigen, dass A diagonalisierbar ist. Die Menge V = {v1, v2, v3} ist eine Basisdes R3 aus Eigenvektoren von A. Aus2 0 0

1 9 −4

2 14 −6

1 −3 0

1 1 1

2 1 2

=

2 −6 0

2 2 1

4 2 2

folgt, dass λ1 = λ2 = 2 und λ3 = 1. Siehe Satz 8.2. Zum Nachweis, dass V eineBasis ist, zeigen wir, dass die Matrix V = (v1, v2, v3) invertierbar ist. Siehe Satz6.14.

1 −3 0 1 0 0

1 1 1 0 1 0

2 1 2 0 0 1

1 −3 0 1 0 0

0 4 1 −1 1 0 Z2 − Z1

0 7 2 −2 0 1 Z3 − 2Z1

1 −3 0 1 0 0

0 4 1 −1 1 0

0 3 1 −1 −1 1 Z3 − Z2

1 0 1 0 −1 1 Z1 + Z3

0 1 0 0 2 −1 Z2 − Z3

0 3 1 −1 −1 1

1 0 1 0 −1 1

0 1 0 0 2 −1

0 0 1 −1 −7 4 Z3 − 3Z2

1 0 0 1 6 −3 Z1 − Z3

0 1 0 0 2 −1

0 0 1 −1 −7 4

Wir erhalten die Diagonaldarstellung

V −1AV =

1 6 −3

0 2 −1

−1 −7 4

2 0 0

1 9 −4

2 14 −6

1 −3 0

1 1 1

2 1 2

= diag(2, 2, 1) .

Siehe Beispiel 8.6. �

103

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 104: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz 8.5. Seien m ∈ N und eine diagonalisierbare Matrix A ∈ Rm×m gegeben.Seien V = {v1, . . . , vm} eine Basis des Rm aus Eigenvektoren v1, . . . , vm derMatrix A und V = (v1, . . . , vm) ∈ GL(m,R) die invertierbare Matrix mit denSpalten v1, . . . , vm. Weiter seien λ1, . . . , λm ∈ R die Eigenwerte von A mitAvµ = λµvµ fur µ = 1, . . . ,m.

(1) Es gilt die Diagonaldarstelllung

A = V ◦ diag(λ1, . . . , λm) ◦ V −1 .

(2) Sei n ∈ N0. Fur ein reelles Polynom

p(λ) =n∑ν=0

ανλν = αnλ

n + . . .+ α1λ+ α0 ∈ R[λ]

mit α0, . . . , αn ∈ R sei p(A) ∈ Rm×m die Matrix mit

p(A) =n∑ν=0

ανAν = αnA

n + . . .+ α1A+ α0Em .

Dabei definieren wir die Potenzen der Matrix A induktiv durch A0 = Emund Ak+1 = A ◦Ak fur alle k ∈ N0.

(3) Fur jedes reelle Polynom p(λ) ∈ R[λ] gilt

p(A) = V ◦ diag(p(λ1), . . . , p(λm)) ◦ V −1 .

Fur p(λ) = λ erhalten wir die Diagonaldarstellung (1) zuruck.

Beispiel 8.6. Nach Beispiel 8.4 ist die Matrix A ∈ R3×3 mit

A =

2 0 0

1 9 −4

2 14 −6

diagonalisierbar. Es gilt2 0 0

1 9 −4

2 14 −6

=

1 −3 0

1 1 1

2 1 2

2 0 0

0 2 0

0 0 1

1 6 −3

0 2 −1

−1 −7 4

.

Mit dieser Diagonaldarstellung

A = V ◦ diag(λ1, λ2, λ3) ◦ V −1

konnen Polynome p(A) berechnet werden. Fur alle p(λ) ∈ R[λ] gilt

p(A) = V ◦ diag(p(λ1), . . . , p(λm)) ◦ V −1 .

Siehe Satz 8.5.

104

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 105: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(1) Zuerst betrachten wir das Polynom

χ(λ) = (λ− λ1)(λ− λ2)(λ− λ3)

= (λ− 2)2(λ− 1) = λ3 − 5λ2 + 8λ− 4 .

Es gilt

χ(A) = V ◦ diag(χ(2), χ(2), χ(1)) ◦ V −1

= V ◦ diag(0, 0, 0) ◦ V −1 = diag(0, 0, 0)

=

0 0 0

0 0 0

0 0 0

Siehe Beispiel 14.2 und Satz 14.4.

(2) Nun betrachten wir das Polynom

q(λ) = λ3 − 5λ2 − 4 = χ(λ)− 8λ .

Nach Teil (1) gilt

q(A) = χ(A)− 8A = −8A . (8.1)

Wir berechnen q(A) mit Hilfe der Diagonaldarstellung von A. Die Identitat(8.1) kann zur Probe verwendet werden. Es gilt

A3 − 5A2 − 4E3 =

1 −3 0

1 1 1

2 1 2

q(2) 0 0

0 q(2) 0

0 0 q(1)

1 6 −3

0 2 −1

−1 −7 4

=

1 −3 0

1 1 1

2 1 2

−16 0 0

0 −16 0

0 0 −8

1 6 −3

0 2 −1

−1 −7 4

=

1 −3 0

1 1 1

2 1 2

−16 −96 48

0 −32 16

8 56 −32

=

−16 0 0

−8 −72 32

−16 −112 48

= (−8)

2 0 0

1 9 −4

1 14 −6

= −8A .

Naturlich konnen die Matrizen χ(A) und q(A) auch direkt nach der Definition(2) in 8.5 berechnet werden. �

Es gibt allerdings quadratische Matrizen, die nicht diagonalisierbar sind.

105

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 106: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 8.7. Die reelle (2× 2)-Matrix

A =

(0 1

0 0

)

ist nicht diagonalisierbar. Aus(0 1

0 0

)(x

y

)= λ

(x

y

)

folgt y = 0. Daher kann es keine Basis des R2 aus Eigenvektoren der Matrix Ageben. �

In Abschnitt 12 werden wir beweisen, dass eine quadratische Marix genaudann invertierbar ist, wenn ihre Determinante von Null verschieden ist. SieheSatz 12.5.

Satz und Definition 8.8. Seien n ∈ N und A ∈ Rn×n.

(1) Das reelle Polynom χA(λ) = det(A − λEn) heißt das charakteristischePolynom von A.

(2) λ ∈ R ist genau dann ein Eigenwert von A, wenn χA(λ) = 0 gilt.

Beispiel 8.9. Nach 8.4 hat die Matrix

A =

2 0 0

1 9 −4

2 14 −6

∈ R3×3

den einfachen Eigenwert 1 und den doppelten Eigenwert 2. Wir rechnen diesnach, indem wir das charakteristische Polynom χA(λ) von A nach der rekursivenDefinition 1.4 auswerten.

χA(λ) = (2− λ) ·((9− λ)(−6− λ) + 56

)− 1 · 0 + 2 · 0

= (2− λ)(λ2 − 3λ− 2)

= (−1)(λ− 1)(λ− 2)2 .

Wir erhalten det(A) = χA(0) = 4. Siehe Beispiel 1.5. �

106

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 107: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

9 Bestandteile der strikten Bruhat-Zerlegung

Nach dem Zerlegungssatz 6.15 lasst sich jede invertierbare Matrix als Produktvon endlich vielen Elementarmatizen schreiben. Solche eine Zerlegung ist nichteindeutig bestimmt. Es gibt Zerlegungen in Elementarmatrizen, deren Faktorensich in vier Matrizen zusammenfassen lassen, wobei jede dieser vier Matrizeneine bestimmte Bauart besitzt. Nach Satz 10.1 besitzt jede Matrix A ∈ GL(n,R)eine Zerlegung der Form

A = L ◦D ◦ P ◦ U ,

wobei L eine untere Dreiecksmatrix, D eine Diagonalmatrix, P eine Permutati-onsmatrix und U eine obere Dreiecksmatrix ist. Dabei sind die Diagonalelementevon L und U auf 1 normiert. Solch eine Zerlegung heißt eine Bruhat-Zerlegung.Die Matrizen D und P sind in jedem Fall eindeutig bestimmt. Die normiertenDreiecksmatrizen L und U sind eindeutig bestimmt, wenn

P ◦ U ◦ P−1

ebenfalls eine normierte obere Dreiecksmatrix ist. Solche eine eindeutig be-stimmte Zerlegung heißt eine strikten Bruhat-Zerlegung von A. In diesem Ab-schnitt beschreiben wird die Bestandteile dieser Zerlegung.

Beispiel 9.1. Wir betrachten noch einmal die invertierbare reelle (2×2)-Matrixaus Beispiel 6.16.(

15

16

16

17

)=

(15 0

0 1

)(1 016 1

)(1 0

0 1252

)(1 5

6

0 1

)

=

(1 056 1

)(15 0

0 1

)(1 0

0 1252

)(1 5

6

0 1

)

=

(1 056 1

)(15 0

0 1252

)(1 0

0 1

)(1 5

6

0 1

).

In diesem Fall ist die Permutationsmatrix P die Einheitsmatrix E2. Daher istdie Zerlegung in der letzten Zeile die strikte Bruhat-Zerlegung. �

In 9.2 und 9.8 beschreiben wir die Bestandteile der strikten Bruhat-Zerlegung.Die Erorterungen dieses Abschnittes bereiten den Beweis des Satzes 10.1 vor.

Satz und Definition 9.2. Sei n ∈ N.

(1) Sei D(n,R) = {D = (dνµ) ∈ Rn×n | dνµ = 0, ν = µ, ν, µ = 1, . . . , n} dieMenge der reellen (n× n)-Diagonalmatrizen. Dann gelten:

(1.1) D×(n,R) = {diag(d1, . . . , dn) | d1, . . . dn ∈ R×} ⊆ GL(n,R).(1.2) En = diag(1, . . . , 1) ∈ GL(n,R).

107

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 108: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(2) Sei Lx(n,R) = {(lνµ) ∈ Rn×n | lνµ = 0, µ > ν} die Menge der unterenDreiecksmatrizen. Dann gelten:

(2.1) Lx×(n,R) = {(lνµ) ∈ Lx(n,R) | lνν ∈ R×, ν = 1, . . . , n} ⊆ GL(n,R).

(2.2) Lx1(n,R) = {(lνµ) ∈ Lx(n,R) | lνν = 1, ν = 1, . . . , n} ⊆ GL(n,R).

(3) Sei Uq(n,R) = {(uνµ) ∈ Rn×n | uνµ = 0, ν > µ } die Menge der oberenDreiecksmatrizen. Dann gelten:

(3.1) Uq×(n,R) = {(uνµ) ∈ Uq(n,R) | uνν ∈ R×, ν = 1, . . . , n} ⊆ GL(n,R).

(3.2) Uq1(n,R) = {(uνµ) ∈ Uq(n,R) | uνν = 1, ν = 1, . . . , n} ⊆ GL(n,R).

(4) Sei X ⊆ GL(n,R) eine der funf Teilmengen D×(n,R), Lx×(n,R), Lx

1(n,R),Uq

×(n,R), Uq1(n,R). Dann gelten:

(4.1) En ∈ X.

(4.2) (∀A,B ∈ X) : A ◦B ∈ X.

(4.3) Die Diagonalelemente verhalten sich bei Produktbildung in X multi-plikativ. Seien A = (aνµ), B = (bµλ), C = (cνλ) ∈ X Matrizen mitC = AB. Dann gilt

cνν = aννbνν

fur alle ν = 1, . . . , n.

(4.4) (∀A ∈ X) : A−1 ∈ X.

(4.5) Lx×(n,R) ∩Uq

×(n,R) = D×(n,R).(4.6) Lx

1(n,R) ∩Uq1(n,R) = {En}.

Siehe Satz und Definition 9.8, Aussage (11).

Wir heben ausdrucklich hervor, dass die Produktregel (4.3) fur beliebige Matrizenaus Rn×n im Allgemeinen nicht gilt.

Beweis. Wir beweisen (4.2), (4.3) und (4.4) im Fall X = Lx×(n,R). Alle anderen

Aussagen des Satzes sind klar oder ergeben sich aus diesem Spezialfall. Fur alleM ∈ Lx

×(n,R) gilt T (M) = En. Also gilt Lx×(n,R) ⊆ GL(n,R). Das Verfahren

von Gauß-Jordan liefert außerdem M−1 ∈ Lx×(n,R). Siehe Satz 6.14. Seien

A = (aνµ) ∈ Lx×(n,R) , B = (bµλ) ∈ Lx

×(n,R) , C = (cνλ) ∈ Rn×n

mit C = AB gegeben. Dann gilt C ∈ GL(n,R). Weiter gilt aνµ = 0 allenfallsfur µ ≤ ν. Entsprechend gilt bµλ = 0 allenfalls fur λ ≤ µ. Folglich gilt

cνλ =n∑µ=1

aνµbµλ = 0

allenfalls fur λ ≤ ν. Dabei gilt

cνλ =∑

λ≤µ≤ν

aνµbµλ .

108

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 109: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Nun folgen

C = AB ∈ Lx(n,R) ∩GL(n,R) = Lx×(n,R) , cνν = aννbνν

fur alle ν = 1, . . . , n. Damit ist der Beweis beendet.

Beispiel 9.3. Das Produkt zweier unterer Dreiecksmatrizen aus Lx1(3,R) ist

nach 9.2 Aussage (4.2) eine untere Dreiecksmatrix aus Lx1(3,R).1 0 0

2 1 0

3 4 1

1 0 0

5 1 0

6 7 1

=

1 0 0

7 1 0

29 11 1

.

Nach 9.2 Aussage (2.2) ist eine untere Dreiecksmatrix aus Lx1(3,R) invertierbar.

Die inverse Matrix ist nach 9.2 Aussage (4.4) ebenfalls eine untere Dreiecks-matrix aus Lx

1(3,R). Das Verfahren von Gauß-Jordan liefert1 0 0

2 1 0

3 4 1

−1

=

1 0 0

−2 1 0

5 −4 1

.

Die Einzelheiten sind in folgendem Schema enthalten.

1 0 0 1 0 0

2 1 0 0 1 0

3 4 1 0 0 1

1 0 0 1 0 0 Z1

0 1 0 −2 1 0 Z2 − 2Z1

0 4 1 −3 0 1 Z3 − 3Z1

1 0 0 1 0 0 Z1

0 1 0 −2 1 0 Z2

0 0 1 5 −4 1 Z3 − 4Z2

Siehe Satz 6.14. Wir machen die Probe. Offenbar gilt1 0 0

2 1 0

3 4 1

1 0 0

−2 1 0

5 −4 1

=

1 0 0

0 1 0

0 0 1

.

Nach 9.2 Aussage (4.3) verhalten sich die Diagonalelemente bei Produktbildungin Lx

×(3,R) multiplikativ. 9 0 0

−3 4 0

5 1 −7

−3 0 0

2 5 0

4 3 5

=

−27 0 0

17 20 0

−41 −16 −35

.

109

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 110: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Der Beweis des Satz 10.1 ist konstruktiv. Die Konstruktion der normiertenunteren Dreiecksmatrix L ∈ Lx

1(n,R) erfolgt schrittweise durch Konstruktionder (n − 1) ersten Spalten. Dabei ist die n-te Spalte gleich dem n-ten kanoni-schen Basisvektor en. Die einzelnen Schritte lassen sich durch Elementarmatri-zen beschrieben. Das Produkt dieser Elementarmatrizen ergibt schließlich diegewunschte Matrix L. Zum Nachweis benotigen wir den folgenden Satz. Bei-spiele werden in 9.5 und 10.4 gegeben.

Satz 9.4. Sei n ∈ N. Fur alle a ∈ Rn und L ∈ Lx1(n,R) gilt(

1 01×n

a L

)=

(1 01×n

a En

)(1 01×n

0m L

)∈ Lx

1(n+ 1,R) .

Die beiden Matrizen auf der rechten Seiten sind im Allgemeinen nicht vertausch-bar. Die behauptete Identitat lasst sich leicht durch Ausmultipizieren nachprufen.

Beispiel 9.5.

(1) In Lx1(3,R) gilt 1 0 0

2 1 0

3 4 1

=

1 0 0

2 1 0

3 0 1

1 0 0

0 1 0

0 4 1

.

Die beiden Matrizen auf der rechten Seite sind nicht vertauschbar.1 0 0

0 1 0

0 4 1

1 0 0

2 1 0

3 0 1

=

1 0 0

2 1 0

11 4 1

=

1 0 0

2 1 0

3 4 1

.

(2) In Lx1(3,R) gilt 1 0 0

l21 1 0

l31 l32 1

=

1 0 0

l21 1 0

l31 0 1

1 0 0

0 1 0

0 l32 1

.

Die beiden Matrizen auf der rechten Seite sind im Allgemeinen nicht ver-tauschbar. Siehe (1).

110

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 111: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(3) In Lx1(4,R) gilt

1 0 0 0

l21 1 0 0

l31 l32 1 0

l41 l42 l43 1

=

1 0 0 0

l21 1 0 0

l31 0 1 0

l41 0 0 1

1 0 0 0

0 1 0 0

0 l32 1 0

0 l42 l43 1

=

1 0 0 0

l21 1 0 0

l31 0 1 0

l41 0 0 1

1 0 0 0

0 1 0 0

0 l32 1 0

0 l42 0 1

1 0 0 0

0 1 0 0

0 0 1 0

0 0 l43 1

.

Dabei haben wir Satz 9.4 zweimal angewendet. Die drei Matrizen auf derrechten Seite sind im Allgemeinen nicht vertauschbar. Es ist also auf dieReihenfolge bei der Produktbildung zu achten. Siehe Beweis von Satz 10.1.

Satz 9.6. Seien m, n ∈ N.

(1) Fur alle a ∈ Rn gilt(1 01×n

a En

)−1

=

(1 01×n

−a En

)∈ Lx

1(n+ 1,R) .

(2) Fur alle a ∈ Rn giltEm 0 0m×n

01×m 1 01×n

0n×m a En

−1

=

Em 0 0m×n

01×m 1 01×n

0n×m −a En

∈ Lx1(m+ n+ 1,R) .

Die behaupteten Identitaten folgen unmittelbar aus dem Verfahren von Gauß-Jordan. Sie lassen sich leicht durch Ausmultiplizieren nachprufen.

Beispiel 9.7. Nach Beispiel 9.3 gilt1 0 0

2 1 0

3 4 1

−1

=

1 0 0

−2 1 0

5 −4 1

.

111

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 112: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Wir konnen dies auch mit Hilfe von 9.4 und 9.6 ausrechnen. Aus der Zerlegung1 0 0

2 1 0

3 4 1

=

1 0 0

2 1 0

3 0 1

1 0 0

0 1 0

0 4 1

erhalten wir 1 0 0

2 1 0

3 4 1

−1

=

1 0 0

0 1 0

0 4 1

−11 0 0

2 1 0

3 0 1

−1

=

1 0 0

0 1 0

0 −4 1

1 0 0

−2 1 0

−3 0 1

=

1 0 0

−2 1 0

5 −4 1

.

Die vorletzte Zeile ist die matrizentheoretische Version der Kommentarspaltedes Rechenschemas in Beispiel 9.3. �

Satz und Definition 9.8. Seien n,m ∈ N.

(1) Eine Abbildung π : {1, . . . , n} → {1, . . . , n} heißt eine Permutation odereine Vertauschung der Zahlen 1, . . . , n, wenn es zu jedem j ∈ {1, . . . , n}genau ein i ∈ {1, . . . , n} mit π(i) = j gibt. Sei Sn die Menge der Permu-tationen der Zahlen 1, . . . , n. Wir notieren eine Permutation π ∈ Sn als(2× n)-Matrix in der Form

π =

(1 . . . n

π(1) . . . π(n)

).

Es gelten:

(1.1) id{1,...,n} ∈ Sn.

(1.2) (∀π, σ ∈ Sn) : π ◦ σ ∈ Sn.

(1.3) Jede Permutation π ∈ Sn besitzt eine Umkehrfunktion π−1 ∈ Sn.

(1.4) #(Sn) = n! = 1 · . . . · n.

(2) Eine Permutation π ∈ Sn mit π(i) = j und π(j) = i und π(ν) = ν furν ∈ {1, . . . , n} mit ν = i, j bezeichnen wir mit πi↔j. Im Fall n ≥ 2 undi = j heißt πi↔j eine Transposition.

(3) Sei n ≥ 2. Jede Permutation aus Sn ist eine Komposition endlich vielerTranspositionen aus Sn. Die identische Abbildung id{1,...,n} lasst sich alsProdukt zweier Transpositionen schreiben.

112

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 113: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(4) Eine Matrix P ∈ Rn×n heißt eine Permutationsmatrix, wenn jede Zeileund jede Spalte von P genau einen Eintrag 1 enthalt und alle anderenEintrage von P verschwinden, das heißt, gleich 0 sind. Sei Perm(n,R) dieMenge der Permutationsmatrizen P ∈ Rn×n. Es gelten:

(4.1) En = (e1, . . . , en) ∈ Perm(n,R).(4.2) (∀P,Q ∈ Perm(n,R) : P ◦Q ∈ Perm(n,R).(4.3) Perm(n,R) ⊆ GL(n,R).(4.4) (∀P ∈ Perm(n,R) : P−1 = P t ∈ Perm(n,R).(4.5) #(Perm(n,R)) = n!.

(5) Einer Permutation π ∈ Sn ordnen wir die Permutationsmatrix

P (π) = (eπ(1), . . . , eπ(n)) ∈ Perm(n,R)

zu. Also ist die µ-te Spalte von P (π) gleich dem π(µ)-ten kanonischenBasisvektor eπ(µ) ∈ Rn. Es gilt

P (π)eµ = eπ(µ)

fur alle µ = 1, . . . ,m.

(6) Zu jeder Permutationsmatrix P ∈ Perm(n,R) gibt es genau eine Permu-tation π ∈ Sn mit P = P (π). Es gelten:

(6.1) P (id1,...,n) = En.

(6.2) (∀π, σ ∈ Sn) : P (π ◦ σ) = P (π) ◦ P (σ).(6.3) (∀π ∈ Sn) : (P (π))

−1 = P (π−1) = (P (π))t.

(6.4) Es gilt P (πi↔j) = Ei↔j fur alle i, j ∈ {1, . . . , n}.

(7) Sei π ∈ Sn. Dann gilt

P (π) = (pνµ) , pνµ = δνπ(µ) = δπ−1(ν)µ

fur alle ν, µ = 1, . . . , n. Folglich ist die π(ν)-te Zeile von P (π) gleich derν-ten Zeile der Einheitsmatrix En. Also gilt

P (π) =

etπ−1(1)

...

etπ−1(n)

.

Siehe (6.3). Die Formeln in (5) und (7) beschreiben die Spalten, Eintragerespektive Zeilen der Permutationsmatrizen P (π). Die Formeln in (8) und(9) beschreiben die Wirkung von P (π) bei einer multiplikativen Anwendungvon links respektive rechts.

(8) Seien π ∈ Sn und A = (aνµ) ∈ Rn×m. Dann gilt

P (π) ◦A = (ανµ) , ανµ = aπ−1(ν)µ

113

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 114: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

fur alle ν = 1, . . . , n und alle µ = 1, . . . ,m. Folglich ist die π(ν)-te Zeilevon P (π)◦A gleich der ν-ten Zeile von A. Sind zt1, . . . , z

tn ∈ Rm die Spalten

von A, dann gilt

P (π) ◦

z1...

zn

=

zπ−1(1)

...

zπ−1(n)

.

Im Fall m = n und A = En ergibt sich die Formel aus (7) fur die Permu-tationsmatrix P (π).

(9) Seien ρ ∈ Sm und A = (aνµ) ∈ Rn×m. Dann gilt

A ◦ P (ρ) = (ανµ) , ανµ = aνρ(µ)

fur alle ν = 1, . . . , n und alle µ = 1, . . . ,m. Folglich ist die ρ−1(µ)-teSpalte von A ◦ P (ρ) gleich der µ-ten Spalte von A. Sind a1, . . . , am ∈ Rndie Spalten von A, dann gilt

(a1, . . . , am) ◦ P (ρ) = (aρ(1), . . . , aρ(m)) .

Im Fall m = n und A = En ergibt sich die definierende Gleichung aus (5)fur die Permutationsmatrix P (ρ).

(10) Seien π ∈ Sn und A = (aνµ) ∈ Rn×n. Dann gilt

(P (π))−1 ◦A ◦ P (π) = (γνµ) , γνµ = aπ(ν)π(µ)

fur alle ν, µ = 1, . . . , n. Beim Ubergang von der quadratischen Matrix Azur quadratischen Matrix

(P (π))−1 ◦A ◦ P (π)

werden die Diagonalelemente permutiert.

(11) Es gelten:

(11.1) Perm(n,R) ∩ Lx×(n,R) = {En} .

(11.2) Perm(n,R) ∩Uq×(n,R) = {En} .

Siehe Satz und Definition 9.2, Aussage (4), insbesondere (4.5) und (4.6).

Beweis. Die Aussagen (1.1), (1.2), (1.3) und (1.4) sind klar. Ebenso sind dieAussagen (4.1), (4.3) und (4.5) klar. Offenbar gibt es zu jeder Permutationsma-trix P ∈ Perm(n,R) genau eine Permutationsmatrix π ∈ Sn mit P = P (π). DieAussagen (1.4), (4.2) und (4.4) folgen aus (4.5), (6.2) und (6.3).

Zu Aussage (6). Fur π, σ ∈ Sn und µ = 1, . . . , n gilt

(P (π) ◦ P (σ))eµ = P (π)(P (σ)eµ)

114

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 115: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

= P (π)eσ(µ)

= eπ(σ(µ))

= e(π◦σ)(µ)

= P (π ◦ σ)eµ .

Damit sind (6.2) und (4.2) bewiesen. Sei P = P (π) ∈ Perm(n,R) mit π ∈ Sngegeben. Dann gilt

P tP =

etπ(1)...

etπ(n)

(eπ(1), . . . , eπ(n)) = (⟨eπ(ν), eπ(µ)⟩) = (δνµ) = En .

Es folgt P−1 = P t. Damit sind (6.3) und (4.4) bewiesen. Wir beweisen (6.4).Wegen πi↔j = π−1

i↔j ist die zugehorige Permuationsmatrix P (πi↔j) nach Aus-sage (6.3) symmetrisch. Es genugt, den Fall i < j zu betrachten. Dann gilt

P (πi↔j) = (. . . , ej , . . . , ei, . . .)

= (. . . , ej , . . . , ei, . . .)t

=

...

etj...

eti...

= Ei↔j .

Damit ist auch (6.4) bewiesen.

Zu Aussage (7). Sei π ∈ Sn. Nach Definition (5) gilt

P (π) = (pνµ) = (eπ(1), . . . , eπ(n)) .

Der Eintrag pνµ von P (π) ∈ Perm(n,R) ist genau dann gleich 1, wenn ν = π(µ)gilt. Dies ist mit π−1(ν) = µ aquivalent. Also gilt

pνµ = ⟨eν , P (π)eµ⟩ = δνπ(µ) = δπ−1(ν)µ

fur alle ν, µ = 1, . . . , n. In Matrixschreibweise bedeuten diese Gleichungen

P (π) = (eπ(1), . . . , eπ(n)) =

etπ−1(1)

...

etπ−1(n)

.

Damit ist (7) bewiesen.

115

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 116: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Zu Aussage (8). Seien π ∈ Sn, P (π) = (pνµ) ∈ Perm(n,R), A = (aλµ) ∈Rn×m und P (π) ◦A = (ανµ) ∈ Rn×m. Aus (7) folgt

ανµ =

n∑λ=1

pνλ aλµ

=n∑λ=1

δπ−1(ν)λ aλµ

= aπ−1(ν)µ .

fur alle ν, µ = 1, . . . , n. Sind zt1, . . . , ztn ∈ Rm die Spalten von A, dann gilt

P (π) ◦

z1...

zn

=

zπ−1(1)

...

zπ−1(n)

.

Damit ist (8) bewiesen.

Zu Aussage (9). Seien ρ ∈ Sm, P (ρ) = (pλµ) ∈ Perm(m,R), A = (aνλ) ∈Rn×m und A ◦ P (π) = (ανµ) ∈ Rn×m. Aus (7) folgt

ανµ =m∑λ=1

aνλ pλµ

=m∑λ=1

aνλ δλ ρ(µ)

= aν ρ(µ)

fur alle ν, µ = 1, . . . , n. Sind a1, . . . , am ∈ Rn die Spalten von A, dann gilt

(a1, . . . , am) ◦ P (ρ) = (aρ(1), . . . , aρ(n)) .

Damit ist (9) bewiesen.

Zu Aussage (10). Fur π ∈ Sn, A = (aνµ) ∈ Rn×n und

(P (π))−1 ◦A = (βνλ) ∈ Rn×n ,

(P (π))−1 ◦A ◦ P (π) = (γνµ) ∈ Rn×n .

erhalten wir

γνµ =n∑λ=1

βνλ pλµ

=

n∑λ=1

a(π−1)−1(ν)λ pλµ

116

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 117: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

=n∑λ=1

a(π−1)−1(ν)λ δλπ(µ)

=n∑λ=1

aπ(ν)λ δλπ(µ)

= aπ(ν)π(µ) .

Damit ist auch (10) bewiesen.

Zu Aussage (11). Es genugt, (11.1) zu beweisen. Sei

P ∈ Perm(n,R) ∩ Lx×(n,R)

gegeben. Dann gilt

P−1 = P t ∈ Perm(n,R) ∩ Lx×(n,R) ∩Uq

×(n,R) = {En} .

Folglich gilt P = En.

Beispiel 9.9.

π =

(1 2 3

π(1) π(2) π(3)

)=

(1 2 3

3 1 2

)∈ S3 .

π−1 =

(1 2 3

π−1(1) π−1(2) π−1(3)

)=

(1 2 3

2 3 1

)∈ S3 .

P (π) = (eπ(1), eπ(2), eπ(3)) = (e3, e1, e2)

=

0 1 0

0 0 1

1 0 0

=

et2

et3

et1

=

etπ−1(1)

etπ−1(2)

etπ−1(3)

∈ Perm(3,R) .

117

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 118: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(P (π))t =

etπ−1(1)

etπ−1(2)

etπ−1(3)

t

= (eπ−1(1), eπ−1(2), eπ−1(3))

= P (π−1)

= (P (π))−1 .

(P (π))−1 = (P (π))t =

0 0 1

1 0 0

0 1 0

.

0 0 1

1 0 0

0 1 0

0 1 0

0 0 1

1 0 0

=

1 0 0

0 1 0

0 0 1

.

0 1 0

0 0 1

1 0 0

0 0 1

1 0 0

0 1 0

=

1 0 0

0 1 0

0 0 1

.

A = (a1, a2, a3) =

z1z2z3

=

1 2 3

4 5 6

7 8 9

∈ R3 .

P (π) ◦

z1z2z3

=

0 1 0

0 0 1

1 0 0

1 2 3

4 5 6

7 8 9

=

4 5 6

7 8 9

1 2 3

=

z2z3z1

=

zπ−1(1)

zπ−1(2)

zπ−1(3)

.

118

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 119: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(a1, a2, a3) ◦ P (π) =

1 2 3

4 5 6

7 8 9

0 1 0

0 0 1

1 0 0

=

3 1 2

6 4 5

9 7 8

= (a3, a1, a2)

= (aπ(1), aπ(2), aπ(3)) .

(P (π))−1 ◦A ◦ P (π) = (P (π))t ◦A ◦ P (π)

=

0 0 1

1 0 0

0 1 0

1 2 3

4 5 6

7 8 9

0 1 0

0 0 1

1 0 0

=

0 0 1

1 0 0

0 1 0

3 1 2

6 4 5

9 7 8

=

9 7 8

3 1 2

6 4 5

.

119

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 120: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Nach Satz 9.8, Aussage (8) bewirkt eine linksseitige Multiplikation

A 7→ P (π) ◦A

mit einer (n× n)-Permutationsmatrix P (π) eine Vertauschung der Zeilen einer(n×m)-Matrix A. Die Formel

P (π) ◦

z1...

zn

=

zπ−1(1)

...

zπ−1(n)

bedeutet, dass die π(ν)-te Zeile von P (π) ◦ A gleich der ν-ten Zeile von A ist.Beim Ubergang

A 7→ P (π) ◦A

wird die ν-te Zeile von A in die π(ν)-te Zeile von P (π) ◦A verschoben. Dies giltfur jeden Zeilenindex ν = 1, . . . , n.

A

Zπ−1(1)

P (π) ◦A...

Zπ−1(n)

En

Zπ−1(1)

P (π)...

Zπ−1(n)

Wir weisen auf die entsprechende Erorterung der Elementarmatrizen im An-schluss an Satz und Definition 6.2 hin.

Beispiel 9.10 (Fortsetzung von 9.9). Wir betrachten noch einmal

π =

(1 2 3

3 1 2

), P (π) =

0 1 0

0 0 1

1 0 0

, π−1 =

(1 2 3

2 3 1

),

A =

1 2 3

4 5 6

7 8 9

.

Die Ubergange E3 7→ P (π) und A 7→ P (π)◦A beschreiben wir schematisch, wiefolgt.

1 0 0

0 1 0

0 0 1

0 1 0 Z2

0 0 1 Z3

1 0 0 Z1

1 2 3

4 5 6

7 8 9

4 5 6 Z2

7 8 9 Z3

1 2 3 Z1

120

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 121: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

10 Strikte Bruhat-Zerlegung

Satz 10.1 (Bruhat-Zerlegung). Seien n ∈ N und A ∈ GL(n,R) beliebig gegeben.Dann gibt es Matrizen L ∈ Lx

1(n,R), D ∈ D×(n,R), P ∈ Perm(n,R) undU ∈ Uq

1(n,R) mit

A = L ◦D ◦ P ◦ U .

Eine solche Produktzerlegung heißt eine Bruhat-Zerlegung der invertierbarenMatrix A. Es gelten die folgenden Einzigkeitsaussagen (1) und (2).

(1) Die Matrizen D und P sind durch A eindeutig bestimmt.

(2) Die Matrix U ∈ Uq1(n,R) kann so gewahlt werden, dass die Bedingung

P ◦ U ◦ P−1 ∈ Uq1(n,R)

erfullt ist. Wenn diese Bedingung erfullt ist, dann sind L, D, P und U ein-deutig durch A bestimmt. In diesem Fall nennen wir die Bruhat-Zerlegungdie strikte Bruhat-Zerlegung von A.

Beweis. Offenbar gilt

(α) = (1) ◦ (α) ◦ (1) ◦ (1)

fur alle α ∈ R×. Die Aussagen des Satzes sind daher im Fall n = 1 trivialerweiseerfullt. Wir betrachten daher den Fall n ≥ 2.

Wir beweisen zuerst die Einzigkeitsaussagen. Seien

A = L ◦D ◦ P ◦ U = l ◦ d ◦ p ◦ u

zwei Bruhat-Zerlegungen von A. Dann ist

B = d−1 ◦ l−1 ◦ L ◦D = p ◦ u ◦ U−1 ◦ P−1

eine invertierbare untere Dreiecksmatrix. Es gilt

u ◦ U−1 = En +N ,

wobei N eine obere Dreiecksmatrix ist, deren samtliche Diagonalelemente ver-schwinden. Es gibt daher keine Position, an der En und N zugleich nicht-verschwindende Eintrage besitzen. Diese Eigenschaft ubertragt sich nach (8)und (9) aus 9.8 auf die Summanden p ◦P−1 = p ◦En ◦P−1 und p ◦N ◦P−1 derMatrix B. Weil B eine untere Dreiecksmatrix ist, kann kein Pivotelement vonp ◦ P−1 oberhalb der Diagonale stehen. Also gilt p ◦ P−1 = En. Es folgt p = P .Nach (10) in 9.8 bedeutet dies, dass alle Diagonalelemente von

B = p ◦ u ◦ U−1 ◦ P−1 = P ◦ u ◦ U−1 ◦ P−1

gleich 1 sind. Weil l−1 ◦ L dieselbe Eigenschaft besitzt, folgt d = D.

121

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 122: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Wir nehmen zusatzlich an, dass die obigen Bruhat-Zerlegungen strikt sind.Dann folgt aus p = P , dass

B = (p ◦ u ◦ p−1) ◦ (P ◦ U−1 ◦ P−1) ∈ Lx1(n,R) ∩Uq

1(n,R) = {En}

gilt. Also gilt B = En. Wegen d = D und p = P folgen nun l = L und u = U .Damit sind die Einzigkeitsaussagen (1) und (2) bewiesen.

Wir zeigen durch Angabe eines Konstruktionsverfahrens, dass eine beliebigeinvertierbare Matrix A eine strikte Bruhat-Zerlegung besitzt.

WeilA invertierbar ist, enthalt die erste Zeile vonA einen nicht-verschwinden-den Eintrag. Sei d1 ∈ R× der nicht-verschwindende Eintrag der ersten Zeile vonA mit dem kleinsten Spaltenindex σ(1). Durch (n− 1) elementare Zeilenumfor-mungen der Form

Zi − li1Z1

mit i = 2, . . . , n und li1 ∈ R konnen die Eintrage unterhalb der Position (1, σ(1))annulliert werden. Die Matrix

A(1) =

(n∏i=2

Ei;−li1;1

)◦A ∈ Rn×n

ist invertierbar. Es gilt

L1 =n∏i=2

Ei;li1;1 ∈ Lx1(n,R) .

Die (n−1) Faktoren Ei;li1;1 mit i = 2, . . . , n der unteren Dreiecksmatrix L1 sindpaarweise vertauschbar.

Weil A(1) invertierbar ist, enthalt die zweite Zeile von A(1) einen nicht-verschwindenden Eintrag. Sei d2 ∈ R× der nicht-verschwindende Eintrag derzweiten Zeile von A(1) mit dem kleinsten Spaltenindex σ(2). Im Fall n > 2konnen durch weitere (n− 2) elementare Zeilenumformungen der Form

Zi − li2Z2

mit i = 3, . . . , n und li2 ∈ R die Eintrage unterhalb der Position (2, σ(2)) an-nulliert werden. Die Matrix

A(2) =

(n∏i=3

Ei;−li2;2

)◦A(1) ∈ Rn×n

ist invertierbar. Es gilt

L2 =

n∏i=3

Ei;li2;2 ∈ Lx1(n,R) .

Die (n−2) Faktoren Ei;li2;2 mit i = 3, . . . , n der unteren Dreiecksmatrix L2 sindpaarweise vertauschbar.

122

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 123: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Weil A(2) invertierbar ist, enthalt die dritte Zeile von A(2) einen nicht-verschwindenden Eintrag. Sei d3 ∈ R× der nicht-verschwindende Eintrag derdritten Zeile von A(2) mit dem kleinsten Spaltenindex σ(3).

Durch Wiederholung der Konstruktion erhalten wir eine Permutation

σ =

(1 . . . n

σ(1) . . . σ(n)

)∈ Sn ,

die zugehorige Permutationsmatrix

P (σ) = (eσ(1), . . . , eσ(n)) ∈ Perm(n,R) ,

eine invertierbare Matrix

A(n−1) = (ανµ) ∈ GL(n,R) ,

deren Eintrage links und unterhalb der Positionen (i, σ(i)) verschwinden, eineDiagonalmatrix

D = diag(d1, . . . , dn) = diag(α1σ(1), . . . , αnσ(n)) ∈ D×(n,R)

sowie untere Dreiecksmatrizen L1, . . . , Ln−1 ∈ Lx1(n,R) mit

A =

(n−1∏i=1

Li

)◦A(n−1) = L1 ◦ . . . ◦ Ln−1 ◦A(n−1) .

Die Matrizen L1, . . . , Ln−1 sind im Allgemeinen nicht vertauschbar. Es gilt

L = L1 ◦ . . . ◦ Ln−1 ∈ Lx1(n,R) .

Der Eintrag von L unterhalb der Hauptdiagonalen an der Position (ν, µ) mitν > µ ist gleich der oben konstruierten reellen Zahl lνµ. Siehe Satz 9.4 und dieBeispiele 9.5 und 10.4. Wir setzen

P = (P (σ))−1 = (P (σ))t ∈ Perm(n,R) .

Nach (8) in 9.8 ist die σ(i)-te Zeile von

U = P (σ) ◦D−1 ◦A(n−1) = P (σ) ◦ diag(d−11 , . . . , d−1

n ) ◦A(n−1)

gleich der i-ten Zeile von D−1 ◦A(n−1). Also gilt

U ∈ Uq1(n,R) .

Nach Konstruktion ist

A = L ◦D ◦ P ◦ U

eine Bruhat-Zerlegung von A. Wir zeigen abschließend, dass diese Zerlegungsogar eine strikte Bruhat-Zerlegung ist. Nach (9) in 9.8 ist die σ−1(i)-te Spaltevon

V = P ◦ U ◦ P−1 = (P (σ))−1 ◦ U ◦ P (σ) = D−1 ◦A(n−1) ◦ P (σ)

gleich der i-ten Spalte von D−1 ◦ A(n−1). Die Komponenten der i-ten Spaltevon A(n−1) verschwinden unterhalb der Position (σ−1(i), i). Also verschwindenalle Eintrage von V unterhalb der Hauptdiagonalen. Nach (10) in 9.8 sind alleDiagonalelemente von V gleich 1. Also ist auch die Bedingung P ◦ U ◦ P−1 ∈Uq

1(n,R) erfullt.

123

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 124: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 10.2. Gegeben sei die Matrix A ∈ R3×3 mit

A =

0 0 −2

−1 −3 −10

−4 −9 2

.

Wir berechnen die strikte Bruhat-Zerlegung von A mit dem Verfahren aus demBeweis des Satzes 10.1. Anschießend vereinfachen wir das Rechenschema.

0 0 −2

−1 −3 −10

−4 −9 2

0 0 −2 Z1

−1 −3 0 Z2 − (+5)Z1

−4 −9 0 Z3 − (−1)Z1

0 0 −2 Z1

−1 −3 0 Z2

0 3 0 Z3 − (+4)Z2

0 0 1 (−2)−1Z1

1 3 0 (−1)−1Z2

0 1 0 (+3)−1Z3

L =

1 0 0

5 1 0

−1 4 1

, D = diag(−2,−1, 3) =

−2 0 0

0 −1 0

0 0 3

.

σ(1) = 3 , σ(2) = 1 , σ(3) = 2 .

P (σ) = (eσ(1), eσ(2), eσ(3)) = (e3, e1, e2) =

0 1 0

0 0 1

1 0 0

.

P = (P (σ))−1 = (P (σ))t =

0 0 1

1 0 0

0 1 0

.

U = P (σ) ◦

0 0 1

1 3 0

0 1 0

=

0 1 0

0 0 1

1 0 0

0 0 1

1 3 0

0 1 0

=

1 3 0

0 1 0

0 0 1

.

124

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 125: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Nun vereinfachen wir das Rechenschema. Nach Konstruktion steht das Pivot-element der i-ten Zeile von

D−1 ◦A(2) =

0 0 1

1 3 0

0 1 0

an der Position (i, σ(i)). Durch linksseitige Multiplikation mit der Permutations-matrix P (σ) wird die i-te Zeile der Matrix D−1 ◦ A(2) in die σ(i)-te Zeile deroberen Dreiecksmatrix

U =

1 3 0

0 1 0

0 0 1

verschoben. Die linksseitige Multiplikation mit der Permutationsmatrix

P = (P (σ))−1 = (P (σ))t =

etσ(1)

etσ(2)etσ(3)

=

0 0 1

1 0 0

0 1 0

macht die genannten Zeilenverschiebungen ruckgangig. Offenbar besetzen diePivotelemente der beiden Matrizen D−1 ◦ A(2) und P dieselben Positionen.Daher kann die Permutationsmatrix P an der pivotnormierten MatrixD−1◦A(2)

abgelesen werden: P entsteht aus D−1 ◦A(2) durch Annullierung aller Eintrage,die keine Pivotelemente sind. Siehe Satz 10.5.

0 0 −2

−1 −3 −10

−4 −9 2

0 0 −2 Z1

−1 −3 0 Z2 − (+5)Z1

−4 −9 0 Z3 − (−1)Z1

0 0 −2 Z1

−1 −3 0 Z2

0 3 0 Z3 − (+4)Z2

0 0 1 (−2)−1Z1

1 3 0 (−1)−1Z2

0 1 0 (+3)−1Z3

0 0 1

1 0 0

0 1 0

125

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 126: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Wir fassen die wichtigsten Schritte der Rechnung noch einmal zusammen.Die Ubertragung auf den allgemeinen Fall ist offenkundig. Siehe das folgendeBeispiel 10.3.

• Die elementaren Zeilenumformungen, die auf die Matrizen A(1) und A(2)

fuhren, ergeben die Eintrage unterhalb der Hauptdiagonale der Matrix L.

• Die Pivotelemente von A(2) sind die Diagonalelemente von D.

• Normieren der Pivotelemente der Matrix A(2) mit elementaren Zeilen-umformungen liefert die Matrix D−1 ◦A(2).

• Umordnen der Zeilen der Matrix D−1 ◦A(2) liefert die Matrix U .

• Nullsetzen der Nicht-Pivotelemente der Matrix D−1 ◦A(2) liefert diePermutationsmatrix P .

In 12.3 definieren wir die Determinante einer invertierbaren Matrix mit Hilfeihrer strikten Bruhat-Zerlegung. Die Determinante der Matrix A berechnen wirin Beispiel 12.4.

126

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 127: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 10.3.

0 −3 −6 −3

10 9 98 39

−5 −3 −46 −14

0 −3 −8 7

0 −3 −6 −3 Z1

10 0 80 30 Z2 − (−3)Z1

−5 0 −40 −11 Z3 − (+1)Z1

0 0 −2 10 Z4 − (+1)Z1

0 −3 −6 −3 Z1

10 0 80 30 Z2

0 0 0 4 Z3 − (− 12 )Z2

0 0 −2 10 Z4 − 0 · Z2

0 −3 −6 −3 Z1

10 0 80 30 Z2

0 0 0 4 Z3

0 0 −2 0 Z4 − (+ 52 )Z3

0 1 2 1 (−3)−1Z1

1 0 8 3 (+10)−1Z2

0 0 0 1 (+4)−1Z3

0 0 1 0 (−2)−1Z4

0 1 0 0

1 0 0 0

0 0 0 1

0 0 1 0

L =

1 0 0 0

−3 1 0 0

1 − 12 1 0

1 0 52 1

, D = diag(−3, 10, 4,−2) .

P =

0 1 0 0

1 0 0 0

0 0 0 1

0 0 1 0

, U =

1 0 8 3

0 1 2 1

0 0 1 0

0 0 0 1

.

127

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 128: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 10.4. Wir betrachten die Konstruktion der unteren Dreiecksmatrix

L = L1 ◦ . . . ◦ Ln−1 ∈ Lx1(n,R)

in den Fallen n = 2, 3, 4 im Detail. Im allgemeine Fall folgt durch wiederholteAnwendung von Satz 9.4. Wir verwenden die Bezeichnungen aus dem Beweisdes Satzes 10.1 uber die Bruhat-Zerlegung.

Sei n = 2. Dann gilt

L = L1 =

(1 0

l21 1

)= E

(2)2;l21;1

.

Sei n = 3. Dann gilt

L = L1 ◦ L2 =

1 0 0

l21 1 0

l31 0 1

1 0 0

0 1 0

0 l32 1

=

1 0 0

l21 1 0

l31 l32 1

.

Beachten Sie bitte die Reihenfolge der Matrizen. Die unteren DreiecksmatrizenL1 und L2 sind im Allgemeinen nicht vertauschbar. Es gelten

L1 =

1 0 0

l21 1 0

l31 0 1

=

1 0 0

0 1 0

l31 0 1

1 0 0

l21 1 0

0 0 1

= E(3)3;l31;1

◦ E(3)2;l21;1

,

L2 =

1 0 0

0 1 0

0 l32 1

= E(3)3;l32;2

.

Die Matrizen E(3)3;l31;1

und E(3)2;l21;1

sind vertauschbar.

Sei n = 4. Dann gilt

L = L1 ◦ L2 ◦ L3

=

1 0 0 0

l21 1 0 0

l31 0 1 0

l41 0 0 1

1 0 0 0

0 1 0 0

0 l32 1 0

0 l42 0 1

1 0 0 0

0 1 0 0

0 0 1 0

0 0 l43 1

=

1 0 0 0

l21 1 0 0

l31 l32 1 0

l41 l42 l43 1

.

Beachten Sie bitte die Reihenfolge der Matrizen. Die unteren DreiecksmatrizenL1, L2 und L3 sind im Allgemeinen nicht vertauschbar. Wir schreiben L1, L2

und L3 als Produkte von Elementarmatrizen. Es gilt

128

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 129: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

L1 =

1 0 0 0

l21 1 0 0

l31 0 1 0

l41 0 0 1

=

1 0 0 0

0 1 0 0

0 0 1 0

l41 0 0 1

1 0 0 0

0 1 0 0

l31 0 1 0

0 0 0 1

1 0 0 0

l21 1 0 0

0 0 1 0

0 0 0 1

= E

(4)4;l41,1

◦ E(4)3;l31,1

◦ E(4)2;l21;1

.

Die drei Matrizen E(4)4;l41,1

, E(4)3;l31,1

, E(4)2;l21;1

sind paarweise vertauschbar. Es gilt

L2 =

1 0 0 0

0 1 0 0

0 l32 1 0

0 l42 0 1

=

1 0 0 0

0 1 0 0

0 0 1 0

0 l42 0 1

1 0 0 0

0 1 0 0

0 l32 1 0

0 0 0 1

= E(4)4;l42;2

◦ E(4)3;l32;2

.

Die beiden Matrizen E(4)4;l42;2

und E(4)3;l32;2

sind vertauschbar. Es gilt

L3 =

1 0 0 0

0 1 0 0

0 0 1 0

0 0 l43 1

= E(4)4;l43;3

.

�Wir stellen die Vereinfachungen des Rechenschemas zusammen, die wir in

Beispiel 10.2 erortet haben. Wir verwenden dabei die dortigen Definitionen sowiedie Bezeichnungen aus dem Beweis des Satzes 10.1.

Satz 10.5. Seien n ∈ N mit n ≥ 2 und A ∈ GL(n,R) gegeben. Sei

A = L ◦D ◦ P ◦ U

die strikte Bruhat-Zerlegung von A. Dann entsteht die Permutationsmatrix Paus der pivotnormierten Matrix

D−1 ◦A(n−1) = D−1 ◦ L−1 ◦A

durch Annullierung aller Eintrage, die keine Pivotelemente sind.

129

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 130: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beweis. Die i-te Zeile von U ist nach Konstruktion gleich der σ(i)-ten Zeile von

D−1A(n−1) = D−1L−1A = PU .

Die Pivotelemente von D−1A(n−1) stehen an den Positionen (i, σ(i)). Wir be-trachten die Permuationsmatrix

P = P (σ−1) = (pνµ) .

Nach Satz 9.8 Aussage (7) gilt

piσ(i) = δ(σ−1)−1(i)σ(i) = δσ(i)σ(i) = 1

fur alle i = 1, . . . , n. Folglich stehen die Pivotelemente von D−1A(n−1) und Pan denselben Positionen.

Beispiel 10.6. Sei n ∈ N. Wir betrachten die strikten Bruhat-Zerlegungenspezieller invertierbarer Matrizen.

(1) (∀L ∈ Lx1(n,R)) : L = L ◦ En ◦ En ◦ En.

(2) (∀D ∈ D×(n,R)) : D = En ◦D ◦ En ◦ En.

(3) (∀P ∈ Perm(n,R)) : P = En ◦ En ◦ P ◦ En.

(4) (∀U ∈ Uq1(n,R)) : U = En ◦ En ◦ En ◦ U .

Beispiel 10.7. Wir geben die strikte Bruhat-Zerlegung im Fall n = 2 explizitan. Sei

A =

(α β

γ δ

)

eine invertierbare reelle (2× 2)-Matrix. Dann gilt αδ − γβ = 0.

(1) Sei α ∈ R×. In diesem Fall gilt δ − γα−1β = 0. Das Schema

α β

γ δ

α β Z1

0 δ − γα−1β Z2 − γα−1Z1

1 α−1β α−1Z1

0 1 (δ − γα−1β)−1Z2

1 0

0 1

130

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 131: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

liefert

A(1) =

(α β

0 δ − γα−1β

).

und die strikte Bruhat-Zerlegung

A =

(α β

γ δ

)=

(1 0

γα−1 1

)(α 0

0 δ − γα−1β

)(1 0

0 1

)(1 α−1β

0 1

).

(2) Sei α = 0. In diesem Fall gilt γβ = 0. Das Schema

0 β

γ δ

0 β Z1

γ 0 Z2 − δβ−1Z1

0 1 β−1Z1

1 0 γ−1Z2

0 1

1 0

liefert

A(1) =

(0 β

γ 0

).

und die strikte Bruhat-Zerlegung

A =

(0 β

γ δ

)=

(1 0

δβ−1 1

)(β 0

0 γ

)(0 1

1 0

)(1 0

0 1

).

131

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 132: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

11 LU-Zerlegung

Nach Satz 10.1 sind die Diagonalmatrix D und die Permutationsmatrix P inder Bruhat-Zerlegung A = LDPU einer invertierbaren Matrix A ∈ GL(n,R)eindeutig bestimmt. Falls P = En gilt, ist die Bruhat-Zerlegung sogar striktund die Matrix

DPU = DEnU = DU

ist eine invertierbare obere Dreiecksmatrix.

Definition 11.1. Seien n ∈ N und A ∈ Rn×n beliebig gegeben. Eine Zerlegung

A = L ◦ U

mit L ∈ Lx1(n,R) und U ∈ Uq(n,R) heißt eine LU -Zerlegung der Matrix A.

Satz 11.2. Eine invertierbare Matrix A = (aνµ)ν,µ=1,...,n ∈ Rn×n besitzt genaudann eine LU -Zerlegung, wenn fur alle k = 1, . . . , n−1 die linken oberen (k×k)-Teilmatrizen

A1:k,1:k = (aνµ)ν,µ=1,...,k

ebenfalls invertierbar sind. Die LU -Zerlegung einer invertierbaren Matrix isteindeutig bestimmt.

Der Algorithmus zur Bestimmung der strikten Bruhat-Zerlegung gibt Aus-kunft, ob eine LU -Zerlegung moglich ist. Wenn eine LU -Zerlegung moglich ist,liefert der Algorithumus zur Bestimmung der strikten Bruhat-Zerlegung gleich-zeitig ein Verfahren zur Bestimmung der LU -Zerlegung.

Beispiel 11.3. Die invertierbare Matrix

A =

1 −2 4

−2 3 −2

3 −4 −1

besitzt die LU -Zerlegung

A = LU =

1 0 0

−2 1 0

3 −2 1

1 −2 4

0 −1 6

0 0 −1

.

Die Rechnung ist im folgenden Schema zusammengefasst.

132

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 133: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

1 −2 4

−2 3 −2

3 −4 −1

1 −2 4

0 −1 6 Z2 − (−2) · Z1

0 2 −13 Z3 − (+3) · Z1

1 −2 4

0 −1 6

0 0 −1 Z3 − (−2) · Z2

Abschließend sei darauf hingewiesen, dass die erste Zeile der Matrix A mit derersten Zeile der Matrix U ubereinstimmt. �

133

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 134: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

12 Determinante. Bruhat. Laplace. Leibniz

Wir verwenden die strikte Bruhat-Zerlegung, um die Determinante invertier-barer Matrizen zu definieren. Der Algorithmus zur Bestimmung der striktenBruhat-Zerlegung liefert gleichzeitig ein Verfahren zur Bestimmung der Deter-minante mit Hilfe von elementaren Zeilenumformungen. Zunachst erklaren wirdas Signum einer Permutation.

Satz und Definition 12.1. Sei n ∈ N. Das Signum sgn(π) einer Permutationπ ∈ Sn wird durch

sgn(π) =∏

1≤ν<µ≤n

π(µ)− π(ν)

µ− ν

definiert. Es gelten:

(1) (∀π ∈ Sn) : sgn(π) ∈ {−1, 1}.

(2) sgn(id{1,...,n}) = 1.

(3) Fur jede Transposition π ∈ Sn gilt sgn(π) = −1.

(4) (∀π, σ ∈ Sn) : sgn(π ◦ σ) = sgn(π) · sgn(σ).

(5) (∀π ∈ Sn) : sgn(π−1) = sgn(π).

Beispiel 12.2. Fur die Permutation

σ =

(1 2 3

σ(1) σ(2) σ(3)

)=

(1 2 3

3 1 2

)∈ S3

erhalten wir

sgn(σ) =∏

1≤ν<µ≤n

σ(µ)− σ(ν)

µ− ν

=σ(2)− σ(1)

2− 1· σ(3)− σ(1)

3− 1· σ(3)− σ(2)

3− 2

=(−2)

1· (−1)

2· 11= 1 .

In Beispiel 12.4 berechnen wir das Signum der Permutation π = σ−1 ∈ S3 explit.Nach Rechenregel (5) in 12.1 gilt sgn(σ−1) = sgn(σ) = 1. �

Definition 12.3 (Determinante). Seien n ∈ N und A ∈ Rn×n beliebig gegeben.

(1) Wir setzen det(A) = 0, wenn A /∈ GL(n,R).

134

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 135: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(2) Sei A ∈ GL(n,R) und A = L ◦ D ◦ P ◦ U mit D = diag(d1, . . . , dn) mitd1, . . . , dn ∈ R× und P = P (π) mit π ∈ Sn irgendeine Bruhat-Zerlegungvon A. Wir setzen

det(A) = sgn(π) ·n∏i=1

di ∈ R× .

Nach den Satzen 10.1 und 9.2 sind d1, . . . , dn ∈ R× und π ∈ Sn durch dieinvertierbare Matrix A eindeutig bestimmt.

Das Verfahren zur Bestimmung der strikten Bruhat-Zerlegung liefert ein Ver-fahren zur Berechnung der Determinante einer Matrix A ∈ Rn×n. Das Verfahrenaus dem Beweis des Satzes 10.1 bricht ab, sobald eine der Matrizen A oder A(k)

mit k ∈ {1, . . . , n − 1} eine Nullzeile enthalt. In diesem Fall gilt det(A) = 0.Wenn das Verfahren nicht abbricht, dann kann det(A) mit Hilfe der striktenBruhat-Zerlegung entsprechend Teil (2) der Definition 12.3 berechnet werden.

Beispiel 12.4. Sei A ∈ R3×3 die Matrix mit

A =

0 0 −2

−1 −3 −10

−4 −9 2

.

Nach den Ausfuhrungen zu Beispiel 10.2 besitzt A die strikte Bruhat-Zerlegung

A = LDPU =

1 0 0

5 1 0

−1 4 1

−2 0 0

0 −1 0

0 0 3

0 0 1

1 0 0

0 1 0

1 3 0

0 1 0

0 0 1

.

Die Determinante vonA wird durch die DiagonalmatrixD und die Permutations-matrix P = P (π) bestimmt. Es gelten

π =

(1 2 3

2 3 1

)∈ S3 , sgn(π) =

3− 2

2− 1· 1− 2

3− 1· 1− 3

3− 2= 1 .

Siehe Beispiel 12.2. Die Auswertung der definierenden Formel in 12.3 ergibt

det(A) = 1 · {(−2) · (−1) · 3} = 6 .

Nach Satz 12.5 kann sgn(π) direkt an P abgelesen werden. Die Matrix P gehtdurch zwei Zeilenvertauschungen aus der Einheitsmatrix E3 hervor. Es folgt

sgn(π) = det(P (π)) = (−1)2 = 1 .

135

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 136: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

In Satz 12.5 bestimmen wir die Determinante der Faktoren, die in denBruhat-Zerlegungen auftreten, und das Verhalten der Determinante unter Zeilen-und Spaltenumformungen. In Satz 12.8 folgern wir aus den Ergebnissen desSatzes 12.5 die Multiplikativitat der Determinante.

Der Satz 12.5 ermoglicht die Berechnung von det(A), indem die gegebeneMatrix A ∈ Rn×n durch elementare Zeilen- oder Spaltenumformungen auf Drei-ecksform gebracht wird. Siehe Beispiel 12.7.

Satz 12.5 (Eigenschaften der Determinante). Seien n ∈ N und A, B ∈ Rn×nbeliebig gegeben.

(1) det(A) = 0 ⇔ A ∈ GL(n,R).

(2) det(En) = 1.

(3) (∀π ∈ Sn) : det(P (π)) = sgn(π) .

(4) Wenn A = (aνµ) eine obere oder untere Dreiecksmatrix ist, dann gilt

det(A) =n∏ν=1

aνν = a11 · . . . · ann .

(5) det(At) = det(A).

(6) Es gilt det(B) = −det(A), wenn B aus A durch Vertauschung zweierverschiedener Zeilen entsteht.

(7) Es gilt det(B) = det(A), wenn B aus A durch Addition einer Zeile zueiner anderen Zeile entsteht.

(8) Es gilt det(B) = α det(A), wenn B aus A durch Multiplikation einer Zeilemit α ∈ R entsteht.

(9) Es gilt det(B) = det(A), wenn B aus A dadurch entsteht, dass zu einerZeile eine Linearkombination aus anderen Zeilen addiert wird.

(10) Die Determinante ist in jeder Zeile linear. Damit ist die folgende Eigen-schaft gemeint. Seien k ∈ {1, . . . , n} und zt ∈ Rn beliebig gewahlt. DieMatrix A′

k(z) ∈ Rn×n entstehe aus A, indem die k-te Zeile durch z ersetztwird. Dann gilt

det(A′k(αx+ βy)) = α det(A′

k(x)) + β det(A′k(y))

fur alle α, β ∈ R und alle xt, yt ∈ Rn.

Wegen (5) gelten die zu (6) bis (10) analogen Aussagen, wenn die Spalten derMatrizen anstelle der Zeilen betrachtet und dabei die Zeilenoperationen durchdie entsprechenden Spaltenoperationen ersetzt werden.

136

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 137: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beweis. Fur n = 1 gelten die Aussagen des Satzes trivialerweise. Im Folgendensei n ≥ 2. Die Eigenschaften (1), (2), (3) sind klar.

Nachweis von (4). SeiA ∈ Lx×(n,R) eine invertierbare untere Dreiecksmatrix.

Dann besitzt A eine Bruhat-Zerlegung A = LD = LDEnEn mit

dν = aνν = 0

fur alle ν = 1, . . . , n. Mit (2) folgt

det(A) =n∏ν=1

dν =n∏ν=1

aνν .

Nun sei A ∈ Uq×(n,R) eine invertierbare obere Dreiecksmatrix. Dann besitzt

A eine Bruhat-Zerlegung A = DU = EnDEnU mit

dν = aνν = 0

fur alle ν = 1, . . . , n. Wieder ergibt sich

det(A) =

n∏ν=1

dν =

n∏ν=1

aνν .

Nachweis von (5). Sei A = LDPU eine Bruhat-Zerlegung von A ∈ GL(n,R).Dann ist

At = U tP tDtLt = U t(P−1DP )P−1Lt

eine Bruhat-Zerlegung von At. Nach Aussage (10) des Satzes 9.8 ist

P−1DP = diag(d′1, . . . , d′n)

eine Diagonalmatrix, die sich aus D durch Vertauschen der Hauptdiagonal-elemente ergibt. Dabei verwenden wir

P = P (π) , P t = P−1 = P (π−1) , sgn(π) = sgn(π−1) .

Schließlich erhalten wir

det(At) = sgn(π−1) ·n∏ν=1

d′ν = sgn(π) ·n∏ν=1

dν = det(A) .

Nachweis von (6). Es genugt, die Behauptung im Fall benachbarter Zeilenzu beweisen. Sei

A = LDPU , L = (lν,µ) , D = diag(d1, . . . , dn) , P = P (π)

die strikte Bruhat-Zerlegung von A. Wir berechnen eine Bruhat-Zerlegung

Ei↔i+1 ◦A = L′D′P ′U ′ , D′ = diag(d′1, . . . , d′n) .

Zwei Falle sind zu unterscheiden. Siehe Beispiel 12.6.

137

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 138: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(i) Wir setzen li+1,i = 0 oder π−1(i) > π−1(i+ 1) voraus. Dann gelten

d′ν =

dν , ν /∈ {i, i+ 1} ,di+1 , ν = i ,

di , ν = i+ 1 ,

, P ′ = Ei↔i+1 ◦ P .

Beim Ubergang zu Ei↔i+1 ◦A werden die beiden Diagonalelemente di unddi+1 vertauscht. Die anderen Diagonalelemente dν bleiben erhalten. DiePermutation π wird durch πi↔i+1 ◦ π ersetzt. Also folgt

det(Ei↔i+1 ◦A) = d′1 · . . . · d′n · sgn(πi↔i+1 ◦ π)= d1 · . . . · dn · (−1) · sgn(π)= − det(A) .

(ii) Wir setzen li+1,i = 0 und π−1(i) < π−1(i+ 1) voraus. Dann gelten

d′ν =

dν , ν /∈ {i, i+ 1} ,

li+1,i di , ν = i ,

−l−1i+1,i di+1 , ν = i+ 1 ,

, P ′ = P .

Also gilt d′id′i+1 = −didi+1. Die anderen dν bleiben erhalten. Es folgt

det(Ei↔i+1 ◦A) = d′1 · . . . · d′n · sgn(π)= (−1) · d1 · . . . · dn · sgn(π)= − det(A) .

Nachweis von (7). Sei A = LDPU eine Bruhat-Zerlegung von A ∈ GL(n,R).Die Matrix B entstehe aus A durch die elementare Zeilenumformung Zj + Zi.Im Fall n ≥ j > i gilt Ej;1;i ∈ Lx

1(n,R), denn die i-te Zeile steht oberhalb derj-ten Zeile. Also ist

B = Ej;1;iA = (Ej;1;iL)DPU

eine Bruhat-Zerlegung von B. Es folgt

det(B) = det(A) .

Der Fall n ≥ i > j wird mit Hilfe von (6) auf den schon behandelten Fallzuruckgefuhrt. Es genugt, die i-te und j-te Zeile von A vor und nach der ent-sprechenden Zeilenoperation zu vertauschen.

Nachweis von (8). Sei α ∈ R×. Die invertierbare Matrix B entstehe aus Adurch die elementare Zeilenumformung αZi. Sei

A = LDPU , D = diag(d1, . . . , dn)

eine Bruhat-Zerlegung von A. Dann ist

B = Eα;iA = (Eα;iLEα−1;i)(Eα;iD)PU

138

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 139: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

eine Bruhat-Zerlegung von B. Aus

Eα;iD = diag(d′1, . . . , d′n) , d′ν =

αdν , ν = i ,

dν , ν = i

folgt

det(B) = α det(A) .

Aussage (9) folgt aus (7) und (8).

Nachweis von (10). Wegen (5) gelten die zu (6) bis (9) analogen Aussagenfur Spaltenoperationen anstelle von Zeilenoperationen. Wegen (5), (6) und (8)genugt es ferner, die Additivitat der Determinante bezuglich der ersten Spaltezu beweisen. Seien x, y, s1, . . . , sn ∈ Rn gegeben. Es genugt, die Formel

det(x+ y, s2, . . . , sn) = det(x, s2, . . . , sn) + det(y, s2, . . . , sn)

fur den Fall zu beweisen, dass die Vektoren x, s2, . . . , sn eine Basis des Rn bilden.In diesem Fall gibt es eindeutig bestimmte Koeffizienten α, α2, . . . , αn ∈ R mit

y = αx+ α2s2 + . . . αnsn .

Falls α = 0 gilt, folgt die behauptete Formel bereits aus (5) und (9). Wir nehmendaher zusatzlich an, das α = 0 gilt.

det(x+ y, s2, . . . , sn) = det(x+ αx+ α2s2 + . . . αnsn, s2, . . . , sn)

= det(x+ αx, s2, . . . , sn)

= (1 + α) det(x, s2, . . . , sn)

= det(x, s2, . . . , sn) + det(αx, s2, . . . , sn)

= det(x, s2, . . . , sn) + det(y, s2, . . . , sn) .

Damit ist der Beweis des Satzes beendet.

Es folgen Beispiele zum Beweis von Aussage (6) des Satzes 12.5 und zurBerechnung der Determinante mit Hilfe von elementaren Umformungen.

139

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 140: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 12.6. Nach den Ausfuhrungen in 10.2 und 12.4 besteht die strikteBruhat-Zerlegung A = LDPU mit P = P (π) und

A =

0 0 −2

−1 −3 −10

−4 −9 2

=

1 0 0

5 1 0

−1 4 1

−2 0 0

0 −1 0

0 0 3

0 0 1

1 0 0

0 1 0

1 3 0

0 1 0

0 0 1

.

Zu Fall (i) im Beweis von Satz 12.5, Aussage (6). Es gilt

π−1(1) = 3 > 1 = π−1(2) .

Die Matrix A′ = E1↔2 ◦A, die aus der Matrix A durch Vertauschung der beidenersten Zeilen hervorgeht, besitzt die strikte Bruhat-Zerlegung A′ = L′D′P ′U ′

mit L′ = (l′νµ) und

A′ =

−1 −3 −10

0 0 −2

−4 −9 2

=

1 0 0

0 1 0

4 −21 1

−1 0 0

0 −2 0

0 0 3

1 0 0

0 0 1

0 1 0

1 3 10

0 1 0

0 0 1

.

Offenbar gilt A = E1↔2 ◦A′ mit

l′21 = 0 .

Der Ubergang von A′ nach A fallt daher ebenfalls unter den Fall (i).

Zu Fall (ii) im Beweis von Satz 12.5, Aussage (6). Es gelten

π−1(2) = 1 < 2 = π−1(3) , l32 = 4 = 0 .

Die Matrix A′′ = E2↔3 ◦ A, die aus A durch Vertauschung der zweiten undditten Zeile hervorgeht, besitzt die strikte Bruhat-Zerlegung

A′′ =

0 0 −2

−4 −9 2

−1 −3 −10

=

1 0 0

−1 1 0

5 14 1

−2 0 0

0 −4 0

0 0 −34

0 0 1

1 0 0

0 1 0

1 9

4 0

0 1 0

0 0 1

.

140

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 141: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 12.7. Gegeben sei A ∈ R4×4 mit

A =

2 −2 3 −4

4 2 0 3

−6 2 −5 5

8 0 2 1

.

Wir bringen die Matrix A durch elementare Zeilenumformungen auf obere Drei-ecksform. Der Kommentarspalte des zugehorigen Rechenschemas entnehmenwir, welche Anderungen die Determinante bei diesen Umformungen erfahrenhat. Diese Anderungen sind bei der Berechnung von det(A) zu rucksichtigen.

2 −2 3 −4

4 2 0 3

−6 2 −5 5

8 0 2 1

2 −2 3 −4 Z1

0 6 −6 11 Z2 − 2Z1

0 −4 4 −7 Z3 + 3Z1

0 8 −10 17 Z4 − 4Z1

2 −2 3 −4 Z1

0 −4 4 −7 Z3

0 6 −6 11 Z2

0 8 −10 17 Z4

2 −2 3 −4 Z1

0 −2 2 − 72

12Z2

0 6 −6 11 Z3

0 8 −10 17 Z4

2 −2 3 −4 Z1

0 −2 2 − 72 Z2

0 0 0 12 Z3 + 3Z1

0 0 −2 3 Z4 + 4Z2

2 −2 3 −4 Z1

0 −2 2 − 72 Z2

0 0 −2 3 Z4

0 0 0 12 Z3

Folglich gilt

det(A) = (−1)2 · ( 12 )−1 · { 2 · (−2) · (−2) · 1

2 } = 8 .

141

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 142: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz 12.8 (Multiplikativitat der Determinante). Sei n ∈ N. Dann gilt

det(A ◦B) = det(A) · det(B)

fur alle Matrizen A, B ∈ Rn×n.

Beweis. Die Produktmatrix A ◦ B ist genau dann invertierbar, wenn A und Binvertierbar sind.

Wenn eine der beiden quadratischen Matrizen A oder B nicht invertierbarist, dann verschwinden det(A ◦B) und det(A) · det(B).

Seien A, B ∈ GL(n,R) gegeben. Wir betrachten zunachst die vier Spezial-falle (1), (2), (3), (4). Der allgemeine Fall (5) wird durch Betrachtung einerBruhat-Zerlegung der Matrix A behandelt.

(1) Wenn A eine normierte untere Dreiecksmatrix ist, dann gilt

det(A ◦B) = det(B) = det(A) · det(B) .

Das erste Gleichheitszeichen folgt aus Satz 9.2. Lediglich die normierte un-tere Dreiecksmatrix einer Bruhat-Zerlegung von B wird beim Ubergang zuAB geandert. Die Determinante einer normierten unteren Dreicksmatrixist gleich 1. Siehe (4) in Satz 12.5. Also gilt auch das zweite Gleichheits-zeichen.

(2) Wenn A eine Diagonalmatrix ist, dann gilt

det(A ◦B) = det(A) · det(B) .

Dies folgt aus den Aussagen (4) und (8) des Satzes 12.5. Die Zeilen von Bwerden mit den entsprechenden Diagonalelementen von A multipliziert.

(3) Wenn A eine Permutationsmatrix ist, dann gilt

det(A ◦B) = det(A) · det(B) .

Beim Ubergang von B nach AB werden die Zeilen von B lediglich ver-tauscht. Siehe Aussage (8) in 9.8. Nach Satz 12.5, Aussage (6) bewirkt dieVertauschung zweier Zeilen einen Vorzeichenwechsel der Determinante.

(4) Wenn A eine normierte obere Dreiecksmatrix ist, dann gilt

det(A ◦B) = det(B) = det(A) · det(B) .

Das erste Gleichheitszeichen folgt aus Aussage (9) des Satzes 12.5. Dabeiverwenden wir den Zerlegungssatz fur normierte oberen Dreiecksmatrizen,der aus Satz 9.4 durch Transponieren hervorgeht. Die Determinante einernormierten oberen Dreicksmatrix ist gleich 1. Siehe (4) in Satz 12.5. Alsogilt auch das zweite Gleichheitszeichen.

142

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 143: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(5) Nun untersuchen wir den allgemeinen Fall. Wenn A eine beliebige inver-tierbare Matrix ist, betrachten wir eine Bruhat-Zerlegung

A = L ◦D ◦ P ◦ U .

Dann erhalten wir mit (1), (2), (3) und (4) sukzessive

det(A ◦B) = det(L ◦ (D ◦ P ◦ U ◦B))

= det(D ◦ (P ◦ U ◦B))

= det(D) · (det(P ◦ U ◦B))

= det(D) · det(P ) · det(U ◦B)

= det(D) · det(P ) · det(B)

= det(A) · det(B) .

Damit ist der Beweis beendet.

Satz 12.9 (Laplace. Entwicklung nach der ersten Spalte). Seien n ∈ N und

A = (aνµ) ∈ Rn×n

beliebig gegeben. Im Fall n ≥ 2 sei Aij ∈ R(n−1)×(n−1) die Matrix, die aus derMatrix A durch Streichen der i-ten Zeile und der j-ten Spalte entsteht. Dannkann die Determinante det(A) auf folgende Weise induktiv berechnet werden:

det(A) =

a11 , n = 1 ,

a11a22 − a21a12 , n = 2 ,

n∑ν=1

(−1)ν+1aν1 det(Aν1) , n ≥ 2 .

Die Determinante kann auf diese Weise induktiv definiert werden.

Beweis. Fur n = 1 gilt die Behauptung des Satzes trivialerweise. Fur n = 2 folgtdie Behauptung aus den expliziten Formeln fur die strikte Bruhat-Zerlegungin Beispiel 10.7. Sei n ≥ 2. Nach Satz 12.5 genugt es, die Formel fur eineinvertierbare Matrix A ∈ GL(n,R) der Form

A =

(1 0

0 A11

)=

(1 01×(n−1)

0(n−1)×1 A11

)zu beweisen. Eine solche Form kann durch elementare Zeilen- und Spaltenum-formungen hergestellt werden. Sei

A11 = L11 ◦D11 ◦ P11 ◦ U11

eine Bruhat-Zerlegung von A11. Dann ist

A =

(1 0

0 L11

)(1 0

0 D11

)(1 0

0 P11

)(1 0

0 U11

)

143

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 144: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

eine Bruhat-Zerlegung von A. Offenbar gilt

det(D) = det(D11) .

Sei π ∈ Sn die Permutation mit P = P (π). Dann gilt π(1) = 1. Sei weiterσ ∈ Sn−1 die Permutation mit

σ(k) = π(k + 1)

fur k = 1, . . . , n− 1. Dann gilt

P11 = P (σ) .

Wegen π(1) = 1 gilt

π(2)− π(1)

2− 1· . . . · π(n)− π(1)

n− 1= 1 .

Wir erhalten

det(P ) = sgn(π) =∏

1≤ν<µ≤n

π(µ)− π(ν)

µ− ν

=∏

2≤ν<µ≤n

π(µ)− π(ν)

µ− ν

=∏

1≤ν′<µ′≤n−1

σ(µ′)− σ(ν′)

µ′ − ν′= sgn(σ) = det(P11)

Nun folgt

det(A) = det(A11) .

Damit ist der Beweis beendet.

Satz 12.10 (Entwicklungssatz von Laplace). Seinen n ∈ N mit n ≥ 2 und

A = (aν,µ)ν,µ=1,...,n ∈ Rn×n

beliebig gegeben. Sei Akl ∈ R(n−1)×(n−1) die Matrix, die aus A durch Streichender k-ten Zeile und der l-ten Spalte hervorgeht. Dann gelten die beiden Entwick-lungsformeln.

(1) Entwicklung nach der k-ten Zeile:

det(A) =n∑µ=1

(−1)k+µakµ det(Akµ) .

(2) Entwicklung nach der l-ten Spalte:

det(A) =n∑ν=1

(−1)ν+laνl det(Aνl) .

144

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 145: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beweis. Die Aussagen (1) und (2) folgen aus dem Entwicklungssatz 12.10 undden Eigenschaften 12.5 der Determinante.

Beispiel 12.11 (Entwicklung nach der zweiten Zeile). Bei Anwendung des Ent-wicklungssatzes von Laplace ist es gunstig, die Determinante nach einer Spalteoder Zeile zu entwickeln, die moglichst viele Nullen enthalt.

det

−1 −3 −10

0 0 −2

−4 −9 2

= −0 + 0− (−2) ·

(−1 −3

−4 −9

)

= 2 · (9− 12) = −6 .

Mit Satz 12.5, Aussage (6) folgt

det

0 0 −2

−1 −3 −10

−4 −9 2

= (−1) · (−6) = 6 .

Vergleiche Beispiel 12.4. �

Satz 12.12 (Formel von Leibniz). Seien n ∈ N und A = (aνµ)ν,µ=1,...,n ∈ Rn×nbeliebig gegeben. Dann gilt

det(A) =∑π∈Sn

sgn(π) aπ(1) 1 · · · aπ(n)n .

Die Determinante kann durch die Formel von Leibniz definiert werden.

Beweis. Sei A = (a1, . . . , an). Fur µ = 1, . . . , n gilt

aµ =

n∑νµ=1

aνµµeνµ .

Der Laufindex νµ gehort zur µ-ten Spalte aµ von A. Die Determinante ist linearin allen Spalten. Ferner gilt det(eν1 , . . . , eνn) = 0 genau dann, wenn es π ∈ Snmit π(µ) = νµ fur alle µ = 1, . . . , n gibt. Wir erhalten

det(A) = det(a1, . . . , an) =n∑

ν1,...,νn=1

aν11 · . . . · aνnn · det(eν1 , . . . , eνn)

=∑π∈Sn

aπ(1) 1 · . . . · aπ(n)n · det(eπ(1), . . . , eπ(n))

=∑π∈Sn

aπ(1) 1 · . . . · aπ(n)n · sgn(π) .

Damit ist der Beweis beendet.

145

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 146: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 12.13. Wir betrachten die Spezialfalle n = 2, 3.

(1) Sei n = 2.

π(1) π(2) sgn(π)

1 2 +1

2 1 −1

det

(a11 a12

a21 a22

)=∑π∈S2

sgn(π) aπ(1) 1 aπ(2) 2 = a11a22 − a21a12 .

(2) Sei n = 3.

π(1) π(2) π(3) sgn(π)

1 2 3 +1

1 3 2 −1

2 1 3 −1

2 3 1 +1

3 1 2 +1

3 2 1 −1

det

a11 a12 a13

a21 a22 a23

a31 a32 a33

=∑π∈S3

sgn(π) aπ(1) 1 aπ(2) 2 aπ(3) 3

= { a11a22a33 − a11a32a23

− a21a12a33 + a21a32a13

+ a31a12a23 − a31a22a13}

= a11 det

(a22 a23

a32 a33

)− a21 det

(a12 a13

a32 a33

)+ a31 det

(a12 a13

a22 a23

).

(3) Wir berechnen die Determinante der ersten Matrix aus Beispiel 12.11 mitder Formel von Leibniz.

det

−1 −3 −10

0 0 −2

−4 −9 2

={(−1) · 0 · 2− (−1)(−9)(−2)− 0 · (−3) · 2

+ 0 · (−9) · (−10) + (−4)(−3)(−2)− (−4) · 0 · (−10)}

= 18− 24 = −6 .

146

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 147: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 12.14 (Vektorprodukt). Das Vektorprodukt a × b zweier Vektorena = (a1, a2, a3)

t und b = (b1, b2, b3)t des R3 ist durch

a× b =

a1a2a3

×

b1b2b3

=

a2b3 − a3b2

a3b1 − a1b3

a1b2 − a2b1

definiert. Die rechte Seite fassen wir als formale Entwicklung der Determinante

det

a1 b1 e1

a2 b2 e2

a3 b3 e3

nach der dritten Spalte auf, wobei {e1, e2, e3} die kanonische Basis des R3 ist.Im strengen Sinne ist diese Determinante nicht definiert. Wir definieren alsozusatzlich

det

a1 b1 e1

a2 b2 e2

a3 b3 e3

= (a2b3 − a3b2)e1 − (a1b3 − a3b1)e2 + (a1b2 − a2b1)e3

=

a2b3 − a3b2

a3b1 − a1b3

a1b2 − a2b1

.

Damit erhalten wir a1a2a3

×

b1b2b3

= det

a1 b1 e1

a2 b2 e2

a3 b3 e3

.

Diese Formel fur das Vektorprodukt lasst sich leicht behalten. Solche formaleErweiterungen der Schreibweisen werden aus praktischen und merktechnischenGrunden des Ofteren vorgenommen. Dabei sind allerdings Vorsichtsmaßnahmenbei der Auswertung der Ausdrucke einzuhalten.

Wir konnen das Vektorprodukt a × b als Anwendung einer schief-symme-trischen (3× 3)-Matrix A auf den Vektor b schreiben. Es gilt 0 −a3 a2

a3 0 −a1−a2 a1 0

b1b2b3

=

a2b3 − a3b2

a3b1 − a1b3

a1b2 − a2b1

= a× b .

Die Matrix A ∈ R3×3 mit

A =

0 −a3 a2

a3 0 −a1−a2 a1 0

147

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 148: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

ist schief-symmetrisch, das heißt, es gilt

At = −A .

Samtliche Diagonalelemente einer schief-symmetrischen Matrix verschwinden.Wegen Satz 12.5, Aussage (5) verschwindet auch die Determinante einer schief-symmetrischen Matrix.

Schief-symmetrische (3 × 3)-Matrizen treten bei der Berechnung der Dreh-achsen dreidimensionaler Drehungen auf. Siehe Satz und Definition 20.6. �

Beispiel 12.15 (Spatprodukt). Der Vektorraum R3 sei mit dem euklidischeninnneren Produkt ⟨ . , . ⟩ und dem Vektorprodukt × versehen. Sei A = (a, b, c) ∈R3 die (3× 3)-Matrix mit den Spalten a, b, c ∈ R3. Dann gilt

det(a, b, c) ≡ det(A) = ⟨a, b× c⟩ .

Aus den Eigenschaften der Determinante ergibt sich insbesondere, dass das Spat-produkt ⟨a, b× c⟩ unter zyklischen Vertauschungen invariant bleibt:

⟨a, b× c⟩ = ⟨b, c× a⟩ = ⟨c, a× b⟩ .

Der Absolutbetrag des Spatproduktes der Spaltenvektoren a, b, c,∈ R3 ist daselementargeometrische Volumen Vol(P (a, b, c)) des Parallelflachs

P (a, b, c) = {αa+ βb+ γc | α, β, γ ∈ [0, 1]} ,

mit den acht Eckpunkten

0 , a , b , c , a+ b , a+ c , b+ c , a+ b+ c .

Es gilt also

Vol(P (a, b, c)) = |⟨a, b× c⟩| = | det(a, b, c)| .

148

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 149: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

13 Adjunkte und Regel von Cramer

Satz 13.1. Sei n ∈ N. Sei A = (a1, . . . , an) ∈ Rn×n eine quadratische Matrixmit den Spalten a1, . . . , an ∈ Rn. Sei φA : Rn → Rn die lineare Abbildung mitφA(x) = Ax. Dann sind die folgenden Aussagen (1) bis (8) aquivalent.

(1) A = (a1, . . . , an) ist invertierbar.

(2) ker(A) = {0}.

(3) def(A) = 0.

(4) im(A) = Rn.

(5) rg(A) = n.

(6) {a1, . . . , an} ist eine Basis des Rn.

(7) det(A) = 0.

(8) φA : Rn → Rn ist bijektiv.

Wenn die aquivalenten Bedingungen (1) bis (8) erfullt sind, dann gilt

det(A−1) = (det(A))−1 =1

det(A).

Wir ziehen nun eine wichtige Konsequenz aus dem Entwicklungssatz vonLaplace. Wenn eine Matrix invertierbar ist, konnen die Eintrage ihrer Inversenals Quotienten geeigneter Determinanten dargestellt werden. Zur Vorbereitungder Inversionsformel definieren wir die Adjunkte einer quadratischen Matrix.Die Regel von Cramer ist eine Konsequenz der Inversionsformel.

Satz und Definition 13.2 (Adjunkte). Seien n ∈ N mit n ≥ 2 und A ∈ Rn×ngegeben.

(1) Sei Aνµ ∈ R(n−1)×(n−1) die Matrix, die aus A durch Streichen der ν-tenZeile und der µ-ten Spalte hervorgeht. Die Determinante det(Aνµ) heißtder (ν, µ)-te Minor von A.

(2) Die Matrix adj(A) = (ανµ) ∈ Rn×n mit

ανµ = (−1)ν+µ det(Aµν)

fur alle ν, µ = 1, . . . , n heißt die Adjunkte der Matrix A. Hierbei ist aufdie Vertauschung der Indizes auf der rechten Seite zu achten.

(3) Die Bildung der Adjunkten ist mit der Transposition vertauschbar. Es gilt

(adj(A))t = adj(At) .

149

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 150: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(4) Aus dem Entwicklungssatz von Laplace folgt

A ◦ adj(A) = adj(A) ◦A = det(A)En .

(5) Wenn det(A) = 0 gilt, dann ist A invertierbar mit

A−1 =1

det(A)adj(A) .

Diese Inversionsformel folgt aus (4).

Die Adjunkte kann mit dem Verfahren von Leverrier-Faddeev berechnet werden.Siehe Satz 14.7.

Beweis. Aussage (3) folgt aus der Definition der Adjungierten und den Eigen-schaften der Determinante. Wir beweisen (4). Dazu beweisen wir zuerst dieFormel

det(A) · δνµ =n∑l=1

(−1)l+µaνl det(Aµl) . (13.1)

Im Fall ν = µ steht rechts die Entwicklung

n∑l=1

(−1)l+µaµl det(Aµl)

von det(A) nach der µ-ten Zeile. Dabei wird uber den Spaltenindex l summiert.Im Fall ν = µ ersetzen wir in A die µ-te Zeile durch die ν-te Zeile. In der neuenMatrix A′ tritt daher die ν-Zeile zweimal auf. Also gilt det(A′) = 0. Die rechteSeite von (13.1) ist die Entwicklung von det(A′) nach der µ-ten Zeile. Damit istdie Formel (13.1) bewiesen. Es folgt

n∑l=1

aνl · αlµ =

n∑l=1

aνl · (−1)l+µ det(Aµl) = det(A) · δνµ .

Damit ist die erste Gleichung

A ◦ adj(A) = det(A)En

der Matrixidentitat (4) komponentenweise bewiesen. Die zweite Gleichung folgtaus

At ◦ adj(At) = det(At)En = det(A)En

durch Transponieren. Dabei verwenden wir (3). Die Inversionsformel (5) folgtaus (4).

150

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 151: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 13.3. Wir betrachten A = (aνµ) ∈ R2×2. Nach 13.2 gilt

adj(A) =

(a22 −a12

−a21 a11

).

Wenn det(A) = 0 gilt, ist A invertierbar mit

A−1 =1

det(A)adj(A) =

1

a11a22 − a21a12

(a22 −a12

−a21 a11

).

Siehe Satz 1.1. �

Beispiel 13.4. Wir berechnen die Adjunkte adj(A) der Matrix

A =

0 0 −2

−1 −3 −10

−4 −9 2

.

(1) Minoren berechnen und eintragen.

(det(Aνµ)

)ν,µ=1,2,3

=

−96 −42 −3

−18 −8 0

−6 −2 0

.

(2) Transponieren. −96 −18 −6

−42 −8 −2

−3 0 0

.

(3) Vorzeichenschema. + − +

− + −+ − +

.

(4) Vorzeichen eintragen.

adj(A) =

−96 18 −6

42 −8 2

−3 0 0

.

(5) Probe mit Hilfe von (4) aus 13.2. 0 0 −2

−1 −3 −10

−4 −9 2

−96 18 −6

42 −8 2

−3 0 0

=

6 0 0

0 6 0

0 0 6

.

151

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 152: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Insbesondere folgt det(A) = 6. Entwickeln nach der ersten Zeile ergibt

det(A) = 0 + 0 + (−2) · (9− 12) = 6 .

Siehe Beispiel 14.9. �

Satz 13.5 (Regel von Cramer. Leibniz, Cramer). Seien n ∈ N mit n ≥ 2 undA ∈ Rn×n mit det(A) = 0 und b = (bν) ∈ Rn gegeben. Dann ist Ax = b istdurch

ξ = (ξν) = A−1b

eindeutig losbar.

(1) Aus der Inversionsformel (4) des Satzes 13.2 folgt

ξν =n∑µ=1

(−1)ν+µdet(Aµν)

det(A)bµ

fur alle ν = 1, . . . , n.

(2) Nach (1) gilt

ξν =det(Aν)

det(A)

fur alle ν = 1, . . . , n. Dabei entsteht Aν ∈ Rn×n aus A, indem die ν-teSpalte durch b ersetzt wird.

Die Formeln in (1) und (2) zur Berechnung der eindeutig bestimmten Losungvon Ax = b werden Regel von Cramer genannt. Formel (2) gilt im Fall n = 1trivialerweise. Den Fall n = 2 haben wir bereits in Satz 1.1 behandelt.

Beispiel 13.6. Gegeben seien A ∈ R3×3 und b ∈ R3 mit

A = (a1, a2, a3) =

−2 3 1

6 −4 1

−8 37 27

, b =

−5

13

−39

.

Die Matrix A ist invertierbar, denn es gilt

det(A) = (+1) · 190 + (−1) · (−50) + (+27) · (−10) = −30 .

Der Einfachheit halber haben wir dabei nach der dritten Spalte entwickelt. Nunberechnen wir den eindeutig bestimmten Vektor x = (x1, x2, x3)

t ∈ R3 mitAx = b mit Hilfe der Regel von Cramer.

x1 =det(b, a2, a3)

det(a1, a2, a3)=

det

−5 3 1

13 −4 1

−39 37 27

det

−2 3 1

6 −4 1

−8 37 27

=

(−120)

(−30)= 4 ,

152

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 153: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

x2 =det(a1, b, a3)

det(a1, a2, a3)=

det

−2 −5 1

6 13 1

−8 −39 27

det

−2 3 1

6 −4 1

−8 37 27

=

(−60)

(−30)= 2 ,

x3 =det(a1, a2, b)

det(a1, a2, a3)=

det

−2 3 −5

6 −4 13

−8 37 −39

det

−2 3 1

6 −4 1

−8 37 27

=

(+90)

(−30)= −3 .

153

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 154: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

14 Cayley-Hamilton. Leverrier-Faddeev

Satz und Definition 14.1. Seien n ∈ N und A ∈ Rn×n gegeben.

(1) λ ∈ R ist genau dann ein Eigenwert von A, wenn det(A− λEn) = 0 gilt.

(2) Die Menge σ(A) der Eigenwerte von A heißt das Spektrum der Matrix A.

(3) Das Polynom χA(t) ∈ R[t] mit

χA(λ) = det(A− λEn)

fur alle Ersetzungen der Unbekannten t durch eine beliebige Zahl λ ∈ Rheißt das charakteristische Polynom von A.

(4) Sei λ ∈ σ(A). Dann heißt der Teilvektorraum ker(A − λEn) ⊆ Rn derEigenraum zum Eigenwert λ. Die Dimension von ker(A− λEn) heißt diegeometrische Vielfachheit des Eigenwertes λ.

(5) Fur alle λ ∈ R gilt λ ∈ σ(A) genau dann, wenn λ eine Nullstelle vonχA(t) ist, das heißt, wenn χA(λ) = 0 gilt.

(6) Wenn λ ∈ R eine k-fache Nullstelle von χA(t) ist, wobei k ∈ N gilt, dannsagen wir, dass k die algebraische Vielfachheit des Eigenwertes λ ist.

Beispiel 14.2. Wir betrachten die Matrix A ∈ Rn×n mit

A =

2 0 0

1 9 −4

2 14 −6

aus Beispiel 8.4. Entwickeln der Matrix

A− λE3 =

2− λ 0 0

1 9− λ −4

2 14 −6− λ

nach der ersten Spalte ergibt

χA(λ) = det(A− λE3) = −λ3 + 5λ2 − 8λ+ 4 = (−1)(λ− 2)2(λ− 1) .

In Ubereinstimmung mit den fruheren Rechnungen in 8.4 ist λ1 = λ2 = 2 einedoppelte und λ3 = 1 eine einfache reelle Nullstelle von χA(X). Im vorliegendenFall gilt

σ(A) = {1, 2} .

Außerdem stimmen fur jedes λ ∈ σ(A) die algebraische und geometrische Viel-fachheit von λ uberein. Im Allgemeinen gilt dies jedoch nicht. �

154

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 155: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Wir erortern jetzt ein Beispiel von grundlegender Bedeutung. Dieses Beispielbereitet den Satz von Cayley-Hamilton und das Matrixmodell der komplexenZahlen vor.

Beispiel 14.3. Es gibt allerdings quadratische reelle Matrizen, die keinen reel-len Eigenwert besitzen. Die Matrix

A =

(0 −1

1 0

)∈ R2×2

besitzt das charakteristische Polynom

χA(λ) = λ2 + 1 .

Dieses Polynom besitzt keine reellen Nullstellen. Daher besitzt A keine reellenEigenwerte. Wenn die Unbekannte t nicht durch reelle Zahlen λ sondern durchdie Matrix A selber ersetzt wird, erhalten wir

χA(A) = A ◦A+ E2 =

(0 −1

1 0

)◦

(0 −1

1 0

)+

(1 0

0 1

)=

(0 0

0 0

).

Nach dem Satz von Cayley-Hamilton gilt, dass jede quadratische reelle MatrixNullstelle ihres eigenen charakteristischen Polynoms ist. �

Satz 14.4 (Cayley-Hamilton). Seien n ∈ N und A ∈ Rn×n gegeben. Dann gilt

χA(A) = 0n×n .

Dabei wird die Unbekannte t im charakteristischen Polynom χA(t) ∈ R[t] durchdie Matrix A ersetzt.

Beweis. Die Aussage des Satzes gilt im Fall n = 1 trivialerweise. Wir setzendaher n ≥ 2 voraus. Es gibt a0, . . . , an ∈ R und C0, . . . , Cn−1 ∈ Rn×n mit

χA(λ) =

n∑k=0

akλk , adj(A− λEn) =

n−1∑k=0

λkCk

fur alle λ ∈ R. Nach Satz 13.2 gilt

χA(λ)En = det(A− λEn)En

= (A− λEn) ◦ adj(A− λEn)

= (A− λEn) ◦ (C0 + λC1 + . . .+ λn−1Cn−1) .

Ein Koeffizientenvergleich ergibt

a0En = AC0 , akEn = ACk − Ck−1 , anEn = −Cn−1

155

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 156: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

fur k = 1, . . . , n− 1. Eine Multiplikation mit A0 = En, Ak respektive An liefert

a0En = AC0 , akAk = Ak+1 ◦ Ck −Ak ◦ Ck−1 , anA

n = −An ◦ Cn−1

fur k = 1, . . . , n− 1. Schließlich summieren wir und erhalten

χA(A) =

n∑k=0

akAk = AC0 + (A2C1 −A1C0)

+ (A3C2 −A2C1)

...

+ (AnCn−1 −An−1Cn−2)−AnCn−1

= 0 .

Damit ist der Beweis beendet.

Satz und Definition 14.5. Sei n ∈ N. Fur A = (aνµ) ∈ Rn×n wird die Spurtr(A) durch

tr(A) =n∑ν=1

aνν = a11 + . . .+ ann

definiert. Seien α, β ∈ R und B = (bνµ) ∈ Rn×n. Dann gelten:

(1) tr(En) = n.

(2) tr(αA+ βB) = α · tr(A) + β · tr(B).

(3) tr(A ◦B) = tr(B ◦A).

Beweis. Die Aussagen (1) und (2) sind klar. Es gilt

tr(AB) =

n∑ν=1

(n∑µ=1

aνµbµν

)=

n∑µ=1

(n∑ν=1

bµνaνµ

)= tr(BA) .

Damit ist (3) bewiesen.

Spur und Determinante sind Abbildungen von Rn×n in R. Sie sind unterallen inneren Automorphismen

A 7→ V −1 ◦A ◦ V

mit V ∈ GL(n,R) invariant. Diese Invarianzeigenschaft kann zur Berechnungvon tr(A) und det(A) ausgenutzt werden. Außerdem bedeutet diese Invarianz-eigenschaft, dass Spur und Determinante fur lineare Abbildungen φ : Rn → Rnunabhangig von einer speziellen Matrixdarstellung einen Sinn machen.

156

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 157: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz 14.6. Sei n ∈ N. Fur alle A ∈ Rn×n und alle V ∈ GL(n,R) gelten dieFormeln (1) und (2).

(1) tr(V −1AV ) = tr(A).

(2) det(V −1AV ) = det(A).

Die Koeffizienten des charakteristischen Polynoms χA(t) ∈ R[t] einer Ma-trix A ∈ Rn×n konnen sukzessive mit dem Verfahren von Leverrier-Faddeevberechnet werden. Das Verfahren liefert außerdem die Adjunkte adj(A) und dieDeterminante det(A) von A.

Satz 14.7 (Leverrier-Faddeev). Seien n ∈ N mit n ≥ 2 und A ∈ Rn×n gegeben.

(1) Die Koeffizienten p1, . . . , pn ∈ R des charakteristischen Polynoms

χA(t) = (−1)n(tn − p1tn−1 − p2t

n−2 − . . .− pn) ∈ R[t]

von A lassen sich mit dem Verfahren von Leverrier-Faddeev induktiv be-rechnen.

(1.1) Wir setzen B0 = En, wobei En ∈ Rn×n die Einheitsmatrix ist.

(1.2) Wir berechnen

Ak = ABk−1 , pk =tr(Ak)

k, Bk = Ak − pkEn

sukzessive fur k = 1, . . . , n.

(2) Nach dem Satz von Cayley-Hamilton gilt Bn = 0.

(3) Am charakteristischen Polynom χA(t) lassen sich die Spur tr(A) und dieDeterminante det(A) von A direkt ablesen. Es gelten

tr(A) = p1 , det(A) = (−1)n−1pn .

(4) Es gilt

adj(A) = (−1)n−1Bn−1 .

(5) Wenn A invertierbar ist, dann gilt

A−1 =1

pnBn−1 .

Eigenschaft (2) dient zur Kontrolle der Rechnung.

Beispiel 14.8 (Fortsetzung von Beispiel 14.2). Wir untersuchen die MatrixA ∈ R3×3 mit

A =

2 0 0

1 9 −4

2 14 −6

mit dem Verfahren von Leverrier-Faddeev. Die Rechnung fassen wir in folgen-dem Schema zusammen.

157

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 158: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

A1 = AE3 =

2 0 0

1 9 −4

2 14 −6

, p1 = 5 , B1 =

−3 0 0

1 4 −4

2 14 −11

.

A2 =

−6 0 0

−2 −20 8

−4 −28 10

, p2 = −8 , B2 =

2 0 0

−2 −12 8

−4 −28 18

.

A3 =

4 0 0

0 4 0

0 0 4

, p3 = 4 , B3 =

0 0 0

0 0 0

0 0 0

.

χA(t) = (−1)3(t3 − 5t2 + 8t− 4) = (−1)(t− 2)2(t− 1) .

det(A) = (−1)2 p3 = 4 .

A−1 =1

p3B2 =

1

4

2 0 0

−2 −12 8

−4 −28 18

.

Beispiel 14.9 (Fortsetzung von Beispiel 13.4). Wir berechnen die Adjunkteadj(A) und die Determinante det(A) der Matrix

A =

0 0 −2

−1 −3 −10

−4 −9 2

mit dem Verfahren von Leverrier-Faddeev. Wie in 13.4 erhalten wir

adj(A) =

−96 18 −6

42 −8 2

−3 0 0

, det(A) = 6 .

Die Rechnung fassen wir in folgendem Schema zusammen.

158

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 159: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

A1 = A =

0 0 −2

−1 −3 −10

−4 −9 2

,

p1 = tr(A1) = −1 , B1 = A1 − p1E3 =

1 0 2

−1 −2 −10

4 −9 3

.

A2 = AB1 =

8 18 −6

42 96 2

−3 0 104

,

p2 =tr(A2)

2= 104 , B2 = A2 − p2E3 =

−96 18 −6

42 −8 2

−3 0 0

.

A3 = AB2 =

6 0 0

0 6 0

0 0 6

, p3 =tr(A3)

3= 6 , B3 =

0 0 0

0 0 0

0 0 0

.

χA(t) = (−1)n(tn − p1tn−1 − p2t

n−2 − . . .− pn)

= (−1)3(t3 + t2 − 104t− 6)

= −t3 − t2 + 104t+ 6 .

adj(A) = (−1)2B2 =

−96 18 −6

42 −8 2

−3 0 0

.

det(A) = (−1)2 p3 = 6 .

Beispiel 14.10. Wir berechnen das charakteristische Polynom χA(t) explizitin den Fallen n = 2 und n = 3.

(1) Fur alle A ∈ R2×2 gilt

χA(t) = det(A− tE2) = (−1)2(t2 − tr(A) · t+ det(A)) .

159

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 160: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(2) Fur alle A ∈ R3×3 gilt

χA(t) = det(A− tE3) = (−1)3(t3 − tr(A) · t2 + tr(adj(A)) · t− det(A)) .

Im Fall n = 3 tritt die Spur der Adjunkten in der Formel fur das charakteristi-sche Polynom auf. Wie das Beispiel

A =

2 0 0

1 9 −4

2 14 −6

, tr(A) = 5 , det(A) = 4 ,

adj(A) =

2 0 0

−2 −12 8

−4 −28 18

, tr(adj(A)) = 8

zeigt, stimmen die Spur von A und die Spur von adj(A) im Allgemeinen nichtuberein. Siehe 14.8. Dagegen gilt fur A ∈ R2×2 stets tr(A) = tr(adj(A)). Siehe13.3. Wenn wir in (1) und (2) fur die Unbekannte t die Matrix A einsetzen,erhalten wir mit dem Satz von Cayley-Hamilton die folgenden Aussagen (3)und (4).

(3) Fur alle A ∈ R2×2 gilt

A2 = tr(A) ·A− det(A) · E2 .

(4) Fur alle A ∈ R3×3 gilt

A3 = tr(A) ·A2 − tr(adj(A)) ·A+ det(A) · E3 .

Wir betrachten noch einmal die Matrix A aus 14.8. Ausmultiplizieren ergibt

A2 =

4 0 0

3 25 −12

6 42 −20

, A3 =

8 0 0

7 57 −28

14 98 −48

.

Offenbar gilt 8 0 0

7 57 −28

14 98 −48

= 5

4 0 0

3 25 −12

6 42 −20

− 8

2 0 0

1 9 −4

2 14 −6

+ 4

1 0 0

0 1 0

0 0 1

.

Nach dem folgenden Satz ist jedes reelle Polynom vom Grad n ∈ N, dessenLeitkoeffizienten gleich (−1)n ist, das charakteristische Polynom einer Matrixaus Rn×n.

160

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 161: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz 14.11 (Begleitmatrix). Seien n ≥ N mit n ≥ 2 und p1, . . . , pn ∈ R beliebiggegeben. Dann ist das Polynom φ(t) ∈ R[t] mit

φ(t) = (−1)n(tn − p1tn−1 − p2t

n−2 − . . .− pn)

das charakteristische Polynom der Matrix A ∈ Rn×n mit

A =

0 0 0 . . . 0 0 0 pn

1 0 0 . . . 0 0 0 pn−1

......

0 0 0 . . . 0 1 0 p2

0 0 0 . . . 0 0 1 p1

.

Diese Schreibweise ist so zu verstehen, dass in der ersten Diagonale unterhalbder Hauptdiagonalen der Matrix A alle Eintrage gleich 1 sind, in der letztenSpalte von oben nach unten die Koeffizienten pn, . . . , p1 eingetragen werden,und alle anderen Eintrage gleich 0 sind. Die Matrix A heißt die Begleitmatrixdes Polynoms φ(t).

Beispiel 14.12 (Fortsetzung des fundamentalen Beispiels 14.3). Die Begleit-matrix des Polynoms

φ(t) = t2 + 1 = (−1)2(t2 − p1t− p2) ∈ R[t]

mit p1 = 0 und p2 = −1 ist die Matrix

A =

(0 p2

1 p1

)=

(0 −1

1 0

)∈ R2×2 .

Wir verweisen auf Satz 15.5. Im Matrixmodell der komplexen Zahlen ist dieseMatrix die imaginare Einheit i. Die Matrizen ±A sind die einzigen Matrizen inR2×2, die die Matrixgleichung

A2 + E2 = 02×2

erfullen. Die Idee ist, die fehlenden reellen Wurzeln der Gleichung t2+1 = 0 alsreelle (2× 2)-Matrizen zu konstruieren. �

Beispiel 14.13.

(1) Fur alle A ∈ R2×2 gilt

det(E2 + tA) = 1 + tr(A) · t+ det(A) · t2 .

(2) Fur alle A ∈ R3×3 gilt

det(E3 + tA) = 1 + tr(A) · t+ tr(adj(A)) · t2 + det(A) · t3 .

161

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 162: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 14.14. Sei n ∈ N mit n ≥ 2. Fur alle A ∈ Rn×n gilt

d

dtdet(En + tA) = tr(A ◦ adj(E + tA)) .

Dabei wird die Ableitung eines reellen Polynoms rein algebraisch durch

d

dt

(m∑µ=0

aµtµ

)=

0 , µ = 0 ,

m−1∑µ=1

µaµtµ−1 , m ∈ N

definiert. �

162

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 163: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

15 Matrixmodell der komplexen Zahlen

Satz und Definition 15.1. Ein Tripel (K,+, ·), das aus einer nicht-leerenMenge K und zwei Abbildungen + : K × K → K mit (x, y) 7→ x + y und· : K × K → K mit (x, y) 7→ xy = x · y besteht, heißt ein Korper, wenn diefolgenden Bedingungen (1) bis (4) erfullt sind. Dann nennen wir die Abbildung+ die Addition und die Abbildung · die Multiplikation des Korpers (K,+, ·).

(1) (∀x, y ∈ K : x+ y = y + x , xy = yx .

(2) (∀x, y, z ∈ K) : x+ (y + z) = (x+ y) + z , x(yz) = (xy)z .

(3) (∀x, y, z ∈ K) : x(y + z) = xy + xz .

(4) Es gibt Elemente 0 ∈ K und 1 ∈ K derart, dass (4.1) bis (4.5) gelten.

(4.1) 0 = 1 .

(4.2) (∀x ∈ K) : x+ 0 = x .

(4.3) (∀x ∈ K)(∃y ∈ K) : x+ y = 0 .

(4.4) (∀x ∈ K) : 1 · x = x .

(4.5) (∀x ∈ K \ {0})(∃y ∈ K) : xy = 1 .

Es gelten die folgenden Einzigkeitsaussagen (5), (6), (7).

(5) Die Elemente 0 und 1 sind bereits durch die Bedingungen (1), (2), (4.2),(4.4) eindeutig bestimmt. Diese Elemente heißen die Null respektive dieEins des Korpers (K,+, ·).

(6) Die Elemente y ∈ K mit x+ y = 0 sind eindeutig durch x ∈ K bestimmt.Sie heißen das negative Element (−x) zu x.

(7) Die Elemente y ∈ K \ {0} mit xy = 1 sind durch x ∈ K \ {0} eindeutigbestimmt. Sie heißen das inverse oder reziproke Element x−1 zu x.

Wir nennen die Menge K× = K \ {0} die Menge invertierbaren Elemente desKorpers (K,+, ·).

Wenn keine Verwechslungen zu befurchten sind, schreiben wirK anstelle von(K,+, ·). Außerdem unterscheiden wir in der Notation zwischen den Additionenund Multiplikationen verschiedener Korper nicht.

Beispiele 15.2.

(1) Das Tripel (Q,+, ·) bestehend aus der Menge Q der rationalen Zahlen undder ublichen Addition und der ublichen Multiplikation ist ein Korper.

(2) Das Tripel (R,+, ·) bestehend aus der Menge R der reellen Zahlen undder ublichen Addition und der ublichen Multiplikation ist ein Korper.

163

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 164: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Definition 15.3. Sei K ein Korper. Ein Paar (L,Φ) bestehend aus einemKorper L und einer Abbildung Φ : K → L heißt eine Korpererweiterung vonK, wenn die folgenden Bedingungen (1), (2), (3) erfullt sind.

(1) Fur alle x, y ∈ K gilt Φ(x+ y) = Φ(x) + Φ(y).

(2) Fur alle x, y ∈ K gilt Φ(x · y) = Φ(x) · Φ(y).

(3) Aus Φ(x) = Φ(y) folgt x = y fur alle x, y ∈ K.

In dieser Situation sagen wir auch, dass L eine Korpererweiterung von K ist.Manchmal sagen wir, dass Φ eine Korpererweiterung von K ist. Außerdem istes ublich, K mit der Bildmenge Φ(K) zu identifizieren. Wir sagen dann, dassK ein Teilkorper von L ist.

Satz 15.4. Sei K eine Korper. Fur eine Korpererweiterung (L,Φ) von K geltendie folgenden Aussagen (1), (2), (3).

(1) Φ(0) = 0.

(2) Φ(K×) ⊆ L×.

(3) Φ(1) = 1.

Wir konstruieren in Satz 15.5 dasMatrixmodell des Korpers C der komplexenZahlen. Die komplexen Zahlen werden als reelle (2× 2)-Matrizen der(

a −bb a

)

Form konstruiert. Der Korper C ist eine Korpererweiterung der Korpers R derreellen Zahlen. Dabei werden die reellen Zahlen a mit den Diagonalmatrizen(

a 0

0 a

)

identifiziert. Wir erinnern an die Beispiele 14.3 und 14.12 und den Satz 14.4von Cayley-Hamilton. Im Korper C ist die Gleichung x2 + 1 = 0 losbar. Nachdem Fundamentalsatz 15.12 besitzt jedes komplexe Polynom n-ten Grades nNullstellen.

Satz 15.5 (Matrixmodell der komplexen Zahlen). Sei C ⊆ R2×2 die Mengealler reellen (2× 2)-Matrizen von der Form

c =

(a −bb a

)

mit a, b ∈ R. Dann gelten die folgenden Aussagen (1) bis (8).

(1) Die Menge C enthalt die Nullmatrix 02×2 und die Einheitsmatrix E2.

164

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 165: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(2) Fur alle a1, a2, b1, b2 gilt(a1 −b1b1 a1

)+

(a2 −b2b2 a2

)=

(a1 + a2 −(b1 + b2)

b1 + b2 (a1 + a2)

).

Also liegen Summen von Matrizen aus C ebenfalls in C.

(3) Fur alle Matrizen c ∈ C liegen auch die negativen Matrizen −c in C.

(4) Fur alle a1, a2, b1, b2 gilt(a1 −b1b1 a1

)◦

(a2 −b2b2 a2

)=

(a1a2 − b1b2 −(a1b2 + a2b1)

a1b2 + a2b1 (a1a2 − b1b2)

).

Also liegen Produkte von Matrizen aus C ebenfalls in C.

(5) Eine Matrix

c =

(a −bb a

)∈ C

ist genau dann invertierbar, wenn det(c) = a2 + b2 = 0 gilt. Dann gilt

c−1 =1

a2 + b2

(a b

−b a

)∈ C .

Also liegen fur alle Matrizen c ∈ C \ {0} auch die inversen Matrizen c−1

in C.

(6) Das Tripel (C,+, ◦) ist ein Korper. Dabei ist die Addition + die Matrizen-addition und die Multiplikation ◦ die Matrizenmultiplikation in R2×2.

(6.1) Das Tripel (C,+, ◦) heißt Korper der komplexen Zahlen.

(6.2) Die Elemente von C heißen komplexe Zahlen.

(6.3) Das Produkt c1 ◦ c2 zweier komplexer Zahlen c1 und c2 schreiben wirwie ublich in der Form c1c2 = c1 · c2.

(7) Die Abbildung Φ : R → C mit

Φ : a 7→

(a 0

0 a

)

ist eine Korpererweiterung.

(8) Im Korper C ist die Gleichung x2 = −1 losbar. Es gilt(0 −1

1 0

)(0 −1

1 0

)= −

(1 0

0 1

).

Nach dem Fundamentalsatz der Algebra zerfallt jedes komplexe Polynomvollstandig in Linearfaktoren. Siehe Satz 15.12.

165

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 166: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz und Definition 15.6 (Schreibweisen). Jede komplexe Zahl

c =

(a −bb a

)∈ C

lasst sich mit a, b ∈ R auf genau eine Weise in der Form(a −bb a

)=

(a 0

0 a

)(1 0

0 1

)+

(b 0

0 b

)(0 −1

1 0

)

= a

(1 0

0 1

)+ b

(0 −1

1 0

)zerlegen. Wir vereinfachen die Schreibweise, indem wir eine reelle Zahl mit ih-rem Bild unter der Korpererweiterung Φ : R → C identifizieren.

(1) Wir setzen

1 =

(1 0

0 1

), i =

(0 −1

1 0

), a+ bi =

(a −bb a

).

Wie ublich lassen wir den Punkt fur die Multiplikation fort. Wegen derKommutativitat der Multiplikation in C gilt insbesondere bi = ib.

(2) Die komplexe Zahl i ist die imaginare Einheit. Es gilt

(±i)2 = −1 .

(3) Die reellen Zahlen a und b heißen der Real- respektive der Imaginarteilder komplexen Zahl c = a+ bi.

c = a+ bi , Re(c) = a , Im(c) = b .

(4) Die komplexe Zahl c = a− bi heißt konjugiert komplexe Zahl zu c.

c = a− bi , Re(c) = Re(c) = a , Im(c) = −Im(c) = −b .

(5) Fur alle a1, a2, b1, b2 ∈ R gilt

(a1 + b1i) + (a2 + b2i) = (a1 + a2) + i(b1 + b2) .

(6) Fur alle a1, a2, b1, b2 ∈ R gilt

(a1 + b1i)(a2 + b2i) = (a1a2 − b1b2) + (a1b2 + a2b1)i .

(7) Insbesondere ergibt sich

cc = (a− bi)(a+ bi) = a2 + b2 ≥ 0 .

Die nicht-negative Quadratwurzel

|c| =√cc =

√a2 + b2 ≥ 0

heißt Absolutbetrag der komplexen Zahl c = a+ bi.

166

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 167: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 15.7.

(1− 2i) + (3 + 4i) = 4 + 2i .

(1− 2i)− (3 + 4i) = (−2) + (−6) · i = −2− 6i = (−2)(1 + 3i) .

(1− 2i) · (3 + 4i) = 11− 2i .

(3 + 4i) = 3− 4i , |3 + 4i|2 = (3 + 4i) · (3 + 4i) = 25 .

|3± 4i| = 5 .

1− 2i

3 + 4i=

1− 2i

3 + 4i· 3− 4i

3− 4i=

−5− 10i

25= −1− 2i

5= −1

5− 2

5i .

Satz 15.8 (Polardarstellung komplexer Zahlen).

(1) Jede komplexe Zahl c ∈ C× ⊆ GL(2,R) besitzt eine Darstellung der Form

c = |c|

(cos(φ) − sin(φ)

sin(φ) cos(φ)

)

mit einem eindeutig bestimmten reellen Parameter φ ∈ (−π, π]. DieseDarstellung heißt die Polardarstellung von c.

(2) Eine komplexe Zahlen c ∈ C× ⊆ GL(2,R) ist demnach eine ebene Dreh-streckung mit Streckungsfaktor |c| > 0 und Drehwinkel φ ∈ (−π, π]. Esgelten

|c| =√det(c) , cos(φ) =

tr(c)

2√

det(c)=

Re(c)

|c|, sin(φ) =

Im(c)

|c|.

Dabei ist φ ∈ (−π, π] durch die beiden letzten Gleichungen eindeutig be-stimmt.

Beispiel 15.9.

1− i =√2

(1√2− i√

2

)=

√2(cos(−π4

)+ i sin

(−π4

)).

167

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 168: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Tabelle 15.10.

φ π6

π5

π4

π3

π2

2π3

3π4

4π5

5π6

cos(φ)√32

1+√5

4

√22

12 0 − 1

2 −√22 − 1+

√5

4 −√32

sin(φ) 12

√10−2

√5

4

√22

√32 1

√32

√22

√10−2

√5

412

Aus der Multiplikationsregel fur komplexe Zahlen und den Additionstheore-men fur Cosinus und Sinus ergibt sich der folgende Satz 15.11.

Satz 15.11 (Euler-Moivre).

(1) Fur alle φ,ψ ∈ R gilt

(cos(φ) + i sin(φ))(cos(ψ) + i sin(ψ)) = cos(φ+ ψ) + i sin(φ+ ψ) .

(2) Fur alle n ∈ N0 und alle φ ∈ R gilt

(cos(φ) + i sin(φ))n = cos(nφ) + i sin(nφ) .

Die Aussagen (1) und (2) sind eine elegante Zusammenfassung der Additions-theoreme.

Nach Satz 15.11 ist eine Exponentialschreibweise sinnvoll. Wir setzen

eiφ = cos(φ) + i sin(φ) , φ ∈ R .

Speziell fur φ = π erhalten wir die beruhmte Euler’sche Formel

eiπ + 1 = 0 .

In der Analysis werden die Exponentialfunktion, der Cosinus und der Sinusdurch eine Potenzreihe definiert. Dann wird aus der obigen Definitionsgleichungfur eiφ eine beweisbare Gleichung. Aus Satz 15.11 folgen die Rechenregeln

eiφeiψ = ei(φ+ψ) , (eiφ)n = einφ , |eiφ| = 1

fur alle φ,ψ ∈ R und alle n ∈ N0.

Wir formulieren die Polardarstellung mit der Exponentialschreibweise um.Sei c ∈ C× ⊆ GL(2,R). Dann gilt

c = |c|

(cos(φ) − sin(φ)

sin(φ) cos(φ)

)= |c|(cos(φ) + i sin(φ)) = |c| eiφ

mit einem eindeutig bestimmten φ ∈ (−π, π].

168

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 169: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz 15.12 (Fundamentalsatz der Algebra. Gauß). Jedes normierte komplexePolynom p(x) ∈ C[x] vom Grade n ∈ N besitzt eine Zerlegung

p(x) =

n∏k=1

(x− λk)

in ein Produkt aus Linearfaktoren (x− λk) mit λk ∈ C. Diese Zerlegung ist bisauf die Reihenfolge der Linearfaktoren eindeutig bestimmt.

Satz 15.13 (Auflosungsformeln fur quadratische Gleichungen).

(1) Sei w ∈ C beliebig gegeben. Dann gilt |w| ± Re(w) ≥ 0. Die Formeln

ζ =

±√|w|+Re(w) + i

√|w| − Re(w)√

2, Im(w) ≥ 0 ,

±√|w|+Re(w)− i

√|w| − Re(w)√

2, Im(w) < 0

liefern alle Losungen ζ ∈ C der quadratischen Gleichung z2 = w.

(2) Seien p, q ∈ C beliebig gegeben. Sei ζ ∈ C mit

ζ2 =(p2

)2− q

gegeben. Dann sind

z1 = −p2+ ζ , z2 = −p

2− ζ

die Losungen der quadratischen Gleichung z2 + pz + q = 0.

169

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 170: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

16 Spektralsatz. Projektionen. Gram-Schmidt

Wir betrachten in diesem Abschnitt symmetrische reelle Matrizen. Nach demSpektralsatz 16.6 lassen sich diese Matrizen als endliche Linearkombinationenvon Projektionsmatrizen darstellen.

Satz und Definition 16.1. Sei n ∈ N. Der Vektorraum Rn sei mit dem eu-klidischen inneren Produkt ⟨ . , . ⟩ und der euklidischen Norm ∥ . ∥ versehen.

(1) A ∈ Rn×n heißt positiv, wenn es B ∈ Rn×n mit A = BtB gibt.

(2) Jede positive Matrix A ∈ Rn×n ist symmetrisch.

(3) Eine Matrix P ∈ Rn×n mit P = P t = P 2 heißt eine Projektionsmatrix.

(4) Proj(n,R) = {P ∈ Rn×n | P = P t = P 2}.

(5) Jede Projektionsmatrix ist positiv.

Satz und Definition 16.2 (Projektionssatz). Sei n ∈ N. Der Vektorraum Rnsei mit dem euklidischen inneren Produkt ⟨ . , . ⟩ und der euklidischen Norm ∥ . ∥versehen. Sei En = {e1, . . . , en} die kanonische Basis des Rn Sei X ⊆ Rn einbeliebiger Teilvektorraum.

(1) Die Teilmenge X⊥ ⊆ Rn mit

X⊥ = {x ∈ Rn | (∀v ∈ X) : ⟨x, v⟩ = 0 }

ist ein Teilvektorraum.

(1.1) X⊥ heißt der Orthogonalraum zu X.

(1.2) X⊥⊥ = (X⊥)⊥ heißt der Biorthogonalraum zu X.

(1.3) Jeder Vektor x ∈ Rn besitzt eine eindeutig bestimmte Zerlegung

x = x′ + x′′

mit x′ ∈ X und x′′ ∈ X⊥.

(1.4) X⊥⊥ = X.

(2) Die Abbildung π : Rn → Rn mit

π(x) = x′

ist linear. Wir nennen π die orthogonale Projektion des Rn auf X. Sei

P =MEnEn(π) ∈ Rn×n

die Matrixdarstellung von π bezuglich En. Es gelten:

(2.1) (∀x ∈ Rn×n) : Px = π(x) = x′.

(2.2) P ∈ Proj(n,R).(2.3) X = im(π) = im(P ).

170

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 171: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(2.4) X⊥ = ker(π) = ker(P ).

(2.5) P ist die einzige Projektionsmatrix M ∈ Proj(n,R) mit X = im(M).

(3) Die Abbildung σ : Rn → Rn mit

σ(x) = x′′

ist die orthogonale Projektion des Rn auf den Orthogonalraum X⊥. Sei

Q =MEnEn(σ) ∈ Rn×n

die Matrixdarstellung von σ bezuglich En. Es gelten:

(3.1) (∀x ∈ Rn) : σ(x) = x− π(x) = x− x′ = x′′.

(3.2) P +Q = En.

(3.3) PQ = QP = 0.

(4) P ist positiv mit σ(P ) ⊆ {0, 1} und tr(P ) = rg(P ).

(5) Sei X nicht der Nullraum, V = {v1, . . . , vr} eine Basis von X und

V = (v1, . . . , vr) ∈ Rn×r

die Matrix mit den Spalten v1, . . . , vr. Dann ist die quadratische Matrix

V tV ∈ Rr×r

invertierbar. Es gilt die Projektionsformel

P = V (V tV )−1V t .

(6) Wenn in (5) die Vektoren v1, . . . , vr paarweise orthogonal sind, vereinfachtsich die Projektionsformel zu

P =r∑ρ=1

vρ ⊗ vρ∥vρ∥2

=r∑ρ=1

vρvtρ

∥vρ∥2.

Siehe Satz und Definition 5.5.

Beweis. Nachweis von (1.3) und (1.4). Als Durchschnitt der Kerne der linearenAbbildungen x 7→ ⟨x, v⟩ mit v ∈ X ist X⊥ ein Teilvektorraum des Rn. Analogfolgt, dass X⊥⊥ ein Teilvektorraum des Rn ist. Die Aussage (1.4) folgt aus (1.3).

Die Aussage (1.3) gilt in den Fallen X = {0} und X = Rn trivialerweise. Seialso 1 ≤ r = dimX ≤ n− 1 mit n ≥ 2.

Wir wahlen eine Basis {a1, . . . , ar} von X. Sei A = (a1, . . . , ar) ∈ Rn×r.Dann gelten

X = im(A) , X⊥ = ker(At) , 1 ≤ dim(X⊥) = n− r ≤ n− 1 .

171

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 172: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Dabei verwenden wir die Beziehung rg(At) = rg(A) = r und die Dimensions-formel fur die transponierte Matrix At ∈ Rr×n. Siehe Satz 6.10. Wir wahlen eineBasis {ar+1, . . . an} des OrthogonalraumesX⊥. Dann ist die Menge {a1, . . . , an}eine Basis des Rn.

Sei x ∈ Rn. Dann gibt es eindeutig bestimmte α1, . . . , αn ∈ R mit

x = α1a1 + . . .+ αnan .

Die Vektoren

x′ = α1a1 + . . .+ αrar ∈ X , x′′ = αr+1ar+1 + . . .+ αnan ∈ X⊥

bilden eine orthogonale Zerlegung x = x′ + x′′. Seien x1 ∈ X und x2 ∈ X⊥

irgendwelche Vektoren mit x = x1 + x2. Dann gibt es eindeutig bestimmteKoeffizienten β1, . . . , βn ∈ R mit

x1 = β1a1 + . . .+ βrar , x2 = βr+1ar+1 + . . .+ βnan .

Weil {a1, . . . , an} eine Basis des Rn ist, folgt aν = βν fur alle ν = 1, . . . , n.Daher ist eine orthogonale Zerlegung eines beliebigen Vektors des Rn in einenVektor aus X und einen Vektor aus X⊥ eindeutig bestimmt. Diese Zerlegunghangt insbesondere nicht von der Wahl der Basen der Teilraume X und X⊥ ab.Damit ist (1.3) bewiesen.

Die Gultigkeit der Aussagen in (2) und (3) ist klar.

Nachweis von (4). Seien λ ∈ R und v ∈ Rn \ {0} mit Pv = λv gegeben. Aus

λv = Pv = P 2v = P (λv) = λ2v

folgt λ2 = λ. Also gilt σ(P ) ⊆ {0, 1}.

Offenbar gilt tr(P ) = rg(P ), wenn P = 0 oder P = En gilt. Wir betrachtenden Fall 1 ≤ r = dimX = im(P ) ≤ n − 1. Sei eine Basis {a1, . . . , ar} von Xund {ar+1, . . . an} eine Basis von X⊥. Dann ist {a1, . . . , an} eine Basis des Rnaus Eigenvektoren der Projektionsmatrix P . Sei W = (a1, . . . , an) ∈ GL(n,R).Dann gilt

W−1PW =

(Er 0r×(n−r)

0(n−r)×r 0(n−r)×(n−r)

).

Mit Satz erhalten wir

tr(P ) = tr(W−1PW ) = tr(Er) = r = dim(X) = rg(P ) .

Damit ist (4) bewiesen.

Nachweis von (5). Zuerst zeigen wir, dass die (r×r)-Matrix V tV invertierbarist. Weil die Vektoren v1, . . . , vr linear unabhangig sind, gilt rg(V ) = r. Seiy ∈ Rr mit V tV y = 0 gegeben. Dann gilt

⟨V y, V y⟩ = ⟨y, V tV y⟩ = 0 .

172

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 173: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Also gilt V y = 0. Weil die Vektoren v1, . . . , vr linear unabhangig sind, folgty = 0. Also ist die quadratische Matrix V tV invertierbar.

Nun sei x ∈ Rn beliebig gewahlt. Dann gilt Px ∈ X = im(P ). Weil V eineBasis von X ist, gibt es ξ1, . . . , ξr ∈ R mit

Px = ξ1v1 + . . .+ ξrvr .

Wir betrachten den Vektor

ξ = (ξρ)ρ=1,...,r = ξ1e(r)1 + . . .+ ξre

(r)r ∈ Rr .

Dabei ist Er = {e(r)1 , . . . , e(r)n } die kanonische Basis des Rr. Nach Konstruktion

gilt

Px = V ξ ∈ Rn .

Wegen x− Px ∈ X⊥ gilt

vtρ(x− V ξ) = ⟨vρ, x− V ξ⟩ = ⟨vρ, x− Px⟩ = 0

fur alle ρ = 1, . . . , r. Also ist der Vektor ξ ∈ Rr eine Losung der Normalgleichung

V tV ξ = V tx ∈ Rr .

Weil V tV ∈ Rr×r invertierbar ist, folgt

ξ = (V tV )−1V tx .

Multiplikation mit V ergibt

Px = V ξ = V (V tV )−1V tx .

Damit ist die Projektionsformel

P = V (V tV )−1V t

bewiesen.

Nachweis von (6). Wenn v1, . . . , vr paarweise orthogonal sind, gilt

V tV = diag(∥v1∥2, . . . , ∥vr∥2) .

Die Projektionsformel liefert in diesem Fall

Px = V

(vt1x

∥v1∥2, . . . ,

vtrx

∥vr∥2

)t=

vt1x

∥v1∥2v1 + . . .+

vtrx

∥vr∥2vr

fur alle x ∈ Rn. Damit ist der Beweis beendet.

173

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 174: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 16.3. Sei X ⊆ R3 der Teilvektorraum, der von den beiden Vektoren

v1 =

1

1

0

, v2 =

−2

0

1

erzeugt wird. Sei P ∈ R3×3 die Matrixdarstellung der orthonalen Projektion desR3 auf X bezuglich der kanonischen Basis. Dann gilt

P = V (V tV )−1V t =

1 −2

1 0

0 1

(2 −2

−2 5

)−1

(1 1 0

−2 0 1

)

=1

6

1 −2

1 0

0 1

(5 2

2 2

)◦

(1 1 0

−2 0 1

)

=1

6

5 1 −2

1 5 2

−2 2 2

.

Siehe Beispiel 16.5. �

Satz und Definition 16.4. Sei n ∈ N. Der Vektorraum Rn sei mit dem eu-klidischen inneren Produkt ⟨ . , . ⟩ und der euklidischen Norm ∥ . ∥ versehen. SeiX ⊆ Rn ein Teilvektorraum mit dim(X) = r ∈ N.

(1) Eine Basis {v1, . . . , vr} von X heißt eine Orthogonalbasis von X, wenn⟨vρ, vσ⟩ = 0 fur alle ρ, σ = 1, . . . , r mit ρ = σ gilt.

(2) Eine Basis {v1, . . . , vr} von X heißt eine Orthonormalbasis von X, wenn⟨vρ, vσ⟩ = δρσ fur alle ρ, σ = 1, . . . , r gilt.

(3) Eine Matrix A ∈ Rn×n heißt eine Orthogonalmatrix, wenn AtA = Engilt.

(4) Die Menge der Orthogonalmatrizen A ∈ Rn×n bezeichnen wir mit O(n,R).

Es gelten die folgenden Aussagen (5), (6), (7).

(5) Die kanonische Basis En ist eine Orthonormalbasis des Rn.

(6) Sei {v1, . . . , vr} eine Basis von X. Dann liefert das folgende induktiveVerfahren von Gram-Schmidt eine Orthogonalbasis {w1, . . . , wr} von X.

(6.1) Wir setzen w1 = v1.

(6.2) Wir berechnen

wk = vk −k−1∑ρ=1

⟨vk, wρ⟩⟨wρ, wρ⟩

wρ ,

sukzessive fur k = 2, . . . , n.

174

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 175: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(7) Normieren der Vektoren einer Orthogonalbasis von X ergibt eine Ortho-normalbasis von X.

(8) Eine Matrix A = (a1, . . . , an) ∈ Rn×n ist genau dann eine Orthogonal-matrix, wenn ihre Spalten a1, . . . , an eine Orthonormalbasis des Rn bilden.

Beispiel 16.5 (Fortsetzung von 16.3). Wir wenden das Verfahren von Gram-Schmidt auf die Vektoren

v1 =

1

1

0

, v2 =

−2

0

1

an. Anschließend berechnen wir bezuglich der kanonischen Basis E3 mit Hilfeder orthogonalen Vektoren w1, w2 die Matrixdarstellung P der orthogonalenProjektion auf X = [v1, v2] = [w1, w2].

w1 = v1 =

1

1

0

, w2 = v2 −⟨v2, w1⟩⟨w1, w1⟩

w1 =

−1

1

1

.

Mit Formel (8) aus dem Projektionssatz 16.2 erhalten wir

P =1

2

1 1 0

1 1 0

0 0 0

+1

3

1 −1 −1

−1 1 1

−1 1 1

=1

6

5 1 −2

1 5 2

−2 2 2

Siehe Beispiel 16.3. �

Nach diesen Vorbereitungen konnen wir uns dem Spektralsatz zuwenden.

Satz 16.6 (Spektralsatz. Reelle Version). Sei n ∈ N. Der Vektorraum Rn seimit dem euklidischen inneren Produkt ⟨ . , . ⟩ und der euklidischen Norm ∥ . ∥versehen. Sei A ∈ Rn×n eine symmetrische Matrix. Dann gelten (1) bis (9).

(1) χA(t) zerfallt vollstandig uber R, das heißt, es gibt λ1, . . . , λn ∈ R mit

χA(t) = (−1)nn∏k=1

(t− λk) .

(2) Eigenvektoren von A, die zu verschiedenen Eigenwerten von A gehoren,sind zueinander orthogonal.

(3) Sei v ∈ Rn \ {0} ein Eigenvektor von A. Wenn x ∈ Rn orthogonal zu vist, dann ist auch Ax orthogonal zu v.

175

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 176: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(4) Der Rn besitzt eine Orthonormalbasis V = {v1, . . . , vn} aus Eigenvektorender symmetrischen Matrix A. Sei V = (v1, . . . , vn) die Matrix mit denSpalten v1, . . . , vn. Dann gilt

diag(λ1, . . . , λn) = V −1 ◦A ◦ V .

Die Matrix V ist eine Orthogonalmatrix.

(5) A ist diagonalisierbar uber R.

(6) Bezuglich der kanonischen Basis des Rn sei die Projektionsmatrix Pλ dieMatrixdarstellung der orthogonalen Projektion auf den Eigenraum

im(Pλ) = ker(A− λEn)

zum Eigenwert λ ∈ σ(A). Dann besitzt die Einheitsmatrix En ∈ Rn×n dieDarstellung

En =∑

λ∈σ(A)

Pλ ,

wobei PλPλ′ = 0 fur alle λ, λ′ ∈ σ(A) mit λ = λ′ gilt.

(7) Die symmetrische Matrix A besitzt die Spektralzerlegung

A =∑

λ∈σ(A)

λPλ .

Die Projektionsmatrizen Pλ ∈ Rn×n mit PλPλ′ = 0 fur alle λ, λ′ ∈ σ(A)mit λ = λ′ sind eindeutig durch A bestimmt.

(8) Fur alle Polynome f(t) ∈ R[t] gilt

f(A) =∑

λ∈σ(A)

f(λ)Pλ .

(9) A ist genau dann invertierbar, wenn 0 /∈ σ(A) gilt. In diesem Fall gilt

A−1 =∑

λ∈σ(A)

λ−1Pλ .

(10) Die symmetrische Matrix A ist genau dann positiv, wenn σ(A) ⊆ [0,∞)gilt. In diesem Fall gibt es eine eindeutig bestimmte positive Matrix B ∈Rn×n mit A = B2. Diese Matrix B heißt die positive Quadratwurzel A

12

von A. Es gilt

A12 =

∑λ∈σ(A)

λ12 Pλ .

Beweis. Zum Nachweis von Aussage (1) betrachten wir die symmetrische MatrixA ∈ Rn×n als ein Element von Cn×n. Das charakteristische Polynom

χA(τ) = det(A− τEn)

176

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 177: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

betrachten wir als ein Element von C[τ ]. Um Verwechslungen mit der Trans-position auszuschließen, bezeichnen wir die Unbekannte mit τ .

Nach dem Fundamentalssatz 15.12 der Algebra zerfallt χA(τ) uber C vollstandigin Linearfaktoren, das heißt, es gibt λ1, . . . , λn ∈ C mit

χA(τ) = (−1)nn∏k=1

(τ − λk) .

Dabei ist jede Nullstelle entsprechend ihrer algebraischen Vielfachheit mehrfachaufgefuhrt. Wir zeigen, dass λ1, . . . , λn reell sind.

Folgende Schreibweise ist ublich: Der Vektor z ∈ Cn und die Matrix C ∈Cn×n entstehen aus z = (zν) ∈ Cn und C = (cνµ) ∈ Cn×n, indem die Kom-ponenten zν und die Eintrage cνµ durch die konjugiert-komplexen Zahlen zνrespektive cνµ ersetzt werden. Weil A eine reelle Matrix ist, gilt A = A.

Sei λ ∈ C eine beliebige Nullstelle von χA(τ). Dann gibt es zu λ einenEigenvektor v = (vν) ∈ Cn \ {0} von A. Es gilt

vtv =n∑ν=1

|vν |2 = 0 , v ∈ Cn \ {0} .

Uber dem Korper C gelten die Gleichungen

Av = λv , Av = Av = λ v .

Die zweite Gleichung folgt aus der ersten, weil A reell ist. Nun folgen die beidenMatrixgleichungen

vtAv = λ vtv , vtAv = λ vtv .

Wir transponieren die zweite Matrixgleichung und erhalten

(vtA)v = λ vtv ,

weil A symmetrisch ist. Es folgt

0 = vtAv − vtAv = (λ− λ) vtv .

Wegen vtv = 0 folgt λ ∈ R. Damit ist Aussage (1) bewiesen.

Wir beweisen (2). Seien v, w ∈ Rn\{0} Eigenvektoren zu A zu verschiedenenEigenwerten λ, µ ∈ R. Weil A ∈ Rn×n symmetrisch ist, gilt

λ⟨v, w⟩ = ⟨Av,w⟩ = ⟨v,Aw⟩ = µ⟨v, w⟩ .

Aus λ = µ folgt ⟨v, w⟩ = 0. Damit ist (2) bewiesen.

Nachweis von (3). Sei v ∈ Rn \ {0} ein Eigenvektor von A zum Eigenwertλ ∈ R. Wenn x ∈ Rn orthogonal zu v ist, dann ist auch Ax orthogonal zu v. Esgilt namlich ⟨Ax, v⟩ = ⟨x,Av⟩ = λ⟨x, v⟩ = 0.

177

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 178: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Nachweis von (4). Sei φ : Rn → Rn die Abbildung mit

φ(x) = Ax , MEE(φ) = A .

Dabei ist E = {e1, . . . , en} die kanonische Basis von Rn. Wir zeigen durchvollstandige Induktion nach n, dass eine orthogonale Matrix V ∈ Rn×n mit

V t ◦A ◦ V = diag(λ1, . . . , λn)

existiert. Im Fall n = 1 ist die Aussage mit V = E1 trivialerweise erfullt.

Sei k ∈ N gegeben. Wir nehmen an, dass die Aussage fur alle symmetrischenMatrizen aus Rk×k gilt. Sei eine beliebige A ∈ Rn×n symmetrische Matrix,wobei n = k + 1 gilt.

Zum Eigenwert λ1 ∈ R gibt es einen normierten Eigenvektor v1 ∈ Rn. DerEigenvektor v1 kann zu einer Basis des Rn erganzt werden. Aus dieser Basiskonstruieren wir mit dem Verfahren von Gram-Schmidt eine Orthogonalbasis.Der erste Vektor dieser Basis ist der Vektor v1. Normieren liefert eine Ortho-normalbasis C = {v1, c2, . . . , cn}. Sei

C = (v1, c2, . . . , cn) ∈ O(n,R) , C−1 = Ct

die entsprechende Orthogonalmatrix mit den Spalten v1, c2, . . . , cn.

Es gilt φ(v1) = λ1v1. Nach Aussage (3) bildet die lineare Abbildung φ denTeilvektorraum [c2, . . . , cn] ⊆ Rn in sich ab. Sei

A1 = (ανµ)ν,µ=2,...,n ∈ Rk×k

die Matrix, deren Eintrage ανµ durch die Gleichungen

φ(cν) =n∑µ=2

αµνcµ , ν = 2, . . . n

eindeutig bestimmt sind. Siehe Satz und Definition 7.4. Dann gilt

MCC(φ) = CtAC =

(λ1 0

0 A1

).

Weil A symmetrisch ist, sind CtAC und A1 symmetrisch. Wegen

χA(τ) = (λ1 − τ) · χA1(τ)

sind λ2, . . . , λn die Eigenwerte der symmetrischen Matrix A1 ∈ Rk×k. NachInduktionsvoraussetzung gibt es eine Matrix C1 ∈ O(k,R) mit

Ct1A1C1 = diag(λ2, . . . , λn) .

Folglich gilt(1 0

0 C1

)t◦

(λ1 0

0 A1

)◦

(1 0

0 C1

)= diag(λ1, . . . , λn) .

178

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 179: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Nach Konstruktion ist

V = C ◦

(1 0

0 C1

)∈ O(n,R)

eine Orthogonalmatrix mit

V t ◦A ◦ V = diag(λ1, . . . , λn) .

Die erste Spalte von V ist der eingangs betrachtete Eigenvektor v1. Die anderenSpalten bezeichnen wir der Reihe nach mit v2, . . . , vn. Die Vektoren v1, . . . , vnsind normierte Eigenvektoren von A zu den Eigenwerten λ1, . . . , λn. Außerdemist V = {v1, . . . , vn} eine Orthonormalbasis des Rn. Damit sind (4) und (5)bewiesen.

Die Aussagen (6) bis (10) sind Konsequenzen der Aussagen (1) bis (5). Wirbeweisen exemplarisch die Existenz und die Einzigkeit der positiven Quadrat-wurzel einer positiven Matrix A. Es gilt σ(A) ⊆ [0,∞). Also ist

B =∑

λ∈σ(A)

λ12Pλ ∈ Rn×n

eine positive Matrix mit A = B2. Sei C ∈ Rn×n eine positive Matrix mitA = C2. Dann gibt es eine Orthonormalbasis W = {w1, . . . , wn} des Rn ausEigenvektoren von C. Sei w ∈ W. Dann gibt es µ ∈ R mit Cw = µw. Es folgt

Aw = C(Cw) = µ2w , µ2 ∈ σ(A) , w ∈ im(Pµ2) .

Demnach ist der definierende Ausdruck der Matrix B die Spektralzerlegung derMatrix C. Also gilt B = C. Damit ist der Beweis beendet.

Beispiel 16.7. Der Vektorraum R3 sei mit dem euklidischen inneren Produkt⟨ . , . ⟩ und der euklidischen Norm ∥ . ∥ versehen. Gegeben seien A ∈ R3×3 undv1, v2, v3 ∈ R3 mit

A =

−32 − 1

2 1

−12 − 3

2 −1

1 −1 0

, v1 =

1

1

0

, v2 =

−2

0

1

, v3 =

−1

1

−2

.

Die Vektoren v1, v2, v3 bilden eine Basis V des R3 aus Eigenvektoren von A. Seiλk der Eigenwert zu vk. Es gilt

λ1 = λ2 = −2 , λ3 = 1 .

Mit 16.3 und 16.5 erhalten wir

P−2 =1

6

5 1 −2

1 5 2

−2 2 2

, P1 = E3 − P−2 =1

6

1 −1 2

−1 1 −2

2 −2 4

.

179

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 180: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Die Matrix A besitzt die Spektralzerlegung

A = (−2) · P−2 + P1 = −2

6

5 1 −2

1 5 2

−2 2 2

+1

6

1 −1 2

−1 1 −2

2 −2 4

.

Wir berechnen A10 und A−1 mit dem Spektralkalkul.

A10 = (−2)10P−2 + P1 =1

2

1707 341 −682

341 1707 682

−682 682 684

,

A−1 = (−2)−1P−2 + P1 =1

4

−1 −1 2

−1 −1 −2

2 −2 2

.

180

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 181: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

17 Erganzung: Kleinste Fehlerquadrate. Gauß-Legendre

Die Methode der kleinsten Fehlerquadrate geht auf Gauß und Legendre zuruck.Wir betrachten in dieser Erganzung nur die einfachsten Situationen.

In der (X,Y )-Ebene R2 seien n ≥ 2 Punkte(a1

b1

), . . . ,

(an

bn

)(17.1)

gegeben. Dabei setzen wir voraus, dass die Komponenten a1, . . . , an paarweiseverschieden sind. Wir suchen eine Gerade

Y = ξ1 + ξ2X (17.2)

in der (X,Y )-Ebene derart, dass die Summe

n∑ν=1

((ξ1 + ξ2aν)− bν

)2(17.3)

der Quadrate der vertikalen Fehler minimal wird. Die Analysis liefert fur dieunbekannten Koeffizienten ξ1, ξ2 ∈ R das lineare Gleichungsystem

nn∑ν=1

n∑ν=1

n∑ν=1

a2ν

(ξ1

ξ2

)=

n∑ν=1

n∑ν=1

aνbν

. (17.4)

Die (2× 2)-Matrix auf der linken Seite von (17.4) ist nach Voraussetzung inver-tierbar. Also besitzt (17.4) genau eine Losung (ξ1, ξ2)

t ∈ R2.

Wir untersuchen, durch welche algebraische Umformung das Gleichungs-system (17.4) aus (17.1) und (17.2) hervorgeht. Zunachst ist klar, dass die nPunkte die Gleichung (17.2) erfullen mussten. Wir fassen diese n Gleichungenin der Matrixgleichung

1 a1...

...

1 an

(ξ1

ξ2

)=

b1...

bn

(17.5)

zusammen. Aber das Gleichungssystem (17.5) enthalt im Fall n > 2 mehr Glei-chungen als Unbekannte und besitzt daher im Allgemeinen keine Losung. Wirtransponieren die (n × 2)-Matrix auf der linken Seite. Mit der transponierten(2× n)-Matrix multiplizieren wir das Gleichungssystem (17.5) und erhalten

(1 . . . 1

a1 . . . an

)1 a1...

...

1 an

(ξ1

ξ2

)=

(1 . . . 1

a1 . . . an

)b1...

bn

. (17.6)

181

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 182: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Dies ist etwas anders aufgeschrieben das eindeutig losbare lineare Gleichungs-system (17.4). Die Matrixgleichung (17.6) ist die sogenannte Normalgleichungder Matrixgleichung (17.5).

Beispiel 17.1. In der (X,Y )-Ebene R2 seien die Punkte(−2

−2

),

(−1

−1

),

(0

2

),

(1

3

)gegeben. Bestimmen Sie nach Methode der kleinsten Fehlerquadrate die zu-gehorige Ausgleichsgerade Y = ξ1 + ξ2X.

(1 1 1 1

−2 −1 0 1

)1 −2

1 −1

1 0

1 1

=

(4 −2

−2 6

).

(1 1 1 1

−2 −1 0 1

)−2

−1

2

3

=

(2

8

).

(4 −2

−2 6

)(ξ1

ξ2

)=

(2

8

).

(ξ1

ξ2

)=

(4 −2

−2 6

)−1(2

8

)

=1

20

(6 2

2 4

)(2

8

)

=1

20

(28

36

)

=1

5

(7

9

).

Y = 75 + 9

5 X .

182

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 183: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Wir beschreiben die geometrische Bedeutung der Normalgleichung. Dafurandern wir (17.5) leicht ab. Statt der (n× 2)-Matrix

1 a1...

...

1 an

betrachten wir eine beliebige Matrix A ∈ Rn×m mit n ≥ m ≥ 2 und rg(A) = m.Weil A maximalen Rang besitzt, enthalt der Kern von A nur den Nullvektor.Die quadratische Matrix AtA ist daher invertierbar. Der eventuell unlosbarenGleichung

Ax = b (17.7)

mit gegebenem Vektor b ∈ Rn ordnen wir die eindeutig losbare Normalgleichung

AtAx = Atb (17.8)

zu. In den Anwendungen liefern die erhobenen Daten die Eintrage der MatrixA und des Vektors b. Die eindeutig bestimmte Losung ξ der Normalgleichungliefert die Koeffizienten des gesuchten Ausgleichsobjektes. Beispielsweise kannein Polynom vom Grad m− 1 das Ausgleichsobjekt sein. Siehe Beispiel 17.3.

Die geometrische Interpretation der Normalgleichung beruht auf dem Um-stand, dass die Matrix

P = A ◦ (AtA)−1 ◦At

eine Projektionsmatrix mit demselben Bild wie die Matrix A ist. Das Losen derNormalgleichung kann unter den obigen Voraussetzungen durch das Losen derGleichung

Ax = Pb (17.9)

ersetzt werden. Durch Abanderung der Inhomogenitat b in den Fußpunkt Pbwird die Gleichung (17.7) losbar gemacht. Wenn (17.7) losbar ist, dann giltb ∈ im(A). In diesem Fall stimmen die beiden Gleichungen (17.9) und (17.7)uberein.

Satz 17.2. Seien m, n ∈ N mit 2 ≤ m ≤ n. Es seien A ∈ Rn×m mit rg(A) = mund b ∈ Rm beliebig gegeben. Dann gelten die folgenden Aussagen.

(1) AtA ∈ GL(n,Rn).

(2) P = A(AtA)−1At ∈ Proj(Rn×n).

(3) im(P ) = im(A).

(4) Die Normalgleichung

AtAx = Atb

besitzt genau eine Losung ξ ∈ Rm.

183

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 184: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(5) Die Losung ξ der Normalgleichung ist die einzige Losung von

Ax = Pb .

Dies folgt aus (3) und ker(A) = {0}.

(6) Extremaleigenschaft. Es gilt

∥Aξ − b∥ = minx∈Rm

∥Ax− b∥ .

Dies folgt aus (2), (3), (5) und dem Satz des Pythagoras. Dabei ist ∥ . ∥das euklidische innere Produkt des Rn.

(7) Die Losung ξ der Normalgleichung ist eine Losung des Extremalproblems,die euklidische Norm des Vektors Ax− b moglichst klein zu machen.

184

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 185: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 17.3. In der Ebene R2 seien die Punkte(−2

8

),

(−1

2

),

(0

1

),

(112

),

(252

)gegeben. Bestimmen Sie nach Methode der kleinsten Fehlerquadrate die zu-gehorige Ausgleichsparabel Y = α+ βX + γX2.

1 . . . 1

x1 . . . xn

x21 . . . x2n

1 x1 x21...

......

1 xn x2n

αβγ

=

1 . . . 1

x1 . . . xn

x21 . . . x2n

y1...

yn

.

1 1 1 1 1

−2 −1 0 1 2

4 1 0 1 4

1 −2 4

1 −1 1

1 0 0

1 1 1

1 2 4

=

5 0 10

0 10 0

10 0 34

.

5 0 10

0 10 0

10 0 34

−1

=1

70

34 0 −10

0 7 0

−10 0 5

.

1 1 1 1 1

−2 −1 0 1 2

4 1 0 1 4

8

2

11252

=1

2

1 1 1 1 1

−2 −1 0 1 2

4 1 0 1 4

16

4

2

1

5

=1

2

28

−25

89

.

αβγ

=1

2 · 70

34 0 −10

0 7 0

−10 0 5

28

−25

89

=1

140

62

−175

165

.

Ausgleichsparabel.

Y = 3170 − 5

4 X + 3328 X

2 .

Dezimalentwicklung der Koeffizienten des Polynoms auf zehn Stellen.

Y = 0.4428571429− 1.250000000X + 1.178571429X2 .

185

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 186: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

18 Erganzung: Cholesky-Zerlegung

In diesem Abschnitt betrachten wir die strikte Bruhat-Zerlegung

A = LDPU

einer beliebigen positiv definiten reellen Matrix A. Weil die Hauptminoren vonA positiv sind, gilt P = E. Wegen A = At gilt U = Lt. Daher besitzt A diestrikte Bruhat-Zerlegung

A = LDLt .

Eine solche Zerlegung heißt eine Cholesky-Zerlegung von A. Aus der Einzigkeitder strikten Bruhat-Zerlegung folgt die Einzigkeit der Cholesky-Zerlegung. DasVerfahren zur Berechnung der strikten Bruhat-Zerlegung liefert im Fall einerpositiv definiten Matrix A die Cholesky-Zerlegung. Die Diagonalelemente vonD sind positiv.

Definition 18.1. Seien n ∈ N und A ∈ Rn×n gegeben. Fur k = 1, . . . , n sei

A1:k,1:k = (aνµ)ν,µ=1,...,k

die linke obere (k× k)-Teilmatrix, die aus A durch Streichen der letzten (n− k)Zeilen und Spalten entsteht. Die Determinante

δk(A) = det(A1:k,1:k)

heißt der k-te Hauptminor von A. Offenbar gilt δn(A) = det(A).

Eine symmetrische reelle Matrix ist genau dann positiv definit, wenn alleihre Hauptminoren positiv sind.

Satz und Definition 18.2. Sei n ∈ N. Der Vektorraum Rn sei mit dem euklidi-schen inneren Produkt ⟨ . , . ⟩ und der euklidischen Norm ∥ . ∥ versehen. Sei einesymmetrische Matrix A ∈ Rn×n. Dann sind die Aussagen (1) bis (6) aquivalent.

(1) Es gilt ⟨Ax, x⟩ > 0 fur alle x ∈ Rn \ {0}.

(2) Es gibt B ∈ GL(n,R) mit A = BtB.

(3) A ist invertierbar und positiv.

(4) Alle Eigenwerte λ1, . . . , λn von A sind positiv.

(5) Alle Hauptminoren δ1(A), . . . , δn(A) von A sind positiv.

Eine symmetrische Matrix A ∈ Rn×n, die eine der Bedingungen (1) bis (6)erfullt, heißt positiv definit.

186

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 187: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Nach 18.2 ist eine Diagonalmatrix genau dann positiv, wenn alle Diagonal-elemente positiv sind. Die Aussage (2) in 18.2 lasst sich verscharfen. Die MatrixB kann als positiv definite obere Dreiecksmatrix gewahlt werden.

Satz und Definition 18.3 (Cholesky-Zerlegung). Sei n ∈ N. Der VektorraumRn sei mit dem euklidischen inneren Produkt ⟨ . , . ⟩ und der euklidischen Norm∥ . ∥ versehen. Sei A = (aνµ) ∈ Rn×n eine positiv definite Matrix. Dann geltenfolgende Aussagen und Definitionen.

(1) Es gibt eine normierte untere Dreiecksmatrix L ∈ Lx1(n,R) und eine positiv

definite Diagonalmatrix D ∈ D×(n,R) mit

A = LDLt .

Die Matrizen L ∈ Lx1(n,R) und D ∈ D×(n,R) sind eindeutig bestimmt.

(2) Die obige Zerlegung A = LDLt heißt die Sandwichform der Cholesky-Zerlegung der positiv definiten Matrix A.

(3) Die Cholesky-Zerlegung von A ist die strikte Bruhat-Zerlegung A = LDPUmit P = En und U = Lt.

(4) Seien δ1(A), . . . , δn(A) die Hauptminoren von A und d1(A), . . . , dn(A) dieDiagonalelemente von D. Dann gilt

δk(A) =n∏ν=1

dν(A)

fur k = 1, . . . , n. Insbesondere gelten die Beziehungen

δ1(A) = d1(A) = a11 , δn(A) = d1(A) · . . . · dn(A) = det(A) .

(5) Die Matrix C = LD12 heißt der Cholesky-Faktor von A. Es gilt

A = LDLt = (LD12 ) ◦ (D 1

2Lt) = CCt .

Die Matrix C ∈ Lx×(n,R) ist eine positiv definite obere Dreiecksmatrix.

Der Cholesky-Faktor C ist durch die Matrix A eindeutig bestimmt. DieZerlegung A = CCt heißt die symmetrische Form der Cholesky-Zerlegung.

Beweis. Zu beweisen ist nur noch Aussage (4). Sei 1 ≤ k < n. Fur beliebigeMatrizen A ∈ Rn×n, L ∈ Lx(n,R) und U ∈ Uq(n,R) gelten(

A1:k,1:k 0

0 0

)=

(Ek 0

0 0

)◦A ◦

(Ek 0

0 0

),

(L1:k,1:k 0

0 0

)=

(Ek 0

0 0

)◦ L ,

(U1:k,1:k 0

0 0

)= U ◦

(Ek 0

0 0

).

Aus diesen Beziehungen folgt (4).

187

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 188: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 18.4. Es besteht die Cholesky-Zerlegung

A =

5 20 −15

20 82 −56

−15 −56 60

=

1 0 0

4 1 0

−3 2 1

5 0 0

0 2 0

0 0 7

1 4 −3

0 1 2

0 0 1

.

Ohne vorher die Positivitat der Hauptminoren gepruft zu haben, wenden wirdas Verfahren zur Berechnung der strikten Bruhat-Zerlegung an. Wenn das Ver-fahren nicht vorzeitig abbricht, ist die Matrix A invertierbar. Wenn P = E3 giltund alle Diagonalelemente von D positiv sind, ist die gegebene quadratischereelle Matrix A tatachlich positiv definit. In diesem Fall gilt U = Lt.

5 20 −15

20 82 −56

−15 −56 60

5 20 −15 Z1

0 2 4 Z2 − (+4)Z1

0 4 15 Z3 − (−3)Z1

5 20 −15 Z1

0 2 4 Z2

0 0 7 Z3 − (+2)Z2

1 4 −3 (+5)−1Z1

0 1 2 (+2)−1Z2

0 0 1 (+7)−1Z3

1 0 0

0 1 0

0 0 1

Aus der Sandwichform der Cholesky-Zerlegung lassen sich die Hauptminorender positiv definiten Matrix A ablesen. Wir erhalten

δ1(A) = 5 , δ2(A) = 5 · 2 = 10 , δ3(A) = 5 · 2 · 7 = 70 .

Der Cholesky-Faktor von A ist die positiv definite untere Dreiecksmatrix

C =

√5 0 0

4√5

√2 0

−3√5 2

√2

√7

.

188

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 189: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

19 Erganzung: Orthogonale Spiegelungen

Satz und Definition 19.1. Sei n ∈ N. Der Vektorraum Rn sei mit dem eu-klidischen inneren Produkt ⟨ . , . ⟩ und der euklidischen Norm ∥ . ∥ versehen. SeiA ∈ Rn×n gegeben. Dann sind (1) bis (3) aquivalent.

(1) (∀x ∈ Rn) : ∥Ax∥ = ∥x∥.

(2) (∀x, y ∈ Rn) : ⟨Ax,Ay⟩ = ⟨x, y⟩.

(3) AtA = En.

Eine Matrix A ∈ Rn×n, die eine der aquivalenten Bedingungen (1) bis (3) erfulltheißt orthogonal. Sei O(n,R) die Menge der orthogonalen Matrizen A ∈ Rn×n.Es gelten (4) bis (7).

(4) En ∈ O(n,R) ⊆ GL(n,R).

(5) (∀A,B ∈ O(n,R)) : A ◦B ∈ O(n,R).

(6) (∀A ∈ O(n,R)) : A−1 = At ∈ O(n,R).

(7) (∀A ∈ O(n,R)) : det(A) = ±1.

Nach (4), (5), (6) ist O(n,R) eine Untergruppe von GL(n,R).

Satz und Definition 19.2 (Orthogonale Spiegelungen). Sei n ∈ N. Der Vek-torraum Rn sei mit dem euklidischen inneren Produkt ⟨ . , . ⟩ und der euklidischenNorm ∥ . ∥ versehen. Sei w ∈ Rn \ {0}. Dann sei Sw ∈ Rn×n die Matrix mit

Sw = En − 2w ⊗ w

∥w∥2.

Es gelten (1) bis (8).

(1) Sw ist symmetrisch mit der Spektralzerlegung

Sw =

(En − w ⊗ w

∥w∥2

)− w ⊗ w

∥w∥2.

(2) σ(Sw) = {−1, 1}.

(3) ker(Sw + En) = [w].

(4) ker(Sw − E3) = [w]⊥.

(5) S2w = Sw ◦ Sw = En.

(6) Sw ∈ O(n,R).

(7) det(Sw) = −1.

(8) tr(Sw) = n− 2.

189

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 190: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Wegen dieser Eigenschaften heißt die Matrix Sw ∈ O(n,R) die orthogonaleSpiegelung an der Hyperebene

Hw = [w]⊥ = {x ∈ Rn | ⟨x,w⟩ = 0} .

Eine orthogonale Matrix A ∈ O(n,R) heißt eine orthogonale Spiegelung, wennes einen normierten Vektor v ∈ Rn mit A = Sv gibt.

Beispiel 19.3. Die orthogonale Spiegelung an der ersten WinkelhalbierendenH der Ebene R2 vertauscht die beiden Koordinaten eines Punktes. Wir rechnendiesen elementargeometrischen Sachverhalt nach. Mit

H = Hw = {x ∈ R2 | ⟨x,w⟩ = 0 } , w =

(1

−1

), ∥w∥2 = 2

erhalten wir

Sw = E2 − 2w ⊗ w

∥w∥2=

(1 0

0 1

)−

(1

−1

)⊗

(1

−1

)

=

(1 0

0 1

)−

(1 −1

−1 1

)=

(0 1

1 0

).

Fur alle x = (x1, x2)t ∈ R2 gilt daher

Swx =

(0 1

1 0

)(x1

x2

)=

(x2

x1

).

Insbesondere folgt daraus S2w = Sw. In Ubereinstimmung mit 19.2 gelten

H = Hw = ker(Sw − E2) , det(Sw) = −1 , tr(Sw) = 0 .

Satz 19.4 (Elie Cartan, 1938). Sei n ∈ N. Der Vektorraum Rn sei mit demeuklidischen inneren Produkt ⟨ . , . ⟩ und der euklidischen Norm ∥ . ∥ versehen.Jede Orthogonalmatrix A ∈ O(n,R) mit A = En kann als Produkt von hochstensn orthogonalen Spiegelungen dargestellt werden.

190

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 191: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

20 Drehungen. Euler-Winkel

Satz und Definition 20.1. Sei n ∈ N.

(1) Eine Basis V = {v1, . . . , vn} des Rn heißt positiv orientiert, wenn

det(v1, . . . , vn) = det(V ) > 0

gilt. Dabei ist V = (v1, . . . , vn) die Matrix mit den Spalten v1, . . . , vn.

(2) Eine Basis des Rn, die nicht positiv orientiert ist, heißt negativ orientiert.

(3) Eine Matrix A ∈ GL(n,R) heißt orientierungstreu, wenn det(A) > 0 gilt.

(4) A = (a1, . . . , an) ∈ GL(n,R) ist genau dann orientierungstreu, wenn A ={a1, . . . , an} eine positiv orientierte Basis des Rn ist.

(5) Die Menge der positiv orientierten Basen des Rn heißt die Standard-Orientierung des Rn. Die Standard-Orientierung wird also mit Hilfe derDeterminante und der Ordnungsstruktur der reellen Zahlen definiert.

(6) Die kanonische Basis En = {e1, . . . , en} des Rn ist positiv orientiert undreprasentiert daher die Standard-Orientierung des Rn. Wir sagen, dassder Vektorraum Rn mit der Standard-Orientierung versehen ist.

Satz und Definition 20.2 (Drehmatrizen). Sei n ∈ N. Der Vektorraum Rnsei mit dem euklidischen inneren Produkt ⟨ . , . ⟩ und der euklidischen Norm ∥ . ∥und der Standard-Orientierung versehen.

(1) A ∈ O(n,R) heißt eine Drehmatrix, wenn det(A) = 1 gilt.

(2) Sei SO(n,R) die Menge der Drehmatrizen A ∈ Rn×n.

(3) Die Matrizen A ∈ SO(2,R) heißen ebene Drehmatrizen.

(4) Die Matrizen A ∈ SO(3,R) heißen raumliche Drehmatrizen.

Es gelten die folgenden Ausagen (5) bis (7).

(5) En ∈ SO(n,R) ⊆ O(n,R) ⊆ GL(n,R).

(6) (∀A,B ∈ SO(n,R)) : A ◦B ∈ SO(n,R).

(7) (∀A ∈ SO(n,R)) : A−1 = At ∈ SO(n,R).

Nach (5), (6), (7) ist SO(n,R) eine Untergruppe von O(n,R) und GL(n,R).

Im Folgenden untersuchen wir ebene und raumliche Drehmatrizen.

Satz und Definition 20.3 (Ebene Drehmatrizen). Der Vektorraum R2 sei mitdem euklidischen inneren Produkt ⟨ . , . ⟩ und der euklidischen Norm ∥ . ∥ und derStandard-Orientierung versehen. Dann gelten die folgenden Ausagen (1) bis (3).

191

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 192: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(1) SO(2,R) besteht aus den reellen (2× 2)-Matrizen der Form

A =

(a −bb a

)

mit a, b ∈ R und a2 + b2 = 1.

(2) Sei ](e1, Ae1) ∈ [0, π] der von den beiden Vektoren

e1 =

(1

0

)∈ R2 , Ae1 =

(a

b

)∈ R2

eingeschlossene unorientierte Winkel. Siehe 3.11. Dann gelten

a = cos(](e1, Ae1)) , |b| = sin(](e1, Ae1)) .

Der unorientierte Drehwinkel bestimmt die Diagonale von A. Wir hebenhervor, dass der unorientierte Drehwinkel ](e1, Ae1) nur die Betrage derEintrage außerhalb der Diagonale von A festlegt.

(3) Zu jedem A ∈ SO(2,R) gibt es ein eindeutig bestimmtes φ ∈ (−π, π] mit

A =

(cos(φ) − sin(φ)

sin(φ) cos(φ)

).

Dabei heißt φ ∈ (−π, π] der orientierte Drehwinkel von A. Der orientierteDrehwinkel und ebene Drehmatrizen bestimmen einander wechselseitig.

(4) Fur alle t ∈ R gilt

D(t) =

(cos(t) − sin(t)

sin(t) cos(t)

)∈ SO(2,R) .

Offenbar gilt D(t) = D(t+2π) fur alle t ∈ R. Der reelle Parameter t heißtDrehwinkel modulo 2π.

Wir behandeln nun die raumlichen Drehmatrizen. Um nicht jedesmal dieVoraussetzungen wiederholen zu mussen, legen wir fur die folgenden Satze fest,dass der Vektorraum R3 mit dem euklidischen inneren Produkt ⟨ . , . ⟩ und dereuklidischen Norm ∥ . ∥ und der Standard-Orientierung versehen ist. Wir unter-suchen zunachst Spektrum und Spur raumlicher Drehmatrizen. In Beweis vonSatz 20.4 holen wir im Beweis von Satz 20.6 nach.

Satz 20.4. Sei A ∈ SO(3,R). Dann gelten (1) bis (7).

(1) χA(τ) = (−1)(τ3 − tr(A) τ2 + tr(A) τ − 1) ∈ R[τ ] .

(2) (∀λ ∈ σC(A)) : |λ| = 1 .

(3) 1 ∈ σR(A) .

192

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 193: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(4) A = E3 ⇔ dim(ker(A− E3)) = 1 .

(5) tr(A) ∈ [−1, 3] .

(6) tr(A) ∈ (−1, 3) ⇔ A = At .

(7) tr(A) = 3 ⇔ A = E3 .

Beweis. Wir beweisen an dieser Stelle lediglich die Aussagen (1), (2), (3), (5).Die ubrigen Aussagen (4), (6), (7) ergeben sich im Beweis des Satzes 20.6.

Sei A ∈ SO(3,R). Dann gelten

det(A) = 1 , adj(A) = A−1 = At .

Mit 14.10 erhalten wir

χA(τ) = det(A− τE3)

= (−1)(τ3 − tr(A) τ2 + tr(adj(A)) τ − det(A))

= (−1)(τ3 − tr(A) τ2 + tr(A) τ − 1)

= (−1)(τ − 1)(τ2 − (1− tr(A)) τ + 1) ∈ R[τ ] .

Offenbar ist τ = 1 eine Nullstelle von χA(τ). Das Horner-Schema

1 −tr(A) tr(A) −1

1 1 1− tr(A) 1

1 1− tr(A) 1 0

liefert den quadratischen Faktor

q(τ) = τ2 + (1− tr(A)) τ + 1 ∈ R[τ ] .

Seien λ1, λ2, λ3 ∈ C die Nullstellen von χA(τ). Wir erhalten nacheinander diefolgenden Beziehungen

χA(τ) = (−1)(τ − λ1)(τ − λ2)(τ − λ3) , λ1 = 1 ,

tr(A) = λ1 + λ2 + λ3 , det(A) = λ1λ2λ3 = 1 .

q(τ) = (τ − λ2)(τ − λ3) , λ2λ3 = 1 ,

λ2 + λ3 = tr(A)− λ1 = tr(A)− 1 ∈ R ,

Im(λ3) = −Im(λ2) , Re(λ3) = Re(λ2) , |λ2| = |λ3| = 1 .

Daher gibt es genau ein ψ ∈ (−π, π] mit

λ2 = eiψ , λ3 = e−iψ .

Nun folgt

tr(A) = λ1 + λ2 + λ3 = 1 + eiψ + e−iψ = 1 + 2 cos(ψ) ∈ [−1, 3] .

Wir weisen auf die Spurformel in Satz 20.6 hin. Dort wird der reelle Parameterψ als Drehwinkel gedeutet.

193

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 194: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Definition 20.5 (Drehachse, Drehebene). Sei A ∈ SO(3,R).

(1) Ein Teilvektorraum

X ⊆ ker(A− E3) ⊆ R3

mit dim(X) = 1 heißt eine Drehachse von A. Der Orthogonalraum X⊥ ⊆R3 heißt eine Drehebene von A.

(2) Im Fall A = E3 ist der Eigenraum ker(A−E3) eindimensional. Daher istsind Drehachse und Drehebene eindeutig bestimmt.

(3) Im Fall A = E3 ist jeder eindimensionale Teilraum des R3 eine Drehachse.Jeder zweidimensionale Teilraum ist dann eine Drehebene.

Satz und Definition 20.6 (Euler. Raumliche Drehmatrizen. Drehformel, Dreh-vektor, Drehwinkel).

(1) Fur v ∈ R3 mit ∥v∥ = 1 und φ ∈ R sei D(v, ϕ) ∈ R3×3 die Matrix mit

D(v, φ) =

cos(φ)

1 0 0

0 1 0

0 0 1

+ (1− cos(φ))

v1v2v3

v1v2v3

+ sin(φ)

0 −v3 v2

v3 0 −v1

−v2 v1 0

.

Dann gelten:

(1.1) D(v, φ) ∈ SO(3,R).(1.2) Fur alle x ∈ R3 gilt

D(v, φ)x = cos(φ)x+ (1− cos(φ))⟨x, v⟩ v + sin(φ) v × x .

(1.3) Rv = [v] ist eine Drehachse von D(v, φ).

(1.4) tr(D(v, φ)) = 1 + 2 cos(φ).

(1.5) D(v, φ) = D(−v,−φ).(1.6) D(v, φ) = D(v, φ+ 2π).

Der reelle Parameter φ heißt der Drehwinkel modulo 2π der raumlichenDrehmatrix D(v, φ).

(2) Sei A ∈ SO(3,R).

(2.1) Dann gibt es v ∈ R3 mit ∥v∥ = 1 und φ ∈ R mit

A = D(v, φ) .

Diese Gleichung heißt Drehformel oder Normalform einer raumlichenDrehmatrix.

194

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 195: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(2.2) Es ist ublich, den Drehwinkel φ auf das Intervall (−π, π] zu beschran-ken.

(2.3) Im Fall A = At kann der normierte Vektor v ∈ ker(A− E3) eindeu-tig durch die Bedingung festgelegt werden, dass φ ∈ (0, π) gilt. Eineentsprechende Festlegung ist im Fall A = At allerdings nicht moglich.

(3) Sei A = At ∈ SO(3,R).

(3.1) Sei A = E3. Fur alle v ∈ R3 mit ∥v∥ = 1 gilt

A = D(v, 0) = E3 .

Es gilt tr(A) = 3. Die Spurformel (1.2) liefert

cos(φ) = 12 (tr(A)− 1) = 1 = cos(0) .

(3.2) Sei A = E3. Fur alle v ∈ ker(A− E3) mit ∥v∥ = 1 gilt

A = D(v, π) = D(−v, π) = −E3 + 2v ⊗ v = −Sv .

Dabei ist Sv = S−v die orthogonale Spiegelung an der Drehebene [v]⊥.Siehe 19.2. Es gilt tr(A) = −1. Die Spurformel (1.2) liefert

cos(φ) = 12 (tr(A)− 1) = −1 = cos(π) .

(4) Sei A ∈ SO(3,R) mit A = At. Dann gibt es ein eindeutig bestimmtesv ∈ R3 mit ∥v∥ = 1 und ein eindeutig bestimmtes φ ∈ (0, π) derart, dass

A = D(v, φ)

gilt. Dabei heißt v der normierte Drehvektor von A. Der normierte Dreh-vektor legt die Richtung der Drehachse und damit den Drehsinn fest. DerParameter φ ∈ (0, π) heißt der orientierte Drehwinkel bezuglich v.

(4.1) Der orientierte Drehwinkel φ ∈ (0, π) ist durch die Spurformel

tr(A) = 1 + 2 cos(φ)

eindeutig bestimmt.

(4.2) Der normierte Drehvektor v ∈ ker(A−E3) ergibt sich aus dem schief-symmetrischen Anteil von A nach den Formeln

12 (A−At) =

0 −u3 u2

u3 0 −u1−u2 u1 0

, u =

u1u2u3

, v =1

∥u∥u .

Den Vektor u nennen wir den Drehvektor von A.

(4.3) Der Sinus von φ ∈ (0, π) ist durch

sin(φ) = ∥u∥ > 0

eindeutig bestimmt.

195

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 196: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(4.4) (Rechte-Hand-Regel). Sei w ∈ [v]⊥ mit ∥w∥ = 1 beliebig gegeben.Dann ist V = (v, w, v × w) ∈ SO(3,R) eine Drehmatrix mit

V −1 ◦A ◦ V =

1 0 0

0 cos(φ) − sin(φ)

0 sin(φ) cos(φ)

.

Außerdem ist {w, v × w} eine Orthonormalbasis der Drehebene [v]⊥

der Drehmatrix A.

Beweis. Im ersten Schritt untersuchen wir raumliche Drehmatrizen der FormD(v, φ). Im dritten Schritt zeigen wir, dass sich jede raumliche Drehmatrix indieser Form schreiben lasst. Aus dieser Darstellung ergibt sich sofort ein Beweisdes Satzes 20.4.

Erster Schritt. Seien v = (v1, v2, v3)t ∈ R3 mit ∥v∥ = 1 und φ ∈ R3 beliebig

gegeben. Aus der Definition der Matrix D(v, φ) folgen die Beziehungen

D(v, φ) = D(−v,−φ) , D(v, φ) = D(v, φ+ 2π)

und die Spurformel

tr(D(v, φ)) = 1 + 2 cos(φ) .

Dabei verwenden wir, dass v ein normierter Vektor ist. Außerdem gilt

D(v, φ)x = cos(φ)x+ (1− cos(φ))⟨x, v⟩ v + sin(φ) v × x .

fur alle x ∈ R3. Wir zeigen, dass D(v, φ) ∈ R3×3 eine Drehmatrix ist. Es gilt

v × v = 03 .

Folglich ist v ein normierter Eigenvektor von D(v, φ) zum Eigenwert 1. Wirwahlen irgendeinen Vektor w ∈ R3 \ {0} mit ∥w∥ = 1. Dann ist

V = {v, w, v × w} ⊆ R3

eine positiv orientierte Orthonormalbasis des R3. Es gilt

v × (v × w) = −w .

Spaltenweises Auswerten ergibt, dass

V = (v, w, v × w) ∈ SO(3,R)

die ubersichtliche Beziehung

D(v, φ) ◦ V = V ◦

1 0 0

0 cos(φ) − sin(φ)

0 sin(φ) cos(φ)

196

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 197: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

liefert. Aus dieser Beziehung folgt mit Satz 14.6 die Behauptung

D(v, φ) ∈ SO(3,R) .

Damit sind alle Aussagen des Abschnittes (1) bewiesen.

Zweiter Schritt. Fur v = e1 und V = (e1, e2, e3) = E3 ergibt sich

D(e1, φ) =

1 0 0

0 cos(φ) − sin(φ)

0 sin(φ) cos(φ)

.

Damit gilt

D(v, φ) = V ◦D(e1, φ) ◦ V t .

Wir weisen auf 20.9 und Satz 20.10 hin.

Dritter Schritt. Im Folgenden sei A ∈ SO(3,R). Dann gilt

χA(τ) = (−1)(τ3 − tr(A) τ2 + tr(A) τ − 1)

= (−1)(τ − 1)(τ2 + (1− tr(A)) τ + 1) .

Siehe Satz 14.7 und Beispiel 14.10. Also gibt es v ∈ R3 \ {0} mit

Av = v , ∥v∥ = 1 .

Wir wahlen w ∈ [v]⊥ mit ∥w∥ = 1. Dann ist V = (v, w, v × w) ∈ SO(3,R) eineDrehmatrix mit

V t ◦A ◦ V =

(1 01×2

02×1 M

),

wobeiM ∈ SO(2,R) gilt. Nach Satz 20.3 gibt einen eindeutig bestimmten reellenParameter φ ∈ (−π, π] mit

M =

(cos(φ) − sin(φ)

sin(φ) cos(φ)

).

Mit den Uberlegungen im ersten Schritt erhalten wir

A = V ◦

1 0 0

0 cos(φ) − sin(φ)

0 sin(φ) cos(φ)

◦ V t = D(v, φ) .

Wir ziehen einige Folgerungen aus dieser Beziehung.

197

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 198: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Vierter Schritt. Mit Satz 14.6 folgt die Spurformel

tr(A) = 1 + 2 cos(φ) .

Offenbar ist A genau dann symmetrisch, wenn sin(φ) = 0 gilt. In diesem Fallgelten

A = V ◦

1 0 0

0 1 0

0 0 1

◦ V t = E3

oder

A = V ◦

1 0 0

0 −1 0

0 0 −1

◦ V t

= −E3 + V ◦

2 0 0

0 0 0

0 0 0

◦ V t

= −E3 + 2 v ⊗ v = −Sv .

Also sind

E3 , −E3 + 2 v ⊗ v ,

wobei v ∈ R3 \ {0} ein normierter Vektor ist, die einzigen symmetrischen Ma-trizen in SO(3,R). Beide Typen symmetrischer Drehmatrizen lassen sich durchihre Spur unterschieden.

Funfter Schritt. Nun folgen alle Aussagen des Satzes 20.4 und die Aussagenin den Abschnitten (2), (3), (4) des Satzes 20.6.

Beispiel 20.7. Die Matrix A ∈ R3×3 mit

A =

35

45 0

45 −3

5 0

0 0 −1

eine symmetrische Drehmatrix. Nach Satz 20.6 ist λ1 = 1 ein einfacher Eigen-wert und λ2 = λ3 = −1 ein doppelter Eigenwert von A. Die Vektoren

v1 = 15

√5

2

1

0

, v2 = 15

√5

1

−2

0

, v3 =

0

0

1

198

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 199: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

bilden eine Orthogonalbasis aus Eigenvektoren von A. Dabei gilt Avk = λkvkfur k = 1, 2, 3. Die Matrix A beschreibt eine demnach Drehung um die Dreh-achse [v1] mit dem Drehwinkel π. Wir rechnen nach, dass −A die orthogonaleSpiegelung an der Drehebene [v1]

⊥ = ker(A− E3) ist. Es gilt

Sv1 =

1 0 0

0 1 0

0 0 1

− 25

2

1

0

2

1

0

= 15

5 0 0

0 5 0

0 0 5

− 25

4 2 0

2 1 0

0 0 0

= 15

−3 −4 0

−4 3 0

0 0 5

=

− 35 −4

5 0

− 45

35 0

0 0 1

= −A .

Offenbar gilt A = Sv1 = S−v1 . �

Beispiel 20.8. Die Matrix A ∈ R3×3 mit

A =

13

23

23

23

13 −2

3

−23

23 −1

3

ist eine Drehmatrix. Es gilt A = At. Wir berechnen den normierten Drehvektorv ∈ R3 sowie Cosinus und Sinus des orientierten Drehwinkel φ ∈ (0, π). Es gilt

12 (A−At) =

0 0 23

0 0 − 23

−23

23 0

=

0 −u3 u2

u3 0 −u1−u2 u1 0

.

Damit erhalten wir

u =

u1u2u3

=

2323

0

, ∥u∥2 = 89 , v =

1

∥u∥u = 1

2

√2

1

1

0

.

Zur Berechnung von cos(φ) werten wir die Spurformel aus. Wir erhalten

tr(A) = 13 , cos(φ) = −1

3 , sin(φ) = 23

√2 = ∥u∥ .

199

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 200: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiele 20.9. Sei φ ∈ R. Fur die kanonischen Basisvektoren e1, e2, e3 ∈ R3

erhalten wir die Drehmatrizen

D(e1, φ) =

1 0 0

0 cos(φ) − sin(φ)

0 sin(φ) cos(φ)

,

D(e2, φ) =

cos(φ) 0 − sin(φ)

0 1 0

sin(φ) 0 cos(φ)

,

D(e3, φ) =

cos(φ) − sin(φ) 0

sin(φ) cos(φ) 0

0 0 1

.

Satz und Definition 20.10 (Euler-Zerlegung, Euler-Winkel).

(1) Jede Drehmatrix A ∈ SO(3,R) besitzt eine Produktdarstellung

A = D(e3, ϕ) ◦D(e1, θ) ◦D(e3, ψ)

mit ϕ, θ, ψ ∈ R. Eine solche Produktdarstellung heißt eine Euler-Zerlegungvon A. Die reellen Parameter ϕ, θ, ψ heißen Euler-Winkel von A.

(2) Sei A = (aνµ)ν,µ=1,2,3 ∈ SO(3,R) eine Drehmatrix mit den Euler-Winkelnψ, θ, ϕ ∈ R. Dann gilt

A =

a11 a12 sin(ϕ) sin(θ)

a21 a22 − cos(ϕ) sin(θ)

sin(θ) sin(ψ) sin(θ) cos(ψ) cos(θ)

mit

a11 = cos(ϕ) cos(ψ)− sin(ϕ) cos(θ) sin(ψ) ,

a12 = − cos(ϕ) sin(ψ)− sin(ϕ) cos(θ) cos(ψ) ,

a21 = sin(ϕ) cos(ψ) + cos(ϕ) cos(θ) sin(ψ) ,

a22 = − sin(ϕ) sin(ψ) + cos(ϕ) cos(θ) cos(ψ) .

Daher konnen die Eintrage a11, a12, a21, a22 aus den den ubrigen Ein-tragen der Drehmatrix A berechnet werden. Siehe 20.11.

(3) Im Fall Ae3 = ±e3 sind die Euler-Winkel durch die Bedingungen

ϕ ∈ [0, 2π) , θ ∈ (0, π) , ψ ∈ [0, 2π)

eindeutig bestimmt.

Siehe die folgenden Satze 20.12 und 20.13 zur Berechnung und geometrischenDeutung der Euler-Winkel.

200

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 201: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Sch

ema20.11.

D(e

3,ϕ

)◦D(e

1,θ)◦D(e

3,ψ

)=

cos(ϕ)

−sin(ϕ)

0

sin(ϕ)

cos(ϕ)

0

00

1

10

0

0cos(θ)

−sin(θ)

0sin(θ)

cos(θ)

cos(ψ)

−sin(ψ

)0

sin(ψ

)cos(ψ)

0

00

1

=

cos(ϕ)

−sin(ϕ)

0

sin(ϕ)

cos(ϕ)

0

00

1

cos(ψ)

−sin(ψ

)0

cos(θ)

sin(ψ

)cos(θ)

cos(ψ)

−sin(θ)

sin(θ)sin(ψ

)sin(θ)cos(ψ)

cos(θ

=

cos(ϕ)cos(ψ)−sin(ϕ)cos(θ)

sin(ψ

)−cos(ϕ)sin(ψ

)−sin(ϕ)cos(θ)

cos(ψ)

sin(ϕ)sin(θ)

sin(ϕ)cos(ψ)+cos(ϕ)cos(θ)

sin(ψ

)−sin(ϕ)sin(ψ

)+

cos(ϕ)cos(θ)

cos(ψ)

−cos(ϕ)sin(θ)

sin(θ)sin(ψ

)sin(θ)cos(ψ)

cos(θ)

.

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 202: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz 20.12 (Berechnung der Euler-Winkel). Sei A = (aνµ) ∈ SO(3,R) gegeben.Im Ubrigen verwenden wir die Bezeichnungen aus 20.10.

(1) Stets ist θ ∈ [0, π] durch die Gleichung

cos(θ) = a33

eindeutig bestimmt. Dann gilt

sin(θ) =√1− a233 ≥ 0 .

(2) Im Fall a33 = ±1 ist ϕ ∈ [0, 2π) ist durch die beiden Gleichungen

cos(ϕ) = − a23√1− a233

, sin(ϕ) =a13√1− a233

eindeutig bestimmt.

(3) Im Fall a33 = ±1 ist ψ ∈ [0, 2π) ist durch die beiden Gleichungen

cos(ψ) =a32√1− a233

, sin(ψ) =a31√1− a233

eindeutig bestimmt.

(4) Im Fall a33 = 1 gibt es a, b ∈ R mit a2 + b2 = 1 und

A =

a −b 0

b a 0

0 0 1

, a = cos(ϕ+ ψ) , b = sin(ϕ+ ψ) .

Die Matrix A beschreibt eine Drehung um die Drehachse Re3 mit demDrehwinkel φ = ϕ+ ψ. Es besteht die Zerlegung

A = D(e3, ϕ) ◦D(e1, 0) ◦D(e3, ψ) = D(e3, ϕ+ ψ) .

Die linke obere (2× 2)-Teilmatrix von A ist eine ebene Drehmatrix.

(5) Im Fall a33 = −1 ist A symmetrisch. Es gibt a, b ∈ R mit a2+ b2 = 1 und

A =

a b 0

b −a 0

0 0 −1

, a = cos(ϕ− ψ) , b = sin(ϕ− ψ) .

Die Matrix A beschreibt eine Drehung mit dem Drehwinkel φ = π. SieheSatz 20.6, Aussage (3.2). Die obere linke (2×2)-Teilmatrix von A ist keineebene Drehmatrix. Es besteht die Zerlegung(

a b

b −a

)=

(cos(ϕ) − sin(ϕ)

sin(ϕ) cos(ϕ)

)(cos(ψ) − sin(ψ)

− sin(ψ) − cos(ψ)

)

in orthogonale Matrizen. Dabei ist die (2×2)-Matrix, die den Euler-Winkelϕ enthalt, eine ebene Drehmatrix.

202

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 203: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz und Definition 20.13 (Geometrische Deutung der Euler-Winkel). Sei

A = (a1, a2, a3) ∈ SO(3,R)

mit a3 = ±e3 gegeben. Sei A = {a1, a2, a3} die positiv orientierte Orthonormal-basis des R3, die aus den Spalten von A besteht.

(1) Der Einheitsvektor eN ∈ R3 mit

eN =e3 × a3∥e3 × a3∥

heißt der Knotenvektor von A. Es gilt

0 ∈ ReN = He3,0 ∩Ha3,0 ⊆ R3 .

Die Gerade ReN heißt die Knotenlinie von A.

(2) Fur alle

ϕ ∈ [0, 2π) , θ ∈ (0, π) , ψ ∈ [0, 2π)

sind die geometrischen Bedingungen

D(e3, ϕ)e1 = eN , D(eN , θ)e3 = a3 , D(a3, ψ)eN = a1 (T)

genau dann erfullt, wenn die Euler-Zerlegung

A = D(e3, ϕ) ◦D(e1, θ) ◦D(e3, ψ) . (E1)

besteht. In diesem Fall gilt

A = D(a3, ψ) ◦D(eN , θ) ◦D(e3, ϕ) . (E2)

Wir heben die unterschiedliche Position der drei Parameter ϕ, θ, ψ in denZerlegungen (E1) und (E2) hervor. Siehe (E3) in Aussage (6).

(3) Die Euler-Winkel

ϕ ∈ [0, 2π) , θ ∈ (0, π) , ψ ∈ [0, 2π)

von A lassen sich aus den Gleichungen

cos(ϕ) = ⟨eN , e1⟩ , sin(ϕ) = ⟨eN , e2⟩ ,cos(θ) = ⟨e3, a3⟩ , sin(θ) = ∥e3 × a3∥ ,cos(ψ) = ⟨eN , a1⟩ , sin(ψ) = −⟨eN , a2⟩

berechnen.

(4) Die Ebenen He3,0 und Ha3,0 schneiden sich langs der Knotenlinie ReNunter dem Winkel θ = ](e3, a3) ∈ (0, π). Es gelten

cos(θ) = ⟨e3, a3⟩ ∈ (−1, 1) , sin(θ) = ∥e3 × a3∥ ∈ (0, 1) .

203

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 204: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(5) Die Euler-Winkel ϕ ∈ [0, 2π) und ψ ∈ [0, 2π) erfullen

eN =

cos(ϕ)

sin(ϕ)

0

, (eN )A = A−1eN =

cos(ψ)

− sin(ψ)

0

.

Dabei ist (eN )A der Koordinatenvektor von eN bezuglich A.

(6) Fur alle x ∈ R3 gilt

xA = A−1x = D(e3,−ψ) ◦D(e1,−θ) ◦D(e3,−ϕ)x . (E3)

Dabei ist xA der Koordinatenvektor von x bezuglich A.

Beweis. Sei A = (a1, a2, a3) ∈ SO(3,R) mit a3 = ±e3 gegeben. Wegen a3 = ±e3gilt e3 × a3 = 0. Also ist eN ein Einheitsvektor mit

eN ⊥ e3 , eN ⊥ a3 .

Die EbenenHe3,0 undHa3,0 schneiden sich langs der Knotenlinie ReN unter demWinkel ](e3, a3) ∈ (0, π). Wir betrachten die folgenden vier positiv orientiertenOrthonormalbasen

E = {e1, e2, e3} ,V = {eN , e3 × eN , e3} ,W = {eN , a3 × eN , a3} ,A = {a1, a2, a3} .

Erster Schritt. Es seien ϕ ∈ [0, 2π), θ ∈ (0, π), ψ ∈ [0, 2π) mit

D(e3, ϕ)e1 = eN , D(eN , θ)e3 = a3 , D(a3, ψ)eN = a1 (T)

gegeben. Wir zeigen, dass ϕ, θ, ψ die Euler-Winkel von A sind. Aus

D(e3, ϕ) : {e1, e2, e3} 7→ {eN , e3 × eN , e3} ,D(eN , θ) : {eN , e3 × eN , e3} 7→ {eN , a3 × eN , a3} ,D(a3, ψ) : {eN , a3 × eN , a3} 7→ {a1, a2, a3}

folgt die multiplikative Zerlegung

A = D(a3, ψ) ◦D(eN , θ) ◦D(e3, ϕ) .

Außerdem ergeben sich die Beziehungen

xV =MEV xE = D(e3, ϕ)−1x ,

xW =MVW xV = D(e1, θ)−1xV = D(e1, θ)

−1D(e3, ϕ)−1x ,

xA =MWA xW = D(e3, ψ)−1xW = D(e3, ψ)

−1D(e1, θ)−1D(e3, ϕ)

−1x ,

xA =MEA xE = A−1x

204

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 205: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

fur alle x ∈ R3. Folglich gilt die Euler-Zerlegung

A = D(e3, ϕ) ◦D(e1, θ) ◦D(e3, ψ) . (E)

Aus den geometrischen Bedingungen (T) folgt demnach, dass die rellen Para-meter ϕ, θ, ψ die Euler-Winkel im Sinne von Satz und Definition 20.10 sind.

Zweiter Schritt. Es seien ϕ ∈ [0, 2π), θ ∈ (0, π), ψ ∈ [0, 2π) derart gegeben,dass die Euler-Zerlegung (E) gilt. Wir zeigen, dass ϕ, θ, ψ die geometrischenBedingungen (T) erfullen. Dabei verwenden wir mehrfach die Darstellung aus20.10 der Eintrage aνµ der Drehmatrix A als Funktionen von ϕ, θ, ψ.

Zur Vorbereitung berechnen wir die Koordinatenvektoren des KnotenvektorseN bezuglich der Orthonormalbasen E und A in Abhangigkeit der Euler-Winkelϕ und ψ. Nach 20.10 gilt

e3 × a3 =

0

0

1

×

sin(ϕ) sin(θ)

− cos(ϕ) sin(θ)

cos(θ)

=

cos(ϕ) sin(θ)

sin(ϕ) sin(θ)

0

.

Normieren ergibt

(eN )E = eN =e3 × a3∥e3 × a3∥

=

cos(ϕ)

sin(ϕ)

0

.

Außerdem gelten

⟨e3, a3⟩ = cos(θ) , ∥e3 × a3∥ = sin(θ) > 0 .

Insbesondere erhalten wir

θ = ](e3, a3) ∈ (0, π) .

Aus 20.10 folgen die Beziehungen

⟨eN , a1⟩ =

cos(ϕ)

sin(ϕ)

0

·

cos(ϕ) cos(ψ)− sin(ϕ) cos(θ) sin(ψ)

sin(ϕ) cos(ψ) + cos(ϕ) cos(θ) sin(ψ)

sin(θ) sin(ψ)

= cos(ψ) ,

⟨eN , a2⟩ =

cos(ϕ)

sin(ϕ)

0

·

− cos(ϕ) sin(ψ)− sin(ϕ) cos(θ) cos(ψ)

− sin(ϕ) sin(ψ) + cos(ϕ) cos(θ) cos(ψ)

sin(θ) cos(ψ)

= − sin(ψ) ,

⟨eN , a3⟩ =

cos(ϕ)

sin(ϕ)

0

·

sin(ϕ) sin(θ)

− cos(ϕ) sin(θ)

cos(θ)

= 0 .

Diese Beziehungen lassen sich in der Form

(eN )A = A−1eN =

cos(ψ)

− sin(ψ)

0

zusammenfassen.

205

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 206: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Wir wenden uns nun dem Nachweis von (T) zu. Erstens untersuchen wir dieWirkung der Drehmatrix D(e3, ϕ) auf die Basis E = {e1, e2, e3}. Wegen

e3 = D(e3, ϕ)e3 , eN =

cos(ϕ)

sin(ϕ)

0

= D(e3, ϕ)e1 ,

e3 × eN =

0

0

1

×

cos(ϕ)

sin(ϕ)

0

=

− sin(ϕ)

cos(ϕ)

0

= D(e3, ϕ)e2

gilt

D(e3, ϕ) : {e1, e2, e3} 7→ {eN , e3 × eN , e3} .

Zweitens untersuchen wir die Wirkung von D(eN , θ) auf die positiv orientierteOrthonormalbasis V = {eN , e3 × eN , e3}. Wegen

D(eN , θ)e3 = cos(θ) e3 + sin(θ) eN × e3 =

sin(ϕ) sin(θ)

− cos(ϕ) sin(θ)

cos(θ)

= a3 ,

D(eN , θ)eN = eN =

cos(ϕ)

sin(ϕ)

0

,

D(eN , θ)(e3 × eN ) = a3 × eN =

− sin(ϕ) cos(θ)

cos(ϕ) cos(θ)

sin(θ)

gilt

D(eN , θ) : {eN , e3 × eN , e3} 7→ {eN , a3 × eN , a3} .

Drittens untersuchen wir die Wirkung von D(a3, ψ) auf die positiv orientierteOrthonormalbasis {eN , a3 × eN , a3}. Wegen

D(a3, ψ)eN = cos(ψ) eN + sin(ψ) a3 × eN

=

cos(ϕ) cos(ψ)

sin(ϕ) cos(ψ)

0

+

− sin(ϕ) cos(θ) sin(ψ)

cos(ϕ) cos(θ) sin(ψ)

sin(θ) sin(ψ)

= a1 ,

D(a3, ψ)a3 = a3 , D(a3, ψ)(a3 × eN ) = a3 × a1 = a2

gilt

D(a3, ψ) : {eN , a3 × eN , a3} 7→ {a1, a2, a3} .

Also gelten die geometrischen Bedingungen (T). Damit ist der Beweis von 20.13abgeschlossen.

206

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 207: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Schema 20.14.

A = D(e3, ϕ) ◦D(e1, θ) ◦D(e3, ψ) ∈ SO(3,R) , Ae3 = ±e3 .

ϕ ∈ [0, 2π) , ψ ∈ [0, 2π) .

e1y D(e3, ϕ)

A

cos(ψ)

− sin(ψ)

0

=

cos(ϕ)

sin(ϕ)

0

=e3 ×Ae3∥e3 ×Ae3∥

= eNy D(Ae3, ψ)

Ae1

eN =

cos(ϕ)

sin(ϕ)

0

, (eN )A =

cos(ψ)

− sin(ψ)

0

.

θ = ](e3, Ae3) ∈ (0, π) .

e3y D(eN , θ)

Ae3

207

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 208: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiel 20.15. Sei A ∈ R3×3 mit

A =

13

23

23

23

13 −2

3

−23

23 −1

3

die Drehmatrix aus Beispiel 20.8. Offenbar gilt Ae3 = ±e3. Also sind die Euler-Winkel ϕ, θ, ψ durch die Bedingungen

ϕ ∈ [0, 2π) , θ ∈ (0, π) , ψ ∈ [0, 2π)

eindeutig bestimmt.

Erste Methode. Mit den Formeln aus 20.12 erhalten wir

cos(θ) = −13 , sin(θ) = 2

3

√2 ,

cos(ϕ) = 12

√2 , sin(ϕ) = 1

2

√2 ,

cos(ψ) = 12

√2 , sin(ψ) = − 1

2

√2 .

Zweite Methode. Wir wenden Formeln aus 20.13 an. Zuerst berechnen wircos(θ) als inneres Produkt von e3 und Ae3. Dann berechnen wir den Knoten-vektor eN . Dabei erhalten wir sin(θ) als euklidische Norm von e3 × Ae3. Dieersten beiden Komponenten von eN sind cos(ϕ) und sin(ϕ).

cos(θ) = ⟨e3, Ae3⟩ =

0

0

1

·

23

−23

−13

= −13 ,

e3 ×Ae3 =

0

0

1

×

23

−23

−13

=

2323

0

,

∥e3 ×Ae3∥ = 23

√2 = sin(θ) ,cos(ϕ)

sin(ϕ)

0

= eN =e3 ×Ae3∥e3 ×Ae3∥

=

12

√2

12

√2

0

.

Wir berechnen cos(ψ) und − sin(ψ) als die erste und zweite Komponente desVektors AteN . cos(ψ)

− sin(ψ)

0

= AteN =

13

23 − 2

323

13

23

23 − 2

3 − 13

12

√2

12

√2

0

=

12

√2

12

√2

0

.

Probe. Zum Abschluss rechnen wir nach, dass im vorliegenden Fall tatsachlich

A = D(e3, ϕ) ◦D(e1, θ) ◦D(e3, ψ)

208

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 209: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

gilt. Einsetzen und Ausmultiplizieren ergibt

D(e3, ϕ) ◦D(e1, θ) ◦D(e3, ψ)

=

12

√2 −1

2

√2 0

12

√2 1

2

√2 0

0 0 1

1 0 0

0 −13 − 2

3

√2

0 23

√2 − 1

3

12

√2 1

2

√2 0

− 12

√2 1

2

√2 0

0 0 1

=

12

√2 −1

2

√2 0

12

√2 1

2

√2 0

0 0 1

12

√2 1

2

√2 0

16

√2 −1

6

√2 −2

3

√2

− 23

23 −1

3

=

13

23

23

23

13 −2

3

−23

23 −1

3

= A .

209

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 210: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

21 Erganzung: Gruppen

Definition 21.1. Ein Paar (G, ⋄) bestehend aus einer nicht-leeren Menge Gund einer Abbildung ⋄ : G × G → G, (g, h) 7→ g ⋄ h heißt eine Gruppe, wenndie folgenden Bedingungen (1) und (2) erfullt sind.

(1) Es gilt das Assoziativgesetz

(∀f, g, h ∈ G) : f ⋄ (g ⋄ h) = (f ⋄ g) ⋄ h .

(2) Es gibt ein eindeutig bestimmtes Element η ∈ G mit den Eigenschaften (i)und (ii).

(i) Das Element η ist ein neutrales Element bezuglich der Gruppenope-ration ⋄, das heißt, es gilt

(∀g ∈ G) : η ⋄ g = g ⋄ η = g .

(ii) Zu jedem g ∈ G gibt es ein eindeutig bestimmtes inverses Elementg′ ∈ G bezuglich η und ⋄, das heißt, es gilt

(∀g ∈ G)(∃g′ ∈ G) : g′ ⋄ g = g ⋄ g′ = η .

Das Element η heißt das neutrale Element der Gruppe (G, ⋄).

Wenn außerdem die Bedingung (3) erfullt ist, dann heißt das Paar (G, ⋄) einekommutative oder abelsche Gruppe. Andernfalls heißt die Gruppe nicht-abelschoder nicht-kommutativ.

(3) Es gilt das Kommutativgesetz

(∀f, g ∈ G) : f ⋄ g = g ⋄ f .

Wenn keine Verwechslungen zu befurchten sind, schreiben wir gh anstelle vong ⋄ h und sagen wir vereinfachend, dass G eine Gruppe ist.

Manchmal wird die Gruppenoperation mit einem Multiplikationspunkt ·oder dem Kompositionszeichen ◦ bezeichnet. In diesem Fall sprechen wir voneiner multiplikativ geschriebenen Gruppe. Das neutrale Element einer multi-plikativ geschriebenen Gruppe wird Eins genannt und mit 1 oder e oder Ebezeichnet. Das inverse Element g′ ∈ G wird dann mit g−1 bezeichnet.

Die Gruppenoperation einer kommutativen Gruppe wird oft mit einem Plus-zeichen + bezeichnet. In diesem Fall sprechen wir von einer additiv geschriebe-nen Gruppe. Das neutrale Element einer additiven Gruppe wird Null genanntund mit 0 bezeichnet. Das inverse Element g′ wird dann mit −g bezeichnet.Entsprechend heißt −g das negative Element zu g.

210

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 211: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beispiele 21.2.

(1) (Z,+), (Q,+), (R,+).

(2) (Rn,+), (Rn×m,+).

(3) (Q×, ·), (R×, ·).

(4) Die Menge GL(n,R) der invertierbaren reellen (n × n)-Matrizen mit derMatrixmultiplikation ◦ als Gruppenoperation ist eine Gruppe. Die Ein-heitsmatrix En ist das neutrale Element.

(5) Die Gruppe (GL(n,R), ◦) heißt die allgemeine lineare Gruppe. Fur n ≥ 2ist (GL(n,R), ◦) nicht-kommutativ.

(6) (Lx1(n,R), ◦), D×(n,R), Perm(n,R), (Uq

×(n,R), ◦) sind Gruppen. Dabeiist ◦ die Matrixmultiplikation und die Einheitsmatrix En das neutraleElement.

(7) (Sn, ◦) mit der Komposition von Abbildungen ist eine Gruppe. Die identi-sche Abbildung id{1,...,n} ist das neutrale Element der Permuationsgruppe(Sn, ◦).

Satz und Definition 21.3. Seien (G, ⋄) mit (g, h) 7→ g ⋄ h eine Gruppe undH ⊆ G eine nicht-leere Teilmenge. Dann sind (1), (2), (3) aquivalent.

(1) Fur alle g, h ∈ H gilt g ⋄ h ∈ H. Die Menge H ist mit der Abbildung(g, h) 7→ g ⋄ h eine Gruppe.

(2) (∀g, h ∈ H) : g ⋄ h ∈ H , h′ ∈ H .

(3) (∀g, h ∈ H) : g ⋄ h′ ∈ H .

In (2) und (3) ist h′ das in G gebildete inverse Element zu h ∈ H. Wenn dieaquivalenten Bedingungen (1), (2) und (3) erfullt sind, dann gelten (4) und (5).

(4) Die Einselemente der Gruppen H und G stimmen uberein.

(5) Fur alle h ∈ H stimmt das in G gebildete inverse Element h−1 mit demin H gebildeten inversen Element uberein.

Wenn eine der aquivalenten Bedingungen (1), (2), (3) erfullt ist, dann heißt Heine Untergruppe von G. Wir schreiben dann H ≤ G.

Beispiele 21.4.

(1) Sei G eine Gruppe. Dann gilt G ≤ G. Sei e das Einselement von G. Danngilt {e} ≤ G. Aus K ≤ H ≤ G folgt K ≤ G.

(2) (Z,+) ≤ (Q,+) ≤ (R,+) .

(3) (Q×, ·) ≤ (R×, ·) .

(4) (Lx1(n,R), ◦) ≤ (Lx

×(n,R), ◦) ≤ (GL(n,R), ◦) .

(5) (Dx1(n,R), ◦) ≤ (Dx

×(n,R), ◦) ≤ (GL(n,R), ◦) .

(6) (Perm(n,R), ◦) ≤ (GL(n,R), ◦) .

(7) (Uq1(n,R), ◦) ≤ (Uq

×(n,R), ◦) ≤ (GL(n,R), ◦) .

211

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 212: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz und Definition 21.5. Sei (G, ⋄, η) eine Gruppe und S ⊆ G eine beliebigeTeilmenge.

(1) Der Durchschnitt

⟨S⟩ =∩

S⊆H≤G

H

ist eine Untergruppe von G.

(2) ⟨S⟩ ist die kleinste Untergruppe von G, die S als Teilmenge enthalt.

(3) ⟨S⟩ besteht aus dem neutralen Element η und, wenn S = ∅ gilt, aus allenendlichen Produkten der Form

s1 ⋄ . . . ⋄ sk

mit sκ ∈ S oder s′κ ∈ S fur alle κ = 1, . . . , k und alle k ∈ N.

(4) Wenn ⟨S⟩ = G gilt, dann sagen wir, dass G von S erzeugt wird.

(5) Wenn ⟨S⟩ = G und S = ∅ gelten, dann sagen wir, dass die Elementevon S die Gruppe G erzeugen. In diesem Falle heißen die Elemente vonS Generatoren oder erzeugende Elemente von G.

Satz 21.6. Sei n ∈ R. Die Gruppe (GL(n,R), ◦, En) wird von den Elementar-matrizen

(1) Ei↔j mit i > j,

(2) Eα;i mit α > 1,

(3) Ej;α;i mit α > 0 und i = j

mit i, j = 1, . . . , n erzeugt.

Definition 21.7. Seien G und H Gruppen. Eine Abbildung φ : G → H heißtein Gruppenhomomorphismus, wenn φ(g1g2) = φ(g1)φ(g2) fur alle g1, g2 ∈ Ggilt.

Satz 21.8. Seien G und H Gruppen und φ : G → H ein Gruppenhomomor-phismus. Dann gelten:

(1) φ(e) = e.

(2) (∀g ∈ G) : φ(g−1) = (φ(g))−1.

(3) ker(φ) = {g ∈ G | φ(g) = e} ≤ G.

(4) φ ist injektiv genau dann, wenn ker(φ) = {e} gilt.

(5) im(φ) = {h ∈ H | (∃g ∈ G) : φ(g) = h} ≤ H.

212

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 213: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Beweis. Wir schreiben beide Gruppen multiplikativ. Das neutrale Element be-zeichnen wir unterschiedslos mit e. Das inverse Element zu einem Element x ausg oder H bezeichnen wir mit x−1. Anstelle von (φ(g))−1 schreiben wir φ(g)−1

fur g ∈ G. Diese verkurzten Schreibweisen sind ublich.

Nachweis von (1). Weil φ ein Gruppenhomomorphismus ist, gilt

φ(e) = φ(ee) = φ(e)φ(e) .

Wir multiplizieren die beiden Seiten der Gleichung von links mit φ(e)−1 undnutzen die Assoziativitat aus.

e = φ(e)−1φ(e) = φ(e)−1(φ(e)φ(e)

)=(φ(e)−1φ(e)

)φ(e) = eφ(e) = φ(e) .

Damit ist (1) bewiesen.

Nachweis von (2). Sei g ∈ G. Weil φ ein Gruppenhomomorphismus ist, gilt

φ(g−1)φ(g) = φ(g−1g) = φ(e) = e .

Im letzten Schritt haben wir (1) verwendet. Aus der Einzigkeit des inversenElementes zu φ(g) folgt, dass φ(g−1) = φ(g)−1 gilt.

Nachweis von (3). Nach (1) gilt φ(e) = e. Also ist ker(φ) nicht die leereMenge. Seien g1, g2 ∈ ker(φ). Wegen

φ(g1g2) = φ(g1)φ(g2) = ee = e

gilt dann auch g1g2 ∈ ker(φ). Sei g ∈ ker(φ). Wegen (2) gilt

φ(g−1) = φ(g)−1 = e−1 = e .

Also gilt g−1 ∈ ker(φ). Damit ist gezeigt, dass ker(φ) eine Untergruppe von Gist. Wir haben dabei mehrfach verwendet, dass die Abbildung φ ein Gruppen-homomorphismus ist.

Nachweis von (4). Angenommen, es gilt ker(φ) = {e}. Seien g1, g2 ∈ G mitφ(g1) = φ(g2) gegeben. Weil φ ein Gruppenhomomorphismus ist, folgt

φ(g1g−12 ) = φ(g1)φ(g2)

−1 = φ(g1)φ(g1)−1 = e .

Aus der Voraussetzung ergibt sich g1g−12 = e. Also gilt g1 = g2. Nun setzen wir

umgekehrt voraus, dass φ injektiv ist. Fur g ∈ ker(φ) gilt

φ(g) = e = φ(e) .

Dabei haben wir (1) verwendet. Die Injektivitat impliziert g = e. Damit ist dasKriterium (4) bewiesen.

Nachweis von (5). Wegen φ(e) = e ist im(φ) nicht die leere Menge. Zu h1,h2 ∈ im(φ) gibt es g1, g2 ∈ G mit φ(gk) = hk fur k = 1, 2. Aus

h1h2 = φ(g1)φ(g2) = φ(g1g2)

folgt h1h2 ∈ im(φ). Zu h ∈ im(φ) gibt es g ∈ G mit φ(g) = h. Aus

h−1 = φ(g)−1 = φ(g−1)

folgt h−1 ∈ im(φ). Damit ist gezeigt, dass im(φ) eine Untergrupe von H ist.

213

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 214: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Definition 21.9. Sei (G, . , e) eine Gruppe. Sei n ∈ N.

(1) Ein Gruppenhomomorphimus φ : G → GL(n,R) heißt eine Gruppendar-stellung von G durch reelle (n× n)-Matrizen.

(2) Eine Gruppendarstellung φ : G → GL(n,R) heißt treu, wenn φ injektivist.

Beispiel 21.10. Sei n ∈ N. Dann ist P : Sn → GL(n,R) mit

P (π)eν = eπ(ν)

fur alle ν = 1, . . . , n eine treue Gruppendarstellung der Permutationsgruppe Sn.Siehe Satz und Definition 9.8.

214

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 215: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

22 Erganzung: Euklidische Bewegungen

Sei n ∈ N. Der Vektorraum Rn sei mit dem euklidischen inneren Produkt⟨ . , . ⟩, der euklidischen Norm ∥ . ∥ und der Standardorientierung versehen. Diekanonische Basis En = {e1, . . . , en} ist demach eine positiv orientierte Ortho-normalbasis des Rn. Mit L(Rn,Rn) bezeichnen wir den Vektorraum der linearenAbbildungen von Rn in Rn.

Definition 22.1.

(1) Eine Abbildung φ : Rn → Rn heißt eine Isometrie oder eine euklidischeBewegung, wenn

∥φ(x)− φ(x)∥ = ∥x− y∥

fur alle x, y ∈ Rn gilt. Mit E(n,R) bezeichnen wir die Menge der euklidi-schen Bewegungen des Rn.

(2) Eine Isometrie φ : Rn → Rn heißt eine Starrkorperbewegung oder einespezielle euklidische Bewegung, wenn sie die Orientierung erhalt, das heißt,wenn

det(φ(e1), . . . , φ(en)) > 0

gilt. Mit SE(n,R) bezeichnen wir die Menge der speziellen euklidischenBewegungen des Rn.

Orthogonale Abbildungen und Translationen sowie ihre Kompositionen sindIsometrien. Jedes Paar (R, a) ∈ O(n,R) × Rn definiert eine Isometrie φR,a :Rn → Rn mit

φR,a(x) = Rx+ a .

Umgekehrt kann jede Isometrie des Rn auf diese Weise dargestellt werden. Da-bei erhalt φR,a genau dann die Orientierung, wenn R ∈ SO(n,R) gilt. JedeIsometrie, die den Nullpunkt festlasst, ist eine lineare Abbildung.

Satz 22.2. Es gelten:

(1) Sei ψ ∈ E(n,R) eine Isometrie mit ψ(0) = 0. Dann gilt ψ ∈ L(Rn,Rn).

(2) E(n,R) = O(n,R)× Rn.

(3) SE(n,R) = SO(n,R)× Rn.

Beweis. Wir heben ausdrucklich hervor, dass in der Definition der Isometrienkeine Linearitatseigenschaften vorausgesetzt werden.

Nachweis von (1). Sei ψ ∈ E(n,R) eine Isometrie mit ψ(0) = 0. Zuerst zeigenwir, dass ψ die euklidische Norm und das euklidische innere Produkt erhalt.

215

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 216: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Seien x, y ∈ Rn beliebig gegeben. Aus den Eigenschaften von ψ folgt

∥ψ(x)∥ = ∥ψ(x)− ψ(0)∥ = ∥x− 0∥ = ∥x∥ .

Nach Definition der euklidischen Norm gilt

2 ⟨x, y⟩ = ∥x∥2 + ∥y∥2 − ∥x− y∥2 .

Nun folgt

2 ⟨ψ(x), ψ(y)⟩ = ∥ψ(x)∥2 + ∥ψ(y)∥2 − ∥ψ(x)− ψ(y)∥2

= ∥x∥2 + ∥y∥2 − ∥x− y∥2 = 2 ⟨x, y⟩ .

Weil ψ die euklidische Norm und das euklidische innere Produkt erhalt,bilden die Vektoren ψ(e1), . . . , ψ(en) eine Orthonormalbasis des Rn.

Sei x ∈ Rn beliebig gegeben. Dann gibt es eindeutig bestimmte Koeffizientenx1, . . . , xn ∈ R und x′1, . . . , x

′n ∈ R mit

x =

n∑ν=1

xνeν , ψ(x) =

n∑ν=1

x′νψ(eν) ,

Weil ψ das euklidische innere Produkt erhalt, folgt

x′ν = ⟨ψ(x), ψ(eν)⟩ = ⟨x, eν⟩ = xν

fur alle ν = 1, . . . n. Siehe Satz 5.1. Also gilt

ψ

(n∑ν=1

xνeν

)=

n∑ν=1

xνψ(eν) .

Dies zeigt, dass die Abbildung ψ linear ist.

Nachweis von (2) und (3). Sei φ ∈ E(n,R) eine beliebige Isometrie. Nach(1) definiert ψ(x) = φ(x) − φ(0) eine lineare Abbildung ψ ∈ L(Rn,Rn). DieMatrixdarstellung von ψ bezuglich En ist eine orthogonale Matrix R ∈ O(n,R).Dabei gilt R ∈ SO(n,R) genau dann, wenn ψ und damit φ die Orientierungerhalt. Mit a = φ(0) erhalten wir die gewunschte Darstellung φ(x) = Rx + afur alle x ∈ Rn. Der Beweis ist damit beendet.

Mit der Komposition ◦ von Abbildungen ist E(n,R) = O(n,R) × Rn eineGruppe. Dabei gilt

(R1, a1) ◦ (R2, a2) = (R1R2, R1a2 + a1) .

Die Produktmatrix R1R2 ist mit R1 und R2 ebenfalls eine orthogonale Matrix.Die Gruppe (E(n,R), ◦) heißt die euklidische Gruppe des Rn.

Im Allgemeinen sind die euklidischen Bewegungen des Rn keine linearen Ab-bildungen. Durch Augmentierung lasst sich eine Matrixdarstellung der Gruppe

216

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 217: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(E(n,R), ◦) erreichen. Einer euklidischen Bewegung (R, a) ∈ O(n,R)×Rn wirddie Matrix (

R a

01×n 1

)∈ GL(n+ 1,R)

zugeordnet. Fur alle x, y ∈ Rn sind y = Rx+ a und(y

1

)=

(Rx+ a

1

)=

(R a

01×n 1

)(x

1

)∈ Rn+1

aquivalent. Also kann die euklidische Gruppe (E(n,R), ◦) mit einer Untergruppeder allgemeinen linearen Gruppe (GL(n + 1,R), ◦) identifiziert werden. Dabeiwird die spezielle euklidische Bewegung (En, 0n) mit der Einheitsmatrix En+1

identifiziert.

Satz 22.3.

(1) Fur alle (R, a) ∈ E(n,R) gilt

det

(R a

01×n 1

)= det(R) .

(2) Es gelten die Untergruppenbeziehungen

(SE(n,R), ◦) ≤ (E(n,R), ◦) ≤ (GL(n+ 1,R), ◦) .

Wir definieren Zentralprojektionen im R3 auf die Ebene He3,1 mit dem Null-punkt als Zentrum. Dazu erinnern wir an Definition 4.1. Fur w ∈ Rn mit∥w∥ = 1 und δ ≥ 0 ist Hw,δ ⊆ Rn die Hyperebene mit

Hw,δ = {x ∈ Rn | ⟨x,w⟩ = δ} .

Wir heben hervor, dass Zentralprojektionen nicht in allen Raumpunkten erklartsind. Daher sprechen wir von Zentralprojektionen im R3.

Definition 22.4. Sei p : R3 \He3,0 → R3 die Abbildung mit

p(x) =1

⟨x, e3⟩x .

Fur einen Raumpunkt x ∈ R3, der nicht in der Ebene He3,0 liegt, ist der Bild-punkt p(x) der Schnittpunkt der Ebene He3,1 mit der Geraden durch x und denNullpunkt. Die Abbildung p : R3 \ He3,0 → R3 heißt die Zentralprojektion imR3 auf die Ebene He3,1 mit dem Nullpunkt als Zentrum.

217

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 218: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz 22.5. Es sei (R, a) ∈ SE(3,R) eine spezielle euklidische Bewegung. Fureinen beliebigen Raumpunkt x ∈ R3 setzen wir

x′ = Rx+ a , x′′ = Rx′ + a .

Weiter sei p : R3 \He3,0 → R3 die Zentralprojektion im R3 auf die Ebene He3,1

mit dem Nullpunkt als Zentrum.

(1) Fur alle x ∈ R3 gilt die Orthogonalitatsrelation

⟨Rx′, a× x′′⟩ = 0 .

(2) (Epipolar constrained.) Fur alle x ∈ R3 mit x′, x′′ /∈ He3,0 gilt die Ortho-gonalitatsrelation

⟨Rp(x′), a× p(x′′)⟩ = 0 .

Eine Kamera erzeugt ebene Bilder von der Oberflache eines gegebenen raum-lichen Objektes. Eine wichtige Klasse von mathematischen Modellen beschreibtdiesen Prozess durch eine Komposition aus einer speziellen euklidischen Bewe-gung und einer Zentralprojektion. Dabei genugt es, Abbildungen der Form

c : x 7→ p(x′)

zu betrachten. Wie ublich identifizieren wir eine Kamera mit ihrem mathemati-schen Modell und nennen eine Abbildung c der genannten Form eine perspektiveKamera oder eine projektive Kamera. Die Rekonstruktion von (R, a) aus Paaren(p(x′), p(x′′)) erfolgt unter Beachtung der Orthogonalitatsrelation (2) des Satzes22.5.

218

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 219: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

23 Erganzung: Abbildungen

Definition 23.1. Seien A, B Mengen.

(1) Die Menge aller Paare (a, b) mit a ∈ A und b ∈ B heißt das cartesischeProdukt A×B von A und B. Dabei gilt (a, b) = (a′, b′) genau dann, wenna = a′ und b = b′ gelten. Wenn A oder B die leere Menge ist, dann istA×B ebenfalls die leere Menge.

(2) Eine Teilmenge φ ⊆ A × B heißt eine Abbildung von A in B, wenn eszu jedem a ∈ A genau ein b ∈ B mit (a, b) ∈ φ gibt. Wir sagen dannauch, dass φ eine Abbildung von A nach B ist. Statt Abbildung werdendie Ausdrucke Zuordnung oder Funktion verwendet.

(3) Es seien A und B nicht-leere Mengen. Wenn φ ⊆ A × B eine Abbildungist, dann schreiben wir b = φ(a) fur alle Paare (a, b) ∈ φ. Das Elementφ(a) ∈ B heißt das Bild von a ∈ A unter φ. Wir sagen dann, dass demElement a ∈ A das Element φ(a) ∈ B zugeordnet wird. Dafur schreibenwir auch a 7→ φ(a).

(4) Wenn φ ⊆ A×B eine Abbildung ist, dann schreiben wir φ : A→ B.

(5) Sei φ : A → B eine Abbildung. Dann heißt die Menge A der Definitions-bereich oder die Definitionsmenge von φ. Die Menge B heißt der Ziel-bereich oder die Zielmenge von φ.

(6) Wenn keine Verwechslungen hinsichtlich des Definitions- und des Ziel-bereiches einer Abbildung φ ⊆ A×B zu befurchten sind, sagen wir, das φeine Abbildung ist.

(7) Sei φ : A→ B eine Abbildung. Die Menge

φ(A) = {b ∈ B | (∃a ∈ A) : (a, b) ∈ φ}

heißt das Bild oder der Bildbereich oder die Bildmenge von φ. Wenn Aoder B die leere Menge ist, dann ist φ(A) ebenfalls leer.

(8) Sei φ : A→ B eine Abbildung. Sei X ⊆ A. Die Abbildung ψ : X → B mit

ψ ⊆ φ ⊆ A×B

heißt die Einschrankung von φ auf X. Die Abbildung φ ist eine Fortset-zung von ψ auf A. Offenbar gilt

ψ(A) ⊆ φ(A) .

Wir schreiben φ | X fur die Einschrankung von φ auf X. Wenn die Men-gen X, A und B nicht-leer sind, dann gilt

(φ | A)(x) = ψ(x) = φ(x)

fur alle x ∈ X.

219

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 220: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(9) Sei A = ∅. Die Abbildung idA : A→ A mit idA(a) = a heißt die identischeAbbildung oder die Identitat der Menge A. Wir setzen id∅ = ∅.

(10) Eine Abbildung φ : A→ A heißt eine Selbstabbildung der Menge A.

Definition 23.2. Es seien A, B, C Mengen und φ : A→ B, ψ : B → C Abbil-dungen.

(1) Die Abbildung ψ ◦ φ : A→ C mit

ψ ◦ φ = {(a, c) ∈ A× C | (∃b ∈ B) : (a, b) ∈ φ, (b, c) ∈ ψ}

heißt die Komposition von φ und ψ. Dabei ist auf die Reihenfolge zuachten. Statt Komposition werden auch die Ausdrucke Hintereinander-schaltung oder Hintereinanderausfuhrung verwendet.

(2) Wenn die Mengen A, B, C nicht-leer sind, dann gilt

(ψ ◦ φ)(a) = ψ(φ(a))

fur alle a ∈ A. Dabei wird zuerst in der Menge B das Element b = φ(a)gebildet. Dann wird in der Menge C das Element

c = ψ(b) = ψ(φ(a))

gebildet.

Definition 23.3. Seien A, B Mengen und φ : A→ B eine Abbildung.

(1) φ heißt injektiv oder eineindeutig, wenn fur alle x, y ∈ A aus φ(x) = φ(y)stets x = y folgt. Wir sagen dann auch, dass φ eine eins-zu-eins Abbildungvon A nach oder in B ist.

(2) φ heißt surjektiv, wenn es zu jedem b ∈ B ein a ∈ A mit φ(a) = b gibt.Wir sagen dann, dass φ eine Abbildung von A auf B ist.

(3) φ heißt bijektiv, wenn φ injektiv und surjektiv ist. Wir sagen dann auch,dass φ eine bijektive Abbildung von A auf B ist.

Beispiele 23.4. Es sei [0,∞) = {x ∈ R | x ≥ 0}.

(1) f : R → R mit f(x) = x2 ist weder injektiv noch surjektiv.

(2) f : [0,∞) → R mit f(x) = x2 ist injektiv, aber nicht surjektiv.

(3) f : R → [0,∞) mit f(x) = x2 ist surjektiv, aber nicht injektiv.

(4) f : [0,∞) → [0,∞) mit f(x) = x2 ist bijektiv.

220

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 221: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Satz 23.5. Seien A, B Mengen und φ : A→ B eine Abbildung.

(1) Sei φ bijektiv. Dann gibt es eine eindeutig bestimmte Abbilding ψ : B → Amit (i) und (ii).

(i) (∀a ∈ A) : ψ(φ(a)) = a .

(ii) (∀b ∈ b) : φ(ψ(b)) = b .

Die Abbildung ψ heißt die Umkehrabbildung von φ und wird mit φ−1

bezeichnet. Es gelten (iii) und (iv).

(iii) φ−1 ist bijektiv.

(iv) (φ−1)−1 = φ .

(2) φ ist genau dann bijektiv, wenn es eine Abbildung ψ : B → A mit (i)und (ii) aus (1) gibt. In diesem Fall sind φ und ψ die Umkehrabbildungenvoneinander.

Beispiele 23.6. Es seien m, n ∈ N und A ∈ Rn×n beliebig gegeben. Sei dannφA : Rn → Rn die lineare Abbildung mit φA(x) = Ax.

(1) φA ist genau dann injektiv, wenn ker(A) = {0} gilt.

(2) φA ist genau dann surjektiv, wenn rg(A) = n gilt.

(3) Im Fall n = m sind aquivalent:

(i) φA ist bijektiv.

(ii) ker(A) = {0}.(iii) rg(A) = n.

(iv) A ∈ GL(n,R).

221

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 222: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

24 Anhang: Klausuren

222

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 223: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

TECHNISCHE UNIVERSITAT BRAUNSCHWEIGCarl-Friedrich-Gauß-FakultatInstitut Computational MathematicsAG Partielle DifferentialgleichungenAm Fallersleber Tore 138100 BraunschweigDr. Wolfgang Marten

Wintersemester 201419.2.2014, Klausurblatt 1/2

Klausur zum Modul

”Lineare Algebra fur Studierende

der Informatik“

Aufgabe 1. Gegeben sei die Matrix A ∈ R3×3 mit

A =

1 3 4

8 22 33

−4 −16 −16

.

1.1. Berechnen Sie die LU -Zerlegung von A. 3.0

1.2. Machen Sie die Probe. 1.0

Aufgabe 2. Gegeben seien L, U ∈ R3×3 und b ∈ R3 mit

L =

1 0 0

3 1 0

−5 2 1

, U =

3 0 2

0 2 −1

0 0 4

, b =

11

32

−53

.

2.1. Berechnen Sie A = LU . 1.0

2.2. Berechnen Sie die Determinante det(A). 1.0

2.3. Losen Sie Ax = b mit Hilfe der LU -Zerlegung von A. Machen Sie dieProbe. Achten Sie auf die Reihenfolge der Komponenten bei der Ruckwarts-elimination. 3.0

223

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 224: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 3. Gegeben seien A = (a1, a2, a3, a4, a5) ∈ R4×5 und y ∈ R4 mit

A =

2 −2 2 14 0

−2 −2 −2 −22 −1

−1 4 −1 −1 1

−1 −2 −1 −13 −1

, y =

10

−30

11

−21

.

3.1. Berechnen Sie die Treppennormalform T (A, y) der erweiterten Matrix(A, y) ∈ R4×6 mit dem Verfahren von Gauß-Jordan. 3.0

3.2. Bestimmen Sie die Pivotspalten ai1 , . . . , air von A. Die Pivotspaltenbilden eine Basis A = {ai1 , . . . , air} von im(A) ⊆ R4. 1.0

3.3. Zeigen Sie, dass y ∈ im(A) gilt. Bestimmen Sie mit Hilfe von T ′(A, y)den Koordinatenvektor yA ∈ Rr von y bezuglich A. Machen Sie die Probe. 2.0

3.4. Bestimmen Sie mit Hilfe von T ′′(A) eine Basis N von ker(A) ⊆ R5. 2.0

3.5. Bestimmen Sie mit Hilfe von T ′′(A, y) alle Losungen von Ax = y. 1.0

Aufgabe 4. Gegeben seien A ∈ R3×3 und v1, v2, v3 ∈ R3 mit

A =

0 4 0

−2 6 0

−2 2 4

, v1 =

2

1

1

, v2 =

1

1

2

, v3 =

1

1

1

.

4.1. Zeigen Sie, dass die Vektoren v1, v2, v3 eine Basis des R3 aus Eigenvek-toren der Matrix A bilden. Berechnen Sie den Eigenwert λi zum Eigenvektor vifur i = 1, 2, 3. 7.0

4.2. Gegeben sei das reelle Polynom p(λ) = λ3 − 10λ2 + 30λ − 24 ∈ R[λ].Berechnen Sie die Matrix

p(A) = A3 − 10A2 + 30A− 24E3

mit Hilfe der Diagonaldarstellung

A = V ◦

λ1 0 0

0 λ2 0

0 0 λ3

◦ V −1 .

Dabei ist V = (v1, v2, v3) die Matrix mit den Spalten v1, v2, v3. Berechnen Siezuerst die Eigenwerte p(λi) der Matrix p(A) fur i = 1, 2, 3. Fuhren Sie diePolynomauswertung mit dem Horner-Schema durch. 5.0

Hinweis. Die Aufgaben 5 bis 8 finden Sie auf dem Klausurblatt 2/2.

224

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 225: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

TECHNISCHE UNIVERSITAT BRAUNSCHWEIGCarl-Friedrich-Gauß-FakultatInstitut Computational MathematicsAG Partielle DifferentialgleichungenDr. Wolfgang Marten Wintersemester 2014

19.2.2014, Klausurblatt 2/2

Klausur zum Modul

”Lineare Algebra fur Studierende

der Informatik“

Aufgabe 5. Gegeben sei A ∈ R2×2 mit

A =

(−148 120

−180 146

).

5.1. Berechnen Sie die Determinante det(A), die Adjunkte adj(A) und dieinverse Matrix A−1 von A. 3.0

5.2. Berechnen Sie die Eigenwerte von A. Sei λmax der großte Eigenwert vonA. Berechnen Sie eine Basis B des Eigenraumes ker(A− λmaxE2). 3.0

Aufgabe 6. Gegeben sei A ∈ R3×3 mit

A =

2 −4 1

2 0 2

−1 8 4

.

Berechnen Sie das charakteristische Polynom χA(t) = det(A− tE3), die Deter-minante det(A), die Adjunkte adj(A) und die inverse Matrix A−1 mit demVerfahren von Leverrier-Faddeev. 8.0

Leverrier-Faddeev. Sei A ∈ Rn×n. Die Koeffizienten p1, . . . , pn ∈ R von

χA(t) = det(A− tEn) = (−1)n(tn − p1tn−1 − p2t

n−2 − . . .− pn) ∈ R[t]

lassen sich fur k = 1, . . . , n sukzessive nach dem folgenden Schema berechnen:

B0 = En , Ak = ABk−1 , pk =tr(Ak)

k, Bk = Ak − pkEn .

Dabei ist En ∈ Rn×n die Einheitsmatrix. Es gelten die Beziehungen

tr(A) = p1 , det(A) = (−1)n−1pn , adj(A) = (−1)n−1Bn−1 , Bn = 0 .

Wenn A invertierbar ist, dann gilt

A−1 =1

det(A)adj(A) =

1

pnBn−1 .

225

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 226: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 7. Der Vektorraum R3 sei mit dem euklidischen inneren Produkt⟨ . , . ⟩ und der Standard-Orientierung versehen. Es sei ∥ . ∥ die euklidische Norm.Gegeben sei die Drehmatrix A ∈ SO(3,R) mit

A =1

13

−2 −3− 4√6 6− 2

√6

−3 + 4√6 −2 −6− 2

√6

6 + 2√6 −6 + 2

√6 7

.

Sei v ∈ R3 \ {0} der normierte Drehvektor und φ ∈ (0, π) der orientierte Dreh-winkel von A bezuglich v.

7.1. Berechnen Sie v und sin(φ). Verwenden Sie den schief-symmetrischenAnteil der Drehmatrix A. 3.0

7.2. Machen Sie die Probe, indem Sie nachrechnen, dass v ein Eigenvektorvon A ist. Welcher Eigenwert gehort zu diesem Eigenvektor? 1.0

7.3. Berechnen Sie cos(φ). Verwenden Sie die Spurformel. Machen die Probe,indem Sie Teil 7.1 verwenden. 2.0

Aufgabe 8. Der Vektorraum R3 sei mit dem euklidischen inneren Produkt⟨ . , . ⟩ versehen. Es sei ∥ . ∥ die euklidische Norm. Gegeben sei die positive MatrixA ∈ R3×3 mit

A = 3

11 8 −8

8 11 −8

−8 −8 11

.

Es ist 81 ein einfacher und 9 ein zweifacher Eigenwert von A.

8.1. Berechnen Sie die Spektralzerlegung

A =∑

λ∈σ(A)

λPλ

von A. Machen Sie die Probe. 7.0

8.2. Berechnen Sie die positive Quadratwurzel A12 mit Hilfe der Spektral-

zerlegung von A. 3.0

Hinweis: Die Aufgaben 1 bis 4 finden Sie auf dem Klausurblatt 1/2.

226

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 227: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 1. Maximal 4 Punkte.

1 3 4

8 22 33

−4 −16 −16

1 3 4 Z1

0 −2 1 Z2 − (+8)Z1

0 −4 0 Z3 − (−4)Z1

1 3 4 Z1

0 −2 1 Z2

0 0 −2 Z3 − (+2)Z2

3.0

LU =

1 0 0

8 1 0

−4 2 1

1 3 4

0 −2 1

0 0 −2

=

1 3 4

8 22 33

−4 −16 −16

= A . 1.0

Aufgabe 2. Maximal 5 Punkte.

LU =

1 0 0

3 1 0

−5 2 1

3 0 2

0 2 −1

0 0 4

=

3 0 2

9 2 5

−15 4 −8

= A . 1.0

det(A) = det(L) · det(U) = 1 · det(U) = det(U) = 3 · 2 · 4 = 24 . 1.0

1 0 0

3 1 0

−5 2 1

y1y2y3

=

11

32

−53

,

3 0 2

0 2 −1

0 0 4

x1x2x3

=

y1y2y3

=

11

−1

4

.

y1 = 11 , y2 = 32− 33 = −1 , y3 = −53 + 55 + 2 = 4 . 1.0

x3 = 1 , x2 = 12 · (−1 + 1) = 0 , x1 = 1

3 · (11− 0− 2) = 3 . 1.0

Ax =

3 0 2

9 2 5

−15 4 −8

3

0

1

=

9 + 0 + 2

27 + 0 + 5

−45 + 0− 8

=

11

32

−53

= b . 1.0

227

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 228: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 3. Maximal 9 Punkte.

Die Treppennormalform T (A, y) von (A, y).

2 −2 2 14 0 10

−2 −2 −2 −22 −1 −30

−1 4 −1 −1 1 11

−1 −2 −1 −13 −1 −21

1 −1 1 7 0 5 12Z1

0 −4 0 −8 −1 −20 Z2 + Z1

0 3 0 6 1 16 Z3 +12Z1

0 −3 0 −6 −1 −16 Z4 +12Z1

1 −1 1 7 0 5 Z1

0 −1 0 −2 0 −4 Z2 + Z3

0 3 0 6 1 16 Z3

0 0 0 0 0 0 Z4 + Z3

Treppennormalform T (A, y)

1 0 1 9 0 9 Z1 − Z2

0 1 0 2 0 4 −Z2

0 0 0 0 1 4 Z3 + 3Z2

0 0 0 0 0 0 Z4

Streichen liefert T ′(A, y)

1 0 1 9 0 9 Z1

0 1 0 2 0 4 Z2

0 0 0 0 1 4 Z3

Erganzen liefert T ′′(A, y)

1 0 1 9 0 9 Z1

0 1 0 2 0 4 Z2

0 0 −1 0 0 0 Erganzung

0 0 0 −1 0 0 Erganzung

0 0 0 0 1 4 Z3

3.0

Pivotspalten, Rang.

A = {a1, a2, a5} , r = rg(A) = 3 . 1.0

228

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 229: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Losbarkeit, Koordinatenvektor.

rg(A, y) = rg(A) = 3 , T ′(A, y) = (T ′(A), yA) , yA =

9

4

4

∈ R3 . 1.0

Probe.

(a1, a2, a5) yA =

2 −2 0

−2 −2 −1

−1 4 1

−1 −2 −1

9

4

4

=

10

−30

11

−21

= y . 1.0

Die Matrix T ′′(A, y) = (T ′′(A), ξ) ∈ R5×6.

T ′′(A, y) =

1 0 1 9 0 9

0 1 0 2 0 4

0 0 −1 0 0 0

0 0 0 −1 0 0

0 0 0 0 1 4

= (e(5)1 , e

(5)2 , v1, v2, e

(5)5 , ξ) , ξ =

9

4

0

0

4

.

Basis des Kernes.

v1 =

1

0

−1

0

0

, v2 =

9

2

0

−1

0

, N = {v1, v2} , ker(A) = [{v1, v2}] . 2.0

Allgemeine Losung von Ax = y.

x = ξ + α1v1 + α2v2 =

9

4

0

0

4

+ α1

1

0

−1

0

0

+ α2

9

2

0

−1

0

, α1, α2 ∈ R . 1.0

229

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 230: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 4. Maximal 12 Punkte.

0 4 0

−2 6 0

−2 2 4

2 1 1

1 1 1

1 2 1

=

4 4 4

2 4 4

2 8 4

. 2.0

λ1 = 2 , λ2 = 4 , λ3 = 4 . 1.0

2 1 1 1 0 0

1 1 1 0 1 0

1 2 1 0 0 1

1 1 1 0 1 0 Z2

0 −1 −1 1 −2 0 Z1 − 2Z2

0 1 0 0 −1 1 Z3 − Z2

1 1 1 0 1 0 Z1

0 −1 −1 1 −2 0 Z2

0 0 −1 1 −3 1 Z3 + Z2

1 0 0 1 −1 0 Z1 + Z2

0 1 1 −1 2 0 −Z2

0 0 −1 1 −3 1 Z3

1 0 0 1 −1 0 Z1

0 1 0 0 −1 1 Z2 + Z3

0 0 1 −1 3 −1 −Z3

4.0

1 −10 30 −24

2 2 −16 28

1 −8 14 4

1 −10 30 −24

4 4 −24 24

1 −6 6 0

2.0

p(A) = V ◦

p(λ1) 0 0

0 p(λ2) 0

0 0 p(λ3)

◦ V −1 1.0

=

2 1 1

1 1 1

1 2 1

4 0 0

0 0 0

0 0 0

1 −1 0

0 −1 1

−1 3 −1

1.0

=

2 1 1

1 1 1

1 2 1

4 −4 0

0 0 0

0 0 0

=

8 −8 0

4 −4 0

4 −4 0

. 1.0

230

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 231: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 5. Maximal 6 Punkte.

A =

(a11 a12

a21 a22

)=

(−148 120

−180 146

).

det(A) = a11a22 − a21a12 = (−148) · 146− (−180) · 120

= −21608 + 21600 = −8 . 1.0

adj(A) =

(a22 −a12

−a21 a11

)=

(146 −120

180 −148

). 1.0

A−1 =1

det(A)adj(A) = −1

8

(146 −120

180 −148

). 1.0

χA(t) = (−148− t)(146− t) + 21600

= −21608 + 2t+ t2 + 21600

= t2 + 2t− 8 1.0

= (t+ 4)(t− 2) .

λmin = λ1 = −4 , λmax = λ2 = 2 . 1.0

−150 120

−180 144

5 −4 − 130Z1

−30 24 Z2 − Z1

5 −4 Z1

0 0 Z2 + 6Z1

v =

(4

5

), B = {v} , ker(A+ 2E2) = [v] . 1.0

Av =

(−148 120

−180 146

)(4

5

)=

(−592 + 600

−720 + 730

)=

(8

10

)= 2 ·

(4

5

)= λmaxv .

231

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 232: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 6. Maximal 8 Punkte.

A1 = A =

2 −4 1

2 0 2

−1 8 4

, p1 = 6 , B1 =

−4 −4 1

2 −6 2

−1 8 −2

. 1.0

A2 =

−17 24 −8

−10 8 −2

16 −12 7

, p2 = −1 , B2 =

−16 24 −8

−10 9 −2

16 −12 8

. 2.0

A3 =

24 0 0

0 24 0

0 0 24

, p3 = 24 , B3 =

0 0 0

0 0 0

0 0 0

. 1.0

χA(t) = (−1)3(t3 − 6t2 + t− 24) = −t3 + 6t2 − t+ 24 . 1.0

det(A) = (−1)2 p3 = 24 . 1.0

adj(A) = (−1)2B2 =

−16 24 −8

−10 9 −2

16 −12 8

. 1.0

A−1 =1

p3B2 =

1

24

−16 24 −8

−10 9 −2

16 −12 8

. 1.0

Probe.

A ◦ adj(A) =

2 −4 1

2 0 2

−1 8 4

−16 24 −8

−10 9 −2

16 −12 8

=

24 0 0

0 24 0

0 0 24

= det(A) · E3 .

232

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 233: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 7. Maximal 6 Punkte.

A =1

13

−2 −3− 4√6 6− 2

√6

−3 + 4√6 −2 −6− 2

√6

6 + 2√6 −6 + 2

√6 7

,

At =1

13

−2 −3 + 4√6 6 + 2

√6

−3− 4√6 −2 −6 + 2

√6

6− 2√6 −6− 2

√6 7

.

12 (A−At) =

1

2 · 13

0 −8√6 −4

√6

8√6 0 −4

√6

4√6 4

√6 0

=

0 −u3 u2

u3 0 −u1−u2 u1 0

.

u =

u1u2u3

=4 ·

√6

2 · 13

1

−1

2

=2 ·

√6

13

1

−1

2

. 1.0

∥u∥2 =22 · 6132

· (1 + 1 + 4) =24 · 32

132, ∥u∥ =

22 · 313

=12

13.

v =1

∥u∥u =

13

12· 2 ·

√6

13

1

−1

2

=1√6

1

−1

2

. 1.0

sin(φ) = ∥u∥ =12

13, sin2(φ) =

144

169. 1.0

Av =1

13 ·√6

−2 −3− 4√6 6− 2

√6

−3 + 4√6 −2 −6− 2

√6

6 + 2√6 −6 + 2

√6 7

1

−1

2

=1

13 ·√6

13

−13

26

= v , λ = 1 . 1.0

tr(A) = 1 + 2 cos(φ) , tr(A) =3

13, cos(φ) =

1

2

(3

13− 13

13

)= − 5

13. 1.0

cos2(φ) + sin2(φ) =25

169+

144

169=

169

169= 1 . 1.0

233

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 234: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Zwei Zusatze fur die kleinen Ubungen. Berechnung der Euler-Winkel.

I. Geometrische Methode mit dem Knotenvektor eN der Drehmatrix A.

A =1

13

−2 −3− 4√6 6− 2

√6

−3 + 4√6 −2 −6− 2

√6

6 + 2√6 −6 + 2

√6 7

∈ SO(3,R) , A−1 = At .

A = (a1, a2, a3) = D(e3, ϕ) ◦D(e1, θ) ◦D(e3, ψ) .

e3 × a3 =1

13

0

0

1

×

6− 2√6

−6− 2√6

7

=1

13

6 + 2√6

6− 2√6

0

.

eN =e3 × a3∥e3 × a3∥

=1

2 ·√30

6 + 2√6

6− 2√6

0

=1√30

3 +√6

3−√6

0

.

eN =

cos(ϕ)

sin(ϕ)

0

, cos(ϕ) =3 +

√6√

30, sin(ϕ) =

3−√6√

30.

cos(θ) = ⟨e3, a3⟩ =7

13, sin(θ) = ∥e3 × a3∥ =

2

13

√30 .

cos(ψ)

− sin(ψ)

0

= AteN =1

13 ·√30

−2 −3 + 4√6 6 + 2

√6

−3− 4√6 −2 −6 + 2

√6

6− 2√6 −6− 2

√6 7

3 +

√6

3−√6

0

=1

13 ·√30

−39 + 13√6

−39− 13√6

0

=1√30

−3 +√6

−3−√6

0

.

cos(ψ) = −3−√6√

30, sin(ψ) =

3 +√6√

30.

234

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 235: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

II. Direkte Berechnung aus den Eintragen der Drehmatrix A.

A =1

13

−2 −3− 4√6 6− 2

√6

−3 + 4√6 −2 −6− 2

√6

6 + 2√6 −6 + 2

√6 7

∈ SO(3,R) , A−1 = At .

A = (aij) = D(e3, ϕ) ◦D(e1, θ) ◦D(e3, ψ) .

cos(θ) = a33 =7

13,

sin(θ) =√1− a233 =

√1− 49

169=

√169− 49

169=

2

13

√30 .

cos(ϕ) = − a23√1− a233

= (−1) · 1313

· −6− 2√6

2√30

=3 +

√6√

30,

sin(ϕ) =a13√1− a233

=13

13· 6− 2

√6

2√30

=3−

√6√

30.

cos(ψ) =a32√1− a233

=13

13· −6 + 2

√6

2√30

= −3−√6√

30,

sin(ψ) =a31√1− a233

=13

13· 6 + 2

√6

2√30

=3 +

√6√

30.

235

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 236: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 8. Maximal 10 Punkte.

tr(A) = 3 · (11 + 11 + 11) = 99 , 81 · 1 + 9 · 2 = 99 .

Eigenraum zum einfachen Eigenwert 81.

A− 81E3 = 3

11 8 −8

8 11 −8

−8 −8 11

27 0 0

0 27 0

0 0 27

= 3

−16 8 −8

8 −16 −8

−8 −8 −16

= 24

−2 1 −1

1 −2 −1

−1 −1 −2

.

ker(A− 81E3) = ker

−2 1 −1

1 −2 −1

−1 −1 −2

.

−2 1 −1

1 −2 −1

−1 −1 −2

1 −2 −1 Z2

0 −3 −3 Z1 + 2Z2

0 −3 −3 Z3 + Z2

1 0 1 Z1 − 23Z2

0 1 1 −13Z2

0 0 0 Z3 − Z2

3.0

v =

1

1

−1

, ∥v∥2 = 3 , ker(A− 81E3) = [v] . 1.0

236

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 237: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Spektralprojektionen.

P81 =v ⊗ v

∥v∥2=

vvt

∥v∥2=

1

3

1 1 −1

1 1 −1

−1 −1 1

. 1.0

P9 = E3 − P81 =1

3

3 0 0

0 3 0

0 0 3

1 1 −1

1 1 −1

−1 −1 1

=1

3

2 −1 1

−1 2 1

1 1 2

. 1.0

tr(P81) = 1 , tr(P9) = 2 .

Verlangte Probe.

∑λ∈σ(A)

λPλ = 81P81 + 9P9 = 27

1 1 −1

1 1 −1

−1 −1 1

+ 3

2 −1 1

−1 2 1

1 1 2

=

33 24 −24

24 33 −24

−24 −24 33

= A . 1.0

Positive Quadratwurzel.

A12 =

∑λ∈σ(A)

√λPλ = 9P81 + 3P9 1.0

= 3

1 1 −1

1 1 −1

−1 −1 1

+

2 −1 1

−1 2 1

1 1 2

1.0

=

5 2 −2

2 5 −2

−2 −2 5

. 1.0

tr(A12 ) = 5 + 5 + 5 = 15 ,

√81 · 1 +

√9 · 2 = 9 + 6 = 15 .

237

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 238: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Notenschlussel

Winf

15 - 17 4.0

18 3.7

19 3.3

20 - 21 3.0

22 2.7

23 2.3

24 - 25 2.0

26 1.7

27 1.3

28 - 30 1.0

Notenschlussel

Inf/Mewi/Dipl

30 - 32 4.0

33 - 35 3.7

36 - 38 3.3

39 - 41 3.0

42 - 44 2.7

45 - 47 2.3

48 - 50 2.0

51 - 53 1.7

54 - 56 1.3

57 - 60 1.0

Braunschweig, den 5.2.2014/17.9.2014 WM

238

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 239: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

TECHNISCHE UNIVERSITAT BRAUNSCHWEIGCarl-Friedrich-Gauß-FakultatInstitut Computational MathematicsAG Partielle DifferentialgleichungenAm Fallersleber Tore 138100 Braunschweig Sommersemester 2014Dr. Wolfgang Marten 11.9.2014, Klausurblatt 1/2

Klausur zum Modul

”Lineare Algebra fur Studierende

der Informatik“

Aufgabe 1. Seien a = (ai)i=1,...,n ∈ Rn und b = (bj)j=1,...,n ∈ Rn gegeben.Dann sei A ∈ Rn×n die Matrix mit

Ax = ⟨x, b⟩a

fur alle x ∈ Rn. Dabei ist ⟨ . , . ⟩ das euklidische innere Produkt von Rn.

(1) Charakterisieren Sie diejenigen Paare von Vektoren a, b ∈ Rn, fur die dieMatrix A symmetrisch ist. 4.0

(2) Charakterisieren Sie diejenigen Paare von Vektoren a, b ∈ Rn, fur die dieMatrix A symmetrisch und idempotent ist. 4.0

(Eine Matrix M ∈ Rn×n heißt idempotent, wenn M =M2 gilt.)

Aufgabe 2. Gegeben seien A ∈ R3×3 und b ∈ R3 mit

A =

5 −2 4

−45 16 −32

20 −2 10

, b =

−8

64

−14

.

(1) Berechnen Sie die LU -Zerlegung von A. Machen Sie die Probe. 3.0

(2) Berechnen Sie det(A) mit Hilfe von (1). 1.0

(3) Losen Sie Ax = b mit Hilfe von (1). Machen Sie die Probe. 3.0

239

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 240: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 3. Gegeben seien A = (a1, a2, a3, a4, a5) ∈ R4×5 und y ∈ R4 mit

A =

1 −2 −8 −17 2

−2 −2 −14 −20 −1

−1 3 13 26 1

2 −2 −6 −16 −1

, y =

−21

−18

24

−14

.

(1) Berechnen Sie die Matrix T ′′(A, y) ∈ R5×6, die durch Streichen und Er-ganzen aus der Treppennormalform der erweiterten Matrix (A, y) ∈ R4×6

hervorgeht. Verwenden Sie das Verfahren von Gauß-Jordan. 3.0

(2) Bestimmen Sie mit Hilfe von (1) alle Losungen von Ax = y. Machen Siedie Probe. 3.0

Aufgabe 4. Sei A ∈ Rn×n gegeben. Sei q(λ) ∈ R[λ] das reelle Polynom mit

q(λ) = det(A− λEn) .

Dabei ist En ∈ Rn×n die (n× n)-Einheitsmatrix.

(1) Charakterisieren Sie die reellen Nullstellen des Polynoms q(λ) mit Hilfevon geeigneten Teilvektorraumen des Rn. 1.0

(2) Charakterisieren Sie die reellen Nullstellen von q(λ) mit Hilfe geeigneterVektoren des Rn. 1.0

Aufgabe 5. Gegeben seien A ∈ R3×3 und v1, v2, v3 ∈ R3 mit

A =

1 −4 −4

−4 1 4

4 −4 −7

, v1 =

2

1

1

, v2 =

1

1

0

, v3 =

1

−1

1

.

(1) Zeigen Sie, dass die Vektoren v1, v2, v3 Eigenvektoren von A sind. 1.0

(2) Sei V = (v1, v2, v3) die Matrix mit den Spalten v1, v2, v3. Berechnen Siedie inverse Matrix V −1. 3.0

(3) Berechnen Sie die Matrix

p(A) = A3 + 5A2 + 4A1 − 6A0

mit Hilfe der Diagonaldarstellung von A. Berechnen Sie zuerst die Eigen-werte von p(A). Verwenden Sie dazu das Horner-Schema. 3.0

240

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 241: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

TECHNISCHE UNIVERSITAT BRAUNSCHWEIGCarl-Friedrich-Gauß-FakultatInstitut Computational MathematicsAG Partielle Differentialgleichungen Sommersemester 2014Dr. Wolfgang Marten 11.9.2014, Klausurblatt 2/2

Klausur zum Modul

”Lineare Algebra fur Studierende

der Informatik“

Aufgabe 6. Gegeben sei A ∈ R3×3 mit

A =

5 −2 4

2 1 −1

1 2 −2

.

Berechnen Sie die in (1), (2), (3) genannten Objekte mit dem Verfahren vonLeverrier-Faddeev.

(1) Das charakteristische Polynom χA(t) = det(A− tE3) der Matrix A. 1.0

(2) Die Determinante det(A) von A. 1.0

(3) Die Adjunkte adj(A) von A. 5.0

Aufgabe 7. Der Vektorraum R3 sei mit dem euklidischen inneren Produkt⟨ . , . ⟩ und der Standard-Orientierung versehen. Es sei ∥ . ∥ die euklidische Norm.Gegeben sei die Drehmatrix A ∈ SO(3,R) mit

A = (a1, a2, a3) = D(v, φ) =1

35

26 −15 18

15 −10 −30

18 30 −1

.

(1) Berechnen Sie den normierten Drehvektor v ∈ R3 mit Hilfe des schief-symmetrischen Anteils von A. Achten Sie auf den Vorfaktor. 3.0

(2) Berechnen Sie Cosinus und Sinus des orientierten Drehwinkels φ ∈ (0, π)von A bezuglich v. Verwenden Sie die Spurformel. Machen Sie die Probe. 3.0

(3) Berechnen Sie den Knotenvektor eN ∈ R3 von A. 1.0

(4) Es sei

A = D(e3, ϕ) ◦D(e1, θ) ◦D(e3, ψ)

die Euler-Zerlegung der Drehmatrix A. Berechnen Sie Cosinus und Sinusdes Euler-Winkels ϕ ∈ (0, 2π). 2.0

241

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 242: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 8. Der Vektorraum R3 sei mit dem euklidischen inneren Produkt⟨ . , . ⟩ versehen. Es sei ∥ . ∥ die euklidische Norm. Gegeben sei die positive MatrixA ∈ R3×3 mit

A =1

9

41 32 16

32 41 16

16 16 17

.

Sie durfen ohne Beweis verwenden, dass 9 ein einfacher und 1 ein zweifacherEigenwert der Matrix A ist.

(1) Berechnen Sie die Spur tr(A) nach der Definition. Uberprufen Sie dasErgebnis mit Hilfe der angegebenen Eigenwerte. 2.0

(2) Berechnen Sie die Determinante det(A) mit Hilfe der Eigenwerte von A. 1.0

(3) Berechnen Sie die Spektralzerlegung

A =∑

λ∈σ(A)

λPλ

von A. Machen Sie die Probe. 7.0

(4) Berechnen Sie die positive Quadratwurzel A12 mit Hilfe von (3). 2.0

(5) Berechnen Sie die Adjunkte adj(A) mit Hilfe von (2) und (3). 2.0

242

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 243: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 1. Maximal 8 Punkte.

(1)

Voraussetzung. Sei A = At.

(∀x, y ∈ Rn) : ⟨x, b⟩⟨a, y⟩ = ⟨Ax, y⟩ = ⟨x,Ay⟩ = ⟨y, b⟩⟨x, a⟩ .

(∀i, j ∈ {1, . . . , n}) : biaj = bjai .

• Sei b = 0. Dann gibt es j0 ∈ {1, . . . , n} mit bj0 = 0. Damit folgt

(∀i ∈ {1, . . . , n}) : ai =aj0bj0

bi .

Also sind a und b linear abhangig. 1.0

• Sei b = 0. Dann sind a und b linear abhangig. 1.0

• Wenn A symmetrisch ist, dann sind a und b linear abhangig.

Voraussetzung. Seien a und b linear abhangig.

• Sei b = 0. Dann gibt es λ ∈ R mit a = λb. Damit folgt

(∀x, y ∈ Rn) : ⟨Ax, y⟩ = λ⟨x, a⟩⟨a, y⟩ = λ⟨y, a⟩⟨x, a⟩ = ⟨x,Ay⟩ .

Also ist A symmetrisch.

• Sei b = 0. Dann gilt A = 0. Also ist A symmetrisch. 1.0

• Wenn a und b linear abhangig sind, dann ist A symmetrisch. 1.0

243

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 244: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(2)

Voraussetzung. Sei A symmetrisch und idempotent.

Nach (1) sind a und b linear abhangig.

• Seien a = 0 und b = 0. Dann gibt es λ = 0 mit a = λb. Es folgt

λ⟨b, b⟩b = Ab = A2b = λ2⟨b, b⟩2b .

Damit erhalten wir

λ =1

⟨b, b⟩, a =

1

⟨b, b⟩b , ⟨a, b⟩ = 1 . 1.0

• Sei a = 0 oder b = 0. Dann gilt

⟨a, b⟩ = 0 . 1.0

• Wenn die Matrix A symmetrisch und idempotent ist, dann sind a und blinear abhangig mit ⟨a, b⟩ = 0 oder ⟨a, b⟩ = 1.

Voraussetzung. Es seien die Vektoren a und b linear abhangig mit ⟨a, b⟩ = 0oder ⟨a, b⟩ = 1.

• Wenn die Vektoren a und b linear abhangig sind und ⟨a, b⟩ = 0 gilt, dannverschwindet einer der beiden Vektoren. Daher gilt A = 0. Die Nullmatrixist symmetrisch und idempotent. 1.0

• Es seien a und b linear abhangig mit ⟨a, b⟩ = 1. Nach (1) ist A symmetrisch.Außerdem gilt

(∀x ∈ Rn) : A2x = ⟨x, b⟩⟨a, b⟩a = ⟨x, b⟩a = Ax .

Also ist A auch idempotent. 1.0

• Wenn a und b linear abhangig sind und ⟨a, b⟩ = 0 oder ⟨a, b⟩ = 1 gilt,dann ist A symmetrisch und idempotent.

Erinnerung an die Vorlesung. Fur das Kronecker-Produkt A = a ⊗ bgelten (a ⊗ b)t = b ⊗ a und tr(a ⊗ b) = ⟨a, b⟩. Das Kronecker-Produkt A istgenau dann symmetrisch und idempotent, wenn A eine Projektionsmatrix ist.In diesem Fall gilt rg(A) = tr(A) ∈ {0, 1}. Siehe Aufgabe 8, Teil (3).

244

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 245: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 2. Maximal 7 Punkte.

5 −2 4

−45 16 −32

20 −2 10

5 −2 4 Z1

0 −2 4 Z2 − (−9)Z1

0 6 −6 Z3 − (+4)Z1

5 −2 4 Z1

0 −2 4 Z2

0 0 6 Z3 − (−3)Z2

2.0

LU =

1 0 0

−9 1 0

4 −3 1

5 −2 4

0 −2 4

0 0 6

=

5 −2 4

−45 16 −32

20 −2 10

= A . 1.0

det(A) = det(L) · det(U) = 1 · det(U) = det(U) = 5 · (−2) · 6 = −60 . 1.0

1 0 0

−9 1 0

4 −3 1

y1y2y3

=

−8

64

−14

,

5 −2 4

0 −2 4

0 0 6

x1x2x3

=

y1y2y3

=

−8

−8

−6

.

y1 = −8 , y2 = 64 + 9 · (−8) = −8 , y3 = −14− 4 · (−8) + 3 · (−8) = −6 . 1.0

x3 = −1 , x2 = (− 12 ) · (−8 + 4) = 2 , x1 = ( 15 ) · (−8 + 4 + 4) = 0 . 1.0

Ax =

5 −2 4

−45 16 −32

20 −2 10

0

2

−1

=

−8

64

−14

= b . 1.0

245

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 246: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 3. Maximal 6 Punkte.

(1)

1 −2 −8 −17 2 −21

−2 −2 −14 −20 −1 −18

−1 3 13 26 1 24

2 −2 −6 −16 −1 −14

1 −2 −8 −17 2 −21 Z1

0 −6 −30 −54 3 −60 Z2 + 2Z1

0 1 5 9 3 3 Z3 + Z1

0 2 10 18 −5 28 Z4 − 2Z1

1 −2 −8 −17 2 −21 Z1

0 1 5 9 3 3 Z3

0 −6 −30 −54 3 −60 Z2

0 2 10 18 −5 28 Z4

1 0 2 1 8 −15 Z1 + 2Z2

0 1 5 9 3 3 Z2

0 0 0 0 21 −42 Z3 + 6Z2

0 0 0 0 −11 22 Z4 − 2Z2

1 0 2 1 0 1 Z1 − 821Z3

0 1 5 9 0 9 Z2 − 321Z3

0 0 0 0 1 −2 121Z3

0 0 0 0 0 0 Z4 +1121Z3

1 0 2 1 0 1 Z1

0 1 5 9 0 9 Z2

0 0 −1 0 0 0 Erganzung

0 0 0 −1 0 0 Erganzung

0 0 0 0 1 −2 Z3

T ′′(A, y) = (a′′1 , a′′2 , a

′′3 , a

′′4 , a

′′5 , ξ) =

1 0 2 1 0 1

0 1 5 9 0 9

0 0 −1 0 0 0

0 0 0 −1 0 0

0 0 0 0 1 −2

. 3.0

246

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 247: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(2)

x = ξ + αa′′3 + βa′′4 , α ∈ R , β ∈ R . 1.0

Aξ =

1 −2 −8 −17 2

−2 −2 −14 −20 −1

−1 3 13 26 1

2 −2 −6 −16 −1

1

9

0

0

−2

=

−21

−18

24

−14

. 1.0

Aa′′3 =

1 −2 −8 −17 2

−2 −2 −14 −20 −1

−1 3 13 26 1

2 −2 −6 −16 −1

2

5

−1

0

0

=

0

0

0

0

,

1.0

Aa′′4 =

1 −2 −8 −17 2

−2 −2 −14 −20 −1

−1 3 13 26 1

2 −2 −6 −16 −1

1

9

0

−1

0

=

0

0

0

0

.

Aufgabe 4. Maximal 2 Punkte.

(∀λ ∈ R) : det(A− λEn) = 0 ⇔ ker(A− λEn) = {0} 1.0

⇔ (∃v ∈ Rn \ {0}) : Av = λv . 1.0

Bemerkung. Die Aufgabe 4 ist eine Erinnerung an die Vorlesung. Diebeiden Aufgaben 4 und 5 gehoren zusammen.

247

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 248: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 5. Maximal 7 Punkte.

1 −4 −4

−4 1 4

4 −4 −7

2 1 1

1 1 −1

1 0 1

=

−6 −3 1

−3 −3 −1

−3 0 1

.

λ1 = −3 , λ2 = −3 , λ3 = 1 . 1.0

2 1 1 1 0 0

1 1 −1 0 1 0

1 0 1 0 0 1

1 0 1 0 0 1 Z3

0 1 −1 1 0 −2 Z1 − 2Z3

0 1 −2 0 1 −1 Z2 − Z3

1 0 1 0 0 1 Z1

0 1 −1 1 0 −2 Z2

0 0 −1 −1 1 1 Z3 − Z2

1 0 0 −1 1 2 Z1 + Z3

0 1 0 2 −1 −3 Z2 − Z3

0 0 1 1 −1 −1 −Z3

3.0

1 5 4 −6

−3 −3 −6 6

1 2 −2 0

1 5 4 −6

1 1 6 10

1 6 10 4

p(A) = V ◦

p(λ1) 0 0

0 p(λ2) 0

0 0 p(λ3)

◦ V −1

=

2 1 1

2 1 −1

1 0 1

0 0 0

0 0 0

0 0 4

−1 1 2

2 −1 −3

1 −1 −1

1.0

=

2 1 1

2 1 −1

1 0 1

0 0 0

0 0 0

4 −4 −4

1.0

=

4 −4 −4

−4 4 4

4 −4 −4

. 1.0

248

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 249: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Zusatz fur die kleinen Ubungen.

χA(t) = (−1)(t+ 3)2(t− 1) = (−1)(t3 + 5t2 + 3t− 9) .

χA(A) = 0 , A3 + 5A2 + 3A1 − 9A0 = 0 .

p(A) = (A3 + 5A2 + 3A1 − 9A0) + (A+ 3A0)

= A+ 3A0

=

1 −4 −4

−4 1 4

4 −4 −7

+

3 0 0

0 3 0

0 0 3

=

4 −4 −4

−4 4 4

4 −4 −4

.

Aufgabe 6. Maximal 7 Punkte.

Berechnungen nach Leverrier-Faddeev.

B0 = En , Ak = ABk−1 , pk =tr(Ak)

k, Bk = Ak − pkEn .

A1 = A =

5 −2 4

2 1 −1

1 2 −2

, p1 = 4 , B1 =

1 −2 4

2 −3 −1

1 2 −6

. 1.0

A2 =

5 4 −2

3 −9 13

3 −12 14

, p2 = 5 , B2 =

0 4 −2

3 −14 13

3 −12 9

. 2.0

A3 =

6 0 0

0 6 0

0 0 6

, p3 = 6 , B3 =

0 0 0

0 0 0

0 0 0

. 1.0

Auswertung nach Leverrier-Faddeev.

χA(t) = det(A− tE3) = (−1)3(t3 − 4t2 − 5t− 6) = −t3 + 4t2 + 5t+ 6 . 1.0

det(A) = (−1)2 p3 = 6 . 1.0

adj(A) = (−1)2B2 =

0 4 −2

3 −14 13

3 −12 9

. 1.0

249

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 250: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 7. Maximal 9 Punkte.

(1)

A = (a1, a2, a3) =1

35

26 −15 18

15 −10 −30

18 30 −1

∈ SO(3,R) , A−1 = At .

12 (A−At) =

1

7

0 −3 0

3 0 −6

0 6 0

=

0 −u3 u2

u3 0 −u1−u2 u1 0

. 1.0

u =

u1u2u3

=1

7

6

0

3

=3

7

2

0

1

, v =u

∥u∥=

1√5

2

0

1

. 2.0

(2)

tr(A) = 1 + 2 cos(φ) , tr(A) =15

35=

3

7= 1− 4

7, cos(φ) = −2

7. 1.0

sin(φ) = ∥u∥ =3

7

√5 . 1.0

cos2(φ) + sin2(φ) =4

49+

45

49= 1 . 1.0

(3)

e3 × a3 =1

35

0

0

1

×

18

−30

−1

=1

35

30

18

0

=6

35

5

3

0

.

eN =e3 × a3∥e3 × a3∥

=1√34

5

3

0

. 1.0

(4)

eN =

cos(ϕ)

sin(ϕ)

0

, cos(ϕ) =5√34, sin(ϕ) =

3√34. 2.0

250

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 251: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Zusatz fur die kleinen Ubungen.

cos(θ) = ⟨e3, a3⟩ = − 1

35, sin(θ) = ∥e3 × a3∥ =

6

35

√34 .

cos(ψ)

− sin(ψ)

0

= AteN =1

35 ·√34

26 15 18

−15 −10 30

18 −30 −1

5

3

0

=1

35 ·√34

175

−105

0

=1√34

5

−3

0

cos(ψ) =5√34, sin(ψ) =

3√34.

D(e3, ϕ) ◦D(e1, θ) ◦D(e3, ψ)

=1

34 · 35

5 −3 0

3 5 0

0 0√34

35 0 0

0 −1 −6√34

0 6√34 −1

5 −3 0

3 5 0

0 0√34

=1

34 · 35

5 −3 0

3 5 0

0 0√34

175 −105 0

−3 −5 −204

18√34 30

√34 −

√34

=1

34 · 35

884 −510 812

510 −340 −1020

18 · 34 30 · 34 −34

=1

35

26 −15 18

15 −10 −30

18 30 −1

= A .

251

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 252: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 8. Maximal 14 Punkte.

A =1

9

41 32 16

32 41 16

16 16 17

.

λ1 = 9 , λ2 = λ3 = 1 .

(1)

tr(A) =41 + 41 + 17

9=

99

9= 11 . 1.0

tr(A) = λ1 + λ2 + λ3 = 9 + 1 + 1 = 11 . 1.0

(2)

det(A) = λ1λ2λ3 = 9 · 1 · 1 = 9 . 1.0

(3)

A− 9E3 =1

9

41 32 16

32 41 16

16 16 17

9 0 0

0 9 0

0 0 9

=1

9

41 32 16

32 41 16

16 16 17

81 0 0

0 81 0

0 0 81

=1

9

−40 32 16

32 −40 16

16 16 −64

.

ker(A− 9E3) = ker((98 )(A− 9E3)) = ker

−5 4 2

4 −5 2

2 2 −8

.

252

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 253: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

−5 4 2

4 −5 2

2 2 −8

1 1 −4 12Z3

−5 4 2 Z1

4 −5 2 Z2

1 1 −4 Z1

0 9 −18 Z2 + 5Z1

0 −9 18 Z3 − 4Z1

1 1 −4 Z1

0 1 −2 19Z2

0 0 0 Z3 + Z2

1 0 −2 Z1 − Z2

0 1 −2 Z2

0 0 0 Z3

3.0

v =

2

2

1

, ∥v∥2 = 9 , ker(A− 9E3) = [v] .

P9 =v ⊗ v

∥v∥2=

vvt

∥v∥2=

1

9

4 4 2

4 4 2

2 2 1

. 1.0

P1 = E3 − P16 =1

9

9 0 0

0 9 0

0 0 9

4 4 2

4 4 2

2 2 1

=

1

9

5 −4 −2

−4 5 −2

−2 −2 8

. 1.0

∑λ∈σ(A)

λPλ = 9P16 + P1 =9

9

4 4 2

4 4 2

2 2 1

+1

9

5 −4 −2

−4 5 −2

−2 −2 8

1.0

=1

9

41 32 16

32 41 16

16 16 17

= A . 1.0

253

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 254: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

(4)

A12 =

∑λ∈σ(A)

√λPλ = 3P9 + P1

=3

9

4 4 2

4 4 2

2 2 1

+1

9

5 −4 −2

−4 5 −2

−2 −2 8

1.0

=1

9

17 8 4

8 17 4

4 4 11

. 1.0

(5)

adj(A) = det(A)A−1 =

∏λ∈σ(A)

λ

∑λ∈σ(A)

1

λPλ

= P9 + 9P1

=1

9

4 4 2

4 4 2

2 2 1

+9

9

5 −4 −2

−4 5 −2

−2 −2 8

1.0

=1

9

49 −32 −16

−32 49 −16

−16 −16 73

. 1.0

Notenschlussel

Winf

15 - 17 4.0

18 3.7

19 3.3

20 - 21 3.0

22 2.7

23 2.3

24 - 25 2.0

26 1.7

27 1.3

28 - 30 1.0

Notenschlussel

Inf/Mewi/Dipl

30 - 32 4.0

33 - 35 3.7

36 - 38 3.3

39 - 41 3.0

42 - 44 2.7

45 - 47 2.3

48 - 50 2.0

51 - 53 1.7

54 - 56 1.3

57 - 60 1.0

254

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 255: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Zusatz fur die kleinen Ubungen.

B0 = En , Ak = ABk−1 , pk =tr(Ak)

k, Bk = Ak − pkEn .

A1 = A =1

9

41 32 16

32 41 16

16 16 17

, p1 = 11 , B1 =1

9

−58 32 16

32 −58 16

16 16 −82

.

A2 =1

9

−122 −32 −16

−32 −122 −16

−16 −16 −98

, p2 = −19 , B2 =1

9

49 −32 −16

−32 49 −16

−16 −16 73

.

A3 =

9 0 0

0 9 0

0 0 9

, p3 = 9 , B3 =

0 0 0

0 0 0

0 0 0

.

χA(t) = (−1)3(t3 − 11t2 + 19t− 9) = (−1)(t− 1)2(t− 9) .

1 −11 19 −9

1 1 −10 9

1 −10 9 0

t2 − 10t+ 9 = 0 ⇔ t = 5±√25− 9 = 5± 4 .

det(A) = (−1)2 p3 = 9 .

adj(A) = (−1)2B2 =1

9

49 −32 −16

−32 49 −16

−16 −16 73

.

Braunschweig, 30.8.2014/14.9.2014 WM

255

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 256: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

256

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 257: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

TECHNISCHE UNIVERSITAT BRAUNSCHWEIGCarl-Friedrich-Gauß-FakultatInstitut Computational MathematicsAG Partielle DifferentialgleichungenAm Fallersleber Tore 138100 BraunschweigDr. Wolfgang Marten

Wintersemester 201419.2.2014, Klausurblatt

Klausur zum Modul

”Lineare Algebra fur Studierende

der Wirtschaftsinformatik“

Aufgabe 1. Gegeben sei die Matrix A ∈ R3×3 mit

A =

1 3 4

8 22 33

−4 −16 −16

.

1.1. Berechnen Sie die LU -Zerlegung von A. 3.0

1.2. Machen Sie die Probe. 1.0

Aufgabe 2. Gegeben seien L, U ∈ R3×3 und b ∈ R3 mit

L =

1 0 0

3 1 0

−5 2 1

, U =

3 0 2

0 2 −1

0 0 4

, b =

11

32

−53

.

2.1. Berechnen Sie A = LU . 1.0

2.2. Berechnen Sie die Determinante det(A). 1.0

2.3. Losen Sie Ax = b mit Hilfe der LU -Zerlegung von A. Machen Sie dieProbe. Achten Sie auf die Reihenfolge der Komponenten bei der Ruckwarts-elimination. 3.0

257

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 258: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 3. Gegeben seien A = (a1, a2, a3, a4, a5) ∈ R4×5 und y ∈ R4 mit

A =

2 −2 2 14 0

−2 −2 −2 −22 −1

−1 4 −1 −1 1

−1 −2 −1 −13 −1

, y =

10

−30

11

−21

.

3.1. Berechnen Sie die Treppennormalform T (A, y) der erweiterten Matrix(A, y) ∈ R4×6 mit dem Verfahren von Gauß-Jordan. 3.0

3.2. Bestimmen Sie die Pivotspalten ai1 , . . . , air von A. Die Pivotspaltenbilden eine Basis A = {ai1 , . . . , air} von im(A) ⊆ R4. 1.0

3.3. Zeigen Sie, dass y ∈ im(A) gilt. Bestimmen Sie mit Hilfe von T ′(A, y)den Koordinatenvektor yA ∈ Rr von y bezuglich A. Machen Sie die Probe. 2.0

3.4. Bestimmen Sie mit Hilfe von T ′′(A) eine Basis N von ker(A) ⊆ R5. 2.0

3.5. Bestimmen Sie mit Hilfe von T ′′(A, y) alle Losungen von Ax = y. 1.0

Aufgabe 4. Gegeben seien A ∈ R3×3 und v1, v2, v3 ∈ R3 mit

A =

0 4 0

−2 6 0

−2 2 4

, v1 =

2

1

1

, v2 =

1

1

2

, v3 =

1

1

1

.

4.1. Zeigen Sie, dass die Vektoren v1, v2, v3 eine Basis des R3 aus Eigenvek-toren der Matrix A bilden. Berechnen Sie den Eigenwert λi zum Eigenvektor vifur i = 1, 2, 3. 7.0

4.2. Gegeben sei das reelle Polynom p(λ) = λ3 − 10λ2 + 30λ − 24 ∈ R[λ].Berechnen Sie die Matrix

p(A) = A3 − 10A2 + 30A− 24E3

mit Hilfe der Diagonaldarstellung

A = V ◦

λ1 0 0

0 λ2 0

0 0 λ3

◦ V −1 .

Dabei ist V = (v1, v2, v3) die Matrix mit den Spalten v1, v2, v3. Berechnen Siezuerst die Eigenwerte p(λi) der Matrix p(A) fur i = 1, 2, 3. Fuhren Sie diePolynomauswertung mit dem Horner-Schema durch. 5.0

258

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 259: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

TECHNISCHE UNIVERSITAT BRAUNSCHWEIGCarl-Friedrich-Gauß-FakultatInstitut Computational MathematicsAG Partielle DifferentialgleichungenAm Fallersleber Tore 138100 Braunschweig Sommersemester 2014Dr. Wolfgang Marten 11.9.2014, Klausurblatt

Klausur zum Modul

”Lineare Algebra fur Studierende

der Wirtschaftsinformatik“

Aufgabe 1. Seien a = (ai)i=1,...,n ∈ Rn und b = (bj)j=1,...,n ∈ Rn gegeben.Dann sei A ∈ Rn×n die Matrix mit

Ax = ⟨x, b⟩a

fur alle x ∈ Rn. Dabei ist ⟨ . , . ⟩ das euklidische innere Produkt von Rn.

(1) Charakterisieren Sie diejenigen Paare von Vektoren a, b ∈ Rn, fur die dieMatrix A symmetrisch ist. 4.0

(2) Charakterisieren Sie diejenigen Paare von Vektoren a, b ∈ Rn, fur die dieMatrix A symmetrisch und idempotent ist. 4.0

(Eine Matrix M ∈ Rn×n heißt idempotent, wenn M =M2 gilt.)

Aufgabe 2. Gegeben seien A ∈ R3×3 und b ∈ R3 mit

A =

5 −2 4

−45 16 −32

20 −2 10

, b =

−8

64

−14

.

(1) Berechnen Sie die LU -Zerlegung von A. Machen Sie die Probe. 3.0

(2) Berechnen Sie det(A) mit Hilfe von (1). 1.0

(3) Losen Sie Ax = b mit Hilfe von (1). Machen Sie die Probe. 3.0

259

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 260: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Aufgabe 3. Gegeben seien A = (a1, a2, a3, a4, a5) ∈ R4×5 und y ∈ R4 mit

A =

1 −2 −8 −17 2

−2 −2 −14 −20 −1

−1 3 13 26 1

2 −2 −6 −16 −1

, y =

−21

−18

24

−14

.

(1) Berechnen Sie die Matrix T ′′(A, y) ∈ R5×6, die durch Streichen und Er-ganzen aus der Treppennormalform der erweiterten Matrix (A, y) ∈ R4×6

hervorgeht. Verwenden Sie das Verfahren von Gauß-Jordan. 3.0

(2) Bestimmen Sie mit Hilfe von (1) alle Losungen von Ax = y. Machen Siedie Probe. 3.0

Aufgabe 4. Sei A ∈ Rn×n gegeben. Sei q(λ) ∈ R[λ] das reelle Polynom mit

q(λ) = det(A− λEn) .

Dabei ist En ∈ Rn×n die (n× n)-Einheitsmatrix.

(1) Charakterisieren Sie die reellen Nullstellen des Polynoms q(λ) mit Hilfevon geeigneten Teilvektorraumen des Rn. 1.0

(2) Charakterisieren Sie die reellen Nullstellen von q(λ) mit Hilfe geeigneterVektoren des Rn. 1.0

Aufgabe 5. Gegeben seien A ∈ R3×3 und v1, v2, v3 ∈ R3 mit

A =

1 −4 −4

−4 1 4

4 −4 −7

, v1 =

2

1

1

, v2 =

1

1

0

, v3 =

1

−1

1

.

(1) Zeigen Sie, dass die Vektoren v1, v2, v3 Eigenvektoren von A sind. 1.0

(2) Sei V = (v1, v2, v3) die Matrix mit den Spalten v1, v2, v3. Berechnen Siedie inverse Matrix V −1. 3.0

(3) Berechnen Sie die Matrix

p(A) = A3 + 5A2 + 4A1 − 6A0

mit Hilfe der Diagonaldarstellung von A. Berechnen Sie zuerst die Eigen-werte von p(A). Verwenden Sie dazu das Horner-Schema. 3.0

260

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 261: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

Literatur

[1] P.-A. Absil, R. Mahony, R. Sepulchre. Optimization Algorithms on MatrixManifolds. Princeton University Press. Princeton, Oxford, 2008.

[2] Adi Ben-Israel, Thomas N. E. Greville. Generalized Inverses. Theory andApplications. Second Edition. CMS Books in Mathematics. Canadian Ma-thematical Society. Springer-Verlag. New York, Berlin, Heidelberg. 2003.

[3] Alan F. Beardon. Algebra and Geometry. Cambridge University Press,Cambridge, 2006.

[4] Elie Cartan. The Theory of Spinors. Dover Publications, Inc., New York,1981. The work first appeared in French in 1937 as Lecons sur la theoriedes spineurs (2 Volumes), which was printed from Elie Cartan’s lectures,gathered and arranged by Andre Mercier.

[5] Roger Carter, Graeme Segal, Ian MacDonald. Lectures on Lie Groups andLie Algebras. London Mathematical Society. Student Texts, 32. CambridgeUniversity Press, Cambridge, 1995.

[6] Paul Moritz Cohn. Elements of Linear Algebra. Chapman & Hale, London,Glasgow, Weinheim, New York, Tokyo, Melbourne, Madras, 1994.

[7] Paul Moritz Cohn. Algebra I, II, III. Second Edition. John Wiley & Sons,Chichester, New York, Brisbane, Toronto, Singapore, 1993, 1995, 1991.

[8] Morton L. Curtis. Matrix Groups. Universitext. Springer, New York, Hei-delberg, Berlin, 1979.

[9] Roberto Cipolla, Peter Giblin. Visual Motion of Curves and Surfaces. Cam-bridge University Press. Cambridge, 2000. Digitally Printed Version 2009.

[10] Charles A. Desoer. Notes for a Second Course on Linear Systems. Van No-strand Reinhold Company, New York, Cincinnati, Toronto, London, Mel-bourne, 1970.

[11] P. K. Draxl. Skew Fields. London Mathematical Society. Lecture Note Se-ries, 81. Cambridge University Press, Cambridge, 1983. Digitally PrintedVersion 2007.

[12] Harry Dym. Linear Algebra in Action. Graduate Studies in Mathematics,Volume 78. American Mathematical Society, Providence, Rhode Island,2007.

[13] Heinz Eltermann. Grundlagen der praktischen Matrizenrechnung. Hoch-schultaschenbucher fur den Ingenieur, Band 434∗. Bibliographisches Insti-tut, Mannheim, Wien, Zurich, 1969.

[14] D. K. Faddeev, V. N. Faddeeva. Computational Methods of Linear Algebra.W. H. Freeman and Company. San Francisc, London, 1963

[15] Gerd Fischer. Lineare Algebra. Zehnte Auflage. Vieweg Studium. Grund-kurs Mathematik, Band 17. Vieweg, Braunschweig, Wiesbaden, 1995.

261

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 262: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

[16] Felix R. Gantmacher. The Theory of Matrices. Volume 1 and 2. AMS Chel-sea Publishing, 1959. Second AMS printing 2000. American MathematicalSociety, Providence, Rhode Island, 2000.

[17] Gene H. Golub, Charles F. van Loan. Matrix Computations. North OxfordAcademic Publishers, London, 1986.

[18] Wolfgang Grobner. Matrizenrechnung. BI Hochschultaschenbuch, Band103/103a. Bibliographisches Institut, Mannheim, 1966.

[19] Werner Greub. Linear Algebra. Fourth Edition. Graduate Texts in Mathe-matics, Band 23. Springer-Verlag, New York, 1995.

[20] Richard Hartley, Andrew Zisserman. Multiple View Geometry in ComputerVision. Second Edition. Eighth Printing, 2010. Cambridge University Press,Cambridge.

[21] Morris W. Hirsch, Stephen Smale. Differential Equations, Dynamical Sy-stems, and Linear Algebra. Pure and Applied Mathematics. A Series ofMonographs and Textbooks. Volume 60. Academic Press, New York, SanFrancisco, London, 1974.

[22] Gerhard Janssen. Lineare Algebra und analytische Geometrie. Vorlesungs-mitschrift und Aufgaben von WM, Wintersemester 1997/98 und Sommer-semester 1998. Technische Universitat Braunschweig.

[23] Nathan Jacobson. Basis Algebra I, II. Second Edition. W. H. Freeman andCompany, New York, 1985, 1989.

[24] Max Koecher. Lineare Algebra und analytische Geometrie. Zweite Auflage.Grundwissen Mathematik, Band 2. Springer, Berlin, Heidelberg, New York,Tokyo, 1985.

[25] Gerhard Kowalewski. Einfuhrung in die Determinantentheorie einschließ-lich der unendlichen und der Fredholmschen Determinanten. AMS Chel-sea Publishing. American Mathematical Society. Providence, Rhode Island,1945.

[26] Hans-Joachim Kowalsky. Lineare Algebra. 9. Auflage. de Gruyter Lehrbuch.Walter de Gruyter, Berlin, New York, 1979.

[27] Hans-Joachim Kowalsky, Gerhard O. Michler, Lineare Algebra. 11. Auflage.de Gruyter Lehrbuch. Walter de Gruyter, Berlin, New York, 1998.

[28] Jack B. Kuipers. Quaternions and Rotation Series Sequences: A Primerwith Apllications to Orbits, Aerospace, and Virtual Reality. Princeton Uni-versity Press, Princeton, 2002.

[29] Serge Lang. Linear Algebra. Third Edition. Undergraduate Texts in Ma-themathics. Springer-Verlag, New York, 1997.

[30] Serge Lang. Algebra. Graduate Texts in Mathematics, Volume 211. Thirdrevisted Edition 2002. Corrected Fourth Printing Edition 2005. Springer,New York.

262

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014

Page 263: Lineare Algebra für Studierende der Informatik und ... · Lineare Algebra fur Studierende der Informatik und Wirtschaftsinformatik Wolfgang Marten Technische Universit at Braunschweig

[31] Peter D. Lax. Linear Algebra and its Applications. A Wiley-IntersciencePublication. John Wiley & Sons, New York, Chichester, Brisbane, Toronto,Singapore, Weinheim, 1997.

[32] Katsumi Nomizu. Fundamentals of Linear Algebra. McGraw-Hill BookCompany. New York, London, Sidney, 1966

[33] Princeton Companion to Mathematics. Edited by Timothy Gowors, JuneBarrow-Green, Imre Leader. Princeton University Press, Princeton, 2008.

[34] Simon Scott. Traces and Determinants of Elliptic Pseudodifferentialopera-tors. Oxford Mathematical Monographs. Oxford University Press, Oxford.2010.

[35] Emanuel Sperner. Einfuhrung in die Analytische Geometrie und Algebra.Teil 1, Teil 2. Funfte Auflage. Studia Mathematica. Mathematische Lehr-bucher. Vandenhoek & Ruprecht, Gottingen, 1961, 1963.

[36] Gilbert W. Stewart. Matrix Algorithms. Volume I: Basic Decompositions.SIAM, Philadelphia, 1998.

[37] Gilbert W. Stewart. Matrix Algorithms. Volume II: Eigensystems. SIAM,Philadelphia, 2001.

[38] Uwe Storch, Hartmut Wiebe. Lehrbuch der Mathematik. Band II. LineareAlgebra. BI-Wissenschaftsverlag, Mannheim, Wien, Zurich, 1990.

[39] Norbert Straumann. Klassische Mechanik. Lecture Notes in Physics, Vol.289. Springer-Verlag, Berlin, Heidelberg, New York, 1987.

[40] Gilbert Strang, Kai Borre. Linear Algebra, Geodesy, and GPS. Wellesley-Cambridge Press, Wellesley, 1997.

[41] Lloyd N. Trefethen, David Bau III. Numerical Linear Algebra. SIAM, Phil-adelphia, 1997.

[42] Lloyd N. Trefethen, Mark Embree. Spectra and Pseudospectra: The Beha-vior of Nonnormal Matrices and Operators. Princeton University Press,Princeton, 2005.

Braunschweig, 21. Oktober 2014 WM

263

http://www.digibib.tu-bs.de/?docid=00057924 30/10/2014