ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT … · ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT SKALARPRODUKT 5...

23
ABBILDUNGEN ZWISCHEN VEKTORR ¨ AUMEN MIT SKALARPRODUKT G.FELDER, LINEARE ALGEBRA II, FS 2013 27.03.2013 Inhaltsverzeichnis 1. Selbstadjungierte Abbildungen 1 1.1. Adjungierte Abbildungen 1 1.2. Spektralsatz f¨ ur selbstadjungierte Abbildungen 3 1.3. Min-Max-Prinzip 6 ¨ Ubungen 8 2. Normale Selbstabbildungen 8 2.1. Spektralsatz f¨ ur normale Selbstabbildungen 8 2.2. Spektralsatz f¨ ur unit¨ are Abbildungen 10 2.3. Normalform f¨ ur reelle normale Selbstabbildungen 11 2.4. Orthogonale und schiefsymmetrische Matrizen 13 ¨ Ubungen 14 3. Positiv definite Selbstabbildungen 14 3.1. Positiv (semi)definite Selbsabbildungen und Matrizen 14 3.2. Positiv definite Abbildungen und Skalarprodukte 16 3.3. Cholesky-Zerlegung 16 ¨ Ubungen 17 4. Singul¨ arwertzerlegung 18 4.1. Singul¨ arwerte und Singul¨ arvektoren 18 4.2. Geometrische Interpretation 21 4.3. Kleinste Quadrate 21 ¨ Ubungen 22 1. Selbstadjungierte Abbildungen 1.1. Adjungierte Abbildungen. Seien V,W euklidische oder unit¨ are Vektorr¨ aume mit Skalarprodukten h , i V , h , i W . Sei f Hom(V,W ) eine lineare Abbildung V W . Eine Abbildung f * : W V heisst zu f adjungiert falls hf (v),wi W = hv,f * (w)i V , ur alle v V und alle w W . 1

Transcript of ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT … · ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT SKALARPRODUKT 5...

ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MITSKALARPRODUKT

G.FELDER, LINEARE ALGEBRA II, FS 2013

27.03.2013

Inhaltsverzeichnis

1. Selbstadjungierte Abbildungen 11.1. Adjungierte Abbildungen 11.2. Spektralsatz fur selbstadjungierte Abbildungen 31.3. Min-Max-Prinzip 6Ubungen 82. Normale Selbstabbildungen 82.1. Spektralsatz fur normale Selbstabbildungen 82.2. Spektralsatz fur unitare Abbildungen 102.3. Normalform fur reelle normale Selbstabbildungen 112.4. Orthogonale und schiefsymmetrische Matrizen 13Ubungen 143. Positiv definite Selbstabbildungen 143.1. Positiv (semi)definite Selbsabbildungen und Matrizen 143.2. Positiv definite Abbildungen und Skalarprodukte 163.3. Cholesky-Zerlegung 16Ubungen 174. Singularwertzerlegung 184.1. Singularwerte und Singularvektoren 184.2. Geometrische Interpretation 214.3. Kleinste Quadrate 21Ubungen 22

1. Selbstadjungierte Abbildungen

1.1. Adjungierte Abbildungen. Seien V,W euklidische oder unitareVektorraume mit Skalarprodukten 〈 , 〉V , 〈 , 〉W . Sei f ∈ Hom(V,W )eine lineare Abbildung V → W . Eine Abbildung f ∗ : W → V heisst zuf adjungiert falls

〈f(v), w〉W = 〈v, f ∗(w)〉V , fur alle v ∈ V und alle w ∈ W .1

2 G.FELDER, LINEARE ALGEBRA II, FS 2013

Bemerkung 1.1. Wegen der Symmetrie/Hermitesche Eigenschaft vonSkalarprodukten ist diese Bedingung zu 〈w, f(v)〉W = 〈f ∗(w), v〉V aqui-valent.

Lemma 1.2. Sei V endlichdimensional. Dann existiert zu jeder linea-ren Abblidung f : V → W genau eine adjungierte Abbildung f ∗ : W →V .

Beweis. Eindeutigkeit: Wenn g1, g2 beide adjungiert zu f sind, dannfolgt aus der Additivitat des Skalarprodukts, dass 〈v, g1(w)−g2(w)〉V =0, fur alle v ∈ V,w ∈ W . Also g1(w) − g2(w) = 0 fur alle w ∈ W , sodass g1 = g2.

Existenz: Sei (u1, . . . , un) eine Orthonormalbasis von V . Es genugt,eine Abbildung f ∗ zu produzieren, die

〈ui, f ∗(w)〉V = 〈f(ui), w〉W

fur alle w ∈ W und i = 1, . . . , n erfullt. Es ist leicht zu verifizieren,dass

f ∗(w) =n∑i=1

〈f(ui), w〉W ui

diese Bedingung erfullt. �

Bemerkung 1.3. Die Eindeutigkeit gilt auch im unendlichdimensiona-len Fall, mit demselben Beweis, nicht aber die allgemeine Existenz, S.Ubung.

Die adjungierte Matrix einer m × n Matrix A mit komplexen Ein-tragen aij ist die n × m Matrix A∗ = (bij mit bij = aji. Fur reelleMatrizen ist die adjungierte Matrix von A die transponierte MatrixA∗ = AT . Zur einheitlichen Behandlung des reellen und komplexenFall nennen wir sie ebenfalls adjungiert.

Lemma 1.4. Seien V,W endlichdimensional mit OrthonormalbasenBV , BW . Die Matrix von f ∗ bezuglich der Basen BW , BV ist die zurMatrix von f bezuglich BV , BW adjungierte Matrix.

Beweis. Sei BV = (u1, . . . , un), BW = (u1, . . . , um). Die Matrix A =(aij) von f ist durch

f(uj) =m∑i=1

aijui

ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT SKALARPRODUKT 3

definiert. Da BW orthonormal ist, gilt also aij = 〈f(uj), ui〉W . Ander-seits sind die Eintrage bij der Matrix B von f ∗

bij = 〈f ∗(uj), ui〉V= 〈ui, f ∗(uj)〉V= 〈f(ui), uj〉W= aji

Nimmt man V = Kn, W = Km mit Standardbasen, so folgt die Uber-einstimmung der zwei Bedeutungen von “adjungiert” bei Matrizen.

Korollar 1.5. Sei A ∈ M(m,n;K) eine m× n Matrix mit Eintragenin K = R oder C. Dann ist y 7→ A∗y die zu x 7→ Ax adjungierteAbbildung bezuglich der Standardskalarprodukten auf Kn, Km.

Folgende Eigenschaften fur Abbildungen f, g zwischen endlichdimen-sionalen euklidischen oder unitaren Vektorraumen gelten (Ubung):

(i) (f ∗)∗ = f , f ∈ Hom(V,W )(ii) (λf + µg)∗ = λf ∗ + µg∗, f, g ∈ Hom(V,W ), λ, µ ∈ K.(iii) (f ◦ g)∗ = g∗ ◦ f ∗, f ∈ Hom(V,W ), g ∈ Hom(U, V ).

(iv) det(f ∗) = det(f), f ∈ End(V ).

1.2. Spektralsatz fur selbstadjungierte Abbildungen. Sei V einendlichdimensionaler reeller oder komplexer Vektorraum mit Skalar-produkt 〈 , 〉.

Definition 1.6. f ∈ End(V ) heisst selbstadjungiert falls f = f ∗

f ist also genau dann selbstadjungiert wenn die Matrix A = (aij)von f bezuglich einer beliebigen Orthonormalbasis von V Hermitesch(K = C) bzw. symmetrisch (K = R) ist:

aij = aji

Lemma 1.7. Alle Eigenwerte einer selbstadjungierten Abbildung einesunitaren Vektorraums sind reell.

Beweis. Fur jeden Eigenvektor v zum Eigenwert λ gilt:

λ〈v, v〉 = 〈λv, v〉 = 〈f(v), v〉 = 〈v, f(v)〉 = 〈v, λv〉 = λ〈v, v〉.Die Behauptung folgt da v 6= 0 also 〈v, v〉 6= 0. �

Lemma 1.8. Eigenvektoren einer selbstadjungierten Abbildung zu ver-schiedenen Eigenwerten stehen aufeinander senkrecht.

4 G.FELDER, LINEARE ALGEBRA II, FS 2013

Beweis. Seien v, w Eigenvektoren zu Eigenwerten λ 6= µ. Also giltf(v) = λv, f(w) = µw. Es folgt

λ〈v, w〉 = 〈f(v), w〉= 〈v, f(w)〉= 〈v, µw〉= µ〈v, w〉,

wobei wir im letzen Schritt Lemma 1.7 verwendet haben. Es folgt, dass

(λ− µ)〈v, w〉 = 0

und, da λ 6= µ, 〈v, w〉 = 0. �

Satz 1.9. (Spektralsatz) Sei f ∈ End(V ) selbstadjungiert, dimV <∞.Dann ist f diagonalisierbar mit einer Orthonormalbasis von Eigenvek-toren.

Beweis. Induktion in n = dimV . Fur n = 0 ist nichts zu beweisen: Dieleere Familie () ist eine Orthonormalbasis von {0}.

Fur den Induktionsschritt benotigen wir das

Lemma 1.10. Jede selbstadjungierte Selbstabbildung eines endlichdi-mensionalen euklidischen oder unitaren Vektorraums positiver Dimen-sion hat einen Eigenvektor.

Beweis. Wir mussen zeigen dass das charakteristische Polynom eineNullstelle in K hat. Wenn K = C folgt das aus dem Fundamentalsatzder Algebra. Wenn K = R bemerken wir dass das charakteristischePolynom von f ist das charakteristische Polynom χA(t) = det(tIn−A)der symmetrischen Matrix A von f bezuglich einer Orthonormalbasis.Wenn wir A als komplexe Hermitesche Matrix auffassen, dann ist jedekomplexe Nullstelle von χA(t) Eigenwert der selbstadjungierten Ab-bildung z 7→ Az auf Cn. Nach Lemma 1.7 sind also diese Eigenwertereell. �

Wir nehmen also an, der Satz sei fur alle unitaren und euklidischenVektorraumen der Dimension ≤ n−1 bewiesen. Sei f ∈ End(V ) selbst-adjungiert, mit dimV = n. Nach Lemma 1.10 hat f einen Eigenwertλ, der nach Lemma 1.7 reell ist. Seien v ein Eigenvektor zu λ undU = span v der von v erzeugte Unterraum. Dann hat der orthogonaleKomplement U⊥ = {w ∈ V | 〈w, v〉 = 0} Dimension n − 1. Zudem istf(U⊥) ⊂ U⊥, denn, fur alle w ∈ U⊥,

〈f(w), v〉 = 〈w, f(v)〉 = λ〈w, v〉 = 0.

ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT SKALARPRODUKT 5

Also ist die Einschrankung f |U⊥ von f auf U⊥ eine Selbstabbildung vonU⊥, die bezuglich der Einschrankung des Skalarprodukts selbstadjun-giert ist. Nach Induktionsannahme hat also U⊥ eine Orthonormalbasis(u1, . . . , un−1) von Eigenvektoren von f . Da v auf diesen Vektoren senk-recht steht, ist

(u1, . . . , un−1,1

‖v‖v)

eine Orthonormalbasis von Eigenvektoren. Der Induktionsschritt istsomit vollendet. �

Bemerkung 1.11. Der Name des Satzes leitet sich vom Spektrum her,der Menge der Eigenwerte einer linearen Selbsabbildung.

Beispiel 1.

A =

(0 i−i 0

)∈M(2, 2;C).

A = A∗ also ist x 7→ Ax selbstadjungiert auf C2 mit dem Standardska-larprodukt. Das charakteristische Polynom ist

χA(t) = t2 − 1,

mit Nullstellen λ1,2 = ±1. Die Eigenraume sind

E1(A) = Ker

(1 −ii 1

)= C

(i1

),

E−1(A) = Ker

(−1 −ii −1

)= C

(−i1

).

Die Eigenvektoren(i1

),(−i

1

)sind orthogonal und haben Norm

√2. Also

bilden1√2

(i1

),

1√2

(−i1

),

eine aus Eigenvektoren von A bestehende Orthonormalbasis.

Korollar 1.12. Sei A eine Hermitesche n × n Matrix. Dann gibt eseine unitare n× n Matrix U , so dass

A = UDU∗

wobei D eine reelle Diagonalmatrix ist.

Beweis. Ist allgemein A eine diagonalisierbare Matrix und U die Matrixderen Spalten eine Basis aus Eigenvektoren bilden, so gilt A = UDU−1,wobei D die Diagonalmatrix mit den Eigenwerten in der Diagonale. Inunserem Fall wahlen wir eine Orthonormalbasis von Eigenvektoren sodass U unitar ist, also U−1 = U∗. �

6 G.FELDER, LINEARE ALGEBRA II, FS 2013

1.3. Min-Max-Prinzip. Der Rayleigh-Quotient einer selbstadjungier-ten Abbildung f ∈ End(V ) ist die Funktion V r {0} → R

rf : v 7→ 〈f(v), v〉〈v, v〉

Da f selbstadjungiert ist, ist der Zahler reell:

〈f(v), v〉 = 〈v, f(v)〉 = 〈f(v), v〉.

Also ist rf (v) ∈ R. Ausserdem gilt rf (λv) = rf (v) fur alle λ ∈ K.

Satz 1.13. Sei λ1 der grosste Eigenwert einer selbstadjungierten Ab-bildung f ∈ End(V ) eines n-dimensionalen Vektorraums V . Dann gilt1

λ1 = maxv∈V r{0}〈f(v), v〉〈v, v〉

= max‖v‖=1〈f(v), v〉.

Das Maximum wird fur die Eigenvektoren zum Eigenwert v angenom-men.

Beweis. Sei (u1, . . . , un) eine Orthonormalbasis von Eigenvektoren vonf zu den Eigenwerten λ1, . . . , λn und v =

∑xiui mit xi ∈ K. Dann ist

〈f(v), v〉 =∑n

i=1 λi|xi|2 und, da λi ≤ λ1,

rf (v) =

∑i λi|xi|2∑i |xi|2

≤∑

i λ1|xi|2∑i |xi|2

= λ1

also ist rf (v) ≤ λ1 fur alle v 6= 0 also auch fur alle v mit Norm 1. FurEigenvektoren v zum Eigenwert λ1 gilt:

rf (v) =〈λ1v, v〉〈v, v〉

= λ1

also ist das Maximum genau fur diese Eigenvektoren angenommen.Darunter haben wir auch solche mit Norm 1 so dass auch die zweiteVariante, mit dem Maximum uber die Vektoren der Norm 1, gilt. �

Verwendet man diesen Satz fur −f , so erhalt man fur den kleinstenEigenwert λn von f :

λn = minv∈V r{0}〈f(v), v〉〈v, v〉

= min‖v‖=1〈f(v), v〉.

Der Spezialfall von V = Kn mit Standardskalarprodukt 〈x, y〉 =∑i xiyi = y∗x gibt die Version von Satz 1.13 fur Matrizen.

1maxE F (v) ist das Maximum der Menge {F (v) | v hat die Eigenschaft E}

ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT SKALARPRODUKT 7

Satz 1.14. Sei A = A∗ ∈ M(n, n;K), K = C oder R. Dann gilt furden grossten Eigenwert λ1:

λ1 = maxx 6=0

x∗Ax

x∗x= max‖x‖=1

x∗Ax

Das Maximum wird fur Eigenvektoren zum Eigenwert λ1 angenommen.

Dieser Satz hat folgende Verallgemeinerung, die eine ahnliche Cha-rakterisierung der restlichen Eigenwerte gibt.

Satz 1.15. (Courant-Min-Max-Prinzip) Sei f ∈ End(V ) selbstadjun-giert mit charakteristischem Polynom χg(t) =

∏ni=1(t− λi) und Eigen-

werten λ1 ≥ · · · ≥ λn. Dann gilt

λj = minW⊂V,dimW=n−j+1

(max

v∈Wr{0}

〈f(v), v〉〈v, v〉

).

Beweis. Zuerst zeigen wir, dass das Maximum in der Klammer fur jedenW angenommen wird. Wahlt man eine Orthonormalbasis B von V sodass die ersten n− j + 1 Basisvektoren eine Basis von W bilden (einesolche Basis existiert nach Gram–Schmidt), so ist die Matrix A vonf bezuglich B selbstadjungiert und der Rayleighquotient fur v ∈ Wist der Rayleighquotient der selbstadjungierten Untermatrix (ars), 1 ≤r, s ≤ n− j+ 1. Also wird nach Satz 1.13 das Maximum angenommen.

Um eine obere Schranke fur λj zu erhalten, zeigen wir dass jederW ⊂ V der Dimension n− j + 1 einen Vektor der Form

v0 =

j∑i=1

xiui 6= 0, x1, . . . , xj ∈ K,

enthalt, wobei (u1, . . . , uj, . . . , un) eine Orthonormalbasis von Eigen-vektoren zu den Eigenwerten λ1 ≥ · · · ≥ λn ist. Ein solcher Vektorliegt in W ∩ Vj mit Vj = span(u1, . . . , uj). Da dim(W ) = n− j + 1 unddim(V ) = j ist W ∩ Vj die Losungsmenge eines homogenen Systemsvon

(j − 1) + (n− j) = n− 1

linearen Gleichungen. Da n − 1 < n hat das System eine nichttrivialeLosung v0. Fur jeden W der geforderten Dimension haben wir also dieUngleichung

(1) maxv∈Wr{0}〈f(v), v〉〈v, v〉

≥ 〈f(v0), v0〉〈v0, v0〉

=

∑ji=1 λi|xi|2∑ji=1 |xi|2

≥ λj,

wobei im letzten Schritt verwendet wurde, dass λi ≥ λj fur i = 1, . . . j.Also ist das Infimum der linken Seite von (1) uber alle (n − j + 1)-dimensionalen W ⊂ V grosser oder gleich λj. Anderseits, fur W =

8 G.FELDER, LINEARE ALGEBRA II, FS 2013

W0 = span(uj, . . . , un) gilt:

maxv∈W0r{0}

〈f(v), v〉〈v, v〉

= maxx 6=0

∑ni=j λi|xi|2∑ni=j |xi|2

= λj,

also wird das Minimum fur W = W0 angenommen und ist gleich λj. �

Ubungen.

(1) Sei V der Vektorraum aller Folgen (xi)i∈Z>0 reeller Zahlen mitendlich vielen nicht verschwindenden Gliedern xi.(a) Zeigen Sie, dass 〈x, y〉 =

∑∞i=1 xiyi ein Skalarprodukt defi-

niert.(b) Sei W = R mit dem Standardskalarprodukt. Dann gibt es

zur Additionsabbildung f : V → W , x 7→∑∞

i=1 xi keineadjungierte Abbildung.

(2) Verifizieren Sie die Eigenschaften (i)–(iv) von adjungierten Ab-bildungen.

(3) Sei

A =

500 1 1 11 1 1 11 1 1 01 1 0 0

.

Ohne das charakteristische Polynom auszurechnen, zeigen Sie:(a) Der grosste Eigenwert λ1 von A erfullt

500 ≤ λ1 ≤ 512.

(b) Der zweitgrosste Eigenwert λ2 ist ≤ 6. (Verwenden Siedas Courant min-max-Prinzip und betrachten Sie die Ein-schrankung des Rayleigh-Quotients auf dem Unterraum{0} × R3).

(c) A hat einen negativen Eigenwert (Betrachten Sie den Vek-tor v = (0, 1, 0,−1)T ).

2. Normale Selbstabbildungen

2.1. Spektralsatz fur normale Selbstabbildungen. Sei V ein end-lichdimensionaler unitarer Vektorraum.

Definition 2.1. f ∈ End(V ) heisst normal wenn f ◦ f ∗ = f ∗ ◦ f . EineMatrix A ∈M(n, n;C) heisst normal wenn AA∗ = A∗A.

Es ist klar, dass selbstadjungierte Abbildungen normal sind. Diago-nalmatrizen sind normal.

ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT SKALARPRODUKT 9

Lemma 2.2. f ∈ End(V ) ist genau dann normal, wenn es selbstad-jungierte Abbildungen f1, f2 ∈ End(V ) gibt, so dass

f = f1 + if2, f1 ◦ f2 = f2 ◦ f1.

Beweis. Sind f1, f2 selbstadjungiert mit f1 ◦ f2 = f2 ◦ f1 und setzt manf = f1 + if2 so gilt f ∗ = f ∗1 − if ∗2 = f1 − if2 und

f1 ◦ f = f1 ◦ f1 + if1 ◦ f2 = f1 ◦ f1 + if1 ◦ f2 = f ◦ f1.

Analog gilt f2 ◦ f = f ◦ f2 und also f ∗ ◦ f = f ∗ ◦ f . Umgekehrt: Ist feine normale Abbildung, so sind

f1 =1

2(f + f ∗), f2 =

1

2i(f − f ∗)

selbstadjungiert, und f = f1 + if2. Aus f ◦ f ∗ = f ∗ ◦ f folgt, dassf1 ◦ f2 = f2 ◦ f1. �

Lemma 2.3. Gilt f1 ◦f2 = f2 ◦f1 fur zwei Selbsabbildungen eines Vek-torraums V , so gilt f1(Eλ(f2)) ⊂ Eλ(f2)) fur jeden Eigenraum Eλ(f2)von f2.

Beweis. Wenn v ∈ Eλ(f2) also wenn f2(v) = λv, dann

f2(f1(v)) = f1(f2(v)) = f1(λv) = λf1(v),

also f1(v) ∈ Eλ(f2). �

Satz 2.4. (Spektralsatz fur normale Selbstabbildungen)Sei V ein endlichdimensionaler unitarer Vektorraum. Eine Selbstab-

bildung f ∈ End(V ) ist genau dann normal wenn V eine Orthonormal-basis von Eigenvektoren von f besitzt.

Beweis. Sei f normal und f1, f2 wie im Lemma 2.2. Nach dem Spek-tralsatz fur die selbstadjungierte Abbildung f2 ist V = Eλ1(f2)⊕ · · · ⊕Eλr(f2), mit reellen Eigenwerten λj, und Eigenraume zu verschiedenenEigenwerten stehen senkrecht aufeinander. Nach Lemma 2.3 definiertfur jeden Eigenvektor λi die Einschrankung von f1 eine selbstadjungier-te Selbstabbildung von Eλi(f2). Also, wieder nach dem Spektralsatz,hat Eλi(f2) eine Orthonormalbasis von Eigenvektoren von f1. Nimmtman alle so erhaltene Basisvektoren, erhalt man eine Orthonormalbasis(u1, . . . , un) von V , die aus Eigenvektoren fur beide f1, f2 sind:

f1(uj) = ajuj, f2(uj) = bjuj, aj, bj ∈ R, j = 1, . . . , n.

Es folgt: f(uj) = (aj + ibj)uj fur alle j. Also besteht die Basis ausEigenvektoren von f .

10 G.FELDER, LINEARE ALGEBRA II, FS 2013

Es habe umgekehrt f eine Orthonormalbasis von Eigenvektoren.Dann sind die Darstellungsmatrizen D,D∗ von f und f ∗ bezuglichdieser Basis Diagonalmatrizen

D =

λ1

. . .λn

, D∗ =

λ1

. . .

λn

.

Es folgt: DD∗ = D∗D also f ◦ f ∗ = f ∗ ◦ f . �

Ist V = Cn mit Standardskalarprodukt, so erhalt man die Versiondes Satzes fur normale Matrizen:

Korollar 2.5. Ist A ∈M(n, n;C) eine normale Matrix so gibt es eineunitare Matrix U und komplexe Zahlen λ1, . . . , λn, so dass

A = U

λ1

. . .λn

U∗.

Die λi sind die Eigenwerte und U hat als Spalten eine Orthonormal-basis von zugehorigen Eigenvektoren.

2.2. Spektralsatz fur unitare Abbildungen. Die unitaren Abbil-dungen sind ein wichtiger Spezialfall von normalen Matrizen: f ∈End(V ) heisst unitar wenn 〈f(v), f(w)〉 = 〈v, w〉 fur alle v, w ∈ Valso wenn f ∗ ◦ f = id. Unitare Abbildungen sind invertierbar da sieinjektiv sind: Ist f(v) = 0 so ist 0 = 〈f(v), f(v)〉 = 〈v, v〉 also v = 0.Also gilt auch f ◦ f ∗ = id, insbesondere f ◦ f ∗ = f ∗ ◦ f und die Matrixeiner unitaren Abbildung bezuglich einer beliebigen Orthonormalbasisist unitar.

Aus Satz 2.4 folgt:

Korollar 2.6. (Spektralsatz fur unitare Abbildungen) Unitare Abbil-dungen sind diagonalisierbar mit einer orthohormierten Basis von Ei-genvektoren. Die Eigenwerte haben Betrag 1.

Nur die letzte Aussage ist noch zu beweisen: Sei v ein Eigenvektorzum Eigenwert λ ∈ C. Dann ist

〈v, v〉 = 〈f(v), f(v)〉 = 〈λv, λv〉 = λλ〈v, v〉 = |λ|2〈v, v〉.

Da v 6= 0, folgt |λ|2 = 1. Die Version fur unitare Matrizen ist:

ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT SKALARPRODUKT 11

Korollar 2.7. Zu jeder unitaren n × n Matrix U gibt es eine unitareMatrix V und reelle Zahlen θ1, . . . , θn, so dass

U = V

eiθ1

. . .

eiθn

V ∗

Die Matrix V hat als Spalten eine Orthonormalbasis von Eigenvek-toren zu den Eigenwerten eiθ1 , . . . , eiθn .

2.3. Normalform fur reelle normale Selbstabbildungen. Sei Vein endlichdimensionaler reeller Vektorraum mit Skalarprodukt 〈 , 〉(ein euklidischer Vektorraum). Im reellen Fall ist f genau dann dia-gonalisierbar mit einer Orthonormalbasis von Eigenvektoren wenn fselbsadjungiert ist. Hat namlich V eine Orthonormalbasis von Eigen-vektoren von f , so ist die Darstellungsmatrix D von f bezuglich dieserBasis diagonal; also gilt D = D∗ und f ist selbstadjungiert.

Reelle normalen Abbildungen, zu denen die orthogonalen Abbildun-gen gehoren, sind im Allgemeinen nicht diagonalisierbar, aber ihre Dar-stellungsmatrix kann bezuglich einer geeigneten Orthonormalbasis ineine einfache Form gebracht werden.

Satz 2.8. Sei V ein eindlichdimensionaler euklidischer Vektorraum,f ∈ End(V ) sei normal, d.h. f ∗ ◦ f = f ◦ f ∗. Dann gibt es eine Or-thonormalbasis B von V und reelle Zahlen a1, b1, . . . , ar, br, c1, . . . , csmit 2r + s = n, so dass die Darstellungsmatrix von f bezuglich B dieKastchenform

a1 −b1

b1 a1

. . .ar −brbr ar

c1

. . .cs

hat. Dabei sind a1±ib1, . . . , ar±ibr, c1, . . . , cs die komplexen Nullstellendes charakteristischen Polynoms von f .

Beweis. Durch die Wahl einer Orthonormalbasis konnen wir annehmendass V = Rn mit Standard-Skalarprodukt und f durch eine eine reellenormale Matrix A gegeben ist:

AAT = ATA

12 G.FELDER, LINEARE ALGEBRA II, FS 2013

Komplexe Nullstellen von Polynomen mit reellen Koeffizienten sindentweder reell oder kommen in Paaren komplex konjugierter Zahlenvor. Nach dem Fundamentalsatz der Algebra hat also das charakteri-stische Polynom von A eine Faktorzerlegung

χA(t) =r∏j=1

(t− λj)(t− λj)s∏j=1

(t− cj) =r∏j=1

((t− aj)2 + b2j)

s∏j=1

(t− cj)

mit cj ∈ R, λj = aj + ibj, bj 6= 0 und 2r + s = n. Betrachten man Aals komplexe normale Matrix so ist A uber C diagonalisierbar mit auf-einander senkrecht stehenden Eigenraumen Eλj , Eλj , Ecj . Die komplexe

Konjugation C : z 7→ z = (z1, . . . , zn)T auf Cn bildet Eλj nach Eλj ab,

denn aus Az = λz folgt Az = λz fur eine reelle Matrix A. Zudem istC eine (R-lineare) bijektive Abbildung, mit inverser Abbildung C, die

〈C(z), C(w)〉 =n∑j=1

zjwj = 〈z, w〉

erfullt. Also bildet C eine beliebige Orthonormalbasis von Eλj auf eineOrthonormalbasis Eλj ab. Um eine Orthonormalbasis von Eigenvekto-ren zu konstruieren, genugt es also Orthonormalbasen von Eλj und Ecjzu wahlen. Die Basis von Eλj erhalt man dann durch komplexe Kon-jugation aus der Basis von Eλj . Es folgt dass A, als komplexe Matrixaufgefasst, eine Orthonormalbasis von Eigenvektoren der Form

(2) (u1, u1, . . . , ur, ur, v1, . . . , vs)

zu den (nicht notwendigerweise paarweise verschiedenen) Eigenwer-ten λ1, λ1, . . . , λr, λr, c1, . . . , cs besitzt. Die Eigenvektoren vj ∈ Ecj =Ker(cjIn − A) konnen reell gewahlt werden, die uj sind aber in Cn.

Aus dieser Basis konnen wir leicht eine reelle Orthonormalbasis pro-duzieren, indem wir Real- und Imaginarteil

Reuj =1

2(uj + uj), Imuj =

1

2i(uj − uj)

der komplexen Eigenvektoren uj = Reuj + iImuj nach passender Um-normierung bilden. Es ist leicht aus der Orthonormalitat von (2) zufolgern, dass

(√

2 Reu1,√

2 Imu1, . . .√

2 Reur,√

2 Imur, v1, . . . , vs)

eine Orthonormalbasis von Rn ist. Die Matrix von A bezuglich die-ser Basis erhalt man durch Vergleich von Real- und Imaginarteil der

ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT SKALARPRODUKT 13

Eigenwertgleichung

A (Reuj + iImuj) = (aj + ibj)(Reuj + iImuj),

AReuj = ajReuj − bjImuj,

A Imuj = bjReuj + ajImuj,

Avj = cjvj.

Aus diesen Gleichungen werden die Spalten der Darstellungsmatrixbezuglich B abgelesen. �

2.4. Orthogonale und schiefsymmetrische Matrizen. Orthogo-nalen Abbildungen f = (f ∗)−1 und anti-selbstadjungierten Abbildun-gen f = −f ∗ eines Euklidischen Vektorraums sind Spezialfalle von nor-malen Selbstabbildungen. Wir formulieren die Resultate in der Versionfur Matrizen.

Korollar 2.9. Sei O eine orthogonale n× n reelle Matrix: O−1 = OT .Dann gibt es eine orthogonale Matrix V und reelle Zahlen θ1, . . . , θr,so dass

O = V

cos θ1 − sin θ1

sin θ1 cos θ1

. . .cos θr − sin θrsin θr cos θr

c1

. . .cs

V T ,

wobei cj ∈ {1,−1} fur j = 1, . . . , s.

Dies ist eine ummittelbare Folgerung von Satz 2.8 und der Bemer-kung, dass A, als komplexe Matrix aufgefasst, unitar ist und deshalbEigenwerte mit Betrag 1 hat. Die reelle Nullstellen des charakteristi-schen Polynoms sind also cj = ±1 und die komplexen Nullstellen habendie Form λj, λj mit

λj = eiθj = cos θj + i sin θj.

Eine reelle n × n Matrix A heisstschiefsymmetrisch (oder anti-selbst-adjungiert) falls AT = −A.

Korollar 2.10. Sei A eine schiefsymmetrische n × n reelle Matrix.Dann gibt es eine orthogonale Matrix V und reelle Zahlen b1, . . . , br, so

14 G.FELDER, LINEARE ALGEBRA II, FS 2013

dass

A = V

0 −b1

b1 0. . .

0 −brbr 0

0. . .

0

V T .

In diesem Fall ist iA eine selbstadjungierte komplexe Matrix, diealso reelle Eigenwerte hat. Also sind die Nullstelle des charakteristi-schen polynom entweder 0 oder Paare von komplex konjugierter reinimaginarer Zahlen ±ib1, . . . ,±ibr.

Ubungen.

(1) Zeigen Sie: Ist A eine normale n × n Matrix, so auch a0In +a1A · · ·+ akA

k fur alle a0 . . . , ak ∈ C. Welches sind ihre Eigen-werte und Eigenvektoren?

(2) Zeigen Sie: Die n× n Matrix A = (aij) mit

aij =

{1 j ≡ i+ 1 mod n

0, sonst,

ist orthogonal. Bestimmen Sie θ1, . . . , θr ∈ R, c1, . . . , cs ∈ {±1}fur die Normalform von A.

(3) Jede orthogonale Matrix mit Determinante −1 hat einen Eigen-vektor zum Eigenwert −1.

(4) Ist n ungerade, so gibt es zu jeder n × n orthogonalen MatrixA mit Determinante 1 einen Vektor v 6= 0 mit Av = v.

3. Positiv definite Selbstabbildungen

Sei V ein endlichdimensionaler euklidischer oder unitarer Vektor-raum.

3.1. Positiv (semi)definite Selbsabbildungen und Matrizen.

Definition 3.1. Eine selbsadjungierte Abbildung f ∈ End(V ) heisstpositiv semidefinit falls 〈f(v), v〉 ≥ 0 fur alle v ∈ V . Sie heisst positivdefinit falls 〈f(v), v〉 > 0 fur alle v ∈ V r {0}.

Eine symmetrische oder Hermitesche n × n Matrix A heisst positiv(semi)definit falls die selbstadjungierte Abbildung x 7→ Ax, auf Cn

bzw. Rn, mit dem Standarskalarprodukt, positiv (semi)definit ist.

ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT SKALARPRODUKT 15

Eine selbstadjungierte Abbildung f heisst negativ (semi)definit falls−f positiv (semi)definit. Sie heisst (semi)definit falls sie positiv (se-mi)definit oder negativ (semi)definit ist.

Bemerkung 3.2. Wie wir bei der Diskussion des Rayleigh-Quotiens ge-sehen haben, ist 〈f(v), v〉 reell fur jede selbstadjungierte Abbildungf ∈ End(V ).

Bemerkung 3.3. Da das Standardskalarprodukt auf Cn oder Rn als〈x, y〉 = y∗x geschrieben werden kann, ist eine Matrix genau dannpositiv semidefinit bzw. positiv definit wenn

x∗Ax ≥ 0 bzw. x∗Ax > 0,

fur alle x 6= 0 (x∗ = xT im reellen Fall).

Bemerkung 3.4. Reelle positiv semidefinite Matrizen beschreiben daslokale Verhalten von glatten Funktionen in der Umgebung einer Mini-malstelle: Ist ϕ : U → R eine zweimal stetig differenzierbare Funktionin einer Umgebung U ⊂ Rn eines Punktes x0 so dass ϕ(x) ≥ ϕ(x0) furalle x ∈ U , so gilt (Siehe z.B. K. Konigsberger, Analysis II, Springer2004, Abschn. 2.4)

ϕ(x) = ϕ(x0) +1

2(x− x0)TA(x− x0) + o(|x− x0|2)

wobei die Matrix

A =

(∂2ϕ

∂xi∂xj(x0)

)der zweiten Ableitungen positiv semidefinit ist.

Lemma 3.5. Eine selbstadjungierte Abbildung f ∈ End(V ) ist genaudann positiv definit, wenn alle Eigenwerte von f positiv sind. Sie istgenau dann positiv semidefinit, wenn kein Eigenwert von f negativ ist.

Beweis. Nach Satz 1.13 fur −f folgt fur den minimalen Eigenwert

λmin = minv∈V r{0}〈f(v), v〉〈v, v〉

Also ist f genau dann positiv semidefinit wenn λmin ≥ 0. Wenn λmin > 0dann ist 〈f(v), v〉 ≥ λmin〈v, v〉 > 0 fur alle v 6= 0 also ist f positivdefinit. Wenn λmin = 0, dann ist f positiv semidefinit aber nicht definit,denn 〈f(v), v〉 = 0 fur die Eigenvektoren v zum Eigenwert 0. �

16 G.FELDER, LINEARE ALGEBRA II, FS 2013

3.2. Positiv definite Abbildungen und Skalarprodukte.

Satz 3.6. Sei f ∈ End(V ). Dann ist h : V × V → K,

h(v, w) = 〈f(v), w〉

genau dann ein Skalarprodukt auf V wenn f eine selbstadjungierte po-sitiv definite Abbildung ist. Zu jedem Skalarprodukt h auf V gibt eseine eindeutige positiv definite selbstadjungierte Abbildung f , so dassh(v, w) = 〈f(v), w〉, fur alle v, w ∈ V .

Beweis. Sei f positiv definit. Wir verifizieren die Axiome eines Ska-larprodukts fur h: (i) Aus der Linearitat von f und von 〈 , 〉 imersten Argument folgt: h(λv + w, u〉 = 〈f(λv + w), u〉 = 〈λf(v) +f(w), u〉 = λh(v, u)+h(w, u). (ii) Aus der Symmetrie/Hermiteschen Ei-

genschaft von 〈 , 〉 und der Selbstadjungiertheit von f folgt: h(v, w) =

〈f(v), w〉 = 〈w, f(v)〉 = 〈f(w), v〉 = h(w, v). (iii) h(v, v) > 0 fur allev 6= 0, da f positiv definit ist. Umgekehrt: Definiert h(v, w) = 〈f(v), w〉ein Skalarprodukt, so folgt aus (ii) dass f selbstadjungiert ist und aus(iii) dass sie positiv definit ist.

Um die zweite Aussage zu beweisen, bemerken wir dass ein Skalarpro-dukt h eindeutig durch seine Gram-Matrix A = (aij) mit aij = h(ui, uj)bezuglich einer beliebigen Basis B = (u1, . . . , un) bestimmt ist. Nimmtman eine fur 〈 , 〉 Orthonormalbasis, so erfullt die durch die MatrixAT definierte Abbildung

f(uj) =n∑i=1

ajiui

die geforderte Bedingung 〈f(v), w〉 = h(v, w) fur Basis Vektoren v =uj, w = uk und also, wegen der Linearitat, fur alle v, w. �

Es folgt die Formulierung fur Matrizen:

Korollar 3.7. Jede positiv definite Hermitesche/symmetrische n × nMatrix A definiert via

h(x, y) = y∗Ax

ein Skalarprodukt auf Kn. Jedes Skalarprodukt auf Kn ist eindeutig vondieser Form.

3.3. Cholesky-Zerlegung.

Satz 3.8. (Cholesky-Zerlegung) Sei A = A∗ positiv definit. Dann gibtes eine invertierbare obere Dreiecksmatrix C, so dass

A = C∗C.

ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT SKALARPRODUKT 17

Beweis. Das Gram–Schmidt-Verfahren ergibt aus der Standardbasis(e1, . . . , en) eine bezuglich des Skalarprodukts h(x, y) = y∗Ax Ortho-normalbasis (u1, . . . , un). Die fur den Beweis wesentliche Tatsache ist,dass (u1, . . . , uj) und (e1, . . . , ej) fur jedes j denselben Unterraum er-zeugen. Also gibt es eine invertierbare obere Dreiecksmarix C = (cij)(des Basiswechsels), so dass

ej =n∑k=1

ckjuk, mit ckj = 0, fur k > j.

Dann ist u∗jAuk = h(uk, uj) = δjk, also

ajk = e∗jAek =n∑

i,l=1

cijclku∗iAul =

n∑i=1

cijcik.

Die rechte Seite ist der (j, k)-Eintrag von C∗C. �

Bemerkung 3.9. Das Gram–Schmidt-Verfahren liefert eine Matrix Cmit positiven Eintragen in der Diagonale. Wir sehen in den Ubungdass mit dieser zusatzlichen Bedingung C eindeutig bestimmt ist.

Bemerkung 3.10. Die Cholesky-Zerlegung wird fur die numerische Lo-sung von Gleichungssystemen mit positiv definiter Koeffizientenmatrixangewendet. Man verwendet dabei, wie bei der LU-Zerlegung, dassDreiecksmatrizen schnell durch Ruckwarts- und Vorwartssubstitutioninvertiert werden konnen. Hat man die Cholesky-Zerlegung von A =C∗C, dann lasst sich das System

Ax = b

in zwei Schritten losen: y = (C∗)−1b, x = C−1y.

Ubungen.

(1) Eine Hermitesche 2 × 2 Matrix ist genau dann positiv definit,wenn ihre Determinante und ihre Spur positiv sind.

(2) Positiv definite Abbildungen sind invertierbar mit positiv defi-niter inverser Abbildung.

(3) Linearkombinationen von positiv definiten Selbstabbildungenvon V mit positiven Koeffizienten sind positiv definit (positivdefinite Selbstabbildungen bilden einen ,,Kegel”).

(4) Zeigen Sie: Ist eine n× n Matrix A positiv semidefinit, so auchBAB∗ fur jede n×n Matrix B. Fur welche Matrizen B gilt dieseAussage, wenn man ,,semidefinit” durch ,,definit” ersetzt?

(5) Sei A eine positiv definite komplexe Matrix. Zeigen Sie:

18 G.FELDER, LINEARE ALGEBRA II, FS 2013

(a) Ist A = C∗1C1 = C∗2C2 fur obere Dreiecksmatrizen C1, C2,so gibt es eine unitare Diagonalmatrix D so dass C1 =DC2.

(b) Es gibt genau eine obere Dreiecksmatrix C = (cij), so dassA = C∗C und cii > 0 fur alle i = 1, . . . , n.

(6) Bestimmen Sie die Cholesky-Zerlegung einer allgemeinen posi-

tiv definiten 2× 2 Hermiteschen Matrix

(α ββ γ

).

(7) (Polarzerlegung fur normale Matrizen) Zu jeder normale MatrixA ∈ M(n, n;C) gibt es eine selbstadjungierte positive MatrixR und eine unitare Matrix U so dass A = RU = UR. Ist Ainvertierbar, so sind R und U eindeutig bestimmt.

4. Singularwertzerlegung

Seien V,W endlichdimensionale Vektorraume uber K = C oder Rmit Skalarlprodukt 〈 , 〉V , bzw. 〈 , 〉W .

4.1. Singularwerte und Singularvektoren.

Lemma 4.1. Sei f ∈ Hom(V,W ). Dann sind f ∗ ◦ f ∈ End(V ) undf ∗ ◦ f ∈ End(W ) selbstadjungiert und positiv semidefinit.

Beweis. Da (f ∗ ◦f)∗ = f ∗ ◦f ∗∗ = f ∗ ◦f , ist f ∗ ◦f selbstadjungiert. Furalle v ∈ V gilt, wegen der Positivitatseigenschaft des Skalarprodukts,

〈f ∗ ◦ f(v), v〉V = 〈f(v), f(v)〉W ≥ 0.

Die entsprechenden Aussagen fur f ◦ f ∗ folgen durch Vertauschen derRollen von V mit W und f mit f ∗. �

Nach dem Spektralsatz sind also f ∗ ◦ f und f ◦ f ∗ diagonalisierbarmit reellen Eigenvektoren und Orthonormalbasen von Eigenvektoren.

Definition 4.2. Die Singularwerte von f ∈ Hom(V,W ) sind die Qua-dratwurzeln

√λi der positiven Eigenwerte von f ∗ ◦ f ∈ End(V ). Die

Singularwerte einer m × n reellen oder komplexen Matrix A sind dieQuadratwurzeln

√λi der positiven Eigenwerte von A∗A.

Beispiel 2. Sei A = diag(λ1, . . . , λr, 0, . . . , 0) eine Diagonalmatrix vonRang r mit komplexen Eintragen λj 6= 0 und 0. Dann ist A∗A =diag(λ1λ1, . . . , λrλr, 0, . . . , 0) und die Singularwerte sind |λ1|, . . . , |λr|.

Satz 4.3. Sei f ∈ Hom(V,W ). Dann gibt es Orthonormalbasen B =(u1, . . . , un) von V und B′ = (v1, . . . , vm) von W und eindeutige positive

ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT SKALARPRODUKT 19

Zahlen σ1 ≥ · · · ≥ σr > 0, so dass

(3) f(uj) =

{σjvj, j = 1, . . . , r,

0, j > r,

und

(4) f ∗(vj) =

{σjuj, j = 1, . . . , r,

0, j > r.

Die Zahlen σj sind die Singularwerte von f . Die Basis B besteht ausEigenvektoren von f ∗ ◦ f zu den Eigenwerten σ2

1, . . . , σ2r , 0, . . . , 0. Die

Basis B′ besteht aus Eigenvektoren von f ◦ f ∗ zu den Eigenwertenσ2

1, . . . , σ2r , 0, . . . , 0.

Beweis. (a) Wir beweisen zuerst die Eindeutigkeit der σj und die letz-ten Aussagen uber B,B′. Hat man Basen B,B′ die (3) und (4) erfullen,so ist es klar dass f ∗(f(uj)) = σ2

juj oder 0 und f(f ∗(vj)) = σ2j vj oder

0. Also sind die Zahlen σj also die nach ihrer Grosse geordneten Qua-dratwurzeln der positiven Eigenwerten von f ∗ ◦ f eindeutig bestimmt.

(b) Existenz der Basen. Nach dem Spektralsatz fur selbstadjiungier-te Abbildungen hat V eine Orthonormalbasis B = (u1, . . . , un) vonEigenvektoren von f ∗ ◦ f . Wir ordnen die Eigenvektoren so dass diezugehorigen Eigenwerte λ1 ≥ · · · ≥ λr > 0 und λr+1 = · · · = λn = 0.Die Singularwerte sind also

σ1 =√λ1, . . . , σr =

√λr.

Dann gilt

〈f(uj), f(uk)〉 = 〈f ∗ ◦ f(uj), uk〉 = λj〈uj, uk〉 = λjδjk.

Also bilden vj := σ−1j f(uj) eine Orthonormalbasis von f(V ) ⊂ W . Wir

erganzen sie zu einer Orthonormalbasis (v1, . . . , vm) von W . Nach Kon-struktion, f(uj) = σjvj fur j = 1, . . . , r und, fur j > r, 〈f(uj), f(uj)〉 =〈f ∗ ◦ f(uj), uj〉 = 0 also f(uj) = 0. Dies zeigt (3). Wir verifizieren jetzt(4). Fur j = 1, . . . , r,

f ∗(vj) =1

σjf ∗(f(uj)) =

λjσjuj = σjuj.

Fur j > r und alle k, 〈f ∗(vj), uk〉 = 〈vj, f(uk)〉 = 0, denn entwederk ≤ r und f(uk) = σkvk ⊥ vj oder k > r und f(uk) = 0. Also ist f ∗(vj)fur j > r orthogonal zu allen uk also = 0. �

Bemerkung 4.4. Gleichung (3) kann als f(v) =∑r

i=1〈v, ui〉σivi ge-schrieben werden

20 G.FELDER, LINEARE ALGEBRA II, FS 2013

Die Vektoren uj, vj heissen rechte bzw. linke Singularvektoren. Siesind Eigenvektoren von f ∗ ◦ f bzw. f ◦ f ∗ zum Eigenwert σ2

j oder, furj > r, 0.

Bemerkung 4.5. Die Zahl r, die im Satz vorkommt, ist der Rang vonf .

Wie ublich formulieren wir den Satz auch in der Sprache der Ma-trizen. Eine (nicht notwendigerweise quadratische) Matrix D = (dij)heisst Diagonalmatrix falls dij = 0 fur alle i 6= j. Die Eintrage djjheissen Diagonaleintrage von D.

Satz 4.6. (Singularwertzerlegung) Sei A ∈M(m,n;K) mit K = C oderR. Dann gibt es eine unitare n×n Matrix U , eine unitare m×m MatrixV und eine Diagonalmatrix D mit Diagonaleintragen σ1 ≥ · · · ≥ σr >0, . . . , 0, so dass

A = V DU∗

Die Matrizen V , U konnen im reellen Fall orthogonal gewahlt werden.Die Spalten von U sind eine Orthonormalbasis von rechten Singularvek-toren von A und die Spalten von V sind eine Orthonormalbasis vonlinken Singularvektoren von A

Beweis. Seien (uj), (vj) die Basen von Satz 4.3 fur die Abbildung x 7→Ax und seien U, V die unitaren/orthogonalen Matrizen mit Spalten uj,bzw. vj. Dann konnen wir (3) in der Form

AU = V D

schreiben, wobeiD die Diagonalmatrix mit Eintragen djj = σj fur j ≤ rund djj = 0 fur j > r. Da U unitar ist, gilt dann auch A = V DU∗. �

Bemerkung 4.7. Die Bemerkung 4.4 zeigt, dass wir die Singularwert-zerlegung auch als A =

∑ri=1 σiviu

∗i schreiben konnen.

Beispiel 3. Wir bestimmen die Singularwertzerlegung von

A =

0 11 11 0

Wir haben

A∗A =

(0 1 11 1 0

) 0 11 11 0

=

(2 11 2

).

ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT SKALARPRODUKT 21

Diese Matrix hat Eigenwerte λ1 = 3, λ1 = 1 mit Orthonormalbasis vonEigenvektoren

u1 =1√2

(11

), u2 =

1√2

(1−1

).

Sie sind rechte Singularvektoren zu den Singularwerten σ1 =√

3, σ2 =1. Die zugehorigen linken Singularvektoren sind v1 = σ−1

1 Au1, v2 =σ−1

2 Au2, die wir wie im Beweis des Satzes zu einer Orthonormalbasis(v1, v2, v3) von R3 erganzen:

v1 =1√6

121

, v2 =1√2

−101

, v3 =1√3

1−1

1

.

Wir haben also die Singularwertzerlegung A = V DU∗ mit

U =

( 1√2

1√2

1√2− 1√

2

), V =

1√6−1√

21√3

2√6

0 −1√3

1√6

1√2

1√3

, D =

√3 00 10 0

.

4.2. Geometrische Interpretation. Die Singularwertzerlegung gibteine Beschreibung des Bilds der Einheitssphare S = {v ∈ V | ‖v‖ =1}. Wir nehmen an, dass f : V 7→ W injektiv ist. Der allgemeine Fallwird in den Ubungen betrachtet. Wir benutzen die Basen B, B′ umKoordinaten in V und W einzufuhren: S besteht aus den Punktenv =

∑ni=1 xiui mit

∑|xi|2 = 1. Dann ist f(v) =

∑mi=1 yivi mit yi = σixi

fur i = 1, . . . , r und yi = 0 fur i > r. Da f injektiv ist, ist der Rangr = n = dimV . Also ist das Bild von S durch die Gleichung

y21

σ21

+ · · ·+ y2n

σ2n

= 1

im Unterraum f(V ) = span(v1, . . . , vn) beschrieben: Es ist also einEllipsoid mit Halbachsen σ1, . . . , σr.

4.3. Kleinste Quadrate. Ein Vektor x0 ∈ Kn ist genau dann eineLosung eines losbaren Gleichungssystems Ax = b wenn ‖Ax − b‖2 furx = x0 minimal ist unter allen x ∈ Kn. Solche Minima zu findenist selbst fur nichtlosbare Systeme sinnvoll. Das Problem, Minima von‖Ax − b‖2 bei gegebenen m × n Matrix A und Vektor b ∈ Km zu be-stimmen, heisst lineares Problem von kleinsten Quadraten (linear leastsquare problem). Solche Probleme treten in der Theorie der polyno-mialen Regression auf.

Wir losen das Problem zuerst fur m × n Diagonalmatrizen D mitDiagonaleintragen σ1, . . . , σr, 0, . . . , 0, wobei σi > 0 fur i = 1, . . . , r: In

22 G.FELDER, LINEARE ALGEBRA II, FS 2013

diesem Fall ist

‖Dx− b‖2 =r∑j=1

|σjxj − bj|2 +n∑

j=r+1

|bj|2.

Es ist klar dass diese Funktion minimal fur

x = (σ−1j b1, . . . , σ

−1r br, 0, . . . , 0)T

wird (die Minimalstelle ist nicht eindeutig: wir konnen die Nullen durchbeliebige Zahlen ersetzen, d.h. ein beliebiges Element des Kerns von Daddieren). Diese Losung kann als

x = D+b

wobei D+ (die “Pseudoinverse” von D) die n×m Diagonalmatrix mitDiagonaleintragen σ−1

1 , . . . , σ−1r , 0, . . . , 0 bezeichnet.

Die Singularwertzerlegung erlaubt uns den allgemeinen auf diesenzuruckzufuhren:

Satz 4.8. Sei K = C oder R, A ∈M(m,n;K), b ∈ Km. Sei A = V DU∗

eine Singularzerlegung von A. Dann wird die Funktion

x 7→ ‖Ax− b‖2

fur x0 = A+b minimal, wobei A+ = U∗D+V .

Beweis. Die Funktion

x 7→ ‖Ax− b‖2 = ‖V ∗DUx− b‖2 = ‖V ∗(DUx−V b)‖2 = ‖DUx−V b‖2

wird minimal fur Ux = D+V b also fur x = U∗D+V b �

Ubungen.

(1) Berechnen Sie die Singularwertzerlegung von

( √2 1

0√

2

).

(2) Sei v ∈ V r {0}. Welches sind die Singularwerte und Sin-gularvektoren der Abbildung K 7→ V , die 1 nach v ∈ V ab-bildet?

(3) Was ist das Bild f(S) der Einheitssphare wenn f nicht injektivist?

(4) Eine positive reelle Zahl σ ist genau dann ein Singularwert vonf ∈ Hom(V,W ), wenn es Vektoren v ∈ V r {0}, w ∈ W r {0}gibt, so dass f(v) = σw, f ∗(w) = σv.

(5) Eine n×m Matrix A+ heisst pseudoinverse Matrix einer m×nMatrix A wenn (a) die Funktion ϕb : Kn → R x 7→ ‖x − Ab‖2

minimal fur x = A+b ist: ϕb(A+b) ≤ ϕb(x) fur alle x ∈ Kn. (b)

A+b ⊥ Ker(A) fur alle b ∈ Rm. Zeigen Sie:(a) Jede Matrix hat eine eindeutige pseudoinverse Matrix.

ABBILDUNGEN ZWISCHEN VEKTORRAUMEN MIT SKALARPRODUKT 23

(b) Sie wird durch die Formel in Satz 4.8 gegeben.(c) Die Pseudoinverse einer invertierbaren Matrix ist die in-

verse Matrix