Lineare Algebra II - mat.tuhh.de · Lineare Abbildungen Wiederholung: Matrixdarstellung,...
Transcript of Lineare Algebra II - mat.tuhh.de · Lineare Abbildungen Wiederholung: Matrixdarstellung,...
Lineare Abbildungen
Vorlesung 1
5. April + 8. April
Basiswechsel
TUHH Mackens Lineare Algebra II SoSe 13 1 / 84
Lineare Abbildungen
Wiederholung: Matrixdarstellung,Rotkäppchens Diätplan
Ananas Wein Orangen SahnePreis 2.00 8 0.50 1.39Fett 0.02 0.01 0.05 30
Zucker 200 30 15 1
Korb mit:
AnanasWein
OrangenSahne
2132
−→ 2 · 2.00 + 1 · 8 + 3 · 0.5 + 2 · 1.39 P2 · 0.02 + 1 · 0.01 + 3 · 0.05 + 2 · 30 F2 · 200 + 1 · 30 + 3 · 15 + 2 · 1 Z
TUHH Mackens Lineare Algebra II SoSe 13 2 / 84
Lineare Abbildungen
Seite 125Vektorraum lin. Abbildung Vektorraum
V A−→ W{v1, · · · , vn} {w1, · · · ,wm}Basis von V Basis von W
Aus Av j =m∑
i=1
aij w i mit A =
a11 · · · a1n...
...am1 amn
∈ R(m,n)
und v =n∑
j=1
xjv j ∈ V folgt für die yi ’s in A(v) =m∑
i=1
yiw i
A(v) = A( n∑
j=1
xjv j)
=n∑
j=1
xj A(v j ) =n∑
j=1
xj
m∑i=1
aij w i =m∑
i=1
( yi︷ ︸︸ ︷n∑
j=1
aijxj
)w i
TUHH Mackens Lineare Algebra II SoSe 13 3 / 84
Lineare Abbildungen
Seite 125
A(v) = A( n∑
j=1
xjv j)
=n∑
j=1
xj A(v j ) =n∑
j=1
xj
m∑i=1
aij w i =m∑
i=1
( n∑j=1
aijxj
)w i
Also kann die Abbildung
v =n∑
j=1
xjv j A−→ w := A(v) =m∑
i=1
yiw i
in den Koeffizientenvektoren x =
x1...
xn
und y =
y1...
ym
einfach geschrieben
werden als
y = Ax .
TUHH Mackens Lineare Algebra II SoSe 13 4 / 84
Lineare Abbildungen
A. Matrixdarstellung & Basiswechsel Seite 189
Vektorraum lin. Abbildung VektorraumV A−→ W
{v1, · · · , vn} {w1, · · · ,wm}Basis von V Basis vonW
Av j =m∑
i=1
aij w i mit A =
a11 · · · a1n...
...am1 amn
∈ R(m,n)
Neue Basen{v1, · · · , vn} {w1, · · · , wm}
Av j =∑m
i=1 aij w i
A berechenbar aus A?
TUHH Mackens Lineare Algebra II SoSe 13 5 / 84
Lineare Abbildungen
Einfachster Fall
V = Rn W = Rm
V :=(v1, . . . , vn
)∈ R(n,n), regulär W :=
(w1, . . . ,wm
)∈ R(m,m), regulär
V :=(v1, . . . , vn
)∈ R(n,n), regulär W :=
(w1, . . . , wm
)∈ R(m,m), regulär
Vx = v = V x Wy = w = W y
y = Ax bekannt.
y = Ax gesucht.
y = W−1
w︷ ︸︸ ︷W A
x︷ ︸︸ ︷V−1 V x︸︷︷︸
v︸ ︷︷ ︸y
TUHH Mackens Lineare Algebra II SoSe 13 6 / 84
Lineare Abbildungen
Beispiel
V :=
1 1 11 1 00 1 0
∈ R(3,3) W :=
(1 12 1
)∈ R(2,2)
V :=
1 0 00 1 00 0 1
∈ R(3,3) W :=
(1 00 1
)∈ R(2,2)
Vx = v = V x Wy = w = W y
y = Ax =
(1 0 −10 1 0
)x .
A = W−1WAV−1V =
(1 12 1
)(1 0 −10 1 0
)1 1 11 1 00 1 0
−1
=
(−1 2 0−2 4 −1
)
Test: Av1 =
(−1 2 0−2 4 −1
)110
=
(12
)= 1 · w1
TUHH Mackens Lineare Algebra II SoSe 13 7 / 84
Lineare Abbildungen
Nächst schwierigerer Fall
Eben hatten wir
Ax =
y←y︷ ︸︸ ︷W−1W A V−1V︸ ︷︷ ︸
x←x
x
Nun nehmen wir an:
V ⊂ Rp, p ≥ n W ⊂ Rq , q ≥ m
V :=(v1, . . . , vn
)∈ R(p,n), Rang n W :=
(w1, . . . ,wm
)∈ R(q,m), Rang m
V :=(v1, . . . , vn
)∈ R(p,n), Rang n W :=
(w1, . . . , wm
)∈ R(q,m), Rang m
Vx = v = V x Wy = w = W y
y = Ax bekannt. y = Ax gesucht.
Achtung: V , V ,W , W sind nicht mehr invertierbar. Obige Formel tut’s nichtmehr.
TUHH Mackens Lineare Algebra II SoSe 13 8 / 84
Lineare Abbildungen
Aber in
Ax =
y←y︷ ︸︸ ︷W−1W A V−1V︸ ︷︷ ︸
x←x
x
brauchen wir ja auch nur Operatoren, die x in x transformieren und y in y .
Und die erhalten wir so:
Weil die Spalten von V und die Spalten von V Basisvektoren von V enthalten,gibt es eine reguläre (m,m)-Matrix S mit
V = VS.
Indem wir x dahinter schreiben
V x = VSx (= Vx),
sehen wir, dassx = Sx .
TUHH Mackens Lineare Algebra II SoSe 13 9 / 84
Lineare Abbildungen
Analog zu
V = VS ⇒ x = Sx
giltW = WR ⇒ y = Ry
Und damit erhalten wir nun
Ax = y = [y ← y ] A [x ← x ] x = R−1ASx .
TUHH Mackens Lineare Algebra II SoSe 13 10 / 84
Lineare Abbildungen
Beispiel
V =
1 12 13 1
W =
(1 12 1
)A =
(1 00 1
)V =
−1 10 11 1
W =
(1 00 1
)
V = V(
1 0−2 1
)︸ ︷︷ ︸
S
W = WR; also R = W−1.
A = R−1AS = WAS =
(1 12 1
)(1 00 1
)(1 0−2 1
)=
(−1 1−3 2
).
Probe:
123
= V(
12
), und A
(12
)=
(−1 1−3 2
)(12
)=
(11
). - OK
TUHH Mackens Lineare Algebra II SoSe 13 11 / 84
Lineare Abbildungen
FrageWie berechnt man S in VS = V?Antwort: Notfalls mit Gauß-Elimination. (Demonstration an letztem Beispiel.)1 1
2 13 1
S =
−1 10 11 1
Löse zwei Gleichungssysteme (für die erste und zweite Spalte von S)simultan: 1 1 −1 1
2 1 0 13 1 1 1
→ 1 1 −1 1
0 −1 2 −10 −2 4 −2
→ 1 1 −1 1
0 −1 2 −10 0 0 0
Löse nun (
1 10 1
)(s11s21
)=
(−12
)und
(1 10 1
)(s12s22
)=
(1−1
)auf zu
S =
(1 0−2 1
).
TUHH Mackens Lineare Algebra II SoSe 13 12 / 84
Lineare Abbildungen
Allgemeiner Fall
Vektorraum lin. Abbildung VektorraumV A−→ W
{v1, · · · , vn} {w1, · · · ,wm}{v1, · · · , vn} {w1, · · · , wm}Basen von V Basen vonW
Die Beziehungen
Vx = v = V x Wy = w = W yund
V = VS W = WR
müssten eigentlich anders geschrieben werden.Die beiden letzten lauten z.B.
vj =∑n
i=1 v isij , j = 1, . . . ,n wj =∑m
i=1 w i rij , j = 1, . . . ,m.
Die Matrizen S und R gehen aber wie oben in die Transformation ein:
A = R−1AS.
TUHH Mackens Lineare Algebra II SoSe 13 13 / 84
Lineare Abbildungen
Beispiel: V ⊂ Π2,W = T1
v1(x) = x + x2
v2(x) = x + 2x2
w1(x) = sin(x) + cos(x)w2(x) = 2 sin(x)− cos(x) + 1w3(x) = 2 + sin(x)
,
A =
1 00 10 0
v1(x) = x ,v2(x) = x2
w1(x) = 1,w2(x) = sin(x),
w3(x) = cos(x).
Praktische Schlamp-Schreibweise:
(v1, v2) =
(v1, v2)(1 1
1 2
)︸ ︷︷ ︸
S−1
,(w1,w2,w3) =
(w1, w2, w3)0 1 2
1 2 11 −1 0
︸ ︷︷ ︸
R−1
.
A = R−1AS =
0 1 21 2 11 −1 0
1 00 10 0
( 2 −1−1 1
)=
−1 10 13 −2
TUHH Mackens Lineare Algebra II SoSe 13 14 / 84
Lineare Abbildungen
Abschließendes Beispiel
FürR3 T−→ R2
ist bekannt
T
110
=
(11
),T
101
=
(12
),T
111
=
(01
)
V =
1 1 11 0 10 1 1
W =
(1 11 2
)⇒
A =
(1 0 −10 1 1
)VS = V = E3 E2 = W = WR⇒ S = V−1 ⇒ R = W−1
⇒
TUHH Mackens Lineare Algebra II SoSe 13 15 / 84
Lineare Abbildungen
A = R−1AS = WAV−1
=
(1 11 2
)(1 0 −10 1 1
)1 1 11 0 10 1 1
−1
=
(2 −1 −12 −1 0
)
(Test!)
TUHH Mackens Lineare Algebra II SoSe 13 16 / 84
Lineare Abbildungen
Äquivalente Matrizen Seite 199
B R−1 AS
m
n
m n
n=
Basiswechsel imBildraum
Basiswechsel imUrbildraum
Definition 6.6
A,B ∈ R(m,n) sind äquivalent, wenn ∃
R ∈ R(m,m),S ∈ R(n,n)︸ ︷︷ ︸beide regulär
so dass B = R−1 A S
Beschreiben dieselbe Abbildung bzgl. verschiedener Basen.TUHH Mackens Lineare Algebra II SoSe 13 17 / 84
Lineare Abbildungen
Normalform Seite 200
Frage
Gibt es eine besonders einfache äquivalente Matrix zu A ∈ R(m,n)?
Ja
A ∈ R(m,n) habe Rang r
(r ≤ min(m,n))
⇒
A äquivalent zu
Dr : =
(Er 00 0
)︸ ︷︷ ︸
Normalform von A
∈ R(m,n)
TUHH Mackens Lineare Algebra II SoSe 13 18 / 84
Lineare Abbildungen
Folgerung
AB
}∈ R(m,n) äquivalent ⇔ Rang A = Rang B
TUHH Mackens Lineare Algebra II SoSe 13 19 / 84
Lineare Abbildungen
Wichtiger Spezialfall: Ähnliche Matrizen Seite 201
V T−→ V dim V = n
Normal: Verwende in Urbild- und Bildraum gleiche Basis. Darstellung durchMatrix A ∈ R(n,n)
Normal: Bei Basis-Wechsel wird man im Bild- und Urbildraum wieder diegleiche Basis wollen.
Übergang:
B = S−1 A S︸ ︷︷ ︸Definition 6.7: A und B heißen ähnlich. (Wichtig!)
TUHH Mackens Lineare Algebra II SoSe 13 20 / 84
Lineare Abbildungen
Ende der 1. Vorlesung
TUHH Mackens Lineare Algebra II SoSe 13 21 / 84
Lineare Abbildungen Die orthogonale Projektion
Vorlesung 2
12. April + 16. April
Orthogonale Projektionen
TUHH Mackens Lineare Algebra II SoSe 13 23 / 84
Lineare Abbildungen Die orthogonale Projektion
Wiederholung /Fourierentwicklung:
Folie zum Übers-Bett-Hängen
a
b
α
Projektion von b auf a-Richtung
= a · 〈a,b〉|a| · |a|
= a · 〈a,b〉〈a,a〉
=aaT
aT ab
TUHH Mackens Lineare Algebra II SoSe 13 24 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 86
Orthonormalbasen sind schön!{v1, · · · , vn} ONB von (V , 〈, 〉).
v1, · · · , vn Basis⇒ ∀ x ∃
x1...
xn
∈ Rn : x =∑n
i=1 xi v i .
Wie berechnet man xi ?
〈v j , x〉 = 〈v j ,n∑
i=1
xi v i〉
=n∑
i=1
xi 〈v j , v i〉︸ ︷︷ ︸=δij
=n∑
i=1
xi · δij = xj
xj = 〈v j , x〉 Satz 2.58
TUHH Mackens Lineare Algebra II SoSe 13 25 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 86
v = α1 v1 + α2 v2 + · · · + αn vn
〈v1, v〉 = 〈v1, α1 v1 + α2 v2 + · · · + αn vn〉
〈v1, v〉 = α1〈v1, v1〉 + α2〈v1, v2〉 + . . . + αn〈v1, vn〉= 1 = 0 = 0
also 〈v1, v〉 = α1.
TUHH Mackens Lineare Algebra II SoSe 13 26 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 86
Satz 2.58v1, ..., vn Orthonormalbasis.
v =n∑
i=1
αi vi , αj = 〈vj , v〉
also
v =n∑
i=1
vi〈vi , v〉︸ ︷︷ ︸„Fourierentwicklung“
TUHH Mackens Lineare Algebra II SoSe 13 27 / 84
Lineare Abbildungen Die orthogonale Projektion
v1, ..., vn Orthonormalbasis, m < n
v =m∑
i=1
vi〈vi , v〉︸ ︷︷ ︸∈W :=span{v1,...,vm}
+n∑
i=m+1
vi〈vi , v〉︸ ︷︷ ︸span{vm+1,...,vn}⊥W
TUHH Mackens Lineare Algebra II SoSe 13 28 / 84
Lineare Abbildungen Die orthogonale Projektion
Orthogonale Projektion und besteApproximation im unendlichdimensionalen Raum
Seite 202
(V , <,>) sei euklidischer Vektorraum.
Approximationsproblem
Sei W endlichdimensionaler Teilraum von V . Sei v ∈ V gegeben.Bestimme v ∈ W mit
||v − v || ≤ ||w − v || ∀w ∈ W
TUHH Mackens Lineare Algebra II SoSe 13 29 / 84
Lineare Abbildungen Die orthogonale Projektion
Wie man vermutet, ist
v = P(v) die orthogonale Projektion von v auf W .
Das soll jetzt festgemacht werden.
TUHH Mackens Lineare Algebra II SoSe 13 30 / 84
Lineare Abbildungen Die orthogonale Projektion
Ablauf der heutigen Vorlesung:
- Definiere Projektion auf endlichdimensionalen Teilraum W .
- Zeige Projektion = Beste Approximation
- Berechnung der Projektion
• Orthonormalisiere Basis• Gramsches System• Normalgleichungen
- Zwei Anwendungen
- Projektoren
- Orthogonalraum
TUHH Mackens Lineare Algebra II SoSe 13 31 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 202
Satz 6.10 (Projektionssatz)
v
0
W
v
(V , <,>) sei euklidischer Vektorraum, W endlichdimensionaler Teilraum.Dann hat jedes v ∈ V eine eindeutige Zerlegung
v = w + u mit w ∈ W & u ⊥W
Beweis
Sei {w1, · · · ,wm} Orthonormalbasis von W . Wir versuchen unser Glück mit
w : =m∑
j=1
< v ,w j > w j und u : = v − w
TUHH Mackens Lineare Algebra II SoSe 13 32 / 84
Lineare Abbildungen Die orthogonale Projektion
Dann ist sicher w =∑m
j=1 < v ,w j > w j ∈ W klar.Es ist aber auch u := v − w senkrecht zu W , denn für k = 1, . . . ,m ist
< u,wk > = < v − w ,wk >=< v ,wk > − < w ,wk >
= < v ,wk > −m∑
j=1
< v ,w j >< wk ,w j︸ ︷︷ ︸δkj
>
= < v ,wk > − < v ,wk >= 0
Also ist v = u + w eine Zerlegung wie gewünscht. Fehlt noch Eindeutigkeit.Sei v = w + u, w ∈ W , u ⊥W
w + u = w + u ⇒ w − w︸ ︷︷ ︸∈ w
= u − u︸ ︷︷ ︸⊥W
||w − w ||2 =< w − w ,w − w >=< w − w , u − u >= 0⇒ w = w
⇒ u = u �
TUHH Mackens Lineare Algebra II SoSe 13 33 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 203
v = w + u,w ∈W ,u ⊥W Zerlegung eindeutig!
Definition 6.11
w Def .= Orthogonale Projektion P(v) von v auf W .
P(v) ist das eindeutige Element in W , mit dem v − P(v) senkrecht auf Wsteht.
TUHH Mackens Lineare Algebra II SoSe 13 34 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 204Damit ist die Geometrie in
gesichert, und wir haben somit gezeigt, den
Satz 6.16 (Approximationssatz)
Sei (V , <,>) eukl. Vektorraum, W endlichdimensionaler Teilraum und P dieorthogonale Projektion auf W . Dann ist P(v) für alle v ∈ V die eindeutigbeste Approximation von v aus W :
||v − P(v)|| < ||v − w ||∀ w ∈ W ,w 6= P(v)
TUHH Mackens Lineare Algebra II SoSe 13 35 / 84
Lineare Abbildungen Die orthogonale Projektion
Weitere Wiederholung Seite 204
Satz von Pythagoras
Für alle u,w ∈ V mit < u,w >= 0 gilt
‖u‖2 = ‖u‖2 + ‖w‖2
BeweisGanz einfach:
||u + w ||2 =< u + w ,u + w >=< u,u > + 2 < u,w >︸ ︷︷ ︸=0
+ < w ,w >
TUHH Mackens Lineare Algebra II SoSe 13 36 / 84
Lineare Abbildungen Die orthogonale Projektion
Zusammenfassung:
Pythagoras
Pythagoras‖u + w‖2 = ‖u‖2 + ‖w‖2
gilt, wenn die Norm über‖x‖2 = 〈x , x〉,
mit dem innerem Produkt verbunden ist.
Beste Approximation mit Pythagoras
„Beste Approximation„ = „Projektion“
wenn Pythagoras gilt.
Beste Approximation ohne Pythagoras
Schnellster Weg in Unterraum ohne Pythagoras ist schwieriger zu finden.
TUHH Mackens Lineare Algebra II SoSe 13 37 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 205
Bemerkung 6.17
Approximationsproblem
w∗ ?= arg min {||v − w ||
∣∣w ∈ W}
ist auch sinnvoll im allgemeinen normierten Raum.Eine beste Approximation existiert für endlichdim. W (⇐ Analysis)Aber die Lösung ist oft nicht eindeutig und i.A. keine Projektion.
w0
v
alles Lösungen
max-Norm
TUHH Mackens Lineare Algebra II SoSe 13 38 / 84
Lineare Abbildungen Die orthogonale Projektion
Berechnung von P(v): Seite 203
Anmerkung 6.12
Ist {w1, · · · ,wm} irgendeine Orthonormalbasis von W , so ist
P(v) =m∑
j=1
< v ,w j > w j .
Bemerkung 6.14
Sei {w1, · · · ,wm} beliebige Basis von W . Dann hat P(v) eine eindeutigeDarstellung
P(v) =m∑
j=1
ζj w j
und P(v) erfüllt
v − P(v) ⊥ w ∀ w in W
TUHH Mackens Lineare Algebra II SoSe 13 39 / 84
Lineare Abbildungen Die orthogonale Projektion
v − P(v) ⊥ w ∀ w in W
⇔ 〈w i , v − P(v)〉 = 0 i = 1, · · · ,m
⇔ < w i , v −m∑
j=1
ζj w j >= 0 , i = 1, · · · ,m
⇔m∑
j=1
ζj < w i ,w j >=< w i , v >, i = 1, · · · ,m
< w1,w1 > · · · < w1,wm >...
< wm,w1 > · · · < wm,wm >
︸ ︷︷ ︸
regulär, wenn w1, . . . ,wm linear unabhängig.
ζ =
< w1, v >...
< wm, v >
TUHH Mackens Lineare Algebra II SoSe 13 40 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 204
Definition 6.15
Sei (V , <,>) eukl. Vektorraum und w1, · · · ,wm ∈ V Dann heißt
G(w1, · · · ,wm) : =
< w1,w1 > · · · < w1,wm >...
< wm,w1 > · · · < wm,wm >
Gramsche Matrix zu w1, · · · ,wm
LEMMA:
G(w1, · · · ,wm) ist regulär⇔ {w1, · · · ,wm} sind linear unabhängig.
TUHH Mackens Lineare Algebra II SoSe 13 41 / 84
Lineare Abbildungen Die orthogonale Projektion
LEMMA:
G(w1, · · · ,wm) ist regulär⇔ {w1, · · · ,wm} sind linear unabhängig.
Beweis:Sei G regulär. Ist dann
∑ζiw i = 0, so ist
0 =
〈w1,
∑ζiw i〉
〈w2,∑ζiw i〉
...〈wm,
∑ζiw i〉
= G
ζ1ζ2...ζm
also (ζ1, .., ζm)T = 0, mithin w1, . . . ,wm l.u..Sei umgekehrt G singulär. Dann gibt es ζ := (ζ1, . . . , ζm)T 6= 0 mit Gζ = 0.Daher ist ∥∥∥∑ ζiw i
∥∥∥2= 〈∑
ζiw i ,∑
ζjw j〉 = ζT Gζ = 0,
also∑ζiw i = 0, so dass die w i -Vektoren linear abhängig sind. �
TUHH Mackens Lineare Algebra II SoSe 13 42 / 84
Lineare Abbildungen Die orthogonale Projektion
Spezialfall 1:w1, ...,wm, v ∈ Rn; (w1, . . . ,wm) =: A ∈ R(n,m), inneres Produkt =euklidisches Produkt.Dann schreibt sich das Approximationsproblem so:
Minimiere ‖Aζ − v‖2 bezüglich ζ.
Das Gramsche System< w1,w1 > · · · < w1,wm >...
< wm,w1 > · · · < wm,wm >
ζ =
< w1, v >...
< wm, v >
wird zu
AT Aζ = AT v (Sogenannte Normalgleichungen),
und die Projektion P(v) =∑
w iζi = Aζ hat die Form
P(v) = A(AT A)−1AT v .
(Dies ist im Skript als Satz 6.20 aufgeschrieben.)TUHH Mackens Lineare Algebra II SoSe 13 43 / 84
Lineare Abbildungen Die orthogonale Projektion
Spezialfall 2:
w1, ...,wm orthogonal.
Dann wird die Gramsche Matrix im System< w1,w1 > · · · < w1,wm >...
< wm,w1 > · · · < wm,wm >
ζ =
< w1, v >...
< wm, v >
zur Diagonalmatrix.Es werden
ζi =< w i , v >< w i ,w i >
und
P(v) =∑
w iζi = w1 < w1, v >< w1,w1 >
+ . . .+ wm < wm, v >< wm,wm >
.
TUHH Mackens Lineare Algebra II SoSe 13 44 / 84
Lineare Abbildungen Die orthogonale Projektion
Spezialfall 3: Seite 204
In
P(v) = w1 < w1, v >< w1,w1 >
+ . . .+ wm < wm, v >< wm,wm >
.
seien
w1, ...,wm ∈ Rn orthogonal bezüglich euklid. Produkt 〈w i ,w j〉 = (w i )T w j .
Dann wird
P(v) =
(w1(w1)T
(w1)T w1 + . . .+wm(wm)T
(wm)T wm
)︸ ︷︷ ︸
Summe dyadischer Produkte
v
TUHH Mackens Lineare Algebra II SoSe 13 45 / 84
Lineare Abbildungen Die orthogonale Projektion
Beispiel 6.18 Seite 205
Betrachte Πn mit < p,q >: =∫ 1
0 p(x) q(x) dxFinde Gerade g(x) = ζ0 · 1 + ζ1 x , die u(x) : = x3 bestmöglich nähert.
‖u − g‖ =< u − g,u − g >1/2 != min.
TUHH Mackens Lineare Algebra II SoSe 13 46 / 84
Lineare Abbildungen Die orthogonale Projektion
Beispiel 6.18
Lösung mit Gram-System
w1(x) = 1,w2(x) = x , v(x) = x3
(< w1,w1 > < w1,w2 >< w2,w1 > < w2,w2 >
)(ζ0ζ1
)=
(< w1, v >< w2, v >
)
TUHH Mackens Lineare Algebra II SoSe 13 47 / 84
Lineare Abbildungen Die orthogonale Projektion
< w1,w1 > =
∫ 1
01 · 1 dx = 1
< w1,w2 > = < w2,w1 >=
∫ 1
01 · x dx = 1/2
< w2,w2 > =
∫ 1
0x · x dx = 1/3
< w1, v > =
∫ 1
01 · x3 dx = 1/4
< w2, v > =
∫ 1
0x · x3 dx = 1/5
Aus (1 1/2
1/2 1/3
)(ζ0ζ1
)=
(1/41/5
)⇒ g(x) = −1
5+
910
x
fertig!
TUHH Mackens Lineare Algebra II SoSe 13 48 / 84
Lineare Abbildungen Die orthogonale Projektion
Ergebnis
TUHH Mackens Lineare Algebra II SoSe 13 49 / 84
Lineare Abbildungen Die orthogonale Projektion
Projektionsmatrizen Seite 206
Die Projektion ist lineare Abbildung, also im endlichdimensionalen Fall durchMatrizen darstellbar.
Für den Fall V = Rn mit dem euklidischen inneren Produkt hatten wir dieseschon für zwei Fälle aufgeschrieben.
Spezialfall 3: Bei gegebener Orthonormalbasis w1, · · · ,wm von W ist:
P =
(m∑
i=1
w i (w i )T
)︸ ︷︷ ︸
Summe dyadischer Produkte
Spezialfall 1: Bei spaltenweisem Eintrag der linear unabhängigenBasisvektoren w1, ...,wm ∈ Rn von V in eine MatrixA := (w1, . . . ,wm) ∈ R(n,m) ist
P = A(AT A)−1AT .
TUHH Mackens Lineare Algebra II SoSe 13 50 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 208
Satz 6.22 (Charakterisierungssatz)
P ∈ R(n,n) beschreibt (bzgl. Standardbasis) genau dann ProjektorP : Rn −→W ,
W : = {Px : x ∈ Rn},
bzgl. eukl. inneren Produktes, wenn
P = P2 = PT .
TUHH Mackens Lineare Algebra II SoSe 13 51 / 84
Lineare Abbildungen Die orthogonale Projektion
BeweisSei P =
∑mi=1 w i w iT ,w i ONS von W
Dann ist
P2 =m∑
i=1
w i w iTm∑
j=1
w j w jT
=m∑
i=1
m∑j=1
w i (w iT w i )︸ ︷︷ ︸δij
w iT
=m∑
i=1
w i w iT
PT =m∑
i=1
(w i w iT )T = P
Sei P = P2 = PT
Dann ∀ v ∈ V : P(v) ∈ WAußerdem gilt v − Pv ⊥ W wegen
(v − Pv)T Pz = vT (E − P)T Pz
= vT (P − P2)z = 0 ∀ z ∈ Rn �
TUHH Mackens Lineare Algebra II SoSe 13 52 / 84
Lineare Abbildungen Die orthogonale Projektion
Orthogonalräume Seite 208
Definition 6.23
Sei W Teilraum von (V , <,>)W⊥ : = {v ∈ V :< v ,w >= 0 ∀ w ∈ W}heißt bekanntlich Orthogonalraum von W in V .
Bemerkung 6.25
V endlichdimensional, W Teilraum von V
ONB von W︷ ︸︸ ︷v1, · · · vm,⇒
ONB von W⊥︷ ︸︸ ︷vm+1, · · · , vn︸ ︷︷ ︸
ON-Basis von V
Hier (W⊥)⊥ = W
Im unendlichdimensionalen Fall nur nochW ⊂ (W⊥)⊥
W 6= (W⊥)⊥ möglich.TUHH Mackens Lineare Algebra II SoSe 13 53 / 84
Lineare Abbildungen Die orthogonale Projektion
Ende der 2. Vorlesung
TUHH Mackens Lineare Algebra II SoSe 13 54 / 84
Lineare Abbildungen Orthogonaltransformationen
Vorlesung 3
19. April + 22. AprilOrthogonaltransformationen
TUHH Mackens Lineare Algebra II SoSe 13 56 / 84
Lineare Abbildungen Orthogonaltransformationen
Wiederholung:(Kongruenztransformationen des R2)
Seite 153
Ansatz: Q =
(a bc d
)Q−1 = 1
ad−bc
(d −b−c a
)⇒ QT = Q−1 bei
(i) a = dad−bc
(ii) d = aad−bc
}a = (ad − bc)2a
(iii) c = −bad−bc
(iv) b = −cad−bc
}b = (ad − bc)2b
|a|+|b|6=0=⇒ ad − bc = ±1
folglich zwei Fälle
α) ad − bc = 1, a = d , b = −cβ) ad − bc = −1, a = −d , b = c
TUHH Mackens Lineare Algebra II SoSe 13 57 / 84
Lineare Abbildungen Orthogonaltransformationen
ALSO:
Q =
(a bc d
)orthogonal wenn
α) a = d , b = c ad − bc = det Q = 1oderβ) a = −d , b = c ad − bc = det Q = −1
In beiden Fällen a2 + b2 = 1 , also a = cosφ b = ± sinφ
Damit entweder
Q =
(cosφ − sinφsinφ cosφ
)φ ∈ [0,2π)
oder
Q =
(cosφ − sinφ− sinφ − cosφ
)φ ∈ [0,2π)
TUHH Mackens Lineare Algebra II SoSe 13 58 / 84
Lineare Abbildungen Orthogonaltransformationen
Orthogonaltransformationen Seite 209
A ∈ R(n,n) AT A = E
1 = det(E) = det(AT A) = det(AT ) · det(A)
= (det(A))2
Definition 6.27 (verallgemeinerte)
⇒ det A = 1︸ ︷︷ ︸„Drehung“
det A = −1︸ ︷︷ ︸„Spiegelung“
dim = 2, dann(
cosφ − sinφsinφ cosφ
)(cosφ − sinφ− sinφ − cosφ
)dim = 2: Namen korrektdim = 3: Namen fast korrekt, tatsächliche Drehung oder (Drehung nach) Spiegelung
dim > 3: Namen entsprechen nicht mehr der Anschauung
TUHH Mackens Lineare Algebra II SoSe 13 59 / 84
Lineare Abbildungen Orthogonaltransformationen
Seite 210
Satz 6.28
Für A ∈ R(3,3), AT A = E gelten
(i) det A = 1⇒ A ∼ Drehung um eine Achse durch Null.
(ii) det A = −1⇒ A ∼ Drehung hinter Spiegelung
TUHH Mackens Lineare Algebra II SoSe 13 60 / 84
Lineare Abbildungen Orthogonaltransformationen
Beweis(ii) det A = −1⇒
det
(A ·
11−1
)︸ ︷︷ ︸
⇒A= Drehung
= 1
A = A
11−1
11−1
= A︸︷︷︸
Drehung nach (i)
11−1
︸ ︷︷ ︸
Spiegelung
TUHH Mackens Lineare Algebra II SoSe 13 61 / 84
Lineare Abbildungen Orthogonaltransformationen
(i) (tricky)
Struktur:a) Finde Drehachse v1
b) Stelle A dar bzgl. ONB v1
||v1|| = w1,w2,w3 und zeige
A =
1 0 00 cosα − sinα0 sinα cosα
TUHH Mackens Lineare Algebra II SoSe 13 62 / 84
Lineare Abbildungen Orthogonaltransformationen
a) Drehachse bleibt fest unter AAv = v⇒ Drehachse löst (A− E)︸ ︷︷ ︸
muss singulär sein, damit es v gibt
v = 0 (natürlich v 6= 0).
det(A− E) = det(A · (E − AT ))
= det(A) det((E − AT )T )
= det(E − A)
= det((−1) · (A− E))
= (−1)3det(A− E)
⇒ det(A− E) = 0⇒ A− E singulär
⇒ ∃ v : Av = v ,o.E. ||v || = 1
TUHH Mackens Lineare Algebra II SoSe 13 63 / 84
Lineare Abbildungen Orthogonaltransformationen
Ergänze Drehachse v zu ONB (w1,w2,w3) und stelle A dar bzgl. dieser Basis
Übergangsmatrix:
Basisneu = Basisalt · S(w1,w2,w3) = (e1,e2,e3) · S
⇒ S = (w1,w2,w3) ST = S−1
A = S−1 AS = ST AS
A orthogonal als Produkt orthogonaler Matrizen.
Aw1 = w1 ∼ Ae1 = e1
TUHH Mackens Lineare Algebra II SoSe 13 64 / 84
Lineare Abbildungen Orthogonaltransformationen
⇒ A =
1 ∗ ∗0 ∗ ∗0 ∗ ∗
E = AT A =
1 0 0⊗ ∗ ∗⊗ ∗ ∗
1 ⊗ ⊗0 ∗ ∗0 ∗ ∗
=
1 0 0
⇒ A =
1 0 00 B0
E3 = AT A =
1 0 00 BT B0
⇒ BT B = E2,det A = 1 · det B ⇒ det B = 1
A =
1 0 00 c −s0 s c
�
TUHH Mackens Lineare Algebra II SoSe 13 65 / 84
Lineare Abbildungen Orthogonaltransformationen
Beispiel (Drehachse und Drehwinkel)
A =
910 −
√2·3
101
10√2·3
108
10 −√
2·310
110
√2·3
109
10
ist orthogonal und hat Determinante = 1
TUHH Mackens Lineare Algebra II SoSe 13 66 / 84
Lineare Abbildungen Orthogonaltransformationen
Bestimmung der Drehachse aus (A− E)v = 0
10(A− E)v = 0⇔
−1 −√
2 · 3 1√2 · 3 −2 −
√2 · 3
1√
2 · 3 −1
v1
v2
v3
= 0
v = λ
101
, λ ∈ R
Bestimmung des Drehwinkels:
Wähle z ⊥ v (also in Drehebene), z.B. z =
010
Drehe:
Az =
−√
2·310
810√2·3
10
cosα =
< z,Az >||z|| ||Az|| =
8/101 · 1 = 0.8
TUHH Mackens Lineare Algebra II SoSe 13 67 / 84
Lineare Abbildungen Orthogonaltransformationen
Achtung: Mit cos(α) ist α noch nicht bekannt!
cos(−t) cos(t)=
arc cos
TUHH Mackens Lineare Algebra II SoSe 13 68 / 84
Lineare Abbildungen Orthogonaltransformationen
Achtung: Mit cos(α) ist α noch nicht bekannt!
Drehachse v
Az
z
Az
ϕ
−ϕ
(z, Az, v)
= RECHTSSYSTEM
det(z, Az, v) > 0(= det(v , z, Az))
(z, Az, v) Linkssystemdet(z, Az, v) < 0
TUHH Mackens Lineare Algebra II SoSe 13 69 / 84
Lineare Abbildungen Orthogonaltransformationen
Seite 212Wegen
det
vz
Az
=
∣∣∣∣∣∣1 0 10 1 0
−√
2·310
810
√2·3
10
∣∣∣∣∣∣ =
√2 · 35
> 0
liegt ein Rechtssystem vor und aus
cosα = 0.8
folgtα = +arc cos 0.8 ≈ 36,87o �
Nun noch Bestimmung von Drehachse & Drehwinkel direkt aus Matrix!Dazu zunächst die
Definition 6.31
Zu A ∈ R(n,n) heißt
Spur(A) : =n∑
j=1
ajj Spur von A
TUHH Mackens Lineare Algebra II SoSe 13 70 / 84
Lineare Abbildungen Orthogonaltransformationen
Seite 212
Lemma 6.32Die Spuren ähnlicher Matrizen sind gleich:Also
A ∈ R(n,n),T ∈ R(n,n) regulär
=⇒
Spur(A) = Spur(T−1AT )
Bemerkung: Es ist immer nützlich Invarianten von Transformationen zukennen. (vgl. Drehachse von Drehung)
TUHH Mackens Lineare Algebra II SoSe 13 71 / 84
Lineare Abbildungen Orthogonaltransformationen
Beweis
Sei B ∈ R(n,n) beliebig. Dann ist
Spur(AB) =n∑
j=1
(AB)jj =n∑
j=1
n∑k=1
ajk bkj
=n∑
k=1
n∑j=1
bkj ajk =n∑
k=1
(BA)kk
= Spur(BA) Daher istSpur(T−1AT ) = Spur(TT−1A) = Spur(A) � (1)
TUHH Mackens Lineare Algebra II SoSe 13 72 / 84
Lineare Abbildungen Orthogonaltransformationen
Seite 213
Satz 6.33
Sei A ∈ R(3,3) orthogonal mit det(A) = 1Dann gilt für den Drehwinkel von A
cosϕ =12
(Spur(A)− 1)
und bei (cos(ϕ) 6= 1, ϕ 6= 0) gilt für die Drehachse v :
span{v} = Bild(A + AT − (Spur(A)− 1)E)
Anmerkung: Bild (b1, · · · ,bn) = span{b1, · · · ,bn}
TUHH Mackens Lineare Algebra II SoSe 13 73 / 84
Lineare Abbildungen Orthogonaltransformationen
Vor dem Beweis eine Anwendung:
A =
1 0 00 cosϕ − sinϕ0 sinϕ cosϕ
; cosϕ =12
(Spur(A)− 1) =12
(1 + 2 cosϕ− 1)
A + AT − (Spur(A)− 1)E
=
2 0 00 2 cosϕ 00 0 2 cosϕ
− (1 + 2 cosϕ− 1)E
=
2− 2 cosϕ 0 00 0 00 0 0
TUHH Mackens Lineare Algebra II SoSe 13 74 / 84
Lineare Abbildungen Orthogonaltransformationen
BeweisSei
ST AS =
1 0 00 cosϕ − sinϕ0 sinϕ cosϕ
=: A,
S orthogonal, S = (Drehachse w1,w2,w3)Dann gilt
Spur(A) = Spur(ST AS) = Spur(A)
= 1 + 2 cosϕ
also12
(Spur(A)− 1) = cosϕ
TUHH Mackens Lineare Algebra II SoSe 13 75 / 84
Lineare Abbildungen Orthogonaltransformationen
Es ist
A + AT − (Spur(A)− 1)︸ ︷︷ ︸2 cosϕ
E =
2− 2 cosϕ 0 00 0 00 0 0
Damit
A + AT − (Spur(A)− 1)E = S(A + AT − (Spur(A)− 1)E)ST
= (2− 2 cosϕ)S
1 0 00 0 00 0 0
ST
= (2− 2 cosϕ) S
S11 S21 S310 0 00 0 0
= const(S11w1,S21w1,S31w1)�
TUHH Mackens Lineare Algebra II SoSe 13 76 / 84
Lineare Abbildungen Orthogonaltransformationen
Seite 214Householder-Matrizen
w ∈ Rn,w 6= 0 definiert W := {x ∈ Rn|wT x = 0}
Ziel: Hx := {an W gespiegeltes x}
W
w x
P(x)
H(x)
wwT
wT w x
wwT
wT w x
Hx = x − 2wwT
wT wx︸ ︷︷ ︸
Householder-Matrix mal x
Zweimal w − Anteil abziehen Def. 6.35
H = E − 2wwT
wT w
TUHH Mackens Lineare Algebra II SoSe 13 77 / 84
Lineare Abbildungen Orthogonaltransformationen
Beispiel 6.36 Seite 215
E = {x ∈ R3|x1 + x2 + x3 = 0}
w = (1,1,1)T
H = E − 213
111
(1,1,1)
= 13
1 −2 −2−2 1 −2−2 −2 1
↗Um Gottes Willen nicht ausmultiplizieren.↖
Schon gar nicht in höheren Dimensionen.Dyadische Produkte sind wunderschön einfach anzuwenden!
TUHH Mackens Lineare Algebra II SoSe 13 78 / 84
Lineare Abbildungen Orthogonaltransformationen
Seite 215
Bemerkungen 6.37
Bei Handrechnung verwende E − 2 wwT
wT w .Bei Computerrechnung setze w := w
‖w‖2und benutze
Hy = (E − 2wwT )y = y −︸︷︷︸n+
[2 ·︸︷︷︸1+
( wT y︸︷︷︸(2n−1)+
)] ·︸︷︷︸n Operationen
w .
Das sind 4n Operationen.w oder w in H = E − 2 wwT
wT w = E − 2wwT brauchen nur n Speicher.Multipliziert man hingegen wwT aus, so ist Hy i.A. vollbesetzt.Dann braucht Hy bei Standardausführung n(2n − 1) Operationen.
HT = (E − 2wwT )T = E − 2wwT = H; HHT = HT H = H2 = E
H also symmetrisch & orthogonal.Lösung von Hx = b ist x = Hb �
TUHH Mackens Lineare Algebra II SoSe 13 79 / 84
Lineare Abbildungen Orthogonaltransformationen
Wichtige Anwendung von Householder-MatrizenSeite 216
Frage
Gibt es eine Householder-Matrix H = E − 2 wwT
wT w , die x ∈ Rn auf λe1 abbildet?
Zwischenüberlegung:Wenn das geht, so muss λ = ±||x || sein. (Länge bleibt erhalten)
Endüberlegung:w zeigt vom Ergebnisvektor Hx nach x .Also
w = +||x ||e1 − x oder w = −||x ||e1 − x .
Zack! FERTIG!
TUHH Mackens Lineare Algebra II SoSe 13 80 / 84
Lineare Abbildungen Orthogonaltransformationen
Welchen wählen?Den
w = x + sign(x1)||x ||e1
TUHH Mackens Lineare Algebra II SoSe 13 81 / 84
Lineare Abbildungen Orthogonaltransformationen
Beispiel
Bilde
H = E − 2wwT
wT wmit Hx = y ,
wobeix = (3,4,0,0)T , y = (0,0,0,5)T
Frage
Geht das überhaupt?
Antwort: Ja, ||x || = ||y ||.
TUHH Mackens Lineare Algebra II SoSe 13 82 / 84
Lineare Abbildungen Orthogonaltransformationen
Konstruktion:
w hat Richtung von x − y oder y − x . (Ist egal. Wieso?)
Alsow = x − y = (3,4,0,−5)T
H = E − 2wwT
wT w= E − 1
25
340−5
(3,4,0,−5)
TUHH Mackens Lineare Algebra II SoSe 13 83 / 84
Lineare Abbildungen Orthogonaltransformationen
Ende der 3. Vorlesung
TUHH Mackens Lineare Algebra II SoSe 13 84 / 84