Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf ·...

17
Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung Eine Zusammenfassung basierend auf dem Skript “Lineare Algebra f¨ ur Ingenieure” von Prof. H. Kn¨ orer und “Lineare Algebra” von K. Nipp. Der Verfasser dieses Dokuments garantiert auf keinen Fall f¨ ur die Richtigkeit nachstehender Formeln und kann nicht zur Rechenschaft gezogen werden. Nat¨ urlich hat er nicht willentlich Fehler eingebaut. Es kann sein, dass diese Zusammenfassung l¨ anger ist als die erlaubte Anzahl Seiten. Wer die verschiedenen Tafeln und Bilder kopieren will, soll dies ohne Nachfrage machen. 1

Transcript of Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf ·...

Page 1: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

Lineare Algebra - Zusammenfassung

Xiaojing George Zhang

15. Februar 2008

Zusammenfassung

Eine Zusammenfassung basierend auf dem Skript “Lineare Algebra fur Ingenieure” von Prof. H.Knorer und “Lineare Algebra” von K. Nipp.

Der Verfasser dieses Dokuments garantiert auf keinen Fall fur die Richtigkeit nachstehender Formelnund kann nicht zur Rechenschaft gezogen werden. Naturlich hat er nicht willentlich Fehler

eingebaut. Es kann sein, dass diese Zusammenfassung langer ist als die erlaubte Anzahl Seiten. Werdie verschiedenen Tafeln und Bilder kopieren will, soll dies ohne Nachfrage machen.

1

Page 2: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

INHALTSVERZEICHNIS 2

Inhaltsverzeichnis

1 Das Gausssche Eliminationsverfahren 31.1 Vorgehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Existenz einer Losung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Matrizen 42.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42.2 Inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52.3 Rechenregeln fur Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3 Determinanten 53.1 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53.2 Berechnen von Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63.3 Determinante ↔ LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

4 Vektorraume VR 64.1 Teilraum / Unterraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74.2 Linearkombination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74.3 Erzeugendensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74.4 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

5 Norm, Skalarprodukt, Gram-Schmidt 85.1 Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85.2 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85.3 Gram-Schmidt-Orthogonalisierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . 95.4 Vektorprodukt in R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

6 Lineare Abbildungen 96.1 Bild und Kern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

6.1.1 Dimension und LGS: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106.1.2 Basis des Kerns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106.1.3 Basis des Bildes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106.1.4 Struktur des Losungsraumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

6.2 Vektorraumoperationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

7 Koordinaten und darstellende Matrizen 117.1 Transformation der Koordinatenvektoren bei Basiswechsel . . . . . . . . . . . . . . . . . 117.2 Darstellung linearer Abbildungen durch Matrizen . . . . . . . . . . . . . . . . . . . . . . 117.3 Transformation der darstellenden Matrix bei Basiswechsel . . . . . . . . . . . . . . . . . 12

8 Orthogonale und Unitare Abbildungen, QR-Zerlegung 128.1 Orthogonale und unitare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 128.2 QR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

9 Eigenwerte, Eigenvektoren und Charakteristisches Polynom 139.1 Berechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139.2 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

10 Diagonalisierbarkeit von Matrizen 1410.1 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1410.2 Algorithmus fur S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

Page 3: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

1 DAS GAUSSSCHE ELIMINATIONSVERFAHREN 3

1 Das Gausssche Eliminationsverfahren

1.1 Vorgehen

Gegeben seien m Gleichungen mit n Unbekannten

� aquivalente Umformungen

1. Vertauschen von Zeilen (Gleichungen)

2. Addieren eines Vielfachen einer Zeile zu einer anderen

3. Multiplizieren einer Zeile mit einem Faktor λ 6= 0

� Eliminationsschritt: lineares Gleichungssystem (erweiterte Koeffizientenmatrix) in Zeilenstufenform(ZSF, Dreiecksgestalt) bringen

� Losen der Gleichungen durch ruckwartseinsetzen oder ZSF in NZSF bringen und Ergebnis ablesen.

� Vergtraglichkeitsbedingungen bei 000|b1 + b2 + b3 uberprufen → freie Parameter treten auf, woin einer Zeile kein Pivot steht

� Rang r des LGS: Anzahl der Zeilen der Koeffizientenmatrix mit Kopf = max. Anzahl lin. unabh.Zeilen/Spalten

� freie Parameter: n− r, hat die Zeile ai keinen Kopf, so ist xi ein freier Parameter

� normierte Zeilenstufenform: Jeder Kopf der NZSF ≡ 1 und uber jedem Kopf stehen nur noch0 → Resultat direkt ablesbar

1.2 Existenz einer Losung

� RangA < Rang([A|~b]): keine Losung

� r = n: LGS hat eine eindeutige Losung

� r = m oder r < m und Vertraglichkeitsbedingungen erfullt: mind. eine Losung

� r < m und Vertraglichkeitsbedingungen nicht erfullt: keine Losung

� ein homogenes LGS hat genau dann nicht triviale Losungen, wenn r < n ist→ (n-r) freie Parameter

� Ist r < m, so lasst sich das LGS nicht fur beliebige Seite losen (Vertraglichkeitsbedingungen)

� Ein lin. Gleichungssystem ist genau dann fur beliebige rechte Seite losbar, wenn das dazugehorigehomogene System nur die triviale Losung xi = 0 ∀i besitzt.

Page 4: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

2 MATRIZEN 4

Gleichungs‐system

A: m x n A:  n x n

Ax = c Ax = c Ax = 0

Rang(A) = Rang (A|c) = r

Rang(A) < Rang(A|c) det A ≠ 0 det A = 0 det A ≠ 0 det A = 0

Rang(A) = Rang(A|c)

= r < n

triviale Lsg

x = 0Rang(A) ≠ Rang(A|c)

(n ‐ r) freie Parameterr = n r < n keine Lsg eindeutige Lsg

(n ‐ r) freie Parameter

(n ‐ r) freie Parametereindeutige Lsg keine Lsg

 

2 Matrizen

2.1 Definitionen

Matrix: Eine m × n-Matrix hat m Zeilen und n Spalten.obere Dreieckmatrix: aij = 0, i > juntere Dreieckmatrix: aij = 0, i < jDiagonalmatrix: aij = 0, i 6= j, = diag(x11, . . . , xnn), wobei

diag(a11, . . . , ann) · diag(b11, . . . , bnn) = diag(a11b11, . . . , annbnn)Einheitsmatrix: In = En = diag(1, 1, . . . , 1)symmetrische Matrix: AT = A oder aij = ajiantisymmetrisch: A = −AT → aij = 0, i = j

adjungierte Matrix: A = aij ∈ Cn,n → A∗ := AT ↔ a∗ij := ajiselbst adjungierte: A = A∗ ↔ aij = ajiunitare Matrix: aij ∈ C→ A∗A = In ↔ A∗ = A−1

orthogonale Matrix: ATA = AAT = In ↔ AT = A−1. Eine orthogonale n × n-Matrix bildetein Bild langentreu ab. AB ist orthogonal, wenn A,B orthogonal sind, da(AB)TAB = In

Multiplikation: A(m× n) ·B(q × p) nur definiert fur n=q! AB =∑n

k=1(A)ik(B)kjSpur: Summe aller Diagonalelemente, wobei spur(AB) = spur(BA)

Page 5: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

3 DETERMINANTEN 5

2.2 Inverse

AX = XA = In, A−1 := X X heisst Inverse der Matrix A. I−1

n = InSatz: Ist A invertierbar, so ist A~x = ~b fur jedes ~b losbar und A~x = ~0 hat nur die triviale Losung ~0. Eineinvertierbare Matrix heisst regular, sonst singular.Die Inverse kann mit dem Gauss (A|In) → (Im|A−1) bestimmt werden oder mit der folgenden Formel:

A−1 = 1detA

A1,1 . . . A1,n...

. . ....

An,1 . . . An,n

T

mit Ai,k := (−1)i+kSik(A) (was niemand tut)

Bsp: 2× 2-Matrix gilt: A =(a bc d

)→ A−1 = 1

det(A)

(d −b−c a

)

2.3 Rechenregeln fur Matrizen

Die Assoziativitat, Kommutativitat und Distributivitat gelten, wobei AB 6= BA und AIn = A !(AT )T = A (A+B)T = AT +BT (AB)T = BTAT (AB)−1 = B−1A−1 (A−1)T = (AT )−1

3 Determinanten

Jeder quadratischen Matrix kann ein reeller Wert zugewiesen werden, die Determinante det. Die Deter-minante einer n×n-Matrix ist das Volumen des von den Spaltenvektoren ∈ R aufgespannten Parallelepi-pedes. Das Vorzeichen ist die Orientierung der Spaltenvektoren relativ zu den Standardbasen.

3.1 Eigenschaften

1. Vertauschen von 2 Zeilen andert das Vorzeichen der Determinante

2. Wird ein Vielfaches einer Zeile zu einer anderen gezahlt, so bleibt die Determinante gleich.

3. Wird eine Zeile/Spalte mit λ multipliziert, so vervielfacht sich die Determinante um λ

4. Sind die Zeilen/Spalten linear abhangig oder besteht eine Zeile/Spalte nur aus Nullen, so istdet = 0.

5. Determinante einer Dreiecksmatrix ist das Produkt ihrer Diagonalelemente, detIn = 1

6. Determinante orthogonaler Matrizen gleich ± 1: det(AAT ) = (detA)2 = 1

7. Ist detA 6= 0↔ Spalten/Zeilen sind lin. unabh. ↔ Rang A = n↔ ∃A−1

8. detAT = detA, detA = detA

9. det(AB) = detA · detB, aber det(A+B) 6= detA+ detB

10. detA−1 = 1detA , detB = det(ABA−1), det(λA) = λn · detA

11. det(~a1 + λ~b,~a2,~a3) = det(~a1,~a2,~a3) + λdet(~b,~a2,~23)

12. spur(A) := ddtdet(In + tA)|t=0 = Summe der Diagonalelemente

Page 6: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

4 VEKTORRAUME VR 6

3.2 Berechnen von Determinanten

1. Matrix mittels Gaussverfahren in Dreiecksmatrix bringen

2. eine Zeile/Spalte der Matrix mit moglichst vielen Nullen erzeugen

3. QR-Zerlegung: detQ = ±1, detR =∏ri=1 aii

4. Laplascher Entwicklungssatz: detA = |A| :=∑n

k=1 aik(−1)i+kdetSik(A) (Entwicklung nach Zeile)=∑n

i=1 aik(−1)i+kdetSik(A) (Entwicklung nach Spalte) mit Sik(A) := Streichungsmatrix mitZeile i und Spalte k.

3.3 Determinante ↔ LGS

� ist r = n, so ist detA 6= 0 ←→ ∃A−1 ←→ A~x = ~b immer losbar ∀~b ←→ Losung ist eindeutig←→ A~x = ~0 hat nur die triviale Losung ~x = ~0.

� fur A~x = ~0 ∧ detA = 0→ unendliche viele Lsg. ↔ RangA < n

� fur A~x = ~b ∧ detA = 0→ keine/unendlichviele Lsg

|A| =

∣∣∣∣∣∣a11 a12 a13

a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣ = (a11a22a33 + a21a32a13 + a12a23a31)− (a31a22a13 + a21a12a33 + a32a23a11)

4 Vektorraume VR

Vektorraum: Ein VR ist eine Menge von Objekten, wo eine Addition und eine Multiplikation mitreellen Zahlen definiert ist, ein neutrales Element (~0) existiert und Kommutativitat, Assoziativitatund Distributivitat gelten. Und dazu: ∀~a ∈ V ∃−~a ∈ V mit ~a+(−~a) = ~0. Dieselben Rechenregelngelten auch im Raum Rm,n aller Matrizen, im Raum R[x] aller Polynome und im Raum C[0, 1]aller stetigen Funktionen.

Bsp Vektorraume: Rn =

~x =

x1

x2...xn

|xi ∈ R

oder eine stetige Funktion C[a, b] im I = [a, b],

wobei bei beiden (f + g)(x) := f(x) + g(x) und (cf)(x) := cf(x) gelten, d.h. stetige Funktionen habenauch ”Vektoreigenschaften”wie ”Pfeile”.

� x1, x2, . . . , xn heissen Koordinaten des Vektors ~x =∑n

i=1 xi~ai in Rn bezuglich der Basis ~a1,~a2, . . . ,~an

x1...xn

∈ R heisst Koordinatenvektor.

� Sei A = (~a1, . . . ,~ak) eine Matrix. Die max. Anzahl lin. unabh. Vektoren von A ist der Rang rdes Gauss-Endschemas. (~a1, . . . ,~ak)(x1, . . . , xk)T = 0. Seien ~ri1, ~ri2, . . . , ~rin die Pivot-Spalten desGauss-Endschemas. Dann sind die Vektoren ~ai1,~ai2, . . . ,~ain lin. unabh. und bilden eine Basis.

Page 7: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

4 VEKTORRAUME VR 7

4.1 Teilraum / Unterraum

Ein Teilraum bildet selber wieder einen nicht leeren Vektorraum. U ⊂ V falls ∀~a,~b ∈ U,α ∈ R gilt:

1. ~a+~b ∈ U

2. α~a ∈ U

3. ~0 und U sind Teilraume von U

4. Sind U1, U2 ⊂ V , so sind auch U1 + U2 ⊂ V , U1 ∩ U2 ⊂ V und U1 ∩ U2 ⊂ V , aber U1 ∪ U2 6⊂ V .

Bsp: diff’bare Funktionen: C[a, b] = C(0)[a, b] ⊃ C ′[a, b] ⊃ C ′′

[a, b] ⊃ . . . ⊃ C(n)[a, b]

4.2 Linearkombination

~b = x1~a1 + x2~a2 + . . .+ xk~ak heisst Linearkombination ⊂ V mit ~ai ∈ V, xi ∈ R. Die Menge all dieserVektoren nennt man die lineare Hulle. Diese ist ein Teilraum von V .Linear Unabhangig: Wenn fur x1~a1 + x2~a2 + . . .+ xk~ak = 0 lediglich die triviale Losung x1 = x2 =. . . = xk = 0 existiert. Der Nullvektor ist immer linear abhangig.

4.3 Erzeugendensystem

Kann jeder Vektor ~b ∈ V als Linearkombination der Vektoren ~ai ∈ V dargestellt werden, so heissen ~aiein Erzeugendensystem des Vektorraums V : V = span{~a1,~a2, . . . ,~an}.V heisst endlichdimensional, wenn er ein Erzeugendensystem (~a1,~a2, . . . ,~an) besitzt, so dass V =span{~a1,~a2, . . . ,~an} gilt. Sonst ist er unendlichdimensional.

4.4 Basis

1. Seien ~a1,~a2, . . . ,~an ein Erzeugendensystem und linear unabhangig. Dann nennt man das Erzeu-gendensystem eine Basis. Eine Basis fur Polynome sind beispielsweise die Monome 1, x, x2, x3, . . .oder die Legendre Polynome P0(x) = 1, Pi(x) = 1

2ii!di

dxi (x2 − 1)i i > 0.

2. Legrend-Polynome sind orthogonal zueinander. |Pn| =√

22n+1 , P0(t) = 1, P1(t) = t, Pn+1(t) =

2n+1n+1 tPn(t)−

nn+1Pn−1(t) (rekursiv definiert).

3. Verschiedene Basen eines Vektorraumes bestehen aus gleich vielen Vektoren. Die Dimension vonV ist dimV = maximale Anzahl linear unabhangige Vektoren = Anzahl Elemente einer Basis.dim{~0} = 0.

4. Sei dimV = n. Mehr als n-Vektoren = linear abhangig; weniger als n-Vektoren = nicht erzeugend;bei n-Vektoren, die linear unabhangig und erzeugend sind → Basis.

Direkte Summe: Rn ⊕ Rm :=(~x~y

)mit dim = n+m

Page 8: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

5 NORM, SKALARPRODUKT, GRAM-SCHMIDT 8

5 Norm, Skalarprodukt, Gram-Schmidt

5.1 Norm

Eine Vorschrift, die jedem Vektor ~a ∈ V eine reelle Zahl ||a|| zuordnet, heiss Norm/Lange in V .

1. ||~a|| > 0, ||~a|| = 0↔ ~a = 0

2. ||α~a|| = |α| · ||~a|| fur α = u+ iv, |α| :=√u2 + v2

3. ||~a+~b|| ≤ ||~a||+ ||~b|| (Dreiecks-Ungleichung)

4. ||~a|| =√< ~a,~a >

� Euklidische Norm: ||x||2 =√x2

1 + x22 + x2

3: Lange des Vektors in R3

� Maximumsnorm: ||x||∞ := max(|x1|, |x2|, |x3|)

� Lp-Norm: ||x||p := p√|x1|p + |x2|p + |x3|p ∀p ≥ 1

� Normen von Funktionen: ||f ||0 := maxx∈I |f(x)|, ||f ||1 := maxx∈I |f(x)|+maxx∈I |f ′(x)|

� A ∈ C2,2 : ||A||1 =∑

i,k |aik|, ||A||∞ = Max|aik|

� p =∑N

n=0 anxn : ||p|| =

∑Nn=0 |an|

5.2 Skalarprodukt

Vorschrift, die jedem Vektor-Paar ~x, ~y eine reelle Zahlen < ~x, ~x > zuordnet, heisst Skalarprodukt in V .

1. < ~x, ~y1 + ~y2 >=< ~x, ~y1 > + < ~x, ~y2 >

2. < ~x, α~y >= α < ~x, ~y >

3. < ~x, ~y >=< ~y, ~x >= ~xT~y = ~yT~x Standardskalarprodukt in Rn

< ~x, ~y >= < ~y, ~x > unitares Skalarprodukt in Cn

4. < ~x, ~x >≥ 0, < ~x, ~x >= 0↔ ~x = ~0

5. < ~x, ~y >= 0 → ~x, ~y orthogonal

6. < ~x, ~x >= 1 → ~x ist Einheitsvektor

7. < ~x, ~y >2≤< ~x, ~x >< ~y, ~y >↔ | < ~x, ~y > | ≤ ||~x|| · ||~y|| Schwarzsche Ungleichung

� Standardskalarprodukt in Rn: < ~x, ~y >= x1y1 + x2y2 + . . .+ xnyn, ~x, ~y ∈ V

� Standardskalarprodukt in Cn:< ~x, ~y >= x1y1 + x2y2 + . . .+ xnyn = x1y1 + x2y2 + . . .+ xnyn, ~x, ~y ∈ C

� ||~x|| =√< ~x, ~x > heisst Norm

� sind ~x, ~y orthogonal: ||~x+ ~y||2 = ||~x||2 + ||~y||2 = ||~x− ~y||2 < ~x, ~y >= 0 (Satz von Pythagoras)

� cosϕ = <~a,~b>

||~a||·||~b||

� < f, g >:=∫ ba f(t)g(t)dt

� < f, g > in C auf {1, 2, . . . , N} := f(1)g(1) + f(2)g(2) + . . .+ f(N)g(N) =∑N

n=1 f(n)g(n)

� orthogonale Projektion von ~x auf ~y: <~x,~y><~x,~x>~y

� paarweis orthogonale Einheisvektoren sind linear unabhangig und bilden eine orthonormale Basis.

Page 9: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

6 LINEARE ABBILDUNGEN 9

5.3 Gram-Schmidt-Orthogonalisierungsverfahren

Basis ~b1,~b2, . . . ,~bn erzeugt einen n-dimensionalen Verktorraum. Wir suchen eine orthonormale Basis~e1, ~e2, . . . , ~en mit < ~ei, ~ej >= δij , wobei span(~e1) = span(~b1), span(~e1, ~e2) = span(~b1,~b2), . . . ,span(~e1, ~e2, . . . , ~en) = span(~b1,~b2, . . . ,~bn).

1. ~e1 = ~b1||~b1||

= ~b1√<~b1,~b1>

1. Basisvektor normieren

2. (a) Lot fallen: ~c2 := ~b2− <~b2, ~e1 > ~e1

(b) Lot normieren: ~e2 = ~c2||~c2|| =

~b2−<~b2,~e1>~e1||~b2−<~b2,~e1>~e1||

3. (a) Lot fallen: ~c3 := ~b3− <~b3, ~e1 > ~e1− <~b3, ~e2 > ~e2, oder ~c3 = ~b1 ×~b2(b) ~e3 = ~c3

||~c3||

5.4 Vektorprodukt in R3

� ~u× ~v =

u2v3 − u3v2u3v1 − u1v3u1v2 − u2v1

∀ ~u =

u1

u2

u3

~v =

v1v2v3

∈ R3

� ~u× ~v = −(~v × ~u)

� < ~u, ~u× ~v >= 0 Kreuzprodukt steht orthogonal zu ~u,~v

� ||~u× ~v||2 = ||~u||2 · ||~v||2− < ~u,~v >2

6 Lineare Abbildungen

L : ~x ∈ V (Urbild) 7→ ~y = F (~x) ∈W (Bildraum) heisst lineare Abbildung, falls gilt:

1. L(~x+ ~y) = L(~x) + L(~y) ∀~x, ~y ∈ V

2. L(α~x) = αL(~x) ∀α ∈ C/R, ∀~x ∈ V

Die lineare Struktur der Verktorraume bleibt somit erhalten. Bsp: Ableitung von Polynomen.L : ~x ∈ Rn 7→ ~y = L(~x) := A(~x) ∈ Rm , so ist A eine m× n-Matrix.

6.1 Bild und Kern

Sei L : ~x ∈ V n 7→ ~y = A~x ∈ V m linear.

1. Menge aller Vektoren, die auf Null abgebildet werden, heisst Kern der Matrix A, Kern(A):Kern(L) := {~x ∈ V |L(~x) = 0} ↔ Kern(A) := {~x ∈ V n|A~x = 0}

2. Menge aller Bildvektoren ~y ∈ V m heisst Bild der Matrix A, Bild(A),Bild(L) := {~y ∈W |∃~x ∈ V, dass ~y = L(~x)} ↔ Bild(A) := {~y ∈ V m|∃~x ∈ V n, dass ~y = A~x}

(a) Der Kern ist ein Teilraum von V n

(b) Das Bild ist ein Teilraum von V m

Page 10: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

6 LINEARE ABBILDUNGEN 10

6.1.1 Dimension und LGS:

�~b ∈ Bild(A)↔ A~x = ~b losbar

� ~x ist genau dann ein Element vom Kern(A), wenn es A~x = 0 lost.

� dim(Kern(A)) = n− r

� dim(Bild(A)) = dim(Bild(AT )) = r Spalten, die nach dem Gauss-Endschema einen Kopfhaben

� dim(Kern(A)) + dim(Bild(A)) = dim(Urbild(A)) = dim(V n) = n

6.1.2 Basis des Kerns

1. A in NZSF bringen und LGS A~x = ~0 betrachten

2. Variablen x1, x2, . . . , xn in r Kopfvariablen und n− r Nicht-Kopfvariablen unterteilen

3. 1. Nicht-Kopfvariable gleich 1 setzen und alle anderen gleich 0. Homogenes LGS losen→ 1. Basisvektor

4. 2. Nicht-Kopfvariable gleich 1 setzen und alle anderen gleich 0. Homogenes LGS losen→ 2. Basisvektor

5. usw. Man bekommt so n− r Basisvektoren des Kerns

6.1.3 Basis des Bildes

1. Matrix A in ZSF bringen

2. Kopfvariablen bestimmen

3. Die Spaltenvektoren von A, die zu einer Kopfvariablen gehoren, bilden eine Basis des Bildes

� Rang(A) = dim(Bild(A)) = Anzahl Kopfvariablen der Matrix A.

� Spaltenvektoren von A bilden ein Erzeugendensystem des Bildes von A.

6.1.4 Struktur des Losungsraumes

L~x = ~b, ~x0 sei eine Losung. Dann ist die Losungsmenge ~x0 +Kern(L) := {~x0 + ~n|~n ∈ Kern(L)}.Bsp: D sei der Differentialoperator, ~b = 2x + 1: partikulare Lsg: p0(x) = x2 + x, Kern von D: alleKonstanten → Losungsmenge: {x2 + x+ a|a ∈ R}

6.2 Vektorraumoperationen

� L,M ∈ L(V,W ) L+M

{V →W

~v 7→ L(~v) +M(~v)L,M mussen beide von V →W gehen.

� F : ~x ∈ V n 7→ ~y = A~x ∈ V m, G : ~y ∈ V m 7→ ~z = B~y ∈ V p

H : ~x ∈ V n 7→ ~z = H(~x) = G(F (~x)) ∈ V p, wobei H = G ◦ F H(~x) = (BA)(~x) = B(A(~x))Sofern die Abbildungen “passen”, gelten Assoziativitat und Distributivitat bei Multiplikation (Bild)

� L ∈ L(V, V ). L heisst invertierbar, falls ∃M ∈ L(V, V ), sodass M ◦L = L◦M = Iv (Identitat)→M =: L−1. Eine lineare Abbildung ist nur umkehrbar, wenn L regular ist.

Page 11: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

7 KOORDINATEN UND DARSTELLENDE MATRIZEN 11

� injektiv: L ∈ L(V,W ) Jeder Bildvektor hat einen Urbildvektor:Kern(L) = {~0} ↔ dim(Kern(L)) =0

� surjektiv: L ∈ L(V,W ) Jeder Vektor im ZielraumW ist Bildvektor:Bild(L) = W ↔ dim(Bild(L)) =dim(W )

7 Koordinaten und darstellende Matrizen

7.1 Transformation der Koordinatenvektoren bei Basiswechsel

Ein Vektor hat unterschiedliche Koordinatenvektoren (x1, . . . , xn), je nachdem, auf welche Basis sie sichbeziehen. Siehe Abbildung 1.

Abbildung 1: Transformation der Koordinatenvektoren bei Basiswechsel

Konstruktion von S:

1. ~b1 ist Linearkombination der Basisvektoren B2 = {~c1, . . . ,~cn}. Die Koeffizienten sind die Koordi-naten von b1 bez. B2 und bilden den ersten Spaltenvektor von S.

2. ~b2 ist Linearkombination der Basisvektoren B2 = {~c1, . . . ,~cn}. Die Koeffizienten sind die Koordi-naten von b2 bez. B2 und bilden den zweiten Spaltenvektor von S.

3. dito.

7.2 Darstellung linearer Abbildungen durch Matrizen

V sei ein Vektorraum der Dimenstion n und L eine lineare Abbildung von V nach V . Siehe Abbildung 2.Konstruktion von LB:

1. Jede Komponente der Basis mit L abbilden.

2. Jede abgebildete Basis bezuglich Standardbasis darstellen.

3. Die Koeffizienten der 1. abgebildeten Basis ist 1. Spaltenvektor von LB.

4. Die Koeffizienten der 2. abgebildeten Basis ist 2. Spaltenvektor von LB.

5. dito.

Page 12: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

8 ORTHOGONALE UND UNITARE ABBILDUNGEN, QR-ZERLEGUNG 12

Abbildung 2: Darstellende Matrix LB

7.3 Transformation der darstellenden Matrix bei Basiswechsel

Dieselbe lineare Abbildung wird durch verschiedene Matrizen dargestellt, falls sich diese auf verschiedeneBasen beziehen. Die erste darstellende Matrix kann somit in die zweite umgerechnet werden. SieheAbbildung 3

Abbildung 3: Transformation der darstellenden Matrix bei Basiswechsel

8 Orthogonale und Unitare Abbildungen, QR-Zerlegung

8.1 Orthogonale und unitare Abbildungen

� orthogonale Transformation: < ~x, ~y >=< R~x,R~y >

� R ist eine orthogonale Matrix, falls gilt: RTR = In (orthonormale Spaltenvektoren)

� Bild einer ONB unter einer orthogonalen Transformation ist eine ONB.

� Bsp: R(φ) =(

cosφ − sinφsinφ cosφ

)Drehung um φ mit R(φ1)R(φ2) = R(φ1 + φ2)

Page 13: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

9 EIGENWERTE, EIGENVEKTOREN UND CHARAKTERISTISCHES POLYNOM 13

� Bsp: Spiegelung an ~e1-Achse: ~x 7→(

1 00 −1

)~x

� unitare Transformation: < U~x,U~y >=< ~x, ~y >

� U ist eine unitare Matrix, falls gilt: U∗U = In (Spaltenvektoren bildn Orthonormalbasis in Cn)

8.2 QR-Zerlegung

A = Q ·R, wobei dies ein einfaches Invertieren erlaubt

� A ∈ Rm,n: jede Matrix kann QR zerlegt werden: A = (~a1,~a2, . . . ,~an)

� Q ∈ Rm,m: quadratische orthogonale Matrix. Bekommt man, indem man das Gram-Schmidt-Verfahren auf A anwendet: Q = (~q1, ~q2, . . . , ~qn). Ist m > n, so muss man zu den Spalten nochm− n Vektoren wahlen, sodass man eine Basis im Raum Rm erhalt.

� R ∈ Rm,n: obere Dreiecksmatrix

< ~a1, ~q1 > < ~a2, ~q1 > . . . < ~an, ~q1 >

0 < ~a2, ~q2 > . . . < ~an, ~q2 >

0 0. . .

...0 0 0 < ~an, ~qn >

=

r11 r12 . . . r1n0 r22 . . . r2n

0 0. . .

...0 0 0 rnn

� A = QR = (r11~q1, r12~q1 + r22~q2, . . . , r1n~q1 + r2n~q2 + . . .+ rnn~qn)

9 Eigenwerte, Eigenvektoren und Charakteristisches Polynom

Sei A ∈ Kn,n. A~x = λ~x~x ist Eigenvektor von A zum Eigenwert λ: Eine Streckung des Vektors selbst.

9.1 Berechnung

1. (A− λ~In)~x = 0

2. charakteristisches Polynom von A losen: pA(λ) = det(A− λIn) = 0

3. Eigenvektoren ~xi zu Eigenwerten λi ausrechnen, indem man λi in 1. einsetzt.

4. 2×2-Matrix: p(λ) = λ2 − λ(Spur(A)) + det(A) = 0

5. Fur symmetrische Matrizen gelten:

(a) Alle Eigenwerte sind reell.

(b) Es existieren genau n linear unabhangige Eigenvektoren.

(c) Geometrische Vielfachheit = Algebraische Vielfachheit

(d) Eigenvektoren, die zu verschiedenen Eigenwerten gehoren, sind orthogonal.

9.2 Eigenschaften

� Spur(A) = λ1 + . . .+ λn

� det(A) = λ1λ2 · . . . · λn

� Der Eigenvektor ~x zu λ spannt einen 1-dimensionalen Teilraum Vλ, span{~x} auf: α~x ist auchEigenvektor zum selben λ ∀α ∈ C\{0}.

Page 14: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung

10 DIAGONALISIERBARKEIT VON MATRIZEN 14

� Die Algebraische Vielfachheit von λ ist die “Multiplizitat“ von λ als Nullstelle.

� Die Geometrische Vielfachheit ist die Dimension des Eigenraumes Vλ zu einem λ.

� Geometrische Vielfachheit ≤ Algebraische Vielfachheit: tritt ein Eigenwert k-fach auf, so existierenmind. 1 hochstens aber k linear unabh. Eigenvektoren.

� Satz: Seien ~x1, . . . , ~xk Eigenvektoren mit Eigenwerten λ1, . . . , λk. Sind λ1, . . . , λk verschieden, sosind ~x1, . . . , ~xk linear unabhangig.

10 Diagonalisierbarkeit von Matrizen

Symmetrische, selbstadjungierte (=hermetische), unitare, quadratische Matrizen sind diagonalisierbar

10.1 Eigenschaften

1. Eine (n × n)-Matrix A ist diagonalisierbar, falls eine inv’bare Matrix S ∈ C gibt, sodass MatrixD := S−1AS diagonal ist. ↔ Es gibt eine Basis von Eigenvektoren.

2. Spalten von S bestehen aus Eigenvektoren.

3. Matrizen mit n verschiedenen Eigenvektoren sind diagonalisierbar → D = diag(λ1, λ2, . . . , λn).

4. Ist A diagonalisierbar ↔ ∀ Eigenwerte gilt: algebraische = geometrische Vielfachheit.

5. Die Matrixdarstellung von A zur Basis bestehend aus Eigenvektoren ist diagonal

6. A = S−1DS ↔ Ak = S−1DkS

7. Ist A symmetrisch (A = AT ), so ist A mit einer Orthogonalmatrix diagonalisierbar

8. Ist A selbstadjungiert (AT = A), so ist A mit einer unitaren Matrix diagonalisierbar

9. Unitare Matrizen sind stets diagonalisierbar

10. Ist Am = 0, m ≥ 1, so ist A nicht diagonalisierbar.

10.2 Algorithmus fur S

1. Eigenwerte der (n× n)-Matrix mittels charakteristischem Polynom berechnen.

2. Losungsmenge (= Eigenvektoren) der Gleichungssysteme Kern(A−λiIn) = {~x|(A−λiIn)~x = ~0}berechnen

3. Gilt fur alle Eigenwerte: algebraische = geometrische Vielfachheit? Wenn nein → Matrix A istnicht diagonalisierbar

4. Eine Basis Bi in Kern(A− λiIn) wahlen

5. B := {B1, . . . , Bk} ist eine Basis von Eigenvektoren. Die darstellende Matrix AB ist diagonal.

Page 15: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung
Page 16: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung
Page 17: Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung