wiederholung: matrixdarstellung, rotkäppchens diätplan · matrix a 2 r (n ;n ) normal: bei...
TRANSCRIPT
-
Lineare Abbildungen
Vorlesung 1
5. April + 8. April
Basiswechsel
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 1 / 84
Lineare Abbildungen
Wiederholung: Matrixdarstellung,
Rotkäppchens Diätplan
Ananas Wein Orangen SahnePreis 2.00 8 0.50 1.39Fett 0.02 0.01 0.05 30
Zucker 200 30 15 1
Korb mit:
AnanasWein
OrangenSahne
2132
−→
2 · 2.00 + 1 · 8 + 3 · 0.5 + 2 · 1.39 P2 · 0.02 + 1 · 0.01 + 3 · 0.05 + 2 · 30 F2 · 200 + 1 · 30 + 3 · 15 + 2 · 1 Z
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 2 / 84
Lineare Abbildungen
Seite 125Vektorraum lin. Abbildung Vektorraum
V A−→ W{v1, · · · , vn} {w1, · · · ,wm}Basis von V Basis von W
Aus Av j =m∑
i=1
aij w i mit A =
a11 · · · a1n...
...am1 amn
∈ R(m,n)
und v =n∑
j=1
xjv j ∈ V folgt für die yi ’s in A(v) =m∑
i=1
yiw i
A(v) = A( n∑
j=1
xjv j)
=n∑
j=1
xj A(v j ) =n∑
j=1
xjm∑
i=1
aij w i =m∑
i=1
(yi︷ ︸︸ ︷
n∑
j=1
aijxj)
w i
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 3 / 84
Lineare Abbildungen
Seite 125
A(v) = A( n∑
j=1
xjv j)
=n∑
j=1
xj A(v j ) =n∑
j=1
xjm∑
i=1
aij w i =m∑
i=1
( n∑
j=1
aijxj)
w i
Also kann die Abbildung
v =n∑
j=1
xjv jA−→ w := A(v) =
m∑
i=1
yiw i
in den Koeffizientenvektoren x =
x1...
xn
und y =
y1...
ym
einfach geschrieben
werden als
y = Ax .
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 4 / 84
-
Lineare Abbildungen
A. Matrixdarstellung & BasiswechselSeite 189
Vektorraum lin. Abbildung VektorraumV A−→ W
{v1, · · · , vn} {w1, · · · ,wm}Basis von V Basis vonW
Av j =m∑
i=1
aij w i mit A =
a11 · · · a1n...
...am1 amn
∈ R(m,n)
Neue Basen{ṽ1, · · · , ṽn} {w̃1, · · · , w̃m}
Aṽ j = ∑mi=1 ãij w̃ i
à berechenbar aus A?
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 5 / 84
Lineare Abbildungen
Einfachster Fall
V = Rn W = Rm
V :=(v1, . . . , vn
)∈ R(n,n), regulär W :=
(w1, . . . ,wm
)∈ R(m,m), regulär
Ṽ :=(ṽ1, . . . , ṽn
)∈ R(n,n), regulär W̃ :=
(w̃1, . . . , w̃m
)∈ R(m,m), regulär
Vx = v = Ṽ x̃ Wy = w = W̃ ỹ
y = Ax bekannt.
ỹ = Ãx̃ gesucht.
ỹ = W̃−1
w︷ ︸︸ ︷
W A
x︷ ︸︸ ︷V−1 Ṽ x̃︸︷︷︸
v︸ ︷︷ ︸y
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 6 / 84
Lineare Abbildungen
Beispiel
V :=
1 1 11 1 00 1 0
∈ R(3,3) W :=
(1 12 1
)∈ R(2,2)
Ṽ :=
1 0 00 1 00 0 1
∈ R(3,3) W̃ :=
(1 00 1
)∈ R(2,2)
Vx = v = Ṽ x̃ Wy = w = W̃ ỹ
y = Ax =(
1 0 −10 1 0
)x .
à = W̃−1WAV−1Ṽ =(
1 12 1
)(1 0 −10 1 0
)
1 1 11 1 00 1 0
−1
=
(−1 2 0−2 4 −1
)
Test: Ãv1 =(−1 2 0−2 4 −1
)
110
=
(12
)= 1 · w1
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 7 / 84
Lineare Abbildungen
Nächst schwierigerer FallEben hatten wir
Ãx̃ =
ỹ←y︷ ︸︸ ︷W̃−1W A V−1Ṽ︸ ︷︷ ︸
x←x̃
x̃
Nun nehmen wir an:
V ⊂ Rp, p ≥ n W ⊂ Rq , q ≥ mV :=
(v1, . . . , vn
)∈ R(p,n), Rang n W :=
(w1, . . . ,wm
)∈ R(q,m), Rang m
Ṽ :=(ṽ1, . . . , ṽn
)∈ R(p,n), Rang n W̃ :=
(w̃1, . . . , w̃m
)∈ R(q,m), Rang m
Vx = v = Ṽ x̃ Wy = w = W̃ ỹ
y = Ax bekannt. ỹ = Ãx̃ gesucht.
Achtung: V , Ṽ ,W , W̃ sind nicht mehr invertierbar. Obige Formel tut’s nichtmehr.
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 8 / 84
-
Lineare Abbildungen
Aber in
Ãx̃ =
ỹ←y︷ ︸︸ ︷W̃−1W A V−1Ṽ︸ ︷︷ ︸
x←x̃
x̃
brauchen wir ja auch nur Operatoren, die x̃ in x transformieren und y in ỹ .
Und die erhalten wir so:
Weil die Spalten von V und die Spalten von Ṽ Basisvektoren von V enthalten,gibt es eine reguläre (m,m)-Matrix S mit
Ṽ = VS.
Indem wir x̃ dahinter schreiben
Ṽ x̃ = VSx̃ (= Vx),
sehen wir, dassx = Sx̃ .
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 9 / 84
Lineare Abbildungen
Analog zu
Ṽ = VS ⇒ x = Sx̃gilt
W̃ = WR ⇒ y = RỹUnd damit erhalten wir nun
Ãx̃ = ỹ = [ỹ ← y ] A [x ← x̃ ] x̃ = R−1ASx̃ .
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 10 / 84
Lineare Abbildungen
Beispiel
V =
1 12 13 1
W =
(1 12 1
)
A =(
1 00 1
)
Ṽ =
−1 10 11 1
W̃ =
(1 00 1
)
Ṽ = V(
1 0−2 1
)
︸ ︷︷ ︸S
W̃ = WR; also R = W−1.
à = R−1AS = WAS =(
1 12 1
)(1 00 1
)(1 0−2 1
)=
(−1 1−3 2
).
Probe:
123
= Ṽ
(12
), und Ã
(12
)=
(−1 1−3 2
)(12
)=
(11
). - OK
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 11 / 84
Lineare Abbildungen
FrageWie berechnt man S in VS = Ṽ?Antwort: Notfalls mit Gauß-Elimination. (Demonstration an letztem Beispiel.)
1 12 13 1
S =
−1 10 11 1
Löse zwei Gleichungssysteme (für die erste und zweite Spalte von S)simultan:
1 1 −1 12 1 0 13 1 1 1
→
1 1 −1 10 −1 2 −10 −2 4 −2
→
1 1 −1 10 −1 2 −10 0 0 0
Löse nun (1 10 1
)(s11s21
)=
(−12
)und
(1 10 1
)(s12s22
)=
(1−1
)
auf zu
S =(
1 0−2 1
).
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 12 / 84
-
Lineare Abbildungen
Allgemeiner FallVektorraum lin. Abbildung Vektorraum
V A−→ W{v1, · · · , vn} {w1, · · · ,wm}{ṽ1, · · · , ṽn} {w̃1, · · · , w̃m}Basen von V Basen vonW
Die Beziehungen
Vx = v = Ṽ x̃ Wy = w = W̃ ỹund
Ṽ = VS W̃ = WRmüssten eigentlich anders geschrieben werden.Die beiden letzten lauten z.B.
ṽj =∑n
i=1 visij , j = 1, . . . ,n w̃j =
∑mi=1 w
i rij , j = 1, . . . ,m.Die Matrizen S und R gehen aber wie oben in die Transformation ein:
à = R−1AS.Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 13 / 84
Lineare Abbildungen
Beispiel: V ⊂ Π2,W = T1v1(x) = x + x2
v2(x) = x + 2x2w1(x) = sin(x) + cos(x)w2(x) = 2 sin(x)− cos(x) + 1w3(x) = 2 + sin(x)
,
A =
1 00 10 0
ṽ1(x) = x ,ṽ2(x) = x2
w̃1(x) = 1,w̃2(x) = sin(x),
w̃3(x) = cos(x).
Praktische Schlamp-Schreibweise:
(v1, v2
)=(ṽ1, ṽ2
)(1 11 2
)
︸ ︷︷ ︸S−1
,(w1,w2,w3
)=(w̃1, w̃2, w̃3
)
0 1 21 2 11 −1 0
︸ ︷︷ ︸R−1
.
à = R−1AS =
0 1 21 2 11 −1 0
1 00 10 0
(
2 −1−1 1
)=
−1 10 13 −2
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 14 / 84
Lineare Abbildungen
Abschließendes BeispielFür
R3 T−→ R2
ist bekannt
T
110
=
(11
),T
101
=
(12
),T
111
=
(01
)
V =
1 1 11 0 10 1 1
W =
(1 11 2
)
⇒A =
(1 0 −10 1 1
)
VS = Ṽ = E3 E2 = W̃ = WR⇒ S = V−1 ⇒ R = W−1
⇒
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 15 / 84
Lineare Abbildungen
à = R−1AS = WAV−1
=
(1 11 2
)(1 0 −10 1 1
)
1 1 11 0 10 1 1
−1
=
(2 −1 −12 −1 0
)
(Test!)
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 16 / 84
-
Lineare Abbildungen
Äquivalente MatrizenSeite 199
B R−1 AS
m
n
m n
n=
Basiswechsel imBildraum
Basiswechsel imUrbildraum
Definition 6.6A,B ∈ R(m,n) sind äquivalent, wenn ∃
R ∈ R(m,m),S ∈ R(n,n)︸ ︷︷ ︸beide regulär
so dass B = R−1 A S
Beschreiben dieselbe Abbildung bzgl. verschiedener Basen.Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 17 / 84
Lineare Abbildungen
NormalformSeite 200
FrageGibt es eine besonders einfache äquivalente Matrix zu A ∈ R(m,n)?
Ja
A ∈ R(m,n) habe Rang r(r ≤ min(m,n))
⇒
A äquivalent zu
Dr : =(
Er 00 0
)
︸ ︷︷ ︸Normalform von A
∈ R(m,n)
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 18 / 84
Lineare Abbildungen
Folgerung
AB
}∈ R(m,n) äquivalent ⇔ Rang A = Rang B
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 19 / 84
Lineare Abbildungen
Wichtiger Spezialfall: ÄhnlicheMatrizen
Seite 201
V T−→ V dim V = n
Normal: Verwende in Urbild- und Bildraum gleiche Basis. Darstellung durchMatrix A ∈ R(n,n)
Normal: Bei Basis-Wechsel wird man im Bild- und Urbildraum wieder diegleiche Basis wollen.
Übergang:
B = S−1 A S︸ ︷︷ ︸Definition 6.7: A und B heißen ähnlich. (Wichtig!)
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 20 / 84
-
Lineare Abbildungen
Ende der 1. Vorlesung
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 21 / 84
Lineare Abbildungen Die orthogonale Projektion
Vorlesung 2
12. April + 16. April
Orthogonale Projektionen
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 23 / 84
Lineare Abbildungen Die orthogonale Projektion
Wiederholung /Fourierentwicklung:
Folie zum Übers-Bett-Hängen
a
b
α
Projektion von b auf a-Richtung
= a · 〈a,b〉|a| · |a| = a ·〈a,b〉〈a,a〉 =
aaT
aT ab
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 24 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 86
Orthonormalbasen sind schön!{v1, · · · , vn} ONB von (V , 〈, 〉).
v1, · · · , vn Basis⇒ ∀ x ∃
x1...
xn
∈ Rn : x =
∑ni=1 xi v
i .
Wie berechnet man xi ?
〈v j , x〉 = 〈v j ,n∑
i=1
xi v i〉
=n∑
i=1
xi 〈v j , v i〉︸ ︷︷ ︸=δij
=n∑
i=1
xi · δij = xj
xj = 〈v j , x〉 Satz 2.58Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 25 / 84
-
Lineare Abbildungen Die orthogonale Projektion
Seite 86
v = α1 v1 + α2 v2 + · · · + αn vn〈v1, v〉 = 〈v1, α1 v1 + α2 v2 + · · · + αn vn〉
〈v1, v〉 = α1〈v1, v1〉 + α2〈v1, v2〉 + . . . + αn〈v1, vn〉= 1 = 0 = 0
also 〈v1, v〉 = α1.
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 26 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 86
Satz 2.58v1, ..., vn Orthonormalbasis.
v =n∑
i=1
αi vi , αj = 〈vj , v〉
also
v =n∑
i=1
vi〈vi , v〉︸ ︷︷ ︸
„Fourierentwicklung“
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 27 / 84
Lineare Abbildungen Die orthogonale Projektion
v1, ..., vn Orthonormalbasis, m < n
v =m∑
i=1
vi〈vi , v〉︸ ︷︷ ︸
∈W :=span{v1,...,vm}
+n∑
i=m+1
vi〈vi , v〉︸ ︷︷ ︸
span{vm+1,...,vn}⊥W
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 28 / 84
Lineare Abbildungen Die orthogonale Projektion
Orthogonale Projektion und besteApproximation im
unendlichdimensionalen Raum
Seite 202
(V , ) sei euklidischer Vektorraum.
ApproximationsproblemSei W endlichdimensionaler Teilraum von V . Sei v ∈ V gegeben.Bestimme ṽ ∈ W mit
||ṽ − v || ≤ ||w − v || ∀w ∈ W
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 29 / 84
-
Lineare Abbildungen Die orthogonale Projektion
Wie man vermutet, ist
ṽ = P(v) die orthogonale Projektion von v auf W .
Das soll jetzt festgemacht werden.
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 30 / 84
Lineare Abbildungen Die orthogonale Projektion
Ablauf der heutigen Vorlesung:
- Definiere Projektion auf endlichdimensionalen Teilraum W .
- Zeige Projektion = Beste Approximation
- Berechnung der Projektion
• Orthonormalisiere Basis• Gramsches System• Normalgleichungen
- Zwei Anwendungen
- Projektoren
- Orthogonalraum
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 31 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 202
Satz 6.10 (Projektionssatz)
ṽ
0
W
v
(V , ) sei euklidischer Vektorraum, W endlichdimensionaler Teilraum.Dann hat jedes v ∈ V eine eindeutige Zerlegung
v = w + u mit w ∈ W & u ⊥W
BeweisSei {w1, · · · ,wm} Orthonormalbasis von W . Wir versuchen unser Glück mit
w : =m∑
j=1
< v ,w j > w j und u : = v − w
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 32 / 84
Lineare Abbildungen Die orthogonale Projektion
Dann ist sicher w =∑m
j=1 < v ,wj > w j ∈ W klar.
Es ist aber auch u := v − w senkrecht zu W , denn für k = 1, . . . ,m ist
< u,wk > = < v − w ,wk >=< v ,wk > − < w ,wk >
= < v ,wk > −m∑
j=1
< v ,w j >< wk ,w j︸ ︷︷ ︸δkj
>
= < v ,wk > − < v ,wk >= 0
Also ist v = u + w eine Zerlegung wie gewünscht. Fehlt noch Eindeutigkeit.Sei v = w̃ + ũ, w̃ ∈ W , ũ ⊥W
w̃ + ũ = w + u ⇒ w̃ − w︸ ︷︷ ︸∈ w
= u − ũ︸ ︷︷ ︸⊥W
||w − w̃ ||2 =< w − w̃ ,w − w̃ >=< w − w̃ , ũ − u >= 0⇒ w = w̃
⇒ u = ũ �
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 33 / 84
-
Lineare Abbildungen Die orthogonale Projektion
Seite 203
v = w + u,w ∈W ,u ⊥W Zerlegung eindeutig!
Definition 6.11w Def .= Orthogonale Projektion P(v) von v auf W .
P(v) ist das eindeutige Element in W , mit dem v − P(v) senkrecht auf Wsteht.
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 34 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 204Damit ist die Geometrie in
gesichert, und wir haben somit gezeigt, den
Satz 6.16 (Approximationssatz)Sei (V , ) eukl. Vektorraum, W endlichdimensionaler Teilraum und P dieorthogonale Projektion auf W . Dann ist P(v) für alle v ∈ V die eindeutigbeste Approximation von v aus W :
||v − P(v)|| < ||v − w ||∀ w ∈ W ,w 6= P(v)
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 35 / 84
Lineare Abbildungen Die orthogonale Projektion
Weitere WiederholungSeite 204
Satz von PythagorasFür alle u,w ∈ V mit < u,w >= 0 gilt
‖u‖2 = ‖u‖2 + ‖w‖2
BeweisGanz einfach:
||u + w ||2 =< u + w ,u + w >=< u,u > + 2 < u,w >︸ ︷︷ ︸=0
+ < w ,w >
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 36 / 84
Lineare Abbildungen Die orthogonale Projektion
Zusammenfassung:
PythagorasPythagoras
‖u + w‖2 = ‖u‖2 + ‖w‖2
gilt, wenn die Norm über‖x‖2 = 〈x , x〉,
mit dem innerem Produkt verbunden ist.
Beste Approximation mit Pythagoras
„Beste Approximation„ = „Projektion“
wenn Pythagoras gilt.
Beste Approximation ohne PythagorasSchnellster Weg in Unterraum ohne Pythagoras ist schwieriger zu finden.
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 37 / 84
-
Lineare Abbildungen Die orthogonale Projektion
Seite 205
Bemerkung 6.17Approximationsproblem
w∗ ?= arg min {||v − w ||∣∣w ∈ W}
ist auch sinnvoll im allgemeinen normierten Raum.Eine beste Approximation existiert für endlichdim. W (⇐ Analysis)Aber die Lösung ist oft nicht eindeutig und i.A. keine Projektion.
w0
v
alles Lösungen
max-Norm
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 38 / 84
Lineare Abbildungen Die orthogonale Projektion
Berechnung von P(v):Seite 203
Anmerkung 6.12Ist {w1, · · · ,wm} irgendeine Orthonormalbasis von W , so ist
P(v) =m∑
j=1
< v ,w j > w j .
Bemerkung 6.14Sei {w1, · · · ,wm} beliebige Basis von W . Dann hat P(v) eine eindeutigeDarstellung
P(v) =m∑
j=1
ζj w j
und P(v) erfüllt
v − P(v) ⊥ w ∀ w in W
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 39 / 84
Lineare Abbildungen Die orthogonale Projektion
v − P(v) ⊥ w ∀ w in W
⇔ 〈w i , v − P(v)〉 = 0 i = 1, · · · ,m
⇔ < w i , v −m∑
j=1
ζj w j >= 0 , i = 1, · · · ,m
⇔m∑
j=1
ζj < w i ,w j >=< w i , v >, i = 1, · · · ,m
< w1,w1 > · · · < w1,wm >
...< wm,w1 > · · · < wm,wm >
︸ ︷︷ ︸regulär, wenn w1, . . . ,wm linear unabhängig.
ζ =
< w1, v >
...< wm, v >
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 40 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 204
Definition 6.15Sei (V , ) eukl. Vektorraum und w1, · · · ,wm ∈ V Dann heißt
G(w1, · · · ,wm) : =
< w1,w1 > · · · < w1,wm >
...< wm,w1 > · · · < wm,wm >
Gramsche Matrix zu w1, · · · ,wm
LEMMA:
G(w1, · · · ,wm) ist regulär⇔ {w1, · · · ,wm} sind linear unabhängig.
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 41 / 84
-
Lineare Abbildungen Die orthogonale Projektion
LEMMA:
G(w1, · · · ,wm) ist regulär⇔ {w1, · · · ,wm} sind linear unabhängig.
Beweis:Sei G regulär. Ist dann
∑ζiw i = 0, so ist
0 =
〈w1,∑ ζiw i〉〈w2,∑ ζiw i〉
...〈wm,∑ ζiw i〉
= G
ζ1ζ2...ζm
also (ζ1, .., ζm)T = 0, mithin w1, . . . ,wm l.u..Sei umgekehrt G singulär. Dann gibt es ζ := (ζ1, . . . , ζm)T 6= 0 mit Gζ = 0.Daher ist ∥∥∥
∑ζiw i
∥∥∥2
= 〈∑
ζiw i ,∑
ζjw j〉 = ζT Gζ = 0,
also∑ζiw i = 0, so dass die w i -Vektoren linear abhängig sind. �
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 42 / 84
Lineare Abbildungen Die orthogonale Projektion
Spezialfall 1:w1, ...,wm, v ∈ Rn; (w1, . . . ,wm) =: A ∈ R(n,m), inneres Produkt =euklidisches Produkt.Dann schreibt sich das Approximationsproblem so:
Minimiere ‖Aζ − v‖2 bezüglich ζ.
Das Gramsche System< w1,w1 > · · · < w1,wm >
...< wm,w1 > · · · < wm,wm >
ζ =
< w1, v >
...< wm, v >
wird zuAT Aζ = AT v (Sogenannte Normalgleichungen),
und die Projektion P(v) =∑
w iζi = Aζ hat die Form
P(v) = A(AT A)−1AT v .
(Dies ist im Skript als Satz 6.20 aufgeschrieben.)Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 43 / 84
Lineare Abbildungen Die orthogonale Projektion
Spezialfall 2:
w1, ...,wm orthogonal.
Dann wird die Gramsche Matrix im System< w1,w1 > · · · < w1,wm >
...< wm,w1 > · · · < wm,wm >
ζ =
< w1, v >
...< wm, v >
zur Diagonalmatrix.Es werden
ζi =< w i , v >< w i ,w i >
und
P(v) =∑
w iζi = w1< w1, v >< w1,w1 >
+ . . .+ wm< wm, v >< wm,wm >
.
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 44 / 84
Lineare Abbildungen Die orthogonale Projektion
Spezialfall 3:Seite 204
In
P(v) = w1< w1, v >< w1,w1 >
+ . . .+ wm< wm, v >< wm,wm >
.
seien
w1, ...,wm ∈ Rn orthogonal bezüglich euklid. Produkt 〈w i ,w j〉 = (w i )T w j .
Dann wird
P(v) =(
w1(w1)T
(w1)T w1+ . . .+
wm(wm)T
(wm)T wm
)
︸ ︷︷ ︸Summe dyadischer Produkte
v
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 45 / 84
-
Lineare Abbildungen Die orthogonale Projektion
Beispiel 6.18Seite 205
Betrachte Πn mit < p,q >: =∫ 1
0 p(x) q(x) dxFinde Gerade g(x) = ζ0 · 1 + ζ1 x , die u(x) : = x3 bestmöglich nähert.
‖u − g‖ =< u − g,u − g >1/2 != min.
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 46 / 84
Lineare Abbildungen Die orthogonale Projektion
Beispiel 6.18
Lösung mit Gram-System
w1(x) = 1,w2(x) = x , v(x) = x3
(< w1,w1 > < w1,w2 >< w2,w1 > < w2,w2 >
)(ζ0ζ1
)=
(< w1, v >< w2, v >
)
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 47 / 84
Lineare Abbildungen Die orthogonale Projektion
< w1,w1 > =∫ 1
01 · 1 dx = 1
< w1,w2 > = < w2,w1 >=∫ 1
01 · x dx = 1/2
< w2,w2 > =∫ 1
0x · x dx = 1/3
< w1, v > =∫ 1
01 · x3 dx = 1/4
< w2, v > =∫ 1
0x · x3 dx = 1/5
Aus (1 1/2
1/2 1/3
)(ζ0ζ1
)=
(1/41/5
)⇒ g(x) = −1
5+
910
x
fertig!
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 48 / 84
Lineare Abbildungen Die orthogonale Projektion
Ergebnis
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 49 / 84
-
Lineare Abbildungen Die orthogonale Projektion
ProjektionsmatrizenSeite 206
Die Projektion ist lineare Abbildung, also im endlichdimensionalen Fall durchMatrizen darstellbar.
Für den Fall V = Rn mit dem euklidischen inneren Produkt hatten wir dieseschon für zwei Fälle aufgeschrieben.
Spezialfall 3: Bei gegebener Orthonormalbasis w1, · · · ,wm von W ist:
P =
(m∑
i=1
w i (w i )T)
︸ ︷︷ ︸Summe dyadischer Produkte
Spezialfall 1: Bei spaltenweisem Eintrag der linear unabhängigenBasisvektoren w1, ...,wm ∈ Rn von V in eine MatrixA := (w1, . . . ,wm) ∈ R(n,m) ist
P = A(AT A)−1AT .
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 50 / 84
Lineare Abbildungen Die orthogonale Projektion
Seite 208
Satz 6.22 (Charakterisierungssatz)P ∈ R(n,n) beschreibt (bzgl. Standardbasis) genau dann ProjektorP : Rn −→W ,
W : = {Px : x ∈ Rn},bzgl. eukl. inneren Produktes, wenn
P = P2 = PT .
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 51 / 84
Lineare Abbildungen Die orthogonale Projektion
BeweisSei P =
∑mi=1 w
i w iT ,w i ONS von WDann ist
P2 =m∑
i=1
w i w iTm∑
j=1
w j w jT
=m∑
i=1
m∑
j=1
w i (w iT w i )︸ ︷︷ ︸δij
w iT
=m∑
i=1
w i w iT
PT =m∑
i=1
(w i w iT )T = P
Sei P = P2 = PTDann ∀ v ∈ V : P(v) ∈ WAußerdem gilt v − Pv ⊥ W wegen
(v − Pv)T Pz = vT (E − P)T Pz= vT (P − P2)z = 0 ∀ z ∈ Rn �
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 52 / 84
Lineare Abbildungen Die orthogonale Projektion
OrthogonalräumeSeite 208
Definition 6.23Sei W Teilraum von (V , )W⊥ : = {v ∈ V :< v ,w >= 0 ∀ w ∈ W}heißt bekanntlich Orthogonalraum von W in V .
Bemerkung 6.25V endlichdimensional, W Teilraum von V
ONB von W︷ ︸︸ ︷v1, · · · vm,⇒
ONB von W⊥︷ ︸︸ ︷vm+1, · · · , vn︸ ︷︷ ︸
ON-Basis von V
Hier (W⊥)⊥ = W
Im unendlichdimensionalen Fall nur nochW ⊂ (W⊥)⊥W 6= (W⊥)⊥ möglich.
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 53 / 84
-
Lineare Abbildungen Die orthogonale Projektion
Ende der 2. Vorlesung
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 54 / 84
Lineare Abbildungen Orthogonaltransformationen
Vorlesung 3
19. April + 22. AprilOrthogonaltransformationen
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 56 / 84
Lineare Abbildungen Orthogonaltransformationen
Wiederholung:(Kongruenztransformationen des R2)
Seite 153
Ansatz: Q =(
a bc d
)Q−1 = 1ad−bc
(d −b−c a
)
⇒ QT = Q−1 bei
(i) a = dad−bc(ii) d = aad−bc
}a = (ad − bc)2a
(iii) c = −bad−bc(iv) b = −cad−bc
}b = (ad − bc)2b
|a|+|b|6=0
=⇒ ad − bc = ±1
folglich zwei Fälle
α) ad − bc = 1, a = d , b = −cβ) ad − bc = −1, a = −d , b = c
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 57 / 84
Lineare Abbildungen Orthogonaltransformationen
ALSO:
Q =(
a bc d
)orthogonal wenn
α) a = d , b = c ad − bc = det Q = 1oderβ) a = −d , b = c ad − bc = det Q = −1
In beiden Fällen a2 + b2 = 1 , also a = cosφ b = ± sinφDamit entweder
Q =(
cosφ − sinφsinφ cosφ
)φ ∈ [0,2π)
oder
Q̃ =(
cosφ − sinφ− sinφ − cosφ
)φ ∈ [0,2π)
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 58 / 84
-
Lineare Abbildungen Orthogonaltransformationen
OrthogonaltransformationenSeite 209
A ∈ R(n,n) AT A = E
1 = det(E) = det(AT A) = det(AT ) · det(A)= (det(A))2
Definition 6.27 (verallgemeinerte)
⇒ det A = 1︸ ︷︷ ︸„Drehung“
det A = −1︸ ︷︷ ︸„Spiegelung“
dim = 2, dann(
cosφ − sinφsinφ cosφ
)(cosφ − sinφ− sinφ − cosφ
)
dim = 2: Namen korrektdim = 3: Namen fast korrekt, tatsächliche Drehung oder (Drehung nach) Spiegelung
dim > 3: Namen entsprechen nicht mehr der AnschauungMackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 59 / 84
Lineare Abbildungen Orthogonaltransformationen
Seite 210
Satz 6.28Für A ∈ R(3,3), AT A = E gelten
(i) det A = 1⇒ A ∼ Drehung um eine Achse durch Null.
(ii) det A = −1⇒ A ∼ Drehung hinter Spiegelung
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 60 / 84
Lineare Abbildungen Orthogonaltransformationen
Beweis(ii) det A = −1⇒
det
(A ·
11−1
)
︸ ︷︷ ︸⇒Ã= Drehung
= 1
A = A
11−1
11−1
= Ã︸︷︷︸Drehung nach (i)
11−1
︸ ︷︷ ︸Spiegelung
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 61 / 84
Lineare Abbildungen Orthogonaltransformationen
(i) (tricky)
Struktur:a) Finde Drehachse v1
b) Stelle A dar bzgl. ONB v1
||v1|| = w1,w2,w3 und zeige
à =
1 0 00 cosα − sinα0 sinα cosα
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 62 / 84
-
Lineare Abbildungen Orthogonaltransformationen
a) Drehachse bleibt fest unter AAv = v⇒ Drehachse löst (A− E)︸ ︷︷ ︸
muss singulär sein, damit es v gibt
v = 0 (natürlich v 6= 0).
det(A− E) = det(A · (E − AT ))= det(A) det((E − AT )T )= det(E − A)= det((−1) · (A− E))= (−1)3det(A− E)
⇒ det(A− E) = 0⇒ A− E singulär⇒ ∃ v : Av = v ,o.E. ||v || = 1
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 63 / 84
Lineare Abbildungen Orthogonaltransformationen
Ergänze Drehachse v zu ONB (w1,w2,w3) und stelle A dar bzgl. dieser Basis
Übergangsmatrix:
Basisneu = Basisalt · S(w1,w2,w3) = (e1,e2,e3) · S
⇒ S = (w1,w2,w3) ST = S−1
à = S−1 AS = ST AS
à orthogonal als Produkt orthogonaler Matrizen.
Aw1 = w1 ∼ Ãe1 = e1
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 64 / 84
Lineare Abbildungen Orthogonaltransformationen
⇒ Ã =
1 ∗ ∗0 ∗ ∗0 ∗ ∗
E = ÃT Ã =
1 0 0⊗ ∗ ∗⊗ ∗ ∗
1 ⊗ ⊗0 ∗ ∗0 ∗ ∗
=
1 0 0
⇒ Ã =
1 0 00 B0
E3 = ÃT Ã =
1 0 00 BT B0
⇒ BT B = E2,det à = 1 · det B ⇒ det B = 1
à =
1 0 00 c −s0 s c
�
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 65 / 84
Lineare Abbildungen Orthogonaltransformationen
Beispiel (Drehachse und Drehwinkel)
A =
910 −
√2·3
101
10√2·3
108
10 −√
2·310
110
√2·3
109
10
ist orthogonal und hat Determinante = 1
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 66 / 84
-
Lineare Abbildungen Orthogonaltransformationen
Bestimmung der Drehachse aus (A− E)v = 0
10(A− E)v = 0⇔
−1 −
√2 · 3 1√
2 · 3 −2 −√
2 · 31
√2 · 3 −1
v1v2v3
= 0
v = λ
101
, λ ∈ R
Bestimmung des Drehwinkels:
Wähle z ⊥ v (also in Drehebene), z.B. z =
010
Drehe:
Az =
−√
2·310
810√2·3
10
cosα =< z,Az >||z|| ||Az|| =
8/101 · 1 = 0.8
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 67 / 84
Lineare Abbildungen Orthogonaltransformationen
Achtung: Mit cos(α) ist α noch nichtbekannt!
cos(−t) cos(t)=
arc cos
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 68 / 84
Lineare Abbildungen Orthogonaltransformationen
Achtung: Mit cos(α) ist α noch nichtbekannt!
Drehachse v
Az
z
Az
ϕ
−ϕ
(z, Az, v)= RECHTSSYSTEM
det(z, Az, v) > 0(= det(v , z, Az))
(z, Az, v) Linkssystemdet(z, Az, v) < 0
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 69 / 84
Lineare Abbildungen Orthogonaltransformationen
Seite 212Wegen
det
vz
Az
=
∣∣∣∣∣∣
1 0 10 1 0
−√
2·310
810
√2·3
10
∣∣∣∣∣∣=
√2 · 35
> 0
liegt ein Rechtssystem vor und aus
cosα = 0.8
folgtα = +arc cos 0.8 ≈ 36,87o �
Nun noch Bestimmung von Drehachse & Drehwinkel direkt aus Matrix!Dazu zunächst die
Definition 6.31Zu A ∈ R(n,n) heißt
Spur(A) : =n∑
j=1
ajj Spur von A
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 70 / 84
-
Lineare Abbildungen Orthogonaltransformationen
Seite 212
Lemma 6.32Die Spuren ähnlicher Matrizen sind gleich:Also
A ∈ R(n,n),T ∈ R(n,n) regulär=⇒
Spur(A) = Spur(T−1AT )
Bemerkung: Es ist immer nützlich Invarianten von Transformationen zukennen. (vgl. Drehachse von Drehung)
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 71 / 84
Lineare Abbildungen Orthogonaltransformationen
BeweisSei B ∈ R(n,n) beliebig. Dann ist
Spur(AB) =n∑
j=1
(AB)jj =n∑
j=1
n∑
k=1
ajk bkj
=n∑
k=1
n∑
j=1
bkj ajk =n∑
k=1
(BA)kk
= Spur(BA) Daher istSpur(T−1AT ) = Spur(TT−1A) = Spur(A) � (1)
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 72 / 84
Lineare Abbildungen Orthogonaltransformationen
Seite 213
Satz 6.33Sei A ∈ R(3,3) orthogonal mit det(A) = 1Dann gilt für den Drehwinkel von A
cosϕ =12
(Spur(A)− 1)
und bei (cos(ϕ) 6= 1, ϕ 6= 0) gilt für die Drehachse v :
span{v} = Bild(A + AT − (Spur(A)− 1)E)
Anmerkung: Bild (b1, · · · ,bn) = span{b1, · · · ,bn}
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 73 / 84
Lineare Abbildungen Orthogonaltransformationen
Vor dem Beweis eine Anwendung:
A =
1 0 00 cosϕ − sinϕ0 sinϕ cosϕ
; cosϕ = 1
2(Spur(A)− 1) = 1
2(1 + 2 cosϕ− 1)
A + AT − (Spur(A)− 1)E
=
2 0 00 2 cosϕ 00 0 2 cosϕ
− (1 + 2 cosϕ− 1)E
=
2− 2 cosϕ 0 00 0 00 0 0
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 74 / 84
-
Lineare Abbildungen Orthogonaltransformationen
BeweisSei
ST AS =
1 0 00 cosϕ − sinϕ0 sinϕ cosϕ
=: Ã,
S orthogonal, S = (Drehachse w1,w2,w3)Dann gilt
Spur(A) = Spur(ST AS) = Spur(Ã)= 1 + 2 cosϕ
also12
(Spur(A)− 1) = cosϕ
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 75 / 84
Lineare Abbildungen Orthogonaltransformationen
Es ist
à + ÃT − (Spur(A)− 1)︸ ︷︷ ︸2 cosϕ
E =
2− 2 cosϕ 0 00 0 00 0 0
Damit
A + AT − (Spur(A)− 1)E = S(Ã + ÃT − (Spur(A)− 1)E)ST
= (2− 2 cosϕ)S
1 0 00 0 00 0 0
ST
= (2− 2 cosϕ) S
S11 S21 S310 0 00 0 0
= const(S11w1,S21w1,S31w1)�
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 76 / 84
Lineare Abbildungen Orthogonaltransformationen
Seite 214Householder-Matrizen
w ∈ Rn,w 6= 0 definiert W := {x ∈ Rn|wT x = 0}
Ziel: Hx := {an W gespiegeltes x}
W
w x
P(x)
H(x)
wwTwT w x
wwTwT w x
Hx = x − 2 wwT
wT wx
︸ ︷︷ ︸Householder-Matrix mal x
Zweimal w − Anteil abziehen Def. 6.35
H = E − 2 wwT
wT w
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 77 / 84
Lineare Abbildungen Orthogonaltransformationen
Beispiel 6.36Seite 215
E = {x ∈ R3|x1 + x2 + x3 = 0}
w = (1,1,1)T
H = E − 213
111
(1,1,1)
= 13
1 −2 −2−2 1 −2−2 −2 1
↗Um Gottes Willen nicht ausmultiplizieren.↖Schon gar nicht in höheren Dimensionen.
Dyadische Produkte sind wunderschön einfach anzuwenden!
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 78 / 84
-
Lineare Abbildungen Orthogonaltransformationen
Seite 215
Bemerkungen 6.37Bei Handrechnung verwende E − 2 wwTwT w .Bei Computerrechnung setze w̃ := w‖w‖2 und benutze
Hy = (E − 2w̃w̃T )y = y −︸︷︷︸n+
[2 ·︸︷︷︸1+
( w̃T y︸︷︷︸(2n−1)+
)] ·︸︷︷︸n Operationen
w̃ .
Das sind 4n Operationen.w oder w̃ in H = E − 2 wwTwT w = E − 2w̃w̃T brauchen nur n Speicher.Multipliziert man hingegen wwT aus, so ist Hy i.A. vollbesetzt.Dann braucht Hy bei Standardausführung n(2n − 1) Operationen.
HT = (E − 2wwT )T = E − 2wwT = H; HHT = HT H = H2 = E
H also symmetrisch & orthogonal.Lösung von Hx = b ist x = Hb �
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 79 / 84
Lineare Abbildungen Orthogonaltransformationen
Wichtige Anwendung vonHouseholder-Matrizen
Seite 216
FrageGibt es eine Householder-Matrix H = E − 2 wwTwT w , die x ∈ Rn auf λe1 abbildet?
Zwischenüberlegung:Wenn das geht, so muss λ = ±||x || sein. (Länge bleibt erhalten)
Endüberlegung:w zeigt vom Ergebnisvektor Hx nach x .Also
w = +||x ||e1 − x oder w = −||x ||e1 − x .Zack! FERTIG!
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 80 / 84
Lineare Abbildungen Orthogonaltransformationen
Welchen wählen?Den
w̃ = x + sign(x1)||x ||e1
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 81 / 84
Lineare Abbildungen Orthogonaltransformationen
Beispiel
Bilde
H = E − 2 wwT
wT wmit Hx = y ,
wobeix = (3,4,0,0)T , y = (0,0,0,5)T
FrageGeht das überhaupt?
Antwort: Ja, ||x || = ||y ||.
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 82 / 84
-
Lineare Abbildungen Orthogonaltransformationen
Konstruktion:
w hat Richtung von x − y oder y − x . (Ist egal. Wieso?)Also
w = x − y = (3,4,0,−5)T
H = E − 2 wwT
wT w= E − 1
25
340−5
(3,4,0,−5)
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 83 / 84
Lineare Abbildungen Orthogonaltransformationen
Ende der 3. Vorlesung
Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 84 / 84