vektoren: lineare unabhängigkeit, basis, vektorraum ...tstaib.de/pdfm/vektor2.pdf · wir...
Post on 08-Aug-2019
213 Views
Preview:
TRANSCRIPT
Interpretation im Kontext der analytischen Geometrie: liegt in der
durch aufgepannten Ebene.
Zurück
Vektoren: Lineare Unabhängigkeit, Basis, Vektorraum, OrthogonalitätLetztes Update: 29.1.2016. Navigation zu Unterthemen/wichtigen Formeln und Sätzen Skalarprodukt Projektion Vektor auf Vektor/Orthogonalzerlegung Projektion Vektor auf Unterraum Projektion Vektor auf affinen Teilraum /Hyperebene Weitere Beispiele von Vektorräumen
Linearkombination, lineare Unabhängigkeit, Basis
Beispiel 1: Linearkombination eines Vektors durch zwei andere Vektoren.
Vieles, was Sie aus der analytischen Geometrie des dreidimensionalen Anschauungsraumes kennen, lässt sich sofort auf höhereDimensionen übertragen. Das Vektorprodukt allerdings nicht. Leider sind dazu etliche Begriffe einzuführen, um die aus dem bekannten Objekte auf allgemeine Vektoräume zu übertragen. Sie können sich die meisten Strukturen also auch immer im veranschaulichen.
Allgemein: Linearkombination eines Vektors durch Vektoren :
Es gibt Zahlen , die Koordinaten von bezüglich des Vektorsystems mit:
Man sagt auch: Der Vektor ist linear abhängig von den Vektoren .
Vergleiche Beispiel 1. Linearkombination bedeutet im Kontext der analytischen Geometrie z.B. konkret: Stelle einen Ortsvektor einesPunktes in einer Ebene (die durch den Nullpunkt geht) durch die Richtungsvektoren dieser Ebene dar.
Definition: Lineare Unabhängigkeit
Die Vektoren heißen linear unabhängig, wenn gilt:
In Worten: Die Linearkombination des Nullvektors durch linear unabhängige Vektoren ist nur möglich, wenn alle Koeffizienten Nullsind. Die Lösung dieses (homogenen) Gleichungssystems ist dann auch der Test auf lineare Unabhängigkeit. Der Sinn ist leichteinzusehen: Wäre mindestens ein Koeffizient ungleich Null, so könnte man den zugehörigen Vektor als Linearkombinaton der anderenVektoren darstellen. In einem Vektorsystem linear unabhängiger Vektoren, kann man keinen dieser Vektoren als Linearkombinationder anderen darstellen.
Wieder im bekannten Kontext der analytischen Geometrie: Zwei linear unabhängige Vektoren im sind nicht kollinear. Drei linearunabhängige Vektoren im sind nicht komplanar. Das überträgt sich also zwanglos auch auf höhere Dimensionen, in denen mansich die Veranschaulichung leider nicht mehr so einfach hinzeichnen kann.
Beispiel 2: (lineare Unabhängigkeit) Sind die Vektoren in Beispiel 1 sind linear unabhängig?
= = 1 + 3 = 1 + 3 ,v ⎛⎝⎜
7−2
3
⎞⎠⎟ v1
→v2→ ⎛
⎝⎜710
⎞⎠⎟
⎛⎝⎜
0−1
1
⎞⎠⎟
v
,v1→
v2→
IR3
IR3
IR3
v n , , . . . . ,v1→
v2→
vn→
,.. . . ,x1 xn v , , . . . . ,v1→
v2→
vn→
= + +.. .+v x1 v1→
x2 v2→
xnvn→
v , , . . . . ,v1→
v2→
vn→
, ,. . . . ,v1→
v2→
vn→
0 = + +.. . .+ ⟹ 0 = = = =.. . .=x1 v1→
x2 v2→
xnvn→
x1 x2 x3 xn
IR3
IR3
, ,v1→
v2→
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
Wir vergleichen den Nullvektor links komponentenweise mit dem Vektor rechts und erhalten so die drei Gleichungen:
Offenbar ist die einzige Lösung, also sind die beiden Vektoren linear unabhängig. Ihr Spannraum ist eine Ebene im .
Frage: Wie könnte man die Vektoren durch einen dritten Vektor zu einer Basis des ergänzen?
Vektorraum
Die Menge aller Linearkombinationen von n linear unabhängigen Vektoren erzeugt einen Vektorraum der Dimension n. DieseVektoren bilden dann eine Basis des Vektorraums, sie spannen ihn durch ihre Linearkombinationen auf. Sie bilden einKoordinatensystem. Die Koordinaten, mit denen man einen Vektor darstellt, (Beispiel 1) hängen also vom gewähltenKoordinatensystem (der Basis) ab! Wechselt man das Koordinatensystem (Basis) so muss man auch sie umrechnen! Auch daskennen Sie schon aus der analytischen Geometrie, Ebene, Wechsel der Richtungsvektoren. Man schreibt:
Beispiele: , die Dimension steht im Index oben.
Definition Vektorraum: Ein Vektorraum über einem Zahlkörper von Skalaren (z.B. reelle oder komplexe Zahlen) ist eineMenge, in der eine Vektoraddition und eine skalare Multiplikation erklärt ist, und die bezüglich dieser beiden Operationenauch abgeschlossen ist. Es muss also immer gelten (Abgeschlossenheit):
Alternativ kann man diese beiden Bedingungen auch als eine schreiben:
Beispiele: , die Dimension steht im Index oben.
Beispiel 3: Die sogenannten Einheitsvektoren des kartesischen Koordinatensystems sind stets linear unabhängig, wie man sofortsieht, hier am Beispiel :
Lineare Unabhängigkeit:
Diese Basis hat den Vorteil, dass man die Koordinaten zu einem gegebenen Vektor sofort ablesen kann. Zu aus Beispiel 1 etwa
Man sieht so zugleich, dass diese Vektoren den gesamten Vektorraum erzeugen. Die folgenden Vektoren auch linearunabhängig.
Lineare Unabhängigkeit:
= + =⎛⎝⎜
000
⎞⎠⎟ x1
⎛⎝⎜
710
⎞⎠⎟ x2
⎛⎝⎜
0−1
1
⎞⎠⎟
⎛⎝⎜
7x1
−x1 x2
x2
⎞⎠⎟
7 = 0, − = 0, 1 = 0 ⇒ = = 0x1 x1 x2 x2 x1 x2
= 0x1 = 0x2
IR3
, ,v1→
v2→
IR3
V = span{ , , . . . . , } = { | = + +.. .+ ; , . . . . , ∈ IR}v1→
v2→
vn→
v v x1 v1→
x2 v2→
xnvn→
x1 xn
I ,I ,I ,I . . .R1 R2 R3 R4
V K
+ ⋅
s ∈ K,v ∈ V ⇒ s ⋅ v ∈ V und v,w ∈ V ⇒ v + w ∈ V
s ⋅ v + t ⋅ w ∈ V für alle s,t ∈ K,v,w ∈ V
I ,I ,I ,I . . .R1 R2 R3 R4
IR3
= , = , = , I = span{ , , }e1→ ⎛
⎝⎜100
⎞⎠⎟ e2
→ ⎛⎝⎜
010
⎞⎠⎟ e3
→ ⎛⎝⎜
001
⎞⎠⎟ R3 e1
→e2→
e3→
0 = = + + = ⇒ = 0, = 0, = 0⎛⎝⎜
000
⎞⎠⎟ x1 e1
→x2 e2
→x3 e3
→ ⎛⎝⎜
x1
x2
x3
⎞⎠⎟ x1 x2 x3
v = 7, = −2, = 3x1 x2 x3
IR3
= , = , = ,w1→ ⎛
⎝⎜100
⎞⎠⎟ w2
→ ⎛⎝⎜
110
⎞⎠⎟ w3
→ ⎛⎝⎜
111
⎞⎠⎟
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
Ferner: Die drei Vektoren sind linear abhängig, ( ). Die drei Vektoren sind linear unabhängig.
Aufgabe: Bestimme die Koordinaten des in Beispiel 1 gegebenen Vektors bezüglich der Basis löse also:
Die Darstellung eines Vektors bezüglich einer gegebenen Basis (=Bestimmung der Koordinaten eines Vektors in einengegebenen Koordinatensystem) bedeutet also stets die Lösung eines linaren Gleichungssystems. Die gesuchtenKoordinaten sind die Unbekannten. Ein Algorithmus dazu im nächsten Abschnitt über lineare Gleichungen.
Erzeugendensystem : Betrachtet man allgemein eine Menge von Vektoren, die einen Vektorraum aufspannen, so spricht man voneinem Erzeugendensystem. Dieses kann jedoch auch linear abhängige Vektoren enthalten. Ein Erzeugendensystem, das nur auslinear unabhängigen Vektoren besteht, ist dann eine Basis. Eine Basis ist also immer ein linear unabhängiges Erzeugendensystem. Beispiel: Betrachte die Vektoren aus Beispiel 3:
Erzeugendensystem des z.B. , jedoch keine Basis, da linear abhängig! Basen des wären etwa folgende Teilmengen dieses Erzeugendensystems:
oder
ist keine Basis, weil es kein Erzeugendensystem ist (dritte Komponente aller drei Vektoren ist Null!).
Untervektorraum Eine Teilmenge der Basis spannt einen Untervektorraum auf.
Beispiel: Etwa eine Ebene im , die durch die Nullpunkt verläuft. Mit den Vektoren aus Beispiel 3 z.B. . Verschiebtman einen solchen Teilraum mit einem festen Vektor, so nennt man dies auch einen affinen Teilraum oder Hyperebene. Bereits bekanntes Beispiel : Eine Ebene im , die nicht durch den Nullpunkt verläuft, mit Aufpunkt/Verschiebungsvektor.
Frage: Welche der beiden folgenden Ebenengleichungen beschreibt eine Ebene, die durch den Nullpunkt verläuft (zweidimensionalerUnterraum des ) und welche eine mit Aufpunkt verschobene Ebene (affiner Teilraum)?
Stellen Sie auch die Ebenen mit Aufpunkt und Richtungsvektoren dar.
Orthogonalität, Orthogonale (orthonormale) Basis erleichtert viele Rechnungen!
Definition Skalarprodukt allgemein. Das Skalarprodukt auf einem reellen Vektorraum ist eine Abbildung , die in beiden Argumenten linear ist (sog.Bilinearform):
die Symmetriebedingung
erfüllt und positiv definit ist:
Andere Notationen des Skalarprodukts (Physik) Das Skalarprodukt definiert ein Längenmaß für Vektoren:
0 = = + + = ⇒ = 0 ⇒ = 0 ⇒ = 0⎛⎝⎜
000
⎞⎠⎟ x1
⎛⎝⎜
100
⎞⎠⎟ x2
⎛⎝⎜
110
⎞⎠⎟ x3
⎛⎝⎜
111
⎞⎠⎟
⎛⎝⎜
+ +x1 x2 x3
+x2 x3
x3
⎞⎠⎟ x3 x2 x1
II = span{ , , }R3 w1→
w2→
w3→
, ,e1→
e2→
w2→
1 + 1 =e1→
e2→
w2→
, ,e1→
e2→
w3→
v , , ,w1→
w2→
w3→
= + + .v x1w1→
x2w2→
x3w3→
IR3 , , ,e1→
e2→
e3→
w3→
IR3
, ,e1→
e2→
e3→
, ,e1→
e2→
w3→
, ,e1→
e2→
w2→
IR3span( , )w1
→w2→
IR3
E : + span( , ), z.B. = + t + s , t,s,∈ IRp v1→
v2→ ⎛
⎝⎜x
y
z
⎞⎠⎟
⎛⎝⎜
111
⎞⎠⎟
⎛⎝⎜
710
⎞⎠⎟
⎛⎝⎜
0−1
1
⎞⎠⎟
IR2
: 2x − y + 3z = 5, : 2x + y + 3z + 5 = 5E1 E2
∙ : V × V → IR
(tv) ∙ w = t(v ∙ w) = v ∙ (tw), v,w ∈ V ,t ∈ IR
(v + u) ∙ w = v ∙ w + u ∙ w, v ∙ (w + u) = v ∙ w + v ∙ u, u,v,w ∈ V
v ∙ w = w ∙ v
v ∙ v ≥ 0, v ∙ v = 0 ⇔ v = 0
⟨v,w⟩,⟨v|w⟩, (v|w).
∥v∥ = v ∙ v− −−−√
Es gilt die Ungleichung
Ferner für das Längenmaß (Norm)
Bemerkung: Einen Vektorraum, der mit einem Skalarprodukt versehen wird und der bezüglich des vom Skalarprodukts induziertenLängenmaßes (Metrik, Norm) vollständig ist (Cauchyfolgen sind konvergent) nennt man auch Hilbertraum. OrthogonalBasen ineinem solchen Raum werden dementsprechend oft HilbertBasen genannt (Physik, Nachrichtentechnik). Definition: Zwei Vektoren heißen orthogonal bezüglich wenn
Länge und orthonormale Vektorsysteme
Durch das Skalarprodukt ist wie schon in den bekannten Vektorräumen auch allgemeiner ein Längenmaß für Vektorengegeben. Man definiert die (sogenannte euklidische ) Länge eines Vektors ganz analog
Für den Vektorraum erhält man mit dem üblichen Skalarprodukt
so das Längenmaß
wie für n=2,3 schon aus der Schule bekannt. Ebenso kann man analog einen Winkel zwischen zwei Vektoren berechnen:
Besteht die Basis eines Vektorraums nur aus paarweise orthogonalen Vektoren mit der Länge 1, so nennen wir sie orthonormalDurch Division durch die Länge eines Vektors können wir jeden auf die Länge 1 normieren. Somit kann man aus einer orthogonalenauch stets einfach eine orthonormale Basis herstellen.
Satz:Orthogonalsysteme sind immer linear unabhängig: Auch dies kennen Sie bereits aus dem Spezialfall . Zwei aufeinander senkrecht stehende Vektoren spannen eine Ebene auf.Nimmt man einen dritten orthogonalen z.B. als deren Vektorprodukt dazu, so kann man den ganzen Raum aus derenLinearkombinationen aufspannen.
Definition: Zwei Vektoren heißen orthogonal bezüglich wenn
Satz: n paarweise bezüglich dieses Skalarprodukts orthogonale (aufeinander senkrecht stehende) Vektoren sind dann stetslinear unabhängig und spannen damit einen Vektorraum der Dimension n auf.
Die lineare Unabhängigkeit ist schnell einzusehen. sei ein Orthogonalsystem. Wir bilden ein Skalarprodukt
eines Vektors mit der Gleichung
und nutzen die Orthogonalität aus:
Damit ergibt sich nacheinander für dann
(Vgl das analoge Vorgehen bei Ebenengleichungen, Multiplikation mit Normalenvektor, Skalarform/implizite Form derEbenengleichung).
|v ∙ w| ≤ ∥v∥∥w∥
|∥v∥ − ∥w∥| ≤ ∥v ± w∥ ≤ ∥v∥ + ∥w∥, ∥tw∥ = |t|∥w∥, t ∈ IR
, ∈ Vv u ∙
∙ = 0v u
I ,IR2 R3
∥ ∥ =v ∙v v − −−−√
IRn
∙ = + +.. . . . .v w v1w1 v2w2 vnwn
∥ ∥ = = , v ∈ Iv ∙v v − −−−√ + +.. . . . .v21 v2
2 v2n
− −−−−−−−−−−−−−√ Rn
;v w
∙ = cos(ϕ( ; )) ⋅ ∥ ∥∥ ∥ ⇒ ϕ( ; ) = arccos( )v w v w v w v w ∙v w
∥ ∥∥ ∥v w
IR3
, ∈ Vv u ∙
∙ = 0v u
, , ,k = 1,. . . ,nv1→
v2→
vn→
vk→
0 = + +.. . .+x1 v1→
x2 v2→
xnvn→
0 = ∙ 0 = ∙ ( + +.. . .+ ) = ∙vk→
vk→
x1 v1→
x2 v2→
xnvn→
xk vk→
vk→
k = 1,2, . .n 0 = = = =.. . .=x1 x2 x3 xn
Man kann die Orthogonalität auch nutzen, um sehr einfach die Koordinaten in einer Linearkombination zu bestimmen, wenn maneinen Vektor durch eine Basis darstellen (nach dieser Basis entwickeln) will. Das ist einer der wesentlichen Vorteile orthogonalerBasen.
Beispiel 4(Vorteil der Orthogonalität): Gesucht sind die Koordinaten von bezüglich einer Orthogonalen Basis:
Da die Vektoren auf der rechten Seite der Gleichung alle orthogonal sind, somit eine orthogonale Basis des bilden, kann man die Koordinaten von fast sofort hinschreiben, ohne dafür ein 3x3 Gleichungssystem mit dem GaußAlgorithmus
lösen zu müssen. Man bildet dazu nacheinander das Skalarprodukt links und rechts in der Gleichung mit .
Analog für somit:
Allgemeine Koordinatendarstellung in einem Orthogonalsystem
Gesucht seien die Zahlen . Wenn die Vektoren nicht paarweise orthogonal sind, muss man dazu ein Gleichungssystemlösen (siehe nächstes Kapitel). Sind sie paarweise orthogonal, so kann man die wie im Beispiel 4 sofort hinschreiben:
denn
Denn Orthogonalsysteme werden wir im Abschnitt zu Eigenwerten/Eigenvektoren näher betrachten.
Projektion eines Vektors auf einen anderen, Orthogonalzerlegung
Auch die Projektion eines Vektors auf einen anderen lässt sich direkt vom auf höhere Dimensionen übertragen. Die Formel bleibtdieselbe, die Begründung dazu auch:
Gegeben zwei Vektoren Bestimme eine Linearkombination aus beiden Vektoren, die senkrecht (orthogonal) zu ist
Damit ist auch die Gleichung erfüllt (siehe Skizze) und ist dann die Projektion von auf
Damit überträgt sich auch die Darstellung eines Vektors als Summe aus seiner Projektion auf einen anderen Vektor und die
, ,x1 x2 x2 v
= = + + = + +v ⎛⎝⎜
7−2
3
⎞⎠⎟ x1
⎛⎝⎜
10
−1
⎞⎠⎟ x2
⎛⎝⎜
121
⎞⎠⎟ x3
⎛⎝⎜
1−1
1
⎞⎠⎟ x1 v1
→x2 v2
→x3 v3
→
,k = 1,2,3vk→
IR3
v
, ,v1→
v2→
v3→
4 = ∙ = ∙ ( + + ) = ∙ + 0 + 0 = 2 ⇒ = 4/2 = 2v1→
v v1→
x1 v1→
x2 v2→
x3 v3→
x1 v1→
v1→
x1 x1
,v2→
v3→
= = = 2, = = = 1, = = = 4x1∙v1
→v
∙v1→
v1→
42
x2∙v2
→v
∙v2→
v2→
66
x3∙v3
→v
∙v3→
v3→
123
= + +.. .+v x1 v1→
x2 v2→
xnvn→
,..x1 xn vk→
xk
=xk∙vk
→v
∙vk→
vk→
∙ = ∙ ( + +.. .+ ) = ∙vk→
v vk→
x1 v1→
x2 v2→
xnvn→
xk vk→
vk→
k ≠ l : ∙ = 0vk→
vl→
IR3
, .v u v ⊥u u
= ( − t ), ⊥ , ( − t ) ∙ = 0 ⇒ t =v ⊥u v u v ⊥u u v u u ∙v u ∙u u
t + = t + ( − t ) =u v ⊥u u v u v = tv ∥u u v .u
Projektion von v auf u : = ⋅ , = − , = +v ∥u
∙v u ∙u u
u v ⊥u v v ∥u v v ∥u v ⊥u
v ∥
Beispiel:
Probe:
Projektion auf U: Gegeben ein Vektor . Finde den Vektor in der zu den kürzestenAbstand besitzt. Diesen Vektor nennen wir dann Projektionvon auf . Eine solche Projektion können wir durch eine notwendigeund hinreichende (also äqulvalente) Bedingungcharakterisieren, und damit auch berechnen.
ist äquivalent zu
Der Differenzvektor ist also orthogonal zumUnterraum , seine Länge
ist der Abstand von zu . (anschaulich im klar, sieheSkizze, ein kleiner Beweis für den Allgemeinfall dazu unten).
Senkrechte dazu die Orthogonalzerlegung eines Vektors wie bei Kräften in der Mechanik auch auf höhere Dimensionen.(Skizze)
Aus zwei gegebenen Vektoren kann man auf diese Weise also immer zwei orthogonale Vektoren berechnen, diedenselben Spannraum haben. Führt man das Ganze rekursiv für einen Vektorsystem von Vektoren durch, so erhält man das GramSchmidt Verfahren: Mit diesem rekursiven Algorithmus kann man aus einer beliebigen Basis eines Vektorraums stets eine orthogonale Basis berechnen,indem immer die "Nichtorthogonalanteile" weggenommen werden. Link zu GramSchmidt ONVerfahren
Projektion auf einen Unterraum, Abstand eines Vektors zu einem Unterraum
Auch hier eine ganz natürliche Verallgemeinerung der aus dem bekannten Darstellungen und Formeln zur Projektion einesVektors auf eine Ebene, kürzester Abstand PunktEbene (durch den Nullpunkt).
v ⊥
= , = ,v
⎛⎝⎜⎜⎜
1201
⎞⎠⎟⎟⎟ u
⎛⎝⎜⎜⎜
2110
⎞⎠⎟⎟⎟
t = = , = ,∙v u ∙u u
23
v ∥u
23
⎛⎝⎜⎜⎜
2110
⎞⎠⎟⎟⎟
= − = ,v ⊥u v v ∥u
13
⎛⎝⎜⎜⎜
−14
−23
⎞⎠⎟⎟⎟
∙ = 0, + =v ⊥u u v ⊥u v ∥u v
,v u ,v ⊥u u n
v ∥
R3
Usei ein Unterraum von V , U = span{ , . . . } ⊂ Vu1 uk
w ∈ V
∈ Uu w
w U
∈ U sei Lösung von ∥u − wu minu∈U
∥2
( − w) ∙ u = 0, für alle u ∈ U oder kurz ( − w)⊥Uu u
( − w)u
U
∥ − w∥u
w U R3
In einem endlichdimensionalen Raum setzen wir nacheinander in diese Bedingung die Basisvektoren für ein und erhalten so einGleichungsystem für die Koordinaten der Projektion von auf . Daraus können wir dann die Projektion und den Abstand desVektors zum Unterraum berechnen.
Ist die Basis sogar orthogonal so können wir die Koordinaten wieder wie oben direkt über Skalarprodukte angeben, indem wir dieOrthogonalität nutzen ( ):
somit
Beispiel 5(a) : Orthogonale Basis von U
, bildet also orthogonale Basis von . Die Projektion von auf den zweidimensionalen Unterraum berechnen wirdann wie folgt:
Beispiel 5(b) : Nichtorthogonale Basis von U :
, bildet also keine orthogonale Basis von . Somit muss man die Koordinaten der Projektion von auf nun durch Lösen eines kleinen Gleichungssystems (2x2) ermitteln, da die Produkte hier leider nicht Nullwerden.
Zu Lösen ist also nach den unbekannten Koordinaten
U u
u w U
= +.. . . , bestimmt durch k Gleichungen ( − w) ∙ = 0, l = 1,. . . ,ku x1u1 xkuk u ul
xk
∙ = 0, l ≠ kul uk
( − w) ∙ = 0 ⇔ ∙ = w ∙ = 0 ⇔ ( +.. . . ) ∙ = ( ∙ ) = w ∙u ul u ul ul x1u1 xkuk ul xl ul ul ul
= , l = 1,. .kxl
w ∙ ul
∙ul ul
k = 2; U ⊂ , U = span{ , }, = , = , w = , R4 u1 u2 u1
⎛⎝⎜⎜⎜
1100
⎞⎠⎟⎟⎟ u2
⎛⎝⎜⎜⎜
0011
⎞⎠⎟⎟⎟
⎛⎝⎜⎜⎜
2101
⎞⎠⎟⎟⎟
∙ = 0u1 u2 U w U
= + , = = , = ,=u x1u1 x2u2 x1w ∙ u1
∙u1 u1
32
x2w ∙ u2
∙u2 u2
12
k = 2; U ⊂ , U = span{ , }, = , = , w = , R4 u1 u2 u1
⎛⎝⎜⎜⎜
1101
⎞⎠⎟⎟⎟ u2
⎛⎝⎜⎜⎜
0011
⎞⎠⎟⎟⎟
⎛⎝⎜⎜⎜
2101
⎞⎠⎟⎟⎟
∙ = 1 ≠ 0u1 u2 U ,k = 1,2xk u w
U ∙ ,j ≠ kuk uj
= + , ( − w) ∙ = 0, l = 1,2 ⇔ ( )u x1u1 x2u2 u ul
( ∙ ) + ( ∙ ) = w ∙x1 u1 u1 x2 u2 u1 u1
( ∙ ) + ( ∙ ) = w ∙x1 u1 u2 x2 u2 u2 u2
,x1 x2
( ) ⇒ = −1/5; = 7/5.3 + 1 = 4x1 x2
1 + 2 = 1x1 x2x2 x1
Beweisskizze zu: Die Orthogonalitätsbedingung oder charakterisiert äquivalent dieProjektion/Minimalabstand von aauf . Notwendigkeit: Es sei eine Minimalstelle, hier also die Projektion von auf , also
Behauptung: Dann gilt die Orthogonalitätsbedingung
Für und definieren wir die reelle Funktion
Aufgrund der Optimalität (*):
Somit für
Grenzübergang lässt den letzten Term verschwinden. Damit gilt erhält man dann die Optimalitätsbedingung
Da ein Untervektoraum ist, gilt diese Ungleichung für jedes und damit gleichzeitig auch für und damit liegtGleichheit vor.
Wir zeigen nun umgekehrt: Die Bedingung für alle ist auch hinreichend für Optimalität: Wir führen dazu einen Widerspruchsbeweis. Widerspruchsannahme: Die Bedingung sei erfüllt, es gebe aber dennoch ein mit
sei also nicht minimal. Wir definieren wie oben im Beweis der notwendigen Bedingung und erhalten durch Ausrechnen des erstenSkalarprodukts und aus der vorausgesetzten Bedingung für alle
Wir setzen nun speziell da Dann ist mit
Den letzten Term können wir weiter abschätzen (beachte: aus der binom. Formel folgt )
Fassen wir die Abschätzungen zusammen so erhalten wir
Nun setzen wir speziell ein und sehen
Dies steht aber im Widerspruch zu , wenn wir dort speziell und wählen. Somit ist unsereWiderspruchsannahme falsch und minimal.
Hinweis (für Mathematikstudenten): In der Optimierungstheorie werden solche Optimalitätsbedingungen für konvexe, stetige
− w⊥U ,u ( − w) ∙ u = 0, u ∈ Uu
w U
u w U
(∗) : ∥ − w ≤ ∥u − w für alle u ∈ Uu ∥2 ∥2
( − w) ∙ h = 0 für alle h ∈ U .u
h ∈ U t ∈ IR,t ≥ 0
f(t,h) = ∥ + th − w = ( + th − w) ∙ ( + th − w)u ∥2 u u
f(0,h) = ∥ − w ≤ ∥ + th − w = f(t,h)u ∥2 u ∥2
t > 0
0 ≤ (f(t,h) − f(0,h)) = (( + th − w) ∙ ( + th − w) − ( − w) ∙ ( − w)) = 2( − w) ∙ h + t(h ∙ h) 1t
1t
u u u u u
t → 0+
2( − w) ∙ h = (f(t,h) − f(0,h)) ≥ 0u limt→0+
1t
U h ∈ U −h ∈ U
2( − w) ∙ h ≥ 0 und 2( − w) ∙ (−h) ≥ 0 ⇒ 2( − w) ∙ h = 0u u u
( − w) ∙ h = 0,u h ∈ U
( − w) ∙ h = 0,u u ∈ U
∥ − w > ∥u − w , also d = ∥ − w − ∥u − w > 0u ∥2 ∥2 u ∥2 ∥2
u f
2( − w) ∙ h = 0,u t ≥ 0,h ∈ U ,
(∗∗) f(t,h) − f(0,h) = ( + th − w) ∙ ( + th − w) − ( − w) ∙ ( − w) = 2t( − w) ∙ h + ∥h = ∥h ≥ 0u u u u u t2 ∥2 t2 ∥2
h = u − ≠ 0u u ≠ .u w = tw + (1 − t)w
f(t,u − ) = ( + t(u − ) − w) ∙ ( + t(u − ) − w) = (1 − t ∥ − w∥ + ∥u − w + 2t(1 − t)( − w) ∙ (u − w)u u u u u )2 u t2 ∥2 u
2ab ≤ +a2 b2
|2t(1 − t)( − w) ∙ (u − w)| ≤ 2t(1 − t)∥ − w∥ ⋅ ∥u − w∥ ≤ (1 − t ∥ − w + ∥u − wu u )2 u ∥2 t2 ∥2
f(t,u − ) ≤ 2(1 − t ∥ − w + 2 ∥u − w = 2(1 − t f(0,u − ) + 2 f(1,u − )u )2 u ∥2 t2 ∥2 )2 u t2 u
t = 1/2
f(1/2,u − ) − f(0,u − ) ≤ (f(1,u − ) − f(0,u − )) = (∥u − w − ∥ − w ) = − d < 0u u12
u u12
∥2 u ∥2 12
(∗∗) t = 1/2 h = u − u
u
sei der Verschiebungsvektor,
Projektion auf :
Gegeben ist ein Vektor . Finde den Vektor in , der zu
den kürzesten Abstand besitzt. Weil wir die Ebenenur um verschoben haben, können wir die Lösungdieses Problems über die des nichtverschobenenProblems oben ermitteln, siehe Skizze.
Berechne dann zu wie im nichtverschobenenProblem oben Die gesuchte Projektion von auf ist dann
Funktionale bewiesen. Der Beweis der notwendigen Bedingung verläuft ähnlich wie oben. Die etwas mühsame direkte Abschätzungim hinreichenden Teil wird dann einfach durch die Voraussetzung "Konvexität" ersetzt und man kann die Konvexitätsungleichungausnutzen, muss dann nicht mit den Quadraten hantieren. Das hier betrachtete Funktional ist als Verkettung deskonvexen Normquadrats mit einer affin linaren Funktion tatsächlich auch konvex, (sogar strikt konvex). Das muss man natürlich aucherst einmal nachweisen. Ist das getan, so reduziert sich die Erzeugung des Widerspruchs in den letzten beiden Zeilen auf
(Konvexität von benutzt. ) Ich habe die direkte Abschätzungtechnik hier jedoch absichtlich benutzt und nicht auf allgemeine Sätzeverwiesen, weil sie exemplarisch für Hilbertraummethoden ist und in vielen Situationen (z.B. Numerik Abschätzung vonKonvergenzordnungen) immer wieder benötigt wird.
Projektion auf einen affinen Teilraum, Abstand eines Vektors zu einem affinenTeilraum
Auch hier eine ganz natürliche Verallgemeinerung der aus dem bekannten Darstellungen und Formeln zur Projektion einesVektors auf eine verschobene Ebene, kürzester Abstand PunktEbene, die nicht durch den Nullpunkt geht.
Zu berechnen ist also die Lösung des Gleichungssystems (beachte ) :
Der Vektor ist dann die Projektion von auf . Die Lösung kann man wiederum einfach hinschreiben, wenn die Basis von orthogonal ist, ansonsten hat man ein eventuell volles Gleichungssystem mit Unbekannten zu lösen.
Wir betrachten ein Beispiel aus dem das wir natürlich in diesem speziellen Fall auch anders rechnen könnten (z.B. über einVektorprodukt) . Unsere allgemeine Methode funktioniert aber in jeder Dimension.
Beispiel 6 : Nichtorthogonale Basis von U , Affiner Teilraum/Ebene in , Projektion eines Vektors auf die Ebene,Abstand. :
, bildet also keine orthogonale Basis von . Somit muss man die Koordinaten der Projektion
von auf nun durch Lösen eines kleinen Gleichungssystems (2x2) ermitteln, da die Produkte
F : u → ∥u − w∥2
F( + t(u − )) − F( ) ≤ tF(u) + (1 − t)F( ) − F( ) = t(F(u) − F( )) < 0u u u u u u
F
R3
p
Usei ein Unterraum von V , U = span{ , . . . } ⊂ Vu1 uk
E = + Up
∈ Vw′→
= + ∈ + Uu′ p u p w′
p
Setze: := −w w′→
p
u w
w′ E
= +u′ p u
w = −w′ p
= , ( − )⊥U , ( − ) ∙ = ( − + ) ∙ = 0, l = 1,2, . . ,ku ∑l=1
k
xlu l u w u w u l u w′→
p u l
+p u w′→
E U
k , . . .x1 xk
R3
R3 w′→
k = 2; U ⊂ , U = span{ , }, E : + UR3 u 1 u 2 p
= , = , = , = , = − = , u 1⎛⎝⎜
101
⎞⎠⎟ u 2
⎛⎝⎜
021
⎞⎠⎟ w′
→ ⎛⎝⎜
211
⎞⎠⎟ p
⎛⎝⎜
111
⎞⎠⎟ w w′
→p
⎛⎝⎜
100
⎞⎠⎟
∙ = 1 ≠ 0u1 u2 U ,k = 1,2xk
= +u′ p u w′→
+ Up ∙ ,j ≠ kuk uj
hier leider nicht Null werden.
Zu Lösen ist also nach den unbekannten Koordinaten
Den Abstand hätten wir in diesem Fall auch über den Normalenvektor berechnen können. ( Das aber nur in der Dimension undwir erhalten so nicht die Projektion, nur den Abstand! )
Aufgaben/Beispiele dazu hier Anwendungen der Projektion zur Parameterschätzung (Regression) hier
Weitere Beispiele für Vektorräume
Die komplexen Zahlen z = x + jy kann man als Vektorraum über dem Skalarkörper sehen. Dieser Vektorraum hat dann dieDimension 2, sichtbar an der Gauß'schen Zahlenebene. Die komplexe Multiplikation spielt hier keine Rolle, es geht nur um dieVektorraumstruktur. Man kann die komplexen Zahlen aber auch als Vektorraum über dem Skalarkörper betrachten, dann haben sie die Dimension 1.Man kann jede komplexe Zahl erzeugen, indem man die skalar mit einer passenden Zahl aus dem Skalarkörper multipliziert.
Dasselbe gilt für komplexe Vektoren (und Matrizen später) man kann sie immer komponentenweise in Real und Imaginärteil (jeweilsreelle Vektoren bzw Matrizen) zerlegen.
Das entspricht ihrer Interpretation als Vektorraum über den reellen Zahlen. Ihre Dimension verdoppelt sich dann (2n) gegenüber derInterpretation als Vektorraum über dem Skalarkörper . Im Grunde genommen handelt es sich verschiedeneVektorräume, da sich die Skalarkörper unterscheiden. Das Skalarprodukt in unterscheidet sich etwas vom dem für reelle Vektoren:
Würde man die Komponenten von darin nicht konjugieren, dann wäre für manche Vektoren das Produkt eventuell negativ odernicht reell. Beides wären für ein Skalarprodukt unerwünschte Eigenschaften.
Anmerkungen zu Koordinatensystemen
In der Physik bemüht man sich, Gesetze koordinatenfrei, also unabhängig von Koordinatensystemen zu formulieren, etwa mit einemuniversalen Ortsvektor in der Mechanik. Der Grund: Je nach Anwendungsfall auf ein konkretes Problem möchte man sich dieFreiheit lassen, ein günstiges Koordinatensystem zu wählen. Günstig bedeutet zum Beispiel: Die Formeln und Rechnungen werdeneinfacher, und man spart sich u.U. auch Koordinatentransformationen. Deswegen ist es wichtig, mit unterschiedlichenBasen/Koordinatensystemen arbeiten zu können. Nicht immer sind orthogonale dabei die besten. In der Kristallographie z.B.verwendet man oft auch schiefwinklige Koordinatensysteme, die an die Struktur der Kristallgitter angepasst sind.
Kleiner Ausblick auf weitere Vektorräume in Anwendungen, die nicht aus Zahlentupeln bestehen.
Das soll Ihnen zeigen, dass die Betrachtung von Vektorräumen jenseits des dreidimensionalen nicht nur "l'art pour l'lart" von ein paar
= + , ( − w) ∙ = 0, l = 1,2 ⇔ ( )u x1u1 x2u2 u ul
( ∙ ) + ( ∙ ) = w ∙x1 u1 u1 x2 u2 u1 u1
( ∙ ) + ( ∙ ) = w ∙x1 u1 u2 x2 u2 u2 u2
,x1 x2
( ) ⇒ = − ; = . = + = ,2 + 1 = 1x1 x2
1 + 5 = 0x1 x2x2
19
x159
u x1u1 x2u219
⎛⎝⎜
5−2
4
⎞⎠⎟
Abstand ∥ − ∥ = ∥ − ∥ =u′ w′→
u w 23
n = 3
= × , ∥ − ∥ = =n u 1 u 2 u w | ∙ ( − )|n w′
→p
∥ ∥n 23
K = IR
C1 C
C = span{1}.
∈ : = + j , , ∈ I Beispiel: ( ) = ( ) + j( )v Cn v u w u w Rn 3 + 7j
1 − 5j
31
7−5
C. (Dim = n)
Cn
∙ = + +.. . . . .v w v∗1w1 v∗
2w2 v∗nwn
v ∙v v
r
spinnerten Mathefreaks ist, sondern dass diese Räume ganz handfeste Anwendungen finden. Ohne solche Vektorräume gäbe es keinHandy, keinen DVD player, keine digitalisierte Musik oder Bilder, kein VoIP. Und auch keine elektronischen Motorsteuerungen undkeine modernen (chipgesteuerten) Haushaltsgeräte.
Reelle oder komplexe ganzrationale Funktionen bilden Vektorräume. Beispiel: Betrachte die Menge aller ganzrationalenreellen Funktionen vom Grad höchstens 2, also Funktionen des Typs:
Diese bilden einen Vektorraum der Dimension 3 über dem Köper der reellen Zahlen. Aus der Schule bekannt: Addiert man solcheFunktionen, so erhält man wieder eine ganzrationale Funktion vom Grad maximal 2, ebenso, wenn man sie mit einer reellen Zahlmultipliziert. Die Abgeschlossenheit ist also erfüllt. Eine Basis ist zum Beispiel
eine andere Basis wäre
Nachweis der linearen Unabhängigkeit über den bereits bekannten Koeffizientenvergleich oder durch Einsetzen einiger Werte undLösen des Gleichungssystems.
n analoger Weise definiert man Räume höherer Dimension usw. Es gibt zahlreiche weitere Polynombasen für diesen Raum, die teilweise für bestimmte Anwendungen relevant sind, zum BeispielInterpolations und Approximationsaufgaben (Lagrangepolynome, Legendrepolynome, Hermitepolynome u.a.) Statt reeller kann man auch komplexe Polynome betrachten, dann allerdings mit dem Skalarkörper .
Auch trigonometrische Funktionen des Typs
(oder allgemein paarweise verschiedene Zahlen) sind linear unabhängig und erzeugen Vektoräume. Für ein passend konstruiertesSkalarprodukt, bei dem allerdings Integration erforderlich ist,
sind diese Funktionen orthogonal, damit auch linear unabhängig. Diese trigonometrischen Basen sind von Bedeutung in nachrichtentechnischen Anwendungen, die sich mit Signalübertragung, darstellung, Digitalisierung analoger Signale befassen. Siehe z.B. auch "schnelle Fouriertransformation", FFT. Ein Signal wird beimSampling digitalisiert dargestellt als Linearkombination dieser Basen.
Schon vor 200 Jahren entdeckte übrigens ein gewisser Jean Baptiste Joseph Fourier, damals Chef einer Militärbehörde unterNapoleon, dass sich mit solchen Funktionen auch Lösungen von Wärmeleitungsproblemen in Reihendarstellung berechnen lassen.Soweit mir bekannt, ging es damals um Probleme mit Kanonen, die sich bei schneller Schussfolge überhitzten. Probleme aus derMilitärtechnik als Impulsgeber wissenschaftlicher Untersuchungen eine leider häufig auftretende Konstante derWissenschaftsgeschichte. Schon der alte Archimedes bastelte gerne effiziente Mordgeräte für die Soldaten seiner Zeit,Wurfmaschinen z.B. Nun Sinusfunktionen zur Berechnung eines Diffusionsprozesses? Das kommt einem zunächst sehr verwegen vor was schwingt dennda außer evtl. Atomen in Festkörpern? aber es funktioniert tatsächlich. Daraus entwickelte sich dann ein fruchtbares Feld derWissenschaft die FourierAnalysis. Fouriers Methode
Auch reelle oder komplexe Matrizen bilden Vektorräume, mit der elementweisen Addition als Vektoraddition und der skalarenMultiplikation elementweise. Mehr dazu im Abschnitt Matrizenrechnung
Für technische Berechnungen, Computergrafik, CAD und vieles andere spielen Vektorräume aus stückweise linearen (oderquadratischen, oder kubischen) Funktionen eine große Rolle, sogenannte Splines. Zum Beispiel in der Methode der Finiten Elemente,dort als sogenannte Ansatzfunktionen, und in anderen Approximations und Interpolationsaufgaben. Sie haben den Vorteil, dass mansie aus einer einzigen Schablonenfunktion ("Hütchen") generieren kann, die man zu passend gewählten Stützstellen verschiebt und
(R)P2
t → p(t) = a + bt + c , a,b,c ∈ IR = Kt2
= 1, = t, =p1 p2 p3 t2
= 1 + t, = 1 − t, =q1 q2 q3 t2
t
(t) + (t) + (t) = 0 ⇒ = = = 0x1p1 x2p2 x3p3 x1 x2 x3
(R) = span(1;t; ; )P3 t2 t3
K = C
t → u(t) = sin( t), t → cos( t), = 2kπ,k = 1,2, . . .wk wk wk
wk
∙ = c u(t)w(t)dt, a,c passend zur Basis zu wählende Konstanten u w ∫ a
−a
anpasst. Damit sind solche Funktionen sehr schnell mit dem Computer generierbar. Man kann sie in einer oder mehrerenRaumvariablen generieren. Damit lassen sich dann auch räumliche Probleme der Mechanik näherungsweise auf dem Rechner als(große) lineare Gleichungssysteme lösen. Finite Element Methode Ein ähnliches Beispiel für Vektorräume aus Funktionen sind Wavelets, die z.B. in Bildkompressionsverfahren genutzt werden.Wavelets
Hier können Sie sich eine künstlerische Illustration zur Näherung von Flächen mit stückweise linearen Splines in 2 Ortsvariablenansehen. Auch zum selber basteln. Papershapes
Etwas augenzwinkernd könnte man sagen, dass ein Großteil der Ingenieurnumerik darin besteht, sich zu einem Modell einenpassenden endlichdimensionalen Vektorraum (oder eine Folge solcher) zu konstruieren, mit dem man die (oder wengstens eine)Lösung der Modellgleichungen schnell und robust auf einem Rechner approximieren (annähern) kann. In der Regel müssen dabeigroße lineare Gleichungssysteme gelöst werden. Auch nichtlineare Gleichungssysteme werden dabei auf eine Folge linearerzurückgeführt, etwa durch das Newtonverfahren. Daher muss man lineare Gleichungssyteme gut "beherrschen" und ihreEigenschaften kennen. Mehr dazu im nächsten Abschnitt.
top related