1 vektorrechnungman kann die begriffe skalar und vektor am besten anhand von physikalischen...
TRANSCRIPT
In[1]:= $PrePrint = MatrixForm
Out[1]= MatrixForm
Dieser Befehl bewirkt dass alle Matrizen in MatrixForm ausgegeben werden.
Das vorliegende Skriptum entstand aus einer Fachbereichsarbeit und orientiert sich am Buch von E. Kreyszig, Advanced Engineering Mathematics, 8th Ed. John Wiley 1999.
1 Vektorrechnung
1.1 Skalare und Vektoren
Man kann die Begriffe Skalar und Vektor am besten anhand von physikalischen Beispielen veranschaulichen. Eine skalare Größe ist eine Größe, die durch eine einzige reelle Zahl bestimmt wird. Beispiele dafür sind: die Masse eines Körpers, das Volu-men eines Körpers, die Temperatur, der Widerstand usw.
Aber meistens reicht eine einzige Zahl für die Beschreibung eine Größe nicht aus. In der Mechanik zur Charakterisierung einer Kraft etwa verwendet man einen Vektor. Ein Vektor entspricht einer gerichteten Strecke, die nicht nur die Stärke angeben kann, sondern auch die Richtung in der die Kraft wirkt.
1.2 Komponenten eines Vektors
Es sei aØ
ein Vektor in einem kartesischen Koordinatensystem, der durch eine gerich-tete Strecke PQ, wobei P der Anfangspunkt und Q der Endpunkt ist, gegeben ist. Die Koordinaten vom Punkt P sind (x1,y1), die vom Punkt Q sind (x2,y2). Die Kompo-
nenten des Vektors aØ
erhält man indem man von der Spitze (dem Endpunkt P), den Schaft (den Anfangspunkt Q), abziehen.
a1 = x2 - x1, a2 = y2 - y1.
Die Länge des Vektors |aØ
| ist der Abstand der Punkte P undQ voneinander und ist daher (Pythagoras)
|aØ
| = è!!!!!!!!!!!!!!!!!!!
a12 + a2
2 .
Beispiel 1:
Der Vektor aØ
hat den Anfangspunkt P = (1,2) und Endpunkt Q = (3,4). Die Kompo-nenten sind daher
a1 = 3 - 1 = 2, a2 = 4 - 2 = 2
und die Länge von aØ
ist
|aØ
| = è!!!!!!!!!!!!!!
22 + 22 = è!!!
8 .
Beispiel 1: Länge von Vektoren mit Mathematica
In[2]:= vektornorm@v__D := HSum@v@@iDD2, 8i, 1, Length@vD<DL1ÅÅÅÅ2
In[3]:= w = 81, 2, 2<
Out[3]=
i
k
jjjjjjj
1
2
2
y
{
zzzzzzz
In[4]:= vektornorm@wD
Out[4]= 3
Die interne Vektornorm funktioniert nur nummerischIn[5]:= << LinearAlgebra`MatrixManipulation`
In[6]:= VectorNorm@N@81, 1, 1< - 82, 2, 2<D, 2D
Out[6]= 1.73205
Ortsvektor:
Ein Ortsvektor hat seinen Anfangspunkt im Koordinatenursprung (0,0). Daraus folgt, daß die Koordinaten des Endpunkts gleich die Komponenten des Vektors ergeben.
Nullvektor:
Bei einem Nullvektor 0Ø
fallen der Anfangs- und Endpunkt zusammen. Der
Nullvektor hat die Länge Null und eine unbestimmte Richtung.
Einheitsvektor:
Der Einheitsvektor eÆ
ist ein Vektor dessen Betrag (Länge) |eØ
| gleich 1 ist. Zu jedem Vektor kann ein Einheitsvektor mit der gleichen Orientierung angegeben werden.
|eØ
| = 1,
eØ
bØ = b
Æ * 1ÅÅÅÅÅÅÅ
ÀbØÀ.
Beispiel 2: Einheitsvektor mit Mathematica
In[7]:= einheitsvektor@v_D := v ê vektornorm@vD
In[8]:= einheitsvektor@wD
Out[8]=
i
k
jjjjjjjjjjj
1ÅÅÅ32ÅÅÅ32ÅÅÅ3
y
{
zzzzzzzzzzz
In[9]:= Clear@wD
2 LineareAlgebra.nb
1.3 Addition von Vektoren und Multiplikation mit Skalaren Addition von Vektoren
Die Vektoraddition ist eine Basisrechenoperation in der Vektorrechnung. Wenn man
zwei Vektoren aØ
und bØ
addieren will, muß man die einzelnen Komponenten mitein-
ander addieren. Der Anfangspunkt des daraus folgenden Vektors cØ
ist der Anfang-
spunkt von aØ
und der Endpunkt von cØ
ist der Endpunkt von bØ
.
aØ
+ bØ
= cØ
, Ja1
a2N + J
b1
b2N = J
a1 + b1
a2 + b2N = J
c1
c2N.
Für die Vektoraddition gilt das Kommutativgesetz. Das heißt, daß
aØ
+ bØ
= bØ
+ aØ
ist.
Aus der Skizze unten ist dies ersichtlich.
Die Vektoraddition unterliegt auch dem Assiozativgesetz welches aussagt, daß
(aØ
+ bØ
) + cØ
= aØ
+ (bØ
+ cØ
).
Zu jedem Vektor aØ
gibt es einen inversen Vektor -aØ
, sodaß gilt
aØ
+ (-aØ
) = 0Ø
.
LineareAlgebra.nb 3
Es gilt auch
aØ
+ 0Ø
= aØ
.
Zusammengefaßt kann man sagen, daß die Vektoren bezüglich der Vektoraddition eine kommutative Gruppe bilden.
Beispiel 3: Addition von Vektoren mit Mathematica
In[10]:= Ja1a2
N + Jb1b2
N
Out[10]= Ja1 + b1a2 + b2
N
Multiplikation mit Skalaren
Man kann einen Vektor aØ
mit einem Skalar l, also einer reellen Zahl, multiplizieren.
Die Komponenten des Vektors laØ
lauten (la1, l a2 ). Bei der Multiplikation mit Skalaren l, m gelten jetzt folgende Gesetze
(i) l(maØ
) = (lm)aØ
gemischtes Assoziativgesetz
(ii) 1aØ
= aØ
(iii) l(aØ
+ bØ
)= laØ
+ lbØ
gemischtes Distributivgesetz
(iv) (l + m)aØ
= laØ
+ mbØ
Wenn der Skalar eine negative Zahl ist, wird die Orientierung des Vektors umgekehrt.
Beispiel 4: Multiplikation mit Skalaren mit Mathematica
4 LineareAlgebra.nb
In[11]:= l *Ja1a2
N
Out[11]= Jl a1l a2
N
1.4 Vektorräume
Ein Vektorraum oder auch linearer Raum besteht aus der Menge aller Elemente die er beinhaltet. Die Definition eines reellen Vektorraumes lautet: Gegeben sei eine Menge deren Elemente sämtliche Rechenregeln der Vektoraddition und der Multiplikation mit einem Skalar wie im Kapitel 1.3 befolgen. Diese Elemente bilden dann einen Vektor-raum und heißen Vektoren. Statt der reellen Zahlen können auch in analoger Weise Vektorräume über den komplexen Zahlen definiert werden.
Lineare Abhänigkeit und Unabhänigkeit:
Die Vektoren v1Ø
, ..., vmØ
nennt man linear unabhängig, wenn gilt
l1v1Ø
+ l2 v2Ø
+ ... + lm vmØ
= 0 fl l1 = l2 = ... = lm = 0.
In einer linear abhängigen Menge von Vektoren eines Vektorraumes kann man mindes-tens einen der Vektoren durch eine lineare Kombination der anderen darstellen. Bei einer linear unahängigen Menge funktioniert das nicht.
Die maximale Anzahl n von linear unabhängigen Vektoren eines Vektorraumes nennt man seine Dimension n und eine Menge von n linear unabhängigen Vektoren eine Basis des Vektorraumes. Jeder Vektor kann dann durch eine lineare Kombination der Basisvektoren gebildet werden.
Beispiel 5: Lineare Abhänigkeit und Unabhänigkeit mit Mathematica:
In[12]:= a = 81, 2, 3<b = 84, 5, 6<;c1 = 87, 8, 9<;c2 = 87, 8, 8<;d = 80, 0, 0<;
Out[12]=
i
k
jjjjjjj
1
2
3
y
{
zzzzzzz
In[17]:= Solve@l1 a + l2 b + l3 c1 ã d, 8 l2 , l3 , l1<D
Solve::svars : Equations may not give solutions for all "solve" variables.
Out[17]= H l2 Ø -2 l1 l3 Ø l1 L
LineareAlgebra.nb 5
In[18]:= Solve@l1 a + l2 b + l3 c2 ã d, 8 l2 , l3 , l1<D
Out[18]= H l2 Ø 0 l3 Ø 0 l1 Ø 0 L
In[19]:= Clear@a, b, c, dD
1.5 Inneres (skalares) Produkt zweier Vektoren
Die vektorielle Projektion:
Gegeben sind zwei Vektoren aØ
und bØ
. Die vektorielle Projektion von aØ
auf bØ
ist der
Vektor bØ
' der parallel zu aØ
ist und dessen Länge durch die orthogonale Projektion von
bØ
auf aØ
gegeben ist. Es gilt
|bØ
' | = |bØ
| cos j.
Beispiel: Dreieck
Der Höhenvektor hcØ
Øist gleich der Projektion des Seitenvektors a
Ø auf den Nor-
malseitenvektor von cØ
hcØ
Ø = a '
Ø.
Skalares Produkt:
Das skalare Produkt von aØ
und bØ
ist eine reelle Zahl, die gegeben ist durch das
Produkt der Länge der vektoriellen Projektion von bØ
auf aØ
mal der Länge des Vektors
aØ
.
6 LineareAlgebra.nb
aØ
bØ
= |aØ
| |bØ
' |,
aØ
bØ
= |aØ
| |bØ
| cos j.
Für das skalare Produkt von aØ
und bØ
sind auch noch folgende Schreibweisen üblich
aØ
bØ
= ÄaØ
, bØê = (a
Ø, b
Ø).
Bei der skalaren Multiplikation werden die Vektoren wie folgt multipliziert:
Ja1
a2N J
b1
b2N = a1 b1 + a2 b2
aØ
= a1exØ
+ a2eyØ
, bØ
= b1exØ
+ b2eyØ
,
aØ
bØ
= (a1exØ
+ a2eyØ
) ( b1exØ
+ b2eyØ
)
= a1b1 + a2b2,
da exØ
exØ
= 1 und exØ
eyØ
= 0 ist.
Beispiel 6: Skalares Produkt mit Mathematica
In[20]:= [email protected], 1.1, 1<, 85.4, -2, 1.2<DOut[20]= 5.48
In[21]:= 81.2, 1.1, 1< . 85.4, -2, 1.2<
Out[21]= 5.48
Wenn die Vektoren als Spaltenmatrizen geschrieben werden,
kann man auch folgende Definition verwenden
In[22]:= skalaresprodukt@v__, w__D := Sum@v@@iDD * w@@iDD, 8i, 1, Length@vD<D
In[23]:= v1 = 81.2, 1.1, 1<;
In[24]:= v2 = 85.4, -2, 1.2<;
In[25]:= skalaresprodukt@v1, v2D
Out[25]= 5.48
LineareAlgebra.nb 7
1.6 Innere Produkträume
Ein reeller Vektorraum wird dann ein reeller (innerer Produktraum) oder Vektorraum mit Skalarprodukt genannt, wenn folgende Bedingungen erfüllt werden: Zu jedem Paar
von Vektoren aØ
und bØ
gibt es eine zugehörige reelle Zahl genannt inneres Produkt (skalares Produkt).
1.7 Vektorprodukte
Das Vektorprodukt auch Kreuzprodukt oder Dachprodukt genannt gibt es nur im —3.
Das Produkt aØ
ä bØ
(bzw. aØ
fl bØ
) zweier Vektoren aØ
und bØ
ergibt einen Vektor vØ
, der
auf die Ebene, die aØ
und bØ
bilden, normal steht. Der Betrag des Vektors vØ
ist die
Fläche des von aØ
und bØ
aufgepannten Parallelogramms. aØ
, bØ
und vØ
bilden ein Rechts-system. Es gilt
|aØ
ä bØ
| = |vØ
| = |aØ
| |bØ
| sin j.
Vektorprodukte erfüllen nicht das Kommutativgesetz und Assoziativgesetz. Durch
die Rechtsschraubenregel kann man bØ
ä aØ
aus aØ
ä bØ
bestimmen.
(aØ
ä bØ
) ä cØ
≠ aØ
ä (bØ
ä cØ
),
aØ
ä bØ
= - bØ
ä aØ
.
Daraus folgt: sind die Vektoren aØ
und bØ
parallel, so gilt
aØ
ä bØ
= 0Ø
.
Für eine orthonormale Basis gilt
exØ
ä eyØ
= ezØ
.
8 LineareAlgebra.nb
1.8 Vektorprodukte durch ihre Komponenten ausgedrückt Um mit Vektorprodukten rechnen zu können muß man wissen, daß
vØ
= i
k
jjjjjjj
v1
v2
v3
y
{
zzzzzzz =
i
k
jjjjjjj
a1
a2
a3
y
{
zzzzzzz ä
i
k
jjjjjjj
b1
b2
b3
y
{
zzzzzzz =
i
k
jjjjjjj
a2 b3 - a3 b2
-a1 b3 + a3 b1
a1 b2 - a2 b1
y
{
zzzzzzz = det
i
k
jjjjjjjjj
eØ
x eÆ
y eÆ
z
a1 a2 a3
b1 b2 b3
y
{
zzzzzzzzz.
Dies folgt unmittelbar aus der Darstellung
aØ
= a1exØ
+ a2eyØ
+ a3ezØ
, bØ
= b1exØ
+ b2eyØ
+ b3ezØ
,
aØ
äbØ
= (a1exØ
+ a2eyØ
+ a3ezØ
) ä ( b1exØ
+ b2eyØ
+ b3ezØ
)
= (a2b3 - a3b2) exØ
+ (a3b1 - a1b3) eyØ
+ (a1b2 - a2b1) ezØ
.
Zwecks Vollständigkeit wurde hier bereits die Formel mit der Determinante angege-ben, obwohl deren Definition erst im nächsten Kapitel erfolgt.
Beispiel: Abstand zweier windschiefer Geraden.
Der Vektor aØ
äbØ
ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅŃƒƒƒƒƒƒƒƒƒƒƒƒƒaØ
äb؃ƒƒƒƒƒƒƒƒƒƒƒƒƒ
steht normal auf die Geraden GaØ , G
bØ mit den Richtungsvektoren
aØ
und bØ
und hat die Länge eins. Der Abstand d ist dann gegeben durch das Skalarprodukt
d = Ä aØ
äbØ
ÅÅÅÅÅÅÅÅÅÅÅÅÅŃƒƒƒƒƒƒƒƒƒƒƒaØ
äb؃ƒƒƒƒƒƒƒƒƒƒƒ
, cØê
wobei der Vektor cØ
ein beliebiger Vektor ist, dessen Anfangspunkt auf der Geraden
GaØ und dessen Endpunkt auf der Geraden G
bØ liegt.
Beispiel 7: Vektorprodukt mit Mathematica
In[26]:= [email protected], 1.1, 0<, 85.4, -2, 1.2<D
Out[26]=
i
k
jjjjjjj
1.32
-1.44
-8.34
y
{
zzzzzzz
LineareAlgebra.nb 9
In[27]:= 81.2, 1.1, 0< ä 85.4, -2, 1.2<
Out[27]=
i
k
jjjjjjj
1.32
-1.44
-8.34
y
{
zzzzzzz
1.9 Das gemischte Produkt dreier Vektoren
aØ
(bØ
ä cØ
) = det i
k
jjjjjjj
a1 a2 a3
b1 b2 b3
c1 c2 c3
y
{
zzzzzzz
Geometrisch kann das gemischte Produkt dreier Vektoren als das Volumen des von den drei Vektoren aufgespannten Körpers (Parallelepiped) interpretiert werden.
2 Matrizen und Determinanten
2.1 Grundsätzliche Konzepte
Matrizen sind rechteckige "Felder", die aus Reihen und Spalten bestehen. Die Reihen und Spalten beinhalten die Koeffizienten der Matrix. Matrizen werden dazu verwendet um lineare Gleichungssysteme oder Transformationen darzustellen.
a11x1+ a12x2 = b1
a21x1+ a22x2 = b2.
Die Koeffizienten der ersten Gleichung werden in die erste Reihe der Matrix geschrieben, dann die der zweiten in die zweite Reihe.
A = Ja11 a12
a21 a22N.
Damit kann das obige Gleichungssystem wie folgt dargestellt werden, wenn die Multiplikation entsprechend definiert wird. (Dies führt in weiterer Folge zur Defini-tion der Matrizenmultiplikation.)
Ja11 a12
a21 a22N.J
x1
x2N = J
b1
b2N
Spezielle Matrizen
10 LineareAlgebra.nb
Spezielle Matrizen sind zum Beispiel die Reihenmatrix, die nur aus einer Reihe besteht, oder die Spaltenmatrix, die nur aus einer Spalte besteht.
H a1 ... an L, i
k
jjjjjjj
b1
:
bn
y
{
zzzzzzz.
Beispiel 8: Spaltenmatrix und Reihenmatrix mit Mathematica
In[28]:= 88x1, x2, x3<<
Out[28]= H x1 x2 x3 L
In[29]:= 88x1<, 8x2<, 8x3<<
Out[29]=
i
k
jjjjjjj
x1x2x3
y
{
zzzzzzz
Eine Matrix deren Elemente abseits der Hauptdiagonalen null sind, heißt Diagonalma-trix. Sind in einer Diagonalmatrix die Elemente der Diagonale gleich 1, so erhält man die Einheitsmatrix. Die Einheitsmatrix entspricht der Einheit bei der Multiplikation.
E = i
k
jjjjjjj
1 0 0
0 1 0
0 0 1
y
{
zzzzzzz.
2.2 Addition von Matrizen, Multiplikation von Matrizen mit Zahlen Addition von Matrizen:
Dabei werden die entsprechenden Komponenten beider Matrizen miteinander addi-ert. Dies geht nur, wenn beide Matritzen die gleiche Anzahl an Reihen und Spalten haben. Aus den zwei Matrizen wird eine neue Matrix gebildet. Hier werden die Rechenregeln an einer 2 ä 2 Matrize demonstriert
A + B = C,
Ja11 a12
a21 a22N + J
b11 b12
b21 b22N = J
a11 + b11 a12 + b12
a21 + b21 a22 + b22N.
Multiplikation von Matrizen mit reellen Zahlen:
LineareAlgebra.nb 11
Bei der Multiplikationeiner matrix mit einer Zahl wird jede einzelne Komponente mit der Zahl multipliziert, zum Beispiel
lA = Jl a11 l a12
l a21 l a22N.
Beispiel 9: Addition von Matrizen mit Mathematica
In[30]:= Ja b
c dN + 3 J
1 1
0 1N
Out[30]= J3 + a 3 + b
c 3 + dN
2.3 Transponierte Matrizen
Die Transponierung AT einer Matrix A funktioniert folgendermaßen: Die Elemente der Reihen werden mit denen der Spalten vertauscht, zum Beispiel
A = Ja11 a12
a21 a22N,
AT = Ja11 a21
a12 a22N.
Hierbei können folgende Sonderfälle auftreten:
(a) Die Symmetrische quadratische Matrix. Wenn man sie transponiert erhält man wieder dieselbe Matrix, zum Beispiel
A = i
k
jjjjjjj
1 6 3
6 0 -2
3 -2 5
y
{
zzzzzzz, AT = A.
(b) Schiefsymmetrische quadratische Matrix. Wenn man A transponiert erhält man -A, zum Beispiel
A = i
k
jjjjjjj
1 6 3-6 0 -2
-3 2 5
y
{
zzzzzzz, AT = -A.
(c) Quadratische Dreiecksmatrix. Bei ihr besteht eine der zwei Seiten der Hauptdiagonale nur aus Nullen, zum Beispiel
A = i
k
jjjjjjj
1 0 08 2 0
-3 2 5
y
{
zzzzzzz oder B =
i
k
jjjjjjj
1 3 -6
0 2 5
0 0 5
y
{
zzzzzzz.
Eine untere Dreiecksmatrix wird bei Transponierung zu einer oberen und umgekehrt.
12 LineareAlgebra.nb
Beispiel 10: Transponierte Matrix mit Mathematica
In[31]:= TransposeAi
k
jjjjjjj
1 0 0
8 2 0
-3 2 5
y
{
zzzzzzzE
Out[31]=
i
k
jjjjjjj
1 8 -3
0 2 2
0 0 5
y
{
zzzzzzz
2.4 Matrizenmultiplikation
Zwei Matritzen kann man nur dann miteinander multiplizieren, wenn die Spaltenan-zahl der ersten mit der Zeilenanzahl der zweiten übereinstimmt. Die darausfolgende Matrix hat dann dieselbe Anzahl an Spalten und Reihen wie die erste Matrix. Nimmt man zwei 2 µ 2 Matrizen A und B dann ist das Produkt wie folgt definiert
Ja11 a12
a21 a22N . J
b11 b12
b11 b22N =
Ja11 b11 + a12 b21 a11 b12 + a12 b22
a21 b11 + a22 b21 a21 b12 + a22 b22N.
Um zu diesen Ergebnis zu gelangen, führt man folgende Merkregel ein. Dazu faßt man die zwei Komponenten der Reihen von A zu jeweils einer zusammen.
A = Ja1
a2N wobei
a1= H a11 a12 L a2= H a21 a22 L
Dann faßt man die zwei Komponenten der Spalten von B zu jeweils einer zusammen.
B = H b1 b2 L wobei
b1= Jb11
b12N, b2= J
b21
b22N.
Die Komponenten von C, kann man dann mit den skalaren Produkten errechnen.
C = Ja1.b1 a1.b2
a2.b1 a2.b2N
Es gilt
cjk = aj .bk = aj,1 bk,1 + aj,2 bk,2.
LineareAlgebra.nb 13
Beispiel 11: Matrizenmultiplikation mit Mathematica
Achtung: Mathematica unterscheidet natürlich normale Multiplikation "*" und
Matrizenmultiplikation "."
In[32]:= Ja bc d
N.J1 10 1
N
Out[32]= Ja a + b
c c + dN
In[33]:= MatrixPowerAJa b
c dN, 3E
Out[33]=ikjjja Ha2 + b cL + b Ha c + c dL a Ha b + b dL + b Hb c + d2Lc Ha2 + b cL + d Ha c + c dL c Ha b + b dL + d Hb c + d2L
y{zzz
2.5 Rang einer Matrix
Der Rang einer Matrix ist gegeben durch die Anzahl der linear unahängigen Reihen-vektoren. Die Nullmatrix hat zum Beispiel den Rang 0. Die folgende Matrix
A = i
k
jjjjjjj
3 0 2 2-1 7 4 9
7 -7 0 -5
y
{
zzzzzzz
hat den Rang Ran(A) = 2. Begründet dadurch, daß die dritte Zeile eine lineare Kombination der beiden ersten ist.
Bei Spalten gibt es auch einen Rang einer Matrix. Man kann ihn mit der Anzahl der linear unahängigen Spaltenvektoren ermitteln.
Es gilt: Spaltenrang ist gleich Zeilenrang!
Der Rang ist daher gleich der Dimension des Bildraumes der Matrix
Beispiel 12: Rang einer Matrix mit Mathematica
In[34]:= rang@x_D := Last@Dimensions@xDD - Length@NullSpace@xDD
In[35]:= ma =i
k
jjjjjjj
1 0 3
4 2 4
7 8 9
y
{
zzzzzzz;
In[36]:= mb =i
k
jjjjjjj
1 2 3
4 5 6
7 8 9
y
{
zzzzzzz;
14 LineareAlgebra.nb
In[37]:= RowReduce@maD
Out[37]=
i
k
jjjjjjj
1 0 0
0 1 0
0 0 1
y
{
zzzzzzz
In[38]:= rang@maD
Out[38]= 3
In[39]:= RowReduce@mbD
Out[39]=
i
k
jjjjjjj
1 0 -1
0 1 2
0 0 0
y
{
zzzzzzz
In[40]:= rang@mbD
Out[40]= 2
In[41]:= Clear@ma, mbD
Der Kern einer linearen Abbildung besteht aus allen Vektoren, die in den Nullvektor abgebildet werden
und wird daher auch noch Nullraum genannt.
Beispiel 13: Kern einer Abbildung (Matrix) mit Mathematica
In[42]:= TransposeANullSpaceAi
k
jjjjjjj
1 2 3
4 5 6
7 8 9
y
{
zzzzzzzEE
Out[42]=
i
k
jjjjjjj
1
-2
1
y
{
zzzzzzz
2.6 Lineare Gleichungssysteme Gauß'sches Eliminationsverfahren Lineare Gleichungssysteme
a11x1+ a12x2 = b1
a21x1+ a22x2 = b2
Alle ajk und bj sind vorgegebene Zahlen. Wenn alle bj gleich Null sind, nennt man das Gleichungssystem ein homogenes Gleichungssystem, ansonsten ein inhomoge-nes Gleichungssystem. Man kann ein System auch durch eine Koeffizientenmatrix A und durch die Erweiterte Matrix B ausdrücken.
A = Ja11 a12
a21 a22N , B = J
a11 a12 b1
a21 a22 b2N.
LineareAlgebra.nb 15
Gauß'sches Eliminationsverfahren
Nicht alle linearen Gleichungssysteme haben eine Lösung und manche haben sogar mehrere Lösungen. Mit Hilfe des Gauß'schen Eliminationsverfahren kann man nun versuchen das Gleichungsystem zu lösen. Ein Beispiel:
-x1 + x2 + 2x3= 2
3x1 - x2 + x3= 6
-x1 + 3x2 + 4x3= 4
i
k
jjjjjjj
-1 1 2 2
3 -1 1 6-1 3 4 4
y
{
zzzzzzz
Zuerst muß man x1aus der 2. und 3. Gleichung eliminieren indem man eine jeweils entsprechende Linearkombination der 1. Gleichung addiert. Drei mal die Erste addiert zur Zweiten und minus ein mal die Erste addiert zur Dritten ergibt
-x1 + x2 + 2x3= 2
2x2 + 7x3= 12
2x2 + 2x3= 2,
i
k
jjjjjjj
-1 1 2 20 2 7 12
0 2 2 2
y
{
zzzzzzz
Als Zweites muß man x2 aus der 3. Gleichung eliminieren indem man eine passende Linearkombination der 2. Gleichung addiert.
-x1 + x2 + 2x3= 2
2x2 + 7x3= 12
-5x3= -10,
i
k
jjjjjjj
-1 1 2 2
0 2 7 12
0 0 -5 -10
y
{
zzzzzzz
Es ergibt sich
x3= 2; x2= -1; x2= 1.
16 LineareAlgebra.nb
Mit der 3. Gleichung beginnend kann man jetzt dieses Gleichungssystem lösen. Beim Lösen von anderen Gleichungssystemen kann mann nach demselben Schema vorgehen.
Existenz und Eigenschaften von Lösungen
(1) Homogene lineare Systeme:
(a) Es existiert immer eine Lösung, nämlich die triviale, das heißt, daß
alle Variablen 0 sind.
(b) Ist der Rang r der Koeffizientenmatrix A, kleiner als die Anzahl der
Variablen n (rank(A) = r < n), so existieren nichttriviale Lösungen.
(2) Inhomogene lineare Systeme:
(a) Eine Lösung eines linearen inhomogenen Gleichungssystems
existiert nur, wenn die Koeffizientenmatrix A den gleichen Rang r hat
wie die erweiterte Matrix B.
(b) Wenn der Rang r der Matrix A mit der Anzahl der Unbekannten n übereinstimmt, hat das Gleichungssystems genau eine Lösung.
(c) Wenn der Rang r kleiner als die Anzahl der Unbekannten n ist, gibt es unendlich viele Lösungen.
Wenn eine Lösung existiert, kann man sie mit Hilfe des Gauß'sches Eliminationsver-fahrens bekommen.
In einem inhomogenen Gleichungsystem kann die Lösungsgesamtheit als Summe einer Lösung x0 der inhomogenen Gleichung plus aller Lösungen des dazugehörigen homogenen Gleichungsystem dargestellt werden
x = x0+ xh.
Beispiel 14: Lineare Gleichungssysteme mit Mathematica
Die Lösung von Gleichungssytemen ist auf mehrere Arten möglich.
Solve liefert alle Lösungen, LinearSolve nur eine spzielle Lösung, die allgemeine Lösung setzt sich zusammen aus einer speziellen Lösung und beliebigen Vektoren aus dem Kern der Matrix
In[43]:= Clear@x, bD
LineareAlgebra.nb 17
In[44]:= Solve@ 84 x1 + b x2 + 6 x3 - 6 == 0,6 x1 + 7 x2 + 8 x3 - 9 == 0,
9 x1 + 10 x2 + 12 x3 - 12 == 0<,8x1 , x2 , x3<D
Out[44]= H x1 Ø 6 H-5 + bL x2 Ø 3 x3 Ø - 3ÅÅÅ2 H-14 + 3 bL L
In[45]:= % ê. b Ø 6
Out[45]= H x1 Ø 6 x2 Ø 3 x3 Ø -6 L
In[46]:= RowReduceAi
k
jjjjjjj
4 b 6 6
6 7 8 9
9 10 12 12
y
{
zzzzzzzE
Out[46]=
i
k
jjjjjjjj
1 0 0 6 H-5 + bL0 1 0 3
0 0 1 - 3ÅÅÅ2 H-14 + 3 bL
y
{
zzzzzzzz
In[47]:= RowReduceAi
k
jjjjjjj
1 1 -1 -11 2 5 -1
2 1 3 2
y
{
zzzzzzzE
Out[47]=
i
k
jjjjjjjjjjj
1 0 0 17ÅÅÅÅÅ11
0 1 0 - 24ÅÅÅÅÅ11
0 0 1 4ÅÅÅÅÅ11
y
{
zzzzzzzzzzz
In[48]:= a =
i
k
jjjjjjjjjjjj
0 0 1 3 3
1 2 1 4 3
1 2 2 7 6
2 4 1 5 3
y
{
zzzzzzzzzzzz;
In[49]:= b =
i
k
jjjjjjjjjjjj
2
3
5
4
y
{
zzzzzzzzzzzz;
In[50]:= vx =
i
k
jjjjjjjjjjjjjjjjj
x1x2x3x4x5
y
{
zzzzzzzzzzzzzzzzz
;
In[51]:= x0 = LinearSolve@a, bD
Out[51]=
i
k
jjjjjjjjjjjjjjjjj
1
0
2
0
0
y
{
zzzzzzzzzzzzzzzzz
In[52]:= ker = NullSpace@aD
Out[52]=
i
k
jjjjjjj
0 0 -3 0 1
-1 0 -3 1 0
-2 1 0 0 0
y
{
zzzzzzz
18 LineareAlgebra.nb
In[53]:= ker@@1DD
Out[53]=
i
k
jjjjjjjjjjjjjjjjj
0
0
-3
0
1
y
{
zzzzzzzzzzzzzzzzz
In[54]:= allgemeineLösung = x0 + l1 ker@@1DD + l2 ker@@2DD + l3 ker@@3DD
Out[54]=
i
k
jjjjjjjjjjjjjjjjj
1 - l2 - 2 l3
l3
2 - 3 l1 - 3 l2
l2
l1
y
{
zzzzzzzzzzzzzzzzz
In[55]:= Simplify@a . allgemeineLösung - bD
Out[55]=
i
k
jjjjjjjjjjjj
0
0
0
0
y
{
zzzzzzzzzzzz
In[56]:= Solve@ a . vx ã b, 8x1 , x2 , x3, x4, x5<D
Solve::svars : Equations may not give solutions for all "solve" variables.
Out[56]= H x1 Ø 1 - 2 x2 - x4 x3 Ø 2 - 3 x4 - 3 x5 L
2.7 Die Inverse einer Matrix
Nicht alle Matrizen habe eine Inverses. Wenn eine Matrix eine Inverse besitzt wird sie als reguläre (nichtsinguläre) Matrix bezeichnet. Die Inverse einer Matrix A wird mit A-1bezeichnet. Es gilt
A A-1 = A-1 A = E.
Berechnung der inversen Matrix:
Man bringt das Gleichungsystem mit der Matrix A auf die Form:
A xØ
= E bØ
Durch ein verändertes Gauß'sches Eliminationsverfahrens, auch Gauß-Jordan Elimi-nationsverfahren genannt, kann man es umformen:
E xØ
= A-1 bØ
Ein Beispiel:
LineareAlgebra.nb 19
A = i
k
jjjjjjj
-1 1 2
3 -1 1-1 3 4
y
{
zzzzzzz
i
k
jjjjjjj
-1 1 2
3 -1 1-1 3 4
y
{
zzzzzzz xØ
= i
k
jjjjjjj
1 0 0
0 1 00 0 1
y
{
zzzzzzz bØ
Man führt an der Matrix A das Gauß'sche Eliminationsverfahren durch und an der Einheitsmatrix die gleichen Rechenoperationen.
i
k
jjjjjjj
-1 1 2
0 2 7
0 2 2
y
{
zzzzzzz xØ
= i
k
jjjjjjj
1 0 0
3 1 0
0 0 1
y
{
zzzzzzz bØ
i
k
jjjjjjj
-1 1 2
0 2 7
0 0 -5
y
{
zzzzzzz xØ
= i
k
jjjjjjj
1 0 0
3 1 0-4 -1 1
y
{
zzzzzzz bØ
Als nächstes eliminiert man die Koeffizienten oberhalb der Hauptdiagonale, sodaß links die Einheitsmatrix steht.
i
k
jjjjjjj
1 -1 0
0 1 0
0 0 1
y
{
zzzzzzz xØ
= i
k
jjjjjjj
3ê5 2ê5 -2ê5-13ê10 -2ê10 7ê10
4ê5 1ê5 -1ê5
y
{
zzzzzzz bØ
i
k
jjjjjjj
1 0 0
0 1 0
0 0 1
y
{
zzzzzzz xØ
= i
k
jjjjjjj
-7ê10 2ê10 3ê10
-13ê10 -2 ê10 7ê10
4ê5 1ê5 -1 ê5
y
{
zzzzzzz bØ
Die Matrix die jetzt rechts steht ist die Inverse der Matrix A.
Zusammenfassend kann man sagen, daß man
A xØ
= bØ
(fl A-1A xØ
= A-1 bØ
)
zu umgeformt
xØ
= B bØ
haben. Daher ist
B = A-1.
20 LineareAlgebra.nb
Beispiel 15: Inverse einer Matrix mit Mathematica
In[57]:= Clear@a, b, c, dD
In[58]:= ma = Ja b
c dN
Out[58]= Ja b
c dN
In[59]:= Inverse@maD
Out[59]=i
kjjjj
dÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ-b c+a d - bÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ-b c+a d
- cÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ-b c+a daÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ-b c+a d
y
{zzzz
Beispiel 16: Komplementäre Matrix mit Mathematica
In[60]:= kompl@x_D := Inverse@xD Det@xD
In[61]:= kompl@maD
Out[61]= Jd -b
-c aN
Übung: Man berechne die komplementere Matrix durch direkte Anwendung der
Formel aus dem Skriptum
In[62]:= minor@j_, k_, mat_D := Det@Transpose@Delete@Transpose@Delete@mat, jDD, kDDD
In[63]:= kofactor@j_, k_, mat_D := H-1L^Hj + kL * minor@j, k, matD
In[64]:= komplementareMatrix@mat_D :=Transpose@Table@kofactor@i, j, matD, 8i, Length@matD<, 8j, Length@matD<DD
In[65]:= komplementareMatrix@maD
Out[65]= Jd -b
-c aN
2.8 Determinanten zweiter und dritter Ordnung
Determinanten zweiter Ordnung einer 2µ 2 Matrix berechnet man, indem man die Komponenten der Hauptdiagonale miteinander multipliziert und die miteinander multiplizierten Komponenten der Nebendiagonale vom Ergebnis subtrahiert.
Àa11 a12
a21 a22À = a11 a22 - a21 a12 .
Mit der Cramerschen Regel kann man die Lösungen von linearen Gleichungsyste-men zweiter Ordnung wie folgt durch Determinanten ausdrücken.
(1) x1= D1ÅÅÅÅÅÅÅÅÅD , x2= D2ÅÅÅÅÅÅÅÅÅD , D ≠ 0.
LineareAlgebra.nb 21
D1bekommt man, wenn man die erste Spalte der Koeffizientenmatrix durch den
Lösungsvektor ersetzt bÆ
ersetzt. D2 bekommt man, wenn man die zweite Spalte der
Koeffizientenmatrix durch den Lösungsvektor bÆ
ersetzt
D = Àa11 a12
a21 a22À , D1= À
b1 a12
b2 a22À , D2= À
a11 b1
a21 b2À .
Beweis von (1):
Ja11 a12
a21 a22N J
x1
x2N = J
b1
b2N
a11 x1 + a12 x2 = b1 | - a21
a21 x1 + a22 x2 = b2 | + a21
( - a21 a21+ a11 a22 ) x2 = -b1 a21 + b2 a11,
x2 = b2 a11 - b1 a21ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅa11 a22 - a12 a21 = D2ÅÅÅÅÅÅÅÅÅD .
( a11 a22 - a21 a12 ) x1 = b1 a21 - b2 a12,
x1 = b1 a11 - b2 a21ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅa11 a22 - a12 a21 = D1ÅÅÅÅÅÅÅÅÅD , qed.
Zur Berechnung von Determinanten dritter Ordnung kann man die Regel von Sarrus benutzen. Zuerst fügt man die beiden ersten Spalten rechts noch einmal an. Dann bildet man die Summe der Produkte parallel der Hauptdiagonale und subtrahiert die Summe der Produkte parallel der Nebendiagonale.
ƒƒƒƒƒƒƒƒƒƒƒƒƒ
a11 a12 a13
a21 a22 a23
a31 a32 a33
ƒƒƒƒƒƒƒƒƒƒƒƒƒ
a11 a12
a21 a22
a31 a32
= (a11a22a33 + a12a23a31 + a13a21a32)
- (a13a22a31 + a11a23a32 + a12a21a33)
Um ein lineares Gleichungsystem dritter Ordnung zu lösen, kann man wieder die Cramersche Regel benutzen. Der Beweis ist analog zum Fall n = 2.
x1 = D1ÅÅÅÅÅÅÅÅÅD , x2 = D2ÅÅÅÅÅÅÅÅÅD , x3 = D3ÅÅÅÅÅÅÅÅÅD , D≠0.
22 LineareAlgebra.nb
D2 bekommt man, wenn man die erste Spalte der Koeffizientenmatrix durch den
Lösungsvektor ersetzt bÆ
ersetzt. D2 bekommt man, wenn man die zweite Spalte der
Koeffizientenmatrix durch den Lösungsvektor bÆ
ersetzt. D3bekommt man wenn
man die dritte Spalte der Koeffizientenmatrix durch den Lösungsvektor bÆ
ersetzt.
Wichtige Eigenschaften von Determinanten
(a) Der Wert einer Determinante ändert sich nicht, wenn man ihre Reihen als Spalten in derselben Reihenfolge oder umgekehrt schreibt.
Beweis für 2µ2 Matrizen (gilt analog für Matrizen höherer Ordnung).
A = Ja11 a12
a21 a22N,
det A = Àa11 a12
a21 a22À = a11 a22 - a21 a12,
det AT = Àa11 a21
a12 a22À = a11 a22 - a12 a21 = det A, qed.
(b) Wenn man zwei Spalten oder Reihen miteinander vertauscht, wird der Wert der Determinante mit -1 multipliziert. Beweis:
Àa21 a22
a11 a12À = a21 a22 - a12 a21 = - det A,
Àa21 a11
a22 a12À = a21 a22 - a12 a21 = - det A, qed.
Die Determinante zweiter Ordnung, die man erhält, wenn man eine Spalte und eine Reihe einer 3µ3 Matrix löscht wird der Minor des Koeffizienten genannt der zu der gelöschten Reihe und der Spalte gehört.
Der Kofaktor eines Koeffizienten der i-ten Reihe und der k-ten Spalte wird mit H-1Li+kmal der Minor definiert.
Damit kann man eine Determinante dritter Ordnung ausdrücken durch:
D = a11C11 + a21C21 + a31C31
= a11( a22 a33 - a32 a23) - a21( a12 a33 - a32 a13)
+ a31(a12 a23 - a22 a13).
LineareAlgebra.nb 23
wobei C der jeweilige Kofaktor ist. Diesen Vorgang nennt man "entwickeln'' einer Determinante.
(c) Eine Determinante kann man aus irgend einer ihrer Reihen oder Spalten errech-nen, indem man jeden Koeffizienten mit seinem Kofaktor multipliziert und aufsummiert.
D = -a21 Àa12 a13
a32 a33À + a22 À
a11 a13
a31 a33À - a23 À
a11 a12
a31 a32À.
(d) Einen gemeinsamen Faktor der Koeffizienten einer Reihe oder Spalte kann man vor die Determinante herausheben. Dies sieht man unmittelbar, wenn man nur die Reihe oder Spalte entwickelt die den Faktor enthält.
ƒƒƒƒƒƒƒƒƒƒƒƒƒ
a11 a12 a13
a21 a22 a23
a31 a32 a33
ƒƒƒƒƒƒƒƒƒƒƒƒƒ= l
ƒƒƒƒƒƒƒƒƒƒƒƒƒ
a11 a12 ê l a13
a21 a22 ê l a23
a31 a32 ê l a33
ƒƒƒƒƒƒƒƒƒƒƒƒƒ.
Dies sieht man sofort, wenn man nach der Reihe oder Spalte entwickelt die den Faktor enthält.
Aus (b) und (d) folgt unmittelbar:
(e) Wenn zwei Reihen oder Spalten proportional zueinander sind, ist der Wert der Determinante 0.
(f) Der Wert einer Determinante bleibt gleich, wenn man eine ihrer Reihen oder Spalten mit einem Skalar multipliziert und zu einer anderen addiert.
Beispiel 17: Determinanten mit Mathematica
In[66]:= DetAJa11 a12a21 a22
NE
Out[66]= -a12 a21 + a11 a22
In[67]:= DetAi
k
jjjjjj
a11 a12 a13a21 a22 a23a31 a32 a33
y
{
zzzzzzE
Out[67]= -a13 a22 a31 + a12 a23 a31 + a13 a21 a32 - a11 a23 a32 - a12 a21 a33 + a11 a22 a33
2.9 Determinanten höherer Ordnung
Determinanten höherer Ordnug werden berechnet indem man sie "entwickelt", d.h. sie werden durch Determinaten von niederigerer Ordnung ausgedrückt. Gegeben sei eine Determinante n-ter Ordnung d.h., eine Matrix mit n Reihen und n Spalten.
i
k
jjjjjjj
a11 ... a1 n
: ... :an1 ... ann
y
{
zzzzzzz
24 LineareAlgebra.nb
Die Determinante, die man erhält, wenn man die k-te Reihe und eine i-te Spalte löscht wird der Minor des Koeffizienten genannt der zu der gelöschten Reihen und der Spalte gehört. Er wird als Mik angegeben.
Der Kofaktor eines Koeffizienten der i-ten Reihe und der k-ten Spalte wird mit H-1Li+kmal der Minor definiert. Er wird als Cik angegeben.
Cik = H-1Li+k Mik
Beispiel 18: Minor und Kofaktor mit Mathematica
In[68]:= Clear@a, maD
In[69]:= minor@j_, k_, mat_D := Det@Transpose@Delete@Transpose@Delete@mat, jDD, kDDD
In[70]:= kofactor@j_, k_, mat_D := H-1L^Hj + kL * minor@j, k, matD
In[71]:= ma =i
k
jjjjjjj
a11 a12 a13a21 a22 a23a31 a32 a33
y
{
zzzzzzz
Out[71]=
i
k
jjjjjjj
a11 a12 a13a21 a22 a23a31 a32 a33
y
{
zzzzzzz
In[72]:= minor@2, 3, maD
Out[72]= -a12 a31 + a11 a32
In[73]:= kofactor@2, 3, maD
Out[73]= a12 a31 - a11 a32
Den Wert der Determinante einer n ä n Matrix erhält man, wenn man irgend eine ihrer Reihen oder Spalten nimmt und jeden Koeffizienten mit seinem Kofaktor multipliziert und aufsummiert. Zum Beispiel
D = ai1Ci1 + ai2Ci2 + ... + ainCin.
Damit hat man die Determinante n-ter Ordnung durch eine Summe von Determi-naten der Ordnung n-1 ausgedrückt. Dieser Vorgang wird nun solange wiederholt, bis man zu Determinaten erster bzw. zweiter Ordnung kommt.
Es gilt:
(a) Der Wert der Determinante ändert sich nicht, wenn man ihre Reihen als Spalten in derselben Reihenfolge oder umgekehrt schreibt (transponierte Matrix).
(b) Wenn man eine Reihe oder Spalte mir einem Faktor multipliziert, ist der Wert der folgenden Determinante gleich der Ausgangsdeterminante mal dem Faktor.
(c) Wenn alle Koeffizienten einer Reihe oder Spalte Null sind, ist der Wert der Determinante auch Null.
(d) Wenn man zwei Spalten oder Reihen miteinander vertauscht, wird der Wert der Determinante mit -1 multipliziert.
(e) Wenn zwei Reihen oder Spalten proportional zueinander sind, ist der Wert der Determinante 0.
LineareAlgebra.nb 25
(f) Der Wert der Determinante ändert sich nicht, wenn man ein konstantes vielfaches einer ihrer Reihen oder Spalten zu einer anderen addiert.
(g) Die Determinante des Produktes zweier Matrizen ist gleich dem Produkt der Determinanten der zwei Matrizen.
det(AB) = det A det B.
Hinweis: Die Beweise dieser Aussagen sind trivial und analog zum Fall n = 2.
2.10 Ränge und Determinanten, Cramersche Regel Man kann mit Hilfe von Determinanten den Rang einer Matrix bestimmen.
Eine Matrix A hat einen Rang r ≥ 1 genau dann, wenn A eine r ä r -Untermatrix mit einer Determinante ungleich Null hat und es keine größere Untermatrix mit einer Determinante ungleich Null gibt.
Cramersche Regel
Wenn die Determinante D = det A eines linearen inhomogenen Systems von n Gleichungen mit n Unbekannten nicht Null ist, so hat dieses System genau eine Lösung. Sie ist gegeben durch:
x1 = D1ÅÅÅÅÅÅÅÅÅD , x2 = D2ÅÅÅÅÅÅÅÅÅD , ..., xn = DnÅÅÅÅÅÅÅÅÅD .
Als Folge der Cramersche Regel kann man nun die Inverse einer Matrix ausrechen. Die Inverse einer regulären (nµn)-Matrix A = (ajk ) wird wie folgt berechnet:
A-1 = 1ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅdetA
i
k
jjjjjjj
A11 ... A1 n
: ... :
An1 ... Ann
y
{
zzzzzzz
wobei Ajk der Kofaktor von ajk ist. Wichtig ist außerdem noch, daß der Kofaktor Ajk den Platz von akj einnimmt.
Hinweis: Die Beweise dieser Aussagen sind trivial und analog zum Fall n = 2.
2.11 Bilineare, quadratische und Hermitesche Formen Ein Ausdruck der Form
B = ⁄ j=1n ⁄k=1
n ajk xj yk
heißt bilineare Form in den 2n Variablen x1, ..., xn und y1, ..., yn.
Ausgeschrieben erhält man
26 LineareAlgebra.nb
B = a11x1y1 + ... + a1 nx1yn
......................................
+ an1xny1 + ... + annxnyn.
Führt man die Vektoren xØ
= Hx1, ..., xnLT und yØ
= Hy1, ..., ynLT und die Koeffizien-tenmatrix A = (ajk ) ein, so kann B in der Form
B = xÆT
A yÆ
geschrieben werden.
Beispiel: Das Skalarprodukt kann als Bilinearform interpretiert werden, wobei A = 1 ist.
Eine spezielle Fall der bilinearen Form ist die quadratische Form. Sie tritt auf
wenn yØ = x
Ø ist.
Q = ⁄ j = 1n ⁄k=1
n ajk xj xk,
Q = xÆT
A xÆ
Gegeben sie eine Matrix A = (ajk ), dann bezeichnet Aèèè
die Matrix die man erhält, wenn man den Koeffizienten ajk in A durch seinen komplex konjugiertes Wert aêêjk
ersetzt. Wenn jetzt AT = Aèèè
ist, dann wird A eine hermitesche (symmetrische) Matrix genannt und die dazu gehörige Form heißt hermitesche Form.
H = HxêêLT A xÆ
,
Q = ⁄ j=1n ⁄k=1
n ajk xêê j xk.
Für jede Wahl des Vektors xÆ
, ist der Wert der hermiteschen Form eine reelle Zahl.
Qêêê
= ⁄ j=1n ⁄k=1
n ajk xêê j xkêêêêêêêêêêêêêêêêêêêêêêêêêêêê
= ⁄ j=1n ⁄k=1
n aêêjk xj xêê
k
= ⁄ j=1n ⁄k=1
n akj xêê
k xj = Q.
Wenn für eine Matrix AT = -Aèèè
gilt, dann wird sie schiefhermitesche (schiefsymmetrische) Matrix genannt.
S = HxêêLT A xÆ
,
Für jede Wahl des Vektors xÆ
, ist der Wert der schiefermitischen Form eine imag-inäre Zahl oder Null.
Sêê
=⁄ j=1n ⁄k=1
n ajk xêê j xkêêêêêêêêêêêêêêêêêêêêêêêêêêêê
Æ
LineareAlgebra.nb 27
- ajk
= ⁄ j=1n ⁄k=1
n -akj xêê
k xj = - S.
2.12 Eigenwerte und Eigenvektoren
Man betrachtet nun eine Matrix A und die folgende Vektorgleichung an.
A xØ
= l xØ
.
Es ist klar, daß eine Lösung hier xØ
= 0 währe. Der Wert, den man für l erhält,
wenn xØ
≠ 0 ist, heißt Eigenwert von A . Das dazugehörige xØ
wird Eigenvektor von A genannt. Die Menge aller Eigenwerte, die A haben kann, wird das Spektrum genannt. Der größte absolute Wert der Eigenwerte wird Spektralradius von A genannt.
Wenn xØ
irgend ein Vektor ist, so ist xØ
und A xØ
im allgemeinen linear unabhängig.
Wenn xØ
aber ein Eigenvektor ist, dann ist xØ
und A xØ
linear abhängig und der Faktor der Proportionalität ist der Eigenwert l.
Beispiel 19: Eigenwerte mit Mathematica
In[74]:= EigenvaluesAJa bc d
NE
Out[74]=i
k
jjjjjj
1ÅÅÅ2 Ia + d -è!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!a2 + 4 b c - 2 a d + d2 M
1ÅÅÅ2 Ia + d +è!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!a2 + 4 b c - 2 a d + d2 M
y
{
zzzzzz
Beispiel 20: Eigenvektoren mit Mathematica ( c ≠≠≠≠ 0 )
In[75]:= TransposeAEigenvectorsAJa bc d
NEE
Out[75]=i
k
jjjj- -a+d+
è!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!a2 +4 b c-2 a d+d2ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ2 c - -a+d-
è!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!a2+4 b c-2 a d+d2ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ2 c
1 1
y
{
zzzz
Geometrische Interpretation von Eigenvektoren:
Dazu betracht man
A xØ
= yØ
wobei A eine 2µ2 Matrix ist. Interpretiert man den Vektor x = Hx1, x2LT als Punkt
der Ebene, so erhält man durch die Anwendung von A auf xØ
wieder einen Punkt der
Ebene y = Hy1, y2LT, der gegeben ist durch y = A x
Ø.
28 LineareAlgebra.nb
Das heißt, nµn Matrizen sind lineare Abbildung des —n.
Betrachtet man die Vektoren xØ
und yØ
so haben diese im allgemeinen verschiedene Richtungen und Beträge.
Für Eigenvektoren gilt jedoch, daß xØ
und yØ
dieselbe Richtung haben.
2.13 Diagonalisierung von Matrizen
Einen Matrix A heißt diagonalisierbar, wenn eine reguläre Matrix T existiert, sodaß
T A T-1 = D
eine Diagonalmatrix ist.
Es gilt: nicht jede Matrix ist diagonalisierbar, aber
(a) Symmetrische Matrizen sind diagonalisierbar.
(b) Sind alle Eigenwerte von A verschieden, dann ist A ebenfalls diagonalisierbar.
Beispiel: Diagonalisiert man eine symmetrische Matrix erhält man
T S T-1 = Jl1 0
0 l2N,
det(S) = det(T S T-1) = l1 l2.
Beispiel 21: Diagonalisierung einer Matrix mit Mathematica
In[76]:= s =i
k
jjjjjjj
2 1 1
1 2 -11 -1 2
y
{
zzzzzzz
Out[76]=
i
k
jjjjjjj
2 1 1
1 2 -1
1 -1 2
y
{
zzzzzzz
In[77]:= 8t, d< = JordanDecomposition@sD;
In[78]:= d
Out[78]=
i
k
jjjjjjj
0 0 0
0 3 0
0 0 3
y
{
zzzzzzz
In[79]:= t
Out[79]=
i
k
jjjjjjj
-1 1 1
1 0 1
1 1 0
y
{
zzzzzzz
In[80]:= Transpose@Eigenvectors@sDD
Out[80]=
i
k
jjjjjjj
-1 1 1
1 0 1
1 1 0
y
{
zzzzzzz
LineareAlgebra.nb 29
In[81]:= t.d.Inverse@tD
Out[81]=
i
k
jjjjjjj
2 1 1
1 2 -1
1 -1 2
y
{
zzzzzzz
In[82]:= Inverse@tD. s . t
Out[82]=
i
k
jjjjjjj
0 0 0
0 3 0
0 0 3
y
{
zzzzzzz
Achtung: Die JordanscheZerlegung liefert keine orthonormale Matrix T zur Diagonalisierung
In[83]:= tn =
i
k
jjjjjjjjjjjjjjjj
- 1ÅÅÅÅÅÅÅÅè!!!!3
1ÅÅÅÅÅÅÅÅè!!!!2
- 1ÅÅÅÅÅÅÅÅè!!!!6
1ÅÅÅÅÅÅÅÅè!!!!3
1ÅÅÅÅÅÅÅÅè!!!!2
1ÅÅÅÅÅÅÅÅè!!!!6
1ÅÅÅÅÅÅÅÅè!!!!3
0 - 2ÅÅÅÅÅÅÅÅè!!!!6
y
{
zzzzzzzzzzzzzzzz
;
In[84]:= Simplify@Inverse@tnD. s . tnD
Out[84]=
i
k
jjjjjjj
0 0 0
0 3 0
0 0 3
y
{
zzzzzzz
In[85]:= tn . Transpose@tnD
Out[85]=
i
k
jjjjjjj
1 0 0
0 1 0
0 0 1
y
{
zzzzzzz
Ergänzung: Schmidtsches Orthogonalisierungsvervahren mit Beispiel im Vektorraum der Polynome
In[86]:= << LinearAlgebra`Orthogonalization`
In[87]:= GramSchmidt@81, x, x^2, x^3, x^4<,InnerProduct Ø HIntegrate@#1 #2, 8x, -1, 1<D &LD êê Simplify
Out[87]=
i
k
jjjjjjjjjjjjjjjjjjjjjjjjjjjjjjjj
1ÅÅÅÅÅÅÅè!!!!2
"#####3ÅÅÅ2 x
1ÅÅÅ2"#####5ÅÅÅ2 H-1 + 3 x2L
1ÅÅÅ2"#####7ÅÅÅ2 x H-3 + 5 x2L
3 H3-30 x2 +35 x4LÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ8è!!!!2
y
{
zzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzz
2.14 Eigenwerte Hermitescher und unitärer Matrizen
Eine quadratische Matrix A = (ajk) wird unitäre Matrix genannt, wenn folgendes gilt:
AêêêT = A-1.
30 LineareAlgebra.nb
Wenn diese unitäre Matrix aus reellen Koeffizienten besteht, ist es eine orthogonale Matrix für die gilt:
AT = A-1.
Ein unitäres System ist ein System von Vektoren xØ
1, ..., xØ
n für die gilt
xêê jT x
Øk = djk .
d jk kann Null oder Eins sein.
Wenn j und k ungleich sind, ist d jk=0 und wenn j gleich k ist, ist d jk=1 .
Die Reihen- und Spaltenvektoren einer unitären Matrix formen ein unitäres System.
Für die Eigenwerte gilt:
(a) Die Eigenwerte hermitischer Formen sind reell.
(b) Die Eigenwerte schief hermitischer Formen sind entweder imaginär oder Null.
(c) Die Eigenwerte unitärer Matrizen haben den Betrag Eins.
(d) Die Eigenwerte symmetrischer Matrizen sind reell.
(e) Die Eigenwerte schief symmetrischer Formen sind entweder imaginär oder Null.
(f) Die Eigenwerte orthogonaler Matrizen haben den Wert Eins und sind reell oder paarweise komplex konjugiert.
Anwendungen:
Quadratische Form zweiter Ordnung n = 2
Q = H x yL Ja11 a12
a21 a22N J
x
yN.
wobei man auf A ist diagonal spezialisiert, d.h.
A = Jl1 0
0 l2N,
Q(x,y) = l1 x2 + l2 y2.
Geometerisch kann Q(x,y) = F mit F=const. als Kurve 2. Ordnung interpretiert werden.
Folgende Fälle sind möglich:
(a) l1, l2 > 0, F > 0 Ellipse
(b) sgn l1 ≠ sgn l2, F > 0 Hyperbel
(c) F = 0 oder l1 = 0 oder l2 = 0 degeneriert
Beispiel 22: Kurve 2. Ordnung mit Mathematica
In[88]:= << Graphics`ImplicitPlot`
LineareAlgebra.nb 31
In[89]:= ImplicitPlot@x^2 + 2 y^2 == 3, 8x, -2, 2<D
-1.5 -1 -0.5 0.5 1 1.5
-1
-0.5
0.5
1
Out[89]= Ü Graphics Ü
In[90]:= ImplicitPlot@x^2 - x y + 2 y^2 == 3, 8x, -2, 2<D
-1.5 -1 -0.5 0.5 1 1.5
-1
-0.5
0.5
1
Out[90]= Ü Graphics Ü
32 LineareAlgebra.nb
In[91]:= ImplicitPlot@x^2 - 2 y^2 == 3, 8x, -2, 2<D
-2 -1 1 2
-0.6
-0.4
-0.2
0.2
0.4
0.6
Out[91]= Ü Graphics Ü
Die Quadratische Form Q(x,y,z) = l1 x2 + l2 y2 + l3 z2kann als Fläche 2. Ordnung im Raum dargestellt werden.
Beispiel 23: Fläche zweiter Ordnung mit Mathematica
In[92]:= <<Graphics`ContourPlot3D`
In[93]:= ContourPlot3D[x^2 + 2 y^2 + 4 z^2- 4, {x,-2,2}, {y,-2,2}, {z,-1,1}, Contours -> {.1}]
Out[93]= Ü Graphics3D Ü
LineareAlgebra.nb 33
In[94]:= ContourPlot3D[x^2 + 2 y^2 - 4 z^2- 4, {x,-3,3}, {y,-2,2}, {z,-2,2}, Contours -> {1.5, 3.}]
Out[94]= Ü Graphics3D Ü
Weitere Tipps:
Aus dem Help-Menu:
Lists and matrices:
List Operations
Vector Operations
Matrix Operations
Adds On -> Standard Packages -> Linear Algebra
zumB eispiel:
In[95]:= Clear@a, b, cD
In[96]:= << LinearAlgebra`MatrixManipulation`
34 LineareAlgebra.nb
In[97]:= a =
i
k
jjjjjjjjjjjj
1 2 3
4 5 6
7 8 9
5 7 9
y
{
zzzzzzzzzzzz
Out[97]=
i
k
jjjjjjjjjjjj
1 2 3
4 5 6
7 8 9
5 7 9
y
{
zzzzzzzzzzzz
In[98]:= b =
i
k
jjjjjjjjjjjj
1
2
3
3
y
{
zzzzzzzzzzzz
Out[98]=
i
k
jjjjjjjjjjjj
1
2
3
3
y
{
zzzzzzzzzzzz
In[99]:= c = AppendRows@a, bD
Out[99]=
i
k
jjjjjjjjjjjj
1 2 3 1
4 5 6 2
7 8 9 3
5 7 9 3
y
{
zzzzzzzzzzzz
LineareAlgebra.nb 35