lineare algebra ii - blu7.com · 1 euklidische und unit¨are vektorr ¨aume 2 wir wollen nun auch...

111
Lineare Algebra II Sommersemester 2006 Wolfgang Ebeling 1

Upload: phungthien

Post on 04-Jun-2018

214 views

Category:

Documents


0 download

TRANSCRIPT

Lineare Algebra IISommersemester 2006

Wolfgang Ebeling

1

c©Wolfgang EbelingInstitut fur MathematikUniversitat HannoverPostfach 600930060 HannoverE-mail: [email protected]

1 Euklidische und unitare Vektorraume 1

1 Euklidische und unitare Vektorraume

Wir wollen das Skalarprodukt auf dem Rn verallgemeinern.

Definition Es sei V ein R-Vektorraum. Eine Abbildung

〈 , 〉 : V × V −→ R(v, w) 7−→ 〈v, w〉

heißt

(i) eine Bilinearform, falls fur alle v, v′, w, w′ ∈ V und λ ∈ R gilt

〈v + v′, w〉 = 〈v, w〉+ 〈v′, w〉 〈λv, w〉 = λ〈v, w〉〈v, w + w′〉 = 〈v, w〉+ 〈v, w′〉 〈v, λw〉 = λ〈v, w〉,

(ii) symmetrisch, falls fur alle v, w ∈ V

〈v, w〉 = 〈w, v〉,

(iii) positiv definit, falls

〈v, v〉 > 0 fur alle v 6= 0.

Eine positiv definite symmetrische Bilinearform nennt man auch ein Ska-larprodukt.

Ein euklidischer Vektorraum ist ein R-Vektorraum zusammen mit einemSkalarprodukt.

Beispiel 1.1 Der Rn mit dem gewohnlichen Skalarprodukt

〈~v, ~y〉 := ~vT~y = (v1, . . . , vn)

y1...

yn

=n∑

i=1

viyi

ist ein euklidischer Vektorraum.

Beispiel 1.2 Es sei V = C[0, 1] = {f | f : [0, 1] → R stetig} und

〈f, g〉 :=

∫ 1

0

f(t)g(t)dt.

Nach den Rechenregeln fur Integrale ist 〈 , 〉 eine symmetrische Bilinearform.Wegen

〈f, f〉 =

∫ 1

0

f 2(t)dt > 0 fur f 6≡ 0

ist diese Bilinearform positiv definit, also ein Skalarprodukt auf V .

1 Euklidische und unitare Vektorraume 2

Wir wollen nun auch ein Skalarprodukt auf dem Cn einfuhren. Warumist die Bilinearform von Beispiel 1.1 kein Skalarprodukt?

Definition Es sei V ein C-Vektorraum. Eine Abbildung

〈 , 〉 : V × V −→ C(v, w) 7−→ 〈v, w〉

heißt

(i) eine Sesquilinearform, falls fur alle v, v′, w, w′ ∈ V und λ ∈ C gilt

〈v + v′, w〉 = 〈v, w〉+ 〈v′, w〉 〈λv, w〉 = λ〈v, w〉〈v, w + w′〉 = 〈v, w〉+ 〈v, w′〉 〈v, λw〉 = λ〈v, w〉,

(ii) hermitesch, falls fur alle v, w ∈ V

〈v, w〉 = 〈w, v〉,

(iii) positiv definit, falls

〈v, v〉 > 0 fur alle v 6= 0.

Eine positiv definite hermitesche Sesquilinearform auf einem C-VektorraumV nennt man auch ein Skalarprodukt auf V .

Ein unitarer Vektorraum ist ein C-Vektorraum zusammen mit einem Ska-larprodukt.

Beispiel 1.3 In der Vorlesung wird gezeigt, dass Cn mit der Sesquilinear-form

〈~v, ~y〉 := ~vT~y = (v1, . . . , vn)

y1...

yn

=n∑

i=1

viyi

ein unitarer Vektorraum ist.

Beispiel 1.4 Es sei f : [0, 1] → C eine Funktion. Dann ist f = u + iv furreelle Funktionen u, v : [0, 1] → R. Die Funktion f heißt stetig. falls die reellenFunktionen u und v stetig sind. Das Integral von f uber [0, 1] ist definiert als∫ 1

0

f(t)dt :=

∫ 1

0

u(t)dt + i

∫ 1

0

v(t)dt ∈ C.

Es sei V = {f : [0, 1] → C stetig} und

〈f, g〉 :=

∫ 1

0

f(t)g(t)dt.

Dann definiert 〈 , 〉 ein Skalarprodukt auf V .

1 Euklidische und unitare Vektorraume 3

Definition (a) Eine n× n-Matrix uber R heißt symmetrisch, falls

A = AT .

(b) Eine n× n-Matrix uber C heißt hermitesch, falls

A = AT.

Es sei im Folgenden K = R oder K = C. Fur eine symmetrische (hermi-tesche) n× n-Matrix A uber K setzen wir

〈 , 〉A : Kn ×Kn −→ K

(~x, ~y) 7−→ 〈~x, ~y〉A := ~xT A~y.

Man beachte, dass die komplexe Konjugation auf R die Identitat ist. Des-wegen konnen wir auf diese Weise den symmetrischen und den hermiteschenFall parallel behandeln.

Lemma 1.1 Ist A symmetrisch (hermitesch), so ist 〈 , 〉A eine symmetrischeBilinearform (hermitesche Sesquilinearform).

Beweis. Durch Nachrechnen (siehe Vorlesung). 2

Es sei nun V ein endlich dimensionaler K-Vektorraum mit einer festgewahlten Basis B = {v1, . . . , vn}. Dann konnen wir einer symmetrischen(hermiteschen) n × n-Matrix A wie folgt eine symmetrische Bilinearform(hermitesche Sesquilinearform) auf V zuordnen: Es seien v, w ∈ V und ~xder Koordinatenvektor zu v und ~y der Koordinatenvektor zu w bezuglich derBasis B. Dann setzen wir

〈v, w〉A := ~xT A~y.

Es sei nun umgekehrt

〈 , 〉 : V × V → K

eine symmetrische Bilinearform (hermitesche Sesquilinearform). Dann ord-nen wir dieser eine n× n-Matrix A wie folgt zu:

A = (〈vi, vj〉).

Definition Die Matrix A heißt die Darstellungsmatrix von 〈 , 〉 bezuglichder Basis B.

1 Euklidische und unitare Vektorraume 4

Lemma 1.2 Die Darstellungsmatrix A einer symmetrischen Bilinearform(hermiteschen Sesquilinearform) ist symmetrisch (hermitesch).

Beweis. Durch Nachrechnen (siehe Vorlesung). 2

Daraus ergibt sich, dass wir nach Wahl einer Basis B eine bijektive Bezie-hung zwischen symmetrischen (hermiteschen) Matrizen und symmetrischenBilinearformen (hermiteschen Sesquilinearformen) auf V haben.

Wir diskutieren nun, wie sich die Darstellungsmatrix einer symmetrischenBilinearform (hermiteschen Sesquilinearform) 〈 , 〉 andert, wenn wir von derBasis B zu einer anderen Basis B′ ubergehen.

Satz 1.1 (Transformationsformel) Es sei V ein endlich dimensionalerK-Vektorraum, B, B Basen von V und 〈 , 〉 eine symmetrische Bilinearform(hermitesche Sesquilinearform) auf V . Es sei A bzw. A′ die Darstellungsma-trix von 〈 , 〉 bezuglich B bzw. B′. Schließlich sei S = TB

B′ die Transformati-onsmatrix von B nach B′. Dann gilt

A = ST A′S.

Beweis. Es seien v, w ∈ V und ~x bzw. ~y die Koordinatenvektoren von v bzw.w bezuglich der Basis B. Dann sind S~x bzw. S~y die Koordinatenvektorenvon v bzw. w bezuglich der Basis B′. Dann gilt auf der einen Seite

〈v, w〉 = ~xT A~y,

auf der anderen Seite

〈v, w〉 = (S~x)T A′(S~y) = ~xT (ST A′S)~y.

Speziell fur v = vi, w = vj erhalt man

〈vi, vj〉 = ~eTi A~ej = aij,

〈vi, vj〉 = ~eTi (ST A′S)~ej = cij,

wobei A = (aij) und ST A′S = (cij). Daraus folgt

A = ST A′S.

2

Man vergleiche diese Formel mit der Transformationsformel fur lineareAbbildungen (I, Satz 16.4).

1 Euklidische und unitare Vektorraume 5

Ist 〈 , 〉 : V × V → K eine symmetrische Bilinearform (hermitescheSesquilinearform), so erhalt man daraus eine Abbildung

q : V −→ Kv 7−→ q(v) := 〈v, v〉 .

Sie heißt die zu 〈 , 〉 gehorige quadratische Form.Man kann 〈 , 〉 aus q zuruckgewinnen. Dies nennt man Polarisierung:

K = R : 〈v, w〉 =1

2(q(v + w)− q(v − w)) ,

K = C : 〈v, w〉 =1

4(q(v + w)− q(v − w) + iq(v + iw)− iq(v − iw)) .

(Beweis durch Nachrechnen.)

Definition Es sei V ein K-Vektorraum. Unter einer Norm auf V verstehtman eine Funktion

|| || : V −→ Rv 7−→ ||v||

mit folgenden Eigenschaften:

(i) ||v|| ≥ 0, ||v|| = 0 ⇔ v = 0,

(ii) ||λv|| = |λ| · ||v|| fur alle λ ∈ R, v ∈ V .

(iii) ||v + w|| ≤ ||v||+ ||w|| fur alle v, w ∈ V (Dreiecksungleichung).

Ein normierter Vektorraum ist ein Paar (V, || ||), das aus einem VektorraumV und einer Norm || || auf V besteht.

Definition Es sei X eine Menge. Unter einer Metrik auf X versteht maneine Abbildung

d : X ×X −→ R(x, y) 7−→ d(x, y)

mit folgenden Eigenschaften:

(i) d(x, y) = 0 ⇔ x = y

(ii) d(x, y) = d(y, x) fur alle x, y ∈ X (Symmetrie)

(iii) d(x, z) ≤ d(x, y) + d(y, z) fur alle x, y, z ∈ X (Dreiecksungleichung).

Ein metrischer Raum ist ein Paar (X, d), X Menge, d Metrik. Man nenntd(x, y) den Abstand oder die Distanz der Punkte x und y bzgl. d.

1 Euklidische und unitare Vektorraume 6

Bemerkung 1.1 Aus den Axiomen folgt, dass d(x, y) ≥ 0 fur alle x, y ∈ X.

Beweis. Wende Dreiecksungleichung auf x, y, x an:

0(i)= d(x, x) ≤ d(x, y) + d(y, x)

(ii)= 2d(x, y).

2

Satz 1.2 Es sei (V, || ||) ein normierter Vektorraum. Dann wird durch

d(x, y) := ||x− y|| fur x, y ∈ V

eine Metrik d auf V definiert.

Beweis.

(i) d(x, y) = 0 ⇔ ||x− y|| = 0 ⇔ x− y = 0 ⇔ x = y.

(ii) d(x, y) = ||x− y|| = | − 1| ||x− y|| = ||y − x|| = d(y, x).

(iii) d(x, z) = ||x−z|| = ||x−y+y−z|| ≤ ||x−y||+||y−z|| = d(x, y)+d(y, z).

2

Satz 1.3 Ist (V, 〈 , 〉) ein euklidischer (unitarer) Vektorraum, so wird durch

‖v‖ :=√〈v, v〉

eine Norm auf V definiert.

Fur den Beweis dieses Satzes brauchen wir das folgende Resultat:

Satz 1.4 (Cauchy-Schwarzsche Ungleichung) Fur v, w ∈ V gilt

|〈v, w〉| ≤ ‖v‖‖w‖

und Gleichheit gilt genau dann, wenn v und w linear abhangig sind.

Beweis. Fur w = 0 sind beide Seiten der Ungleichung gleich 0, die Unglei-chung ist daher erfullt. Es genugt daher, den Fall w 6= 0 zu behandeln.

Fur λ, µ ∈ K gilt

0 ≤ 〈λv + µw, λv + µw〉= λλ〈v, v〉+ λµ〈v, w〉+ λµ〈w, v〉+ µµ〈w, w〉.

2 Summen von Vektorraumen 7

Setzen wir nun λ := 〈w, w〉 und µ := −〈v, w〉, so folgt

0 ≤ λ(〈v, v〉〈w, w〉 − 〈v, w〉〈v, w〉) = λ(‖v‖2‖w‖2 − |〈v, w〉|2).

Wegen λ ≥ 0 folgt daraus

0 ≤ ‖v‖2‖w‖2 − |〈v, w〉|2.

Nun ziehen wir auf beiden Seiten die Quadratwurzel. Dann bleibt das Un-gleichheitszeichen erhalten und wir erhalten die behauptete Ungleichung.

Fur den Beweis des Zusatzes bemerken wir (fur λ := 〈w,w〉 und µ :=−〈v, w〉) :

|〈v, w〉| = ‖v‖‖w‖⇔ 〈λv + µw, λv + µw〉 = 0

⇔ λv + µw = 0

⇔ v = −µ

λw.

Man beachte, dass dies der gleiche Beweis wie fur I, Satz 3.4 ist, nur dass wirstatt einer symmetrischen Bilinearform auch eine hermitesche Sesquilinear-form zugelassen haben. 2

Beweis von Satz 1.3. (i) und (ii) sind einfach (siehe Vorlesung).(iii): Um die Dreiecksungleichung√

〈v + w, v + w〉 ≤√〈v, v〉+

√〈w, w〉

zu beweisen, geht man durch Quadrieren zu der aquivalenten Ungleichung

〈v + w, v + w〉 ≤ 〈v, v〉+ 2√〈v, v〉〈w, w〉+ 〈w, w〉

uber, die gleichbedeutend ist mit

〈v, v〉+ 2|〈v, w〉|+ 〈w, w〉 ≤ 〈v, v〉+ 2√〈v, v〉〈w, w〉+ 〈w, w〉.

Diese Ungleichung ist aquivalent zu der Cauchy-Schwarzschen Ungleichung.2

2 Summen von Vektorraumen

Im Folgenden sei K zunachst ein beliebiger Korper. Wir betrachten verschie-dene Summen von Vektorraumen.

2 Summen von Vektorraumen 8

Definition Es sei V ein K-Vektorraum und U1, U2 Unterraume von V .Dann heißt

U1 + U2 := {u1 + u2 |u1 ∈ U1, u2 ∈ U2}die Summe von U1 und U2.

Lemma 2.1 Fur die oben definierte Summe U1+U2 der Unterraume U1 undU2 gilt:

(i) U1 + U2 ⊂ V ist ein Unterraum.

(ii) U1 + U2 = span(U1 ∪ U2).

(iii) dim(U1 + U2) ≤ dim U1 + dim U2.

Beweis. Siehe Vorlesung. !

Satz 2.1 (Dimensionsformel fur Summen) Fur endlich dimensionale Un-terraume U1, U2 ⊂ V gilt

dim(U1 + U2) = dim U1 + dim U2 − dim(U1 ∩ U2).

Beweis. Es sei {v1, . . . , vm} eine Basis von U1 ∩U2. Wir erganzen diese Basiszu Basen

{v1, . . . , vm, u1, . . . , uk} von U1 und {v1, . . . , vm, u!1, . . . , u

!!} von U2.

Wir mussen zeigen:

B := {v1, . . . , vm, u1, . . . , uk, u!1, . . . , u

!!} ist eine Basis von U1 + U2.

Dazu reicht es zu zeigen, dass B linear unabhangig ist. Dazu sei

λ1v1 + . . . + λmvm + µ1u1 + . . . + µkuk + µ!u!1 + . . . µ!u!

! = 0.

Wir setzenv := λ1v1 + . . . + λmvm + µ1u1 + . . . + µkuk.

Dann ist v ∈ U1 und −v = µ!u!1 + . . . µ!u!

! ∈ U2. Daraus folgt v ∈ U1 ∩ U2.Also ist

v = λ!1v1 + . . . + λ!

mvm

fur gewisse Skalare λ!1, . . . ,λ

!m. Da {v1, . . . , vm} eine Basis bildet, folgt µ1 =

. . . = µk = 0. Setzen wir dies in die obige Gleichung ein, so folgt

λ1 = . . . = λm = µ!1, . . . , µ

!! = 0.

!

2 Summen von Vektorraumen 9

Lemma 2.2 Ist V = U1 + U2, so sind die folgenden Aussagen aquivalent:

(i) U1 ∩ U2 = {0}.

(ii) Jedes v ∈ V lasst sich eindeutig darstellen als v = u1 + u2 mit u1 ∈ U1

und u2 ∈ U2.

(iii) Je zwei vom Nullvektor verschiedene Vektoren u1 ∈ U1 und u2 ∈ U2

sind linear unabhangig.

Beweis. Siehe Vorlesung. !

Ist eine der drei aquivalenten Bedingungen von Lemma 2.2 erfullt, soheißt V die direkte Summe von U1 und U2. Also gilt z. B.:

Definition Ein Vektorraum V heißt direkte Summe von zwei UnterraumenU1 und U2, in Zeichen V = U1 ⊕ U2, wenn

V = U1 + U2 und U1 ∩ U2 = {0}.

Beispiel 2.1 Es sei V = R3. Ist U1 = span{"e1,"e2} und U2 = span{"e3}, soist V = U1⊕U2. Ist dagegen U3 = span{"e2,"e3}, so ist zwar V = U1 + U3, dieSumme ist aber nicht direkt, da U1 ∩ U3 = span{"e2}.

Satz 2.2 Es sei V ein endlich dimensionaler K-Vektorraum und U1, U2 Un-tervektorraume von V . Dann sind die folgenden Bedingungen aquivalent:

(i) V = U1 ⊕ U2.

(ii) Es gibt Basen {u1, . . . , uk} von U1 und {u!1, . . . , u

!!} von U2, so dass

{u1, . . . , uk, u!1, . . . , u

!!} eine Basis von V ist.

(iii) Es gilt V = U1 + U2 und dim V = dim U1 + dim U2.

Beweis. Siehe Vorlesung !

Definition Es sei U ⊂ V ein Unterraum. Ein Unterraum W ⊂ V heißtKomplement von U in V , falls

U ⊕W = V.

Bemerkung 2.1 Zu einem Unterraum U ist ein Komplement W im All-gemeinen nicht eindeutig bestimmt: Ist zum Beispiel V = R3 und U =span{"e1,"e2}, so sind W1 = span{"e3} und W2 = span{"e1 + "e3} Komplementevon U .

2 Summen von Vektorraumen 10

Satz 2.3 Ist V endlich dimensional und U ⊂ V ein Unterraum, so besitztU ein Komplement in V .

Beweis. Man nehme eine Basis {v1, . . . , vr} von U und erganze sie nach I,Satz 13.3(a), zu einer Basis {v1, . . . , vr, vr+1, . . . , vn} von V . Man setze

W := span{vr+1, . . . , vn}.

!

Nun betrachten wir einen euklidischen oder unitaren Vektorraum V .

Definition Es sei V ein euklidischer (unitarer) Vektorraum.

(a) Zwei Vektoren v, w ∈ V heißen orthogonal, in Zeichen v ⊥ w, falls〈v.w〉 = 0.

(b) Zwei Unterraume U,W ⊂ V heißen orthogonal, in Zeichen U ⊥ W ,falls u ⊥ w fur alle u ∈ U , w ∈ W .

(c) Ist U ein Unterraum, so heißt

U" := {v ∈ V | 〈u, v〉 = 0 fur alle u ∈ U}

das orthogonale Komplement von U .

Bemerkung 2.2 Das orthogonale Komplement U" eines Unterraums U istein Komplement von U , also insbesondere wieder ein Unterraum (siehe Vor-lesung).

Definition Es sei V ein euklidischer (unitarer) Vektorraum.Eine Teilmenge S = {v1, . . . , vn} von V heißt orthogonal, wenn die Vek-

toren vi paarweise orthogonal sind, d.h. wenn vi ⊥ vj fur alle i += j, i, j =1, . . . , n, gilt.

Eine Teilmenge S = {v1, . . . , vn} von V heißt orthonormal, wenn S or-thogonal ist und alle Vektoren auf die Lange 1 normiert sind, d.h. wenn

〈vi, vj〉 = 0 fur alle i += j und 〈vi, vi〉 = 1 fur i, j = 1, . . . , n.

Eine Basis S = {v1, . . . , vn} von V heißt Orthonormalbasis (abgekurztON-Basis), wenn sie orthonormal ist.

Es sei V ein euklidischer (unitarer) Vektorraum. Wie in LA I beweisenwir:

2 Summen von Vektorraumen 11

Lemma 2.3 Eine orthogonale Teilmenge S = {v1, . . . , vn} von V mit vomNullvektor verschiedenen Elementen ist linear unabhangig.

Beweis. Es sei!1v1 + · · · + !nvn = 0.

Dann gilt!!1v1 + · · · + !nvn, vi" = !i!vi, vi" = 0.

Da nach Vorausetzung vi #= 0, folgt daraus !i = 0. Dies gilt fur alle i =1, . . . , n. !

Lemma 2.4 Es sei W ein Unterraum von V und {v1, . . . , vm} eine Ortho-normalbasis von W . Es sei u $ V . Dann ist der Vektor

v := u% !u, v1"v1 % · · ·% !u, vm"vm

orthogonal zu allen Vektoren von W .

Definition Der Vektor

u% !u, v1"v1 % · · ·% !u, vm"vm

heißt die zu W orthogonale Komponente von u.

Beweis. Es gilt

!v, vi" = !u% !u, v1"v1 % · · ·% !u, vm"vm, vi" = !u, vi" % !u, vi" = 0.

!

Satz 2.4 (Orthonormalisierungssatz) Es sei V ein endlich dimensiona-ler euklidischer (unitarer) Vektorraum. Es sei W & V ein Unterraum und{w1, . . . , wm} eine ON-Basis von W . Dann kann man diese zu einer ON-Basis {w1, . . . , wm, wm+1, . . . , wn} von V erganzen.

Beweis. Der Beweis wird durch das E. Schmidt’sche Orthonormalisierungs-verfahren gegeben, das wir schon in LA I vorgestellt haben.

Ist V = W , so ist man fertig. Andernfalls gibt es ein v $ V \ W . Wirbetrachten die zu W orthogonale Komponente von v:

w := v % !v, w1"w1 % · · ·% !v, wm"wm.

Da v #$ W , ist w #= 0. Nach Lemma 2.4 ist w $ W!. Wir setzen nun

wm+1 :=w

'w' .

2 Summen von Vektorraumen 12

Dann ist {w1, . . . , wm+1} eine orthogonale Teilmenge, deren Elemente vomNullvektor verschieden sind. Nach Lemma 2.3 ist diese Teilmenge linear un-abhangig und damit eine ON-Basis von

W " := span{w1, . . . , wm+1}.

Ist W " = V , so ist man fertig. Andernfalls kommt man nach endlich vielenSchritten zum Ziel. !

Korollar 2.1 Jeder endlich dimensionale euklidische (unitare) Vektorraumbesitzt eine Orthonormalbasis.

Beweis. Man wende das obige Verfahren mit W = {0} an. !

Definition Es sei V ein euklidischer (unitarer) Vektorraum und U1, U2

Unterraume von V . Man sagt, V ist die orthogonale direkte Summe der Un-terraume U1 und U2, in Zeichen V = U1 ( U2, falls

(i) V = U1 ) U2 und

(ii) U1 ( U2.

Lemma 2.5 Es sei V ein euklidischer (unitarer) Vektorraum und U1, U2

Unterraume von V . Gilt

(i) V = U1 + U2 und

(ii) U1 ( U2,

so ist V die orthogonale direkte Summe der Unterraume U1 und U2.

Beweis. Wir haben zu zeigen. U1 *U2 = +. Es sei v $ U1 *U2, v #= 0. Wegen(i) ist v = u1 + u2 mit u1 $ U1 und u2 $ U2. Dann gilt

0 #= !v, v" = !v, u1"+ !v, u2" = 0 wegen (ii),

ein Widerspruch. !

Satz 2.5 Es sei V ein endlich dimensionaler euklidischer (unitarer) Vektor-raum und W & V ein Unterraum. Dann gilt

V = W ( W!.

Insbesondere istdim V = dim W + dim W!.

2 Summen von Vektorraumen 13

Beweis. Es sei {w1, . . . , wm} eine ON-Basis von W . Diese erganze man nachSatz 2.4 zu einer ON-Basis {w1, . . . , wm, wm+1, . . . , wn} von V . Dann istwm+1, . . . , wn $ W!. Es sei nun v $ V . Dann konnen wir v schreiben als

v = "1w1 + · · · + "mwm + "m+1wm+1 + · · · + "nwn

mit"1w1 + · · · + "mwm $ W, "m+1wm+1 + · · · + "nwn $ W!.

Daraus folgt die Behauptung. !

Wir wollen nun auch Summen von mehr als zwei Unterraumen betrachten.

Definition Es sei V ein K-Vektorraum und U1, . . . , Us Unterraume von V .Dann heißt

U1 + · · · + Us := {u1 + · · · + us |ui $ Ui, i = 1, . . . , s}

die Summe von U1, . . . , Us.

Wie oben beweist man:

Lemma 2.6 Fur die Summe U1 + · · · + Us der Unterraume U1, . . . , Us gilt:

(i) U1 + · · · + Us & V ist ein Unterraum.

(ii) U1 + · · · + Us = span(U1 , · · · , Us).

(iii) dim(U1 + · · · + Us) - dim U1 + · · · + dim Us.

Satz 2.6 Ist V = U1 + · · · + Us, so sind die folgenden Aussagen aquivalent:

(i) Fur jedes i = 1, . . . , s gilt: Ist Wi := U1 + · · · + !Ui + · · · + Us, so istUi*Wi = {0}. (Hierbei bedeutet !Ui: In der Summe wird Ui weggelassen,”nimmt seinen Hut und geht”.)

(ii) Jedes Element v $ V lasst sich eindeutig darstellen als v = u1+ · · ·+us

mit ui $ Ui.

(iii) Fur jede Teilmenge I & {1, . . . , s} gilt: Ist fur i $ I ui $ Ui, ui #= 0, soist die Teilmenge SI := {ui | i $ I} linear unabhangig.

Definition Ist eine der aquivalenten Bedingungen von Satz 2.6 erfullt, soheißt V die direkte Summe von U1, . . . , Us, in Zeichen V = U1 ) · · ·) Us.

2 Summen von Vektorraumen 14

Beweis. (i) . (ii): Es sei

v = u1 + · · · + us = u"1 + · · · + u"s (ui, u"i $ Ui).

Dann folgt

ui%u"i = (u"1%u1)+· · ·+(u"i#1%ui#1)+(u"i+1%ui+1)+· · ·+(u"s%us) $ Wi*Ui.

Nach (i) folgt ui % u"i = 0.(ii) . (iii): Es sei I = {i1, . . . , ir} & {1, . . . , s} und

"1ui1 + · · · + "ruir = 0.

Da nach (ii) auch der Nullvektor 0 $ V eine eindeutige Darstellung

0 = 0ui1 + · · · + 0uir

besitzt, folgt "1 = . . . = "r = 0.(iii) . (i): Es sei Wi *Ui #= {0}. Dann gibt es ein ui $ Ui mit ui #= 0 und

ui = u1 + · · · + ui#1 + ui+1 + · · · + us mit uj $ Uj.

Es sei I die Menge aller Indizes j $ {1, . . . , s} mit uj #= 0. Dann ist dieTeilmenge SI linear abhangig im Widerspruch zu (iii). !

Satz 2.7 Es sei V ein endlich dimensionaler K-Vektorraum und U1, . . . , Us

Unterraume von V . Dann sind die folgenden Bedingungen aquivalent:

(i) V = U1 ) · · ·) Us.

(ii) Ist fur jedes i $ {1, . . . , s} eine Basis {u(i)1 , . . . , u(i)

ki} von Ui gegeben, so

ist{u(1)

1 , . . . , u(1)k1

, . . . , u(s)1 , . . . , u(s)

ks}

eine Basis von V .

(iii) Es gilt V = U1 + · · · + Us und dim V = dim U1 + · · · + dim Us.

Beweis. (i) . (ii): Es sei

B := {u(1)1 , . . . , u(1)

k1, . . . , u(s)

1 , . . . , u(s)ks

}.

O!ensichtlich ist B ein Erzeugendensystem von V . Es reicht daher zu zeigen,dass B linear unabhangig ist. Dazu sei

"(1)1 u(1) + · · · + "(1)

k1u(1)

k1+ · · · + "(s)

1 u(s)1 + · · · + "(s)

ksu(s)

ks= 0.

2 Summen von Vektorraumen 15

Setzen wir wi := "(i)1 u(i) + · · · + "(i)

kiu(i)

ki, so folgt

w1 + · · · + ws = 0.

Aus Satz 2.6 (iii) folgt w1 = . . . = ws = 0. Also ist

"(i)1 u(i) + · · · + "(i)

kiu(i)

ki= 0 fur i = 1, . . . , s.

Daraus folgt "(i)1 = · · · = "(i)

ki= 0.

(ii) / (iii) ist klar.(ii) . (i) folgt aus Satz 2.6 (ii). !

Es sei nun wieder K = R, C und V ein euklidischer (unitarer) Vektor-raum.

Definition Es sei V ein euklidischer (unitarer) Vektorraum und U1, . . . , Us

Unterraume von V . Man sagt, V ist die orthogonale direkte Summe der Un-terraume U1 . . . , Us, in Zeichen V = U1 ( . . . ( Us, falls

(i) V = U1 ) · · ·) Us und

(ii) Ui ( Uj fur i #= j.

Lemma 2.7 Es sei V ein euklidischer (unitarer) Vektorraum und U1, . . . , Us

Unterraume von V . Gilt

(i) V = U1 + · · · + Us und

(ii) Ui ( Uj fur i #= j,

so ist V die orthogonale direkte Summe der Unterraume U1, . . . , Us.

Beweis. Wir haben zu zeigen: Ui*Wi = {0}. Es sei v $ Ui*Wi, v #= 0. Danngilt

v = u1 + · · · + ui#1 + ui+1 + · · · + us mit uj $ Uj.

Da Ui ( Uj fur i #= j folgt dann

0 #= !v, v" = !v, u1"+ · · · + !v, ui#1"+ !v, ui+1"+ · · · + !v, us" = 0,

ein Widerspruch. !

3 Orthogonale und unitare Endomorphismen 16

3 Orthogonale und unitare Endomorphismen

Es sei zunachst K ein beliebiger Korper. Wir fuhren noch einen Sprachge-brauch ein.

Definition Es sei V ein K-Vektorraum. Ein Endomorphismus von V isteine lineare Abbildung f : V 0 V . Ein Automorphismus von V ist einbijektiver Endomorphismus.

Nun sei im Folgenden wieder K = R, C und (V, ! , ") ein euklidischer(unitarer) Vektorraum.

Definition Es sei V ein euklidischer (unitarer) Vektorraum. Ein Endomor-phismus f : V 0 V heißt orthogonal (unitar), falls gilt:

!f(v), f(w)" = !v, w" fur alle v, w $ V.

Satz 3.1 Fur einen orthogonalen (unitaren) Endomorphismus f : V 0 Vgilt:

(i) 'f(v)' = 'v' fur alle v $ V .

(ii) v ( w / f(v) ( f(w).

(iii) f ist injektiv.

(iv) Ist V endlich dimensional, so ist f ein Automorphismus und f#1 istebenfalls orthogonal (unitar).

(v) Ist " ein Eigenwert von f , so ist |"| = 1.

Beweis. Siehe Vorlesung bzw. LA B, Satz 7.4. !

Satz 3.2 Ein Endomorphismus f : V 0 V ist genau dann orthogonal(unitar), wenn f eine Isometrie ist, d.h. 'f(v)' = 'v' fur alle v $ V gilt.

Beweis. ”.” ist Satz 3.1 (i).”1”. Es sei K = R. (Der Fall K = C kann analog bewiesen werden.) Wir

wenden Polarisierung an:

!f(v), f(w)" =1

2

"'f(v) + f(w)'2 % 'f(v)% f(w)'2

#

=1

2

"'f(v + w)'2 % 'f(v % w)'2

#

=1

2

"'v + w'2 % 'v % w'2

#= !v, w".

3 Orthogonale und unitare Endomorphismen 17

!

Wir hatten in LA I die Gruppe GL(n) aller invertierbaren Matrizen mitreellen Eintragen eingefuhrt. Wir bezeichnen die Menge aller invertierba-ren Matrizen mit Eintragen in dem Korper K mit GL(n; K). Allgemeinerbezeichnen wir die Menge aller n 2 n-Matrizen mit Eintragen in K mitMat(n; K).

Definition (a) Eine Matrix A $ GL(n; R) heißt orthogonal, wenn gilt:

A#1 = AT .

(b) Eine Matrix A $ GL(n; C) heißt unitar, wenn gilt:

A#1 = AT.

Lemma 3.1 Fur eine orthogonale (unitare) Matrix A gilt | det A| = 1.

Beweis. Aus AtA = E folgt:

det(AtA) = det At det A = (det A)(det A) = | det A|2 = 1.

!

Definition

(a) O(n) := {A $ GL(n; R) |A#1 = AT} (orthogonale Gruppe)

(b) SO(n) := {A $ O(n) | det A = 1} (spezielle orthogonale Gruppe)

(c) U(n) := {A $ GL(n; C) |A#1 = AT} (unitare Gruppe)

(d) SU(n) := {A $ U(n) | det A = 1} (spezielle unitare Gruppe)

Die angegebenen Mengen sind Untergruppen von GL(n; K) (Beweis Ubungs-aufgabe).

Satz 3.3 Fur A $ Mat(n; K) sind die folgenden Aussagen aquivalent:

(i) A ist orthogonal (unitar).

(ii) Die Spaltenvektoren von A bilden eine ON-Basis von Kn.

(iii) Die Zeilenvektoren von A bilden eine ON-Basis von Kn.

3 Orthogonale und unitare Endomorphismen 18

Beweis. (ii) bedeutet AT A = E.

(iii) bedeutet AAT

= E. !

Satz 3.4 Es sei V ein euklidischer (unitarer) Vektorraum mit einer ON-Basis B und f ein Endomorphismus von V . Dann ist f genau dann ortho-gonal (unitar), wenn die Darstellungsmatrix MB

B (f) bezuglich der Basis Borthogonal (unitar) ist.

Beweis. Es seien v, w $ V und #x bzw. #y die Koordinatenvektoren von v bzw.w bezuglich der Basis B. Dann gilt

!v, w" = #xT E#y = #xT#y,

da E die Darstellungsmatrix des Skalarprodukts bezuglich einer ON-Basisist.

Setze A := MBB (f). Dann gilt:

!f(v), f(w)" = !v, w" / (A#x)T (A#y) = #xT#y / AT A = E.

!

Theorem 3.1 Es sei V ein unitarer Vektorraum der Dimension n und f :V 0 V ein unitarer Endomorphismus. Dann besitzt V eine ON-Basis, dieaus Eigenvektoren von f besteht. Insbesondere ist f diagonalisierbar.

Beweis. Der zugrundeliegende Korper ist C und die Eigenwerte von f sinddie Nullstellen des charakteristischen Polynoms Pf (x), das ein komplexesPolynom ist. Nach dem Fundamentalsatz der Algebra hat Pf (x) genau nNullstellen "1, . . . "n $ C. Also gilt

Pf (x) = (x% "1) · · · (x% "n).

Wir fuhren nun Induktion nach n = dim V durch.Der Induktionsanfang n = 1 ist klar.Wir nehmen nun an, dass die Behauptung bereits fur n % 1 bewiesen

ist. Es sei v1 ein Eigenvektor von f zum Eigenwert "1. Ohne Einschrankungkonnen wir annehmen, dass 'v1' = 1. Es sei

W := span{v1}! = {w $ V | !v1, w" = 0}.

Dann gilt nach Satz 2.5

V = span{v1} ( W.

3 Orthogonale und unitare Endomorphismen 19

Behauptung f(W ) = W .

Beweis. Da f ein Isomorphismus ist, reicht es zu zeigen: f(W ) & W . NachSatz 3.1 (v) gilt |"1| = 1. Damit gilt fur w $ W :

"1!v1, f(w)" = !"1v1, f(w)" = !f(v1), f(w)" = !v1, w" = 0.

Da "1 #= 0 folgt !v1, f(w)" = 0, also f(w) $ W . !

Nun betrachten wir den Endomorphismus f |W : W 0 W . Da f |W die Ein-schrankung eines unitaren Endomorphismus ist, ist f |W auch wieder unitar.Da dim W = n % 1 konnen wir auf f |W : W 0 W die Induktionsvorausset-zung anwenden. Danach besitzt W eine ON-Basis {v2, . . . , vn} aus Eigenvek-toren. Dann ist

B := {v1, v2, . . . , vn}eine ON-Basis von V aus Eigenvektoren. !

Korollar 3.1 Eine unitare Matrix A ist diagonalisierbar. Genauer gilt: Esgibt eine unitare Matrix S mit

ST AS =

$

%%%&

"1 0 · · · 00 "2 · · · 0...

.... . .

...0 0 · · · "n

'

((().

Hierbei gilt |"i| = 1 fur i = 1, . . . , n.

Beweis. Siehe Vorlesung. !

In LA I hatten wir bereits orthogonale Abbildungen f : Rn 0 Rn betrach-tet und fur n = 1, 2, 3 klassifiziert. Allgemeiner wollen wir nun beweisen:

Theorem 3.2 Es sei V ein euklidischer Vektorraum der Dimension n undf : V 0 V ein orthogonaler Endomorphismus. Dann besitzt V eine ON-BasisB, bezuglich der f die Darstellungsmatrix

MBB (f) =

$

%%%%%%%%%%%%%%%&

+1. . .

+1 0%1

. . .%1

0 A1

. . .

Ak

'

((((((((((((((()

,

3 Orthogonale und unitare Endomorphismen 20

besitzt, wobei fur j = 1, . . . , k

Aj =

!cos !j ! sin !j

sin !j cos !j

"mit !j " [0, 2"), aber !j #= 0, ".

Fur den Beweis dieses Theorems brauchen wir ein Lemma.

Lemma 3.2 Jedes Polynom P (x) mit reellen Koe!zienten besitzt eine Zer-legung

P (x) = (x! #1) · · · (x! #r)Q1(x) · · ·Qk(x),

wobei #1, . . . ,#r " R und Q1(x), . . . , Qk(x) Polynome vom Grad 2 sind, diekeine reelle Nullstelle haben.

Beweis. Das Polynom P (x) hat n komplexe Nullstellen. Ist # " C eine Null-stelle von P (x), so auch #:

P (#) = a0 + a1# + · · ·+ an#n

= a0 + a1# + · · ·+ an#n

= P (#) = 0 = 0.

Also hat man eine Zerlegung

P (x) = (x! #1) · · · (x! #r)(x! µ1)(x! µ1) · · · (x! µk)(x! µk),

wobei #1, . . . ,#r " R und µ1, . . . , µk #" R. Es sei j = 1, . . . , k und µj = $j +i%j

mit $j, %j " R. Setze

Qj(x) = (x! µj)(x! µj) = x2 ! 2$jx + ($2j + %2

j ).

!

Beweis von Theorem 3.2. Wir fuhren Theorem 3.2 auf Theorem 3.1 zuruck.Dazu komplexifizieren wir f . Es sei A irgendeine ON-Basis von V und A :=MAA (f) die Darstellungsmatrix von f bezuglich A. Dann ist A orthogonal

und als reelle Matrix auch unitar. Also ist der Endomorphismus

A : Cn $ Cn, &z %$ A&z,

unitar. Es sei

PA(x) = P (x) = (x! #1) · · · (x! #r)(x! µ1)(x! µ1) · · · (x! µk)(x! µk)

die Zerlegung des charakteristischen Polynoms von A, die nach Lemma 3.2existiert. Nach Satz 3.1 (v) gilt #i = ±1, i = 1, . . . , r, µj = cos !j + i sin !j,!j " [0, 2"), !j #= 0, ", j = 1, . . . , k. Nach Theorem 3.1 erhalten wir fur A eine

ON-Basis #B von Cn von Eigenvektoren von A. Es sei nun &z ein Eigenvektor zu

3 Orthogonale und unitare Endomorphismen 21

einem nicht reellen Eigenwert µ. Dann ist &z ein Eigenvektor zum Eigenwertµ, denn

A&z = A&z = µ&z = µ&z.

Deswegen konnen wir die Basis #B so anordnen:

&v1, . . . ,&vp die Eigenvektoren zum Eigenwert + 1,

&w1, . . . , &wq die Eigenvektoren zum Eigenwert ! 1,

&z1, . . . , &zk die Eigenvektoren zu den Eigenwerten µ1, . . . , µk,

&z1, . . . , &zk die Eigenvektoren zu den Eigenwerten µ1, . . . , µk.

Da A reell ist, liegen die Eigenvektoren &v1, . . . ,&vp, &w1, . . . , &wq in Rn.Zu einem Paar &z, &z von Eigenvektoren zu µ, µ konstruieren wir nun einen

unter A invarianten Unterraum W & Rn. Dazu sei

&z = &x + i&y, &x, &y " Rn

undW := span{&x, &y} & Rn.

Behauptung A(W ) = W

Beweis. Es gilt

0 = '&z, &z( = '&x + i&y, &x! i&y( = '&x, &x( ! '&y, &y(+ 2i'&x, &y(1 = '&z, &z( = '&x + i&y, &x + i&y( = '&x, &x(+ '&y, &y(.

Daraus folgt '&x, &x( = '&y, &y( = 12 und '&x, &y( = 0. Aus µ = cos ! + i sin !,

&x = 12(&z + &z), &y = 1

2i(&z ! &z) folgt

A&x =1

2(A&z + A&z) =

1

2(µ&z + µ&z) = cos !&x! sin !&y,

A&y =1

2i(A&z ! A&z) =

1

2i(µ&z ! µ&z) = sin !&x + cos !&y.

!

Nun setzen wir&x! :=

)2&x, &y! := !

)2&y.

Bezuglich der ON-Basis {&x!, &y!} von W wird die Einschrankung von A aufW beschrieben durch die Matrix

!cos ! ! sin !sin ! cos !

".

4 Selbstadjungierte Endomorphismen 22

Damit haben wir eine Orthonormalbasis

B! := {&v1, . . . ,&vp, &w1, . . . , &wq, &x!1, &y

!1, . . . , &x

!k, &y

!k}

von Rn gefunden, bezuglich der die Abbildung A : Rn $ Rn die in Theo-rem 3.2 angegebene Gestalt hat. Die Transformationsmatrix, die die Stan-dardbasis des Rn in die Basis B! des Rn transformiert, transformiert dann dieBasis A von V in eine ON-Basis B von V mit den gewunschten Eigenschaften.!

4 Selbstadjungierte Endomorphismen

Es sei V ein euklidischer (unitarer) Vektorraum.

Definition Ein Endomorphismus f : V $ V heißt selbstadjungiert, falls

'f(v), w( = 'v, f(w)( fur alle v, w " V.

Bemerkung 4.1 Ist f : V $ V ein Endomorphismus, so kann man zeigen,dass es genau eine lineare Abbildung f adj : V $ V mit der Eigenschaft

'f(v), w( = 'v, f adj(w)( fur alle v, w " V

gibt. Die Abbildung f adj heißt die zu f adjungierte Abbildung. Daher ruhrtdie Bezeichnung selbstadjungiert.

Satz 4.1 Es sei dim V < *, f : V $ V ein Endomorphismus und B eineON-Basis von V . Dann ist f genau dann selbstadjungiert, wenn die Darstel-lungsmatrix MB

B (f) bezuglich der Basis B symmetrisch (hermitesch) ist.

Beweis. Es seien v, w " V und &x bzw. &y die Koordinatenvektoren von v bzw.w bezuglich der Basis B. Es sei A := MB

B (f). Dann gilt:

'f(v), w( = 'v, f(w)( + (A&x)T&y = &xT (A&y) + AT = A.

!

Lemma 4.1 Ist f selbstadjungiert, so sind (auch im komplexen Fall) alleEigenwerte reell. Insbesondere hat eine hermitesche Matrix nur reelle Eigen-werte.

Beweis. Ist f(v) = #v mit v #= 0, so gilt

#'v, v( = 'f(v), v( = 'v, f(v)( = 'v, #v( = #'v, v(.

Wegen v #= 0 folgt daraus # = #. !

4 Selbstadjungierte Endomorphismen 23

Theorem 4.1 Es sei V ein euklidischer (unitarer) Vektorraum und f : V !V ein selbstadjungierter Endomorphismus. Dann besitzt V eine ON-Basis,die aus Eigenvektoren von f besteht.

Beweis. Ist K = C, so zerfallt das charakteristische Polynom in Linearfakto-ren

!f (t) = ±(t" "1) · · · (t" "n)

und nach Lemma 4.1 sind die Eigenwerte "1, . . . ,"n reell.Auch im Fall K = R zerfallt das charakteristische Polynom in Line-

arfaktoren: Dazu betrachten wir die Matrixdarstellung A = MBB (f) von f

bezuglich irgendeiner ON-Basis B von V . Nach Satz 4.1 ist A symmetrisch.Wir konnen A auch als komplexe Matrix au!assen. Dann ist A hermitesch.Dann zerfallt das charakteristische Polynom !A(t) = !f (t) uber C in Line-arfaktoren und nach Lemma 4.1 sind alle Eigenwerte reell.

Nun wenden wir wieder Induktion nach n = dim V an: Es sei v1 einEigenvektor von f zum Eigenwert "1. O. B. d. A. sei #v1# = 1. Es sei

W := (span{v1})!.

Dann ist W invariant unter f , denn fur w $ W gilt:

%v1, f(w)& = %f(v1), w& = %"1v1, w& = "1%v1, w& = 0.

Daraus folgt f(W ) ' W .Nach Induktionsannahme gibt es eine ON-Basis {v2, . . . , vn} von Eigen-

vektoren fur f |W : W ! W . Dann ist B = {v1, . . . , vn} eine ON-Basis vonEigenvektoren fur f . !

Als Anwendung erhalten wir den schon in LA I formulierten, aber nichtbewiesenen, Satz uber die Hauptachsentransformation.

Korollar 4.1 (Hauptachsentransformation) Es sei A $ Mat(n; K) einesymmetrische (hermitesche) Matrix. Dann gibt es eine orthogonale (unitare)Transformationsmatrix S mit

ST AS =

!

"""#

"1 0 · · · 00 "2 · · · 0...

.... . .

...0 0 · · · "n

$

%%%&.

Hierbei sind "1, . . . ,"n reell.

5 Symmetrische Bilinearformen 24

Korollar 4.2 Es sei V ein euklidischer (unitarer) Vektorraum, f : V ! Vein selbstadjungierter Endomorphismus und "1, . . . ,"k die paarweise ver-schiedenen Eigenwerte. Dann ist

V = Eig(f, "1) ( . . . ( Eig(f, "k).

Beweis. Aus dem Theorem folgt, dass V die direkte Summe der Eigenraumeist. Es bleibt zu zeigen: Eig(f, "i) ( Eig(f, "j) fur alle i )= j, i, j = 1, . . . , k.

Dazu sei v $ Eig(f, "i), w $ Eig(f, "j), i )= j. Dann gilt

"i%v, w& = %"iv, w& = %f(v), w& = %v, f(w)& = %v, "jw& = "j%v, w&.

Daraus folgt("i " "j)%v, w& = 0,

also %v, w& = 0. !

5 Symmetrische Bilinearformen

Es sei nun V ein endlich dimensionaler reeller Vektorraum mit einer symme-trischen Bilinearform

% , & : V * V ! R.

(Diese Bilinearform braucht nicht positiv definit zu sein.) Wie wir bereitsgesehen haben, entspricht dieser Bilinearform eine quadratische Form

q : V ! R, q(v) = %v, v&.

Bezuglich einer Basis B = {v1, . . . , vn} von V wird % , & dargestellt durch dieMatrix

A = (aij), aij = %vi, vj&.Nach der Transformationsformel andert sich bei einem Basiswechsel mit Trans-formationsmatrix S $ GL(n; R) die Darstellungsmatrix wie folgt:

A +! ST AS.

Nach dem Satz uber die Hauptachsentransformation gibt es eine orthogonaleMatrix S mit

ST AS = S"1AS =

!

"""#

"1 0 · · · 00 "2 · · · 0...

.... . .

...0 0 · · · "n

$

%%%&, ("1, . . . ,"n $ R).

Wir fragen nun nach einer Normalform, wenn wir allgemeiner S $ GL(n; R)zulassen.

5 Symmetrische Bilinearformen 25

Satz 5.1 Es sei % , & : V * V ! R eine symmetrische Bilinearform. Danngibt es eine Basis B von V , bezuglich der % , & dargestellt wird durch

!

#Ek 0

"El

0 0

$

& .

Beweis. Nach dem Satz uber die Hauptachsentransformation gibt es eineBasis B# = {w1, . . . , wn}, bezuglich der die darstellende Matrix wie folgtaussieht:

!

""""""""""#

!1

...!k

0

!k+1

...!k+l

00

...0

$

%%%%%%%%%%&

, "i

'> 0 fur i , k,< 0 fur k < i , k + l.

Wir setzen

vi :=

(1-|!i|

wi fur 1 , i , k + l,

wi sonst.

Dann gilt:

%vi, vi& =

)*

+

+1 fur 1 , i , k,"1 fur k < i , k + l,0 sonst.

Also hat % , & bezuglich der Basis B = {v1, . . . , vn} die gewunschte Gestalt.!

Definition Es sei % , & : V * V ! R eine symmetrische Bilinearform. DieMenge

V0 := {v $ V | %v, w& = 0 fur alle w $ V }heißt das Radikal (oder der Nullraum) von % , &. Es ist ein Unterraum vonV .

Korollar 5.1 Es sei % , & : V * V ! R eine symmetrische Bilinearform.Dann gibt es eine Zerlegung

V = V+ . V" . V0,

in Unterraume, so dass gilt:

5 Symmetrische Bilinearformen 26

(i) Die Zerlegung ist orthogonal bezuglich % , &.

(ii) %v, v& > 0 fur 0 )= v $ V+, %v, v& < 0 fur 0 )= v $ V".

Beweis. Es sei B = {v1, . . . , vn} eine Basis wie in Satz 5.1. Setze

V+ := span{v1, . . . , vk}, V" := span{vk+1, . . . , vk+l}.

Dann bleibt zu zeigen, dass V0 = span{vk+l+1, . . . , vn}. Die Inklusion

span{vk+l+1, . . . , vn} ' V0

ist klar. Es sei umgekehrt v $ V0. Dann gilt

v = µ1v1 + · · · + µk+lvk+l + µk+l+1vk+l+1 + · · · + µnvn.

Fur i $ {1, . . . , k + l} gilt aber %v, vi& = ±µi = 0. Daraus folgt µi = 0. !

Wie der Beweis zeigt, hangt die Zerlegung von einer Basis B von V ab.Ist A die Darstellungsmatrix von % , & bezuglich dieser Basis, so gilt

dim V+ := Anzahl der positiven Eigenwerte von A,

dim V" := Anzahl der negativen Eigenwerte von A.

Der Tragheitssatz von Sylvester besagt, dass diese Zahlen tatsachlich un-abhangig von der Wahl von B sind.

Satz 5.2 (Tragheitssatz von Sylvester) Es sei % , & : V * V ! R einesymmetrische Bilinearform, B eine Basis von V und A die Darstellungsma-trix von % , & bezuglich B. Dann sind die Zahlen

k := Anzahl der positiven Eigenwerte von A,

l := Anzahl der negativen Eigenwerte von A

unabhangig von der Auswahl von B.

Beweis. Es sei B# eine andere Basis, k#, l# die entsprechenden Anzahlen und

V = V+ . V" . V0 = V #+ . V #

" . V0

die entsprechenden zugehorigen Zerlegungen nach Korollar 5.1. Da die An-zahl der von Null verschiedenen Eigenwerte gleich dim V " dim V0 ist unddamit nicht von der Auswahl der Basis abhangt, gilt k + l = k# + l#. Daherreicht es, l = l# zu zeigen.

5 Symmetrische Bilinearformen 27

Angenommen, es gibt

0 )= v $ V+ / (V #" . V0).

Dann gilt %v, v& > 0 und v = v#" + v0 mit v#" )= 0. Dann folgt aber

%v, v& = %v#", v#"&+ %v0, v0& = %v#", v#"& < 0,

ein Widerspruch. Also gilt V+ / (V #" . V0) = {0} und aus Satz 2.2 folgt

k + l# + dim V0 , dim V, also k + l# , k + l, d.h. l# , l.

Durch Vertauschen der Rollen von l und l# folgt l , l#, also l = l# und k = k#.!

Definition Die Zahl k nennt man auch den Index, die Zahl k"l die Signaturder symmetrischen Bilinearform % , &.

Korollar 5.2 Eine symmetrische Bilinearform ist genau dann positiv defi-nit, wenn alle Eigenwerte einer Darstellungsmatrix positiv sind.

Definition Eine symmetrische Matrix A $ Mat(n; R) heißt positiv definit,in Zeichen A > 0, falls die zugehorige Form % , &A positiv definit ist, d.h.

#xT A#x > 0 fur alle #x $ Rn, #x )= #0.

Korollar 5.3 Eine symmetrische Matrix A $ Mat(n; R) ist genau dann po-sitiv definit, wenn alle Eigenwerte positiv sind.

Wir wollen zum Abschluss noch ein anderes Kriterium dafur angeben,dass eine symmetrische Matrix A = (aij) positiv definit ist. Dazu bezeichnenwir mit

Ak :=

!

"#a11 · · · a1k...

. . ....

ak1 · · · akk

$

%&

die linke obere k * k-Teilmatrix von A. Die Determinante det Ak bezeichnetman auch als Hauptminor von A.

Satz 5.3 (Hurwitz-Kriterium) Es sei A $ Mat(n; R) eine symmetrischeMatrix. Dann gilt:

A positiv definit 0 det Ak > 0 fur 1 , k , n.

5 Symmetrische Bilinearformen 28

Beweis. ” !”: Wir zeigen zunachst

det A = det An > 0.

Da A positiv definit ist, gibt es ein S " GL(n; R) mit

ST AS =

!

"#1 0

. . .0 1

$

%& .

Also folgt

1 = det(ST AS) = det A(det S)2, also det A > 0.

Um nun det Ak > 0 fur 1 # k < n zu zeigen, betrachten wir

Uk := {!x " Rn |xk+1 = . . . = xn = 0} $ Rn.

Die Form % , &A definiert durch Einschrankung eine Form % , &k : Uk'Uk ( Rmit Darstellungsmatrix Ak. Da auch % , &k positiv definit ist, folgt det Ak > 0.

”)”: Wir fuhren Induktion uber n durch. Der Induktionsanfang n = 1ist klar. Nach Induktionsvoraussetzung ist An!1 positiv definit. Also gibt esein S " " GL(n* 1; R) mit

(S ")T An!1S" =

!

"#1 0

. . .0 1

$

%& = En!1.

Es sei

S :=

!

"""#S "

0...0

0 · · · 0 1

$

%%%&" GL(n; R).

Es gilt

ST AS =

!

"""#

1 b1

. . ....

1 bn!1

b1 · · · bn!1 bn

$

%%%&=: B

unddet B = (det S)2 det A > 0.

6 Das Minimalpolynom 29

Es genugt zu zeigen, dass B positiv definit ist. Dazu setze

T :=

!

"""#

1 *b1

. . ....

1 *bn!1

0 · · · 0 1

$

%%%&" GL(n; R).

Dann ist

T T BT =

!

"""#

1 0. . .

...1 0

0 · · · 0 cn

$

%%%&=: C.

Nun istdet C = (det T )2 det B = det B > 0

und damit cn > 0. Also ist C positiv definit und damit auch B und A. !

6 Das Minimalpolynom

Wir kommen nun auf das schon in LA I betrachtete Problem zuruck, fur dieDarstellungsmatrix eines Endomorphismus f : V ( V eines K-Vektorraumseine Normalform zu finden. Dabei spielt neben dem charakteristischen Po-lynom ein anderes Polynom eine Rolle, das wir nun einfuhren wollen. Dazumachen wir zunachst einen Exkurs uber den Polynomring.

Es sei K ein beliebiger Korper. Dann betrachten wir den Polynomring ineiner Variablen uber K:

K[x] := {a0 + a1x + · · · + anxn | ai " K}.

Auf K[x] ist eine Addition und eine Multiplikation erklart. Es sei P (x), Q(x) "K[x],

P (x) = a0 + a1x + · · · + anxn, Q(x) = b0 + b1x + · · · + bmxm.

O. B. d. A. sei n # m. Zur Definition der Addition setzen wir an+1 = . . . am =0. Dann definieren wir

P (x) + Q(x) := (a0 + b0) + (a1 + b1)x + · · · + (am + bm)xm.

Die Multiplikation ist dadurch erklart, dass man formal ausmultipliziert:

P (x) · Q(x) = (a0 + a1x + · · · + anxn) · (b0 + b1x + · · · + bmxm)

:= a0b0 + (a0b1 + a1b0)x + · · · + anbmxn+m

= c0 + c1x + · · · + cn+mxn+m

6 Das Minimalpolynom 30

mit

ck :=k'

i=0

aibk!i.

Statt P (x) und Q(x) schreiben wir von nun an auch P und Q.

Satz 6.1 Mit dieser Addition und Multiplikation wird K[x] zu einem kom-mutativen Ring mit Einselement.

Beweis. Die Axiome sind leicht nachzuprufen. Was ist das Einselement? !

Das Nullpolynom (alle Koe!zienten ai = 0) bezeichnen wir mit 0.

Definition Der Grad eines Polynoms

P (x) = a0 + a1x + · · · + anxn mit an += 0

ist die Zahl n (n = deg P ). Den Grad des Nullpolynoms definieren wir alsdeg(0) := *,. Das Polynom P heißt normiert, falls an = 1 ist.

Satz 6.2 (Gradformel) Fur P, Q " K[x] gilt:

deg(P · Q) = deg P + deg Q.

Dabei soll formal n*, = m*, = *,*, = *, gelten.

Beweis. Dies folgt aus cn+m = anbm += 0 falls an += 0 und bm += 0. !

Satz 6.3 (Division mit Rest) Es seien P, Q " K[x] mit P, Q += 0. Danngibt es eindeutig bestimmte Polynome q, r mit

(i) P = Qq + r,

(ii) deg r < deg Q.

Beweis. Wir zeigen zunachst die Eindeutigkeit. Es seien q, q", r, r" " K[x] mit

P = Qq + r = Qq" + r", deg r, deg r" < deg Q.

Dann folgtQ(q * q") = r" * r.

1.Fall: q = q" ! r = r".2.Fall: q += q". Dann ist

deg(r" * r) = deg Q + deg(q * q") - deg Q

6 Das Minimalpolynom 31

im Widerspruch zu deg(r" * r) # max{deg r, deg r"} < deg Q.Nun beweisen wir die Existenz von q und r. Wenn es ein q " K[x] gibt

mitP = Qq,

so konnen wir r = 0 setzen und die Behauptung ist bewiesen. Andernfallsbetrachten wir die Menge

M := {deg(P *Qp) | p " K[x], P += Qp} $ N = {0, 1, 2, . . .}.

Diese Menge ist nach unten beschrankt, besitzt also ein Minimum in N. Essei q " K[x] mit

deg(P *Qq) # deg(P *Qp) fur alle p " K[x].

Es sei fernerr := P *Qq,

d.h.P = Qq + r.

Es bleibt zu zeigen: deg r < deg Q. Angenommen, deg r - deg Q. Es sei

Q = b0 + b1x + · · · + bmxm (bm += 0),

r = c0 + c1x + · · · + ckxk (ck += 0).

Dann ist nach Annahme k - m. Es sei

p := q +ck

bmxk!m " K[x].

Dann istP *Qp = P *Qq *Q

ck

bmxk!m = r *Q

ck

bmxk!m.

Es ist also

P *Qp = ckxk * bm

ck

bmxk + Terme der Ordnung < k.

Daher folgtdeg(P *Qp) < k = deg r = deg(P *Qq).

im Widerspruch zur Wahl von q. !

Dies fuhrt zu dem schon aus der Schule bekannten Verfahren zur Poly-nomdivision (siehe Vorlesung und Ubungen).

6 Das Minimalpolynom 32

In Polynome konnen wir nun Korperelemente einsetzen. Ist

P (x) = a0 + a1x + · · · + anxn " K[x]

und " " K, so setzen wir

P (") := a0 + a1" + · · · + an"n " K.

Auf diese Weise definiert P (x) eine Funktion

(P : K *( K" .*( P (")

.

Damit erhalten wir eine Abbildung

( : K[x] *( Abb(K,K)

P .*( (P .

Warnung Wir mussen zwischen Polynomen P und Polynomfunktionen (Punterscheiden, denn bei endlichen Korpern konnen Unterschiede auftreten:Ist z.B. K = F2 und P (x) = x2 + x, so ist (P die Nullfunktion, da P (0) =P (1) = 1 + 1 = 0. Also ist in diesem Fall die Abbildung ( nicht injektiv.

Definition Ist 0 += P " K[x] und " " K, so dass P (") = 0 gilt, so heißt "eine Nullstelle von P .

Korollar 6.1 Es sei 0 += P " K[x] und " eine Nullstelle von P . Dann gibtes genau ein Polynom Q " K[x] mit

P = Q(x* ").

Es ist deg Q = deg P * 1.

Beweis. Wir dividieren P durch (x * ") mit Rest: Nach Satz 6.3 gibt eseindeutig bestimmte Q, r " K[x] mit

P = (x* ")Q + r, deg r < 1 = deg(x!).

Also ist r(x) = a0 " K. Setzen wir " in diese Gleichung ein, so folgt

0 = P (") = ("* ")Q(") + a0 = a0,

also r = 0. !

6 Das Minimalpolynom 33

Korollar 6.2 Es sei 0 += P " K[x]. Dann ist die Anzahl der Nullstellen vonP hochstens gleich dem Grad von P .

Beweis. Wir fuhren Induktion uber den Grad n := deg P . Fur n = 0 ist Peine konstantes Polynom P (x) = a0 += 0 und das hat gar keine Nullstelle.Damit ist die Behauptung fur n = 0 bewiesen.

Nun sei deg P = n - 1 und die Behauptung sei schon fur alle Polyno-me Q " K[x] mit deg Q # n * 1 bewiesen. Hat P keine Nullstelle, so istdie Behauptung richtig. Andernfalls sei " " K eine Nullstelle von P . NachKorollar 6.1 gibt es dann ein Q " K[x] mit

P = (x* ")Q und deg Q = n* 1.

Alle von " verschiedenen Nullstellen von P mussen auch Nullstellen von Qsein. Nach Induktionsannahme hat Q hochstens n* 1 verschiedene Nullstel-len, also P hochstens n verschiedene Nullstellen. !

Korollar 6.3 Hat K unendlich viele Elemente, so ist die Abbildung

( : K[x]( Abb(K, K), P .( (P ,

injektiv.

Beweis. Es seien P1, P2 " K[x] mit )P1 = )P2. Betrachte Q := P1 * P2. Dannist (Q = 0, also hat Q unendlich viele Nullstellen. Aus Korollar 6.2 folgt damitQ = 0, also P1 = P2. !

Satz 6.4 Es sei K ein unendlicher Korper. Jedes Polynom 0 += P " K[x]besitzt eine Darstellung

P = (x* "1)"1 · · · (x* "r)

"r · Q,

wobei "1, . . . ,"r paarweise verschieden sind und Q ein Polynom ohne Null-stellen ist. Diese Darstellung ist bis auf die Reihenfolge der Faktoren eindeu-tig.

Definition Man nennt #i die Ordnung oder Vielfachheit der Nullstelle "i.

Fur den Beweis des Satzes brauchen wir ein Lemma.

Lemma 6.1 Es sei K ein unendlicher Korper und P, Q " K[x] Polynomemit P (") += 0, Q(" += 0. Gilt

(x* ")"P (x) = (x* ")µQ(x)

fur alle x " K, so ist # = µ.

6 Das Minimalpolynom 34

Beweis. O. B. d. A. sei # - µ. Dann gilt

(x* ")"!µP (x)*Q(x) = 0 (fur x += ").

Da K unendlich viele Elemente enthalt, gilt fur die Polynome

(x* ")"!µP *Q = 0.

Falls # > µ, ware Q(") = 0, ein Widerspruch. !

Beweis von Satz 6.4. Die Existenz der Darstellung folgt aus Korollar 6.1.Zum Beweis der Eindeutigkeit: Die "i sind genau die Nullstellen von P ,

liegen also eindeutig fest. Die Eindeutigkeit der #i folgt aus Lemma 6.1. Esbleibt die Eindeutigkeit von Q zu zeigen. Dazu sei

(x* "1)"1 · · · (x* "r)

"rQ = (x* "1)"1 · · · (x* "r)

"rQ".

Dann gilt fur alle x += "1, . . . ,"r

Q(x) = Q"(x).

Also hat Q*Q" unendlich viele Nullstellen und es folgt Q = Q". !

Definition Man sagt, das Polynom 0 += P " K[x] zerfallt uber K, falls eseine Darstellung

P (x) = a(x* "1)"1 · · · (x* "r)

"r (a " K)

gibt.

Beispiel 6.1 Das Polynom P (x) = 1 + x2 zerfallt nicht uber R, aber uberC:

P (x) = (x* i)(x + i).

Satz 6.5 (Fundamentalsatz der Algebra) Jedes nicht konstante PolynomP " C[x] besitzt eine Nullstelle.

Diesen Satz hat erstmals C. F. Gauß 1799 bewiesen. Heutzutage wird ermeist in der Vorlesung Funktionentheorie bewiesen, da man mit Methodendieser Vorlesung einen sehr knappen und eleganten Beweis geben kann.

Korollar 6.4 Jedes Polynom P " C[x] zerfallt.

Definition Eine Teilmenge I eines Ringes R heißt ein Ideal, falls gilt:

6 Das Minimalpolynom 35

(I1) I $ R ist eine Untergruppe bezuglich der Addition.

(I2) Ist P " I und Q " R, so ist auch Q · P " I.

Beispiel 6.2 I := %P1, . . . , Pn& := {Q1P1 + · · · + QnPn |Qi " R}.

Definition I = %P1, . . . , Pn& heißt das von P1, . . . , Pn erzeugte Ideal.

Definition Ein Ideal I heißt Hauptideal, falls es von einem Element erzeugt,wird, d.h. I = %P & = {QP |Q " R} fur ein P " R.

Satz 6.6 (i) K[x] ist ein Hauptidealring, d.h. jedes Ideal von K[x] ist einHauptideal.

(ii) Zu jedem Ideal I += {0} in K[x] gibt es genau ein normiertes PolynomP mit I = %P &.

Beweis. (i): Im Fall I = {0} ist I = %0&. Es sei also I += {0}. Dann ist dieMenge

M := {deg P | 0 += P " I}

nichtleer und nach unten beschrankt. Es existiert also m := min M . Es seiP " I mit deg P = m.

Behauptung I = %P & = K[x] · P .

Beweis. Es gilt %P & $ I nach Definition eines Ideals.Es bleibt zu zeigen: I $ %P &. Dazu sei Q " I beliebig. Nach Satz 6.3 gibt

es eine Darstellung

Q = qP + r, deg r < deg P.

Ist r = 0, so ist Q " %P &. Andernfalls folgt mit (I1) und (I2)

r = Q* qP " I.

Wegen 0 # deg r < deg P = m ist dies ein Widerspruch zur Wahl von P . !

(ii): Mit P liegt auch aP in I. Also kann man P als normiert annehmen.Es sei

I = %P & = %P "& mit P, P " normiert.

Dann gilt

P " = Q"P, P = QP " fur geeignete Q, Q" " K[x].

6 Das Minimalpolynom 36

Es folgtP = QQ"P / P (1*QQ") = 0.

Nach der Gradformel folgt daraus

deg QQ" = 0, also QQ" = 1,

und damit sind Q und Q" ebenfalls nach der Gradformel konstant. Da P, P "

normiert sind, folgt Q = Q" = 1, also P = P ". !

Nun wollen wir die Theorie auf Matrizen anwenden. Die Menge Mat(n; K)ist ein Vektorraum der Dimension n2 und obendrein ein Ring mit der Ma-trizenaddition und Matrizenmultiplikation. Wie ublich setzen wir fur A "Mat(n; K):

An = A · · ·A (n-mal), A0 = E.

Wir setzen nun Matrizen in Polynome ein, d.h. wir betrachten die Einset-zungsabbildung

$A : K[x] *( Mat(n; K)P (x) =

*ni=0 aixi .*( P (A) :=

*ni=0 aiAi .

Die Abbildung $A ist linear, also ein Homomorphismus von K-Vektorraumenund sogar ein Ringhomomorphismus:

(P + Q)(A) = P (A) + Q(A),

("P )(A) = "P (A),

(P · Q)(A) = P (A)Q(A).

Das Bild von $A ist der Untervektorraum

K[A] := span{E, A, A2, . . .}

von Mat(n; K). Wir betrachten nun die Menge

IA := {P " K[x] |P (A) = 0} = ker $A.

Dann folgt, das IA ein Ideal in K[x] ist. Da K[x] ein Hauptidealring ist, gibtes (falls IA += {0}) genau ein normiertes Polynom µA " K[x] mit

IA = %µA&.

Satz 6.7 Es gibt genau ein normiertes Polynom 0 += µA " K[x] mit folgen-den Eigenschaften:

6 Das Minimalpolynom 36

Es folgtP = QQ!P ! P (1"QQ!) = 0.

Nach der Gradformel folgt daraus

deg QQ! = 0, also QQ! = 1,

und damit sind Q und Q! ebenfalls nach der Gradformel konstant. Da P, P !

normiert sind, folgt Q = Q! = 1, also P = P !. !

Nun wollen wir die Theorie auf Matrizen anwenden. Die Menge Mat(n; K)ist ein Vektorraum der Dimension n2 und obendrein ein Ring mit der Ma-trizenaddition und Matrizenmultiplikation. Wie ublich setzen wir fur A #Mat(n; K):

An = A · · ·A (n-mal), A0 = E.

Wir setzen nun Matrizen in Polynome ein, d.h. wir betrachten die Einset-zungsabbildung

!A : K[x] "$ Mat(n; K)P (x) =

!ni=0 aixi %"$ P (A) :=

!ni=0 aiAi .

Die Abbildung !A ist linear, also ein Homomorphismus von K-Vektorraumenund sogar ein Ringhomomorphismus:

(P + Q)(A) = P (A) + Q(A),

("P )(A) = "P (A),

(P · Q)(A) = P (A)Q(A).

Das Bild von !A ist der Untervektorraum

K[A] := span{E, A, A2, . . .}

von Mat(n; K). Wir betrachten nun die Menge

IA := {P # K[x] |P (A) = 0} = ker !A.

Dann folgt, das IA ein Ideal in K[x] ist. Da K[x] ein Hauptidealring ist, gibtes (falls IA &= {0}) genau ein normiertes Polynom µA # K[x] mit

IA = 'µA(.

Satz 6.7 Es gibt genau ein normiertes Polynom 0 &= µA # K[x] mit folgen-den Eigenschaften:

6 Das Minimalpolynom 37

(i) µA(A) = 0.

(ii) Ist P # K[x] ein Polynom mit P (A) = 0, so ist P = Q · µA.

(iii) Unter allen normierten Polynomen P # K[x] mit P (A) = 0 hat µA

minimalen Grad.

Definition Das Polynom µA # K[x] heißt das Minimalpolynom von A.

Beweis. Wir zeigen zunachst IA &= {0}. Es ist K[A] ) Mat(n; K), also gilt

dim K[A] * n2 =: N.

Daher sind die MatrizenE, A, A2, . . . , AN

linear abhangig, d.h. es gibt a0, a1, . . . , aN # K, nicht alle gleich 0, mit

a0E + a1A + · · · + aNAN = 0.

Also ist0 &= P (x) := a0 + a1x + · · · + aNxN # IA.

Nach Satz 6.6 ist dannIA = 'µA(

fur ein eindeutig bestimmtes normiertes Polynom µA &= 0. !

Beispiel 6.3 Es sei

A =

"

###$

0 1 0. . . . . .

0 10 0

%

&&&'# Mat(n; K).

Man rechnet leicht aus:

A2 =

"

#####$

0 0 1 0. . . . . . . . .

0 0 10 0

0 0

%

&&&&&', . . . , An = 0.

Daraus folgtµA(x) = xn.

6 Das Minimalpolynom 38

Satz 6.8 Es giltdeg µA = dim K[A].

Beweis. Es sei m := dim K[A]. Dann sind

E, A, A2, . . . , Am

linear abhangig. Wie im Beweis von Satz 6.7 zeigt man, dass es ein (normier-tes) Polynom P # K[x] gibt mit deg P * m und P (A) = 0. Also ist

deg µA * m = dim K[A].

Es sei umgekehrt m! = deg µA. Zum Beweis von dim K[A] * m! betrach-ten wir

U := span{E, A, . . . , Am!"1}.

Dann sind E, A, . . . , Am!"1 linear unabhangig, denn andernfalls ware m! =deg µA nicht minimal. Also ist dim U = m!. Es genugt zu zeigen:

K[A] ) U.

Dazu ist zu zeigen, dass

As # V fur s + m!.

Es seiµA(x) = a0 + a1x + · · · + am!"1x

m!"1 + xm!.

Da µA(A) = 0 folgt

Am!= "a0E " · · ·" am!"1A

m!"1 # U.

Durch Multiplikation mit A auf beiden Seiten folgt dann aber auch

Am!+1 = "a0A" · · ·" am!"1Am! # U.

Die Behauptung folgt dann durch Induktion. !

Korollar 6.5 Ist m = deg µA, so ist {E, A, . . . , Am"1} eine Basis von K[A].

Korollar 6.6 Eine Matrix A # Mat(n; K) ist genau dann invertierbar, wennµA(0) &= 0 gilt. In diesem Fall liegt A"1 # K[A].

6 Das Minimalpolynom 39

Beweis. Es sei

µA(x) = a0 + a1x + · · · + am"1xm"1 + xm

das Minimalpolynom von A. Dann gilt

a1A + · · · + am"1Am"1 + Am = "a0E.

Setzen wirB := a1E + · · · + am"1A

m"2 + Am"1,

so folgtAB = "a0E.

Nach Korollar 6.5 ist B &= 0. Ist A nicht invertierbar, so gilt det A = 0, alsoµA(0) = a0 = 0. Ist A invertierbar, so ist B = "a0A"1 und µA(0) = a0 &= 0.!

Lemma 6.2 (Invarianz) Sind die Matrizen A, B # Mat(n; K) ahnlich,dann stimmen die Minimalpolynome µA und µB uberein.

Beweis. Es sei P # K[x] und B = S"1AS. Dann gilt

P (S"1AS) = a0E + a1S"1AS + · · · + am(S"1AS)m

= a0S"1ES + a1S

"1AS + · · · + amS"1AmS

= S"1P (A)S.

Daraus folgtP (A) = 0 ! P (B) = P (S"1AS) = 0.

!

Damit konnen wir definieren:

Definition Es sei V ein endlich dimensionaler K-Vektorraum und f : V $V ein Endomorphismus. Dann ist das Minimalpolynom µf von f das Mini-malpolynom einer Darstellungsmatrix von f .

Nun zeigen wir, dass auch das charakteristische Polynom einer Matrix Ain IA liegt.

Satz 6.9 (Satz von Cayley-Hamilton) Es sei PA das charakteristischePolynom einer Matrix A # Mat(n; K). Dann gilt

PA(A) = 0.

6 Das Minimalpolynom 40

Daraus folgt unmittelbar:

Korollar 6.7 Das Minimalpolynom µA teilt das charakteristische PolynomPA einer Matrix A # Mat(n; K).

Beweis von Satz 6.9. Wir wenden einen Trick an. Wir setzen

B(x) := (A" xE)T # Mat(n; K[x]).

Dann giltdet B(x) = PA(x) # K[x].

Nun ersetzen wir die Unbestimmte x durch die Matrix A und jeden Eintragaij durch die Matrix aijE. Das ergibt

B(A) =

"

###$

a11E " A a21E · · · an1Ea12E a22E " A · · · an2E

......

. . ....

a1nE a2nE · · · annE " A

%

&&&'# Mat(n; K[A]).

Diese Matrix kann mit einem Spaltenvektor des Kn2multipliziert werden,

d.h. einem Spaltenvektor, dessen Eintrage wiederum Spaltenvektoren des Kn

sind. Insbesondere gilt

B(A)

"

#$#e1...

#en

%

&' =

"

#$a11#e1 " A#e1 + a21#e2 + · · · + an1#en

...a1n#e1 + a2n#e2 + · · · + ann#en " A#en

%

&' =

"

#$0...0

%

&' .

Nun sei B#(x) # Mat(n; K[x]) die zu B(x) adjungierte Matrix, die wir in LAI definiert haben. Ihre Eintrage sind entsprechend der Definition Polynomevom Grad * n" 1, und es gilt

B#(x)B(x) = (det B(x))E = PA(x)E.

Setzen wir nun A fur x ein, so folgt"

#$0...0

%

&' = B#(A)B(A)

"

#$#e1...

#en

%

&' =

"

#$PA(A)#e1

...PA(A)#en

%

&' .

Also ist PA(A) = 0. !

7 Diagonalisierbarkeit 41

7 Diagonalisierbarkeit

Nun kommen wir zuruck auf das Problem, fur die Darstellungsmatrix einesEndomorphismus eines endlich dimensionalen K-Vektorraums eine Normal-form zu finden. Zunachst betrachten wir noch einmal die Diagonalisierbar-keit.

Es sei V ein K-Vektorraum der Dimension n und f : V $ V ein Endo-morphismus.

Definition Es sei " ein Eigenwert von f .

(i) Die algebraische Vielfachheit von ", in Zeichen $alg(f, "), ist die Viel-fachheit von " als Nullstelle des charakteristischen Polynoms.

(ii) Die geometrische Vielfachheit von ", in Zeichen $geom(f, "), ist die Di-mension des Eigenraums Eig(f, ").

Lemma 7.1 Ist " Eigenwert von f , so gilt

1 * $geom(f, ") * $alg(f, ").

Beweis. Es sei {v1, . . . , vs} eine Basis von Eig(f, "). Da " Eigenwert von fist, gilt s + 1. Wir erganzen diese Basis zu einer Basis

B = {v1, . . . , vs, vs+1, . . . , vn}

von V . Dann ist

A := MBB (f) =

"

#######$

" 0. . .

0 "

,

0 B

%

&&&&&&&'

.

Daraus folgtPf (x) = (x" ")sPB(x)

und damit$geom(f, ") = dim Eig(f, ") = s * $alg(f, ").

!

Theorem 7.1 Es sei V ein n-dimensionaler K-Vektorraum und f : V $ Vein Endomorphismus von V . Dann sind die folgenden Bedingungen aquivalent:

7 Diagonalisierbarkeit 42

(i) f ist diagonalisierbar.

(ii) Das charakteristische Polynom zerfallt in Linearfaktoren und es gilt$geom(f, ") = $alg(f, ") fur alle Eigenwerte " von f .

(iii) Sind "1, . . . ,"k die paarweise verschiedenen Eigenwerte von f , so ist

V = Eig(f, "1)- · · ·- Eig(f, "k).

Beweis. (i) . (ii): Es sei f diagonalisierbar und "1, . . . ,"k die paarweiseverschiedenen Eigenwerte von f . Zu "i (i = 1, . . . , k) betrachten wir eineBasis

{v(i)1 , . . . , v(i)

si} von Eig(f, "i).

Setzen wir ri := $alg(f, "i), so gilt

s1 + · · · + sk = n, r1 + · · · + rn = n und si * ri.

Daraus folgt aber si = ri fur alle i = 1, . . . , k.(ii) . (iii): Es sei

W := Eig(f, "1) + · · · + Eig(f, "k).

Nach LA B, Satz 6.3, und der Bedingung (iii) in Satz 2.6 folgt

W = Eig(f, "1)- · · ·- Eig(f, "k).

Aus (ii) und Satz 2.7 (iii) folgt dann W = V .(iii) . (i): Fur jedes i = 1, . . . , k sei

{v(i)1 , . . . , v(i)

si} eine Basis von Eig(f, "i).

Nach Satz 2.7 (ii) ist dann

B := {v(1)1 , . . . , v(1)

s1, . . . , v(k)

1 , . . . , v(k)sk}

eine Basis von V . Da sie nach Definition aus Eigenvektoren von f besteht,ist f diagonalisierbar. !

Als Anwendung von Theorem 7.1 betrachten wir das Problem, zwei En-domorphismen mit einer gemeinsamen Basis zu diagonalisieren (simultaneDiagonalisierung).

7 Diagonalisierbarkeit 43

Bemerkung 7.1 Angenommen, die Matrizen A, B # Mat(n; K) lassen sichsimultan diagonalisieren. Das bedeutet, dass es eine Matrix S # GL(n; K)gibt mit

SAS"1 = D und SBS"1 = (D,

wobei D und (D Diagonalmatrizen sind. Dann gilt

BA = S"1 (DSS"1DS = S"1 (DDS = S"1D (DS = S"1DSS"1 (DS = AB.

Das bedeutet, dass A und B kommutieren mussen.

Satz 7.1 Sind f, g diagonalisierbare Endomorphismen von V und gilt f /g =g / f , so sind f und g simultan diagonalisierbar.

Beweis. Nach Theorem 7.1 gilt

V = Eig(f, "1)- · · ·- Eig(f, "k)

= Eig(g, µ1)- · · ·- Eig(g, µ!),

wobei "1, . . . ,"k bzw. µ1, . . . , µ! die verschiedenen Eigenwerte von f bzw. gsind. Es sei " einer der Eigenwerte von f und

W := Eig(f, ").

Es sei w # W . Dann gilt

f(g(w)) = g(f(w)) = g("w) = "g(w).

Also ist auch g(w) ein Eigenvektor von f zum Eigenwert ", also liegt auchg(w) in W . Damit gilt g(W ) ) W . Setze

Wj := W 0 Eig(g, µj) fur j = 1, . . . , %.

Behauptung W = W1 - · · ·-W!.

Beweis. Wegen LA B, Satz 6.3, und der Bedingung (iii) in Satz 2.6 reicht eszu zeigen:

W = W1 + · · · + W!.

Es sei w # W . Dann gibt es wj # Eig(g, µj) , so dass w = w1 + · · · + w!.Dann gilt

f(w) = f(w1) + · · · + f(w!) = "w1 + · · · + "w! = "w.

8 Nilpotente Endomorphismen 44

Da f(wj) # Eig(g, µj) und "wj # Eig(g, µj) und die Darstellung von w in

Eig(g, µ1)- · · ·- Eig(g, µ!)

eindeutig ist, folgtf(wj) = "wj,

also wj # W und somit wj # Wj. !

Da die Behauptung fur alle Eigenwerte " von f gilt, folgt die Aussage desSatzes. !

8 Nilpotente Endomorphismen

Wie wir in Theorem 7.1 gesehen haben, gibt es zwei Bedingungen fur dieDiagonalisierbarkeit:

(a) Das charakteristische Polynom muss in Linearfaktoren zerfallen, und

(b) die geometrische Vielfachheit muss gleich der algebraischen Vielfachheitder Eigenwerte sein.

Wir untersuchen nun, welche Aussage man noch tre!en kann, wenn nur dieBedingung (a) erfullt ist.

Definition Eine Matrix A = (aij) # Mat(n; K) heißt obere Dreiecksmatrix,wenn aij = 0 fur i > j gilt.

Satz 8.1 Fur einen Endomorphismus f eines n-dimensionalen Vektorraumssind die folgenden Bedingungen aquivalent:

(i) Es gibt eine Basis B, so dass MBB (f) eine obere Dreiecksmatrix ist.

(ii) Das charakteristische Polynom Pf zerfallt in Linearfaktoren, d.h.

Pf (x) = ±(x" "1) · · · (x" "n) mit "1, . . . ,"n # K.

Beweis. (i) . (ii): Dies folgt aus LA B, Satz 5.1.(ii). (i): Wir fuhren den Beweis durch Induktion uber n. Fur n = 0, 1 ist

die Behauptung klar. Es sei n + 2 und v1 ein Eigenvektor zu dem Eigenwert"1. Wir erganzen ihn zu einer Basis

A = {v1, w2, . . . , wn}

8 Nilpotente Endomorphismen 45

von V . Dann gilt

V = U1 -W mit U1 := span{v1} und W := span{w2, . . . , wn}

und

MAA (f) =

"

###$

"1 a12 · · · a1n

0...0

a22 · · · a2n...

. . ....

an2 · · · ann

%

&&&'.

Wir definieren nun lineare Abbildungen h : W $ U1 und g : W $ W durch

h(wj) = a1jv1 und g(wj) = a2jw2 + · · · + anjwn

fur j = 2, . . . , n. Dann gilt

f(w) = h(w) + g(w) fur alle w # W.

Fur die charakteristischen Polynome gilt

Pf (x) = (x" "1)Pg(x), also Pg(x) = ±(x" "2) · · · (x" "n).

Deswegen konnen wir die Induktionsvoraussetzung auf g : W $ W anwen-den. Demnach gibt es eine Basis {v2, . . . , vn} von W , bezuglich der g durcheine obere Dreiecksmatrix dargestellt wird. Fur f gilt dann

f(vj) = h(vj) + g(vj) # span{v1, . . . , vj} fur j = 2, . . . , n.

Also ist auch die Darstellungsmatrix von f bezuglich der Basis B = {v1, . . . , vn}eine obere Dreiecksmatrix. !

Wir betrachten nun eine Anwendung dieses Satzes.

Definition (i) Ein Endomorphismus f : V $ V heißt nilpotent, wennfk = 0 fur ein k + 1 ist.

(ii) Eine Matrix A # Mat(n; K) heißt nilpotent, wenn Ak = 0 fur ein k + 1ist.

Lemma 8.1 Es sei A nilpotent.

(i) Ist B ahnlich zu A, dann ist auch B nilpotent.

(ii) 0 ist der einzige Eigenwert von A.

8 Nilpotente Endomorphismen 46

Beweis.(i): Es sei B = S!1AS und Ak = 0. Dann gilt

Bk = (S!1AS)(S!1AS) · · · (S!1AS) = S!1AkS = 0.

(ii): Es sei Ak = 0. Aus det Ak = 0 folgt det A = 0. Deshalb ist 0 einEigenwert von A. Dies ist auch der einzige Eigenwert: Ist ! ! K ein Eigenwertvon A mit Eigenvektor "x "= 0, dann gilt

Ak"x = !k"x = 0

und daraus folgt ! = 0. !

Satz 8.2 Fur einen Endomorphismus f eines n-dimensionalen VektorraumsV sind die folgenden Bedingungen aquivalent:

(i) f ist nilpotent.

(ii) Es sei B eine Basis von V . Dann ist die Darstellungsmatrix MBB (f)

von f bezuglich der Basis B nilpotent.

(iii) Es gilt Pf (x) = ±xn.

(iv) Es gilt fd = 0 fur ein d mit 1 # d # n.

(v) Es gibt eine Basis B von V , so dass

MBB (f) =

!

"#0 $

. . .0 0

$

%& .

Beweis. (i) % (ii) ist klar.(ii) & (iii): Es sei A := MB

B (f). Nach Lemma 8.1 (ii) ist 0 der einzigeEigenwert von A. Deswegen hat das charakteristische Polynom die GestaltPf (x) = ±xn.

(iii) & (iv): Aus dem Satz von Cayley-Hamilton folgt µf (x) = xd fur eind mit 1 # d # n. Das bedeutet fd = 0.

(iv) & (i) ist klar.(iii) & (v) folgt aus Satz 8.1.(v) & (ii): Es sei A = MB

B (f) = (aij) mit aij = 0 fur i ' j.

Behauptung Ar = (a(r)ij ) mit a(r)

ij = 0 fur i ' j + 1( r.

8 Nilpotente Endomorphismen 47

Beweis. Wir fuhren Induktion nach r durch.Induktionsanfang r = 1: Dies gilt nach Voraussetzung.Induktionsschritt r ( 1 ) r: Es gilt

a(r)ij =

n'

!=1

ai!a(r!1)!j .

Es sei nun i ' j + 1( r und 1 # # # n. Wir unterscheiden zwei Falle:Fall 1: j + 1( r ' #. Dann ist i ' #, also ai! = 0 nach Voraussetzung.Fall 2: # > j+1(r. Dann ist # ' j+1((r(1). Dann gilt aber a(r!1)

!j = 0nach Induktionsvorausetzung.

Also gilta(r)

ij = 0.

!

Aus der Behauptung folgt An = 0. Ist B die Darstellungsmatrix von fbezuglich einer anderen Basis, so ist B ahnlich zu A. Die Behauptung folgtdamit aus Lemma 8.1 (i). !

Wir wollen nun zeigen, dass wir die Matrix in Satz 8.2 (v) noch auf eineeinfachere Gestalt bringen konnen.

Definition Die Matrix

Jk =

!

"""#

0 1 0. . . . . .

0 10 0

$

%%%&! Mat(k; K)

heißt Jordanmatrix von der Ordnung k.

Nach Beispiel 6.3 ist Jk nilpotent, genauer gilt Jkk = 0 und k ist die minimale

Potenz mit dieser Eigenschaft. Wie sieht J1 aus?

Theorem 8.1 (Jordannormalform nilpotenter Endomorphismen) Essei f ein nilpotenter Endomorphismus eines K-Vektorraums V und d :=min{# | f ! = 0}. Dann gibt es eindeutig bestimmte Zahlen s1, . . . , sd ! N mit

d · sd + (d( 1)sd!1 + · · · + s1 = n = dim V

8 Nilpotente Endomorphismen 48

und eine Basis B von V , so dass

MBB (f) =

!

"""""""""""""""""""#

Jd

. . .

Jd

Jd!1 0. . .

Jd!1

0. . .

J1

. . .

J1

$

%%%%%%%%%%%%%%%%%%%&

Beweis. Wir definieren U! := ker f ! und betrachten die Kette von Unterraumen

{0} = U0 * U1 * . . . * Ud!1 * Ud = V.

Dabei gilt Ud = V nach Definition von d, und da d die minimale Potenz mitfd = 0 ist, sind alle Inklusionen echt.

Behauptung

(1) Fur 1 # # # d ist f!1(U!!1) = U!, insbesondere f(U!) = U!!1.

(2) Ist W ein Unterraum von V mit W + U! = {0} fur ein 1 # # # d, soist f |W injektiv.

Beweis.(1): Es gilt

v ! f!1(U!!1) % f(v) ! U!!1 % 0 = f !!1(f(v)) = f !(v) % v ! U!.

(2) Es gilt ker f = U1 * U! fur jedes 1 # # # d, also W + ker f = {0}. !

Nun konstruieren wir schrittweise eine direkte Summenzerlegung von V .Zunachst wahlen wir ein Komplement Wd * V von Ud!1 in V = Ud:

V = Ud = Ud!1 ,Wd.

Aus Behauptung (1) folgt dann

(a) f(Wd) * Ud!1 und

8 Nilpotente Endomorphismen 49

(b) f(Wd) + Ud!2 = {0}.Denn aus Wd * Ud und f(Ud) = Ud!1 folgt (a). Aus f!1(Ud!2) = Ud!1 undWd + Ud!1 = {0} folgt (b). Also gibt es eine Zerlegung

Ud!1 = Ud!2 ,Wd!1 mit f(Wd) * Wd!1.

Fahren wir so fort, so erhalten wir folgendes Schema:

Ud

-Ud!1 , Wd

- -Ud!2 , Wd!1 , Wd

- - -...

......

- - -U1 , W2 , W3 , · · · , Wd

- - - -U0 , W1 , W2 , · · · , Wd!1 , Wd

Dabei zeigen die Pfeile an, wie f die entsprechenden Unterraume abbildet.Jede Zeile ist eine Zerlegung von V , wegen U0 = {0} ist insbesondere

V = W1 ,W2 , · · ·,Wd.

Da die Abbildungen

Wd

f |Wd() Wd!1

f |Wd!1() . . .f |W2() W1

nach Behauptung (2) alle injektiv sind, konnen wir mit einer Basis von Wd

anfangen, das Bild dieser Basis unter f |Wdzu einer Basis von Wd!1 erganzen,

usw. , bis wir zu einer Basis von V gelangen:

w(d)1 , f(w(d)

1 ), . . . , fd!1(w(d)1 ),

......

...

w(d)sd , f(w(d)

sd ), . . . , fd!1(w(d)sd ),

w(d!1)1 , . . . , fd!2(w(d!1)

1 ),...

...

w(d!1)sd!1 , . . . , fd!2(w(d!1)

sd!1 ),...

w(1)1 ,...

w(1)s1 .

9 Die Jordansche Normalform 50

Dabei ist die erste Spalte eine Basis von Wd, die zweite Spalte eine Basisvon Wd!1, und schließlich die letzte Spalte eine Basis von W1 = U1 = ker f .Ordnen wir die Basis nun so an, dass wir die Zeilen von oben nach untenlesen, aber in jeder Zeile umgekehrt, also von rechts nach links, laufen, soerhalten wir eine Basis von V , bezuglich der die Darstellungsmatrix von fdie angebene Gestalt hat.

Wir mussen nun noch zeigen, dass die Zahlen s1, . . . , sd eindeutig be-stimmt sind. Dazu sei (W! ein Komplement von f(W!+1) in W!, # = 1, . . . , d(hier setzen wir Wd+1 = {0}). Dann gilt wegen

U! = U!!1 , f(W!+1),(W!

und da f |W!+1injektiv ist

s! = dim (W! = dim U! ( dim U!!1 ( dim W!+1.

Damit sind diese Zahlen rekursiv aus den Dimensionen der Kerne von f !

berechenbar. !

9 Die Jordansche Normalform

Es sei K ein beliebiger Korper, V ein endlich dimensionaler K-Vektorraummit dim V ' 1 und f : V ) V ein Endomorphismus mit zerfallendemcharakteristischen Polynom

Pf (x) = ±(x( !1)r1 · · · (x( !k)

rk , !1, . . . ,!k ! K paarweise verschieden.

Wir haben bereits gesehen, dass dann f durch eine obere Dreiecksmatrixdargestellt werden kann. Dieses Ergebnis soll nun noch prazisiert werden.

Im Allgemeinen gilt

dim Eig(f, !i) = $geom(f, !i) # ri.

Gilt hier nicht die Gleichheit, so betrachtet man anstelle des Eigenraumseinen großeren Unterraum.

Definition Fur einen Eigenwert ! der Vielfachheit r ' 1 nennt man

Hau(f, !) := ker(f ( !id)r

den Hauptraum (oder verallgemeinerten Eigenraum) von f zum Eigenwert !.

9 Die Jordansche Normalform 51

Satz 9.1 (Hauptraumzerlegung) Es sei f ein Endomorphismus von Vund

Pf (x) = ±(x( !1)r1 · · · (x( !k)

rk

mit paarweise verschiedenen !1, . . . ,!k ! K. Es sei

Vi := Hau(f, !i) * V

der Hauptraum zum Eigenwert !i. Dann gilt:

(1) dim Vi = ri und f(Vi) * Vi fur i = 1, . . . , k.

(2) V = V1 , · · ·, Vk.

(3) f hat eine Zerlegung f = fD + fN mit

(a) fD ist diagonalisierbar.

(b) fN ist nilpotent.

(c) fD . fN = fN . fD.

Durch Kombination dieses Satzes mit der Klassifikation nilpotenter Endo-morphismen (Theorem 8.1) erhalt man das Hauptresultat dieses Abschnitts.

Theorem 9.1 (Jordansche Normalform) Es sei f ein Endomorphismusvon V und

Pf (x) = ±(x( !1)r1 · · · (x( !k)

rk

mit paarweise verschiedenen !1, . . . ,!k ! K. Dann gibt es eine Basis B vonV , so dass

MBB (f) =

!

""""""""""#

!1Er1 + N1 0

. . .

0 !kErk+ Nk

$

%%%%%%%%%%&

,

9 Die Jordansche Normalform 52

wobei Ni fur i = 1, . . . , k in der Normalform von Theorem 8.1 ist. Ausge-schrieben bedeutet das:

!iEri+Ni =

!

""""""""""""""""""""""""#

!i 1. . . . . .

. . . 1!i

0

. . .

!i 1. . . . . .

. . . 1!i

!i

. . .0 !i

$

%%%%%%%%%%%%%%%%%%%%%%%%&

.

Die Eigenwerte !1, . . . ,!k, die Zahlen r1, . . . , rk sowie die Zahlen s(i)j mit

dis(i)di

+ (di ( 1)s(i)di!1 + · · · + s(i)

1 = ri, i = 1, . . . k

nach Theorem 8.1 sind durch f eindeutig bestimmt. Man nennt sie Invari-anten von f .

Beweis von Theorem 9.1. Setze fur i = 1, . . . , k

Vi := Hau(f, !i) und gi := (f ( !iid)|Vi .

Anwendung von Theorem 8.1 auf gi ergibt eine Basis Bi von Vi. Nach Satz 9.1setzen sich die Basen B1, . . . ,Bk zu einer Basis B mit der gewunschten Ei-genschaft zusammen. !

Korollar 9.1 Fur einen Endomorphismus f von V sind die folgenden Be-dingungen aquivalent:

(i) f ist diagonalisierbar.

(ii) µf (x) = (x(!1) · · · (x(!k), wobei !1, . . . ,!k die verschiedenen Eigen-werte von f sind.

9 Die Jordansche Normalform 53

Beweis. Es sei wie oben

di := min{#i | g!ii = 0}.

Dann gilt fur das Minimalpolynom von gi

µgi(x) = xdi .

Die Abbildung gi ist aber genau dann diagonalisierbar, wenn di = 1. !

Nun wollen wir den Satz uber die Hauptraumzerlegung beweisen. Dazubetrachten wir fur einen Eigenwert ! von f die Abbildung

g := f ( !id.

Die folgenden Uberlegungen gelten fur einen beliebigen Endomorphismus gund seine Potenzen. Man hat zwei Ketten von Unterraumen:

{0} * ker g * ker g2 * . . . * ker g! * . . .V / im g / im g2 / . . . / im g! / . . .

Da V endlich dimensional ist, mussen die beiden Ketten stationar werden,d.h. irgendwann sind die Inklusionen nicht mehr echt. Genauer bedeutet das,dass es d und d" geben muss mit

{0} * ker g * ker g2 * . . . * ker gd = ker gd+1 = . . .V / im g / im g2 / . . . / im gd" = im gd"+1 = . . .

Genauer gilt Folgendes:

Lemma 9.1 (Fitting) Zu einem Endomorphismus g von V betrachten wirdie Zahlen

d := min{# | ker g! = ker g!+1},d" := min{# | im g! = im g!+1},r := $alg(g, 0).

Dann gilt:

(i) d = d".

(ii) ker gd+i = ker gd, im gd+i = im gd fur alle i ! N.

(iii) Die Raume U := ker gd und W := im gd sind unter g invariant.

(iv) (g|U)d = 0 und g|W ist ein Isomorphismus.

9 Die Jordansche Normalform 54

(v) Fur das Minimalpolynom von g|U gilt µg|U (x) = xd.

(vi) V = U ,W , dim U = r ' d, dim W = n( r.

Beweis. Wir betrachten das Diagramm

ker g! * Vg!

() im g!

+ 0 1ker g!+1 * V

g!+1

() im g!+1

Nach der Dimensionsformel gilt

dim V = dim ker g! + dim im g! = dim ker g!+1 + dim im g!+1.

Daraus folgt

im g!+1 = im g! % dim im g!+1 = dim im g!

% dim ker g!+1 = dim ker g!

% ker g!+1 = ker g!.

Daraus folgt zunachst einmal die Aussage (i).Weiterhin ist die Aussage im g!+1 = im g! gleichbedeutend damit, dass

g|im g! : im g! ) im g!+1 ein Isomorphismus ist. Daraus folgt (ii), (iii) und(iv).

(v): Es genugt zu zeigen, dass (g|U)d!1 "= 0. Angenommen, (g|U)d!1 = 0.Dann folgt

ker gd = U * ker gd!1.

Da aber ker gd!1 * ker gd, erhalten wir ker gd!1 = ker gd im Widerspruch zurDefinition von d.

(vi): Wir zeigen zunachst V = U , W . Es sei v ! V + W . Dann istgd(v) = 0 und v = gd(w) fur ein w ! V . Daraus folgt g2d(w) = 0, alsow ! ker g2d. Nach (ii) gilt ker g2d = ker gd. Damit folgt w ! ker gd und somit

v = gd(w) = 0.

Nach Definition von U ist dim U ' d, Denn es gilt

{0} ! ker g ! . . . ! ker gd!1 ! ker gd,

und in jedem Schritt erhoht sich die Dimension mindestens um 1. Nun gilt

Pg(x) = xr · Q(x) = Pg|U (x) · Pg|W (x) mit Q(0) "= 0.

9 Die Jordansche Normalform 55

Auf der anderen Seite gilt

Pg|U (x) = ±xm mit m = dim U,

Pg|W (0) "= 0 (da g|W ein Isomorphismus nach (iv)).

Daraus folgt m = r, was zu zeigen war. !

Beweis von Satz 9.1. Wir fuhren Induktion uber die Zahl k der verschiedenenEigenwerte durch. Fur k = 1 ist der Satz trivial. Es sei nun k ' 2. Zu !1

definieren wirg := f ( !1 · id.

Dann gilt

Pg(x( !1) = Pf (x), also $alg(g, 0) = $alg(f, !1) = r1.

Nach Lemma 9.1 gilt

V = Hau(f, !1),W, W = im gd,

und die beiden Summanden werden von g und damit auch von f = g + !1idinvariant gelassen. Außerdem gilt

Pf |W (x) = ±(x( !2)r2 · · · (x( !k)

rk .

Damit konnen wir auf f |W die Induktionsannahme anwenden und erhalten(1) und (2).

Zum Beweis von (3) bemerken wir zunachst, dass es nach Satz 8.1 ei-ne Basis B von V gibt, so dass die Darstellungsmatrix MB

B (f) eine obereDreiecksmatrix ist. Diese Matrix schreiben wir als

MBB (f) =

!

""""""""""#

!1Er1 + N1 0

. . .

0 !kErk+ Nk

$

%%%%%%%%%%&

.

Dann ist jedes Ni eine obere Dreiecksmatrix mit Nullen auf der Diagonalen,nach Satz 8.2 also nilpotent. Setze

D :=

!

""#

!1Er1 0. . .

0 !kErk

$

%%& und N :=

!

"#N1 0

. . .

0 Nk

$

%& .

9 Die Jordansche Normalform 56

Dann rechnet man aus:

DN =

!

"#!1N1 0

. . .

0 !kNk

$

%& = ND.

!

Bemerkung 9.1 Man kann zeigen, dass die Zerlegung f = fD + fN inSatz 9.1 sogar eindeutig ist, wenn man (a), (b) und (c) verlangt.

Bemerkung 9.2 Es sei f ein Endomorphismus mit charakteristischem Po-lynom

Pf (x) = ±(x! !1)r1 · · · (x! !k)

rk

und Minimalpolynom

µf (x) = ±(x! !1)d1 · · · (x! !k)

dk

mit paarweise verschiedenen !1, . . . ,!k " K. Die Matrix!

"""#

!i 1 0. . . . . .

. . . 10 !i

$

%%%&" Mat(m; K)

nennt man auch einen Jordanblock der Lange m zum Eigenwert !i. Dannfolgt aus Theorem 9.1, dass ri die Summe der Langen aller Jordanblockszum Eigenwert !i und di die Lange des großten Jordanblocks zum Eigenwert!i ist.

Beispiel 9.1 Gegeben sei die Matrix

A :=

!

#!5 15 11!5 11 53 !6 !2

$

& .

Dann gilt

PA(x) = !x3 + 4x2 ! 5x + 2 = !(x! 1)2(x! 2).

Damit ist k = 2, !1 = 1, r1 = 2, !2 = 2, r2 = 1. Wir setzen

B1 := A! E =

!

#!6 15 11!5 10 53 !6 !3

$

& , B2 := A! 2E =

!

#!7 15 11!5 9 53 !6 !4

$

& .

9 Die Jordansche Normalform 57

Dann gilt

B21 =

!

#!6 !6 !24!5 !5 !203 3 12

$

& .

Daraus folgt

1 = dim Eig(A, 1) = dim ker B1 < dim ker B21 = dim Hau(A, 1) = 2.

Damit ist A nicht diagonalisierbar. Durch Losen der Gleichungssysteme B21"x =

"0 und B2"x = "0 erhalt man Basen

{(4, 0,!1)T , (0, 4,!1)T} von Hau(A, 1),

{(6, 5,!3)T} von Hau(A, 2) = Eig(A, 2).

Daraus bilden wir die Matrix

T :=

!

#4 0 60 4 5!1 !1 !3

$

& mit T!1 =1

4

!

#7 6 245 6 20!4 !4 !16

$

& .

Dann gilt

B := T!1AT =

!

#!314

494 0

!254

394 0

0 0 2

$

& .

Nun transformieren wir die Basis von Hau(A, 1) so, dass ein Basisvektor "vein Eigenvektor von A zum Eigenwert 1 ist. Er hat die Form

"v = #(4, 0,!1)T + $(0, 4,!1)T .

Dann mussen # und $ der Bedingung' !35

4494

!254

354

( '#$

(=

'00

(

genugen. Daraus folgt, dass man # = 74 und $ = 5

4 wahlen kann. Mit derneuen Transformationsmatrix

)T :=

!

#7 0 65 4 5!3 !1 !3

$

& mit )T!1 :=1

7

!

#7 6 240 3 5!7 !7 !28

$

&

ergibt sich

)T!1A)T =

!

#1 7 00 1 00 0 2

$

& .

10 A!ne Quadriken 58

Um nun zur Jordannormalform zu kommen, suchen wir einen Vektor

"w = %(4, 0,!1)T + &(0, 4,!1)T

mit der Eigenschaft (B ! E)"w = "v. Also mussen % und & der Bedingung

' !354

494

!254

354

( '%&

(=

'7454

(

genugen. Daraus folgt % = & = 12 . Mit der neuen Transformationsmatrix

S :=

!

#7 2 65 2 5!3 !1 !3

$

& mit S!1 :=

!

#1 0 20 3 5!1 !1 !4

$

&

ergibt sich schließlich

S!1AS =

!

#1 1 00 1 00 0 2

$

& .

10 A!ne Quadriken

Wir betrachten nun Quadriken. Die Literatur fur diesen Abschnitt ist

• G. Fischer: Analytische Geometrie. Vieweg 1978.

Es sei K im Folgenden immer ein Korper, fur den 1 + 1 #= 0 ist.

Definition Unter einem quadratischen Polynom uber K in den Unbestimm-ten x1, . . . , xn versteht man einen Ausdruck der Gestalt

P (x1, . . . , xn) =n*

i=1

aiix2i +

*

1"i<j"n

2aijxixj +n*

i=1

2a0ixi + a00,

wobei aij " K fur 0 $ i $ j $ n.

Definition Eine Teilmenge Q % Kn heißt (a!ne) Quadrik (oder (a!ne)Hyperflache zweiter Ordnung), wenn es ein quadratisches Polynom P gibt,so dass

Q = {(x1, . . . , xn) " Kn |P (x1, . . . , xn) = 0}.

10 A!ne Quadriken 59

#

$

Abbildung 1: Ellipse x21

!2 + x22

"2 = 1

#!

!!

!!

$

Abbildung 2: Hyperbel x21

!2 ! x22

"2 = 1

Abbildung 3: Parabel x21 ! x2 = 0

10 A!ne Quadriken 60

Beispiel 10.1 (a) x21

!2 + x22

"2 = 1, #, $ > 0. Diese Gleichung beschreibt eineEllipse (vgl. Abbildung 1).

(b) x21

!2 ! x22

"2 = 1, #, $ > 0. Diese Gleichung beschreibt eine Hyperbel (vgl.Abbildung 2).

(c) x21 ! x2 = 0. Diese Gleichung beschreibt eine Parabel (vgl. Abbil-

dung 3).

Es ist vorteilhaft, die Gleichung fur eine Quadrik durch Matrizen auszu-drucken. Dazu setzen wir aji := aij fur 0 $ i < j $ n und

A =

!

"#a11 · · · a1n...

. . ....

an1 · · · ann

$

%& ,

x =

!

"""#

1x1...

xn

$

%%%&, A =

!

"""#

a00 a01 · · · a0n

a10...

an0

A

$

%%%&.

Dann sind A und A symmetrisch und es gilt

P (x1, . . . , xn) = xTAx

undQ = {(x1, . . . , xn) " Kn |xTAx = 0}.

Man nennt A die erweiterte Matrix zu A und x den erweiterten Spaltenvektorzu "x.

Definition Es seien V und W K-Vektorraume. Eine Abbildung f : V & Wheißt a!n, wenn es eine lineare Abbildung F : V & W und einen Vektorw0 " W gibt mit

f(v) = F (v) + w0 fur alle v " V.

Ist W = V und F : V & V ein Automorphismus, so nennt man die Abbil-dung f : V & V eine A!nitat.

Eine a!ne Abbildung ensteht also durch die Hintereinanderschaltung ei-ner linearen Abbildung F : V & W und einer Translation t : W & W ,w '& w + w0.

Beispiel 10.2 Fur V = Kn lasst sich eine A!nitat wie folgt beschreiben:

f : Kn !& Kn

"x '!& A"x +"b

10 A!ne Quadriken 61

mit A " GL(n; K) und "b " Kn.

Satz 10.1 (i) Sind f, g A!nitaten, so auch f ( g.

(ii) Ist f eine A!nitat, so ist f bijektiv und die Umkehrabbildung f!1 istwieder eine A!nitat. Es gilt

f!1(v) = F!1(v)! F!1(w0).

Beweis.(i) Es sei

f(v) = F (v) + w0,

g(v) = G(v) + u0.

Dann gilt

(f ( g)(v) = f(g(v)) = f(G(v) + u0) = F (G(v) + u0) + w0

= F (G(v)) + F (u0) + w0 = (F (G)(v) + (F (u0) + w0).

(ii)

(f!1 ( f)(v) = F!1(f(v))! F!1(w0)

= F!1(F (v) + w0)! F!1(w0)

= v + F!1(w0)! F!1(w0) = v,

(f ( f!1)(v) = F (f!1(v)) + w0

= F (F!1(v) + F!1(w0)) + w0

= v ! w0 + w0 = v.

!

Wir wollen nun untersuchen, wie sich die Gleichung einer Quadrik beieiner A!nitat von Kn andert. Dafur erweitern wir die obige Schreibweiseauf A!nitaten. Es sei f : Kn & Kn, "x '& "y mit

"y = S"x +"b (S " GL(n; K),"b " Kn).

Dann definieren wir

S =

!

"""#

1 0 · · · 0b1...bn

S

$

%%%&, y =

!

"""#

1y1...

yn

$

%%%&.

In dieser Schreibweise wird f gegeben durch

y = Sx.

10 A!ne Quadriken 62

Satz 10.2 Ist Q % Kn eine Quadrik und f : Kn & Kn eine A!nitat, so istauch f(Q) % Kn eine Quadrik.

Beweis. Es sei Q gegeben durch

xTAx = 0

und f durchy = Sx.

Nach Satz 10.1 wird die Abbildung f!1 : Kn & Kn beschrieben durch

f!1("y) = S!1"y ! S!1"b.

Ist T := S!1 und

T :=

!

""#

1 0 · · · 0

!S!1("b) S!1

$

%%& ,

so ist x = Ty. Damit gilt

"y = f("x) " f(Q)) x " Q) 0 = xTAx = yT (TT AT)y,

alsof(Q) = {"y " Kn |yTBy = 0} mit B = TTAT.

!

Wir wollen nun versuchen, die A!nitat so zu wahlen, dass die neue Glei-chung so einfach wie moglich wird.

Beispiel 10.3 Es sei Q % R2 gegeben durch

x21 + 4x2

2 ! 4x1x2 ! 6x1 + 14x2 + 13 = 0.

Im ersten Schritt eliminieren wir den gemischten Term x1x2. Es ist

x21 + 4x2

2 ! 4x1x2 = (x1 ! 2x2)2.

Also wird Q nach der Koordinatentransformation

z1 = x1 ! 2x2,

z2 = x2

10 A!ne Quadriken 63

gegeben durchz21 ! 6z1 + 2z2 + 13 = 0.

Nun reduzieren wir die linearen Terme durch quadratische Erganzung. DieGleichung ist aquivalent zu

(z21 ! 6z1) + 2z2 + 13 = 0.

Durch quadratische Erganzung der Klammer ergibt sich

(z21 ! 6z1 + 9) + 2z2 + 13! 9 = 0

oder(z1 ! 3)2 + 2(z2 + 2) = 0.

Nach der Transformation

y1 = z1 ! 3,

y2 = z2 + 2

erhalt man die Gleichungy2

1 + 2y2 = 0.

Wir verallgemeinern nun die Methode aus diesem Beispiel. Wir betrachtenden Spezialfall K = R.

Es sei also die Quadrik Q % Rn beschrieben durch

A =

!

"""#

a00 a01 · · · a0n

a10...

an0

A

$

%%%&.

Im ersten Schritt bringen wir die symmetrische Teilmatrix A auf Normalform.Nach Satz 5.1 gibt es eine Matrix T1 " GL(n; R) mit

T T1 AT1 =

!

#Ek 0 00 !Em!k 00 0 0

$

& ,

wobei m der Rang von A und k der Index von A ist. Ist

T1 =

!

"""#

1 0 · · · 00...0

T1

$

%%%&

10 A!ne Quadriken 64

so wird

B1 = TT1 AT1 =

!

"""#

c00 c01 · · · c0n

c10 Ek 0 0... 0 !Em!k 0

cn0 0 0 0

$

%%%&.

In den neuen Koordinaten lautet die Gleichung

z21 + · · · + z2

k ! z2k+1 ! · · ·! z2

m + 2(c01z1 + · · · + c0nzn) + c00 = 0,

hat also keine gemischten Terme mehr.Im zweiten Schritt reduzieren wir durch eine Translation die linearen

Terme. Wir setzen

T2 =

!

""""""""""""""""#

1 0 · · · 0 0 · · · 0 0 · · · 0!c10 1

.... . .

!ck0 1 0ck+1,0 1

.... . .

cm0 10 0 1...

. . .0 1

$

%%%%%%%%%%%%%%%%&

.

Damit ergibt sich

B2 := TT2 B1T2 = TT

2 TT1 AT1T2

=

!

""""""""""""""""#

d00 0 · · · 0 0 · · · 0 c0,m+1 · · · c0n

0 +1 0...

. . .0 +1 00 !1...

. . .0 0 1

cm+1,0 0... 0

. . .cn0 0

$

%%%%%%%%%%%%%%%%&

.

Das bedeutet, dass Q in den neuen Koordinaten beschrieben werden kanndurch die Gleichung

u21 + · · · + u2

k ! u2k+1 ! · · ·! u2

m + 2(cm+1,0um+1 + · · · + cn0un) + d00 = 0.

10 A!ne Quadriken 65

Nun unterscheiden wir drei Falle:

(1) d00 = cm+1,0 = . . . = cn0 = 0.

(2) d00 #= 0, cm+1,0 = . . . = cn0 = 0.

(3) cr0 #= 0 fur mindestens ein r " {m + 1, . . . , n}.

Fall (1): Dann reduziert sich die obige Gleichung auf

u21 + · · · + u2

k ! u2k+1 ! · · ·! u2

m

und wir sind fertig.Fall (2): O.B.d.A. d00 < 0 (sonst multipliziere man die Gleichung mit !1

und ordne durch eine weitere Transformation u1, . . . , um um). Setze

(u1, . . . , un) = '(y1, . . . , yn) mit ' =+!d00,

d.h. betrachte

T3 :=

'1 00 1

#En

(.

Dividiert man die entstehende Gleichung durch '2, so erhalt man

y21 + · · · + y2

k ! y2k+1 ! · · ·! y2

m = 1.

Fall (3): O.B.d.A. r = m + 1 (sonst ordne man in einer weiteren Trans-formation um+1, . . . , un um). Setzt man

yi = ui fur i #= m + 1,

2ym+1 = 2(cm+1,0um+1 + · · · + cn0un) + d00,

so erhalt man als neue Gleichung fur Q

y21 + · · · + y2

k ! y2k+1 ! · · ·! y2

m + 2ym+1 = 0.

Die Transformation kann man so beschreiben: Durch simultane Zeilen- undSpaltenumformungen der Matrix B2 beseitigt man mit Hilfe von cm+1,0 =c0,m+1 nacheinander die Eintrage

d00, cm+2,0 = c0,m+2, . . . , cn0 = c0n.

Insgesamt ergibt dies eine a!ne Transformation T3.Damit haben wir folgendes Ergebnis bewiesen:

10 A!ne Quadriken 66

Theorem 10.1 (A!ne Klassifikation von Quadriken) Gegeben sei ei-ne Quadrik

Q = {"x " Rn |xTAx = 0},wobei A eine symmetrische (n + 1)* (n + 1)-Matrix ist. Es sei

m := Rang A, m := Rang A.

Dann gibt es eine A!nitat f : Rn & Rn, so dass f(Q) beschrieben wirddurch eine der folgenden Gleichungen

(1) y21 + · · · + y2

k ! y2k+1 ! · · ·! y2

m = 0, falls m = m,

(2) y21 + · · · + y2

k ! y2k+1 ! · · ·! y2

m = 1, falls m + 1 = m,

(3) y21 + · · · + y2

k ! y2k+1 ! · · ·! y2

m + 2ym+1 = 0, falls m + 2 = m.

Speziell fur n = 2, 3 erhalten wir die Tabellen 1 und 2.

Typ m m k Gleichung Beschreibung(1) 0 0 0 0 = 0 Ebene R2

1 1 1 y21 = 0 (Doppel-)Gerade

2 2 1 y21 ! y2

2 = 0 Geradenpaar (mit Schnittpunkt)2 2 2 y2

1 + y22 = 0 Punkt

(2) 1 2 1 y21 = 1 Zwei parallele Geraden

2 3 1 y21 ! y2

2 = 1 Hyperbel2 3 2 y2

1 + y22 = 1 Kreis

(3) 1 3 1 y21 + 2y2 = 0 Parabel

Tabelle 1: Normalformen von nicht leeren Quadriken im R2

Nun wollen wir statt allgemeinen A!nitaten nur solche A!nitaten zulas-sen, bei denen die lineare Abbildung orthogonal ist.

Definition Es sei V ein euklidischer Vektorraum. Eine A!nitat f : V & Vheißt Kongruenz (oder Bewegung), falls es eine orthogonale Abbildung F :V & V und ein w0 " V gibt, so dass

f(v) = F (v) + w0 fur alle v " V.

Eine Kongruenz ist also die Hintereinanderschaltung einer orthogonalenAbbildung und einer Translation. Ist insbesondere V = Rn und

f("x) = A"x +"b fur alle "x " Rn

10 A!ne Quadriken 67

Typ m m k Gleichung Beschreibung(1) 0 0 0 0 = 0 Raum R3

1 1 1 y21 = 0 (Doppel-)Ebene

2 2 1 y21 ! y2

2 = 0 Ebenenpaar (mit Schnittgerade)2 2 2 y2

1 + y22 = 0 Gerade

3 3 2 y21 + y2

2 ! y23 = 0 Kreiskegel

3 3 3 y21 + y2

2 + y23 = 0 Punkt

(2) 1 2 1 y21 = 1 Zwei parallele Ebenen

2 3 1 y21 ! y2

2 = 1 hyperbolischer Zylinder2 3 2 y2

1 + y22 = 1 Kreiszylinder

3 4 1 y21 ! y2

2 ! y23 = 1 zweischaliges Hyperboloid

3 4 2 y21 + y2

2 ! y23 = 1 einschaliges Hyperboloid

3 4 3 y21 + y2

2 + y23 = 1 Kugel

(3) 1 3 1 y21 + 2y2 = 0 parabolischer Zylinder

2 4 1 y21 ! y2

2 + 2y3 = 0 hyperbolisches Paraboloid2 4 2 y2

1 + y22 + 2y3 = 0 elliptisches Paraboloid

Tabelle 2: Normalformen von nicht leeren Quadriken im R3

mit A " GL(n; R), so ist f genau dann eine Kongruenz, wenn A orthogonalist.

Nun modifizieren wir unsere Uberlegungen, die zum Beweis von Theo-rem 10.1 fuhrten, so, dass wir statt beliebiger A!nitaten nur Kongruenzenzulassen.

Gegeben sei wieder die Quadrik

Q = {!x " Rn |xTAx = 0}.

Nach dem Satz uber die Hauptachsentransformation gibt es eine orthogonaleMatrix T1 mit

T T1 AT1 =

!

"""#

"1 0 · · · 00 "2 · · · 0...

.... . .

...0 0 · · · "n

$

%%%&, ("1, . . . ,"n " R).

Wir konnen "1, . . . ,"m #= 0 und "m+1 = . . . = "n = 0 annehmen. Damit sinddie gemischten Terme beseitigt. Mit der erweiterten Matrix T1 wie oben gilt

10 A!ne Quadriken 68

dann

B1 := TT1 AT1 =

!

"""""""""#

d00 c01 · · · c0m c0,m+1 · · · c0n

c10 "1 0...

. . . 0cm0 0 "m

cm+1,0 0... 0

. . .cn0 0

$

%%%%%%%%%&

.

Wie oben fuhrt eine Translation zu

B2 := TT2 B1T2 =

!

"""""""""#

d00 0 · · · 0 c0,m+1 · · · c0n

0 "1 0...

. . . 00 0 "m

cm+1,0 0... 0

. . .cn0 0

$

%%%%%%%%%&

.

Nun unterscheiden wir wieder drei Falle:Fall (1): d00 = cm+1,0 = . . . = cn0 = 0.

Hier sind wir bereits fertig: O.B.d.A. "1, . . . ,"k > 0, "k+1, . . . ,"m < 0. Wirsetzen fur i = 1, . . . ,m

#i :=1'|"i|

.

Damit erhalten wir die Gleichung

y21

#21

+ · · · + y2k

#2k

!y2

k+1

#2k+1

! · · ·! y2m

#2m

= 0.

Fall (2): d00 #= 0, cm+1,0 = . . . = cn0 = 0.O.B.d.A. d00 < 0, "1, . . . ,"k > 0, "k+1, . . . ,"m < 0. Wir dividieren dieGleichung durch |d00| und setzen

#i :=

'|d00|'|"i|

.

Dann erhalten wir die Gleichung

y21

#21

+ · · · + y2k

#2k

!y2

k+1

#2k+1

! · · ·! y2m

#2m

= 1.

10 A!ne Quadriken 69

Fall (3): cr0 #= 0 fur mindestens ein r " {m + 1, . . . , n}.Hier ist die Transformation, mit der wir d00, cm+2,0, . . . , cn0 beseitigt haben,keine Kongruenz. Deswegen brauchen wir hier zusatzliche Uberlegungen. Wirsetzen

!v := (cm+1,0, . . . , cn0)T " Rn!m, !v1 =

1

$!v$!v,

und konstruieren nach dem E. Schmidtschen Orthonormalisierungsverfahreneine Orthonormalbasis !v1, . . . ,!vn!m von Rn!m. Dann beschreibt die Matrix

T3 :=

!

"""""""""#

1 0 · · · 0 0 · · · 00 1 0...

. . . 00 0 1

µ!v1 0 !v1 · · · !vn!m

$

%%%%%%%%%&

, mit µ :=!d00

2$!v$ ,

eine Kongruenz und man rechnet leicht aus:

B3 := TT3 B2T3 =

!

"""""""""""#

0 0 · · · 0 $!v$ 0 · · · 00 "1 0 0...

. . .... 0

0 0 "m 0$!v$ 0 · · · 0 00... 0 00

$

%%%%%%%%%%%&

.

Wieder nehmen wir "1, . . . ,"k > 0 und "k+1, . . . ,"m < 0 an und setzen

#i :=

'$!v$'|"i|

.

Damit ergibt sich die Gleichung

y21

#21

+ · · · + y2k

#2k

!y2

k+1

#2k+1

! · · ·! y2m

#2m

+ 2ym+1 = 0.

Damit haben wir bewiesen:

Theorem 10.2 (Metrische Klassifikation von Quadriken) Gegeben seieine Quadrik

Q = {!x " Rn |xTAx = 0},

10 A!ne Quadriken 70

wobei A eine symmetrische (n + 1)% (n + 1)-Matrix ist. Es sei

m := Rang A, m := Rang A.

Dann gibt es eine Kongruenz f : Rn & Rn und #1, . . . ,#m " R, so dass f(Q)beschrieben wird durch eine der folgenden Gleichungen:

(1)y2

1

#21

+ · · · + y2k

#2k

!y2

k+1

#2k+1

! · · ·! y2m

#2m

= 0, falls m = m,

(2)y2

1

#21

+ · · · + y2k

#2k

!y2

k+1

#2k+1

! · · ·! y2m

#2m

= 1, falls m + 1 = m,

(3)y2

1

#21

+ · · · + y2k

#2k

!y2

k+1

#2k+1

! · · ·! y2m

#2m

+ 2ym+1 = 0, falls m + 2 = m.

Speziell fur n = 2 erhalten wir folgende Tabelle:

Typ m m k Gleichung Beschreibung(1) 0 0 0 0 = 0 Ebene R2

1 1 1 x2 = 0 (Doppel-)Gerade2 2 1 x2 ! #y2 = 0, # > 0 Geradenpaar2 2 2 x2 + #y2 = 0, # > 0 Punkt

(2) 1 2 1 x2

!2 = 1, # > 0 Zwei parallele Geraden

2 3 1 x2

!2 ! y2

"2 = 1, #, $ > 0 Hyperbel

2 3 2 x2

!2 + y2

"2 = 1, #, $ > 0 Ellipse, Kreis

(3) 1 3 1 x2 + #y = 0, # #= 0 Parabel

Tabelle 3: Metrische Klassifikation von nicht leeren Quadriken im R2

Im Fall n = 3 illustrieren wir im Folgenden den Klassifikationssatz durchBilder.

Fall (1): Der interessanteste Fall ist m = 3, k = 2. Die Gleichung

x2

#2+

y2

$2! z2

%2= 0

beschreibt einen elliptischen Kegel (Bild 4).Fall (2): In diesem Fall beschranken wir uns auf m = 3. Fur k = 3 ergibt

sich die Gleichungx2

#2+

y2

$2+

z2

%2= 1,

die ein Ellipsoid beschreibt (Bild 5).

10 A!ne Quadriken 71

Abbildung 4: Elliptischer Kegel x2

!2 + y2

"2 ! z2

#2 = 0

Abbildung 5: Ellipsoid x2

!2 + y2

"2 + z2

#2 = 1

Fur k = 2 beschreibt

x2

#2+

y2

$2! z2

%2= 1

ein einschaliges Hyperboloid (Bild 6).

Abbildung 6: Einschaliges Hyperboloid x2

!2 + y2

"2 ! z2

#2 = 1

Fur k = 1 ergibt sich die Gleichung

x2

#2+

y2

$2! z2

%2= !1

fur ein zweischaliges Hyperboloid (Bild 7).

10 A!ne Quadriken 72

Abbildung 7: Zweischaliges Hyperboloid x2

!2 + y2

"2 ! z2

#2 = !1

Fall (3): Hier beschranken wir uns auf den Fall m = 2. Fur k = 0 erhaltenwir die Gleichung

x2

#2+

y2

$2! 2z = 0,

die ein elliptisches Paraboloid beschreibt (Bild 8).

Abbildung 8: Elliptisches Paraboloid x2

!2 + y2

"2 ! 2z = 0

Fur k = 1 beschreibty2

$2! x2

#2! 2z = 0

ein hyperbolisches Paraboloid (Bild 9).

Abbildung 9: Hyperbolisches Paraboloid y2

"2 ! x2

!2 ! 2z = 0

11 Der Dualraum 73

11 Der Dualraum

Ein grundlegender Begri" in der Linearen Algebra ist der Begri" des Dual-raums, den wir nun einfuhren wollen. Im Folgenden sei K wieder ein belie-biger Korper.

Definition Es seien V, W K-Vektorraume. Die Menge aller linearen Abbil-dungen von V nach W bezeichnen wir mit

HomK(V, W ) := {f : V & W | f linear}.

Auf der Menge HomK(V, W ) erklaren wir eine Addition und skalare Mul-tiplikation wie folgt (f, g " HomK(V, W ), " " K):

(f + g)(x) = f(x) + g(x),

("f)(x) = "f(x) fur alle x " V.

Mit dieser Addition und skalaren Multiplikation wird HomK(V, W ) zu einemK-Vektorraum. Nun betrachten wir den Spezialfall W = K.

Definition Der Vektorraum

V " := HomK(V, K) = {& : V & K |& linear}

heißt der Dualraum von V . Die Elemente von V " heißen Linearformen aufV .

Beispiel 11.1 Wir betrachten eine lineare Gleichung

a1x1 + · · · + anxn = 0.

Setzt man a = (a1, . . . , an) (Zeilenvektor!), so gilt

a · !x =(

a1 · · · an

)!

"#x1...

xn

$

%& = a1x1 + · · · + anxn.

Deswegen konnen wir a als eine lineare Abbildung

a : Kn !& K!x '!& a · !x

au"assen, d.h. als ein Element von (Kn)".

11 Der Dualraum 74

Beispiel 11.2 Es sei I = [a, b] ( R ein Intervall und V = C[a, b] der Vek-torraum der auf I stetigen Funktionen. Dann ist

* b

a

: V & R, f '&* b

a

f(x) dx,

eine Linearform auf V . Linearformen auf unendlich dimensionalen Vektorrau-men nennt man auch lineare Funktionale. Mit ihnen beschaftigt sich die Funk-tionalanalysis.

Wir setzen von nun an voraus, dass V ein endlich dimensionaler K-Vektorraum ist und n = dim V > 0. Es sei B = {v1, . . . , vn} eine Basisvon V . Dann gibt es zu jedem i = 1, . . . , n genau eine lineare Abbildung

v"i : V & K

mit

v"i (vj) := 'ij :=

+1 falls j = i,0 falls j #= i

('ij heißt das Kroneckersymbol).

Satz 11.1 Die Menge B" := {v"1, . . . , v"n} ist eine Basis von V ". Insbesonderegilt dim V " = dim V = n.

Definition Man nennt B" die zu der Basis B duale Basis.

Beweis.(a) B" ist linear unabhangig:

n,

i=1

#iv"i = 0)

n,

i=1

#iv"i (vj) = 0) #j = 0 (j = 1, . . . , n).

(b) B" ist ein Erzeugendensystem: Es sei v" " V ". Wir setzen

#i := v"(vi), i = 1, . . . , n.

Behauptung v" =-n

i=1 #iv"i .

Beweis. Da eine lineare Abbildung durch die Bilder einer Basis eindeutigfestgelegt ist, reicht es zu zeigen, dass die Bilder der Basisvektoren vj, j =1, . . . , n, unter den beiden linearen Abbildungen ubereinstimmen:

.n,

i=1

#iv"i

/(vj) =

n,

i=1

#iv"i (vj) = #j = v"(vj).

!

!

11 Der Dualraum 75

Korollar 11.1 Zu jedem v ! V mit v "= 0 gibt es ein ! ! V ! mit !(v) "= 0.

Beweis. Dies folgt daraus, dass man jeden Vektor v "= 0 zu einer Basis vonV erganzen kann. !

Korollar 11.2 Zu jeder Basis B = {v1, . . . , vn} von V gibt es einen Isomor-phismus

!B : V # V ! mit !B(vi) = v!i .

Warnung Dieser Isomorphismus hangt von der Wahl der Basis ab!

Beweis. Dies folgt aus der Tatsache, dass eine lineare Abbildung durch dieBilder der Vektoren einer Basis bestimmt ist. !

Beispiel 11.3 V = Kn, B = {"e1, . . . ,"en} kanonische Basis. Duale Basis:

B! = {"e!1, . . . ,"e!n} (kanonische Basis von V !).

Wir machen die Konvention, Vektoren als Spalten und Linearformen als Zei-len zu schreiben. Dann gilt

"e!i = (0, . . . , 0, 1, 0, . . . , 0), 1 an der i-ten Stelle.

Definition Ist V ein K-Vektorraum und U $ V ein Unterraum, so heißt

U0 := {! ! V ! |!(u) = 0 fur alle u ! U} $ V !

der zu U orthogonale Raum (oder der Annullator von U).

Der zu U orthogonale Raum U0 ist ein Unterraum von V !.

Warnung Der zu einem Unterraum U $ V orthogonale Raum U0 liegt inV ! und ist nicht zu verwechseln mit dem orthogonalen Komplement U" vonU , das nur in Raumen mit Skalarprodukt definiert ist und dann in V liegt!

Satz 11.2 Fur jeden Unterraum U $ V gilt

dim U0 = dim V % dim U.

Genauer gilt: Ist {u1, . . . , uk} eine Basis von U und B = {u1, . . . , uk, w1, . . . , w!}eine Basis von V , so bilden die Linearformen {w!

1, . . . , w!!} aus B! eine Basis

von U0.

11 Der Dualraum 76

Beweis.(a) Lineare Unabhangigkeit: Da w!

1, . . . , w!! Elemente der dualen Basis B!

sind, sind sie linear unabhangig.(b) Zu zeigen: U0 = Span{w!

1, . . . , w!!}.

”&”: klar, da w!j (ui) = 0.

”$”: Es sei ! ! U0,

! = µ1u!1 + · · · + µku

!k + #1w

!1 + · · · + #!w

!! .

Wendet man diese Abbildung auf ui (i = 1, . . . , k) an, so folgt

0 = !(ui) = µi.

!

Nun wollen wir auch lineare Abbildungen dualisieren. Es sei f : V # Weine lineare Abbildung und $ ! W !. Dann betrachten wir dazu das Dia-gramm

Vf !!

"#f ""!!!

!!!!

! W

"##

K

Dann gilt $ ' f ! V !. Damit konnen wir definieren:

Definition Die Abbildung

f ! : W ! # V !, $ (# f !($) := $ ' f,

heißt die zu f duale Abbildung.

Bemerkung 11.1 Die Abbildung f ! ist linear:

f !($1 + $2) = ($1 + $2) ' f = $1 ' f + $2 ' f = f !($1) + f !($2),

f !(#$) = (#$) ' f = #$ ' f = #f !($).

Satz 11.3 Es seien V und W K-Vektorraume mit Basen A und B und f :V # W eine lineare Abbildung. Dann gilt

MB!A!(f

!) =!MAB (f)

"T,

d.h. die duale Abbildung wird bezuglich der dualen Basen durch die transpo-nierte Matrix beschrieben.

11 Der Dualraum 77

Beweis. Es sei A = {v1, . . . , vn}, B = {w1, . . . , wm}, MAB (f) = (aij), MB!

A!(f!) =

(bij). Dann gilt

f(vj) =m#

i=1

aijwi, also aij = w!i (f(vj)) = f !(w!

i )(vj),

f !(w!i ) =

n#

j=1

bjiv!j , also bji = f !(w!

i )(vj).

Also gilt aij = bji. !

Definition Es sei

· · · %# Vi$1fi"1%# Vi

fi%# Vi+1 %# · · ·

eine (endliche oder unendliche) Sequenz von K-Vektorraumen und linearenAbbildungen. Die Sequenz heißt exakt, wenn fur jedes i gilt:

ker fi = im fi$1.

Unter einer kurzen exakten Sequenz versteht man eine exakte Sequenz derGestalt

0 %# Uf%# V

g%# W %# 0.

Es sei0 %# U

f%# Vg%# W %# 0

eine kurze exakte Sequenz. Dann gilt

Exaktheit an der Stelle U ) f injektiv,

Exaktheit an der Stelle V ) im f = ker g,

Exaktheit an der Stelle W ) g surjektiv.

Ist f : V # W eine lineare Abbildung zwischen K-Vektorraumen V und W ,so hat man immer eine kurze exakte Sequenz

0 %# ker f %# Vf%# im f %# 0,

wobei ker f %# V die Inklusionsabbildung ist. Dazu gehort eine duale kurzeexakte Sequenz

0 *% im f ! f!*% V ! *& ker f ! *% 0.

Der Zusammenhang zwischen diesen beiden kurzen exakten Sequenzen istder Folgende:

11 Der Dualraum 78

Satz 11.4 Fur eine lineare Abbildung f : V # W zwischen endlich dimen-sionalen Vektorraumen gilt

im f ! = (ker f)0 und ker f ! = (im f)0.

Korollar 11.3 Unter den obigen Voraussetzungen gilt

Rang f ! = Rang f.

Beweis.

Rang f ! = dim im f !

= dim(ker f)0 (nach Satz 11.4)

= dim V % dim ker f (nach Satz 11.2)

= dim im f = Rang f.

!

Mit Hilfe von Satz 11.3 erhalten wir damit einen neuen Beweis des fol-genden Resultats.

Korollar 11.4 Fur jede Matrix A ! Mat(m+ n; K) gilt

ZeilenrangA = SpaltenrangA.

Beweis von Satz 11.4. Wir zeigen im f ! = (ker f)0. Der Beweis der zweitenGleichung geht analog.

”$”: Es sei ! ! im f !. Dann ist ! = f !($) = $ ' f fur ein $ ! V !. Furx ! ker f gilt dann

!(x) = $(f(x)) = $(0) = 0,

also ! ! (ker f)0.”&”: Es sei umgekehrt ! ! V ! mit !|ker f = 0 gegeben. Wir mussen ein

$ ! W ! mit ! = $ ' f konstruieren. Dazu sei

A = {u1, . . . , ur, v1, . . . , vk} Basis von V,

B = {w1, . . . , wr, wr+1, . . . , wm} Basis von W

mit ker f = span{v1, . . . , vk}, im f = span{w1, . . . , wr} und f(ui) = wi furi = 1, . . . , r. Dann gibt es genau eine lineare Abbildung $ mit

$(wi) :=

$!(ui) fur i = 1, . . . , r,0 sonst.

11 Der Dualraum 79

Nach Konstruktion von $ ist ! = $ ' f . !

Es sei nun, , - : V + V %# K

(v, w) (%# ,v, w-eine Bilinearform. Dann konnen wir die beiden folgenden Abbildungen be-trachten:

,v, ·- : V # K, w (# ,v, w-,,·, w- : V # K, v (# ,v, w-.

Damit erhalten wir Abbildungen

b1 : V # V !, v (# ,v, ·-,b2 : V # V !, w (# ,·, w-.

Definition Eine Bilinearform , , - : V # K heißt nicht ausgeartet, wenndie beiden Abbildungen b1 und b2 injektiv sind.

Beispiel 11.4 Ein Skalarprodukt , , - auf einem R-Vektorraum ist nichtausgeartet. Denn

b1(v) = 0 ) ,v, w- = 0 fur alle w ! V ) v = 0,

da , , - positiv definit ist. Da , , - symmetrisch ist, folgt, dass auch b2 injektivist.

Daraus folgt unmittelbar:

Satz 11.5 In einem endlich dimensionalen euklidischen Vektorraum V istdie Abbildung

! : V # V !, v (# ,v, ·-,

ein Isomorphismus.

Bemerkung 11.2 Im Gegensatz zu den Isomorphismen !B : V # V ! inKorollar 11.2, die von der Wahl der Basis abhangen, ist dieser Isomorphismuskanonisch, d.h. er hangt nicht von der Wahl einer Basis ab. Er existiert abernur, wenn ein Skalarprodukt gegeben ist.

Satz 11.6 Es sei V ein euklidischer Vektorraum und ! : V # V ! der kano-nische Isomorphismus. Dann gilt:

(i) Fur jeden Unterraum U $ V ist !(U") = U0.

12 Multilineare Abbildungen 80

(ii) Ist B = {v1, . . . , vn} eine Orthonormalbasis von V und B! = {v!1, . . . , v!n}die duale Basis, so ist !(vi) = v!i .

Beweis.(i): Nach den Dimensionsformeln gilt

dim U" = dim V % dim U = dim U0.

Daher reicht es zu zeigen: !(U") $ U0. Dies folgt aus

!(v)(u) = ,v, u- = 0 fur v ! U" und u ! U.

(ii): Dies folgt aus

!(vi)(vj) = ,vi, vj- = 'ij = v!i (vj).

!

12 Multilineare Abbildungen

Literatur fur diesen Abschnitt:

• M. Spivak: Calculus on Manifolds. W. A. Benjamin 1965.

• W. Greub: Multilinear Algebra, 2nd Edition. Springer-Verlag 1978.

Definition Es seien V1, . . . , Vp, W K-Vektorraume. Eine Abbildung ! : V1+· · · + Vp # W heißt multilinear oder genauer p-linear, wenn fur jedes i =1, . . . , p gilt

!(v1, . . . , vi + v%i, . . . , vp) = !(v1, . . . , vi, . . . , vp) + !(v1, . . . , v%i, . . . , vp),

!(v1, . . . ,#vi, . . . , vp) = #!(v1, . . . , vi, . . . , vp),

fur vi, v%i ! Vi, # ! K. Gilt W = K, so heißt ! eine multilineare (oderp-lineare) Funktion.

Beispiel 12.1 (a) Der Fall p = 1 und W = K ist der Spezialfall der Linear-formen.

(b) Im Fall p = 2, W = K, V1 = V2 = V , erhalten wir gerade die amAnfang der Vorlesung betrachteten Bilinearformen.

(c) Es sei ! : V + V ! # K die durch (v, f) (# f(v) definierte Abbildung.Dies ist eine bilineare Funktion.

12 Multilineare Abbildungen 81

Es sei Hom(V1, . . . , Vp; W ) die Menge aller p-linearen Abbildungen ! :V1 + · · ·+ Vp # W . Wir erklaren eine Addition durch

(! + $)(v1, . . . , vp) = !(v1, . . . , vp) + $(v1, . . . , vp)

und eine skalare Multiplikation mit # ! K durch

(#!)(v1, . . . , vp) = #!(v1, . . . , vp).

Damit wird Hom(V1, . . . , Vp; W ) zu einem K-Vektorraum.

Definition Ist V1 = . . . = Vp = V und W = K, so nennt man eine multi-lineare Funktion ! : V + · · ·+ V # K auch eine Multilinearform oder einenp-Tensor auf V . Die Menge aller p-Tensoren auf V bezeichnen wir mit T p(V ).

Nach den Bemerkungen vor der Definition ist T p(V ) ein K-Vektorraum.

Beispiel 12.2 Es sei V = Kn und det die Funktion

det : Kn + · · ·+Kn% &' (

n

%# K

("a1, . . . ,"an) (%# det("a1 · · ·"an),

wobei ("a1 · · ·"an) die n + n-Matrix mit den Spalten "a1, . . . ,"an ist. Aus denEigenschaften der Determinante folgt, dass det eine Multilinearform ist, alsodet ! T n(Kn).

Definition Ist ! ! T p(V ) und $ ! T q(V ), so definieren wir das Tensor-produkt !. $ ! T p+q(V ) durch

(!. $)(v1, . . . , vp, vp+1, . . . , vp+q) = !(v1, . . . , vp) · $(vp+1, . . . , vp+q).

Warnung Man beachte, dass hier die Reihenfolge wichtig ist, da !.$ und$ . ! ganz unterschiedlich sind.

Satz 12.1 Das Tensorprodukt hat die folgenden Eigenschaften:

(i) (!. $). ( = !. ($ . ().

(ii) (!1 + !2). $ = !1 . ( + !2 . $.

(iii) !. ($1 + $2) = !. $1 + !. $2.

(vi) (#!). $ = !. (#$) = #(!. $).

12 Multilineare Abbildungen 82

Beweis. Der Nachweis dieser Eigenschaften ist einfach. Siehe Vorlesung. !

Der Vektorraum T 1(V ) ist gerade der Dualraum V !. Mit dem Tensor-produkt konnen wir nun die anderen Vektorraume T p(V ) durch T 1(V ) aus-drucken:

Satz 12.2 Es sei {v1, . . . , vn} eine Basis von V und {v!1, . . . , v!n} die dualeBasis. Dann ist die Menge aller p-fachen Tensorprodukte

v!i1 . · · ·. v!ip , 1 / i1, . . . , ip / n,

eine Basis von T p(V ). Insbesondere hat T p(V ) die Dimension np.

Beweis.(a) Man beachte zunachst, dass

v!i1 . · · ·. v!ip(vj1 , . . . , vjp) = 'i1,j1 · · · 'ip,jp

=

$1 falls j1 = i1, . . . , jp = ip,0 sonst.

Gilt

(w1, . . . , wp) =

)n#

j=1

a1jvj, . . . ,n#

j=1

apjvj

*,

so ist

!(w1, . . . , wp) =n#

j1,...,jp=1

a1,j1 · · · ap,jp!(vj1 , . . . , vjp)

=n#

i1,...,ip=1

!(vi1 , . . . , vip) · v!i1 . · · ·. v!ip(w1, . . . , wp).

Also gilt

! =n#

i1,...,ip=1

!(vi1 , . . . , vip) · v!i1 . · · ·. v!ip .

Also bilden die v!i1 . · · ·. v!ip ein Erzeugendensystem von T p(V ).(b) Zum Beweis der linearen Unabhangigkeit nehmen wir an

n#

i1,...,ip=1

ai1,...,ipv!i1 . · · ·. v!ip = 0.

13 Alternierende Multilinearformen 83

Indem wir beide Seiten dieser Gleichung auf (vj1 , . . . , vjp) anwenden, erhaltenwir

aj1,...,jp = 0.

Also sind die v!i1 ! · · ·! v!ip linear unabhangig. !

Wie im Fall des Dualraums konnen wir einer linearen Abbildung f : V "W eine lineare Abbildung f ! : T p(W ) " T p(V ) zuordnen: Diese Abbildungist definiert durch

f !!(v1, . . . , vp) = !(f(v1), . . . , f(vp)) fur ! # T p(W ), v1, . . . , vp # V.

Man kann leicht zeigen:

Satz 12.3 Fur eine lineare Abbildung f : V " W und ! # T p(W ), " #T q(W ) gilt

f !(!! ") = f !!! f !".

13 Alternierende Multilinearformen

Fur den Grundkorper K setzen wir in diesem Abschnitt voraus:

nK := 1 + · · · + 1! "# $n

$= 0 fur alle n % 1.

Wir identifizieren dann nK mit n.Die Multilinearform det # T n(Kn) hat die folgende wichtige Eigenschaft:

det(#a1, . . . ,#ai, . . . ,#aj, . . . ,#an) = & det(#a1, . . . ,#aj, . . . ,#ai, . . . ,#an).

Solche Multilinearformen nennt man alternierend.

Definition Eine Multilinearform $ # T p(V ) heißt alternierend, wenn furjede Permutation % # Sp gilt

$(v1, . . . , vp) = sign % · $(v!(1), . . . , v!(p)) fur alle v1, . . . , vp # V.

Die Menge aller alternierenden p-Tensoren bezeichnen wir mit%p(V ).

O!ensichtlich ist%p(V ) ein Unterraum von T p(V ).

Um noch eine andere Charakterisierung von alternierenden Multilinear-formen zu geben, benotigen wir noch einige Tatsachen uber die symmetrischeGruppe.

13 Alternierende Multilinearformen 84

Definition Eine Permutation & # Sn heißt Transposition, falls & zwei Ele-mente aus {1, . . . , n} vertauscht und alle anderen festlasst, d.h. wenn esk, ' # {1, . . . , n} mit k $= ' gibt, so dass gilt:

&(k) = ',

&(') = k,

&(i) = i fur i # {1, . . . , n}, i $= k, '.

O!ensichtlich gilt &"1 = & fur jede Transposition & # Sn.

Lemma 13.1 Ist n % 2, so lasst sich jede Permutation % # Sn als Hinterein-anderschaltung von Transpositionen darstellen, d.h. es gibt Transpositionen&1, . . . , &m # Sn mit

% = &1 ' · · · ' &m.

Beweis. Ist % = id, so gilt % = & ' & fur irgendeine Transposition.Andernfalls gibt es ein i1 # {1, . . . , n} mit

%(i) = i fur i = 1, . . . , i1 & 1 und %(i1) > i1.

Es sei &1 die Transposition, die i1 mit %(i1) vertauscht, und %1 := &1 ' %.Dann gilt

%1(i) = i fur i = 1, . . . , i1.

Nun ist entweder %1 = id oder es gibt ein i2 mit i2 > i1 und

%1(i) = i fur i = 1, . . . , i2 & 1 und %1(i2) > i2.

Analog erhalt man &2 und %2, usw., bis wir schließlich ein m ( n und Trans-positionen &1, . . . , &m mit

%m = &m ' · · · ' &1 ' % = id

erhalten. Daraus folgt

% = (&m ' · · · ' &1)"1 = &"1

1 ' · · · ' &"1m = &1 ' · · · ' &m.

!

Lemma 13.2 Es sei n % 2 und &12 die Transposition, die 1 und 2 vertauscht,und & eine beliebige Transposition. Dann gibt es eine Permutation % # Sn

mit& = % ' &12 ' %"1.

13 Alternierende Multilinearformen 85

Beweis. Es seien k und ' die von & vertauschten Elemente. Es sei % # Sn einePermutation mit

%(1) = k und %(2) = '.

Es sei & # := % ' &12 ' %"1. Es ist zu zeigen: & = & #. Es gilt:

& #(k) = %(&12(%"1(k))) = %(&12(1)) = %(2) = ',

& #(') = %(&12(%"1('))) = %(&12(2)) = %(1) = k,

& #(i) = %(&12(%"1(i))) = %(%"1(i)) = i fur i $= k, '.

Daraus folgt & # = & . !

Lemma 13.3 Fur jedes % # Sn gilt

sign % =&

i<j

%(j)& %(i)

j & i.

Beweis. Jede Inversion, also jedes Zahlenpaar (i, j) mit 1 ( i < j ( n aber%(i) > %(j), liefert das Vorzeichen &1, jedes Zahlenpaar (i, j) mit 1 ( i <j ( n und %(i) < %(j) liefert das Vorzeichen +1. !

Satz 13.1 Fur alle %, & # Sn gilt

sign (& ' %) = sign & · sign %.

Beweis. Es ist

sign (& ' %) =&

i<j

&(%(j))& &(%(i))

j & i

=&

i<j

&(%(j))& &(%(i))

%(j)& %(i)·&

i<j

%(j)& %(i)

j & i

Da das zweite Produkt gleich sign % ist, genugt es zu zeigen, dass das ersteProdukt gleich sign & ist.

&

i<j

&(%(j))& &(%(i))

%(j)& %(i)

=&

i<j

!(i)<!(j)

&(%(j))& &(%(i))

%(j)& %(i)·

&

i<j

!(i)>!(j)

&(%(j))& &(%(i))

%(j)& %(i)

=&

i<j

!(i)<!(j)

&(%(j))& &(%(i))

%(j)& %(i)·

&

i>j

!(i)<!(j)

&(%(j))& &(%(i))

%(j)& %(i)

=&

!(i)<!(j)

&(%(j))& &(%(i))

%(j)& %(i)

13 Alternierende Multilinearformen 86

Da % bijektiv ist, kann man statt uber i < j auch uber %(i) < %(j) summie-ren. Also ist das letzte Produkt gleich sign & . !

Korollar 13.1 Es sei n % 2. Fur jede Transposition & # Sn gilt sign & = &1.

Beweis. Ist &12 die Transposition, die 1 und 2 vertauscht, so ist sign &12 = &1,denn &12 hat genau eine Inversion. Nach Lemma 13.2 gibt es ein % # Sn mit& = % ' &12 ' %"1. Also folgt aus Satz 13.1

sign & = sign % · sign &12 · sign %"1 = sign &12 = &1.

!

Lemma 13.4 Es sei $ #%p(V ) eine Multilinearform. Dann sind die fol-

genden Bedingungen aquivalent:

(i) $ ist alternierend.

(ii) $(v1, . . . , vp) = &$(v"(1), . . . , v"(p)) fur jede Transposition & # Sp.

(iii) Ist vi = vj fur ein i $= j, so ist $(v1, . . . , vp) = 0.

Beweis.(i) ) (ii): Klar.(ii) ) (i): Es sei % # Sp. Dann gibt es nach Lemma 13.1 eine Darstellung

% = &1 ' · · · ' &m,

wobei die &i Transpositionen sind. Es gilt

m =

'gerade falls sign % = 1,ungerade falls sign % = &1.

Daraus folgt die Behauptung.(ii) ) (iii): Es sei vi = vj mit i $= j und & sei die Transposition, die i und

j vertauscht. Dann gilt

$(v1, . . . , vp) = $(v"(1), . . . , v"(p)) = &$(v1, . . . , vp).

Also folgt mit 1 + 1 $= 0$(v1, . . . , vp) = 0.

(iii) ) (ii): Es sei & die Transposition, die i und j vertauscht (i $= j).Dann gilt

0 = $(v1, . . . ,i

vi + vj, . . . ,j

vi + vj, . . . , vp)

= $(v1, . . . , vi, . . . , vi, . . . , vp) + $(v1, . . . , vi, . . . , vj, . . . , vp)

+ $(v1, . . . , vj, . . . , vi, . . . , vp) + $(v1, . . . , vj, . . . , vj, . . . , vp).

13 Alternierende Multilinearformen 87

Daraus folgt

$(v1, . . . , vi, . . . , vj, . . . , vp) = &$(v1, . . . , vj, . . . , vi, . . . , vp).

!

Definition Es sei ! # T p(V ). Dann definieren wir

Alt(!)(v1, . . . , vp) :=1

p!

(

!$Sp

sign % · !(v!(1), . . . , v!(p)).

Satz 13.2 (i) Fur ! # T p(V ) ist Alt(!) #%p(V ).

(ii) Fur $ #%p(V ) gilt Alt($) = $.

(iii) Fur ! # T p(V ) gilt Alt(Alt(!)) = Alt(!).

Beweis.(i) Es sei & # Sp beliebig. Dann gilt

Alt(!)(v"(1), . . . , v"(p))

=1

p!

(

!$Sp

sign % · !(v!("(1)), . . . , v!("(p)))

= sign & · 1

p!

(

!%"$Sp

sign(% ' &) · !(v(!%")(1), . . . , v(!%")(p))

= sign & · Alt(!)(v1, . . . , vp).

(ii) Es gilt

Alt($)(v1, . . . , vp) =1

p!

(

!$Sp

sign % · $(v!(1), . . . , v!(p))

=1

p!

(

!$Sp

(sign %)2$(v1, . . . , vp)

= $(v1, . . . , vp).

(iii) folgt aus (i) und (ii). !

Wir mochten eine Basis von%p(v) bestimmen. Dazu bemerken wir, dass

mit $ #%p(V ) und ( #

%q(V ) das Tensorprodukt $ ! ( im Allgemeinennicht in

%p+q(V ) liegt. Daher definieren wir ein neues Produkt:

13 Alternierende Multilinearformen 88

Definition Ist $ #%p(V ) und ( #

%q(V ), so definieren wir das Dachpro-dukt $ * ( #

%p+q(V ) durch

$ * ( :=(p + q)!

p!q!Alt($ ! ().

Satz 13.3 Das Dachprodukt hat folgende Eigenschaften:

(i) ($1 + $2) * ( = $1 * ( + $2 * (.

(ii) $ * ((1 + (2) = $ * (1 + $ * (2.

(iii) ()$) * ( = $ * ()() = )($ * ().

(iv) $ * ( = (&1)pq( * $.

(v) f !($ * () = f !($) * f !(().

Beweis. Diese Eigenschaften sind leicht nachzuweisen. !

Mehr Arbeit erfordert der Nachweis der Gleichung ($*()** = $*((**).Dazu brauchen wir zwei Hilfssatze:

Lemma 13.5 Fur ! # T p(V ) mit Alt(!) = 0 und " # T q(V ) gilt

Alt(!! ") = Alt(" ! !) = 0.

Beweis. Es gilt

(p + q)!Alt(!! ")(v1, . . . , vp+q)

=(

!$Sp+q

sign % · !(v!(1), . . . , v!(p)) · "(v!(p+1), . . . , v!(p+q)).

Nun betrachten wir die Untergruppe G + Sp+q, die aus allen Permutationen% besteht, die p + 1, . . . , p + q fest lassen. Dann gilt

(

!$G

sign % · !(v!(1), . . . , v!(p)) · "(v!(p+1), . . . , v!(p+q))

=

)

*(

!!$Sp

sign %# · !(v!!(1), . . . , v!!(p))

+

, · "(vp+1, . . . , vp+q)

= p!Alt(!) · "(vp+1, . . . , vp+q) = 0

Nun sei %0 $# G. Es sei

G%0 := {% ' %0 |% # G}.

13 Alternierende Multilinearformen 89

Wir setzen außerdem

(v!0(1), . . . , v!0(p+q)) = (w1, . . . , wp+q).

Dann gilt(

!$G!0

sign % · !(v!(1), . . . , v!(p)) · "(v!(p+1), . . . , v!(p+q))

=

-sign %0 ·

(

!!$G

sign %# · !(w!!(1), . . . , w!!(p))

.· "(wp+1, . . . , wp+q)

= 0.

Man beachte, dass G,G%0 = - gilt. Denn angenommen % # G,G%0. Danngilt % = %#'%0 fur ein %# # G, also %0 = (%#)"1'% # G, ein Widerspruch. Wennwir auf diese Weise fortfahren, konnen wir Sp+q so in disjunkte Teilmengenzerlegen, dass die Summe uber jede dieser Teilmengen jeweils 0 ergibt. Alsoergibt die Summe uber ganz Sp+q Null.

Die andere Gleichung Alt(" ! !) = 0 wird analog bewiesen. !

Lemma 13.6 Fur $ #%p(V ), ( #

%q(V ) und * #%r(V ) gilt

Alt(Alt($ ! ()! *) = Alt($ ! ( ! *) = Alt($ ! Alt(( ! *)).

Beweis. Es gilt

Alt(Alt(( ! *)& ( ! *) = Alt(( ! *)& Alt(( ! *) = 0.

Aus Lemma 13.5 folgt damit

0 = Alt($ ! [Alt(( ! *)& ( ! *])

= Alt($ ! Alt(( ! *))& Alt($ ! ( ! *).

Die andere Gleichung wird analog bewiesen. !

Satz 13.4 Fur $ #%p(V ), ( #

%q(V ) und * #%r(V ) gilt

($ * () * * = $ * (( * *) =(p + q + r)!

p!q!r!Alt($ ! ( ! *).

Beweis.

($ * () * * =((p + q) + r)!

(p + q)!r!Alt(($ * ()! *)

=(p + q + r)!

(p + q)!r!Alt

/(p + q)!

p!q!Alt($ ! ()! *

0

=(p + q + r)!

p!q!r!Alt($ ! ( ! *) (nach Lemma 13.6).

!

13 Alternierende Multilinearformen 90

Satz 13.5 Es sei {v1, . . . , vn} eine Basis von V und {v!1, . . . , v!n} die dualeBasis. Dann ist die Menge aller p-fachen Dachprodukte

v!i1 * · · · * v!ip , 1 ( i1 < . . . < ip ( n,

eine Basis von%p(V ). Insbesondere hat

%p(V ) die Dimension

/n

p

0=

n!

p!(n& p)!.

Beweis.(a) Es sei $ #

%p(V ) + T p(V ). Nach Satz 12.2 konnen wir schreiben:

$ =n(

i1,...,ip=1

ai1,...,ipv!i1 ! · · ·! v!ip .

Es folgt

$ = Alt($) =n(

i1,...,ip=1

ai1,...,ipAlt(v!i1 ! · · ·! v!ip).

Nach Satz 13.4 gilt aber

Alt(v!i1 ! · · ·! v!ip) = Konstante · v!i1 * · · · * v!ip .

Also spannen die Elemente v!i1 * · · · * v!ip den Raum%p(V ) auf.

(b) Die lineare Unabhangigkeit wird wie im Beweis von Satz 12.2 bewie-sen. !

Hat V die Dimension n, so folgt aus Satz 13.5, dass%n(V ) die Dimension

1 hat. Das bedeutet, dass alle alternierenden n-Tensoren auf V Vielfache einesvon Null verschiedenen n-Tensors sind. Fur V = Rn ist det #

%n(Rn) einsolcher Tensor. Er ist dadurch ausgezeichnet, dass det(#e1, . . . ,#en) = 1 gilt.Deswegen erhalten wir die folgende Charakterisierung der Determinante:

Korollar 13.2 Die Determinante det ist der eindeutig bestimmte alternie-rende n-Tensor mit

det(#e1, . . . ,#en) = 1.

Satz 13.6 Es sei V ein R-Vektorraum, {v1, . . . , vn} eine Basis von V und$ #

%n(V ). Ist wj =1n

i=1 aijvi, j = 1, . . . , n, so gilt

$(w1, . . . , wn) = det(aij) · $(v1, . . . , vn).

13 Alternierende Multilinearformen 91

Beweis. Wir definieren ( # T n(Rn) durch

(((a11, . . . , an1)T , . . . , (a1n, . . . , ann)T ) = $(

(ai1vi, . . . ,

(ainvi).

Dann ist ( #%n(Rn), also ( = ) · det fur ein ) # R. Es gilt

) = ) det(#e1, . . . ,#en) = ((#e1, . . . ,#en) = $(v1, . . . , vn).

!

Es sei weiterhin K = R. Satz 13.6 zeigt, dass ein von Null verschie-dener alternierender n-Tensor $ #

%n(V ) die (geordneten) Basen von Vin zwei disjunkte Klassen einteilt: eine mit $(v1, . . . , vn) > 0 und eine mit$(v1, . . . , vn) < 0. Wenn {v1, . . . , vn} und {w1, . . . , wn} zwei Basen von Vsind und A = (aij) die durch wj =

1aijvi definierte Matrix des Basiswech-

sels, dann sind {v1, . . . , vn} und {w1, . . . , wn} genau dann in der gleichenKlasse, wenn det A > 0 gilt. Also ist die Klasseneinteilung unabhangig von$. Damit konnen wir definieren:

Definition Eine Orientierung eines reellen Vektorraums V ist eine Klassevon Basen, fur die gilt: Fur einen von Null verschiedenen alternierenden n-Tensor $ #

%n(V ) ist $(v1, . . . , vn) > 0 fur alle Basen aus dieser Klasse oder$(v1, . . . , vn) < 0 fur alle Basen aus dieser Klasse.

Beispiel 13.1 Die Standardorientierung des Rn ist die Orientierung, zu derdie Standardbasis {#e1, . . . ,#en} gehort. Hier kommt es auf die Reihenfolge an:Vertauschen wir zwei dieser Basiselemente, so gehort die neue Basis zu deranderen Orientierung.

Ist nun V ein euklidischer Vektorraum, so gilt fur die Transformationsma-trix A, die eine Orthonormalbasis in eine andere transformiert, det A = ±1.Damit konnen wir definieren:

Definition Es sei V ein euklidischer Vektorraum und eine Orientierung vonV gewahlt. Das Volumenelement von V ist das eindeutig bestimmte Element$ #

%n(V ) mit $(v1, . . . , vn) = 1 fur jede Orthonormalbasis {v1, . . . , vn} ausder Orientierung von V .

Beispiel 13.2 Fur V = Rn mit dem gewohnlichen euklidischen Skalarpro-dukt und der Standardorientierung ist det das Volumenelement und

| det(v1, . . . , vn)|

ist das Volumen des von den Vektoren v1, . . . , vn aufgespannten Parallelotops.

14 Symmetrische Multilinearformen 92

14 Symmetrische Multilinearformen

Analog zu alternierenden Multilinearformen kann man auch symmetrischeMultilinearformen betrachten. Fur den Grundkorper K setzen wir weiterhinnK != 0 fur alle n " 1 voraus.

Definition Eine Multilinearform ! # T p(V ) heißt symmetrisch, wenn furjede Permutation " # Sp gilt

!(v1, . . . , vp) = !(v!(1), . . . , v!(p)) fur alle v1, . . . , vp # V.

Die Menge aller symmetrischen p-Tensoren bezeichnen wir mit Sp(V ).

Definition Es sei ! # T p(V ). Dann definieren wir

Sym(!)(v1, . . . , vp) :=1

p!

!

!!Sp

!(v!(1), . . . , v!(p)).

Satz 14.1 (i) Fur ! # T p(V ) ist Sym(!) # Sp(V ).

(ii) Fur ! # Sp(V ) gilt Sym(!) = !.

(iii) Fur ! # T p(V ) gilt Sym(Sym(!)) = Sym(!).

Beweis. Der Beweis ist analog zum Beweis von Satz 13.2. !

Definition Ist ! # Sp(V ) und # # Sq(V ), so definieren wir das symmetri-sche Produkt ! $ # # Sp+q(V ) durch

! $ # :=(p + q)!

p!q!Sym(!% #).

Wie im Fall der alternierenden Multilinearformen beweist man:

Satz 14.2 Das symmetrische Produkt hat folgende Eigenschaften:

(i) (!1 + !2) $ # = !1 $ # + !2 $ #.

(ii) ! $ (#1 + #2) = ! $ #1 + ! $ #2.

(iii) ($!) $ # = ! $ ($#) = $(! $ #).

(iv) ! $ # = # $ !.

(v) (! $ #) $ % = ! $ (# $ %).

15 Der Quotientenraum 93

(vi) f "(! $ #) = f "(!) $ f "(#).

Satz 14.3 Es sei {v1, . . . , vn} eine Basis von V und {v"1, . . . , v"n} die dualeBasis. Dann ist die Menge aller p-fachen symmetrischen Produkte

v"i1 $ · · · $ v"ip , 1 & i1 & . . . & ip & n,

eine Basis von Sp(V ). Insbesondere hat Sp(V ) die Dimension

"n + p' 1

p

#.

Definition Ein Polynom

P (x1, . . . , xn) =!

endlich

a"1,...,"nx"11 · · ·x"n

n

heißt homogen vom Grad p, wenn die Summe uber alle n-Tupel (&1, . . . , &n)mit

$ni=1 &i = p lauft. Es sei Kp[x1, . . . , xn] der Vektorraum der homogenen

Polynome in den Variablen x1, . . . , xn vom Grad p.

Satz 14.4 Es sei V ein K-Vektorraum der Dimension n. Dann gibt es einenIsomorphismus

! : Sp(V ) ( Kp[x1, . . . , xn].

Beweis. Es sei {v1, . . . , vn} eine Basis von V und {v"1, . . . , v"n} die duale Basis.Dann definieren wir

! : Sp(V ) ( Kp[x1, . . . , xn]

durchv"i1 $ · · · $ v"ip )( xi1 · · ·xip , 1 & i1 & . . . & ip & n.

Da die v"i1 $ · · · $ v"ip nach Satz 14.3 eine Basis von Sp(V ) und die Monomexi1 · · ·xip eine Basis von Kp[x1, . . . , xn] bilden, folgt, dass sich ! zu einemIsomorphismus zwischen Sp(V ) und Kp[x1, . . . , xn] erweitern lasst. !

15 Der Quotientenraum

Wir wollen nun den Begri" des Quotientenraums einfuhren. Dazu betrachtenwir Aquivalenzrelationen.

Es sei X eine Menge.

15 Der Quotientenraum 94

Definition Eine Aquivalenzrelation auf X ist eine Teilmenge R * X +Xmit folgenden Eigenschaften:

(R) (x, x) # R fur alle x # X (reflexiv).

(S) (x, y) # R , (y, x) # R fur alle x, y # X (symmetrisch).

(T) (x, y) # R, (y, z) # R , (x, z) # R fur alle x, y, z # X (transitiv).

Notation x - y :. (x, y) # R.

Beispiel 15.1 Es sei X = Mat(n; K) und

R := {(A; B) # X +X |/T # GL(n; K) mit A = T#1BT} * X +X.

Dann giltA - B . A ist ahnlich zu B.

Definition Es sei V ein K-Vektorraum und U * V ein Unterraum. Wirdefinieren

R := {(u, v) # V + V |u' v # U}.

Mit anderen Wortenu - v :. u' v # U.

Lemma 15.1 Die obige Relation R ist eine Aquivalenzrelation.

Beweis.

(R) (u, u) # R, da u' u = 0 # U .

(S) (u, v) # R , u' v # U , v ' u # U , (v, u) # R.

(T) (u, v) # R, (v, w) # R , u'v # U, v'w # U , u'w # U , (u, w) #R.

!

Definition Es sei x # X. Die Aquivalenzklasse von x, in Zeichen [x], istdefiniert als

[x] := {y # X |x - y} * X.

Jedes Element y # [x] heißt Reprasentant der Aquivalenzklasse [x].

Lemma 15.2 (i) x # [x|.

15 Der Quotientenraum 95

(ii) [x] 0 [y] != 1 . x - y.

(iii) x - y . [x] = [y].

Beweis.(i) folgt aus der Reflexivitat.(ii): Es sei [x] 0 [y] != 1. Dann existiert ein z # [x] 0 [y]. Dann gilt z - x

und z - y. Aus der Transitivitat folgt x - y.Ist umgekehrt x - y, so folgt x # [x] 0 [y], also [x] 0 [y] != 1.(iii): Es sei x - y. Ist z # [x], so gilt z - x. Aus der Transitivitat folgt

z - y, also z # [y]. Also gilt [x] * [y]. Analog zeigt man [y] * [x].Die umgekehrte Richtung ist klar. !

Korollar 15.1 Die Menge X ist die disjunkte Vereinigung der Aquivalenz-klassen.

Definition Die Menge der Aquivalenzklassen heißt die Quotientenmengeund wird mit X/ - bezeichnet. Man hat eine kanonische Projektion

' : X '( X/ -x )'( [x]

.

Wir kehren nun zu dem Beispiel eines Unterraums U * V in einem K-Vektorraum V zuruck.

Definition Die Menge a + U := {a + u |u # U} heißt die Nebenklasse vona # V in V .

Lemma 15.3 Es gilt [a] = a + U bezuglich der Aquivalenzrelation u - v .u' v # U .

Beweis. x # [a] . x - a . x' a # U . x # a + U . !

Definition Der Quotientenraum V/U ist die Menge

V/U := {a + U | a # V }.

Definition Wir definieren eine Addition auf V/U durch

(a + U) + (b + U) := (a + b) + U (a, b # V )

und eine skalare Multiplikation durch

$(a + U) := ($a) + U ($ # K, a # V ).

15 Der Quotientenraum 96

Lemma 15.4 Diese Verknupfungen sind wohldefiniert (d.h. unabhangig vonder Wahl der Reprasentanten a und b) und machen V/U zu einem K-Vek-torraum.

Beweis. Wir zeigen zunachst die Unabhangigkeit von der Wahl der Reprasen-tanten.

(a) Es sei a - a$, b - b$. Es ist zu zeigen: (a + b) + U = (a$ + b$) + U , d.h.

a + b - a$ + b$.

Es gilt

a - a$, b - b$ , a' a$ # U, b' b$ # U , (a' a$) + (b' b$) # U

, (a + b)' (a$ + b$) # U , a + b - a$ + b$.

(b) Die entsprechende Aussage fur die skalare Multiplikation zeigt mananalog.

Das Nachrechnen der Vektorraumaxiome fur V/U ist einfach, siehe Vor-lesung. Was ist das neutrale Element von V/U? Was ist das additive Inversevon a + U? !

Der Quotientenraum V/U lasst sich folgendermaßen geometrisch deuten:Es sei W ein Komplement von U in V , d.h.

V = U 2W.

Es sei a + U eine Nebenklasse. Dann gibt es eine eindeutig bestimmte Dar-stellung

a = aW + aU , aW # W, aU # U.

Es gilt[a] = a + U = aW + U.

Das Element aW hangt nur von der Aquivalenzklasse ab und ist durch dieseeindeutig bestimmt. Wir konnen also die Elemente von V/U mit den Elemen-ten von W identifizieren. Allerdings ist es gunstiger mit V/U zu arbeiten, dadas Komplement W nicht eindeutig bestimmt ist.

Satz 15.1 Die Abbildung

' : V '( V/Ua )'( a + U

ist ein Epimorphismus mit ker ' = U .

15 Der Quotientenraum 97

Beweis.(a) Es gilt

'(a + b) = (a + b) + U = (a + U) + (b + U) = '(a) + '(b).

Analog zeigt man '($a) = $'(a).(b) Nach Konstruktion ist ' surjektiv.(c) Es gilt

'(a) = 0 . a + U = 0 + U . a - 0 . a' 0 = a # U,

d.h. ker ' = U . !

Korollar 15.2 Zu jedem Unterraum U * V eines K-Vektorraums V gibt eseine kanonische kurze exakte Sequenz

0 '( U (( V#'( V/U '( 0.

Korollar 15.3dim U + dim V/U = dim V.

Beweis.dim V = dim ker ' + dim im ' = dim U + dim V/U.

!

Wir betrachten nun eine lineare Abbildung f : V ( W zwischen K-Vektorraumen V und W .

Satz 15.2 (Kern-Bild-Satz) Es gibt genau einen Isomorphismus

f : V/ ker f ( im f,

so dass gilt:f(a + ker f) = f(a) fur alle a # V.

Beweis. Falls f existiert, muss gelten

f(a + ker f) = f(a) fur alle a # V.

Wir benutzen daher diese Gleichung zur Definition von f .(a) Die Abbildung f ist wohldefiniert:

a - b , a' b # ker f , f(a' b) = 0 , f(a) = f(b).

16 Projektive Raume 98

(b) Die Abbildung f ist linear:

f((a + ker f) + (b + ker f)) = f((a + b) + ker f) = f(a + b)

= f(a) + f(b) = f(a + ker f) + f(b + ker f).

Der Beweis fur die skalare Multiplikation geht analog.(c) Die Abbildung f ist ein Isomorphismus, da sie nach Konstruktion

surjektiv ist und V/ ker f und im f nach Korollar 15.3 die gleiche Dimensionhaben. !

Beispiel 15.2 Es sei V = U 2W und f : V ( W die Projektion auf W ,d.h. f(u + w) = w fur alle v = u + w # V mit u # U und w # W . Dann istU = ker f und W = im f . Dann ist die Abbildung

f : V/U ( W, f(u + w + U) = w,

ein Isomorphismus. Dies ist die obige Deutung des Quotientenraums.

16 Projektive Raume

Es sei V ein endlich dimensionaler K-Vektorraum. Wir setzen

V $ := V \ {0}.

Definition Fur u, v # V $ definieren wir

u - v :. Es gibt $ # K" = K \ {0} mit u = $v.

Bemerkung 16.1 (i) - ist eine Aquivalenzrelation.(ii) Es gilt

u - v . Ku = Kv . u, v spannen dieselbe Gerade auf.

Definition Der zu V gehorige projektive Raum ist

P(V ) := V $/ - .

Als Menge ist P(V ) gerade die Menge der Ursprungsgeraden in V :

P(V ) = {Kv | v # V $} = {Geraden in V durch 0}.

Definition Die Dimension des projektiven Raums P(V ) ist

dim P(V ) := dim V ' 1.

16 Projektive Raume 99

Notation Der Raum Pn(K) := P(Kn+1) heißt der n-dimensionale projek-tive Raum uber K.

Bemerkung 16.2 Insbesondere ist P(0) = 1 und dim 1 = '1.

Beispiel 16.1 Fur die reelle projektive Gerade P1(R) gilt:

P1(R) = P(R2) = S1 = R 3 {4} = R 3 P0(R).

!""""""

######

$$

$$$

%

&&

&&&

''

''

''

((((((

""""""

##

##

##

$$

$$$

((((((

''''''

&&

&&&

! "

Abbildung 10: Die reelle projektive Gerade P1(R)

Die Identifikation S1 = R3 {4} geschieht uber die stereographische Projek-tion (Skizze siehe Vorlesung).

Beispiel 16.2 Wir betrachten die reelle projektive Ebene P2(R) = P(R3).Man hat eine Zerlegung

P2(R) = R2 3 P1(R)

(Naheres siehe Vorlesung).

Definition Es sei' : V $ '( P(V )

v )'( [v] = Kv

die kanonische Projektion. Ist U * P(V ) eine Teilmenge, so definieren wir

%U := '#1(U) 3 {0}.

Eine Teilmenge U * P(V ) heißt ein projektiver Unterraum von P(V ), falls%U * V ein Untervektorraum von V ist.

16 Projektive Raume 100

Lemma 16.1 Fur einen projektiven Unterraum U gilt U = P(!U). Insbeson-dere ist U selbst wieder ein projektiver Raum und hat die Dimension

dim U = dim !U ! 1.

Sprechweise

(i) dim U = !1: "

(ii) dim U = 0: Punkt

(iii) dim U = 1: projektive Gerade

(iv) dim U = 2: projektive Ebene

(v) dim U = dim P(V )! 1: (projektive) Hyperebene.

Es sei nun

V = Kn+1 = {(x0, x1, . . . , xn) |xi # K, i = 0, 1, . . . , n}.

Definition Es sei

v = (x0, x1, . . . , xn) $= 0 (d.h. xi $= 0 fur ein i).

Den Punkt Kv # Pn(K) bezeichnen wir mit (x0 : x1 : . . . : xn). Wir nennen(x0 : x1 : . . . : xn) die homogenen Koordinaten des Punktes Kv.

Bemerkung 16.3 Es gilt (x0 : x1 : . . . : xn) = (x!0 : x!1 : . . . : x!n) genaudann, wenn es ein ! # K, ! $= 0, gibt mit xi = !x!i fur alle i = 0, 1, . . . , n.

Es sei nun !U % Kn+1 ein Unterraum. Dann ist !U Losungsmenge eineshomogenen Gleichungssystems

a10x0+ · · · +a1nxn = 0...

......

...am0x0+ · · · +amnxn = 0

Mit (x0, . . . , xn) ist auch (!x0, . . . ,!xn) fur ! # K" eine Losung dieses Glei-chungssystems. Deswegen kann man schreiben:

P(!U) =

"(x0 : . . . : xn) # Pn(K)

#####

n$

j=0

aijxj = 0, i = 1, . . . ,m

%.

Wir betrachten nun speziell die Gleichung x0 = 0.

16 Projektive Raume 101

Definition Die projektive Hyperebene

H# := {(x0 : . . . : xn) # Pn(K) |x0 = 0}

heißt die Hyperebene im Unendlichen.

Definition Die Abbildung

" : Kn !& Pn(K)(x1, . . . , xn) '!& (1 : x1 : . . . : xn)

heißt die kanonische Einbettung von Kn in den projektiven Raum Pn(K).

Diese Abbildung ist injektiv und hat als Bild gerade die Menge

A := Pn(K) \ H#.

Denn sei y = (y0 : . . . : yn) # A. Dann ist y0 $= 0 und damit

(y0 : y1 : . . . : yn) = (1 : y1

y0: . . . : yn

y0) = "(y1

y0: . . . : yn

y0).

Also ist" : Kn & A

eine Bijektion. Wenn wir Kn mit A mittels " identifizieren, erhalten wir

Pn(K) = A (H# = Kn ( Pn$1(K).

Definition Man nennt A = Pn(K) \ H# den a!nen Teil von Pn(K). Mansagt, dass sich der projektive Raum Pn(K) = A (H# aus dem a!nen TeilA und der Hyperebene im Unendlichen zusammensetzt.

Bemerkung 16.4 Statt der Hyperebene H# = {x0 = 0} hatte man auchjede andere Hyperebene als Hyperebene im Unendlichen auswahlen konnen.

Definition Eine Teilmenge W % Kn heißt ein a!ner Unterraum des Vek-torraums Kn, falls es einen Unterraum W0 von Kn und ein Element #a # Kn

gibt mitW = #a + W0.

Die Dimension eines a!nen Unterraums W wird als dim W0 definiert.

Beispiel 16.3 Die Losungsmenge eines linearen Gleichungssystems

a11x1+ · · · +a1nxn = b1...

......

...am1x1+ · · · +amnxn = bm

ist ein a!ner Unterraum. Umgekehrt ist jeder a!ne Unterraum W % Kn

Losungsmenge eines solchen linearen Gleichungssystems.

16 Projektive Raume 102

Lemma 16.2

(i) Es sei W % Pn(K) ein projektiver Unterraum. Dann ist W := W )A %A = Kn ein a!ner Unterraum.

(ii) Ist " $= W % A = Kn ein a!ner Unterraum, so gibt es genau einenprojektiven Unterraum W % Pn(K) mit W ) A = W .

Beweis. (i) Die Menge &W := $$1(W ) ( {0} ist ein linearer Unterraum vonKn+1, also Losungsmenge eines homogenen Gleichungssystems

a10y0+ · · · +a1nyn = 0...

......

...am0y0+ · · · +amnyn = 0.

Fur einen Punkt

y = (y0 : . . . : yn) $# H# (d.h. y0 $= 0)

gilt

ai0y0 + · · · + ainyn = 0 * ai0 + ai1y1

y0+ · · · + ain

yn

y0= 0.

Also ist W ) A die Losungsmenge des Gleichungssystems

a11x1+ · · · +a1nxn = !a10...

......

...am1x1+ · · · +amnxn = !am0.

Daher ist W ) A ein a!ner Unterraum.(ii) Es sei umgekehrt W % A ein a!ner Unterraum. Dann ist W die

Losungsmenge eines Gleichungssystems

a11x1+ · · · +a1nxn = b1...

......

...am1x1+ · · · +amnxn = bm.

Sind (y0 : . . . : yn) wieder die homogenen Koordinaten des Pn(K), so be-trachten wir das homogene lineare Gleichungssystem

!b1y0 + a11y1+ · · · +a1nyn = 0...

......

...!bmy0 + am1y1+ · · · +amnyn = 0.

16 Projektive Raume 103

Dann ist die Losungsmenge W dieses Gleichungssystems ein projektiver Un-terraum des Pn(K) und nach Konstruktion gilt W ) A = W .

Wir mussen noch die Eindeutigkeit zeigen. Es sei U ein weiterer projek-tiver Unterraum mit U ) A = W . Wir setzen

W# := W )H#, U# := U )H#.

Dann gilt$$1(W ) = $$1(W !W#) = $$1(U ! U#) $= ".

Da das mengentheoretische Komplement eines echten Unterraums den gan-zen Vektorraum erzeugt, gilt

&W = span($$1(W !W#)) = span($$1(U ! U#)) = !U.

Daraus folgt W = U . !

Lemma 16.3 Der Durchschnitt von zwei projektiven Unterraumen U1 undU2 ist wieder ein projektiver Unterraum.

Beweis. Es seiU1 = P(!U1), U2 = P(!U2).

Dann giltU1 ) U2 = P(!U1 ) !U2).

!

Definition Es seien U1, . . . , Ur % P(V ) projektive Unterraume. Dann istder Spann von U1, . . . , Ur, in Zeichen U1 + . . . + Ur, der kleinste projektiveUnterraum von P(V ), der U1, . . . , Ur enthalt.

Bemerkung 16.5 Es gilt

U1 + . . . + Ur = P(!U1 + · · · + !Ur).

Lemma 16.4 (Dimensionsformel) Es seien U1, U2 % P(V ) projektive Un-terraume. Dann gilt

dim U1 + dim U2 = dim(U1 + U2) + dim(U1 ) U2).

Beweis. Es sei Ui = P(!Ui), i = 1, 2. Dann gilt

dim U1 + dim U2 = dim !U1 ! 1 + dim !U2 ! 1

= dim(!U1 + !U2)! 1 + dim(!U1 ) !U2)! 1

= dim(U1 + U2) + dim(U1 ) U2).

!

16 Projektive Raume 104

Beispiel 16.4 Wir betrachten die projektive Ebene P2(K). Es seien L1, L2 %P2(K) zwei projektive Geraden. Dann gilt

dim(L1 ) L2) = dim L1 + dim L2 ! dim(L1 + L2) , 2! 2 = 0.

Daraus folgt L1 ) L2 $= ", d.h. in einer projektiven Ebene schneiden sich jezwei Geraden stets. Sind L1 und L2 verschieden, so ist der Durchschnitt genauein Punkt. Liegt dieser Punkt in H#, so sind L1 = L1 )A und L2 := L2 )Azwei parallele a!ne Geraden.

Nun wollen wir auch Abbildungen von projektiven Raumen betrachten.Es seien V, W endlich dimensionale K-Vektorraume und P(V ), P(W ) die zu-gehorigen projektiven Raume. Es sei F : V & W eine injektive lineareAbbildung. Dann gilt fur v # V , v $= 0,

F (Kv) = KF (v) $= {0}.

Daher induziert F eine injektive Abbildung

F : P(V ) !& P(W )Kv '!& KFv

.

Definition Eine Abbildung

f : P(V ) & P(W )

heißt projektiv, falls es eine injektive lineare Abbildung F : V & W gibt mitF = f . Eine bijektive projektive Abbildung heißt Projektivitat.

Beispiel 16.5 Fur m , n haben wir eine kanonische Einbettung

J : Pn(K) !& Pm(K)(x0 : . . . : xn) '!& (x0 : . . . : xn : 0 : . . . : 0)

.

Sie entsteht aus der linearen Abbildung

J : Kn+1 !& Km+1

(x0, . . . , xn) '!& (x0, . . . , xn, 0, . . . , 0).

Lemma 16.5 Fur zwei injektive lineare Abbildungen F, F ! : V & W giltF = F

!genau dann, wenn es ein ! # K" gibt mit F ! = !F .

Beweis. Ist F ! = !F , so gilt o"ensichtlich F!= F . Es bleibt die Umkehrung

zu zeigen: Ist F = F!, so gibt es zu jedem v # V ein !v # K" mit F !(v) =

!vF (v). Es ist zu zeigen, dass man zu jedem v das gleiche !v wahlen kann.

16 Projektive Raume 105

Fur dim V - 1 ist das klar. Andernfalls gibt es linear unabhangige v, w # V .Dann gibt es !v, !w, !v+w # K" mit

F !(v) = !vF (v), F !(w) = !wF (w), F !(v + w) = !v+wF (v + w).

Aus der Linearitat von F und F ! folgt

(!v ! !v+w)F (v) + (!w ! !v+w)F (w) = 0.

Da F injektiv ist, sind auch F (v), F (w) linear unabhangig. Also folgt

!v = !v+w = !w.

!

Um projektive Abbildungen durch Matrizen zu beschreiben, fuhren wirKoordinatensysteme ein. Es sei dim V = n + 1, also dim P(V ) = n.

Definition Die Punkte P0, . . . , Pk # P(V ) heißen projektiv unabhangig, falls

dim(P0 + . . . + Pk) = k

gilt.

Bemerkung 16.6 Es sei Pi = Kvi, i = 0, . . . , k. Dann gilt

P0, . . . , Pk projektiv unabhangig * v0, . . . , vk linear unabhangig.

Definition Ein (n + 2)-Tupel (P0, . . . , Pn+1) von Punkten aus P(V ) heißtprojektive Basis, falls je n + 1 Punkte davon projektiv unabhangig sind.

Lemma 16.6 Es sei (P0, . . . , Pn+1) eine projektive Basis. Dann gibt es eineBasis {v0, . . . , vn} von V mit

(i) Pi = Kvi (i = 1, . . . , n).

(ii) Pn+1 = K(v0 + · · · + vn).

Die Basis {v0, . . . , vn} ist bis auf einen Skalar eindeutig bestimmt.

Beweis. Da P0, . . . , Pn projektiv unabhangig sind, gibt es eine Basis {w0, . . . , wn}von V mit

P0 = Kw0, . . . , Pn = Kwn.

Weiter gibt es !0, . . . ,!n # K mit

Pn+1 = K(!0w0 + · · · + !nwn).

16 Projektive Raume 106

Ware !0 = 0, so waren P1, . . . , Pn+1 nicht projektiv unabhangig. Also ist!0 $= 0 und analog !1 $= 0, . . . ,!n $= 0. Daher ist durch

v0 := !0w0, . . . , vn := !nwn

die gesuchte Basis gegeben. !

Es sei nun (P0, . . . , Pn+1) eine projektive Basis und B = {v0, . . . , vn}eine zugehorige Basis, die bis auf einen Skalar eindeutig bestimmt ist. Es seiP = Kv # P(V ). Dann ist v auch bis auf einen Skalar eindeutig festgelegt.Wir ordnen dem Punkt P den Koordinatenvektor (x0, . . . , xn) von v bezuglichder Basis B zu. Er ist damit bis auf einen Skalar festgelegt.

Definition Das Element (x0 : . . . : xn) # Pn(K) heißt der homogene Koor-dinatenvektor des Punktes P bezuglich der projektiven Basis (P0, . . . , Pn).

Notation Wir schreiben P = (x0 : . . . : xn). Damit gilt:

P0 = (1 : 0 : . . . : 0 : 0)...

......

Pn = (0 : 0 : . . . : 0 : 1)

Pn+1 = (1 : 1 : . . . : 1 : 1).

Durch die Einfuhrung von Koordinaten reduziert sich das Studium derProjektivitaten beliebiger projektiver Raume auf das Studium von Projekti-vitaten des Pn(K). Es sei

f : Pn(K) & Pn(K)

eine Projektivitat. Dann gibt es einen Isomorphismus

F : Kn+1 & Kn+1 mit F = f.

Die lineare Abbildung F wird durch eine Matrix A # GL(n + 1; K) gegeben,wobei F und somit auch A bis auf einen Skalar ! $= 0 festgelegt sind.

Wir untersuchen nun den Zusammenhang zwischen A!nitaten und Pro-jektivitaten. Es sei

fa : Kn & Kn, #x '& A#x +#b (A # GL(n; K)),

eine A!nitat. Dann betrachten wir die kanonische Einbettung

" : Kn !& Pn(K)(x1, . . . , xn) '!& (1 : x1 : . . . : xn)

16 Projektive Raume 107

von Kn in den Pn(K). Setzen wir

A =

'

((()

1 0 · · · 0b1...bn

A

*

+++,,

so ist durch '

()x0...

xn

*

+, '& A

'

()x0...

xn

*

+,

eine bijektive lineare Abbildung Fa : Kn+1 & Kn+1 bestimmt, die eine Pro-jektivitat F a : Pn(K) & Pn(K) induziert. Es gilt F a(H#) = H#. Damithaben wir eine Motivation fur die Konstruktion in § 10 nachgeliefert.

Es sei nun umgekehrt f : Pn(K) & Pn(K) eine Projektivitat mit f(H#) =H#. Eine zugehorige lineare Abbildung F : Kn+1 & Kn+1 sei gegeben durchdie Matrix A # GL(n + 1; K) mit

A =

'

((()

a00 a01 · · · a0n

a10 a11 · · · a1n...

.... . .

...an0 an1 · · · ann

*

+++,.

Wegen f(H#) = H# muss gelten

A =

'

((()

a00 0 · · · 0a10 a11 · · · a1n...

.... . .

...an0 an1 · · · ann

*

+++,.

Wegen A # GL(n+1; K) ist a00 $= 0. Da A nur bis auf einen Skalar eindeutigfestgelegt ist, kann man annehmen dass

A =

'

((()

1 0 · · · 0a10...

an0

A

*

+++,

fur eine Matrix A # GL(n; K). Es gilt daher'

((()

1 0 · · · 0a10...

an0

A

*

+++,

'

((()

1x1...

xn

*

+++,=

'

((()

1x!1...

x!n

*

+++,.

16 Projektive Raume 108

Das bedeutet, dass fa := f |Kn : Kn & Kn eine A!nitat ist, die durch

fa

'

()x1...

xn

*

+, = A

'

()x1...

xn

*

+, +

'

()a10...

an0

*

+,

gegeben wird.Wir haben damit bewiesen:

Satz 16.1 Ist fa : Kn & Kn eine A!nitat, so gibt es eine Projektivitatf : Pn(K) & Pn(K) mit f |Kn = fa und f(H#) = H#.

Ist umgekehrt f : Pn(K) & Pn(K) eine Projektivitat mit f(H#) = H#,dann ist fa := f |Kn : Kn & Kn eine A!nitat.