Mengen Und Abbildungen
Mengen Und Abbildungen
Ein solches Objekt x heißt Element der Menge M (Schreibweise: x ∈ M ; ist x nicht
Element von M , so schreiben wir x 6∈ M ).
A × B := {(a, b) : a ∈ A, b ∈ B} ,
also die Menge der geordneten Paare von Elementen aus A und B, das Produkt oder
die Produktmenge von A und B.
Man beachte, dass A × B nicht mit B × A übereinstimmt, da (a, b) = (ã, b̃) genau dann
gilt, wenn a = ã und b = b̃.
1 MENGEN UND ABBILDUNGEN 2
1. A1 ∪ A2 = A2 ∪ A1 ,
A1 ∩ A2 = A2 ∩ A1 .
2. A1 ∪ (A2 ∪ A3 ) = (A1 ∪ A2 ) ∪ A3 ,
A1 ∩ (A2 ∩ A3 ) = (A1 ∩ A2 ) ∩ A3 .
Beweis.
1. und 2. folgen sofort aus Definition 1.2. Wir beweisen die erste Aussage von 3.
“⊂”: Dazu sei
x ∈ A1 ∩ (A2 ∪ A3 ) .
Satz 1.5 (Regeln von de Morgan) Es seien A1 , A2 Mengen, und es sei B eine
Menge mit A1 ⊂ B und A2 ⊂ B. Dann gilt
Beweis.
1. “⊂”: Es sei x ∈ CB (A1 ∪A2 ). Dann ist x ∈ B und x 6∈ A1 ∪A2 , also x ∈ B und x 6∈ A1
sowie x 6∈ A2 . Damit ist x ∈ CB (A1 ) und x ∈ CB (A2 ), d. h. x ∈ CB (A1 ) ∩ CB (A2 ).
1 MENGEN UND ABBILDUNGEN 3
“⊃”: Es sei x ∈ CB (A1 ) ∩ CB (A2 ). Dann ist x ∈ CB (A1 ) und x ∈ CB (A2 ). Also ist
x ∈ B und x 6∈ A1 sowie x 6∈ A2 . Dann ist x ∈ B und x 6∈ A1 ∪A2 , also x ∈ CB (A1 ∩A2 ).
2. [Ü]. 2
Definition 1.6 Es seien X und Y Mengen. Eine Teilmenge R von X×Y heißt Relation
(zwischen X und Y ). Ist speziell X = Y , so heißt R Relation in X. Eine Relation R
zwischen X und Y heißt Abbildung (von X nach Y ) bzw. Funktion (von X nach Y )
falls gilt:
Bemerkung und Definition 1.7 Ist R eine Abbildung von X und Y , so ist jedem
Wert x ∈ X genau ein Wert f (x) mit (x, f (x)) ∈ R zugeordnet. Wir identifizieren R
dann auch mit dieser Zuordnungsvorschrift f und schreiben f : X → Y oder x 7→ f (x).
Weiter heißt X der Definitionsbereich (von f ) und
f −1 (B) := {x ∈ X : f (x) ∈ B}
Beweis.
1. “⊂”: Es sei y ∈ f (A1 ∪ A2 ). Dann existiert ein x ∈ A1 ∪ A2 mit f (x) = y. Ist x ∈ A1 ,
so ist y = f (x) ∈ f (A1 ) ⊂ f (A1 ) ∪ f (A2 ). Entsprechend ist y ∈ f (A2 ) ⊂ f (A1 ) ∪ f (A2 )
im Falle x ∈ A2 .
“⊃”: Nach Definition gilt f (A1 ) ⊂ f (A1 ∪ A2 ) und f (A2 ) ⊂ f (A1 ∪ A2 ) also f (A1 ) ∪
f (A2 ) ⊂ f (A1 ∪ A2 ).
4. [Ü] 2
und
f˜(x) := x (x ∈ N0 ) ,
Beispiel 1.11 Es seien f und f˜ wie im B 1.9 Dann ist f weder surjektiv noch injektiv
(es gilt f −1 ({(n}) = {n, −n} für alle n ∈ N); f˜ ist bijektiv.
h ◦ (g ◦ f ) = (h ◦ g) ◦ f .
Beweis.
Es gilt h ◦ (g ◦ f ) : X → U und (h ◦ g) ◦ f : X → U . Weiter gilt für x ∈ X
Definition 1.14 Es sei I 6= ∅ eine Menge, und es seien Aα Mengen für alle α ∈ I. (I
nennt man dann “Indexmenge”.) Dann heißt
[
Aα := {x : x ∈ Aα für ein α ∈ I}
α∈I
und
n
\ \
A1 ∩ . . . ∩ An = Aj := Aj .
j=1 j∈{1,... ,n}
Oft betrachtet man auch Vereinigungen und Durchschnitte von Mengensystemen, die
nicht indiziert sind: Ist F ein System von Mengen (d. h. eine Menge von Mengen), so
setzt man
[ [
A := {A : A ∈ F} := {x : x ∈ A für ein A ∈ F}
A∈F
und
\ \
A := {A : A ∈ F} := {x : x ∈ A für alle A ∈ F} .
A∈F
An := {k/n : k ∈ Z} (n ∈ N) .
Dann ist
[ [
An = {k/n : k ∈ Z} = Q
n∈N n∈N
Definition 1.16 Es sei I eine Menge und es seien Aα Mengen für alle α ∈ I. Dann
heißt
Y [
Aα := {f : I → Aα : f (α) ∈ Aα für alle α ∈ I}
α∈I α∈I
Q
Produkt der Mengen Aα . Ist f ∈ Aα , so schreiben wir auch fα := f (α) und (fα )α∈I
α∈I
für f . Gilt Aα = A für alle α ∈ I, so setzt man AI :=
Q
A.
α∈I
2 GRUPPEN UND KÖRPER 7
und
n
Y Y
A1 × . . . × An := Aj := Aj
j=1 j∈{1,... ,n}
= {(a1 , . . . , an ) : aj ∈ Aj für j = 1, . . . , n} .
n
Q
Ein (a1 , . . . , an ) ∈ Aj heißt n-Tupel.
j=1
Ist Aj = A für j = 1, . . . , n, so setzen wir
n
Y
n {1,... ,n}
A := A = A.
j=1
f −1 (y) := x (y ∈ W (f ))
idX (x) := x (x ∈ X) ,
die sog. identische Abbildung auf X bezeichnet. Genauso gilt f ◦ f −1 = idW (f ) . Außer-
dem ist f −1 : W (f ) → X bijektiv.
(G.1) (Assoziativgesetz):
Für alle a, b, c ∈ G ist
a ◦ (b ◦ c) = (a ◦ b) ◦ c .
a◦e=a (a ∈ G) .
a◦b=e.
Ferner heißt (G, ◦) abelsche (oder kommutative) Gruppe, falls zudem gilt
a◦b=b◦a.
1. Es existiert nur ein e ∈ G mit a ◦ e = a für alle a ∈ G und dieses erfüllt dann
auch e ◦ a = a für alle a ∈ G.
a−1 := b .
Beweis.
α) Wir zeigen zunächst die letzte Aussage. Dazu sei a ∈ G gegeben. Weiter sei b ein
nach (G.3) existierendes rechtsinverses Element zu a (bzgl. e).
Dann gilt
b ◦ (a ◦ b) = b ◦ e = b .
δ) Es sei nun b̃ ∈ G ein weiteres rechtsinverses Element zu a (neben b aus Aussage 2.).
Dann gilt a ◦ b̃ = e und damit
G.2 G.1 α) β)
b = b ◦ e = b ◦ (a ◦ b̃) = (b ◦ a) ◦ b̃ = e ◦ b̃ = b̃ ,
d. h. b = b̃ 2.
S(M ) := {f : M → M, f bijektiv}
(Denn: Mit f, g ∈ S(M ) ist auch f ◦ g ∈ S(M ) ([Ü]); Axiom (G.1) folgt aus Satz
1.13; das neutrale Element e ist offenbar e = idM und (G.3) folgt aus B/D 1.18, da
W (f ) = M für alle f ∈ S(M )).
Die Funktionen f ∈ S(M ) heißen Permutationen (von M ) und (S(M ), ◦) heißt Per-
mutationsgruppe (von M ).
Sn := S({1, . . . , n})
symmetrische Gruppe von Grad n. Ein f ∈ Sn schreibt man oft in der Form
!
1 2 3 ... n
f= .
f (1) f (2) f (3) . . . f (n)
Man kann leicht zeigen ([Ü]): S1 , S2 sind abelsch, Sn ist für n ≥ 3 nicht abelsch; für
n = 3 betrachte man etwa
! !
1 2 3 1 2 3
f= und g = .
2 3 1 3 2 1
2 GRUPPEN UND KÖRPER 10
Definition 2.4 Gegeben seien eine Menge K mit mindestens zwei Elementen und
zwei Abbildungen + : K × K → K (+ heißt Addition) und · : K × K → K (· heißt
Multiplikation). Dann heißt (K, +, ·) ein Körper, falls gilt
(A) (K, +) ist eine abelsche Gruppe (wobei das neutrale Element mit 0 bezeichnet
wird).
(M) (K\{0}, ·) ist eine abelsche Gruppe (wobei das neutrale Element mit 1 bezeichnet
wird).
(D) (Distributivgesetze):
Für alle a, b, c ∈ K gilt
a · (b + c) = (a · b) + (a · c) und (a + b) · c = (a · c) + (b · c) .
Ist a ∈ K, so schreiben wir −a für das inverse Element bzgl. +. Außerdem setzen
wir b − a := b + (−a) für a, b ∈ K und b/a := b · a−1 für b ∈ K, a ∈ K \ {0},
wobei a−1 das inverse Element von a bzgl. · bezeichnet.
3. Für alle a, b ∈ K gilt −(ab) = (−a)b = a(−b) (wir schreiben dann: −ab).
Beweis.
1. Es sei a ∈ K. Dann gilt
a0 = a(0 + 0) = a0 + a0
und damit
also a = 0.
3. [Ü] 2
2 GRUPPEN UND KÖRPER 11
+ 0 1 · 0 1
0 0 1 0 0 0
1 1 0 1 0 1
(d. h. 0 + 0 = 1 + 1 = 0, 1 + 0 = 0 + 1 = 1, 0 · 0 = 0 · 1 = 1 · 0 = 0, 1 · 1 = 1).
Dann ist (K, +, ·) ein Körper (der sog. Binärkörper) ([Ü]).
3 DIE DEFINITION LINEARER RÄUME 12
Definition 3.1 Es seien K = (K, +, ·) ein Körper und V 6= ∅ eine Menge. Ferner
seien zwei Abbildungen + : V × V → V (genannt Addition) und · : K × V → V
(genannt Skalarmultiplikation) gegeben. Dann heißt V = (V, +, ·) ein linearer Raum
(über K) bzw. Vektorraum über K bzw. K-Vektorraum, falls gilt:
(AV) (V, +) ist eine abelsche Gruppe. (Das neutrale Element wird dabei wieder mit 0
(oder 0V ) und das inverse Element von x ∈ V wieder mit −x bezeichnet.)
λ · (µ · x) = (λ · µ) · x .
(M2) Ist 1 das neutrale Element von (K \ {0}, ·), so gilt für alle x ∈ V
1·x=x.
λ · (x + y) = λ · x + λ · y .
(λ + µ) · x = λ · x + µ · x .
Die Elemente von V heißen hierbei Vektoren und die Elemente aus K heißen Skalare.
Man beachte, dass Addition und Multiplikation sowohl in K als auch in V mit “+” und
“·” bezeichnet werden, obwohl es sich um verschiedene Operationen handelt! Außerdem
schreiben wir wieder kurz λx statt λ · x.
Wir stellen zunächst einige Rechenregeln zusammen, die sich aus D 3.1 ergeben.
Beweis.
Es seien x ∈ V und λ ∈ K gegeben.
1. Nach (D2) und (D1) gilt
0x + 0x = (0 + 0)x = 0x
und
λ0 + λ0 = λ(0 + 0) = λ0 .
Also folgt
und
2. Es gelte λx = 0. Ist λ = 0, so sind wir fertig. Es sei also λ 6= 0. Dann gilt nach 1.
und (M2), (M1)
1 1 1
x=1·x= λ x = (λx) = · 0 = 0 .
λ λ λ
3. Nach 1. und (D2) bzw. (D1) gilt
0 = 0x = (λ + (−λ))x = λx + (−λ)x
und
x + y = (x1 + y1 , . . . , xn + yn ) = (y1 + x1 , . . . , yn + xn ) = y + x .
Da weiter aus D. 2.1 sofort folgt, dass ein linearer Raum über K auch ein linearer
Raum über K̃ für jeden Körper K̃ ⊂ K ist, ist damit auch Rn linearer Raum über Q
und Cn linearer Raum über R und Q.
Veranschaulichung im Falle R2 :
x = (x1 , x2 ), y = (y1 , y2 ) ∈ R2 , λ ∈ R.
2. Es sei X 6= ∅ eine Menge und K ein Körper. Wir definieren für f, g ∈ K X und
λ∈K
4 Unterräume
Wir betrachten jetzt bestimmte Teilmengen von linearen Räumen.
Definition 4.1 Es sei V ein linearer Raum über K, und es sei U ⊂ V nichtleer. Dann
heißt U (linearer) Unterraum (oder (linearer) Teilraum oder Untervektorraum) von V ,
falls (U, +|U ×U , ·|K×U ) ein linearer Raum ist. Wir schreiben dann wieder + für +|U ×U
und · für ·|K×U .
Satz 4.2 Es seien V ein linearer Raum über K und U ⊂ V nichtleer. Dann gilt: U
ist Unterraum von V genau dann, wenn die folgenden Bedingungen erfüllt sind:
Beweis.
Die Bedingungen a) und b) bedeuten gerade, dass +|U ×U : U × U → U und ·|K×U :
K × U → U gilt, d. h. Addition und Skalarmultiplikation führen nicht aus U heraus.
1. ⇒“ : Ist U ⊂ V ein Unterraum, so gelten a) und b) nach D.4.1 und D.3.1.
”
2. ⇐“ : Nach D.3.1 gelten (G 1) und (G 4) für die Addition sowie (M 1), (M 2) und
”
(D 1), (D 2) auch in U . Es bleiben noch (G 2) und (G 3) aus (AV) zu zeigen.
Ist y ∈ U , so gilt 0 = 0 · y ∈ U nach S.3.2.1. und b) , also ist 0 ∈ U neutrales Element
bzgl. +. Ist x ∈ U , so ist −x = −(1x) = (−1)x ∈ U nach S.3.2.3. und b). Klar ist
dann x + (−x) = 0, also existiert zu x ein inverses Element bzgl. +. 2
Beispiel 4.3 1. Ist V ein beliebiger linearer Raum über K, so sind U = V und
U = {0} Unterräume von V . Der Raum {0} heißt Nullraum (von V ).
2. Es sei V = Rn und a = (a1 , . . . , an ) ∈ Rn fest. Dann ist
n
X
Ua := {(x1 , . . . , xn ) ∈ Rn : ak xk = 0}
k=1
und
n
X n
X
ak (λxj ) = λ ak xk = λ0 = 0 .
k=1 k=1
Eine solche Funktion heißt Polynomfunktion (in R) oder kurz Polynom (in R). Weiter
setzen wir
Π := ΠR := {Polynome in R} .
Π := ΠC := {Polynome in C}
Satz 4.4 Ist F 6= ∅ ein System von Unterräumen eines linearen Raumes V über K,
T
so ist U := W ein Unterraum von V .
W ∈F
4 UNTERRÄUME 18
Beweis.
Zunächst ist 0 ∈ W für alle W ∈ F, also 0 ∈ U . Es seien x, y ∈ U und λ ∈ K gegeben.
Dann gilt x, y ∈ W für alle W ∈ F, also nach S.4.2 auch x + y ∈ W und λx ∈ W für
alle W ∈ F. Dies bedeutet wiederum x + y ∈ U und λx ∈ U . Nach S.4.2 ist U ein
Unterraum von V . 2
Der Satz besagt, dass jeder Durchschnitt von Unterräumen wieder ein Unterraum ist.
Wie man leicht sieht, ist i. a. die Vereinigung von Unterräumen kein Unterraum. Wir
werden nun einer beliebigen Teilmenge M ⊂ V einen “kleinsten” Unterraum zuordnen,
der M enthält.
Definition 4.5 Es sei M eine Teilmenge eines linearen Raumes V über K. Dann heißt
mit F := FM := {U : U Unterraum von V, U ⊃ M }
\
< M > (:= span (M ) := lin span (M ) := LH(M )) := U
U ∈F
n
P
Summe der U1 , . . . , Un . Gilt zusätzlich Uj ∩ Uk = {0} für alle j = 1, . . . , n, so heißt
k=1
k6=j
n
M n
X
Uj := Uj
j=1 j=1
Bemerkung 4.6 Da V ⊃ M ein Unterraum von V ist, wird der Durchschnitt in der
D.4.5 stets über eine nichtleere Menge gebildet. Weiter gilt nach S.4.4, dass < M > ein
n
P Ln
Unterraum von V ist. Damit sind auch Uj und Uj Unterräume von V . Ausser-
j=1 j=1
dem folgt aus der Definition sofort, dass für jeden Unterraum Ũ ⊃ M gilt Ũ ⊃< M >
(d. h. < M > ist der “kleinste” Unterraum, der M enthält). Schließlich sei bemerkt,
dass U1 + U2 = U1 ⊕ U2 genau dann gilt, wenn U1 ∩ U2 = {0} ist.
n
P
Unser Ziel ist es nun, eine “explizitere” Darstellung für < M > bzw. Uj zu finden.
j=1
4 UNTERRÄUME 19
Pn Ln
Weiter gilt: die Summe ist direkt, d. h. Uj = Uj , genau dann, wenn diese
j=1 j=1
Darstellung für jedes x ∈ nj=1 Uj eindeutig ist (d. h. sind ũj ∈ Uj (j = 1, . . . , n) mit
P
Pn
x= ũj , so gilt uj = ũj für j = 1, . . . , n).
j=1
Beweis.
1. Es sei
Xn
U := { λj xj : x1 , . . . , xn ∈ M, λ1 , . . . , λn ∈ K, n ∈ N} .
j=1
Also gilt
n
X m
X m
X
x+y = λj xj + λj xj = λj xj ∈ U
j=1 j=n+1 j=1
und
n
X n
X
λx = λ λj xj = (λλj )xj ∈ U .
j=1 j=1
Also gilt
n
X
x+y = (uj + vj ) ∈ U
j=1
(da λuj ∈ Uj für j = 1, . . . , n). Nach S.4.2 ist U ein Unterraum von V .
“⊃”: Wir zeigen nj=1 Uj ⊃ U .
P
Pn
Dazu sei x ∈ U . Dann gilt x = j=1 uj für gewisse uj ∈ Uj (j = 1, . . . , n). Da
n
S Sn Pn Pn
{u1 , . . . , un } ⊂ Uj ⊂< Uj >= Uj gilt, und da Uj ein Unterraum von V
j=1 j=1 j=1 j=1
n
P n
P
ist, gilt auch uj ∈ Uj .
j=1 j=1
4 UNTERRÄUME 21
Pn Pn
3. ⇒“:Es sei x = uj = ũj , wobei uj , ũj ∈ Uj für j = 1, . . . , n. Dann gilt
” j=1 j=1
n
X
0= (uj − ũj ) .
j=1
also ist ũj − uj = 0 nach D.4.5, d. h. uj = ũj . Da j ∈ {1, . . . , n} beliebig war, folgt die
Behauptung.
⇐“:[Ü]. 2
”
Bemerkung 4.9 Ein besonderer einfacher und wichtiger Spezialfall ist gegeben durch
M = {x1 , . . . , xn } ⊂ V (d. h. M ist endlich). Dann ist
n
X
< x1 , . . . , xn >:= < {x1 , . . . , xn } >= { λj xj : λj ∈ K für j = 1, . . . , n} .
j=1
Dann gilt
Weiter ist
U1 + U2 =< U1 ∪ U2 >= R2 = U1 + U3 = U2 + U3
U1 ⊕ U2 = U1 ⊕ U3 = U2 ⊕ U3 = R2
R2 = U2 + U2 + U3 ,
Π = Π g ⊕ Πu ,
wobei
n
X
Πg := { aν z 2ν : aν ∈ C, ν = 1, . . . , n ; n ∈ N}
ν=0
und
Xm
Πu := { bν z 2ν+1 : bν ∈ C, ν = 1, . . . , m ; m ∈ N} .
ν=0
Πg ist die Menge der “geraden” und Πu die Menge der “ungeraden” Polynome.
(Denn: Man sieht leicht, dass Πg und Πu Unterräume sind, und dass Πg + Πu = Π
gilt. Es sei P ∈ Πu ∩ Πg . Dann gilt mit gewissen aν ∈ C für ν = 0, . . . , n und bν ∈ C
für ν = 0, . . . , m
n
X m
X
P (z) = aν z 2ν = bν z 2ν+1 .
ν=0 ν=0
und
m
X m
X
P (z) = bν z 2ν+1 = − aν (−1)2ν+1 z 2ν+1 = −P (−z)
ν=0 ν=0
< xα : α ∈ I >= V
K n =< e1 , . . . , en >
N := max{m1 , . . . , mn } (∈ N0 ) .
N
aν z ν−N −1 und für |z| > max{1, N · max |aν |} ergibt sich
P
Für z 6= 0 folgt 1 =
ν=0 0≤ν≤N
N N N
X
N +1−ν
X 1 X
1=| aν /z |≤ |aν | ≤ |aν |/|z| < 1 ,
|z|N +1−ν
0 0 0
Bemerkung 5.2 1. Aus D.5.1 ergibt sich sofort, dass x1 , . . . , xn ∈ V linear un-
abhängig genau dann sind, wenn gilt: Sind λ1 , . . . , λn ∈ K mit
n
X
λj xj = 0 ,
j=0
so ist λ1 = . . . = λn = 0.
2. Ein Element x ∈ V ist linear unabhängig genau dann, wenn x 6= 0 ist.
3. Ist n ≥ 2, so sind x1 , . . . , xn ∈ V genau dann linear abhängig, wenn ein j0 ∈
{1, . . . , n} und µj ∈ K (j ∈ {1, . . . , n} \ {j0 }) existieren mit
n
X
xj0 = µj xj .
j=1
j6=j0
n
X λj
xj0 = − xj .
j=1
λj0
j6=j0
n
P
“⇐”: Ist umgekehrt xj0 = µj xj für ein j0 ∈ {1, . . . , n} und µj ∈ K (j ∈
j=1
j6=j0
En (z) = z n (z ∈ C) .
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 25
Satz 5.4 Es sei V ein linearer Raum über K und es seien x1 , . . . , xn ∈ V . Dann sind
aquivalent:
a) x1 , . . . , xn sind linear unabhängig.
b) Zu jedem x ∈< x1 , . . . , xn > existieren eindeutig bestimmte λ1 , . . . , λn ∈ K (d. h.
es existiert genau ein (λ1 , . . . , λn ) ∈ K n ) mit
n
X
x= λj xj .
j=1
Beweis.
1. a) ⇒ b): Es sei x ∈< x1 , . . . , xn >. Dann existieren λ1 , . . . , λn ∈ K mit
n
X
x= λj xj .
j=1
n
P
Es sei x = µj xj mit µ1 , . . . , µn ∈ K. Dann ist
j=1
n
X
0= (λj − µj )xj .
j=1
im Widerspruch zu b). 2
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 26
Definition 5.5 Es sei V ein linearer Raum über K. Eine Familie (xα )α∈I in V heißt
(algebraische) Basis von V , falls (xα )α∈I ein linear unabhängiges Erzeugendensystem
von V ist. Für V = {0} bezeichnen wir ∅ als Basis
Beispiel 5.7 Es sei V = K n , wobei K ein Körper ist (vgl. B.4.12). Dann ist (e1 , . . . , en )
eine Basis von K n (B.4.12 und B.5.3). Diese Basis nennen wir im folgenden Standard-
basis oder kanonische Basis von K n .
Dieses “Standardbeispiel” zeigt, dass in K n eine Basis aus n Elementen existiert. Wir
wollen uns nun allgemeiner folgenden Fragen zuwenden:
Satz 5.8 (Basisauswahlsatz) Es seien V 6= {0} ein linearer Raum über K und
(x1 , . . . , xm ) ein endliches Erzeugendensystem von V . Dann existiert eine Teilfamilie
von (x1 , . . . , xm ), die eine Basis von V ist.
Beweis.
Wir setzen
X λj
xj0 = − xj ∈< x1 , . . . , xj0−1 >
j∈J
λj0
j<j0
Satz 5.9 Es sei V ein endlich-dimensionaler linearer Raum über K. Dann existiert
eine (endliche) Basis von V .
Beweis.
Da V (ohne Einschränkung 6= {0}) endlich-dimensional ist, existiert ein endliches Er-
zeugendensystem von V . Nach S.5.8 existiert damit auch eine endliche Basis von V . 2
Die Aussage von S.5.9 bleibt auch für beliebige lineare Räume richtig. Der Beweis
basiert auf einer Anwendung des Auswahlaxioms, worauf wir nicht weiter eingehen
wollen.
Wir wenden uns der zweiten der oben angesprochenen Fragen zu. Dazu beweisen wir
zunächst folgendes Hilfsresultat.
Satz 5.10 Es sei V ein linearer Raum über K, und es sei (x1 , . . . , xn ) eine Ba-
n
P
sis von V . Ist x = λj xj ∈ V mit λk 6= 0 für ein k ∈ {1, . . . , n}, so ist auch
j=1
(x1 , . . . , xk−1 , x, xk+1 , . . . , xn ) eine Basis von V .
Beweis.
1. Wir zeigen: Für M := {x1 , . . . , xn , x} \ {xk } gilt < M >= V . Dazu sei y ∈ V
n
P
gegeben. Dann existieren µ1 , . . . , µn ∈ K mit y = µj xj . Wegen λk 6= 0 ist xk =
j=1
n
1 P λj
λk x − λk xj und daher
j=1
j6=k
n X µk λjn n
X µk X
y = µj xj = x− xj + µj xj
λk λk
j=1 j=1 j=1
j6=k j6=k
n
µk X µk λj
= x− (µj − )xj ,
λk j=1
λk
j6=k
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 28
n
P
Dann gilt mit x = λj xj
j=1
X
µk λk xk + (µk λj + µj )xj = 0 .
j6=k
Satz 5.11 (Steinitz’scher Austauschsatz) Es sei V 6= {0} ein linearer Raum über
K, und es sei (x1 , . . . , xn ) eine Basis von V . Ferner sei (y1 , . . . , ym ) linear unabhängig
in V . Dann ist m ≤ n, und es existieren n − m Elemente aus {x1 , . . . , xn }, die zusam-
men mit y1 , . . . , ym eine Basis bilden, d. h. es existieren j1 , . . . , jn−m ∈ {1, . . . , n}
so, dass (y1 , . . . , ym , xj1 , . . . xjn−m ) eine Basis von V ist, oder es ist n = m und
(y1 , . . . , ym ) ist eine Basis von V .
Beweis.
Wir zeigen folgende Aussage Am für alle m ∈ N.
(Am ): Existiert eine linear unabhängige Familie (y1 , . . . , ym ) in V , so ist m ≤ n.
Außerdem existieren im Falle m < n zu jeder solchen Familie j1 , . . . , jn−m ∈ {1, . . . , n}
so, dass (y1 , . . . , ym , xj1 , . . . , xjn−m ) eine Basis von V bildet, und im Falle m = n ist
(y1 , . . . , ym ) eine Basis von V .
Pn
1. Induktionsanfang: Für m = 1 ist natürlich m ≤ n. Ist y 6= 0, so gilt y = λj xj
j=1
mit λk 6= 0 für ein k ∈ {1, . . . , n}. Dann ist (y, x1 , . . . , xk−1 , xk+1 , . . . , xn ) nach S.5.10
eine Basis von V .
2. Induktionsschritt von m auf m + 1: (Am ) gelte für ein m ∈ N. Zu zeigen ist: (Am+1 )
gilt.
Existiert keine Familie (y1 , . . . , ym+1 ) in V , die linear unabhängig ist, so ist nichts zu
zeigen. Es sei also (y1 , . . . , ym+1 ) in V linear unabhängig. Dann ist auch (y1 , . . . , ym )
in V linear unabhängig. Nach Induktionsvoraussetzung ist m ≤ n. Angenommen, es ist
m = n. Dann ist (y1 , . . . , ym ) eine Basis von V und damit ist ym+1 ∈< y1 , . . . , ym >
im Widerspruch zur linearen Unabhängigkeit von (y1 , . . . , ym+1 ). Also ist m < n, d.
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 29
eine Basis von V der gesuchten Form (Man beachte, dass die Basis n − m − 1 =
n − (m + 1) Elemente aus {x1 , . . . , xn } enthält.) 2
Beispiel 5.12 Es sei V = R3 , und es sei (x1 , x2 , x3 ) = (e1 , e2 , e3 ) die kanonische Basis
in V . Ferner seien
1 1
y1 = 2 ,
y2 = 0
.
1 1
Dann sind y1 , y2 linear unabhängig in V . Nach S.5.11 existiert ein j ∈ {1, 2, 3}, so dass
(y1 , y2 , xj ) eine Basis von V ist. Es gilt hier: (y1 , y2 , x1 ) und (y1 , y2 , x3 ) sind Basen von
V , aber (y1 , y2 , x2 ) ist keine Basis von V .
Bemerkung und Definition 5.13 Es sei V ein linearer Raum über K. Ist V endlich-
dimensional, so hat jede Basis die gleiche Anzahl n von Elementen.
(Denn: Ist V = {0}, so ist ∅ die einzige Basis von V . Es sei also V 6= {0}. Nach S.5.9
besitzt V eine endliche Basis (x1 , . . . , xn ). Nun sei (yj )j∈J eine weitere Basis von V .
Dann ist J endlich, denn anderenfalls würden endliche, linear unabhängige Teilfamilien
von (yj )j∈J beliebiger Länge existieren, insbesondere also mit mehr als n Elementen
im Widerspruch zu S.5.11. Also hat wieder nach S.5.11 einerseits (yj )j∈J höchstens n
Elemente und andererseits auch mindestens n Elemente, denn die linear unabhängige
Familie (x1 , . . . , xn ) kann nicht mehr Elemente haben als die Basis (yj )j∈J ).
Die Zahl
dim(V ) := n
Beispiel 5.14 1. Es sei V = K n wie in B.4.12. Dann ist nach B.5.7 dim(V ) = n.
2. Es sei V = C. Dann ist C ein linearer Raum über C und ein linearer Raum über R.
Nach 1. ist C über C 1-dimensional. Wie man leicht sieht ist (1, i) eine Basis von C
als linearem Raum über R. Also ist C über R 2-dimensional.
Satz 5.15 Es sei V ein n-dimensionaler linearer Raum über K, und es seien x1 , . . . , xn ∈
V . Dann sind folgende Aussagen äquivalent:
a) (x1 , . . . , xn ) ist eine Basis von V .
b) (x1 , . . . , xn ) ist ein Erzeugendensystem von V .
c) (x1 , . . . , xn ) ist linear unabhängig.
Beweis.
1. a) ⇒ b) und a) ⇒ c) sind klar.
2. b) ⇒ a): Nach dem Basisauswahlsatz (S.5.8) existiert ein J ⊂ {1, . . . , n} so, dass
(xj )j∈J eine Basis von V ist. Dann ist nach S.5.13 |J| = n, also J = {1, . . . , n}.
3. c) ⇒ a): Es existiert eine Basis aus n Elementen . Nach dem Austauschsatz (S.5.11)
folgt aus c), dass (x1 , . . . , xn ) eine Basis von V ist. 2
Beweis.
Es existiert eine Basis (x1 , . . . , xn ) von V . Also ist nach S.5.11 m ≤ n, und es existiert
eine Basis von V , die (y1 , . . . , ym ) enthält. 2
Satz 5.17 Es sei V ein endlich-dimensionaler linearer Raum über K, und es sei U ⊂
V ein Unterraum. Dann gilt
1. U ist endlich-dimensional mit dim(U ) ≤ dim(V ).
2. Ist dim(U ) = dim(V ), so ist U = V .
Beweis.
1. Angenommen, U ist unendlich-dimensional. Dann existiert eine Folge (xj )j∈N in U
mit x1 6= 0 und xj 6∈< x1 , . . . , xj−1 > für j ≥ 2.
(Denn: Es ist U 6= {0}, also existiert ein x1 ∈ U \ {0}. Sind x1 , . . . , xj−1 wie oben
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 31
konstruiert, so existiert, da < x1 , . . . , xj−1 >6= U ist, ein xj ∈ U \ < x1 , . . . , xj−1 >.
Induktiv ergibt sich (xj )j∈N .)
Wie im Beweisschritt 2. zu S.5.8 sieht man, dass (x1 , . . . , xj ) für alle j ∈ N linear
unabhängig in U , also auch in V , ist. Dies widerspricht S.5.11, nachdem jede linear
unabhängige Familie in V höchstens dim(V ) Elemente enthält.
Ist (x1 , . . . , xm ) eine Basis von U , so ist (x1 , . . . , xm ) linear unabhängig in U und in
V , d. h. es gilt dim(U ) = m ≤ dim(V ) nach S.5.11.
2. Ist dim(U ) = dim(V ) = n, so existiert eine Basis (x1 , . . . , xn ) von U . Also ist wieder
(x1 , . . . , xn ) linear unabhängig in U und in V . Nach S.5.15 ist (x1 , . . . , xn ) eine Basis
von V , also V =< x1 , . . . , xn >= U . 2
Beweis.
Es sei k := dim(U ), ` := dim(W ). Nach S.4.4 ist U ∩ W ein Unterraum von V mit
m := dim(U ∩ W ) ≤ min(k, `) nach S.5.17. Es sei B = (x1 , . . . , xm ) (bzw. B = ∅) eine
Basis von U ∩ W . Diese sei gemäß S.5.16 durch Vektoren um+1 , . . . , uk ∈ U zu einer
Basis von U (falls k > m) und durch wm+1 , . . . , w` ∈ W (falls ` > m) zu einer Basis
von W ergänzt.
Es genügt zu zeigen: M := (x1 , . . . , xm , um+1 , . . . , uk , wm+1 , . . . , w` ) ist linear un-
abhängig in U + W .
(Denn dann ist M auch eine Basis von U + W nach Konstruktion, und damit ist
dim(U + W ) = m + (k − m) + (` − m) = k + ` − m wie behauptet.)
P
Es sei also (mit := 0)
∅
m
X k
X X̀
0= αj xj + βj uj + γj wj (∗)
j=1 j=m+1 j=m+1
mit gewissen α̃j ∈ K. Da (x1 , . . . , xm , um+1 , . . . , uk ) eine Basis von U ist folgt nach
B.5.6 βj = 0 (j = m+1, . . . , k) (und α̃j = αj (j = 1, . . . , m)). Die lineare Unabhängig-
keit von (x1 , . . . , xm , wm+1 , . . . , w` ) liefert mit (∗) wiederum αj = 0 (j = 1, . . . , m)
und γj = 0 (j = m + 1, . . . , `). 2
Folgerung 5.19 Unter den Voraussetzungen von S.5.18 ergibt sich sofort: Es ist U +
W = U ⊕ W genau dann, wenn
(Denn: Ist U + W direkt, so ist U ∩ W = {0}, also dim(U ∩ W ) = 0. Ist umgekehrt die
Formel richtig, so ist dim(U ∩ W ) = 0, also U ∩ W = {0} und damit U + W = U ⊕ W ).
Weiter ergibt sich induktiv: Sind U1 , . . . , Um Unterräume von V , so gilt
U1 + · · · + Um = U1 ⊕ · · · ⊕ Um
Xm m
X
dim Uj = dim(Uj )
j=1 j=1
Beweis. [Ü]
Satz 5.20 Es sei V ein endlich-dimensionaler linearer Raum über K, und es sei U ⊂
V ein Unterraum. Dann existiert ein Unterraum W ⊂ V mit
V =U ⊕W .
Beweis.
Ohne Einschränkung sei U 6= V und U 6= {0} (sonst ist W = {0} bzw. W = V
geeignet). U ist als Unterraum von V endlich-dimensional (S.5.17). Ist (u1 , . . . , um )
eine Basis von U , so existiert nach S.5.16 eine Basis (u1 , . . . , um , w1 , . . . , w` ) von V .
Dann gilt für W =< w1 , . . . , w` > die Behauptung. (Denn: Nach Konstruktion ist
U + W = V . Außerdem gilt dim(U + W ) = m + ` = dim(U ) + dim(W ), also U + W =
U ⊕ W) 2
6 LINEARE ABBILDUNGEN 33
6 Lineare Abbildungen
Bisher haben wir uns beschränkt auf die Untersuchung einzelner linearer Räume. “Le-
bendig” und die Theorie erst so richtig dadurch, dass Beziehungen zwischen verschie-
denen Räumen hergestellt werden. Entscheidend sind dabei lineare Abbildungen.
und
T (λv) = λT (v) .
L(V, W ) := {T : V → W linear}
und L(V ) := L(V, V ). Ist speziell W = K, so heißt T ein lineares Funktional (auf V )
und V ∗ := L(V, K) heißt Dualraum von V .
Beispiel 6.3 Es sei K ein Körper, und es sei V = K n . Ferner sei a = (a1 , . . . , an ) ∈
K n.
Wir definieren T : K n → K durch
n
X
T v = T (x1 , . . . , xn ) := ak xk (v = (x1 , . . . , xn ) ∈ K n ) .
k=1
Dann ist T linear, d. h. T ist ein lineares Funktional ([Ü]). Allgemeiner gilt: Sind
A1 , . . . , Am ∈ K n , so ist T : K n → K m , definiert durch
T v := (T1 v, . . . , Tm v) (v ∈ K n )
ebenfalls linear. Dabei ist Tj wie oben mit Aj anstelle von a (j = 1, . . . , m) definiert,
(j) (j)
d. h. ist Aj = (a1 , . . . , an ), so gilt
n
(j)
X
Tj (v) = Tj (x1 , . . . , xn ) := ak xk (v = (x1 , . . . , xn ) ∈ K n ) .
k=1
T (λv) = λT v
für λ ∈ K, v ∈ K n ).
Ist etwa K = R, n = 2, m = 3 sowie A1 = (1, −2), A2 = (3, 0), A3 = (−2, 3) so ist
T : R2 → R3 mit
linear.
(λ · T )(v) := λ(T v) (v ∈ V ) .
T ◦ S ∈ L(U, W ) .
Beweis.
1. S + T ∈ L(V, W ) und λT ∈ L(V, W ): Bedingungen aus D.6.1 prüfen.
(L(V, W ), +, ·) linearer Raum: Vektorraumaxiome überprüfen.
2. Für u1 , u2 ∈ U gilt
Definition 6.5 Es seien V, W lineare Räume über K, und es sei T ∈ L(V, W ). Ist
T : V → W bijektiv, so heißt T Isomorphismus. Existiert ein Isomorphismus T :
V → W , so heißen V und W isomorph. Ein Isomorphismus T : V → V heißt auch
Automorphismus (auf V ). Wir setzen
Sind zwei Räume isomorph, so sind sie bzgl. der linearen Struktur als “gleich” anzu-
sehen.
Satz 6.6 Es seien V, W lineare Räume über K, und es sei T : V → W ein Isomor-
phismus. Dann ist auch T −1 : W → V ein Isomorphismus. Ist U ein weiterer linearer
Raum über K, und ist S : U → V ein Isomorphismus, so ist auch T ◦ S : U → V ein
Isomorphismus. Insbesondere ist also (Aut(V ), ◦) eine Gruppe.
6 LINEARE ABBILDUNGEN 36
Beweis.
1. Nach B/D.1.18 ist T −1 : W → V bijektiv. Es bleibt zu zeigen: T −1 ist linear. Dazu
seien w1 , w2 ∈ W gegeben. Dann existieren v1 , v2 ∈ V mit T (vj ) = wj (j = 1, 2). Also
folgt
Satz 6.7 Es sei V ein n-dimensionaler Vektorraum über K. Dann ist V isomorph zu
K n.
Beweis.
Es sei (v1 , . . . , vn ) eine Basis von V . Wir definieren T : V → K n durch
Xn n
X
T (v) = T λj vj := (λ1 , . . . , λn ) v = λj vj ∈ V
j=1 j=1
n
P
(Beachte: T ist wohldefiniert, da die Darstellung v = λj vj nach B.5.6 eindeutig
j=1
ist!). Dann ist T ∈ L(V, K n )
Pn n
P
Denn: Sind v = λj vj und w = µj vj ∈ V , so gilt
j=1 j=1
Xn n
X n
X
T (v + w) = T λj vj + µj vj = T (λj + µj )vj =
j=1 j=1 j=1
= λ(λ1 , . . . , λn ) = λT (v) .
ist injektiv. 2
7 KERN UND BILD 37
Bemerkung und Definition 6.8 Nach S.6.7 stimmt jeder n-dimensionale Vektor-
raum über K hinsichtlich seiner linearen Struktur mit dem “Modellraum” K n überein.
Mittels der Abbildung T aus dem Beweis zu S.6.7 lassen sich sämtliche Aussagen über
die lineare Struktur von K n auf V übertragen. Die Abbildung T nennt man Koordina-
tenabbildung (bzgl. (v1 , . . . vn )). Man beachte, dass T wesentlich von der in V gewählten
Basis abhängt. Die Umkehrabbildung T −1 heißt kanonischer Basisisomorphismus.
T (P ) = (λ1 , . . . , λn+1 )
n n+1
aν z ν =
P P
für P (z) = λj vj mit λj := aj+1 (j = 1, . . . , n + 1).
ν=0 j=1
Definition 7.1 Es seien V, W lineare Räume über K, und es sei T ∈ L(V, W ). Dann
heißen
Kern(T ) := T −1 ({0})
Bild(T ) := W (T ) = T (V )
dim(Bild(T )) = dim W
gilt.
7 KERN UND BILD 38
Beweis.
1. Zunächst ist Kern(T ) 6= ∅ da 0 ∈ Kern(T ) (B.6.2). Sind v1 , v2 ∈ Kern(T ) und
λ1 , λ2 ∈ K, so gilt
λ1 w1 + λ2 w2 = T (λ1 v1 + λ2 v2 ) ∈ Bild(T ) .
3. “⇒”: Ist T injektiv, so ist insbesondere T −1 ({0}) höchstens einpunktig. Aus T (0) =
0 folgt Kern(T ) = T −1 ({0}) = {0}.
“⇐”: Es seien v1 , v2 ∈ V mit T (v1 ) = T (v2 ). Dann ist
also v1 − v2 = 0, d. h. v1 = v2 .
4. “⇐” folgt sofort aus S.5.17 und 2.; “⇒” ist klar. 2
Beispiel 7.3 (vgl. 6.3) Es sei V = Rn , W = R, und für ein (a1 , . . . , an ) ∈ Rn \ {0} sei
n
X
T (v) = T (x1 , . . . , xn ) = aj xj (v = (x1 , . . . , xn ) ∈ Rn ) .
j=1
Dann ist Kern(T ) = Ua aus B.4.3. Ist etwa n = 2 und a = (1, −1), so ist
Ua = Kern(T ) = {(x1 , x2 ) ∈ R2 : x1 = x2 } .
Weiter gilt Bild (T ) = R, da aj 6= 0 für ein j ∈ {1, . . . , n}, und damit ist T (ej ) = aj 6=
0, d. h. Bild(T ) 6= {0}. (Dann ist schon Bild(T ) = R).
Eine zentrale Aussage über den Zusammenhang der “Größe” von Kern und Bild in
endlich-dimensionalem Fall liefert
Beweis.
1. Wir zeigen zunächst die Behauptung für den Spezialfall, dass T injektiv ist, also
dann
dim(Bild(T )) = dim(V ) .
Es sei (v1 , . . . , vn ) eine Basis von V . Es genügt, zu zeigen (T v1 , . . . , T vn ) ist eine Basis
von T (V ) = Bild(T ).
Zunächst gilt < T v1 , . . . , T vn >= Bild(T ).
(Denn: Da Bild(T ) ein Unterraum von W ist, ist
Kern(T ) ⊕ U = V .
Beweis.
1. a) ⇒ b): Nach S.7.2 ist Kern(T ) = {0}. Also dim(Kern(T )) = 0. Damit ist nach
S.7.4 dim(Bild(T )) = dim(V ) = dim(W ), also ist T surjektiv nach S.7.2.
2. b) ⇒ c): Nach Voraussetzung ist dim(Bild(T )) = dim W = dim V , also nach S.7.4
dim(Kern(T )) = 0, d. h. Kern(T ) = {0}. Nach S.7.4 ist T injektiv, also bijektiv.
3. c) ⇒ a): Nach Definition richtig. 2
Bemerkung 7.6 1. Aus S.7.5 ergibt sich insbesonderre folgendes angenehme Krite-
rium für den Nachweis der Bijektivität von T ∈ L(V, W ): Ist dim(V ) = dim(W ), und
ist Kern(T ) = {0}, so ist T ∈ L(V, W ) ein Isomorphismus.
2. Aus der Dimensionsformel (S.7.4) ergeben sich wichtige Eigenschaften über die
(Nicht-) Existenz linearer Abbildungen. Es gilt nämlich:
(i) Ist dim(V ) > dim(W ), so existiert kein injektives T ∈ L(V, W ).
(ii) Ist dim(W ) > dim(V ), so existiert kein surjektives T ∈ L(V, W ).
(Denn: Es sei T ∈ L(V, W ).
(i) Aus S.7.4 folgt
8 Matrizen
Der folgende Satz zeigt insbesondere, dass lineare Abbildungen durch Angabe der
Werte auf einer Basis festgelegt sind.
Satz 8.1 Es seien V, W lineare Räume über K, und es seien (v1 , . . . , vn ) eine Basis
von V sowie u1 , . . . , un ∈ W beliebig. Dann existiert genau ein T ∈ L(V, W ) mit
T (vj ) = uj (j = 1, . . . , n) .
Beweis.
1. Existenz: Es sei v ∈ V . Dann existieren eindeutig bestimmte λ1 , . . . , λn ∈ K mit
n
X
v= λj vj .
j=1
8 MATRIZEN 41
n
X n
X n
X
T̃ (v) = T̃ λj vj = λj T̃ (vj ) = λj uj = T (v) ,
j=1 j=1 j=1
also T = T̃ . 2
m
X
uk = T (vk ) = ajk wj (k = 1, . . . , n) (1)
j=1
Fasst man die Vektoren a(1) = (a11 , . . . , am1 ), . . . , a(n) = (a1n , . . . , amn ) ∈ K m in n
Spalten zusammen, so entsteht folgendes Schema:
a11 · · · a1n
. ..
A= .
. =: (ajk ) j=1,...
. ,m =: (ajk ) .
k=1,... ,n
am1 · · · amn
Ist T wie in B.8.2, so heißt die zugehörige Matrix A die (Koordinaten-) Matrix von T
bzgl. (v1 , . . . , vn ) und (w1 , . . . , wm ). Dabei sei betont, dass A nicht nur von T , sondern
i. a. auch von der speziellen Wahl von (v1 , . . . , vn ) und (w1 , . . . , wm ) abhängt!
8 MATRIZEN 42
Satz 8.5 Es seien V, W lineare Räume über K, und es seien N := (v1 , . . . , vn ) bzw.
M := (w1 , . . . , wm ) Basen von V bzw. W . Dann ist ϕ = ϕM,N : L(V, W ) → K m×n ,
definiert durch
Beweis.
1. Nach B.8.2 ist ϕ : L(V, W ) → K m×n wohldefiniert (beachte: A ist durch T und M ,
N eindeutig festgelegt).
2. ϕ ist injektiv, denn ist A = ϕ(T ) = ϕ(S) für T, S ∈ L(V, W ), so gilt nach B.8.2
(mit A = (ajk )):
m
X
T (vk ) = ajk wj = S(vk ) (k = 1, . . . , n) .
j=1
A · B := (cjk ) j=1,... ,m
k=1,... ,p
mit
n
X
cjk = ajν bνk (j = 1, . . . , m, k = 1, . . . , p) .
ν=1
Satz 8.7 Mit den Bezeichnungen aus S.8.5 und D.8.6 gilt
1. K m×n ist ein linearer Raum über K.
2. Die Abbildung ϕ : L(V, W ) → K m×n ist ein Isomorphismus, d. h. L(V, W ) und
K m×n sind isomorph.
Beweis.
1. Entweder direkt nachrechnen oder durch Anwendung von B.3.3.2 (Beachte im zwei-
ten Fall:
denn A = (ajk ) ∈ K m×n ist eine Schreibweise für die Abbildung f : {1, . . . , m} ×
{1, . . . , n} → K,
2. Nach S.8.5 genügt es, zu zeigen: ϕ ist linear. Dazu seien T, S ∈ L(V, W ) und λ ∈ K.
Dann gilt mit
Der Satz besagt also, dass man L(V, W ) von der linearen Struktur her mit K m×n ,
identifizieren kann, d. h. um lineare Abbildungen auf endlich-dimensionalen Räumen
zu studieren, reicht es, Matrizen zu untersuchen. Dabei zeigt sich, dass sich nicht nur
die lineare Struktur überträgt. Es gilt nämlich
Beweis.
Es seien
Dann gilt
Xn
A·B =( ajν bνk ) j=1,... ,m .
k=1,... ,p
ν=1
Außerdem ist
m
X
T vν = ajν wj (ν = 1, . . . , n)
j=1
und
n
X
Suk = bνk vν (k = 1, . . . , p) ,
ν=1
8 MATRIZEN 45
also
n
X n
X m
X
(T ◦ S)(uk ) = T (Suk ) = bνk T vν = bνk ajν wj =
ν=1 ν=1 j=1
m
X Xn
= wj ( ajν bνk ) ,
j=1 ν=1
Dann entspricht K p der Menge der (p × 1)-Matrizen K p×1 . Ist C = (cjk ) ∈ K m×n und
x1
. n n×1 , so setzen wir
.
. ∈K =K
ist x =
xn
n
P
c1k xk
x1 k=1
. ..
C · x := C · .
. = ∈ K m = K m×1 .
.
n
xn
P
cmk xk
k=1
x1
. n
.
. ∈K
Damit erhält man allgemein für x =
xn
x1 n
! n
. X X
T (x) = T . xk · T (ek ) =
. = T xk ek =
k=1 k=1
xn
n
P
k=1 a1k xk
n
a1k x1
X . ..
..
= xk .
. = = A ,
n . .
k=1
amk xn
P
amk xk
k=1
also
T (x) = A · x .
T (x) := Ax (x ∈ K n )
Ist S ∈ L(K p , K n ), und ist B die Matrix von S bzgl. der kanonischen Basen, so gilt
also nach S.8.8 auch
(T ◦ S)(x) = (A · B)x (x ∈ K p ) .
(λA)(µB) = (λ · µ)(AB) .
8 MATRIZEN 47
(AB)C = A(BC) .
A(B + C) = AB + AC .
(A + B)C = AC + BC .
Beweis. [Ü]
Bemerkung 8.11 Man beachte, dass für A ∈ K m×n , B ∈ K n×p zwar AB, i. a. aber
nicht BA definiert ist. Außerdem gilt auch in dem Fall, dass BA definiert ist (nämlich
p = m), i. a. nicht AB = BA !
Betrachten wir etwa A, B ∈ R2×2 mit
! !
1 2 −3 2
A= , B= ,
2 3 1 −2
so gilt
! ! !
1 2 −3 2 −1 −2
AB = =
2 3 1 −2 −3 −2
und
! ! !
−3 2 1 2 1 0
BA = = 6= AB .
1 −2 2 3 −3 −4
Rg(A) := dim(Bild(A))
der Rang von A. Weiter seien a(1) , . . . , a(n) die Spalten von A, d. h.
a1k
.
a(k) =
.
. (k = 1, . . . , n)
amk
8 MATRIZEN 48
Aj = (aj1 , . . . , ajn ) (j = 1, . . . , m) .
Dann heißen
Unser Ziel ist es nun, zu zeigen, dass auch Rg(A) = Zrg(A) gilt. Dazu brauchen wir
den Begriff der Transponierten einer Matrix, der von allgemeiner Bedeutung ist.
Definition 8.14 Es sei A = (ajk ) ∈ K m×n . Dann heißt die Matrix AT = (bjk ) ∈
K n×m , definiert durch
bjk := akj (j = 1, . . . , n, k = 1, . . . , m)
xT = (x1 , . . . , xm ) ∈ K 1×m ,
Beweis.
1. und 2. sind klar.
3. Ist A = (ajk ), B = (bjk ), so gilt
n
!T n
! n
!
X X X
(AB)T = ajν bνk = akν bνj = bνj akν = B T AT .
ν=1 ν=1 ν=1
2
Es glt nun folgender zentrale Satz.
Rg(A) = Rg(AT ) .
Beweis.
Es sei A = (ajk ), und es seien
a1k
.
a(k) = .
. (k = 1, . . . , n)
amk
Aj = (aj1 , . . . , ajn ) (j = 1, . . . , m)
die Zeilen von A. Dann sind ATj (j = 1, . . . , m) die Spalten von AT . Es sei
Dann ist s := dim(U ) = Rg(AT ) nach B.8.13. Es sei (u1 , . . . , us ) eine Basis von U .
Dann existieren cjν ∈ K mit
s
X
Aj = cjν uTν (j = 1, . . . , m) ,
ν=1
d. h.
a1k s
c1ν
. X .
.. = uνk . (k = 1, . . . , n) .
.
ν=1
amk cmν
Mit
c1ν
.
cν := . (ν = 1, . . . , s)
.
cmν
gilt also
s
X
a(k) = uνk cν (k = 1, . . . , n) .
ν=1
Damit ist
(Denn: Es gilt offenbar Zrg(A) = Srg(AT ). Nach B.8.13 und S.8.16 ist
Beweis.
Wir setzen
T (x) := Ax (x ∈ K n ) , S(x) := Bx (x ∈ K p ) .
(T ◦ S)(x) = ABx (x ∈ K p ) .
also insgesamt
AEn = A und Em A = A .
Definition 8.20 Es sei A ∈ K n×n . Dann heißt A invertierbar falls eine Matrix B ∈
K n×n mit AB = En existiert.
Satz 8.21 Es sei A ∈ K n×n . Ist A invertierbar, so existiert genau ein B ∈ K n×n mit
AB = En . Außerdem gilt CA = En genau dann, wenn B = C ist.
8 MATRIZEN 52
Beweis.
1. Es sei B ∈ K n×n so, dass AB = E. Wir betrachten T, S ∈ L(K n ) mit
T (x) := A · x , S(x) := B · x (x ∈ K n ) .
(Es gilt nach B.D.8.9: ϕ(T ) = A, ϕ(S) = B, wobei ϕ = ϕM,M und M die kanonische
Basis in K n sind.)
Dann gilt nach S.8.8: AB ist Matrix von T ◦ S (bzgl. kanonischer Basen), also nach
B.8.9
(T ◦ S)(x) = ABx = Ex = x (x ∈ K n ) .
d. h. T ◦S = idK n . Damit ist T surjektiv und nach S.7.5 auch bijektiv. Also ist S = T −1
und damit ist B Matrix zu T −1 , d. h. ϕ(T −1 ) = B. Insbesondere folgt für jedes B̃ mit
AB̃ = E genauso B̃ = ϕ(T −1 ), also B = B̃.
2. Aus T ◦ T −1 = idK n = T −1 ◦ T folgt
3. Ist C ∈ K n×n mit CA = E, so ist nach 1. und 2., angewandt auf (C, A) statt (A, B),
auch AC = E, also ist C = B nach 1. 2
Definition 8.22 Ist A ∈ K n×n invertierbar, so heißt die (nach S.8.21 eindeutig be-
stimmte) Matrix B mit AB = E Inverse zu A. Wir schreiben B =: A−1 .
!
1 1
Beispiel 8.23 Es sei A ∈ R2×2 mit A = . Dann gilt
0 1
! ! ! !
1 1 1 −1 1 0 −1 1 −1
= = E, also A = .
0 1 0 1 0 1 0 1
Beweis.
1. Nach S.8.21 ist AA−1 = E = A−1 A, also ist nach Definition A−1 invertierbar mit
(A−1 )−1 = A.
2. Es gilt (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AEA−1 = AA−1 = E, also ist nach
Definition AB invertierbar mit (AB)−1 = B −1 A−1 .
3. Es gilt (λA)( λ1 · A−1 ) = (λ λ1 )(AA−1 ) = E, also ist λA invertierbar mit (λA)−1 =
λ−1 A−1 . 2
8 MATRIZEN 53
Bemerkung 8.25 Aus S.8.10 und S.8.24 folgt, dass die Menge
mit der Matrixmultiplikation als Verknüpfung eine Gruppe bildet (mit E als neutralem
Element). GLn ist für n ≥ 2 i. a. nicht kommutativ.
Beweis.
Es sei T ∈ L(K n ) mit T (x) = Ax (x ∈ K n ).
1. a) ⇒ b): Ist A invertierbar, so gilt (vgl. Beweis zu S.8.21): T ist bijektiv. Also ist T
insbesondere surjektiv und damit
dim(Kern(T )) = n − dim(Bild(T )) = 0 ,
Satz 8.27 Es sei A ∈ K n×n invertierbar. Dann gilt für B ∈ K n×p und C ∈ K m×n
Beweis.
Aus S.8.18 folgt
und
2
9 LINEARE GLEICHUNGSSYSTEME 54
9 Lineare Gleichungssysteme
Wir kommen nun zu einem der Kernthemen der linearen Algebra, den linearen Glei-
chungssystemen. Wir werden sehen, dass für eine systematische Behandlung solcher
Systeme die in den ersten Abschnitten dargestellten Begriffe und Ergebnisse sehr nütz-
lich sind.
Definition 9.1 Es sei K ein Körper (wobei wir jetzt meist K = R oder K = C
betrachten), und es seien ajk ∈ K, bj ∈ K (j = 1, . . . , m; k = 1, . . . n). Dann heißt das
System von Gleichungen
n
P
a11 x1 +···+ a1n xn = a1k xk = b1
k=1
Pn
a21 x1 +···+ a2n xn = a2k xk = b2
k=1 (LGS)
.. .. .. ..
. . . .
n
P
am1 x1 + · · · + amn xn = amk xk = bm
n=1
Ax = b .
Die Matrix A heißt (Koeffizienten-) Matrix des LGS. Die (m × (n + 1)) Matrix (A|b)
mit
a11 · · · a1n b1
. .. ..
(A|b) = .. . .
amn · · · amn bm
b) b ∈< a(1) , . . . , a(n) >, wobei a(k) die Spalten von A sind,
c) Rg(A) = Rg(A|b) .
Beweis.
1. die Äquivalenz von a) und b) ergibt sofort daraus, dass man Ax = b auch schreiben
kann als
n
X
xk a(k) = b .
k=1
also Rg(A) = dim(< a(1) , . . . , a(n) >) = dim(< a(1) , . . . , a(n) , b >) = Rg(A|b).
3. c) ⇒ b): Da < a(1) , . . . , a(n) >⊂< a(1) , . . . , a(n) , b > gilt, folgt aus
bereits < a(1) , . . . , a(n) >=< a(1) , . . . , a(n) , b > nach S.5.17, also ist
3x1 + x2 + 2x3 = 6
x1 + 2x2 + 3x3 = 6
2x1 + 3x2 + x3 = 6
also
3 1 2 x1 6
Ax =
1 2 3 x2 = 6 = b .
2 3 1 x3 6
9 LINEARE GLEICHUNGSSYSTEME 56
Dann gilt
6 3 1 2
b=
6 = 1 + 2 + 3
6 2 3 1
3 1 2
also b ∈<
1 , 2 , 3 >, und eine Lösung ist gegeben durch
2 3 1
x1 1
x=
x2
= 1 .
x3 1
Wir wollen zunächst einige allgemeine Aussagen über die Struktur der Lösungsmenge
eines LGS machen.
Lös(A, b) := {x ∈ K n : Ax = b}
Beweis.
1. Es gilt
wobei T (x) = Ax (x ∈ K n ). Also ist nach S.7.2 Lös(A, 0) ein Unterraum von K n .
(Insbesondere ist stets 0 ∈ Lös(A, 0)!).
Aus der Dimensionsformel für lineare Abbildungen (S.7.4) folgt weiter
Ax = A(z − y) = Az − Ay = b − b = 0 ,
9 LINEARE GLEICHUNGSSYSTEME 57
Az = A(y + x) = Ay + Ax = Ay = b ,
Die Aussage 2. besagt anschaulich folgendes: Ist y eine spezielle Lösung des inhomo-
genen Systems Ax = b, so ergeben sich alle Lösungen z durch z = y + x, wobei x
die Lösungen des homogenen Systems “durchläuft”, d. h. ist r := Rg(A) < n, und ist
(v1 , . . . , vn−r ) eine Basis von Lös(A, 0), so ist
n−r
X
Lös(A, b) = {y + λν vν : λν ∈ K für ν = 1, . . . , n − r} .
ν=1
x = A−1 b
Beweis.
1. Ax = b ist nach S.9.2 genau dann für alle b ∈ K m lösbar, wenn
Da Bild(A) stets ein Unterraum von K m ist, ist dies (S.5.17) wiederum äquivalent zu
2. Nach S.9.4.1. ist Lös(A, 0) = {0} genau dann, wenn Rg(A) = n ist. Nach S.9.4.2.
ist dies genau dann der Fall, wenn Lös(A, b) höchstens einpunktig ist.
3. Nach 1. und 2. ist Ax = b eindeutig lösbar für alle b ∈ K m genau dann, wenn
Rg(A) = n = m gilt.
Gilt nun Rg(A) = n = m, so ist A ∈ K n×n invertierbar nach S.8.26. Ist b ∈ K m , so
gilt für x = A−1 b
Ax = AA−1 b = b ,
gilt.
Satz 9.7 Ist C ∈ K m×m invertierbar, und sind A ∈ K m×n sowie b ∈ K m , so ist
Ax = b äquivalent zu CAx = Cb.
Beweis.
Ist x ∈ Lös(A, b), so gilt CAx = Cb. Ist umgekehrt x ∈ Lös(CA, Cb), so ist
Wir haben uns bisher beschränkt auf Strukturaussagen über die Lösungsmenge von
Gleichungssystemen. Es drängt sich nun die interesannte Frage auf, wie man an Lösun-
gen herankommt.
Die elementaren Zeilen- (Spalten-) Operationen lassen sich jeweils durch eine Matrix-
multiplikation beschreiben:
↑
k-te Spalte
10 DER GAUSS’SCHE ALGORITHMUS 60
1 0 ... ... 0
..
0 1 λ .
.. ..
..
.
. .
F (j,k) (λ) := E + λE (j,k)
=
..
.. (j 6= k)
.
.
..
. 1 0
0 ... ... ... 0 1
sowie
1 0 ... ... ... ... 0
.. . . ..
. . .
.. ..
. 1 .
.. ..
F (j) (λ) := E + (λ − 1)E (j,j) = ←j (λ 6= 0)
. λ .
.. ..
. 1
.
.. ..
. . 0
0 ... ... ... ... 0 1
↑
j
(m × m)-Elementarmatrizen.
10 DER GAUSS’SCHE ALGORITHMUS 61
Beweis.
Wir beschränken uns auf Zeilenoperationen. Es gilt für j, k = 1, . . . , m
0 ... ... ... 0 ... 0 a11 ... ... a1n
. .. .. .. ..
..
. .
. .
0 ... ... 0 1 ... 0 aj1 ... ajn
. .. .. ..
(j,k) .
E ·A = .
0 .
. . =
. .. ..
..
. .
ak1 ... akn
.
.. .. ..
.. ..
. . . .
0 ... ... ... 0 ... 0 am1 . . . amn
0 ... ... 0 0
. .. ..
.
. . .
a . . . . . . a A ← j − te Zeile
k1 kn k
= 0 . . . . . . 0 =
0
,
. .. ..
..
. .
. . .
.. .. ..
0 ... ... 0 0
d. h. E (j,k) · A “schneidet aus A die k-te Zeile Ak aus und setzt diese in die j-te Zeile”.
Hieraus ergibt sich die Behauptung durch Nachrechnen. 2
sowie
Beweis.. Es gilt P (j,k) ·P (j,k) = E, F (j,k) (λ)F (j,k) (−λ) = E und F (j) (λ)F (j) (1/λ) = E.
2
Ax = b und Ãx = b̃
äquivalent.
(Denn: Dies ergibt sich durch Kombination von S.9.7, S.10.4 und S. 10.5 und S.8.24.2.
Man beachte dabei, dass C(A|b) = (CA|Cb) gilt.)
Ax = b
mit invertierbarer Matrix A ∈ K n×n und b ∈ K n . Nach S.9.5 ist die (eindeutig be-
stimmte) Lösung gegeben durch x = A−1 b. Allerdings erweist sich die Berechnung
von A−1 als i. a. sehr aufwendig. Das im folgenden dargestellte Verfahren ist weniger
rechenintensiv und hat zudem den Vorteil, dass es leicht modifiziert für allgemeine
Matrizen A ∈ K m×n anwendbar ist.
Satz 10.7 Es seien A ∈ K n×n und b ∈ K n mit Rg(A) = n (d. h. A ist invertier-
bar). Dann lässt sich (A|b) durch elementare Zeilenoperationen in eine Matrix (R|c)
überführen, wobei R ∈ K n×n eine obere Dreiecksmatirx ist, d. h. R hat die Form
r11 . . . . . . r1n
.. ..
0 . .
R= . ,
.. .. ..
. .
0 ... 0 rnn
(also rjk = 0 für j > k) und rjj 6= 0 für j = 1, . . . , n. Insbesondere sind die Systeme
Ax = b und Rx = c äquivalent.
Beweis.
Zunächst können wir durch eventuelles Vertauschen zweier Zeilen erreichen, dass (A|b)
10 DER GAUSS’SCHE ALGORITHMUS 63
(1) (1)
d. h. der erste Eintrag aj1 der j-ten Zeile ist 0 für j = 2, . . . , n (und a11 6= 0). Nun
verfahren wir entsprechend mit der ((n − 1) × n)-Matrix
(1) (1) (1)
a22 . . . a2n b2
. .. ..
(B1 |d1 ) := .
. . .
(1) (1) (1)
an2 . . . ann bn
anstelle von (A|b). Dabei ist wichtig, dass nach S.8.27 und S.10.4/5 Rg (A1 ) = Rg (A) =
n gilt. Damit ist Rg (B1 ) = n − 1 (wäre Rg (B1 ) < n − 1, so wäre eine Zeile von B1
Linearkombination der restlichen, was dann auch für A1 gelten würde). Es entsteht
nach diesem Umformen eine Matrix (A2 |b2 ) der Form
(1) (1) (1)
a11 ... a1n b1
0 (2) (2) (2)
a22 ... a2n b2
.
. (2) (2) (2)
(A2 |b2 ) =
. 0 a33 ... a3n b3
. .. .. .. ..
..
. . . .
(2) (2) (2)
0 0 an3 ... ann bn
wobei die Einträge ⊗ nicht verschwinden. Dabei ist (Am |bm ) aus (A0 |b0 ) := (A|b)
durch elementare Zeilenumformungen (der Form Zj ↔ Zk und Zj + λZk ) entstanden.
10 DER GAUSS’SCHE ALGORITHMUS 64
Für m = n − 1 ist
⊗ ... ... ∗ ∗
.. .. ..
.
0 . .
.. .. ..
(An−1 |bn−1 ) =
.. =: (R|c)
.
. . .
.. ..
. ∗ .
0 ... ... 0 ⊗ ∗
Bemerkung 10.8 Das im Beweis dargestellte Verfahren zur Berechnung von (R|c)
aus (A|b) heißt Gauß- Verfahren oder Gauß- Algorithmus. Hat man das LGS Ax = b
durch das Gauß-Verfahren in das äquivalente System Rx = c überführt, so läss t sich
die Lösung
x = A−1 b = R−1 c
xn = cn /rnn
und
n
1 X
xj = (cj − rjk xk ) (j = n − 1, n − 2, . . . , 1) ,
rjj
k=j+1
d. h. x lässt sich sukzessive “von hinten nach vorne” berechnen, da xj nur von den
dann bekannten Größen rjk , cj und xj+1 , . . . , xn abhängt!
3x1 + x2 − 3x3 = 8
−6x1 + 5x3 = −11 ,
3x1 + 5x2 − 7x3 = 20
10 DER GAUSS’SCHE ALGORITHMUS 65
also
3 1 −3 8
(A|b) = (A0 |b0 ) =
−6 0 5 .
−11
3 5 −7 20
Damit ist
c3
x3 = = −1
r33
3
!
1 X 1 4
x2 = c2 − r2k xk = (5 − (−1)(−1)) = = 2
r22 r22 2
k=3
3
!
1 X 1 3
x1 = c1 − r1k xk = (8 − (1 · 2 − 3 · (−1))) = = 1 ,
r11 r11 3
k=2
also
x1 1
x=
x2
= 2 .
x3 −1
Bemerkung 10.10 1. In S.10.7 hatten wir vorausgesetzt, dass A vollen Rang hat, also
invertierbar ist. Was passiert, wenn die (quadratische) Matrix A nicht invertierbar ist?
Dann wird das Gauß’sche Verfahren in einem der Iterationsschritte zusammenbrechen,
und zwar an dem Punkt, an dem eine Zeile mit einem nichtverschwindenen Eintrag
“eingewechselt” werden muß oder spätestens damit, dass rnn = 0 ist. Also: wenn das
Verfahren bis zum letzten Schritt funktioniert, muß A notwendig vollen Rang gehabt
haben.
2. Eine Erweiterung der Gauß-Algorithmus führt auch auf ein Verfahren zur Berechnug
von A−1 :
10 DER GAUSS’SCHE ALGORITHMUS 66
Wir betrachten die Matrix (A|En ) ∈ K n×(2n) . Führt man die Schritte des Gauß-
Algorithmus wie im Beweis zu S. 10.7 beschrieben mit (A|En ) statt (A|b) aus (also
mit “rechter Seite” En ), so wird (A|En ) übergeführt in eine Matrix (R|C) ∈ K n×(2n)
mit oberer Dreiecksmatrix R = (rjk ) und rjj 6= 0 für j = 1, . . . , n. Durch weitere
elementare Zeilenoperationen der Form Zj + λZk und λZj kann (R|C) übergeführt
werden in (En |B). Dabei gilt dann B = A−1 . (Denn: Ist b(k) die k-te Spalte von B,
und ist e(k) der k-te Einheitsvektor in K n so gilt nach Konstruktion Ax = e(k) genau
dann, wenn x = En x = b(k) , d. h. Ab(k) = e(k) für k = 1, . . . , n bzw. AB = En ist).
Dies zeigt auch, das jede invertierbare Matrix A ein Produkt aus Elementarmatrizen
ist. (Denn es ist En = Z · A, wobei Z ein Produkt aus Elementarmatrizen ist. Also ist
nach S.10.5 auch A = Z −1 Produkt aus Elementarmatrizen.)
A1 = L1 A(= L1 A0 )
mit
(0)
aj1 aj1
`j1 = = (0) (j = 2, . . . , n) .
a11 a11
Am = Lm Am−1
10 DER GAUSS’SCHE ALGORITHMUS 67
mit
(m−1)
ajm
`jm = (m−1)
(j = m + 1, · · · , n) .
amm
(Matrizen dieser Form heißen Frobenius-Matrizen. Wir setzen zur Abkürzung
n
X
n×n
Ln,m := {L ∈ K :L=E+ λj E (j,m) , λj ∈ K für j = m + 1, . . . , n} .)
j=m+1
Weiter sieht man mit S.10.5: Die Matrix Lm ist invertierbar mit
1 0 ... ... ... ... ... 0
..
0 1 .
.
. .. ..
. . .
..
−1
. 0 1
Lm = .. .. ..
. . `m+1,m 1 .
.. .. .. .. ..
.
. . 0 . .
. .. .. ..
..
. . . 0
0 ... 0 `n,m 0 ... 1
n
X
(m+1,m) (n,m)
= F (`m+1,m ) · · · F (`n,m ) = E + `jm E (j,m)
j=m+1
10 DER GAUSS’SCHE ALGORITHMUS 68
Damit folgt
A = L−1 −1 −1
1 · L2 · · · Ln−1 · R ,
ist
A = LR .
Eine solche Zerlegung von A hat den Vorteil, dass die Lösung eines LGS Ax = b für
b ∈ Rn durch Lösen der beiden Gleichungssysteme
Ly = b
und
Rx = y
Ist A so, dass im Gauß’schen Algorithmus Zeilen vertauscht werden müssen, so sieht
man wie oben: Es existieren Frobenius-Matrizen L1 , . . . , Ln−1 und Vertauschungsma-
trizen
P (1,k1 ) , . . . , P (n−1,kn−1 )
10 DER GAUSS’SCHE ALGORITHMUS 69
Man kann zeigen ([Ü]), dass für jede Frobenius Matrix F ∈ Ln,m und j, k > m eine
Frobenius-Matrix F 0 ∈ Ln,m existiert mit
P (j,k) F = F 0 P (j,k) .
P A = LR .
Ly = P b
und
Rx = y
berechnet werden.
Der folgende Satz liefert eine Charakterisierung der Matrizen, für die die LR-Zerlegung
existiert.
Satz 10.12 Es sei A = (ajk ) ∈ GLn (K). Genau dann existiert die LR-Zerlegung von
A, wenn die Matrizen
Beweis.
“⇒”: Ist A = LR die LR-Zerlegung, so schreiben wir diese in Blockform (die Bedeu-
tung der Blöcke ergibt sich aus A(r) ∈ K r×r )
(r)
! ! !
A(r) B (r) L(r) 0 R(r) R12
= (r) (r) (r)
=
C (r) D(r) L21 L22 0 R22
(r)
!
L(r) R(r) L(r) R12
= (r) (r) (r) (r) (r)
.
L21 R(r) L21 R12 + L22 R22
Es folgt A(r) = L(r) R(r) . Da L(r) und R(r) invertierbar sind, ist auch A(r) invertierbar.
“⇐”: (Induktion nach n)
Der Fall n = 1 ist klar. Es sei A ∈ K (n+1)×(n+1) so, dass A(r) invertierbar ist für
r = 1, . . . , n + 1. Dann gilt nach Induktionsvoraussetzung
! !
A(n) b L(n) R(n) b
A= =
aT α aT α
(n)
mit gewissen a, b ∈ K n , α ∈ K und einer oberen Dreiecksmatrix R(n) mit rjj 6= 0
sowie einer Matrix L(n) ∈ Ln . Also folgt
! !
(L(n) )−1 0 R(n) b0
A=
0T 1 aT α
mit b0 = (L(n) )−1 b und (L(n) )−1 ∈ Ln (man beachte: Ln ist eine Gruppe ([Ü])). Durch
elementare Zeilenoperationen der Form Zj + λZk lässt sich die Matrix auf der rechten
Seite in eine obere Dreiecksmatrix R mit rjj 6= 0 überführen. Also existiert nach
B.10.11 eine Matrix L̃ ∈ Ln+1 mit
!
(L(n) )−1 0
L̃ A=R.
0T 1
Da Ln+1 eine Gruppe ist, gilt für die untere Dreiecksmatrix
!
L(n) 0
L := L̃−1 ∈ Ln+1
0T 1
die Zerlegung A = LR. 2
Bisher haben wir uns lediglich mit einer Lösungsmethode für lineare Gleichungssyste-
me mit invertierbarer Koeffizientenmatrix A beschäftigt. Wir werden jetzt auf Glei-
chungssysteme mit beliebiger Matrix A eingehen.
Definition 10.13 Es sei B = (bjk ) ∈ K m×n , und es sei r ∈ {1, . . . , min(n, m)}.
Man sagt, die Matrix B hat Zeilenstufenform (mit r Stufen), wenn es Spaltenindizes
k1 , . . . , kr ∈ {1, . . . , n} mit folgenden Eigenschaften gibt:
10 DER GAUSS’SCHE ALGORITHMUS 71
a) kj ≤ kj+1 für j = 1, . . . , r − 1
b) bj,kj 6= 0 für j = 1, . . . , r
Satz 10.14 Ist B = (bjk ) ∈ K m×n eine Matrix in Zeilenstufenform mit r Stufen, so
ist Rg(B) = r.
Beweis..
Sind B1 . . . , Br die ersten r Zeilen von B, so gilt
Wir zeigen B1 . . . , Br sind linear unabhängig (dann ist Rg(B) = Zrg(B) = r). Dazu
seien λ1 , . . . , λr ∈ K so, dass
r
X
λν Bν = 0T ,
ν=1
d. h.
r
X
λν bνk = 0 für k = 1, . . . , n .
ν=1
Insbesondere gilt
r
X
λν bν,kj = 0 für j = 1, . . . , r .
ν=1
Satz 10.15 Jede Matrix A ∈ K m×n , A 6= 0, lässt sich durch elementare Zeilenumfor-
mungen in eine Matrix B ∈ K m×n transformieren, die Zeilenstufenform (mit Rg(A)
Stufen) hat.
Beweis.
Da A 6= 0 ist, existiert ein kleinster Spaltenindex k1 mit a(k1 ) 6= 0. Ist etwa ajk1 6= 0, so
vertauschen wir die erste mit der j-ten Zeile (diesen Eintrag nennen wir b1k1 ). Durch
Umformungen der Form Zj + λZ1 können wir dann A transformieren in die Form
0 · · · 0 b1,k1 · · ·
. ..
.
. . 0
.. .. ..
. . .
.. .. ..
. . . A 1
.. .. ..
. . .
0 ... 0 0
Ist A1 ∈ K (m−1)×(n−k1 ) die Nullmatrix, so sind wir fertig. Ist A1 6= 0, so wird die
gleiche Prozedur auf A1 angewandt. Nach endlich vielen Schritten landet man bei
einer Matrix B in Zeilenstufenform. 2
Folgerung 10.16 Ist A ∈ K m×n , A 6= 0 und ist b ∈ K m , so lässt sich (A|b) durch
elementare Zeilenumformungen in eine Matrix (A0 |b0 ) transformieren, die Zeilenstufen-
form hat. Die LGS’e Ax = b und A0 x = b0 sind nach F. 10.6 äquivalent.
Ist
0 · · · 0 a01,k1 c1
. ..
.
. . 0 a02,k2 c2
.. .. ..
. . 0 .
. ..
(A0 |b0 ) = .. 0
. 0 a r,k r
. . . c r
.. ..
. . 0 cr+1
. .. .. ..
.. . . .
0 ··· 0 ··· ··· ··· ··· 0 cm
10 DER GAUSS’SCHE ALGORITHMUS 73
Bemerkung 10.17 Wie kann man im Falle cr+1 = · · · = cm = 0 das System lösen?
Durch geeignetes Vertauschen von Spalten lässt sich (die um die letzten m − r, nur aus
Nullen bestehenden Zeilen “verkleinerte” Matrix) in die Form
a0011 · · · · · · · · · a001r · · · a001n c1
0 a00 · · · a002r · · · a002n c2
22
. .. .. ..
00
(A |c) = .
. 0 . . .
. .. .. .. .. .. ..
.. . . . . . .
0 00
0 · · · 0 arr · · · arn cr 00
mit a00jj 6= 0 für j = 1, . . . , r bringen. Wir berechnen die Lösungen y von A00 y = c. Die
Lösungen x von A0 x = b0 (bzw. Ax = b) ergeben sich dann durch Rückvertauschen der
Variablen y1 , . . . , yn .
Nach S.9.4 haben wir eine spezielle Lösung y (0) der inhomogenen Gleichung und eine
Basis von Lös (A00 , 0) zu berechnen.
nach dem Verfahren aus B.10.8. Dann ist y (1) , . . . , y (n−r) mit
(k)
u
y (k) := (k = 1, . . . , n − r)
e(k)
eine Basis von Lös (A00 , 0) (denn y (1) , . . . , y (n−1) sind linear unabhängig nach Kon-
struktion und dim(A00 , 0) = n − r).
Dann ist
1 −2 2 −1 4
(A|b) =
2 −4 −5 1 −1
−1 2 1 0 −1
Z2 −2Z1
1 −2 2 −1 4
Z3 +Z1 0 0 −9 3 −9
−→
0 0 3 −1 3
Z3 + 31 Z2
1 −2 2 −1 4
0 0
0 0 −9 3 −9 = (A |b ) .
−→
0 0 0 0 0
Vertauschen der 4. und 2. Spalte (und Weglassen der letzten Zeile) ergibt
!
1 −1 2 −2 4
(A00 |c) = = (R|S|c)
0 3 −9 0 −9
also
y2 = −3, y1 = 1 ,
und damit
1
−3
y (0) = .
0
0
Eine Basis (y (1) , y (2) ) von Lös (A00 , 0) erhält man aus
! ! !
1 −1 y1 −2
Ru = = = −Se(1)
0 3 y2 9
und
! ! !
1 −1 y1 2
Ru = = = −Se(2) .
0 3 y2 0
Man berechnet
1 2
3 0
(1) (2)
y = und y = .
1 0
0 1
Also ist
1 1 2
−3
3 0
00 (0) 00
Lös (A , c) = y + Lös (A , 0) = + λ + µ , λ, µ ∈ R .
0
1
0
0 0 1
11 Determinanten
Bevor wir zu einem weiteren zentralen Begriff der Linearen Algebra, nämlich der De-
terminante einer Matrix, kommen, befassen wir uns vorbereitend noch einmal etwas
genauer mit der Symmetrischen Gruppe Sn , d. h. der Menge aller bijektiven Abbil-
dungen auf {1, . . . , n} mit der Hintereinanderausführung als Verknüpfung (siehe B.
2.3).
1. |Sn | = n! .
Beweis.
1. Induktionsanfang n = 1: Es ist |S1 | = |{id{1} }| = 1.
2. Induktionsschritt n → n + 1: Es gilt
n+1
[
Sn+1 = Aj ,
j=1
|Aj | = |Sn | = n! (j = 1, . . . , n + 1)
und damit
n+1
X
|Sn+1 | = |Aj | = (n + 1)! .
j=1
2. Ist σ = id, so gilt σ = [1, 2]◦[1, 2]. Ist σ 6= id, so existiert ein kleinstes j1 ∈ {1, . . . , n}
mit σ(j1 ) = k1 6= j1 . Für σ1 := [j1 , k1 ] ◦ σ folgt dann σ1 (j) = j für j ≤ j1 . Im Falle
σ1 = id gilt σ = [j1 , k1 ] und wir sind fertig. Ist σ1 6= id, so existiert ein kleinstes j2 ∈
{1, . . . , n} mit k2 = σ1 (j2 ) 6= j2 (dabei ist j2 > j1 ). Wir betrachten σ2 := [j2 , k2 ] ◦ σ1 .
11 DETERMINANTEN 77
σm = [jm , km ] ◦ . . . ◦ [j1 , k2 ] ◦ σ = id .
σ = [j1 , k1 ] ◦ . . . ◦ [jm , km ] .
Dann gilt
!
1 2 3 4 5
σ1 = [1, 4] ◦ σ =
1 3 4 5 2
!
1 2 3 4 5
σ2 = [2, 3] ◦ σ1 =
1 2 4 5 3
!
1 2 3 4 5
σ3 = [3, 4] ◦ σ2 =
1 2 3 5 4
!
1 2 3 4 5
σ4 = [4, 5] ◦ σ3 = = id
1 2 3 4 5
d. h.
also
sign(σ) := (−1)I(σ)
(Denn: Es ist
Y Y Y
(σ(k) − σ(j)) = (σ(k) − σ(j)) · (σ(k) − σ(j))
j<k j<k j<k
σ(j)<σ(k) σ(j)>σ(k)
Y Y
= (σ(k) − σ(j)) · |σ(k) − σ(j)| · (−1)I(σ)
j<k j<k
σ(j)<σ(k) σ(j)>σ(k)
Y Y
= (−1)I(σ) |σ(k) − σ(j)| = (−1)I(σ) (k − j) ,
j<k j<k
wobei bei der letzten Gleichheit zu beachten ist, dass aufgrund der Bijektivität von σ
beide Produkte die gleichen Faktoren enthalten).
sign(σ) = −1
Beweis.
σ(τ (k)) − σ(τ (j))
1. Mit βkj := für j 6= k gilt nach B.11.5.1
τ (k) − τ (j)
Y σ(τ (k)) − σ(τ (j))
sign(σ ◦ τ ) = =
k−j
j<k
Y σ(τ (k)) − σ(τ (j)) Y τ (k) − τ (j)
=
τ (k) − τ (j) k−j
j<k j<k
Y Y
= sign(τ ) βkj · βkj
j<k j<k
τ (j)<τ (k) τ (j)>τ (k)
βjk =βkj Y Y
= sign(τ ) βkj βkj
j<k j>k
τ (j)<τ (k) τ (j)<τ (k)
Definition 11.7 Es sei K ein Körper. Eine Abbildung d : K n×n → K heißt Determi-
natnenabbildung, falls folgende Bedingungen gelten:
A1
. n×n und
a) d ist linear in jeder Zeile, d. h. sind j ∈ {1, . . . , n}, A = .
. ∈K
A1
n
b ∈ K , λ, µ ∈ K, so gilt
A1 A1
.. .
..
.
T
d λAj + µb = λ · d(A) + µ · d b T
,
.
..
.
..
An An
d) d(E) = 1.
11 DETERMINANTEN 80
und λ ∈ K sowie j 6= k
A1
..
.
(j,k)
d
Aj + λAk
= d F (λ) · A = d(A)
..
.
An
(d. h. Addition eines Vielfachen einer Zeile zu einer anderen Zeile ändert d nicht) und
und
A1 A1 A1
..
.. ..
. . .
A +A Aj Ak
j k
.
..
.
..
..
0 = d
= d
+ d
.
Ak + Aj Ak + Aj Ak + Aj
.. .. ..
.
.
.
An An An
A1
.
.
.
A
k
. (j,k)
= d(A) + d .
. = d(A) + d(P A) .)
Aj
.
..
An
Der folgende Satz ist grundlegend für die Theorie der Determinanten.
Satz 11.9 Es seien K ein Körper und n ∈ N. Dann existiert genau eine Determina-
tenabbildung det : K n×n → K, und es gilt für A = (ajk ) ∈ K n×n :
X
det A = sign(σ)a1,σ(1) · · · an,σ(n) (2)
σ∈Sn
Beweis.
1. Existenz: Es sei d : K n×n → K definiert durch
X
d(A) := sign(σ) · a1,σ(1) · · · an,σ(n) (A = (ajk ) ∈ K n×n ) .
σ∈Sn
An
mit τ := [j, k] nach S.11.6 und B.11.5.2 sign(σ ◦ τ ) = −sign(σ) für alle σ ∈ Sn also
X
d(A) = sign(σ)a1,σ(1) · · · an,σ(n) =
σ∈Sn
X
sign(σ)a1,σ(1) · · · aj,σ(j) · · · ak,σ(k) · · · an,σ(n) +
σ∈Sn
σ gerade
X
−sign(σ)a1,σ(τ (1)) · · · aj,σ(τ (j)) · · · ak,σ(τ (k)) · · · an,σ(τ (n)) .
σ∈Sn
σ gerade
sowie am,σ(τ (m)) = am,σ(m) für m 6= j, k. Also ist der erste Summand das Negative des
zweiten, d. h. d(A) = 0.
Ist A = E = (δjk ) so ist von der Summe
X
d(E) = sign(σ)δ1,σ(1) · · · δn,σ(n)
σ∈Sn
nur der Summand für σ = id nicht 0 und dieser hat den Wert 1, also d(E) = 1.
2. Eindeutigkeit: Es seien d1 und d2 Determinantenabbildungen, und es sei A ∈ K n×n ,
wobei o. E. A 6= 0. Wir zeigen: d1 (A) = d2 (A). Dazu sei B eine gemäß S.10.15 aus A
durch elementare Zeilenumformungen (der Form Zj ↔ Zk und Zj + λZk ) entstandene
Matrix in Zeilenstufenform. Nach B. 11.8 gilt
wobei m die Anzahl der Zielenvertauschungen beim Übergang von A nach B bezeich-
net. Also genügt es, zu zeigen:
d1 (B) = d2 (B) .
B1
.
Es sei B = .
. = (bjk ) .
Bn
1. Fall: Rg(B) < n. Dann ist Bn = 0. Durch Addition von B1 zu Bn = 0 entsteht eine
Matrix B (1) mit deti (B (1) ) = deti (B) (i = 1, 2) und mit zwei gleichen Zeilen. Also ist
d1 (B) = d2 (B) = 0 .
11 DETERMINANTEN 83
Bn /bnn
(1)
gilt dann bjj = 1 (1 ≤ j ≤ n) und nach D.11.7 a)
n
Y
di (B (1) ) = di (B)/ bjj (i = 1, 2) .
j=1
(1)
Durch weitere elementare Zeilenumformungen der Form Zj +λZk (Addition des (−bjn )-
fachen der letzten Zeile zur j-ten Zeile für j = 1, . . . , n − 1 u. s. w.; vgl. B.10.10) lässt
sich B (1) in die Einheitsmatrix E transformieren. Nach B.11.8 gilt dann di (B (1) ) =
di (E) = 1. Also gilt insgesamt
n
Y n
Y
di (B) = bjj · di (B (1) ) = bjj (i = 1, 2) ,
j=1 j=1
Beispiel 11.10 Für n = 2 gilt S2 = {id, σ}, wobei σ = [2, 1], also
!
a11 a12
det A = det =
a21 a22
= sign(id)a1,id(1) a2,id(1) + sign(σ)a1,σ(1) a2,σ(2)
= a11 a22 − a12 a21 .
det(A) = det(AT )
2. Aus dem Beweis zu S. 11.9 ergibt sich auch folgende Charakterisierung der Inver-
tierbarkeit einer Matrix: Ist A ∈ K n×n , so gilt
A invertierbar ⇔ det(A) 6= 0
(Denn: Ist B wie im Beweisteil 2. zu S.11.9 so gilt Rg(A) = Rg(B) und nach dem
Beweisteil 2. damit
n
(−1)m
Q
bjj 6= 0, falls Rg(A) = n
det A = (−1)m det B = j=1 .)
0 falls Rg(A) < n
Beweis.
1. Fall: Rg(B) < n. Dann ist Rg(AB) < n nach S. 8.18, also
nach B. 11.11.2.
2. Fall: Rg(B) = n. Dann ist det(B) 6= 0 nach B. 11.11.2 .
Wir betrachten d : K n×n → K mit
det(AB)
d(A) := (A ∈ K n×n ) .
det B
Wir zeigen: d ist eine Determinantenabbildung, also d = det nach S. 11.9. Dies ist die
Behauptung.
11 DETERMINANTEN 85
A1
. n
.
. und b ∈ K , λ, µ ∈ K. Dann gilt
Es sei A = (ajk ) =
An
A1 A1
.. ..
.
.
T
1
T
d
λAj + µb
= det λAj + µb
B =
det B
.. ..
.
.
An An
A1 B
..
.
1
λAj B + µbT B =
= det
det B
.
..
An B
A1 B A1 B
. .
.. ..
1
T
= · λ det Aj B + µ det
b B
det B . .
.. ..
An B An B
A1
.
..
= λd(A) + µd b T
,
.
..
An
also ist a) aus D. 11.7 erfüllt. Gilt Aj = Ak für j < k, so ist Aj B = Ak B, d. h. zwei
Zeilen von AB stimmen überein. Also ist
1
d(A) = · det(AB) = 0 .
det B
Ist schließlich A = E, so ist AB = B, also d(E) = 1. 2
Wir ergänzen diesen Abschnitt durch eine zumindest theoretisch nützliche Formel für
die Berechnung von Determinanten.
11 DETERMINANTEN 86
Definition 11.13 Es seien A = (ajk ) ∈ K n×n , wobei n > 1, und j, k ∈ {1, . . . , n}.
Die Matrix Sjk (A) ∈ K (n−1)×(n−1) , die aus A durch Streichen der j-ten Zeile und der
k-ten Spalte entsteht heißt Streichungsmatrix (bzgl. (j, k)) von A.
(Ist etwa
1 2 3
A= 4 5 6 ,
7 8 9
so ist
!
1 2
S23 (A) = .)
7 8
Beweis.
Wir zeigen (4). Die Formel (3) ergibt sich damit aus det(A) = det(AT ).
Es sei Ajk ∈ K n×n die Matrix, die aus A durch Ersetzen der j-ten Zeile Aj durch eTk
und Ersetzen der k-ten Spalte a(k) durch ej entsteht, d. h.
a11 . . . 0 . . . a1n
. .. ..
.. . .
Ajk = 0 . . . 1 . . . 0 ←j
. . .
.. .. ..
an1 0 amn
↑
k
Behauptung: Es gilt
n
X
ajk det Ajk = det A .
k=1
11 DETERMINANTEN 87
(Denn: Ist A0jk ∈ K n×n die Matrix, in der die j-te Zeile Aj durch eTk ersetzt ist, so
läßt sich Ajk aus A0jk durch Zeilenoperationen vom Typ (Zν + λZµ ) gewinnen (man
addiere zur i-ten Zeile von A0jk das (−aik )-fache der j-ten Zeile von A0jk (i 6= j)). Also
n
gilt nach B.11.8 det Ajk = det A0jk . Schreibt man Aj = ajk eTk , so ergibt sich aus
P
k=1
D.11.7 a)
n
X n
X
det A = ajk det(A0jk ) = ajk det(Ajk ) .)
k=1 k=1
Entsprechend erhält man durch j − 1 (falls j > 1) Vertauschungen von Zeilen aus Bjk
eine Matrix Cjk mit det(Bjk ) = (−1)j−1 det(Cjk ), wobei Cjk von der Form
1 0 ... 0
0
Cjk = . =: (dµν )µ,ν=1,... ,n
.. Sjk (A)
0
ist. Hierfür gilt
X n
Y
det(Cjk ) = sign(σ)d1,σ(1) · dµ,σ(µ)
σ∈Sn µ=2
X n
Y
= sign(σ) · d11 · dµ,σ(µ)
σ∈Sn µ=2
σ(1)=1
X n−1
Y
= sign(τ ) · dµ+1,τ (µ)+1 = det(Sjk (A)) .
τ ∈Sn−1 µ=1
(Man beachte: Jedem σ ∈ Sn mit σ(1) = 1 entspricht genau ein τ ∈ Sn−1 , nämlich τ
mit τ (µ) := σ(µ + 1) − 1, und es gilt dabei sign(σ) = sign(τ ).)
Also gilt insgesamt
n
X n
X
det A = ajk det Ajk = ajk (−1)(j−1)+(k−1) det(Cjk )
k=1 k=1
Xn
= ajk (−1)j+k det(Sjk (A)) .
k=1
2
11 DETERMINANTEN 88
Bemerkung 11.16 Determinanten können auch dazu verwandt werden, die Lösung
x = A−1 b eines LGS Ax = b mit invertierbarer Matrix A ∈ K n×n darzustellen: Sind
a(k) die Spalten von A, so gilt
1
xk = · det(a(1) , . . . , a(k−1) , b, a(k+1) , . . . , a(n) ) (k = 1, . . . , n) .
det(A)
Darüber hinaus lässt sich auch die Inverse A−1 durch Determinanten darstellen: Ist
(−1)
A−1 =: (ajk ), so gilt
(−1) 1
ajk = (−1)j+k det(Skj (A)) (j, k = 1 . . . , n)
det A
(siehe [Ü]).
12 EIGENWERTE 89
12 Eigenwerte
Ein wesentliches Anliegen der Linearen Algebra besteht darin, Aussagen über das Ab-
bildungsverhalten linearer Selbstabbildungen T (d. h. T ∈ L(V )) zu machen. Beson-
ders einfach ist die Wirkung von T auf ein v ∈ V , wenn T v lediglich eine “Streckung”
von v bewirkt, d. h. T v = λv für ein λ ∈ K gilt. Dies führt auf
Definition 12.1 Es sei V ein linearer Raum über K, und es sei T ∈ L(V )(= L(V, V )).
Ein λ ∈ K heißt Eigenwert von T , falls ein v ∈ V, v 6= 0, existiert mit
T v = λv (bzw. (T − λI)(v) = 0) ,
wobei I := idV . Ist λ Eigenwert von T , so heißt Kern(T − λI) Eigenraum (von T ) zu
λ und jedes v ∈ Kern(T − λI) heißt Eigenvektor (von T ) zu λ.
Indem wir A ∈ K n×n wieder mit T ∈ L(K n ) mit T x = Ax (x ∈ K n ) identifizieren
(siehe B./D.8.9) können wir damit auch von “Eigenwert von A” bzw. “Eigenraum”
oder “Eigenvektor von A” reden.
Offenbar ist λ genau dann Eigenwert von A, wenn das LGS (A−λE)x = 0 eine Lösung
x 6= 0 hat, also genau dann, wenn det(A − λE) = 0 ist (B. 11.11).
2. Es sei
!
0 1
A= .
−1 0
Dann gilt
!
−λ 1
det(A − λE) = det = λ2 + 1 .
−1 −λ
Also: Ist K = R, so ist det(A − λE) 6= 0 für alle λ ∈ R, d. h. A hat keinen Eigenwert.
Ist andererseits K = C, so gilt det(A − λE) = 0 für λ = ±i, d. h. λ1,2 = ±i sind
Eigenwerte von A.
12 EIGENWERTE 90
Insbesondere zeigt das Beispiel, dass nicht jede Matrix A ∈ R2×2 einen Eigenwert be-
sitzt!
Beweis.
Es gilt A − λE = (ãjk ) mit
(
ajj − λ , falls j = k
ãjk = .
ajk , falls j 6= k
Also folgt aus (2) mit gewissen αν ∈ K
X
det(A − λE) = sign(σ)ã1,σ(1) · · · ãn,σ(n) =
σ∈Sn
X
= (a11 − λ) · · · (ann − λ) + sign(σ)ã1,σ(1) · · · ãn,σ(n)
σ∈Sn
σ6=id
n−1
X X
= (−1)n λn + αν λν + ã1,σ(1) · · · ãn,σ(n) .
ν=0 σ∈Sn
σ6=id
P
Da in jedem Summanden von ã1,σ(1) · · · ãn,σ(n) Faktoren der Art (ajj − λ)
σ∈Sn \{id}
höchstens (n − 1)-mal auftauchen, ist insgesamt
n−1
X
n n
P (λ) = det(A − λE) = (−1) λ + βν λν
ν=0
mit gewissen βν ∈ K. 2
Bemerkung und Definition 12.4 Es sei A ∈ Kn×n . Dann sind die Eigenwerte von
A genau die Nullstellen des Polynoms PA . Das Polynom PA ∈ Πn heißt charaktristi-
sches Polynom von A
Definition 12.5 Es seien A, B ∈ K n . Dann heißen A und B ähnlich, falls eine inver-
tierbare Matrix C ∈ K n×n existiert mit
B = C −1 AC .
Damit gilt:
12 EIGENWERTE 91
PA = PB .
Beweis.
Es sei C ∈ GLn (K) mit B = C −1 AC. Dann gilt für λ ∈ K
B − λE = C −1 AC − C −1 (λE)C = C −1 (A − λE)C ,
A = ϕM (T ) , B = ϕN (T ) ,
B = C −1 AC .
Beweis.
Zunächst gilt nach S.8.8
Definition 12.8 Es seien V ein n-dimensionaler linearer Raum über K und T ∈ L(V ).
Ist M eine Basis von V , so heißt das Polynom vom Grad n
P := PT := PϕM (T )
charakteristisches Polynom von T . (Wichtig: Nach S.12.6 und S.12.7 ist PT unabhängig
von der Wahl von M !).
12 EIGENWERTE 92
Satz 12.9 Mit den Bezeichnungen aus D. 12.8 sind für λ ∈ K äquivalent
c) PT (λ) = 0.
Beweis.
1. Ist ψM : V → Kn die Koordinatenabbildung bzgl. M (vgl. B./D.6.8) und A :=
ϕM (T ), so gilt
−1
Ax = (ψM ◦ T ◦ ψM )x (x ∈ K n ) .
−1
(Denn: Für k = 1, . . . , n gilt ψM (vk ) = ek bzw. ψM (ek ) = vk . Nach der Definition der
Koordinatenmatrix A = (ajk ) gilt damit für k = 1, . . . , n
Xn
−1
(ψM ◦ T ◦ ψM )ek = ψM (T vk ) = ψM ( ajk vj ) =
j=1
n n
a1k
X X .
= ajk ψM (vj ) = ajk ej = .
. = Aek .
j=1 j=1
ank
−1
Da x 7→ Ax und ψM ◦ T ◦ ψM linear auf K n sind, folgt die Behauptung mit S.8.1.)
2. a) ⇒ b): Ist T v = λv für ein v ∈ K \ {0}, so gilt für x = ψM (v) ∈ Kn \ {0} nach 1.
In B. 12.2 hatten wir gesehen, dass für gerades n lineare Abbildungen auf Rn i.
! a.
0 1
keine Eigenwerte besitzen (man setze für n = 2 etwa T x = Ax mit A = ).
−1 0
Unter Verwendung des Fundamentalsatzes der Algebra bzw. des Zwischenwertsatzes
aus der Analysis können wir jedoch folgendes wichtige Ergebnis beweisen.
Satz 12.10 Es sei V linearer Raum über K mit dim(V ) = n ∈ N, und es sei T ∈ L(V )
1. Ist K = C, so hat T mindestens einen Eigenwert.
2. Ist K = R, und ist n ungerade, so hat T mindestens einen Eigenwert.
12 EIGENWERTE 93
Beweis. n
aν z ν und
P
1. Nach dem Fundamentalsatz der Algebra gilt: Ist P ∈ ΠC mit P (z) =
ν=0
an 6= 0 (d. h. deg(P ) = n), so existieren z1 , . . . , zn ∈ C mit
n
Y
P (z) = an · (z − zk ) (z ∈ C) ,
k=1
Satz 12.11 Es sei V ein linearer Raum über K, und es es T ∈ L(V ). Ferner seien
λ1 , . . . , λm Eigenwerte von T mit λj 6= λk für k 6= j.
1. Sind v1 , . . . , vm ∈ V \ {0} zugehörige Eigenvektoren (d. h. T vj = λj vj (j =
1, . . . , m)), so sind v1 , . . . , vm linear unabhängig.
2. Die Summe der zugehörigen Eigenräume ist direkt, d. h.
m
X m
M
Kern(T − λj I) = Kern(T − λj I) (j = 1, . . . , m) .
j=1 j=1
Beweis.
1. Angenommen, v1 , . . . , vm sind linear abhängig. Nach dem Beweisschritt 2. zu S.5.8
existiert
(mit < ∅ >= {0}), und es gilt k ≥ 2 und v1 , . . . , vk−1 sind linear unabhängig. Sind
β1 , . . . , βk−1 ∈ K so, dass
k−1
X
vk = βj vj ,
j=1
so folgt
k−1
X k−1
X
T vk = T βj vj = βj λj νj .
j=1 j=1
Wir wenden uns dem Problem der “Diagonalisierbarkeit” linearer Abbildungen zu.
Worum geht es dabei? Angenommen, T ∈ L(V ) ist so, dass eine Basis (v1 , . . . , vn ) aus
Eigenvektoren existiert. Dann ist das Abbildungsverhalten von T sehr übersichtlich:
Es gilt nämlich mit T vk = λk vk für alle v ∈ V
n n n n
! !
X X X X
T (v) = T βk vk = βk T vk = βk λk vk v= βk vk .
k=1 k=1 k=1 k=1
λ1 0 ... 0
.. .. ..
0 . . .
Ist A = ∈ K n×n , so hat T ∈ L(K n ) mit T x = Ax offenbar
.. .. ..
. . . 0
0 . . . 0 λn
obige Eigenschaft für (v1 , . . . , vn ) = (e1 , . . . , en )
(denn es gilt T (ek ) = Aek = λk ek für k = 1, . . . , n).
12 EIGENWERTE 95
d. h.
λ1 0 ... 0
.. ..
0 λ2 . .
D= .
.. .. ..
. . . 0
0 ... 0 λn
Es gilt dann:
Satz 12.13 Es sei V ein n-dimensionaler linearer Raum über K, und es sei T ∈ L(V ).
Dann sind äquivalent:
a) T ist diagonalisierbar.
b) Es existiert eine Basis M von V so, dass ϕM (T ) eine Diagonalmatrix ist.
m
L
c) Es ist V = Kern(T − λj · I), wobei λ1 , . . . , λm die paarweise verschiedenen
j=1
Eigenwerte von T sind.
m
P
d) Es ist dim(V ) = dim(Kern(T − λj I)), wobei λ1 , . . . , λm wie in c).
j=1
Beweis.
a) ⇒ b): Ist M = (v1 , . . . , vn ) eine Basis aus Eigenvektoren von T , so existieren
µ1 , . . . , µn ∈ K mit T vk = µk vk (k = 1, . . . , n). Also gilt nach Definiton von ϕM (T ) =
A = (ajk ):
( )
µk , falls j = k
ajk = (= µk δjk ) ,
0 , sonst
d. h. ϕM (T ) = diag(µ1 , . . . , µn ).
b) ⇒ a): Existiert eine Basis M = (v1 , . . . , vn ) von V mit A = ϕM (T ) = diag(µ1 , . . . , µn ),
so gilt für k = 1, . . . , n
n
X
T (vk ) = ajk vj = µk vk
j=n
12 EIGENWERTE 96
n
X m
X X m
X
v= βk vk = βk vk ∈ Kern(T − λj · I)
k=1 j=1 k:µk =λj j=1
m
(j) (j) P
Wir wählen Basen (v1 , . . . , vdj ) von Uj := Kern(T − λj · I). Dann ist n = dj , d.
j=1
h.
(1) (1) (m) (m)
M := (v1 , . . . , vd1 , . . . , v1 , . . . , vdm )
besteht aus n Elementen. Wir zeigen: M ist linear unabhängig (dann ist M auch Basis
von V nach S. 5.15, also eine Basis aus Eigenvektoren).
(j)
Es seien also αk ∈ K für k = 1, . . . , dj ; j = 1, . . . , m mit
dj
m X m
(j) (j)
X X
0= αk vk = uj
j=1 k=1 j=1
dj
P (j) (j)
wobei uj = αk vk ∈ Uj . Aus S.12.11.2 folgt, dass uj = 0 für j = 1, . . . , m gelten
k=1
muss, also
dj
(j) (j)
X
αk vk = 0 (j = 1, . . . , m) .
k=1
Bemerkung 12.14 1. Insbesondere folgt aus S. 12.13 (oder auch schon aus S. 12.11),
dass ein T ∈ L(V ) sicher dann diagonalisierbar ist, wenn n = dim(V ) paarweise
verschiedene Eigenwerte existieren. Dies ist jedoch nicht notwendig für die Diagona-
lisierbarkeit (etwa T = idK n hat nur den Eigenwert λ = 1, ist aber diagonalisierbar,
denn die kanonische Basis ist eine Basis aus Eigenvektoren).
2. Notwendig für die Diagonaliserbarkeit ist natürlich, dass zumindest ein Eigenwert
existiert. Dies ist jedoch nicht hinreichend.
(Man betrachte etwa T ∈ L(R2 ) mit
!
1 1 x1 x1 2
T x = Ax := x= ∈R .
0 1 x2 x2
Dann gilt
!
1−λ 1
PT (λ) = PA (λ) = det(A − λE) = det = (1 − λ)2 ,
0 1−λ
also dim(Kern(T − I)) = 1 < 2 = dim(V ). Nach S. 12.13 ist also T nicht diagonali-
sierbar.)
3. Eine Matrix A ∈ K n×n ist diagonalisierbar genau dann, wenn ein C ∈ GLn (K) und
λ1 , . . . , λn ∈ K existieren mit
C −1 AC = diag(λ1 , . . . , λn ) .
(Denn: Ist A diagonalisierbar, so existiert nach S.12.13 eine Basis M von K n so, dass
die Matrix von x 7→ Ax bzgl. M eine Diagonalmatrix ist. Nach S. 12.7 existiert dann
ein C wie behauptet (man beachte dabei: A ist die Matrix von x 7→ Ax bzgl. der
kanonischen Basis).
Existiert umgekehrt ein solches C, so ist diag(λ1 , . . . , λn ) die Matrix von x 7→ Ax bzgl.
(Ce1 , . . . , Cen ), denn es gilt
für k = 1, . . . , n.)
12 EIGENWERTE 98
Weiterhin kann man sich überlegen, dass der “Winkel α zwischen x und y” in R2 \ {0}
gegeben ist durch
xT y
α = arccos ,
||x|| ||y||
wobei man < x, y >:= xT y als Skalarprodukt von x und y bezeichnet. Um Analysis
oder Geometrie in allgmeineren linearen Räumen treiben zu können, brauchen wir
Abstände, Normen oder Skalarprodukte in diesen Räumen.
Definition 13.1 Es sei V ein linearer Raum über K. Eine Abbildung < ·, · >: V ×
V → K heißt Skalarprodukt (auf V ) (oder inneres Produkt (auf V )), falls folgende
Bedingungen gelten:
(S.1) < x, x >≥ 0 für alle x ∈ V und < x, x >= 0 gilt genau dann wenn x = 0 ist,
(S.2) < x, y >= < y, x > für alle x, y ∈ V ,
(S.3) x 7→< x, y > ist linear für alle y ∈ V (d. h. für alle y ∈ V, x1 , x2 ∈ V, λ1 , λ2 ∈ K
gilt
Einen linearen Raum mit Skalarprodukt (V, < ·, · >) nennt man unitären Raum. Im
Falle K = R spricht man auch von einem euklidischen Raum.
Bemerkung 13.2 1. Für z ∈ C bedeutet “z ≥ 0”, daß z reell und nichtnegativ ist,
d. h. auch im Falle K = C ist < x, x > stets reell (und ≥ 0).
2. “ · ” in (S.2) bedeutet komplexe Konjugation, d. h. ist z = x + iy mit x, y ∈ R, so
ist z = x − iy. Ist K = R, so ist als (S.2) als < x, y >=< y, x > (x, y ∈ V ) zu lesen.
3. Aus (S.2) und (S.3) folgt, daß y 7→< x, y > “konjugiert-linear” ist, d. h. für λ1 , λ2 ∈
K und y1 , y2 ∈ V gilt
(denn:
(wobei y := (y1 , . . . , yn )). Dann ist < ·, · > ein Skalarprodukt auf Kn , das auch als
kanonisches Skalarprodukt bezeichnet wird ([Ü]).
2. Es sei [a, b] ⊂ R ein kompaktes Intervall. Wir setzen
Dann ist C[a, b] ein Unterraum von K[a,b] = {f : [a, b] → K}, also ein linearer Raum
über K.
(In der Analysis zeigt man: Sind f, g : [a, b] → K stetig und λ ∈ K, so sind auch f + g
und λf stetig auf [a, b]).
Wir definieren < ·, · >: C[a, b] × C[a, b] → K durch
Zb
< f, g >:= f (t)g(t)dt (f, g ∈ C[a, b]) .
a
(N.1) ||x|| ≥ 0 für alle x ∈ V , und es gilt ||x|| = 0 genau dann, wenn x = 0 ist,
(N.3) (Dreiecksungleichung)
||x + y|| ≤ ||x|| + ||y|| für alle x, y ∈ V .
Der folgende Satz zeigt, dass jedes Skalarprodukt eine Norm induziert:
13 SKALARPRODUKTE UND NORMEN 101
Satz 13.5 Es sei (V, < ·, · >) ein unitärer Raum über K. Wir setzen für x ∈ V
√
||x|| := < x, x > .
Dann gilt:
1. Für alle x, y ∈ V ist
2. (Cauchy-Schwarz’sche Ungleichung)
Für alle x, y ∈ V gilt
Beweis.
1. Für x, y ∈ V gilt
||x + y||2 = < x + y, x + y >=< x, x > + < x, y > + < y, x > + < y, y >=
= ||x||2 + ||y||2 + < x, y > + < y, x > .
2. Ist y = 0, so ist < x, y >=< x, 0 >= 0, also die Behauptung trivial. Es sei also
y 6= 0. Für alle λ ∈ K gilt nach 1., (S.1), (S. 3) sowie B. 13.2.3
0 ≤ < x − λy, x − λy >= ||x||2 + || − λy||2 + < x, −λy > + < −λy, x >
= ||x||2 + λλ < y, y > −λ < x, y > −λ < y, x > .
Für λ :=< x, y > /||y||2 =< x, y > / < y, y > ergibt sich
0 ≤ ||x||2 + < x, y > < x, y >/||y||2 − < x, y > < x, y > /||y||2 − < x, y >< y, x > /||y||2 .
| < x, y > |2 =< x, y > < x, y > =< x, y >< y, x >≤ ||x||2 · ||y||2 = (||x|| ||y||)2 .
also (N.3). 2
13 SKALARPRODUKTE UND NORMEN 102
Beispiel 13.6 1. Es sei V = Kn und < ·, · > das kanonische Skalarprodukt. Dann ist
nach S. 13.5
v
√ u n
uX
T
||x||2 := ||x|| := x x = t |xj |2 (x = (x1 , . . . , xn )T ∈ Kn )
j=1
eine Norm auf Kn (im Falle K = R heißt || · ||2 euklidische Norm). Die Cauchy-
Schwarz’sche Ungleichung lautet hier
v v
n
u n u n
X uX uX
| xj y j | ≤ t 2
|xj | t |yj |2 (x1 , . . . , xn , y1 , . . . , yn ∈ K) .
j=1 j=1 j=1
und
n
X
||x||1 := |xj | (x = (x1 , . . . , xn )T ∈ Kn )
j=1
(das ||·||∞ , ||·||1 Normen auf Kn sind, ergibt sich leicht aus Eigenschaften des Betrages
| · | auf K).
2. Es sei V = C[a, b] mit < ·, · > aus B. 13.3.2. Dann ist nach S. 13.5
v
u b
uZ
||f ||2 := ||f || := t |f (t)|2 dt (f ∈ C[a, b])
u
eine Norm auf C[a, b]. Weitere wichtige Normen auf C[a, b] sind
und
Zb
||f ||1 := |f (t)|dt (f ∈ C[a, b])
a
(das ||f ||∞ , ||f ||1 Normen auf C[a, b] sind folgt aus Standardergebnissen der Analysis)
Bemerkung 13.7 Aus S. 13.5.1. ergeben sich leicht folgende Indentitäten, die in je-
dem unitären Raum für die induzierte Norm gelten:
1. (Parallelogrammidentität)
2. (Polarisierungsidentität)
1 2 2
4 (||x + y|| − ||x − y|| ), falls K = R
< x, y >= .
1
+ y||2 − ||x − y||2 + i||x + iy||2 − i||x − iy||2 ), falls K = C
4 (||x
||x + y||2 + ||x − y||2 = 2||x||2 + 2||y||2 + < x, y > + < y, x > + < x, −y > + < −y, x >
= 2||x||2 + 2||y||2
und im Falle K = R
||x + y||2 − ||x − y||2 = < x, y > + < y, x > − < x, −y > − < −y, x >=
= 2 < x, y > +2 < y, x >= 4 < x, y > .
Hieraus folgt, dass z. B. auf Kn die Normen || · ||∞ und || · ||1 (für n ≥ 2) nicht von
einem Skalarprodukt herrühren.
(Denn:
und
14 Orthogonalität
Zu Beginn des Abschnittes 13 hatten wir bemerkt, dass der “Winkel” zwischen zwei
Vektoren x, y ∈ R2 gegeben ist durch
xT y
α = arccos (∈ [0, π])
||x|| ||y||
x yT
(man beachte: ||x|| ||y|| ∈ [−1, 1] nach der Cauchy-Schwarz’schen Ungleichung). Insbe-
sondere gilt α = π/2 (= ˆ 90 Grad) für xT y = 0, d. h. ist xT y = 0, so stehen x und y
senkrecht aufeinander.
14 ORTHOGONALITÄT 104
Definition 14.1 Es sei V = (V, < ·, · >) ein unitärer Raum. Ferner seien x, y ∈ V
und M, N ⊂ V .
1. x, y heißen orthogonal (oder senkrecht zueinander), falls < x, y >= 0 ist. Wir schrei-
ben dann x ⊥ y.
2. x heißt orthogonal zu M (oder senkrecht stehend auf M ), falls x ⊥ y für alle y ∈ M .
Wir schreiben dann x ⊥ M .
3. M und N heißen orthogonal (oder senkrecht zueinander), falls x ⊥ y für alle x ∈
M, y ∈ N . Wir schreiben dann M ⊥ N .
4. Die Menge
M ⊥ := {x ∈ V : x ⊥ y für alle y ∈ M }
paarweise orthogonal.
(Denn: Die Funktion eik · ist 2π-periodisch. Also gilt für k 6= j (→ Analysis)
Zπ Zπ
ij · ik ·
<e ,e > = eijt eikt dt = eijt e−ikt dt
−π −π
Zπ
1
= ei(j−k)t dt = ei(j−k)t |πt=−π = 0 .)
i(j − k)
−π
cos(k ·)
(t ∈ [−π, π], k ∈ N0 )
sin(k ·)
paarweise orthogonal (d. h. cos(k ·) ⊥ cos(j ·), sin(k ·) ⊥ sin(j ·) für k 6= j und sin(k ·) ⊥
cos(k ·) für alle k ∈ N0 ).
3. Es sei V = Rn mit kanonischem Skalarprodukt. Für ein a = (a1 , . . . , an )T ∈ Rn \{0}
sei
Dann ist
M ⊥ = {x ∈ Rn : λa ⊥ x für alle λ ∈ Rn } =
n
X
T
= {x = (x1 , . . . , xn ) : λ aj xj = 0 für alle λ ∈ R}
j=1
n
X
= {x = (x1 , . . . , xn )T : aj xj = 0} = {a}⊥ =: Ua
j=1
a ⊥ Ua .
Satz 14.3 (Pythagoras) Es sei V ein unitärer Raum, und es seien x, y ∈ V . Sind
x, y orthogonal, so gilt
Beweis.
Der Beweis ergibt sich sofort aus S. 13.5.1 und < x, y >=< y, x >= 0. 2
genau dann gilt, wenn < x, y > + < y, x >=< x, y > +< x, y > = 2 Re < x, y >= 0
ist. Also ist im Falle K = R die Bedingung x ⊥ y auch notwendig.
Satz 14.5 Es seien M, N ⊂ V , wobei V ein unitärer Raum ist. Dann gilt
1. M ⊥ ist ein Unterraum von V .
2. M ⊂ M ⊥⊥ (:= (M ⊥ )⊥ ).
3. Aus M ⊂ N folgt N ⊥ ⊂ M ⊥ .
4. M ⊥ =< M >⊥ .
5. M ∩ M ⊥ ⊂ {0}.
6. Ist M ein Unterraum, so ist die Summe M + M ⊥ direkt, d. h. M + M ⊥ = M ⊕ M ⊥ .
14 ORTHOGONALITÄT 106
Beweis.
1. Es seien x1 , x2 ∈ M ⊥ und λ1 , λ2 ∈ K. Dann gilt für alle y ∈ M
Definition 14.6 Es sei V = (V, < ·, · >) ein unitärer Raum, und es sei I 6= ∅ sowie
(xα )α∈I (∈ V I ) eine Familie von Vektoren aus V .
1. (xα )α∈I heißt Orthogonalsystem (OGS), falls xα ⊥ xβ für alle α, β ∈ I, α 6= β.
2. (xα )α∈I heißt Orthnormalsystem (ONS), falls (xα )α∈I ein Orthogonalsystem ist mit
||xα || = 1 für alle α ∈ I.
3. (xα )α∈I heißt Orthonormalbasis (ONB), falls (xα )α∈I ein Orthonormalsystem und
eine Basis ist.
Bemerkung 14.7 1. Ist (xα )α∈I ein OGS mit xα 6= 0 für alle α ∈ I, so ist (xα /||x||α )α∈I
ein ONS (wobei x/λ := λ−1 · x für x ∈ V, λ ∈ K).
(
1, α = β
2. (xα )α∈I ist genau dann ein ONS, wenn < xα , xβ >= δαβ := gilt.
0, α 6= β
3. Ist (xα )α∈I ein OGS, so gilt für alle endlichen J ⊂ I:
X X
|| xj ||2 = ||xj ||2 (5)
j∈J j∈J
Satz 14.9 Es sei V ein unitärer Raum, und es sei (xα )α∈I ein OGS in V . Ist xα 6= 0
für alle α ∈ I, so ist (xα )α∈I linear unabhängig.
Beweis.
Es sei J ⊂ I endlich und es seien λj ∈ K (j ∈ J) mit
X
0= λj xj .
j∈J
Ist (x1 , . . . , xn ) eine Basis eines (beliebigen) linearen Raumes V , so hat bekanntlich
Pn
jedes x ∈ V eine eindeutige Darstellung x = λj xj . Ist V unitär und (x1 , . . . , xn )
j=1
eine ONB, so lassen sich die Koeffizienten λj dabei “explizit” angeben.
Satz 14.10 Es sei V ein unitärer Raum, und es sei (x1 , . . . , xn ) eine ONB von V .
Dann gilt für jedes x ∈ V
n
X
x= < x, xj > xj (6)
j=1
Beweis.
Da (x1 , . . . , xn ) eine Basis von V ist, existieren λ1 , . . . , λn ∈ K mit
n
X
x= λj xj .
j=1
14 ORTHOGONALITÄT 108
In der Darstellungsformel (6) liegt einer der wesentlichen Vorteile einer ONB gegenüber
einer beliebigen Basis. Der folgende Satz gibt ein Verfahren an, nach dem man aus
einer Basis eines unitären Raumes eine ONB konstruieren kann.
Beweis.
Wir zeigen per Induktion nach m(≤ n): Durch (8) ist ein OGS (y1 , . . . , ym ) definiert
mit span(y1 , . . . , ym ) = span(x1 , . . . , xm )
m = 1: Für y1 := x1 gilt: (y1 ) ist ein OGS mit span(x1 ) = span(y1 )
m → m + 1: Nach Induktionsvoraussetzung ist durch (8) ein OGS (y1 , . . . , ym ) de-
finiert mit span(y1 , . . . , ym ) = span(x1 , . . . , xm ). Insbesondere ist yk 6= 0 für k =
1, . . . , m (da dim span(y1 , . . . , ym ) = dim span(x1 , . . . , xm ) = m). Damit können wir
m
X < xm+1 , yν >
ym+1 := xm+1 − yν
||yν ||2
ν=1
also ist, da (y1 , . . . , ym ) ein OGS ist, auch (y1 , . . . , ym+1 ) ein OGS. Aus der Definition
von ym+1 folgt
y
Folgerung 14.12 Unter den Voraussetzungen von S. 14.11 gilt: Ist uj := ||yjj || für
j = 1, . . . , n, so ist (u1 , . . . , un ) ein ONS in V mit span(x1 , . . . , xk ) = span(u1 , . . . , uk )
für k = 1, . . . , n. Weiterhin gilt: Ist V n-dimensional, so ist (u1 , . . . , un ) eine ONB von
V . Insbesondere hat also jeder endlich-dimensionale unitäre Raum V 6= {0} eine ONB.
Denn: Nach S. 14.11 ist (y1 , . . . , yn ) ein OGS mit yk 6= 0 für k = 1, . . . , n, also
folgt die erste Behauptung aus B. 14.7.1. Nach S.14.11 gilt dabei span(x1 , . . . , xk ) =
span(u1 , . . . , uk ) für k = 1, . . . , n. Ist V endlich-dimensional mit dim(V ) = n, so ist
(x1 , . . . , xn ) eine Basis von V , also ist auch (u1 , . . . , un ) eine Basis von V (beachte:
span(u1 , . . . un ) = span(x1 , . . . , xn )).
4 1
Beispiel 14.13 Es sei V = R2 , und es seien x1 =
2 , x2 = 3 . Dann ist nach S.
14.11 durch
4
y1 := x1 =
2
und
< x2 , y1 >
y2 := x2 − y1
||y1 ||2
(1, 3) · 42 4
1
= −
|| 42 ||2
3 2
1 1 4 −1
= − =
3 2 2 2
Satz 14.14 Es sei V ein unitärer Raum, und es sei U ⊂ V ein endlich-dimensionaler
Unterraum. Dann gilt
1. V = U ⊕ U ⊥ ,
2. U ⊥⊥ = U .
Beweis.
1. Nach S. 14.5.6 genügt es, zu zeigen: V ⊂ U + U ⊥ . O. E. sei U = 6 {0}, also n :=
dim(U ) > 0. Nach F. 14.12 existiert eine ONB (u1 , . . . , un ) von U . Es sei x ∈ V
gegeben. Wir setzen
Xn
u := < x, uj > uj ∈ U .
j=1
Bemerkung 14.15 Die Aussage des S. 14.14 wird i. a. falsch, wenn man auf die
Voraussetzung “dim(U ) < ∞” verzichtet. Mit Hilfe des Weierstraß’schen Approxi-
mationssatzes (→ Analysis) kann man zeigen, daß etwa für V = C[a, b] (mit dem
Skalarprodukt aus B. 13.3.2) und den Unterraum
U := {P|[a,b] : P Polynom}
gilt: U ⊥ = {0}, also U ⊕ U ⊥ = U 6= V .
15 PROJEKTIONEN 111
15 Projektionen
Im vorigen Abschnitt haben wir gesehen, daß für einen unitären Raum V und einen
endlich- dimensionalen Unterraum U stets V = U ⊕ U ⊥ gilt. In S. 5.20 hatten wir
gezeigt, daß für einen endlich-dimensionalen linearen Raum und einen Unterraum U
stets ein Unterraum W existiert mit V = U ⊕ W . Wir betrachten zunächst wieder
allgemeine lineare Räume.
Definition 15.1 Es sei V ein linearer Raum über K, und es seien U, W Unterräume
von V so, dass V = U ⊕ W gilt. Dann heißt P := PU,W : V → V , definiert durch
Bemerkung 15.2 Ist P = PU,W wie in D. 15.1, so gilt, wie man leicht sieht:
1. P ∈ L(V )
2. Bild(P ) = U ,
3. Kern(P ) = W ,
4. P 2 (:= P ◦ P ) = P .
Umgekehrt kann man zeigen ([Ü]):
Ist T ∈ L(V ) mit T = T 2 , so gilt T = PBild(T ),Kern(T ) , d. h. T ist Projektion auf
Bild(T ) längs Kern(T ).
Definition 15.4 Es sei V ein unitärer Raum, und es sei U ⊂ V ein Unterraum mit
V = U ⊕ U ⊥ . Dann heißt PU := PU,U ⊥ orthogonale Projektion (von V ) auf U :
Der folgende Satz verdeutlicht die Relevanz orthogonaler Projektionen für die Appro-
ximation in unitären Räumen.
15 PROJEKTIONEN 112
Satz 15.5 (Projktionssatz) Es sei V ein unitärer Raum, und es sei U ⊂ V ein
Unterraum mit V = U ⊕ U ⊥ . Dann gilt für alle x ∈ V
und für alle y ∈ U, y 6= PU x, ist ||x − y|| > dist(x, U ) (d. h. PU x ist die eindeutig
bestimmte Lösung des Problems “Minimiere den Abstand ||x − y|| über alle y ∈ U ”).
Beweis.
Es sei x ∈ V . Dann gilt
x = u + w = PU (x) + w
||x − y||2 = ||x − PU x + PU x − y||2 = ||x − PU x||2 + ||PU x − y||2 ≥ ||x − PU x||2 ,
also ||x − PU x|| = inf ||x − y|| und für y 6= PU x gilt ||PU x − y||2 > 0, also ||x − y|| >
y∈U
||x − PU x||. 2
Satz 15.6 Es sei V ein unitärer Raum, und es sei U ⊂ V ein (endlich-dimensionaler)
Unterraum mit ONB (u1 , . . . , um ). Dann gilt für alle x ∈ V
m
X
PU x = < x, uj > uj
j=1
Beweis.
Es sei x ∈ V . Aus dem Beweis zu S. 14.14.1 ergibt sich, dass für
m
X
u := < x, uj > uj ∈ U
j=1
gilt
x − u ∈ U ⊥.
15 PROJEKTIONEN 113
und damit nach der Parseval’schen Gleichung (7) und dem Satz von Pythagoras (5)
m
X m
X
| < x, uj > |2 = | < u, uj > |2 = ||u||2 ≤ ||u||2 + ||x − u||2 = ||x||2 .
j=1 j=1
Folgerung 15.7 Mit den Voraussetzungen und Bezeichnungen von S. 14.11 gilt
yk = xk − PUk−1 (xk ) (k = 2, . . . , n) ,
Da (u1 , . . . , uk−1 ) eine ONB vom Uk−1 ist, folgt die Darstellung aus S. 15.6.
Beispiel 15.8 Es sei V = (C[−π, π], C) mit dem Skalarprodukt aus B. 13.3.2.
Für n ∈ N sei
Un := span(eik · , k = −n, . . . , 0, . . . , n) .
Dann ist √1 eik · eine ONB von Un (vgl. B. 14.2). Für jedes f ∈ (C[−π, π]), C)
2π k=−n,... ,n
ist
n
X eik · eikt
Sn (t) := PUn (f )(t) = < f, √ > √
k=−n
2π 2π
n
X
= ak eikt (t ∈ [−π, π])
k=−n
mit
Zπ Zπ
1 1
ak = iks
f (s)e ds = f (s)e−iks ds
2π 2π
−π −π
15 PROJEKTIONEN 114
∞
ak eik · von f ). Es gilt nach S. 15.5
P
(Sn heißt n-te Teilsumme der Fourier-Reihe
k=−∞
und 15.6
und
Zπ
|f (t)|2 dt = ||f ||2 ≥ ||Sn ||2 =
−π
n n
X eik · X
= | < f, √ > |2 = 2π |ak |2 .
k=−n
2π k=−n
Bemerkung 15.9 Wir betrachten nochmals unter den Voraussetzungen von S. 15.5
das Optimierungsproblem.
Nach S. 15.5 ist x∗ := PU x die eindeutig bestimmte Lösung. In S. 15.6 haben wir
gesehen, daß x∗ sehr einfach zu bestimmen ist, wenn eine ONB von U gegeben ist.
Was lässt sich über die Berechnung von x∗ sagen, wenn lediglich irgendeine Basis
(u1 , . . . , um ) von U gegeben ist?
Es gilt (siehe Beweis zu S. 15.5 und S.15.6): x∗ ist charakterisiert durch
x − x∗ = x − PU x ⊥ U ,
also
x − x∗ ⊥ uj (j = 1, . . . , m)
(B T heißt Gram’sche Matrix (von (u1 , . . . , um )) ist also (α1 , . . . , αm ) Lösung des LGS
α1 < x, u1 >
. ..
B .
. = . .
αm < x, um >
15 PROJEKTIONEN 115
Aus obigen Überlegungen folgt, dass das System genau eine Lösung hat, also ist stets
B invertierbar.
T T
A Aα = A x
m n
(x∗ = αk uk minimiert ||x − y||2 = |xj − yj |2 über alle y ∈ U ; sog. “kleinste-
P P
k=1 j=1
Quadrate Approximation” an x).
16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 116
Satz 16.1 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum. Ist ϕ ∈ V ∗ =
L(V, K), so existiert genau ein y ∈ V mit
ϕ =< ·, y >
(d. h. ϕ(x) =< x, y > für alle x ∈ V ). Also ist V ∗ = {< ·, y >: y ∈ V }.
Beweis.
1. Existenz: Es sei (x1 , . . . , xn ) eine ONB von V (existiert nach F. 14.12). Dann gilt
für x ∈ V nach S. 14.10
n
X
x= < x, xj > xj ,
j=1
also
Xn n
X
ϕ(x) = ϕ( < x, xj > xj ) = < x, xj > ϕ(xj ) =
j=1 j=1
n
X
= < x, ϕ(xj )xj > ,
j=1
n
P
d. h. mit y := ϕ(xj )xj gilt ϕ =< ·, y >.
j=1
2. Eindeutigkeit: Es seien y1 , y2 ∈ V mit < ·, y1 >= ϕ =< ·, y2 >. Dann gilt für alle
x∈V
also insbesondere
Damit ist y1 = y2 .
3. Nach (S.3) ist < ·, y >∈ V ∗ für alle y ∈ V , also gilt V ∗ = {< ·, y >: y ∈ V } nach 1. 2
Definition 16.2 Es seien (V, < ·, · >=< ·, · >V ) und (W, < ·, · >=< ·, >W ) endlich-
dimensionale unitäre Räume, und es sei T ∈ L(V, W ). Für w ∈ W ist
< ·, w > ◦T ∈ V ∗ .
Also existiert nach S. 16.1 genau ein u ∈ V mit < ·, w > ◦ T =< ·, u >. Wir setzen
T ∗ w := u .
(T ◦ S)∗ = S ∗ ◦ T ∗ .
Beweis.
1. Es seien w1 , w2 ∈ W und λ1 , λ2 ∈ K. Dann gilt für alle v ∈ V
< T v − T ∗∗ v, w >= 0
d. h. nach Definition
0 2 ! !
y1 y1
T ∗ (y1 , y2 ) = (2y2 , 3y1 , y1 ) = = AT
3 0
.
y2 y2
1 0
Allgemeiner gilt
T
bzw. bkj = ajk . Also ist B = A = A∗
Ist insbesondere V = W und N = M eine ONB sowie T ∈ L(V ), so gilt T = T ∗ genau
dann, wenn A = A∗ ist.
16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 119
Definition 16.6 1. Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum. Eine
Abbildung T ∈ L(V ) heißt selbstadjungiert (oder hermitesch) falls T = T ∗ gilt (d. h.
< T v1 , v2 >=< v1 , T v2 > für alle v1 , v2 ∈ V ).
Weiter heißt T unitär diagonalisierbar, falls eine ONB von V aus Eigenvektoren exi-
stiert.
2. Eine Matrix A ∈ Kn×n heißt hermitesch, falls A = A∗ gilt (d. h. falls x 7→ Ax ∈
L(Kn ), wobei Kn mit dem kanonischen Skalarprodukt versehen ist, hermitesch ist; vgl.
B./D. 16.5). Im Falle K = R heißt A mit A = A∗ = AT auch symmetrisch.
Satz 16.7 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum. Ist T ∈ L(V )
selbstadjungiert, so gilt
1. T hat einen Eigenwert.
2. Alle Eigenwerte von T sind reell.
3. Sind λ1 , λ2 Eigenwerte mit λ1 6= λ2 und sind v1 , v2 zugehörige Eigenvektoren, so
sind v1 , v2 orthogonal.
Beweis.
1. Es sei M = (v1 , . . . , vn ) eine ONB von V (existiert nach F. 14.12). Ist A = ϕM (T ),
so ist A = A∗ nach B./D. 16.5, d. h. A ist hermitesch.
2. Es sei λ ∈ K ein Eigenwert von T (falls existent). Ist v 6= 0 Eigenvektor zu λ, so gilt
also (Vergleich von Real- und Imaginärteil, wobei man beachte, dass A und λ reell
sind)
Ax = λx und Ay = λy .
Damit können wir folgenden zentralen Satz der Linearen Algebra beweisen.
Beweis.
Wir beweisen die Behauptung durch Induktion nach n = dim(V ). Für n = 1 ist die
Behauptung offenbar erfüllt.
Es sei V ein (n+1)-dimensionaler unitärer Raum, und es sei T ∈ L(V ) selbstadjungiert.
Dann hat T nach S. 16.7 einen (reellen) Eigenwert λ. Es sei u ein Eigenvektor zu λ mit
||u|| = 1 und U := span(u). Wir betrachten S := T|U ⊥ (d. h. S ist die Einschränkung
von T auf das orthogonale Komplement von U ). Dann ist S ∈ L(U ⊥ , V ). Wir zeigen:
S(U ⊥ ) ⊂ U ⊥ (also S ∈ L(U ⊥ )).
(Denn: Es sei v ∈ U ⊥ . Dann gilt
also Sv = T v ∈ U ⊥ ).
Weiter gilt für v1 , v2 ∈ U ⊥
eine ONB von Uj := Kern(T − λj I). Also gilt für alle v ∈ V nach S. 14.10 und S. 15.6
n
!
X
T (v) = T < v, v` > v` =
`=1
kj
m X
X
= T < v, u(j) (j)
µ > uµ =
j=1 µ=1
kj
m X m kj
X X X
= < v, u(j) (j)
µ > T uµ = λj < v, u(j) (j)
µ > uµ
j=1 µ=1 j=1 µ=1
m
X
= λj PUj (v) ,
j=1
und damit
m
X
T = λj PUj . (9)
j=1
m
P
Hierbei gilt PUj = I und PUj PUk = δjk PUk (j, k = 1, . . . , m)([Ü]). Die Darstellung
j=1
(9) heißt Spektralzerlegung von T .
2. Ist (V, < ·, · >) ein endlich-dimensionaler unitärer Raum, so sind für beliebiges
T ∈ L(V ) die linearen Abbildungen T ◦T ∗ und T ∗ ◦T selbstadjungiert (denn (T ◦T ∗ )∗ =
T ∗∗ ◦ T ∗ = T ◦ T ∗ und entsprechend für T ∗ ◦ T ).
3. Im Falle K = R ist die Selbstadjungiertheit von T auch notwendig für die unitäre
Diagonalisierbarkeit.
(Denn: Es sei T so, dass eine ONB M = (v1 , . . . , vn ) aus Eigenvektoren von T (zu den
Eigenwerten λ1 , . . . , λn ∈ R) existiert. Dann ist A = ϕM (T ) = diag(λ1 , . . . , λn ). Also
ist nach D./B. 16.5 auch (beachte λj ∈ R)
d. h. es gilt T = T ∗ .)
Im Gegensatz dazu gibt es im Falle K = C weitere unitär diagonalisierbare lineare
Abbildungen, wie wir im folgenden sehen werden.
Definition 16.10 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum über
K. Ein T ∈ L(V ) heißt normal, falls gilt
T ◦ T∗ = T∗ ◦ T .
AA∗ = A∗ A
gilt, d. h., falls x 7→ Ax ∈ L(Kn ) normal ist, wobei Kn mit dem kanonischen Skalar-
produkt versehen ist.
16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 122
Bemerkung 16.11 Offenbar ist jede selbstadjungierte lineare Abbildung (bzw. jede
hermitesche Matrix) normal. Die Umkehrung gilt aber nicht. So ist etwa
!
2 −3
A=
3 2
Satz 16.12 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum. Ein T ∈
L(V ) ist genau dann normal, wenn
Satz 16.13 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum, und es sei
T ∈ L(V ) mit
< T v, v >= 0 (v ∈ V ) .
Beweis.
1. Es sei K = C. Dann gilt für u, w ∈ V
1
< T u, w > = [< T (u + w) , u + w > − < T (u − w) , u − w >
4
+i < T (u + iw) , u + iw > −i < T (u − iw) , u − iw >] .
Also ist nach Voraussetzung < T u, w >= 0, d. h. insbesondere < T u, T u >= 0 und
damit T u = 0.
16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 123
T normal ⇔ T ∗T − T T ∗ = 0
⇔ < (T ∗ T − T T ∗ )v, v >= 0 (v ∈ V )
∗ ∗
⇔ < T T v, v >=< T T v, v > (v ∈ V )
⇔ < T v, T v >=< T ∗ v, T ∗ v > (v ∈ V )
2 ∗ 2
⇔ ||T v|| = ||T v|| (v ∈ V ) .
Satz 16.14 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum, und es sei
T ∈ L(V ) normal. Ist v ∈ V ein Eigenvektor zum Eigenwert λ von T , so ist v auch
ein Eigenvektor zum Eigenwert λ von T ∗ .
Beweis.
Da T normal ist, ist auch T − λI normal (denn
Satz 16.15 (Spektralsatz für normale komplexe Operatoren) Es sei V ein endlich-
dimensionaler unitärer Raum über C und es sei T ∈ L(V ). Genau dann existiert eine
ONB aus Eigenvektoren von T , wenn T normal ist.
Beweis.
“⇒”: Es sei M eine ONB aus Eigenvektoren von T . Dann ist D = ϕM (T ) eine Diago-
nalmatrix. Nach B./D. 16.5 ist D = D∗ = ϕM (T ∗ ) und damit gilt
ϕM (T ◦ T ∗ ) = ϕM (T )ϕM (T ∗ ) = DD = DD = ϕM (T ∗ ◦ T ) .
also T ∗ v ∈ U ⊥ , d. h. T ∗ (U ⊥ ) ⊂ U ⊥ .
Nun seien v1 , v2 ∈ U ⊥ . Dann ist
folgt
S ◦ S ∗ = (T|U ⊥ ) ◦ (T|U
∗ ∗ ∗
⊥ ) = (T|U ⊥ ) ◦ (T|U ⊥ ) = S ◦ S ,
d. h. S ist normal. 2
und
ist. Es gilt
!
−i
(i, 1) = i(−i) + 1 = 0 ,
1
also ist √1 (i, 1)T , √1 (−i, 1)T eine ONB aus Eigenvektoren in C2
2 2
Bemerkung 16.17 Wie in B. 16.9 sieht man: Ist K = C, und ist T ∈ L(V ) normal,
so gilt nach S. 16.15
m
X
T = λj PUj ,
j=1
Uj := Kern(T − λj · I) (j = 1, . . . , m) ,
m
P
die zugehörigen Eigenräume sind. Wieder gilt wie in B. 16.9 dabei: PUj = I und
j=1
PUj PUk = δjk PUj . Man beachte, dass hierbei (im Gegensatz zur Situation in B. 16.9)
die λj i. a. nicht-reell sind.
Definition 17.1 Es sei (V, < ·, · >) ein unitärer Raum. Ein T ∈ L(V ) heißt unitär
(oder isometrisch oder Isometrie), falls gilt
unitär
(Denn: Für v ∈ V gilt nach (7)
n
X n
X
||T v||2 = | < v, vj > λj |2 = | < v, vj > |2 = ||v||2 .)
j=1 j=1
Dann gilt
1. Sa (a) = −a , Sa (b) = b für alle b ∈< a >⊥ ,
2. Sa2 = Sa ◦ Sa = I,
3. ||Sa v|| = ||v|| für alle v ∈ V (d. h. Sa ist unitär).
(Denn: Es gilt V =< a > ⊕ < a >⊥ nach S. 14.14, d. h. jedes v ∈ V hat genau eine
Darstellung
v = λa + b mit λ ∈ K, b⊥a .
Daraus folgt
(d. h. Sa ist “Spiegelung an < a >⊥ ”). Hieraus ergeben sich sofort 1. und 2. Außerdem
gilt mit dem Satz von Pythagoras:
||Sa (v)||2 = || − λa + b||2 = | − λ|2 ||a||2 + ||b||2 = |λ|2 ||a||2 + ||b||2 = ||v||2 .
Qa := E − 2aaT = E − 2aa∗
die Matrix von Sa bzgl. der kanonischen Basis; Qa ist also unitär. Außerdem ist Qa
auch hermitesch, denn
Satz 17.3 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum, und es sei
T ∈ L(V ). Dann sind folgende Aussagen äquivalent.
a) T ist unitär,
b) < T v1 , T v2 >=< v1 , v2 > für alle v1 , v2 ∈ V ,
c) T ∗ ◦ T = I,
d) Ist (v1 , . . . , vn ) eine ONB von V , so ist (T v1 , . . . , T vn ) eine ONB von V,
e) Es existiert eine ONB (v1 , . . . , vn ) von V so, dass (T v1 , . . . , T vn ) eine ONB von
V ist,
f ) T ist bijektiv mit T −1 = T ∗ ,
g) T ∗ ist unitär.
Beweis.
1. a) ⇒ b): Ist K = R , so folgt aus der Polarisierungsidentität (B. 13.7)
1
< T v1 , T v2 > = (||T v1 + T v2 ||2 − ||T v1 − T v2 ||2 ) =
4
1
= (||T (v1 + v2 )||2 − ||T (v1 − v2 )||2 ) =
4
1
= (||v1 + v2 ||2 − ||v1 − v2 ||2 ) =< v1 , v2 > .
4
Eine entsprechende Rechnung liefert die Behauptung im Fall K = C.
2. b) ⇒ c): Für alle v1 , v2 ∈ V gilt (nach Definition von T ∗ )
d. h. (T ∗ ◦ T − I)v1 = v1 bzw. T ∗ ◦ T = I.
3. c) ⇒ d): Es sei (v1 , . . . , vn ) eine ONB von V . Dann gilt für j, k ∈ {1, . . . , n}
5. e) ⇒ a): Es sei (v1 , . . . , vn ) eine ONB von V so, dass (T v1 , . . . , T vn ) ebenfalls eine
ONB ist. Für v ∈ V gilt dann mit Pythagoras und (7)
Xn n
X
||T v||2 = ||T ( < v, vj > vj )||2 = || < v, vj > T vj ||2
j=1 j=1
n
X
= | < v, vj > |2 = ||v||2 .
j=1
Folgerung 17.4 1. Nach S. 17.3 ist jede unitäre lineare Abbildung auf (einem endlich-
dimensionalen unitären Raum) V auch normal (denn: T ∗ ◦T = I = (T ∗ )∗ ◦T ∗ = T ◦T ∗ ).
Also folgt aus S. 16.15, dass im Falle K = C eine ONB aus Eigenvektoren existiert (d.
h. T ist unitär diagonalisierbar). Außerdem folgt aus der Definition sofort, dass alle
Eigenwerte den Betrag 1 haben.
2. Es sei C ∈ Kn×n , und es seinen c(k) = Cek für k = 1, . . . , n die Spalten von C.
Dann ist C genau dann unitär, wenn (c(1) , . . . , c(n) ) eine ONB von Kn ist. Weiter ist
dies genau dann der Fall, wenn C invertierbar ist mit
C −1 = C ∗ .
(Denn: Die Behauptungen ergeben sich durch Anwendung von S.17.3 unter Beachtung,
dass (e1 , . . . , en ) eine ONB von Kn mit dem kanonischen Skalarprodukt ist.)
Im Fall K = R ist nicht jede orthogonale lineare Abbildung diagonalisierbar, wie das
folgende Beispiel zeigt.
Also ist
und
d. h. (Ae1 , Ae2 ) ist eine ONB von R2 . Nach F. 17.4.2 ist A orthogonal. Es gilt
d. h. P (λ) > 0 für alle λ ∈ R. Also hat A keine (reellen) Eigenwerte und ist damit
insbesondere nicht diagonalisierbar.
Folgerung 17.6 Es sei A ∈ Kn×n symmetrisch (im Falle K = R) oder normal (im
Falle K = C). Dann existiert nach S. 16.8 bzw. S. 16.15 (Spektralsätze) eine ONB
(v1 , . . . , vn ) von Kn aus Eigenvektoren (zu den Eigenwerten λ1 , . . . , λn ) von A. Ist C ∈
Kn×n die Matrix mit den Spalten v1 , . . . , vn , d. h. C = (Ce1 , . . . , Cen ) = (v1 , . . . , vn ),
so ist
A = C · diag(λ1 , . . . , λn ) · C −1
(vgl. B. 12.14.3). Nach F. 17.4.2 ist C unitär (bzw. orthogonal im Falle K = R), d. h.
C −1 = C ∗ (= C T für K = R) .
A = C · diag(λ1 , . . . , λn ) · C T
A = C · diag(λ1 , . . . , λn ) · C ∗
Im Abschnitt 10 haben wir gesehen, wie man die LR-Zerlegung bestimmter invertier-
barer Matrizen berechnen kann. Wir werden jetzt eine andere Zerlegung kennenlernen,
die auf unitären Transformationen beruht. Wesentlicher Vorteil dieser Zerlegung ist die
größere numerische Stabilität.
Satz 17.7 Es sei x = (x1 , . . . , xn )T ∈ Kn . Dann existiert ein a ∈ K mit Qa x ∈< e1 >,
d. h. Qa x = λe1 für ein λ ∈ K, wobei e1 = (1, 0, . . . , 0)T .
Beweis.
Zunächst gilt: Ist y = Qa x, so ist (beachte: Qa = Q∗a )
λ = ±eiα ||x||
wobei α := arg(x1 ) (d. h. x1 = eiα |x1 |) im Falle x1 6= 0. (Weiter setzen wir α := 0 falls
x1 = 0.) Aus
Wir wählen das Vorzeichen + (dann ist jedenfalls ||x|| + |x1 | > 0, wobei o. E. x 6= 0
vorausgesetzt wird), d. h. λ = −||x||eiα . Dann gilt
also
Folglich ist
1
a= 1/2
(x + ||x||eiα e1 ) .
(2||x||2 + 2||x|| |x1 |)
(Dies gilt auch im Falle x ∈< e1 > \{0}; für x = 0 wähle man etwa a = e1 ).
Umgekehrt sieht man, dass mit diesem a die Behauptung gilt ([Ü]). 2
Satz 17.8 Es sei A ∈ Kn×n . Dann existieren eine unitäre Matrix Q ∈ Kn×n und eine
obere Dreiecksmatrix R ∈ Kn×n mit
A=Q·R
(eine solche Zerlegung von A heißt QR-Zerlegung).
Beweis.
Wir konstruieren (n − 1) unitäre und hermitesche Matrizen Q1 , . . . , Qn−1 (die i. w.
aus Householder-Matrizen zusammengesetzt sind) so, dass
Qn−1 · · · Q1 A = R
mit einer oberen Dreiecksmatrix R. Dann gilt mit der unitären Matrix
Q := (Qn−1 · · · Q1 )−1 = Q−1 −1 ∗ ∗
1 · · · Qn−1 = Q1 · · · Qn−1 = Q1 · · · Qn−1
(1) (n)
die Behauptung. Wir setzen A = A0 := (a0 , . . . , a0 ), d. h. a(k) sind die Spalten von
A. Es sei Q1 eine Householder-Matrix so, dass für ein r1 ∈ K
(1)
Q1 · a0 = r1 e1
(existiert nach S. 17.7). Dann gilt für A1 := Q1 · A
r1 ∗ · · · ∗
0
A1 = .
..
Ã1
0
(1) (n−1)
mit Ã1 ∈ K(n−1)×(n−1) . Nun beachten wir Ã1 =: (a1 , . . . , a1 ) und wählen Q̃2 ∈
K(n−1)×(n−1) gemäß S. 17.7 so, dass
(1)
Q̃2 a1 = r2 e1
für ein r2 ∈ K. Für die unitäre und hermitesche Matrix
1 0 ··· 0
0
Q2 := . ∈ Kn×n
.. Q̃2
0
gilt dann
r1 ∗ ··· ··· ∗
0 r2 ∗ ··· ∗
..
A2 := Q2 · A1 = Q2 Q1 · A =
. 0
.. ..
. . Ã2
0 0
17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 132
mit Ã2 ∈ K(n−2)×(n−2) . So fortfahrend erhalten wir im j-ten Schritt eine unitäre und
hermitesche Matrix Qj der Form
" #
Ej−1 0
Qj = ,
0 Q̃j
wie behauptet. 2
Rx = y und Qy = b .
Dabei ist y sofort gegeben durch y = Q−1 b = Qn−1 · · · Q1 ·b und Rx = y kann wie in B.
10.8 gelöst werden. Der wesentliche Vorteil gegenüber der LR-Zerlegung (die nur etwa
die Hälfte des Rechenaufwandes erfordert) liegt in der größeren numerischen Stabilität
(→ Numerik).
17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 133
d. h.
−3/5 0 −4/5
Q1 =
0 1 .
0
−4/5 0 3/5
Also ist
−5 −7 −6
A1 = Q1 A =
0 .
3 −1
0 4 2
!
3 −1
Hieraus folgt mit Ã1 =
4 2
!
1 8
Q̃2 = E − 2a2 aT2 wobei a2 = √ ,
80 4
d. h.
!
−3/5 −4/5
Q̃2 =
−4/5 3/5
bzw.
1 0 0
Q2 =
0 −3/5 −4/5 .
0 −4/5 3/5
Also ist
−5 −7 −6
R = A2 = Q2 · A1 =
= Q2 Q1 · A .
0 −5 −1
0 0 2
18 DEFINITE OPERATOREN 134
Schließlich gilt
18 Definite Operatoren
Es sei V ein endlich-dimensionaler unitärer Raum über K, und es sei T ∈ L(V ) selbst-
adjungiert. Dann gilt für alle v ∈ V
d. h. < T v, v >∈ R.
Bemerkung 18.2 Ist A ∈ Kn×n beliebig, so ist A∗ A ∈ Kn×n positiv semidefinit (denn
< A∗ Ax, x >=< Ax, Ax > ≥ 0). Weiter ist A∗ A positiv definit, wenn < Ax, Ax >> 0
für alle x ∈ Kn \ {0}, also genau dann, wenn A invertierbar ist (warum?).
Satz 18.3 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum, und es sei
T ∈ L(V ). Dann sind äquivalent:
a) T ist positiv semidefinit,
b) T ist selbstadjungiert und alle Eigenwerte sind ≥ 0,
c) es existiert ein positiv semidefinites S ∈ L(V ) mit S 2 = T ,
d) es existiert ein selbstadjungiertes S ∈ L(V ) mit S 2 = T ,
e) es existiert ein S ∈ L(V ) mit S ∗ ◦ S = T .
18 DEFINITE OPERATOREN 135
Beweis.
a) ⇒ b): Nach Definition ist T selbstadjungiert. Weiter gilt: Ist λ ein Eigenwert von
T und v 6= 0 ein zugehöriger Eigenvektor, so gilt
n
X n
X
λj | < v, vj > |2 ≥ 0
p p
< Sv, v >= λj < v, vj >< vj , v >=
j=1 j=1
und
n
X n
X
p p
< v, Sv > = < v, λj < v, vj > vj >= λj < v, vj > < v, vj >=
j=1 j=1
n
X
λj | < v, vj > |2 (=< Sv, v >) .
p
=
j=1
√ √
Also ist S positiv semidefinit. Aus S 2 (vk ) = λk λk vk = T vk für k = 1, . . . , n folgt
S = T 2.
c) ⇒ d) und d) ⇒ e) sind klar.
e) ⇒ a): Es sei S ∈ L(V ) mit S ∗ ◦ S = T . Dann ist T = T ∗ und es gilt für alle v ∈ V
Entsprechende Aussagen gelten für “negativ definit”. Außerdem ist ein selbstadjungier-
tes T ∈ L(V ) genau dann indefinit, wenn sowohl positive als auch negative Eigenwerte
existieren.
2. Im Allgemeinen existieren viele selbstadjungierte S ∈ L(V ) mit S 2 = T :
Ist etwa A = E in K2×2 , so gilt für alle ϑ ∈ R
E = Q2ϑ
mit
!
cos ϑ sin ϑ
Qϑ := .
sin ϑ − cos ϑ
(Qϑ ist Spiegelung an der Gerade Gϑ mit Winkel ϑ/2 zur x1 -Achse). Man kann jedoch
zeigen, dass nur ein positiv semidefinites S ∈ L(V ), nämlich das aus dem Beweis zu S.
18.3, mit S 2 = T existiert (auf den Beweis wollen wir verzichten). Man schreibt dann
auch
√
S := T
für dieses S.
Insbesondere zeigt S. 18.3, dass jede positiv definite Matrix A ∈ Kn×n eine Darstellung
A = B ∗ B mit (in diesem Fall invertierbarer) Matrix B ∈ Kn×n hat. Der folgende Satz
zeigt, dass B sogar als Dreiecksmatrix gewählt werden kann.
Satz 18.5 E sei A ∈ Kn×n . Genau dann ist A positiv definit, wenn eine obere Drei-
ecksmatrix R = (rjk ) ∈ Kn×n existiert mit
A = R∗ R
Beweis.
1. “⇒” Es sei A positiv definit. Dann existieren nach S. 18.3 eine (positiv semidefinite)
Matrix B mit B ∗ B = A. Da A positiv definit ist, ist B invertierbar (0 kann kein
Eigenwert von B sein). Nach S. 17.8 existieren eine unitäre Matrix Q und eine obere
Dreiecksmatrix R = (rjk ) mit B = QR. Dabei ist det(R) 6= 0 und deshalb rjj 6= 0 (j =
1, . . . , n). Es gilt
A = B ∗ B = (QR)∗ (QR) = R∗ Q∗ QR = R∗ R .
Bemerkung 18.6 In der Situation von S. 18.5 kann R so gewählt werden, dass rjj > 0
für alle j ∈ {1, . . . , n}. Mit dieser Normierung ist R dann eindeutig bestimmt und die
Zerlegung A = R∗ R heißt Cholesky-Zerlegung von A.
(Denn:
1. Existenz: Nach S. 18.5 existiert eine (invertierbare) obere Dreiecksmatrix R = (rjk )
mit rjj 6= 0 und A = R∗ R. Es sei
D = diag(e−iα1 , . . . , e−iαn ) ,
und
|r11 | ∗ ... ∗
.. ..
0 . .
R̃ = DR = ,
.. .. ..
. . . ∗
0 ... 0 |rnn |
2. Eindeutigkeit: Es seien R und S obere Dreiecksmatrizen mit rjj > 0 und sjj > 0 für
j = 1, . . . , n sowie R∗ R = A = S ∗ S. Dann sind R−1 und S −1 (und damit auch RS −1
sowie SR−1 ) obere Dreiecksmatrizen. Aus R∗ R = S ∗ S folgt
(oder auch nur die positiven dieser Zahlen) heißen dann Singulärwerte von T .
Wie üblich sind die Singulärwerte von A ∈ Km×n definiert als die Singulärwerte von
x 7→ Ax ∈ L(Kn , Km ) (mit kanonischem Skalarprodukt).
Damit gilt
18 DEFINITE OPERATOREN 138
mit
(
λk , falls j = k, k = 1, . . . , r
djk := .
0 , sonst
Beweis.
Da T ∗ T positiv semidefinit ist, existiert nach S. 16.8 eine ONB N = (v1 , . . . , vn ) von
V aus Eigenvektoren von T ∗ T zu den Eigenwerten µ1 , . . . , µn ≥ 0 von T ∗ T . O. E.
sei T 6= 0. Dann ist auch T ∗ T 6= 0. (Denn: Ist T ∗ T = 0, so ist < T vk , T vk >=<
vk , T ∗ T vk >= 0, d. h. T vk = 0 für k = 1, . . . , n und damit T = 0.)
Weiter sei o. E. r ∈ {1, . . . , n} so, dass µ1 , . . . , µr > 0 und µr+1 , . . . , µn = 0. Dann
gilt für j, k = 1, . . . , n
d. h. T vk = 0 und damit djk =< T vk , wj >= 0. Insgesamt ist ϕM,N (T ) = (djk ) mit
(
λk , falls j = k, k = 1, . . . , r
djk := .
0 , sonst
2
18 DEFINITE OPERATOREN 139
Bemerkung 18.9 Insbesondere ergibt sich aud S. 18.8, dass für jede Matrix A ∈
Km×n unitäre Matrizen B ∈ Km×m und C ∈ Kn×n existieren mit
A = BDC ∗ ,
wobei D = (djk ) wie in S.18.8 und λ1 , . . . , λr die positiven Singulärwerte von A sind.
Eine solche Zerlegung nennt man auch Singulärwertzerlegung von A.
(Denn: Für C = (v1 , . . . , vn ) = (Ce1 , . . . , Cen ) und B = (w1 , . . . , wm ) = (Be1 , . . . , Ben )
gilt nach S. 18.8 für k = 1, . . . , n
( ) ( )
λk wk , falls k ≤ r Bλk ek , falls k ≤ r
ACek = Avk = = = BDek .
0 , falls k > r B0 , falls k > r
Definition 19.1 Es sei V ein linearer Raum über K, und es sei T ∈ L(V ). Ein
Unterraum U von V heißt invariant (unter T ), falls T u ∈ U für alle u ∈ U (d. h.
T (U ) ⊂ U ).
Damit gilt
Satz 19.2 Es sei V ein endlich-dimensionaler linearer Raum über K und M = (v1 , . . . , vn )
eine Basis von V . Ferner sei T ∈ L(V ). Dann sind äquivalent
a) ϕM (T ) ist eine obere Dreiecksmatrix,
b) T vk ∈< v1 , . . . , vk > für jedes k ∈ {1, . . . , n},
c) < v1 , . . . , vk > ist invariant unter T für jedes k ∈ {1, . . . , n}.
Beweis.
1. Die Äquivalenz von a) und b) ergibt sich direkt aus der Definition von ϕM (T ). ([Ü])
2. c) ⇒ b) ist klar. Bleibt also noch b) ⇒ c) zu zeigen. Es sei k ∈ {1, . . . , n}. Nach b)
ist
also auch
und damit
Satz 19.4 Es sei V ein n-dimensionaler linearer Raum über K, und es sei T ∈ L(V ).
Dann ist T genau dann triangulierbar, wenn PT in Linearfaktoren zerfällt (d. h.
n
Q
PT (λ) = (λj − λ) für gewisse λ1 , . . . , λn ∈ K). Insbesondere ist im Falle K = C
j=1
jedes T ∈ L(V ) triangulierbar.
Beweis.
1. Ist T triangulierbar, d. h. existiert eine Basis M von V so, dass ϕM (T ) = (rjk ) eine
obere Dreiecksmatrix ist, so ist auch ϕM (T ) − λE obere Dreiecksmatrix, und es gilt
n
Y n
Y
PT (λ) = PϕM (T ) (λ) = (rjj − λ) =: (λj − λ)
j=1 j=1
mit rjj =: λj .
2. Wir zeigen die Rückrichtung per Induktion nach n = dim(V ). Für n = 1 ist nichts
zu zeigen.
Es sei dim(V ) = n und T ∈ L(V ) mit
n
Y
PT (λ) = (λj − λ) (λ ∈ K) .
j=1
U ⊕W =V
(S. 5.20) und setzen S := PW,U ◦ T|W : W → W . Dann ist S ∈ L(W ) (vgl. B. 15.2).
n
Q
Wir zeigen: PS (λ) = (λj − λ).
j=2
(Denn: Es sei N = (v2 , . . . , vn ) eine Basis von W . Dann ist (v1 , . . . , vn ) =: M eine
Basis von V und es gilt (da T v1 = λ1 v1 )
λ1 ∗ . . . ∗
0
.
.
A = (ajk ) := ϕM (T ) = . B
.
..
0
n
X
P (A) := aν Aν ∈ Kn×n .
ν=0
PT (T ) = 0 .
Beweis.
Es sei M = (v1 , . . . , vn ) eine Basis von V so, dass ϕM (T ) = R = (rjk ) eine obere
Dreiecksmatrix ist. Es reicht, zu zeigen
PT (T )vk = 0 (k = 1, . . . , n) .
Es gilt
n
Y n
Y
PT (z) = PϕM (T ) (z) = (rjj − z) = (λj − z)
j=1 j=1
Q
mit λj = rjj . Also ist nach B. 19.6 für k = 1, . . . , n (mit := I)
∅
n
Y n
Y
PT (T ) = (λj T 0 − T 1 ) = (−1)n (T − λj I)
j=1 j=1
n
Y k
Y
= (−1)n (T − λj I) (T − λj I) .
j=k+1 j=1
k−1
Q k−1
Q m
Q
Dann ist auch (T −λj I)vm = (T −λj I) (T −λj I)vm = 0 für m = 1, . . . k−1.
j=1 j=m+1 j=1
Aus ϕM (T ) = R = (rµk ) mit rµk = 0 für µ > k folgt
k
X k−1
X
T vk = rµk vµ = rµk vµ + λk vk
µ=1 µ=1
19 TRIANGULIERBARKEIT UND DER SATZ VON CAYLEY-HAMILTON 144
d. h.
k−1
X
(T − λk I)vk = rµk vµ .
µ=1
PA (A) = 0 .
Ist A ∈ Rn×n , so lässt sich A natürlich auch als Matrix in Cn×n auffassen. Also gilt
auch hier
PA (A) = 0 .
Hieraus folgt, dass die Aussage von S. 19.7, also PT (T ) = 0, auch im Falle K = R,
ohne die Voraussetzung “T triangulierbar” richtig bleibt ([Ü]).
Dann gilt
!
−λ 1
PA (λ) = det(A − λE) = = λ2 + 1 .
−1 −λ
PA (A) = A2 + E = 0 .
d. h. A2 + E = 0.
20 JORDAN’SCHE NORMALFORM 145
20 Jordan’sche Normalform
Definition 20.1 Es sei V ein linearer Raum über K, und es sei T ∈ L(V ). Ist λ ein Ei-
genwert von T , so heißt v ∈ V verallgemeinerter Eigenvektor (oder auch Hauptvektor)
(von T ), falls
(T − λI)j v = 0
für ein j ∈ N, d. h. v ∈ Kern(T − λI)j für ein j ∈ N. (Wie üblich sind verallgemeinerte
Eigenvektoren einer Matrix A ∈ K n×n über x 7→ Ax definiert.)
Dann sind 0, 1 die Eigenwerte von T (denn: det(A − λE) = (−λ)2 (1 − λ) ). Weiter
ist e1 Eigenvektor zu λ = 0, und e3 ist Eigenvektor zu λ = 1. Außerdem sieht man:
dim(Kern(T − λI)) = 1 für λ = 0, 1.
Es gilt
x1 0 1 0 x2 0
T2
x2 = 0 0 0 0 = 0 ,
x3 0 0 1 x3 x3
Satz 20.3 Es sei T ein linearer Raum über K, und es sei T ∈ L(V ).
1. Ist Kern(T m ) = Kern(T m+1 ) für ein m ∈ N0 , so gilt {0} = Kern(T 0 ) ⊂ . . . ⊂
Kern(T m ) = Kern(T m+1 ) = Kern(T m+2 ) = . . . .
2. Ist dim(V ) = n, so gilt
Beweis.
1. Es sei k ∈ N. Wir zeigen Kern(T m+k ) = Kern(T m+k+1 ). Klar ist, dass “⊂” gilt.
Umgekehrt sei v ∈ Kern(T m+k+1 ). Dann ist
0 = T m+k+1 v = T m+1 (T k v) ,
also ist
und damit
0 = T m (T k v) = T m+k v .
{0} = Kern(T 0 ) ⊂
6=
Kern(T 1 ) ⊂
6=
Kern(T 2 ) ⊂
6=
Kern(T n+1 ) .
Hieraus folgt
also dim(Kern(T n+1 )) ≥ n + 1. Da Kern(T n+1 ) ein Unterraum von V ist, ergibt sich
ein Widerspruch. 2
Bemerkung und Definition 20.4 Es sei V ein n-dimensionaler linearer Raum , und
es sei T ∈ L(V ). Ist λ ein Eigenwert von T , so ist V verallgemeinerter Eigenvektor ge-
nau dann, wenn v ∈ Kern(T −λI)n ist. Der Unterraum Kern(T −λI)n heißt Hauptraum
zu λ (von T ). Entsprechend heißt für eine Matrix A ∈ K n×n mit Eigenwert λ der Un-
terraum Kern(A − λE)n Hauptraum zu λ (von A).
(Denn: Ist v ∈ Kern(T − λI)n , so ist V verallgemeinerter Eigenvektor. Ist umgekehrt
v ein verallgemeinerter Eigenvektor von T , so ist
v ∈ Kern(T − λI)j
für ein j ∈ N. Aus S. 20.3 ergibt sich dann auch v ∈ Kern(T − λI)n ).
Bemerkung 20.5 In Analogie zu S. 20.3 gilt für Bilder: Ist T ∈ L(V ), so ist
Satz 20.6 Es sei V ein n-dimensionaler linearer Raum über K, und es sei T ∈ L(V )
triangulierbar. Ferner seien λ1 , . . . , λm die paarweise verschiedenen Eigenwerte von
T . Ist mit k1 , . . . , km ∈ {1, . . . , n}
m
Y
PT (λ) = (λj − λ)kj ,
j=1
kj = dim(Kern(T − λj I)n ) .
Beweis.
Ist ϕM (T ) = R = (rjk ) mit rjk = 0 für j > k, so ist
n
Y m
Y
PT (λ) = PϕM (T ) (λ) = det(R − λE) = (r`` − λ) = (λj − λ)kj
`=1 j=1
die Matrix von S bzgl. (v1 , . . . , vn−1 ). Nach Induktionsvoraussetzung erscheint 0 auf
der Diagonale von R̃ genau dim(Kern(S n−1 )) ∈ {0, . . . , n−1} mal. Da dim(U ) = n−1
ist, folgt aus S. 20.3 Kern(S n−1 ) = Kern(S n ), also erscheint 0 auf der Diagonale von
R̃ auch dim(Kern(S n )) mal.
also ist
n−1
(n)
X
T n vn = rjn vj + µnn vn =: u + µnn vn
j=1
v = ũ + avn
0 = T n v = T n ũ + aT n vn = T n n
| ũ{z+ au} +aµn vn .
∈U
dim(Kern(T n )) = dim(Kern(S n )) + 1 ,
20 JORDAN’SCHE NORMALFORM 149
was impliziert, dass 0 auf der Diagonalen von R genau dim(Kern(T n )) mal die 0 steht,
wie behauptet.
Nach der Dimensionsformel für Unterräume (S. 5.18) gilt
w = u − vn
T n (u − vn ) = T n u − T n vn ,
also existiert ein u (und damit ein w) wie gewünscht, falls T n u = T n vn , d. h. , falls
T n vn ∈ Bild((T n )|U ) = Bild(S n ). Da R = ϕM (T ) ist, gilt
n−1
X n−1
X
T vn = rjn vj + µn vn = rjn vj ∈ U ,
j=1 j=1
also
dim(Kern(T n )) = dim(Kern(S n )) + 1 .
Damit können wir folgenden Struktursatz für lineare Abbildungen beweisen (vgl. S.
12.13)
Satz 20.7 Es seinen V ein n-dimensionaler linearer Raum über K und T ∈ L(V ).
Sind λ1 , . . . , λm die paarweise verschiedenen Eigenwerte von T mit den zugehörigen
Haupträumen U1 , . . . , Um , so gilt :
Beweis.
1. Nach B. 19.6 ist
(T − λj I)n T = T (T − λj I)n ,
(T − λj I)n T u = T (T − λj I)n u = T 0 = 0 ,
d. h. T u ∈ Uj .
2. Nach S. 20.6 gilt
m
X m
X
dim(Uj ) = kj = n .
j=1 j=1
m
P
Es sei U := Uj . Wir zeigen U = V . Dann folgt 2. aus F. 5.19.
j=1
m
P
Mit Uj (j = 1, . . . , m) ist auch U = Uj invariant unter T . Also ist S := T|U ∈ L(U ).
j=1
Außerdem ist S triangulierbar.
(Denn: Ist U = V , so ist S = T triangulierbar. Ist U = 6 V und ist N = (v1 , . . . , vr )
eine Basis von U , so wählen wir Vektoren vr+1 , . . . , vn so, dass M = (v1 , . . . , vn ) eine
Basis von V ist.
Dann gilt für A = (ajk ) = ϕM (T )
n
X r
X
Svk = T vk = ajk vj = ajk vj (k = 1, . . . , r) ,
j=1 j=1
Außerdem stimmen auch die Haupträume von S zu den Eigenwerten λj mit Uj überein,
d. h.
k˜j = dim(Uj ) .
also U = V . 2
Als Konsequenz erhalten wir
Definition 20.9 Es sei V in linearer Raum über K, und es sei T ∈ L(V ). Dann
heißt T nilpotent, falls T m = 0 für ein m ∈ N gilt. Entsprechend heißt ein A ∈ K n×n
nilpotent, falls Am = 0 für ein m ∈ N.
T (P ) := P 0 (P ∈ Πn ) .
T n+1 (P ) = P (n+1) = 0 (P ∈ Πn ) ,
Bemerkung 20.11 1. Ist V ein n-dimensionaler linerarer Raum, und ist T ∈ L(V )
nilpotent, so ist T n = 0
(Denn: Ist T nilpotent, so ist jedes v ∈ V verallgemeinerter Eigenvektor zum Eigenwert
0. Also ist Kern(T n ) = V nach S. 20.4 .)
2. Ist T ∈ L(V ), wobei V ein n-dmensionaler linearer Raum, und ist λ ein Eigenwert
T , so ist (T − λI)|Kern(T −λI)n nilpotent.
(Denn: U := Kern(T −λI)n ist invariant unter T . Also gilt ((T −λI)|U )n = (T −λI)n|U =
0.)
20 JORDAN’SCHE NORMALFORM 152
Im folgenden Satz liegt der wesentliche Schritt zum Beweis der Jordan-Normalform.
Satz 20.12 Es sei V ein n-dimensionaler linearer Raum über K. Ferner sei N ∈ L(V )
nilpotent und für v ∈ V, v 6= 0 sei
Beweis.
Wir zeigen die Behauptung per Induktion nach n = dim V . Für n = 1 ist die Behaup-
tung klar. Es sei n ∈ N, und es sei N ∈ L(V ) nilpotent, wobei dim(V ) = n. Dann ist
N nicht surjektiv (sonst wäre auch N m surjektiv für alle m), also ist dim(Bild(N )) <
n = dim(V ). Wir betrachten Ñ := N|Bild(N ) . Dann ist Ñ ∈ L(Bild(N )) und nilpotent.
Nach Induktionsvoraussetzung existieren u1 , . . . , uj ∈ Bild(N ) so, dass
(i) (u1 , N u1 , . . . , N m(u1 ) u1 , . . . , uj , N uj , . . . , N m(uj ) uj ) eine Basis von Bild(N )
und
(ii) (N m(u1 ) u1 , . . . , N m(uj ) uj ) eine Basis von Kern(Ñ ) = Kern(N ) ∩ Bild(N )
ist (man beachte dabei m(u) = mN (u) = mÑ (u) für alle u ∈ Bild(N )).
Da {u1 , . . . , uj } ⊂ Bild(N ) ist, existieren v1 , . . . , vj ∈ V mit N vr = ur für r =
1, . . . , j. Dann gilt m(vr ) = m(ur ) + 1 für r = 1, . . . , j (beachte ur 6= 0). Wir wählen
einen Unterraum W von Kern(N ) mit
(existiert nach S. 5.20) und eine Basis (vj+1 , . . . , vk ) von W (dabei ist k = dim(Kern(N )).
Aus vj+1 , . . . , vk ∈ Kern(N ) folgt m(vr ) = 0 für r = j + 1, . . . , k.
Wir zeigen, dass für die so konstruierten v1 , . . . , vk die Bedingungen a) und b) gelten.
zu a): Wir zeigen zunächst: Das System in a) ist linear unabhängig.
Dazu seien ar,s ∈ K mit
k m(v
X Xr )
0= ar,s N s (vr ) .
r=1 s=0
Da die Summe von Kern(N ) ∩ Bild(N ) und W direkt ist, erhalten wir
j
X j
X
m(vr )
0= ar,m(vr ) N (vr ) = ar,m(vr ) N m(ur ) (ur )
r=1 r=1
und
k
X
0= ar,0 vr .
r=j+1
ar,m(vr ) = 0 für r = 1, . . . , j
ar,0 = 0 für r = j + 1, . . . , k .
d. h. nach S. 7.4 aus dim(V ) = n Vektoren. Damit ist das System in a) eine Basis von
V.
Zu b): Es gilt
Also ist nach (ii) und der Definition von (vj+1 , . . . , vk ) dieses System eine Basis von
Kern(N ). 2
20 JORDAN’SCHE NORMALFORM 154
ist eine Basis von V = Πn . Außerdem ist (N m(v1 ) v1 ) = n!x0 ) eine Basis von Kern(N ) =
Π0 .
2. Es sei V = K4 und N (v) := Av mit
0 1 0 0
0 0 0 0
A := .
0 0 0 1
0 0 0 0
gilt
N v1 = Ae2 = e1 , N v2 = Ae4 = e3
N 2 v1 = Ae1 = 0 , N 2 v2 = Ae3 = 0,
und
Satz 20.14 Es sei V ein linearer Raum über K, und es sei T ∈ L(V ). Weiter seinen
m
L
U1 , . . . , Um invariante Unterräume und es gelte V = Uj . Ist M = (v1 , . . . , vn ) =
j=1
(vd0 , . . . , vd1 , . . . , vdm−1 +1 , . . . , vdm ), wobei (vdj−1 +1 , . . . , vdj ) eine Basis von Uj ist
(mit d0 := 0 und dm := n), so gilt
B1 O
B2
A = ϕM (T ) =
. ..
O Bm
20 JORDAN’SCHE NORMALFORM 155
wobei Bj ∈ K (dj −dj−1 )×(dj −dj−1 ) die Matrix von T|Uj bzgl. (vdj−1 +1 , . . . , vdj ) ist (d. h.
A hat Blockdiagonalgestalt).
Beweis.
Ist A = (ajk ) so gilt für j = 1, . . . , m und k = dj−1 + 1, . . . , dj
n m d dj
X X X̀ X
T vk = aµk vµ = aµk vµ = aµk vµ ,
µ=0 `=1 µ=d`−1 +1 µ=dj−1 +1
Folgerung 20.15 Es seien V, N, v1 , . . . , vk wie in S. 20.12. Ist M die Basis von V aus
S. 20.12 in “absteigender Reihenfolge” d. h.
M = (N m(v1 ) v1 , . . . , N v1 , v1 , . . . , N m(vk ) vk , . . . , vk ) ,
so gilt für A = ϕM (N ):
B1 O
B2
A=
..
.
O Bk
Beweis.
Es sei T ∈ L(V ) triangulierbar, und es seien λ1 , . . . , λm die paarweise verschiedenen
Eigenwerte von T . Dann gilt nach S. 20.7
m
M
V = Uj
j=1
20 JORDAN’SCHE NORMALFORM 157
mit Uj := Kern(T − λj I)n und die Uj sind invariant. Außerdem ist (T − λj I)|Uj
nilpotent für j = 1, . . . , m nach B. 20.11.2. Also existiert nach F. 20.15 für j =
1, . . . , m eine Jordan-Basis für (T − λj I)|Uj und diese ist dann auch Jordan-Basis für
T|Uj = (T − λj I)|Uj + λIUj (bestehend aus Hauptvektoren zum Eigenwert λj ). Setzt
man diese Basen zusammen, so erhält man nach S.20.14 eine Jordan-Basis für T aus
Hauptvektoren von T . 2
21 ELEMENTARE ZAHLENTHEORIE 158
21 Elementare Zahlentheorie
Wir starten mit einigen Ergebnissen aus der elementaren Zahltentheorie.
Definition 21.1 Es seien a, b ∈ Z = {ganze Zahlen}. Man sagt, a sei Teiler von b
(bzw. a teilt b) (kurz: a|b), falls b/a ∈ Z gilt, d. h. falls ein q ∈ Z existiert mit b = qa.
Es gilt damit
Satz 21.2 .
1. Für alle a ∈ Z ist ±1|a und ±a|a.
2. Sind a, b ∈ Z mit a|b, b|c, so ist a|c.
3. Sind a, bj ∈ Z, j = 1, . . . , n, mit a|bj für j = 1, . . . , n, so ist
n
X
a| cj bj für alle c1 , . . . , cn ∈ Z .
j=1
Beweis. [Ü]
Beweis.
Da b 6= 0, ist, gilt
L := N0 ∩ {a − xb : x ∈ Z} =
6 ∅.
λA := {λa : a ∈ A} , µ ± λA = {µ ± λa : a ∈ A}
µB ± λA = {µb ± λa : a ∈ A, b ∈ B} .
Es gilt damit
21 ELEMENTARE ZAHLENTHEORIE 159
Satz 21.5 Es seien a, b ∈ Z, und es sei d := ggT (a, b). Dann ist
{ax + by : x, y ∈ Z} = aZ + bZ = dZ .
aZ + bZ = Z .
Beweis.
Ist a = 0 oder b = 0, so sieht man leicht, dass die Behauptung gilt. Es sei also a 6= 0
und b 6= 0, und es sei m := min(N ∩ L) wobei
L := aZ + bZ = ax + by : x, y ∈ Z} .
Aus d|a und d|b folgt d|ax + by für alle x, y ∈ Z (S. 21.2.3), also gilt
L ⊂ dZ
dZ = mZ ⊂ L .
Denn:
1. Die erste Aussage ergibt sich direkt aus der letzten Aussage von S. 21.5.
2. Nach 1. existieren x, y ∈ Z mit xa + yb = 1. Also ist c = xac + ybc. Da a|bc und a|a
ist a|c nach S. 21.2.3.
3. Wie in 2. ist c = xac+ybc. Da c = ua = bv für gewisse u, v ∈ Z, ist c = xabv+ybau =
ab(xv + yu). Also ist ab|c.
21 ELEMENTARE ZAHLENTHEORIE 160
Definition 21.7 Es sei p ∈ N, p ≥ 2. Dann heißt p Primzahl falls p nur die Teiler ±1
und ±p besitzt.
Bemerkung 21.8 Sind a, b ∈ Z und ist p eine Primzahl, so folgt aus p|ab schon p|a
oder p|b. (Denn: Ist p kein Teiler von a, so ist ggT (a, p) = 1. Also ist p|b nach F.
21.6.2.)
Beweis.
1. Existenz: (Induktion nach n)
n = 2: Für n = 2 ist die Behauptung klar.
n − 1 → n (n ≥ 3): Ist n eine Primzahl, so ist nichts zu zeigen. Es sei also n keine
Primzahl. Dann existiert ein Primteiler p von n, d. h. es existiert eine Primzahl p mit
p|n. (Denn: Man wähle p := min{k > 1 : k|n}. Dann ist p eine Primzahl, denn sonst
hätte p einen Teiler p0 mit 1 < p0 < p, und damit wäre p0 auch Teiler von n im
Widerspruch zur Minimalität von p.)
Also ist n = pq für ein q ∈ N mit 1 < q < n. Nach Induktionsvoraussetzung ist q
Produkt aus Primfaktoren, und damit gilt dasselbe für n.
2. Eindeutigkeit: Wir zeigen per Induktion nach k:
Ist n Produkt aus k Primzahlen, so besteht jede Darstellung von n als Produkt aus
Primzahlen aus k Faktoren, und diese Faktoren sind bis auf die Reihenfolge dieselben.
k = 1: Ist n = p eine Primzahl, so gilt die Behauptung nach Definition.
k − 1 → k (k ≥ 2): Es sei
k
Y m
Y
n= pj = qj
j=1 j=1
Qm
mit Primzahlen pj und qj . Aus pk | j=1 qj folgt aus B. 21.8 (induktiv), dass pk |qj0 für
ein j0 ∈ {1, . . . , m}, also pk = qj0 (da qj0 Primzahl). Nach Umnummerierung können
wir o. E. qj0 = qm annehmen. Dann ist
k−1
Y m−1
Y
n= pj = qj .
j=1 j=1
Nach Induktionsvoraussetzung ist k−1 = m−1 und die Faktoren p1 , . . . , pk−1 stimmen
bis auf die Reihenfolge mit den q1 , . . . , qk−1 überein. Nach obiger Konstruktion gilt
die Behauptung damit auch für k. 2
21 ELEMENTARE ZAHLENTHEORIE 161
m|(a − b) .
a ≡ b mod m .
a ∼ b :⇔ a ≡ b mod m
Zm := Z/mZ := {[a] : a ∈ Z} ,
[a] + [b] := [a + b]
und
[a] · [b] = [a · b]
für a, b ∈ Z. Dabei ist wichtig, dass die Operationen unabhängig von der Auswahl der
Repräsentanten sind.
(Es gilt etwa für die Multiplikation: Ist [a] = [ã], [b] = [b̃], so ist m|(a−ã) und m|(b− b̃).
Also ist nach S. 21.2.3 auch m|(a − ã)b + ã(b − b̃), d. h. m|(ab − ãb̃). Also ist [ab] = [ãb̃].)
3. Es sei m ∈ N und ζ := e2πi/m eine m-te Einheitswurzel (ζ m = 1). Dann ist durch
[a] = [a]m 7→ ζ a eine bijektive Abbildung von Zm nach {ζ a : a ∈ Z} = {ζ a : a =
0, 1, . . . , m−1} gegeben. Dabei entsprechen die Restklassenoperationen aus 2. gewissen
21 ELEMENTARE ZAHLENTHEORIE 162
Operationen in C, nämlich [a] + [b] entspricht ζ a+b und [a][b] entspricht ζ a·b .
Ist etwa m = 4, so gilt
[2 + 3] = 5 mod 4 = [1]
sowie
[2 · 3] = 6 mod 4 = [2]
und entsprechend
ζ 2+3 (= ζ 2 ζ 3 ) = ζ 5 = ζ 1
sowie
ζ 2·3 (= (ζ 2 )3 ) = (−1)3 = −1 = ζ 2 .
Aus den Rechenregeln im Körper C oder durch direktes Nachrechnen erhält man leicht
([a][b])[c] = [a]([b][c])
und
sowie
[a][b] = [b][a] .
keine Lösung [x]6 , denn [3]6 [x]6 ∈ {[3]6 , [0]6 } für alle x ∈ Z. Außerdem können Null-
teiler existieren, d. h. nichtverschwindende Lösungen der Gleichung [a][b] = [0]. So gilt
etwa
Wir wollen jetzt zeigen, dass in gewissen Teilsystemen von Zm solche Probleme nicht
auftreten.
21 ELEMENTARE ZAHLENTHEORIE 163
Es gilt damit:
Satz 21.15 Es sei m ∈ N. Dann ist (Z∗m , ·) (mit · wie in B. 21.11.2) eine abelsche
Gruppe.
Beweis.
Offensichtlich ist [1] ∈ Z∗m . Also genügt es nach S. 21.12, zu zeigen: mit [a], [b] ∈ Z∗m
ist auch [a][b] ∈ Z∗m und die Gleichung [a][x] = [1] hat für jedes [a] ∈ Z∗m eine Lösung
in Z∗m (vgl. D. 2.1).
Es seien a, b ∈ Z, a, b teilerfremd zu m. Dann existieren nach S. 21.5 (x, y) ∈ Z2 und
(u, v) ∈ Z2 mit
ax + my = 1, bu + mv = 1 .
Die erste Gleichung impliziert ax = 1 mod m, d. h. [a][x] = [ax] = [1], und außerdem
gilt 1 ∈ xZ + mZ. Also ist ggT (x, m) = 1 nach S. 21.5. Damit ist [x] ∈ Z∗m . Weiter gilt
d. h. 1 ∈ abZ+mZ und damit ist ggT (ab, m) = 1 nach S. 21.5, also [a][b] = [ab] ∈ Z∗m . 2
Beispiel 21.16 Für m = 6 gilt ggT (1, 6) = ggT (5, 6) = 1 und ggT (0, 6) = 6, ggT (2, 6) =
2, ggT (3, 6) = 3, ggT (4, 6) = 2, also ist
Folgerung 21.17 Es sei p ∈ N eine Primzahl. Dann gilt ggT (a, p) = 1 für alle a ∈
{1, . . . , p − 1}, d. h.
Also ist nach S. 21.15 Zp \ {[0]} eine abelsche Gruppe und folglich ist nach S. 21.12
(Zp , +, ·) ein Körper (mit p Elementen) .
Dann gilt
n
P
1. 3|N genau dann wenn 3| aν
ν=0
Pn
2. 9|N genau dann wenn 9| aν
ν=0
Beweis.
1. Aus 10 ≡ 1 mod 3 folgt 10ν ≡ 1 mod 3 (denn [10ν ]3 = ([10]3 )ν = [1] für alle ν ∈ N0 ).
Also gilt
" n # n n
X X X
ν ν
[N ]3 = aν 10 = [aν ]3 [10 ]3 = [aν ]3
ν=0 3 ν=0 ν=0
n
" #
X
= aν ,
ν=0 3
n
P n
P
d. h. N ≡ aν mod 3. Insbesondere gilt also 3|N genau dann wenn 3| aν .
ν=0 ν=0
2. Analog. 2
x ≡ aj mod mj für j = 1, . . . , n .
Dabei ist x mod m1 · . . . · mn eindeutig bestimmt und mit x ist jedes y ∈ [x]m1 ·...·mn eine
Lösung.
21 ELEMENTARE ZAHLENTHEORIE 165
Beweis.
1. Eindeutigkeit: Sind x, y ∈ Z Lösungen des Systems von Kongruenzen, so gilt
mj |(x − y) (j = 1, . . . , m) .
mj |c (j = 1, . . . , n)
auch
n
Y
mj |c .
j=1
Man beachte dabei: Für u, v ∈ Z, k ∈ N folgt aus ggT (u, k) = ggT (v, k) = 1 schon
ggT (uv, k) = 1 nach dem Beweis zu S. 21.15).
n
Q
Also ist x ≡ y mod mj .
j=1
2. Existenz: Wir betrachten die Abbildung
n
Y
b : ZQ
n → Zmj ,
mj
j=1 j=1
definiert durch
b [x] Q
n := ([x]m1 , . . . , [x]mn ) .
mj
j=1
x≡y mod mj .
Q
Also ist x ≡ y mod mj nach1., d. h. [x]Q mj = [y]Q mj . Damit ist b injektiv. Da
n
Y n
Y
|ZQ mj | = mj = | Zmj |
j=1 j=1
2
21 ELEMENTARE ZAHLENTHEORIE 166
x ≡ 2 mod 3
x ≡ 3 mod 5
x ≡ 2 mod 7 .
Dann ist x = 23 eine Lösung. Nach S. 21.19 ist x mod 105 = 3·5·7 eindeutig bestimmt.
Außerdem ist jedes y ∈ [x]105 , d. h. jedes y mit y = 23 + k · 105 für ein k ∈ Z, ebenfalls
Lösung.
und für n = 1 setzen wir ϕ(1) := 1. Die Funktion ϕ : N → N heißt Eulersche Funktion
(oder Eulersche Phi-Funktion).
Es gilt
Satz 21.22 1. Die Eulersche Funktion ist multiplikativ, d. h. für alle teilerfremden
n, m ∈ N gilt
ϕ(nm) = ϕ(n)ϕ(m) .
2. Ist p eine Primzahl, so ist ϕ(pν ) = pν − pν−1 für alle v ∈ N. Insbesondere ist
ϕ(p) = p − 1.
3. Für beliebige n ∈ N ist
Y 1
ϕ(n) = n 1− .
p prim
p
p|n
Beweis.
1. Es sei b wie im Beweis zu S. 21.19 (mit m1 = m, m2 = n). Dann ist b∗ := b|Z∗mn eine
bijektive Abbildung von Z∗mn nach Z∗m × Z∗n .
(Denn: Ist x ∈ Z mit [x]mn ∈ Z∗mn , so gilt ggT (mn, x) = 1, also auch ggT (m, x) =
ggT (n, x) = 1. Also ist b([x]mn ) = ([x]m , [x]n ) ∈ Z∗m × Z∗n .
Ist andererseits ([x]m , [x]n ) ∈ Z∗m × Z∗n , so ist ggT (x, m) = ggT (x, n) = 1, also auch
ggT (x, mn) = 1 (vgl. Beweis zu S. 21.15). Also ist [x]mn ∈ Z∗mn . Da b : Zmn → Zm ×Zn
bijektiv ist, ist damit auch b∗ : Z∗mn → Z∗m × Z∗n bijektiv).
Aus ϕ(mn) = |Z∗mn | = |Z∗m × Z∗n | = |Z∗m ||Z∗n | = ϕ(n)ϕ(m) folgt 1.
22 UNTERGRUPPEN UND HOMOMORPHISMEN 167
2. Ist p prim und ν ∈ N, so sind die a ∈ {1, . . . , pν }, die nicht teilerfremd zu pν sind,
genau die pν−1 Zahlen
n = pν11 · · · pνkk .
ν
Da pj j paarweise teilerfremd sind, gilt nach 1. und 2.
k k
ν ν ν −1
Y Y
ϕ(n) = ϕ(pj j ) = p j j − pj j =
j=1 j=1
k k k Y
Y ν
Y 1 Y 1 1
= pj j 1− =n 1− =n 1− .
pj pj p
j=1 j=1 j=1 p prim
p|n
Definition 22.1 Es sei G = (G, ◦) eine Gruppe. Eine Menge U ⊂ G heißt Untergruppe
von G wenn (U, ◦|U ×U ) eine Gruppe ist (d. h. wenn mit a, b ∈ U auch a ◦ b ∈ U gilt,
und wenn e ∈ U und mit a ∈ U auch a−1 ∈ U ist). Statt a ◦ b schreiben wir auch kurz
ab.
Bemerkung 22.2 Eine Menge U ⊂ G, U 6= ∅ ist schon dann eine Untergruppe, wenn
mit a, b ∈ U auch a ◦ b−1 ∈ U gilt.
(Denn: Ist a ∈ U , so ist e = a ◦ a−1 ∈ U . Also ist auch a−1 = e ◦ a−1 ∈ U . Sind a, b ∈ U
so gilt also auch a ◦ b = a ◦ (b−1 )−1 ∈ U .)
Beispiel 22.3 1. Ist G eine beliebige Gruppe, so sind U = G und U = {e} Unter-
gruppen (die sog. trivialen Untergruppen).
22 UNTERGRUPPEN UND HOMOMORPHISMEN 168
2. Ist (G, ◦) = (C, +), so haben wir folgende Kette ineinander geschachtelter Unter-
gruppen (wobei m ∈ N)
{0} ⊂ mZ ⊂ Z ⊂ Q ⊂ R ⊂ C .
3. Ist (G, ◦) = (C \ {0}, ·), so haben wir folgende Kette ineinander geschachtelter
Untergruppen:
4. Es sei K ein Körper und (G, ◦) = (GLn (K), ·) die Gruppe der invertierbaren (n × n)
Matrizen über K mit der Matrix-Multiplikation (vgl. B. 8.25). Dann ist
eine Untergruppe von GLn (K). (Sind A, B ∈ SLn (K), so gilt det(AB −1 ) = det A/ det B =
1, also ist AB −1 ∈ SLn (K)).
Weiter ist für K = K
eine Untergruppe von GLn (K) ([Ü]), die sog. unitäre Gruppe. Für K = R heißt On :=
Un auch orthogonale Gruppe. Die Menge
Neben den Gruppen (Zm , +) und (Z∗m , ·) spielen in der Theorie endlicher Gruppen die
symmetrischen Gruppen Sn eine wichtige Rolle.
kann σ auch in der sog. Zykelschreibweise dargestellt werden: Jedes σ ist Produkt aus
Zykeln, d. h.
h i h i
(1) (k)
σ = a1 , . . . , a(1) (k)
m1 ◦ · · · ◦ a1 , . . . , amk ,
22 UNTERGRUPPEN UND HOMOMORPHISMEN 169
wobei ein Zykel [a1 , . . . , am ] eine Abkürzung für die Abbildung τ ∈ Sn , mit τ (aj ) =
aj+1 für j = 1, . . . , m − 1 und τ (am ) = a1 sowie τ (a) = a für a 6∈ {a1 , . . . , am } ist (d.
h. a1 →a2 →a3 → . . . →am →a1 ). Eine solche Darstellung ist i. a. keineswegs eindeutig.
Ist etwa
!
1 2 3 4 5 6 7
σ= .
3 2 4 5 1 7 6
So ist
σ = [1, 3, 4, 5] ◦ [6, 7] .
Dabei sind die Zykeln der Länge 2 Transpositionen (D. 11.1). Zykeln der Länge 1 (wie
oben im Beispiel 2) werden nicht aufgeführt.
Es gilt damit etwa: S3 hat die nichttrivialen Untergruppen
entspricht [1, 2, 3]
entspricht [1, 3, 2]
entspricht [2, 3]
entspricht [1, 2]
entspricht [1, 3] )
für alle a, b ∈ G gilt. Ein Homomorphismus h heißt Injektion (oder Einbettung), falls
h injektiv ist. Ein bijektiver Homomorphismus heißt Isomorphismus. Existiert ein Iso-
morphismus h : G → H, so heißen G und H isomorph.
22 UNTERGRUPPEN UND HOMOMORPHISMEN 170
h(a) := [a] (a ∈ Z) .
2. Ist h : (R, +) → (C, +) definiert durch h(x) = x+i0 (x ∈ R), so ist h eine Einbettung
(die natürliche Einbettung von R in C).
Satz 22.8 Es seinen (G, ◦) und (H, •) Gruppen, und es sei h : G → H ein Homo-
morphismus. Dann gilt
1. h(e) = e.
2. h(a−1 ) = (h(a))−1 für alle a ∈ G.
3. Ist U ⊂ G eine Untergruppe von G, so ist h(U ) ⊂ H eine Untergruppe von H.
4. Ist V ⊂ H eine Untergruppe von H, so ist h−1 (V ) ⊂ G eine Untergruppe von G.
(Insbesondere ist damit
Beweis.
1. Es gilt
Beweis.
Es seien u, v ∈ H. Dann existieren a, b ∈ G mit u = h(a), v = h(b). Also gilt
2
Ist h : G → H eine Injektion, so ist h : G → h(G) ⊂ H ein Isomorphismus zwischen
G und der Untergruppe h(G) von H. Dies kann man ausnutzen um die Rolle der
symmetrischen Gruppen zu verstehen:
Satz 22.10 (Cayley) Jede endliche Gruppe der Ordnung n ist isomorph zu einer
Untergruppe der symmetrischen Gruppe Sn .
Beweis.
Es sei G eine endliche Gruppe. Wir müssen eine Einbettung h : G → Sn konstruieren.
Es sei G = {a1 , . . . , an }, und es sei a ∈ G. Die Multiplikation (von links) mit a bewirkt
eine Permutation von G, d. h. es existiert genau ein σ = σa ∈ Sn mit
aaj = aσ(j) (j = 1, . . . , n)
(wichtig: Ist aaj = aak , so gilt a−1 aaj = a−1 aak , also aj = ak ). Es gilt dabei für
a, b ∈ G
σa σb = σab
d. h. σab = σa σb ).
Also ist h : G → Sn mit h(a) := σa ein Homomorphismus. Außerdem gilt: Ist id =
h(a) = σa , so ist aaj = aid(j) = aj für j = 1, . . . , n und damit a = e. Also ist
Kern(h) = {e}, d. h. h ist injektiv und damit eine Einbettung. 2
xn := |x ◦ ·{z
· · ◦ x} , x−n := (x−1 )n (= (xn )−1 )
nmal
für n ∈ N (und x0 := e). (Ist (G, ◦) eine “additive Gruppe”, d. h. “◦” = “+”, so
schreibt man üblicherweise nx statt xn ).
22 UNTERGRUPPEN UND HOMOMORPHISMEN 172
(Dabei ist < x > eine Untergruppe von G, wie man leicht sieht.)
2. Die Gruppe (G, ◦) heißt zyklisch, falls G =< x > für ein x ∈ G gilt.
Das Element x heißt dann erzeugendes Element von G.
Außerdem gilt für jede prime Restklasse [a] auch Zm =< [a] > ([Ü]).
Das Repertoire an zyklischen Gruppen ist damit (bis auf Isomorphie), schon erschöpft:
Satz 22.13 Jede zyklische Gruppe G =< x > ist entweder isomorph zu (Z, +) oder
zu (Zm , +) für ein m ∈ N.
Beweis.
1. Fall: Es ist xn 6= xk für alle n, k ∈ Z, n 6= k. Dann ist durch h : Z →< x > mit
h(n) := xn ein Isomorphismus von Z nach G =< x > definiert.
(Denn: Für n, k ∈ Z gilt
also ist h ein Homomorphismus. Ist y ∈ G =< x >, so existiert ein n ∈ N mit xn = y,
d. h. y = h(n). Sind schließlich n, k ∈ Z mit h(n) = h(k), d. h. xn = xk , so ist nach
Voraussetzung n = k, also ist h bijektiv.)
2. Fall: Es existieren n, k ∈ Z, n 6= k, mit xn = xk . Dann ist h aus “1. Fall” ein
surjektiver Homomorphismus, aber nicht mehr injektiv. Also existiert nach S. 22.8.5
ein n ∈ Kern(h) \ {0}. Da Kern(h) eine Gruppe ist, ist mit n auch −n ∈ Kern(h).
Also existiert ein minimales m ∈ N mit m ∈ Kern(h). Dann sind xj , j = 0, . . . , m − 1
paarweise verschieden (ansonsten gäbe es i, j ∈ {0, . . . , m − 1}, i < j, mit xi = xj , also
xj−i = e und damit j − i ∈ Kern(h) mit 0 < j − i < m).
Aus xm = e folgt xn+km = xn ◦ xkm = xn ◦ (xm )k = xn für alle n, k ∈ Z, d. h.
h(n) = h(n + km) für alle n, k. Also ist durch
h̃([n]m ) := h(n) (n ∈ Z)
Bemerkung und Definition 22.14 Es sei (G, ◦) eine Gruppe und es sei x ∈ G.
Dann heißt
Ordnung von x.
Es ist xn = e für ein n ∈ Z genau dann, wenn n = 0 oder wenn ord(x) < ∞ und n
Vielfaches von ord (x) ist, d. h. n = k ord (x) für ein k ∈ Z. (Dies ergibt sich aus der
Isomorphie zwischen < x > und Zm mit m = ord(x) im Falle ord(x) < ∞ und der
Isomorphie zwischen < x > und Z im Falle ord(x) = ∞.)
Bemerkung und Definition 22.15 Es sei (G, ◦), eine Gruppe, und es sei H ⊂ G
eine Untergruppe. Für a, b ∈ G definieren wir
Man sieht leicht, dass ∼ eine Äquivalenzrelation auf G ist. Die Äquivalenzklassen sind
die Teilmengen Hb, die Rechtsrestklassen genannt werden. (Durch Betrachtung von
b−1 a anstelle von ab−1 erhält man Linksrestklassen bH; für abelsche Gruppen gilt
natürlich Hb = bH).
Beispiel 22.16 1. Es sei (G, ◦) = (Z, +). Für m ∈ N ist mZ eine Untergruppe von Z.
Hier sind die Rechtsrestklassen (und Linksrestklassen) gerade die üblichen Restklassen
[a]m
(Denn: Sind a, b ∈ Z, so gilt a − b ∈ mZ genau dann, wenn a = b + km für ein k ∈ Z,
also a ∈ mZ + b, d. h. [a]m = [b]m )
2. Es sei (G, ◦) = (S3 , ◦). Ist H = {id, [1, 2, 3], [1, 3, 2]} (vgl. B. 22.5) so existieren die
zwei Rechts- (und Links-)restklassen
R1 = H · id = H
und
(Hier stimmen die Rechts- und die Linksklassen zu [1, 3] und [2, 3] nicht überein.)
3. Es sei (G, ◦) = (R2 , +) und es sei H = Rx = {λx : λ ∈ R} für ein x ∈ R2 \ {0}.
Dann sind die Restklassen Hb gegeben durch
Hb = Rx + b (b ∈ R2 ) .
Bemerkung und Definition 22.17 Es seien (G, ◦) eine Gruppe und H ⊂ G eine
Untergruppe. Dann heißt
also die Anzahl der Rechtsrestklassen bzgl. H, der Index von H in G. Dabei sieht man
leicht, dass G : H auch mit der Anzahl der Linksrestklassen bzgl. H übereinstimmt
([Ü]).
Satz 22.18 (Lagrange) Ist G eine endliche Gruppe und H eine Untergruppe, so ist
Beweis.
Der Beweis ergibt sich sofort daraus, dass die Äquivalenzklassen Hb eine Zerlegung
von G in G : H Teilmengen bewirken, und dass |Hb| = |H| = ord H für alle b ∈ G
gilt (die Abbildung ϕ : H → Hb mit ϕ(h) = hb ist bijektiv). 2
Satz 22.19 (Euler) Es sei G eine endliche Gruppe, und es sei x ∈ G. Dann ist
ord(x) ein Teiler von ord(G). Insbesondere gilt stets
xord (G) = e .
Beweis.
Die Behauptung ergibt sich sofort aus dem Satz von Lagrange mit H =< x > und aus
B. /D. 22.14. 2
Wendet man dies speziell auf die primen Restklassengruppen Z∗m an, so ergeben sich
wichtige Zahlentheoretische Konsequenzen.
22 UNTERGRUPPEN UND HOMOMORPHISMEN 175
aϕ(m) ≡ 1 mod m .
ap ≡ a mod p
und in dem Fall, dass p kein Teiler von a ist (d. h. ggT (a, p) = 1)
ap−1 ≡ 1 mod p .
Denn: Nach Definition gilt |Z∗m | = ϕ(m). Also folgt 1. sofort aus S. 22.19. Ist m = p,
wobei p prim, so ist ϕ(p) = p − 1 nach S. 21.12 und damit folgt die zweite Aussage von
2. aus 1. Durch Multiplikation von ap−1 ≡ 1 mod p mit a ergibt sich die erste Aussage
im Falle ggT (a, p) = 1. Ist p|a, d. h. a = kp für ein k ∈ Z, so gilt
a≡0 mod p
also auch
ap ≡ 0 ≡ a mod p .
st = kϕ(N ) + 1
Da ϕ(N ) = (p − 1)(q − 1) gilt, folgt aus st ≡ 1 mod ϕ(N ) auch st ≡ 1 mod (p − 1) und
st ≡ 1 mod (q − 1), d. h. es existieren `, m ∈ N mit st = `(p − 1) + 1 = m(q − 1) + 1
22 UNTERGRUPPEN UND HOMOMORPHISMEN 176
(nämlich etwa ` = k(p − 1) und m = k(q − 1)). Also folgt aus F. 22.20.2 im Falle
a 6≡ 0 mod p (beachte (Zp \ {[0]}, ·) ist eine Gruppe)
ast ≡ a mod q .
ast ≡ a mod N = pq .
23 Normalteiler
Ein (bis heute unerreichtes) Fernziel ist es natürlich, alle (endlichen) Gruppen zu ken-
nen bzw. zu klassifizieren, wobei isomorphe Gruppen nicht als verschieden angesehen
werden.
Für Primzahlordnungen liegen die Verhältnisse besonders einfach. Es gilt nämlich
Satz 23.1 Ist p eine Primzahl, so ist jede Gruppe G der Ordnung p isomorph zu
(Zp , +).
Beweis. Es sei x ∈ G \ {e}. Dann hat x nach dem Satz von Euler (S. 22.19) die
Ordnung p, d. h. < x >= G. Nach S. 22.13 ist G damit isomorph zu (Zp , +). 2
Definition 23.2 Es sei G eine Gruppe und H ⊂ G eine Untergruppe. Dann heißt H
Normalteiler (von G), falls Hg = gH für alle g ∈ G gilt (d. h. falls alle Rechts- und
Linksrestklassen bzgl. H übereinstimmen). Mann schreibt dann H G.
Bemerkung 23.3 Es sei G eine Gruppe, und es sei H eine Untergruppe von G. Dann
heis̈s t
H g := gHg −1 := {ghg −1 : h ∈ H}
zu h konjugierte Untergruppe. Man rechnet leicht nach, dass H g stets eine Untergruppe
von G ist ([Ü]). Es gilt damit: H ist genau dann Normalleiter von G, wenn H g = H
für alle g ∈ G gilt.
(Denn: “⇒”: Es gelte gH = Hg für alle g ∈ G. Wir zeigen:
−1
Dann ist H g ⊂ H für alle g ∈ G (und damit gilt dann auch H g ⊂ H, also H =
−1
(H g )g ⊂ H g , d. h. H = H g für alle g ∈ G).
Es sei also a ∈ H g d. h. a = ghg −1 für ein h ∈ H. Da gh ∈ gH = Hg ist, existiert ein
h̃ ∈ H mit gh = h̃g. Also ist a = h̃gg −1 = h̃ ∈ H.
“⇐”: Es gelte H g = H für alle g ∈ G, und es sei a ∈ Hg, d. h. a = hg für ein h ∈ H.
Dann existiert ein h̃ ∈ H mit h = g h̃g −1 . Folglich ist a = hg = g h̃g −1 g = g h̃ ∈ gH.
Also ist Hg ⊂ gH. Entsprechend sieht man, dass gH ⊂ Hg gilt (beachte dabei:
−1
H g = H).)
Satz 23.5 Es seien U und V Gruppen und es sei f : U → V ein Homomorphismus. Ist
N ⊂ V ein Normalteiler von V , so ist f −1 (N ) ein Normalteiler von U . Insbesondere
ist Kern(f ) Normalteiler von U .
d. h. u ∈ f −1 (N ).
Da {e} ein Normalteiler von V ist, ist insbesondere
Kern(f ) = f −1 ({e})
Normalteiler von U . 2
Die Normalteiler sind unter allen Untergruppen deswegen ausgezeichnet, weil die Rest-
klassen von Normalteilern (wie die Restklassen von mZ in Z) durch Definition einer
Restklassenverknüpfung zu einer Gruppe gemacht werden können.
23 NORMALTEILER 179
Satz 23.6 Es seien G eine Gruppe und H ein Normalteiler in G. Dann ist die Menge
Hg · Hh := H(g · h)
π : G → G/H , π(g) := Hg
ord(G/H) = G : H .
a−1 ghb−1 ∈ H
und also
Dies bedeutet wiederum gh ∈ Hab bzw. Hgh = Hab. Klar ist, dass He = H das
neutrale Element von G/H und Ha−1 das zu Ha inverse Element ist.
Aus diesen Überlegungen ergibt sich auch, dass π ein surjektiver Homomorphismus
ist. Ist π(g) = He, so ist Hg = He = H und damit g ∈ H. Umgekehrt folgt aus g ∈ H
auch wieder Hg = H = He, also π(g) = He. Also ist Kern(π) = H.
Nach der Definition von G : H (B./D. 22.17) ist ord(G/H) = G : H. 2
Satz 23.7 Es seien G und B Gruppen, und es sei f : G → B ein surjektiver Grup-
penhomomorphismus. Dann ist B isomorph zur Faktorgruppe G/Kern(f ).
Beweis. Wir zeigen: Durch i(Kern(f ) · g) := f (g) ist eine Abbildung i : G/Kern(f ) →
B wohldefiniert.
(Denn: Ist Kern(f ) · g = Kern(f ) · h für g, h ∈ G, so gilt
gh−1 ∈ Kern(f ) .
23 NORMALTEILER 180
Also ist e = f (gh−1 ) = f (g)(f (h))−1 , d. h. f (g) = f (h). Damit ist i(Kern(f ) · g) =
i(Kern(f ) · h)).
Man sieht sofort, dass i ein Homomorphismus ist, und nach Definition ist i surjektiv.
Außerdem gilt Kern(i) = {Kern(f )}, also besteht Kern(i) genau aus dem neutralen
Element in G/Kern(f ). Damit ist i auch injektiv nach S. 22.8.5. 2