0% fanden dieses Dokument nützlich (0 Abstimmungen)
73 Ansichten180 Seiten

Mengen Und Abbildungen

Mengen und Abbildungen
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
0% fanden dieses Dokument nützlich (0 Abstimmungen)
73 Ansichten180 Seiten

Mengen Und Abbildungen

Mengen und Abbildungen
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
Sie sind auf Seite 1/ 180

1 MENGEN UND ABBILDUNGEN 1

1 Mengen und Abbildungen


Wir starten mit einigen einführenden Definitionen und Ergebnissen aus der Theorie
der Mengen und Abbildungen, die nicht nur Grundlage der Linearen Algebra sondern
der gesamten Mathematik sind.
Unsere Darstellung gründet auf den von G. Cantor geprägten (sog. naiven) Mengen-
begriff.

“Eine Menge M ist eine Zusammenfassung von unterscheidbaren


Objekten”

Ein solches Objekt x heißt Element der Menge M (Schreibweise: x ∈ M ; ist x nicht
Element von M , so schreiben wir x 6∈ M ).

Definition 1.1 Es seien A, B Mengen.

1. A heißt Teilmenge von B, falls für jedes x ∈ A auch x ∈ B gilt. (Schreibweise:


A ⊂ B).

2. A und B heißen gleich (Schreibweise A = B), falls A ⊂ B und B ⊂ A.

3. Die Menge B \ A := {x : x ∈ B und x 6∈ A} heißt Differenz von B und A. Ist


A ⊂ B, so heißt Ac := CB (A) := B \ A Komplement von A (bzgl. B).

4. Die Menge ohne Elemente heißt leere Menge (Schreibweise: ∅).

5. Die Menge A ∪ B := {x : x ∈ A oder x ∈ B} heißt Vereinigung von A


und B.

6. Die Menge A ∩ B := {x : x ∈ A und x ∈ B} heißt Schnitt von A und B.

Definition 1.2 Es seien A und B Mengen. Dann heißt

A × B := {(a, b) : a ∈ A, b ∈ B} ,

also die Menge der geordneten Paare von Elementen aus A und B, das Produkt oder
die Produktmenge von A und B.

Beispiel 1.3 Ist A = {1, 2} und B = {3}, so ist

A × B = {(1, 3), (2, 3)} .

Man beachte, dass A × B nicht mit B × A übereinstimmt, da (a, b) = (ã, b̃) genau dann
gilt, wenn a = ã und b = b̃.
1 MENGEN UND ABBILDUNGEN 2

Satz 1.4 Es seien A1 , A2 , A3 Mengen. Dann gilt

1. A1 ∪ A2 = A2 ∪ A1 ,
A1 ∩ A2 = A2 ∩ A1 .

2. A1 ∪ (A2 ∪ A3 ) = (A1 ∪ A2 ) ∪ A3 ,
A1 ∩ (A2 ∩ A3 ) = (A1 ∩ A2 ) ∩ A3 .

Wir schreiben deshalb auch kurz A1 ∪ A2 ∪ A3 .

3. A1 ∩ (A2 ∪ A3 ) = (A1 ∩ A2 ) ∪ (A1 ∩ A3 ),


A1 ∪ (A2 ∩ A3 ) = (A1 ∪ A2 ) ∩ (A1 ∪ A3 ).

Beweis.
1. und 2. folgen sofort aus Definition 1.2. Wir beweisen die erste Aussage von 3.
“⊂”: Dazu sei

x ∈ A1 ∩ (A2 ∪ A3 ) .

Dann ist x ∈ A1 und x ∈ A2 ∪ A3 .

1. Fall: x ∈ A1 und x ∈ A2 . Dann ist x ∈ A1 ∩ A2 , also auch


x ∈ (A1 ∩ A2 ) ∪ (A1 ∩ A3 ).
2. Fall: x ∈ A1 und x ∈ A3 . Dann ist x ∈ A1 ∩ A3 , also auch
x ∈ (A1 ∩ A2 ) ∪ (A1 ∩ A3 ).

Also ist in jedem Fall x ∈ (A1 ∩ A2 ) ∩ (A1 ∩ A3 ).


Damit gilt A1 ∩ (A2 ∪ A3 ) ⊂ (A1 ∩ A2 ) ∪ (A1 ∩ A3 ).
“⊃”: Umgekehrt sei x ∈ (A1 ∩ A2 ) ∪ (A1 ∩ A3 ). Dann ist x ∈ A1 ∩ A2 oder x ∈ A1 ∩ A3 .
In beiden Fällen ist dann x ∈ A1 ∩ (A2 ∪ A3 ). Also folgt (A1 ∩ A2 ) ∪ (A1 ∩ A3 ) ⊂
A1 ∩ (A2 ∪ A3 ).
Die zweite Aussage von 3. als [Ü]. 2

Satz 1.5 (Regeln von de Morgan) Es seien A1 , A2 Mengen, und es sei B eine
Menge mit A1 ⊂ B und A2 ⊂ B. Dann gilt

1. CB (A1 ∪ A2 ) = CB (A1 ) ∩ CB (A2 ).

2. CB (A1 ∩ A2 ) = CB (A1 ) ∪ CB (A2 ).

Beweis.
1. “⊂”: Es sei x ∈ CB (A1 ∪A2 ). Dann ist x ∈ B und x 6∈ A1 ∪A2 , also x ∈ B und x 6∈ A1
sowie x 6∈ A2 . Damit ist x ∈ CB (A1 ) und x ∈ CB (A2 ), d. h. x ∈ CB (A1 ) ∩ CB (A2 ).
1 MENGEN UND ABBILDUNGEN 3

“⊃”: Es sei x ∈ CB (A1 ) ∩ CB (A2 ). Dann ist x ∈ CB (A1 ) und x ∈ CB (A2 ). Also ist
x ∈ B und x 6∈ A1 sowie x 6∈ A2 . Dann ist x ∈ B und x 6∈ A1 ∪A2 , also x ∈ CB (A1 ∩A2 ).

2. [Ü]. 2

Definition 1.6 Es seien X und Y Mengen. Eine Teilmenge R von X×Y heißt Relation
(zwischen X und Y ). Ist speziell X = Y , so heißt R Relation in X. Eine Relation R
zwischen X und Y heißt Abbildung (von X nach Y ) bzw. Funktion (von X nach Y )
falls gilt:

a) Für alle x ∈ X existiert ein y ∈ Y mit (x, y) ∈ R.


und
b) Sind (x, y) ∈ R und (x, ỹ) ∈ R so gilt y = ỹ.

Bemerkung und Definition 1.7 Ist R eine Abbildung von X und Y , so ist jedem
Wert x ∈ X genau ein Wert f (x) mit (x, f (x)) ∈ R zugeordnet. Wir identifizieren R
dann auch mit dieser Zuordnungsvorschrift f und schreiben f : X → Y oder x 7→ f (x).
Weiter heißt X der Definitionsbereich (von f ) und

W (f ) := {f (x) : x ∈ X} = {y ∈ Y : ∃ x ∈ X mit y = f (x)}

Wertebereich (von f ). Ferner setzen wir für B ⊂ Y

f −1 (B) := {x ∈ X : f (x) ∈ B}

(f −1 (B) heißt Urbild von B unter f ) und für A ⊂ X

f (A) := {f (x) : x ∈ A} = {y ∈ Y : ∃ x ∈ A mit y = f (x)}

(f (A) heißt Bild von A unter f ).


Zwei Abbildungen f1 : X1 → Y und f2 : X2 → Y heißen gleich falls X1 = X2 und
f1 (x) = f2 (x) für alle x ∈ X1 (= X2 ) gilt.
Ist f : X → Y und ist X0 ⊂ X, so heißt f|X0 : X0 → Y , definiert durch f|X0 (x) := f (x)
für alle x ∈ X0 , Einschränkung von f auf X0 .

Satz 1.8 Es seien X, Y Mengen und f : X → Y . Dann gilt für A1 , A2 ⊂ X und


B1 , B2 ⊂ Y

1. f (A1 ∪ A2 ) = f (A1 ) ∪ f (A2 ),

2. f −1 (B1 ∪ B2 ) = f −1 (B1 ) ∪ f −1 (B2 ),

3. f (A1 ∩ A2 ) ⊂ f (A1 ) ∩ f (A2 ),


1 MENGEN UND ABBILDUNGEN 4

4. f −1 (B1 ∩ B2 ) = f −1 (B1 ) ∩ f −1 (B2 ).

Beweis.
1. “⊂”: Es sei y ∈ f (A1 ∪ A2 ). Dann existiert ein x ∈ A1 ∪ A2 mit f (x) = y. Ist x ∈ A1 ,
so ist y = f (x) ∈ f (A1 ) ⊂ f (A1 ) ∪ f (A2 ). Entsprechend ist y ∈ f (A2 ) ⊂ f (A1 ) ∪ f (A2 )
im Falle x ∈ A2 .
“⊃”: Nach Definition gilt f (A1 ) ⊂ f (A1 ∪ A2 ) und f (A2 ) ⊂ f (A1 ∪ A2 ) also f (A1 ) ∪
f (A2 ) ⊂ f (A1 ∪ A2 ).

2. “⊂”: Es sei x ∈ f −1 (B1 ∪ B2 ). Dann ist f (x) ∈ B1 ∪ B2 .


Ist f (x) ∈ B1 , so ist x ∈ f −1 (B1 ) also auch x ∈ f −1 (B1 ) ∪ f −1 (B2 ). Entsprechend ist
x ∈ f −1 (B2 ) ⊂ f −1 (B1 ) ∪ f −1 (B2 ), falls f (x) ∈ B2 .
“⊃”: Nach Definition gilt

f −1 (B1 ) ⊂ f −1 (B1 ∪ B2 ) und f −1 (B2 ) ⊂ f −1 (B1 ∪ B2 ) ,

also f −1 (B1 ) ∪ f −1 (B2 ) ⊂ f −1 (B1 ∪ B2 ).

3. Es sei y ∈ f (A1 ∩ A2 ). Dann existiert ein x ∈ A1 ∩ A2 mit f (x) = y. Da x ∈ A1 und


x ∈ A2 ist, folgt y ∈ f (A1 ) ∩ f (A2 ).

4. [Ü] 2

Beispiel 1.9 Es seien

N := {1, 2, 3, . . . } = {natürliche Zahlen}

und

Z := {ganze Zahlen} = {0, ±1, ±2, . . . } .

Weiter seien X = Y = Z und f : Z → Z definiert durch


(
x, falls x ≥ 0
f (x) := .
−x, falls x < 0

Dann gilt W (f ) = N0 := N ∪ {0}. Weiter ist etwa

f −1 ({1, . . . , n}) = f −1 ({1, . . . , n} ∪ {−1, −2, −3, . . . }) = {−n, . . . , −1, 1, . . . , n}

und f −1 ({−1, −2, −3, . . . }) = ∅ sowie f (N) = N = f (Z − {0}). Ist f˜ : N0 → N0


definiert durch

f˜(x) := x (x ∈ N0 ) ,

so ist zwar f˜(x) = f (x) für alle x ∈ N0 , aber f˜ =


6 f . Es gilt aber f|N0 = f˜.
1 MENGEN UND ABBILDUNGEN 5

Definition 1.10 Es seien X, Y Mengen. Eine Abbildung f : X → Y heißt

1. surjetiv (oder Abbildung von X auf Y ), falls W (f ) = Y ist,

2. injektiv (oder eineindeutige Abbildung), falls für alle y ∈ W (f ) die Menge


f −1 ({y}) einelementig ist (d. h. sind x1 , x2 ∈ X mit f (x1 ) = f (x2 ), so ist
x1 = x2 ),

3. bijektiv, falls f injektiv und surjektiv ist.

Beispiel 1.11 Es seien f und f˜ wie im B 1.9 Dann ist f weder surjektiv noch injektiv
(es gilt f −1 ({(n}) = {n, −n} für alle n ∈ N); f˜ ist bijektiv.

Definition 1.12 Es seien X, Y, Z Mengen und f : X → Y sowie g : Y → Z Abbil-


dungen. Dann heißt g ◦ f : X → Z, definiert durch

(g ◦ f )(x) := g(f (x)) (x ∈ X)

Verknüpfung von g und f (oder Hintereinanderausführung von f und g).

Satz 1.13 Es seien X, Y, Z, U Mengen und f : X → Y, g : Y → Z und h : Z → U


Abbildungen. Dann gilt

h ◦ (g ◦ f ) = (h ◦ g) ◦ f .

Beweis.
Es gilt h ◦ (g ◦ f ) : X → U und (h ◦ g) ◦ f : X → U . Weiter gilt für x ∈ X

(h ◦ (g ◦ f ))(x) = h((g ◦ f )(x)) = h(g(f (x))) = (h ◦ g)(f (x)) =


= ((h ◦ g) ◦ f )(x) .

Definition 1.14 Es sei I 6= ∅ eine Menge, und es seien Aα Mengen für alle α ∈ I. (I
nennt man dann “Indexmenge”.) Dann heißt
[
Aα := {x : x ∈ Aα für ein α ∈ I}
α∈I

Vereinigung der Mengen Aα (über α ∈ I).


Weiter heißt
\
Aα := {x : x ∈ Aα für alle α ∈ I}
α∈I
1 MENGEN UND ABBILDUNGEN 6

Durchschnitt der Mengen Aα (über α ∈ I).


Ist speziell I endlich, so kann man ohne Einschränkung I = {1, . . . , n} annehmen. Wir
schreiben dann auch
n
[ [
A1 ∪ . . . ∪ An = Aj := Aj
j=1 j∈{1,... ,n}

und
n
\ \
A1 ∩ . . . ∩ An = Aj := Aj .
j=1 j∈{1,... ,n}

Oft betrachtet man auch Vereinigungen und Durchschnitte von Mengensystemen, die
nicht indiziert sind: Ist F ein System von Mengen (d. h. eine Menge von Mengen), so
setzt man
[ [
A := {A : A ∈ F} := {x : x ∈ A für ein A ∈ F}
A∈F

und
\ \
A := {A : A ∈ F} := {x : x ∈ A für alle A ∈ F} .
A∈F

Beispiel 1.15 Es sei I = N und

An := {k/n : k ∈ Z} (n ∈ N) .

Dann ist
[ [
An = {k/n : k ∈ Z} = Q
n∈N n∈N

wobei Q := {rationale Zahlen} und


\
An = A1 = Z .
n∈N

Definition 1.16 Es sei I eine Menge und es seien Aα Mengen für alle α ∈ I. Dann
heißt
Y [
Aα := {f : I → Aα : f (α) ∈ Aα für alle α ∈ I}
α∈I α∈I
Q
Produkt der Mengen Aα . Ist f ∈ Aα , so schreiben wir auch fα := f (α) und (fα )α∈I
α∈I
für f . Gilt Aα = A für alle α ∈ I, so setzt man AI :=
Q
A.
α∈I
2 GRUPPEN UND KÖRPER 7

Ist I endlich, so kann man ohne Einschränkung I = {1, . . . , n} betrachten. Dann


schreiben wir

(a1 , . . . , an ) := (aj )j∈{1,... ,n}

und
n
Y Y
A1 × . . . × An := Aj := Aj
j=1 j∈{1,... ,n}
= {(a1 , . . . , an ) : aj ∈ Aj für j = 1, . . . , n} .
n
Q
Ein (a1 , . . . , an ) ∈ Aj heißt n-Tupel.
j=1
Ist Aj = A für j = 1, . . . , n, so setzen wir
n
Y
n {1,... ,n}
A := A = A.
j=1

Beispiel 1.17 Es sei Aj = N für j = 1, . . . , n. Dann ist


n
Y
n
N = N = {(a1 , . . . , an ) : aj ∈ N für j = 1, . . . , n}
j=1

die Menge aller n-Tupel aus natürlichen Zahlen.

Bemerkung und Definition 1.18 Sind X, Y Mengen und ist f : X → Y injektiv,


so ist f : X → W (f ) bijektiv. Wir definieren

f −1 (y) := x (y ∈ W (f ))

wobei y = f (x). Die Abbildung f −1 : W (f ) → X heißt Umkehrabbildung von f . Es


gilt dann f −1 ◦ f : X → X und (f −1 ◦ f )(x) = x für alle x ∈ X, d. h. f −1 ◦ f = idX ,
wobei idX : X → X, definiert durch

idX (x) := x (x ∈ X) ,

die sog. identische Abbildung auf X bezeichnet. Genauso gilt f ◦ f −1 = idW (f ) . Außer-
dem ist f −1 : W (f ) → X bijektiv.

2 Gruppen und Körper


In diesem Abschnitt beschäftigen wir uns mit Grundbegriffen der Algebra. Dies hat
zunächst einmal das Ziel, die “Bühne zu bereiten” für die Einführung des zentralen Be-
griffs der Linearen Algebra (nämlich des linearen Raumes). Später werden wir nochmal
auf die hier dargestellten Dinge zurückkommen.
2 GRUPPEN UND KÖRPER 8

Definition 2.1 Es sei G 6= ∅ eine Menge, und es sei ◦ : G × G → G eine Abbildung.


Dann heißt (G, ◦) eine Gruppe, falls gilt

(G.1) (Assoziativgesetz):
Für alle a, b, c ∈ G ist

a ◦ (b ◦ c) = (a ◦ b) ◦ c .

(G.2) (Existenz eine (Rechts-) Einselements bzw. neutralen Elements):


Es existiert eine e ∈ G mit

a◦e=a (a ∈ G) .

(G.3) (Existenz eines (rechts-) inversen Elements):


Für alle a ∈ G existiert ein b ∈ G mit

a◦b=e.

Ferner heißt (G, ◦) abelsche (oder kommutative) Gruppe, falls zudem gilt

(G.4) (Kommutativgesetz): Für alle a, b ∈ G gilt

a◦b=b◦a.

Satz 2.2 Es sei (G, ◦) eine Gruppe. Dann gilt:

1. Es existiert nur ein e ∈ G mit a ◦ e = a für alle a ∈ G und dieses erfüllt dann
auch e ◦ a = a für alle a ∈ G.

2. Zu jedem a ∈ G existiert nur ein b ∈ G mit a ◦ b = e und dieses b erfüllt auch


b ◦ a = e. Wir setzen

a−1 := b .

Beweis.
α) Wir zeigen zunächst die letzte Aussage. Dazu sei a ∈ G gegeben. Weiter sei b ein
nach (G.3) existierendes rechtsinverses Element zu a (bzgl. e).
Dann gilt

b ◦ (a ◦ b) = b ◦ e = b .

Ist c ein rechtsinverses Element zu b, d. h. b ◦ c = e, so folgt


G.1
e = b ◦ c = (b ◦ (a ◦ b)) ◦ c = (b ◦ a) ◦ (b ◦ c) =
G.2
= (b ◦ a) ◦ e = b ◦ a .
2 GRUPPEN UND KÖRPER 9

Also ist b auch, “linksinverses Element” zu a.

β) Es sei a ∈ G. Dann gilt mit α)


G.1 G.2
e ◦ a = (a ◦ b) ◦ a = a ◦ (b ◦ a) = a ◦ e = a .

Also ist e auch ein “Linkseinselement”.

γ) Ist ẽ ein weiteres Rechtseinselement, d. h. ist a ◦ ẽ = a für alle a ∈ G, so ist


insbesondere e ◦ ẽ = e. Also folgt
β)
e = e ◦ ẽ = ẽ .

δ) Es sei nun b̃ ∈ G ein weiteres rechtsinverses Element zu a (neben b aus Aussage 2.).
Dann gilt a ◦ b̃ = e und damit
G.2 G.1 α) β)
b = b ◦ e = b ◦ (a ◦ b̃) = (b ◦ a) ◦ b̃ = e ◦ b̃ = b̃ ,

d. h. b = b̃ 2.

Beispiel 2.3 Es sei M 6= ∅ eine Menge, und es sei

S(M ) := {f : M → M, f bijektiv}

sowie ◦ wie in Definition 1.12 (Hintereinanderausführung). Dann ist (S(M ), ◦) eine


Gruppe

(Denn: Mit f, g ∈ S(M ) ist auch f ◦ g ∈ S(M ) ([Ü]); Axiom (G.1) folgt aus Satz
1.13; das neutrale Element e ist offenbar e = idM und (G.3) folgt aus B/D 1.18, da
W (f ) = M für alle f ∈ S(M )).

Die Funktionen f ∈ S(M ) heißen Permutationen (von M ) und (S(M ), ◦) heißt Per-
mutationsgruppe (von M ).

Ist speziell M = {1, . . . , n} für ein n ∈ N, so heißt

Sn := S({1, . . . , n})

symmetrische Gruppe von Grad n. Ein f ∈ Sn schreibt man oft in der Form
!
1 2 3 ... n
f= .
f (1) f (2) f (3) . . . f (n)

Man kann leicht zeigen ([Ü]): S1 , S2 sind abelsch, Sn ist für n ≥ 3 nicht abelsch; für
n = 3 betrachte man etwa
! !
1 2 3 1 2 3
f= und g = .
2 3 1 3 2 1
2 GRUPPEN UND KÖRPER 10

Definition 2.4 Gegeben seien eine Menge K mit mindestens zwei Elementen und
zwei Abbildungen + : K × K → K (+ heißt Addition) und · : K × K → K (· heißt
Multiplikation). Dann heißt (K, +, ·) ein Körper, falls gilt
(A) (K, +) ist eine abelsche Gruppe (wobei das neutrale Element mit 0 bezeichnet
wird).

(M) (K\{0}, ·) ist eine abelsche Gruppe (wobei das neutrale Element mit 1 bezeichnet
wird).

(D) (Distributivgesetze):
Für alle a, b, c ∈ K gilt

a · (b + c) = (a · b) + (a · c) und (a + b) · c = (a · c) + (b · c) .

Für a, b, c, d ∈ K schreiben wir kurz ab statt a · b und ab + cd statt (ab) + (cd)


(Punktrechnung vor Strichrechung).

Ist a ∈ K, so schreiben wir −a für das inverse Element bzgl. +. Außerdem setzen
wir b − a := b + (−a) für a, b ∈ K und b/a := b · a−1 für b ∈ K, a ∈ K \ {0},
wobei a−1 das inverse Element von a bzgl. · bezeichnet.

Satz 2.5 Es sei (K, +, ·) ein Körper. Dann gilt


1. Für alle a ∈ K gilt a · 0 = 0 · a = 0. (Hieraus folgt insbesondere auch, daß
a(bc) = (ab)c und ab = ba sowie a1 = a für alle a, b, c ∈ K gilt.)

2. Sind a, b ∈ K mit a · b = 0, so ist a = 0 oder b = 0.

3. Für alle a, b ∈ K gilt −(ab) = (−a)b = a(−b) (wir schreiben dann: −ab).

Beweis.
1. Es sei a ∈ K. Dann gilt

a0 = a(0 + 0) = a0 + a0

und damit

0 = a0 − (a0) = (a0 + a0) − (a0) = a0 + (a0 − (a0)) = a0 .

Entsprechend sieht man, dass 0a = 0 gilt.


2. Es seien a, b ∈ K mit a · b = 0. Ist b = 0, so sind wir fertig. Ist b 6= 0, so folgt mit 1.

a = a1 = a(b/b) = (ab)/b = 0/b = 0 ,

also a = 0.

3. [Ü] 2
2 GRUPPEN UND KÖRPER 11

Beispiel 2.6 1. Wir betrachten Q := {p/q : p ∈ Z, q ∈ N} mit der üblichen


Addition + und Multiplikation ·. Dann ist (Q, +, ·) ein Körper.(→ Analysis)

2. Gleiches gilt für (R, +, ·) wobei R = {reelle Zahlen}. (→ Analysis)

3. Gleiches gilt für (C, +, ·) wobei C = {komplexe Zahlen} . (→ Analysis)

4. Es sei K = {0, 1} mit folgender Addition und Multiplikation

+ 0 1 · 0 1
0 0 1 0 0 0
1 1 0 1 0 1

(d. h. 0 + 0 = 1 + 1 = 0, 1 + 0 = 0 + 1 = 1, 0 · 0 = 0 · 1 = 1 · 0 = 0, 1 · 1 = 1).
Dann ist (K, +, ·) ein Körper (der sog. Binärkörper) ([Ü]).
3 DIE DEFINITION LINEARER RÄUME 12

3 Die Definition linearer Räume


Einen der zentralen Punkte der Linearen Algebra stellt die Theorie linearer Glei-
chungssysteme dar. Bevor wir darauf zu sprechen kommen wollen wir eine geeignete
“Sprache” hierfür entwickeln. Ausgangspunkt und Mittelpunkt zugleich ist der Begriff
des linearen Raumes (oder Vektorraumes).

Definition 3.1 Es seien K = (K, +, ·) ein Körper und V 6= ∅ eine Menge. Ferner
seien zwei Abbildungen + : V × V → V (genannt Addition) und · : K × V → V
(genannt Skalarmultiplikation) gegeben. Dann heißt V = (V, +, ·) ein linearer Raum
(über K) bzw. Vektorraum über K bzw. K-Vektorraum, falls gilt:

(AV) (V, +) ist eine abelsche Gruppe. (Das neutrale Element wird dabei wieder mit 0
(oder 0V ) und das inverse Element von x ∈ V wieder mit −x bezeichnet.)

(M1) Für alle λ, µ ∈ K und alle x ∈ V gilt

λ · (µ · x) = (λ · µ) · x .

(M2) Ist 1 das neutrale Element von (K \ {0}, ·), so gilt für alle x ∈ V

1·x=x.

(D1) Für alle λ ∈ K und alle x, y ∈ V gilt

λ · (x + y) = λ · x + λ · y .

(D2) Für alle λ, µ ∈ K und alle x ∈ V gilt

(λ + µ) · x = λ · x + µ · x .

Die Elemente von V heißen hierbei Vektoren und die Elemente aus K heißen Skalare.
Man beachte, dass Addition und Multiplikation sowohl in K als auch in V mit “+” und
“·” bezeichnet werden, obwohl es sich um verschiedene Operationen handelt! Außerdem
schreiben wir wieder kurz λx statt λ · x.
Wir stellen zunächst einige Rechenregeln zusammen, die sich aus D 3.1 ergeben.

Satz 3.2 Es sei V ein linearer Raum über K. Dann gilt

1. Für alle x ∈ V, λ ∈ K ist 0x = 0 und λ0 = 0.

2. Sind λ ∈ K und x ∈ V so, dass λ · x = 0, so folgt λ = 0 oder x = 0.

3. Für alle λ ∈ K und x ∈ V ist −(λx) = λ(−x) = (−λ)x(=: −λx).


3 DIE DEFINITION LINEARER RÄUME 13

Beweis.
Es seien x ∈ V und λ ∈ K gegeben.
1. Nach (D2) und (D1) gilt

0x + 0x = (0 + 0)x = 0x

und

λ0 + λ0 = λ(0 + 0) = λ0 .

Also folgt

0 = 0x − (0x) = (0x + 0x) − (0x) = 0x + (0x − (0x)) = 0x

und

0 = λ0 − (λ0) = (λ0 + λ0) − (λ0) = λ0 + (λ0 − (λ0)) = λ0 .

2. Es gelte λx = 0. Ist λ = 0, so sind wir fertig. Es sei also λ 6= 0. Dann gilt nach 1.
und (M2), (M1)
 
1 1 1
x=1·x= λ x = (λx) = · 0 = 0 .
λ λ λ
3. Nach 1. und (D2) bzw. (D1) gilt

0 = 0x = (λ + (−λ))x = λx + (−λ)x

und

0 = λ0 = λ(x + (−x)) = λx + λ(−x) .

Da das inverse Element bzgl. + eindeutig bestimmt ist, gilt also

−(λx) = (−λ)x = λ(−x) .

Beispiel 3.3 1. Es sei K ein Körper. Dann ist für n ∈ N

K n := K {1,... ,n} = {(x1 , . . . , xn ) : xj ∈ K für j = 1, . . . , n}

mit + : K n × K n → K n definiert durch

x + y = (x1 , . . . , xn ) + (y1 , . . . , yn ) := (x1 + y1 , . . . , xn + yn )

für x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ K n und · : K × K n → K n , definiert durch

λ · x = λ · (x1 , . . . , x1 ) := (λx1 , . . . , λxn )

für x = (x1 , . . . , xn ) ∈ K n und λ ∈ K, ein linearer Raum über dem Körper K.


(Denn:
3 DIE DEFINITION LINEARER RÄUME 14

1. Behauptung: (AV) gilt, d. h. (K n , +) ist eine abelsche Gruppe.


(G.1) : Es seien x, y, z ∈ K n . Dann gilt

(x + y) + z = [(x1 , . . . , xn ) + (y1 , . . . , yn )] + (z1 , . . . , zn ) =


= (x1 + y1 , . . . , xn + yn ) + (z1 , . . . , zn ) =
= ((x1 + y1 ) + z1 , . . . , (xn + yn ) + zn )
= (x1 + (y1 + z1 ), . . . , xn + (yn + zn ))
= (x1 , . . . , xn ) + [(y1 , . . . , yn ) + (z1 , . . . , zn )] = x + (y + z)

(G4): Es seien x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ K n . Dann gilt

x + y = (x1 + y1 , . . . , xn + yn ) = (y1 + x1 , . . . , yn + xn ) = y + x .

(G2): Mit 0 := 0V := (0, . . . 0) ∈ K n gilt für alle x = (x1 , . . . , xn ) ∈ X

x + 0 = (x1 , . . . , xn ) + (0, . . . , 0) = (x1 + 0, . . . , xn + 0) = (x1 , . . . , xn ) = x

(G3): Es sei x = (x1 , . . . , xn ) ∈ K n . Dann gilt für y := (−x1 , . . . , −xn ) ∈ K n

x + y = (x1 , . . . xn ) + (−x1 , . . . , −xn ) = (x1 − x1 , . . . , xn − xn ) = (0, . . . , 0) = 0.

2. Behauptung: (M1) gilt. Dazu seien λ, µ ∈ K und x = (x1 , . . . , xn ) ∈ K n . Dann


gilt

λ · (µ · x) = λ · (µx1 , . . . , µxn ) = (λ(µx1 ), . . . , λ(µxn )) =


= ((λµ)x1 , ·, (λµ)xn ) = (λµ)(x1 , . . . , xn ) .

3. Behauptung: (M2) gilt. Es sei x = (x1 , . . . , xn ) ∈ K n . Dann gilt

1 · x = 1 · (x1 , . . . , xn ) = (1x1 , . . . , 1xn ) = (x1 , . . . , xn ) .

4. Behauptung: (D1) gilt. Es seien λ ∈ K und x, y ∈ K n . Dann gilt

λ(x + y) = λ((x1 , . . . , xn ) + (y1 , . . . , yn )) = λ(x1 + y1 , . . . , xn + yn ) =


= (λ(x1 + y1 ), . . . , λ(xn + yn )) = (λx1 + λy1 , . . . , λxn + λyn ) =
= λ(x1 , . . . , xn ) + λ(y1 , . . . , yn ) = λx + λy .

5. Behauptung: (D2) gilt. Beweis analog zu 4.)

Insbesondere ergibt sich damit zusammen mit B. 2.6:

a) Qn = (Qn , +, ·) ist linearer Raum über Q,


3 DIE DEFINITION LINEARER RÄUME 15

b) Rn = (Rn , +, ·) ist linearer Raum über R,

c) Cn = (Cn , +, ·) ist linearer Raum über C.

Da weiter aus D. 2.1 sofort folgt, dass ein linearer Raum über K auch ein linearer
Raum über K̃ für jeden Körper K̃ ⊂ K ist, ist damit auch Rn linearer Raum über Q
und Cn linearer Raum über R und Q.

Veranschaulichung im Falle R2 :
x = (x1 , x2 ), y = (y1 , y2 ) ∈ R2 , λ ∈ R.

2. Es sei X 6= ∅ eine Menge und K ein Körper. Wir definieren für f, g ∈ K X und
λ∈K

(f + g)(x) := f (x) + g(x)


(x ∈ X) .
(λf )(x) := λ · f (x)

Dann ist (K X , +, ·) ein linearer Raum über K.


(Beweis wie oben im Spezialfall X = {1, . . . , n}.)
4 UNTERRÄUME 16

4 Unterräume
Wir betrachten jetzt bestimmte Teilmengen von linearen Räumen.

Definition 4.1 Es sei V ein linearer Raum über K, und es sei U ⊂ V nichtleer. Dann
heißt U (linearer) Unterraum (oder (linearer) Teilraum oder Untervektorraum) von V ,
falls (U, +|U ×U , ·|K×U ) ein linearer Raum ist. Wir schreiben dann wieder + für +|U ×U
und · für ·|K×U .

Äußerst nützlich zum Nachweis der Unterraum-Eigenschaft ist.

Satz 4.2 Es seien V ein linearer Raum über K und U ⊂ V nichtleer. Dann gilt: U
ist Unterraum von V genau dann, wenn die folgenden Bedingungen erfüllt sind:

a) Für alle x, y ∈ U ist x + y ∈ U ,

b) Für alle λ ∈ K , x ∈ U ist λx ∈ U .

Beweis.
Die Bedingungen a) und b) bedeuten gerade, dass +|U ×U : U × U → U und ·|K×U :
K × U → U gilt, d. h. Addition und Skalarmultiplikation führen nicht aus U heraus.
1. ⇒“ : Ist U ⊂ V ein Unterraum, so gelten a) und b) nach D.4.1 und D.3.1.

2. ⇐“ : Nach D.3.1 gelten (G 1) und (G 4) für die Addition sowie (M 1), (M 2) und

(D 1), (D 2) auch in U . Es bleiben noch (G 2) und (G 3) aus (AV) zu zeigen.
Ist y ∈ U , so gilt 0 = 0 · y ∈ U nach S.3.2.1. und b) , also ist 0 ∈ U neutrales Element
bzgl. +. Ist x ∈ U , so ist −x = −(1x) = (−1)x ∈ U nach S.3.2.3. und b). Klar ist
dann x + (−x) = 0, also existiert zu x ein inverses Element bzgl. +. 2

Beispiel 4.3 1. Ist V ein beliebiger linearer Raum über K, so sind U = V und
U = {0} Unterräume von V . Der Raum {0} heißt Nullraum (von V ).
2. Es sei V = Rn und a = (a1 , . . . , an ) ∈ Rn fest. Dann ist
n
X
Ua := {(x1 , . . . , xn ) ∈ Rn : ak xk = 0}
k=1

ein Unterraum von Rn .


(Denn: Sind x, y ∈ Ua und ist λ ∈ R, so gilt
n
X n
X n
X
ak (xk + yk ) = ak xk + ak yk = 0 + 0 = 0
k=1 k=1 k=1
4 UNTERRÄUME 17

und
n
X n
X
ak (λxj ) = λ ak xk = λ0 = 0 .
k=1 k=1

Nach S.4.2 ist U ein Unterraum von Rn .)


3. Es sei V = RR (= {f : R → R}). Wir betrachten für n ∈ N0 und a0 , . . . , an ∈ R die
Funktion P : R → R (d. h. P ∈ V ) mit
n
X
P (x) = aν xν (x ∈ R) .
ν=0

Eine solche Funktion heißt Polynomfunktion (in R) oder kurz Polynom (in R). Weiter
setzen wir

Π := ΠR := {Polynome in R} .

Dann ist Π ein Unterraum von RR


(Denn: Sind P, Q ∈ Π und ist λ ∈ R so existieren a0 , . . . , an ∈ R und b0 , . . . , bm ∈ R
mit
n
X m
X
P (x) = aν xν und Q(x) = bν xν (x ∈ R) .
ν=0 ν=0

Ohne Einschränkung sei n ≥ m. Dann gilt für alle x ∈ R


n
X m
X n
X
ν ν
(P + Q)(x) = aν x + bν x = (aν + bν )xν ,
ν=0 ν=0 ν=0

wobei bν := 0 für ν = m + 1, . . . , n im Falle m < n gesetzt ist. Also ist P + Q ein


Polynom in R. Weiter gilt
n
X n
X
ν
(λP )(x) = λ aν x = (λaν )xν ,
ν=0 ν=0

d. h. λP ist ein Polynom in R. Nach S.4.2 ist Π ein Unterraum von RR .)


Polynome in C sind genau wie oben definiert indem man überall R durch C ersetzt
(für die Variable schreibt man dann üblicherweise z statt x). Dann ist

Π := ΠC := {Polynome in C}

ein Unterraum von CC .

Satz 4.4 Ist F 6= ∅ ein System von Unterräumen eines linearen Raumes V über K,
T
so ist U := W ein Unterraum von V .
W ∈F
4 UNTERRÄUME 18

Beweis.
Zunächst ist 0 ∈ W für alle W ∈ F, also 0 ∈ U . Es seien x, y ∈ U und λ ∈ K gegeben.
Dann gilt x, y ∈ W für alle W ∈ F, also nach S.4.2 auch x + y ∈ W und λx ∈ W für
alle W ∈ F. Dies bedeutet wiederum x + y ∈ U und λx ∈ U . Nach S.4.2 ist U ein
Unterraum von V . 2

Der Satz besagt, dass jeder Durchschnitt von Unterräumen wieder ein Unterraum ist.
Wie man leicht sieht, ist i. a. die Vereinigung von Unterräumen kein Unterraum. Wir
werden nun einer beliebigen Teilmenge M ⊂ V einen “kleinsten” Unterraum zuordnen,
der M enthält.

Definition 4.5 Es sei M eine Teilmenge eines linearen Raumes V über K. Dann heißt
mit F := FM := {U : U Unterraum von V, U ⊃ M }
\
< M > (:= span (M ) := lin span (M ) := LH(M )) := U
U ∈F

die lineare Hülle von M .


2. Sind U1 , . . . , Un Unterräume von V , so heißt
n
X n
[
Uj :=< Uj >
j=1 j=1

n
P
Summe der U1 , . . . , Un . Gilt zusätzlich Uj ∩ Uk = {0} für alle j = 1, . . . , n, so heißt
k=1
k6=j

n
M n
X
Uj := Uj
j=1 j=1

direkte Summe der U1 , . . . , Un .

Bemerkung 4.6 Da V ⊃ M ein Unterraum von V ist, wird der Durchschnitt in der
D.4.5 stets über eine nichtleere Menge gebildet. Weiter gilt nach S.4.4, dass < M > ein
n
P Ln
Unterraum von V ist. Damit sind auch Uj und Uj Unterräume von V . Ausser-
j=1 j=1
dem folgt aus der Definition sofort, dass für jeden Unterraum Ũ ⊃ M gilt Ũ ⊃< M >
(d. h. < M > ist der “kleinste” Unterraum, der M enthält). Schließlich sei bemerkt,
dass U1 + U2 = U1 ⊕ U2 genau dann gilt, wenn U1 ∩ U2 = {0} ist.
n
P
Unser Ziel ist es nun, eine “explizitere” Darstellung für < M > bzw. Uj zu finden.
j=1
4 UNTERRÄUME 19

Definition 4.7 Es sei V ein linearer Raum über K. Sind x1 , . . . , xn ∈ V , so heißt


x ∈ V eine Linearkombination der Vektoren x1 , . . . , xn , falls λ1 , . . . , λn ∈ K existieren
mit
n
X
x= λj xj .
j=1

Satz 4.8 Es sei V ein linearer Raum über K. Dann gilt


1. Ist M ⊂ V, M 6= ∅, so ist x ∈< M > genau dann, wenn ein n ∈ N und x1 , . . . , xn ∈
M sowie λ1 , . . . , λn ∈ K existieren mit
n
X
x= λj xj
j=1

(d. h. < M >= {Linearkombinationen aus Vektoren aus M }).


n
P
2. Sind U1 , . . . , Un Unterräume von V , so ist x ∈ Uj genau dann, wenn uj ∈
j=1
Uj (j = 1, . . . , n) existieren mit
n
X
x= uj .
j=1

Pn Ln
Weiter gilt: die Summe ist direkt, d. h. Uj = Uj , genau dann, wenn diese
j=1 j=1
Darstellung für jedes x ∈ nj=1 Uj eindeutig ist (d. h. sind ũj ∈ Uj (j = 1, . . . , n) mit
P
Pn
x= ũj , so gilt uj = ũj für j = 1, . . . , n).
j=1

Beweis.
1. Es sei
Xn
U := { λj xj : x1 , . . . , xn ∈ M, λ1 , . . . , λn ∈ K, n ∈ N} .
j=1

Dann ist zu zeigen: < M >= U .


“⊂”: Wir zeigen < M >⊂ U . Da M ⊂ U ist, genügt es nach B.4.6 zu zeigen, dass U
ein Unterraum von V ist.
Es seien also x, y ∈ U und λ ∈ K gegeben. Dann existieren x1 , . . . , xn ∈ M, λ1 , . . . , λn ∈
K mit
n
X
x= λj xj
j=1

und xn+1 , . . . , xm ∈ M, λn+1 , . . . , λm ∈ K mit


m
X
y= λj xj .
j=n+1
4 UNTERRÄUME 20

Also gilt
n
X m
X m
X
x+y = λj xj + λj xj = λj xj ∈ U
j=1 j=n+1 j=1

und
n
X n
X
λx = λ λj xj = (λλj )xj ∈ U .
j=1 j=1

Nach S.4.2 ist U ein Unterraum von V . n


P
“⊃”: Es sei x ∈ U . Dann existieren x1 , . . . , xn ∈ M, λ1 , . . . , λn ∈ K mit x = λj xj .
j=1
Da {x1 , . . . , xn } ⊂ M ⊂< M > gilt, und da < M > ein Unterraum von V ist, ist auch
Pn
x= λj xj ∈< M >.
j=1
2. Es sei
n
X
U := { uj : uj ∈ Uj für j = 1, . . . , n} .
j=1
Pn
Dann ist zu zeigen: j=1 Uj = U .
n
P
“⊂”: Wir zeigen Uj ⊂ U . Dazu genügt es nach B.4.6 zu zeigen: U ist ein Unterraum
j=1
von V (man beachte, dass nach Definition Uj ⊂ U für j = 1, . . . , n gilt ).
Es seien also x, y ∈ U und λ ∈ K gegeben. Dann existieren uj , vj ∈ Uj für j = 1, . . . , n
mit
n
X n
X
x= uj und y = vj .
j=1 j=1

Also gilt
n
X
x+y = (uj + vj ) ∈ U
j=1

(da uj + vj ∈ Uj für j = 1, . . . , n) und


n
X
λx = λuj ∈ U
j=1

(da λuj ∈ Uj für j = 1, . . . , n). Nach S.4.2 ist U ein Unterraum von V .
“⊃”: Wir zeigen nj=1 Uj ⊃ U .
P
Pn
Dazu sei x ∈ U . Dann gilt x = j=1 uj für gewisse uj ∈ Uj (j = 1, . . . , n). Da
n
S Sn Pn Pn
{u1 , . . . , un } ⊂ Uj ⊂< Uj >= Uj gilt, und da Uj ein Unterraum von V
j=1 j=1 j=1 j=1
n
P n
P
ist, gilt auch uj ∈ Uj .
j=1 j=1
4 UNTERRÄUME 21

Pn Pn
3. ⇒“:Es sei x = uj = ũj , wobei uj , ũj ∈ Uj für j = 1, . . . , n. Dann gilt
” j=1 j=1

n
X
0= (uj − ũj ) .
j=1

Es sei j ∈ {1, . . . , n}. Dann gilt nach 2.


n
X n
X
Uj 3 ũj − uj = uk − ũk ∈ Uk ,
k=1 k=1
k6=j k6=j

also ist ũj − uj = 0 nach D.4.5, d. h. uj = ũj . Da j ∈ {1, . . . , n} beliebig war, folgt die
Behauptung.
⇐“:[Ü]. 2

Bemerkung 4.9 Ein besonderer einfacher und wichtiger Spezialfall ist gegeben durch
M = {x1 , . . . , xn } ⊂ V (d. h. M ist endlich). Dann ist
n
X
< x1 , . . . , xn >:= < {x1 , . . . , xn } >= { λj xj : λj ∈ K für j = 1, . . . , n} .
j=1

Beispiel 4.10 1. Es sei V = R2 und x1 = (1, 0), x2 = (1, 1), x3 = (0, 1) ∈ R2 .

Dann gilt

U1 =< x1 > = {λx1 : λ ∈ R} = {(λ, 0) : λ ∈ R}


U2 =< x2 > = {λx2 : λ ∈ R} = {(λ, λ) : λ ∈ R}
U3 =< x3 > = {λx3 : λ ∈ R} = {(0, λ) : λ ∈ R}
< x1 , x2 > = {λ1 x1 + λ2 x2 : λ1 , λ2 ∈ R} = R2
= < x1 , x3 >=< x2 , x3 > .

Weiter ist

U1 + U2 =< U1 ∪ U2 >= R2 = U1 + U3 = U2 + U3

und U1 ∩ U2 = {0} = U1 ∩ U3 = U2 ∩ U3 , also

U1 ⊕ U2 = U1 ⊕ U3 = U2 ⊕ U3 = R2

Aber: U1 ∩ (U2 + U3 ) = U1 ∩ R2 = U1 6= {0}, d. h.

R2 = U2 + U2 + U3 ,

aber die Summe ist nicht direkt.


4 UNTERRÄUME 22

2. Es sei Π = ΠC (oder ΠR ) wie in B.4.3. Dann gilt

Π = Π g ⊕ Πu ,

wobei
n
X
Πg := { aν z 2ν : aν ∈ C, ν = 1, . . . , n ; n ∈ N}
ν=0

und
Xm
Πu := { bν z 2ν+1 : bν ∈ C, ν = 1, . . . , m ; m ∈ N} .
ν=0

Πg ist die Menge der “geraden” und Πu die Menge der “ungeraden” Polynome.
(Denn: Man sieht leicht, dass Πg und Πu Unterräume sind, und dass Πg + Πu = Π
gilt. Es sei P ∈ Πu ∩ Πg . Dann gilt mit gewissen aν ∈ C für ν = 0, . . . , n und bν ∈ C
für ν = 0, . . . , m
n
X m
X
P (z) = aν z 2ν = bν z 2ν+1 .
ν=0 ν=0

Dann gilt für alle z ∈ C


n
X m
X
P (z) = aν z 2ν = aν (−1)2ν z 2ν = P (−z)
ν=0 ν=0

und
m
X m
X
P (z) = bν z 2ν+1 = − aν (−1)2ν+1 z 2ν+1 = −P (−z)
ν=0 ν=0

also 2P (z) = 0 und damit P (z) = 0. Folglich ist P = 0Π .)

Definition 4.11 Es sei V ein linearer Raum über K.


1. Ist I 6= ∅ so nennen wir ein (xα )α∈I ∈ V I eine Familie in V . Die Familie (xα )α∈I
heißt endlich, falls I endlich ist.
Ist J ⊂ I, J 6= ∅, so heißt (xα )α∈J eine Teilfamilie von (xα )α∈I .
2. Eine Familie (xα )α∈I in V heißt Erzeugendensystem von V , falls

< xα : α ∈ I >= V

(wobei < xα : α ∈ I >:=< {xα : α ∈ I} >).


3. Der Raum V heißt endlich erzeugt (oder endlich-dimensional), falls ein endliches
Erzeugendensystem von V existiert, d. h. falls Vektoren x1 , . . . , xn ∈ V existieren
mit < x1 , . . . , xn >= V . Anderenfalls heißt V unendlich erzeugt (oder unendlich-
dimensional).
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 23

Beispiel 4.12 1. Es seien n ∈ N und K ein Körper. Dann ist V = K n endlich-


dimensional. Es gilt nämlich etwa

K n =< e1 , . . . , en >

wobei ej = (δj1,... , δjn ) ∈ K n mit


(
1, falls j = k
δjk := ,
0, sonst

d. h. e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1).


(Beachte: Ist x = (λ1 , . . . , λn ) ∈ K n , so gilt x = nj=1 λj ej .)
P

2. Der Raum Π aus B.4.3.3 ist nicht endlich-dimensional.


(Denn: Angenommen es existieren Polynome P1 , . . . , Pn mit Pj 6= 0 und < P1 , . . . , Pn >=
Π. Dann ist
mj
X
Pj (z) = ajν z ν
j=1

für gewisse ajν ∈ C (oder R) und gwisse m1 , . . . , mn ∈ N0 . Wir setzen

N := max{m1 , . . . , mn } (∈ N0 ) .

Dann existieren λ1 , . . . , λn ∈ C mit


n
X N
X
N +1
z = λj Pj (z) =: aν z ν .
j=1 ν=0

N
aν z ν−N −1 und für |z| > max{1, N · max |aν |} ergibt sich
P
Für z 6= 0 folgt 1 =
ν=0 0≤ν≤N

N N N
X
N +1−ν
X 1 X
1=| aν /z |≤ |aν | ≤ |aν |/|z| < 1 ,
|z|N +1−ν
0 0 0

also ein Widerspruch.)

5 Lineare Unabhängigkeit, Basis und Dimensionen


Wir starten mit einem weiteren zentralen Begriff der Linearen Algebra.

Definition 5.1 Es sei V ein linearer Raum über K.


1. Sind x1 , . . . , xn ∈ V , so heißt (x1 , . . . , xn ) linear abhängig, falls λ1 , . . . , λn ∈ K
existieren mit λj 6= 0 für ein j ∈ {1, . . . , n} und
n
X
λj xj = 0 .
j=0
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 24

Anderenfalls heißt (x1 , . . . , xn ) linear unabhängig.


Man sagt auch “x1 , . . . , xn sind linear abhängig” bzw. “x1 , . . . , xn sind linear un-
abhängig”.
2. Eine Familie (xα )α∈I in V heißt linear unabhängig, falls jede endliche Teilfamilie
linear unabhängig ist.

Bemerkung 5.2 1. Aus D.5.1 ergibt sich sofort, dass x1 , . . . , xn ∈ V linear un-
abhängig genau dann sind, wenn gilt: Sind λ1 , . . . , λn ∈ K mit
n
X
λj xj = 0 ,
j=0

so ist λ1 = . . . = λn = 0.
2. Ein Element x ∈ V ist linear unabhängig genau dann, wenn x 6= 0 ist.
3. Ist n ≥ 2, so sind x1 , . . . , xn ∈ V genau dann linear abhängig, wenn ein j0 ∈
{1, . . . , n} und µj ∈ K (j ∈ {1, . . . , n} \ {j0 }) existieren mit
n
X
xj0 = µj xj .
j=1
j6=j0

(Denn: “⇒” : Sind x1 , . . . , xn linear abhängig, so existieren λ1 , . . . , λn ∈ K mit λj0 6= 0


Pn
für ein j0 ∈ {1, . . . , n} und 0 = λj xj . Also folgt
j=1

n  
X λj
xj0 = − xj .
j=1
λj0
j6=j0

n
P
“⇐”: Ist umgekehrt xj0 = µj xj für ein j0 ∈ {1, . . . , n} und µj ∈ K (j ∈
j=1
j6=j0

{1, . . . , n} \ {j0 }), so ist mit λj := µj (j 6= j0 ) und λj0 := −1


n
X
0= λj xj .)
j=1

Beispiel 5.3 1. Es sei V = K n . Dann sind e1 , . . . , en linear unabhängig in K n .


(Denn: Sind λ1 , . . . , λn ∈ K mit
n
X
(0, . . . , 0) = 0 = λj ej = (λ1 , . . . , λn ) ,
j=1

so gilt λj = 0 für j = 1, . . . , n.)


2. Es sei V = Π und für n ∈ N0 sei En ∈ Π definiert durch

En (z) = z n (z ∈ C) .
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 25

Dann ist (E0 , . . . , En ) linear unabhängig in Π für alle n ∈ N0 .


(Denn: Es seien λ0 , . . . , λn ∈ C mit
n
X n
X
j
0= λj z = λj Ej (z) (z ∈ C) .
j=0 j=0

Angenommen, es existiert ein j ∈ {0, . . . , n} mit λj 6= 0. Wir setzen dann


m := max{j ∈ {0, . . . , n} : λj 6= 0} .
Ist m = 0, so ist 0 = λ0 6= 0, also Widerspruch. Ist m > 0, so folgt
m−1
X  λj 
m
z = − zj (z ∈ C) .
λm
j=0

Dies führt auf den gleichen Widerspruch wie in B.4.12).


Hieraus folgt auch, dass (En )n∈N0 linear unabhängig in Π ist. Außerdem gilt offenbar
Π =< En : n ∈ N0 >.

Satz 5.4 Es sei V ein linearer Raum über K und es seien x1 , . . . , xn ∈ V . Dann sind
aquivalent:
a) x1 , . . . , xn sind linear unabhängig.
b) Zu jedem x ∈< x1 , . . . , xn > existieren eindeutig bestimmte λ1 , . . . , λn ∈ K (d. h.
es existiert genau ein (λ1 , . . . , λn ) ∈ K n ) mit
n
X
x= λj xj .
j=1

Beweis.
1. a) ⇒ b): Es sei x ∈< x1 , . . . , xn >. Dann existieren λ1 , . . . , λn ∈ K mit
n
X
x= λj xj .
j=1
n
P
Es sei x = µj xj mit µ1 , . . . , µn ∈ K. Dann ist
j=1
n
X
0= (λj − µj )xj .
j=1

Da x1 , . . . , xn linear unabhängig sind, folgt λj − µj = 0, d. h. λj = µj für j = 1, . . . , n.


2. b) ⇒ a): Angenommen x1 , . . . , xn sind linear abhängig. Dann existiert ein (λ1 , . . . , λn ) ∈
n
K n \ {0} mit 0 =
P
λj xj . Also lässt sich 0 darstellen als
j=1
n
X n
X
0= λj xj = 0xj
j=1 j=1

im Widerspruch zu b). 2
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 26

Definition 5.5 Es sei V ein linearer Raum über K. Eine Familie (xα )α∈I in V heißt
(algebraische) Basis von V , falls (xα )α∈I ein linear unabhängiges Erzeugendensystem
von V ist. Für V = {0} bezeichnen wir ∅ als Basis

Wir werden uns im folgenden i. w. auf die Untersuchung endlich-dimensionaler linearer


Räume beschränken. Algebraische Basen spielen in unendlich-dimensionalen Räumen
i. a. keine so wichtige Rolle.

Bemerkung 5.6 Aus S.5.4 folgt sofort: Sind x1 , . . . , xn ∈ V , so sind äquivalent:


a) (x1 , . . . , xn ) ist eine Basis von V .
Pn
b) Jedes x ∈ V besitzt genau eine Darstellung x = λj xj mit λ1 , . . . , λn ∈ K.
j=1

Beispiel 5.7 Es sei V = K n , wobei K ein Körper ist (vgl. B.4.12). Dann ist (e1 , . . . , en )
eine Basis von K n (B.4.12 und B.5.3). Diese Basis nennen wir im folgenden Standard-
basis oder kanonische Basis von K n .

Dieses “Standardbeispiel” zeigt, dass in K n eine Basis aus n Elementen existiert. Wir
wollen uns nun allgemeiner folgenden Fragen zuwenden:

1. Existiert in jedem (endlich-dimensionalen) linearen Raum eine Basis?

2. Haben je 2 Basen eines (endlich-dimensionalen) linearen Raumes die gleiche Anzahl


von Elementen?

Wir beweisen zunächst den

Satz 5.8 (Basisauswahlsatz) Es seien V 6= {0} ein linearer Raum über K und
(x1 , . . . , xm ) ein endliches Erzeugendensystem von V . Dann existiert eine Teilfamilie
von (x1 , . . . , xm ), die eine Basis von V ist.

Beweis.
Wir setzen

J := {j ∈ {1, . . . , m} : xj 6∈< x1 , . . . , xj−1 >}

(mit < x1 , . . . , x0 >:=< ∅ >= {0}).


1. Wir zeigen < xj : j ∈ J >= V . Angenommen, < xj : j ∈ J >6= V . Dann existiert
wegen < x1 , . . . , xm >= V ein k ∈ {1, . . . , m}\J mit xk 6∈< xj : j ∈ J > (sonst würde
gelten {x1 , . . . , xn } ⊂< xj : j ∈ J >, also auch V =< x1 , . . . , xn >⊂< xj : j ∈ J >).
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 27

Wir setzen k0 := min{k ∈ {1, . . . , m} \ J : xk 6∈< xj : j ∈ J >}(∈ {1, . . . , m} \ J).


Dann ist < x1 , . . . , xk0 −1 >⊂< xj : j ∈ J >, also xk0 6∈< x1 , . . . , xk0 −1 >. Nach
Definition ist also k0 ∈ J. Widerspruch!
2. Wir zeigen (xj )j∈J ist linear unabhängig. Angenommen nicht. Dann existieren λj ∈
P
K (j ∈ J), λj 6= 0 für ein j, mit 0 = λj xj . Für j0 := max{j : λj 6= 0} gilt
j∈J

X λj

xj0 = − xj ∈< x1 , . . . , xj0−1 >
j∈J
λj0
j<j0

im Widerspruch zur Definition von J. 2

Satz 5.9 Es sei V ein endlich-dimensionaler linearer Raum über K. Dann existiert
eine (endliche) Basis von V .

Beweis.
Da V (ohne Einschränkung 6= {0}) endlich-dimensional ist, existiert ein endliches Er-
zeugendensystem von V . Nach S.5.8 existiert damit auch eine endliche Basis von V . 2

Die Aussage von S.5.9 bleibt auch für beliebige lineare Räume richtig. Der Beweis
basiert auf einer Anwendung des Auswahlaxioms, worauf wir nicht weiter eingehen
wollen.
Wir wenden uns der zweiten der oben angesprochenen Fragen zu. Dazu beweisen wir
zunächst folgendes Hilfsresultat.

Satz 5.10 Es sei V ein linearer Raum über K, und es sei (x1 , . . . , xn ) eine Ba-
n
P
sis von V . Ist x = λj xj ∈ V mit λk 6= 0 für ein k ∈ {1, . . . , n}, so ist auch
j=1
(x1 , . . . , xk−1 , x, xk+1 , . . . , xn ) eine Basis von V .

Beweis.
1. Wir zeigen: Für M := {x1 , . . . , xn , x} \ {xk } gilt < M >= V . Dazu sei y ∈ V
n
P
gegeben. Dann existieren µ1 , . . . , µn ∈ K mit y = µj xj . Wegen λk 6= 0 ist xk =
j=1
n
1 P λj
λk x − λk xj und daher
j=1
j6=k

n X µk λjn n
X µk X
y = µj xj = x− xj + µj xj
λk λk
j=1 j=1 j=1
j6=k j6=k
n
µk X µk λj
= x− (µj − )xj ,
λk j=1
λk
j6=k
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 28

also y ∈< M >. Da y ∈ V beliebig war, ist < M >= V .


2. Es seien µ1 , . . . , µn ∈ K mit
X
0 = µk x + µj xj .
j6=k

n
P
Dann gilt mit x = λj xj
j=1
X
µk λk xk + (µk λj + µj )xj = 0 .
j6=k

Da x1 , . . . , xn linear unabhängig sind, folgt µk λk = 0 und µk λj + µj = 0 für j =


1, . . . , n, j 6= k. Mit λk 6= 0 ergibt sich µk = 0, also auch µj = 0 für alle j ∈ {1, . . . , n}.
2

Hiermit gilt der zentrale

Satz 5.11 (Steinitz’scher Austauschsatz) Es sei V 6= {0} ein linearer Raum über
K, und es sei (x1 , . . . , xn ) eine Basis von V . Ferner sei (y1 , . . . , ym ) linear unabhängig
in V . Dann ist m ≤ n, und es existieren n − m Elemente aus {x1 , . . . , xn }, die zusam-
men mit y1 , . . . , ym eine Basis bilden, d. h. es existieren j1 , . . . , jn−m ∈ {1, . . . , n}
so, dass (y1 , . . . , ym , xj1 , . . . xjn−m ) eine Basis von V ist, oder es ist n = m und
(y1 , . . . , ym ) ist eine Basis von V .

Beweis.
Wir zeigen folgende Aussage Am für alle m ∈ N.
(Am ): Existiert eine linear unabhängige Familie (y1 , . . . , ym ) in V , so ist m ≤ n.
Außerdem existieren im Falle m < n zu jeder solchen Familie j1 , . . . , jn−m ∈ {1, . . . , n}
so, dass (y1 , . . . , ym , xj1 , . . . , xjn−m ) eine Basis von V bildet, und im Falle m = n ist
(y1 , . . . , ym ) eine Basis von V .
Pn
1. Induktionsanfang: Für m = 1 ist natürlich m ≤ n. Ist y 6= 0, so gilt y = λj xj
j=1
mit λk 6= 0 für ein k ∈ {1, . . . , n}. Dann ist (y, x1 , . . . , xk−1 , xk+1 , . . . , xn ) nach S.5.10
eine Basis von V .
2. Induktionsschritt von m auf m + 1: (Am ) gelte für ein m ∈ N. Zu zeigen ist: (Am+1 )
gilt.
Existiert keine Familie (y1 , . . . , ym+1 ) in V , die linear unabhängig ist, so ist nichts zu
zeigen. Es sei also (y1 , . . . , ym+1 ) in V linear unabhängig. Dann ist auch (y1 , . . . , ym )
in V linear unabhängig. Nach Induktionsvoraussetzung ist m ≤ n. Angenommen, es ist
m = n. Dann ist (y1 , . . . , ym ) eine Basis von V und damit ist ym+1 ∈< y1 , . . . , ym >
im Widerspruch zur linearen Unabhängigkeit von (y1 , . . . , ym+1 ). Also ist m < n, d.
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 29

h. m + 1 ≤ n und es existieren j1 , . . . , jn−m so, dass (y1 , . . . , ym , xj1 , . . . , xjn−m ) eine


Basis von V bilden. Insbesondere ist
m
X n−m
X
ym+1 = λν yν + µk xjk
ν=1 k=1

für gewisse λ1 , . . . , λm , µ1 , . . . , µn−m ∈ K. Da (y1 , . . . , ym+1 ) linear unabhängig ist,


ist µk 6= 0 für ein k ∈ {1, . . . , n − m}. Nach S.5.10 ist dann

(y1 , . . . , ym+1 , xj1 , . . . , xjk−1 , xjk+1 , . . . , xjn−m )

eine Basis von V der gesuchten Form (Man beachte, dass die Basis n − m − 1 =
n − (m + 1) Elemente aus {x1 , . . . , xn } enthält.) 2

Beispiel 5.12 Es sei V = R3 , und es sei (x1 , x2 , x3 ) = (e1 , e2 , e3 ) die kanonische Basis
in V . Ferner seien
   
1 1
   
y1 =  2  ,
  y2 =  0 

 .
1 1

Dann sind y1 , y2 linear unabhängig in V . Nach S.5.11 existiert ein j ∈ {1, 2, 3}, so dass
(y1 , y2 , xj ) eine Basis von V ist. Es gilt hier: (y1 , y2 , x1 ) und (y1 , y2 , x3 ) sind Basen von
V , aber (y1 , y2 , x2 ) ist keine Basis von V .

Als wichtige Konsequenz aus S.5.11 erhalten wir

Bemerkung und Definition 5.13 Es sei V ein linearer Raum über K. Ist V endlich-
dimensional, so hat jede Basis die gleiche Anzahl n von Elementen.
(Denn: Ist V = {0}, so ist ∅ die einzige Basis von V . Es sei also V 6= {0}. Nach S.5.9
besitzt V eine endliche Basis (x1 , . . . , xn ). Nun sei (yj )j∈J eine weitere Basis von V .
Dann ist J endlich, denn anderenfalls würden endliche, linear unabhängige Teilfamilien
von (yj )j∈J beliebiger Länge existieren, insbesondere also mit mehr als n Elementen
im Widerspruch zu S.5.11. Also hat wieder nach S.5.11 einerseits (yj )j∈J höchstens n
Elemente und andererseits auch mindestens n Elemente, denn die linear unabhängige
Familie (x1 , . . . , xn ) kann nicht mehr Elemente haben als die Basis (yj )j∈J ).
Die Zahl

dim(V ) := n

heißt Dimension von V , und V heißt n-dimensional.


5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 30

Beispiel 5.14 1. Es sei V = K n wie in B.4.12. Dann ist nach B.5.7 dim(V ) = n.
2. Es sei V = C. Dann ist C ein linearer Raum über C und ein linearer Raum über R.
Nach 1. ist C über C 1-dimensional. Wie man leicht sieht ist (1, i) eine Basis von C
als linearem Raum über R. Also ist C über R 2-dimensional.

Satz 5.15 Es sei V ein n-dimensionaler linearer Raum über K, und es seien x1 , . . . , xn ∈
V . Dann sind folgende Aussagen äquivalent:
a) (x1 , . . . , xn ) ist eine Basis von V .
b) (x1 , . . . , xn ) ist ein Erzeugendensystem von V .
c) (x1 , . . . , xn ) ist linear unabhängig.

Beweis.
1. a) ⇒ b) und a) ⇒ c) sind klar.
2. b) ⇒ a): Nach dem Basisauswahlsatz (S.5.8) existiert ein J ⊂ {1, . . . , n} so, dass
(xj )j∈J eine Basis von V ist. Dann ist nach S.5.13 |J| = n, also J = {1, . . . , n}.
3. c) ⇒ a): Es existiert eine Basis aus n Elementen . Nach dem Austauschsatz (S.5.11)
folgt aus c), dass (x1 , . . . , xn ) eine Basis von V ist. 2

Im Basisauswahlsatz hatten wir gesehen, dass jedes Erzeugendensystem zu einer Basis


“ausgedünnt” werden kann. Andererseits gilt auch

Satz 5.16 (Basisergänzungssatz) Es sei V ein endlich-dimensionaler linearer Raum


über K. Ist (y1 , . . . , ym ) linear unabhängig in V , so existiert eine Basis von V , die
(y1 , . . . , ym ) als Teilfamilie enthält.

Beweis.
Es existiert eine Basis (x1 , . . . , xn ) von V . Also ist nach S.5.11 m ≤ n, und es existiert
eine Basis von V , die (y1 , . . . , ym ) enthält. 2

Satz 5.17 Es sei V ein endlich-dimensionaler linearer Raum über K, und es sei U ⊂
V ein Unterraum. Dann gilt
1. U ist endlich-dimensional mit dim(U ) ≤ dim(V ).
2. Ist dim(U ) = dim(V ), so ist U = V .

Beweis.
1. Angenommen, U ist unendlich-dimensional. Dann existiert eine Folge (xj )j∈N in U
mit x1 6= 0 und xj 6∈< x1 , . . . , xj−1 > für j ≥ 2.
(Denn: Es ist U 6= {0}, also existiert ein x1 ∈ U \ {0}. Sind x1 , . . . , xj−1 wie oben
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 31

konstruiert, so existiert, da < x1 , . . . , xj−1 >6= U ist, ein xj ∈ U \ < x1 , . . . , xj−1 >.
Induktiv ergibt sich (xj )j∈N .)
Wie im Beweisschritt 2. zu S.5.8 sieht man, dass (x1 , . . . , xj ) für alle j ∈ N linear
unabhängig in U , also auch in V , ist. Dies widerspricht S.5.11, nachdem jede linear
unabhängige Familie in V höchstens dim(V ) Elemente enthält.
Ist (x1 , . . . , xm ) eine Basis von U , so ist (x1 , . . . , xm ) linear unabhängig in U und in
V , d. h. es gilt dim(U ) = m ≤ dim(V ) nach S.5.11.
2. Ist dim(U ) = dim(V ) = n, so existiert eine Basis (x1 , . . . , xn ) von U . Also ist wieder
(x1 , . . . , xn ) linear unabhängig in U und in V . Nach S.5.15 ist (x1 , . . . , xn ) eine Basis
von V , also V =< x1 , . . . , xn >= U . 2

Satz 5.18 (Dimensionsformel für Unterräume) Es seien U, W Unterräume ei-


nes endlich-dimensionalen linearen Raumes V über K. Dann gilt

dim(U + W ) + dim(U ∩ W ) = dim(U ) + dim(W )

Beweis.
Es sei k := dim(U ), ` := dim(W ). Nach S.4.4 ist U ∩ W ein Unterraum von V mit
m := dim(U ∩ W ) ≤ min(k, `) nach S.5.17. Es sei B = (x1 , . . . , xm ) (bzw. B = ∅) eine
Basis von U ∩ W . Diese sei gemäß S.5.16 durch Vektoren um+1 , . . . , uk ∈ U zu einer
Basis von U (falls k > m) und durch wm+1 , . . . , w` ∈ W (falls ` > m) zu einer Basis
von W ergänzt.
Es genügt zu zeigen: M := (x1 , . . . , xm , um+1 , . . . , uk , wm+1 , . . . , w` ) ist linear un-
abhängig in U + W .
(Denn dann ist M auch eine Basis von U + W nach Konstruktion, und damit ist
dim(U + W ) = m + (k − m) + (` − m) = k + ` − m wie behauptet.)
P
Es sei also (mit := 0)

m
X k
X X̀
0= αj xj + βj uj + γj wj (∗)
j=1 j=m+1 j=m+1

für gewisse αj , βj , γj ∈ K. Dann ist


m
X k
X X̀
x := αj xj + βj uj = − γj wj ∈ U ∩ W .
j=1 j=m+1 j=m+1

Da (x1 , . . . , xm ) eine Basis von U ∩ W ist, gilt auch


 
Xm m
X k
X
x= α̃j xj = j =1 αj xj + βj uj 
j=1 j=m+1
5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 32

mit gewissen α̃j ∈ K. Da (x1 , . . . , xm , um+1 , . . . , uk ) eine Basis von U ist folgt nach
B.5.6 βj = 0 (j = m+1, . . . , k) (und α̃j = αj (j = 1, . . . , m)). Die lineare Unabhängig-
keit von (x1 , . . . , xm , wm+1 , . . . , w` ) liefert mit (∗) wiederum αj = 0 (j = 1, . . . , m)
und γj = 0 (j = m + 1, . . . , `). 2

Folgerung 5.19 Unter den Voraussetzungen von S.5.18 ergibt sich sofort: Es ist U +
W = U ⊕ W genau dann, wenn

dim(U + W ) = dim(U ) + dim(W ) .

(Denn: Ist U + W direkt, so ist U ∩ W = {0}, also dim(U ∩ W ) = 0. Ist umgekehrt die
Formel richtig, so ist dim(U ∩ W ) = 0, also U ∩ W = {0} und damit U + W = U ⊕ W ).
Weiter ergibt sich induktiv: Sind U1 , . . . , Um Unterräume von V , so gilt

U1 + · · · + Um = U1 ⊕ · · · ⊕ Um

genau dann, wenn

 
Xm m
X
dim  Uj  = dim(Uj )
j=1 j=1

Beweis. [Ü]

Zum Abschluss beweisen wir noch

Satz 5.20 Es sei V ein endlich-dimensionaler linearer Raum über K, und es sei U ⊂
V ein Unterraum. Dann existiert ein Unterraum W ⊂ V mit

V =U ⊕W .

Beweis.
Ohne Einschränkung sei U 6= V und U 6= {0} (sonst ist W = {0} bzw. W = V
geeignet). U ist als Unterraum von V endlich-dimensional (S.5.17). Ist (u1 , . . . , um )
eine Basis von U , so existiert nach S.5.16 eine Basis (u1 , . . . , um , w1 , . . . , w` ) von V .
Dann gilt für W =< w1 , . . . , w` > die Behauptung. (Denn: Nach Konstruktion ist
U + W = V . Außerdem gilt dim(U + W ) = m + ` = dim(U ) + dim(W ), also U + W =
U ⊕ W) 2
6 LINEARE ABBILDUNGEN 33

6 Lineare Abbildungen
Bisher haben wir uns beschränkt auf die Untersuchung einzelner linearer Räume. “Le-
bendig” und die Theorie erst so richtig dadurch, dass Beziehungen zwischen verschie-
denen Räumen hergestellt werden. Entscheidend sind dabei lineare Abbildungen.

Definition 6.1 Es seien V, W lineare Räume über einem (gemeinsamen) Körper K.


Eine Abbildung T : V → W heißt linear (oder auch (linearer) Operator), falls gilt

a) Für alle v1 , v2 ∈ V ist

T (v1 + v2 ) = T (v1 ) + T (v2 )

und

b) Für alle v ∈ V, λ ∈ K ist

T (λv) = λT (v) .

Ist T linear, so schreibt man auch kurz “T v” statt “T (v)”.


Weiter setzen wir

L(V, W ) := {T : V → W linear}

und L(V ) := L(V, V ). Ist speziell W = K, so heißt T ein lineares Funktional (auf V )
und V ∗ := L(V, K) heißt Dualraum von V .

Bemerkung 6.2 1. Ist T ∈ L(V, W ), so gilt für λ1 , . . . , λn ∈ K, v1 , . . . , vn ∈ V


 
Xn X n
T  λj vj =
 λj T (vj )
j=1 j=1

(folgt per Induktion aus D.6.1).


2. Ist T ∈ L(V, W ), so gilt stets T (0) = 0
(denn T (0) = T (0 + 0) = T (0) + T (0), also T (0) = 0).
3. Sind v1 , . . . , vn in V linear abhängig, so sind T v1 , . . . , T vn in W linear abhängig.
(Denn: Ist
n
X
0= λj vj
j=1

für gewisse λj ∈ K (j = 1, . . . , n), wobei λj 6= 0 für ein j, so ist


 
Xn Xn
0 = T (0) = T  λj vj  = λj T vj ,
j=1 j=1
6 LINEARE ABBILDUNGEN 34

also sind T v1 , . . . , T vn linear abhängig.)


Entsprechend gilt damit: Sind T v1 , . . . , T vn linear unabhängig, so sind auch v1 , . . . , vn
linear unabhängig
Man beachte aber: Aus v1 , . . . , vn linear unabhängig folgt i.a. nicht, dass T v1 , . . . , T vn
linear unabhängig sind! (Beispiel: T : V → W, T (v) ≡ 0 (v ∈ V ).)

Beispiel 6.3 Es sei K ein Körper, und es sei V = K n . Ferner sei a = (a1 , . . . , an ) ∈
K n.
Wir definieren T : K n → K durch
n
X
T v = T (x1 , . . . , xn ) := ak xk (v = (x1 , . . . , xn ) ∈ K n ) .
k=1

Dann ist T linear, d. h. T ist ein lineares Funktional ([Ü]). Allgemeiner gilt: Sind
A1 , . . . , Am ∈ K n , so ist T : K n → K m , definiert durch

T v := (T1 v, . . . , Tm v) (v ∈ K n )

ebenfalls linear. Dabei ist Tj wie oben mit Aj anstelle von a (j = 1, . . . , m) definiert,
(j) (j)
d. h. ist Aj = (a1 , . . . , an ), so gilt
n
(j)
X
Tj (v) = Tj (x1 , . . . , xn ) := ak xk (v = (x1 , . . . , xn ) ∈ K n ) .
k=1

(Denn: Sind v1 , v2 ∈ K n , so gilt

T (v1 + v2 ) = (T1 (v1 + v2 ), . . . , Tm (v1 + v2 )) = (T1 v1 + T1 v2 , . . . , Tm v1 + Tm v2 )


= (T1 v1 , . . . , Tm v1 ) + (T1 , v2 , . . . , Tm v2 ) = T v1 + T v2

Entsprechend sieht man

T (λv) = λT v

für λ ∈ K, v ∈ K n ).
Ist etwa K = R, n = 2, m = 3 sowie A1 = (1, −2), A2 = (3, 0), A3 = (−2, 3) so ist
T : R2 → R3 mit

T (x1 , x2 ) = (x1 − 2x2 , 3x1 , 3x2 − 2x1 ) ((x1 , x2 ) ∈ R2 )

linear.

Wir versehen jetzt in natürlicher Weise L(V, W ) mit einer Vektorraumstruktur.


6 LINEARE ABBILDUNGEN 35

Satz 6.4 Es seien V, W lineare Räume über K. Für T, S ∈ L(V, W ) sei T + S : V →


W definiert durch

(T + S)(v) := T (v) + S(v) (v ∈ V ) .

Ferner sei für λ ∈ K die Abbildung λ · T : V → W definiert durch

(λ · T )(v) := λ(T v) (v ∈ V ) .

Dann gilt + : L(V, W ) × L(V, W ) → L(V, W ) sowie · : K × L(V, W ) → L(V, W ) und


(L(V, W ), +, ·) ist ein linearer Raum über K.
Ist U ein weiterer linearer Raum über K, und ist T ∈ L(V, W ) sowie S ∈ L(U, V ), so
ist

T ◦ S ∈ L(U, W ) .

Beweis.
1. S + T ∈ L(V, W ) und λT ∈ L(V, W ): Bedingungen aus D.6.1 prüfen.
(L(V, W ), +, ·) linearer Raum: Vektorraumaxiome überprüfen.
2. Für u1 , u2 ∈ U gilt

(T ◦ S)(u1 + u2 ) = T (S(u1 + u2 )) = T (Su1 + Su2 ) =


= T (Su1 ) + T (Su2 ) = (T ◦ S)(u1 ) + (T ◦ S)(u2 ) .

Ist u ∈ U und λ ∈ K, so gilt weiterhin

(T ◦ S)(λu) = T (S(λu)) = T (λ(Su)) = λT (S(u)) =


= λ(T ◦ S)(u) .

Damit ist S ◦ T : V → U linear. 2

Definition 6.5 Es seien V, W lineare Räume über K, und es sei T ∈ L(V, W ). Ist
T : V → W bijektiv, so heißt T Isomorphismus. Existiert ein Isomorphismus T :
V → W , so heißen V und W isomorph. Ein Isomorphismus T : V → V heißt auch
Automorphismus (auf V ). Wir setzen

Aut(V ) := {T : V → V : T Automorphismus auf V } .

Sind zwei Räume isomorph, so sind sie bzgl. der linearen Struktur als “gleich” anzu-
sehen.

Satz 6.6 Es seien V, W lineare Räume über K, und es sei T : V → W ein Isomor-
phismus. Dann ist auch T −1 : W → V ein Isomorphismus. Ist U ein weiterer linearer
Raum über K, und ist S : U → V ein Isomorphismus, so ist auch T ◦ S : U → V ein
Isomorphismus. Insbesondere ist also (Aut(V ), ◦) eine Gruppe.
6 LINEARE ABBILDUNGEN 36

Beweis.
1. Nach B/D.1.18 ist T −1 : W → V bijektiv. Es bleibt zu zeigen: T −1 ist linear. Dazu
seien w1 , w2 ∈ W gegeben. Dann existieren v1 , v2 ∈ V mit T (vj ) = wj (j = 1, 2). Also
folgt

T −1 (w1 + w2 ) = T −1 (T (v1 ) + T (v2 )) = T −1 (T (v1 + v2 )) =


= v1 + v2 = T −1 (w1 ) + T −1 (w2 ) .

Entsprechend sieht man T −1 (λw) = λT −1 (w) für w ∈ W, λ ∈ K.


2. Mit T und S ist auch T ◦ S bijektiv. Außerdem ist T ◦ S linear nach S.6.4. 2

Satz 6.7 Es sei V ein n-dimensionaler Vektorraum über K. Dann ist V isomorph zu
K n.

Beweis.
Es sei (v1 , . . . , vn ) eine Basis von V . Wir definieren T : V → K n durch
   
Xn n
X
T (v) = T  λj vj  := (λ1 , . . . , λn ) v = λj vj ∈ V 
j=1 j=1

n
P
(Beachte: T ist wohldefiniert, da die Darstellung v = λj vj nach B.5.6 eindeutig
j=1
ist!). Dann ist T ∈ L(V, K n )
Pn n
P
Denn: Sind v = λj vj und w = µj vj ∈ V , so gilt
j=1 j=1
     
Xn n
X n
X
T (v + w) = T  λj vj  +  µj vj  = T  (λj + µj )vj  =
j=1 j=1 j=1

= (λ1 + µ1 , . . . , λn + µn ) = (λ1 , . . . , λn ) + (µ1 , . . . , µn ) = T (v) + T (w) .

Ist λ ∈ K, so gilt zudem


   
n
X Xn
T (λv) = T λ λj vj  = T  (λλj )vj  = (λλ1 , . . . , λλn ) =
j=1 j=1

= λ(λ1 , . . . , λn ) = λT (v) .

Außerdem ist T bijektiv.


Pn
Denn: Ist w = (λ1 , . . . , λn ) ∈ K n , so ist T (v) = w für v = j=1 λj vj , also v ∈
−1
T ({w}), d. h. T ist surjektiv.
Ist ṽ ∈ T −1 ({w}), d. h. T (ṽ) = w = (λ1 , . . . , λn ), so gilt ṽ = nj=1 λj vj = v d. h. T
P

ist injektiv. 2
7 KERN UND BILD 37

Bemerkung und Definition 6.8 Nach S.6.7 stimmt jeder n-dimensionale Vektor-
raum über K hinsichtlich seiner linearen Struktur mit dem “Modellraum” K n überein.
Mittels der Abbildung T aus dem Beweis zu S.6.7 lassen sich sämtliche Aussagen über
die lineare Struktur von K n auf V übertragen. Die Abbildung T nennt man Koordina-
tenabbildung (bzgl. (v1 , . . . vn )). Man beachte, dass T wesentlich von der in V gewählten
Basis abhängt. Die Umkehrabbildung T −1 heißt kanonischer Basisisomorphismus.

Beispiel 6.9 Es sei Πn :=< E0 , . . . , En > (= {Polynome vom Grad ≤ n}) ⊂ Π.


Dann ist (E0 , . . . , En ) mit Eν (z) = z ν eine Basis von Πn (vgl. B.5.3). Nach S.6.7 ist
Πn isomorph zu Cn+1 , wobei die Koordinatenabbildung bzgl. (v1 , . . . , vn+1 ), vj = Ej+1
gegeben ist durch

T (P ) = (λ1 , . . . , λn+1 )
n n+1
aν z ν =
P P
für P (z) = λj vj mit λj := aj+1 (j = 1, . . . , n + 1).
ν=0 j=1

7 Kern und Bild


Es geht sofort los.

Definition 7.1 Es seien V, W lineare Räume über K, und es sei T ∈ L(V, W ). Dann
heißen

Kern(T ) := T −1 ({0})

der Kern von T und

Bild(T ) := W (T ) = T (V )

das Bild von T .

Es gelten folgende einfache Eigenschaften.

Satz 7.2 Es sei T ∈ L(V, W ). Dann gilt


1. Kern(T ) ist ein Unterraum von V .
2. Bild(T ) ist ein Unterraum von W .
3. T ist genau dann injektiv, wenn Kern(T ) = {0} ist.
4. Ist W endlich-dimensional, so ist T genau dann surjektiv, wenn

dim(Bild(T )) = dim W

gilt.
7 KERN UND BILD 38

Beweis.
1. Zunächst ist Kern(T ) 6= ∅ da 0 ∈ Kern(T ) (B.6.2). Sind v1 , v2 ∈ Kern(T ) und
λ1 , λ2 ∈ K, so gilt

T (λ1 v1 + λ2 v2 ) = λ1 T (v1 ) + λ2 T (v2 ) = 0 ,

also auch λ1 v1 + λ2 v2 ∈ Kern(T ).


2. Aus T (0) = 0 folgt 0 ∈ Bild(T ). Sind w1 , w2 ∈ Bild(T ), λ1 , λ2 ∈ K, so existieren
v1 , v2 ∈ V mit T (vj ) = wj (j = 1, 2). Also gilt

λ1 w1 + λ2 w2 = T (λ1 v1 + λ2 v2 ) ∈ Bild(T ) .

3. “⇒”: Ist T injektiv, so ist insbesondere T −1 ({0}) höchstens einpunktig. Aus T (0) =
0 folgt Kern(T ) = T −1 ({0}) = {0}.
“⇐”: Es seien v1 , v2 ∈ V mit T (v1 ) = T (v2 ). Dann ist

0 = T (v1 ) − T (v2 ) = T (v1 − v2 ) ,

also v1 − v2 = 0, d. h. v1 = v2 .
4. “⇐” folgt sofort aus S.5.17 und 2.; “⇒” ist klar. 2

Beispiel 7.3 (vgl. 6.3) Es sei V = Rn , W = R, und für ein (a1 , . . . , an ) ∈ Rn \ {0} sei
n
X
T (v) = T (x1 , . . . , xn ) = aj xj (v = (x1 , . . . , xn ) ∈ Rn ) .
j=1

Dann ist Kern(T ) = Ua aus B.4.3. Ist etwa n = 2 und a = (1, −1), so ist

Ua = Kern(T ) = {(x1 , x2 ) ∈ R2 : x1 = x2 } .

Weiter gilt Bild (T ) = R, da aj 6= 0 für ein j ∈ {1, . . . , n}, und damit ist T (ej ) = aj 6=
0, d. h. Bild(T ) 6= {0}. (Dann ist schon Bild(T ) = R).

Eine zentrale Aussage über den Zusammenhang der “Größe” von Kern und Bild in
endlich-dimensionalem Fall liefert

Satz 7.4 (Dimensionsformel für lineare Abbildungen) Es seien V und W li-


neare Räume über K, wobei V endlich-dimensional sei. Ist T ∈ L(V, W ), so ist Bild(T )
endlich-dimensional, und es gilt

dim(Kern(T )) + dim(Bild(T )) = dim V


7 KERN UND BILD 39

Beweis.
1. Wir zeigen zunächst die Behauptung für den Spezialfall, dass T injektiv ist, also
dann

dim(Bild(T )) = dim(V ) .

Es sei (v1 , . . . , vn ) eine Basis von V . Es genügt, zu zeigen (T v1 , . . . , T vn ) ist eine Basis
von T (V ) = Bild(T ).
Zunächst gilt < T v1 , . . . , T vn >= Bild(T ).
(Denn: Da Bild(T ) ein Unterraum von W ist, ist

< T v1 , . . . , T vn >⊂ Bild(T ) .

Ist w ∈ T (V ), d. h. w = T (v) für ein v ∈ V , so existieren λ1 , . . . , λn ∈ K mit


P n n
P
v= λj vj . Also ist w = T (v) = λj T vj ∈< T v1 , . . . , T vn >).
j=1 j=1
!
Pn Pn Pn
Sind λ1 , . . . , λn ∈ K mit 0 = λj T vj , so ist 0 = T λj vj , also λj vj ∈
j=1 j=1 j=1
Pn
Kern(T ). Aus Kern(T ) = {0} folgt j=0 λj vj = 0, also λ1 = . . . = λn = 0, d. h.
T v1 , . . . , T vn sind linear unabhängig.
2. Nun sei T ∈ L(V, W ) beliebig. Nach S.7.2 ist Kern(T ) ein Unterraum von V . Also
existiert nach S.5.20 ein Unterraum U von V mit

Kern(T ) ⊕ U = V .

Wir zeigen: T (U ) = Bild(T ).


T (U ) ⊂ Bild(T )(= T (V )) ist klar.
Es sei w ∈ Bild(T ), d. h. w = T (v) für ein v ∈ V . Dann existieren u1 ∈ Kern(T ), und
u2 ∈ U mit v = u1 + u2 , also

w = T (v) = T (u1 + u2 ) = T (u1 ) + T (u2 ) = T (u2 ) ∈ T (U ) .

Damit ist Bild(T ) ⊂ T (U ).


Wie man leicht sieht, ist T|U : U → V injektiv ([Ü]). Also folgt aus 1.

dim(U ) = dim(T (U )) (= dim(Bild(T ))) .

Hieraus folgt dann mit F.5.19

dim V = dim(Kern(T )) + dim(U ) = dim(Kern(T )) + dim(Bild(T )) .

Satz 7.5 Es seinen V, W endlichdimensionale lineare Räume mit dim(V ) = dim(W ).


Ist T ∈ L(V, W ) so sind äquivalent:
a) T ist injektiv,
b) T ist surjektiv,
c) T ist bijektiv.
8 MATRIZEN 40

Beweis.
1. a) ⇒ b): Nach S.7.2 ist Kern(T ) = {0}. Also dim(Kern(T )) = 0. Damit ist nach
S.7.4 dim(Bild(T )) = dim(V ) = dim(W ), also ist T surjektiv nach S.7.2.
2. b) ⇒ c): Nach Voraussetzung ist dim(Bild(T )) = dim W = dim V , also nach S.7.4
dim(Kern(T )) = 0, d. h. Kern(T ) = {0}. Nach S.7.4 ist T injektiv, also bijektiv.
3. c) ⇒ a): Nach Definition richtig. 2

Bemerkung 7.6 1. Aus S.7.5 ergibt sich insbesonderre folgendes angenehme Krite-
rium für den Nachweis der Bijektivität von T ∈ L(V, W ): Ist dim(V ) = dim(W ), und
ist Kern(T ) = {0}, so ist T ∈ L(V, W ) ein Isomorphismus.
2. Aus der Dimensionsformel (S.7.4) ergeben sich wichtige Eigenschaften über die
(Nicht-) Existenz linearer Abbildungen. Es gilt nämlich:
(i) Ist dim(V ) > dim(W ), so existiert kein injektives T ∈ L(V, W ).
(ii) Ist dim(W ) > dim(V ), so existiert kein surjektives T ∈ L(V, W ).
(Denn: Es sei T ∈ L(V, W ).
(i) Aus S.7.4 folgt

dim(Kern(T )) = dim V − dim(Bild(T )) ≥ dim V − dim W > 0 ,

also ist T nicht injektiv.


(ii) Aus S.7.4 folgt

dim(Bild(T )) = dim(V ) − dim(Kern(T )) ≤ dim(V ) < dim(W )

also ist T nicht surjektiv.)

8 Matrizen
Der folgende Satz zeigt insbesondere, dass lineare Abbildungen durch Angabe der
Werte auf einer Basis festgelegt sind.

Satz 8.1 Es seien V, W lineare Räume über K, und es seien (v1 , . . . , vn ) eine Basis
von V sowie u1 , . . . , un ∈ W beliebig. Dann existiert genau ein T ∈ L(V, W ) mit

T (vj ) = uj (j = 1, . . . , n) .

Beweis.
1. Existenz: Es sei v ∈ V . Dann existieren eindeutig bestimmte λ1 , . . . , λn ∈ K mit
n
X
v= λj vj .
j=1
8 MATRIZEN 41

Wir definieren T : U → W durch


n
X
T (v) := λj uj (v ∈ V ) .
j=1

Dann ist T linear und es gilt T (vj ) = uj (j = 1, . . . , n).


2. Eindeutigkeit: Ist T̃ : V → W eine weitere lineare Abbildung mit T̃ (vj ) = uj für
j = 1, . . . , n, so gilt für jedes v ∈ V, v = nj=1 λj vj :
P

 
n
X n
X n
X
T̃ (v) = T̃  λj vj  = λj T̃ (vj ) = λj uj = T (v) ,
j=1 j=1 j=1

also T = T̃ . 2

Bemerkung 8.2 Es sei (unter den Voraussetzungen von S.8.1) W endlich-dimensional


mit Basis (w1 , . . . , wm ). Ferner sei T die Abbildung aus S.8.1. Dann existieren eindeu-
tig bestimmte (a11 , . . . , am1 ), . . . , (a1n , . . . , amn ) ∈ K m mit

m
X
uk = T (vk ) = ajk wj (k = 1, . . . , n) (1)
j=1

Fasst man die Vektoren a(1) = (a11 , . . . , am1 ), . . . , a(n) = (a1n , . . . , amn ) ∈ K m in n
Spalten zusammen, so entsteht folgendes Schema:
 
a11 · · · a1n
 . .. 
A= .
 .  =: (ajk ) j=1,...
.  ,m =: (ajk ) .
k=1,... ,n

am1 · · · amn

Definition 8.3 Sind n, m ∈ N und sind ajk ∈ K für j = 1, . . . , m, k = 1, . . . , n, so


heißt ein Schema A = (ajk ) der obigen Form eine (m × n)-Matrix (mit Einträgen in
K).
Ist m = n, so heißt A quadratische Matrix.
Weiter setzen wir

K m×n := {A : A ist (m × n) − Matrix mit Einträgen in K} .

Ist T wie in B.8.2, so heißt die zugehörige Matrix A die (Koordinaten-) Matrix von T
bzgl. (v1 , . . . , vn ) und (w1 , . . . , wm ). Dabei sei betont, dass A nicht nur von T , sondern
i. a. auch von der speziellen Wahl von (v1 , . . . , vn ) und (w1 , . . . , wm ) abhängt!
8 MATRIZEN 42

Beispiel 8.4 Es sei V = W = R2 und es sei T ∈ L(R2 , R2 ) definiert durch

T (x1 , x2 ) = (x1 , −x2 ) ((x1 , x2 ) ∈ R2 ) .

Ist v1 = w1 = (1, 0) = e1 , v2 = w2 = (0, 1) = e2 , so ist


!
1 0
A=
0 −1

(denn e1 = T (e1 ) = 1 · e1 + 0 · e2 , −e2 = T (e2 ) = 0 · e1 + (−1)e2 ). Ist aber w2 = (0, −1),


so ist
!
1 0
A=
0 1

(denn: T (e2 ) = −e2 = 0 · e1 + 1 · w2 ).

Satz 8.5 Es seien V, W lineare Räume über K, und es seien N := (v1 , . . . , vn ) bzw.
M := (w1 , . . . , wm ) Basen von V bzw. W . Dann ist ϕ = ϕM,N : L(V, W ) → K m×n ,
definiert durch

ϕ(T ) := ϕM,N (T ) := A (T ∈ L(V, W )) ,

wobei A wie in B.8.2, bijektiv.

Beweis.
1. Nach B.8.2 ist ϕ : L(V, W ) → K m×n wohldefiniert (beachte: A ist durch T und M ,
N eindeutig festgelegt).
2. ϕ ist injektiv, denn ist A = ϕ(T ) = ϕ(S) für T, S ∈ L(V, W ), so gilt nach B.8.2
(mit A = (ajk )):
m
X
T (vk ) = ajk wj = S(vk ) (k = 1, . . . , n) .
j=1

Aus der Eindeutigkeitsaussage von S.8.1 folgt T = S.


3. ϕ ist surjektiv, denn ist A = (ajk ) ∈ K m×n , so existiert nach S.8.1 ein T ∈ L(V, W )
mit
m
X
T (vk ) = uk := ajk wj (k = 1, . . . , n) .
j=1

Also ist ϕ(T ) = A. 2


8 MATRIZEN 43

Definition 8.6 Es sei K ein Körper


1. Für A, B ∈ K m×n , A = (ajk ), B = (bjk ), definieren wir
 
a11 + b11 · · · a1n + b1n
 .. .. 
A + B = (ajk + bjk ) = 
 . .  .

am1 + bm1 · · · amn + bmn

2. Für A = (ajk ) ∈ K m×n , λ ∈ K definieren wir


 
λa11 · · · λa1m
 . .. 
λA := (λajk ) =  .
 .  .
. 
λam1 · · · λamn

3. Für A = (ajk ) ∈ K m×n , B = (bjk ) ∈ K n×p definieren wir A · B ∈ K m×p durch

A · B := (cjk ) j=1,... ,m
k=1,... ,p

mit
n
X
cjk = ajν bνk (j = 1, . . . , m, k = 1, . . . , p) .
ν=1

Satz 8.7 Mit den Bezeichnungen aus S.8.5 und D.8.6 gilt
1. K m×n ist ein linearer Raum über K.
2. Die Abbildung ϕ : L(V, W ) → K m×n ist ein Isomorphismus, d. h. L(V, W ) und
K m×n sind isomorph.

Beweis.
1. Entweder direkt nachrechnen oder durch Anwendung von B.3.3.2 (Beachte im zwei-
ten Fall:

K m×n = K {1,... ,m}×{1,... ,n} ,

denn A = (ajk ) ∈ K m×n ist eine Schreibweise für die Abbildung f : {1, . . . , m} ×
{1, . . . , n} → K,

f (j, k) = ajk (j = 1, . . . , m, k = 1, . . . , n).)

2. Nach S.8.5 genügt es, zu zeigen: ϕ ist linear. Dazu seien T, S ∈ L(V, W ) und λ ∈ K.
Dann gilt mit

ϕ(T ) = A = (ajk ) , ϕ(S) = B = (bjk ) ,


8 MATRIZEN 44

und N = (v1 , . . . , vn ), M = (w1 , . . . , wm )


m
X m
X
(T + S)(vk ) = T (vk ) + S(vk ) = ajk wj + bjk wj
j=1 j=1
n
X
= (ajk + bjk )wj (k = 1, . . . , n)
j=1

also ist A + B = (ajk + bjk ) die Matrix von T + S bzgl. M, N , d. h. ϕ(T + S) = A + B =


ϕ(T ) + ϕ(S). Entsprechend sieht man, dass λA die Matrix von λT bzgl. M, N , also
ϕ(λT ) = λA = λϕ(T ) ist. 2

Der Satz besagt also, dass man L(V, W ) von der linearen Struktur her mit K m×n ,
identifizieren kann, d. h. um lineare Abbildungen auf endlich-dimensionalen Räumen
zu studieren, reicht es, Matrizen zu untersuchen. Dabei zeigt sich, dass sich nicht nur
die lineare Struktur überträgt. Es gilt nämlich

Satz 8.8 Es seien V, W, U endlich-dimensionale lineare Räume über K mit Basen


N = (v1 , . . . , vn ), M = (w1 , . . . , wm ) sowie P = (u1 , . . . , up ). Sind T ∈ L(V, W ) bzw.
S ∈ T (U, V ) mit Matrix A bzgl. M, N bzw. Matrix B bzgl. N, P , so ist A·B die Matrix
von T ◦ S bzgl. M, P , d. h.

ϕM,P (T ◦ S) = A · B = ϕM,N (T ) · ϕN,P (S) .

Beweis.
Es seien

A =: (ajk ) ∈ K m×n und B =: (bjk ) ∈ K n×p .

Dann gilt

Xn
A·B =( ajν bνk ) j=1,... ,m .
k=1,... ,p
ν=1

Außerdem ist
m
X
T vν = ajν wj (ν = 1, . . . , n)
j=1

und
n
X
Suk = bνk vν (k = 1, . . . , p) ,
ν=1
8 MATRIZEN 45

also
n
X n
X m
X
(T ◦ S)(uk ) = T (Suk ) = bνk T vν = bνk ajν wj =
ν=1 ν=1 j=1
m
X Xn
= wj ( ajν bνk ) ,
j=1 ν=1

d. h. AB ist die Matrix von T ◦ S bzgl. M und P . 2

Vereinbarung: Wir schreiben ab jetzt Vektoren in K p , wobei p ∈ N, als Spaltenvekto-


ren, d. h.
  

 x1 

.. 
 
p

K =  .  : xj ∈ K für j = 1, . . . , p .


 

xp
 

Dann entspricht K p der Menge der (p × 1)-Matrizen K p×1 . Ist C = (cjk ) ∈ K m×n und
 
x1
 .  n n×1 , so setzen wir
. 
 . ∈K =K
ist x = 
xn
 n
P

  c1k xk 
x1  k=1
 .   ..

C · x := C ·  .  
 . =  ∈ K m = K m×1 .

.
n
 
xn
 P 
cmk xk
k=1

Bemerkung und Definition 8.9 Es sei K ein Körper und V = K n , W = K m . Wei-


ter seien N = (e1 , . . . , en ) bzw. M = (e1 , . . . , em ) die kanonischen Basen (vgl. B.4.12
und B.5.7). Ist T ∈ L(V, W ) und A = (ajk ) die Matrix von T bzgl. der kanonischen
Basen, d. h. A = ϕM,N (T ), so gilt
 
0
 .. 
 
 . 
   
m m
 0 
  a1k
X X    . 
T (ek ) = ajk ej = ajk    . 
 1 = .  ,
j=1 j=1 
 0 

  amk
 .. 
 . 
 
0

also die k-te Spalte von A.


8 MATRIZEN 46

 
x1
 .  n
. 
 . ∈K
Damit erhält man allgemein für x = 
xn
 
x1 n
! n
 .  X X
T (x) = T  .  xk · T (ek ) =
 .  = T xk ek =
k=1 k=1
xn
 n
P

 k=1 a1k xk
   
n
a1k  x1
X  .   ..
  .. 
= xk  .  
 . =  = A  ,

 n .   . 
k=1
amk xn
 P 
amk xk
k=1

also

T (x) = A · x .

Ist umgekehrt eine Matrix A ∈ K m×n gegeben, so ist durch

T (x) := Ax (x ∈ K n )

ein T = TA ∈ L(K n , K m ) definiert mit zugehöriger Matrix A bzgl. der kanonischen


Basen, d. h. A = ϕM,N (TA ).
So lassen sich Eigenschaften von T auf A und von A auf T übertragen. Man setzt etwa

Bild(A) := Bild(T ) und Kern(A) := Kern(T ) .

Bild(A) heißt Bild von A und Kern(A) heißt Kern von A.

Ist S ∈ L(K p , K n ), und ist B die Matrix von S bzgl. der kanonischen Basen, so gilt
also nach S.8.8 auch

(T ◦ S)(x) = (A · B)x (x ∈ K p ) .

Es ist daher günstig, Rechenreglen für die Matrixmultiplikation zur Verfügung zu


haben.

Satz 8.10 Es sei K ein Körper.


1. Für A ∈ K m×n , B ∈ K n×p und λ, µ ∈ K gilt

(λA)(µB) = (λ · µ)(AB) .
8 MATRIZEN 47

2. Für A ∈ K m×n , B ∈ K n×p , C ∈ K p×r gilt

(AB)C = A(BC) .

3. Für A ∈ K m×n , B, C ∈ K n×p gilt

A(B + C) = AB + AC .

4. Für A, B ∈ K m×n , C ∈ K n×p gilt

(A + B)C = AC + BC .

Beweis. [Ü]

Bemerkung 8.11 Man beachte, dass für A ∈ K m×n , B ∈ K n×p zwar AB, i. a. aber
nicht BA definiert ist. Außerdem gilt auch in dem Fall, dass BA definiert ist (nämlich
p = m), i. a. nicht AB = BA !
Betrachten wir etwa A, B ∈ R2×2 mit
! !
1 2 −3 2
A= , B= ,
2 3 1 −2

so gilt
! ! !
1 2 −3 2 −1 −2
AB = =
2 3 1 −2 −3 −2

und
! ! !
−3 2 1 2 1 0
BA = = 6= AB .
1 −2 2 3 −3 −4

Wir kommen jetzt zu einer wichtigen Kenngröße allgemeiner Matrizen.

Definition 8.12 Es sei A = (ajk ) ∈ K m×n . Dann heißt

Rg(A) := dim(Bild(A))

der Rang von A. Weiter seien a(1) , . . . , a(n) die Spalten von A, d. h.
 
a1k
 . 
a(k) = 
 . 
.  (k = 1, . . . , n)
amk
8 MATRIZEN 48

sowie A1 , . . . , Am die Zeilen von A, d. h.

Aj = (aj1 , . . . , ajn ) (j = 1, . . . , m) .

Dann heißen

Srg(A) := dim < a(1) , . . . , a(n) >

der Spaltenrang von A und

Zrg(A) := dim < A1 , . . . , Am >

der Zeilenrang von A.

Bemerkung 8.13 Nach B.8.9 gilt Rg(A) = Srg(A), denn

Bild(A) = Bild(T ) =< T (e1 ), . . . , T (en ) >

und T (ek ) = a(k) (k = 1, . . . , n). Also ist

Rg(A) = dim(Bild(A)) = dim < a(1) , . . . , a(n) >= Srg(A) .

Unser Ziel ist es nun, zu zeigen, dass auch Rg(A) = Zrg(A) gilt. Dazu brauchen wir
den Begriff der Transponierten einer Matrix, der von allgemeiner Bedeutung ist.

Definition 8.14 Es sei A = (ajk ) ∈ K m×n . Dann heißt die Matrix AT = (bjk ) ∈
K n×m , definiert durch

bjk := akj (j = 1, . . . , n, k = 1, . . . , m)

die Transponierte von A.


 
x1
 .  m×1 ist insbesondere damit
. 
 . ∈K
Für x = 
xm

xT = (x1 , . . . , xm ) ∈ K 1×m ,

d. h. xT ist “x als Zeilenvektor”.

Wir stellen einige elementare Eigenschaften zusammen.

Satz 8.15 1. Für A, B ∈ K m×n gilt (A + B)T = AT + B T .


2. Für A ∈ K m×n gilt (AT )T = A.
3. Für A ∈ K m×n , B ∈ K n×p gilt (AB)T = B T AT .
8 MATRIZEN 49

Beweis.
1. und 2. sind klar.
3. Ist A = (ajk ), B = (bjk ), so gilt

n
!T n
! n
!
X X X
(AB)T = ajν bνk = akν bνj = bνj akν = B T AT .
ν=1 ν=1 ν=1

2
Es glt nun folgender zentrale Satz.

Satz 8.16 Ist A ∈ K m×n , so gilt

Rg(A) = Rg(AT ) .

Beweis.
Es sei A = (ajk ), und es seien
 
a1k
 . 
a(k) = . 
 .  (k = 1, . . . , n)
amk

die Spalten von A sowie

Aj = (aj1 , . . . , ajn ) (j = 1, . . . , m)

die Zeilen von A. Dann sind ATj (j = 1, . . . , m) die Spalten von AT . Es sei

U :=< AT1 , . . . , ATm >⊂ K n .

Dann ist s := dim(U ) = Rg(AT ) nach B.8.13. Es sei (u1 , . . . , us ) eine Basis von U .
Dann existieren cjν ∈ K mit
s
X
Aj = cjν uTν (j = 1, . . . , m) ,
ν=1

d. h. mit uTν = (uν1 , . . . , uνn ) (ν = 1, . . . , s) gilt


s
X
(aj1 , . . . , ajn ) = cjν (uν1 , . . . , uνn ) (j = 1, . . . , m) .
ν=1

Vergleich der einzelnen Komponenten ergibt


s
X
ajk = cjν uνk (j = 1, . . . , m; k = 1, . . . , n)
ν=1
8 MATRIZEN 50

d. h.
   
a1k s
c1ν
 .  X  . 
 ..  = uνk  . (k = 1, . . . , n) .
 .

  
ν=1
amk cmν

Mit
 
c1ν
 . 
cν :=  .  (ν = 1, . . . , s)
 . 
cmν

gilt also
s
X
a(k) = uνk cν (k = 1, . . . , n) .
ν=1

Damit ist

Bild(A) =< a(1) , . . . , a(n) >⊂< c1 , . . . , cs > ,

also (nach dem Basisauswahlsatz)

Rg(A) = dim(Bild(A)) ≤ s = Rg(AT ) .

Aus A = (AT )T ergibt sich durch die gleiche Argumentation

Rg(AT ) ≤ Rg((AT )T ) = Rg(A) ,

also insgesamt die Behauptung. 2

Hieraus ergibt sich sofort

Folgerung 8.17 Ist A ∈ K m×n , so gilt

Rg(A) = Srg(A) = Zrg(A) .

(Denn: Es gilt offenbar Zrg(A) = Srg(AT ). Nach B.8.13 und S.8.16 ist

Zrg(A) = Srg(AT ) = Rg(AT ) = Rg(A) ,

also mit B.8.13:

Rg(A) = Srg(A) = Zrg(A) .)

Eine wichtige Aussage über den Rang des Produktes liefert


8 MATRIZEN 51

Satz 8.18 Sind A ∈ K m×n und B ∈ K n×p , so gilt

Rg(AB) ≤ min(Rg(A), Rg(B)) .

Beweis.
Wir setzen

T (x) := Ax (x ∈ K n ) , S(x) := Bx (x ∈ K p ) .

Dann gilt nach S.8.8 bzw. B.D.8.9

(T ◦ S)(x) = ABx (x ∈ K p ) .

Aus Bild(T ◦ S) ⊂ Bild(T ) folgt

Rg(AB) = dim(Bild(T ◦ S)) ≤ dim(Bild(T )) = Rg(A) .

Weiter ist mit S.8.16 durch die gleiche Argumentation

Rg(AB) = Rg((AB)T ) = Rg(B T AT ) ≤ Rg(B T ) = Rg(B) .

also insgesamt

Rg(AB) ≤ min(Rg(A), Rg(B)) .

Bemerkung und Definition 8.19 Für p ∈ N heißt


 
1 0 0 ··· 0
 
 0 1 0 ··· 0 
E := Ep := (δjk )j,k=1,... ,p =  .
 
 .. .. .. 
 . . 

0 ··· ··· 0 1

(p-reihige) Einheitsmatrix. Es gilt damit für A ∈ K m×n

AEn = A und Em A = A .

Definition 8.20 Es sei A ∈ K n×n . Dann heißt A invertierbar falls eine Matrix B ∈
K n×n mit AB = En existiert.

Satz 8.21 Es sei A ∈ K n×n . Ist A invertierbar, so existiert genau ein B ∈ K n×n mit
AB = En . Außerdem gilt CA = En genau dann, wenn B = C ist.
8 MATRIZEN 52

Beweis.
1. Es sei B ∈ K n×n so, dass AB = E. Wir betrachten T, S ∈ L(K n ) mit

T (x) := A · x , S(x) := B · x (x ∈ K n ) .

(Es gilt nach B.D.8.9: ϕ(T ) = A, ϕ(S) = B, wobei ϕ = ϕM,M und M die kanonische
Basis in K n sind.)
Dann gilt nach S.8.8: AB ist Matrix von T ◦ S (bzgl. kanonischer Basen), also nach
B.8.9

(T ◦ S)(x) = ABx = Ex = x (x ∈ K n ) .

d. h. T ◦S = idK n . Damit ist T surjektiv und nach S.7.5 auch bijektiv. Also ist S = T −1
und damit ist B Matrix zu T −1 , d. h. ϕ(T −1 ) = B. Insbesondere folgt für jedes B̃ mit
AB̃ = E genauso B̃ = ϕ(T −1 ), also B = B̃.
2. Aus T ◦ T −1 = idK n = T −1 ◦ T folgt

BA = ϕ(T −1 )ϕ(T ) = ϕ(T −1 ◦ T ) = ϕ(idK n ) = E .

3. Ist C ∈ K n×n mit CA = E, so ist nach 1. und 2., angewandt auf (C, A) statt (A, B),
auch AC = E, also ist C = B nach 1. 2

Definition 8.22 Ist A ∈ K n×n invertierbar, so heißt die (nach S.8.21 eindeutig be-
stimmte) Matrix B mit AB = E Inverse zu A. Wir schreiben B =: A−1 .

!
1 1
Beispiel 8.23 Es sei A ∈ R2×2 mit A = . Dann gilt
0 1
! ! ! !
1 1 1 −1 1 0 −1 1 −1
= = E, also A = .
0 1 0 1 0 1 0 1

Satz 8.24 Es seien A, B ∈ K n×n invertierbar. Dann gilt


1. A−1 ist invertierbar mit (A−1 )−1 = A.
2. AB ist invertierbar mit (AB)−1 = B −1 A−1 .
3. Ist λ ∈ K \ {0}, so ist λA invertierbar mit (λA)−1 = λ−1 A−1 .

Beweis.
1. Nach S.8.21 ist AA−1 = E = A−1 A, also ist nach Definition A−1 invertierbar mit
(A−1 )−1 = A.
2. Es gilt (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AEA−1 = AA−1 = E, also ist nach
Definition AB invertierbar mit (AB)−1 = B −1 A−1 .
3. Es gilt (λA)( λ1 · A−1 ) = (λ λ1 )(AA−1 ) = E, also ist λA invertierbar mit (λA)−1 =
λ−1 A−1 . 2
8 MATRIZEN 53

Bemerkung 8.25 Aus S.8.10 und S.8.24 folgt, dass die Menge

GLn = GLn (K) := {A ∈ K n×n : A invertierbar}

mit der Matrixmultiplikation als Verknüpfung eine Gruppe bildet (mit E als neutralem
Element). GLn ist für n ≥ 2 i. a. nicht kommutativ.

Der folgende Satz ist i. w. eine Neuformulierung von S.7.5.

Satz 8.26 Es sei A ∈ K n×n . Dann sind äquivalent:


a) A ist invertierbar,
b) Rg(A) = n,
c) Kern(A) = {0}.

Beweis.
Es sei T ∈ L(K n ) mit T (x) = Ax (x ∈ K n ).
1. a) ⇒ b): Ist A invertierbar, so gilt (vgl. Beweis zu S.8.21): T ist bijektiv. Also ist T
insbesondere surjektiv und damit

Rg(A) = dim(Bild(A)) = dim Bild(T ) = n .

2. b) ⇒ c): Ist Rg(A) = dim(Bild(T )) = n, so gilt nach der Dimensionsformel für


lineare Abbildungen

dim(Kern(T )) = n − dim(Bild(T )) = 0 ,

also Kern(T ) = Kern(A) = {0}.


3. c ⇒ a): Ist Kern(T ) = Kern(A) = {0}, so ist T injektiv also auch bijektiv nach
S.7.5. Ist S = T −1 , so gilt für die Matrix B von S (bzgl. der kanonischen Basen)

AB = ϕ(T )ϕ(T −1 ) = ϕ(T ◦ T −1 ) = ϕ(IdK n ) = E ,

also ist A invertierbar. 2

Satz 8.27 Es sei A ∈ K n×n invertierbar. Dann gilt für B ∈ K n×p und C ∈ K m×n

Rg(AB) = Rg(B) und Rg(CA) = Rg(C) .

Beweis.
Aus S.8.18 folgt

Rg(B) = Rg(A−1 (AB)) ≤ Rg(AB) ≤ Rg(B)

und

Rg(C) = Rg((CA)A−1 ) ≤ Rg(CA) ≤ Rg(C) .

2
9 LINEARE GLEICHUNGSSYSTEME 54

9 Lineare Gleichungssysteme
Wir kommen nun zu einem der Kernthemen der linearen Algebra, den linearen Glei-
chungssystemen. Wir werden sehen, dass für eine systematische Behandlung solcher
Systeme die in den ersten Abschnitten dargestellten Begriffe und Ergebnisse sehr nütz-
lich sind.

Definition 9.1 Es sei K ein Körper (wobei wir jetzt meist K = R oder K = C
betrachten), und es seien ajk ∈ K, bj ∈ K (j = 1, . . . , m; k = 1, . . . n). Dann heißt das
System von Gleichungen
n
P
a11 x1 +···+ a1n xn = a1k xk = b1
k=1
Pn
a21 x1 +···+ a2n xn = a2k xk = b2
k=1 (LGS)
.. .. .. ..
. . . .
n
P
am1 x1 + · · · + amn xn = amk xk = bm
n=1

ein lineares Gleichungssystem (LGS) (in den Unbekannten x1 , . . . , xn )


 
x1
 .  n
. 
Ein Vektor x =   .  ∈ K , für den (LGS) erfüllt ist, heißt Lösung des LGS. Das
xn
LGS heißt homogen, falls bj = 0 für j = 1, . . . , m gilt; ansonsten heißt es inhomogen.

Die Verbindung zu dem bisherigen Inhalt der Vorlesung ist offensichtlich.


Ist A = (ajk ), b = (b1 , . . . , bm )T und x = (x1 , . . . , xn )T , so lässt sich (LGS) auch
schreiben als
    
a11 · · · a1n x1 b1
 . ..   .   . 
 ..  .   . 
  .  =  .  ,
. 
am1 · · · amn xn bm

oder kurz als

Ax = b .

Die Matrix A heißt (Koeffizienten-) Matrix des LGS. Die (m × (n + 1)) Matrix (A|b)
mit
 
a11 · · · a1n b1
 . .. .. 
(A|b) =  .. . . 
 
amn · · · amn bm

heißt erweiterte Koeffizientenmatrix des LGS.


9 LINEARE GLEICHUNGSSYSTEME 55

Ein erstes Lösbarkeitskriterium liefert

Satz 9.2 Es seien A = (ajk ) ∈ K m×n und b ∈ K m . Dann sind aquivalent:

a) Ax = b ist lösbar (d. h. es existiert ein x ∈ K n mit Ax = b) ,

b) b ∈< a(1) , . . . , a(n) >, wobei a(k) die Spalten von A sind,

c) Rg(A) = Rg(A|b) .

Beweis.
1. die Äquivalenz von a) und b) ergibt sofort daraus, dass man Ax = b auch schreiben
kann als
n
X
xk a(k) = b .
k=1

2. b) ⇒ c): Ist b ∈< a(1) , . . . , a(n) >, so ist

< a(1) , . . . , a(n) >=< a(1) , . . . , a(n) , b > ,

also Rg(A) = dim(< a(1) , . . . , a(n) >) = dim(< a(1) , . . . , a(n) , b >) = Rg(A|b).

3. c) ⇒ b): Da < a(1) , . . . , a(n) >⊂< a(1) , . . . , a(n) , b > gilt, folgt aus

dim(< a(1) , . . . , a(n) >) = dim(< a(1) , . . . , a(n) , b >)

bereits < a(1) , . . . , a(n) >=< a(1) , . . . , a(n) , b > nach S.5.17, also ist

b ∈< a(1) , . . . , a(n) > .

Beispiel 9.3 Wir betrachten das LGS

3x1 + x2 + 2x3 = 6
x1 + 2x2 + 3x3 = 6
2x1 + 3x2 + x3 = 6

also
    
3 1 2 x1 6
    
Ax = 
 1 2 3   x2  =  6  = b .
   
2 3 1 x3 6
9 LINEARE GLEICHUNGSSYSTEME 56

Dann gilt
       
6 3 1 2
       
b=
 6 = 1 + 2 + 3 
      
6 2 3 1
     
3 1 2
     
also b ∈< 
 1  ,  2  ,  3  >, und eine Lösung ist gegeben durch
    
2 3 1
   
x1 1
   
x=
 x2
= 1  .
  
x3 1

Wir wollen zunächst einige allgemeine Aussagen über die Struktur der Lösungsmenge
eines LGS machen.

Satz 9.4 Es seien A ∈ K m×n und b ∈ K m . Wir setzen

Lös(A, b) := {x ∈ K n : Ax = b}

(Lös(A, b) heißt Lösungsmenge des LGS). Dann gilt


1. Lös(A, 0) ist ein Unterraum von K n mit dim(Lös(A, 0)) = n − RgA.
2. Ist Lös(A, b) 6= ∅, und ist y ∈ Lös(A, b), so ist

Lös(A, b) = y + Lös(A, 0) := {y + x : x ∈ Lös(A, 0)} (= {y + x : Ax = 0})

Beweis.
1. Es gilt

Lös(A, 0) = Kern(A) = Kern(T ) ,

wobei T (x) = Ax (x ∈ K n ). Also ist nach S.7.2 Lös(A, 0) ein Unterraum von K n .
(Insbesondere ist stets 0 ∈ Lös(A, 0)!).
Aus der Dimensionsformel für lineare Abbildungen (S.7.4) folgt weiter

dim(Lös(A, 0)) = dim(Kern(A)) = n − dim(Bild(A)) = n − Rg(A) .

2. “⊂”: Es sei z ∈ Lös(A, b). Dann gilt für x := z − y:

Ax = A(z − y) = Az − Ay = b − b = 0 ,
9 LINEARE GLEICHUNGSSYSTEME 57

also x ∈ Lös(A, 0) und z = y + x, d. h. z ∈ y + Lös(A, 0) .


3. “⊃” : Ist z ∈ y + Lös(A, 0), d. h. es existiert ein x ∈ Lös(A, 0) mit z = y + x, so gilt

Az = A(y + x) = Ay + Ax = Ay = b ,

also z ∈ Lös(A, b). 2

Die Aussage 2. besagt anschaulich folgendes: Ist y eine spezielle Lösung des inhomo-
genen Systems Ax = b, so ergeben sich alle Lösungen z durch z = y + x, wobei x
die Lösungen des homogenen Systems “durchläuft”, d. h. ist r := Rg(A) < n, und ist
(v1 , . . . , vn−r ) eine Basis von Lös(A, 0), so ist
n−r
X
Lös(A, b) = {y + λν vν : λν ∈ K für ν = 1, . . . , n − r} .
ν=1

Ist r = n, so ist Lös(A, 0) = {0} und Lös(A, b) = {y} .

Satz 9.5 Es sei A ∈ K m×n . Dann gilt


1. Ax = b ist für alle b ∈ K m genau dann lösbar, wenn Rg(A) = m ist.
2. Ax = b hat für alle b ∈ K m höchstens eine Lösung genau dann, wenn Rg(A) = n
ist.
3. Ax = b ist für alle b ∈ K m eindeutig lösbar genau dann, wenn Rg(A) = n = m
(insbesondere also n = m ) gilt. In diesem Fall ist

x = A−1 b

die eindeutig bestimmte Lösung.

Beweis.
1. Ax = b ist nach S.9.2 genau dann für alle b ∈ K m lösbar, wenn

K m =< a(1) , . . . , a(n) >= Bild(A) .

Da Bild(A) stets ein Unterraum von K m ist, ist dies (S.5.17) wiederum äquivalent zu

Rg(A) = dim(Bild(A)) = dim(K m ) = m .

2. Nach S.9.4.1. ist Lös(A, 0) = {0} genau dann, wenn Rg(A) = n ist. Nach S.9.4.2.
ist dies genau dann der Fall, wenn Lös(A, b) höchstens einpunktig ist.
3. Nach 1. und 2. ist Ax = b eindeutig lösbar für alle b ∈ K m genau dann, wenn
Rg(A) = n = m gilt.
Gilt nun Rg(A) = n = m, so ist A ∈ K n×n invertierbar nach S.8.26. Ist b ∈ K m , so
gilt für x = A−1 b

Ax = AA−1 b = b ,

d. h. Lös(A, b) = {A−1 b}. 2


10 DER GAUSS’SCHE ALGORITHMUS 58

Definition 9.6 Es seien A, Ã ∈ K m×n und b, b̃ ∈ K m . Dann heißen die LGS’e Ax = b


und Ãx = b̃ äquivalent, falls

Lös(A, b) = Lös(Ã, b̃)

gilt.

Satz 9.7 Ist C ∈ K m×m invertierbar, und sind A ∈ K m×n sowie b ∈ K m , so ist
Ax = b äquivalent zu CAx = Cb.

Beweis.
Ist x ∈ Lös(A, b), so gilt CAx = Cb. Ist umgekehrt x ∈ Lös(CA, Cb), so ist

Ax = (C −1 C)Ax = C −1 (CAx) = C −1 (Cb) = b

also x ∈ Lös(A, b). 2

Wir haben uns bisher beschränkt auf Strukturaussagen über die Lösungsmenge von
Gleichungssystemen. Es drängt sich nun die interesannte Frage auf, wie man an Lösun-
gen herankommt.

10 Der Gauß’sche Algorithmus


Definition 10.1 Es sei A ∈ K m×n .
1. Unter den elementaren Zeilenoperationen (oder elementaren Zeilenumformungen)
verstehen wir die Operationen

Zj ↔ Zk : Vertauschen der Zeilen j und k


Zj + λZk : Addition des λ-fachen der k-ten Zeile zur j-ten Zeile (λ ∈ K; j 6= k)
λZj : Multiplikation der j-ten Zeile mit λ ∈ K \ {0}.

2. Die elementaren Spaltenoperationen Sj ↔ Sk , Sj +λSk , λSj sind analog mit “Spalte”


statt “Zeile” definiert.

Beispiel 10.2 Es sei


 
0 1 1 −1 0
 
A=
 1 −1 3 −1 −2  .

1 1 1 1 2
10 DER GAUSS’SCHE ALGORITHMUS 59

Dann läßt sich A etwa folgendermaßen mittels elementarer Zeilenoperationen trans-


formieren:
 
1 −1 3 −1 −2
Z1 ↔Z2
 
−→
 0
 −1 1 −1 0  
1 1 1 1 2
 
1 −1 3 −1 −2
Z3 −Z1
 
−→
 0
 1 1 −1 0  
0 2 −2 2 4
 
1 −1 3 −1 −2
Z3 −2Z2 
 
−→  0 1 1 −1 0  
0 0 −4 4 4
 
1 −1 3 −1 −2
(− 14 )Z3
 
−→
 0
 1 1 −1 0  
0 0 1 −1 −1

Die elementaren Zeilen- (Spalten-) Operationen lassen sich jeweils durch eine Matrix-
multiplikation beschreiben:

Definition 10.3 Es sei m ∈ N. Wir schetzen für j, k = 1, . . . , m

E (j,k) := (eνµ )ν,µ=1,... ,m

mit eνµ := 1 falls (ν, µ) = (j, k) und eνµ := 0 sonst, d. h.


 
0 ... 0
 .. 

 . 

 .. .. 

 . 0 . 

E (j,k)
 
= 0 ... 0 1 0 ... ... 0  ← j − te Zeile
 
 .. .. 

 . 0 . 

 .. 

 . 

0 ... 0


k-te Spalte
10 DER GAUSS’SCHE ALGORITHMUS 60

Dann heißen für j, k = 1, . . . , m und λ ∈ K die Matrizen

P (j,k) := E − E (j,j) − E (k,k) + E (j,k) + E (k,j)


 
1 0 ... ... ... ... ... ... ... ... 0

 0 ... ..
 .

 . ..

 .
 . 1 .


 . ..

 .
 . 0 ... 0 1 .
 ← j

 .. .. .. ..
 

 . . 1 .  .
 .. .. .. ..
 
=  . ..
.

 . . 
 .
 .. ..  ..
 . 0 1 .  .
 
 . ..
 ..  ← k

 1 0 ... 0 0  .
 . ..
 ..

 1 
 .
 .. 

 . 0 

0 ... ... ... ... ... ... ... ... 0 1

 
1 0 ... ... 0
  ..
0 1 λ .
 
 
.. ..
 
..
.
 
. .
F (j,k) (λ) := E + λE (j,k)
 
=
 ..

 .. (j 6= k)

 . 
 .
 .. 

 . 1 0 

0 ... ... ... 0 1

sowie
 
1 0 ... ... ... ... 0
 .. . . ..
. . .
 
 
.. ..
 
 
 . 1 .

.. ..
 
F (j) (λ) := E + (λ − 1)E (j,j) = ←j (λ 6= 0)
 
 . λ .
 .. ..

 . 1 
 .
 .. .. 

 . . 0 

0 ... ... ... ... 0 1


j
(m × m)-Elementarmatrizen.
10 DER GAUSS’SCHE ALGORITHMUS 61

Satz 10.4 Es sei A ∈ K m×n . Dann gilt:


Die elementaren Zeilenumformungen lassen sich wie folgt beschreiben
Zj ↔Zk
A −→ P (j,k) · A
Zj +λZk
A −→ F (j,k) (λ) · A
λZj
A −→ F (j) (λ) · A

Entsprechend gilt für die elementaren Spaltenumformungen


Sj ↔Sk
A −→ A · P (k,j)
Sj +λSk
A −→ A · F (k,j) (λ)
λSj
A −→ A · F (j) (λ)

Beweis.
Wir beschränken uns auf Zeilenoperationen. Es gilt für j, k = 1, . . . , m
  
0 ... ... ... 0 ... 0 a11 ... ... a1n
 . .. ..  .. .. 
 ..

 . .  

. . 

  
 0 ... ... 0 1 ... 0  aj1 ... ajn 
  
 . ..  .. .. 
(j,k) .

E ·A =  .
 0 .  
 . . =
 . .. .. 
 ..
 
 . . 
 ak1 ... akn  
 .
 .. .. ..  
 .. .. 
 . .   . . 

0 ... ... ... 0 ... 0 am1 . . . amn
   
0 ... ... 0 0
 . ..    .. 
 
 .
 . .   . 
   
 a . . . . . . a   A  ← j − te Zeile
 k1 kn   k 
   
=  0 . . . . . . 0  =
 
 0 
 ,
 . ..   .. 
 ..
 
 .   .  
 . .   . 
 .. ..   .. 
   
0 ... ... 0 0

d. h. E (j,k) · A “schneidet aus A die k-te Zeile Ak aus und setzt diese in die j-te Zeile”.
Hieraus ergibt sich die Behauptung durch Nachrechnen. 2

Wichtig für das folgende ist weiter

Satz 10.5 Die Elementarmatrizen sind invertierbar, und es gilt

(P (j,k) )−1 = P (j,k) , (F (j,k) (λ))−1 = F (j,k) (−λ) (j 6= k)


10 DER GAUSS’SCHE ALGORITHMUS 62

sowie

(F (j) (λ))−1 = F (j) (1/λ) (λ 6= 0) .

Beweis.. Es gilt P (j,k) ·P (j,k) = E, F (j,k) (λ)F (j,k) (−λ) = E und F (j) (λ)F (j) (1/λ) = E.
2

Folgerung 10.6 Es seien A, Ã ∈ K m×n und b, b̃ ∈ K m . Ist die Matrix (Ã|b̃) ∈


K m×(n+1) durch elementare Zeilenoperationen aus (A|b) entstanden, so sind die Glei-
chungssysteme

Ax = b und Ãx = b̃

äquivalent.
(Denn: Dies ergibt sich durch Kombination von S.9.7, S.10.4 und S. 10.5 und S.8.24.2.
Man beachte dabei, dass C(A|b) = (CA|Cb) gilt.)

Wir betrachten zunächst Gleichungssysteme

Ax = b

mit invertierbarer Matrix A ∈ K n×n und b ∈ K n . Nach S.9.5 ist die (eindeutig be-
stimmte) Lösung gegeben durch x = A−1 b. Allerdings erweist sich die Berechnung
von A−1 als i. a. sehr aufwendig. Das im folgenden dargestellte Verfahren ist weniger
rechenintensiv und hat zudem den Vorteil, dass es leicht modifiziert für allgemeine
Matrizen A ∈ K m×n anwendbar ist.

Satz 10.7 Es seien A ∈ K n×n und b ∈ K n mit Rg(A) = n (d. h. A ist invertier-
bar). Dann lässt sich (A|b) durch elementare Zeilenoperationen in eine Matrix (R|c)
überführen, wobei R ∈ K n×n eine obere Dreiecksmatirx ist, d. h. R hat die Form
 
r11 . . . . . . r1n
 .. .. 
 0 . . 
R= .  ,
 
 .. .. ..
 . . 

0 ... 0 rnn

(also rjk = 0 für j > k) und rjj 6= 0 für j = 1, . . . , n. Insbesondere sind die Systeme
Ax = b und Rx = c äquivalent.

Beweis.
Zunächst können wir durch eventuelles Vertauschen zweier Zeilen erreichen, dass (A|b)
10 DER GAUSS’SCHE ALGORITHMUS 63

übergeht in (Ã|b̃) mit ã11 6= 0. (Beachte: wäre aj1 = 0 für j = 1, . . . , n, so wäre


ãj1
Rg (A) < n.) Nun subtrahieren wir das ã11 -fache der ersten Zeile von (Ã|b̃) von der
j-ten Zeile von (Ã|b̃) (j = 2, . . . , n). Dann entsteht eine Matrix (A1 |b1 ) der Form
 (1) (1) (1)

a11 . . . a1n b1
 0 a(1) . . . a(1) b(1) 
 
22 2n 2
(A1 |b1 ) =  . ,
 
 .. .. .. .. 
 . . . 

(1) (1) (1)
0 an2 . . . ann bn

(1) (1)
d. h. der erste Eintrag aj1 der j-ten Zeile ist 0 für j = 2, . . . , n (und a11 6= 0). Nun
verfahren wir entsprechend mit der ((n − 1) × n)-Matrix
(1) (1) (1)
 
a22 . . . a2n b2
 . .. .. 
(B1 |d1 ) :=  .
 . . . 

(1) (1) (1)
an2 . . . ann bn

anstelle von (A|b). Dabei ist wichtig, dass nach S.8.27 und S.10.4/5 Rg (A1 ) = Rg (A) =
n gilt. Damit ist Rg (B1 ) = n − 1 (wäre Rg (B1 ) < n − 1, so wäre eine Zeile von B1
Linearkombination der restlichen, was dann auch für A1 gelten würde). Es entsteht
nach diesem Umformen eine Matrix (A2 |b2 ) der Form
(1) (1) (1)
 
a11 ... a1n b1

 0 (2) (2) (2) 
 a22 ... a2n b2 

 .
. (2) (2) (2)

(A2 |b2 ) = 
 . 0 a33 ... a3n b3 

 . .. .. .. ..
 ..

 . . . . 

(2) (2) (2)
0 0 an3 ... ann bn

(2) (2) (2)


mit a22 6= 0 und aj1 = 0 für j = 2, . . . , n sowie aj2 = 0 für j = 3, . . . , n. So
fortfahrend erhalten wir eine Kette von Matrizen (Am |bm ) der Form
 
⊗ ... ∗ ∗ ... ∗ ∗

.. .. 
 0 . . 
 
 .. . .
 
. ⊗ ∗ ... ∗ ∗  ← m

 .
(Am |bm ) = 
 ..

 (m = 1, . . . , n − 1)
 .
 0 ∗ . . . ∗ ∗ 

 .. .. .. .. 
 . . . . 
 
0 0 ∗ ... ∗ ∗

wobei die Einträge ⊗ nicht verschwinden. Dabei ist (Am |bm ) aus (A0 |b0 ) := (A|b)
durch elementare Zeilenumformungen (der Form Zj ↔ Zk und Zj + λZk ) entstanden.
10 DER GAUSS’SCHE ALGORITHMUS 64

Für m = n − 1 ist
 
⊗ ... ... ∗ ∗
.. .. ..
 
.
 
 0 . . 
.. .. ..
 
(An−1 |bn−1 ) = 
 ..  =: (R|c)
.

 . . . 
 .. .. 

 . ∗ . 

0 ... ... 0 ⊗ ∗

mit R = (rjk ), c = (c1 , . . . , cn )T und rjk = 0 für j > k und k = 1, . . . , n − 1 sowie


rjj 6= 0 für j = 1, . . . , n. Nach F.10.6 ist Rx = c äquivalent zu Ax = b. 2

Bemerkung 10.8 Das im Beweis dargestellte Verfahren zur Berechnung von (R|c)
aus (A|b) heißt Gauß- Verfahren oder Gauß- Algorithmus. Hat man das LGS Ax = b
durch das Gauß-Verfahren in das äquivalente System Rx = c überführt, so läss t sich
die Lösung

x = A−1 b = R−1 c

leicht berechnen: Die Lösung x = (x1 , . . . , xn )T ∈ K n erfüllt


    
r11 . . . r1n x1 c1
    
 0 r22 . . . r2n   x2   c2 
Rx =  .  . = . =c
    
 .. .. .. ..  .  .
 . . .  . 
 
  .


0 . . . 0 rnn xn cn

genau dann, wenn

xn = cn /rnn

und
n
1 X
xj = (cj − rjk xk ) (j = n − 1, n − 2, . . . , 1) ,
rjj
k=j+1

d. h. x lässt sich sukzessive “von hinten nach vorne” berechnen, da xj nur von den
dann bekannten Größen rjk , cj und xj+1 , . . . , xn abhängt!

Jetzt endlich ein

Beispiel 10.9 Wir betrachten das LGS

3x1 + x2 − 3x3 = 8
−6x1 + 5x3 = −11 ,
3x1 + 5x2 − 7x3 = 20
10 DER GAUSS’SCHE ALGORITHMUS 65

also
 
3 1 −3 8
 
(A|b) = (A0 |b0 ) = 
 −6 0 5  .
−11 
3 5 −7 20

1. Schritt (Z2 + 2Z1 ; Z3 − Z1 ):


 
3 1 −3 8
 
(A1 |b1 ) = 
 0 2 −1 5  ,
0 4 −4 12

2. Schritt (Z3 − 2Z2 ):


 
3 1 −3 8
 
(R|c) = (A2 |b2 ) = 
 0 2 −1 5 .

0 0 −2 2

Damit ist
c3
x3 = = −1
r33
3
!
1 X 1 4
x2 = c2 − r2k xk = (5 − (−1)(−1)) = = 2
r22 r22 2
k=3
3
!
1 X 1 3
x1 = c1 − r1k xk = (8 − (1 · 2 − 3 · (−1))) = = 1 ,
r11 r11 3
k=2

also
   
x1 1
   
x=
 x2
 =  2 .
  
x3 −1

Bemerkung 10.10 1. In S.10.7 hatten wir vorausgesetzt, dass A vollen Rang hat, also
invertierbar ist. Was passiert, wenn die (quadratische) Matrix A nicht invertierbar ist?
Dann wird das Gauß’sche Verfahren in einem der Iterationsschritte zusammenbrechen,
und zwar an dem Punkt, an dem eine Zeile mit einem nichtverschwindenen Eintrag
“eingewechselt” werden muß oder spätestens damit, dass rnn = 0 ist. Also: wenn das
Verfahren bis zum letzten Schritt funktioniert, muß A notwendig vollen Rang gehabt
haben.
2. Eine Erweiterung der Gauß-Algorithmus führt auch auf ein Verfahren zur Berechnug
von A−1 :
10 DER GAUSS’SCHE ALGORITHMUS 66

Wir betrachten die Matrix (A|En ) ∈ K n×(2n) . Führt man die Schritte des Gauß-
Algorithmus wie im Beweis zu S. 10.7 beschrieben mit (A|En ) statt (A|b) aus (also
mit “rechter Seite” En ), so wird (A|En ) übergeführt in eine Matrix (R|C) ∈ K n×(2n)
mit oberer Dreiecksmatrix R = (rjk ) und rjj 6= 0 für j = 1, . . . , n. Durch weitere
elementare Zeilenoperationen der Form Zj + λZk und λZj kann (R|C) übergeführt
werden in (En |B). Dabei gilt dann B = A−1 . (Denn: Ist b(k) die k-te Spalte von B,
und ist e(k) der k-te Einheitsvektor in K n so gilt nach Konstruktion Ax = e(k) genau
dann, wenn x = En x = b(k) , d. h. Ab(k) = e(k) für k = 1, . . . , n bzw. AB = En ist).
Dies zeigt auch, das jede invertierbare Matrix A ein Produkt aus Elementarmatrizen
ist. (Denn es ist En = Z · A, wobei Z ein Produkt aus Elementarmatrizen ist. Also ist
nach S.10.5 auch A = Z −1 Produkt aus Elementarmatrizen.)

Bemerkung 10.11 Wir betrachten die Iterationsschritte des Gauß’schen Algorith-


mus noch einmal etwas näher. Dabei untersuchen wir anstelle der erweiterten Matrix
(A|b) nur die (n × n)-Matrix A. Zunächst sei A so, dass im Gauß’schen Verfahren keine
Zeilenvertauschungen vorgenommen werden müssen. Dann lässt sich der erste Schritt
folgendermaßen formalisieren

A1 = L1 A(= L1 A0 )

wobei A1 wie im Beweis zu S.10.7 und


 
1 0 ... ... 0
 
 −`21 1 0 0 
 
 . . . ..
. 0 .. ..

L1 =   . .

 . .. . .
 ..

 . . 1 0 

−`n1 0 0 1
n
X
= F (n,1) (−`n1 ) · · · F (2,1) (−`21 ) = E + (−`j1 ) · E (j,1)
j=2

mit
(0)
aj1 aj1
`j1 = = (0) (j = 2, . . . , n) .
a11 a11

Allgemeiner gilt für m = 1, . . . , n − 1

Am = Lm Am−1
10 DER GAUSS’SCHE ALGORITHMUS 67

wobei Am−1 , Am wie im Beweis zu S.10.7 und


 
1 0 ... ... ... ... ... 0
 .. 
 0 1 . 
 
 .
.. ..

 .
 . . .


 ..
 

 . 0 1 
Lm =   .. .. .. 

 .
 . −`m+1,m 1 . 
 .. .. .. .. .. 
 .
 . . 0 . . 

 . .. .. ..
 ..

 . . . 0  
0 ... 0 −`n,m 0 ... 1
n
X
(n,m) (m+1,m)
= F (−`n,m ) · · · F (−`m+1,n ) = E + (−`jm )E (j,m)
j=m+1

mit
(m−1)
ajm
`jm = (m−1)
(j = m + 1, · · · , n) .
amm
(Matrizen dieser Form heißen Frobenius-Matrizen. Wir setzen zur Abkürzung
n
X
n×n
Ln,m := {L ∈ K :L=E+ λj E (j,m) , λj ∈ K für j = m + 1, . . . , n} .)
j=m+1

Also ergibt sich insgesamt

Ln−1 Ln−2 · · · L2 L1 A = An−1 = R .

Weiter sieht man mit S.10.5: Die Matrix Lm ist invertierbar mit
 
1 0 ... ... ... ... ... 0
 .. 
 0 1 . 
 
 .
 . .. ..

 . . .


 ..
 

−1
 . 0 1 
Lm =   .. .. .. 

 . . `m+1,m 1 . 
 
 .. .. .. .. .. 
 .
 . . 0 . . 

 . .. .. ..
 ..

 . . . 0  
0 ... 0 `n,m 0 ... 1
n
X
(m+1,m) (n,m)
= F (`m+1,m ) · · · F (`n,m ) = E + `jm E (j,m)
j=m+1
10 DER GAUSS’SCHE ALGORITHMUS 68

Damit folgt

A = L−1 −1 −1
1 · L2 · · · Ln−1 · R ,

d. h. mit der unteren Dreiecksmatrix


 
1 0 ... ... 0
.. .. 
 
.

 `21 1 . 
..
 
L := L−1 −1 .. ..
1 · · · Ln−1 =

. .

 . `32 

 .. .. .. .. 
 . . . . 0 
 
`n1 `n2 · · · `n,n−1 1

ist

A = LR .

Eine solche Zerlegung von A hat den Vorteil, dass die Lösung eines LGS Ax = b für
b ∈ Rn durch Lösen der beiden Gleichungssysteme

Ly = b

und

Rx = y

berechnet werden kann. Hierbei haben beide Koeffizientenmatrizen Dreiecksgestalt,


d. h. die Gleichungssysteme können rekursiv (vgl. B. 10.8) gelöst werden. Dies ist
insbesondere dann von Vorteil, wenn Ax = b für verschiedene rechte Seiten b gelöst
werden muss.
Man kann zeigen ([Ü]), dass eine solche Zerlegung für invertierbare Matrizen stets
eindeutig ist, d. h. ist

Ln := {L = (`jk ) ∈ K n×n : `jk = 0 für j < k, `jj = 1 für j = 1, . . . , n} ,

so existieren höchstens ein L ∈ Ln sowie eine obere Dreiecksmatrix R = (rjk ) mit


rjj 6= 0 (j = 1, . . . , n) und A = LR. Man nennt diese Zerlegung dann LR-Zerlegung
von A.

Ist A so, dass im Gauß’schen Algorithmus Zeilen vertauscht werden müssen, so sieht
man wie oben: Es existieren Frobenius-Matrizen L1 , . . . , Ln−1 und Vertauschungsma-
trizen

P (1,k1 ) , . . . , P (n−1,kn−1 )
10 DER GAUSS’SCHE ALGORITHMUS 69

mit km ≥ m (wobei P (m,km ) = E, falls im m-ten Schritt keine Vertauschung vorge-


nommen wurde) und so, dass

Ln−1 P (n−1,kn−1 ) Ln−2 P (n−2,kn−2 ) · . . . · L1 P (1,k1 ) · A = R .

Man kann zeigen ([Ü]), dass für jede Frobenius Matrix F ∈ Ln,m und j, k > m eine
Frobenius-Matrix F 0 ∈ Ln,m existiert mit

P (j,k) F = F 0 P (j,k) .

Also folgt, dass mit gewissen Frobenius-Matrizen L̃m ∈ Ln,m (m = 1, . . . , n − 1) gilt

L̃n−1 · . . . · L̃1 P (n−1,kn−1 ) · . . . · P (1,k1 ) A = R .

Mit P := P (n−1,kn−1 ) · · · P (1,k1 ) und L := (L̃n−1 · · · L̃1 )−1 = L̃−1 −1


1 · · · L̃n−1 gilt dann

P A = LR .

Hierbei ist P (eine sog. Permutationsmatrix) invertierbar, und L ∈ Ln wieder eine


untere Dreiecksmatrix. Ähnlich wie oben kann die Lösung von Ax = b für beliebiges
b ∈ K n durch Lösen der Systeme

Ly = P b

und

Rx = y

berechnet werden.

Der folgende Satz liefert eine Charakterisierung der Matrizen, für die die LR-Zerlegung
existiert.

Satz 10.12 Es sei A = (ajk ) ∈ GLn (K). Genau dann existiert die LR-Zerlegung von
A, wenn die Matrizen

A(r) := (ajk )j,k=1,... ,r ∈ K r×r

für r = 1, . . . , n invertierbar sind.


10 DER GAUSS’SCHE ALGORITHMUS 70

Beweis.
“⇒”: Ist A = LR die LR-Zerlegung, so schreiben wir diese in Blockform (die Bedeu-
tung der Blöcke ergibt sich aus A(r) ∈ K r×r )
(r)
! ! !
A(r) B (r) L(r) 0 R(r) R12
= (r) (r) (r)
=
C (r) D(r) L21 L22 0 R22
(r)
!
L(r) R(r) L(r) R12
= (r) (r) (r) (r) (r)
.
L21 R(r) L21 R12 + L22 R22

Es folgt A(r) = L(r) R(r) . Da L(r) und R(r) invertierbar sind, ist auch A(r) invertierbar.
“⇐”: (Induktion nach n)
Der Fall n = 1 ist klar. Es sei A ∈ K (n+1)×(n+1) so, dass A(r) invertierbar ist für
r = 1, . . . , n + 1. Dann gilt nach Induktionsvoraussetzung
! !
A(n) b L(n) R(n) b
A= =
aT α aT α
(n)
mit gewissen a, b ∈ K n , α ∈ K und einer oberen Dreiecksmatrix R(n) mit rjj 6= 0
sowie einer Matrix L(n) ∈ Ln . Also folgt
! !
(L(n) )−1 0 R(n) b0
A=
0T 1 aT α

mit b0 = (L(n) )−1 b und (L(n) )−1 ∈ Ln (man beachte: Ln ist eine Gruppe ([Ü])). Durch
elementare Zeilenoperationen der Form Zj + λZk lässt sich die Matrix auf der rechten
Seite in eine obere Dreiecksmatrix R mit rjj 6= 0 überführen. Also existiert nach
B.10.11 eine Matrix L̃ ∈ Ln+1 mit
!
(L(n) )−1 0
L̃ A=R.
0T 1
Da Ln+1 eine Gruppe ist, gilt für die untere Dreiecksmatrix
!
L(n) 0
L := L̃−1 ∈ Ln+1
0T 1
die Zerlegung A = LR. 2

Bisher haben wir uns lediglich mit einer Lösungsmethode für lineare Gleichungssyste-
me mit invertierbarer Koeffizientenmatrix A beschäftigt. Wir werden jetzt auf Glei-
chungssysteme mit beliebiger Matrix A eingehen.

Definition 10.13 Es sei B = (bjk ) ∈ K m×n , und es sei r ∈ {1, . . . , min(n, m)}.
Man sagt, die Matrix B hat Zeilenstufenform (mit r Stufen), wenn es Spaltenindizes
k1 , . . . , kr ∈ {1, . . . , n} mit folgenden Eigenschaften gibt:
10 DER GAUSS’SCHE ALGORITHMUS 71

a) kj ≤ kj+1 für j = 1, . . . , r − 1

b) bj,kj 6= 0 für j = 1, . . . , r

c) bjk = 0 für j = r + 1, . . . , m; k = 1, . . . , n und für j = 1, . . . , r; k < kj

d. h. B hat die Form


 
0 ... 0 b1,k1 ...
 
 0 ... ... ... 0 b 2 , k2 
 
 0 ... ... ... ... 0
 

 ..
 
..
.

 . 
B=  .
 0 ... ... ... ... ... 0 br,kr ...
 

 
 0 ... ... ... ... ... ... ... ... 0 
 
 . .. 
 .. . 
 
0 ... ... ... ... ... ... ... ... 0

Satz 10.14 Ist B = (bjk ) ∈ K m×n eine Matrix in Zeilenstufenform mit r Stufen, so
ist Rg(B) = r.

Beweis..
Sind B1 . . . , Br die ersten r Zeilen von B, so gilt

Rg(B) = Zrg(B) = dim < B1 . . . , Br >≤ r .

Wir zeigen B1 . . . , Br sind linear unabhängig (dann ist Rg(B) = Zrg(B) = r). Dazu
seien λ1 , . . . , λr ∈ K so, dass
r
X
λν Bν = 0T ,
ν=1

d. h.
r
X
λν bνk = 0 für k = 1, . . . , n .
ν=1

Insbesondere gilt
r
X
λν bν,kj = 0 für j = 1, . . . , r .
ν=1

Für j = 1 ergibt sich (da bν,k1 = 0 für ν > 1)


r
X
0= λν bν,k1 = λ1 bν,k1 ,
ν=1
10 DER GAUSS’SCHE ALGORITHMUS 72

also λ1 = 0. Hieraus folgt für j = 2


r
X
0= λν bν,k2 = λ2 bν,k2 ,
ν=2

also λ2 = 0. So fortfahrend ergibt sich λ1 = λ2 = . . . = λr = 0, also sind B1 , . . . , Br


linear unabhängig. 2

Satz 10.15 Jede Matrix A ∈ K m×n , A 6= 0, lässt sich durch elementare Zeilenumfor-
mungen in eine Matrix B ∈ K m×n transformieren, die Zeilenstufenform (mit Rg(A)
Stufen) hat.

Beweis.
Da A 6= 0 ist, existiert ein kleinster Spaltenindex k1 mit a(k1 ) 6= 0. Ist etwa ajk1 6= 0, so
vertauschen wir die erste mit der j-ten Zeile (diesen Eintrag nennen wir b1k1 ). Durch
Umformungen der Form Zj + λZ1 können wir dann A transformieren in die Form
 
0 · · · 0 b1,k1 · · ·
 . .. 
 .
 . . 0


 .. .. ..
 

 . . . 

 .. .. ..


 . . . A 1 
 
 .. .. .. 
 . . . 
 
0 ... 0 0

Ist A1 ∈ K (m−1)×(n−k1 ) die Nullmatrix, so sind wir fertig. Ist A1 6= 0, so wird die
gleiche Prozedur auf A1 angewandt. Nach endlich vielen Schritten landet man bei
einer Matrix B in Zeilenstufenform. 2

Folgerung 10.16 Ist A ∈ K m×n , A 6= 0 und ist b ∈ K m , so lässt sich (A|b) durch
elementare Zeilenumformungen in eine Matrix (A0 |b0 ) transformieren, die Zeilenstufen-
form hat. Die LGS’e Ax = b und A0 x = b0 sind nach F. 10.6 äquivalent.
Ist
 
0 · · · 0 a01,k1 c1
 . .. 
 .
 . . 0 a02,k2 c2 

 .. .. .. 
 
 . . 0 . 
 . ..
 
(A0 |b0 ) =  .. 0

 . 0 a r,k r
. . . c r 

 .. .. 
 . . 0 cr+1

 
 . .. .. .. 
 .. . . . 
 
0 ··· 0 ··· ··· ··· ··· 0 cm
10 DER GAUSS’SCHE ALGORITHMUS 73

mit a0j,kj 6= 0 für j = 1, . . . , r, so ist A0 x = b0 (bzw. Ax = b) genau dann lösbar,


wenn cr+1 = . . . = cm = 0 gilt. (In diesem Fall ist Rg(A0 ) = Rg(A0 |b0 ) anderenfalls ist
Rg(A0 ) = r < Rg(A0 |b0 ))

Bemerkung 10.17 Wie kann man im Falle cr+1 = · · · = cm = 0 das System lösen?
Durch geeignetes Vertauschen von Spalten lässt sich (die um die letzten m − r, nur aus
Nullen bestehenden Zeilen “verkleinerte” Matrix) in die Form
 
a0011 · · · · · · · · · a001r · · · a001n c1
 0 a00 · · · a002r · · · a002n c2 
 
 22 
 . .. .. .. 
00
(A |c) =  .
 . 0 . . . 

 . .. .. .. .. .. .. 
 .. . . . . . . 
 
0 00
0 · · · 0 arr · · · arn cr 00

mit a00jj 6= 0 für j = 1, . . . , r bringen. Wir berechnen die Lösungen y von A00 y = c. Die
Lösungen x von A0 x = b0 (bzw. Ax = b) ergeben sich dann durch Rückvertauschen der
Variablen y1 , . . . , yn .
Nach S.9.4 haben wir eine spezielle Lösung y (0) der inhomogenen Gleichung und eine
Basis von Lös (A00 , 0) zu berechnen.

1. Berechnung einer speziellen Lösung y (0) von A00 y = c


Mit y (0) = (y1 , . . . , yn )T setzen wir yr+1 = · · · = yn = 0. Dann kann man die y1 , . . . , yr
“von hinten nach vorne” wie in B.10.8 berechnen (mit
 
a0011 · · · a001r
 0 ...
 .. 
. 
R= .
 
 .. . .. .
.. 

 
0 · · · 0 arr 00

und rechter Seite c = (c1 , . . . , cr )T ).


2. Berechnung einer Basis von Lös (A00 , 0):
O. E. können wir n > r annehmen (sonst ist Lös(A00 , 0) = {0}). Wir setzen A00 = (R|S)
mit
   
a0011 · · · a001r a001,r+1 · · · a001n
 .. ..   .. .. 
R=  . .  und S=  . .   .
0 a00rr a00r,r+1 · · · a00rn

Schreiben wir y = (y1 , . . . , yn )T ∈ K n als (u, v)T mit u = (y1 , . . . , yr )T und v =


(yr+1 , . . . , yn )T , so ist

Lös (A00 , 0) = {y : A00 y = 0} = {(u, v) ∈ K r × K n−r : Ru = −Sv}


10 DER GAUSS’SCHE ALGORITHMUS 74

(denn: A00 y − A00 uv = Ru + Sv). Für v = e(k) (= k-ter Einheitsvektor in K n−r )




berechnen wir die Lösung u(k) von


 
a001,k+r
..
Ru = −Sv = −Se(k) = − 
 
 . 
 (k = 1, . . . , n − r)
a00r,k+r

nach dem Verfahren aus B.10.8. Dann ist y (1) , . . . , y (n−r) mit
 (k) 
u
y (k) := (k = 1, . . . , n − r)
e(k)
eine Basis von Lös (A00 , 0) (denn y (1) , . . . , y (n−1) sind linear unabhängig nach Kon-
struktion und dim(A00 , 0) = n − r).

Beispiel 10.18 Wir betrachten das LGS


 
  x1  
1 −2 2 −1   4
 x2  
  
Ax =  2 −4 −5 1    =  −1  = b .
x3 
   
−1 2 1 0   −1
x4

Dann ist
 
1 −2 2 −1 4
 
(A|b) = 
 2 −4 −5 1 −1 

−1 2 1 0 −1
 
Z2 −2Z1
1 −2 2 −1 4
 
Z3 +Z1  0 0 −9 3 −9 
−→  
0 0 3 −1 3
 
Z3 + 31 Z2
1 −2 2 −1 4
0 0
 
0 0 −9 3 −9  = (A |b ) .

−→ 
0 0 0 0 0

Vertauschen der 4. und 2. Spalte (und Weglassen der letzten Zeile) ergibt
!
1 −1 2 −2 4
(A00 |c) = = (R|S|c)
0 3 −9 0 −9

also die gewünschte Form.


Eine spezielle Lösung y (0) der inhomogenen Gleichung ergibt sich mit y3 = y4 = 0 aus
! ! ! !
y1 1 −1 y1 4
R = = ,
y2 0 3 y2 −9
10 DER GAUSS’SCHE ALGORITHMUS 75

also

y2 = −3, y1 = 1 ,

und damit
 
1
 
 −3 
y (0) =  .
 
 0 
 
0

Eine Basis (y (1) , y (2) ) von Lös (A00 , 0) erhält man aus
! ! !
1 −1 y1 −2
Ru = = = −Se(1)
0 3 y2 9

und
! ! !
1 −1 y1 2
Ru = = = −Se(2) .
0 3 y2 0

Man berechnet
   
1 2
   
 3   0 
(1) (2)
y =  und y =  .
   
 1   0 
   
0 1

Also ist
      


 1 1 2 


      
 −3 
  3   0 


00 (0) 00
Lös (A , c) = y + Lös (A , 0) =  + λ + µ  , λ, µ ∈ R .
     
   




 0 
 
 1 
 
 0 





 

 0 0 1 

Durch Rückvertauschen der Variablen erhält man


      


 1 1 2 



      

 0   0   1  
Lös (A, b) = Lös (A0 , b0 ) =   + λ + µ   , λ, µ ∈ R .
     

 0 

   1   0  


     

 −3

3 0


11 DETERMINANTEN 76

11 Determinanten
Bevor wir zu einem weiteren zentralen Begriff der Linearen Algebra, nämlich der De-
terminante einer Matrix, kommen, befassen wir uns vorbereitend noch einmal etwas
genauer mit der Symmetrischen Gruppe Sn , d. h. der Menge aller bijektiven Abbil-
dungen auf {1, . . . , n} mit der Hintereinanderausführung als Verknüpfung (siehe B.
2.3).

Definition 11.1 Es sei n ≥ 2. Ein σ ∈ Sn heißt Transposition (der Elemente j


und k aus {1, . . . , n}), falls j 6= k und σ(j) = k sowie σ(m) = m für alle m ∈
{1, . . . , n} \ {j, k}. Wir schreiben dann σ =: [j, k]. Es gilt dabei [j, k] = [k, j] und
[j, k]−1 = [j, k].

Satz 11.2 Es sein n ∈ N. Dann gilt

1. |Sn | = n! .

2. Für n ≥ 2 ist jedes σ ∈ Sn darstellbar als Produkt (bzgl. ◦) aus höchstens n


Transpositionen.

Beweis.
1. Induktionsanfang n = 1: Es ist |S1 | = |{id{1} }| = 1.
2. Induktionsschritt n → n + 1: Es gilt
n+1
[
Sn+1 = Aj ,
j=1

wobei Aj := {σ ∈ Sn+1 : σ(j) = n + 1} und die Zerlegung disjunktiv ist. Jedem σ ∈ Aj


entspricht in eineindeutiger Weise ein τ ∈ Sn (nämlich τ mit τ (k) := σ(k) für k < j
und τ (k) := σ(k + 1) für k ≥ j). Nach Induktionsvoraussetzung ist also

|Aj | = |Sn | = n! (j = 1, . . . , n + 1)

und damit
n+1
X
|Sn+1 | = |Aj | = (n + 1)! .
j=1

2. Ist σ = id, so gilt σ = [1, 2]◦[1, 2]. Ist σ 6= id, so existiert ein kleinstes j1 ∈ {1, . . . , n}
mit σ(j1 ) = k1 6= j1 . Für σ1 := [j1 , k1 ] ◦ σ folgt dann σ1 (j) = j für j ≤ j1 . Im Falle
σ1 = id gilt σ = [j1 , k1 ] und wir sind fertig. Ist σ1 6= id, so existiert ein kleinstes j2 ∈
{1, . . . , n} mit k2 = σ1 (j2 ) 6= j2 (dabei ist j2 > j1 ). Wir betrachten σ2 := [j2 , k2 ] ◦ σ1 .
11 DETERMINANTEN 77

Dann ist σ2 (j) = j für j ≤ j2 . So fortfahrend gelangen wir nach m ≤ n − 1 Schritten


zu einer Darstellung

σm = [jm , km ] ◦ . . . ◦ [j1 , k2 ] ◦ σ = id .

Da [j, k]−1 = [j, k] gilt, ist

σ = [j1 , k1 ] ◦ . . . ◦ [jm , km ] .

Beispiel 11.3 Es sei


!
1 2 3 4 5
σ= .
4 3 1 5 2

Dann gilt
!
1 2 3 4 5
σ1 = [1, 4] ◦ σ =
1 3 4 5 2
!
1 2 3 4 5
σ2 = [2, 3] ◦ σ1 =
1 2 4 5 3
!
1 2 3 4 5
σ3 = [3, 4] ◦ σ2 =
1 2 3 5 4
!
1 2 3 4 5
σ4 = [4, 5] ◦ σ3 = = id
1 2 3 4 5

d. h.

id = σ4 = [4, 5] ◦ [3, 4] ◦ [2, 3] ◦ [1, 4] ◦ σ

also

σ = [1, 4] ◦ [2, 3] ◦ [3, 4] ◦ [4, 5] .

Definition 11.4 Es sei σ ∈ Sn .


1. Jedes Paar (j, k) ∈ {1, . . . , n}2 mit j < k und σ(j) > σ(k) heißt Inversion (oder
Verstellung) von σ.
2. Ist I(σ) die Anzahl der Inversionen von σ, so heißt σ gerade (bzw. ungerade) falls
I(σ) gerade (bzw. ungerade), ist. Die Zahl

sign(σ) := (−1)I(σ)

heißt Signum (oder Vorzeichen) von σ.


11 DETERMINANTEN 78

Bemerkung 11.5 1. Für jedes σ ∈ Sn gilt


Y σ(k) − σ(j)
sign(σ) =
k−j
1≤j<k≤n

(Denn: Es ist
Y Y Y
(σ(k) − σ(j)) = (σ(k) − σ(j)) · (σ(k) − σ(j))
j<k j<k j<k
σ(j)<σ(k) σ(j)>σ(k)

Y Y
= (σ(k) − σ(j)) · |σ(k) − σ(j)| · (−1)I(σ)
j<k j<k
σ(j)<σ(k) σ(j)>σ(k)

Y Y
= (−1)I(σ) |σ(k) − σ(j)| = (−1)I(σ) (k − j) ,
j<k j<k

wobei bei der letzten Gleichheit zu beachten ist, dass aufgrund der Bijektivität von σ
beide Produkte die gleichen Faktoren enthalten).

2. Ist σ = [j, k] eine Transposition, so ist σ ungerade, d. h.

sign(σ) = −1

(Denn: o. E. sei j < k. Dann hat σ genau die Inversionen

(j, j + 1), . . . , (j, k) und (j + 1, k), . . . , (k − 1, k) ,

d. h. I(σ) = 2(k − j) − 1 ist ungerade).

Von zentraler Bedeutung ist nun

Satz 11.6 1. Es seien σ, τ ∈ Sn . Dann gilt

sign(σ ◦ τ ) = sign(σ) · sign(τ ) .

2. Ist σ ∈ Sn Produkt aus m Transposition, so ist sign(σ) = (−1)m .


11 DETERMINANTEN 79

Beweis.
σ(τ (k)) − σ(τ (j))
1. Mit βkj := für j 6= k gilt nach B.11.5.1
τ (k) − τ (j)
Y σ(τ (k)) − σ(τ (j))
sign(σ ◦ τ ) = =
k−j
j<k
Y σ(τ (k)) − σ(τ (j)) Y τ (k) − τ (j)
=
τ (k) − τ (j) k−j
j<k j<k
Y Y
= sign(τ ) βkj · βkj
j<k j<k
τ (j)<τ (k) τ (j)>τ (k)

βjk =βkj Y Y
= sign(τ ) βkj βkj
j<k j>k
τ (j)<τ (k) τ (j)<τ (k)

Y σ(τ (k)) − σ(τ (j))


= sign(τ ) ·
τ (k) − τ (j)
τ (j)<τ (k)
Y σ(k) − σ(j)
= sign(τ ) · = sign(τ ) · sign(σ) .
k−j
j<k

wobei die vorletzte Gleichheit aus der Bijektivität von τ folgt.


2. Folgt auch 1. und B.11.5.2. 2

Definition 11.7 Es sei K ein Körper. Eine Abbildung d : K n×n → K heißt Determi-
natnenabbildung, falls folgende Bedingungen gelten:
 
A1
 .  n×n und
a) d ist linear in jeder Zeile, d. h. sind j ∈ {1, . . . , n}, A =  . 
 . ∈K
A1
n
b ∈ K , λ, µ ∈ K, so gilt
   
A1 A1
 ..   . 
 .. 

 . 
  
   
T
d  λAj + µb  = λ · d(A) + µ · d  b  T
 ,
  

 .
..


 . 
 .. 
   
An An

b) d(A) = 0, falls zwei Zeilen von A übereinstimmen,

d) d(E) = 1.
11 DETERMINANTEN 80

Bemerkung 11.8 Ist d eine Determinantenabbildung, so gilt für



A1
 .  n×n
. 
 . ∈K
A=
An

und λ ∈ K sowie j 6= k
 
A1
 .. 

 . 
  
(j,k)
 
d
 Aj + λAk 
 = d F (λ) · A = d(A)
 .. 

 . 

An

(d. h. Addition eines Vielfachen einer Zeile zu einer anderen Zeile ändert d nicht) und

d(P (j,k) · A) = −d(A)

(d. h. Vertauschen zweier Zeilen bewirkt Vertauschung des Vorzeichens).

(Denn: o. E. sei j < k. Dann gilt


   
A1 A1
 ..   . 
 . 
.  . 
 
 
   
 A + λA   A 
 j k   k 
 .
..  = d(A) + λd  ...  = d(A)
  
d   
   

 Ak 

 Ak 
 
 ..   . 
 .. 

 . 
  
An An
11 DETERMINANTEN 81

und
     
A1 A1 A1
 ..
   .. .. 
. . .
     
     
     
 A +A   Aj   Ak 
 j k     
 .
..
  .
..
  .. 
0 = d

 = d
 
 + d
  . 

     
 Ak + Aj   Ak + Aj   Ak + Aj 
     
 ..   ..   .. 

 . 


 . 


 . 

An An An
 
A1
 . 
 . 
 . 
 
 A 
 k 
 .  (j,k)
= d(A) + d  . 
 .  = d(A) + d(P A) .)
 
 Aj 
 
 . 
 .. 
 
An

Der folgende Satz ist grundlegend für die Theorie der Determinanten.

Satz 11.9 Es seien K ein Körper und n ∈ N. Dann existiert genau eine Determina-
tenabbildung det : K n×n → K, und es gilt für A = (ajk ) ∈ K n×n :

X
det A = sign(σ)a1,σ(1) · · · an,σ(n) (2)
σ∈Sn

Beweis.
1. Existenz: Es sei d : K n×n → K definiert durch
X
d(A) := sign(σ) · a1,σ(1) · · · an,σ(n) (A = (ajk ) ∈ K n×n ) .
σ∈Sn

Wir zeigen, dass d die Bedingungen aud D.11.7 erfüllt:


Es seinen A, b = (b1 , . . . , bn )T , λ, µ wie D.11.7 a). Dann gilt
X
sign(σ)a1,σ(1) · · · aj−1,σ(j−1) (λaj,σ(j) + µbσ(j) )aj+1,σ(j+1) · · · an,σ(n)
σ∈Sn
X
= λ sign(σ) · a1,σ(1) · · · aj,σ(j) · · · an,σ(n) +
σ∈Sn
X
+ µ sign(σ) · a1,σ(1) · · · bσ(j) · · · an,σ(n) .
σ∈Sn
11 DETERMINANTEN 82

Dies ist nichts anderes als die Bedingung D.11.7 a) für d.


 
A1
 .  n×n mit A = A für ein Paar (j, k) mit j < k. Es gilt
. 
Es sei nun A =   . ∈K j k

An
mit τ := [j, k] nach S.11.6 und B.11.5.2 sign(σ ◦ τ ) = −sign(σ) für alle σ ∈ Sn also
X
d(A) = sign(σ)a1,σ(1) · · · an,σ(n) =
σ∈Sn
X
sign(σ)a1,σ(1) · · · aj,σ(j) · · · ak,σ(k) · · · an,σ(n) +
σ∈Sn
σ gerade
X
−sign(σ)a1,σ(τ (1)) · · · aj,σ(τ (j)) · · · ak,σ(τ (k)) · · · an,σ(τ (n)) .
σ∈Sn
σ gerade

(Man beachte: Durch σ 7→ σ ◦ τ ist eine bijektive Abbildung zwischen {σ ∈ Sn :


σ gerade} und {σ ∈ Sn : σ ungerade} gegeben.) Weiter gilt

aj,σ(τ (j)) = aj,σ(k) = ak,σ(k) und ak,σ(τ (k)) = ak,σ(j) = aj,σ(j)

sowie am,σ(τ (m)) = am,σ(m) für m 6= j, k. Also ist der erste Summand das Negative des
zweiten, d. h. d(A) = 0.
Ist A = E = (δjk ) so ist von der Summe
X
d(E) = sign(σ)δ1,σ(1) · · · δn,σ(n)
σ∈Sn

nur der Summand für σ = id nicht 0 und dieser hat den Wert 1, also d(E) = 1.
2. Eindeutigkeit: Es seien d1 und d2 Determinantenabbildungen, und es sei A ∈ K n×n ,
wobei o. E. A 6= 0. Wir zeigen: d1 (A) = d2 (A). Dazu sei B eine gemäß S.10.15 aus A
durch elementare Zeilenumformungen (der Form Zj ↔ Zk und Zj + λZk ) entstandene
Matrix in Zeilenstufenform. Nach B. 11.8 gilt

di (B) = (−1)m di (A) (i = 1, 2)

wobei m die Anzahl der Zielenvertauschungen beim Übergang von A nach B bezeich-
net. Also genügt es, zu zeigen:

d1 (B) = d2 (B) .
 
B1
 . 
Es sei B =  . 
 .  = (bjk ) .
Bn
1. Fall: Rg(B) < n. Dann ist Bn = 0. Durch Addition von B1 zu Bn = 0 entsteht eine
Matrix B (1) mit deti (B (1) ) = deti (B) (i = 1, 2) und mit zwei gleichen Zeilen. Also ist

d1 (B) = d2 (B) = 0 .
11 DETERMINANTEN 83

2. Fall: Rg(B) = n. Dann ist bjj 6= 0 für j = 1, . . . , n. Für


 
B1 /b11
..  =: (b(1) )
B (1)
 
:= 
 .  jk

Bn /bnn

(1)
gilt dann bjj = 1 (1 ≤ j ≤ n) und nach D.11.7 a)
n
Y
di (B (1) ) = di (B)/ bjj (i = 1, 2) .
j=1

(1)
Durch weitere elementare Zeilenumformungen der Form Zj +λZk (Addition des (−bjn )-
fachen der letzten Zeile zur j-ten Zeile für j = 1, . . . , n − 1 u. s. w.; vgl. B.10.10) lässt
sich B (1) in die Einheitsmatrix E transformieren. Nach B.11.8 gilt dann di (B (1) ) =
di (E) = 1. Also gilt insgesamt
n
Y n
Y
di (B) = bjj · di (B (1) ) = bjj (i = 1, 2) ,
j=1 j=1

also insbesondere d1 (B) = d2 (B). 2

Beispiel 11.10 Für n = 2 gilt S2 = {id, σ}, wobei σ = [2, 1], also
!
a11 a12
det A = det =
a21 a22
= sign(id)a1,id(1) a2,id(1) + sign(σ)a1,σ(1) a2,σ(2)
= a11 a22 − a12 a21 .

Weiter überlegt man sich leicht, dass für n = 3 gilt


 
a11 a12 a13
 
det(A) = det   a 21 a22 a 23


a31 a32 a33
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32
− a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .

Bemerkung 11.11 1. Aus der Formel (2) ergibt sich insbesondere

det(A) = det(AT )

für alle A ∈ K n×n .


11 DETERMINANTEN 84

(Denn: Ist AT = (bjk ) = (akj ), so gilt, da sign(σ) = sign(σ −1 ) nach S.11.6,


X
det A = sign(σ)a1,σ(1) · · · an,σ(n)
σ∈Sn
X
= sign(σ −1 )aσ−1 (σ(1)),σ(1) · · · aσ−1 (σ(n)),σ(n)
σ∈Sn
X
= sign(τ )aτ (1),1 · · · aτ (n),n
τ ∈Sn
X
= sign(τ )b1,τ (1) · · · bn,τ (n) = det AT .)
τ ∈Sn

2. Aus dem Beweis zu S. 11.9 ergibt sich auch folgende Charakterisierung der Inver-
tierbarkeit einer Matrix: Ist A ∈ K n×n , so gilt

A invertierbar ⇔ det(A) 6= 0

(Denn: Ist B wie im Beweisteil 2. zu S.11.9 so gilt Rg(A) = Rg(B) und nach dem
Beweisteil 2. damit
n

 (−1)m
Q
 bjj 6= 0, falls Rg(A) = n
det A = (−1)m det B = j=1 .)

 0 falls Rg(A) < n

Eine zentrale Eigenschaft der Determinantenabbildung liefert

Satz 11.12 Es seien A, B ∈ K n×n . Dann gilt

det(AB) = det(A) det(B) .

Beweis.
1. Fall: Rg(B) < n. Dann ist Rg(AB) < n nach S. 8.18, also

det(A) det(B) = 0 = det(AB)

nach B. 11.11.2.
2. Fall: Rg(B) = n. Dann ist det(B) 6= 0 nach B. 11.11.2 .
Wir betrachten d : K n×n → K mit
det(AB)
d(A) := (A ∈ K n×n ) .
det B
Wir zeigen: d ist eine Determinantenabbildung, also d = det nach S. 11.9. Dies ist die
Behauptung.
11 DETERMINANTEN 85

 
A1
 .  n
. 
 .  und b ∈ K , λ, µ ∈ K. Dann gilt
Es sei A = (ajk ) = 
An
    
A1 A1
 ..   ..  

 . 


 .  
 

T
 1 
T
 
d
 λAj + µb
  = det  λAj + µb 

 B =

 det B
 ..   ..  

 . 


 .  
 
An An
 
A1 B
 .. 

 . 

1  
 λAj B + µbT B  =
= det 
det B  

 .
..


 
An B
    
A1 B A1 B
  .   . 
  ..   .. 
    
1    
 T

= · λ det  Aj B  + µ det 
   
 b B

det B   .   .

 ..   ..

 
    
An B An B
 
A1
 . 
 .. 
 
 
= λd(A) + µd  b  T
 ,
  
 . 
 .. 
 
An

also ist a) aus D. 11.7 erfüllt. Gilt Aj = Ak für j < k, so ist Aj B = Ak B, d. h. zwei
Zeilen von AB stimmen überein. Also ist
1
d(A) = · det(AB) = 0 .
det B
Ist schließlich A = E, so ist AB = B, also d(E) = 1. 2

Wir ergänzen diesen Abschnitt durch eine zumindest theoretisch nützliche Formel für
die Berechnung von Determinanten.
11 DETERMINANTEN 86

Definition 11.13 Es seien A = (ajk ) ∈ K n×n , wobei n > 1, und j, k ∈ {1, . . . , n}.
Die Matrix Sjk (A) ∈ K (n−1)×(n−1) , die aus A durch Streichen der j-ten Zeile und der
k-ten Spalte entsteht heißt Streichungsmatrix (bzgl. (j, k)) von A.
(Ist etwa
 
1 2 3
 
A=  4 5 6  ,

7 8 9

so ist
!
1 2
S23 (A) = .)
7 8

Satz 11.14 (Laplace’scher Entwicklungssatz) Es sei A = (ajk ) ∈ K n×n . Dann


gilt für k = 1, . . . , n
n
X
det A = ajk (−1)j+k det(Sjk (A)) (3)
j=1

(“Entwicklung nach der k-ten Spalte”) und für j = 1, . . . , n


n
X
det A = ajk (−1)j+k det(Sjk (A)) (4)
k=1

(“Entwicklung nach der j-ten Zeile”).

Beweis.
Wir zeigen (4). Die Formel (3) ergibt sich damit aus det(A) = det(AT ).
Es sei Ajk ∈ K n×n die Matrix, die aus A durch Ersetzen der j-ten Zeile Aj durch eTk
und Ersetzen der k-ten Spalte a(k) durch ej entsteht, d. h.
 
a11 . . . 0 . . . a1n
 . .. .. 
 .. . . 
 
 
Ajk =  0 . . . 1 . . . 0  ←j

 . . .
 .. .. .. 

 
an1 0 amn

k
Behauptung: Es gilt
n
X
ajk det Ajk = det A .
k=1
11 DETERMINANTEN 87

(Denn: Ist A0jk ∈ K n×n die Matrix, in der die j-te Zeile Aj durch eTk ersetzt ist, so
läßt sich Ajk aus A0jk durch Zeilenoperationen vom Typ (Zν + λZµ ) gewinnen (man
addiere zur i-ten Zeile von A0jk das (−aik )-fache der j-ten Zeile von A0jk (i 6= j)). Also
n
gilt nach B.11.8 det Ajk = det A0jk . Schreibt man Aj = ajk eTk , so ergibt sich aus
P
k=1
D.11.7 a)
n
X n
X
det A = ajk det(A0jk ) = ajk det(Ajk ) .)
k=1 k=1

Durch (k − 1) Vertauschungen (falls k > 1) benachbarter Spalten erhalten wir aus


Ajk eine Matrix Bjk ∈ K n×n , in der die (m + 1)-te Spalte die m-te Spalte von Ajk
ist (m < k), und deren erste Spalte die k-te Spalte ej von Ajk ist. Also ist nach B.
11.8 (mit “Spalten” statt “Zeilen”; man beachte dabei: aus B.11.11.1 folgt, dass die
Eigenschaften aus D.11.7 und B.11.8 auch mit “Spalte” statt “Zeile” gelten)

det Ajk = (−1)k−1 det Bjk .

Entsprechend erhält man durch j − 1 (falls j > 1) Vertauschungen von Zeilen aus Bjk
eine Matrix Cjk mit det(Bjk ) = (−1)j−1 det(Cjk ), wobei Cjk von der Form
 
1 0 ... 0
 
 0 
Cjk =  .  =: (dµν )µ,ν=1,... ,n
 
 .. Sjk (A) 
 
0
ist. Hierfür gilt
X n
Y
det(Cjk ) = sign(σ)d1,σ(1) · dµ,σ(µ)
σ∈Sn µ=2
X n
Y
= sign(σ) · d11 · dµ,σ(µ)
σ∈Sn µ=2
σ(1)=1

X n−1
Y
= sign(τ ) · dµ+1,τ (µ)+1 = det(Sjk (A)) .
τ ∈Sn−1 µ=1

(Man beachte: Jedem σ ∈ Sn mit σ(1) = 1 entspricht genau ein τ ∈ Sn−1 , nämlich τ
mit τ (µ) := σ(µ + 1) − 1, und es gilt dabei sign(σ) = sign(τ ).)
Also gilt insgesamt
n
X n
X
det A = ajk det Ajk = ajk (−1)(j−1)+(k−1) det(Cjk )
k=1 k=1
Xn
= ajk (−1)j+k det(Sjk (A)) .
k=1
2
11 DETERMINANTEN 88

Beispiel 11.15 Es sei


 
1 2 3 2
 
 4 0 0 1 
A=  .
 
 3 1 2 0 
 
2 1 3 1

Dann gilt (Entwicklung nach der 2. Zeile):


4
X
det A = a2k (−1)2+k det(S2k (A)) =
k=1
   
2 3 2 1 2 3
   
= 4 · (−1) det 
 1 2 0  + 1 · det  3 1 2  =
  
1 3 1 2 1 3

= −4(4 + 6 − 4 − 3) + 1(3 + 8 + 9 − 6 − 2 − 18) = −18 .

Bemerkung 11.16 Determinanten können auch dazu verwandt werden, die Lösung
x = A−1 b eines LGS Ax = b mit invertierbarer Matrix A ∈ K n×n darzustellen: Sind
a(k) die Spalten von A, so gilt
1
xk = · det(a(1) , . . . , a(k−1) , b, a(k+1) , . . . , a(n) ) (k = 1, . . . , n) .
det(A)

(Denn: Für x = (x1 , . . . , xn )T gilt


n
X
xν a(ν) = b .
ν=1

Also folgt mit D.11.7 a) (und B.11.11.1)

det(a(1) , . . . , a(k−1) , b, a(k+1) , . . . , a(n) ) =


Xn
= det(a(1) , . . . , a(k−1) , xν a(ν) , a(k+1) , . . . , a(n) ) =
ν=1
n
X
= xν det(a(1) , . . . , a(k−1) , a(ν) , a(k+1) , . . . , a(n) ) = xk det(A) .)
ν=1

Darüber hinaus lässt sich auch die Inverse A−1 durch Determinanten darstellen: Ist
(−1)
A−1 =: (ajk ), so gilt

(−1) 1
ajk = (−1)j+k det(Skj (A)) (j, k = 1 . . . , n)
det A
(siehe [Ü]).
12 EIGENWERTE 89

12 Eigenwerte
Ein wesentliches Anliegen der Linearen Algebra besteht darin, Aussagen über das Ab-
bildungsverhalten linearer Selbstabbildungen T (d. h. T ∈ L(V )) zu machen. Beson-
ders einfach ist die Wirkung von T auf ein v ∈ V , wenn T v lediglich eine “Streckung”
von v bewirkt, d. h. T v = λv für ein λ ∈ K gilt. Dies führt auf

Definition 12.1 Es sei V ein linearer Raum über K, und es sei T ∈ L(V )(= L(V, V )).
Ein λ ∈ K heißt Eigenwert von T , falls ein v ∈ V, v 6= 0, existiert mit

T v = λv (bzw. (T − λI)(v) = 0) ,

wobei I := idV . Ist λ Eigenwert von T , so heißt Kern(T − λI) Eigenraum (von T ) zu
λ und jedes v ∈ Kern(T − λI) heißt Eigenvektor (von T ) zu λ.
Indem wir A ∈ K n×n wieder mit T ∈ L(K n ) mit T x = Ax (x ∈ K n ) identifizieren
(siehe B./D.8.9) können wir damit auch von “Eigenwert von A” bzw. “Eigenraum”
oder “Eigenvektor von A” reden.
Offenbar ist λ genau dann Eigenwert von A, wenn das LGS (A−λE)x = 0 eine Lösung
x 6= 0 hat, also genau dann, wenn det(A − λE) = 0 ist (B. 11.11).

Beispiel 12.2 1. Es sei


!
1 0
A= .
0 −1

Dann sind ±1 Eigenwerte von A (denn


         
1 1 0 0 0
A =1· und A = = −1 · ).
0 0 1 −1 1

2. Es sei
!
0 1
A= .
−1 0

Dann gilt
!
−λ 1
det(A − λE) = det = λ2 + 1 .
−1 −λ

Also: Ist K = R, so ist det(A − λE) 6= 0 für alle λ ∈ R, d. h. A hat keinen Eigenwert.
Ist andererseits K = C, so gilt det(A − λE) = 0 für λ = ±i, d. h. λ1,2 = ±i sind
Eigenwerte von A.
12 EIGENWERTE 90

Insbesondere zeigt das Beispiel, dass nicht jede Matrix A ∈ R2×2 einen Eigenwert be-
sitzt!

Wir betrachten jetzt oft K = R oder K = C. In diesem Fall schreiben wir K =: K


wobei dann K ∈ {R, C}.

Satz 12.3 Es sei A ∈ Kn×n . Dann ist P : K → K, definiert durch

P (λ) := PA (λ) := det(A − λE) (λ ∈ K) ,

ein Polynom vom Grad n (mit höchstem Koeffizient (−1)n ).

Beweis.
Es gilt A − λE = (ãjk ) mit
(
ajj − λ , falls j = k
ãjk = .
ajk , falls j 6= k
Also folgt aus (2) mit gewissen αν ∈ K
X
det(A − λE) = sign(σ)ã1,σ(1) · · · ãn,σ(n) =
σ∈Sn
X
= (a11 − λ) · · · (ann − λ) + sign(σ)ã1,σ(1) · · · ãn,σ(n)
σ∈Sn
σ6=id

n−1
X X
= (−1)n λn + αν λν + ã1,σ(1) · · · ãn,σ(n) .
ν=0 σ∈Sn
σ6=id
P
Da in jedem Summanden von ã1,σ(1) · · · ãn,σ(n) Faktoren der Art (ajj − λ)
σ∈Sn \{id}
höchstens (n − 1)-mal auftauchen, ist insgesamt
n−1
X
n n
P (λ) = det(A − λE) = (−1) λ + βν λν
ν=0

mit gewissen βν ∈ K. 2

Bemerkung und Definition 12.4 Es sei A ∈ Kn×n . Dann sind die Eigenwerte von
A genau die Nullstellen des Polynoms PA . Das Polynom PA ∈ Πn heißt charaktristi-
sches Polynom von A

Definition 12.5 Es seien A, B ∈ K n . Dann heißen A und B ähnlich, falls eine inver-
tierbare Matrix C ∈ K n×n existiert mit

B = C −1 AC .

Damit gilt:
12 EIGENWERTE 91

Satz 12.6 Sind A, B ∈ Kn×n ähnlich, so ist

PA = PB .

Beweis.
Es sei C ∈ GLn (K) mit B = C −1 AC. Dann gilt für λ ∈ K

B − λE = C −1 AC − C −1 (λE)C = C −1 (A − λE)C ,

also mit S. 11.12 (man beachte: det(C −1 ) det(C) = det(C −1 C) = det(E) = 1)

PB (λ) = det(B − λE) = det(C −1 ) det(A − λE) det(C) =


= det(A − λE) = PA (λ) (λ ∈ K) .

Satz 12.7 (Basistransformationssatz) Es sei V ein endlich-dimensionaler linea-


rer Raum über K, und es sei T ∈ L(V ). Ferner seien M und N Basen von V , und es
seinen A bzw. B die Matrizen von T bzgl. M, M bzw. N, N , d. h.

A = ϕM (T ) , B = ϕN (T ) ,

wobei ϕM := ϕM,M wie in S.8.5. Ist C = ϕM,N (I), so gilt

B = C −1 AC .

Insbesondere sind A und B ähnlich.

Beweis.
Zunächst gilt nach S.8.8

E = ϕM,M (I) = ϕM,N (I) · ϕN,M (I) = C · ϕN,M (I)

d. h. C −1 = ϕN,M (I). Also gilt wieder nach S.8.8

B = ϕN (T ) = ϕN,N (I ◦ T ◦ I) = ϕN,M (I) · ϕM,M (T ) · ϕM,N (I) = C −1 AC .

Definition 12.8 Es seien V ein n-dimensionaler linearer Raum über K und T ∈ L(V ).
Ist M eine Basis von V , so heißt das Polynom vom Grad n

P := PT := PϕM (T )

charakteristisches Polynom von T . (Wichtig: Nach S.12.6 und S.12.7 ist PT unabhängig
von der Wahl von M !).
12 EIGENWERTE 92

Satz 12.9 Mit den Bezeichnungen aus D. 12.8 sind für λ ∈ K äquivalent

a) λ ist Eigenwert von T ,

b) λ ist Eigenwert von ϕM (T ),

c) PT (λ) = 0.

Beweis.
1. Ist ψM : V → Kn die Koordinatenabbildung bzgl. M (vgl. B./D.6.8) und A :=
ϕM (T ), so gilt
−1
Ax = (ψM ◦ T ◦ ψM )x (x ∈ K n ) .
−1
(Denn: Für k = 1, . . . , n gilt ψM (vk ) = ek bzw. ψM (ek ) = vk . Nach der Definition der
Koordinatenmatrix A = (ajk ) gilt damit für k = 1, . . . , n
Xn
−1
(ψM ◦ T ◦ ψM )ek = ψM (T vk ) = ψM ( ajk vj ) =
j=1
 
n n
a1k
X X  . 
= ajk ψM (vj ) = ajk ej =  . 
 .  = Aek .
j=1 j=1
ank
−1
Da x 7→ Ax und ψM ◦ T ◦ ψM linear auf K n sind, folgt die Behauptung mit S.8.1.)
2. a) ⇒ b): Ist T v = λv für ein v ∈ K \ {0}, so gilt für x = ψM (v) ∈ Kn \ {0} nach 1.

Ax = AψM (v) = ψM (T v) = ψM (λv) = λψM (v) = λx .


−1
b) ⇒ a): Ist Ax = λx für ein x 6= 0, so gilt für v = ψM (x) ∈ V \ {0} nach 1.
−1 −1 −1 −1
T v = T ψM (x) = ψM Ax = ψM (λx) = λψM (x) = λv ,

also ist λ Eigenwert von T .


3. Die Äquivalenz von b) und c) ergibt sich sofort aus D./B.12.4 und D.12.8. 2

In B. 12.2 hatten wir gesehen, dass für gerades n lineare Abbildungen auf Rn i.
! a.
0 1
keine Eigenwerte besitzen (man setze für n = 2 etwa T x = Ax mit A = ).
−1 0
Unter Verwendung des Fundamentalsatzes der Algebra bzw. des Zwischenwertsatzes
aus der Analysis können wir jedoch folgendes wichtige Ergebnis beweisen.

Satz 12.10 Es sei V linearer Raum über K mit dim(V ) = n ∈ N, und es sei T ∈ L(V )
1. Ist K = C, so hat T mindestens einen Eigenwert.
2. Ist K = R, und ist n ungerade, so hat T mindestens einen Eigenwert.
12 EIGENWERTE 93

Beweis. n
aν z ν und
P
1. Nach dem Fundamentalsatz der Algebra gilt: Ist P ∈ ΠC mit P (z) =
ν=0
an 6= 0 (d. h. deg(P ) = n), so existieren z1 , . . . , zn ∈ C mit
n
Y
P (z) = an · (z − zk ) (z ∈ C) ,
k=1

d. h. P “zerfällt in Linearfaktoren”. Insbesondere hat P also Nullstellen (in C). Wendet


man dies auf P = PT an, so ergibt sich 1. aus S.12.9 (man beachte, dass an = (−1)n 6= 0
nach S. 12.3).
2. Ist P = PT so ist nach S. 12.3
n
X
P (x) = aν xν (x ∈ R)
ν=0

mit an = −1 (da n ungerade). Also gilt für x 6= 0


n−1
P (x) X
= −1 + aν xν−n → −1 (x → ±∞) ,
xn
ν=0

d. h. es existiert ein R > 0 mit


xn xn
P (x) < − <0 für x > R und P (x) > − >0 für x < −R .
2 2
Nach dem Zwischenwertsatz für stetige Funktionen (siehe Analysis) existiert ein λ ∈ R
mit P (λ) = 0. Also ist λ nach S. 12.9 Eigenwert von T . 2

Zum Abschluss dieses Abschnitts wollen wir eine Charakterisierung “diagonalisierba-


rer” linearer Abbildungen herleiten. Dazu beweisen wir zunächst:

Satz 12.11 Es sei V ein linearer Raum über K, und es es T ∈ L(V ). Ferner seien
λ1 , . . . , λm Eigenwerte von T mit λj 6= λk für k 6= j.
1. Sind v1 , . . . , vm ∈ V \ {0} zugehörige Eigenvektoren (d. h. T vj = λj vj (j =
1, . . . , m)), so sind v1 , . . . , vm linear unabhängig.
2. Die Summe der zugehörigen Eigenräume ist direkt, d. h.
m
X m
M
Kern(T − λj I) = Kern(T − λj I) (j = 1, . . . , m) .
j=1 j=1

Beweis.
1. Angenommen, v1 , . . . , vm sind linear abhängig. Nach dem Beweisschritt 2. zu S.5.8
existiert

k := min{j ∈ {1, . . . , m} : vj ∈< v1 , . . . , vj−1 >}


12 EIGENWERTE 94

(mit < ∅ >= {0}), und es gilt k ≥ 2 und v1 , . . . , vk−1 sind linear unabhängig. Sind
β1 , . . . , βk−1 ∈ K so, dass
k−1
X
vk = βj vj ,
j=1

so folgt
 
k−1
X k−1
X
T vk = T  βj vj  = βj λj νj .
j=1 j=1

Also ergibt sich


k−1
X k−1
X k−1
X
0 = λk vk − T vk = βj λk vj − βj λj vj = βj (λk − λj )vj .
j=1 j=1 j=1

Da v1 , . . . , vk−1 linear unabhängig sind, folgt βj (λk − λj ) = 0 für j = 1, . . . , k − 1, also


nach Voraussetzung βj = 0 für j = 1, . . . , k − 1 und damit vk = 0, im Widerspruch
zur Voraussetzung.
2. Wir zeigen: Die Summe ist direkt. Dazu sei Uj := Kern(T − λj · I) (j = 1, . . . , m)
und
X
u ∈ Uj ∩ Uk .
k6=j
P
Dann gilt T (u) = λj u und u = uk mit uk ∈ Uk (k = 1, . . . , m; k 6= j).
k6=j P
Angenommen, es ist u 6= 0. Dann ist I = {k 6= j : uk 6= 0} =
6 ∅ und uj = uk . Da
k∈I
T (uk ) = λk uk für k ∈ I gilt, widerspricht dies 1. Also ist u = 0 und damit ist Summe
direkt. 2

Wir wenden uns dem Problem der “Diagonalisierbarkeit” linearer Abbildungen zu.
Worum geht es dabei? Angenommen, T ∈ L(V ) ist so, dass eine Basis (v1 , . . . , vn ) aus
Eigenvektoren existiert. Dann ist das Abbildungsverhalten von T sehr übersichtlich:
Es gilt nämlich mit T vk = λk vk für alle v ∈ V
n n n n
! !
X X X X
T (v) = T βk vk = βk T vk = βk λk vk v= βk vk .
k=1 k=1 k=1 k=1
 
λ1 0 ... 0
 .. .. .. 
 0 . . . 
Ist A =   ∈ K n×n , so hat T ∈ L(K n ) mit T x = Ax offenbar
 
.. .. ..

 . . . 0  
0 . . . 0 λn
obige Eigenschaft für (v1 , . . . , vn ) = (e1 , . . . , en )
(denn es gilt T (ek ) = Aek = λk ek für k = 1, . . . , n).
12 EIGENWERTE 95

Definition 12.12 1. Eine Matrix D = (djk ) ∈ K n×n heißt Diagonalmatrix, falls


λ1 , . . . , λn ∈ K existieren mit
( )
λk , falls j = k
djk = = λk δjk ,
0 , falls j 6= k

d. h.
 
λ1 0 ... 0
 .. .. 
 0 λ2 . . 
D=  .
 
.. .. ..

 . . . 0 
0 ... 0 λn

Wir schreiben dann D =: diag(λ1 , . . . , λn ).


2. Ist V ein linearer Raum über K, so heißt T ∈ L(V ) diagonalisierbar falls eine Basis
von V aus Eigenvektoren existiert.
Ist A ∈ K n×n , so heißt A diagonalisierbar, falls x 7→ Ax ∈ L(K n ) diagonalisierbar ist.

Es gilt dann:

Satz 12.13 Es sei V ein n-dimensionaler linearer Raum über K, und es sei T ∈ L(V ).
Dann sind äquivalent:
a) T ist diagonalisierbar.
b) Es existiert eine Basis M von V so, dass ϕM (T ) eine Diagonalmatrix ist.
m
L
c) Es ist V = Kern(T − λj · I), wobei λ1 , . . . , λm die paarweise verschiedenen
j=1
Eigenwerte von T sind.
m
P
d) Es ist dim(V ) = dim(Kern(T − λj I)), wobei λ1 , . . . , λm wie in c).
j=1

Beweis.
a) ⇒ b): Ist M = (v1 , . . . , vn ) eine Basis aus Eigenvektoren von T , so existieren
µ1 , . . . , µn ∈ K mit T vk = µk vk (k = 1, . . . , n). Also gilt nach Definiton von ϕM (T ) =
A = (ajk ):
( )
µk , falls j = k
ajk = (= µk δjk ) ,
0 , sonst

d. h. ϕM (T ) = diag(µ1 , . . . , µn ).
b) ⇒ a): Existiert eine Basis M = (v1 , . . . , vn ) von V mit A = ϕM (T ) = diag(µ1 , . . . , µn ),
so gilt für k = 1, . . . , n
n
X
T (vk ) = ajk vj = µk vk
j=n
12 EIGENWERTE 96

(wobei A = (ajk )). Also sind v1 , . . . , vn Eigenvektoren.


a) ⇒ c): Nach Voraussetzung existiert eine Basis M = (v1 , . . . , vn ) aus Eigenvektoren
n
P
mit zugehörigen Eigenwerten µ1 , . . . , µn . Also gilt für jedes v ∈ V, v = βk vk ,
k=1

n
X m
X X m
X
v= βk vk = βk vk ∈ Kern(T − λj · I)
k=1 j=1 k:µk =λj j=1

(Man beachte dabei:


X X X
T( βk vk ) = βk T vk = λj βk vk ,
k:µk =λj k:µk =λj k:µk =λj
P
d. h. βk vk ∈ Kern(T − λj · I)).
k:µk =λj
m
P
Also ist V = Kern(T − λj · I).
j=1
Nach S.12.11.2 ist die Summe direkt.
c) ⇒ d): Ergibt sich sofort aus F. 5.19.
d) ⇒ a): Es gelte
m
X
dim V = dim(Kern(T − λj · I)) .
j=1

m
(j) (j) P
Wir wählen Basen (v1 , . . . , vdj ) von Uj := Kern(T − λj · I). Dann ist n = dj , d.
j=1
h.
(1) (1) (m) (m)
M := (v1 , . . . , vd1 , . . . , v1 , . . . , vdm )

besteht aus n Elementen. Wir zeigen: M ist linear unabhängig (dann ist M auch Basis
von V nach S. 5.15, also eine Basis aus Eigenvektoren).
(j)
Es seien also αk ∈ K für k = 1, . . . , dj ; j = 1, . . . , m mit
dj
m X m
(j) (j)
X X
0= αk vk = uj
j=1 k=1 j=1

dj
P (j) (j)
wobei uj = αk vk ∈ Uj . Aus S.12.11.2 folgt, dass uj = 0 für j = 1, . . . , m gelten
k=1
muss, also
dj
(j) (j)
X
αk vk = 0 (j = 1, . . . , m) .
k=1

(j) (j) (j)


Da (v1 , . . . , vdj ) für j = 1, . . . , m linear unabhängig sind, folgt αk = 0, für k =
1, . . . , dj und j = 1, . . . , m, d. h. M ist linear unabhängig. 2
12 EIGENWERTE 97

Bemerkung 12.14 1. Insbesondere folgt aus S. 12.13 (oder auch schon aus S. 12.11),
dass ein T ∈ L(V ) sicher dann diagonalisierbar ist, wenn n = dim(V ) paarweise
verschiedene Eigenwerte existieren. Dies ist jedoch nicht notwendig für die Diagona-
lisierbarkeit (etwa T = idK n hat nur den Eigenwert λ = 1, ist aber diagonalisierbar,
denn die kanonische Basis ist eine Basis aus Eigenvektoren).
2. Notwendig für die Diagonaliserbarkeit ist natürlich, dass zumindest ein Eigenwert
existiert. Dies ist jedoch nicht hinreichend.
(Man betrachte etwa T ∈ L(R2 ) mit
!     
1 1 x1 x1 2
T x = Ax := x= ∈R .
0 1 x2 x2

Dann gilt
!
1−λ 1
PT (λ) = PA (λ) = det(A − λE) = det = (1 − λ)2 ,
0 1−λ

d. h. λ = 1 ist einziger Eigenwert von A. Es gilt


! 
0 1 x1
0 = (T − I)x = (A − E)x =
0 0 x2

genau dann, wenn x2 = 0 ist, d. h.

Kern(T − I) = Kern(A − E) = R × {0} ,

also dim(Kern(T − I)) = 1 < 2 = dim(V ). Nach S. 12.13 ist also T nicht diagonali-
sierbar.)
3. Eine Matrix A ∈ K n×n ist diagonalisierbar genau dann, wenn ein C ∈ GLn (K) und
λ1 , . . . , λn ∈ K existieren mit

C −1 AC = diag(λ1 , . . . , λn ) .

(Denn: Ist A diagonalisierbar, so existiert nach S.12.13 eine Basis M von K n so, dass
die Matrix von x 7→ Ax bzgl. M eine Diagonalmatrix ist. Nach S. 12.7 existiert dann
ein C wie behauptet (man beachte dabei: A ist die Matrix von x 7→ Ax bzgl. der
kanonischen Basis).
Existiert umgekehrt ein solches C, so ist diag(λ1 , . . . , λn ) die Matrix von x 7→ Ax bzgl.
(Ce1 , . . . , Cen ), denn es gilt

ACek = Cdiag(λ1 , . . . , λn )ek = Cλk ek = λk Cek

für k = 1, . . . , n.)
12 EIGENWERTE 98

Definition 12.15 Es sei V ein endlich-dimensionaler linearer Raum über K, und es


sei T ∈ L(V ). Ist λ ∈ K Eigenwert von T , so heißt dim(Kern(T − λ · I)) geometrische
Vielfachheit von λ.
(Nach S. 12.13 ist T genau dann diagonalisierbar, wenn die Summe der geometrischen
Vierfachheiten aller Eigenwerte = dim(V ) ist.)
13 SKALARPRODUKTE UND NORMEN 99

13 Skalarprodukte und Normen


Ist x = xx12 ∈ R2 , so ist nach dem Satz von Pythagoras bekanntlich der Abstand von


0 zu x (bzw. die “Länge” des Vektors x) gegeben durch


q √
||x|| := x21 + x22 = xT x .

Entsprechend gilt für x = (x1 , x2 , x3 )T ∈ R3


q √
||x|| = x21 + x22 + x23 = xT x .

Weiterhin kann man sich überlegen, dass der “Winkel α zwischen x und y” in R2 \ {0}
gegeben ist durch

xT y
 
α = arccos ,
||x|| ||y||

wobei man < x, y >:= xT y als Skalarprodukt von x und y bezeichnet. Um Analysis
oder Geometrie in allgmeineren linearen Räumen treiben zu können, brauchen wir
Abstände, Normen oder Skalarprodukte in diesen Räumen.

Definition 13.1 Es sei V ein linearer Raum über K. Eine Abbildung < ·, · >: V ×
V → K heißt Skalarprodukt (auf V ) (oder inneres Produkt (auf V )), falls folgende
Bedingungen gelten:
(S.1) < x, x >≥ 0 für alle x ∈ V und < x, x >= 0 gilt genau dann wenn x = 0 ist,
(S.2) < x, y >= < y, x > für alle x, y ∈ V ,
(S.3) x 7→< x, y > ist linear für alle y ∈ V (d. h. für alle y ∈ V, x1 , x2 ∈ V, λ1 , λ2 ∈ K
gilt

< λ1 x1 + λ2 x2 , y >= λ1 < x1 , y > +λ2 < x2 , y > ).

Einen linearen Raum mit Skalarprodukt (V, < ·, · >) nennt man unitären Raum. Im
Falle K = R spricht man auch von einem euklidischen Raum.

Bemerkung 13.2 1. Für z ∈ C bedeutet “z ≥ 0”, daß z reell und nichtnegativ ist,
d. h. auch im Falle K = C ist < x, x > stets reell (und ≥ 0).
2. “ · ” in (S.2) bedeutet komplexe Konjugation, d. h. ist z = x + iy mit x, y ∈ R, so
ist z = x − iy. Ist K = R, so ist als (S.2) als < x, y >=< y, x > (x, y ∈ V ) zu lesen.
3. Aus (S.2) und (S.3) folgt, daß y 7→< x, y > “konjugiert-linear” ist, d. h. für λ1 , λ2 ∈
K und y1 , y2 ∈ V gilt

< x, λ1 y1 + λ2 y2 >= λ1 < x, y1 > +λ2 < x, y2 >

(und dies für alle x ∈ V ).


13 SKALARPRODUKTE UND NORMEN 100

(denn:

< x, λ1 y1 + λ2 y2 > = < λ1 y1 + λ2 y2 , x > =


= λ1 < y1 , x > +λ2 < y2 , x > = λ1 < y1 , x > + λ2 < y2 , x >
= λ2 < x, y1 > +λ2 < x, y2 >)

Beispiel 13.3 1. Es sei V = Kn und < ·, · >: Kn × Kn → K definiert durch


n
X
< x, y >:= xT y = xj yj (x = (x1 , . . . , xn )T , y = (y1 , . . . , yn )T ∈ Kn )
j=1

(wobei y := (y1 , . . . , yn )). Dann ist < ·, · > ein Skalarprodukt auf Kn , das auch als
kanonisches Skalarprodukt bezeichnet wird ([Ü]).
2. Es sei [a, b] ⊂ R ein kompaktes Intervall. Wir setzen

C[a, b] := C([a, b], K) := {f : [a, b] → K : f stetig auf [a, b]} .

Dann ist C[a, b] ein Unterraum von K[a,b] = {f : [a, b] → K}, also ein linearer Raum
über K.
(In der Analysis zeigt man: Sind f, g : [a, b] → K stetig und λ ∈ K, so sind auch f + g
und λf stetig auf [a, b]).
Wir definieren < ·, · >: C[a, b] × C[a, b] → K durch

Zb
< f, g >:= f (t)g(t)dt (f, g ∈ C[a, b]) .
a

Dann ist < ·, · > ein Skalarprodukt auf C[a, b].


(Denn: (S. 2) und (S. 3) ergeben sich aus bekannten Rechenregeln für Integrale (→
Analysis). Da f (t)f (t) = |f (t)|2 ≥ 0 für alle t ∈ [a, b] ist, ist < f, f >≥ 0 (→ Analysis).
Wichtig, und nicht so klar, ist, dass aus f 6= 0 schon < f, f >> 0 folgt.)

Definition 13.4 Es sei V ein linearer Raum über K. Eine Abbildung || · || : V → R


heißt Norm (auf V ), falls die folgenden Bedingungen gelten:

(N.1) ||x|| ≥ 0 für alle x ∈ V , und es gilt ||x|| = 0 genau dann, wenn x = 0 ist,

(N.2) ||λx|| = |λ| ||x|| für alle x ∈ V, λ ∈ K,

(N.3) (Dreiecksungleichung)
||x + y|| ≤ ||x|| + ||y|| für alle x, y ∈ V .

(V, || · ||) heißt dann ein normierter Raum.

Der folgende Satz zeigt, dass jedes Skalarprodukt eine Norm induziert:
13 SKALARPRODUKTE UND NORMEN 101

Satz 13.5 Es sei (V, < ·, · >) ein unitärer Raum über K. Wir setzen für x ∈ V

||x|| := < x, x > .

Dann gilt:
1. Für alle x, y ∈ V ist

||x + y||2 = ||x||2 + ||y||2 + < x, y > + < y, x > .

2. (Cauchy-Schwarz’sche Ungleichung)
Für alle x, y ∈ V gilt

| < x, y > | ≤ ||x|| ||y|| .

3. || · || ist eine Norm auf V , die sog. induzierte Norm auf V .

Beweis.
1. Für x, y ∈ V gilt

||x + y||2 = < x + y, x + y >=< x, x > + < x, y > + < y, x > + < y, y >=
= ||x||2 + ||y||2 + < x, y > + < y, x > .

2. Ist y = 0, so ist < x, y >=< x, 0 >= 0, also die Behauptung trivial. Es sei also
y 6= 0. Für alle λ ∈ K gilt nach 1., (S.1), (S. 3) sowie B. 13.2.3

0 ≤ < x − λy, x − λy >= ||x||2 + || − λy||2 + < x, −λy > + < −λy, x >
= ||x||2 + λλ < y, y > −λ < x, y > −λ < y, x > .

Für λ :=< x, y > /||y||2 =< x, y > / < y, y > ergibt sich

0 ≤ ||x||2 + < x, y > < x, y >/||y||2 − < x, y > < x, y > /||y||2 − < x, y >< y, x > /||y||2 .

also (da < y, y >> 0)

| < x, y > |2 =< x, y > < x, y > =< x, y >< y, x >≤ ||x||2 · ||y||2 = (||x|| ||y||)2 .

3. (N.1) ergibt sich sofort aus (S.1).


Sind x ∈ V, λ ∈ K, so gilt

||λx|| =< λx, λx >1/2 = (λλ < x, x >)1/2 = |λ|||x|| ,

also (N.2). Schließlich gilt für x, y ∈ V nach 1. und 2.

||x + y||2 ≤ ||x||2 + ||y||2 + 2||x|| ||y|| = (||x|| + ||y||)2 ,

also (N.3). 2
13 SKALARPRODUKTE UND NORMEN 102

Beispiel 13.6 1. Es sei V = Kn und < ·, · > das kanonische Skalarprodukt. Dann ist
nach S. 13.5
v
√ u n
uX
T
||x||2 := ||x|| := x x = t |xj |2 (x = (x1 , . . . , xn )T ∈ Kn )
j=1

eine Norm auf Kn (im Falle K = R heißt || · ||2 euklidische Norm). Die Cauchy-
Schwarz’sche Ungleichung lautet hier
v v
n
u n u n
X uX uX
| xj y j | ≤ t 2
|xj | t |yj |2 (x1 , . . . , xn , y1 , . . . , yn ∈ K) .
j=1 j=1 j=1

Weitere wichtige Normen auf Kn sind

||x||∞ := max |xj | (x = (x1 , . . . , xn )T ∈ Kn )


j=1,... ,n

und
n
X
||x||1 := |xj | (x = (x1 , . . . , xn )T ∈ Kn )
j=1

(das ||·||∞ , ||·||1 Normen auf Kn sind, ergibt sich leicht aus Eigenschaften des Betrages
| · | auf K).
2. Es sei V = C[a, b] mit < ·, · > aus B. 13.3.2. Dann ist nach S. 13.5
v
u b
uZ
||f ||2 := ||f || := t |f (t)|2 dt (f ∈ C[a, b])
u

eine Norm auf C[a, b]. Weitere wichtige Normen auf C[a, b] sind

||f ||∞ := sup |f (t)| (f ∈ C[a, b])


t∈[a,b]

und
Zb
||f ||1 := |f (t)|dt (f ∈ C[a, b])
a

(das ||f ||∞ , ||f ||1 Normen auf C[a, b] sind folgt aus Standardergebnissen der Analysis)

Bemerkung 13.7 Aus S. 13.5.1. ergeben sich leicht folgende Indentitäten, die in je-
dem unitären Raum für die induzierte Norm gelten:
1. (Parallelogrammidentität)

||x + y||2 + ||x − y||2 = 2(||x||2 + ||y||2 ) .


14 ORTHOGONALITÄT 103

2. (Polarisierungsidentität)

1 2 2
 4 (||x + y|| − ||x − y|| ), falls K = R


< x, y >= .

1
+ y||2 − ||x − y||2 + i||x + iy||2 − i||x − iy||2 ), falls K = C

4 (||x

(Denn: Nach S. 13.5.1 gilt (beachte: ||y|| = || − y||)

||x + y||2 + ||x − y||2 = 2||x||2 + 2||y||2 + < x, y > + < y, x > + < x, −y > + < −y, x >
= 2||x||2 + 2||y||2

und im Falle K = R

||x + y||2 − ||x − y||2 = < x, y > + < y, x > − < x, −y > − < −y, x >=
= 2 < x, y > +2 < y, x >= 4 < x, y > .

Im Falle K = C gilt wieder mit S. 13.5.1

||x + y||2 − ||x − y||2 + i||x + iy||2 − i||x − iy||2 =


= 2 < x, y > +2 < y, x > +2i < x, iy > +2i < iy, x >
= 2 < x, y > +2 < y, x > +2 < x, y > −2 < y, x >= 4 < x, y >)

Hieraus folgt, dass z. B. auf Kn die Normen || · ||∞ und || · ||1 (für n ≥ 2) nicht von
einem Skalarprodukt herrühren.
(Denn:

2(||e1 ||2∞ + ||e2 ||2∞ ) = 4 6= 2 = ||e1 + e2 ||2∞ + ||e1 − e2 ||2∞

und

2(||e1 ||21 + ||e2 ||21 ) = 4 6= 8 = ||e1 + e2 ||21 + ||e1 − e2 ||21 ) .

14 Orthogonalität
Zu Beginn des Abschnittes 13 hatten wir bemerkt, dass der “Winkel” zwischen zwei
Vektoren x, y ∈ R2 gegeben ist durch

xT y
 
α = arccos (∈ [0, π])
||x|| ||y||
x yT
(man beachte: ||x|| ||y|| ∈ [−1, 1] nach der Cauchy-Schwarz’schen Ungleichung). Insbe-
sondere gilt α = π/2 (= ˆ 90 Grad) für xT y = 0, d. h. ist xT y = 0, so stehen x und y
senkrecht aufeinander.
14 ORTHOGONALITÄT 104

Definition 14.1 Es sei V = (V, < ·, · >) ein unitärer Raum. Ferner seien x, y ∈ V
und M, N ⊂ V .
1. x, y heißen orthogonal (oder senkrecht zueinander), falls < x, y >= 0 ist. Wir schrei-
ben dann x ⊥ y.
2. x heißt orthogonal zu M (oder senkrecht stehend auf M ), falls x ⊥ y für alle y ∈ M .
Wir schreiben dann x ⊥ M .
3. M und N heißen orthogonal (oder senkrecht zueinander), falls x ⊥ y für alle x ∈
M, y ∈ N . Wir schreiben dann M ⊥ N .
4. Die Menge

M ⊥ := {x ∈ V : x ⊥ y für alle y ∈ M }

heißt orthogonales Komplement von M .

Beispiel 14.2 1. Ist V = Kn mit kanonischen Skalarprodukt, so sind die kanonischen


Basisvektoren e1 , . . . , en paarweise orthogonal (denn < ej , ek >2 = eTj ek = δjk (j, k =
1, . . . , n)).
2. Es sei V = (C[−π, π], C). Dann sind die Funktionen eik · (k ∈ Z), d. h.

t 7→ eikt (t ∈ [−π, π], k ∈ Z)

paarweise orthogonal.
(Denn: Die Funktion eik · ist 2π-periodisch. Also gilt für k 6= j (→ Analysis)
Zπ Zπ
ij · ik ·
<e ,e > = eijt eikt dt = eijt e−ikt dt
−π −π

1
= ei(j−k)t dt = ei(j−k)t |πt=−π = 0 .)
i(j − k)
−π

Enstprechend sind in V = (C[−π, π], R) die Funktionen

cos(k ·)
(t ∈ [−π, π], k ∈ N0 )
sin(k ·)

paarweise orthogonal (d. h. cos(k ·) ⊥ cos(j ·), sin(k ·) ⊥ sin(j ·) für k 6= j und sin(k ·) ⊥
cos(k ·) für alle k ∈ N0 ).
3. Es sei V = Rn mit kanonischem Skalarprodukt. Für ein a = (a1 , . . . , an )T ∈ Rn \{0}
sei

M := Ma := {λa : λ ∈ R} =< a > .


14 ORTHOGONALITÄT 105

Dann ist

M ⊥ = {x ∈ Rn : λa ⊥ x für alle λ ∈ Rn } =
n
X
T
= {x = (x1 , . . . , xn ) : λ aj xj = 0 für alle λ ∈ R}
j=1
n
X
= {x = (x1 , . . . , xn )T : aj xj = 0} = {a}⊥ =: Ua
j=1

mit Ua aus B. 4.3.2. Insbesondere ist mit obigen Bezeichnungen

a ⊥ Ua .

Der folgende Satz ist eine Verallgemeinerung des klassischen “Pythagoras”.

Satz 14.3 (Pythagoras) Es sei V ein unitärer Raum, und es seien x, y ∈ V . Sind
x, y orthogonal, so gilt

||x + y||2 = ||x||2 + ||y||2

(wobei || · || =< ·, · >1/2 die induzierte Norm).

Beweis.
Der Beweis ergibt sich sofort aus S. 13.5.1 und < x, y >=< y, x >= 0. 2

Bemerkung 14.4 Aus S. 13.5.1 folgt auch, dass

||x + y||2 = ||x||2 + ||y||2

genau dann gilt, wenn < x, y > + < y, x >=< x, y > +< x, y > = 2 Re < x, y >= 0
ist. Also ist im Falle K = R die Bedingung x ⊥ y auch notwendig.

Wir stellen einige Eigenschaften des orthogonalen Komplements zusammen.

Satz 14.5 Es seien M, N ⊂ V , wobei V ein unitärer Raum ist. Dann gilt
1. M ⊥ ist ein Unterraum von V .
2. M ⊂ M ⊥⊥ (:= (M ⊥ )⊥ ).
3. Aus M ⊂ N folgt N ⊥ ⊂ M ⊥ .
4. M ⊥ =< M >⊥ .
5. M ∩ M ⊥ ⊂ {0}.
6. Ist M ein Unterraum, so ist die Summe M + M ⊥ direkt, d. h. M + M ⊥ = M ⊕ M ⊥ .
14 ORTHOGONALITÄT 106

Beweis.
1. Es seien x1 , x2 ∈ M ⊥ und λ1 , λ2 ∈ K. Dann gilt für alle y ∈ M

< λ1 x1 + λ2 x2 , y >= λ1 < x1 , y > +λ2 < x2 , y >= 0 ,

d. h. λ1 x1 + λ2 x2 ∈ M ⊥ . Also ist M ⊥ ein Unterraum nach S. 4.2.


2. Ist y ∈ M , so gilt für alle x ∈ M ⊥ nach Definition x ⊥ y. Also ist wieder nach
Definition y ∈ (M ⊥ )⊥ .
3. Es sei M ⊂ N . Ist x ∈ N ⊥ , so gilt x ⊥ y für alle y ∈ N , also auch x ⊥ y für alle
y ∈ M , und damit ist x ∈ M ⊥ .
4. Aus 3. folgt < M >⊥ ⊂ M ⊥ . Ist umgekehrt x ∈ M ⊥ , so gilt x ⊥ y für alle y ∈ M .
n
P
Ist z ∈< M >, so existieren λ1 , . . . , λn ∈ K, y1 , . . . , yn ∈ M mit z = λj yj . Also
j=1
gilt
n
X
< z, x >= λj < yj , x >= 0 ,
j=1

d. h. x ⊥ z. Da z ∈< M > beliebig war, gilt x ∈< M >⊥ .


5. Ist x ∈ M ∩ M ⊥ , so gilt x ⊥ y für alle y ∈ M , also insbesondere für y = x. Folglich
ist < x, x >= 0 und damit x = 0 nach (S.1).
6. Folgt sofort aus 5. 2

Definition 14.6 Es sei V = (V, < ·, · >) ein unitärer Raum, und es sei I 6= ∅ sowie
(xα )α∈I (∈ V I ) eine Familie von Vektoren aus V .
1. (xα )α∈I heißt Orthogonalsystem (OGS), falls xα ⊥ xβ für alle α, β ∈ I, α 6= β.
2. (xα )α∈I heißt Orthnormalsystem (ONS), falls (xα )α∈I ein Orthogonalsystem ist mit
||xα || = 1 für alle α ∈ I.
3. (xα )α∈I heißt Orthonormalbasis (ONB), falls (xα )α∈I ein Orthonormalsystem und
eine Basis ist.

Bemerkung 14.7 1. Ist (xα )α∈I ein OGS mit xα 6= 0 für alle α ∈ I, so ist (xα /||x||α )α∈I
ein ONS (wobei x/λ := λ−1 · x für x ∈ V, λ ∈ K).
(
1, α = β
2. (xα )α∈I ist genau dann ein ONS, wenn < xα , xβ >= δαβ := gilt.
0, α 6= β
3. Ist (xα )α∈I ein OGS, so gilt für alle endlichen J ⊂ I:
X X
|| xj ||2 = ||xj ||2 (5)
j∈J j∈J

(allgemeiner Satz von Pythagoras).


14 ORTHOGONALITÄT 107

Beispiel 14.8 (vgl. B. 14.2)


1. Ist V = Kn , so ist (e1 , . . . , en ) eine ONB in V .
2. Ist V = (C[−π, π], C) so ist (eik · )k∈Z ein OGS in V . In V = (C[−π, π], R) ist
(cos(·), sin(·), cos(2·), sin(2·), . . . ) ein OGS.

Satz 14.9 Es sei V ein unitärer Raum, und es sei (xα )α∈I ein OGS in V . Ist xα 6= 0
für alle α ∈ I, so ist (xα )α∈I linear unabhängig.

Beweis.
Es sei J ⊂ I endlich und es seien λj ∈ K (j ∈ J) mit
X
0= λj xj .
j∈J

Nach dem Satz von Pythagoras (5) ist


X X
0 = || λj xj ||2 = |λj |2 ||xj ||2 .
j∈J j∈J

Aus ||xj ||2 > 0 (j ∈ J) folgt |λj |2 = 0, d. h. λj = 0 für alle j ∈ J. 2

Ist (x1 , . . . , xn ) eine Basis eines (beliebigen) linearen Raumes V , so hat bekanntlich
Pn
jedes x ∈ V eine eindeutige Darstellung x = λj xj . Ist V unitär und (x1 , . . . , xn )
j=1
eine ONB, so lassen sich die Koeffizienten λj dabei “explizit” angeben.

Satz 14.10 Es sei V ein unitärer Raum, und es sei (x1 , . . . , xn ) eine ONB von V .
Dann gilt für jedes x ∈ V
n
X
x= < x, xj > xj (6)
j=1

und die sog. Parseval’sche Gleichung:


n
X
2
||x|| = | < x, xj > |2 . (7)
j=1

Beweis.
Da (x1 , . . . , xn ) eine Basis von V ist, existieren λ1 , . . . , λn ∈ K mit
n
X
x= λj xj .
j=1
14 ORTHOGONALITÄT 108

Also folgt für k = 1, . . . , n


n
X n
X
< x, xk > = < λj xj , xk >= λj < xj , xk >=
j=1 j=1
n
X
= λj δjk = λk .
j=1

Weiter gilt nach dem Satz Pythagoras (5)


n
X n
X n
X
2 2 2 2
||x|| = || < x, xj > xj || = | < x, xj > | ||xj || = | < x, xj > |2 .
j=1 j=1 j=1

In der Darstellungsformel (6) liegt einer der wesentlichen Vorteile einer ONB gegenüber
einer beliebigen Basis. Der folgende Satz gibt ein Verfahren an, nach dem man aus
einer Basis eines unitären Raumes eine ONB konstruieren kann.

Satz 14.11 (Schmidt’sches Orthogonalisierungsverfahren) Es sei V ein (nicht


notwendig endlich-dimensionaler) unitärer Raum. Sind x1 , . . . , xn linear unabhängig
in V , so ist durch
k−1
X < xk , yν >
y1 := x1 , yk := xk − yν (8)
||yν ||2
ν=1

für k = 2, . . . , n ein OGS (y1 , . . . , yn ) in V definiert mit

span(y1 , . . . , yk ) = span(x1 , . . . , xk ) für k = 1, . . . , n .

Beweis.
Wir zeigen per Induktion nach m(≤ n): Durch (8) ist ein OGS (y1 , . . . , ym ) definiert
mit span(y1 , . . . , ym ) = span(x1 , . . . , xm )
m = 1: Für y1 := x1 gilt: (y1 ) ist ein OGS mit span(x1 ) = span(y1 )
m → m + 1: Nach Induktionsvoraussetzung ist durch (8) ein OGS (y1 , . . . , ym ) de-
finiert mit span(y1 , . . . , ym ) = span(x1 , . . . , xm ). Insbesondere ist yk 6= 0 für k =
1, . . . , m (da dim span(y1 , . . . , ym ) = dim span(x1 , . . . , xm ) = m). Damit können wir
m
X < xm+1 , yν >
ym+1 := xm+1 − yν
||yν ||2
ν=1

setzen. Es gilt dann für k = 1, . . . , m


m
X < xm+1 , yν >
< ym+1 , yk > = < xm+1 , yk > − < yν , yk >
||yν ||2
ν=1
= < xm+1 , yk > − < xm+1 , yk >= 0 ,
14 ORTHOGONALITÄT 109

also ist, da (y1 , . . . , ym ) ein OGS ist, auch (y1 , . . . , ym+1 ) ein OGS. Aus der Definition
von ym+1 folgt

xm+1 ∈ span(y1 , . . . , ym+1 ) .

Da span(y1 , . . . , ym ) = span(x1 , . . . , xm ) gilt ist deshalb

span(x1 , . . . , xm+1 ) ⊂ span(y1 , . . . , ym+1 ) .

Andererseits ist nach Definition ym+1 ∈ span(xm+1 , y1 , . . . , ym ) = span(x1 , . . . , xm+1 ),


also auch

span(y1 , . . . , ym+1 ) ⊂ span(x1 , . . . , xm+1 ) .

y
Folgerung 14.12 Unter den Voraussetzungen von S. 14.11 gilt: Ist uj := ||yjj || für
j = 1, . . . , n, so ist (u1 , . . . , un ) ein ONS in V mit span(x1 , . . . , xk ) = span(u1 , . . . , uk )
für k = 1, . . . , n. Weiterhin gilt: Ist V n-dimensional, so ist (u1 , . . . , un ) eine ONB von
V . Insbesondere hat also jeder endlich-dimensionale unitäre Raum V 6= {0} eine ONB.

Denn: Nach S. 14.11 ist (y1 , . . . , yn ) ein OGS mit yk 6= 0 für k = 1, . . . , n, also
folgt die erste Behauptung aus B. 14.7.1. Nach S.14.11 gilt dabei span(x1 , . . . , xk ) =
span(u1 , . . . , uk ) für k = 1, . . . , n. Ist V endlich-dimensional mit dim(V ) = n, so ist
(x1 , . . . , xn ) eine Basis von V , also ist auch (u1 , . . . , un ) eine Basis von V (beachte:
span(u1 , . . . un ) = span(x1 , . . . , xn )).

4 1
Beispiel 14.13 Es sei V = R2 , und es seien x1 =
 
2 , x2 = 3 . Dann ist nach S.
14.11 durch
 
4
y1 := x1 =
2
und
< x2 , y1 >
y2 := x2 − y1
||y1 ||2
(1, 3) · 42 4
   
1
= −
|| 42 ||2

3 2
     
1 1 4 −1
= − =
3 2 2 2

ein OGS in R2 und durch


      
y1 y2 1 2 1 −1
, = √ , √
||y1 || ||y||2 5 1 5 2
14 ORTHOGONALITÄT 110

eine ONB vom R2 gegeben.


Mit U :=< x1 >=< y1 > gilt hier weiterhin
U ⊥ = {y1 }⊥ =< y2 >
und R2 =< y1 > + < y2 >= U ⊕ U ⊥ .
Allgemeiner gilt:

Satz 14.14 Es sei V ein unitärer Raum, und es sei U ⊂ V ein endlich-dimensionaler
Unterraum. Dann gilt
1. V = U ⊕ U ⊥ ,
2. U ⊥⊥ = U .

Beweis.
1. Nach S. 14.5.6 genügt es, zu zeigen: V ⊂ U + U ⊥ . O. E. sei U = 6 {0}, also n :=
dim(U ) > 0. Nach F. 14.12 existiert eine ONB (u1 , . . . , un ) von U . Es sei x ∈ V
gegeben. Wir setzen
Xn
u := < x, uj > uj ∈ U .
j=1

Es genügt, zu zeigen: x − u ∈ U ⊥ (dann ist x = u + (x − u) ∈ U + U ⊥ ).


Es gilt für k = 1, . . . , n
< x − u, uk > = < x, uk > − < u, uk >=
n
X
= < x, uk > − < x, uj >< uj , uk >
j=1
= < x, uk > − < x, uk >= 0
also x − u ∈ {u1 , . . . , un }⊥ = span(u1 , . . . , un )⊥ = U ⊥ .
2. Nach S. 14.5.2 ist U ⊂ U ⊥⊥ .
Es sei x ∈ U ⊥⊥ . Nach 1. existieren u ∈ U, v ∈ U ⊥ mit
x=u+v .
Dann gilt
v = x − u ∈ U ⊥⊥ + U = U ⊥⊥ .
Nach S.14.5.5 ist v = 0 und damit x = u ∈ U . Also ist auch U ⊥⊥ ⊂ U . 2

Bemerkung 14.15 Die Aussage des S. 14.14 wird i. a. falsch, wenn man auf die
Voraussetzung “dim(U ) < ∞” verzichtet. Mit Hilfe des Weierstraß’schen Approxi-
mationssatzes (→ Analysis) kann man zeigen, daß etwa für V = C[a, b] (mit dem
Skalarprodukt aus B. 13.3.2) und den Unterraum
U := {P|[a,b] : P Polynom}
gilt: U ⊥ = {0}, also U ⊕ U ⊥ = U 6= V .
15 PROJEKTIONEN 111

15 Projektionen
Im vorigen Abschnitt haben wir gesehen, daß für einen unitären Raum V und einen
endlich- dimensionalen Unterraum U stets V = U ⊕ U ⊥ gilt. In S. 5.20 hatten wir
gezeigt, daß für einen endlich-dimensionalen linearen Raum und einen Unterraum U
stets ein Unterraum W existiert mit V = U ⊕ W . Wir betrachten zunächst wieder
allgemeine lineare Räume.

Definition 15.1 Es sei V ein linearer Raum über K, und es seien U, W Unterräume
von V so, dass V = U ⊕ W gilt. Dann heißt P := PU,W : V → V , definiert durch

P (v) := PU,W (v) := u (v ∈ V ) ,

wobei v = u + w mit u ∈ U, w ∈ W , Projektion auf U (längs W ).

Bemerkung 15.2 Ist P = PU,W wie in D. 15.1, so gilt, wie man leicht sieht:
1. P ∈ L(V )
2. Bild(P ) = U ,
3. Kern(P ) = W ,
4. P 2 (:= P ◦ P ) = P .
Umgekehrt kann man zeigen ([Ü]):
Ist T ∈ L(V ) mit T = T 2 , so gilt T = PBild(T ),Kern(T ) , d. h. T ist Projektion auf
Bild(T ) längs Kern(T ).

Beispiel 15.3 Es sei V = R2 . Dann ist


   
1 1
V =< >⊕< >= U ⊕ W .
0 1

Hier ist P = PU,W gegeben durch


! ! ! !
x1 x1 − x2 1 −1 x1
P = = .
x2 0 0 0 x2

Definition 15.4 Es sei V ein unitärer Raum, und es sei U ⊂ V ein Unterraum mit
V = U ⊕ U ⊥ . Dann heißt PU := PU,U ⊥ orthogonale Projektion (von V ) auf U :

Der folgende Satz verdeutlicht die Relevanz orthogonaler Projektionen für die Appro-
ximation in unitären Räumen.
15 PROJEKTIONEN 112

Satz 15.5 (Projktionssatz) Es sei V ein unitärer Raum, und es sei U ⊂ V ein
Unterraum mit V = U ⊕ U ⊥ . Dann gilt für alle x ∈ V

||x − PU x|| = dist(x, U ) := inf ||x − y|| ,


y∈U

und für alle y ∈ U, y 6= PU x, ist ||x − y|| > dist(x, U ) (d. h. PU x ist die eindeutig
bestimmte Lösung des Problems “Minimiere den Abstand ||x − y|| über alle y ∈ U ”).

Beweis.
Es sei x ∈ V . Dann gilt

x = u + w = PU (x) + w

mit u ∈ U, v ∈ U ⊥ , also x − PU x = w ∈ U ⊥ . Für alle y ∈ U gilt damit nach dem Satz


von Pythagoras (beachte PU x − y ∈ U )

||x − y||2 = ||x − PU x + PU x − y||2 = ||x − PU x||2 + ||PU x − y||2 ≥ ||x − PU x||2 ,

also ||x − PU x|| = inf ||x − y|| und für y 6= PU x gilt ||PU x − y||2 > 0, also ||x − y|| >
y∈U
||x − PU x||. 2

In Verallgemeinerung von S. 14.10 gilt

Satz 15.6 Es sei V ein unitärer Raum, und es sei U ⊂ V ein (endlich-dimensionaler)
Unterraum mit ONB (u1 , . . . , um ). Dann gilt für alle x ∈ V
m
X
PU x = < x, uj > uj
j=1

und es gilt die sog. Bessel’sche Ungleichung


m
X
| < x, uj > |2 ≤ ||x||2 .
j=1

Beweis.
Es sei x ∈ V . Aus dem Beweis zu S. 14.14.1 ergibt sich, dass für
m
X
u := < x, uj > uj ∈ U
j=1

gilt

x − u ∈ U ⊥.
15 PROJEKTIONEN 113

Also ist x = u + (x − u) mit u ∈ U und x − u ∈ U ⊥ . Aus der Eindeutigkeit dieser


Darstellung folgt u = PU x.
Weiter gilt

< x, uj >=< u, uj > + < x − u, uj >=< u, uj > (j = 1, . . . , m)

und damit nach der Parseval’schen Gleichung (7) und dem Satz von Pythagoras (5)
m
X m
X
| < x, uj > |2 = | < u, uj > |2 = ||u||2 ≤ ||u||2 + ||x − u||2 = ||x||2 .
j=1 j=1

Hiermit erhält man eine kompakte Darstellung im Schmidt’schen Orthogonalisierungs-


verfahren:

Folgerung 15.7 Mit den Voraussetzungen und Bezeichnungen von S. 14.11 gilt

yk = xk − PUk−1 (xk ) (k = 2, . . . , n) ,

wobei Uk−1 := span(x1 , . . . , xk−1 ) = span(y1 , . . . , yk−1 ).

Denn: Nach S. 14.11 ist mit uν := yν /||yν ||


k−1
X k−1
X
yk = xk − < xk , yν /||yν || > · (yν /||yν ||) = xk − < xk , uν > uν .
ν=1 ν=1

Da (u1 , . . . , uk−1 ) eine ONB vom Uk−1 ist, folgt die Darstellung aus S. 15.6.

Beispiel 15.8 Es sei V = (C[−π, π], C) mit dem Skalarprodukt aus B. 13.3.2.
Für n ∈ N sei

Un := span(eik · , k = −n, . . . , 0, . . . , n) .
 
Dann ist √1 eik · eine ONB von Un (vgl. B. 14.2). Für jedes f ∈ (C[−π, π]), C)
2π k=−n,... ,n
ist
n
X eik · eikt
Sn (t) := PUn (f )(t) = < f, √ > √
k=−n
2π 2π
n
X
= ak eikt (t ∈ [−π, π])
k=−n

mit
Zπ Zπ
1 1
ak = iks
f (s)e ds = f (s)e−iks ds
2π 2π
−π −π
15 PROJEKTIONEN 114


ak eik · von f ). Es gilt nach S. 15.5
P
(Sn heißt n-te Teilsumme der Fourier-Reihe
k=−∞
und 15.6

||Sn − f ||2 ≤ ||T − f ||2 (T ∈ Un )

und

|f (t)|2 dt = ||f ||2 ≥ ||Sn ||2 =
−π
n n
X eik · X
= | < f, √ > |2 = 2π |ak |2 .
k=−n
2π k=−n

Bemerkung 15.9 Wir betrachten nochmals unter den Voraussetzungen von S. 15.5
das Optimierungsproblem.

minimiere ||x − y|| über y ∈ U .

Nach S. 15.5 ist x∗ := PU x die eindeutig bestimmte Lösung. In S. 15.6 haben wir
gesehen, daß x∗ sehr einfach zu bestimmen ist, wenn eine ONB von U gegeben ist.
Was lässt sich über die Berechnung von x∗ sagen, wenn lediglich irgendeine Basis
(u1 , . . . , um ) von U gegeben ist?
Es gilt (siehe Beweis zu S. 15.5 und S.15.6): x∗ ist charakterisiert durch

x − x∗ = x − PU x ⊥ U ,

also

x − x∗ ⊥ uj (j = 1, . . . , m)

(sog. Normalengleichungen) bzw.

< x, uj >=< x∗ , uj > (j = 1, . . . , m) .


m
Wir suchen α1 , . . . , αm ∈ K so, daß x∗ =
P
αk uk , d. h.
k=1
m
X
< x, uj >= αk < uk , uj > (j = 1, . . . , m) .
k=1

Mit der Matrix

B = (bjk ) = (< uk , uj >) ∈ Km×m

(B T heißt Gram’sche Matrix (von (u1 , . . . , um )) ist also (α1 , . . . , αm ) Lösung des LGS
   
α1 < x, u1 >
 .   .. 
B .  
 . = .  .

αm < x, um >
15 PROJEKTIONEN 115

Aus obigen Überlegungen folgt, dass das System genau eine Lösung hat, also ist stets
B invertierbar.

Beispiel 15.10 Es sei V = R4 (mit kanonischem Skalarprodukt), und es seien x =


(3, −3, 0, −3)T sowie U = span(u1 , u2 ), wobei u1 := (1, 0, −1, −1)T , u2 := (0, 2, 1, 2)T .
Dann gilt
! !
< u 1 , u 1 > < u2 , u 1 > 3 −3
B= = .
< u 1 , u 2 > < u2 , u 2 > −3 9
Also ist das LGS
! ! ! !
3 −3 α1 < x, u1 > 6
= =
−3 9 α2 < x, u2 > −12
zu lösen. Es gilt
! !
α1 1
= ,
α2 −1
also ist
 
1
 
 −2 
PU x = x∗ = 1 · u1 + (−1)u2 =   .
 
 −2 
 
−3

Bemerkung 15.11 Allgemein gilt für V = Kn und linear unabhängige u1 , . . . , um ∈


Kn mit U := span(u1 , . . . , um ) und A := (u1 , . . . , um ) (d. h. die uj sind die Spalten
von A )
T
A A = (uj T uk )j,k = (< uk , uj >)j,k ,
wobei B := (bjk ) falls B = (bjk ), und
   
u1 T x < x, u1 >
T  ..   .. 
A x=  .
=
  . 

un T x < x, um >
d. h. die Normalengleichungen haben hier die Form

T T
A Aα = A x

m n
(x∗ = αk uk minimiert ||x − y||2 = |xj − yj |2 über alle y ∈ U ; sog. “kleinste-
P P
k=1 j=1
Quadrate Approximation” an x).
16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 116

16 Selbstadjungierte und normale Operatoren


Wir betrachten im folgenden spezielle Klassen linearer Abbildungen auf unitären
Räumen. Soweit möglich wollen wir wieder die Fälle K = R und K = C einheitlich
behandeln. Vorbereitend zeigen wir

Satz 16.1 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum. Ist ϕ ∈ V ∗ =
L(V, K), so existiert genau ein y ∈ V mit

ϕ =< ·, y >

(d. h. ϕ(x) =< x, y > für alle x ∈ V ). Also ist V ∗ = {< ·, y >: y ∈ V }.

Beweis.
1. Existenz: Es sei (x1 , . . . , xn ) eine ONB von V (existiert nach F. 14.12). Dann gilt
für x ∈ V nach S. 14.10
n
X
x= < x, xj > xj ,
j=1

also
Xn n
X
ϕ(x) = ϕ( < x, xj > xj ) = < x, xj > ϕ(xj ) =
j=1 j=1
n
X
= < x, ϕ(xj )xj > ,
j=1

n
P
d. h. mit y := ϕ(xj )xj gilt ϕ =< ·, y >.
j=1
2. Eindeutigkeit: Es seien y1 , y2 ∈ V mit < ·, y1 >= ϕ =< ·, y2 >. Dann gilt für alle
x∈V

0 =< x, y1 > − < x, y2 >=< x, y1 − y2 > ,

also insbesondere

0 =< y1 − y2 , y1 − y2 >= ||y1 − y2 ||2 .

Damit ist y1 = y2 .
3. Nach (S.3) ist < ·, y >∈ V ∗ für alle y ∈ V , also gilt V ∗ = {< ·, y >: y ∈ V } nach 1. 2

Damit ist folgende Definition möglich.


16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 117

Definition 16.2 Es seien (V, < ·, · >=< ·, · >V ) und (W, < ·, · >=< ·, >W ) endlich-
dimensionale unitäre Räume, und es sei T ∈ L(V, W ). Für w ∈ W ist

< ·, w > ◦T ∈ V ∗ .

Also existiert nach S. 16.1 genau ein u ∈ V mit < ·, w > ◦ T =< ·, u >. Wir setzen

T ∗ w := u .

Damit gilt für alle v ∈ V, w ∈ W

< T v, w >=< v, T ∗ w > .

Die Abbildung T ∗ : W → V heißt Adjungierte von T .

Satz 16.3 Mit den Bezeichnungen aus D. 16.2 gilt


1. T ∗ ∈ L(W, V ).
2. T ∗∗ := (T ∗ )∗ = T .
3. Für µ ∈ K ist (µT )∗ = µT ∗ .
4. Für S ∈ L(V, W ) ist (S + T )∗ = S ∗ + T ∗ .
5. Ist (U, < ·, · >=< ·, · >U ) ein weiterer endlich-dimensionaler unitärer Raum und
ist S ∈ L(U, V ), so ist

(T ◦ S)∗ = S ∗ ◦ T ∗ .

Beweis.
1. Es seien w1 , w2 ∈ W und λ1 , λ2 ∈ K. Dann gilt für alle v ∈ V

< T v, λ1 w1 + λ2 w2 > = λ1 < T v, w1 > + λ2 < T v, w2 >


= λ1 < v, T ∗ w1 > + λ2 < v, T ∗ w2 >
= < v, λ1 T ∗ w1 + λ2 T ∗ w2 > .

Also erfüllt u := λ1 T ∗ w1 + λ2 T ∗ w2 die Bedingung aus D. 16.2 für w = λ1 w1 + λ2 w2


und damit ist T ∗ (λ1 w1 + λ2 w2 ) = λ1 T ∗ w1 + λ2 T ∗ w2 .
2. Nach D. 16.2 (angewandt auf T und T ∗ ) gilt für alle v ∈ V, w ∈ W

< T v, w > = < v, T ∗ w >= < T ∗ w, v > =


= < w, T ∗∗ v > =< T ∗∗ v, w > ,

also insbesondere für v ∈ V

< T v − T ∗∗ v, w >= 0

für w = T v − T ∗∗ v. Damit ist T v − T ∗∗ v = 0, d. h. T v = T ∗∗ v.


(Beweis von 3., 4., 5. als [Ü]) 2
16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 118

Beispiel 16.4 Es sei T : R3 → R2 mit


   
! x1 x1
0 3 1    
T (x1 , x2 , x3 ) := (3x2 + x3 , 2x1 ) =  x2  =: A  x2  .
2 0 0
   
x3 x3

Dann gilt für (y1 , y2 ) ∈ R2 , (x1 , x2 , x3 ) ∈ R3

< (x1 , x2 , x3 ), T ∗ (y1 , y2 ) > = < T (x1 , x2 , x3 ), (y1 , y2 ) >


= 3x2 y1 + x3 y1 + 2x1 y2
= < (x1 , x2 , x3 ) , (2y2 , 3y1 , y1 ) >

d. h. nach Definition
 
0 2 ! !
y1 y1
T ∗ (y1 , y2 ) = (2y2 , 3y1 , y1 ) =  = AT
 
 3 0 
 .
y2 y2
1 0

Allgemeiner gilt

Bemerkung und Definition 16.5 Es seien V, W, T wie in D. 16.2. Weiter seien N =


(v1 , . . . , vn ) bzw. M = (w1 , . . . , wm ) ONB von V bzw. W . Ist A = (ajk ) = ϕM,N (T )
die Matrix von T bzgl. M, N , und setzt man

A∗ := (akj )k=1,... ,n,j=1,... ,m


T
(A∗ = A ist die konjungierte Transponierte von A), so ist A∗ = ϕN,M (T ∗ ) d. h. A∗
ist die Matrix von T ∗ bzgl. N, M .
Ist K = R, so ist dabei A∗ = AT .
(Denn: Es sei B = (bkj )k=1,... ,n,j=1,... ,m = ϕN,M (T ∗ ). Dann gilt für j = 1, . . . , m; k =
1, . . . , n
m
X m
X
ajk = aνk < wν , wj >=< aνk wν , wj >=< T vk , wj >
ν=1 ν=1
n
X n
X

= < vk , T wj >=< vk , bνj vν >= bνj < vk , vν >= bkj
ν=1 ν=1

T
bzw. bkj = ajk . Also ist B = A = A∗
Ist insbesondere V = W und N = M eine ONB sowie T ∈ L(V ), so gilt T = T ∗ genau
dann, wenn A = A∗ ist.
16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 119

Definition 16.6 1. Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum. Eine
Abbildung T ∈ L(V ) heißt selbstadjungiert (oder hermitesch) falls T = T ∗ gilt (d. h.
< T v1 , v2 >=< v1 , T v2 > für alle v1 , v2 ∈ V ).
Weiter heißt T unitär diagonalisierbar, falls eine ONB von V aus Eigenvektoren exi-
stiert.
2. Eine Matrix A ∈ Kn×n heißt hermitesch, falls A = A∗ gilt (d. h. falls x 7→ Ax ∈
L(Kn ), wobei Kn mit dem kanonischen Skalarprodukt versehen ist, hermitesch ist; vgl.
B./D. 16.5). Im Falle K = R heißt A mit A = A∗ = AT auch symmetrisch.

Satz 16.7 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum. Ist T ∈ L(V )
selbstadjungiert, so gilt
1. T hat einen Eigenwert.
2. Alle Eigenwerte von T sind reell.
3. Sind λ1 , λ2 Eigenwerte mit λ1 6= λ2 und sind v1 , v2 zugehörige Eigenvektoren, so
sind v1 , v2 orthogonal.

Beweis.
1. Es sei M = (v1 , . . . , vn ) eine ONB von V (existiert nach F. 14.12). Ist A = ϕM (T ),
so ist A = A∗ nach B./D. 16.5, d. h. A ist hermitesch.
2. Es sei λ ∈ K ein Eigenwert von T (falls existent). Ist v 6= 0 Eigenvektor zu λ, so gilt

λ < v, v >=< λv, v >=< T v, v >=< v, T v >=< v, λv >= λ < v, v >

also λ = λ (da < v, v >6= 0), d. h. λ ∈ R.


3. Ist K = C, so hat T einen Eigenwert nach S. 12.10.
Es sei also K = R und es sei A = ϕM (T ) ∈ Rn×n ⊂ Cn×n . Dann hat A (als Matrix in
Cn×n ) einen Eigenwert λ (wende S. 12.10 auf z 7→ Az ∈ L(Cn ) an). Nach 2. ist λ ∈ R,
da A hermitesch ist. Es existiert ein z ∈ Cn \ {0} mit Az = λz. Ist z = x + iy mit
x, y ∈ Rn , so folgt

Ax + iAy = A(x + iy) = Az = λz = λx + iλy ,

also (Vergleich von Real- und Imaginärteil, wobei man beachte, dass A und λ reell
sind)

Ax = λx und Ay = λy .

Aus z 6= 0 folgt x 6= 0 oder y 6= 0. Also hat auch x 7→ Ax ∈ L(Rn ) den Eigenwert λ.


Damit hat auch T den Eigenwert λ (S. 12.9) und es gilt 1.
4. Es seien λ1 , λ2 Eigenwerte mit zugehörigen Eigenvektoren v1 , v2 . Dann gilt (beachte
λ2 reell)

λ1 < v1 , v2 > = < λ1 v1 , v2 >=< T v1 , v2 >=< v1 , T v2 >=


= < v1 , λ2 v2 >= λ2 < v1 , v2 > .
16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 120

Aus λ1 6= λ2 folgt < v1 , v2 >= 0, also v1 , v2 orthogonal. 2

Damit können wir folgenden zentralen Satz der Linearen Algebra beweisen.

Satz 16.8 (Spektralsatz für selbstadjungierte Operatoren; Hauptachsentrans-


formation) Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum, und es sei
T ∈ L(V ) selbstadjungiert. Dann existiert eine ONB von V aus Eigenvektoren von T,
d. h. T ist unitär diagonalisierbar.

Beweis.
Wir beweisen die Behauptung durch Induktion nach n = dim(V ). Für n = 1 ist die
Behauptung offenbar erfüllt.
Es sei V ein (n+1)-dimensionaler unitärer Raum, und es sei T ∈ L(V ) selbstadjungiert.
Dann hat T nach S. 16.7 einen (reellen) Eigenwert λ. Es sei u ein Eigenvektor zu λ mit
||u|| = 1 und U := span(u). Wir betrachten S := T|U ⊥ (d. h. S ist die Einschränkung
von T auf das orthogonale Komplement von U ). Dann ist S ∈ L(U ⊥ , V ). Wir zeigen:
S(U ⊥ ) ⊂ U ⊥ (also S ∈ L(U ⊥ )).
(Denn: Es sei v ∈ U ⊥ . Dann gilt

< u, T v >=< T u, v >=< λu, v >= λ < u, v >= 0 ,

also Sv = T v ∈ U ⊥ ).
Weiter gilt für v1 , v2 ∈ U ⊥

< Sv1 , v2 >=< T v1 , v2 >=< v1 , T v2 >=< v1 , Sv2 > .

also ist S selbstadjungiert. Da dim(U ⊥ ) = n ist, existiert nach Induktionsvorausset-


zung eine ONB (u1 , . . . , un ) von U ⊥ aus Eigenvektoren von S. Dann sind u1 , . . . , un
natürlich auch Eigenvektoren von T . Also ist (u1 , . . . , un , u) eine ONB von V aus
Eigenvektoren von T . 2

Bemerkung 16.9 1. Unter den Voraussetzungen von S. 16.8 seien λ1 , . . . , λm die


paarweise verschiedenen Eigenwerte von T , und es sei (v1 , . . . , vn ) eine ONB aus Ei-
genvektoren. Wir setzen
m
(j) (j)
[
{v1 , . . . , vn } = {u1 , . . . , ukj } ,
j=1

(j) (j) (j) (j)


wobei u1 , . . . , ukj die Eigenvektoren zu λj sind (j = 1, . . . , m). Dann ist (u1 , . . . , ukj )
16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 121

eine ONB von Uj := Kern(T − λj I). Also gilt für alle v ∈ V nach S. 14.10 und S. 15.6
n
!
X
T (v) = T < v, v` > v` =
`=1
 
kj
m X
X
= T < v, u(j) (j) 
µ > uµ =
j=1 µ=1
kj
m X m kj
X X X
= < v, u(j) (j)
µ > T uµ = λj < v, u(j) (j)
µ > uµ
j=1 µ=1 j=1 µ=1
m
X
= λj PUj (v) ,
j=1

und damit
m
X
T = λj PUj . (9)
j=1
m
P
Hierbei gilt PUj = I und PUj PUk = δjk PUk (j, k = 1, . . . , m)([Ü]). Die Darstellung
j=1
(9) heißt Spektralzerlegung von T .
2. Ist (V, < ·, · >) ein endlich-dimensionaler unitärer Raum, so sind für beliebiges
T ∈ L(V ) die linearen Abbildungen T ◦T ∗ und T ∗ ◦T selbstadjungiert (denn (T ◦T ∗ )∗ =
T ∗∗ ◦ T ∗ = T ◦ T ∗ und entsprechend für T ∗ ◦ T ).
3. Im Falle K = R ist die Selbstadjungiertheit von T auch notwendig für die unitäre
Diagonalisierbarkeit.
(Denn: Es sei T so, dass eine ONB M = (v1 , . . . , vn ) aus Eigenvektoren von T (zu den
Eigenwerten λ1 , . . . , λn ∈ R) existiert. Dann ist A = ϕM (T ) = diag(λ1 , . . . , λn ). Also
ist nach D./B. 16.5 auch (beachte λj ∈ R)

ϕM (T ∗ ) = A∗ = (diag(λ1 , . . . , λn ))∗ = diag(λ1 , . . . , λn ) = A = ϕM (T )

d. h. es gilt T = T ∗ .)
Im Gegensatz dazu gibt es im Falle K = C weitere unitär diagonalisierbare lineare
Abbildungen, wie wir im folgenden sehen werden.

Definition 16.10 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum über
K. Ein T ∈ L(V ) heißt normal, falls gilt

T ◦ T∗ = T∗ ◦ T .

Entsprechend heißt eine Matrix A ∈ Kn×n normal, falls

AA∗ = A∗ A

gilt, d. h., falls x 7→ Ax ∈ L(Kn ) normal ist, wobei Kn mit dem kanonischen Skalar-
produkt versehen ist.
16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 122

Bemerkung 16.11 Offenbar ist jede selbstadjungierte lineare Abbildung (bzw. jede
hermitesche Matrix) normal. Die Umkehrung gilt aber nicht. So ist etwa
!
2 −3
A=
3 2

nicht hermitesch, aber normal, da,


! ! !
2 −3 2 3 13 0
AA∗ = AAT = =
3 2 −3 2 0 13
! !
2 3 2 −3
= = AT A = A∗ A .
−3 2 3 2

Der folgende Satz gibt eine Charakterisierung normaler Operatoren .

Satz 16.12 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum. Ein T ∈
L(V ) ist genau dann normal, wenn

||T v|| = ||T ∗ v||

für alle v ∈ V gilt.

Beim Beweis verwenden wir

Satz 16.13 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum, und es sei
T ∈ L(V ) mit

< T v, v >= 0 (v ∈ V ) .

Ist K = C, oder ist K = R und T selbstadjungiert, so ist T = 0.

Beweis.
1. Es sei K = C. Dann gilt für u, w ∈ V
1
< T u, w > = [< T (u + w) , u + w > − < T (u − w) , u − w >
4
+i < T (u + iw) , u + iw > −i < T (u − iw) , u − iw >] .

Also ist nach Voraussetzung < T u, w >= 0, d. h. insbesondere < T u, T u >= 0 und
damit T u = 0.
16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 123

2. Ist K = R und T selbstdajungiert, so gilt für u, w ∈ V

< T w, u >=< w, T u >=< T u, w >

und damit ist


1
< T u, w >= [< T (u + w), u + w > − < T (u − w), u − w >] .
4
Nach Voraussetzung ist wieder < T u, w >= 0 also insbesondere < T u, T u >= 0 und
damit T u = 0. 2

Beweis zu Satz 16.12.


Es gilt mit S. 16.13 (man beachte, dass T ∗ T − T T ∗ selbstadjungiert ist):

T normal ⇔ T ∗T − T T ∗ = 0
⇔ < (T ∗ T − T T ∗ )v, v >= 0 (v ∈ V )
∗ ∗
⇔ < T T v, v >=< T T v, v > (v ∈ V )
⇔ < T v, T v >=< T ∗ v, T ∗ v > (v ∈ V )
2 ∗ 2
⇔ ||T v|| = ||T v|| (v ∈ V ) .

Hieraus ergibt sich

Satz 16.14 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum, und es sei
T ∈ L(V ) normal. Ist v ∈ V ein Eigenvektor zum Eigenwert λ von T , so ist v auch
ein Eigenvektor zum Eigenwert λ von T ∗ .

Beweis.
Da T normal ist, ist auch T − λI normal (denn

(T − λI)(T − λI)∗ = (T − λI)(T ∗ − λI) =


= T T ∗ − λT − λT ∗ + |λ|2 I = T ∗ T − λT ∗ − λT + |λ|2 I
= (T ∗ − λI)(T − λI) = (T − λI)∗ (T − λI) ) .

Nach S. 16.12 gilt

0 = ||(T − λI)v|| = ||(T − λI)∗ v|| = ||(T ∗ − λI)v|| ,

d. h. v ist Eigenvektor zum Eigenwert λ. 2

Damit kommen wir zur Charakterisierung unitär diagonalisierbarer Operatoren im


komplexen Fall.
16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 124

Satz 16.15 (Spektralsatz für normale komplexe Operatoren) Es sei V ein endlich-
dimensionaler unitärer Raum über C und es sei T ∈ L(V ). Genau dann existiert eine
ONB aus Eigenvektoren von T , wenn T normal ist.

Beweis.
“⇒”: Es sei M eine ONB aus Eigenvektoren von T . Dann ist D = ϕM (T ) eine Diago-
nalmatrix. Nach B./D. 16.5 ist D = D∗ = ϕM (T ∗ ) und damit gilt

ϕM (T ◦ T ∗ ) = ϕM (T )ϕM (T ∗ ) = DD = DD = ϕM (T ∗ ◦ T ) .

Da ϕM injektiv ist, folgt T ◦ T ∗ = T ∗ ◦ T , also ist T normal.


“⇐”: Der Beweis verläuft vollkommen analog zum Beweis von S. 16.8, wenn wir fol-
gendes zeigen können:
Es sei λ ein Eigenwert von T (existiert, da K = C) mit zugehörigem Eigenvektor u
(mit ||u|| = 1), und es sei U := span(u). Dann ist S := T|U ⊥ ∈ L(U ⊥ ) und S ist
normal.
Denn: Es sei v ∈ U ⊥ . Dann gilt mit S. 16.14

< Sv, u >=< T v, u >=< v, T ∗ u >=< v, λu >= λ < v, u >= 0 ,

also ist Sv ∈ U ⊥ , d. h. S(U ⊥ ) ⊂ U ⊥ und damit S ∈ L(U ⊥ ).


Wieder sei v ∈ U ⊥ . Dann gilt entsprechend

< u, T ∗ v >=< T u, v >= λ < u, v >= 0 ,

also T ∗ v ∈ U ⊥ , d. h. T ∗ (U ⊥ ) ⊂ U ⊥ .
Nun seien v1 , v2 ∈ U ⊥ . Dann ist

< Sv1 , v2 >=< T v1 , v2 >=< v1 , T ∗ v2 > .

Da T ∗ v2 ∈ U ⊥ gilt, ist T ∗ v2 = S ∗ v2 nach Definition von S ∗ , d. h. S ∗ = T|U


∗ . Also

folgt

S ◦ S ∗ = (T|U ⊥ ) ◦ (T|U
∗ ∗ ∗
⊥ ) = (T|U ⊥ ) ◦ (T|U ⊥ ) = S ◦ S ,

d. h. S ist normal. 2

Beispiel 16.16 Es sei


!
2 −3
A=
3 2

(vgl. B. 16.11). Dann ist


!
2−λ −3
P (λ) = det(A − λE) = = (2 − λ)2 + 9 = 0
3 2−λ
17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 125

für λ1,2 = 2 ± 3i. Man berechnet, dass

(i, 1)T Eigenvektor zu λ1 = 2 + 3i

und

(−i, 1)T Eigenvektor zu λ2 = 2 − 3i

ist. Es gilt
!
−i
(i, 1) = i(−i) + 1 = 0 ,
1
 
also ist √1 (i, 1)T , √1 (−i, 1)T eine ONB aus Eigenvektoren in C2
2 2

Bemerkung 16.17 Wie in B. 16.9 sieht man: Ist K = C, und ist T ∈ L(V ) normal,
so gilt nach S. 16.15
m
X
T = λj PUj ,
j=1

wobei λ1 , . . . , λm die paarweise verschiedenen Eigenwerte von T und

Uj := Kern(T − λj · I) (j = 1, . . . , m) ,
m
P
die zugehörigen Eigenräume sind. Wieder gilt wie in B. 16.9 dabei: PUj = I und
j=1
PUj PUk = δjk PUj . Man beachte, dass hierbei (im Gegensatz zur Situation in B. 16.9)
die λj i. a. nicht-reell sind.

17 Unitäre Operatoren und QR-Zerlegung


Wir betrachten jetzt eine weitere wichtige Klasse linearer Abbildungen auf unitären
Räumen.

Definition 17.1 Es sei (V, < ·, · >) ein unitärer Raum. Ein T ∈ L(V ) heißt unitär
(oder isometrisch oder Isometrie), falls gilt

||T v|| = ||v|| für alle v ∈ V .

Im Falle K = R heißt T dann auch orthogonal.


Eine Matrix A ∈ Kn×n heißt unitär (bzw. orthogonal für K = R), falls x 7→ Ax ∈ L(Kn )
(mit kanonischem Skalarprodukt) unitär ist.
17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 126

Beispiel 17.2 1. Es sei (v1 , . . . , vn ) eine ONB von V , und es seien λ1 , . . . , λn ∈ K


mit |λj | = 1 für j = 1, . . . , n. Dann ist T ∈ L(V ) mit T (vk ) = λk vk (k = 1, . . . , n), d.
h.
 
X n Xn
T (v) = T  < v, vj > vj =
 < v, vj > λj vj (v ∈ V ) ,
j=1 j=1

unitär
(Denn: Für v ∈ V gilt nach (7)
n
X n
X
||T v||2 = | < v, vj > λj |2 = | < v, vj > |2 = ||v||2 .)
j=1 j=1

Insbesondere ist A = diag(λ1 , . . . , λn ) ∈ Kn×n mit |λj | = 1 für j = 1, . . . , n unitär.


2. (Spiegelungen) Es sei a ∈ V mit ||a|| = 1. Wir betrachten S = Sa : V → V mit

Sa (v) := v − 2 < v, a > a (v ∈ V ) .

Dann gilt
1. Sa (a) = −a , Sa (b) = b für alle b ∈< a >⊥ ,
2. Sa2 = Sa ◦ Sa = I,
3. ||Sa v|| = ||v|| für alle v ∈ V (d. h. Sa ist unitär).
(Denn: Es gilt V =< a > ⊕ < a >⊥ nach S. 14.14, d. h. jedes v ∈ V hat genau eine
Darstellung

v = λa + b mit λ ∈ K, b⊥a .

Daraus folgt

Sa (v) = λa + b − 2 < λa + b, a > a =


= λa + b − 2λ < a, a > a − 2λ < b, a > a = −λa + b
| {z } | {z }
=1 =0

(d. h. Sa ist “Spiegelung an < a >⊥ ”). Hieraus ergeben sich sofort 1. und 2. Außerdem
gilt mit dem Satz von Pythagoras:

||Sa (v)||2 = || − λa + b||2 = | − λ|2 ||a||2 + ||b||2 = |λ|2 ||a||2 + ||b||2 = ||v||2 .

Also ist Sa unitär.)


Im Falle V = Kn ist (da aaT · x = a(aT x) = aT x · a = xT a · a)

Qa := E − 2aaT = E − 2aa∗

die Matrix von Sa bzgl. der kanonischen Basis; Qa ist also unitär. Außerdem ist Qa
auch hermitesch, denn

Q∗a = (E − 2aa∗ )∗ = E ∗ − 2(aa∗ )∗ =


= E − 2a∗∗ a∗ = E − 2aa∗ = Qa .
17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 127

Matrizen der Form Qa heißen Householder-Matrizen.

Wir stellen im folgenden Satz verschiedene Charakterisierungen unitärer Abbildungen


zusammen.

Satz 17.3 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum, und es sei
T ∈ L(V ). Dann sind folgende Aussagen äquivalent.
a) T ist unitär,
b) < T v1 , T v2 >=< v1 , v2 > für alle v1 , v2 ∈ V ,
c) T ∗ ◦ T = I,
d) Ist (v1 , . . . , vn ) eine ONB von V , so ist (T v1 , . . . , T vn ) eine ONB von V,
e) Es existiert eine ONB (v1 , . . . , vn ) von V so, dass (T v1 , . . . , T vn ) eine ONB von
V ist,
f ) T ist bijektiv mit T −1 = T ∗ ,
g) T ∗ ist unitär.

Beweis.
1. a) ⇒ b): Ist K = R , so folgt aus der Polarisierungsidentität (B. 13.7)
1
< T v1 , T v2 > = (||T v1 + T v2 ||2 − ||T v1 − T v2 ||2 ) =
4
1
= (||T (v1 + v2 )||2 − ||T (v1 − v2 )||2 ) =
4
1
= (||v1 + v2 ||2 − ||v1 − v2 ||2 ) =< v1 , v2 > .
4
Eine entsprechende Rechnung liefert die Behauptung im Fall K = C.
2. b) ⇒ c): Für alle v1 , v2 ∈ V gilt (nach Definition von T ∗ )

< ((T ∗ ◦ T ) − I)v1 , v2 > = < (T ∗ ◦ T )v1 , v2 > − < v1 , v2 >=


= < T v1 , T v2 > − < v1 , v2 >= 0 ,

also insbesondere für v2 = (T ∗ ◦ T − I)v1 . Hieraus folgt

||(T ∗ ◦ T − I)v1 ||2 = 0 ,

d. h. (T ∗ ◦ T − I)v1 = v1 bzw. T ∗ ◦ T = I.
3. c) ⇒ d): Es sei (v1 , . . . , vn ) eine ONB von V . Dann gilt für j, k ∈ {1, . . . , n}

< T vj , T vk >=< vj , (T ∗ ◦ T )vk >=< vj , vk >= δjk .

4. d) ⇒ e) ist klar (F. 14.12).


17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 128

5. e) ⇒ a): Es sei (v1 , . . . , vn ) eine ONB von V so, dass (T v1 , . . . , T vn ) ebenfalls eine
ONB ist. Für v ∈ V gilt dann mit Pythagoras und (7)
Xn n
X
||T v||2 = ||T ( < v, vj > vj )||2 = || < v, vj > T vj ||2
j=1 j=1
n
X
= | < v, vj > |2 = ||v||2 .
j=1

Damit sind a) bis e) äquivalent.


6. c) ⇔ f): Ist T ∗ ◦ T = I, so ist T injektiv, also auch bijektiv nach S. 7.5. Außerdem
ist T −1 = T ∗ . Umgekehrt folgt aus f) natürlich auch c).
7. f) ⇔ g): Es gilt T −1 = T ∗ genau dann, wenn (T ∗ )−1 = T (= T ∗∗ ) gilt. Also folgt
aus der (bewiesenen) Äquivalenz von a) und f) auch die Äquivalenz von f) und g). 2

Folgerung 17.4 1. Nach S. 17.3 ist jede unitäre lineare Abbildung auf (einem endlich-
dimensionalen unitären Raum) V auch normal (denn: T ∗ ◦T = I = (T ∗ )∗ ◦T ∗ = T ◦T ∗ ).
Also folgt aus S. 16.15, dass im Falle K = C eine ONB aus Eigenvektoren existiert (d.
h. T ist unitär diagonalisierbar). Außerdem folgt aus der Definition sofort, dass alle
Eigenwerte den Betrag 1 haben.
2. Es sei C ∈ Kn×n , und es seinen c(k) = Cek für k = 1, . . . , n die Spalten von C.
Dann ist C genau dann unitär, wenn (c(1) , . . . , c(n) ) eine ONB von Kn ist. Weiter ist
dies genau dann der Fall, wenn C invertierbar ist mit

C −1 = C ∗ .

(Denn: Die Behauptungen ergeben sich durch Anwendung von S.17.3 unter Beachtung,
dass (e1 , . . . , en ) eine ONB von Kn mit dem kanonischen Skalarprodukt ist.)

Im Fall K = R ist nicht jede orthogonale lineare Abbildung diagonalisierbar, wie das
folgende Beispiel zeigt.

Beispiel 17.5 Für α ∈ (0, π) sei


!
cos α − sin α
A = Aα = ∈ R2×2
sin α cos α

(A beschreibt die Drehung um den Winkel α um 0 in R2 ). Dann gilt


! !
cos α − sin α
Ae1 = , Ae2 = .
sin α cos α

Also ist

< Ae1 , Ae2 >= − cos α sin α + cos α sin α = 0


17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 129

und

||Ae1 ||2 = cos2 α + sin2 α = 1 = ||Ae2 ||2 ,

d. h. (Ae1 , Ae2 ) ist eine ONB von R2 . Nach F. 17.4.2 ist A orthogonal. Es gilt

P (λ) = det(A − λE) = (cos α − λ)2 + sin2 α = 1 − 2λ cos α + λ2


≥ 1 + λ2 − 2|λ cos α| > 1 + λ2 − 2|λ| = (1 − |λ|)2 ≥ 0 ,

d. h. P (λ) > 0 für alle λ ∈ R. Also hat A keine (reellen) Eigenwerte und ist damit
insbesondere nicht diagonalisierbar.

Folgerung 17.6 Es sei A ∈ Kn×n symmetrisch (im Falle K = R) oder normal (im
Falle K = C). Dann existiert nach S. 16.8 bzw. S. 16.15 (Spektralsätze) eine ONB
(v1 , . . . , vn ) von Kn aus Eigenvektoren (zu den Eigenwerten λ1 , . . . , λn ) von A. Ist C ∈
Kn×n die Matrix mit den Spalten v1 , . . . , vn , d. h. C = (Ce1 , . . . , Cen ) = (v1 , . . . , vn ),
so ist

A = C · diag(λ1 , . . . , λn ) · C −1

(vgl. B. 12.14.3). Nach F. 17.4.2 ist C unitär (bzw. orthogonal im Falle K = R), d. h.

C −1 = C ∗ (= C T für K = R) .

Damit gilt im Falle K = R

A = C · diag(λ1 , . . . , λn ) · C T

(dies wird auch als Hauptachsentransformation einer symmetrischen Matrix bezeich-


net) und im Falle K = C

A = C · diag(λ1 , . . . , λn ) · C ∗

(mit reellen λn , . . . , λn im Falle einer hermiteschen Matrix A).

Im Abschnitt 10 haben wir gesehen, wie man die LR-Zerlegung bestimmter invertier-
barer Matrizen berechnen kann. Wir werden jetzt eine andere Zerlegung kennenlernen,
die auf unitären Transformationen beruht. Wesentlicher Vorteil dieser Zerlegung ist die
größere numerische Stabilität.

Wir werden zunächst noch einmal näher auf Householder-Matrizen eingehen.


17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 130

Satz 17.7 Es sei x = (x1 , . . . , xn )T ∈ Kn . Dann existiert ein a ∈ K mit Qa x ∈< e1 >,
d. h. Qa x = λe1 für ein λ ∈ K, wobei e1 = (1, 0, . . . , 0)T .

Beweis.
Zunächst gilt: Ist y = Qa x, so ist (beachte: Qa = Q∗a )

< y, x >=< Qa x, x >=< x, Q∗a x >=< x, Qa x >= < Qa x, x > ,

also < y, x >∈ R.


Wir versuchen, a durch die Forderung Qa x = λe1 zu bestimmen. Aus ||Qa x|| = ||x||
folgt zunächst |λ| = ||x||. Da λx1 =< λe1 , x > reell sein muss, ist

λ = ±eiα ||x||

wobei α := arg(x1 ) (d. h. x1 = eiα |x1 |) im Falle x1 6= 0. (Weiter setzen wir α := 0 falls
x1 = 0.) Aus

x − 2 < x, a > a = λe1

und ||a|| = 1 folgt


x − λe1
a=
||x − λe1 ||
falls x 6∈< e1 >; im Falle x ∈< e1 > wählen wir a = e1 .
Weiter folgt mit x1 = eiα |x1 |
n
X
2 iα 2 iα 2
||x − λe1 || = || x ∓ ||x||e e1 || = |x1 ∓ ||x||e | + |xj |2
j=2
n
X
= (|x1 | ∓ ||x||)2 + |xj |2 .
j=2

Wir wählen das Vorzeichen + (dann ist jedenfalls ||x|| + |x1 | > 0, wobei o. E. x 6= 0
vorausgesetzt wird), d. h. λ = −||x||eiα . Dann gilt

(|x1 | + ||x||)2 = |x1 |2 + 2||x|| |x1 | + ||x||2 ,

also

||x − λe1 ||2 = 2||x||2 + 2||x|| |x1 | .

Folglich ist
1
a= 1/2
(x + ||x||eiα e1 ) .
(2||x||2 + 2||x|| |x1 |)
(Dies gilt auch im Falle x ∈< e1 > \{0}; für x = 0 wähle man etwa a = e1 ).
Umgekehrt sieht man, dass mit diesem a die Behauptung gilt ([Ü]). 2

Hiermit lässt sich zeigen


17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 131

Satz 17.8 Es sei A ∈ Kn×n . Dann existieren eine unitäre Matrix Q ∈ Kn×n und eine
obere Dreiecksmatrix R ∈ Kn×n mit
A=Q·R
(eine solche Zerlegung von A heißt QR-Zerlegung).

Beweis.
Wir konstruieren (n − 1) unitäre und hermitesche Matrizen Q1 , . . . , Qn−1 (die i. w.
aus Householder-Matrizen zusammengesetzt sind) so, dass
Qn−1 · · · Q1 A = R
mit einer oberen Dreiecksmatrix R. Dann gilt mit der unitären Matrix
Q := (Qn−1 · · · Q1 )−1 = Q−1 −1 ∗ ∗
1 · · · Qn−1 = Q1 · · · Qn−1 = Q1 · · · Qn−1
(1) (n)
die Behauptung. Wir setzen A = A0 := (a0 , . . . , a0 ), d. h. a(k) sind die Spalten von
A. Es sei Q1 eine Householder-Matrix so, dass für ein r1 ∈ K
(1)
Q1 · a0 = r1 e1
(existiert nach S. 17.7). Dann gilt für A1 := Q1 · A
 
r1 ∗ · · · ∗
 
 0 
A1 =  .
 
 ..

 Ã1 

0
(1) (n−1)
mit Ã1 ∈ K(n−1)×(n−1) . Nun beachten wir Ã1 =: (a1 , . . . , a1 ) und wählen Q̃2 ∈
K(n−1)×(n−1) gemäß S. 17.7 so, dass
(1)
Q̃2 a1 = r2 e1
für ein r2 ∈ K. Für die unitäre und hermitesche Matrix
 
1 0 ··· 0
 
 0 
Q2 :=  .  ∈ Kn×n
 
 .. Q̃2 
 
0
gilt dann
 
r1 ∗ ··· ··· ∗
 

 0 r2 ∗ ··· ∗ 

 .. 
A2 := Q2 · A1 = Q2 Q1 · A = 
 . 0 

 .. .. 

 . . Ã2 

0 0
17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 132

mit Ã2 ∈ K(n−2)×(n−2) . So fortfahrend erhalten wir im j-ten Schritt eine unitäre und
hermitesche Matrix Qj der Form
" #
Ej−1 0
Qj = ,
0 Q̃j

wobei Q̃j ∈ K(n−j+1)×(n−j+1) eine Householder-Matrix ist, und die


 
r ∗ ... ∗
 1 ..
.. ..

 0 . . .
 

 ..
 
rj ∗ . . . ∗

 . 
Aj = Qj Aj−1 =  ..


 . 0 
 
 .. .. 
 . . Ãj 
 
0 0

erfüllt. Nach (n − 1) Schritten ist schließlich


 
r1 ∗ ··· ∗
 .. .. 
 0 . . 
R := An−1 = Qn−1 An−2 =  = Qn−1 · · · Q1 · A
 
.. ..

 . . ∗ 
0 ... 0 rn

wie behauptet. 2

Bemerkung 17.9 1. Das im Beweis zu S. 17.8 dargestellte Verfahren zur Berechnung


einer QR-Zerlegung heißt Householder-Verfahren. Es gibt ein alternatives Verfahren,
das auf dem Schmidtschen Orthogonalisierungsverfahren beruht.
2. Man kann zeigen, dass zu jeder invertierbaren Matrix A eine QR-Zerlegung existiert
mit rjj > 0 für alle j, wobei R = (rjk ). Mit dieser Normierung ist die Zerlegung dann
eindeutig ([Ü]). Man spricht dann auch von der QR-Zerlegung von A.
3. Hat man für eine invertierbare Matrix A ∈ Kn×n eine QR-Zerlegung bzw. nur die
Matrizen Q1 , . . . , Qn−1 und R bestimmt, so ist die Lösung A−1 b von Ax = b für b ∈ Kn
leicht zu berechnen durch

Rx = y und Qy = b .

Dabei ist y sofort gegeben durch y = Q−1 b = Qn−1 · · · Q1 ·b und Rx = y kann wie in B.
10.8 gelöst werden. Der wesentliche Vorteil gegenüber der LR-Zerlegung (die nur etwa
die Hälfte des Rechenaufwandes erfordert) liegt in der größeren numerischen Stabilität
(→ Numerik).
17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 133

Beispiel 17.10 Es sei


 
3 1 2
 
A=
 0 3 −1  .

4 8 6

Dann gilt (siehe Beweis zu S. 17.7 und S. 17.8):


 
8
1  
Q1 = E − 2a1 aT1 und a1 = √  0  ,
80  
4

d. h.
 
−3/5 0 −4/5
 
Q1 = 
 0 1  .
0 
−4/5 0 3/5

Also ist
 
−5 −7 −6
 
A1 = Q1 A = 
 0  .
3 −1 
0 4 2
!
3 −1
Hieraus folgt mit Ã1 =
4 2
!
1 8
Q̃2 = E − 2a2 aT2 wobei a2 = √ ,
80 4

d. h.
!
−3/5 −4/5
Q̃2 =
−4/5 3/5

bzw.
 
1 0 0
 
Q2 = 
 0 −3/5 −4/5  .

0 −4/5 3/5

Also ist
 
−5 −7 −6
 
R = A2 = Q2 · A1 = 
  = Q2 Q1 · A .
0 −5 −1 
0 0 2
18 DEFINITE OPERATOREN 134

Schließlich gilt

Q = (Q2 Q1 )−1 = Q−1 −1 ∗ ∗


1 Q2 = Q1 Q2 = Q1 Q2
 
−15 16 −12
1  
=  0 −15 −20  .
25  
−20 −12 9

18 Definite Operatoren
Es sei V ein endlich-dimensionaler unitärer Raum über K, und es sei T ∈ L(V ) selbst-
adjungiert. Dann gilt für alle v ∈ V

< T v, v >=< v, T ∗ v >=< v, T v >= < T v, v > ,

d. h. < T v, v >∈ R.

Definition 18.1 Es sei V ein endlich-dimensionaler unitärer Raum, und es sei T ∈


L(V ) selbstadjungiert. Dann heißt T
1. positiv semidefinit, falls < T v, v > ≥ 0 für alle v ∈ V .
2. positiv definit, falls < T v, v > > 0 für alle v ∈ V \ {0}.
3. negativ (semi-)definit, falls −T positiv (semi-)definit ist,
4. indefinit, falls T weder positiv noch negativ semidefinit ist.
Wie üblich heißt eine Matrix A ∈ Kn×n positiv (negativ) (semi-)definit bzw. indefinit,
falls das Entsprechende für x 7→ Ax ∈ L(Kn ) (mit kanonischem Skalarprodukt) gilt.
Ferner heißt q = qA : Kn → K mit

q(x) = qA (x) = x∗ Ax =< Ax, x > (x ∈ Kn )

quadratische Form (von A).

Bemerkung 18.2 Ist A ∈ Kn×n beliebig, so ist A∗ A ∈ Kn×n positiv semidefinit (denn
< A∗ Ax, x >=< Ax, Ax > ≥ 0). Weiter ist A∗ A positiv definit, wenn < Ax, Ax >> 0
für alle x ∈ Kn \ {0}, also genau dann, wenn A invertierbar ist (warum?).

Eine wesentliche Verallgemeinerung dieses Sachverhaltes liefert

Satz 18.3 Es sei (V, < ·, · >) ein endlich-dimensionaler unitärer Raum, und es sei
T ∈ L(V ). Dann sind äquivalent:
a) T ist positiv semidefinit,
b) T ist selbstadjungiert und alle Eigenwerte sind ≥ 0,
c) es existiert ein positiv semidefinites S ∈ L(V ) mit S 2 = T ,
d) es existiert ein selbstadjungiertes S ∈ L(V ) mit S 2 = T ,
e) es existiert ein S ∈ L(V ) mit S ∗ ◦ S = T .
18 DEFINITE OPERATOREN 135

Beweis.
a) ⇒ b): Nach Definition ist T selbstadjungiert. Weiter gilt: Ist λ ein Eigenwert von
T und v 6= 0 ein zugehöriger Eigenvektor, so gilt

0 ≤ < T v, v >=< λv, v >= λ < v, v > ,

also λ ≥ 0 (da (v, v) > 0).


b) ⇒ c): Nach dem Spektralsatz (S. 16.8) existiert eine ONB (v1 , . . . , vn ) aus Eigen-
vektoren zu den Eigenwerten λ1 , . . . , λn ∈ [0, ∞). Wir definieren S ∈ L(V ) durch
p
S(vk ) := λk vk (k = 1, . . . , n)
n
P n p
P
d. h. S(v) = S( < v, vj > vj ) = λj < v, vj > vj . Dann gilt
j=1 j=1

n
X n
X
λj | < v, vj > |2 ≥ 0
p p
< Sv, v >= λj < v, vj >< vj , v >=
j=1 j=1

und
n
X n
X
p p
< v, Sv > = < v, λj < v, vj > vj >= λj < v, vj > < v, vj >=
j=1 j=1
n
X
λj | < v, vj > |2 (=< Sv, v >) .
p
=
j=1
√ √
Also ist S positiv semidefinit. Aus S 2 (vk ) = λk λk vk = T vk für k = 1, . . . , n folgt
S = T 2.
c) ⇒ d) und d) ⇒ e) sind klar.
e) ⇒ a): Es sei S ∈ L(V ) mit S ∗ ◦ S = T . Dann ist T = T ∗ und es gilt für alle v ∈ V

< T v, v >=< (S ∗ ◦ S)v, v >=< Sv, Sv > ≥ 0 .

Also ist T positiv semidefinit. 2

Bemerkung 18.4 Es sei V ein endlich-dimensionaler unitärer Raum, und es sei T ∈


L(V ).
1. Wie im Beweis zu S. 18.3 sieht man, dass ein T genau dann positiv definit ist,
wenn T selbstadjungiert ist mit durchweg positiven Eigenwerten. (Denn: Ist T positiv
definit, so gilt λ > 0 im Beweisschritt a) ⇒ b). Ist umgekehrt T selbstadjungiert mit
positiven Eigenwerten λ1 , . . . , λn , so ist
n
X n
X
< T v, v >= λj < v, vj >< vj , v >= λj | < v, vj > |2 > 0
j=1 j=1

für v 6= 0, da < v, vj >6= 0 für mindestens ein j.)


18 DEFINITE OPERATOREN 136

Entsprechende Aussagen gelten für “negativ definit”. Außerdem ist ein selbstadjungier-
tes T ∈ L(V ) genau dann indefinit, wenn sowohl positive als auch negative Eigenwerte
existieren.
2. Im Allgemeinen existieren viele selbstadjungierte S ∈ L(V ) mit S 2 = T :
Ist etwa A = E in K2×2 , so gilt für alle ϑ ∈ R

E = Q2ϑ

mit
!
cos ϑ sin ϑ
Qϑ := .
sin ϑ − cos ϑ

(Qϑ ist Spiegelung an der Gerade Gϑ mit Winkel ϑ/2 zur x1 -Achse). Man kann jedoch
zeigen, dass nur ein positiv semidefinites S ∈ L(V ), nämlich das aus dem Beweis zu S.
18.3, mit S 2 = T existiert (auf den Beweis wollen wir verzichten). Man schreibt dann
auch

S := T

für dieses S.

Insbesondere zeigt S. 18.3, dass jede positiv definite Matrix A ∈ Kn×n eine Darstellung
A = B ∗ B mit (in diesem Fall invertierbarer) Matrix B ∈ Kn×n hat. Der folgende Satz
zeigt, dass B sogar als Dreiecksmatrix gewählt werden kann.

Satz 18.5 E sei A ∈ Kn×n . Genau dann ist A positiv definit, wenn eine obere Drei-
ecksmatrix R = (rjk ) ∈ Kn×n existiert mit

A = R∗ R

und rjj 6= 0 für j = 1, . . . , n.

Beweis.
1. “⇒” Es sei A positiv definit. Dann existieren nach S. 18.3 eine (positiv semidefinite)
Matrix B mit B ∗ B = A. Da A positiv definit ist, ist B invertierbar (0 kann kein
Eigenwert von B sein). Nach S. 17.8 existieren eine unitäre Matrix Q und eine obere
Dreiecksmatrix R = (rjk ) mit B = QR. Dabei ist det(R) 6= 0 und deshalb rjj 6= 0 (j =
1, . . . , n). Es gilt

A = B ∗ B = (QR)∗ (QR) = R∗ Q∗ QR = R∗ R .

2. “⇐” Ist A = R∗ R, so ist A positiv semidefinit nach B. 18.2. Da rjj 6= 0 für


j = 1, . . . , n d. h. det(R) 6= 0 ist, ist R invertierbar. Also ist A positiv definit nach B.
18.2. 2
18 DEFINITE OPERATOREN 137

Bemerkung 18.6 In der Situation von S. 18.5 kann R so gewählt werden, dass rjj > 0
für alle j ∈ {1, . . . , n}. Mit dieser Normierung ist R dann eindeutig bestimmt und die
Zerlegung A = R∗ R heißt Cholesky-Zerlegung von A.
(Denn:
1. Existenz: Nach S. 18.5 existiert eine (invertierbare) obere Dreiecksmatrix R = (rjk )
mit rjj 6= 0 und A = R∗ R. Es sei

D = diag(e−iα1 , . . . , e−iαn ) ,

wobei αj = arg(rjj ) (d. h. rjj = |rjj |eiαj ). Dann gilt

DD = diag(eiα1 e−iα1 , . . . , eiαn e−iαn ) = E

und
 
|r11 | ∗ ... ∗
 .. .. 
 0 . . 
R̃ = DR =   ,
 
.. .. ..

 . . . ∗ 

0 ... 0 |rnn |

d. h. R̃ ist eine obere Dreiecksmatrix mit positivem Diagonalelementen. Außerdem gilt

R̃∗ R̃ = (DR)∗ DR = R∗ DDR = R∗ R = A .

2. Eindeutigkeit: Es seien R und S obere Dreiecksmatrizen mit rjj > 0 und sjj > 0 für
j = 1, . . . , n sowie R∗ R = A = S ∗ S. Dann sind R−1 und S −1 (und damit auch RS −1
sowie SR−1 ) obere Dreiecksmatrizen. Aus R∗ R = S ∗ S folgt

SR−1 = (S ∗ )−1 R∗ = (S −1 )∗ R∗ = (RS −1 )∗ ,

d. h. SR−1 = D = diag(λ1 , . . . , λn ). Also ist S = DR und damit R∗ R = (DR)∗ DR =


R∗ DDR.
Hieraus folgt E = DD = diag(|λ1 |2 , . . . , |λn |2 ), d. h. |λj | = 1 für j = 1, . . . , n.
Außerdem folgt aus S = DR, dass sjj = λj rjj für j = 1, . . . , n gilt, also λj = sjj /rjj >
0. Damit ist λj = 1 für j = 1, . . . , n, d. h. D = E und damit S = R.)

Bemerkung und Definition 18.7 Es seien V bzw. W endlich-dimensionale unitäre


Räume (über dem gemeinsamen Körper K), und es sei T ∈ L(V, W ) beliebig. Dann
ist T ∗ ◦ T ∈ L(V ) positiv semidefinit. Sind µ1 , . . . , µn die Eigenwerte von T ∗ ◦ T , so
gilt µj ≥ 0 für j = 1, . . . , n. Die Zahlen

λj := µj (j = 1, . . . , n)

(oder auch nur die positiven dieser Zahlen) heißen dann Singulärwerte von T .
Wie üblich sind die Singulärwerte von A ∈ Km×n definiert als die Singulärwerte von
x 7→ Ax ∈ L(Kn , Km ) (mit kanonischem Skalarprodukt).
Damit gilt
18 DEFINITE OPERATOREN 138

Satz 18.8 (Singulärwertzerlegung) Es seien V, W endlich-dimensionale unitäre


Räume über K, und es sei T ∈ L(V, W ). Ferner seinen λ1 , . . . , λr die positiven Sin-
gulärwerte von T . Dann existieren eine ONB N = (v1 , . . . , vn ) von V und eine ONB
M = (w1 , . . . , wm ) von W so, dass

ϕM,N (T ) = D = (djk ) ∈ Km×n

mit
(
λk , falls j = k, k = 1, . . . , r
djk := .
0 , sonst

Beweis.
Da T ∗ T positiv semidefinit ist, existiert nach S. 16.8 eine ONB N = (v1 , . . . , vn ) von
V aus Eigenvektoren von T ∗ T zu den Eigenwerten µ1 , . . . , µn ≥ 0 von T ∗ T . O. E.
sei T 6= 0. Dann ist auch T ∗ T 6= 0. (Denn: Ist T ∗ T = 0, so ist < T vk , T vk >=<
vk , T ∗ T vk >= 0, d. h. T vk = 0 für k = 1, . . . , n und damit T = 0.)
Weiter sei o. E. r ∈ {1, . . . , n} so, dass µ1 , . . . , µr > 0 und µr+1 , . . . , µn = 0. Dann
gilt für j, k = 1, . . . , n

< T vj , T vk >=< vj , T ∗ T vk >= µk < vj , vk >= µk δjk ,

d. h. w1 = √1µ1 T v1 , . . . , wr = √1µr T vr ist ein ONS in W (und r ≤ m). Nach dem


dem Schmidt’schen Orthogonalisierungsverfahren und dem Basisergänzungssatz läßt
sich w1 , . . . , wr zu einer ONB M = (w1 , . . . , wm ) von W fortsetzen. Dann gilt für
D = (djk ) = ϕM,N (T ) nach S. 14.10
m
X m
X
djk wj = T vk = < T vk , wj > wj ,
j=1 j=1

d. h. djk =< T vk , wj >. Für j ≤ r (und k ≤ n) ist


 
vj 1 √ √
djk =< T vk , wj >=< T vk , T √ >= √ < T vk , T vj >= µj δjk = µk δjk .
µj µj

Weiter gilt für j > r, k ≤ r


√ 1 √
djk =< T vk , wj >= µk < √ T vk , wj >= µk < wk , wj >= 0
µk
und für j > r, k > r ist T ∗ T vk = 0, also

0 =< vk , T ∗ T vk >=< T vk , T vk > ,

d. h. T vk = 0 und damit djk =< T vk , wj >= 0. Insgesamt ist ϕM,N (T ) = (djk ) mit
(
λk , falls j = k, k = 1, . . . , r
djk := .
0 , sonst
2
18 DEFINITE OPERATOREN 139

Bemerkung 18.9 Insbesondere ergibt sich aud S. 18.8, dass für jede Matrix A ∈
Km×n unitäre Matrizen B ∈ Km×m und C ∈ Kn×n existieren mit

A = BDC ∗ ,

wobei D = (djk ) wie in S.18.8 und λ1 , . . . , λr die positiven Singulärwerte von A sind.
Eine solche Zerlegung nennt man auch Singulärwertzerlegung von A.
(Denn: Für C = (v1 , . . . , vn ) = (Ce1 , . . . , Cen ) und B = (w1 , . . . , wm ) = (Be1 , . . . , Ben )
gilt nach S. 18.8 für k = 1, . . . , n
( ) ( )
λk wk , falls k ≤ r Bλk ek , falls k ≤ r
ACek = Avk = = = BDek .
0 , falls k > r B0 , falls k > r

Also ist AC = BD und damit, da C unitär ist, A = BDC −1 = BDC ∗ .)


19 TRIANGULIERBARKEIT UND DER SATZ VON CAYLEY-HAMILTON 140

19 Triangulierbarkeit und der Satz von Cayley-Hamilton


Wir betrachten im folgenden wieder allgemeine lineare Räume V über K allerdings
meist über K = K. Zunächst wollen wir untersuchen, welche T ∈ L(V ) triangulierbar
sind, d. h. für eine geeignete Basis M ist die Matrix von V bzgl. M eine Dreiecksmatrix.

Definition 19.1 Es sei V ein linearer Raum über K, und es sei T ∈ L(V ). Ein
Unterraum U von V heißt invariant (unter T ), falls T u ∈ U für alle u ∈ U (d. h.
T (U ) ⊂ U ).

Damit gilt

Satz 19.2 Es sei V ein endlich-dimensionaler linearer Raum über K und M = (v1 , . . . , vn )
eine Basis von V . Ferner sei T ∈ L(V ). Dann sind äquivalent
a) ϕM (T ) ist eine obere Dreiecksmatrix,
b) T vk ∈< v1 , . . . , vk > für jedes k ∈ {1, . . . , n},
c) < v1 , . . . , vk > ist invariant unter T für jedes k ∈ {1, . . . , n}.

Beweis.
1. Die Äquivalenz von a) und b) ergibt sich direkt aus der Definition von ϕM (T ). ([Ü])
2. c) ⇒ b) ist klar. Bleibt also noch b) ⇒ c) zu zeigen. Es sei k ∈ {1, . . . , n}. Nach b)
ist

T v1 ∈< v1 > ⊂ < v1 , . . . , vk >, . . . , T vk ∈ < v1 , . . . , vk > .

also auch

< T v1 , . . . , T vk > ⊂ < v1 , . . . , vk > (k = 1, . . . , n)

und damit

T (< v1 , . . . , vk >) ⊂ < v1 , . . . , vk > (k = 1, . . . , n) .

Definition 19.3 Es sei V ein endlich-dimensionaler linearer Raum über K, und es


sei T ∈ L(V ). T heißt triangulierbar, falls eine Basis M von V so existiert, dass
ϕM (T ) eine obere Dreiecksmatrix ist. Eine Matrix A ∈ K n×n heißt triangulierbar,
falls x 7→ Ax ∈ L(K n ) triangulierbar ist.
19 TRIANGULIERBARKEIT UND DER SATZ VON CAYLEY-HAMILTON 141

Satz 19.4 Es sei V ein n-dimensionaler linearer Raum über K, und es sei T ∈ L(V ).
Dann ist T genau dann triangulierbar, wenn PT in Linearfaktoren zerfällt (d. h.
n
Q
PT (λ) = (λj − λ) für gewisse λ1 , . . . , λn ∈ K). Insbesondere ist im Falle K = C
j=1
jedes T ∈ L(V ) triangulierbar.

Beweis.
1. Ist T triangulierbar, d. h. existiert eine Basis M von V so, dass ϕM (T ) = (rjk ) eine
obere Dreiecksmatrix ist, so ist auch ϕM (T ) − λE obere Dreiecksmatrix, und es gilt
n
Y n
Y
PT (λ) = PϕM (T ) (λ) = (rjj − λ) =: (λj − λ)
j=1 j=1

mit rjj =: λj .
2. Wir zeigen die Rückrichtung per Induktion nach n = dim(V ). Für n = 1 ist nichts
zu zeigen.
Es sei dim(V ) = n und T ∈ L(V ) mit
n
Y
PT (λ) = (λj − λ) (λ ∈ K) .
j=1

Dann sind λ1 , . . . , λn Eigenwerte von T (S. 12.9). Es sei v1 6= 0 ein Eigenvektor zu λ1 ,


und es sei U :=< v1 >. Wir wählen eine Unterraum W von V so, dass

U ⊕W =V

(S. 5.20) und setzen S := PW,U ◦ T|W : W → W . Dann ist S ∈ L(W ) (vgl. B. 15.2).
n
Q
Wir zeigen: PS (λ) = (λj − λ).
j=2
(Denn: Es sei N = (v2 , . . . , vn ) eine Basis von W . Dann ist (v1 , . . . , vn ) =: M eine
Basis von V und es gilt (da T v1 = λ1 v1 )
 
λ1 ∗ . . . ∗
 
 0 
 
 .
.

A = (ajk ) := ϕM (T ) =   . B 

 .
 ..


 
0

mit B ∈ K(n−1)×(n−1) . Für k = 2, . . . , n gilt


 
Xn
Svk = PW,U (T vk ) = PW,U  ajk vj  =
j=1
n
X n
X
= ajk PW,U vj = ajk vj ,
j=1 j=2
19 TRIANGULIERBARKEIT UND DER SATZ VON CAYLEY-HAMILTON 142

d. h. es ist B = ϕN (S). Damit gilt (Entwicklung nach 1. Spalte)


PT (λ) = det(A − λE) = (λ1 − λ) det(B − λE) = (λ1 − λ)PS (λ)
und deshalb
n
Y
PS (λ) = (λj − λ) (λ ∈ K)) .
j=2

Nach Induktionsvoraussetzung (beachte dim(W ) = n − 1) können wir deshalb N so


wählen, dass B = ϕN (S) eine obere Dreiecksmatrix ist. Dann ist auch A = ϕM (T )
eine obere Dreiecksmatrix.
3. Ist K = C, so zerfällt PT nach dem Fundamentalsatz der Algebra stets in Linear-
faktoren, also ist jedes T ∈ L(V ) triangulierbar. 2

Definition 19.5 Es seien V ein linearer Raum über K, und es seien T, T1 , . . . , Tk ∈


L(V ).
k k
Tν := T1 ◦ . . . ◦ Tk sowie T k := T für k ∈ N und T 0 := I.
Q Q
1. Wir setzen
ν=1 ν=1
k
Entsprechend setzen wir für A, A1 , . . . , Ak ∈ K n×n auch Aν = A1 · . . . · Ak ; Ak :=
Q
ν=1
k
A für k ∈ N sowie A0 := E = En .
Q
ν=1
n
aν z ν , so setzen wir
P
2. Ist K = K und P ∈ ΠK , P (z) =
ν=0
n
X
P (T ) := aν T ν ∈ L(V ) .
ν=0
Entsprechend setzen wir für A ∈ Kn×n

n
X
P (A) := aν Aν ∈ Kn×n .
ν=0

Bemerkung 19.6 Sind P, Q ∈ ΠK , so gilt für alle T ∈ L(V )


(P Q)(T ) = P (T ) ◦ Q(T )
und damit auch
P (T ) ◦ Q(T ) = Q(T ) ◦ P (T )
n m
aµ z ν , Q(z) = bν z ν , so ist mit aµ = bν := 0 für µ > n bzw.
P P
(Denn: Ist P (z) =
µ=0 ν=0
ν>m
n+m
X k
X n+m
XX k
(P Q)(T ) = Tk aµ bk−µ = aµ T µ ◦ bk−µ T k−µ
k=0 µ=0 k=0 µ=0
 
n m
!
X X
=  aµ T µ  ◦ bν T ν = P (T ) ◦ Q(T )) .
µ=0 ν=0
19 TRIANGULIERBARKEIT UND DER SATZ VON CAYLEY-HAMILTON 143

Damit gilt folgender bemerkenswerte Satz.

Satz 19.7 (Cayley-Hamilton) Es sei V ein endlich-dimensionaler linearer Raum


über K, und es sei T ∈ L(V ) triangulierbar. Ist PT das charakteristische Polynom von
T , so gilt

PT (T ) = 0 .

Beweis.
Es sei M = (v1 , . . . , vn ) eine Basis von V so, dass ϕM (T ) = R = (rjk ) eine obere
Dreiecksmatrix ist. Es reicht, zu zeigen

PT (T )vk = 0 (k = 1, . . . , n) .

Es gilt
n
Y n
Y
PT (z) = PϕM (T ) (z) = (rjj − z) = (λj − z)
j=1 j=1
Q
mit λj = rjj . Also ist nach B. 19.6 für k = 1, . . . , n (mit := I)

n
Y n
Y
PT (T ) = (λj T 0 − T 1 ) = (−1)n (T − λj I)
j=1 j=1
n
Y k
Y
= (−1)n (T − λj I) (T − λj I) .
j=k+1 j=1

Also reicht es, für k = 1, . . . , n


 
k
Y
 (T − λj I) vk = 0
j=1

zu zeigen. Für k = 1 gilt T v1 = λ1 v1 , d. h. (T − λ1 I)v1 = 0.


Es gelte die Behauptung für m = 1, . . . , k − 1, d. h.
m
Y
(T − λj I)vm = 0 (m = 1, . . . , k − 1) .
j=1

k−1
Q k−1
Q m
Q
Dann ist auch (T −λj I)vm = (T −λj I) (T −λj I)vm = 0 für m = 1, . . . k−1.
j=1 j=m+1 j=1
Aus ϕM (T ) = R = (rµk ) mit rµk = 0 für µ > k folgt
k
X k−1
X
T vk = rµk vµ = rµk vµ + λk vk
µ=1 µ=1
19 TRIANGULIERBARKEIT UND DER SATZ VON CAYLEY-HAMILTON 144

d. h.
k−1
X
(T − λk I)vk = rµk vµ .
µ=1

Also gilt auch


k
Y k−1
Y k−1
X k−1
Y
(T − λj I)vk = (T − λj I)(T − λk I)vk = rµk (T − λj I)vµ = 0
j=1 j=1 µ=1 j=1

d. h. die Behauptung gilt für k. Damit ist PT (T )vk = 0 für k = 1, . . . , n. 2

Bemerkung 19.8 Im Falle K = C ist nach S. 19.4 die Voraussetzung “T triangulier-


bar” stets erfüllt, d. h. PT (T ) = 0 gilt für alle T ∈ L(V ). Damit ergibt sich für alle
A ∈ Cn×n

PA (A) = 0 .

Ist A ∈ Rn×n , so lässt sich A natürlich auch als Matrix in Cn×n auffassen. Also gilt
auch hier

PA (A) = 0 .

Hieraus folgt, dass die Aussage von S. 19.7, also PT (T ) = 0, auch im Falle K = R,
ohne die Voraussetzung “T triangulierbar” richtig bleibt ([Ü]).

Beispiel 19.9 Es sei


!
0 1
A= .
−1 0

Dann gilt
!
−λ 1
PA (λ) = det(A − λE) = = λ2 + 1 .
−1 −λ

Also ist nach dem Satz von Cayley-Hamilton

PA (A) = A2 + E = 0 .

Tatsächlich rechnet man nach


!
−1 0
A2 = ,
0 −1

d. h. A2 + E = 0.
20 JORDAN’SCHE NORMALFORM 145

20 Jordan’sche Normalform
Definition 20.1 Es sei V ein linearer Raum über K, und es sei T ∈ L(V ). Ist λ ein Ei-
genwert von T , so heißt v ∈ V verallgemeinerter Eigenvektor (oder auch Hauptvektor)
(von T ), falls

(T − λI)j v = 0

für ein j ∈ N, d. h. v ∈ Kern(T − λI)j für ein j ∈ N. (Wie üblich sind verallgemeinerte
Eigenvektoren einer Matrix A ∈ K n×n über x 7→ Ax definiert.)

Beispiel 20.2 Es sei T ∈ L(K3 ) mit


      
x1 0 1 0 x1 x2
      
T x2  =  0 0 0   x2  =  0
      .

x3 0 0 1 x3 x3

Dann sind 0, 1 die Eigenwerte von T (denn: det(A − λE) = (−λ)2 (1 − λ) ). Weiter
ist e1 Eigenvektor zu λ = 0, und e3 ist Eigenvektor zu λ = 1. Außerdem sieht man:
dim(Kern(T − λI)) = 1 für λ = 0, 1.
Es gilt
      
x1 0 1 0 x2 0
T2 
      
 x2  =  0 0 0   0  =  0  ,
     
x3 0 0 1 x3 x3

also ist e2 verallgemeinerter Eigenvektor zum Eigenwert λ = 0. Insbesondere sieht


man, dass eine Basis - nämlich (e1 , e2 , e3 ) - aus verallgemeinerten Eigenvektoren exi-
stiert.

Ist T ∈ L(V ) so gilt

{0} = Kern(T 0 ) ⊂ Kern(T 1 ) ⊂ Kern(T 2 ) ⊂ . . . .

Weiter kann man leicht zeigen:

Satz 20.3 Es sei T ein linearer Raum über K, und es sei T ∈ L(V ).
1. Ist Kern(T m ) = Kern(T m+1 ) für ein m ∈ N0 , so gilt {0} = Kern(T 0 ) ⊂ . . . ⊂
Kern(T m ) = Kern(T m+1 ) = Kern(T m+2 ) = . . . .
2. Ist dim(V ) = n, so gilt

Kern(T n ) = Kern(T n+1 ) (= Kern(T n+2 ) = . . . ) .


20 JORDAN’SCHE NORMALFORM 146

Beweis.
1. Es sei k ∈ N. Wir zeigen Kern(T m+k ) = Kern(T m+k+1 ). Klar ist, dass “⊂” gilt.
Umgekehrt sei v ∈ Kern(T m+k+1 ). Dann ist

0 = T m+k+1 v = T m+1 (T k v) ,

also ist

T k v ∈ Kern(T m+1 ) = Kern(T m )

und damit

0 = T m (T k v) = T m+k v .

Folglich ist v ∈ Kern(T m+k ), d. h. “⊃” gilt auch.


2. Nach 1. reicht es, Kern(T n ) = Kern(T n+1 ) zu zeigen. Angenommen, nicht. Dann ist
nach 1.

{0} = Kern(T 0 ) ⊂
6=
Kern(T 1 ) ⊂
6=
Kern(T 2 ) ⊂
6=
Kern(T n+1 ) .

Hieraus folgt

dim(Kern(T n+1 )) > dim(Kern(T n )) > . . . ,

also dim(Kern(T n+1 )) ≥ n + 1. Da Kern(T n+1 ) ein Unterraum von V ist, ergibt sich
ein Widerspruch. 2

Damit erhält man sofort

Bemerkung und Definition 20.4 Es sei V ein n-dimensionaler linearer Raum , und
es sei T ∈ L(V ). Ist λ ein Eigenwert von T , so ist V verallgemeinerter Eigenvektor ge-
nau dann, wenn v ∈ Kern(T −λI)n ist. Der Unterraum Kern(T −λI)n heißt Hauptraum
zu λ (von T ). Entsprechend heißt für eine Matrix A ∈ K n×n mit Eigenwert λ der Un-
terraum Kern(A − λE)n Hauptraum zu λ (von A).
(Denn: Ist v ∈ Kern(T − λI)n , so ist V verallgemeinerter Eigenvektor. Ist umgekehrt
v ein verallgemeinerter Eigenvektor von T , so ist

v ∈ Kern(T − λI)j

für ein j ∈ N. Aus S. 20.3 ergibt sich dann auch v ∈ Kern(T − λI)n ).

Bemerkung 20.5 In Analogie zu S. 20.3 gilt für Bilder: Ist T ∈ L(V ), so ist

V = Bild(T 0 ) ⊃ Bild(T 1 ) ⊃ Bild(T 2 ) ⊃ · · · .


20 JORDAN’SCHE NORMALFORM 147

Außerdem gilt im Falle dim(V ) = n:

Bild(T n ) = Bild(T n+1 ) = Bild(T n+2 ) = · · ·

(Denn: Nach der Dimensionsformel (S. 7.4) und S. 20.3 ist

dim(Bild(T n )) = dim(Bild(T n+1 )) = · · · ,

und damit ist nach der vorherigen Inklusionskette

Bild(T n ) = Bild(T n+1 ) = · · · .)

Wir kommen nun zu einem zentralen Satz über Haupträume

Satz 20.6 Es sei V ein n-dimensionaler linearer Raum über K, und es sei T ∈ L(V )
triangulierbar. Ferner seien λ1 , . . . , λm die paarweise verschiedenen Eigenwerte von
T . Ist mit k1 , . . . , km ∈ {1, . . . , n}
m
Y
PT (λ) = (λj − λ)kj ,
j=1

(die Zahl kj heißt algebraische Vielfachheit von λj ), so gilt

kj = dim(Kern(T − λj I)n ) .

Beweis.
Ist ϕM (T ) = R = (rjk ) mit rjk = 0 für j > k, so ist
n
Y m
Y
PT (λ) = PϕM (T ) (λ) = det(R − λE) = (r`` − λ) = (λj − λ)kj
`=1 j=1

für gewisse kj ∈ {1, . . . , n} wobei λ1 , . . . , λm die paarweise verschiedenen Eigenwerte


von T sind. Es ist also zu zeigen:
Für j = 1, . . . , m steht die Zahl λj genau dim(Kern(T −λj I)n )-mal auf der Diagonalen
von R.
Wir beweisen die Behauptung durch Induktion nach n = dim(V ). Für n = 1 ist die
Behauptung klar.
Für ein n ∈ N, n ≥ 2 sei (v1 , . . . , vn ) eine Basis von V so, dass ϕM (T ) obere Dreiecks-
matrix ist, d. h.
 
µ1
 .. 
 . ∗

R = ϕM (T ) =   = (rjk )j,k=1,... ,n .
 
 0 µn−1 
 
µn
20 JORDAN’SCHE NORMALFORM 148

Es sei j ∈ {1, . . . , m}. O. E. sei λj = 0 (sonst betrachte (T −λj I) statt T im folgenden).


Ferner sei U :=< v1 , . . . , vn−1 >.
Dann ist U invariant unter T (S. 19.2), also S = T|U ∈ L(U ). Weiter ist
 
µ1

R̃ =  .. 
 = (rjk )j,k=1,... ,n−1 .
 . ∗ 
0 µn−1

die Matrix von S bzgl. (v1 , . . . , vn−1 ). Nach Induktionsvoraussetzung erscheint 0 auf
der Diagonale von R̃ genau dim(Kern(S n−1 )) ∈ {0, . . . , n−1} mal. Da dim(U ) = n−1
ist, folgt aus S. 20.3 Kern(S n−1 ) = Kern(S n ), also erscheint 0 auf der Diagonale von
R̃ auch dim(Kern(S n )) mal.

1. Fall: µn 6= 0. Wir zeigen: Dann ist Kern(T n ) ⊂ U


(Denn: Es gilt
 
µn
 1 . 
 ..  
(n)

ϕM (T n ) = Rn =   =: rjk
 

 µnn−1 

µnn

also ist
n−1
(n)
X
T n vn = rjn vj + µnn vn =: u + µnn vn
j=1

für ein u ∈ U . Es sei v ∈ Kern(T n ). Dann ist (da U ⊕ < vn >= V )

v = ũ + avn

für ein ũ ∈ U, a ∈ K. Also gilt

0 = T n v = T n ũ + aT n vn = T n n
| ũ{z+ au} +aµn vn .
∈U

Hieraus folgt aµnn vn = 0 (da V = U ⊕ < vn >), also a = 0, d. h. v = ũ ∈ U . Folglich


ist Kern(T n ) ⊂ U ).
Aus Kern(T n ) ⊂ U folgt Kern(S n ) = Kern((T|U )n ) = Kern(T n ). Also erscheint 0
auf der Diagonalen von R genau dim(Kern(S n )) = dim(Kern(T n )) mal, d. h. kj =
dim(Kern(T n )), wie behauptet.
2. Fall: µn = 0. Wir zeigen:

dim(Kern(T n )) = dim(Kern(S n )) + 1 ,
20 JORDAN’SCHE NORMALFORM 149

was impliziert, dass 0 auf der Diagonalen von R genau dim(Kern(T n )) mal die 0 steht,
wie behauptet.
Nach der Dimensionsformel für Unterräume (S. 5.18) gilt

dim(Kern(T n )) = dim(U ∩ Kern(T n )) + dim(U + Kern(T n )) − dim(U )


= dim(Kern(S n )) + dim(U + Kern(T n )) − (n − 1) .

Wir zeigen: Es existiert ein w ∈ Kern(T n ) \ U .


Dazu machen wir den Ansatz

w = u − vn

mit einem u ∈ U . Dann ist jedenfalls w 6∈ U . Wie könnte u aussehen?


Es gilt

T n (u − vn ) = T n u − T n vn ,

also existiert ein u (und damit ein w) wie gewünscht, falls T n u = T n vn , d. h. , falls
T n vn ∈ Bild((T n )|U ) = Bild(S n ). Da R = ϕM (T ) ist, gilt
n−1
X n−1
X
T vn = rjn vj + µn vn = rjn vj ∈ U ,
j=1 j=1

also

T n vn = T n−1 (T vn ) ∈ Bild((T n−1 )|U ) = Bild(S n−1 ) = Bild(S n )

nach B. 20.5. Also existiert ein w ∈ Kern(T n ) \ U . Hieraus ergibt sich

n = dim(V ) ≥ dim(U + Kern(T n )) > dim(U ) = n − 1 ,

also dim(U + Kern(T n )) = n. Nach obiger Dimensionsformel ist

dim(Kern(T n )) = dim(Kern(S n )) + 1 .

Damit können wir folgenden Struktursatz für lineare Abbildungen beweisen (vgl. S.
12.13)

Satz 20.7 Es seinen V ein n-dimensionaler linearer Raum über K und T ∈ L(V ).
Sind λ1 , . . . , λm die paarweise verschiedenen Eigenwerte von T mit den zugehörigen
Haupträumen U1 , . . . , Um , so gilt :

1. Uj ist invariant unter T (j = 1, . . . , m) ,


2. Ist T triangulierbar, so gilt
 
M m m
M
V = Uj = Kern(T − λj I)n  .
j=1 j=1
20 JORDAN’SCHE NORMALFORM 150

Beweis.
1. Nach B. 19.6 ist

(T − λj I)n T = T (T − λj I)n ,

also gilt für u ∈ Uj

(T − λj I)n T u = T (T − λj I)n u = T 0 = 0 ,

d. h. T u ∈ Uj .
2. Nach S. 20.6 gilt
m
X m
X
dim(Uj ) = kj = n .
j=1 j=1

m
P
Es sei U := Uj . Wir zeigen U = V . Dann folgt 2. aus F. 5.19.
j=1
m
P
Mit Uj (j = 1, . . . , m) ist auch U = Uj invariant unter T . Also ist S := T|U ∈ L(U ).
j=1
Außerdem ist S triangulierbar.
(Denn: Ist U = V , so ist S = T triangulierbar. Ist U = 6 V und ist N = (v1 , . . . , vr )
eine Basis von U , so wählen wir Vektoren vr+1 , . . . , vn so, dass M = (v1 , . . . , vn ) eine
Basis von V ist.
Dann gilt für A = (ajk ) = ϕM (T )
n
X r
X
Svk = T vk = ajk vj = ajk vj (k = 1, . . . , r) ,
j=1 j=1

also ajk = 0 für alle (k, j) mit k ≤ r, j > r, d. h.


 
B C
 
A= 


O D

mit B ∈ Kr×r , C ∈ Kr×(n−r) , D ∈ K (n−r)×(n−r) . Außerdem gilt ϕN (S) = B. Hieraus


folgt ([Ü])

PT (λ) = PϕM (T ) (λ) = det(A − λEn ) = det(B − λEr ) det(D − λEn−r )


= PS (λ) · det(D − λEn−r ) .

Da T triangulierbar ist, hat PT genau n Nullstellen incl. Vielfachheiten. Also haben


PS ∈ Πr r Nullstellen und det(D − λEn−r ) ∈ Πn−r n − r Nullstellen. Damit zerfällt
auch PS in Linearfaktoren). Nach Definition hat S dieselben Eigenwerte wie T . Also
gilt
m
Y ˜
PS (λ) = (λj − λ)kj .
j=1
20 JORDAN’SCHE NORMALFORM 151

Außerdem stimmen auch die Haupträume von S zu den Eigenwerten λj mit Uj überein,
d. h.

k˜j = dim(Uj ) .

Anwendung von S. 20.6 auf S ergibt


m
X
dim(U ) = dim(Uj ) = n (= dim(V ))
j=1

also U = V . 2
Als Konsequenz erhalten wir

Folgerung 20.8 Sind V ein endlich-dimensionaler linearer Raum über K und T ∈


L(V ) triangulierbar, so existiert eine Basis von V aus verallgemeinerten Eigenvektoren
von T .
Denn: Man wähle Basen von Uj (j = 1, . . . , m) und setze diese zusammen.

Definition 20.9 Es sei V in linearer Raum über K, und es sei T ∈ L(V ). Dann
heißt T nilpotent, falls T m = 0 für ein m ∈ N gilt. Entsprechend heißt ein A ∈ K n×n
nilpotent, falls Am = 0 für ein m ∈ N.

Beispiel 20.10 1. Für


!
0 1
A=
0 0

git A2 = 0, also ist A nilpotent.


2. Es sei T : Πn → Πn definiert durch

T (P ) := P 0 (P ∈ Πn ) .

Dann ist T ∈ L(Πn ) ([Ü]) und es gilt

T n+1 (P ) = P (n+1) = 0 (P ∈ Πn ) ,

also T n+1 = 0 d. h. T ist nilpotent.

Bemerkung 20.11 1. Ist V ein n-dimensionaler linerarer Raum, und ist T ∈ L(V )
nilpotent, so ist T n = 0
(Denn: Ist T nilpotent, so ist jedes v ∈ V verallgemeinerter Eigenvektor zum Eigenwert
0. Also ist Kern(T n ) = V nach S. 20.4 .)
2. Ist T ∈ L(V ), wobei V ein n-dmensionaler linearer Raum, und ist λ ein Eigenwert
T , so ist (T − λI)|Kern(T −λI)n nilpotent.
(Denn: U := Kern(T −λI)n ist invariant unter T . Also gilt ((T −λI)|U )n = (T −λI)n|U =
0.)
20 JORDAN’SCHE NORMALFORM 152

Im folgenden Satz liegt der wesentliche Schritt zum Beweis der Jordan-Normalform.

Satz 20.12 Es sei V ein n-dimensionaler linearer Raum über K. Ferner sei N ∈ L(V )
nilpotent und für v ∈ V, v 6= 0 sei

m(v) := mN (v) := max{m ∈ N0 : N m v 6= 0} .

Dann existieren Vektoren v1 , . . . , vk ∈ V mit folgenden Eigenschaften:


a) (v1 , N v1 , . . . , N m(v1 ) v1 , . . . , vk , N vk , . . . , N m(vk ) vk ) ist eine Basis von V ,
b) (N m(v1 ) v1 , . . . , N m(vk ) vk ) ist eine Basis von Kern(N ).

Beweis.
Wir zeigen die Behauptung per Induktion nach n = dim V . Für n = 1 ist die Behaup-
tung klar. Es sei n ∈ N, und es sei N ∈ L(V ) nilpotent, wobei dim(V ) = n. Dann ist
N nicht surjektiv (sonst wäre auch N m surjektiv für alle m), also ist dim(Bild(N )) <
n = dim(V ). Wir betrachten Ñ := N|Bild(N ) . Dann ist Ñ ∈ L(Bild(N )) und nilpotent.
Nach Induktionsvoraussetzung existieren u1 , . . . , uj ∈ Bild(N ) so, dass
(i) (u1 , N u1 , . . . , N m(u1 ) u1 , . . . , uj , N uj , . . . , N m(uj ) uj ) eine Basis von Bild(N )
und
(ii) (N m(u1 ) u1 , . . . , N m(uj ) uj ) eine Basis von Kern(Ñ ) = Kern(N ) ∩ Bild(N )
ist (man beachte dabei m(u) = mN (u) = mÑ (u) für alle u ∈ Bild(N )).
Da {u1 , . . . , uj } ⊂ Bild(N ) ist, existieren v1 , . . . , vj ∈ V mit N vr = ur für r =
1, . . . , j. Dann gilt m(vr ) = m(ur ) + 1 für r = 1, . . . , j (beachte ur 6= 0). Wir wählen
einen Unterraum W von Kern(N ) mit

Kern(N ) = (Kern(N ) ∩ Bild(N )) ⊕ W

(existiert nach S. 5.20) und eine Basis (vj+1 , . . . , vk ) von W (dabei ist k = dim(Kern(N )).
Aus vj+1 , . . . , vk ∈ Kern(N ) folgt m(vr ) = 0 für r = j + 1, . . . , k.
Wir zeigen, dass für die so konstruierten v1 , . . . , vk die Bedingungen a) und b) gelten.
zu a): Wir zeigen zunächst: Das System in a) ist linear unabhängig.
Dazu seien ar,s ∈ K mit

k m(v
X Xr )
0= ar,s N s (vr ) .
r=1 s=0

Anwenden von N ergibt


k m(v
X Xr ) j m(u
X X r )+1
s
0 = N (0) = ar,s N (N vr ) = ar,s N s (ur )
r=1 j=0 r=1 s=0
j m(u
X Xr )
= ar,s N s (ur ) .
r=1 s=0
20 JORDAN’SCHE NORMALFORM 153

Also folgt aus (i)

ar,s = 0 für r = 1, . . . , j und s = 0, . . . , m(vr ) − 1 .

Hieraus ergibt sich (beachte: m(vr ) 6= 0)


j
X k
X
0= ar,m(vr ) N m(vr ) (vr ) + ar,0 vr .
|r=1 {z } r=j+1
| {z }
∈Kern(N )∩Bild(N ) ∈W

Da die Summe von Kern(N ) ∩ Bild(N ) und W direkt ist, erhalten wir
j
X j
X
m(vr )
0= ar,m(vr ) N (vr ) = ar,m(vr ) N m(ur ) (ur )
r=1 r=1

und
k
X
0= ar,0 vr .
r=j+1

Aus (ii) ergibt sich

ar,m(vr ) = 0 für r = 1, . . . , j

und da (vj+1 , . . . , vk ) eine Basis von W ist, folgt auch

ar,0 = 0 für r = j + 1, . . . , k .

Damit sind alle ar,s = 0, d. h. das System in a) ist linear unabhängig.


Weiter impliziert (i)
j
X j
X
dim(Bild(N )) = (m(ur ) + 1) = m(vr ) .
r=1 r=1

Das System in a) besteht also aus


k
X j
X
(m(vr ) + 1) = k + m(vr ) = dim(Kern(N )) + dim(Bild(N ))
r=1 r=1

d. h. nach S. 7.4 aus dim(V ) = n Vektoren. Damit ist das System in a) eine Basis von
V.
Zu b): Es gilt

(N m(v1 ) v1 , . . . , N m(vk ) vk ) = (N m(u1 ) u1 , . . . , N m(uj ) uj , vj+1 , . . . , vk ) .

Also ist nach (ii) und der Definition von (vj+1 , . . . , vk ) dieses System eine Basis von
Kern(N ). 2
20 JORDAN’SCHE NORMALFORM 154

Beispiel 20.13 1. Es sei V = Πn und N (P ) := P 0 (P ∈ Πn ) (vgl. B. 20.10). Für


v1 ∈ Πn mit v1 (z) = xn , gilt dann m(v1 ) = n und

(v1 , N v1 , . . . , N m(v1 ) v1 ) = (xn , nxn−1 , . . . , n!x0 )

ist eine Basis von V = Πn . Außerdem ist (N m(v1 ) v1 ) = n!x0 ) eine Basis von Kern(N ) =
Π0 .
2. Es sei V = K4 und N (v) := Av mit
 
0 1 0 0
 
 0 0 0 0 
A :=   .
 
 0 0 0 1 
 
0 0 0 0

Dann ist A (d. h. N ) nilpotent, denn es gilt A2 = 0.


Für
   
0 0
   
 1   0 
v1 =   = e2 , v2 =   = e4
   
 0   0 
   
0 1

gilt

N v1 = Ae2 = e1 , N v2 = Ae4 = e3
N 2 v1 = Ae1 = 0 , N 2 v2 = Ae3 = 0,

d. h. m(v1 ) = m(v2 ) = 1. Hier ist

(v1 , N v1 , v2 , N v2 ) = (e2 , e1 , e4 , e3 ) Basis von V = K4

und

(N v1 , N v2 ) = (e1 , e3 ) Basis von Kern(N ) .

Satz 20.14 Es sei V ein linearer Raum über K, und es sei T ∈ L(V ). Weiter seinen
m
L
U1 , . . . , Um invariante Unterräume und es gelte V = Uj . Ist M = (v1 , . . . , vn ) =
j=1
(vd0 , . . . , vd1 , . . . , vdm−1 +1 , . . . , vdm ), wobei (vdj−1 +1 , . . . , vdj ) eine Basis von Uj ist
(mit d0 := 0 und dm := n), so gilt
 
B1 O
 
 B2 
A = ϕM (T ) = 
 
 . ..


 
O Bm
20 JORDAN’SCHE NORMALFORM 155

wobei Bj ∈ K (dj −dj−1 )×(dj −dj−1 ) die Matrix von T|Uj bzgl. (vdj−1 +1 , . . . , vdj ) ist (d. h.
A hat Blockdiagonalgestalt).

Beweis.
Ist A = (ajk ) so gilt für j = 1, . . . , m und k = dj−1 + 1, . . . , dj

n m d dj
X X X̀ X
T vk = aµk vµ = aµk vµ = aµk vµ ,
µ=0 `=1 µ=d`−1 +1 µ=dj−1 +1

d. h. aµk = 0 für µ 6∈ {dj−1 + 1, . . . , dj }. Damit hat A eine Blockdiagonalgestalt wie


behauptet. 2

Folgerung 20.15 Es seien V, N, v1 , . . . , vk wie in S. 20.12. Ist M die Basis von V aus
S. 20.12 in “absteigender Reihenfolge” d. h.

M = (N m(v1 ) v1 , . . . , N v1 , v1 , . . . , N m(vk ) vk , . . . , vk ) ,

so gilt für A = ϕM (N ):
 
B1 O
 
 B2 
A=
 
.. 

 . 

O Bk

wobei für m(vr ) > 0


 
0 1 0 ... 0
.. .. .. .. .. 
 
. . .

 . . 
..
 
Br = 
 .. .. ∈ K m(vr )+1,m(vr )+1
. .

 . 0 
 .. .. 
 . . 1 
 
0 ... ... ... 0

bzw. B = (0) für m(vr ) = 0.


Denn: Für r ∈ {1, . . . , k} wird der erste Vektor des Tupels (N m(vr ) vr , . . . , N vr , vr )
durch N auf 0 abgebildet und die folgenden jeweils auf ihren Vorgänger. Insbesondere
sind die Unterräume Wr =< N m(vr ) vr , . . . , vr > invariant unter N und es gilt V =
Lk
Wr . Nach S.20.14 hat A Blockdiagonalgestalt wie oben angegeben mit gewissen
r=1
20 JORDAN’SCHE NORMALFORM 156

B1 , . . . , Bk . Außerdem liefern die Matrizen


 
0 1 0 ... 0
 .. . . .. .. .. 
 
 . . . . . 
 ..
 
Br =  . .. .. .
. .

 0 
 .. .. 
 . . 1 
 
0 ... ... ... 0

innerhalb von Wr gerade das entsprechende Abbildungsverhalten.

Definition 20.16 1. Es sei λ ∈ K. Eine Matrix A der Form


 
λ 1 0 ... 0
. . .
 
 0 .. .. .. 0 
 
A=  ∈ Kn×n
 .. . . . . . .
. . .

 . 1 
 
..
0 ... 0 . λ

für n ≥ 2 bzw. A = (λ) für n = 1 heißt Jordan-Matrix.


2. Es sei V ein endlich-dimensionaler linearer Raum über K, und es sei T ∈ L(V ). Eine
Basis M von V heißt Jordan-Basis (für T ), falls ϕM (T ) folgende Blockdiagonalgestalt
hat:
 
A1
 
 A 2 0 
ϕM (T ) = 
 
.. 
 0
 . 

Ap

wobei Aj für j = 1, . . . , p eine Jordan-Matrix ist.

Damit gilt schließlich

Satz 20.17 (Jordan’sche Normalform) Es sei V ein endlich-dimensionaler linea-


rer Raum über K, und es sei T ∈ L(V ) triangulierbar. Dann existiert eine Jordan-Basis
für T aus Hauptvektoren von T .

Beweis.
Es sei T ∈ L(V ) triangulierbar, und es seien λ1 , . . . , λm die paarweise verschiedenen
Eigenwerte von T . Dann gilt nach S. 20.7
m
M
V = Uj
j=1
20 JORDAN’SCHE NORMALFORM 157

mit Uj := Kern(T − λj I)n und die Uj sind invariant. Außerdem ist (T − λj I)|Uj
nilpotent für j = 1, . . . , m nach B. 20.11.2. Also existiert nach F. 20.15 für j =
1, . . . , m eine Jordan-Basis für (T − λj I)|Uj und diese ist dann auch Jordan-Basis für
T|Uj = (T − λj I)|Uj + λIUj (bestehend aus Hauptvektoren zum Eigenwert λj ). Setzt
man diese Basen zusammen, so erhält man nach S.20.14 eine Jordan-Basis für T aus
Hauptvektoren von T . 2
21 ELEMENTARE ZAHLENTHEORIE 158

21 Elementare Zahlentheorie
Wir starten mit einigen Ergebnissen aus der elementaren Zahltentheorie.

Definition 21.1 Es seien a, b ∈ Z = {ganze Zahlen}. Man sagt, a sei Teiler von b
(bzw. a teilt b) (kurz: a|b), falls b/a ∈ Z gilt, d. h. falls ein q ∈ Z existiert mit b = qa.

Es gilt damit

Satz 21.2 .
1. Für alle a ∈ Z ist ±1|a und ±a|a.
2. Sind a, b ∈ Z mit a|b, b|c, so ist a|c.
3. Sind a, bj ∈ Z, j = 1, . . . , n, mit a|bj für j = 1, . . . , n, so ist
n
X
a| cj bj für alle c1 , . . . , cn ∈ Z .
j=1

Beweis. [Ü]

Definition 21.3 Es seien a, b ∈ Z mit a 6= 0 oder b 6= 0. Dann heißt

d := max{k ∈ N : k|a und k|b}

größter gemeinsamer Teiler von a und b (kurz: ggT (a, b)).


(Für a = b = 0 setzen wir ggT (0, 0) := 0.) Im Falle ggT (a, b) = 1 heißen a und b
teilerfremd.

Satz 21.4 (Division mit Rest) Es seien a, b ∈ Z, b 6= 0. Dann existieren q, r ∈ Z


mit

a = qb + r und r ∈ {0, . . . , |b| − 1} .

Beweis.
Da b 6= 0, ist, gilt

L := N0 ∩ {a − xb : x ∈ Z} =
6 ∅.

Für r := min L und q so, dass a − qb = r gilt dann die Behauptung. 2

Zur Abkürzung schreiben wir im folgenden für Mengen A, B ⊂ C und λ, µ ∈ C

λA := {λa : a ∈ A} , µ ± λA = {µ ± λa : a ∈ A}
µB ± λA = {µb ± λa : a ∈ A, b ∈ B} .

Es gilt damit
21 ELEMENTARE ZAHLENTHEORIE 159

Satz 21.5 Es seien a, b ∈ Z, und es sei d := ggT (a, b). Dann ist

{ax + by : x, y ∈ Z} = aZ + bZ = dZ .

Insbesondere sind a, b genau dann teilerfremd, wenn gilt

aZ + bZ = Z .

Beweis.
Ist a = 0 oder b = 0, so sieht man leicht, dass die Behauptung gilt. Es sei also a 6= 0
und b 6= 0, und es sei m := min(N ∩ L) wobei

L := aZ + bZ = ax + by : x, y ∈ Z} .

Aus d|a und d|b folgt d|ax + by für alle x, y ∈ Z (S. 21.2.3), also gilt

L ⊂ dZ

und insbesondere d|m.


Andererseits gilt m|a.
(Denn: Es gilt mZ ⊂ L und a ∈ L, also auch a − mZ ⊂ L. Division von a durch
m mit Rest (nach S. 21.4) kann keinen Rest r 6= 0 ergeben (wäre a = qm + r mit
r ∈ {1, . . . , m − 1} so wäre r = a − qm ∈ a − mZ ⊂ L im Widerspruch zur Minimalität
von m). Also ist m Teiler von a.)
Entsprechend sieht man m|b. Also ist m ≤ d nach Definition von d. Mit d|m folgt
m = d, also

dZ = mZ ⊂ L .

Insgesamt ergibt sich L = dZ. 2

Folgerung 21.6 Es seien a, b, c ∈ Z mit ggT (a, b) = 1. Dann gilt


1. Es existieren x, y ∈ Z mit xa + yb = 1.
2. Ist a|bc, so ist a|c.
3. Ist a|c und b|c, so ist ab|c.

Denn:
1. Die erste Aussage ergibt sich direkt aus der letzten Aussage von S. 21.5.
2. Nach 1. existieren x, y ∈ Z mit xa + yb = 1. Also ist c = xac + ybc. Da a|bc und a|a
ist a|c nach S. 21.2.3.
3. Wie in 2. ist c = xac+ybc. Da c = ua = bv für gewisse u, v ∈ Z, ist c = xabv+ybau =
ab(xv + yu). Also ist ab|c.
21 ELEMENTARE ZAHLENTHEORIE 160

Definition 21.7 Es sei p ∈ N, p ≥ 2. Dann heißt p Primzahl falls p nur die Teiler ±1
und ±p besitzt.

Bemerkung 21.8 Sind a, b ∈ Z und ist p eine Primzahl, so folgt aus p|ab schon p|a
oder p|b. (Denn: Ist p kein Teiler von a, so ist ggT (a, p) = 1. Also ist p|b nach F.
21.6.2.)

Satz 21.9 (Primfaktorzerlegung; Fundamentalsatz der Arithmetik) Es sei n ∈


k
Q
N, n ≥ 2. Dann existieren Primzahlen p1 , . . . , pk mit n = pj und diese Zerlegung
j=1
ist bis auf die Reihenfolge der Faktoren eindeutig.

Beweis.
1. Existenz: (Induktion nach n)
n = 2: Für n = 2 ist die Behauptung klar.
n − 1 → n (n ≥ 3): Ist n eine Primzahl, so ist nichts zu zeigen. Es sei also n keine
Primzahl. Dann existiert ein Primteiler p von n, d. h. es existiert eine Primzahl p mit
p|n. (Denn: Man wähle p := min{k > 1 : k|n}. Dann ist p eine Primzahl, denn sonst
hätte p einen Teiler p0 mit 1 < p0 < p, und damit wäre p0 auch Teiler von n im
Widerspruch zur Minimalität von p.)
Also ist n = pq für ein q ∈ N mit 1 < q < n. Nach Induktionsvoraussetzung ist q
Produkt aus Primfaktoren, und damit gilt dasselbe für n.
2. Eindeutigkeit: Wir zeigen per Induktion nach k:
Ist n Produkt aus k Primzahlen, so besteht jede Darstellung von n als Produkt aus
Primzahlen aus k Faktoren, und diese Faktoren sind bis auf die Reihenfolge dieselben.
k = 1: Ist n = p eine Primzahl, so gilt die Behauptung nach Definition.
k − 1 → k (k ≥ 2): Es sei

k
Y m
Y
n= pj = qj
j=1 j=1
Qm
mit Primzahlen pj und qj . Aus pk | j=1 qj folgt aus B. 21.8 (induktiv), dass pk |qj0 für
ein j0 ∈ {1, . . . , m}, also pk = qj0 (da qj0 Primzahl). Nach Umnummerierung können
wir o. E. qj0 = qm annehmen. Dann ist
k−1
Y m−1
Y
n= pj = qj .
j=1 j=1

Nach Induktionsvoraussetzung ist k−1 = m−1 und die Faktoren p1 , . . . , pk−1 stimmen
bis auf die Reihenfolge mit den q1 , . . . , qk−1 überein. Nach obiger Konstruktion gilt
die Behauptung damit auch für k. 2
21 ELEMENTARE ZAHLENTHEORIE 161

Definition 21.10 1. Es seien a, b ∈ Z, m ∈ N0 . Dann heißen a und b kongruent modulo


m, falls

m|(a − b) .

Wir schreiben dann

a ≡ b mod m .

Bemerkung 21.11 1. Man sieht leicht, dass durch

a ∼ b :⇔ a ≡ b mod m

eine Äquivalenzrelation auf Z gegeben ist. Die Äquivalenzklassen werden Restklassen


(modulo m) genannt. Wir schreiben kurz für die Restklasse mit dem Repräsentanten
a ∈ Z (d. h. für die Menge {a + km : k ∈ Z})

[a] := [a]m := a mod m := a + m Z

und außerdem setzen wir

Zm := Z/mZ := {[a] : a ∈ Z} ,

d. h. Zm ist die Restklassenmenge.


Es gilt dabei

Zm = {[0], [1], . . . [m − 1]}

für m 6= 0 (und Z0 = Z).


2. Auf Zm kann man repräsentantenweise eine Addition und eine Multiplikation einführen:

[a] + [b] := [a + b]

und

[a] · [b] = [a · b]

für a, b ∈ Z. Dabei ist wichtig, dass die Operationen unabhängig von der Auswahl der
Repräsentanten sind.
(Es gilt etwa für die Multiplikation: Ist [a] = [ã], [b] = [b̃], so ist m|(a−ã) und m|(b− b̃).
Also ist nach S. 21.2.3 auch m|(a − ã)b + ã(b − b̃), d. h. m|(ab − ãb̃). Also ist [ab] = [ãb̃].)

3. Es sei m ∈ N und ζ := e2πi/m eine m-te Einheitswurzel (ζ m = 1). Dann ist durch
[a] = [a]m 7→ ζ a eine bijektive Abbildung von Zm nach {ζ a : a ∈ Z} = {ζ a : a =
0, 1, . . . , m−1} gegeben. Dabei entsprechen die Restklassenoperationen aus 2. gewissen
21 ELEMENTARE ZAHLENTHEORIE 162

Operationen in C, nämlich [a] + [b] entspricht ζ a+b und [a][b] entspricht ζ a·b .
Ist etwa m = 4, so gilt

[2 + 3] = 5 mod 4 = [1]

sowie

[2 · 3] = 6 mod 4 = [2]

und entsprechend

ζ 2+3 (= ζ 2 ζ 3 ) = ζ 5 = ζ 1

sowie

ζ 2·3 (= (ζ 2 )3 ) = (−1)3 = −1 = ζ 2 .

Aus den Rechenregeln im Körper C oder durch direktes Nachrechnen erhält man leicht

Satz 21.12 Es sei m ∈ N. Dann gilt


1. (Zm , +) ist eine abelsche Gruppe (mit Nullelement [0] und −[a] = [−a]).
2. Für alle [a], [b], [c] ∈ Zm ist

([a][b])[c] = [a]([b][c])

und

([a] + [b])[c] = [a][c] + [b][c]

sowie

[a][b] = [b][a] .

3. Für alle [a] ∈ Zm gilt [a][1](= [1][a]) = [a]


(d. h. (Zm , +, ·) ist ein “kommutativer Ring mit Einselement”).

Bemerkung 21.13 Im allgemeinen ist (Zm , +, ·) kein Körper, d. h. i. a. existiert nicht


für alle [a] ∈ Zm \ {[0]} ein [x] mit [a][x] = [1]. Zum Beispiel hat die Gleichung

[3]6 [x]6 = [1]6

keine Lösung [x]6 , denn [3]6 [x]6 ∈ {[3]6 , [0]6 } für alle x ∈ Z. Außerdem können Null-
teiler existieren, d. h. nichtverschwindende Lösungen der Gleichung [a][b] = [0]. So gilt
etwa

[3]6 [2]6 = [0]6 .

Wir wollen jetzt zeigen, dass in gewissen Teilsystemen von Zm solche Probleme nicht
auftreten.
21 ELEMENTARE ZAHLENTHEORIE 163

Bemerkung und Definition 21.14 Sind a, b ∈ Z, m ∈ N so folgt aus a ≡ b mod m


und ggT (a, m) = 1 auch ggT (b, m) = 1.
(Denn: Nach S. 21.5 hat die Gleichung ax + my = 1 eine Lösung (x, y) ∈ Z2 . Für
b = a + km gilt dann

bx + m(y − kx) = ax + kmx + my − kmx = 1 ,

d. h. {bu + mv : u, v ∈ Z} = Z. Also ist wieder nach S. 21.5 ggT (b, m) = 1.)


Man bezeichnet im Falle ggT (a, m) = 1 die Restklasse [a]m (repräsentantenunabhängig)
als prime Restklasse (mod m). Außerdem setzen wir

Z∗m := (Z/mZ)∗ = {[a]m : [a]m prime Restklasse} .

Es gilt damit:

Satz 21.15 Es sei m ∈ N. Dann ist (Z∗m , ·) (mit · wie in B. 21.11.2) eine abelsche
Gruppe.

Beweis.
Offensichtlich ist [1] ∈ Z∗m . Also genügt es nach S. 21.12, zu zeigen: mit [a], [b] ∈ Z∗m
ist auch [a][b] ∈ Z∗m und die Gleichung [a][x] = [1] hat für jedes [a] ∈ Z∗m eine Lösung
in Z∗m (vgl. D. 2.1).
Es seien a, b ∈ Z, a, b teilerfremd zu m. Dann existieren nach S. 21.5 (x, y) ∈ Z2 und
(u, v) ∈ Z2 mit

ax + my = 1, bu + mv = 1 .

Die erste Gleichung impliziert ax = 1 mod m, d. h. [a][x] = [ax] = [1], und außerdem
gilt 1 ∈ xZ + mZ. Also ist ggT (x, m) = 1 nach S. 21.5. Damit ist [x] ∈ Z∗m . Weiter gilt

1 = (ax + my)(bu + mv) = (ab)(xu) + m(axv + ybu + myv) ,

d. h. 1 ∈ abZ+mZ und damit ist ggT (ab, m) = 1 nach S. 21.5, also [a][b] = [ab] ∈ Z∗m . 2

Beispiel 21.16 Für m = 6 gilt ggT (1, 6) = ggT (5, 6) = 1 und ggT (0, 6) = 6, ggT (2, 6) =
2, ggT (3, 6) = 3, ggT (4, 6) = 2, also ist

Z∗6 = {[1], [5]} .

Nach S. 21.15 ist (Z∗6 , ·) eine Gruppe.

Ganz anders sind die Verhältnisse im Falle von Primzahlen m.


21 ELEMENTARE ZAHLENTHEORIE 164

Folgerung 21.17 Es sei p ∈ N eine Primzahl. Dann gilt ggT (a, p) = 1 für alle a ∈
{1, . . . , p − 1}, d. h.

Z∗p = {[1], [2], . . . , [p − 1]} = Zp \ {[0]} .

Also ist nach S. 21.15 Zp \ {[0]} eine abelsche Gruppe und folglich ist nach S. 21.12
(Zp , +, ·) ein Körper (mit p Elementen) .

Eine nette Anwendung von Kongruenzen sind bekannte Teilbarkeitskriterien:

Satz 21.18 Es sei N ∈ N,


n
X
N= aν 10ν mit aν ∈ {0, . . . , 9} für ν = 0, . . . , n .
ν=0

Dann gilt
n
P
1. 3|N genau dann wenn 3| aν
ν=0
Pn
2. 9|N genau dann wenn 9| aν
ν=0

Beweis.
1. Aus 10 ≡ 1 mod 3 folgt 10ν ≡ 1 mod 3 (denn [10ν ]3 = ([10]3 )ν = [1] für alle ν ∈ N0 ).
Also gilt
" n # n n
X X X
ν ν
[N ]3 = aν 10 = [aν ]3 [10 ]3 = [aν ]3
ν=0 3 ν=0 ν=0
n
" #
X
= aν ,
ν=0 3
n
P n
P
d. h. N ≡ aν mod 3. Insbesondere gilt also 3|N genau dann wenn 3| aν .
ν=0 ν=0
2. Analog. 2

Von grundlegender Bedeutung ist folgendes Ergebnis über simultane Kongruenzen

Satz 21.19 (Chinesischer Restsatz) Es seien m1 , . . . , mn ∈ N paarweise teiler-


fremd, und es seien a1 , . . . , an ∈ Z. Dann existiert ein x ∈ Z so, dass

x ≡ aj mod mj für j = 1, . . . , n .

Dabei ist x mod m1 · . . . · mn eindeutig bestimmt und mit x ist jedes y ∈ [x]m1 ·...·mn eine
Lösung.
21 ELEMENTARE ZAHLENTHEORIE 165

Beweis.
1. Eindeutigkeit: Sind x, y ∈ Z Lösungen des Systems von Kongruenzen, so gilt

mj |(x − y) (j = 1, . . . , m) .

Da die mj paarweise teilerfremd sind, ist dies äquivalent zu


n
Y
mj |(x − y) .
j=1

(Denn: Induktiv ergibt sich aus F. 21.6.3: Ist c ∈ Z, so folgt aus

mj |c (j = 1, . . . , n)

auch
n
Y
mj |c .
j=1

Man beachte dabei: Für u, v ∈ Z, k ∈ N folgt aus ggT (u, k) = ggT (v, k) = 1 schon
ggT (uv, k) = 1 nach dem Beweis zu S. 21.15).
n
Q
Also ist x ≡ y mod mj .
j=1
2. Existenz: Wir betrachten die Abbildung
n
Y
b : ZQ
n → Zmj ,
mj
j=1 j=1

definiert durch
 

b [x] Q
n  := ([x]m1 , . . . , [x]mn ) .
mj
j=1

Sind [x]Q mj , [y]Q mj ∈ ZQ mj mit b([x]Q mj ) = b([y]Q mj ), so gilt für j = 1, . . . , n

x≡y mod mj .
Q
Also ist x ≡ y mod mj nach1., d. h. [x]Q mj = [y]Q mj . Damit ist b injektiv. Da
n
Y n
Y
|ZQ mj | = mj = | Zmj |
j=1 j=1

gilt, ist b auch bijektiv, d. h. für beliebige a1 , . . . , an ∈ Z existiert ein x ∈ Z mit

[x]mj = [aj ]mj bzw. x ≡ aj mod mj .

2
21 ELEMENTARE ZAHLENTHEORIE 166

Beispiel 21.20 Wir betrachten die Kongruenzen

x ≡ 2 mod 3
x ≡ 3 mod 5
x ≡ 2 mod 7 .

Dann ist x = 23 eine Lösung. Nach S. 21.19 ist x mod 105 = 3·5·7 eindeutig bestimmt.
Außerdem ist jedes y ∈ [x]105 , d. h. jedes y mit y = 23 + k · 105 für ein k ∈ Z, ebenfalls
Lösung.

Definition 21.21 Für n ∈ N, n ≥ 2, sei

ϕ(n) := |Z∗n | = Anzahl der primen Restklassen mod n


= Anzahl der a ∈ N mit a ≤ n und ggT (a, n) = 1

und für n = 1 setzen wir ϕ(1) := 1. Die Funktion ϕ : N → N heißt Eulersche Funktion
(oder Eulersche Phi-Funktion).

Es gilt

Satz 21.22 1. Die Eulersche Funktion ist multiplikativ, d. h. für alle teilerfremden
n, m ∈ N gilt

ϕ(nm) = ϕ(n)ϕ(m) .

2. Ist p eine Primzahl, so ist ϕ(pν ) = pν − pν−1 für alle v ∈ N. Insbesondere ist
ϕ(p) = p − 1.
3. Für beliebige n ∈ N ist
Y  1

ϕ(n) = n 1− .
p prim
p
p|n

Beweis.
1. Es sei b wie im Beweis zu S. 21.19 (mit m1 = m, m2 = n). Dann ist b∗ := b|Z∗mn eine
bijektive Abbildung von Z∗mn nach Z∗m × Z∗n .
(Denn: Ist x ∈ Z mit [x]mn ∈ Z∗mn , so gilt ggT (mn, x) = 1, also auch ggT (m, x) =
ggT (n, x) = 1. Also ist b([x]mn ) = ([x]m , [x]n ) ∈ Z∗m × Z∗n .
Ist andererseits ([x]m , [x]n ) ∈ Z∗m × Z∗n , so ist ggT (x, m) = ggT (x, n) = 1, also auch
ggT (x, mn) = 1 (vgl. Beweis zu S. 21.15). Also ist [x]mn ∈ Z∗mn . Da b : Zmn → Zm ×Zn
bijektiv ist, ist damit auch b∗ : Z∗mn → Z∗m × Z∗n bijektiv).
Aus ϕ(mn) = |Z∗mn | = |Z∗m × Z∗n | = |Z∗m ||Z∗n | = ϕ(n)ϕ(m) folgt 1.
22 UNTERGRUPPEN UND HOMOMORPHISMEN 167

2. Ist p prim und ν ∈ N, so sind die a ∈ {1, . . . , pν }, die nicht teilerfremd zu pν sind,
genau die pν−1 Zahlen

p, 2p, 3p, . . . , pν−1 p .

Also ist ϕ(pν ) = pν − pν−1 .


3. Es sei n ∈ N beliebig. Dann existieren (eindeutig bestimmte) paarweise verschiedene
Primzahlen p1 , . . . , pk und ν1 , . . . , νk ∈ N so, dass

n = pν11 · · · pνkk .
ν
Da pj j paarweise teilerfremd sind, gilt nach 1. und 2.

k k
ν ν ν −1
Y Y
ϕ(n) = ϕ(pj j ) = p j j − pj j =
j=1 j=1
  
k k  k   Y  
Y ν
Y 1  Y 1 1
=  pj j   1− =n 1− =n 1− .
pj pj p
j=1 j=1 j=1 p prim
p|n

22 Untergruppen und Homomorphismen


In Abschnitt 2 haben wir Gruppen definiert, haben Beispiele kennengelernt und ei-
nige einfache Eigenschaften hergeleitet. Wir werden jetzt einen genaueren Blick auf
Gruppen werfen, wobei das Schwergewicht auf endlichen Gruppen liegen wird.
Ähnlich wie Unterräume bei linearen Räumen spielen “Untergruppen” bei Gruppen
eine wichtige Rolle.

Definition 22.1 Es sei G = (G, ◦) eine Gruppe. Eine Menge U ⊂ G heißt Untergruppe
von G wenn (U, ◦|U ×U ) eine Gruppe ist (d. h. wenn mit a, b ∈ U auch a ◦ b ∈ U gilt,
und wenn e ∈ U und mit a ∈ U auch a−1 ∈ U ist). Statt a ◦ b schreiben wir auch kurz
ab.

Bemerkung 22.2 Eine Menge U ⊂ G, U 6= ∅ ist schon dann eine Untergruppe, wenn
mit a, b ∈ U auch a ◦ b−1 ∈ U gilt.
(Denn: Ist a ∈ U , so ist e = a ◦ a−1 ∈ U . Also ist auch a−1 = e ◦ a−1 ∈ U . Sind a, b ∈ U
so gilt also auch a ◦ b = a ◦ (b−1 )−1 ∈ U .)

Beispiel 22.3 1. Ist G eine beliebige Gruppe, so sind U = G und U = {e} Unter-
gruppen (die sog. trivialen Untergruppen).
22 UNTERGRUPPEN UND HOMOMORPHISMEN 168

2. Ist (G, ◦) = (C, +), so haben wir folgende Kette ineinander geschachtelter Unter-
gruppen (wobei m ∈ N)

{0} ⊂ mZ ⊂ Z ⊂ Q ⊂ R ⊂ C .

3. Ist (G, ◦) = (C \ {0}, ·), so haben wir folgende Kette ineinander geschachtelter
Untergruppen:

{1} ⊂ {±1} ⊂ Q \ {0} ⊂ R \ {0} ⊂ C \ {0} .

4. Es sei K ein Körper und (G, ◦) = (GLn (K), ·) die Gruppe der invertierbaren (n × n)
Matrizen über K mit der Matrix-Multiplikation (vgl. B. 8.25). Dann ist

SLn (K) := {A ∈ GLn (K) : det A = 1}

eine Untergruppe von GLn (K). (Sind A, B ∈ SLn (K), so gilt det(AB −1 ) = det A/ det B =
1, also ist AB −1 ∈ SLn (K)).
Weiter ist für K = K

Un := {A ∈ GLn (K) : A unitär}

eine Untergruppe von GLn (K) ([Ü]), die sog. unitäre Gruppe. Für K = R heißt On :=
Un auch orthogonale Gruppe. Die Menge

SOn := On+ := {A ∈ On : det A = 1}

ist eine Untergruppe von On (die sog. spezielle orthogonale Gruppe).

Definition 22.4 Es sei (G, ◦) eine Gruppe. Dann heißt

ord (G) := |G| (∈ N ∪ {∞})

die Ordnung von G.

Neben den Gruppen (Zm , +) und (Z∗m , ·) spielen in der Theorie endlicher Gruppen die
symmetrischen Gruppen Sn eine wichtige Rolle.

Beispiel 22.5 (vgl. B. 2.3 und Abschnitt 11)


Es sei σ ∈ Sn (d. h. σ : {1, . . . , n} → {1, . . . , n} bijektiv). Neben der Schreibweise
!
1 2 ··· n
σ=
σ(1) σ(2) · · · σ(n)

kann σ auch in der sog. Zykelschreibweise dargestellt werden: Jedes σ ist Produkt aus
Zykeln, d. h.
h i h i
(1) (k)
σ = a1 , . . . , a(1) (k)
m1 ◦ · · · ◦ a1 , . . . , amk ,
22 UNTERGRUPPEN UND HOMOMORPHISMEN 169

wobei ein Zykel [a1 , . . . , am ] eine Abkürzung für die Abbildung τ ∈ Sn , mit τ (aj ) =
aj+1 für j = 1, . . . , m − 1 und τ (am ) = a1 sowie τ (a) = a für a 6∈ {a1 , . . . , am } ist (d.
h. a1 →a2 →a3 → . . . →am →a1 ). Eine solche Darstellung ist i. a. keineswegs eindeutig.
Ist etwa
!
1 2 3 4 5 6 7
σ= .
3 2 4 5 1 7 6

So ist

σ = [1, 3, 4, 5] ◦ [6, 7] .

Dabei sind die Zykeln der Länge 2 Transpositionen (D. 11.1). Zykeln der Länge 1 (wie
oben im Beispiel 2) werden nicht aufgeführt.
Es gilt damit etwa: S3 hat die nichttrivialen Untergruppen

U1 = {id, [1, 2, 3], [1, 3, 2]}

der Ordnung 3 und

U2 = {id, [1, 2]}, U3 = {id, [1, 3]}, U4 = {id, [2, 3]}

der Ordnung 2. Dabei heißt U1 Drehgruppe und U2 , U3 , U4 heißen Spiegelungsgruppen.


(Nummeriert man die Ecken eines gleichseitigen Dreiecks mit 1, 2, 3, so entsprechen
den Symmetriebewegungen des Dreiecks die obigen Permutationen der Eckpunkte:

entspricht [1, 2, 3]

entspricht [1, 3, 2]

entspricht [2, 3]

entspricht [1, 2]

entspricht [1, 3] )

Definition 22.6 Es seien (G, ◦) und (H, •) Gruppen. Eine Abbildung h : G → H


heißt (Gruppen-) Homomorphismus, falls

h(a ◦ b) = h(a) • h(b)

für alle a, b ∈ G gilt. Ein Homomorphismus h heißt Injektion (oder Einbettung), falls
h injektiv ist. Ein bijektiver Homomorphismus heißt Isomorphismus. Existiert ein Iso-
morphismus h : G → H, so heißen G und H isomorph.
22 UNTERGRUPPEN UND HOMOMORPHISMEN 170

Beispiel 22.7 1. Es sei h : (Z, +) → (Zm , +) definiert durch

h(a) := [a] (a ∈ Z) .

Dann ist h ein Homomorphismus (denn

h(a + b) = [a + b] = [a] + [b] = h(a) + h(b))

2. Ist h : (R, +) → (C, +) definiert durch h(x) = x+i0 (x ∈ R), so ist h eine Einbettung
(die natürliche Einbettung von R in C).

Wir stellen einige elementare Eigenschaften von Homomorphismen zusammen:

Satz 22.8 Es seinen (G, ◦) und (H, •) Gruppen, und es sei h : G → H ein Homo-
morphismus. Dann gilt
1. h(e) = e.
2. h(a−1 ) = (h(a))−1 für alle a ∈ G.
3. Ist U ⊂ G eine Untergruppe von G, so ist h(U ) ⊂ H eine Untergruppe von H.
4. Ist V ⊂ H eine Untergruppe von H, so ist h−1 (V ) ⊂ G eine Untergruppe von G.
(Insbesondere ist damit

Kern(h) := h−1 ({e})

eine Untergruppe von G).


5. h ist genau dann injektiv, wenn Kern(h) = {e} ist.

Beweis.
1. Es gilt

h(e) = h(e ◦ e) = h(e) • h(e) ,

also ist e = h(e)h(e)−1 = h(e)h(e)h(e)−1 = h(e).


2. Nach 1. gilt für a ∈ G

h(a)h(a−1 ) = h(aa−1 ) = h(e) = e ,

also (h(a))−1 = h(a−1 ) nach S.2.2.2.


3. und 4.: [Ü]
5. Ist h injektiv, so ist h−1 ({e}) = Kern(h) höchstens einelementig. Da Kern(h) ein
Unterraum von G ist, ist Kern(h) = {e}.
Es sei umgekehrt Kern(h) = {e}. Dann gilt für alle a, b ∈ G mit h(a) = h(b).

h(ab−1 ) = h(a)h(b−1 ) = h(a)(h(b))−1 = e ,

also ab−1 = e und damit a = ab−1 b = eb = b. 2


22 UNTERGRUPPEN UND HOMOMORPHISMEN 171

Satz 22.9 Es seien G, H Gruppen, und es sei h : G → H ein Isomorphismus. Dann


ist auch h−1 : H → G ein Homomorphismus (und damit ein Isomorphismus).

Beweis.
Es seien u, v ∈ H. Dann existieren a, b ∈ G mit u = h(a), v = h(b). Also gilt

h−1 (uv) = h−1 (h(a)h(b)) = h−1 (h(ab)) = ab = h−1 (u)h−1 (v) .

2
Ist h : G → H eine Injektion, so ist h : G → h(G) ⊂ H ein Isomorphismus zwischen
G und der Untergruppe h(G) von H. Dies kann man ausnutzen um die Rolle der
symmetrischen Gruppen zu verstehen:

Satz 22.10 (Cayley) Jede endliche Gruppe der Ordnung n ist isomorph zu einer
Untergruppe der symmetrischen Gruppe Sn .

Beweis.
Es sei G eine endliche Gruppe. Wir müssen eine Einbettung h : G → Sn konstruieren.
Es sei G = {a1 , . . . , an }, und es sei a ∈ G. Die Multiplikation (von links) mit a bewirkt
eine Permutation von G, d. h. es existiert genau ein σ = σa ∈ Sn mit

aaj = aσ(j) (j = 1, . . . , n)

(wichtig: Ist aaj = aak , so gilt a−1 aaj = a−1 aak , also aj = ak ). Es gilt dabei für
a, b ∈ G

σa σb = σab

(Denn: Für j = 1, . . . , n gilt

(ab)aj = a(baj ) = aaσb (j) = aσa (σb (j)) = a(σa σb )(j) ,

d. h. σab = σa σb ).
Also ist h : G → Sn mit h(a) := σa ein Homomorphismus. Außerdem gilt: Ist id =
h(a) = σa , so ist aaj = aid(j) = aj für j = 1, . . . , n und damit a = e. Also ist
Kern(h) = {e}, d. h. h ist injektiv und damit eine Einbettung. 2

Definition 22.11 1. Es sei (G, ◦) eine Gruppe. Für x ∈ G setzen wir

xn := |x ◦ ·{z
· · ◦ x} , x−n := (x−1 )n (= (xn )−1 )
nmal

für n ∈ N (und x0 := e). (Ist (G, ◦) eine “additive Gruppe”, d. h. “◦” = “+”, so
schreibt man üblicherweise nx statt xn ).
22 UNTERGRUPPEN UND HOMOMORPHISMEN 172

Für x ∈ G setezn wir zudem

< x >:= {xn : n ∈ Z} .

(Dabei ist < x > eine Untergruppe von G, wie man leicht sieht.)
2. Die Gruppe (G, ◦) heißt zyklisch, falls G =< x > für ein x ∈ G gilt.
Das Element x heißt dann erzeugendes Element von G.

Beispiel 22.12 1. Es sei (G, ◦) = (Z, +). Dann gilt

Z =< 1 >=< −1 >

und ±1 sind die einzigen erzeugenden Elemente.


2. Es sei (G, ◦) = (Zm , +). Dann gilt

Zm =< [1] > .

Außerdem gilt für jede prime Restklasse [a] auch Zm =< [a] > ([Ü]).

Das Repertoire an zyklischen Gruppen ist damit (bis auf Isomorphie), schon erschöpft:

Satz 22.13 Jede zyklische Gruppe G =< x > ist entweder isomorph zu (Z, +) oder
zu (Zm , +) für ein m ∈ N.

Beweis.
1. Fall: Es ist xn 6= xk für alle n, k ∈ Z, n 6= k. Dann ist durch h : Z →< x > mit
h(n) := xn ein Isomorphismus von Z nach G =< x > definiert.
(Denn: Für n, k ∈ Z gilt

h(n + k) = xn+k = xn ◦ xk = h(n) ◦ h(k) ,

also ist h ein Homomorphismus. Ist y ∈ G =< x >, so existiert ein n ∈ N mit xn = y,
d. h. y = h(n). Sind schließlich n, k ∈ Z mit h(n) = h(k), d. h. xn = xk , so ist nach
Voraussetzung n = k, also ist h bijektiv.)
2. Fall: Es existieren n, k ∈ Z, n 6= k, mit xn = xk . Dann ist h aus “1. Fall” ein
surjektiver Homomorphismus, aber nicht mehr injektiv. Also existiert nach S. 22.8.5
ein n ∈ Kern(h) \ {0}. Da Kern(h) eine Gruppe ist, ist mit n auch −n ∈ Kern(h).
Also existiert ein minimales m ∈ N mit m ∈ Kern(h). Dann sind xj , j = 0, . . . , m − 1
paarweise verschieden (ansonsten gäbe es i, j ∈ {0, . . . , m − 1}, i < j, mit xi = xj , also
xj−i = e und damit j − i ∈ Kern(h) mit 0 < j − i < m).
Aus xm = e folgt xn+km = xn ◦ xkm = xn ◦ (xm )k = xn für alle n, k ∈ Z, d. h.
h(n) = h(n + km) für alle n, k. Also ist durch

h̃([n]m ) := h(n) (n ∈ Z)

eine Abbildung h̃ : (Zm , +) →< x >= G (wohl-)definiert. Aus obigen Überlegungen


folgt, dass h̃ ein Isomorphismus ist. 2
22 UNTERGRUPPEN UND HOMOMORPHISMEN 173

Bemerkung und Definition 22.14 Es sei (G, ◦) eine Gruppe und es sei x ∈ G.
Dann heißt

ord(x) := ord (< x >)

Ordnung von x.
Es ist xn = e für ein n ∈ Z genau dann, wenn n = 0 oder wenn ord(x) < ∞ und n
Vielfaches von ord (x) ist, d. h. n = k ord (x) für ein k ∈ Z. (Dies ergibt sich aus der
Isomorphie zwischen < x > und Zm mit m = ord(x) im Falle ord(x) < ∞ und der
Isomorphie zwischen < x > und Z im Falle ord(x) = ∞.)

Bemerkung und Definition 22.15 Es sei (G, ◦), eine Gruppe, und es sei H ⊂ G
eine Untergruppe. Für a, b ∈ G definieren wir

a∼b: ⇔ ab−1 ∈ H (⇔ a ∈ Hb := {hb : h ∈ H}) .

Man sieht leicht, dass ∼ eine Äquivalenzrelation auf G ist. Die Äquivalenzklassen sind
die Teilmengen Hb, die Rechtsrestklassen genannt werden. (Durch Betrachtung von
b−1 a anstelle von ab−1 erhält man Linksrestklassen bH; für abelsche Gruppen gilt
natürlich Hb = bH).

Beispiel 22.16 1. Es sei (G, ◦) = (Z, +). Für m ∈ N ist mZ eine Untergruppe von Z.
Hier sind die Rechtsrestklassen (und Linksrestklassen) gerade die üblichen Restklassen
[a]m
(Denn: Sind a, b ∈ Z, so gilt a − b ∈ mZ genau dann, wenn a = b + km für ein k ∈ Z,
also a ∈ mZ + b, d. h. [a]m = [b]m )
2. Es sei (G, ◦) = (S3 , ◦). Ist H = {id, [1, 2, 3], [1, 3, 2]} (vgl. B. 22.5) so existieren die
zwei Rechts- (und Links-)restklassen

R1 = H · id = H

und

R2 = H · [1, 2] = {[1, 2], [1, 3], [2, 3]} .

Ist H = {id, [1, 2]}, so existieren die drei Rechtsrestklassen

R1 = H · id , R2 = H · [1, 3] = {[1, 3], [1, 3, 2]} ,


R3 = H · [2, 3] = {[2, 3], [1, 2, 3]}

und die drei Linksrestklassen

R1 = id · H , R2 = [1, 3] · H = {[1, 3], [1, 2, 3]} ,


R3 = [2, 3] · H = {[2, 3], [1, 3, 2]} .
22 UNTERGRUPPEN UND HOMOMORPHISMEN 174

(Hier stimmen die Rechts- und die Linksklassen zu [1, 3] und [2, 3] nicht überein.)
3. Es sei (G, ◦) = (R2 , +) und es sei H = Rx = {λx : λ ∈ R} für ein x ∈ R2 \ {0}.
Dann sind die Restklassen Hb gegeben durch

Hb = Rx + b (b ∈ R2 ) .

Bemerkung und Definition 22.17 Es seien (G, ◦) eine Gruppe und H ⊂ G eine
Untergruppe. Dann heißt

G : H := |{Hb : b ∈ G}| (∈ N ∪ {∞}) ,

also die Anzahl der Rechtsrestklassen bzgl. H, der Index von H in G. Dabei sieht man
leicht, dass G : H auch mit der Anzahl der Linksrestklassen bzgl. H übereinstimmt
([Ü]).

Es gilt damit folgendes elementare Ergebnis.

Satz 22.18 (Lagrange) Ist G eine endliche Gruppe und H eine Untergruppe, so ist

ord G := (G : H) · ord (H) .

Insbesondere teilt also die Ordnung von H die Ordnung von G.

Beweis.
Der Beweis ergibt sich sofort daraus, dass die Äquivalenzklassen Hb eine Zerlegung
von G in G : H Teilmengen bewirken, und dass |Hb| = |H| = ord H für alle b ∈ G
gilt (die Abbildung ϕ : H → Hb mit ϕ(h) = hb ist bijektiv). 2

Also Konsequenzen erhalten wir

Satz 22.19 (Euler) Es sei G eine endliche Gruppe, und es sei x ∈ G. Dann ist
ord(x) ein Teiler von ord(G). Insbesondere gilt stets

xord (G) = e .

Beweis.
Die Behauptung ergibt sich sofort aus dem Satz von Lagrange mit H =< x > und aus
B. /D. 22.14. 2

Wendet man dies speziell auf die primen Restklassengruppen Z∗m an, so ergeben sich
wichtige Zahlentheoretische Konsequenzen.
22 UNTERGRUPPEN UND HOMOMORPHISMEN 175

Folgerung 22.20 1. Sind a ∈ Z, m ∈ N mit ggT (a, m) = 1, so ist

aϕ(m) ≡ 1 mod m .

2. (Kleiner Satz von Fermat) Sind a ∈ Z und p eine Primzahl, so gilt

ap ≡ a mod p

und in dem Fall, dass p kein Teiler von a ist (d. h. ggT (a, p) = 1)

ap−1 ≡ 1 mod p .

Denn: Nach Definition gilt |Z∗m | = ϕ(m). Also folgt 1. sofort aus S. 22.19. Ist m = p,
wobei p prim, so ist ϕ(p) = p − 1 nach S. 21.12 und damit folgt die zweite Aussage von
2. aus 1. Durch Multiplikation von ap−1 ≡ 1 mod p mit a ergibt sich die erste Aussage
im Falle ggT (a, p) = 1. Ist p|a, d. h. a = kp für ein k ∈ Z, so gilt

a≡0 mod p

also auch

ap ≡ 0 ≡ a mod p .

Anwendungsbeispiel 22.21 (RSA-Kryptographie-Verfahren) Eine (noch recht


junge) Anwendung der obigen Folgerung 22.20 ergibt sich für Verschlüsselungsverfah-
ren. Das von Rivest, Shamir und Adleman im Jahre 1978 vorgestellte Verfahren beruht
auf folgender Beobachtung:
Es seien p, q Primzahlen (möglichest groß ; etwa je 100 Stellen) p 6= q, und es sei
N = pq. Dann gilt ϕ(N ) = (p − 1)(q − 1) nach S. 21.22. Weiter sei s ∈ N teilerfremd
zu ϕ(N ). Dann existieren nach S. 21.5 t, k ∈ Z mit

st = kϕ(N ) + 1

(d. h. st ≡ 1 mod ϕ(N )). O. E. können wir t, k ∈ N annehmen.

Behauptung: Dann gilt für alle a ∈ N

(as )t = ast ≡ a mod N (10)

Denn: Ist ggT (a, N ) = 1 so gilt nach F. 22.20.1

ast = akϕ(N )+1 = (aϕ(N ) )k a ≡ a mod N .

Da ϕ(N ) = (p − 1)(q − 1) gilt, folgt aus st ≡ 1 mod ϕ(N ) auch st ≡ 1 mod (p − 1) und
st ≡ 1 mod (q − 1), d. h. es existieren `, m ∈ N mit st = `(p − 1) + 1 = m(q − 1) + 1
22 UNTERGRUPPEN UND HOMOMORPHISMEN 176

(nämlich etwa ` = k(p − 1) und m = k(q − 1)). Also folgt aus F. 22.20.2 im Falle
a 6≡ 0 mod p (beachte (Zp \ {[0]}, ·) ist eine Gruppe)

[ast ]p = [a`(p−1) a]p = [a]`(p−1)


p [a]p = [ap ]`p · [a]−` ` −`
p [a]p = [a]p [a]p [a]p = [a]p

(und im Falle a ≡ 0 mod p natürlich auch ast ≡ a ≡ 0 mod p).


Entsprechend gilt

ast ≡ a mod q .

Da p, q teilerfremd sind, gilt mit F. 21.6.3

ast ≡ a mod N = pq .

Wie kann man die Beziehung (10) nutzen?


Will man eine Nachricht, die ohne Einschränkung ein Vektor (a1 , . . . , am ) natürlicher
Zahlen sein soll, übermitteln, ohne dass Unbefugte die Nachricht verstehen können, so
kann man, nachdem man p, q, s, t wie oben festgelegt hat, die verschlüsselte Information
(as1 , . . . , asm ) wie auch s und N öffentlich übertragen. Die Nachricht (a1 , . . . , am ) ist
dann aus der Gleichung (10) sehr leicht rekonstruierbar, wenn man zusätzlich t bzw.
ϕ(N ) bzw. p und q kennt (t ist aus ϕ(N ) leicht berechenbar). Die Prmfaktorzerlegung
N = pq ist für ein gegebenes großes N jedoch eine sehr schwierige Aufgabe, die für
genügend große p, q (mit den derzeit bekannten Methoden) praktisch unmöglich ist.
23 NORMALTEILER 177

23 Normalteiler
Ein (bis heute unerreichtes) Fernziel ist es natürlich, alle (endlichen) Gruppen zu ken-
nen bzw. zu klassifizieren, wobei isomorphe Gruppen nicht als verschieden angesehen
werden.
Für Primzahlordnungen liegen die Verhältnisse besonders einfach. Es gilt nämlich

Satz 23.1 Ist p eine Primzahl, so ist jede Gruppe G der Ordnung p isomorph zu
(Zp , +).

Beweis. Es sei x ∈ G \ {e}. Dann hat x nach dem Satz von Euler (S. 22.19) die
Ordnung p, d. h. < x >= G. Nach S. 22.13 ist G damit isomorph zu (Zp , +). 2

Im allgemeinen Fall spielen gewisse Untergruppen eine zentrale Rolle:

Definition 23.2 Es sei G eine Gruppe und H ⊂ G eine Untergruppe. Dann heißt H
Normalteiler (von G), falls Hg = gH für alle g ∈ G gilt (d. h. falls alle Rechts- und
Linksrestklassen bzgl. H übereinstimmen). Mann schreibt dann H  G.

Bemerkung 23.3 Es sei G eine Gruppe, und es sei H eine Untergruppe von G. Dann
heis̈s t

H g := gHg −1 := {ghg −1 : h ∈ H}

zu h konjugierte Untergruppe. Man rechnet leicht nach, dass H g stets eine Untergruppe
von G ist ([Ü]). Es gilt damit: H ist genau dann Normalleiter von G, wenn H g = H
für alle g ∈ G gilt.
(Denn: “⇒”: Es gelte gH = Hg für alle g ∈ G. Wir zeigen:
−1
Dann ist H g ⊂ H für alle g ∈ G (und damit gilt dann auch H g ⊂ H, also H =
−1
(H g )g ⊂ H g , d. h. H = H g für alle g ∈ G).
Es sei also a ∈ H g d. h. a = ghg −1 für ein h ∈ H. Da gh ∈ gH = Hg ist, existiert ein
h̃ ∈ H mit gh = h̃g. Also ist a = h̃gg −1 = h̃ ∈ H.
“⇐”: Es gelte H g = H für alle g ∈ G, und es sei a ∈ Hg, d. h. a = hg für ein h ∈ H.
Dann existiert ein h̃ ∈ H mit h = g h̃g −1 . Folglich ist a = hg = g h̃g −1 g = g h̃ ∈ gH.
Also ist Hg ⊂ gH. Entsprechend sieht man, dass gH ⊂ Hg gilt (beachte dabei:
−1
H g = H).)

Beispiel 23.4 1. Ist G abelsch, so ist jede Untergruppe H ⊂ G Normalteiler.


2. Es sei G = GLn (K) und H = SLn (K) (vgl. B. 22.3.4).
Ist A ∈ GLn (K), so gilt für alle B ∈ SLn (K):

det(ABA−1 ) = det(A) det(B) det(A−1 ) = det(B) = 1 ,


23 NORMALTEILER 178

d. h. ABA−1 ∈ SLn (K). Damit gilt H A ⊂ H.


−1
Da A beliebig war, ist auch H = (H A )A ⊂ H A , d. h. H A = H und damit ist H nach
B. 23.3 Normalteiler in G.
3. Es sei G = SL2 (K) und
( ! )
1 t
H= B = Bt = :t∈K .
0 1

Dann ist H eine Untergruppe von SL2 (K).


(Denn: Es gilt
! ! !
1 t 1 s 1 s+t
(Bt Bs = = = Bs+t , also (Bt )−1 = B−t .)
0 1 0 1 0 1
!
0 1
Für A = gilt
−1 0
! ! ! !
−1 0 1 1 t 0 −1 1 0
ABt A = =
−1 0 0 1 1 0 −t 1

d. h. für t 6= 0 ist ABt A−1 6∈ H, also H A 6⊂ H. Damit ist H kein Normalteiler.

Satz 23.5 Es seien U und V Gruppen und es sei f : U → V ein Homomorphismus. Ist
N ⊂ V ein Normalteiler von V , so ist f −1 (N ) ein Normalteiler von U . Insbesondere
ist Kern(f ) Normalteiler von U .

Beweis. Es genügt, zu zeigen: Für alle g ∈ G ist (f −1 (N ))g ⊂ f −1 (N ). Ist g ∈ G und


u ∈ (f −1 (N ))g so existiert ein ũ ∈ f −1 (N ) mit u = gũg −1 . Also ist

f (u) = f (gũg −1 ) = f (g)f (ũ)(f (g))−1 ∈ f (g)N (f (g))−1 = N ,

d. h. u ∈ f −1 (N ).
Da {e} ein Normalteiler von V ist, ist insbesondere

Kern(f ) = f −1 ({e})

Normalteiler von U . 2

Die Normalteiler sind unter allen Untergruppen deswegen ausgezeichnet, weil die Rest-
klassen von Normalteilern (wie die Restklassen von mZ in Z) durch Definition einer
Restklassenverknüpfung zu einer Gruppe gemacht werden können.
23 NORMALTEILER 179

Satz 23.6 Es seien G eine Gruppe und H ein Normalteiler in G. Dann ist die Menge

G/H := {Hg : g ∈ G} (= {gH : g ∈ G})

eine Gruppe bzgl. der repräsentantenweise definierten Multiplikation

Hg · Hh := H(g · h)

(die sog. Faktorgruppe G/H). Die kanonische Projektion

π : G → G/H , π(g) := Hg

ist ein surjektiver Gruppenhomomorphismus mit Kern(π) = H, und es gilt

ord(G/H) = G : H .

Beweis. Wesentlich ist, dass die Multiplikation wohldefiniert ist, d. h. unabhängig


von den Repräsentanten g, h ist. Es seien also g, h, a, b mit Hg = Ha und Hh = Hb
gegeben. Dann gilt auch gH = aH, und folglich ist g = ge ∈ aH und h ∈ Hb. Also ist
a−1 g ∈ H und hb−1 ∈ H.
Dann ist auch

a−1 ghb−1 ∈ H

und also

ghb−1 a−1 = aa−1 ghb−1 a−1 ∈ aHa−1 = H a = H .

Dies bedeutet wiederum gh ∈ Hab bzw. Hgh = Hab. Klar ist, dass He = H das
neutrale Element von G/H und Ha−1 das zu Ha inverse Element ist.
Aus diesen Überlegungen ergibt sich auch, dass π ein surjektiver Homomorphismus
ist. Ist π(g) = He, so ist Hg = He = H und damit g ∈ H. Umgekehrt folgt aus g ∈ H
auch wieder Hg = H = He, also π(g) = He. Also ist Kern(π) = H.
Nach der Definition von G : H (B./D. 22.17) ist ord(G/H) = G : H. 2

Der folgende Satz liefert eine gewisse Umkehrung von S. 23.6.

Satz 23.7 Es seien G und B Gruppen, und es sei f : G → B ein surjektiver Grup-
penhomomorphismus. Dann ist B isomorph zur Faktorgruppe G/Kern(f ).

Beweis. Wir zeigen: Durch i(Kern(f ) · g) := f (g) ist eine Abbildung i : G/Kern(f ) →
B wohldefiniert.
(Denn: Ist Kern(f ) · g = Kern(f ) · h für g, h ∈ G, so gilt

gh−1 ∈ Kern(f ) .
23 NORMALTEILER 180

Also ist e = f (gh−1 ) = f (g)(f (h))−1 , d. h. f (g) = f (h). Damit ist i(Kern(f ) · g) =
i(Kern(f ) · h)).
Man sieht sofort, dass i ein Homomorphismus ist, und nach Definition ist i surjektiv.
Außerdem gilt Kern(i) = {Kern(f )}, also besteht Kern(i) genau aus dem neutralen
Element in G/Kern(f ). Damit ist i auch injektiv nach S. 22.8.5. 2

Das könnte Ihnen auch gefallen