Lineare Algebra 2022-23
Prof. A. Rosenschon
1
2
1. Mengen und Abbildungen
Definition 1.1. Eine Menge M ist eine Zusammmenfassung von ge-
wissen Objekten, den sogenannten Elementen von M . Die leere Menge
∅ ist die Menge, die kein Objekt enthält.
NB. Diese erste Definition ist nicht präzise; eine genaue Festlegung
des Begriffs einer Menge, und der mit Mengen zulässigen Operationen,
erfordert eine axiomatische Begründung der Mengenlehre, die für eine
Einführung in die lineare Algebra nicht angebracht ist. Wir verwenden
daher nur die obige, naive Definition.
• m ∈ M : m ist Element von M ,
•m∈ / M : m ist kein Element von M ,
• M = {m1 , m2 , . . . } : M ist die Menge mit den Elemente m1 , m2 . . . ,
• M = {x | x erfüllt Eigenschaft P } : Menge der x mit Eigenschaft P .
Beispiele 1.2. (a) N = {1, 2, 3, . . . } Menge der natürlichen Zahlen;
N0 = {0, 1, 2, . . . } die Menge der natürlichen Zahlen einschliesslich 0.
(b) Z = {. . . , −1, 0, 1, 2, . . . } Menge der ganzen Zahlen.
(c) Q = {p/q | p, q ∈ Z, q 6= 0 } Menge der rationalen Zahlen.
(d) R Menge der reellen Zahlen.
Definition 1.3. Sei M eine Menge.
(a) Eine Menge N ist eine Untermenge (oder Teilmenge) von M , N ⊆
M , falls jedes Element von N in M liegt. Ist N ⊆ M und gibt es we-
nigstens ein m ∈ M mit m ∈ / N , so schreibe N ( M . Zwei Mengen
M, N sind gleich, M = N , wenn N ⊆ M und M ⊆ N gilt. Die Potenz-
menge P (M ) ist die Menge aller Teilmengen von M ; es ist ∅ ∈ P (M ).
(b) Seien Nj ⊆ M, j ∈ J, J eine nichtleere Indexmenge (nicht un-
bedingt endlich). Die Vereinigung und der Durchschnitt der Nj sind
definiert als die Mengen
∪ Nj = {m ∈ M | m ∈ Nj für ein j},
j∈J
∩ Nj = {m ∈ M | m ∈ Nj für alle j}.
j∈J
Ist J = ∅, so setze ∪j Nj = ∅ und ∩j Nj = M .
(c) Ist Nj ⊆ M, j = 1, 2, so ist die Differenz von N1 und N2 die Menge
N1 \ N2 = {n1 ∈ N1 | n1 ∈
/ N2 }.
(d) Seien Mi 6= ∅, i = 1, . . . , k Mengen. Betrachte geordnete k-Tupel
(m1 , . . . , mk ), mi ∈ Mi , d.h. (m1 , . . . , mk ) = (m01 , . . . , m0k ) ⇔ mi = m0i
3
für i = 1, . . . , k. Das (kartesische) Produkt der Mi ist definiert als
M1 × · · · × Mk = {(m1 , . . . , mk ) | mi ∈ Mi }.
Seien A, B, C, Nj für j ∈ J Teilmengen einer Menge M . Dann gilt:
• A ∪ B = B ∪ A und A ∩ B = B ∩ A.
• A ∪ (B ∪ C) = (A ∪ B) ∪ C und A ∩ (B ∩ C) = (A ∩ B) ∩ C.
• A ∩ (∪j Nj ) = ∪j (A ∩ Nj ) und A ∪ (∩j Nj ) = ∩j (A ∪ Nj ).
Beispiel 1.4. Sei M = N, N1 , N2 ⊆ M die Mengen N1 = {1} und
N2 = {1, 2}. Dann ist N1 ∪ N2 = {1, 2}, N1 ∩ N2 = {1}, N1 \ N2 =
∅, N2 \N1 = {2}, N1 ×N2 = {(1, 1), (1, 2)} und N2 ×N1 = {(1, 1), (2, 1)}.
Definition 1.5. Sei M eine Menge und Nj ⊆ M, j ∈ J, Teilmengen.
Die Nj bilden eine Partition von M , falls jedes m ∈ M in genau einer
der Teilmengen Nj liegt d.h. falls gilt
M = ∪j Nj und Nj ∩ Nk = ∅ für j 6= k, j, k ∈ J.
Beispiel 1.6. Sei N ⊆ M und N = M \N (d.h. N ist das Komplement
von N in M ). Dann bilden N und N eine Partition von M .
Wir wollen Partitionen einer Menge charakterisieren. Ist M = ∪j Nj
eine Partition, so nennen wir zwei Elemente m, m0 ∈ M äquivalent,
m ∼ m0 , falls m, m0 ∈ Nj für ein j gilt. Für m, m0 , m00 ∈ M folgt:
(i) m ∼ m,
(ii) m ∼ m0 ⇒ m0 ∼ m,
(iii) m ∼ m0 und m0 ∼ m00 ⇒ m ∼ m00 .
Wir zeigen, dass umgekehrt (i)-(iii) eine Partition bestimmen.
Definition 1.7. (a) Eine Relation R auf einer Menge M ist eine Teil-
menge R ⊆ M × M . Sind m, m0 ∈ M und gilt (m, m0 ) ∈ R, so schreibe
mRm0 (m und m0 stehen zueinander in Relation R).
(b) Eine Relation R auf einer Menge M ist eine Äquivalenzrelation,
falls für alle Elemente m, m0 , m00 ∈ M gilt:
(i) mRm (Reflexivität),
(ii) mRm0 ⇒ m0 Rm (Symmetrie),
(iii) mRm0 und m0 Rm00 ⇒ mRm00 (Transitivität)
Ist R eine Äquivalenzrelation, so schreibe ∼ für R und m ∼ m0 für
mRm0 ; die Menge der zu einem m ∈ M äquivalenten Elemente bildet
die Äquivalenzklasse [m] von m:
[m] = {m0 ∈ M | m ∼ m0 } ⊆ M.
Lemma 1.8. Sei M eine Menge und ∼ eine Äquivalenzrelation auf
M . Dann gilt für m, m0 ∈ M entweder [m] ∩ [m0 ] = ∅ oder [m] = [m0 ];
4
die verschiedenen Äquivalenzklassen bezüglich ∼ bilden eine Partition
von M .
NB. Partition von M ↔ Äquivalenzrelation auf M .
Beweis. Klar ist ∪m [m] ⊆ M . Wegen (i) gilt für m ∈ M stets m ∈ [m],
also ist auch M ⊆ ∪m [m] und somit M = ∪m [m]. Sei ∅ = 6 [m] ∩ [m0 ],
0 0
zu zeigen ist [m] = [m ]. Ist m0 ∈ [m] ∩ [m ], so gilt m0 ∼ m und
m0 ∼ m0 . Sei m1 ∈ [m], d.h. m1 ∼ m. Wegen (ii) folgt aus m0 ∼ m auch
m ∼ m0 , und (iii) angewandt auf m1 ∼ m und m ∼ m0 liefert m1 ∼ m0 .
Nochmalige Anwendung von (iii) auf m1 ∼ m0 und m0 ∼ m0 zeigt
m1 ∼ m0 , also ist m1 ∈ [m0 ] und [m] ⊆ [m0 ]. Aus Symmetriegründen
(vertauschen der Rollen von m und m0 ) folgt genauso die umgekehrte
Inklusion [m0 ] ⊆ [m], d.h. es gilt [m] = [m0 ].
Beispiele 1.9. (a) Sei M = R2 und L ⊆ M die Menge der Geraden in
M . Für l1 , l2 ∈ L definiert
l1 ∼ l2 ⇔ l1 || l2 (d.h. die Geraden sind parallel)
eine Äquivalenzrelation auf L.
(b) Sei M = Z und m ≥ 1 eine ganze Zahl. Für n1 , n2 ∈ Z definiere
n1 ≡ n2 (mod m) ⇔ m|(n1 − n2 ) ⇔ km = n1 − n2 für ein k ∈ Z.
Dann definiert ≡ eine Äquivalenzrelation auf Z:
(i) n ≡ n(mod m), wegen m|n − n = 0,
(ii) n1 ≡ n2 (mod m) heisst n1 − n2 = km für ein k ∈ Z; in diesem
Fall folgt −km = n2 − n1 , d.h. n2 ≡ n1 (mod m).
(iii) Ist n1 ≡ n2 (mod m), km = n1 −n2 und n2 ≡ n3 (mod m), lm =
n2 − n3 , so folgt (k + l)m = n1 − n3 , also n1 ≡ n3 (mod m).
Sei Z/mZ die Menge der Äquivalenzklassen dieser Äquivalenzrelation
Z/mZ = {[r] | r ∈ Z}.
Nach Lemma 1.8 bilden die verschiedenen Äquivalenzklassen eine Par-
tition von Z; dies sind die Mengen [r] für 0 ≤ r < m (d.h. die ver-
schiedenen Äquivalenzklassen entsprechen den möglichen Resten bei
‘Division durch m’ und werden daher auch ‘Restklassen’ genannt).
Ist m = 2, so besteht die Restklasse [0] aus den geraden und die
Restklasse [1] aus den ungeraden ganzen Zahlen, d.h. Z/2Z = {[0], [1]};
weiter ist · · · [−2] = [0] = [2] = · · · und · · · [−1] = [1] = [3] = · · · . Die
entsprechende Partition von Z hat die Form
Z = [0] ∪ [1] = {gerade ganzen Zahlen} ∪ {ungerade ganzen Zahlen}.
5
Definition 1.10. Seien M 6= ∅ = 6 N Mengen.
(a) Eine Abbildung f von M nach N , f : M → N , ordnet jedem
m ∈ M genau ein n ∈ N zu; im Fall f : m 7→ n schreibe f (m) = n
(genauer: eine Abbildung ist eine Teilmenge F ⊆ M × N , so dass es
für jedes m ∈ M genau ein n ∈ N mit (m, n) ∈ F gibt; in diesem
Fall schreibe f (m) = n). Zwei Abbildungen f, g : M → N sind gleich,
f = g, falls f (m) = g(m) für alle m ∈ M gilt. Setze
Abb(M, N ) = {f | f : M → N Abbildung}.
(b) Die Identitätsabbildung idM auf M ist die Abbildung idM : M →
M, idM (m) = m für alle m ∈ M .
(c) Seien Mi nichtleere Mengen, i = 1, 2, 3, f ∈ Abb(M1 , M2 ) und
g ∈ Abb(M2 , M3 ). Das Kompositum g◦f von f und g ist die Abbildung
g ◦ f : M1 → M3 , m1 7→ g(f (m1 )), m1 ∈ M1 .
• Für f ∈ Abb(M1 , M2 ), g ∈ Abb(M2 , M3 ) und h ∈ Abb(M3 , M4 ) gilt:
h ◦ (g ◦ f ) = (h ◦ g) ◦ f (d.h. die Bildung von ◦ ist assoziativ).
• Ist f ∈ Abb(M, N ), so gilt f = idN ◦f und f = f ◦ idM .
Definition 1.11. Seien M 6= ∅ = 6 N Mengen und f ∈ Abb(M, N ).
(a) Ist U ⊆ M , so ist das Bild von U unter f die Menge
f (U ) = {f (u) | u ∈ U } ⊆ N.
(b) Ist V ⊆ N , so ist das Urbild von V unter f die Menge
f −1 (V ) = {m | f (m) ∈ V } ⊆ M.
(c) f ist surjektiv, falls f (M ) = N gilt, d.h. zu jedem n ∈ N gibt es
ein m ∈ M mit f (m) = n.
(d) f ist injektiv, falls aus f (m1 ) = f (m2 ) mit m1 , m2 ∈ M stets
m1 = m2 folgt; in diesem Fall besteht das Urbild eines jeden n ∈ N
aus maximal einem Element.
(e) f ist bijektiv, falls f injektiv und surjektiv ist.
Lemma 1.12. Seien M 6= ∅ = 6 N Mengen und sei f ∈ Abb(M, N ).
(a) f ist genau dann injektiv, wenn es ein g ∈ Abb(N, M ) gibt, sodass
gilt: g ◦ f = idM .
(b) f ist genau dann surjektiv, wenn es ein g ∈ Abb(N, M ) gibt, sodass
gilt: f ◦ g = idN .
(c) f ist genau dann bijektiv, wenn es ein g ∈ Abb(N, M ) mit
g ◦ f = idM und f ◦ g = idN
gibt; in diesem Fall ist g eindeutig bestimmt und ebenfalls bijektiv.
6
Beweis. Übung.
Definition 1.13. Sei f ∈ Abb(M, N ) bijektiv. Dann gibt es nach Lem-
ma 1.12 eine eindeutig bestimmte Abbildung g ∈ Abb(N, M ), sodass
gilt: g ◦ f = idN und f ◦ g = idM . In diesem Fall ist g ebenfalls bijektiv;
g = f −1 ist die zu f inverse Abbildung.
• Seien f ∈ Abb(M1 , M2 ) und g ∈ Abb(M2 , M3 ) bijektiv. Dann ist
auch g ◦ f bijektiv und es gilt: (g ◦ f )−1 = f −1 ◦ g −1 . Genauer: Da die
Bildung des Kompositums von Abbildungen assoziativ ist, gilt
(g ◦ f ) ◦ (f −1 ◦ g −1 ) = g ◦ (f ◦ (f −1 ◦ g −1 )) = g ◦ ((f ◦ f −1 ) ◦ g −1 ) =
= g ◦ (idM2 ◦ g −1 ) = g ◦ g −1 = idM3 ;
ähnlich folgt (f −1 ◦ g −1 ) ◦ (g ◦ f ) = idM1 . Nach Lemma 1.12(c) ist daher
g ◦ f bijektiv und (g ◦ f )−1 = f −1 ◦ g −1 .
Bemerkung 1.14. Zwei Mengen M, N sind gleichmächtig, falls es ei-
ne Bijektion von M auf N gibt, in diesem Fall schreibe |M | = |N |. Ist
M = ∅, so setzte |M | = 0. Eine Menge M ist endlich, falls M = ∅ oder
es eine Bijektion von M auf {1, . . . n} ⊆ N für ein geeignetes n ∈ N
gibt. In diesem Fall ist n durch M eindeutig bestimmt, und |M | = n.
Für endliche Mengen gilt: Ist N ⊆ M und |N | = |M |, so ist N = M .
Für unendliche Mengen, d.h. nicht endliche Mengen, gilt dies nicht.
Zum Beispiel, es ist N ( Z ( Q, aber |N| = |Z| = |Q|; Mengen mit
der Eigenschaft, dass |M | = |N| gilt heissen abzählbar unendlich; die
Menge R ist nicht abzählbar unendlich.
Die Frage, ob für eine unendliche Teilmenge M ⊆ R entweder |M | =
|N| oder |M | = |R| gilt wurde von D. Hilbert 1900 als die Kontinuums-
hypothese formuliert. P. Cohen zeigte 1963, dass sich diese Frage mit
den üblichen Axiomen der Mengenlehre weder beweisen noch widerle-
gen lässt.
Lemma 1.15. Seien M, N nichtleere endliche Mengen mit |M | = |N |
und sei f ∈ Abb(M, N ). Dann sind gleichwertig:
(a) f ist bijektiv,
(b) f ist injektiv,
(c) f ist surjektiv.
NB. Das obige Lemma gilt nicht für unendlichen Mengen: Zum Bei-
spiel, die Abbildung f : Z → Z, f (n) = 2n ist eine Abbildung zwischen
zwei (unendlichen) Mengen der gleichen Mächtigkeit, und ist injektiv,
aber nicht surjektiv.
Beweis. (a)⇒(b): Trivial nach Definition. (b)⇒ (c): Da f injektiv ist,
gilt |M | = |f (M )|, und wegen |M | = |N | ist somit |f (M )| = |N |. Da
7
f (M ) ⊆ N und |M | = |N | endlich ist, folgt f (M ) = N , also ist f
surjektiv. (c)⇒ (a): Für n1 , n2 ∈ N , n1 6= n2 , ist f −1 (n1 ) ∩ f −1 (n2 ) =
∅, d.h. die Urbilder f −1 (n) der n ∈ N definieren eine Partition von M
M = ∪ f −1 (n).
n∈N
Da f surjektiv ist, gilt |f −1 (n)| ≥ 1 für alle n ∈ N , damit folgt
X X
|M | = | ∪ f −1 (n)| = |f −1 (n)| ≥ 1 = |N |.
n∈N
n∈N n∈N
Da nach Annahme |N | = |M | gilt, folgt |f −1 (n)| = 1 für n ∈ N , d.h. f
ist injektiv.
Lemma 1.16. Sei f : M → N eine Abbildung und seien M1 , M2 ⊆ M
und N1 , N2 ⊆ N Teilmengen. Dann gilt:
(a) f (M1 ∪ M2 ) = f (M1 ) ∪ f (M2 ),
(b) f (M1 ∩ M2 ) ⊆ f (M1 ) ∩ f (M2 ),
(c) f −1 (N1 ∪ N2 ) = f −1 (N1 ) ∪ f −1 (N2 ),
(d) f −1 (N1 ∩ N2 ) = f −1 (N1 ) ∩ f −1 (N2 ).
Beweis. Übung.
2. Gruppen I
Eine Menge G hat die Struktur einer (abelschen) Gruppe, wenn es
eine ‘Addition’ mit den Eigenschaften der Addition in den ganzen Zah-
len Z gibt; allgemein ist eine Gruppenstruktur auf einer Menge eine
(nicht unbedingt kommutative) ‘Verknüpfung’ von Elementen mit den
folgenden Eigenschaften:
Definition 2.1. Sei G eine nichtleere Menge. Eine Verknüpfung · auf
G ist eine Abbildung · : G × G → G, d.h. · ordnet jedem geordneten
Paar (a, b) ∈ G × G ein Element c ∈ G zu; schreibe c = a · b. Eine
Menge G, zusammen mit einer Verknüfung · ist eine Gruppe, falls gilt:
(1) · ist assoziativ: a · (b · c) = (a · b) · c für alle a, b, c ∈ G.
(2) es gibt ein (links)-neutrales Element e ∈ G mit e · a = a für alle
a ∈ G.
(3) zu jedem a ∈ G gibt es ein (links)-inverses Element, d.h. ein
b ∈ G mit b · a = e.
Die Gruppen G ist kommutativ oder abelsch, falls zusätzlich gilt:
(4) a · b = b · a für a, b ∈ G.
8
• Aufgrund des Assoziativgesetzes (1) lassen sich Produkte von Ele-
menten in einer Gruppe (G, ·) beliebig klammern. Seien a, b, c ∈ G mit
ba = b · a = e und cb = c · b = e. Dann gilt
ab = (ea)b = ((cb)a)b = (c(ba))b = (ce)b = c(eb) = cb = e,
d.h. ba = e impliziert ab = e (d.h. das links-inverse Element ist auch
ein rechts-inverses Element). Weiter folgt damit auch
ae = a(ba) = (ab)a = ea = a,
also liefert ea = a auch ae = a (d.h. das links-neutrale Element e ist
auch ein rechts-neutrales Element).
• Ist (G, ·) eine Gruppe, so schreibe e = 1 (Einselement) und b =
−1
a
Qn für das zu a inverse Element. Sind a1 ,Q a2 , . . . , an ∈ G, so schreibe
0
i=1 ai = a1 · · · · · an ; nach Definition gilt i=1 ai = 1. Ist (G, +) eine
abelsche Gruppe, so schreiben wir oft ‘+0 anstelle von ‘·0 ; in diesem Fall
setze e = 0 (Nullelement) P und bezeichne das zu a inverse Element mit
−a. Weiter ist dann ni=1 ai die Summe der endlich vielen Elemente
a1 , . . . , an ; nach Definition ist 0i=1 ai = 0.
P
Beispiele 2.2. (a) (Z, +) ist abelsche Gruppe (übliche Addition).
(b) (Q, +) und (Q× = Q \ {0}, ·) (übliche Addition und Multiplikation)
sind abelsche Gruppen, genauso für (R, +) und (R× = R \ {0}, ·).
(c) Die Menge Z[x] der Polynome in einer Variablen x mit ganzzahligen
Koeffizienten bildet eine abelsche Gruppe mittels der Addition
n
X m
X n+m
X
f= ai x i , g = bj x j ⇒ f + g = (ak + bk )xk ;
i=0 j=0 k=0
genauso ist die Menge solcher Polynome mit rationalen Koeffizienten
Q[x] bzw. reellen Koeffizienten R[x] eine abelsche Gruppe.
(d) Sei M eine Menge und Bij(M ) die Menge der bijektiven Abbildun-
gen M → M . Dann bildet Bij(M ) mittels der Komposition ◦ von Ab-
bildungen eine Gruppe: Sind f, g ∈ Bij(M ), so ist auch g ◦ f ∈ Bij(M ),
das neutrale Element ist die Identitätsabbildung idM , und das zu ei-
nem f ∈ Bij(M ) inverse Element ist die inverse Abbildung f −1 . Im Fall
einer endlichen Menge M = {1, . . . , n} ⊆ N schreibe Sn = Bij(M ); für
n ≥ 3 ist die Gruppe Sn nicht abelsch.
(e) Sei m ≥ 1 eine ganze Zahl. Für a ∈ Z betrachte die Äquivalenzklasse
[a] = {a + mk | k ∈ Z} = a + mZ ⊆ Z
derjenigen Elemente von Z, die zu a kongruent modulo m sind. Setze
[a] + [b] = [a + b],
9
d.h. definiere ‘+’ auf den Äquivalenzklassen durch den Ausdruck auf
der rechten Seite. Diese Addition von [a] und [b] ist wohl-definiert:
Ist [a1 ] = [a2 ], a1 − a2 = km und [b1 ] = [b2 ], b1 − b2 = lm, so folgt
a1 +b1 −(a2 +b2 ) = a1 −a2 +(b1 −b2 ) = (k+l)m, d.h. [a1 +b1 ] = [a2 +b2 ].
Aus den Eigenschaften der Addition in Z ergibt sich, dass die Menge
Z/mZ = {[a] = a + mZ | a ∈ Z }
bzgl. der oben definierten Verknüpfung + die Struktur einer abelschen
Gruppe mit neutralem Element [0] hat; es ist |Z/mZ| = m.
Das nächste Lemma liefert elementare Rechenregeln in Gruppen:
Lemma 2.3. Sei (G, ·) eine Gruppe, a, b, c ∈ G.
(a) ab = ac ⇒ b = c und ac = bc ⇒ a = b,
(b) (a−1 )−1 = a,
(c) (ab)−1 = b−1 a−1 .
Beweis. (a): Ist ab = ac, so liefert Multiplikation mit a−1 von links
a−1 (ab) = a−1 (ac) Wegen a−1 (ab) = (a−1 a)b = eb = b und a−1 (ac) = c
folgt b = c; analog mit Multiplikation mit c−1 von rechts für den zweiten
Fall. (b): Nach Definiton ist (a−1 )−1 a−1 = e, Multiplikation mit a von
rechts liefert (a−1 )−1 = a. (c): Wegen (b−1 a−1 )(ab) = b−1 (a−1 a)b =
b−1 (eb) = b−1 b = e ist (ab)−1 = b−1 a−1 .
Eine Untergruppe H ⊆ G einer Gruppe G (bzgl. ·) ist eine Teilmenge,
sodass die Einschränkung von · auf H eine Gruppenstruktur auf H
definiert, insbesondere muss dazu das Produkt von zwei Elementen
aus H in H liegen, und H alle Inversen und die 1 enthalten; genauer:
Definition 2.4. Sei G eine Gruppe. Eine Teilmenge H ⊆ G ist eine
Untergruppe von G, H ≤ G, falls gilt
(a) 1 ∈ H
(b) a, b ∈ H ⇒ ab ∈ H
(c) a ∈ H ⇒ a−1 ∈ H.
NB. Ist ∅ 6= H ⊆ G eine nichtleere Teilmenge, so lassen sich die
Kriterien (a)-(c) der obigen Definition zu einer Bedingung vereinfachen:
∅=6 H ⊆ G ist Untergruppe, falls gilt: a, b ∈ H ⇒ ab−1 ∈ H.
Konkret: Wegen ∅ = 6 H gibt es ein a ∈ H und die Bedingung impliziert
aa−1 = 1 ∈ H, somit gilt (a). Ist a ∈ H beliebig, so folgt aus 1 ∈ H
nun 1a−1 = a−1 ∈ H, also gilt (c). Da mit a, b ∈ H auch a, b−1 ∈ H
ist, ist a(b−1 )−1 = ab ∈ H, dies ist (b).
Beispiele 2.5. (a) In jeder Gruppe G gilt: {1} ≤ G und G ≤ G (die
Untergruppen {1} und G sind die trivalen Untergruppen von G).
10
(b) Als additiven Gruppen: Z ≤ Q ≤ R.
(c) Für die additiven Gruppen der Polynome mit ganzzahligen, ratio-
nalen und reellen Koeffizienten: Z[x] ≤ Q[x] ≤ R[x].
(d) Sei m ≥ 1 eine ganze Zahl und mZ = {mk | k ∈ Z} ⊆ Z. Dann ist
mZ ≤ Z eine Untergruppe (für m ≥ 2 ist mZ ( Z und |mZ| = |Z|).
Nach Beispiel 2.5(d) bilden für m ≥ 1 die m-Vielfachen mZ ⊆ Z eine
Untergruppe von Z. Nach Beispiel 1.9(b) definiert
n1 ≡ n2 (mod m) ⇔ m|(n1 − n2 ) ⇔ (n1 − n2 ) ∈ mZ
eine Äquivalenzrelation auf Z.
Schreibt man die additive Gruppenoperation in G = Z multiplikativ
und setzt man U = mZ ≤ Z, so entspricht der additiven Relation
m|(n1 − n2 ) die multiplikative Relation n1 n−1
2 ∈ U . Wir zeigen, dass
diese multiplikative Relation bzgl. einer Untergruppe U ≤ G allgemein
eine Äquivalenzrelation auf G definiert:
Lemma 2.6. Sei G eine Gruppe und U ≤ G eine Untergruppe. Dann
definiert a ∼ b ⇔ ab−1 ∈ U (a, b ∈ G) eine Äquivalenzrelation auf G.
Beweis. Wegen aa−1 = 1 ∈ U gilt a ∼ a. Ist a ∼ b, also ab−1 ∈ U ,
so folgt (ab−1 )−1 = ba−1 ∈ U , d.h. b ∼ a. Ist a ∼ b und b ∼ c, so
gilt ab−1 ∈ U und bc−1 ∈ U . Es folgt ac−1 = (ab−1 )(bc−1 ) ∈ U und so
a ∼ c.
Definition 2.7. Sei G eine Gruppe, U ≤ G eine Untergruppe und ∼
die durch U definierte Äquivalenzrelation auf G (a ∼ b ⇔ ab−1 ∈ U ).
Ist a ∈ G, so ist die entsprechende Äquivalenzklasse die Menge
[a] = {b ∈ G | a ∼ b} = {b ∈ G | ab−1 ∈ U } = {ua |u ∈ U } = U a;
diese Mengen sind die Rechtsnebenklassen von U . Sind die U aj für j ∈
J die verschiedenen Rechtsnebenklassen, so bilden diese eine Partition
G = ∪ U aj .
j∈J
Ist |J| endlich, so ist |J| der Index von U in G; schreibe |J| = |G : U |.
• Genauso definiert a ∼ b ⇔ a−1 b ∈ eine Äquivalenzrelation auf G. Die
Äquivalenzklasse von a ∈ G ist die Linksnebenklasse
[a] = {b ∈ G | a ∼ nb} = {b ∈ G |a−1 b ∈ U } = aU.
Ist G abelsch, so gilt aU = U a; für eine nicht-abelsche Gruppe gilt dies
im allgemeinen nicht.
• Der Versuch analog zur Definition der Addition auf Z/mZ mittels
der Addition auf Z eine Verknüpfung auf der Menge der Nebenklassen
11
G/U = {U a | a ∈ G} durch U a · U b = U ab zu definieren funktioniert
für abelsche Gruppen, aber nicht für allgemeine Gruppen. Dies wird
uns zu besonderen Untergruppen führen, den sogenannten Normaltei-
lern.
Das folgende Resultat besagt, dass es einer endlichen Gruppe nicht
Untergruppen beliebiger Kardinalität geben kann:
Theorem 2.8. (Satz von Lagrange) Sei G eine endliche Gruppe (d.h.
die Menge G ist endlich) und U ≤ G eine Untergruppe. Dann gilt:
|G| = |G : U ||U |.
NB. Das Theorem besagt: Gibt es eine Untergruppe U ≤ G, so ist |U |
ein Teiler von |G|; dies ist eine notwendige Bedingung für die Existenz
von Untergruppen; zum Beispiel kann eine Gruppe G mit Primzahl-
ordnung |G| = p nur die trivialen Untergruppen {1} und G enthalten.
Beweis. Betrachte die Partition G = ∪j U aj . Für a ∈ G ist die Abbil-
dung U → U a, u 7→ ua surjektiv (ist ua ∈ U a, so gilt u 7→ ua) und
injektiv (ist u1 a = u2 a, so folgt u1 = u2 ), also eine Bijektion. Es folgt
|aU | = |U | und |G| = |J||U | = |G : U ||U |.
Bemerkung 2.9. Die Umkehrung des Satzes von Lagrange gilt nicht,
d.h. im allgemeinen gibt es zu einem Teiler der Gruppenordnung |G|
einer endlichen Gruppe keine Untergruppe dieser Ordnung. Ein grund-
legendes Resultat in diesem Kontext ist das folgende Theorem von
Sylow: Sei G eine endliche Gruppe, |G| = n und p eine Primzahl die
n teilt. Sei pm die maximale p-Potenz in n. Dann gibt es eine Un-
tergruppe U ≤ G mit |U | = pm . Zum Beispiel: Jede Gruppe G mit
|G| = 24 = 3 · 23 besitzt mindestens eine Untergruppe U ≤ G mit
|U | = 3 und eine Untergruppe V ≤ G mit |V | = 23 = 8.
3. Körper
Ein Körper ist eine additiv geschriebene abelsche Gruppe, auf der
zusätzlich eine Multiplikation definiert ist, die die Eigenschaften der
Multiplikation von rationalen Zahlen erfüllt.
Definition 3.1. Ein Körper K ist eine Menge mit zwei Verknüpfungen
+ und ·, sodass gilt:
(1) (K, +) ist eine abelsche Gruppe mit Nullelement 0,
(2) (K \ {0}, ·) ist eine abelsche Gruppen mit Einselement 1 6= 0,
(3) a · (b + c) = a · b + a · c und (a + b) · c = a · c + b · c.
12
In Körpern gelten viele der ‘üblichen’ Rechenregeln. Für a, b ∈ K ist:
• 0a = a0 = 0,
• (−1)a = −a,
• (−a)b = a(−b) = −ab,
• ab = 0 ⇒ a = 0 oder b = 0.
NB. Nicht alle Eigenschaften der rationalen Zahlen gelten für allge-
meine Körper. Zum Beispiel, in Q folgt für n ∈ N und a ∈ Q aus
n · a = (1 + · · · + 1) · a = 0 stets a = 0, aber es gibt Körper mit der
Eigenschaft, dass n · a = 0 für n 6= 0 und a 6= 0.
Beispiele 3.2. (a) Q und R sind Körper.
(b) Sei p eine Primzahl und Z/pZ die Menge der Restklassen modulo
p. Die Menge Z/pZ ist bzgl. der Addition [a] + [b] = [a + b] eine abel-
sche Gruppe mit Nullelement [0]. Analog definiert [a] · [b] = [ab] eine
Multiplikation auf Z/pZ mit Einselement [1], sodass Z/pZ \ {[0]} eine
abelsche Gruppe ist. Aufgrund der Definition von + und · in Z/pZ
(mittels + und · in Z) sind diese Operationen verträglich und Z/pZ
ist ein Körper mit p Elementen; vgl. Übung. In dem Körper Z/pZ gilt
pa = 0 für alle a ∈ Z/pZ.
Analog zur Definition einer Untergruppe einer Gruppe ist ein Un-
terkörper oder Teilkörper eines Körpers K eine Teilmenge L ⊆ K mit
der Eigenschaft, dass sich + und · auf K zu Verknüpfungen L × L → L
auf L einschränken, und L bezüglich dieser Verküpfungen einen Körper
bildet.
Definition 3.3. Sei K ein Körper. Ein Unterkörper L ⊆ K ist eine
Teilmenge, sodass gilt:
(a) a, b ∈ L ⇒ a + b, a · b ∈ L,
(b) 0, 1 ∈ L,
(c) a ∈ L ⇒ −a ∈ L,
(d) 0 6= a ∈ L ⇒ a−1 ∈ L.
Beispiele 3.4. (a) Q ist ein Unterkörper von R.
√ √
(b)√Betrachte die Menge Q( 2) = {a + b√2 | a, b ∈ Q} ⊆ R. Dann√ist
Q( 2) ⊆ R ein Unterkörper mit Q (√ Q( 2) ( R (der Körper Q( 2)
ist der ‘kleinste’
√ Teilkörper von R, √der 2 enthält): Wir zeigen zunächst
Q ( Q( 2) ( R: Angenommen 2 = p/q ∈ Q, p, q ∈ Z, q 6= 0, p/q
gekürzt. Dann ist p2 = 2q 2 , also ist p2 und damit p gerade (das Quadrat
einer ungeraden Zahl ist ungerade). Sei p = 2k für ein k ∈ Z. Wegen
4k 2 = (2k)2 = p2 = 2q 2 ist 2k 2 = q 2√ , also ist q gerade: Widerspruch
zu p/q ist gekürzt; also ist Q ( Q( 2). Wir nehmen nun an, dass
13
√ √ √ √
3 ∈ Q(√ 2) √ ist, d.h. 3 = a + b 2 für a, b ∈ Q. Dann √ ist a 6= 0
2
(sonst 3 = b 2, also 3 = 2b ) und √ b 6= 0 (sonst wäre 3 = a ∈ Q;
ein ähnliches
√ √ Argument wie für 2 zeigt, dass dies nicht gilt). Aus
3 = a + b 2 folgt mit der binomischen Formel
√
3 = a2 + 2ab 2 + 2b2 ,
√
und√wegen a 6= 0 6= b√dann 2√= (3 − a2 − 2b2 )/2ab ∈√Q; Widerspruch
zu 2 ∈ / Q. Also ist 3 ∈ / Q( 2) und damit auch Q( 2) ( R.
Einfaches Nachrechnen (in R!) liefert die Formeln
√ √ √
(a + b √2) + (c + √ 2d) = (a + c) + 2(b + d), √
(a + b 2) · (c + d 2) = (ac + 2bd) + (ad + bc) 2,
√
d.h. Q( √ √ bzgl. + und · und√es gilt (a). Wegen
2) ist abgeschlossen
0 = 0 + 0 2 und√1 = 1 + 0 2 gilt (b). √ Da mit √
a + b 2 auch das additiv
Inverse −(a + b 2) = (−a) √ + (−b)√ 2 in Q( 2) liegt, haben wir (c).
Für (d) betrachte 0 6=√a+b 2 √ ∈ Q( 2). Dann ist a 6=√0 oder b 6=√0 und
damit auch 0 6= a − b 2 ∈ Q(√ 2). Es folgt 0 6= (a − 2b)(a + 2b) =
a2 − 2b2 und das inverse (a + b 2)−1 ist durch folgende Formel gegeben
√
1 a−b 2 a b √ √
√ = 2 = − 2 ∈ Q( 2).
a+b 2 a − 2b2 a2 − 2b2 a2 − 2b2
4. Vektorräume
Eine (abelsche) Gruppe ist eine algebraische Struktur, die die Eigen-
schaften der Addition in den ganzen Zahlen abstrahiert. Ähnlich ist die
Definition eines Körpers eine abtrakte Formulierung der Eigenschaften
der Addition und Multiplikation von rationalen Zahlen.
Die algebraische Struktur eines Vektorraums ist motiviert durch die
reelle Ebene R2 = {(a, b) | a, b ∈ R }, zusammmen mit der Addition
v = (a, b), w = (c, d) ∈ R2 ⇒ v + w = (a + c, b + d),
und der Skalarmultiplikation
v = (a, b) ∈ R2 , α ∈ R ⇒ α · v = (α · a, α · b).
In der abstrakten Formulierung werden die Vektoren Elemente einer
Menge und die Skalare Elemente eines Körpers sein; zur Unterschei-
dung bezeichnen wir Vektoren mit lateinischen Buchstaben a, b, c . . .
und Skalare mit griechischen Buchstaben α, β, γ, . . . .
Definition 4.1. Sei K ein Körper. Ein K-Vektorraum ist eine Menge
V , zusammem mit einer (inneren) Verknüpfung V × V → V, (v, w) 7→
v + w (einer ‘Addition’ +) und einer (äusseren) Veknüpfung K × V →
14
V, (α, v) 7→ α · v (einer ‘Skalarmultiplikation’ ·), sodass für α, β ∈ K
und v, w ∈ V gilt:
(1) V ist bzgl. + eine abelsche Gruppe (insbesondere ist V 6= ∅),
(2) (α + β) · v = α · v + β · v und α · (v + w) = α · v + β · w,
(3) (α · β) · v = α · (β · v),
(4) 1 · v = v.
Für K-Vektorräume gelten die folgenden Rechenregeln (hier ist 0V
das Nullelement in V und 0K das Nullelement in K; im Weiteren werden
diese Elemente nur mit 0 bezeichtnet, da es sich aus dem Kontext
ergibt, welche ‘Null’ gemeint ist; weiter werden wir für α · v oft einfach
nur αv schreiben):
• α · 0V = 0V für α ∈ K,
• 0K · v = 0V für v ∈ V ,
• (−α) · v = α · (−v) für α ∈ K und v ∈ V ,
• α · v = 0V für α ∈ K und v ∈ V impliziert α = 0K oder v = 0V ,
• α · ( ni=1 vi ) = ni=1 (α · vi ) und ( ni=1 αi ) · v = ni=1 (αi · v),
P P P P
Beispiele 4.2. (a) Jede abelsche Gruppe enthält ein Nullelement 0
und ist daher eine nicht-leere Menge. Ist V = {0} eine einelementige
Menge, so ist V bzgl. 0 + 0 = 0 eine abelsche Gruppe und für jeden
Körper K und α ∈ K mittels α · 0 = 0 ein K-Vektorraum; V ist der
triviale K-Vektorraum oder Nullraum.
(b) Sei K ein Körper und n ∈ N0 . Dann ist das Produkt K n =
{(α1 , . . . , αn ) | αi ∈ K} bzgl. der komponentenweisen Addition und
Skalarmultiplikation
(α1 , . . . , αn ) + (β1 , . . . , βn ) = (α1 + β1 , · · · , αn + βn ),
α · (α1 , · · · , αn ) = (α · α1 , · · · , α · αn )
ein K-Vektorraum; für n = 0 ist K 0 = {0} der Nullraum. Die K-
Vektorräume K n sind die zentralen Beispiele in der linearen Algebra.
(c) Sei K ein Körper und M ein Menge. Dann ist die Menge V =
Abb(M, K) der Abbildungen M → K ein K-Vektorraum bezüglich
der ‘punktweise’ definierten Verknüpfungen: f, g ∈ V , α ∈ K,
f + g : M → K, m 7→ f (m) + g(m),
α · f : M → K, m →
7 α · f (m)
Diese Beispiele von K-Vektorräumen treten oft in der Analysis auf;
zum Beispiel, ist I = [0, 1] ⊆ R das Einheitsintervall, und K = R, so
ist V = Abb(I, R) der R-Vektorraum der reellwertigen Funktionen auf
15
dem Einheitsintervall.
(d) Sei K ein Körper und K[x] die Menge der Polynome in x mit
Koeffizienten in K. Dann ist K[x] bzgl. der üblichen Addition von
Polynomen (Addition der Koeffizienten) und der Skalarmultiplikation
n
X n
X
i
α ∈ K, f = αi x ⇒ α · f = (ααi )xi
i=0 i=0
ein K-Vektorraum.
(e) Sei K ein Körper und k ⊆ K ein Unterkörper. Nach Definition ist
k ≤ K eine abelsche Untergruppe und die Einschränkung der Multipli-
kation K × K → K auf k × K → K definiert ein Skalarprodukt, d.h. K
ist ein k-Vektorraum.
√ Insbesondere ist wegen der Inklusionen von Un-
terkörpern Q ⊆ Q( 2) ⊆ R, R nicht nur √ein R-Vektorraum (R = R1 ),
sondern auch ein Q-Vektorraum bzw. Q( 2)-Vektorraum.
Ein K-linearer Unterraum eines K-Vektorraums V ist eine Teilmenge
U ⊆ V , die bzgl. der Einschränkung der Addition und der Skalarmulti-
plikation von V auf U einen K-linearen Vektorraum definiert. Formal:
Definition 4.3. Sei V ein K-Vektorraum. Eine Teilmenge U ⊆ V ist
ein K-Untervektorraum oder K-linearer Unterraum von V , falls gilt:
(a) ∅ =
6 U,
(b) a, b ∈ U ⇒ a + b ∈ U ,
(c) α ∈ K, a ∈ U ⇒ α · a ∈ U (insbesondere: a ∈ U ⇒ −a ∈ U ).
NB. Ist V ein K-Vektorraum und U ⊆ V ein K-linearer Unterraum, so
bezeichnen wir U oft einfach als linearen Unterraum (d.h. ein linearer
Unterraum eines K-Vektorraums ist stets ein Untervektorraum über
demselben Körper K).
Beispiele 4.4. (a) Sei V ein K-Vektorraum. Dann ist V ⊆ V stets ein
Unterraum. Ist v ∈ V , so ist der von v erzeugte lineare Unterraum
hvi = K · v = {α · v | α ∈ K} ⊆ V.
Insbesondere enthält jeder K-Vektorraum V die linearen Unterräume
{0} (v = 0) und V ; dies sind die trivialen linearen Unterräume.
(b) Sei m ≤ n, und sei K m ⊆ K n die kanonische Inklusion, die ein m-
Tupel (α1 , . . . , αm ) ∈ K m mit dem n-Tupel (α1 , . . . , αm , 0, . . . 0) ∈ K n
identifiziert. Dann ist K m ⊆ K n ein linearer Unterraum.
(c) Sei K ein Körper und M eine Menge. Ist V = Abb(M, K) der K-
Vektorraum der K-wertigen Funktionen auf M , so bilden die stetigen
(bzw. differenzierbaren, Polynomfunktionen) einen Unterraum von V .
16
√ √
(d) Wegen der Inklusionen Q ⊆ Q( 2) ⊆ R sind Q, Q( 2) und R
Q-lineare Unterräume des Q-Vektorraums R.
Wir betrachten Untervektorräume eines K-Vektorraums V .
Lemma 4.5. Sei V ein K-Vektorraum und sei {Ui }i∈I eine Familie
von linearen Unterräumen von V . Dann ist U = ∩i∈I Ui ⊆ V ebenfalls
ein linearer Unterraum.
Beweis. Aus 0 ∈ Ui für alle i folgt 0 ∈ U , d.h. U 6= ∅. Sind u, u0 ∈ U
und α ∈ K, so ist u + u0 ∈ Ui und α · u ∈ Ui für alle i, da die Ui lineare
Unterräume sind. Damit folgt u + u0 ∈ U und α · u ∈ U .
Wir wollen zu einer beliebigen Teilmenge A ⊆ V eines K-Vektorraums
den ‘kleinsten’ linearen Unterraum hAi ⊆ V bestimmen, der die gege-
bene Menge A enthält. Aus dem obigen Lemma ergibt sich, dass
hAi = ∩{U | U ⊆ V linearer Unteraum mit A ⊆ U }.
Klar ist, dass dieser lineare Unterraum hAi alle Elemente der Form
Xn
αi ai , n ∈ N0 , αi ∈ K, ai ∈ A
i=1
enthalten muss. Wir zeigen:
Lemma 4.6. Sei V ein K-Vektorraum und A ⊆ V eine Teilmenge.
Der von der Teilmenge A ⊆ V in V erzeugte lineare Unterraum ist
hAi = { ni=1 αi ai | n ∈ N0 , αi ∈ K, ai ∈ A}
P
= ∩{U | U ⊆ V linearer Unterraum mit A ⊆ U } ⊆ V.
NB. Sei {ai }i∈I ⊆ V eine Familie von Elementen von V und A =
{ai | i ∈ I}. Dann ist der von den ai erzeugte lineare Unterraum
hai | i ∈ Ii = hAi ⊆ V.
• h∅i = {0},
• A ⊆ hAi für jede Teilmenge A ⊆ V ,
• U = hU i für jeden linearen Unterraum U ⊆ V ,
• Für Teilmengen A, B ⊆ V gilt: A ⊆ B ⇒ hAi ⊆ hBi und A ⊆ hBi ⇒
hAi ⊆ hBi.
Beweis. Ist A 6= ∅, a ∈ A, so ist auch
P00 = 0 · a ∈ hAi; ist A = ∅, so ist
nach Definition der leeren Summe i=1 αi · ai = 0, also gilt 0 ∈ hAi
auch in diesem Fall. Sei α ∈ K ein Skalar und seien a,Pb ∈ hAi, d.h. a =
Σi=1 αi ai und b = Σj=1 βj bj . Dann sind auch αa = ri=1 (ααi )ai und
r s
17
a + b = ri=1 αi ai + sj=1 βj bj in hAi, d.h. hAi definiert einen linearen
P P
Unterraum.
Sei U ⊆ V ein linearer Unterraum, der A enthält. Dann muss U
auch die hAi definierenden Ausdrücke enthalten, also ist hAi ⊆ U und
da dies für jeden solchen Unterraum U gilt, folgt hAi ⊆ ∩{U | U ⊆
V linearer Unterraum mit A ⊆ U }. Wegen A ⊆ hAi (da 1 · a = a für
a ∈ A) ist auch hAi ein Unterraum, der A enthält. Also ist ∩{U | U ⊆
V linearer Unterraum mit A ⊆ U } ⊆ hAi und damit gilt Gleichheit.
Beispiele 4.7. (a) Sei V = R2 . Ist 0 6= a ∈ R2 ein beliebiger Vektor,
so ist der von a erzeugte lineare Unterraum (vgl. Beispiel 4.4(a))
hai = {α · a | α ∈ R} ⊆ R2
genau die Gerade durch den Ursprung, die durch a erzeugt wird. Ist
0 6= b ∈ R2 ein weiterer Vektor mit a 6= α · b für alle α ∈ R (d.h. die
Vektoren a und b liegen nicht auf derselben Geraden), so ergibt sich
ha, bi = {α · a + β · b | α, β ∈ R} = R2 .
Insbesondere gibt es für jeden Vektor c ∈ R2 Skalare α, β ∈ R, sodass
c = αa + βb.
(b) Sei V = Q[x] der Q-Vektorraum aller Polynome in x mit rationalen
Koeffizienten. Dann gilt h1i = {konstante Polynome } = Q, h {1, x}i =
{Polynome vom Grad ≤ 1}, h{1, x, x2 }i = {Polynome vom Grad ≤
2}, etc., d.h. keine endliche Teilmenge der Form A = {1, x, x2 , . . . , xn }
hat die Eigenschaft, dass hAi = Q[x] ist. Allerdings ist hAi = Q[x] für
A = {xn | k ∈ N0 } (vgl. x0 = 1).
Was betrachten Teilmengen A ⊆ V für die hAi = V gilt:
Definition 4.8. Eine Menge A = {ai }i∈I ⊆ V von Elementen eines
K-Vektorraums V ist ein Erzeugendensystem von V , falls hAi = V
gilt, d.h. falls jeder Vektor v ∈ V eine Darstellung als endliche Summe
Xn
v= αi ai , αi ∈ K, ai ∈ A
i=1
besitzt. Der K-Vektorraum V ist endlich erzeugt (über K), falls V eine
endliches Erzeugensystem A = {a1 , · · · , an } besitzt.
NB. Ist A ein Erzeugendensystem von V , d.h. hAi = V , so hat nach
jeder Vektor v ∈ V eine Darstellung als eine endliche Sum-
Definition P
n
me v = i=1 αi ai , wobei αi ∈ K und ai ∈ A sind. Aber: diese
Darstellung ist nicht unbedingt eindeutig. Zum Beispiel, die Menge
18
A = {(1, 0), (0, 1), (1, 1)} ist ein Erzeugendensystem von R2 , aber der
Nullvektor hat die beiden Darstellungen
(0, 0) = 0 · (1, 0) + 0 · (0, 1)
(0, 0) = 1 · (1, 0) + 1 · (0, 1) + (−1) · (1, 1)
Beispiele 4.9. (a) Ist V ein K-Vektorraum und A = V , so gilt hV i =
V ; hV i ist das triviale Erzeugendensystem.
(b) Nach Beispiel 4.7(a) bilden in R2 je zwei nicht-triviale und nicht
auf einer Graden liegende Vektoren a, b ∈ R2 ein Erzeugendensys-
tem, also ist R2 endlich erzeugt; jede Teilmenge A ⊆ R2 die mindes-
tens zwei solche nicht-triviale und nicht auf einer Geraden liegenden
Vektoren enthält ist ein Erzeugendensystem, d.h. R2 lässt sich von
je zwei solchen (nicht unbedingt ‘orthogonalen’) Elementen erzeugen.
Allgemein besitzt Rn ein Erzeugendensystem aus n Elementen: Setze
ei = (0, . . . , 1, . . . , 0) d.h. ei ist der Vektor in Rn mit 1 in der i-ten
Komponente und 0 in allen anderen. Für v = (α1 , . . . , αn ) ∈ Rn ist
dann
Xn
v= αi ei ,
i=1
d.h. he1 , . . . , en i = Rn . Analog folgt für jeden Körper K, dass die n
Vektoren {e1 , . . . , en } den Vektorraum K n erzeugen.
(c) Der Q-Vektorraum Q[x] ist nicht endlich erzeugt: ist A ⊆ Q[x] eine
endliche Menge von Polynomen f1 , . . . , fP n , so ist die maximale Potenz
von x in endlichen Summen der Form ni=1 qi fi , qi ∈ Q, beschränkt
und jedes Polynom, dass eine höheren Potenz von x enthält kann nicht
als eine solche Summe dargestellt werden.
√
(d) Betrachte den Körper V = Q( 2) von Beispiel 3.4(b). Der Körper
V ist ein V -Vektorraum und als solcher von 1 erzeugt, h1i = V . Da
Q ⊆ V ein Unterkörper ist, ist V auch √ ein Q-Vektorraum;
√ für V als
Q-Vektorraum gilt nach Definition h1, 2i = {a+b 2 | a, b ∈ Q} = V .
Uns interessieren Erzeugendensysteme A ⊆ V mit der Eigenschaft,
dass sich jedes v ∈ V eindeutig als eine endliche Linearkombination
Xn
v= αi ai , αi ∈ K, ai ∈ A
i=1
schreiben lässt. In diesem Fall sind die αi eindeutig bestimmt, sodass
n
X
v= αi ai ↔ v = (α1 , . . . , αn ),
i=1
d.h. die αi lassen sich als die Koordinaten von v bzgl. A interpretieren.
19
Diese Bedingung einer eindeuitgen Darstellung lässt sich wie folgt
formulieren: Sei A = {a1 , . . . , an } endlich. Lässt sich jeder Vektor ein-
deutig als eine endliche Linearkombination der ai darstellen, so gilt dies
insbesondere für den Nullvektor. Wegen 0 = 0 · a1 + 0 · a2 + · · · + 0 · an
folgt dann
n
X
(#) αi ai = 0 ⇔ αi = 0 für alle i = 0, . . . , n.
i=0
Gilt umgekehrt (#), und sind v = ni=1 αi ai = ni=1 βi a
P P
i zwei Darstel-
lungen von einem Vektor v, so folgt wegen 0 = v − v = ni=1 (αi − βi )ai
P
aus ( #) die Gleichheit der Koeffizienten αi = βi für i = 0, . . . , n, d.h. die
Darstellung von v als v = ni=1 αi ai ist eindeutig.
P
Dies führt zu dem Begriff der linearen Unabhängigkeit.
Definition 4.10. Sei V ein K-Vektorraum und seien {ai }i∈I Vektoren
in V . Die Menge {ai }i∈I ist linear unabhängig (oder auch: die ai sind
linear unabhängig), falls für jede endliche Teilmenge J ⊆ I gilt
X
αj aj = 0 ⇒ αj = 0 für alle j ∈ J.
j∈J
Sind die ai nicht linear unabhängig, so sind sie linear abhängig.
NB. Vektoren {a1 , . . . , an } sind linear unabhängig genau dann, wenn
ha1 , . . . , an i ein minimales Erzeugendensystem
P ist (d.h. kein ai lässt
sich durch die anderen aj als ai = j6=i αj aj , αj ∈ K darstellen): Sind
Pn
{a1 , . . . , an } linear abhängig, so gibt einen Ausdruck i=1 αi ai = 0
mit nicht alle αi = 0. Ist αi 6= 0, so folgt ai = j6=i −αi−1 αj aj , d.h.
P
ha1 , . . . , an i ist nicht minimal.
P Ist umgekehrt ha1 , . . . , an iP
nicht minimal,
so gibt es ein ai mit ai = j6=i αj aj und daher (−1)ai + j6=i αj aj = 0;
da in einem Körper −1 6= 0 ist sind {a1 , . . . , an } linear abhängig.
• Die aus dem Nullvektor {0} bestehende Menge ist linear abhängig.
• Eine Menge die einen Vektor und ein nicht-triviales Skalarvielfaches
dieses Vektors enthält ist linear abhängig (vgl. αv + (−α)v = 0).
• Die aus einem Nichtnullvektor bestehende Menge {v 6= 0} ist linear
unabhängig.
• Die leere Menge ∅ ist linear unabhängig.
Beispiele 4.11. (a) Ist V = R2 , so sind die Vektoren e1 = (1, 0) und
e2 = (0, 1) linear unabhängig. Dies folgt formal, da die Gleichung
(0, 0) = α · (1, 0) + β · (0, 1) = (α, β)
20
nur die Lösung α = 0 = β hat. Die lineare Unabhängigkeit von e1
und e2 ist geometrisch klar: Jeder Vektor a ∈ R2 lässt sich auf genau
eine Weise als Summe (‘Parallelogramm’) von Vielfachen von e1 und e2
darstellen. Aus dem gleichen Grund sind je zwei nicht-triviale Vektoren
a, b ∈ R2 , die nicht auf einer Graden liegen linear unabhängig.
(b) Sei V = K n und sei ei = (0, . . . , 1, . . . , 0) der Vektor mit 1 in der
i-ten Komponente, i = 1, . . . , n. Analog wie in (a) gilt für alle αi ∈ K
n
X
(α1 , . . . , αn ) = αi ei .
i=1
Also ist ni=1 αi ei = 0 genau dann, wenn αi = 0 für i = 1, . . . ., n, d.h.
P
die {e1 , . . . , en } sind linear unabhängig.
(c) Ist V = Q[x] der Q-Vektorraum der Polynome mit rationalen Koef-
fizienten, so die unendliche PMenge . . . , xn , . . . | n ∈ N0 } ⊆ V
A = {1, x,P
n n
linear unabhängig: Aus i=0 αi xi = 0 = i
i=0 0x folgt αi = 0 für
i = 0, . . . , n.
Definition 4.12. Sei V ein K-Vektorraum. Eine Basis von V ist eine
Erzeugendensystem B = {bi | i ∈ I} ⊆ V von V (d.h. hBi = V ),
welches aus linear unabhängigen Vektoren besteht.
NB. Ist B ⊆ V eine Basis, so besagt die erste Bedingung, dass je-
der Vektor in V sich als (endliche) Linearkombination von Elemen-
ten aus B mit Koeffizienten aus K darstellen lässt. Die zweite Bedin-
gung impliziert, dass diese Darstellung eindeutig ist. Inbesondere: Ist
B =P {bi | i ∈ I} ⊆PV eine Basis und J ⊆ I eine endliche Teilmenge so
gilt: j∈J αj bj = j∈J βj bj ⇒ αj = βj für j ∈ J.
Theorem 4.13. Sei V ein endlich erzeugter K-Vektorraum, V =
ha1 , . . . , an i. Sei 1 ≤ k ≤ n und seien c1 , . . . , ck linear unabhängige
Vektoren in V . Dann gibt es eine Basis {b1 , . . . , bm } von V , sodass gilt
{c1 , . . . , ck } ⊆ {b1 , . . . , bm } ⊆ {a1 , . . . , an },
d.h. jede linear unabhängige Menge {c1 , . . . , ck } lässt sich durch Hin-
zunahme geeigneter Vektoren aus einem Erzeugendensystem zu einer
Basis von V ergänzen.
NB. 1. Das Theorem besagt, dass jeder endlich erzeugte K-Vektorraum
eine Basis besitzt: Ist V = {0}, so ist {∅} eine Basis. Ist V 6= {0}, so
gibt es einen Vektor 0 6= c ∈ V , der linear unabhängig ist, und {c}
lässt sich durch Hinzunahme geeigneter Vektoren aus einem Erzeugen-
densystem von V zu einer Basis von V ergänzen.
21
2. Der Beweis impliziert, dass folgende Aussagen gleichwertig sind:
(a) {b1 , . . . , bm } ist eine Basis von V,
(b) {b1 , . . . , bm } ist maximale linear unabhängige Teilmenge in V,
(c) hb1 , . . . bm i ist minimales Erzeugendensystem von V.
Beweis. Wir können oBdA annehmen, dass {c1 , . . . , ck } ⊆ {a1 , . . . , an }
ist; sei also ai = ci für i = 1, . . . , k. Betrachte die Teilmengen
{a1 , . . . , ak } ⊆ {a1 , . . . , am } ⊆ {a1 , . . . , an },
wobei 1 ≤ k ≤ m ≤ n und {a1 , . . . , am } eine maximale linear un-
abhängige Teilmenge von {a1 , . . . , an } ist. Ist m < j ≤ n so sind die
Vektoren {a1 , . . . , am , aj } linear abhängig, d.h. es gibt eine Relation
Xm
αi ai + αj aj = 0,
i=1
wobei ein αi 6= 0 oder αj 6= 0 ist. Angenommen αj = 0. Da die a1 , . . . am
linear unabhängig folgt dann α1 = · · · = αm = 0, Widerspruch. Somit
ist αj 6= 0 und damit auch aj ∈ ha1 , . . . am i, da
Xn
aj = − (αj−1 αi )ai ∈ ha1 , . . . , am i.
i=1
Also ist ha1 , . . . , am i = V , d.h. {a1 , . . . am } ist eine Basis von V .
Nach Theorem 4.13 hat jeder endlich erzeugte K-Vektorraum eine
Basis. Klar ist, dass eine solche Basis nicht eindeutig bestimmt ist (zum
Beispiel ist für V = R2 sowohl {(1, 0), (0, 1)}, als auch {(1, 0), (1, 1)}
eine Basis). Wir zeigen, dass die Anzahl der Basiselemente eine Invari-
ante des Vektorraums und unabhängig von der Wahl der Basis ist.
Lemma 4.14. (Austauschlemma) Sei V einPK-Vektorraum und B =
{b1 , . . . , bn } ⊆ V eine Basis von V . Ist b = n1=1 αi bi mit αi ∈ K und
αi 6= 0, so ist auch B 0 = {b1 , b2 , . . . , bi−1 , b, bi+1 , . . . , bn } ⊆ V eine Basis
von V .
Beweis. Sei b = ni=1 αi bi mit αi 6= 0. Durch Umnumerieren können
P
wir ohne Einschränkung annehmen, dass i = 1 ist. Dann ist
X n
−1
b1 = α1 (b − αi bi ) ∈ hb, b2 , . . . , bn i
i=2
und es folgt hb, b2 , . . . bn i = hb1 , . . . , bn i = V . Es bleibt zu zeigen: Die
Vektoren {b, b2 , . . . bn } sind linear unabhängig. Angenommen
Xn
βb + βi bi = 0, β, βi ∈ K.
i=2
22
Dann ist
n
X n
X n
X
β( α i bi ) + βi bi = (βα1 )b1 + (βαi + βi )bi = 0.
i=1 i=2 i=2
Da die {b1 , . . . , bn } linear unabhängig sind folgt dann
βα1 = 0 und βi + βαi = 0 für i = 2, . . . , n.
Wegen α1 6= 0 ist β = 0 und damit auch βi = 0 für i = 2, . . . , n, d.h.
die {b, b2 , . . . , bn } sind linear unabhängig und daher eine Basis.
Theorem 4.15. (Austauschsatz von Steinitz) Sei V ein K-Vektorraum
und {b1 , . . . , bn } ⊆ V eine Basis von V . Ist {a1 , . . . am } ⊆ V eine linear
unabhängige Teilmenge, so ist m ≤ n und mit geeigneter Numerierung
der bi ist {a1 , . . . , am , bm+1 , . . . , bn } ebenfalls eine Basis von V (d.h.
jede linear unabhängige Menge von Vektoren aus V lässt sich durch
Hinzunahme geeigneter Vektoren aus einer Basis zu einer Basis erwei-
tern).
Beweis. Induktion nach m. Ist m = 1, so ist a1 6= 0 und a1 = ni=1 αi bi
P
mit αi 6= 0 für ein i; ohne Einschränkung ist i = 1. Nach Lemma 4.14
ist {a1 , b2 , . . . , bn } ebenfalls eine Basis von V . Sei nun 1 < m ≤ n. Da
die {a1 , . . . , am−1 } linear unabhängig sind gibt es nach Induktion eine
Basis {a1 , . . . , am−1 , bm , bm+1 , . . . bn } von V . Angenommen
m−1
X n
X
am = β j aj + γi bi , βj , γi ∈ K.
j=1 i=m
Da die a1 , . . . , am linear unabhängig sind ist am keine Linearkombinati-
on von a1 , . . . , am−1 und es gibt ein γi 6= 0; wir können durch Umnume-
rierung annehmen, dass γm 6= 0 ist. Nach Lemma 4.14 können wir dann
bm durch am ersetzen, und erhalten eine Basis {a1 , . . . , am , bm+1 , . . . , bn }.
Angenommen {a1 , . . . , am } ist eine linear unabhängige Teilmenge
von V mit m > n. Dann folgt wie oben, dass {a1 , . . . , am } eine Ba-
sis von V bildet. Wegen m > n ist an ∈ ha1 , . . . , am i, was der linearen
Unabhängigkeit von {a1 , . . . , am } widerspricht, also ist m ≤ n.
Theorem 4.16. Sei V ein endlich erzeugter K-Vektorraum. Dann hat
V eine Basis {b1 , . . . , bn } und jede Basis hat genau n Elemente.
Beweis. Nach Theorem 4.13 hat V eine Basis B = {b1 , . . . , bn }. Sei
B 0 = {b0i | i ∈ I} ⊆ V eine weitere Basis von V . Ist |I| > n, so gibt es
in V eine linear unabhängige Menge {b01 , . . . , b0n+1 } mit mehr als n Ele-
menten; Widerspruch zu Theorem 4.15. Also ist |I| ≤ n. Vertauschen
der Rollen von B und B 0 liefert n ≤ |I|, also ist n = |I|.
23
Definition 4.17. Sei {0} 6= V ein endlich erzeugter K-Vektorraum.
Die Dimension (oder K-Dimension) dimK V ist die Anzahl der Ele-
mente einer (und damit jeder) Basis von V . Ist V = {0}, so setze
dimK V = 0.
NB. Mit Hilfe des ‘Zornschen Lemmas’ kann man die Existenz von
Basen in beliebigen K-Vektorräumen (d.h. nicht unbedingt endlich
erzeugten K-Vektorräumen) beweisen, d.h. für einen beliebigen K-
Vektorraum gibt es eine Basis B = {bi | i ∈ I} ⊆ V , sodass sich jedes
Element von V eindeutig als eine endliche Linearkombination dieser
Basiselemente darstellen lässt. Der Beweis liefert die Existenz, ist aber
nicht konstruktiv. Je zwei Basen haben die gleiche Mächtigkeit. Ist V
endlich erzeugt, so schreibe dim V < ∞; ist V nicht endlich erzeugt, so
setze dim V = ∞.
Beispiele 4.18. (a) Für jeden Körper K und n ≥ 1 ist {e1 , . . . , en } ⊆
K n eine Basis; die sogenannte Standardbasis. Also ist dim K n = n.
√
(b) Betrachte die Inklusionen von Körpern Q ⊆ Q( 2) ⊆ R. √ Der
1
Q-Vektorraum √ Q = Q hat Dimension
√ 1. Der Q-Vektorraum Q( 2)
wird von√{1, 2} erzeugt. Da {1, 2} auch linear unabhängig sind, ist
dimQ Q( 2) = 2. Für die reellen Zahlen R, aufgefasst als Q-Vektorraum,
gilt dimQ R = ∞: Hätte R eine endliche Q-Basis, so wäre R abzählbar,
Widerspruch.
(c) Für den Q-Vektorraum Q[x] der Polynome mit rationalen Koeffizi-
enten gilt ebenfalls dimQ Q[x] = ∞; eine (unendliche) Basis ist durch
die Menge {xn | n ∈ N0 } gegeben.
(d) Sei K ein Körper, M eine Menge, und V = Abb(M, K) der K-
Vektorraum der Abbildungen M → K. Für m ∈ M sei fm : M → K die
Abbildung fm (m) = 1 und fm (m0 ) = 0 für m0 6= m. Seien m1 , . . . , mn
paarweise veschiedene Elemente von M . Angenommen es gilt
n
X
αi fmi = 0, αi ∈ K.
i=1
Dann ist
Xn
0=( αi fmi )(mj ) = αj für j = 1, . . . , n.
i=1
Also sind die fm1 , . . . , fmn linear unabhängig. Ist |M | = ∞, so liefert
dies beliebig grosse Mengen von linear unabhängigen Elementen in V ,
also ist dimK V = ∞. Ist |M | = n < ∞ endlich, so hat jedes Element
24
f ∈ V eine Darstellung als eine endliche Linearkombination
X
f= f (m)fm ,
m∈M
d.h. die {fm | m ∈ M } bilden eine Basis von V und dimK V = |M | = n.
Sei V ein K-Vektorraum und seien Ui ⊆ V lineare Unterräume,
i = 1, . . . , k. Die Summe der Ui ist definiert als die Menge
U1 + · · · + Uk = {u1 + · · · + uk | ui ∈ Ui } ⊆ V.
Es ist U1 + · · · + Uk = h∪ki=1 Ui i ⊆ V , insbesondere ist die Summe
U1 + · · · + Uk ⊆ V ein linearer Unterraum von V ; siehe Übung.
Lemma 4.19. Sei V ein K-Vektorraum endlicher Dimension dimK V =
n < ∞ und sei U ⊆ V ein linearer Unterraum. Dann gilt
(a) dimK U ≤ dimK V ,
(b) Jede Basis {b1 , . . . , bk } ⊆ U von U lässt sich zu einer Basis
{b1 , . . . , bk , bk+1 , . . . , bn } ⊆ V von V ergänzen.
(c) Es gibt einen linearen Unterraum W ⊆ V , sodass gilt: V =
U +W und U ∩W = {0} (der Unterraum W ist ein Komplement
von U in V ),
(d) dimK U = dimK V genau dann, wenn U = V .
Beweis. (a): Ist U = {0}, so ist dimK U = 0 ≤ n. Ist U 6= {0}, und ist
B ⊆ U eine linear unabhängige Teilmenge, so ist nach Theorem 4.15
|B| ≤ n. Insbesondere hat eine Basis von U maximal n Elemente und
dimK U ≤ dimK V .
(b): Folgt aus Theorem 4.15.
(c): Ist {b1 , . . . , bk } eine Basis von U , so lässt sich diese nach (b) zu
einer Basis {b1 , . . . , bk , bk+1 , . . . , bn } von V ergänzen. Für den linearen
Unterraum W = hbk+1 , . . . , bn i gilt U + W = V und U ∩ W = {0}.
(d): Sei dimK U = dimK V = n. Ist {b1 , . . . , bn } eine Basis von U , so ist
nach (b) {b1 , . . . , bn } auch eine Basis von V und U = hb1 , . . . , bn i = V .
Die Umkehrung ist trivial.
Beispiel 4.20. Ist M eine Menge und N ⊆ M eine Teilmenge, so ist
das mengentheoretische Komplement N = M \N = {m ∈ M | m ∈ / N}
eindeutig bestimmt. Dies gilt im allgemeinen nicht für Komplemente
von linearen Unterräumen: Ist V ein endlich erzeugter K-Vektorraum
und {0} ( U ( V ein linearer Unterraum, so hat U stets mehrere
Komplemente. Ist {b1 , . . . , bk } eine Basis von V und {b1 , . . . , bn } eine
Basis von V , so definiert für jedes α ∈ K der lineare Unterraum
Wα = hbk+1 , . . . , bn−1 , bn + αb1 i
25
ein Komplement von U in V . Offensichtlich ist U + Wα = V . Ange-
nommen v ∈ U ∩ Wα . Dann gibt es Linearkombinationen
n−1
X k
X
v= αj bj + αn (bn + αb1 ) = αi bi ∈ U ∩ Wα .
j=k+1 i=1
Es ergibt sich eine Darstellung der 0 und Koeffizientenvergleich zeigt
α1 = · · · = αn = 0, also ist U ∩ Wα = {0}. Für verschiedene α ∈
K sind die Wα verschieden; ist der Körper K unendlich, so gibt es
unendlich viele Komplemente von U in V . Konkret: Sei V = R2 , U =
h(1, 0)i und {(1, 0), (0, 1)} die Standardbasis von V . Für α ∈ R ist
Wα + h(0, 1) = α(1, 0)i = h(α, 1)i. Für α, α0 ∈ R, α 6= α0 ist (α, 1) 6=
(α0 , 1), d.h. die durch diese Vektoren erzeugten Unterräume Wα und
Wα0 sind verschiedene Geraden durch den Ursprung; jede von der x-
Achse U = h(1, 0)i verschiedende Gerade durch den Ursprung liefert
ein Komplement von U in V .
5. Lineare Abbildungen und Faktorräume
Wir wollen Vektorräume mittels Abbildungen vergleichen. Ein Vek-
torraum ist eine Menge, zusammen mit einer ‘algebraischen’ Struktur
(‘Addition’ und ’Skalarmultiplikation’) und für uns wichtig sind dieje-
nigen Abbildungen, die mit dieser Struktur ‘verträglich’ sind.
Abstrakt sollte eine strukturerhaltende Abbildung die folgende Ei-
genschaft haben: Ist M eine Menge mit einer Verküpfung ∗M und N
eine Menge mit einer Verknüpfung ∗N , so ist eine Abbildung von Men-
gen f : M → N mit diesen Verknüpfungen verträglich, falls gilt
f (m ∗M m0 ) = f (m) ∗N f (m0 ), m, m0 ∈ M,
d.h. es ist egal, ob man zuerst in M verknüpft und dann abbildet oder
zuerst abbildet und dann in N verknüpft. Weiter sollte eine solche Ab-
bildung das neutrale Element eM bzgl. ∗M auf das neutrale Element
eN bzgl. ∗N abbilden. Solche strukturerhaltenden Abbildungen werden
Homomorphismen genannt.
Zum Beispiel: Sind G, H Gruppen, so ist ein Gruppenhomomorphis-
mus eine Abbildung f : G → H, sodass für alle g, g 0 ∈ G gilt
f (g · g 0 ) = f (g) · f (g 0 ),
(wegen 1H · f (1G ) = f (1G · 1G ) = f (1G ) · f (1G ) gilt f (1G ) = 1H ).
Sind K, L Körper, so ist ein Körperhomomorphismus eine Abbildung
26
f : K → L, sodass für alle a, b ∈ K die folgenden Formeln gelten
f (a + b) = f (a) + f (b),
f (a · b) = f (a) · f (b),
(wie oben folgt dann auch f (1K ) = 1L ).
Mittels strukturerhaltender Abbildung ergibt sich ein evidenter Be-
griff von ‘gleichwertigen’ oder ‘isomorphen’ algebraischen Strukturen:
gibt es eine bijektive Abbildung (die beiden Mengen haben ‘gleichviele’
Elemente) die strukturerhaltend ist (es ist egal wo man verknüpft), so
sind die Strukturen isomorph (aber nicht unbedingt identisch).
Wir betrachten strukturerhaltende Abbildungen von Vektorräume:
Definition 5.1. Sei K ein Körper und seien V, W K-Vektorräume.
(1) Eine Abbildung f : V → W ist linear (genauer: K-linear
oder ein Homomorphismus von K-Vektorräumen), falls für alle
a1 , a2 , a ∈ V und α ∈ K gilt:
f (a1 + a2 ) = f (a1 ) + f (a2 ) und f (α · a) = α · f (a).
Sei Hom(V, W ) = HomK (V, W ) die Menge aller K-linearen
Abbildungen von V nach W ; ist V = W , so schreibe EndK (V ) =
HomK (V, V ), die Elemente von EndK (V ) sind die Endomor-
phismen von V .
(2) Ist f ∈ HomK (V, W ), so definiere Kern und Bild von f als
ker(f ) = {a ∈ V | f (a) = 0} ⊆ V,
im(f ) = {f (a) | a ∈ V } ⊆ W.
(3) Eine K-lineare Abbildung f ∈ HomK (V, W ) ist ein Monomor-
phismus (bzw. Epimorphismus, Isomorphismus), falls f injek-
tiv (bzw. surjektiv, bijektiv) ist. Gibt es einen Isomorphismus
f : V → W , so sind V und W isomorph, V ∼ = W.
• Sei f ∈ HomK (V, W ). Dann ist f (0) = 0 und f (−a) = −f (a).
Lemma 5.2. Seien V, W K-Vektorräume und sei f ∈ HomK (V, W ).
(a) ker(f ) ⊆ V und im(f ) ⊆ W sind lineare Unterräume.
(b) f ist ein Monomorphismus ⇔ ker(f ) = {0}.
Beweis. (a): Wegen 0 = f (0) ist 0 ∈ ker(f ) und ker(f ) 6= ∅. Sind
a1 , a2 ∈ ker(f ), so ist wegen f (a1 + a2 ) = f (a1 ) + f (a2 ) = 0 + 0 = 0
auch a1 + a2 ∈ ker(f ). Für a ∈ ker(f ) und α ∈ K ist f (αa) = αf (a) =
α · 0 = 0, d.h. αa ∈ ker(f ). Der Beweis für im(f ) ist ähnlich einfach.
(b): Ist f ein Monomorphismus und a ∈ ker(f ), so ist f (a) = 0 =
f (0) und da f injektiv ist folgt a = 0, also ist ker(f ) = {0}. Sei
27
umgekehrt ker(f ) = {0}. Sind a1 , a2 ∈ V mit f (a1 ) = f (a2 ), so ist
0 = f (a1 ) − f (a2 ) = f (a1 − a2 ), d.h. a1 − a2 ∈ ker(f ) = {0} und somit
a1 = a2 , d.h. f ist ein Monomorphismus.
Beispiele 5.3. (a) Einfache Beispiele von linearen Abbildungen sind
die Identität id : V → V, a 7→ a und die Nullabbildung f : V →
W, a 7→ 0. Insbesondere gilt: Ist U ⊆ V ein Untervektorraum, so ist die
Inklusion i = idU : U → V, u 7→ u linear.
(b) Sei V = R3 und W = R2 . Seien αij ∈ R, i = 1, 2, j = 1, 2, 3 gegeben.
Wir ordnen diese Skalare als ein formales Schema an und betrachten
die Elemente von V und W als Spaltenvektoren (xj ) und (yi ). Setze
x
α11 α12 α13 1
α11 x1 + α12 x2 + α13 x3
· x2 =
α21 α22 α23 α21 x1 + α22 x2 + α23 x3
x3
Dann definiert das obige Zuordnungsschema eine lineare Abbildung
x1 x1
α 11 α 12 α 13 α 11 x 1 + α12 x 2 + α 13 x 3 y
x2 7→ ·x2 = = 1 .
α21 α22 α23 α21 x1 + α22 x2 + α23 x3 y2
x3 x3
Konkret ergibt sich, zum Beispiel für die folgende Wahl der Skalare
α11 = 1 α12 = 2 α13 = −4
α21 = −7 α22 = 8 α23 = −10
die lineare Abbildung
x1 x1
x2 7→ 1 2 −4 · x2 = x1 + 2x2 − 4x3 y
= 1 .
−7 8 −10 −7x1 + 8x2 − 10x3 y2
x3 x3
Allgemein lassen sich so lineare Abbildungen f : V = K n → K m =
W definieren: Sind αij ∈ K, i = 1, . . . , m, j = 1, . . . n fest gewählte
Skalare, so definiert die Zuordnung
x1 α11 α12 · · · α1n x1 y1
x2 · · · · · · · · · · · · x 2 y2
· 7→ · · · · · · · · · · · · · · = ·
· ··· ··· ··· ··· · ·
xn αm1 αm2 · · · αmn xn ym
wobei
n
X
yi = αij xj , i = 1, . . . m
j=1
28
eine lineare Abbildung f : K n → K m . Der Kern von f besteht aus
allen Vektoren (x1 , . . . , xn ) mit der Eigenschaft, dass
n
X
αij xj = 0, i = 1, . . . , m;
j=1
d.h. den gemeinsamen Lösungen der obigen m linearen Gleichungen (in
den Variablen x1 , . . . , xn ). Das Bild von f besteht aus den Vektoren
(y1 , . . . , ym ), sodass die m Gleichungen (in den Variablen x1 , . . . , xn )
n
X
αij xj = yi , i = 1, . . . m,
j=1
eine Lösung haben. Wir werden zeigen, dass jede lineare Abbildung
K n → K m diese Form hat und Techniken zur Lösung solcher Glei-
chungssysteme entwickeln.
Das nächste Lemma ist fundamental: Es zeigt, dass eine lineare Ab-
bildung auf einer Basis festgelegt ist und man dabei beliebige Werte
auf einer Basis vorgeben kann.
Lemma 5.4. Seien V und W K-Vektorräume, {aj | j ∈ J} eine Basis
von V und {bi | i ∈ I} eine Basis von W .
(a) Seien cj ∈ W, j ∈ J beliebig vorgegeben. Dann gibt es genau
eine lineare Abbildung f : V → W mit f (aj ) = cj für j ∈ J.
(b) Seien αij ∈ K, i ∈ I, j ∈ J, sodass für j ∈ J nur endlich viele
αij 6= 0 sind. Dann gibt es genau ein f ∈ HomK (V, W ) mit
X
f (aj ) = αij bi , j ∈ J.
j∈J
NB. Seien {a1 , . . . , an } und {b1 , . . . , bm } Basen von V bzw. W . Nach
(a) ist eine lineare Abbildung f : V → W durch die Bilder der Basisvek-
toren eindeutig bestimmt. Jedes der Bilder f (aj ) besitzt eine eindeutige
Darstellung als Linearkombination der bi ; d.h. für j = 1, . . . n ist somit
m
X
f (aj ) = αij bi .
i=1
29
Wir ordnen α1j , . . . αmj (j = 1, . . . n) die für diese Darstellung des j-ten
Basisvektoren auftreten als die Spalten einer sogenannten Matrix an
α11 · · · α1j · · · α1m
α21 · · · α2j · · · α2m
··· ··· ··· ··· ···
(αij ) =
··· ··· ··· ··· ···
··· ··· ··· ··· ···
αm1 · · · αmj · · · αmn
Damit lässt sich die lineare Abbildung f bzgl. dieser Basen durch eine
solche Matrix darstellen; wir werden die Frage, wie man durch eine
geschickte Wahl dieser Basen eine ‘einfache’ Matrix bekommt später
studieren. Umgekehrt besagt (b), dass ein Schema der Form (αij ) eine
eindeutige lineare Abbildung bestimmt.
Beweis. (a): Jedes a ∈ V hat eine eindeutige Darstellung a = nj=1 αj aj .
P
Ist f : V → W eine lineare Abbildung mit f (aj ) = cj , so folgt sofort
Xn n
X n
X
f (a) = f ( α j aj ) = αj f (aj ) = α j cj .
j=1 j=1 j=1
Also ist f durch die Werte f (aj ) auf den Basiselementen aj eindeutig
festgelegt, d.h. die Zuordnung f (aj ) = cj bestimmt eine eindeutige
Abbildung f : V → W . Weiter ist die oben definierte Abbildung
X n n
X n
X
a= αj aj 7→ f (a) = αj f (aj ) = αj cj
j=1 j=1 j=1
Pn Pm
linear: Sind a = j=1 αj aj , a0 = j=1 αj0 aj Vektoren in V , so ist
n
X m
X Xn+m
0
a+a = α j aj + αj0 aj = (αj + αj0 )aj
j=1
j=1 j=1
die eindeutige Darstellung von a+a0 als endliche Linearkombination der
Basiselemente ai ist. Nach Definition von f folgt dann sofort f (a+a0 ) =
f (a) + f (a0 ). Ein ähnliches Argument zeigt αf (a) = f (αa).
P
(b): Folgt aus (a) mit cj = j∈J αij bi (dies ist eine endliche Summe).
Beispiel 5.5. Betrachte die Abbildung f : R2 → R2 , v 7→ 2v; offen-
sichtlich ist f linear. Bzgl. der Basis {(1, 0), (0, 1)} von R2 auf (beiden
Seiten der Abbildung) ergibt sich
(1, 0) →
7 (2, 0) = 2 · (1, 0) + 0 · (0, 1),
(0, 1) → 7 (0, 2) = 0 · (1, 0) + 2 · (0, 1),
30
also ist die Matrixdarstellung von f bzgl. der Basis {(1, 0), (0, 1)}
2 0
0 2
Wählt man {(1, 0), (0, 1)} als Basis für den ‘Definitionsbereich’ R2
und {(1, 0), (1, 1)} als Basis für den ‘Zielbereich’ R2 , so ist wegen
(1, 0) 7→ (2, 0) = 2 · (1, 0) + 0 · (0, 1),
(0, 1) 7→ (0, 2) = −2 · (1, 0) + 2 · (1, 1),
die Matrixdarstellung von f bzgl. dieser beiden Basen
2 −2
.
0 2
Theorem 5.6. Seien V und W K-Vektorräume mit dimK V = n < ∞.
Dann sind gleichwertig
(a) dimK W = n,
(b) Es gibt einen Isomorphismus f : V → W , d.h. V ∼
= W.
NB. Das Theorem besagt: Ist V ein n-dimensionale K-Vektorraum,
so ist V ∼
= K n . Der Beweis zeigt, dass dieser Isomorphismus von der
Wahl von Basen von V und K n abhängt, d.h. jede Wahl von solchen
Basen liefert einen Isomorphismus (aber es es gibt keinen eindeutigen
Isomorphismus).
Beweis. (a)⇒(b): Sei dimK W = n und sei {a1 , . . . , an } eine Basis von
V und {b1 , . . . , bn } eine Basis Basen von W . Nach Lemma 5.4(a) gibt
es eine eindeutige lineare Abbildung f : V → W mitPf (aj ) = bj für
j = 1, . . . , n; genauer, für a = nj=1 αj aj ist f (a) = nj=1 αj f (aj ) =
P
Pn
αj bj . Diese Abbildung f ist ein Epimorphismus: Angenommen
j=1P
n Pn
b = j=1 βj bj ∈ W . Dann ist a = j=1 βj aj ∈ V und für dieses
Element a gilt
Xn Xn
f (a) = βj f (aj ) = βj bj = b.
j=1 j=1
Die Abbildung f ist ein Monomorphismus: Nach Pn Lemma 5.2(b) genügt
es zu zeigen, dass ker(f ) = {0} ist. Sei a = j=1 αj aj ∈ ker(f ), sodass
n
X n
X
0 = f (a) = αj f (aj ) = αj bj ;
j=1 j=1
da die bi linear unabhängig sind folgt αj = 0 für alle j, d.h. a = 0.
(b)⇒(a): Sei f : V → W ein Isomorphismus und sei {a1 , . . . , an } eine
Basis von V . Wir zeigen {f (a1 ), . . . , f (an )} ist eine Basis von W . Sei
31
b ∈ W . Da Pnf ein Epimorphismus ist gibt es Pein a ∈ V mit f (a) = b.
n
Ist a = α
j=1 j ja , so folgt b = f (a) = j=1 j f (aj ), also ist b ∈
α
hf (a1 ), . . . , f (an )i und da b ∈ W beliebig war folgt hf (a1 ), . . . , f (an )i =
W . Angenommen
n
X n
X
0= αj f (aj ) = f ( αj aj ).
j=1 j=1
Pn
Dann ist j=1 αj aj ∈ ker(f ). Da f ein Monomorphismus ist zeigt
nochmalige Anwendung von Lemma 5.2(b), dass ker(f ) = {0} ist, also
ist nj=1 αj aj = 0 und da die aj linear unabhängig sind folgt αj = 0
P
für alle j, d.h. die {f (a1 ), . . . , f (an )} sind linear unabhängig.
Eine lineare Abbildung f : V → W ist durch die linearen Unterräume
im(f ) ⊆ W und ker(f ) ⊆ V charakterisiert; das Bild im(f ) sind die
in W ‘sichtbaren’ Elemente, der Kern ker(f ) die Elemente in V , die
in W ‘verlorengehen’ (d.h. kein nicht-triviales Bild haben). Um diese
linearen Räume studieren zu können führen wir Faktorräume ein.
Die Idee hier ist die, das Bild im(f ) mit einem Quotienten- oder Fak-
torraum V / ker(f ) zu identifizieren. Jeder lineare Unterraum U ⊆ V
ist insbesondere eine abelsche Untergruppe, sodass nach Lemma 2.6
a1 ∼ a2 ⇔ a1 − a2 ∈ U eine Äquivalenzrelation auf V definiert. Be-
trachte die Menge der (verschiedenen) Äquivalenzklassen
V /U = {a + U | a ∈ V },
zusammen mit der surjektive Abbildung q : V → V /U, a 7→ a + U .
Wir zeigen, dass die Addition und Skalarmultiplikation auf V analog
eine Addition und Skalarmultiplikation auf V /U induziert, sodass V /U
ein K-Vektorraum und f : V → V /U eine lineare Abbildung ist.
Definition 5.7. Sei V ein K-Vektorraum und U ⊆ V ein linearer
Unterraum. Für a ∈ V setze a + U = {a + u | u ∈ U } ⊆ V . Der
Quotienten- oder Faktorraum von V nach U ist die Menge
V /U = {a + U | a ∈ V }.
Lemma 5.8. Sei V ein K-Vektorraum und U ⊆ V ein linearer Unter-
raum. Dann ist der Faktorraum V /U ein K-Vektorraum mittels
(a1 + U ) + (a2 + U ) = (a1 + a2 ) + U und α(a + U ) = αa + U.
Insbesondere gilt in V /U : 0 = 0 + U = U .
Die Abbildung q : V → V /U, a 7→ a + U ist ein Epimorphismus.
32
Beweis. Zu zeigen ist zunächst, dass die Operationen auf V /U wohl-
definiert sind. Ist a1 + U = a01 + U und a2 + U = a02 + U , so ist nach
Definition a1 − a01 = u1 ∈ U und a2 − a02 = u2 ∈ U . Damit folgt
(a1 + a2 ) + U − [(a01 + a02 ) + U ] = (u1 + U ) − (u2 + U ) = U.
Ähnlich für die Skalarmultiplikation: Ist a1 +U = a2 +U , also a1 −a2 =
u ∈ U , und ist α ∈ K, so ist auch α(a1 − a2 ) = αu ∈ U und somit
αa1 + U = αa2 + U .
Weiter ist V /U mit dieser Addition und Skalarmultplikation ein K-
Vektorraum; dies folgt, da diese Operationen von den entsprechenden
Operationen auf dem K-Vektorraum V induziert sind. Zum Beispiel,
α((a1 + U ) + (a2 + U )) = α(a1 + U ) + α(a2 + U )
da in V gilt α(a1 + a2 ) = αa1 + αa2 . Aus dem gleichen Grund ist die
(surjektive) Abbildung q : V → V /U, a 7→ a + U K-linear, d.h. ein
Epimorphismus.
Lemma 5.9. Sei V ein K-Vektorraum und seien U ⊆ W ⊆ V lineare
Unterräume. Für die K-Vektorräume W/U, V /W und V /U gilt:
(a) Sei {wi + U | i ∈ I} eine Basis von W/U und {vj + W | j ∈ J}
eine Basis von V /W . Dann ist {wi + U, vj + U | i ∈ I, j ∈ J}
eine Basis von V /U .
(b) Ist dim V = n < ∞, so ist dim V /U = dim V − dim U .
Beweis. (a): Für a ∈ V betrachte das Element a + W ∈ V /W . Da die
{vj + W | j ∈ J} P Skalare αj ∈ K,
eine Basis von V /W bilden gibt esP
n n
sodass a + W = α (v + W ) und weiter a − j=1 αj vj ∈ W .
Pn j=1 j j
Betrachte (a − j=1 αj vj ) + U ∈ W/U . Da die Menge {wi + U | i ∈ I}
eine Basis von W/U bildet gibt es Skalare βi ∈ K, sodass
n
X m
X
(a − αj vj ) + U = βi (wi + U ),
j=1 i=1
und somit
n
X m
X
a+U = αj (vj + U ) + βi (wi + U ),
j=1 i=1
d.h. V /U = hvj + U, wi + U | j ∈ J, i ∈ Ii. Wir zeigen die {vj + U, ui +
U | j ∈ J, i ∈ I} sind linear unabhängig. Angenommen in V /U gilt
n
X m
X
αj (vj + U ) + βi (wi + U ) = U (in V /U ist 0 = U )
j=1 i=1
33
mit αj , βi ∈ K. Es folgt nj=1 αj vj + m
P P
i=1 βi wi ∈PU. Da W ⊆ V ein
m
Pn ist folgt aus wi ∈ W dann auch i=1 βi wi ∈ W und
linearer Unterraum
in V /W gilt j=1 αj (vj + W ) = W . Da die Menge {vj + W | j ∈ J}
eine Basis von V /W bilden liefert dies αj = 0 für j = 1, . . . n. Wegen
wi + U ∈ W/U ergibt sich jetzt in W/U die Identität
m
X
βi (wi + U ) = 0
i=1
und da die {wi + U } eine Basis von W/U bilden gilt βi = 0 für i =
1, . . . m; dies beweist die Behauptung.
(b): Folgt aus (a) mit U = W .
Theorem 5.10. (Homomorphiesatz) Seien V, W K-Vektorräume und
sei f : V → W eine K-lineare Abbildung.
(a) Es gibt einen Epimorphismus g : V → V / ker(f ) und einen
Monomorphismus h : V / ker(f ) → W , sodass f = h ◦ g und
im(f ) = im(h) ist, d.h. das folgende Diagramm kommutiert
f
V / W
:
g
h
V / ker(f )
und h induziert einen Isomorphismus V / ker(F ) ∼
= im(f ).
(b) Ist dimK V = n < ∞, so gilt die Formel
dimK V = dimK ker(f ) + dimK im(f ).
Beweis. (a): Die Abbildung g : V → V / ker(f ) ist der evidente Epimor-
phismus a 7→ a + ker(f ). Die einzige Abbildung h : V / ker(f ) → W ,
die die gewünschten Eigenschaften haben könnte ist definert durch
h : V / ker(f ) → W, a + ker(f ) 7→ f (a).
Zu zeigen ist: h ist ein wohldefinierter Monomorphismus mit im(f ) =
im(h). Sei a1 + ker(f ) = a2 + ker(f ). Dann ist a1 − a2 ∈ ker(f ) und
h(a1 + ker(f )) − h(a2 + ker(f )) = f (a1 ) − f (a2 ) = f (a1 − a2 ) = 0,
d.h. h ist wohldefiniert. Weiter ist h linear, da f linear ist; es ist
h(α(a + ker(f )) = h(αa + ker(f )) = f (αa) = αf (a) =
= αh(a + ker(f ));
und ähnlich für die Addition. Nach Konstruktion gilt für jedes a ∈ V
(h ◦ g)(a) = h(a + ker(f )) = f (a),
34
also ist f = h ◦ g und im(f ) = im(h). Ist a + ker(f ) ∈ ker(h), so ist
0 = h(a + ker(f )) = f (a),
d.h. a + ker(f ) = ker(f ) und h ist ein Monomorphismus.
(b): Nach (a) ist V / ker(f ) ∼
= im(f ), d.h. diese beiden K-Vektorräume
haben die gleiche Dimension dimK (V / ker(f )) = dimK im(f ). Im Fall
dimK V = n folgt mit Lemma 5.9(b) weiter
dimK im(f ) = dimK (V / ker(f )) = dimK V − dimK ker(f ).
Lemma 5.11. Seien V, W K-Vektorräume mit dimK V = dimK W =
n < ∞ und f : V → W eine K-lineare Abbildung. Gleichwertig sind
(a) f ist ein Isomorphismus,
(b) f ist ein Monomorphismus,
(c) f ist ein Epimorphismus.
Beweis. (a) ⇒ (b): Trivial. (b)⇒ (c): Ist f ein Monomorphismus, so ist
ker(f ) = {0}. Weiter ist im(f ) ⊆ W und f ist ein Epimorphismus ge-
nau dann, wenn im(f ) = W ist; also nach Lemma 4.19(d) genau dann,
wenn dimK im(f ) = dimK W ist. Dies folgt aus dem Homorphiesatz
5.10(b): Wegen ker(f ) = {0} ist dimK im(f ) = dimK V = dimK W .
(c)⇒ (a): Ist f ein Epimorphismus, so ist dimK im(f ) = dimK W =
dimK V und der Homomorphiesatz 5.10(b) liefert dim ker(f ) = 0, d.h.
ker(f ) = {0} und f ist ein Monomorphismus.
Wir geben eine geometrische Interpretation von Faktorräumen und
dem Homomorphiesatz.
Beispiel 5.12. Sei V = R2 , W = R1 und f : V → W die lineare Ab-
bildung, die durch die Zuordnungen (1, 0) 7→ (1, 0) und (0, 1) 7→ (0, 0)
bestimmt ist, d.h. f (a, b) = a; offensichtlich ist f ein Epimorphismus.
Für c ∈ W definiert das Urbild f −1 (c) ⊆ V eine Teilmenge und nach
Definition einer Abbildung ist für verschiedene c, d ∈ W der Schnitt
f −1 (c) ∩ f −1 (d) = ∅, d.h. die Urbilder {f −1 (c) | c ∈ R} bilden eine
Partition von V . Dabei ist f −1 (0) = ker(f ) = {(0, b) | b ∈ R} ⊆ V ein
linearer Unterraum (die y-Achse) und für ein c ∈ W ist das Urbild
f −1 (c) = {(c, b) | b ∈ R} = (c, 0) + {(0, b) | b ∈ R}
= (c, 0) + ker(f ) ⊆ V
der ‘um (c, 0) verschobene’ lineare Unterraum ker(f ). Damit folgt
V / ker(f ) = {(c, 0) + ker(f ) | c ∈ R}
35
d.h. die Elemente des Faktorraums sind die Urbilder von f und der
Isomorphismus h aus dem Homomorphiesatz 5.10(a) ist die Abbildung
(c, 0) + ker(f ) 7→ c;
insbesondere ist c 7→ f −1 (c) die dazu inverse Abbildung.
Wir verallgemeinern dieses Beispiel.
Definition 5.13. Sei V ein K-Vektorraum, U ⊆ V ein linearer Unter-
raum und a ∈ V . Ein affiner Unterraum A ⊆ V ist eine Teilmenge
A = a + U = {a + u | u ∈ U } ⊆ V ;
insbesondere ist jedes Element a + U des Faktorraums V /U ein affiner
Unterraum.
• Ist A = a + U ⊆ V ein affiner Unterraum, so ist U eindeutig durch
A bestimmt: Sei A = a + U = a0 + U 0 , wir zeigen U = U 0 . Nach An-
nahme ist U 0 = a − a0 + U , also gibt es ein u ∈ U mit a − a0 + u = 0.
Da U ein linearer Unterraum ist folgt a − a0 = −u ∈ U , und damit
U 0 = a − a0 + U = −u + U = U .
• Da für A = a + U der lineare Unterraum U eindeutig durch A be-
stimmt ist, lässt sich dem affinen Unterraum A eine Dimension zuord-
nen: dimK A = dimK U . Ein affiner Unterraum der Dimension 1 ist
eine affine Gerade; im Fall dimK V = n < ∞ ist ein affiner Unterraum
der Dimension n − 1 eine affine Hyperebene.
• Sei f : V → W eine lineare Abbildung. Das Urbild von f (0) = 0
f −1 (f (0)) = f −1 (0) = ker(f ) ⊆ V
ist ein linearer Unterraum. Ist a ∈ V ein beliebiger Vektor, so ist
f −1 (f (a)) = {a + u | u ∈ ker(f )} = a + ker(f )
ein affiner Unterraum, dies ist die Faser von f über a.
NB. Ist f : V → W linear, so ist f : V → im(f ) surjektiv und zu
jedem b ∈ im(f ) gibt es ein a ∈ V mit f (a) = b, d.h. über jedem
b ∈ im(f ) liegt genau eine Faser f −1 (b) = a + ker(f ). Die Aussage des
Homomorphiesatzes ist, dass die Abbildung b 7→ f −1 (b) einen Isomor-
phismus im(f ) ∼ = V / ker(f ) von Vektorräumen liefert.
Wir zeigen jeder affine Unterraum ist die Faser einer linearen Abbil-
dung.
Lemma 5.14. Sei V ein K-Vektorraum und ∅ = 6 A ⊆ V eine Teil-
menge. Dann sind gleichwertig:
(a) A ist ein affiner Unterraum, d.h. es gibt einen linearen Unter-
raum U ⊆ V und ein a ∈ V mit A = a + U ,
36
(b) Es gibt einen K-Vektorraum W und eine lineare Abbildung f :
V → W , sodass A eine Faser von f ist, d.h. A = f −1 (b) für ein
b ∈ W,
Pk
(c) Seien a0 , . . . , ak ∈ A und α0 , . . . , αk ∈ K mit i=0 αi = 1.
Pk
Dann ist i=0 αi ai ∈ A.
Beweis. (a)⇒(b): Sei A = a + U . Für den Epimorphismus f : V →
V /U, a 7→ a + U gilt f −1 (f (a)) = a + ker(f ) = a + U = A.
(b)⇒(c): Sei A = f −1 (b) für ein b ∈ W . Seien a0 , . . . , ak ∈ A und
α0 , . . . , αk ∈ K mit ki=0 αi = 1 gegeben. Die Linearität von f liefert
P
Xk k
X Xk
f( αi ai ) = αi f (ai ) = ( αi )b = 1 · b = b,
i=0 i=0 i=0
Pk −1
d.h. i=0 αi ai ∈ f (b) = A.
(c)⇒(a): Wähle fest ein a0 ∈ A und betrachte die Menge ∆A = {a −
a0 | a ∈ A} ⊆ V . Es ist A = a0 + ∆A; wir zeigen ∆A ⊆ V ist ein
linearer Unterraum. Wegen a0 ∈ A ist 0 ∈ ∆A, also ist ∆A 6= ∅. Für
a1 − a0 , a2 − a0 ∈ ∆A ist nach (c) a1 + (−1)a0 + a2 ∈ A, sodass
(a1 − a0 ) + (a2 − a0 ) = (a1 − a0 + a2 ) − a0 ∈ ∆A.
Für α ∈ K folgt aus (c) weiter αa1 + (1 − α)a0 ∈ A; somit gilt auch
α(a1 − a0 ) = (αa1 + (1 − α)a0 ) − a0 ∈ ∆A.
Beispiel 5.15. Sei V ein K-Vektorraum und a0 , . . . , ak ∈ V . Dann ist
der kleinste affine Unterraum A ⊆ V , der die {a0 , . . . , ak } enthält
k
X
A = {a0 + αi (ai − a0 ) | α1 , . . . , αk ∈ K} ⊆ V.
i=1
Nach Definition ist A = a0 + U , wobei U der von den Vektoren a1 −
a0 , . . . , ak − a0 erzeugte lineare Unterraum
P ist, d.h. A P
ist affiner Unter-
raum. Da a0 + ki=1 αi (ai − a0 ) = (1 − ki=1 αi )a0 + ki=1 αi ai folgt
P
k
X k
X
A={ αi ai | α0 , . . . , αk ∈ K mit αi = 1}.
i=0 i=0
Nach Lemma 5.14(c) ist dies der kleinste affine Unterraum, der die
Vektoren a0 , . . . , ak enthält. Konkret: Sei V = R2 und seien a0 , a1 ∈ R2
zwei Punkte. Der kleinste affine Unterraum der a0 und a1 enthält ist
A = {a0 + α(a1 − a0 ) | α ∈ R} = {αa0 + βa1 | α, β ∈ R, α + β = 1},
d.h. die Gerade durch die beiden Punkte a0 und a1 .
37
6. Lineare Abbildungen und Matrizen
Wir studieren lineare Abildungen und zeigen dazu zunächst, dass
die Menge der K-linearen Abbildungen HomK (V, W ) selbst ein K-
Vektorraum ist. Damit hat HomK (V, W ) eine Basis und jede lineare
Abbildung V → W hat eine eindeutige Darstellung als eine endliche
Linearkombination von Elementen einer solchen Basis.
Lemma 6.1. Seien V, W K-Vektorräume.
(a) Für f, g ∈ HomK (V, W ), α ∈ K und a ∈ V setze
(f + g)(a) = f (a) + g(a) und (αf )(a) = αf (a);
mit diesen Operationen ist HomK (V, W ) ein K-Vektorraum.
(b) Seien {a1 , . . . , an } ⊆ V und {b1 , . . . , bm } ⊆ W Basen. Für j =
1, . . . , n und i = 1, . . . , m definiere eij ∈ HomK (V, W ) durch
(
0 j 6= k
eij (ak ) =
bi j = k
Dann ist {e11 , . . . , emn } eine Basis von HomK (V, W ); insbeson-
dere ist dimK HomK (V, W ) = dimK V · dimK W.
Beweis. (a): Nachrechnen.
(b): Ist f ∈ HomK (V, W ) so gilt bezüglich der gegebenen Basen
m
X
f (aj ) = αij bi , j = 1, . . . n.
i=1
Für diese Koeffizienten αij , i = 1, . . . m, j = 1, . . . n bilde
Xm X n
g= αij eij .
i=1 j=1
Nach Definition hat die lineare Abbildung g die Eigenschaft, dass
m X
X n m
X
g(aj ) = αij eij (aj ) = αij bi = f (aj ),
i=1 j=1 i=1
Pm Pn
d.h. f = i=1 j=1 αij eij und die eij erzeugen HomK (V, W ). Sei
m X
X n
βij eij = 0, βij ∈ K.
i=1 j=1
Evaluierung dieser Abbildung auf aj liefert für j = 1, . . . n die Identität
Xm X n m
X
0= βij eij (aj ) = βij bi .
i=1 j=1 i=1
38
Da die bi linear unabhängig sind folgt βij = 0 für alle i, j, also sind
{e11 , . . . , emn } linear unabhängig und bilden eine Basis.
Sind f : V1 → V2 und g : V2 → V3 lineare Abbildungen, so schreibe
gf = g ◦ f : V1 → V3 für die Komposition. Diese Komposition ist
allgemein für Abbildungen definiert; wir zeigen, das die Verknüpfung
von linearen Abbildungen wieder linear, mit der Addition verträglich
und assoziativ ist.
Lemma 6.2. Seien Vi K-Vektorräume, i = 1, 2, 3, 4.
(a) Sind g ∈ HomK (V2 , V3 ) und f ∈ HomK (V1 , V2 ) so definiert
(gf )(a1 ) = g(f (a1 )), a1 ∈ V1
eine lineare Abbildung f g ∈ HomK (V1 , V3 ).
(b) Ist g ∈ Homk (V2 , V3 ) und sind f1 , f2 ∈ HomK (V1 , V2 ), so gilt
g(f1 + f2 ) = gf1 + gf2 .
(c) Sind g1 , g2 ∈ HomK (V2 , V3 ) und f ∈ HomK (V1 , V2 ), so gilt
(g1 + g2 )f = g1 f + g2 f.
(d) Sei h ∈ HomK (V3 , V4 ), g ∈ HomK (V2 , V3 ), f ∈ HomK (V1 , V2 ).
Dann ist
h(gf ) = (hg)f.
Beweis. Nachrechnen.
Wir betrachten Isomorphismen in HomK (V, W ). Ist f : V → W ein
Isomorphismus, so ist f eine bijektive Abbildung und hat damit eine
inverse bijektive Abbildung g = f −1 : W → V . Wir zeigen, dass diese
Abbildung g = f −1 ebenfalls linear ist. Damit gelten für Isomorphismen
diesselben Beziehungen wie für bijektive Abbildungen von Mengen.
Lemma 6.3. Seien Vi K-Vektorräume, i = 1, 2, 3.
(a) Sei f ∈ HomK (V1 , V2 ) ein Isomorphismus. Dann gibt es genau
ein g ∈ HomK (V2 , V1 ) mit gf = idV1 und f g = idV2 ; setze
g = f −1 .
(b) Sind f ∈ HomK (V1 , V2 ) und g ∈ HomK (V2 , V3 ) Isomorphis-
men, so ist auch gf ∈ HomK (V1 , V3 ) ein Isomorphismus; es
gilt: (gf )−1 = f −1 g −1 .
Beweis. (a): Da f : V1 → V2 eine Bijektion ist, gibt es nach Lemma
1.12 genau eine Bijektion g : V2 → V1 mit gf = idV1 und f g = idV2 .
Wir zeigen g, dass linear ist. Für a2 , a02 ∈ V2 gilt
f (g(a2 + a02 )) = (f g)(a2 + a02 ) = idV2 (a2 + a02 ) = idV2 (a2 ) + idV2 (a02 )
= f (g(a2 )) + f (g(a02 )) = f (g(a2 ) + g(a02 )).
39
Da f injektiv ist, folgt damit g(a2 + a02 ) = g(a2 ) + g(a02 ). Ähnlich zeigt
man αg(a2 ) = g(αa2 ).
(b): Folgt aus der Bemerkung nach Definition 1.13.
Beispiel 6.4. Im Fall V = W ist HomK (V, W ) = EndK (V ). Nach
Lemma 6.1(a) ist EndK (V ) ein K-Vektorraum. Die Verknüpfung von
Endomorphismen f : V → V liefert eine ‘Multiplikation’ auf EndK (V )
f, g ∈ EndK (V ) ⇒ f g = f ◦ g ∈ EndK (V )
mit Einselement idV : V → V, idV (a) = a. Für diese Multiplikation
gelten die beiden Distributivgesetzen und das Assoziativgesetz. Weiter
ist diese Multiplikation mit der Skalarmultiplikation verträglich, d.h.
α(f g) = (αf )g = f (αg); f, g ∈ EndK (V ), α ∈ K.
Ein K-Vektorraum, zusammen mit einer Multiplikation, welche die
obigen Verträglichkeitsbedingungen erfüllt ist eine K-Algebra.
Das Kroneckersymbol δjk ist definiert als δjk = 1 falls j = k und
δjk = 0 falls j 6= k. Ist {a1 , . . . , an } eine Basis von V , so bilden nach
Lemma 6.1(b) die Endomorphismen eij ∈ EndK (V ) mit
eij (ak ) = δjk ai
eine Basis {e11 , . . . , enn } von EndK (V ); es ist dimK EndK (V ) = n2 .
Für die Basiselemente {eij } von EndK (V ) gelten die Formeln
n
X
eij ekl = δjk eil und eii = idV .
i=1
Ist dimK V > 1, so ist die Multiplikation via Verknüpfung von Ab-
bildungen in EndK (V ) nicht kommutativ: Die obige Formel liefert
e12 e22 = δ22 e12 = e12 6= 0 und e22 e12 = δ21 e22 = 0, d.h. e12 e22 6= e22 e12 .
Definition 6.5. Sei V ein K-Vektorraum. Ist f ∈ EndK (V ) ein Iso-
morphismus, so ist f regulär (auch ‘invertierbar’ bzw. ‘Automorphis-
mus’); ist f nicht regulär, so ist f singulär. Die regulären Abbildungen
aus EndK (V ) bilden bzgl. der Verknüpfung von Endomorphismen eine
multiplikative Gruppe mit neutralem Element idV (vgl. Lemma 6.3);
diese Gruppe bezeichnen wir mit GL(V ) (General Linear group).
Beispiel 6.6. Sei K = Z/pZ der Körper mit p Elementen und sei V ein
K-Vektorraum der Dimension n, d.h. V ∼ = (Z/pZ)n . Für zwei (beliebi-
ge) endlich-dimensionale K-Vektorräume V, W und f ∈ HomK (V, W )
gilt: f ist ein Isomorphismus genau dann, wenn f jede Basis von V
auf eine Basis von W abbildet. Also ist die Anzahl der Elemente von
40
GL(V ) genau die Anzahl der verschiedenen Basen von V . Jede Basis
{a1 , . . . , an } von V entsteht durch Wahl der ai wie folgt:
0 6= a1 ∈ V pn − 1 Möglichkeiten,
a1 ∈ V \ ha1 i pn − p Möglichkeiten,
··· ··· ···
··· ··· ···
an ∈ V \ ha1 , . . . , an−1 i pn − pn−1 Möglichkeiten.
Damit ist |GL(V )| = (pn − 1)(pn − p) · · · (pn − pn−1 ).
Definition 6.7. Seien V, W K-Vektorräume und sei f ∈ HomK (V, W ).
Ist dimK im(f ) = n < ∞, so ist der Rang r(f ) von f definiert als
r(f ) = dimK im(f ).
• Wegen im(f ) ⊆ W ist stets r(f ) ≤ dimK W .
• Aus dem Homomorphiesatz 5.10(b) folgt für dimK V = n < ∞:
r(f ) = dimK im(f ) = dimK V − dimK ker(f )
Definition 6.8. Sei K ein Körper. Eine Matrix vom Typ (m, n) über
K ist ein Schema von Skalaren αij ∈ K der folgenden Form
α11 α12 . . . α1n
α21 α22 . . . α2n
A = αij = · · ·
,
· · ·
αm1 αm2 , . . . αmn
d.h. eine Matrix A = (αij ) vom Typ (m, n) besteht aus m Zeilen
zi = (αi1 , αi2 , . . . , αin ), i = 1, . . . , m
und n Spalten
α1j
α2j
· , j = 1, . . . n.
sj =
·
αmj
Sei K m×n die Menge aller Matrizen vom Typ (m, n) über K.
Beispiel 6.9. Sei K = R und m = 2 = n. Seien A = (αij ), B = (βij )
Matrizen vom Typ (2, 2) über R und sei α ∈ R ein Skalar. Setze
α11 α12 β11 β12 α11 + β11 α12 + β12
A+B = + = ,
α21 α22 β21 β22 α21 + β21 α22 + β22
α11 α12 αα11 αα12
αA = α =
α21 α22 αα21 αα22
41
Die Menge R2×2 der (2, 2)-Matrizen über R ist mittels dieser Addition
und Skalarmultplikation ein K-Vektorraum. Die Abbildung
2×2 4 α11 α12
Θ:R →R : 7→ (α11 , α12 , α21 , α22 )
α21 α22
ist ein Isomorphismus, also ist dimR R2×2 = 4. Ist {e1 , . . . , e4 } die Stan-
dardbasis von R4 , so sind die Urbilder Θ−1 (e1 ), . . . Θ−1 (e4 ) genau die
Matrizen Eij mit einer 1 in der Stelle (i, j) und 0 sonst. Da Θ ein
Isomorphismus ist bilden die {E11 , E12 , E21 , E22 } eine Basis von R2×2 .
Das obige Beispiel hängt weder von K = R noch von m = 2 = n
ab, d.h. die Eigenschaften aus diesem Beispiel gelten allgemein für die
Matrizen K m×n vom Typ (m, n); genauer:
• Die Menge K m×n aller Matrizen vom Typ (m, n) ist mittels
(αij ) + (βij ) = (αij + βij ) und α(αij ) = (ααij )
ein K-Vektorraum. Die Abbildung Θ : K m×n → K mn
(αij ) 7→ (α11 , · · · , α1n , α21 , · · · , α2n , · · · , αm1 , . . . , αmn )
definiert einen Isomorphismus von K-Vektorräumen K m×n ∼ = K mn .
m×n
Insbesondere ist dimK K = mn.
• Sei Eij ∈ K m×n die Matrix mit 1 an der Stelle (i, j) und 0 sonst.
Dann bilden die Eij (i = 1, . . . , m; j = 1, . . . , n) eine Basis von K m×n .
Seien V, W K-Vektorräume mid dimK V = n und dimK W = m. Wir
ordnen einer linearen Abbildung f : V → W eine Matrix in K m×n zu
(abhängig von der Wahl von Basen von V und W ), um dann lineare
Abbildungen mittels dieser zugeordneten Matrizen studieren.
Definition 6.10. Seien V und W K-Vektorräume, X = {v1 , . . . , vn }
eine Basis von V und Y = {w1 , . . . , wm } eine Basis von W . Für ei-
ne lineare Abbildung f ∈ HomK (V, W ) haben die Werte f (vj ) eine
eindeutige Darstellung als endliche Linearkombiniation der wi , d.h.
m
X
f (vj ) = αij wi , j = 1, . . . n.
i=1
Setze A = Af,X,Y = (αij ) ∈ K m×n ; die Matrix Af,X,Y ist die Matrix von
f bezüglich der Basen X und Y . Ist V = W und X = Y , so schreibe
Af,X für Af,X,Y .
NB. Die Matrix Af,X,Y hängt von den Basen X, Y und von der An-
ordnung der Vektoren in diesen Basen ab.
Proposition 6.11. Seien U, V, W K-Vektorräume mit Basen X =
{u1 , . . . , uk }, Y = {v1 , . . . , vn } und Z = {w1 , . . . , wm }. Dann gilt:
42
(a) Die Abbildung κ : HomK (U, V ) → K n×k , f 7→ Af,X,Y ist ein
Isomorphismus.
(b) Seien g ∈ HomK (U, V ) und f ∈ HomK (V, W ). Sind Ag,X,Y =
(αij ) und Af,X,Y = (βrs ), so ist Af g,X,Z = (cis ) mit
n
X
cis = αij bjs .
j=1
Beweis. (a): Da HomK (U, V ) und K n×k die gleiche Dimension kn ha-
ben, genügt es nach Lemma 5.11 zu zeigen, dass κ linear und ein Mo-
nomorphismus ist. Dabei ist die zweite Aussage trivial: Nach Definition
ist Af,X,Y = 0 die Nullmatrix genau dann, wenn f = 0 ist. Wir zeigen
die Abbildung κ ist linear: Seien f1 , f2 ∈ HomK (U, V ) gegeben durch
n
X n
X
0
f1 (uj ) = αij vi und f2 (uj ) = αij vi , j = 1, . . . n,
i=1 i=1
d.h. f1 und f2 entsprechen bzgl. der Basen X und Y den Matrizen
0
Af1 ,X,Y = (αij ) und Af2 ,X,Y = (αij ).
Dann gilt
n
X
0
(f1 + f2 )(uj ) = (αij + αij )vi , j = 1, . . . , n
i=1
also hat die lineare Abbildung f1 + f2 bzgl. X und Y die Matrix
0 0
Af1 +f2 ,X,Y = (αij + αij ) = (αij ) + (αij ) = Af1 ,X,Y + Af2 ,X,Y
und es gilt κ(f1 + f2 ) = κ(f1 ) + κ(f2 ). Der Beweis von κ(αf1 ) = ακ(f1 ),
d.h. A αf1 ,X,Y = α(Af1 ,X,Y ), ist ähnlich einfach.
(b): Aus f (vj ) = m
P Pn
i=1 αij wi und g(us ) = j=1 βjs vj folgt direkt
n
X n
X
(f g)(us ) = f (g(us )) = f ( βjs vj ) = βjs (f (vj )) =
j=1 j=1
n
X Xm m X
X n
= βjs ( αij wi ) = ( (αij βjs )wi .
j=1 i=1 i=1 j=1
Pn
Also ist Af g,X,Z = (cis ) mit cis = j=1 αij βjs .
Der Beweis von (b) zeigt, wie Matrizen (von kompatiblem Typ) zu
multiplizieren sind, sodass das entsprechende Produkt der Komposiiti-
on der zugrundeliegenden linearen Abbildungen entspricht. Dies moti-
viert folgende Definition des allgemeinen Matrizenprodukts.
43
Definition 6.12. Sei K ein Körper und seien A = (αij ) ∈ K m×n , sowie
B = (βjl ) ∈ K n×k . Definere das Produkt AB ∈ K m×k als die Matrix
n
X
AB = (cil ) mit cil = αij βjl
j=1
• Sind A = (αij ), A0 = (αij
0
) ∈ K m×n und B = (βjl ), B 0 = (βjl0 ) ∈ K n×k ,
so gelten für die Matrixmultiplikation die beiden Distributivgesetze
(A + A0 )B = AB + A0 B und A(B + B 0 ) = AB + AB 0 .
• Für A = (αij ) ∈ K m×n , B = (βjl ) ∈ K n×k und C = (γlr ) ∈ K k×s ist
A(BC) = (AB)C.
Beispiele 6.13. (a) Rein formal gilt
1 0 −2 1 −2 1
· =
2 3 1 1 −1 5
oder
3 0 3 −3
2 0 · 1 −1 = 2 −2 .
2 2
1 4 9 7
(b) Betrachte die linearen Abbildungen
1 0 0
3 2 1 0 2
g : R → R , 0 7→ , 1 7→ , 0 7→ ,
0 2 2
0 0 1
1 1
2 3 1 0
f :R →R , 7→ 1 ,
7→ 0 .
0 1
0 0
Bezüglich der Standardbasen sind die g und f zugeordneten Matrizen
1 1
1 0 2
Ag = und Af = 1 0 .
0 2 2
0 0
Für das Kompositum f g : R3 → R3 gilt nach Definition von f und g
1 1 0 2 0 4
0 7→ 1 , 1 7→ 0 , 0 7→ 2 ,
0 0 0 0 1 0
also ist
1 2 4 1 1
1 0 2
Af g = 1 0 2 = 1 0 · = Af · Ag .
0 2 2
0 0 0 0 0
44
Ist dimK V = n < ∞, so besagen die obigen Verträglichkeitsaussagen
für Matrizen, dass K n×n nicht nur ein K-Vektorraum, sondern auch
eine K-Algebra ist, vgl. Beispiel 6.4. Dabei ist das Einselement in K n×n
1 0 0 · · 0
0 1 0 · · 0
0 0 1 · · 0
En = ,
· · · · · ·
· · · · 1 0
0 · · · 0 1
die Einheitsmatrix vom Typ (n, n). Ist X eine Basis von V , so ist der
Isomorphismus von K-Vektorräumen von Proposition 6.11(a)
κ : EndK (V ) → K n×n , f 7→ Af,X
in Fakt ein Isomorphismus von K-Algebren (d.h. mit Produkten ver-
träglich, d.h. κ(gf ) = κ(g)κ(f )). Im folgenden verwenden wir diesen
Isomorphismus um Aussagen über Endomorphismen in Aussagen über
Matrizen zu übersetzen.
Nach Lemma 6.3 ist f ∈ EndK (V ) ein Automorphismus genau dann,
wenn es ein g ∈ EndK (V ) mit gf = idV und f g = idV gibt. Ist X eine
Basis von V , so folgt aus gf = idV und f g = idV durch Anwendung
des Isomorphismus κ : EndK (V ) → K n×n wegen κ(idV ) = En dann
Af,X Ag,X = En = Ag,X Af,X .
Dies motiviert folgende Definition für Matrizen:
Definition 6.14. Sei A ∈ K n×n . Gibt es ein B ∈ K n×n mit AB =
En = BA, so ist B eindeutig durch A bestimmt; B ist die zu A in-
verse Matrix, schreibe B = A−1 . Hat A eine inverse Matrix, so ist A
invertierbar (oder regulär).
• Gibt es ein B mit AB = En oder BA = En , so ist B = A−1 .
Beispiel 6.15. Sei K ein Körper und sei A ∈ K 2×2 , genauer
α11 α12
A= .
α21 α22
Setze d = α11 α22 − α12 α21 ∈ K. Ist d 6= 0, so rechnet man nach
1 α22 −α12 α11 α12 1 0
= = E2
d −α21 α11 α21 α22 0 1
d.h. A ist invertierbar. Sei d = 0. Ist α12 6= 0 oder α22 6= 0, so ist
α22 −α12
A = 0.
0 0
45
Wäre A invertierbar, so liefert Rechtsmultiplikation mit A−1 dann
α22 −α12
= 0;
0 0
dies ist ein Widerspruch, also ist A nicht invertierbar. In Fall α12 =
0 = α23 folgt wegen
0 0
A =0
1 1
ähnlich wie vorher, dass A nicht invertierbar ist. Wir haben gezeigt:
A ist invertierbar ⇔ d 6= 0.
Die Determinantentheorie wird uns ein ähnliches Kriterium für Matri-
zen in K n×n liefern.
Sei f ∈ EndK (V ) und sei Af,X die Matrix von f bezüglich einer
Basis X von V . Dann ist f ein Automorphismus genau dann, wenn
Af,X für jede Wahl einer solchen Basis X invertierbar ist:
Lemma 6.16. Sei V ein K-Vektorraum der Dimension n < ∞ und
sei f ∈ EndK (V ) ein Endomorphismus. Dann sind gleichwertig:
(a) f ist Automorphismus,
(b) Für jede Basis X von V ist Af,X invertierbar; weiter gilt
Af −1 ,X = A−1
f,X ,
(c) Für wenigstens eine Basis X von V ist Af,X invertierbar.
NB. Das Lemma impliziert die folgenden Ausagen: Sei X = {v1 , . . . , vn }
eine Basis von V und seien αij ∈ K (i, j = 1, . . . , n) Skalare. Setze
Xn
wj = αij vi , j = 1, . . . , n.
i=1
1) Dann ist {w1 , . . . , wn } genau dann eine Basis von V , wenn die
Matrix (αij ) invertierbar ist: Die Abbildung f (vj ) = wj ist ein En-
domorphismus mit Basis Af,X = (αij ). Dabei ist f genau dann ein
Automorphismus, wenn {w1 , . . . , wn } eine Basis ist; nach (b) gilt dies
genau dann, wenn (αij ) invertierbar ist.
2) Ist (αij ) invertierbar und (βij ) = (αij )−1 , so ist
X n
vj = βkj wk , j = 1, . . . , n
k=1
Folgt wegen
Pn Pn Pn
vj = δij vi = ( αik βkj )vi =
Pni=1 Pn i=1 k=1 Pn
= k=1 βkj i=1 αik vi = k=1 βkj wk .
46
Beweis. (a)⇒(b): Sei f −1 ∈ EndK (V ) die zu f inverse Abbildung,
sodass f −1 f = f f −1 = idV . Ist X eine Basis von V , so liefert der
Isomorphismus f 7→ Af,X die Identitäten Af −1 ,X Af,X = Af,X Af −1 ,X =
En , also ist die Matrix Af,X invertierbar und es gilt Af −1 ,X = A−1
f,X .
(b)⇒(c): Trivial.
(c)⇒(a): Sei Af,X invertierbar bzgl. X. Setze g = κ−1 ((Af,X )−1 ) ∈
EndK (V ). Da κ (und so κ−1 ) ein Isomorphismus von K-Algebren ist,
erhält die Abbildung κ−1 Produkte und Einselemente. Also ist
gf = κ−1 (A−1 −1 −1 −1 −1
f,X )κ (Af,X ) = κ (Af,X Af,X ) = κ (En ) = idV .
Genauso folgt f g = idV , d.h. f ist ein Automorphismus.
Proposition 6.17. (Basiswechsel) (a) Seien V, W K-Vektorräume.
Ferner seien X = {v1 , . . . , vn }, X 0 = {v10 , . . . , vn0 } Basen von V und
0
Y = {w1 , . . . , wm }, Y 0 = {w10 , . . . , wm } Basen von W , sodass
n
vj0 =
P
i=1 βij vi , j = 1, . . . , n,
0
P m
wl = k=1 γkl wk , l = 1, . . . m.
Dann sind (βij ) und (γkl ) invertierbar und für f ∈ HomK (V, W ) gilt
Af,X 0 ,Y 0 = (γkl )−1 Af,X,Y (βij ).
(b) Ist V = W , X = Y und X 0 = Y 0 so liefert dies die Identität
Af,X 0 = (βij )−1 Af,X (βij ).
Beweis. (a): Seien idV und idW die Identitäten auf V und V . Wegen
n
X m
X
idV (vj0 ) = vj0 = βij vi und idW (wl0 ) = wl0 = γkl wk
i=1 k=1
−1
ist AidV ,X 0 ,X = (βij ) und AidW ,Y,Y 0 = (γkl ) . Nach Proposition 6.11(b)
ist die zu einem Kompositum assoziierte Matrix das Produkt der zu
den einzelnen Abbildungen assoziierten Matrizen, also folgt
Af,X 0 ,Y 0 = A(idW f idV ),X 0 ,Y 0 = AidW ,Y,Y 0 Af,X,Y AidV ,X 0 ,X =
= (γkl )−1 Af,X,Y (βij ).
(b): Ist ein Spezialfall von (a).
Beispiel 6.18. Für ein konkretes Beispiel eines Basiswechsels wie in
Proposition 6.17(a) betrachte die lineare Abbildung
x1
3 2 x1
f : R → R , x2 7→
x2
x3
47
Seien zunächst X = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} und Y = {(1, 0), (0, 1)}
die Standardbasen. Die Koeffizienten der Darstellungen der Bilder der
Basisvektoren sind die Spalten der Matrix Af,X,Y . Wegen
f (1, 0, 0) = (1, 0) = 1 · (1, 0) + 0 · (0, 1)
f (0, 1, 0) = (0, 1) = 0 · (1, 0) + 1 · (0, 1)
f (0, 0, 1) = (0, 0) = 0 · (1, 0) + 0 · (0, 1)
ist somit die Matrix von f Byzgl. der Basen X, Y gegeben durch
1 0 0
Af,X,Y =
0 1 0
Die Wahl von anderen Basen X 0 von R3 bzw. Y 0 von R2 ergibt eine
andere Matrix. Zum Beispiel, sind X 0 = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} und
Y 0 = {(1, 1), (0, 1)} diese Basen, so liefert die analoge Rechnung
f (1, 0, 0) = (1, 0) = 1 · (1, 1) − 1 · (0, 1)
f (1, 1, 0) = (1, 1) = 1 · (1, 1) + 0 · (0, 1)
f (1, 1, 1) = (1, 1) = 1 · (1, 1) + 0 · (0, 1)
die Matrix
1 1 1
Af,X 0 ,Y 0 =
−1 0 0
Nach Proposition 6.17(a) lässt sich der Übergang von Af,X,Y nach
Af,X 0 ,Y 0 durch invertierbare Matrizen beschreiben, die einem Basis-
wechsel entsprechen. Betrachte zunächst die Identitätsabbildung idR3
auf R3 bezüglich der Basen X 0 und X. Wegen
(1, 0, 0) = 1 · (1, 0, 0) + 0 · (0, 1, 0) + 0 · (0, 0, 1)
(1, 1, 0) = 1 · (1, 0, 0) + 1 · (0, 1, 0) + 0 · (0, 0, 1)
(1, 1, 1) = 1 · (1, 0, 0) + 1 · (0, 1, 0) + 1 · (0, 0, 1)
ist dann
1 1 1
AidR3 ,X 0 ,X = (βij ) = 0 1 1 ,
0 0 1
wobei die Matrix (βij ) invertierbar ist, da die Identität ein offensicht-
licher Isomorphismus ist. Genauso hat die Identität auf R2 bzgl. der
Basen Y 0 und Y aufgrund von den Identitäten
(1, 1) = 1 · (1, 0) + 1 · (0, 1)
(0, 1) = 0 · (1, 0) + 1 · (0, 1)
die Matrix
1 0
AidR2 ,Y 0 ,Y = (γkl ) = .
1 1
48
Auch (γkl ) ist invertierbar, und nach Beispiel 6.15 gilt
−1 1 0
AidR2 ,Y,Y 0 = (γkl ) = .
−1 1
Gleichwertig lässt sich (γkl )−1 als die Matrix der Identitätsabbildung
idR2 bezüglich der Basen Y und Y 0 direkt bestimmen: Aufgrund von
(1, 0) = 1 · (1, 1) − 1 · (0, 1)
(0, 1) = 0 · (1, 1) + 1 · (0, 1)
ist
−1 1 0
AidR2 ,Y,Y 0 = (γkl ) = .
−1 1
Nach Proposition 6.17(a) gilt dabei die Beziehung
Af,X 0 ,Y 0 = (γkl )−1 Af,X,Y (βij ),
d.h. das folgende Diagramm kommutiert
Af,X 0 ,Y 0
R3 mit Basis X 0 −−−−−→ R2 mit Basis Y 0
x
Aid,X 0 ,X =(βij )y∼ ∼
=Aid,Y,Y 0 =(γkl )−1
=
Af,X,Y
R3 mit Basis X −−−−→ R2 mit Basis Y
d.h. wir haben
1 1 1
1 1 1 1 0 1 0 0
= 0 1 1
−1 0 0 −1 1 0 1 0
0 0 1
wie man durch direktes Nachrechnen bestätigt.
Definition 6.19. Sei K ein Körper und sei A = (αij ) ∈ K m×n eine
Matrix. Betrachte die Zeilenvektoren zi = (αi1 , . . . , αin ), i = 1, . . . m
(bzw. die Spaltenvektoren sj = (α1j , . . . , αmj ), j = 1, . . . , n) von A als
Elemente von K n (bzw. K m ). Dann ist der Zeilenrang rz (A) (bzw.
Spaltenrang rs (A)) die Anzahl der linear unabhängigen Zeilenvektoren
(bzw. Spaltenvektoren), d.h.
rz (A) = dimK hz1 , . . . , zm i und rs (A) = dimK hs1 , . . . , sn i.
• Offensichtlich ist rz (A) ≤ min{m, n} und rs (A) ≤ min{m, n}.
Sei f ∈ HomK (V, W ) eine lineare Abbildung und sei Af,X,Y ∈ K m×n
die Matrix von f bzgl. Basen X von V und Y von W . Dann ist der
Rang der linearen Abbildung f der Spaltenrang der Matrix Af,X,Y :
49
Lemma 6.20. (a) Seien V, W K-Vektorräume, X eine Basis von V
und Y eine Basis von W . Ist f : V → W eine K-lineare Abbildung, so
gilt r(f ) = rs (Af,X,Y )
(b) Sei A ∈ K m×n und seien B ∈ K n×n und C ∈ K m×m invertierbar.
Dann ist rs (A) = rs (CAB).
(c) Sei A ∈ K m×n und B ∈ K n×r . Dann ist rs (AB) ≤ min{rs (A), rs (B)}.
Beweis. (a): Sei X = {v1 , . . . , vn } undPYm = {w1 , . . . , wm }. Nach Defi-
nition von Af,X,Y = (αij ) ist f (vj ) = i=1 αij wi , j = 1, . . . n.
Sei {e1 , . . . , en } die Standardbasis von K m . Die Zuordnung wi 7→ ei
bestimmt eine eindeutige K-lineare Abbildung g : W → K m , genauer
β1
m
X ·
g : W → K m, βi wi 7→
· ;
i=1
βm
da g eine Basis auf eine Basis abbildet ist diese Abbildung ein Iso-
morphismus. Nach Übungblatt 7, Aufgabe 4 gilt r(f ) = r(gf ) =
dim im(gf ), wobei
α1j
m
X ·
(gf )(vj ) = g( · = sj , j = 1, . . . n,
αij wi ) =
i=1
αmj
d.h. das Bild des j-ten Basisvektors unter gf ist die j-te Spalte von
Af,X,Y . Also ist r(f ) = dimK hs1 , . . . sn i = rs (Af,X,Y ).
(b), (c): Siehe Übungsblatt 7, Aufgabe 4.
Definition 6.21. Sei K ein Körper. Für eine Matrix A ∈ K m×n
α11 α12 · · · α1n
α21 α22 · · · α2n
· · · · · ·
A=
· · · · · ·
· · · · · ·
αm1 αm2 · · · αmn
definiere die zu A transponierte Matrix At ∈ K n×m durch
α11 α21 · · · αm1
α12 α22 · · · αm2
· · · · · ·
At = ,
· · · · · ·
· · · · · ·
α1n α2n · · · αnm
50
d.h. At entsteht aus A durch Vertauschen der Zeilen und Spalten.
• Die Abbildung K m×n → K n×m , A 7→ At ist ein Isomorphismus.
• Für A ∈ K m×n und B ∈ K n×r gilt: (AB)t = B t At .
• Wir zeigen später: Jede lineare Abbildung f ∈ HomK (V, W ) indu-
ziert ein lineare Abbildung (die duale Abbildung) f ∗ ∈ HomK (W ∗ , V ∗ ),
wobei W ∗ = HomK (W, K) und V ∗ = HomK (V, K) die entsprechenden
Dualräume sind. Ist A = Af,X,Y die Matrix von f bgzl. der Basen X, Y ,
so ist At = Af ∗ ,Y ∗ ,X ∗ die Matrix von f ∗ bzgl. der dualen Basen X ∗ , Y ∗ .
Theorem 6.22. Für jede Matrix A ∈ K m×n gilt
rz (A) = rs (A) ≤ min{m, n} (d.h. Zeilenrang=Spaltenrang).
• Schreibe r(A) = rz (A) = rs (A); r(A) ist der Rang der Matrix A.
Beweis. Sei r = rs (A). Nach Übungsblatt 7, Aufgabe 5 gibt es inver-
tierbare Matrizen B ∈ K m×m und C ∈ K n×n , sodass gilt
Er 0
BAC = ,
0 0 m×n
wobei Er die Einheitsmatrix vom Typ r ist. Transponieren liefert
t t t Er 0
CAB = .
0 0 n×m
Wegen Em = (BB −1 )t = (B −1 )t B t ist B t invertierbar; ebenso ist C t
invertierbar. Mit Lemma 6.20(b) folgt aus den obigen Identitäten
rs (A) = rs (BAC) = rs (C t At B t ) = rs (At ) = rz (A).
Sei A ∈ K n×n und V = K n mit der Standardbasis X = {e1 , . . . , en }.
Nach Proposition 6.11 ist die Abbildung
κ : EndK (V ) → K n×n , f 7→ Af,X
ein Isomorphismus von K-Vektorräumen, d.h. es gibt eine eindeutige
Abbildung f ∈ EndK (V ) mit A = Af,X . Da κ mit der Verknüpfung von
Abbildungen und der Multiplikation von Matrizen verträglich ist (siehe
Bemerkungen von Seite 44) ist κ ein Isomorphismus von K-Algebren.
Also ist idV = gf genau dann, wenn En = Ag,X · Af,X und somit
f ist Isomorphismus ⇔ A = Af,X ist invertierbar .
Für f ∈ EndK (V ) ist r(f ) ≤ dimK V = n und f ist ein Epimorphismus
genau dann, wenn r(f ) = n ist. Nach Lemma 6.20(a) ist r(f ) = r(A) =
r(Af,X ), also gilt
f ist Epimorphismus ⇔ r(A) = r(Af,X ) = n.
51
Da nach Lemma 5.11 (mit V = W ) f genau dann ein Epimorphis-
mus ist, wenn f ein Isomorphismus ist, ergibt sich aus den obigen
Äquivalenzen folgendes Resultat:
Proposition 6.23. Für A ∈ K n×n sind gleichwertig:
(a) r(A) = n
(b) A ist invertierbar.
7. Elementare Umformungen
Für jede Matrix A ∈ K m×n ist nach Theorem 6.22 der Zeilenrang
gleich dem Spaltenrang, d.h. rz (A) = rs (A). In einfachen Beispielen
lässt sich der Rang einer Matrix sofort ablesen. Zum Beispiel ist
1 2 1 1
r = 2 und r =1
0 1 2 2
Eine allgemeine Matrix lässt sich durch ‘elementare Umformungen’ wie
Addition und Subtraktion von Vielfachen von Zeilen auf eine solche
einfachere Form bringen. Zum Beispiel,
2 0 1 2 0 1 2 0 1
A = 1 2 0
z3 −z2
→ 1 2 0 z2 −1/2z→
1
0 2 −1/2
1 1 1 0 −1 1 0 −1 1
2 0 1
z3 +1/2z2
→ 0 2 −1/2 = A0
0 0 −3/4
Diese Umformungen lassen sich als Linksmultiplikation mit Matrizen
beschreiben:
1 0 0 1 0 0 2 0 1 2 0 1
z3 −z2 ↔ T1 = 0 1 0 : 0 1 0 1 2 0 = 1 2 0
0 −1 1 0 −1 1 1 1 1 0 −1 1
und genauso
1 0 0 1 0 0
z2 −1/2z1 ↔ T2 = −1/2 1 0 und z3 +1/2z1 ↔ T3 = 0 1 0
0 0 1 1/2 0 1
Also führt Linksmultiplikation mit diesen ‘Transformationsmatrizen’
T1 , T2 , T3 die gegebene Matrix A in die einfachere Form A0 über, d.h.
T3 T2 T1 A = A0 ,
wobei die Ti invertierbar sind (sie haben offensichtlich Rang 3). Nach
Lemma 6.20(b) verändert die Multiplikation mit einer invertierbaren
52
Matrix den Rang nicht, somit haben A und A0 den gleichen Rang
r(A) = r(T3 T2 T1 A) = r(A0 ) = 3.
Wir bestimmen allgemein ‘Elementarmatrizen’ mit der Eigenschaft,
dass Multiplikation mit diesen Matrizen den Rang einer Matrix erhält
und verallgemeinern das obige Beispiel zu einen Algorithmus, der es
uns erlaubt den Rang einer Matrix zu berechnen.
Definition 7.1. Sei K ein Körper und i 6= j. Eine Elementarmatrix
Tij (α) = (αij ) ∈ K n×n hat die Form:
(a) α ∈ K an der Stelle (i, j) (wobei i 6= j ist),
b) 1 auf der Diagonalen (d.h. αii = 1 für alle i),
(c) 0 an allen anderen Stellen.
Für α = 1 setze Tij = Tij (1). Sei En ⊆ K n×n die Menge der Element-
armatrizen vom Typ (n, n).
• Für Elementarmatrizen gelten die Beziehungen
Tij (α) · Tij (β) = Tij (α + β),
Tij (α)Tij (−α) = En ,
insbesondere ist jede Elementarmatrix invertierbar, d.h. regulär.
Lemma 7.2. Sei A ∈ K m×n mit Zeilen z1 , .., zm und Spalten s1 , .., sn .
(a) Ist Tij (α) ∈ K m×m (d.h. das Produkt Tij (α)A existiert), so ist
z1
·
·
Tij (α)A = zi + αzj .
·
·
zm
(b) Ist Tij (β) ∈ K n×n (d.h. das Produkt ATij (β) existiert), so gilt
ATij (β) = (s1 , · · · , sj + βsi , . . . , sn ).
Beweis. Nachrechnen.
Definition 7.3. Sei A ∈ K m×n . Eine elementare Umformung von A
ist eine Umformung, die durch die Multiplikation von A mit einer Ele-
mentarmatrix (von links oder von rechts) ensteht. Explizit hat jede
elementare Umformung die Form
(a) Ersetzen der Zeile zi von A durch zi + αzj , wobei α ∈ K und
i 6= j; die Zeilen zk für k 6= i bleiben unverändert. Gleichwertig:
Multiplikation mit Tij (α) ∈ Em von links.
53
(b) Ersetzen der Spalte sj von A durch sj + βsi , wobei β ∈ K und
i 6= j; die Spalten sk für k 6= i bleiben unverändert. Gleichwer-
tig: Multiplikation mit Tij (β) ∈ En von rechts.
NB. Ist A ∈ K m×n , so entspricht die Anwendung endlich vieler ele-
mentarer Umformungen Ti ∈ Em und Sj ∈ En auf A einer Umformung
A 7→ Tk · · · T1 AS1 · Sl = A0 .
Setze C = Tk · · · T1 und B = S1 · · · Sl . Dann sind C und B als Produkt
von invertierbaren Matrizen invertierbar und nach Lemma 6.20(b) gilt
r(A) = r(CAB) = r(A0 ).
Also verändert die Anwendung von (endlich viele) beliebigen elemen-
tare Umformungen auf A nicht den Rang von A; man kann somit eine
gegebene Matrix A durch Links- bzw. Rechtsmutiplikation mit Ele-
mentarmatrizen in eine Matrix überführen, deren Rang leicht zu be-
stimmen ist. Dabei kann man entweder diese Operationen ad hoc auf
eine gegebene Matrix anwenden, oder einen von diversen Algorithmen
verwenden, die die gegebene Matrix in eine einfachere Form bringen.
Wir geben ein Beispiel eines solchen Algorithmus:
Theorem 7.4. Sei A = (αij ) ∈ K m×n . Ist A 6= 0, so gibt es Element-
armatrizen Ti ∈ Em (i = 1, . . . , k) und Sj ∈ En (j = 1, . . . , l), sodass
die resultierende Matrix A0 = Tk · · · T1 AS1 · · · Sl die folgende Form hat
0
α11 ∗ ∗ · · ∗
0
0 α22 ∗ · · ∗
0
0 0 α33 ∗ · · ∗
· · · · ·
· · · · ·
0
A = 0 ,
0 0 0 0 αrr ∗ · · ∗
0
0 · 0 0 0 · · 0
· · · · · ·
· · · · · ·
0 0 · · · 0
0 0
wobei α11 · · · αrr 6= 0 ist. Es ist r(A) = r(A0 ) = r.
Beweis. Schritt 1: Ist α11 6= 0, so gehe zu Schritt 4.
Schritt 2: Sei α11 = 0, aber sei z1 nicht die Nullzeile. Dann gibt es in
z1 einen nicht-trivialen Eintrag α1j mit j > 1. Rechtsmultipikation mit
der Elementarmatrix T1j ∈ En ersetzt die erste Spalte s1 durch s1 + sj ,
d.h. die Matrix AT1j hat an der Stelle (1, 1) den Eintrag αj1 6= 0. Gehe
jetzt zu Schritt 4.
54
Schritt 3: Sei α11 = 0 und sei z1 eine Nullzeile. Da A 6= 0 ist, gibt es
eine Zeile zi , i > 1 mit einem nicht-trivalen Eintrag. Linksmultiplika-
tion mit der Elementarmatrix T1i ∈ Em ersetzt z1 durch z1 + zi ; also
hat die erste Zeile von T1i A die Form (βi1 , . . . , βin ) mit βij 6= 0 für ein
j. Ist βi1 6= 0, so gehe zu Schritt 4, ist βi1 = 0, so gehe zu Schritt 2.
Schritt 4: Wir haben eine Matrix A mit α11 6= 0. Also sind die Quoti-
enten αα11
i1
∈ K und damit die Matrizen Ti1 ( αα11 i1
) ∈ Em für i = 2, . . . , m
αm1 α21
definiert. Die Matrix Tm1 (− α11 ) · · · T21 (− α11 )A hat die Form
z1 α11 α12 · · α1n
α
z1 − 21 z1 0
α11
· ·
=
· · A
1
· ·
zm − ααm111
z1 0
Schritt 5: Ist die verbleibende (m − 1) × (n − 1)-Matrix A1 die Null-
matrix, so sind wir fertig. Falls A1 6= 0 ist, wende die Schritte 1-4 auf
A0 an (jede elementare Umformung von A1 lässt sich als elementare
Umformung von A interpretieren). Nach endlich vielen Schritten liefert
dies eine Matrix der gewünschten Form.
Beispiele 7.5. (a) Sei A ∈ R3×3 die Matrix
1 −1 2
A = 4 4 −2
2 0 2
Dem Algorithmus folgend beginnen wir mit Schritt 4. Dies liefert
1 −1 2 1 −1 2 1 −1 2
4 4 −2 T21→ (−4)
0 8 −10 T31→ (−2)
0 8 −10
2 0 2 2 0 2 0 2 −2
Iteration dieses Verfahrens auf die verbleibende Matrix A1 ∈ R2×2 zeigt
1 −1 2 1 −1 2
0 8 10 T32 (−1/4)→ 0 8 10
0 2 −2 0 0 1/2
Also ist r = 3 und r(A) = 3.
(b) Betrachte die Matrix (mit reellen Koeffizienten)
3 6 2 10
A = 10 16 6 30
5 14 4 14
55
Elementare Umformungen (ohne Verwendung des Algorithmus) zeigen
3 6 2 10 3 6 2 10
−3z1
10 16 6 30 z2→ 1 −2 0 0
5 14 4 14 5 14 4 14
3 6 2 10
z3 −2z1
→ 1 −2 0 0
−1 2 0 −6
3 6 2 10
z3 +z2
→ 1 −2 0 0
0 0 0 −6
Die Zeilen z1 , z2 , z3 in der letzten Matrix sind offensichtlich linear un-
abhängig, also ist r(A) = 3.
Ist A ∈ K n×n und A = T1 · · · Tl das Produkt von Elementarmatrizen
Ei ∈ En , so ist A invertierbar. Aber nicht jede invertierbare Matrix ist
das endliche Produkt von Elementarmatrizen. Zum Beispiel ist
1 0
A= ∈ R2×2
0 2
invertierbar, aber nicht Produkt von Elementarmatrizen: Da d = d(A) =
2 6= 0 ist A invertierbar, siehe Beispiel 6.15. Jede Elementarmatrix vom
Typ (2, 2) ist eine Matrix der folgenden Form
1 0 1 β
T = oder S = ,
γ 1 0 1
also ist d(T ) = 1 = d(S). Für A, B ∈ R2×2 gilt d(AB) = d(A)d(B);
also hat jedes endliche Produkt von Elementen aus E2 Determinante 1
und A kann keine Darstellung als ein solches Produkt haben.
Wir werden zeigen: Allgemein sind invertierbare Diagonalmatrizen
D = (dij ) mit d11 · · · dnn 6= 1 nicht als ein Produkt von Elementarma-
trizen darstellbar.
Definition 7.6. Eine elementare Diagonalmatrix Di (α) ∈ K n×n ist
eine Matrix Di (α) = (αij ) mit den Einträgen
(a) αii = α für ein α ∈ K \ {0},
(b) αjj = 1 für j 6= i,
(c) αij = 0 für i 6= j.
Sei Dn ⊆ K n×n die Menge der Matrizen von diesem Typ.
• Di (α) · Di (α−1 ) = En , d.h. Di (α) ist invertierbar.
Lemma 7.7. Jede invertierbare Matrix A ∈ K n×n hat eine Darstellung
als ein endliches Produkt von Matrizen aus E×
n = En ∪ Dn .
56
• Sei GLn (K) die Gruppe der invertierbaren Matrizen in K n×n (bzgl.
der Multiplikation von Matrizen). Das obige Lemma besagt, dass sich
jedes Element von GLn (K) als ein endliches Produkt von Elementen
von E× ×
n schreiben lässt; man sagt GLn (K) wird von En erzeugt.
• Die Darstellung eines Elements von GLn (K) als ein endliches Produkt
von Elementen aus E× n ist nicht eindeutig. Zum Beispiel gilt in GL2 (R):
1 0 1 0 1 0 1 0 1 0
= und = · .
0 1 0 1 0 1 0 −1 0 −1
Beweis. (Skizze) Sei A ∈ K n×n invertierbar. Nach Proposition 6.23 ist
r(A) = n, insbesondere hat A keine triviale Spalte. Ist α11 = 0, so
gibt es ein i > 1 mit αi1 6= 0 und T1i A hat αi1 an der Stelle (1, 1); wir
können also annehmen, dass α11 6= 0 ist. Wie im Schritt 4 im Beweis
von Theorem 7.4 lässt sich A durch Zeilenumformungen und Iteration
(d.h. Anwendung auf A1 ) in eine Matrix B = Tk · · · T1 A der Form
β11 ∗ ∗ ∗ ∗
0 β22 ∗ ∗ ∗
0 0 β33 ∗ ∗
B=
· ·
· · · ∗
0 0 0 0 βnn
mit β11 · · · βnn 6= 0 überführen. Diese Matrix B lässt sich durch Links-
multiplikation mit Elementarmatrizen und Matrizen der Form Dii (α)
zu einer Einheitsmatrix machen: Man beseitigt die Einträge in der
letzten Spalte β1,n , β2,n , · · · , βn−1,n mit Hilfe der letzten Zeile, dann
die Einträge in der vorletzten Spalte β1,n−1 , · · · , βn−2,n−1 mit Hilfe der
vorletzten Zeile, etc. um so eine Diagonalmatrix mit nicht-trivalen Dia-
gonaleinträgen zu erhalten. Multiplikation mit geeigneten Matrizen der
Form Dii (α) macht dann diese Diagonalmatrix zur Einheitsmatrix.
Also gibt es Elementarmatrizen Ti ∈ En (i = 1, . . . , r) sowie elemen-
tare Diagonalmatrizen Dj ∈ Dn (j = 1, . . . , l) mit Ds · · · D1 Tr · · · T1 A =
En ; es folgt A = (D1 · · · D1 Tr · · · T1 )−1 = T1−1 · · · Ds−1 .
Beispiele 7.8. Der Beweis von Lemma 7.7 ist konstruktiv und liefert
ein Verfahren die inverse Matrix A−1 zu berechnen: Ist A ∈ K n×n inver-
tierbar und sind Di ∈ Dn bzw. Tj ∈ En mit Ds · · · D1 Tr . . . T1 A = En ,
so ist A−1 = Ds · · · D1 Tr · · · T1 = Ds · · · D1 Tr · · · T1 En . Um A−1 kon-
kret zu berechnen schreibt man A und En nebeneinander, und formt A
durch Linksmultiplikation mit Elementen aus En bzw. Dn zur Einheits-
matrix En um. Die analogen Umformungen angewandt auf En liefern
die inverse Matrix A−1 .
57
(a) Wir betrachten A ∈ R3×3 und wenden das obige Verfahren zur Be-
rechnung von A−1 an ohne vorher bestimmt zu haben, ob A−1 existiert:
1 1 2 1 0 0
A = 1 2 −1 0 1 0 = E3
0 1 −4 0 0 1
1 1 2 1 0 0
z2 −z1
→ 0 1 −3 −1 1 0
0 1 −4 0 0 1
1 1 2 1 0 0
z3 −z2
→ 0 1 −3 −1 1 0
0 0 −1 1 −1 1
1 0 5 2 −1 0
z1 −z2
→ 0 −1 −3 −1 1 0
0 0 −1 1 −1 1
1 0 5 2 −1 0
z2 −3z3
→ 0 1 0 −4 4 −3
0 0 −1 1 −1 1
1 0 0 7 −6 5
z1 +5z3
→ 0 1 0 −4 4 −3
0 0 −1 1 −1 1
1 0 0 7 −6 5
D3 (−1)
→ 0 1 0 −4 4 −3 = A−1
0 0 1 −1 1 −1
Zur Kontrolle rechnet man nach:
7 −6 5 1 1 2 1 0 0
A−1 · A = −4 4 −3 1 2 −1 = 0 0 1 = E3
−1 1 −1 0 1 −4 0 0 1
(b) Wendet man dieses Verfahren auf eine Matrix A an, die nicht in-
vertierbar ist, so zeigt sich das unterwegs:
1 0 1 1 0 0
A = 0 −1 0 0 0 1 = E3
1 1 1 0 0 1
1 0 1 1 0 0
z3 −z1
→ 0 −1 0 0 1 0
0 1 0 −1 0 1
Der Rang der letzten Matrix auf der A-Seite ist 2 und gleich dem Rang
von A, d.h. r(A) = 2 < 3 und die Matrix A ist nicht invertierbar.
58
Sei A ∈ K m×n mit r(A) = r. Nach Übungsblatt 7, Aufgabe 5 gibt es
invertierbare Matrizen C ∈ K m×m und B ∈ K n×n , sodass gilt
Er 0
CAB = ∈ K m×n
0 0
Wir zeigen, wie sich mit Hilfe von Elementarmatrizen diese Matrizen
C und B explizit berechnen lassen.
Wir benötigen dazu die folgende Definition.
Definition 7.9. Eine Matrix A = (αij ) ∈ K m×n hat Zeilenstufenform,
falls gilt:
(a) Es gibt ein r mit 0 ≤ r ≤ m, sodass in den Zeilen mit Index
1 bis r jeweils nicht nur Nullen stehen, und in den Zeilen mit
Index r + 1 bis m nur Nullen stehen,
(b) Für jedes i mit 1 ≤ i ≤ r sei ji der kleinste Index der Spalte, in
der ein Eintrag ungleich Null steht, d.h. ji = min{j | αij 6= 0 };
hier ist j1 < j2 < · · · < jr .
Dabei ist r = 0 zulässig, in diesem Fall sind alle Einträge von A
Null. Die ersten nichttrivialen Einträge in den nichttrivialen Zeilen
α1j1 , . . . , αrjr sind die Pivots (oder auch Angelpunkte) von A.
Beispiele 7.10. (a) Die Matrix
0 2 0 4
A = 0 0 1 3
0 0 0 2
ist in Zeilenstufenform. Hier m = 3, n = 4, r = 3; weiter ist j1 = 2, j2 =
3, j3 = 4, die Pivots sind die Einträge α12 = 2, α23 = 1 und α34 = 2.
(b) Die folgende Matrix ist in Zeilenstufenform
1 3 0 5 6 0 5
0 0 1 3 2 1 0
A= 0 0 0 0 0 3 1
0 0 0 0 0 0 0
Das Rechenverfahren zur Bestimmung von C und B basiert auf fol-
gende Beobachtung: Jede Matrix A ∈ K m×n lässt sich durch geeigenete
Zeilenumformungen (d.h. Linksmultiplikation mit Elementarmatrizen)
in Zeilenstufenform überführen. Also gibt es T1 , . . . Tk ∈ Em , sodass
Tk · · · T1 A
59
in Zeilenstufenform ist. Weiter lässt sich jede Matrix in Zeilenstufen-
form (mit entsprechendem r) durch Spaltenumformungen (d.h. Rechts-
multiplikation mit Elementarmatrizen) in eine Matrix der Form
Cr 0
0 0
überführen, wobei Cr eine Diagonalmatrix vom Typ (r, r) mit nicht-
trivialen Einträgen ist. Durch Linksmultiplikation mit geeigneten ele-
mentaren Diagonalmatrizen Ds · · · D1 ergibt sich die Matrix
Er 0
.
0 0
Also ist
Er 0
Ds · · · D1 Tk · · · T1 AS1 . . . Sl =
0 0
und so C = Ds · · · D1 Tk · · · T1 und B = S1 · · · Sl .
Beispiel 7.11. Betrachte die folgende Matrix mit reellen Einträgen
1 2 0
A=
2 2 1
Offensichtlich hat A den Rang 2, d.h. es gibt invertierbare Matrizen C
und B mit
1 0 0
CAB = .
0 1 0
Umd B und C zu bestimmen, schreiben wir im ersten Schritt E2 und
A nebeneinander und formen diese Matrizen durch Zeilenumformungen
parallel so um, dass A in Zeilenstufenform übergeführt wird:
1 0 1 2 0
E2 = =A
0 1 2 2 1
z2 −2z1 1 0 1 2 0
→ = T1 A
−2 1 0 −2 1
60
Im zweiten Schritt schreiben wir T1 A und E3 nebeneinander und brin-
gen T1 A durch Spaltenumformungen auf die gewünschte Form:
1 0 0
1 2 0 0 1 0
T1 A = = E3
0 −2 1
0 0 1
1 −2 0
s2 −2s1 1 0 0
→ 0 1 0 = E3 S1
0 −2 1
0 0 1
1 −2 0
s2 +3s3 1 0 0
→ 0 1 0 = E3 S1 S2
0 1 1
0 3 1
1 −2 2
s3 −s2 1 0 0
→ 0 1 −1 = E3 S1 S2 S3
0 1 0
0 3 −2
1 −2 2
1 0
Also ist C = T1 = und B = S1 S2 S3 = 0 1 −1.
−2 1
0 3 −2
8. Lineare Gleichungssysteme
Wir betrachten Systeme von m linearen Gleichungen in n Variablen
mit Koeffizienten in einem Körper K, d.h. ein System von Gleichungen
α11 x1 + α12 x2 · · α1n xn = β1
α21 x1 + α22 x2 · · α2n xn = β2
· · ·
· · ·
αm1 x1 + αm2 x2 · · αmn xn = βm ,
mit Variablen xj und Skalaren αij , βi ∈ K; dafür schreiben wir auch
n
X
(L) αij xj = βi , i = 1, . . . , m.
j=1
Eine Lösung von (L) ist eine gemeinsame Lösung der m Gleichungen.
Das System (L) lässt sich als ein Matrizenprodukt auffassen
α11 · · · α1n x1 β1
· · · · · x2 β 2
Ax = · · · · · · · = · =b
· · · · · · ·
αm1 · · · αmn xn βm
61
Der Matrix A = (αij ) definiert eine lineare Abbildung A : K n → K m
durch x 7→ Ax. Damit lässt sich das System (L) wie folgt interpretie-
ren: Ist b ∈ K m fest gewählt, so gilt A−1 (b) = {x ∈ K n | Ax = b}, d.h.
die Elemente von A−1 (b) sind genau die Lösungen von (L).
Die wesentlichen Fragestellungen nach der Existenz und Eindeutig-
keit von Lösungen von (L) lassen sich somit wie folgt formulieren:
(1) Ist A−1 (b) 6= ∅, d.h. gibt es eine Lösung?
(2) Ist |A−1 (b)| = 1, d.h. gibt es eine eindeutige Lösung?
Das System (L) lässt sich wie folgt umschreiben
α11 α12 α1n β1
α21 α22 α2n β2
· · x1 + · · x2 + · · · + · · xn = ·
· · · ·
αm1 αm2 αmn βm
Dabei sind die auf der linken Seite auftretenden Vektoren genau die
Spalten s1 , . . . , sn der Matrix A, und falls eine Lösung x exisitiert,
dann muss b eine Linearkombination der si sein und es gilt
x1 s1 + · · · xn sn = b.
Die Fragen nach Existenz und Eindeutgkeit von Lösungen lassen sich
somit auch wie folgt ausdrücken:
(1’) Ist b ∈ hs1 , . . . , sn i?
(2’) Falls b ∈ hs1 , . . . , sn i, sind s1 , . . . , sn linear unabhängig?
Wir formalisieren diese Überlegungen und geben zunächst einfach zu
berechnende Existenz- und Eindeutigkeitskriterien für die Lösbarkeit
eines solchen Systems von linearen Gleichungen.
Definition 8.1. Sei A = (αij ) ∈ K m×n eine Matrix und b = (βi ) ∈ K m
ein Spaltenvektor. Ein lineares Gleichungssystem (L) ist ein System von
Gleichungen der Form Ax = b, x = (xj ) ∈ K n , d.h. die m Gleichungen
Xn
(L) : αij xj = βi , i = 1, . . . , m.
j=1
Ist b = 0, so ist (L) homogen; ist b 6= 0, so ist (L) inhomogen. Die
erweiterte Koeffizientenmatrix des linearen Gleichungssystems (L) ist
α11 · · · α1n β1
· · ·
B = [A, b] = ·
· ·
· · ·
αm1 · αmn βn
62
Lemma 8.2. Sei A ∈ K m×n eine Matrix.
(a) Die Lösungen des homogenen Systems Ax = 0 ist genau ker(A);
inbesondere bilden die Lösungen von Ax = 0 einen linearen
Unterraum von K n der Dimension n − r(A).
(b) Ist x0 eine Lösung von Ax = b, so ist x0 + ker(A) die Menge
aller Lösungen von Ax = b.
• Nach (b) bilden die Lösungen von Ax = b einen affinen Unterraum
von K n ; nach (a) hat dieser affine Unterraum Dimension n − r(A).
• Aus (a) folgt: Ist n > m, so hat Ax = 0 nicht-triviale Lösungen x 6= 0.
Beweis. (a): Sei A : K n → K m , x 7→ Ax die durch die Matrix A
definierte lineare Abbildung. Die Menge der Lösungen von Ax = 0
ist A−1 (0) = ker(A) ⊆ K n und damit ein linearer Unterraum. Da
dim im(A) = r(A) ergibt sich mit dem Homomorphiesatzes 5.10(b)
dim ker(A) = dim K n − dim im(A) = n − r(A).
(b): Sei x0 eine Lösung von Ax = b. Ist y ∈ K n mit Ay = 0, so folgt
A(x0 + y) = b, sodass x0 + ker(A) ⊆ A−1 (b). Ist umgekehrt x ∈ A−1 (b)
eine Lösung von Ax = b, so setze y = x − x0 . Dann ist Ay = 0 und
x = x0 + y ∈ x0 + ker(A); dies zeigt A−1 (b) ⊆ x0 + ker(A).
Proposition 8.3. (Existenz) Sei A ∈ K m×n und sei b ∈ K m . Betrachte
das System (L): Ax = b mit erweiterter Koeffizientenmatrix B = [A, b].
Dann gilt: (L) ist lösbar genau dann, wenn r(A) = r(B) ist.
Beweis. Sei b = (βi ) und seien s1 , . . . sn die Spalten von A. Dann ist
(L) genau dann lösbar, wenn b ∈ hs1 , . . . , sn i ist. Dies gilt wegen
r(A) = dimhs1 , . . . , sn i ≤ dimhs1 , . . . , sk , bi = r(B)
genau dann, wenn r(A) = r(B) ist.
Proposition 8.4. (Eindeutigkeit) Sei A ∈ K m×n und b ∈ K m mit
A−1 (b) 6= ∅ (d.h. (L): Ax = b hat eine Lösung). Dann hat (L) genau
dann eine eindeutige Lösung, wenn Ax = 0 nur die triviale Lösung
x = 0 hat; dies gilt genau dann, wenn r(A) = n ist.
• Sei A ∈ K m×n , sodass Ax = b für alle b ∈ K m lösbar ist. Nach
Proposition 8.3 ist dann r(A) = m. Sind diese Lösungen eindeutig, so
folgt mit Proposition 8.4 r(A) = n. Also ist in diesem Fall A vom Typ
(n, n) und wegen r(A) = n invertierbar. Ist A−1 die inverse Matrix, so
sind die eindeutigen Lösungen von Ax = b genau die x = A−1 b.
Beweis. Ist x0 ∈ A−1 (b), so sind nach Lemma 8.2(b) die Lösungen von
Ax = b genau die Elemente von x0 + ker(A) und x0 ist die einzige
63
Lösung genau dann, wenn ker(A) = {0} ist. Da dim ker(A) = n − r(A)
gilt ker(A) = {0} genau dann, wenn r(A) = n ist.
Beispiel 8.5. Betrachte das lineare Gleichungssystem mit reellen Ko-
effizienten
x1 + x2 + 2x3 = 0
2x1 + 3x2 = 9
2x2 + x3 = −1
Wir haben die Matrizen
1 1 2 1 1 2 0
A = 2 3 0 und B = [A, b] = 2 3 0 9
0 2 1 0 2 1 −1
Für A berechnet man r(A) mittels der elementaren Zeilenumformungen
1 1 2 1 1 2 1 1 2
−2z1 −2z1
2 3 0 z2→ 0 1 −4 z3→ 0 1 −4
0 2 1 0 2 1 0 0 9
Es ist r(A) = 3. Aus 3 = r(A) ≤ r(B) ≤ 3 folgt r(A) = r(B) = 3 und
nach Proposition 8.3 hat Ax = b eine Lösung. Da r(A) = 3 ist nach
Proposition 8.4 diese Lösung eindeutig; es ist x = A−1 b.
Die Bestimmung von r(A) und r(B) kann durch elementare Um-
formungen durchgeführt werden und liefert nach den obigen Kriterien
Existenz- und Eindeutigkeitsaussagen. Eine Variante solcher Umfor-
mungen liefert einen Lösungsalgorithmus für ein Gleichungssystem (L):
Ax = b mit B = [A, b]. Die zulässige Umformungen von (L) sind:
(a) Vertauschen der Zeilen von B (Permutation der Gleichungen),
(b) Vertauschen der Spalten von A (Permutation der x1 , . . . xn ),
(c) Zeilenübergänge in B der Form zi → zi + αzj , i 6= j, α ∈ K.
Diese Operationen ändern die Lösungsmenge von (L) nicht (abgesehen
von einer eventuellen Umnumerierung der xi ).
Gauss-Algorithmus. Wir können annehmen, dass A keine Nullspalte
hat (d.h. jede Variable xj kommt in dem System (L) nicht-trivial vor).
1. Nach Anwendung von (a) und (b) ist A = (αij ) mit α11 6= 0.
2. Mittels zi → zi − αi1 /α11 z1 für i ≥ 2 ergibt sich ein System der Form
α11 x1 + nk=2 α1k xk = β1
P
Pn 0 0
k=2 αjk xk = βj , j = 2, . . . n.
64
3. Betrachte das reduzierte System von m − 1 Gleichungen
n
X
0
αjk xk = βj0 , j = 2, . . . n.
k=2
0 0
Ist (αij ) = 0 ist, so sind wir fertig. Ist (αij ) 6= 0, so liefert Anwen-
dung von 1. und 2. auf dieses System und dann weitere Iteration ein
Gleichungsssystem von m Gleichungen in n Variablen yi der Form
β11 y1 + β12 y2 + · · · + β1k yk + · · · + β1n yn = β10
β22 y2 + · · · + β2k yk + · · · + β2n yn = β20
· · ·
· · ·
(L’) : βkk yk + · · · + βkn yn = βk0
0
0 = βk+1
·
·
0
0 = βm
mit βrr 6= 0 für r = 1, . . . k (d.h. die Matrix (βij ) ist in Zeilenstufenform
mit Pivots β11 , . . . βkk ). Für das System (L’) gilt:
- Ist βr0 6= 0 für ein r = k + 1, . . . m, so ist (L) nicht lösbar.
0 0
- Ist βk+1 = · · · = βm = 0 so ist (L’) lösbar (und die yk+1 , . . . , yn können
0
beliebig gewählt werden). Wegen βjj 6= 0 für j = 1, . . . k lässt sich (L’)
sukzessive nach yk , yk−1 , . . . , y1 auslösen; eine eindeutige Lösung von
(L’) liegt dabei nur dann vor, wenn k = n ist.
Beispiele 8.6. (a) Betrachte das System (mit reellen Koeffizenten)
1 1 1 1
(L): B = [A, b] = 0 0 1
1
2 0 2 2
Es ist α11 6= 0. Die Operation z3 − 2z1 liefert ein neues System
1 1 1 1
0 0 0
(L’): B = [A , b ] = 0 0 1
1
0 −2 0 0
0
Das reduzierte System hat α22 = 0. Vertauschen der 2. und 3. Spalte
0 00 00
von A ergibt eine Matrix A mit α22 6= 0 und demselben b, d.h.
1 1 1 1
(L”): B 00 = [A00 , b0 ] = 0 1 0 1
0 0 −2 0
65
Aus dieser Darstellung lässt sich durch sukzessive Auflösung die ein-
deutige Lösung y = (0, 1, 0) bestimmen. Da wir die 2. und 3. Spal-
te vertauscht haben, ist die eindeutige Lösung von B = [A, b] dann
x = (0, 0, 1).
(b) Die erweitere Koeffizientenmatrix (in R3×5 )
4 0 0 0 4
B = [A, b] = 0 2 2 4 2
0 0 0 1 1
ist bereits in Zeilenstufenform. Für die Lösungen ergibt sich
x4 = 1, 2x2 + 2x3 + 4 = 2, x1 = 1.
Auflösen der 2. Gleichung nach x2 liefert x2 = −x3 − 1. Also lässt sich
jede Lösung x von Ax = b in folgender Form schreiben
1 1 0
−x3 − 1 −1 −1
x= x3 = 0 + x3 1 .
1 1 0
Dabei ist x0 = (1, −1, 0, 1)t eine spezielle Lösung von Ax = b. Weiter
liegt (0, −1, 1, 0)t ∈ ker(A); wegen r(A) = 3 folgt dim ker(A) = 4 − 3 =
1, d.h. (0, −1, −1, 0) ist eine Basis von ker(A). Die obige Beschreibung
der Lösungsmenge von Ax = b entspricht damit genau der Darstellung
als affiner Unterraum x0 + ker(A) von Lemma 8.2(b).
(c) Hat die erweiterte Koeffizientenmatrix die Form
1 0 0 1
B = [A, b] = 0 1 1 1
0 0 0 1
so folgt aus der letzten Gleichung 0x3 = 1; das diese Gleichung keine
Lösung hat ist das System Ax = b nicht lösbar.
(d) Betrachte die folgende Matrix mit reellen Koeffizienten
2 0 0
A = 0 3 7
0 2 5
Es ist r(A) = 3: Dies folgt, zum Beispiel, da allgemein gilt
A1 0 B1 0 A1 B1 0
=
0 A2 0 B2 0 A2 B2
und in diesem Beispiel für die entsprechende 2 × 2-Matrix A2
d(A2 ) = 3 · 5 − 2 · 7 = 1 6= 0
66
ist, d.h. r(A2 ) = 2 und damit r(A) = 3. Damit hat Ax = b für jedes
b ∈ R3 die eindeutige Lösung x = A−1 b. Wegen d = 1 folgt weiter
1/2 0 0
5 −7
A−1
2 = und A−1 = 0 5 −7
−2 3
0 −2 3
Konkret ist zum Beispiel für b = (1, 1, 1)t die Lösung von Ax = b somit
1/2 0 0 1 1/2
x= 0 5 −7 1 = −2
0 −2 3 1 1
wie man durch direktes Nachrechnen leicht bestätigt.
9. Gruppen II
Um Determinanten von Matrizen definieren zu können benötigen wir
einige elementare Aussagen der Gruppentheorie:
Definition 9.1. Seien G und H (multiplikativ geschriebene) Gruppen.
(1) Ein Homomorphismus (oder Gruppenhomomorphismus) ist ei-
ne Abbildung f : G → H, sodass für alle g1 , g2 ∈ G gilt
f (g1 g2 ) = f (g1 )f (g2 ).
(2) Ist f : G → H ein Gruppenhomomorphismus, so der Kern von
f (bzw. das Bild von f ) ker(f ) = {g ∈ G | f (g) = 1} (bzw.
im(f ) = {f (g) | g ∈ G}).
(3) Ein Homomorphismus f : G → H heisst Monomorphismus
(bzw. Epimorphismus, Isomorphismus) falls f injektiv (bzw.
surjektiv, bijektiv) ist. Gibt es einen Isomorphismus f : G → H,
so sind G und H isomorph, G ∼ = H. Die Isomorphismen G → G
sind die Automorphismen von G.
• Für einen Gruppenhomomorphismus f gilt stets: f (1) = 1 und
f (g −1 ) = f (g)−1 .
• Kern und Bild eines Homomorphismus f : G → H sind Untergrup-
pen; ker(f ) ≤ G und im(f ) ≤ H.
• Ein Homomorphismus f : G → H ist genau dann ein Monomorphis-
mus, wenn ker(f ) = {1} ist.
• Ein Homomorphismus f : G → H ist genau dann ein Isomorphis-
mus, wenn es einen Homomorphismus g : H → G mit g ◦ f = idG und
f ◦ g = idH gibt. In diesem Fall ist g = f −1 .
67
Beispiele 9.2. (a) Sei G eine Gruppen und a ∈ G. Dann ist die Ab-
bildung ‘Konjugation mit a’, d.h. fa : G → G, g 7→ a−1 ga ein Auto-
morphismus: fa ist Homomorphismus, da für g1 , g2 ∈ G gilt
fa (g1 )fa (g2 ) = a−1 g1 aa−1 g2 a = a−1 g1 g2 a = fa (g1 g2 ).
Ist fa (g) = a−1 ga = 1, so folgt ga = a und g = 1, also ist ker(fa ) = {1}
und fa ist ein Monomorphismus. Für g ∈ G ist fa (aga−1 ) = g, somit
ist fa auch surjektiv.
(b) Seien V, W K-Vektorräume und sei f ∈ HomK (V, W ). Dann besagt
f (v + v 0 ) = f (v) + f (v 0 ) für alle v, v 0 ∈ V,
dass f ein Homomorphismus zwischen den V und W zugrundeliegen-
den additiven Gruppen (V, +) und (W, +) ist. In diesem Fall sind die
abelschen Gruppen ker(f ) ⊆ V und im(f ) ⊆ W die den entsprechen-
den linearen Unterräumen zugrundeliegenden abelschen Gruppen.
(c) Sei K ein Körper und A = (αij ) ∈ K 2×2 . Setze
det(A) = α11 α22 − α12 α21 ∈ K.
Nach Beispiel 6.15 ist A invertierbar genau dann, wenn det(A) 6= 0 ist.
Sind A, B ∈ K 2×2 , so zeigt eine einfache direkte Rechnung det(AB) =
det(A) det(B). Also definiert det einen Homomorphismus
det : GL2 (K) → K × .
Ist α ∈ K × , so ist
α 0
det = α ∈ K ×,
0 1
d.h. der Homomorphismus det ist ein Epimorphismus.
Definition 9.3. Sei G eine Gruppe. Eine Untergruppe U ≤ G ist ein
Normalteiler (oder eine normale Untergruppe), U E G, falls gilt
u ∈ U, g ∈ G ⇒ g −1 ug ∈ U.
Ist U < G (d.h. U 6= G), so schreibe U C G.
Beispiele 9.4. (a) Die trivialen Untergruppen {1} < G und G ≤ G
einer jeden Gruppe G sind Normalteiler, die trivialen Normalteiler.
(b) Ist G abelsch, so folgt aus g −1 ug = g −1 gu = 1u = u ∈ U , dass jede
Untergruppe ein Normalteiler ist.
(c) Sei f : G → H ein Gruppenhomomorphismus und U = ker(f ) ≤ G.
Für u ∈ U und g ∈ G ist f (g −1 ug) = f (g −1 )f (u)f (g) = f (g)−1 f (g) =
1, also ist U = ker(f ) E G.
(d) Sei G = S3 die Gruppe der bijektiven Abbildungen von {1, 2, 3}.
68
Für verschiedene Ziffern i, j, k ∈ {1, 2, 3} sei (i, j) die bijektive Abbil-
dung i 7→ j, j 7→ i, k 7→ k. Wegen (i, j)(i, j) = id definiert jede solche
Transposition (i, j) eine Untergruppe {id, (i, j)} < G der Ordnung 2.
Sei nun U = {id, (1, 2)} < G, u = (1, 2) und g = (1, 3) ∈ G. Dann ist
g −1 ug = (13)(12)(13) = (23) ∈
/ U,
d.h. die Untergruppe U = {id, (1, 2)} < S3 ist kein Normalteiler.
Ist V ein K-Vektorraum und W ⊆ V ein linearer Unterraum, so ist
auf dem Faktorraum V /W = {a + W |a ∈ V } die Verküpfung (a1 +
W ) + (a2 + W ) = a1 + a2 + W wohldefiniert. Der naive Versuch analog
für eine Gruppe G und eine Untergruppe U ≤ G eine Faktorgruppe zu
definieren scheitert: In multiplikativer Notation ist die entsprechende
Menge G/U = {gU | g ∈ G} und die ‘evidente’ Mutiplikation
g1 U · g2 U = g1 g2 U
ist im allgemeinen nicht wohl-definiert. Ist g1 U = g10 U und g2 U = g20 U ,
so ist g10 = g1 u1 und g20 = g2 u2 für geeignete u1 , u2 ∈ U . Es folgt
g10 g20 = g1 u1 g2 u2 = g1 (g2 g2−1 )u1 g2 u2 = g1 g2 (g2−1 u1 g2 )u2 ,
d.h. g1 g2 U = g10 g20 U gilt nur dann, wenn g2−1 u1 g2 ∈ U ist; dies ist gerade
die Normalteilerbedingung an U . Insbesondere induziert die Multipli-
kation auf G nur dann eine wohl-definierte Multiplikation auf G/U ,
wenn U ⊆ G nicht nur eine Untergruppe, sondern ein Normalteiler ist.
Lemma 9.5. Sei N E G ein Normalteiler und G/N = {gN | g ∈ G}.
(a) Die Menge G/N ist mittels der Verknüpfung
g1 N · g2 N = g1 g2 N, g1 , g2 ∈ G
eine Gruppe mit neutralem Element N
(b) Die Abbildung π : G → G/N, g 7→ gN ist ein Epimorphismus
mit ker(π) = N .
Beweis. (a): Da N E G ist, ist die Gruppenoperation auf G/N wohl-
definiert, siehe oben; wegen N = 1N und 1N · gN = 1gN = gN ist N
das neutrale Element.
(b): Die Abbildung π ist offensichtlich surjektiv und nach Definition der
Gruppenoperation auf G/N ein Homomorphismus. Die letzte Aussage
N = ker(π) gilt da g ∈ ker(π) ⇔ gN = N ⇔ g ∈ N .
Theorem 9.6. (Homomorphiesatz) Sei f : G → H ein Gruppenhomo-
morphismus. Dann gibt es einen Epimorphismus π : G → G/ ker(f )
und einen Monomorphismus h : G/ ker(f ) → H mit f = h ◦ π und
im(f ) = im(h).
69
• Der Monomorphismus h : G/ ker(f ) → H induziert einen Isomor-
∼
=
phismus h : G/ ker(f ) → im(f ).
Beweis. Da ker(f ) E G ein Normalteiler ist hat G/ ker(f ) eine Grup-
penstruktur. Die Abbildungen π und h sind die evidenten Abbildungen
π : G → G/ ker(f ), g 7→ g ker(f ),
h : G/ ker(f ) → H, g ker(f ) 7→ f (g)
Dabei ist π nach Konstruktion ein Epimorphismus. Man rechnet nach,
dass h wohl-definiert ist; die restlichen Eigenschaften sind dann klar.
Wir betrachten nun die symmetrische Gruppe Sn der bijektiven Ab-
bildungen der Menge {1, . . . , n} aus Beipiel 2.2(d). Die Gruppenopera-
tion auf Sn ist die Verknüpfung von Abildungen, Sn ist eine endliche
Gruppe mit |Sn | = n!. Für n ≥ 3 ist die Gruppe Sn nicht abelsch.
Die Elemente von Sn heissen Permutationen und wir bezeichnen diese
mit kleinen griechischen Buchstaben; dabei sei ι das neutrale Element
von Sn , d.h. die Identitätsabbildung. Für τ ∈ Sn schreibe
1 2 · · · n
τ=
τ (1) τ (2) · · · τ (n)
Bei feststehendem n lassen wir zur Vereinfachung der Notation oft die
Ziffern mit τ (j) = j weg, zum Beispiel schreiben wir für n = 6 so
1 2 3 4 5 6 1 2 3 5
=
2 3 5 4 1 6 2 3 5 1
Definition 9.7. Seien a1 , · · · , ak paarweise verschiedene Ziffern aus
der Menge {1, .., n}. Ein k-Zykel in Sn ist eine Permutation der Form
a1 a2 · · ak−1 ak
ψ= ;
a2 a3 · · ak a1
wir verwenden für einen solchen k-Zykel auch die Notation
ψ = (a1 , a2 , · · · , ak−1 , ak ) = (a2 , a3 , · · · , ak , a1 ).
Zwei Zyklen (a1 , a2 , · · · , ak ) und (b1 , b2 , · · · , bl ) heissen disjunkt, falls
{a1 , . . . ak } ∩ {b1 , . . . bl } = ∅ ist. Eine Transposition ist ein 2-Zykel (i, j)
(nach Definition ist dabei i 6= j).
Lemma 9.8. Sei Sn die symmetrische Gruppe mit n > 1.
(a) Jede Permutation τ ∈ Sn hat eine Darstellung als ein Produkt
von disjunkten Zyklen.
70
(b) Es gilt (a1 , a2 , · · · , ak ) = (a1 , ak )(a1 , ak−1 ) · · · (a1 , a2 ), d.h. je-
de Permutation lässt sich als ein Produkt von Transpositionen
schreiben.
• Ist n = 5, so gilt nach (b) (1, 2, 3) = (1, 3)(1, 2). Wegen (1, 2, 3) =
(1, 3)(1, 2) = (1, 3)(1, 2)(4, 5)(4, 5) ist die Darstellung einer Permutati-
on als ein Produkt von Transpositionen nicht eindeutig.
Beweis. (a): Jede Permutation lässt sich sukzessive in disjunkte Zyklen
aufteilen, zum Beispiel ist
1 2 3 4 5 6
= (1, 2)(4, 5, 6)
2 1 3 5 6 4
Der Beweis von (a) ist eine Formalisierung dieses Prozesses und eine
einfache Übung.
(b): Die erste Aussage folgt durch Nachrechnen (Permutationen sind
von rechts zu lesen), die zweite aus (a).
Theorem 9.9. Sei n > 1 und sei {−1, 1} die multiplikative Gruppe.
(a) Es gibt einen Epimorphismus
sgn : Sn → {−1, +1}
mit sgn(τ ) = −1 für alle Transpositonen τ ∈ Sn .
(b) Sei K ein Körper und f : Sn → K × ein Homomorphismus.
Dann ist entweder f (ρ) = 1 für alle ρ ∈ Sn , oder es ist char(K) 6=
2 und f = sgn.
NB. Ist π ∈ Sn und π = τ1 · · · τk eine Zerlegung in Transpositionen, so
ist nach (a) sgn ein Homomorphismus und sgn(τi ) = −1 für alle i, also
ist sgn(π) = (−1)k (d.h. sgn(π) = 1, falls π eine Darstellung durch eine
gerade Anzahl von Transpositionen hat, und sgn(π) = −1 sonst). Dies
zeigt weiter: Die Zerlegung von π in ein Produkt vonTranspositionen
ist nicht eindeutig, aber für jede solche Zerlegung gilt, dass die Parität
(gerade oder ungerade) der Anzahl der Faktoren eindeutig ist.
Beweis. (a): Sei T = {i, j} ⊆ {1, . . . , n} mit i < j. Für τ ∈ Sn setze
(
1 falls τ (i) ≤ τ (j),
Zτ (T ) =
−1 falls τ (i) > τ (j)
und definiere Y
sgn(τ ) = Zτ (T ) ∈ {−1, 1},
T
71
wobei das Produkt über alle T = {i, j} ⊆ {1, . . . n} mit i 6= j läuft.
Für ρ ∈ Sn und T = {i, j} setze ρT = {ρ(i), ρ(j)}. Wir zeigen
(#) Zτ ρ (T ) = Zτ (ρT )Zρ (T ).
Gilt dies, so folgt
Y Y Y
sgn(τ ρ) = Zτ ρ (T ) = Zτ (ρT ) Zρ (T ) = sgn(τ ) sgn(ρ),
T T T
da mit T auch ρT alle 2-elementigen Teilmengen von {1, . . . n} durchläuft;
insbesondere definiert sgn einen Homomorphismus. Die Behauptung
(#) ergibt sich aus der folgenden Tabelle, die die Z∗ (T ) bzgl. der
relative Lage von {ρ(i), ρ(j)} und {τ (ρ(i)), τ (ρ(j))} beschreibt. Für
T = {i, j} ist
Zρ (T ) Zτ (ρT ) Zτ ρ (T )
ρ(i) ≤ ρ(j) und τ (ρ(i)) ≤ τ (ρ(j)) 1 1 1
ρ(i) ≤ ρ(j) und τ (ρ(i)) > τ (ρ(j)) 1 −1 −1
ρ(i) > ρ(j) und τ (ρ(i)) ≤ τ (ρ(j)) −1 −1 1
ρ(i) > ρ(j) und τ (ρ(i)) > τ (ρ(j)) −1 1 −1
Es bleibt zu zeigen: sgn(τ ) = −1 für jede Transposition τ ∈ Sn .
Ist τ = (1, 2), so ist Zτ (T ) = −1 für T = {1, 2} und Zτ (T ) = 1
sonst, d.h. sgn(τ ) = −1. Ist τ 0 = (i, j) beliebig, so gibt es ein
1 2 ···
ρ= ∈ Sn
i j ···
mit ρ(1) = i und ρ(2) = j. Dann ist τ 0 = ρτ ρ−1 , und es folgt
sgn(τ 0 ) = sgn(ρτ ρ−1 ) = sgn(ρ) sgn(τ ) sgn(ρ)−1 = sgn(τ ) = −1,
wobei die vorletzte Identität verwendet, dass {−1, +1} eine abelsche
Gruppe ist.
(b): Sei f : Sn → K × ein Homomorphismus. Ist τ eine Transposition,
so ist τ 2 = ι und 1 = f (τ 2 ) = f (τ )2 , also f (τ ) ∈ {−1, 1}. Da sich
jede Permutation nach Lemma 9.8(b) als Produkt von Transpositonen
schreiben lässt, folgt f (τ ) ∈ {−1, 1} für jedes τ ∈ Sn . Ist τ = (1, 2) und
ist τ 0 = (i, j) eine beliebige Transposition, so liefert der Beweis von (a)
ein ρ ∈ Sn mit τ 0 = ρτ ρ−1 . Also ist (die Gruppe {−1, 1} ist abelsch)
f (τ 0 ) = f (ρτ ρ−1 ) = f (ρ)f (τ )f (ρ)−1 = f (τ )
d.h. für jede Transposition τ 0 gilt f (τ 0 ) = 1 falls f (τ ) = 1 und f (τ 0 ) =
−1 falls f (τ ) = −1 ist. Ist ρ ∈ Sn und ist ρ = τ1 · · · τk eine Darstellung
72
als ein Produkt von Transpositionen, so gilt nach Teil (a)
k
Y
sgn(ρ) = sgn(τj ) = (−1)k .
j=1
Andererseits ist
k
(
Y (−1)k falls f (τ ) = −1
f (ρ) = f (τj ) =
j=1
1 falls f (τ ) = 1
Dies zeigt die Behauptung: Ist f (ρ) 6= 1 für ein ρ ∈ Sn , so ist char(K) 6=
2 (sonst ist −1 = 1). Weiter gibt es eine Transposition τj mit f (τj ) =
−1 und damit gilt auch f (τ ) = −1, sodass f = sgn.
Definition 9.10. Für n ≥ 2 ist An = ker{sgn : Sn → {−1, 1}} die
alternierende Gruppe auf n Ziffern.
• Es ist An E Sn und |Sn : An | = 2.
• Für jedes τ ∈ Sn mit τ (π) = −1 ist Sn = An ∪ τ An = τ An ∪ An ,
wobei die Vereinigung jeweils disjunkt ist.
Beispiel 9.11. Sei U < Sn eine Untergruppe mit |Sn : U | = 2. Dann
ist U = An : Betrachte die Abbildung
(
1 falls τ ∈ U,
f : Sn → {−1, 1}, f (τ ) =
−1 falls τ ∈
/ U.
Man rechnet nach, dass f ein Homormorphismus ist; die Behauptung
folgt dann mit Theorem 9.9(b).
Bemerkung 9.12. Für n = 3 und n ≥ 5 sind {1}, An und Sn die
einzigen Normalteiler von Sn , und An besitzt nur die trivialen Normal-
teiler {1} und An (man sagt An ist eine einfache Gruppe). Für n = 4
ist A4 nicht-einfach, da V = {ι, (12)(34), (13)(24), (14)(23)} einen Nor-
malteiler mit |V | = 4 definiert. Die Existenz dieser Untergruppe ist der
Grund dafür, dass Lösungen von Polynomgleichungen der Form
xn + an−1 xn−1 + · · · + a1 x + a0 = 0, ai ∈ C,
für n ≤ 4 stets durch Wurzeln ausgedrückt werden können (der Fall
n = 2 ist die ‘Mitternachtsformel’), dies für n ≥ 5 aber nicht gilt.
Die systematische Analyse der Lösungen solcher Polynomgleichungen
erfolgt im Rahmen der Galoistheorie und ist ein Thema der Vorlesung
‘Algebra’.
73
10. Determinanten
Nach Beispiel 6.15 gilt lässt sich für eine Matrix A = (αij ) ∈ K 2×2
aus den Koeffizienten αij bestimmen, ob A invertierbar ist, genauer
A−1 existiert ⇔ d = α11 α22 − α12 α21 6= 0.
Ist A invertierbar, so ist die inverse Matrix A−1 durch die Formel
−1 1 α22 −α12
A =
d −α21 α11
gegeben, die ebenfalls d involviert. Der Ausdruck d ∈ K ist ein Spezi-
alfall einer sogenannten Determinante. Wir ordnen im folgenden jeder
Matrix A ∈ K n×n eine Determinante det(A) ∈ K zu. Diese Invariante
enkodiert Information über die Invertierbarkeit von A, lässt sich zur
Berechnung von A−1 benüzten, und hat geometrische Bedeutung.
Wir definieren die Determinante einer quadratischen Matrix allge-
meiner für Matrizen A = (αij ), deren Einträge αij nicht Elemente eines
Körpers, sondern allgemeiner Elemente eines kommutativen Rings sind.
Ein kommutativer Ring ist dabei eine Menge mit zwei Verknüpfungen,
die alle Bedingungen an einen Körper erfüllt, mit Ausnahme der Exis-
tenz von mutiplikativ inversen Elementen, genauer:
Definition 10.1. Ein Ring R ist eine Menge, zusammen mit zwei Ver-
knüpfungen + und ·, sodass gilt:
(1) R ist bzgl. + eine abelsche Gruppe (mit neutralem Element 0),
(2) Es gibt ein 1 ∈ R mit 1r = r = r1 für r ∈ R; es gilt das
Assoziativgesetz r1 (r2 r3 ) = (r1 r2 )r3 für r1 , r2 , r3 ∈ R.
(3) Es gelten die Distributivgesetze, d.h. für r1 , r2 , r3 ∈ R ist
r1 (r2 + r3 ) = r1 r2 + r1 r3 und (r1 + r2 )r3 = r1 r3 + r2 r3 .
Ein Ring R ist kommutativ, falls zusätzlich gilt
(4) r1 r2 = r2 r1 für r1 , r2 ∈ R.
• Die Definition besagt nicht, dass wie in einem Körper 0 6= 1 sein
muss, inbesondere ist der Nullring R = {0} definiert.
Beispiele 10.2. (a) Die ganzen Zahlen Z formen bzgl. der üblichen
Addition und Multiplikation einen kommutativen Ring.
(b) Ist R ein (kommutativer) Ring, so bildet die Menge der n-Tupel
Rn = {(r1 , . . . , rn ) | ri ∈ R}
bzgl. der komponentenweisen Addition und Multiplikation wieder einen
(kommutativen) Ring.
(c) Die Menge der Polynome K[x] (bzw. R[x]) über einem Körper (bzw.
74
einem kommutativen Ring R) bilden bzgl. der Addition und Mutipli-
kation von Polynomen einen kommutativen Ring.
(d) Sei Rn×n die Menge der quadratischen Matrizen A = (αij ) vom
Typ (n, n) mit Einträgen αij aus einem kommutativen Ring R. Dann
ist Rn×n bzgl. der Addition und Multipliaktion von Matrizen ein Ring.
Der Ring Rn×n ist für n ≥ 2 in der Regel (z.B. falls 0 6= 1 in R) nicht
kommutativ.
Definition 10.3. Sei R ein kommutativer Ring und A = (αij ) ∈ Rn×n
eine quadratische Matrix vom Typ (n, n). Die Determinante von A ist
X
det(A) = sgn(τ )α1τ (1) α2τ (2) · · · αnτ (n) ∈ R
τ ∈Sn
• Ist n = 6, so hat die die Determinante definierende Formel 720 Terme,
d.h. obige Definition liefert ein Ringelement, welches a priori nur schwer
berechenbar ist.
Beispiele 10.4. (a) Sei A = (αij ) ∈ Rn×n eine Dreiecksmatrix mit
αij = 0 für j > i. Dann sind die in der Determinante det(A) auftre-
tenden Summanden α1τ (1) α2τ (2) · · · αnτ (n) nur dann nicht-trivial, wenn
τ (1) ≤ 1, τ (2) ≤ 2, · · · , τ (n) ≤ n ist. Dies gilt nur für die Iden-
titätsabbildung ι, sodass det(A) das Produkt der Diagonaleinträge ist
det(A) = α11 α22 · · · αnn .
(b) Sei A = (αij ) ∈ R2×2 . Es gilt S2 = {ι, τ }, wobei τ = (1, 2) ist. Nach
Definition ist die Determinante von A dann (vgl. Beispiel 6.15)
det(A) = sgn(ι)α1ι(1) α2ι(2) + sgn(1, 2)α1τ (1) α2τ (2)
= 1 · α11 α22 + (−1) · α12 α21
= α11 α22 − α12 α21 ∈ R.
(c) In R2 seien Vektoren s1 = (x1 , y1 )t und s2 = (x2 , y2 )t gegeben. Wir
schreiben diese Vektoren in Polarkoordinaten, d.h. in der Form
xj = rj cos(αj ) und yj = rj sin(αj ),
wobei 0 ≤ α1 ≤ α2 ≤ π/2 sei. Sei γ = α2 − α1 der Winkel zwi-
schen (x2 , y2 ) und (x1 , y1 ). Elementar-Geometrische Überlegungen zei-
gen, dass die Fläche F des von den Spaltenvektoren s1 und s2 aufge-
spannten Parallelogramms durch die folgende Formel gegeben ist
F = r1 r2 sin(γ).
Betrachte den Winkel α1 zwischen s1 und der x-Achse. Die Matrix
cos(−α1 ) − sin(−α1 )
D=
sin(−α1 ) cos(−α1 )
75
beschreibt die Drehung um den Winkel −α1 . Es gilt det(D) = 1. Für
x1 x2
A = (s1 , s2 ) =
y1 y2
gilt also
r1 ∗
DA =
0 r2 sin(γ)
wobei (siehe Übung) det(A) = det(D) det(A) = det(DA) = r1 r2 sin(γ).
Es folgt F = det(A), d.h. die Determinante entspricht genau dem Vo-
lumen des durch die Vektoren aufgespannten Parallelogramms.
Das obige Beispiel (c) suggeriert, dass die Determinante allgemein
eine ‘Volumenfunktion’ ist. Wir zeigen im folgenden, dass jede ‘abstrak-
te Volumenfunktion’ bis auf eine Konstante durch die Determinanten
gegeben ist. Wir beginnen mit elementaren Eigenschaften.
Für A ∈ Rn×n mit Zeilen z1 , . . . zn und Spalten s1 , . . . , sn betrachten
wir im folgenden det(A) als eine Funktion der Zeilen bzw. Spalten
det(A) = fdet (z1 , . . . , zn ) = gdet (s1 , . . . , sn ).
Lemma 10.5. Sei A ∈ Rn×n . Dann gilt
(a) det(A) = det(At ),
(b) Für r, r0 ∈ R und zj , zj0 ∈ Rn gilt die Formel
fdet (∗, rzj + r0 zj0 , ∗) = rfdet (∗, zj , ∗) + r0 fdet (∗, zj0 , ∗)
(d.h. für R = K ein Körper und j fest ist die Abbildung zj 7→
fdet (z1 , . . . , zj−1 , zj , zj+1 , . . . , zn ) linear).
(c) Ist zi = zj für ein i 6= j, so ist fdet (z1 , . . . , zn ) = 0.
(d) Die zu (b) und (c) analogen Aussagen für gdet (s1 , . . . , sn ) gelten.
Beweis. (a): Sei At = (βij ) mit βij = αji . Nach Definition von At ist
det(At ) =
P
sgn(τ )β1τ (1) · · · βnτ (n)
Pτ ∈Sn
= τ ∈Sn sgn(τ )ατ (1)1 · · · ατ (n)n
Wegen sgn(τ )2 = 1 ist sgn(τ ) = sgn(τ )−1 = sgn(τ −1 ). Da τ eine Bijek-
tion ist gilt τ (i) = j genau dann, wenn i = τ −1 (j) ist. Umordnung der
Faktoren (dies verwendet, dass der Ring R kommutativ ist) liefert
ατ (1)1 · · · ατ (n)n = α1τ −1 (1) · · · αnτ −1 (n) .
Also ist
X
det(At ) = sgn(τ −1 )α1τ −1 (1) · · · αnτ −1 (n) = det(A).
τ ∈Sn
76
(b): Sei zj = (αj1 , . . . , αjn ) und zj0 = (αj1 0 0
, . . . , αjn ). Dann gilt wegen
0 0
P
τ ∈Sn sgn(τ )α1τ (1) . . . (rαjτ (j) + r αjτ (j) ) . . . αnτ (n) =
P
= r τ ∈Sn sgn(τ )α1τ (1) . . . αjτ (j) . . . αnτ (n)
+r0 τ ∈Sn sgn(τ )α1τ (1) . . . αjτ 0
P
(j) . . . αnτ (n)
die Formel fdet (∗, rzj + r0 zj0 , ∗) = rfdet (∗, zj , ∗) + r0 fdet (∗, zj0 , ∗).
(c): Sei zi = zj mit i < j undP sei σ = (i,
Pj). Dann Pist Sn = An ∪ An σ
eine disjunkte Zerlegung und τ ∈Sn = π∈An + πσ∈An σ . Es folgt
sgn(π)(α1π(1) . . . αnπ(n) ) + sgn(πσ)(α1πσ(1) . . . αnπσ(n) )
= sgn(π)(α1π(1) . . . αnπ(n) ) − sgn(π)(α1πσ(1) .. . . . αnπσ(n) )
= sgn(π)(α1π(1) . . . αnπ(n) − α1πσ(1) . . . αnπσ(n) ) = 0
da wegen zi = zj auch αiπσ(i) = αiπ(j) = αjπ(j) .
(d): Folgt mit (a) aus (b) und (c).
Definition 10.6. Sei R ein kommutativer Ring. Eine Abbildung
V : (Rn )n → R
ist eine abstrakte Volumenfunktion auf Rn falls gilt:
(1) Für r, r0 ∈ R und zj , zj0 ∈ Rn ist
V (∗, rzj + r0 zj0 , ∗) = rV (∗, zj , ∗) + r0 V (∗, zj0 , ∗)
(2) Ist zi = zj ∈ Rn , i 6= j, so ist V (z1 , . . . , zn ) = 0.
• Nach Lemma 10.5(b)(c) definiert die Determinante eine abstrakte
Volumenfunktion fdet : (Rn )n → R, (z1 , . . . , zn ) 7→ fdet (z1 , . . . , zn ).
Proposition 10.7. Für eine abstrakte Volumenfunktion V auf Rn gilt
(a) Für i 6= j und r ∈ R ist
V (z1 , . . . , zi + rzj , . . . , zn ) = V (z1 , . . . , zi , . . . , zn )
(b) Für τ ∈ Sn ist
V (zτ (1) , . . . , zτ (n) ) = sgn(τ )V (z1 , . . . zn ).
(c) Ist zi = (αi1 , . . . , αin ) und sind e1 , . . . , en die Vektoren in Rn
mit 1 an der Stelle i und 0 sonst, so ist
V (z1 , . . . , zn ) = det(αij )V (e1 , . . . en ).
NB. Die letzte der obigen Aussagen besagt, dass jede abstrakte Volu-
menfunktion auf Rn bis auf eine Konstante die Determinante ist:
V (z1 , . . . , zn ) = fdet (z1 , . . . , zn ) · V (e1 , . . . , en ) = fdet (z1 , . . . , zn ) · c,
wobei c = V (e1 , . . . , en ) ∈ R eine Konstante ist.
77
Beweis. (a): Folgt direkt aus den Eigenschaften (1) und (2) von V .
(b): Sei τ = (i, j) mit i < j. Da V linear in jeder Komponente ist folgt
V (∗, zi , ∗, zj , ∗) + V (∗, zj , ∗, zi , ∗) = V (∗, zi + zj , ∗, zj + zi , ∗) = 0
und die Behauptung gilt für eine Transposition. Eine beliebige Permu-
tation τ ∈ Sn lässt sich τ nach Lemma 9.8(b) als ein Produkt geeigneter
Transpositionen τ = τ1 · · · τk schrieben. Setze ρ = τ2 · · · τk . Induktion
(nach der Anzahl der Faktoren in einer solchen Zerlegung) liefert
V (zτ (1) , . . . , zτ (n) ) = V (zτ1 ρ(1) , . . . , zτ1 ρ(n) )
= sgn(τ1 )V (zρ(1) , . . . , zρ(n) )
= sgn(τ1 ) sgn(ρ)V (z1 , . . . , zn )
= sgn(τ )V (z1 , . . . , zn )
Pn
(c): Sei zi = j=1 αij ej für i = 1, . . . , n. Da nach (1) V in jeder Kom-
ponente linear ist folgt
X
V (z1 , . . . , zn ) = α1j1 . . . αnjn V (ej1 , . . . , ejn ).
(j1 ,...,jn )
Taucht in einem solchen n-Tupel (j1 , . . . , jn ) eine Zahl wiederholt auf,
so gilt nach (2) V (ej1 , . . . , ejn ) = 0. Damit sind die nicht-trivialen
Summanden in der obigen Summe genau diejenigen mit {j1 , . . . , jn } =
{1, . . . , n}, und zu jedem solchen Summanden gibt es genau eine Per-
mutation τ ∈ Sn mit ji = τ (i). Mit (b) folgt so
P
V (z1 , . . . , zn ) = τ ∈Sn α1τ (1) . . . αnτ (n) sgn(τ )V (e1 , . . . , en )
= det(αij )V (e1 , . . . , en )
Lemma 10.8. Für A, B ∈ Rn×n gilt det(AB) = det(A) det(B).
• Sei K ein Körper und A ∈ K n×n . Dann ist A genau dann inver-
tierbar, wenn die Spaltenvektoren von A linear unabhängig sind, also
genau dann, wenn det(A) 6= 0 ist. Insbesondere definiert det eine Ab-
bildung det : GLn (K) → K × ; dies ist ein Epimorphismus.
• Seien z1 , . . . , zn ∈ Rn und V eine beliebige abstrakte Volumenfunk-
tion. Dann gibt es eine Konstante c ∈ R, sodass
V (z1 , . . . , zn ) = c · fdet (z1 , . . . , zn ).
n×n
Ist A ∈ R mit Zeilen z1 , . . . , zn , und ist B ∈ Rn×n eine weitere
Matrix, so hat AB die Zeilen z1 B, . . . , zn B und das obige Lemma besagt
V (z1 B, . . . , zn B) = c·det(AB) = c·det(A) det(B) = V (z1 , . . . zn ) det(B),
d.h. det(B) ist der ‘Verzerrungsfaktor’ der Volumenfunktion V bei An-
wendung von B.
78
Beweis. Seien z1 , . . . , zn die Zeilen von A. Betrachte die Abbildung
fB : (Rn )n → R, (z1 , . . . , zn ) 7→ fdet (z1 B, . . . , zn B) = det(AB).
Wir zeigen, dass fB eine abstrakte Volumenfunktion auf Rn definiert.
Gilt dies, so gibt es nach Proposition 10.7 eine Konstante c(B) mit
fB (z1 , . . . , zn ) = fdet (z1 , . . . , zn )c(B) = det(A)c(B).
Ist speziell A = En die Einheitsmatrix mit den Zeilen e1 , . . . , en , so ist
det(B) = det(En B) = fB (e1 , . . . , en ) = det(En )c(B) = c(B),
also ist c(B) = det(B) und det(AB) = fB (z1 , . . . , zn ) = det(A) det(B).
Wir verifizieren die Eigenschaften einer Volumenfunktion: Sei zi = zj
für ein i 6= j. Dann stimmen in AB die Zeilen zi B und zj B überein,
und nach Lemma 10.5(c) ist det(AB) = 0, also gilt
fB (z1 , . . . , zn ) = det(AB) = 0.
Sei A = (αij ) ∈ Rn×n mit Zeilen z1 , . . . , zn , und sei zj0 = (αj1
0 0
, . . . , αjn ).
n×n 0
Nach Lemma 10.5(b) gilt für B ∈ R und r, r ∈ R die Formel
z1 B z1 B z1 B
· · ·
· · ·
det (rzj + r0 zj0 )B = r det zj B + r0 det zj0 B
·
· ·
· · ·
zn B zn B zn B,
also ist
fB (∗, rzj + r0 zj0 , ∗) = rfB (∗, zj , ∗) + r0 fB (∗, zj0 , ∗)
und fB definiert eine abstrakte Volumenfunktion.
Wir kommen zur Berechnung von Determinanten.
Lemma 10.9. (Kästchensatz) Seien B ∈ Rm×m , C ∈ Rn×n und weiter
D ∈ Rn×m . Setze k = m + n und betrachte die k × k-Matrix
B 0
A= .
D C
Dann gilt: det(A) = det(B) det(C).
Beweis. Sei El ∈ Rl×l die Einheitsmatrix. Aufgrund der Darstellung
B 0 B 0 Em 0
= ,
D C D En 0 C
79
genügt es nach Lemma 10.8 die folgenden Identitäten zu beweisen
B 0 Em 0
det = det(B) und det = det(C)
D En 0 C
Seien z1 , . . . , zn ∈ Rn und sei C(zi ) ∈ Rn×n die durch die Zeilen
z1 , . . . , zn definierte Matrix. Dann definiert die Abbildung
n n Em 0
h : (R ) → R, (z1 , . . . , zn ) 7→ det
0 C(zi )
eine abstrakte Volumenfunktion. Nach Lemma 10.7(b) unterscheidet
sich h von der Determinatenfunktion nur um eine Konstante, d.h. es
gibt ein c ∈ R, sodass für jede Matrix C(zi ) die folgende Identität gilt
h(z1 , . . . , zn ) = c · fdet (z1 , . . . , zn ) = c · det(C(zi )).
Ist C(zi ) = En die Einheitsmatrix mit den Zeilen e1 , . . . , en , so folgt
1 = det(Ek ) = h(e1 , . . . , en ) = c · fdet (e1 , . . . , en ) = c · det(En ) = c,
also ist c = 1 und somit h(z1 , . . . , zn ) = fdet (z1 , . . . , zn ). Dies zeigt
Em 0
det = det(C).
0 C
Die verbleibende Behauptung folgt analog: Für z1 , . . . , zm ∈ Rm und
B(zi ) ∈ Rm×m die Matrix mit Zeilen z1 , . . . , zm definiert die Abbildung
m m B(zi ) 0
k : (R ) → R, (z1 , . . . , zm ) 7→ det
D En
eine abstrakte Volumenfunktion. Also gibt es ein c ∈ R, sodass
k(z1 , . . . , zm ) = c · fdet (z1 , . . . , zm ) = c · det(B(zi )).
Der Fall B(zi ) = Em liefert c = 1 und es folgt
B 0
det = det(B).
D En
Beispiele 10.10. (a) Sei K ein Körper und A, B, C, D ∈ K n×n mit
AC = CA. Wegen AC = CA gilt dann die Identiät
En 0 A B A B
· = .
−C A C D 0 AD − CB
Mit Lemma 10.9 folgt
A B
det(A) det = det(A) det(AD − CB)
C D
80
Gilt weiter det(A) 6= 0, so kann man durch det(A) teilen und erhält
A B
det = det(AD − CB),
C D
d.h. die Determinante der 2n × 2n-Matrix auf der linken Seite dieser
Gleichung ist gleich der Determinante der n × n-Matrix auf der rechten
Seite. (d.h. für n = 4 lässt sich eine Summe mit 8! = 40320 Termen
durch eine Summe mit 4! = 24 Termen berechnen).
(b) Seien A, B, C, D ∈ K n×n wie in (a). Gilt AC = CA, so kann man
zeigen
A B
det = det(AD − CB),
C D
auch wenn det(A) = 0 ist. Für AC 6= CA gilt dies nicht: Betrachte
1 1 0 0
A=D= und B = −C = .
0 1 −1 0
Es gilt det(A) = 1 und AC 6= CA. Direktes Nachrechnen zeigt weiter
A −C
det = 2 6= 1 = det(A2 + C 2 ).
C A
Wir geben abschliessend zwei allgemeine Methoden zur Berechnung
von Determinaten an.
I. Zeilenstufenform. Sei R = K ein Körper und A ∈ K n×n . Nach Theo-
rem 7.4 gibt es Elementarmatrizen T1 , . . . , Tk , S1 , . . . , Sl ∈ K n×n , so-
dass A0 = Tk · · · T1 AS1 · · · Sl eine obere Dreiecksmatrix ist. Nach Defi-
nition haben alle Elementarmatrizen die Determinante 1 und Lemma
10.8 besagt, dass det(A0 ) = det(A) ist. Für die obere Dreiecksmatrix
A0 ist det(A0 ) nach Beispiel 10.4(a) und Lemma 10.5(a) das Produkt
der Diagonaleinträge und leicht berechenbar.
Beispiel 10.11. Sei A ∈ R3×3 die Matrix
1 −1 2
A= 4 4 −2
2 0 2
Wie in Beispiel 7.5(a) lässt sich A mittels elementarer Umformungen
in die Matrix
1 −1 2
A0 = 0 8 10
0 0 1/2
überführen. Es folgt det(A) = 1 · 8 · (1/2) = 4.
81
II. Laplace Entwicklung. Betrachte A = (αij ) ∈ R3×3 . Sei Aij ∈ R
die Determinante der Matrix, die aus A durch Ersetzen der i-ten Zeile
durch die Zeile ej (mit 1 an der Stelle j und 0 sonst) entsteht, z.B.
0 1 0
A12 = det α21 α22 α23 .
α31 α32 α33
Dies liefert 9 Elemente Aij e = (Aij )t ∈ R3×3 . Dann ist
von R. Sei A
α11 α12 α13 A11 A21 A31
A · A = α21
e α22 α23 · A12 A22 A32
α31 α32 α33 A13 A23 A33
Dieses Produkt hat an der Stelle (1, 1) den Ausdruck
1 0 0 0 1 0
α11 · det α21 α22 α23 + α12 · det α21 α22 α23 +
α31 α32 α33 α31 α32 α33
0 0 1
+ α13 · det α21 α22 α23
α31 α32 α33
Da die Determinante in einer Zeile linear ist, ist dies genau det(A).
Analog steht in dem Produkt A · A e an den Stellen (2, 2) und (3, 3) das
Ringelement det(A). An den Stellen (i, j) mit i 6= j ist der Eintrag 0, da
nach Definition von A e in diesem Fall der Eintrag die Determinante einer
Matrix mit zwei identischen Zeilen ist. Also ist A·A e = det(A)·E3 . Insbe-
sondere ist im Fall R = K ein Körper die Matrix A invertierbar genau
dann, wenn det(A) 6= 0, und in diesem Fall ist A−1 = det(A)−1 A. e Wei-
ter ergibt sich eine explizite Möglichkeit für die Berechnung von det(A):
Die in der obigen Summe auftretenden Determinanten lassen sich nach
einer Vertauschung von Spalten mittels dem Kästchensatz 10.9 leicht
berechnen. Da eine solche Vertauschung τ nach Lemma 10.7(c) die De-
terminante nur um sgn(τ ) ändert, folgt
α22 α23 α21 α23 α21 α22
det(A) = α11 det −α12 det +α13 det
α32 α33 α31 α33 α31 α32
Dies ist die Berechnung von det(A) mittels ‘Entwicklung nach der 1.Zei-
le’. Analog lässt sich die Determinante mittels Entwicklung nach einer
beliebigen Zeile oder Spalte berechnen.
82
Sei konkret K ein Körper und betrachte die Matrix
1 2 1
A = −1
1 2 ∈ K 3×3
2 0 3
Für die Determinante von A ergibt sich durch Entwicklung nach der 1.
Zeile die Formel
1 2 −1 2 −1 2
det(A) = 1 · det − 2 · det + 1 · det
0 3 2 3 1 0
= 15
e = (Aij )t ergibt sich
Für die Adjunkte A
1 0 0
A11 = det −1 1 2 = 3
2 0 3
und
0 1 0
A12 = det −1 1 2 = 7,
2 0 3
sowie nach Berechung von weiteren 7 Determinanten die Adjunkte
3 −6 3
A=
e 7 1 −3
−2 4 3
sodass
3 −6 3
1 e= 1 7
A−1 = A 1 −3 .
det(A) 15 −2 4 3
Allgemein gilt:
Definition 10.12. Sei A = (αij ) ∈ Rn×n , und sei Aij ∈ R die De-
terminante der Matrix, die aus A durch Ersetzen der i-ten Zeile durch
ej = (0, . . . , 0, 1, 0, . . . , 0) mit 1 an der Stelle j entsteht, d.h.
α11 · · · α1j · · · α1n
· ··· · ··· ·
Aij = det 0 · · · 1 · · · 0
· ··· · ··· ·
αn1 · · · αnj · · · αnn
e von A ist die Matrix (Aij )t .
Die Adjunkte A
83
• Die explizite Berechnung von A e für A ∈ Rn×n erfordert die Berech-
nung von n2 Determinanten.
• Sei A \ {ij} die Matrix, die aus A durch Streichen der i-ten Zeile und
der j-ten Spalte entsteht. Aus Lemma 10.7(b) und Lemma 10.9 folgt
Aij = (−1)i+j det(A \ {ij}).
• Die Einträge Aij lassen sich gleichwertig als die Determinante der-
jenigen Matrix definieren, die aus A durch Ersetzen der j-ten Spalte
durch ei = (0, . . . , 0, 1, 0, . . . , 0) mit 1 an der Stelle i entsteht.
Theorem 10.13. Sei A = (αij ) ∈ Rn×n . Dann gilt:
(a) AA e = det(A)En , d.h. Pn αij Akj = δik det(A); ist k = i, so
j=1
ist nj=1 αij Aij = det(A) (Entwicklung nach der i-ten Zeile).
P
e = det(A)En , d.h. Pn Aji αjk = δik det(A); ist k = i, so
(b) AA j=1
ist nj=1 Aji αji = det(A) (Entwicklung nach der i-ten Spalte).
P
(c) Ist R = K ein Körper, so ist A genau dann invertierbar, wenn
det(A) 6= 0 ist. In diesem Fall ist A−1 = det(A)−1 A.
e
Beweis. (a): Das Produkt AA
e hat an der Stelle (i, k) den Eintrag
n
X
αij Akj = δik det(A).
j=1
Somit sind die einizgen nicht-trivialen Einträge von AA e die Einträge
det(A) auf der Diagonalen (i = k), und AA e = det(A)En .
(b): Analog mittels Aij als Determinante nach Spaltenvertauschung.
(c): Existiert A−1 , so ist AA−1 = En , und det(A) 6= 0 folgt aus
1 = det(En ) = det(AA−1 ) = det(A) det(A−1 ).
Ist umgekehrt det(A) 6= 0, so gilt nach (a) A−1 = det(A)−1 A.
e
Beispiele 10.14. (a) Betrachte die Matrix mit reellen Einträgen
1 2 3
A = 0 4 1 .
2 1 1
Nach Theorem 10.13(a) ist det(A) = 3j=1 αij Aij . Im Fall i = 1 (Ent-
P
wicklung nach der 1. Zeile) ergibt sich die Formel
det(A) = α11 A11 + α12 A12 + α13 A13 .
84
Wegen α11 = 1 folgt mit dem Kästchensatz 10.9
4 1
A11 = det(1) · det = 1 · (4 − 1) = 3,
1 1
also ist α11 A11 = 1 · 3 = 3. Nachrechnen liefert α12 A12 = 2 · 2 = 4 und
α13 A13 = 3 · (−8) = −24. Also ist det(A) = 3 + 4 − 24 = −17.
Effizienter ist hier die Entwicklung nach der 1. Spalte (da der Eintrag
α21 = 0 ist). Explizit:
4 1 2 3
det(A) = 1·det +2·det = 1·(4−1)+2·(2−12) = −17.
1 1 4 1
(b) Für die Matrix
5 0 3 −1
3 0 0 4
A= ∈ R4×4
−1 2 4 −2
1 0 0 5
liefert Entwicklung nach den jeweiligen Spalten mit vielen Nullen
5 3 −1
3 4
det(A) = −2 · det 3 0 4
= −2 · (−3) det = 6 · 11 = 66.
1 5
1 0 5
11. Dualräume
Wir ordnen einem K-Vektorraum V einen dualen K-Vektorraum V ∗
zu und studieren die Beziehungen zwischen V und V ∗ . Als Anwendung
bewiesen wir mit Hilfe von Dualräumen, dass sich affine Unterräume
als Schnitte von affinen Hyperebenen interpretieren lassen.
Sind V und W K-Vektorräume, so ist die Menge der linearen Abbil-
dungen HomK (V, W ) nach Lemma 6.1(a) bzgl. der punktweisen Addi-
tion und Skalarmultiplikation ein K-Vektorraum. Ist {ai | i ∈ I} eine
Basis von V und sind {wi | i ∈ I} beliebige Elemente von W , so be-
stimmt nach Lemma 5.4(a) die Zuordnung f (ai ) = wi eine eindeutige
lineare Abbildung f ∈ HomK (V, W ).
Wir betrachten im folgenden den Spezialfall W = K 1 = K.
Definition 11.1. Sei V ein K-Vektorraum. Dann ist der K-Vektorraum
V ∗ = HomK (V, K)
der zu V duale Vektorraum (oder Dualraum zu V ); die Elemente von
V ∗ heissen Linearformen auf V .
85
• Nach Lemma 5.4(a) ist V ∗ ein K-Vektorraum. Ist {a1 , . . . , an } eine
Basis von V , so folgt wie in Beispiel 4.18(d), dass die fi ∈ V ∗ mit
fi (aj ) = δij , i = 1, . . . , n
eine Basis von V ∗ bilden; die Basis {f1 , . . . , fn } ist die zu {a1 , . . . , an }
duale Basis (und umgekehrt); insbesondere ist dimK V = dimK V ∗ = n.
Beispiele 11.2. (a) Sei V = R2 mit Basis {a1 , a2 }, a1 = (1, 0) und
a2 = (1, 1). Dann ist die zu {a1 , a2 } duale Basis {f1 , f2 } gegeben durch
f1 (a1 ) = 1, f1 (a2 ) = 0, f2 (a1 ) = 0 und f2 (a2 ) = 1.
Die zu der Standardbasis {e1 , e2 } von V duale Basis hat die Form
{f10 , f20 } mit f10 (e1 ) = 1, f10 (e2 ) = 0, f20 (e1 ) = 0 und f20 (e2 ) = 1. Hier ist
f20 (a1 ) = f20 (e1 ) = 0 und f20 (a2 ) = f20 (e1 + e2 ) = 0 + 1 = 1, d.h. f2 und f20
bestimmen dieselbe Abbildung auf V , aber f1 6= f10 , da f10 (e2 ) = 0 und
f1 (e2 ) = f1 (a2 ) − f1 (a1 ) = −1 (d.h. a1 = e1 impliziert nicht f1 = f10
und a2 6= e2 impliziert nicht f2 6= f20 ).
(b) Sei V = R[x] der R-Vektorraum der Polynome mit reellen Koeffizi-
enten und Basis {xi | i ∈ N0 }. Betrache die fi ∈ V ∗ mit fi (xj ) = δij . Da
sich die Linearform f ∈ V ∗ mit f (xi ) = 1 für alle i nicht als endliche
Linearkombination der fi darstellen lässt ist f ∈ / hfi | i ∈ N0 i; insbe-
i
sondere bilden die zu der Basis {x | i ∈ N0 } von V dualen Elemente
{fi | i ∈ N0 } keine Basis von V ∗ .
Lemma 11.3. (Trennungslemma) Sei V ein K-Vektorraum und sei
U ⊆ V ein linearer Unterraum endlicher Dimension dimK U = n. Ist
v ∈ V \ U , so gibt es ein f ∈ V ∗ mit f (u) = 0 für u ∈ U und f (v) = 1.
Beweis. Sei {u1 , . . . , un } eine Basis von U und v ∈ V \ U . Dann ist
{u1 , . . . , un , v} linear unabhängig und es gibt ein g ∈ hu1 , . . . , un , vi∗
mit g(ui ) = 0 und g(v) = 1. Die Linearform f ∈ V ∗ definiert durch
f (a) = 0 für a ∈ V \ hu1 , . . . , un , vi und f = g sonst hat die geforderten
Eigenschaften.
Proposition 11.4. Sei V ein K-Vektorraum und V ∗∗ = (V ∗ )∗ . Setze
T : V → V ∗∗ , (T v)(f ) = f (v), v ∈ V, f ∈ V ∗ .
(a) T ist ein Monomorphismus,
(b) Ist dimK V = n < ∞, so ist T ein Isomorphismus.
Beweis. (a): Nachrechnen zeigt, dass T v ∈ V ∗∗ und T linear ist; zum
Beispiel: Die Abbildung T v ist additiv, da für f1 , f2 ∈ V ∗ gilt
(T v)(f1 + f2 ) = (f1 + f2 )(v) = f1 (v) + f2 (v) = (T v)(f1 ) + (T v)(f2 ).
86
Sei 0 6= v ∈ V . Nach Lemma 11.3 (angewandt mit U = {0}) gibt es ein
f ∈ V ∗ mit f (v) = 1. Es folgt (T v)(f ) = f (v) = 1, d.h. T v 6= 0 und T
ist ein Monomorphismus.
(b): Ist dimK V = n, so gilt dimK V ∗ = dimK V ∗∗ = n und der Mono-
morphismus T ist nach Lemma 5.11 ein Isomorphismus.
Sei V ein K-Vektorraum und U ⊆ V ein linearer Unterraum. Ist
f ∈ V ∗ , d.h. f : V → K ist linear, so gibt es eine K-lineare Re-
striktionsabbildung R : V ∗ → U ∗ , f 7→ Rf = f |U . Setze U ⊥ =
ker(R) = {f ∈ V ∗ | f (U ) = 0} ⊆ V ∗ . Mit dem Homomorphiesatz
folgt V ∗ /U ⊥ ∼
= im(R).
Weiter definiert I : (V /U )∗ → V ∗ , g 7→ Ig mit (Ig)(v) = g(v + U ) ei-
ne K-lineare Abbildung. Für u ∈ U ist (Ig)(u) = g(u + U ) = g(U ) = 0,
sodass I : (V /U )∗ → U ⊥ .
Wir definieren allgemeiner:
Definition 11.5. Sei V ein K-Vektorraum und U ⊆ V ein linearer
Unterraum.
(a) Die Restriktion R : V ∗ → U ∗ ist die K-lineare Abbildung
(Rf )(u) = f (u), u ∈ U, f ∈ V ∗ .
(b) Die Inflation I : (V /U )∗ → V ∗ ist die K-lineare Abbildung
(Ig)(v) = g(v + U ), v ∈ V, g ∈ (V /U )∗ .
(c) Ist M ⊆ V eine Teilmenge, so ist M ⊥ (⊥ ‘senkrecht’)
M ⊥ = {f ∈ V ∗ | f (m) = 0 für alle m ∈ M }
die Menge der Linearformen, die M annullieren.
(d) Ist S ⊆ V ∗ eine Teilmenge, so ist S > (> ‘umgedreht senkrecht’)
S > = {v ∈ V | s(v) = 0 für alle s ∈ S}
die Menge der Vektoren, die von Linearformen in S annulliert
werden.
• M ⊥ ⊆ V ∗ ist für jede Menge M ein linearer Unterraum.
Beispiel 11.6. Sei V = R2 mit der Standardbasis {e1 , e2 } und sei
{f1 , f2 } die entsprechende duale Basis von V ∗ . Sind v = α1 e1 +α2 e2 ∈ V
und f = β1 f1 + β2 f2 ∈ V ∗ , so folgt
f (v) = (β1 f1 + β2 f2 )(α1 e1 + α2 e2 ) = β1 α1 + β2 α2 .
Wir verwenden diese Relation um für U = he2 i ⊆ V das Objekt
(U ⊥ )> ⊆ V zu berechnen: Nach Definition ist U ⊥ = {f ∈ V ∗ | f (u) =
0 für alle u ∈ U } = {f ∈ V ∗ | f (e2 ) = 0}. Für v = e2 (d.h. α1 = 0
87
und α2 = 1) ergibt sich aus der obigen Relation f (e2 ) = 0 genau
dann, wenn β2 = 0, d.h. f (e2 ) = 0 genau dann, wenn f = β1 f1 und
somit U ⊥ = hf1 i ⊆ V ∗ . Betrachte (U ⊥ )> = hf1 i> ⊆ V . Nach Defi-
nition ist hf1 i> = {v ∈ V | β1 f1 (v) = 0}. Ist v = α1 e1 + α2 e2 , so ist
f1 (v) = α1 , d.h. hf1 i> = he2 i = U ⊆ V . Wir haben gezeigt (U ⊥ )> = U ,
dies ist ein Spezialfall eines allgemeinen Dualitätssatzes.
Lemma 11.7. Sei V ein K-Vektorraum und U ⊆ V ein linearer Un-
terraum. Dann gilt
(a) R : V ∗ → U ∗ , f 7→ Rf , ist linear mit ker(R) = U ⊥ .
(b) Ist dimK V = n < ∞, so ist R ein Epimorphismus und es gilt
dimK U ⊥ = n − dimK U.
(c) I : (V /U )∗ → U ⊥ ist ein Isomorphismus.
Beweis. (a): Folgt aus der Diskussion vor Definition 11.5.
(b): Sei {u1 , . . . , ur } eine Basis von U und {u1 , . . . , ur , vr+1 , . . . , vn } eine
Basis von V . Erweitere f ∈ U ∗ auf g ∈ V ∗ durch g(ui ) = f (ui ) und
g(vi ) = 0. Damit ist g(u) = f (u) für u ∈ U , d.h. f = Rg und R ist
surjektiv. Wegen im(R) = U ∗ , ker(R) = U ⊥ und dimK U = dimK U ∗
liefert der Homomorphiesatz die Identität dimK U ⊥ = n − dimK U .
(c): Betrachte die lineare Abbildung I : (V /U )∗ → U ⊥ . Sei f ∈ U ⊥ .
Dann definiert f¯(v + U ) = f (v) ein Element von (V /U )∗ mit I f¯ =
f , d.h. I ist surjektiv. Sei g ∈ ker(I). Für v ∈ V ist 0 = (Ig)(v) =
g(v + U ), also ist g = 0 und I ist injektiv.
Theorem 11.8. (Dualitätssatz) Sei V ein K-Vektorraum endlicher
Dimension dimK V = n. Dann gilt
(a) Ist U ⊆ V ein linearer Unterraum, so ist U ⊥> = U .
(b) Ist S ⊆ V ∗ ein linearer Unterraum, so ist S >⊥ = S.
(c) Sind U1 und U2 lineare Unterräume von V , so ist
(U1 + U2 )⊥ = U1⊥ ∩ U2⊥ und (U1 ∩ U2 )⊥ = U1⊥ + U2⊥ .
Beweis. (a): Es ist U ⊥> = {v ∈ V | f (v) = 0 für f ∈ U ⊥ } ⊇ U . Ist
v ∈ U ⊥> \ U , so gibt es nach dem Trennungslemma 11.3 ein f ∈ V ∗ mit
f (v) = 1 und f (u) = 0 für u ∈ U ; insbesondere ist f ∈ U ⊥ . Da v ∈ U ⊥>
folgt 0 = f (v) = 1, Widerspruch. Also gilt Gleichheit U = U ⊥> .
(b): Nach Definition von S >⊥ gilt S >⊥ ⊇ S. Da S und S >⊥ lineare
Unterräume endlicher Dimension sind genügt zu zeigen dimK S >⊥ =
dimK S. Betrachte die Abbildung T : V → V ∗∗ , (T v)(f ) = f (v), v ∈
88
V, f ∈ V ∗ . Für s ∈ S ⊆ V ∗ ist (T v)(s) = s(v). Dies liefert die Identität
S > = {v ∈ V | s(v) = 0 für alle s ∈ S}
= {v ∈ V | (T v)(s) = 0 für alle s ∈ S}.
Nach Proposition 11.4(b) ist T ein Isomorphismus ist, also ist dimK S > =
dimK T (S > ) und es folgt
dimK S > = dimK T ({v ∈ V | (T v)(s) = 0 für alle s ∈ S})
= dimK {f ∈ V ∗∗ | f (s) = 0 für alle s ∈ S}
= dimK S ⊥
= dimK V ∗ − dimK S,
wobei die letzten Gleichung aus Lemma 11.7(b) (angewandt auf U = S
und V = V ∗ ) folgt. Nach nochmaliger Anwendung von Lemma 11.7(b)
(mit U = S > und V = V ) folgt wegen dimK V = dimK V ∗ dann
dimK S >⊥ = dimK V − dimK S > = dimK S,
und somit S = S >⊥ .
(c): Übung.
Als Anwendung des Dualitätssatz betrachten wir affine Unterräume
eines n-dimensionalen K-Vektorraums V . Nach Definition 5.13 hat ein
m-dimensionalen affiner Unterraum von V die Form H = a + U , wobei
a ∈ V und U ⊆ V ein m-dimensionaler linearer Unterraum ist. Ist
dimK U = n − 1, so ist H = a + U eine affine Hyperebene.
Ist V = R2 , so sind die affinen Hyperebenen genau die Geraden in V
und jeder Punkt ist der Schnitt von 2 Geraden. Im Fall V = R3 sind die
affinen Hyperebenen die Flächen, jeder Punkt ist Schnitt von 3 Flächen
und jede Gerade ist Schnitt von zwei Flächen. Dies suggeriert, dass all-
gemein ein m-dimensionaler affiner Unterraum einens n-dimensionalen
Vektorraums der Schnitt von n−m vielen affinen Hyperebenen ist. Wir
beweisen dies unter Verwendung des Dualitätssatz 11.8.
Die affinen Hyperebenen lassen sich mittels Linearformen wie folgt
beschreiben: Sei dimK V = n und 0 6= f ∈ V ∗ . Dann ist im(f ) = K
und dim ker(f ) = n − 1. Wähle ein w ∈ V mit f (w) 6= 0. Für α ∈ K
setze a = αf (w)−1 w ∈ V , sodass f (a) = α ist. Dann definiert
Hf,α = a + ker(f ) = {v ∈ V | f (v) = α}
eine affine Hyperebene in V . Jede affine Hyperebene H = a+U ⊆ V hat
diese Form: Wegen dimK U = n−1 ist nach Lemma 11.7(b) dim U ⊥ = 1
und U ⊥ wird von einem 0 6= f ∈ V ∗ erzeugt. Für α = f (a) folgt
H = Hf,α .
89
Theorem 11.9. Sei V ein n-dimensionaler K-Vektorraum. Dann ist
jeder m-dimensionale affine Unterraum der Durchschnitt von n − m
affinen Hyperebenen.
Beweis. Sei H = a + U ⊆ V , a ∈ V , U ⊆ V ein m-dimensionaler
linearer Unterraum. Nach Lemma 11.7(b) ist dimK U ⊥ = n − m; sei
{f1 , . . . , fn−m } eine Basis von U ⊥ . Evaluierung der fi bei a liefert Ska-
lare αi und affine Hyperebenen Hfi ,αi . Wir zeigen H = ∩n−m i=1 Hfi ,αi :
Ist v = a + u ∈ H, so gilt für i = 1, . . . , n − m nach Definition
fi (v) = fi (a) + fi (u) = fi (a) + 0 = αi .
Also ist v ∈ ∩n−m n−m
i=1 Hfi ,αi . Ist umgekehrt v ∈ ∩i=1 Hfi ,αi , so folgt wegen
fi (v − a) = 0 dann v − a ∈ fi und somit v − a ∈ hf1 , . . . , fn−m i> .
>
Der Dualitätssatz 11.8(a) zeigt hf1 , . . . , fn−m i> = U ⊥> = U , also ist
v − a ∈ U und v ∈ a + U = H.
Bemerkung 11.10. Für lineare Gleichungssysteme ergibt sich folgen-
de geometrische Interpretation: Für ein lineares Gleichnungssystem
X n
(L) : αij xj = βi , i = 1, . . . , m,
j=1
betrachte die m Gleichungen separat. Die i-te Gleichung hat die Form
(αi1 , αi2 , . . . , αin )(x1 , . . . , xn )t = βi .
Interpretiert man x = (x1 , . . . , xn )t als Vektor in V = K n und ist
(αi1 , . . . , αin ) nicht der Nullvektor, so definiert
fi : V → K, x 7→ (αi1 , . . . , αin )x.
eine nicht-triviale Linearform und die Lösung der i-ten Gleichung ent-
spricht den Elementen der affinen Hyperebene Hfi ,βi . Die Lösungsmenge
von (L) ist genau der Schnitt der m affinen Hyperebenen Hfi ,βi , insbe-
sondere hat (L) eine Lösung falls dieser Schnitt nicht leer ist, und eine
eindeutige Lösung, falls dieser Schnitt aus genau einem Punkt besteht.
Die zulässigen Spaltenumformungen, d.h. die Operationen
(a) fi 7→ αfi , α ∈ K ×,
(b) fi →7 fi + fj , i 6= j,
(c) Vertauschung von fi und fj , i 6= j,
sind Operationen in V ∗ ; man kann zeigen, dass diese Operationen
den Schnitt der Hfi ,βi nicht ändern. Genauer: Anwendung der Spal-
tenumformungen (a)-(c) liefert lineare Abbildungen fi0 : V → K, i =
1, . . . , m, zusammen mit Skalaren βi0 , i = 1, . . . , m, sodass gilt
∩m m
i=1 Hfi ,βi = ∩i=1 Hfi0 ,βi0 .
90
Definition 11.11. Seien V, W K-Vektorräume und A ∈ HomK (V, W ).
Ist f ∈ W ∗ und v ∈ V , so definiert f (Av) ein Element von K. Setze
A∗ : W ∗ → V ∗ , f 7→ {v 7→ f (Av)};
die Abbildung A∗ ist die zu A duale Abbildung.
• Nach Definition ist (A∗ f )(v) = (f ◦ A)(v) = f (Av) : V → K die
Komposition von zwei K-linearen Abbildungen und somit ein Element
von V ∗ . Seien f1 , f2 ∈ W ∗ . Für v ∈ V gilt
(A∗ (f1 + f2 ))(v) = (f1 + f2 )(Av) = f1 (Av) + f2 (Av) =
= (A∗ f1 )(v) + (A∗ f2 )(v) = (A∗ f1 + A∗ f2 )(v),
also ist A∗ (f1 + f2 ) = A∗ f1 + A∗ f2 . Ähnlich folgt A∗ (αf ) = α(A∗ f ) für
f ∈ W ∗ und α ∈ K; damit ist A∗ ∈ HomK (W ∗ , V ∗ ).
• Sind V, W K-Vektorräume, A, B ∈ HomK (V, W ) und α ∈ K, so gilt
(A + B)∗ = A∗ + B ∗ und (αA)∗ = αA∗ .
• Seien Vi K-Vektorräume, i = 1, 2, 3, A ∈ HomK (V1 , V2 ) und B ∈
HomK (V2 , V3 ). Dann gilt für das Kompositum der dualen Abbildungen
(BA)∗ = A∗ B ∗ .
Wir zeigen: Hat A ∈ HomK (V, W ) bzgl. Basen von V und W die
Matrix (αij ), so hat A∗ bzgl. der dualen Basis die Matrix (αij )t , d.h.
(A ↔ (αij )) ⇔ (A∗ ↔ (αij )t ).
Lemma 11.12. Seien V, W K-Vektorräume, {v1 , . . . , vn } eine Basis
von V , {w1 , . . . , wm } eine Basis von W , und A ∈ HomK (V, W ) mit
m
X
Avi = αji wj , i = 1, . . . , n.
j=1
Ist {f1 , . . . , fn } die duale Basis zu {v1 , . . . , vn } und {g1 , . . . , gm } die
duale Basis zu {w1 , . . . , wm }, so gilt für die duale Abbildung A∗
n
X
A∗ gj = αji fi , j = 1, . . . , m.
i=1
Beweis. Nach Definition der dualen Abbildung gilt
Xm m
X
∗
(A gj )(vk ) = gj (Avk ) = gj ( αlk wl ) = αlk (gj wl ).
l=1 l=1
91
Nach Definition gj (wl ) = δjl , also ist gj (wl ) = 0 für j 6= l und es folgt
(A∗ gj )vk = αjk .
Wegen fi (vk ) = δik folgt genauso fi (vk ) = 0 für i 6= k, und damit
X n
∗
(A gj )(vk ) = αjk = ( αji fi )(vk ).
i=1
Ist V ein K-Vektorraum, so gilt nach Definition 11.5(3) und (4)
M ⊆ V ⇒ M ⊥ = {f ∈ V ∗ | f (m) = 0 für alle m ∈ M },
S ⊆ V ∗ ⇒ S > = {v ∈ V | s(v) = 0 für alle s ∈ S}.
Proposition 11.13. Seien V, W K-Vektorräume und sei A ∈ HomK (V, W ).
Dann gilt
(a) ker(A∗ ) = im(A)⊥ .
(b) ker(A) = im(A∗ )> .
Ist dimK W < ∞, so gilt weiter
(c) A ist Epimorphismus ⇔ A∗ ist Monomorphismus.
(d) A ist Monomorphismus ⇔ A∗ ist Epimorphismus.
(e) A ist Isomorphismus ⇔ A∗ ist Isomorphismus.
Beweis. (a): Aus den Definitionen ergibt sich direkt
ker(A∗ ) = {g ∈ W ∗ | (A∗ g)(v) = g(Av) = 0 für alle v ∈ V }
= {g ∈ W ∗ | g(w) = 0 für alle w ∈ im(A)}
= im(A)⊥ .
(b): Eine Richtung ist offensichtlich, da
im(A∗ )> = {v ∈ V | g(v) = 0 für alle g ∈ im(A∗ )}
= {v ∈ V | (A∗ f )(v) = f (Av) = 0 für alle f ∈ W ∗ }
⊇ ker(A).
Sei v ∈ im(A∗ )> . Dann ist (vgl.oben) (A∗ f )(v) = f (Av) = 0 für alle
f ∈ W ∗ . Angenommen Av 6= 0. Das Trennungslemma 11.3 (angewandt
mit U = {0} und V = W ) liefert ein f ∈ W ∗ mit f (Av) = 1, Wider-
spruch. Somit ist Av = 0 und v ∈ ker(A).
(c): Ist A ein Epimorphismus, so ist im(A) = W und ker(A∗ ) =
im(A)⊥ = W ⊥ = {0} nach (a), also ist A∗ ein Monomorphismus. Ist
umgekehrt A∗ ein Monomorphismus, so gilt {0} = ker(A∗ ) = im(A)⊥
nach (a), und der Dualitätssatz 11.8 liefert im(A) = im(A)⊥> = {0}> =
W , d.h. A ist ein Epimorphimus.
92
(d): Sei A ein Monomorphismus. Dann ist {0} = ker(A) = im(A∗ )>
nach (b), und Dualität 11.8 zeigt im(A∗ ) = im(A∗ )>⊥ = {0}⊥ = V ∗ ,
d.h. A∗ ist ein Epimorphismus. Ist A∗ ein Epimorphismus, so folgt
direkt nach (b) ker(A) = im(A∗ )> = (V ∗ )> = {0} und A ist ein Mono-
morphismus.
(e): Folgt aus (c) und (d).
12. Polynome und ihre Nullstellen
Wir werden im folgenden lineare Abbildungen genauer studieren,
insbesondere die Frage, wann ein Endomorphismus diagionalisierbar
ist, d.h. unter welchen Bedingungen es eine Basis gibt, sodass die Ma-
trix eines Endomorphismus bzgl. dieser Basis eine Diagonalmatrix ist.
Ist eine lineare Abbildung diagonalisierbar, so sind die in der Diago-
nalen auftretenden Skalare die sogenannten Eigenwerte der Abbildung;
diese Eigenwerte sind die Nullstellen eines Polynoms. Wir betrachten
daher zunächst elementare Eigenschaften von Polynomringen.
Definition 12.1. Seien R, S Ringe (vgl. Definition 10.1).
(1) Eine Abbildung f : R → S ist ein Ringhomomoprhimus, falls
(a) f (r1 + r2 ) = f (r1 ) + f (r2 ), r1 , r2 ∈ R,
(b) f (r1 r2 ) = f (r1 )f (r2 ), r1 , r2 ∈ R,
(c) f (1R ) = 1S .
(2) Ein Monomorphismus (bzw. Epimorphismus, Isomorphismus)
ist ein injektiver (bzw. surjektiver, bijektiver) Ringhomomor-
phimus.
Definition 12.2. Sei R ein Ring. Der Polynomring R[x] über R ist die
Menge R[x] = {(a0 , a1 , . . . ) | aj ∈ R, nur endlich viele aj 6= 0}, mit
Addition und Multiplikation definiert durch
k
X
(aj ) + (bj ) = (aj + bj ) und (aj )(bj ) = (cj ) mit ck = aj bk−j .
j=0
Lemma 12.3. Sei R ein Ring.
(a) R[x] ist bzgl. der obigen Operationen ein Ring mit Nullelement
0 = (0, 0, 0, . . . ) und Einselement 1 = (1, 0, 0, . . . ); R[x] ist
genau dann kommutativ, wenn R kommutativ ist.
(b) Die Abbildung R → R[x], a 7→ (a, 0, 0, . . . ) ist ein Monomor-
phismus von Ringen.
(c) Ist K ein Körper, so ist K[x] eine K-Algebra. Ist x = (0, 1, 0, . . . ),
so bildet {xj | j = 0, 1, 2, . . . } eine K-Basis von K[x].
93
NB. Für x wie in (c) folgt xj = (0, . . . , 1, 0, . . . ) (1 an der Stelle j). Da
die xj eine Basis bilden, lässt sich jedes Element von K[x] eindeutig als
Xn
aj xj = (a0 , a1 , a2 , . . . , an , 0, . . . )
j=0
schreiben, d.h. ‘als ein Polynom in x mit Koeffizienten in K’. Dabei ist
X m Xn n+m
X X
i j
( ai x )( bj x ) = ( ai bj )xk ,
i=0 j=0 k=0 i+j=k
d.h. die Multiplikation ist die übliche Multiplikation von Polynomen.
Beweis. Einfaches Nachrechnen.
Pn
Definition 12.4. Sei K ein Körper und sei f = j=0 aj xj ∈ K[x] ein
Polynom mit an 6= 0. Der Grad von f ist definiert als Grad f = n. Ist
f = 0, so setze Grad f = −∞; ist Grad f = n und an = 1, so ist f ein
normiertes Polynom.
• Grad(f + g) ≤ max{Grad(f ), Grad(g)} (wobei max{−∞, n} = n),
• Grad(f g) ≤ Grad(f ) + Grad(g) (wobei −∞ = −∞ + n).
Proposition 12.5. (Division mit Rest) Seien f, g ∈ K[x] mit g 6= 0.
Dann gibt es eindeutig bestimmte Polynome h, r ∈ K[x], sodass gilt
f = gh + r mit Grad(r) < Grad(g).
Beweis.
Pm Ist Grad(f )P< Grad(g), so setze h = 0 und r = f . Sei f =
j n k
j=0 aj x und g = k=0 bk x mit m ≥ n. Betrachte das Polynom
am m−n
f1 = f − x g = c0 + c1 x + · · · cm−1 xm−1
bn
mit Grad(f1 ) ≤ m − 1. Ist m = 0, so ist f = a0 6= 0 und g = b0 6= 0 (da
g 6= 0 ist); in diesem Fall setze h = b−1
0 a0 und r = 0. Mittels Induktion
nach m gilt f1 = h1 g + r1 mit h1 , r1 ∈ K[x] und Grad(r1 ) < n. Also ist
am
f = g( xm−n + h1 ) + r1
bn
mit Grad(r1 ) < Grad(g). Es bleibt zu zeigen, dass h1 und r1 eindeutig
bestimmt sind. Ist f = h2 g + r2 mit h2 , r2 ∈ K[x] und Grad(r2 ) < n
eine weitere Darstellung dieser Form, so folgt
r1 − r2 = (h2 − h1 )g.
Die Annahme h1 6= h2 impliziert den Widerspruch
n = Grad(g) ≤ grad(g) + Grad(h2 − h1 ) = Grad(r1 − r2 ) < n.
Also ist h1 = h2 und wegen h1 g + r1 = h1 g + r2 dann auch r1 = r2 .
94
Definition 12.6. Sei K ein Körper, A Peine K-Algebra, und c ∈ A. Ist
f = nj=0 aj xj ∈ K[x], so setze f (c) = nj=0 aj cj ∈ A. Die Abbildung
P
α = αc : K[x] → A, f 7→ f (c)
ist der Einsetzungshomomorphismus (bzgl. c); α ist ein Homomorphis-
mus von K-Algebren (d.h. ein Ringhomomorphismus und K-linear).
Beispiele 12.7. (a) Sind K ⊆ L Körper, so ist L eine K-Algebra und
für f ∈ K[x] und c ∈ L ist αc : K[x] → L definiert. Diese Abbildung
entspricht genau dem Einsetzen von c in f mit Wert f (c) ∈ L.
(b) Für einen K-Vektorraum V betrachte die K-Algebra A = EndK (V ).
Der Homomorphismus αA : K[x] → A (bzgl. A ∈ A) ist die Abbildung
X n
X
j
f= aj x 7→ f (A) = aj Aj = a0 idV +a1 A + a2 A2 + · · · + an An .
j j=0
(c) Sei K ein endlicher Körper mit |K| = p. Dann ist cp = c für alle
c ∈ K. Das Polynom f = xp − x ∈ K[x] ist nicht das Nullpolynom (da
nicht alle Koeffizienten Null sind), d.h. f 6= 0. Aber f (c) = 0 für alle
c ∈ K, d.h. die Abbildung K 7→ K, c 7→ f (c) ist die Nullabbildung
(insbesondere ist das Polynom f ∈ K[x] von der durch f induzierten
Abbildung K → K, c 7→ f (c) zu unterscheiden).
Definition 12.8. Seien K ⊆ L Körper, f ∈ K[x] und c ∈ L.
(1) Ist f ∈ K[x] und f (c) = 0, so ist c eine Nullstelle von f ,
(2) Ist f = (x − c)m g mit g ∈ L[x] und g(c) 6= 0, so ist c eine
m-fache Nullstelle von f (und m ist die Vielfachheit von c als
Nullstelle von f ).
Lemma 12.9. Seien K ⊆ L Körper, f ∈ K[x] und c ∈ L.
(a) Ist f (c) = 0, so ist f = (x − c)h für ein eindeutiges h ∈ L[x].
(b) Ist f 6= 0 und f (c) = 0, so gibt es eindeutig bestimmte m ∈ N
und h ∈ L[x], sodass f = (x−c)m h, wobei h ∈ L[x] und h(c) 6= 0
ist.
Beweis. (a): Division mit Rest 12.5 liefert in L[x] eine Darstellung
f = (x − c)h + r,
wobei Grad r < Grad(x − c) = 1 ist, also ist r ∈ L ein konstantes
Polynom. Wegen 0 = f (c) = 0 · h(c) + r ist r = 0 und f = (x − c)h
ist die gewünschte Darstellung. Die Eindeutigkeit von h ergibt sich aus
der Eindeutigkeitsaussage für die Terme in der Division mit Rest.
(b): Folgt durch Iteration von (a).
95
Lemma 12.10. Seien K ⊆ L Körper und sei 0 6= f ∈ K[x]. Sei-
en c1 , . . . , cr die paarweise verschiedenen Nullstellen von f in L mit
Vielfachheiten m1 , . . . , mr . Dann gibt es ein g ∈ L[x], sodass gilt
Yr
f= (x − cj )mj g,
j=1
wobei g(cj ) 6= 0 für j = 1, . . . , r ist; weiter ist r ≤ rj=1 mj ≤ Grad(f ).
P
Insbesondere hat f höchstens Grad(f ) viele verschiedene Nullstellen.
• Seien f, g ∈ K[x], sodass f (c) = g(c) für unendlich viele c ∈ K. Dann
ist f = g.
Beweis. Nach Lemma 12.9(b) ist f = (x − c1 )m1 h für ein m1 ≥ 1, h ∈
L[x] und h(c1 ) 6= 0, d.h. die Behauptung gilt für r = 1. Im allgemeinen
Fall schreibe f wie oben als f = (x − c1 )m1 h. Da c2 , . . . , cr Nullstellen
von f sind folgt h(cj ) = 0 für alle j = 2, . . . , r und nach Induktion gilt
Yr
h= (x − cj )mj g,
j=2
wobei mj ≥ 1 und g(cj ) 6= 0 für j = 2, . . . , r ist. Also ist
r
Y Yr
m1 m1 mj
f = (x − c1 ) h = (x − c1 ) (x − cj ) g = (x − cj )mj g,
j=2 j=1
wobei g(c1 ) 6= 0, da h(c1 ) 6= 0. Aus dieser Darstellung ergibt sich sofort
Xr
Grad(f ) ≥ mj ≥ r.
j=1
Wir geben ein einfaches Kriterium zur Bestimmung der Vielfachheit
einer Nullstelle eines Polynoms.
Definition 12.11. Die 1. Ableitung von f = nj=0 aj xj ∈ K[x] ist
P
n
X
0 (1)
f =f = jaj xj−1 ;
j=1
die höheren Ableitungen f (k) für k ≥ 2 sind rekursiv definiert durch
0
f (k) = (f (k−1) ) .
0 0
• (f + g) = f 0 + g 0 und (f g) = f 0 g + f g 0 .
• Ist Grad(f ) = n, so ist Grad(f 0 ) = n − 1 falls char(K) - n, und
Grad(f 0 ) ≤ n − 1 falls char(K)|n.
96
Lemma 12.12. Sei f ∈ K[x] mit Grad(f ) ≥ 1 und c ∈ K. Für m ≥ 1
sei char(K) = 0 oder char(K) > m. Dann sind gleichwertig:
(a) c eine m-fache Nullstelle von f ,
(b) f (c) = f 0 (c) = · · · = f (m−1) (c) = 0 und f (m) (c) 6= 0 (f = f (0) ).
Beweis. Übung.
Beispiele 12.13. (a) Für eine ganze Zahl m ≥ 1 betrachte das Po-
lynom f = xm − a ∈ K[x] mit 0 6= a ∈ K, wobei char(K) = 0.
Sei L ein Körper, K ⊆ L, sodass cm √ = a für ein c ∈ L (zum Bei-
spiel a = 2, m = 2, K = Q und c = 2 ∈ L = C). Dann ist f (c) = 0
aber f 0 (c) = mcm−1 6= 0 (Angenommen mcm−1 = 0. Wegen m ≥ 1 ist
dann cm−1 = 0, also ist 0 = c · cm−1 = cm = a, Widerspruch). Somit ist
c eine einfache Nullstelle (d.h. c hat Vielfachheit m = 1) und f hat in
keinem Erweiterungskörper L von K mehrfachen Nullstellen.
(b) Sei K ein Körper mit char(K) = p > 0 und f = xp − a ∈ K[x].
Es ist f 0 = pxp−1 = 0. Wegen char(K) = p gilt xp − cp = (x − c)p .
Für eine Nullstelle c von f in einem Körper L, K ⊆ L, gilt somit
0 = xp − cp = (x − c)p , d.h. c eine p-fache Nullstelle von f .
Definition 12.14. Seien K ⊆ L Körper und f ∈ K[x]. Das Polynom
f zerfällt über L, falls es a, c1 , . . . , cn ∈ L gibt, sodass in L[x] gilt
n
Y
f = a (x − cj ).
j=1
Ein Körper K ist algebraisch abgeschlossen, falls jedes f ∈ K[x] mit
Grad(f ) ≥ 1 in K einen Nullstelle hat (also über K zerfällt).
Bemerkungen 12.15. (a) Der sogenannte Fundamentalsatz der Al-
gebra (der weder fundamental noch ein Satz der Algebra ist) besagt,
dass jedes f ∈ C[x] mit Grad(f ) ≥ 1 in C einen Nullstelle besitzt, also
ist C algebraisch abgeschlossen. Inbesondere gilt: Sind K ⊆ C Körper
und ist f ∈ K[x], so liegen alle Nullstellen von f in C.
(b) Da x2 + 1 ∈ R[x] keine reelle Nullstelle hat, ist R nicht algebraisch
abgeschlossen.
(c) Sei K ein endlicher Körper mit |K| = q = pn . Dann gilt cq = c für
alle c ∈ K, also hat f = xq − x + 1 ∈ K[x] keine Nullstelle in K und
K ist nicht algebraisch abgeschlossen.
(d) Ein Satz der Algebra besagt, dass es zu jedem Körper K einen
algebraisch abgeschlossenen Körper L mit K ⊆ L gibt.
97
13. Ringe und Ideale
Wir betrachten Unter- und Quotientenstrukturen von Ringen.
Definition 13.1. Seien R, S Ringe. Ist f : R → S ein Ringhomomor-
phismus, so sind Kern und Bild von f definiert als die Mengen
ker(f ) = {r ∈ R | f (r) = 0} ⊆ R und im(f ) = {f (r) | r ∈ R} ⊆ S.
NB. Für einen Gruppenhomomorphismus f : G → H sind ker(f ) ⊆ G
und im(f ) ⊆ H Untergruppen. Im Fall eines Ringhomomorphismus
f : R → S ist im(f ) ⊆ S ein Unterrring (d.h. die Einschränkung von
+ und · in S auf im(f ) definiert eine Ringstruktur), insbesondere ist
1S ∈ im(f ). Aber für S 6= {0} ist ker(f ) ⊆ R kein Ring: Ist S 6= {0},
so ist 1S 6= 0S und wegen f (1R ) = 1S 6= 0S ist 1R ∈
/ ker(f ).
• Für einen Ringhomomorphismus f : R → S gilt trivialerweise
x1 , x2 ∈ ker(f ) ⇒ x1 + x2 ∈ ker(f ).
Ist x ∈ ker(f ) und sind r1 , r2 ∈ R, so folgt wegen
f (r1 xr2 ) = f (r1 )f (x)f (r2 ) = f (r1 ) · 0 · f (r2 ) = 0
weiter r1 xr2 ∈ ker(f ). Dies führt uns zu dem Begriff eines Ideals.
Definition 13.2. Sei R ein Ring. Eine Teilmenge I ⊆ R ist ein (2-
seitiges) Ideal, falls I eine Untergruppe der additiven Gruppe von R
ist, und weiter gilt: x ∈ I, r1 , r2 ∈ R ⇒ r1 xr2 ∈ I.
• In jedem Ring R sind I = {0} und I = R Ideale.
• Der Kern eines Ringhomomorphismus ist ein Ideal.
• Ist I ⊆ R ein Ideal mit 1 ∈ I, so ist I = R.
• Ist R kommutativ, so ist r1 xr2 = r1 r2 x = xr1 r2 und eine additive
Untergruppe I ⊆ R ist ein Ideal genau dann, wenn gilt
x ∈ I, r ∈ R ⇒ rx ∈ I (oder gleichwertig xr ∈ I).
• Ist R ein Ring und sind I, J ⊆ R Ideale, so sind auch
I ∩ J = {x | x ∈ I und x ∈ J},
I + J = {x
P+m y | x ∈ I, y ∈ J},
IJ = { i=1 xi yi | xi =∈ I, yi ∈ J, m = 1, 2, . . . }
Ideale in R.
• Die Bildung von Summen und Produkten von Idealen ist assoziativ
und distributiv, zum Beispiel ist I1 (I2 + I3 ) = I1 I2 + I1 I3 . Weiter gilt
I + I = I, RI = I = IR, und IJ ⊆ I ∩ J.
98
Beispiele 13.3. (a) Sei R = Z. Die Mengen mZ = {mk |k ∈ Z} ⊆ Z
(m ∈ Z) sind additive Untergruppen und wegen n ∈ Z, mx ∈ mZ ⇒
nmx ∈ mZ Ideale in Z. Wir zeigen: Jedes Ideal I ⊆ Z hat die Form
I = mZ für ein m ∈ Z. Sei H ⊆ Z eine additive Untergruppe. Ist
H = {0}, so ist H = 0Z. Ist H 6= 0, also enthält H positive Elemente
(ist 0 6= n ∈ H, so ist auch −n ∈ H). Sei m das kleinste positive Ele-
ment in H. Dann ist mZ ⊆ H, da H ⊆ Z eine additive Untergruppe
ist. Ist a ∈ H, so liefert Division mit Rest a = qm + r mit 0 ≤ r < m.
Somit ist r = a − qm ∈ H, und Minimalität von m liefert r = 0, also
ist a = qm ∈ mZ und mZ = H. Also sind die additiven Untergruppen
von Z genau die mZ, jedes solche mZ definiert ein Ideal und jedes Ideal
I ⊆ Z hat die Form I = mZ = {mk | k ∈ Z}, wobei für I 6= {0} das
Element m (der Erzeuger) das minimale positive Element in I ist.
(b) Sei R = K[x] der Polynomring über einem Körper. Nach Propo-
sition 12.5 gibt es in k[x] ‘Division mit Rest’ und analog zu (a) folgt,
dass jedes Ideal I ⊆ K[x] die Form f K[x] = {f g | g ∈ K[x]} hat,
wobei für I 6= {0} das Element (der Erzeuger) f ∈ I ⊆ K[x] ein Po-
lynom in I von minimalem Grad ist. Ist c ∈ K, so ist auch cf ∈ I,
wobei f und cf denselben Grad haben; √ damit ist oBdA f normiert.
√
Sei konkret α 2 : Q[x] → R, g 7→ g( 2) der Einsetzungshomomor-
√
phismus und I = ker(α√2 ). Für f = x2 − 2 ∈ Q[x] ist f ( 2) = 0, d.h.
I 6= {0}.
√ Angenommen
√ es gibt ein 0 6= f ∈ I vom Grad 1, f = a1 x + a0
mit f ( 2) = √ a1 2 + a0 = 0. Ist a1 = 0, so ist f = a0 konstant und
wegen 0 = f ( 2) = a0 folgt f = 0, Widerspruch. Ist a1 6= 0, so ist
√
2 = (−a0 )/a1 ∈ Q, Widerspruch. Also hat f = x2 − 2 ∈ I minimalen
Grad und I = ker(α√2 ) = (x2 − 2)Q[x] = {(x2 − 2)g | g ∈ Q[x]}.
(c) Sei R = Z[x] der Polynomring über Z, (x) = xR ⊆ R das von x
erzeugte Ideal (Polynome mit konstantem Term 0), und (2) = 2R ⊆ R
das von 2 erzeugte Ideal (Polynome mit geraden Koeffizienten). Sei
Xn
(2, x) = { aj xj | a0 ist gerade} ⊆ R.
j=0
Dann definiert (2, x) ein Ideal, das nicht aus den Vielfachen eines ein-
zigen Elements besteht, siehe Übung.
Lemma 13.4. Sei R ein Ring und sei I ⊆ R ein Ideal. Dann gilt:
(a) Die Menge R/I = {r + I | r ∈ R} ist mittels der Operationen
(r1 + I) + (r2 + I) = r1 + r2 + I,
(r1 + I) · (r2 + I) = r1 r2 + I
ein Ring mit Nullelement 0 + I und Einselement 1 + I.
99
(b) Die Abbildung f : R → R/I, r 7→ r + I ist ein Epimorphismus
von Ringen mit ker(f ) = I.
• Ist I ein Ideal in R, und sind r1 , r2 ∈ R, so schreibe
r1 ≡ r2 (mod I) ⇔ r1 − r2 ∈ I
• Nach Konstruktion gilt: R kommutativ ⇒ R/I kommutativ.
Beweis. (a): Nach Definition ist I ⊆ R eine Untergruppe der (abel-
schen) additiven Gruppe R. Die oben definierte Addition in R/I ist
genau die Addition in der additiven Faktorgruppe R/I und damit wohl-
definiert. Es genügt zu zeigen, dass die Multiplikation (r1 +I)·(r1 +I) =
r1 r2 +I wohl-definiert ist (alle Verträglichkeitseigenschaften übertragen
sich dann aus den entsprechenden Eigenschaften in R). Sei also ri +I =
ri0 + I für i = 1, 2. Dann ist ri − ri0 ∈ I und da I ⊆ R ein Ideal ist folgt
r1 r2 − r10 r20 = r1 r2 − r1 r20 + r1 r20 − r10 r20 = r1 (r2 − r20 ) + (r1 − r10 )r20 ∈ I,
d.h. r1 r2 + I = r10 r20 + I.
(b): Trivial.
Damit folgt analog zu Vektorräume (vgl. Theorem 5.10) und Grup-
pen (vgl. Theorem 9.6) der Homomorphiesatz für Ringe:
Theorem 13.5. (Homomorphiesatz) Sei f : R → S ein Homomor-
phismus von Ringen. Dann ist ker(f ) ⊆ R ein Ideal. Sei π : R →
R/ ker(f ), r 7→ r + ker(f ) der kanonische Epimorphismus. Dann gibt
es einen Monomorphismus h : R/ ker(f ) → S, sodass f = h ◦ π. Ins-
besondere ist R/ ker(f ) ∼
= im(f ).
Beweis. Nachrechnen zeigt, dass die offensichtliche Abbildung
h : R/ ker(f ) → S, r + ker(f ) 7→ f (s)
wohl-definiert ist und die gewünschten Eigenschaften hat.
Beispiele 13.6. (a) Ist R = Z, und ist I ⊆ R ein Ideal, so ist nach
Beispiel 13.3(a) I = mZ für ein m ∈ Z. Der Faktorring R/I ist die
additive Gruppe Z/mZ, zusammen mit der von der Multiplikation auf
Z induzierten Multiplikation (r + mZ) · (s + mZ) = rs + mZ.
(b) Sei K ein Körper und R = K[x]. Ist 0 6= f ∈ K[x] ein Po-
lynom, so defniert I = f K[x] ⊆ R ein Ideal und der Faktorring
R/I ist definiert. Mittels der evidenten Abbildungen K → K[x] →
K[x]/f K[x] ist R/I = K[x]/f K[x] eine K-Algebra, also insbesondere
ein K-Vektorraum. Wir zeigen: Ist n = Grad(f ), so bildet die Menge
{xj + I | j = 0, 1, . . . , n − 1} ⊆ R/I eine K-Basis des K-Vektorraums
R/I = K[x]/f K[x], d.h. dimK R/I = dimK K[x]/f K[x] = n.
100
Ist g ∈ K[x], so ist nach Division mit Rest g = f h + r mit Grad(r) <
Grad(f ). Also gilt in R/I stets g + I = r + I, und R/I wird von den
{xj +I | j = 0, . . . , n−1} erzeugt. Für lineare Unabhängigkeit betrachte
n−1
X n−1
X n−1
X
j j
0= cj (x + I) = cj x + I ⇒ cj xj = f h für ein h ∈ K[x].
j=0 j=0 j=0
Ist h 6= 0, so folgt aus der obigen Gleichung (über einem Körper gilt
die Identität Grad(f h) = Grad(f ) + Grad(h)) die Ungleichung
Xn−1
n − 1 ≥ Grad( ci xi ) = Grad(f ) + Grad(h) = n + Grad(h),
i=0
Widerspruch. Also ist h = 0 und damit c0 = c1 = · · · = cn−1 = 0, d.h.
die {xj + I | j = 0, . . . , n − 1} sind linear unabhängig.
(c) Sei K = Q und f = x2 − 2 ∈ Q[x] wie in Beispiel 13.6(b). Aus (c)
folgt, dass der Faktorring Q[x]/f Q[x] ein Q-Vektorraum der Dimension
2 mit Basis {1+f Q[x], x+f Q[x]} ist. Der Einsetzungshomomorphismus
√
α = α√2 : Q[x] → R, g 7→ g( 2)
indduziert nach dem Homomorphiesatz 13.5 einen Ringisomorphismus
∼
=
√
α : Q[x]/f Q[x] → im(α√2 ) = Q( 2), g + f Q[x] 7→ α(g);
insbesondere ist der Faktorring Q[x]/f Q[x] ein Körper. Die Abbildung
α ist Q-linear (da α ein Ringhomomorphismus und für g = c ∈ Q ein
konstantes Polynom α(c) = c ist) und bildet √ die Q-Basis √{1+f Q[x], x+
f Q[x]} von Q[x]/f Q[x] auf die Q-Basis {1, 2} von Q( 2) ab, d.h. α
ist ein Isomorphismus von Q-Vektorräumen.
(d) Sei K n×n der Ring der n × n-Matrizen mit Einträgen in einem
Körper K und 0 6= I ⊆ K n×n ein Ideal. Sei {Eij | i, j = 1, . . . , n} ⊆
K n×n diePK-Standardbasis von K n×n , sodass Eij Ekl = δjk Eil gilt, und
n
sei 0 6= i,j=1 αij Eij ∈ I ein Element mit αst 6= 0. Für Ekl beliebig ist
Eks αst Esl = αst Eks Esl = αst Ekl .
Da I ein Ideal ist liegen alles Basiselemente Ekl und damit auch alle
K-Linearkombinationen dieser Basiselemente in I, d.h. I = K n×n .
Proposition 13.7. (Chinesischer Restsatz) Sei R ein kommutativer
Ring und seien Ij ⊆ R, j = 1, . . . , n Ideale mit Ii + Ij = R für i 6= j.
(a) Für s, t ∈ N und i 6= j gilt Iit + Ijs = R.
(b) Es ist R = I1 · · · In−1 + In und I1 · · · In = I1 ∩ · · · ∩ In .
(c) Seien rj ∈ R, j = 1, . . . , n beliebig vorgegeben. Dann gibt es ein
r ∈ R mit r ≡ rj (mod Ij ) für j = 1, 2, . . . , n.
101
Beweis. Übung.
Sind R1 , . . . , Rn (kommutative)
QnRinge, so bildet das kartesische Pro-
dukt (die Menge aller n-Tupel) i=1 Ri = R1 × · · · × Rn mittels kom-
ponentenweiser Addition und Multiplikation wieder einen (kommuta-
tiven) Ring. Aus dem Chinesischen Restsatz folgt:
Korollar 13.8. Sei R ein kommutativer Ring, und seien I1 , . . . , In
Ideale in R, sodass Ii + Ij = R für i 6= j. Dann ist die Abbildung
n
Y
f :R→ R/Ii , r 7→ (r + I1 , . . . , r + In )
i=1
ein surjektiver Ringhomomorphismus mit ker(f ) = ∩ni=1 Ii . Insbesonde-
re ist R/ ∩i=1 Ii ∼
n n
Q
= i=1 R/Ii .
Beispiel 13.9. Sei R = Z und seien m1 , . . . mn ∈ Z paarweise tei-
lerfremde ganze Zahlen. Betrachte die Ideale Ij = mj Z ⊆ Z. Division
mit Rest liefert für i 6= j ganze Zahlen xi , xj ∈ Z mit xi mi + xj mj = 1
(Übung). Also gilt Ii +Ij = Z für i 6= j. Der Chinesische Restsatz zeigt,
dass es für vorgegebene rj ∈ Z, j = 1, · · · , n ein r ∈ Z gibt, sodass
r ≡ rj (mod Ij ) = rj (mod mj Z), j = 1, . . . , n.
Die Abbildungen Z → Z/mj Z, r 7→ r + mj Z definieren einen Epimor-
phismus f : Z → Z/m1 Z × · · · × Z/mr Z mit ker(f ) = ∩rj=1 mj Z, sodass
Z/(∩nj=1 mj Z) ∼= Z/m1 Z × · · · Z/mn Z. Insbesondere gilt: Ist m ≥ 2 und
k1
ist m = p1 · · · pknn die Faktorisierung in Primzahlpotenzen, so ist
Z/mZ ∼ = Z/pk1 Z × · · · × Z/pkn Z.
1 n
Für n ≥ 2 ist Z/mZ kein Körper (da (1, 0) · (0, 1) = (0, 0) ist).
14. Artithmetik in Integritätsbereichen
Der Ring der ganzen Zahlen Z hat die folgende Eigenschaften:
• Z hat keine nicht-trivialen Nullteiler, d.h. aus mn = 0, m, n ∈ Z
folgt stets m = 0 oder n = 0.
• Jedes Element 0 6= n ∈ Z hat eine Primfaktorenzerlegung, d.h.
n = epn1 1 · · · pnr r , pi Primzahl , e ∈ {−1, 1}, ni ∈ N;
diese Zerlegung ist eindeutig (bis auf Reihenfolge und ±1).
• Jedes Ideal I ⊆ Z hat die Form I = mZ für ein m ∈ Z, d.h. jedes
Ideal wird von einem einzigen Element erzeugt.
• In Z gibt es ‘Division mit Rest’: Sind n, m ∈ Z, m 6= 0, so gibt
es q, r ∈ Z mit n = qm + r und r = 0 oder r < m.
102
Wir studieren Verallgemeinerungen dieser Begriffe für generelle (kom-
mutative) Ringe. Insbesondere entwickeln wir die grundlegenden Be-
griffe der Arithmetik in den Ringen Z und K[x], die wir später zu einer
genaueren Untersuchung von linearen Abbildungen benötigen.
Definition 14.1. Sei R ein kommutativer Ring. Sind x, y ∈ R so ist y
ein Teiler von x (oder y teilt x), falls es ein r ∈ R mit x = ry gibt; in
diesem Fall schreibe y|x.
(1) Ein Element x ∈ R ist ein Nullteiler, falls es ein y ∈ R \ {0}
mit xy = 0 gibt. Der Ring R ist ein Integritätsbereich, falls R
keine nicht-trivialen Nullteiler hat, d.h. aus xy = 0 folgt stets
x = 0 oder y = 0.
(2) Ein Element x ∈ R ist eine Einheit falls x|1 gilt (d.h. es gibt
ein y ∈ R mit xy = 1). Die Menge der Einheiten von R bildet
bzgl. der Multiplikation in R eine abelsche Gruppe R× .
(3) Ein Element 0 6= p ∈ R \ R× ist irreduzibel, falls aus p = xy
mit x, y ∈ R stets x ∈ R× oder y ∈ R× folgt.
Beispiele 14.2. (a) Der Ring R = Z ist ein Integritätsbereich; weiter
ist R× = {−1, 1} und die irreduziblen Elemente von R sind genau die
Elemente der Form ±p, wobei p ∈ N eine Primzahl ist.
(b) Sei K ein Körper. Für x, y ∈ K, x 6= 0 mit xy = 0 ist y =
−1
x
Pnxy =i y0 =P 0, also sind alle Körper Integritätsbereiche. Sind f =
m i
a
i=0 i x , g = j=0 bj x ∈ K[x] mit an 6= 0 6= bm , so ist auch an bm 6= 0
und es gilt Grad(f g) = Grad(f ) + Grad(g). Damit sind alle Poly-
nomringePüber einem Körper Integritätsbereiche: Für f, g ∈ K[x] mit
0 6= f = ni=0 an xn und f g = 0 folgt n + Grad(g) = −∞, sodass g = 0
sein muss. Der gleiche Beweis zeigt: Für jeden Integritätsbereich R ist
auch der Polynomring R[x] ein Integritätsbereich.
(c) Sei R ein Integritätsbereich und R[x] der Polynomring über R.
Offensichtlich ist R× ⊆ R[x]× . Ist e ∈ R[x]× , d.h. ee0 = 1 für ein
e0 ∈ R[x]× , so liefert Gradvergleich 0 = Grad(1) = Grad(e) + Grad(e0 ),
also ist 0 = Grad(e) und e = a0 ∈ R[x] \ {0} ist ein nicht-triviales
konstantes Polynom. Es folgt R[x]× = R× . Die linearen Polynome
f = a1 x + a0 ∈ R[x] sind irreduzibel. Ist R = K ein nicht algebra-
isch abgeschlossener Körper, so gibt es irreduzible Polynome f ∈ K[x]
vom Grad(f ) > 1; zum Beispiel, im Fall K = Q sind die Polynome
f = xp−1 + xp−2 + · · · + x + 1 ∈ Q[x], p Primzahl, irreduzibel.
(d) Die Ringe Z/mZ und Z/mZ[x] für m ≥ 2 sind genau dann Inte-
gritätsbereiche, wenn m eine Primzahl ist.
Definition 14.3. Sei R ein Integritätsbereich.
103
(1) Sei 0 6= x ∈ R. Eine Zerlegung von x in irreduzible Elemente
(oder Primzerlegung) ist eine Darstellung von x als ein Produkt
x = ep1 · · · pn ,
wobei die pi (nicht unbedingt verschiedene) irreduzible Elemen-
te und e eine Einheit ist. Eine solche Darstellung ist eindeutig,
falls sie sich bis auf Anordnung nur durch Einheiten unterschei-
det, d.h. falls aus
x = ep1 . . . pn = e0 q1 · · · qm ,
stets n = m und (nach eventueller Umordnung) ui pi = qi mit
ui ∈ R× , i = 1, . . . , n folgt. Ein Ring R ist faktoriell, falls jedes
Element 0 6= x ∈ R eine eindeutige Primzerlegung hat.
(2) Ein Ideal I ⊆ R ist ein Hauptideal, falls es von einem Element
erzeugt wird, d.h. I = xR = {xr | r ∈ R}. Ein Ring R ist ein
Hauptidealring, falls jedes Ideal I ⊆ R ein Hauptideal ist.
(3) Ein Ring R ist ein euklidischer Ring, falls es eine Abbildung
φ : R \ {0} → N0 gibt, sodass gilt: Seien x, y ∈ R mit y 6= 0.
Dann gibt es q, r ∈ R mit x = qy+r mit r = 0 oder φ(r) < φ(y).
Wir zeigen:
R euklidischer Ring ⇒ R Hauptidealring ⇒ R faktoriell.
Lemma 14.4. Jeder euklidische Ring ist ein Hauptidealring.
Beweis. (Vgl. Beispiel 13.3(a),(b)) Sei 0 6= I ⊆ R ein Ideal. Wähle
0 6= y ∈ I mit φ(y) minimal. Ist x ∈ I, so gibt es nach Annahme
q, r ∈ R mit x = qy + r, wobei r = 0 oder φ(r) < φ(y) gilt. Wegen
r = x − qy ∈ I folgt aus der Minimalität von φ(y) dann r = 0, also ist
x = qy und I = yR.
Beispiele 14.5. (a) Der Ring R = Z ist ein euklidischer Ring mittels
der Abbildung ‘Absolutbetrag’ φ(m) = |m|, also auch ein Hauptideal-
ring, vgl. Beispiel 13.3(a).
(b) Sei R = K[x] der Polynomring über einem Körper. Dann ist R ein
euklidischer Ring bzgl. der Abbildung φ(f ) = Grad(f ), siehe Lemma
12.5, und damit auch ein Hauptidealring, vgl. Beispiel 13.3(b).
(c) Der Ring R = Z[x] ist kein Hauptidealring, siehe Beispiel 13.3(c).
(d) Die Gausschen Zahlen Z[i] = {a + bi | a, b ∈ Z} ⊆ C sind ein Ring
bzgl. der Addition und Multiplikation von komplexen Zahlen, d.h. ein
Unterrring von C, und damit ein Integritätsbereich. Die Gausschen
Zahlen sind bzgl. der übliche Norm kompexer Zahlen φ : Z[i] \ {0} →
104
N0 , a + bi 7→ a2 + b2 ein euklidischer Ring (und nach den obigen Im-
plikation Hauptidealring und faktoriell), siehe Übung.
√
(e) Wie in (d) ist R = {a+b −5 | a, b ∈ Z} ⊆ C ein Unterring und√da-
her ein Integritätsbereich.
√ Es gilt: R× = {±1}, weiter sind
√ 3, 2 +√ −5
2
und 2− 5 irreduzible Elemente in R. Wegen 3 = (2+ −5)(2− −5)
ist der Ring R nicht faktoriell.
Definition 14.6. Sei R ein Integritätsbereich und x1 , . . . , xn ∈ R. Ein
Element 0 6= d ∈ R ist ein grösster gemeinsamer Teiler von x1 , . . . , xn ,
d = ggT (x1 , . . . , xn ), falls (a) d|xi für i = 1, . . . , n, und (b) ist 0 6= c ∈ R
mit c|xi für i = 1, . . . , n, so gilt c|d.
• Seien d, d0 grösste gemeinsame Teiler von x1 , . . . , xn . Dann gilt d|d0
und d0 |d, d.h. es gibt s, t ∈ R mit d = sd0 und d0 = td. Also ist d = std
und da R ein Integritätsbereich ist folgt aus d(1 − st) = 0, d 6= 0
dann st = 1; somit sind s, t ∈ R× . Umgekehrt gilt: Ist d ein grösster
gemeinsamer Teiler von x1 , . . . xn und ist e ∈ R× , so ist auch ed ein
grösster gemeinsamer Teiler von x1 , . . . , xn . Insbesondere sind grösste
gemeinsamer Teiler nur bis auf Einheiten eindeutig bestimmt.
Lemma 14.7. Sei P R ein Hauptidealring. Für Elemente x1 , . . . xn ∈ R
sei (x1 , . . . , xn ) = { ni=0 ri xi | ri ∈ R} ⊆ R das von x1 , . . . , xn erzeugte
Ideal und (x1 , . . . , xn ) = dR = (d). Dann ist d = ggT (x1 , . . . , xn );
insbesondere exisiert ggT (x1 , . . . , xn ) ∈ R.
Beweis. Wir beweisen nur den Fall n = 2, der allgemeine Fall folgt
ähnlich. Sei also (x1 , x2 ) = (d). Da x1 ∈ (d) ist, gibt es ein r1 ∈ R mit
x1 = r1 d, d.h. d|x1 ; genauso folgt d|x2 . Angenommen c teilt x1 und c
teilt x2 . Dann gibt es s1 , s2 ∈ R mit x1 = s1 c und x2 = s2 c. Wegen
d ∈ (x1 , x2 ) gibt es weiter t1 , t2 ∈ R mit d = t1 x1 + t2 x2 . Damit folgt
d = t1 x1 + t2 x2 = t1 s1 c + t2 s2 c = (t1 s1 + t2 s2 )c,
d.h. c|d, und somit d = ggT (x1 , x2 ).
Lemma 14.8. Sei R ein Hauptidealring und p ∈ R ein irreduzibles
Element. Sind x1 , x2 ∈ R mit p|x1 x2 , so gilt p|x1 oder p|x2 .
Beweis. Sei p - x1 . Nach Lemma 14.7 existiert d = ggt(p, x1 ) ∈ R.
Angenommen d = ggT (p, x1 ) ∈ / R× . Da d|p und d|x1 gibt es s, t ∈ R
mit p = sd und x1 = td. Wegen p = sd mit p irreduzibel und d ∈ / R×
× −1 −1
ist dann s ∈ R , sodass d = s p. Es folgt x1 = td = ts p, ein
Widerspruch zu p - x1 . Also ist d ∈ R× und wegen R = (d) = (p, x1 )
gibt es a, b ∈ R mit 1 = ap + bx1 . Es folgt x2 = 1 · x2 = apx2 + bx1 x2 ,
und wegen p|x1 x2 gilt dann auch p|x2 .
Proposition 14.9. Jeder Hauptidealring ist faktoriell.
105
Beweis. (Skizze) Sei R ein Hauptidealring. Betrachte die Menge
S = {0 6= I ⊆ R | I = (x), x hat keine Primzerlegung}.
Angenommen S 6= ∅ (d.h. es gibt ein Element 0 6= x ∈ R, dass keine
Primzerlegung hat). Sei (x1 ) ∈ S. Für eine Kette von Idealen in S
(x1 ) ( (x2 ) ( · · · ( (xi ) ( · · ·
ist die Vereinigung ∪i (xi ) dieser Ideale wieder ein Ideal, und damit ein
Hauptideal, d.h. ∪i (xi ) = (s) für ein s ∈ R. Weiter gibt es ein n, so-
dass s ∈ (xn ) gilt. Dann ist (s) ⊆ (xn ) und da die umgekehrte Inklusion
trivialerweise gilt folgt (xn ) = (s), d.h. die Kette endet an der Stelle
(xn ) = (s) und hat ein maximales Element (s). Ist s irreduzibel, so hat
s eine Primzerlegung (s = 1s), Widerspruch zu (s) ∈ S. Also gibt es
a, b ∈ R \ R× mit s = ab. Hier gilt (s) ( (a) (Klar ist (s) ⊆ (a). Ist
(a) ⊆ (s), so ist a = cs für ein c ∈ R und damit a = cs = cab, d.h.
a(1 − cb) = 0 und da R Integritätsbereich und a 6= 0 ist folgt 1 = cb,
Widerspruch zu b ∈ / R× ). Genauso ist (s) ( (b). Da (s) maximal ist
haben dann a und b Primzerlegungen, und damit auch s = ab, Wider-
spruch. Also ist S = ∅ und jedes 0 6= x ∈ R hat eine Primzerlegung.
Wir beweisen die Eindeutigkeit der Primzerlegung durch Induktion
nach der Anzahl der auftrenden irreduziblen Faktoren n in einer Zer-
legung von 0 6= x ∈ R. Ist n = 0, so ist x eine Einheit. Wäre x = ep
eine weitere Primzerlegung mit p irreduzibel, so ist p Teiler einer Ein-
heit und damit selbst eine Einheit, Widerspruch. Sei nun n ≥ 1 und
seien 0 6= x = p1 · · · pn = q1 · · · qm , m ≥ n zwei Primzerlegungen von
x. Wegen p1 |q1 · · · qm teilt p1 einen der Faktoren von q1 · · · qm ; oBdA
p1 |q1 . Dann ist q1 = e1 p1 für ein e1 ∈ R und da q1 irreduzibel ist folgt
e1 ∈ R× . Nach ‘Kürzen von p1 ’ (ist ab = ac so folgt a(b − c) = 0 und in
einem Integritätsbereich im Fall a 6= 0 dann b − c = 0, d.h. b = c), ist
p2 · · · pm = e1 q2 · · · qm = q20 q3 · · · qm , m ≥ n,
und die Behauptung folgt mit Induktion.
15. Charakteristisches Polynom und Eigenwerte
Jeder Endomorphismus eines endlich-dimensionalen Vektorraums ist
nach Wahl einer Basis durch eine Matrix beschrieben. Wir versuchen
die ‘einfachste’ mögliche Form einer solchen Matrix zu bestimmen.
Sei V ein K-Vektorraum endlicher Dimension dimK V = n und
A : V → V ein Endomorphismus. Gibt es eine Basis B = {v1 , . . . , vn }
von V , sodass die Matrix von A bzgl. B Diagonalform hat (d.h. die
einzigen nicht-trivialen Einträge liegen auf der Diagonalen), so heisst
A diagonalisierbar. Die dabei auftretenden Diagonaleinträge sind die
106
Eigenwerte von A; die Frage nach der Diagonalisierbarkeit eines Endo-
morphismus lässt sich auf die Existenz von Eigenwerten mit bestimm-
ten Eigenschaften zurückführen.
Definition 15.1. Sei V ein K-Vektorraum, A ∈ EndK (V ) ein Endo-
morphismus. Ein Skalar α ∈ K ist ein Eigenwert von A, falls es einen
nicht-trivialen Vektor 0 6= v ∈ V mit Av = αv gibt; in diesem Fall ist
v ein Eigenvektor zum Eigenwert α. Das Spektrum σ(A) von A ist die
Menge aller Eigenwerte.
NB. Sei dimK V = n. Ist v ein Eigenvektor zu einem Eigenwert α von
A, so ist v 6= 0 und die Menge {v} ⊆ V lässt sich zu einer Basis von
V ergänzen, in der oBdA v an der ersten Stelle steht. Die Bedingung
Av = αv besagt dann, dass bzgl. dieser Basis in der ersten Spalte der
entsprechende Matrix der Vektor (α, 0, . . . , 0)t steht.
Lemma 15.2. Sei V ein K-Vektorraum und A ∈ EndK (V ). Sind
v1 , . . . , vr Eigenvektoren zu verschiedenen Eigenwerten α1 , . . . , αr von
A, so sind v1 , . . . , vr linear unabhängig.
• A ∈ EndK (V ) hat maximal dimK V -viele verschiedene Eigenwerte.
Beweis. Induktion nach r. Ist r = 1, so ist nach Definition der Eigen-
vektor v1 zum Eigenwert α1 nicht-trivial und damit linear unabhängig.
Sei also r > 1 und seien v1 , . . . , vr Eigenvektoren Pr zu verschiedenen Ei-
genwerten α1 , . . . , αr . Für β1 , . . . , βr ∈ K mit i=1 βi vi = 0 ist dann
Xr r
X t
X r
X
0 = A(0) = A( βi vi ) = βi A(vi ) = βi αi vi = αi βi vi .
i=1 i=1 i=1 i=1
Wegen 0 = α1 · 0 = α1 ( ri=1 βi vi ) = ri=1 α1 βi vi folgt für die Differenz
P P
X r
(αi − α1 )βi vi = 0.
i=2
Nach Induktion sind v2 , . . . , vr linear unabhängig. Wegen (αi − α1 )βi =
0 und αi − α1 6= 0 für i = 2, . . . , r folgt zunächst β2 = · · · = βr = 0,
und dann auch β1 = 0 (da β1 v1 = 0 mit 0 6= v1 ist).
Sei α ein Eigenwert von A ∈ EndK (V ) und E = idV ∈ EndK (V ).
Dann definiert αE − A : V → V einen Endomorphismus und der Kern
ker(αE − A) = {v ∈ V | Av = αv} ⊆ V
ist ein linearer Unterraum. Nach Definition von Eigenwerten gibt es
einen Eigenvektor 0 6= v mit Av = αv, d.h. ker(αE − A) 6= {0}. Da
Av = αv für jedes v ∈ ker(αE − A) gilt dies insbesondere für jedes
Element einer (beliebigen) Basis {v1 , . . . , vr } von ker(αE − A). Für
107
die Einschränkung A|ker(αE−A) : ker(αE − A) → ker(αE − A) ist die
Matrix bzgl. einer beliebigen Basis eine Diagonalmatrix mit α in der
Diagonalen. Da {v1 , . . . , vr } zu einer Basis von V ergänzt werden kann,
hat bzgl. einer solchen Basis (mit v1 , . . . , vr an den ersten r-Stellen)
die Matrix A von A einer r × r-Untermatrix ‘oben links’ mit nur α in
der Diagonalen. Der Endomorphismus A ist ‘diagonalisierbar’, wenn es
‘genügend viele genügend grosse’ Unterräume dieser Art gibt.
Wir präzisieren dies wie folgt:
Definition 15.3. Sei V ein K-Vektorraum und A ∈ EndK (V ).
(1) Sei α ∈ σ(A). Der Eigenraum von A zu α ist der Unterraum
V (α) = ker(αE −A) = {v ∈ V | Av = αv} ⊆ V , wobei E = idV
die Identitätsabbildung ist.
(2) Ist dimK V = n < ∞, so ist der Endomorphismus A (über dem
Körper K) diagonalisierbar, falls es Eigenwerte α1 , . . . , αr von
A gibt, sodass für die entsprechenden Eigenräume gilt
V = ⊕ri=1 V (αi ).
• Sind α, α0 ∈ σ(A) verschiedene Eigenwerte, so ist V (α) ∩ V (α0 ) = {0}
(da A eine Abbildung
P ist). Für verschiedene Eigenwerte α1 , . . . , αr ist
daher die Summe ri=1 V (αi ) ⊆ V der Unterräume V (αi ) eine direkte
Summe ⊕ri=1 V (αi ) ⊆ V . Beliebige Basen von V (α1 ), . . . , V (αr ) lassen
sich zu einer Basis von ⊕ri=1 V (αi ) zusammenfassen; bzgl. dieser Basis
hat nach Konstruktion die Einschränkung von A auf ⊕ri=1 V (αi ) eine
Matrix in Diagonalform, die auftretenden Diagonalelemente sind genau
die αi mit Vielfachheit ni = dimK V (αi ).
• Ist A diagonalisierbar, d.h. V = ⊕ri=1 V (αi ) (und n = ri=1 ni ), so
P
sind die V (αi ) die Eigenräume aller verschiedenen Eigenwerten von
A (nach Lemma 15.2 sind Eigenvektoren zu verschiedenen Eigenwer-
ten linear unabhängig und A ist diagonalisierbar bedeutet es gibt eine
Basis aus solchen Eigenvektoren. Da eine Basis eine maximale linear
unabhängige Menge muss eine solche Basis aus den Eigenvektoren aller
verschiedenen Eigenwerten von A bestehen).
• Ist dimK V = n, so hat A ∈ EndK (V ) maximal n verschiedene Ei-
genwerte; gibt es n verschiedenen Eigenwerte, so ist A diagonalisierbar.
Beispiele 15.4. (a) Sei K = R oder C und sei V = K 2 mit Basis
{v1 , v2 }. Definiere A ∈ EndK (V ) durch die Zuordnungen Av1 = v2 und
Av2 = −v1 . Bzgl. der gegebenen Basis {v1 , v2 } hat A dann die Matrix
0 −1
1 0
108
Sei α ∈ K ein Eigenwert von A mit Eigenvektor 0 6= v ∈ V . Wegen
A2 = −E ist dann −v = −Ev = A2 v = A(αv) = α2 v, also ist α2 = −1.
Im Fall K = R existieren damit keine Eigenwerte. Im Fall K = C ist
σ(A) = {−i, i} und da die Eigenvektoren zu verschiedenen Eigenwerten
linear unabhängig sind ist V = V (−i)⊕V (i) und A ist diagonalisierbar.
Direktes Nachrechnen zeigt
A(v1 + iv2 ) = −i(v1 + iv2 ) und A(v1 − iv2 ) = i(v1 − iv2 ).
Also ist {v1 + iv2 } eine Basis von V (−i), {v1 − iv2 } ist eine Basis von
V (i) und {v1 + iv2 , v1 − iv2 } ist eine Basis von V bzgl. der A (über
K = C) diagonalisierbar ist.
(b) Sei K = R und V = K 2 . Die Abbildung A in Beispiel (a) entspricht
geometrisch einer Drehung um π/2 (da A die Basisvektoren (1, 0) und
(0, 1) auf (0, 1) und (−1, 0) abbildet). Sei allgemein A = D(φ) eine Dre-
hung in V um den Winkel φ. Ein Eigenvektor eines Endomorphismus
A ist ein Vektor, der auf ein Skalarvielfaches von sich selbst abgebildet
wird. Da eine Drehung offenbar die Länge eines Vektors erhält kann
das entsprechende Skalar nur ±1 sein, und für φ 6= 0, π, 2π hat A keine
(reellen) Eigenwerte.
(c) Sei K ein Körper, V = K[x] und A ∈ EndK (V ) definiert durch
A : f 7→ xf . Angenommen σ(A) 6= ∅ d.h. es gibt ein α ∈ K sowie ein
0 6= f ∈ V = K[x] mit Af = αf , also xf = αf . Gradvergleich liefert
1 + Grad(f ) = Grad(xf ) = Grad(αf ) = Grad(f ), was nur für f = 0
gilt; Widersspruch. Also hat A keine Eigenwerte.
Ein Endomorphismus ist diagonalisierbar, wenn es genügend viele
Eigenwerte mit hinreichend grossen Eigenräumen gibt. Wir zeigen, dass
die Eigenwerte genau die Nullstellen eines Polynoms sind.
Definition 15.5. Sei V ein K-Vektorraum mit dimK V = n und sei
A ∈ EndK (V ) ein Endomorphismus. Ist A ∈ K n×n die Matrix von A
bzgl. einer Basis von V und E = En ∈ K n×n die Einheitsmatrix, so ist
fA = det(xE − A) ∈ K[x]
das charakteristische Polynom von A.
NB. Die Matrix xE − A definiert ein Element von K[x]n×n und die
Determinante einer solchen Matrix ist ein Element von K[x]. Konkret
ist fA ein Polynom mit führendem Koeffizienten xn (d.h. fA is normiert
vom Grad n) und konstantem Term (−1)n det(A). Zum Beispiel:
109
α11 α12
Sei A = ∈ K 2×2 . Aus den Definitionen ergibt sich
α21 α22
x 0 α11 α12 x − α11 −α12
xE − A = − =
0 x α21 α22 −α21 x − α22
und
fA = det(xE − A) = x2 − (α11 + α22 )x + α11 α22 − α12 α21 ∈ K[x].
• Sei A bzgl. zwei verschiedener Basen von V durch die Matrizen A1
und A2 dargestellt. Dann sind die Matrizen A1 und A2 ähnlich und
es gibt eine invertierbare Matrix T mit A2 = T −1 A1 T . Dabei gilt die
Identität T −1 (xE − A1 )T = T −1 (xE)T − T −1 (A1 )T = xE − A2 und es
ist
det(xE − A1 ) = = det(T −1 )det(xE − A1 )det(T )
= det(T −1 (xE − A1 )T )
= det(xE − A2 ).
Somit ist das charakteristische Polynom wohl-definiert, d.h. unabhängig
von der Wahl einer Basis und der entsprechenden Matrix.
• Ist A = (αij ) ∈ K n×n die Matrix von A bzgl. einer Basis, so ist
fA = xn − T r(A)xn−1 + · · · + (−1)n det(A),
wobei T r(A) = ni=1 αii die Spur von A ist. Dabei gilt: Ähliche Matri-
P
zen haben die gleiche Spur.
Proposition 15.6. Sei dimK V = n und A ∈ EndK (V ). Dann gilt
α ∈ K ist Eigenwert von A ⇔ fA (α) = 0.
Beweis. Nach Definition ist α ∈ K genau dann ein Eigenwert von A,
wenn V (α) = ker(αE − A) 6= 0 ist. Wegen dimK V = n gilt dies
genau dann, wenn αE − A kein Isomorphismus ist. Ist A die Matrix
von A (bzgl. einer beliebigen Basis), so ist αE − A genau dann kein
Isomorphismus, wenn αE − A nicht invertierbar ist. Nach Theorem
10.13(c) ist dies gleichwertig zu det(αE − A) = 0, d.h. fA (α) = 0.
Beispiele 15.7. (a) Sei K = R oder C und V = K 2 mit Basis {v1 , v2 }.
Sei A ∈ EndK (V ) mit Av1 = v2 und Av2 = −v1 wie in Beispiel 15.4(a).
Sei A die Matrix von A bzgl. {v1 , v2 }. Dann ist
x 1
fA = det(xE − A) = det = x2 + 1.
−1 x
Für K = R hat A keine Eigenwerte; ist K = C, so ist σ(A) = {−i, i}.
110
(b) Sei V = R3 und A ∈ EndK (V ) bzgl. der Standardbasis durch
5 −6 −6
A = −1 4 2
3 −6 −4
gegeben. Für das charakteristische Polynom fA = det(xE − A) gilt
x−5 6 6
fA = det 1 x − 4 −2 = x3 − 5x2 + 8x − 4 = (x − 1)(x − 2)2
−3 6 x+4
und nach Proposition 15.6 hat A genau die Eigenwerte 1 und 2.
(c) Ist K = R und ist n = dimK V ungerade, so hat jedes A ∈ EndK (V )
Eigenwerte: Nach Annahme ist n = Grad(fA ) ungerade, somit gilt
lim f (x) = ∞ und lim fA (x) = −∞.
x→∞ x→−∞
Da jedes Polynom eine stetige Funktion ist folgt mit dem Zwischen-
wertsatz, dass fA eine Nullstelle hat.
(d) Ist K ein algebraisch abgeschlossener Körper (wie zum Beispiel
K = C), so zerfällt jedes Polynom über K in Linearfaktoren und alle
Nullstellen liegen in K. Inbesondere hat jeder Endomorphismus eines
endlich-dimensionalen K-Vektorraums V 6= {0} Eigenwerte.
Definition 15.8. Sei dimK V = n, A ∈ EndK (V ) und α ∈ σ(A). Die
Vielfachheit v(A, α) von α ist die Vielfachheit von α als Nullstelle des
charakteristischen Polynoms fA , d.h. ist fA = (x − α)m g mit g ∈ K[x]
und g(α) 6= 0, so ist v(A, α) = m ≥ 1.
Lemma 15.9. Sei dimK V = n und A ∈ EndK (V ). Ist α ∈ σ(A) ein
Eigenwert von A mit Vielfachheit v(A, α), so gilt
1 ≤ dimK V (α) ≤ v(A, α) ≤ n.
Beweis. Übung.
Proposition 15.10. Sei dimK V = n und A ∈ EndK (V ). Dann sind
gleichwertig:
(a) A ist diagonalisierbar,
(b) fA = ri=1 (x − αi )ni ∈ K[x], wobei die αi die verschiedenen
Q
Eigenwerte von A und dimK V (αi ) = v(A, αi ) = ni ist.
• Ist α ein Eigenwert von A, so wird die Dimension des Eigenraums
V (α) bzw. die Vielfachheit v(A, α) von α als Nullstelle von fA oft auch
geometrische bzw. algebraische Vielfachheit von α bezeichnet. Nach
Lemma 15.9 ist die geometrische Vielfachheit stets kleiner als die al-
gebraische Vielfachheit und nach Proposition 15.10 ist A genau dann
111
diagonalisierbar, wenn für jeden Eigenwert geometrische und algebrai-
sche Vielfachheit übereinstimmen.
Beweis. (a)⇒(b): Ist A diagionalisierbar, so gilt V = ⊕ri=1 V (αi ), wobei
α1 , . . . , αr die verschiedenen Eigenwerte von A sind. Nach Proposition
15.6 sind die Eigenwerte αi genau die Nullstellen von fA ; sei ni die
Vielfachheit von αi als Nullstelle von fA . Damit hat fA die Form
Yr
fA = (x − αi )ni , ni ∈ N.
i=1
Ist A die Diagonalmatrix von A, so tritt in A jedes αi genau ni -mal in
der Diagonalen auf und die Matrix αi E − A hat mindestens ni viele
triviale Spalten. Also ist dimK V (αi ) = dimK ker(αi E −A) ≥ ni . Wegen
r
X r
X
n= dimK V (αi ) ≥ ni = Grad(fA ) = n
i=1 i=1
folgt dann dimK V (αi ) = ni für alle i.
(b)⇒(a): Sei fA = ri=1 (x − αi )ni mit α1 , . . . , αr die verschiedenen
Q
Eigenwerte von A und dimK V (αi ) = v(A, αi ) = ni für i =P1, . . . , r.
Für den Unterraum U = ⊕ri=1 V (αi ) ⊆ V ist dann dimK U = ri=1 ni =
Grad(fA ) = n, also gilt U = ⊕ri=1 V (αi ) = V .
Beispiele 15.11. (a) In Beispiel 15.7(b) ist fA = (x − 1)(x − 2)2 . Für
den Eigenwert 2 ist dimK V (2) = dimK ker(2E − A) die Dimension des
Kerns der linearen Abbildung, die bzgl. der Standardbasis durch
−3 6 6
1 −2 −2
−3 6 6
beschrieben ist. Da die obige Matrix offensichtlich Spaltenrang 1 hat ist
dimK im(2E − A) = 1 und damit dimK V (2) = dimK ker(2E − A) = 2.
Weiter ist dimK V (1) = 1 (klar ist dimK V (1) ≥ 1; wegen V (2)⊕V (1) ⊆
V = R3 und dimK V (2) = 2 ist dimK V (1) ≤ 1. Nach Proposition 15.10
ist A diagonalisierbar.
(b) Sei V = K 2 und A ∈ EndK (V ) die lineare Abbildung, die auf der
Standardbasis {e1 , e2 } durch Ae1 = 0 und Ae2 = e1 definiert ist. Die
Matrix von A bzgl. der Standardbasis ist
0 1
A= .
0 0
Weiter ist fA = x2 ∈ K[x], also ist 0 der einzige Eigenwert von A mit
Vielfachheit 2. Der entsprechende Eigenraum V (0) = ker(0E − A) =
112
ker(A) hat offensichtlich Dimension 1, also ist wegen dimK V (0) = 1 <
2 = v(A, 0) die Abbildung A nach Proposition 15.10 nicht diagona-
lisierbar. Gleichwertig (und einfacher): Ist A diagonalisierbar, so ist
A ähnlich zur Null-Matrix 0 und beide Matrizen haben den gleichen
Spaltenrang. Wegen 1 = r(A) 6= r(0) = 0 kann dies nicht gelten.
Sei V ein n-dimensionaler K-Vektorraum und A ∈ EndK (V ). Nach
Beispiel 12.7(b) definiert ‘Einsetzen’ einen Homomorphismus von K-
Algebren αA : K[x] → EndK (V ), f 7→ f (A), (mit A0 = IdV = E).
Da dimK EndK (V ) = n2 sind die n2 + 1-vielen linearen Abbildungen
2
E, A, A2 , . . . , An linear abhängig, d.h. es gibt Skalare ci ∈ K, sodass
n 2
X
ci Ai = 0, nicht alle ci = 0.
i=0
P 2
Diese Skalare ci definieren ein Polynom 0 6= f = ni=0 ci xi ∈ K[x] mit
P 2
der Eigenschaft, dass αA (f ) = f (A) = ni=0 ci Ai = 0 ist.
Ist A die Matrix von A bzgl. einer fest gewaḧlten Basis von V , so ist
EndK (V ) → K n×n , A 7→ A
ein Isomorphismus von K-Algebren (siehe Bemerkung vor Definition
6.14). Mittels dieses Isomorphismus lässt sich ‘Einsetzen’ als ein Ho-
momorphismus von K-Algebren αA : K[x] → EndK (V ) ∼ = K n×n , f 7→
f (A) interpretieren; es gilt f (A) = 0 ⇔ f (A) = 0.
Da αA ein Ringhomomorphismus mit αA (f ) = 0 für ein 0 6= f ∈ K[x]
ist definiert I = ker(αA ) ⊆ K[x] ein nicht-triviales Ideal. Nach Beispiel
13.3(b) ist I ein Hauptideal, also ist 0 6= I = gK[x] = (g) für ein
g ∈ K[x] mit g 6= 0. Dabei ist der Erzeuger g nicht eindeutig bestimmt,
aber es für ein Polynom 0 6= g und eine Konstante 0 6= c ∈ K gilt
stets (cg) = (g). Somit können wir durch Multiplikation mit Elemente
aus K den Erzeuger g normieren ohne das Ideal I zu verändern, und
damit einen Erzeuger eindeutig bestimmen. Dieses normierte Polynom
0 6= g ist eindeutig durch die folgenden zwei Eigenschaften bestimmt:
(a) g(A) = 0, und (b) f ∈ K[x] mit f (A) = 0 ⇒ f ∈ (g), d.h.
f = hg für ein h ∈ K[x]; das Polynom g ist das Minimalpolynom des
Endomorphismus A.
Definition 15.12. Sei V ein endlich-dimensionaler K-Vektorraum,
A ∈ EndK (V ) und αA : K[x] → EndK (V ), f 7→ f (A) der Einsez-
tungshomomorphismus. Das Minimalpolynom mA von A ist das nor-
mierte Polynom 0 6= mA ∈ K[x] mit (mA ) = ker(αA ); insbesondere gilt
mA (A) = 0.
113
Theorem 15.13. (Caley-Hamilton) Sei V ein n-dimensionaler K-
Vektorraum und sei A ∈ EndK (V ) mit charakteristischem Polynom
fA und Minimalpolynom mA . Dann gilt
(a) fA (A) = 0,
(b) mA ist ein Teiler von fA (d.h. Grad(mA ) ≤ Grad(fA ) = n),
(c) α ∈ σ(A) ⇔ mA (α) = 0,
(d) Hat A n verschiedene Eigenwerte, so ist mA = fA .
NB. Sei A die Matrix von A bzgl. einer Basis von V . Dann ist fA (A) =
0 ⇔ fA (A) = 0 und fundamental im Beweis von Theorem 15.13 ist die
Aussage, dass fA (A) = 0 ist. Dabei ist der “offensichtliche Beweis”
fA (A) = det(AE − A) = det(0) = 0
ist falsch, da das ‘Einsetzen’ einer Matrix in fA und in det(xE − A)
zwei verschiedene Dinge sind. Zum Beispiel: Sei V = R2 mit der Stan-
dardbasis. Ist A = 0 die Nullabbildung, so ist A die Nullmatrix und
2
fA = x2 ; offensichtlich gilt fA (A) = A = 0. Ist B ∈ EndR (V ) die
2
Projektion (a1 , a2 ) 7→ (a1 , 0), so ist B 2 = B, und damit auch B = B.
2
Also ist fA (B) = B = B 6= 0, aber det(BE − A) = det(B) = 0.
Beweis. (a): Sei A ∈ K n×n die Matrix von A bzgl. einer Basis. Wir
zeigen fA (A) = 0. Setze B = xE − A, sodass fA = det(xE − A) =
det(B). Sei Be die zu B adjunkte Matrix von 10.12, deren Einträge
n − 1 × n − 1-Unterdeterminanten sind. Nach Theorem 10.13(a) ist
e = det(B)E = det(xE − A)E = fA E,
BB
wobei fA E die n × n-Diagonalmatrix mit den Diagonaleinträgen fA
e Polynome in x vom Grad ≤ n − 1
bezeichnet. Da die Einträge in B
sind hat die Matrix B
e eine Darstellung als formale Linearkombination
n−1
X
B
e= Ci xi , Ci ∈ K n×n .
i=0
Pn
Sei fA = i=0 ai xi (mit an = 1). Wegen fA E = B B
e gilt die Identität
(a0 + a1 x + · · · + xn )E = (xE − A)(C0 + C1 x + · · · + Cn−1 xn−1 ),
114
die wir als eine Gleicheit von zwei Polynomen in x mit Koeffizienten in
K n×n interpretieren. Ein Koeffizientenvergleich ergibt die Relationen
a0 E = −AC0
a1 E = C0 − AC1
· ·
· ·
an−1 E = Cn−2 − ACn−1
E = Cn−1
Es ist
n n
X i X i
fA (A) = ai A = A (ai E),
i=0 i=0
und Ersetzen der ai E durch die obigen Ausdrücke liefert die Summe
fA (A) = −AC0 + A(C0 − AC1 ) + · · ·
n−1 n
· · · + A (Cn−2 − ACn−1 ) + A Cn−1 = 0.
(b): Nach (a) gilt fA (A) = 0, d.h. fA ist im Kern des Einsetzungshomo-
morphismus K[x] → EndK (V ), A 7→ f (A). Nach Definition ist mA der
normierte Erzeuger dieses Kerns, also ist fA = gmA für ein g ∈ k[x].
(c): Sei α ein Eigenwert von A mit Eigenvektor v. Ist mA = b0 + b1 x +
· · · + xk , bi ∈ K, das Minimalpolynom von A, so ist mA (A) = 0 und
Xn k
X k
X
i i
0 = mA (A)v = ( bi A )v = bi (α v) = ( bi αi )v = mA (α)v.
i=0 i=0 i=0
Wegen 0 6= v folgt mA (α) = 0.
(d): Nach (b) ist Grad(mA ) ≤ Grad(fA ) = n. Hat A n verschiedene
Eigenwerte, so folgt aus (c) Grad(mA ) = n und damit mA = fA .
Beispiele 15.14. (a) Sei V = R2 und seiA ∈ EndR (V ) bzgl. der
2 1
Standardbasen durch die Matrix A = gegeben. Dann ist
1 2
x − 2 −1
fA = det = (x − 2)2 − 1 = (x − 1)(x − 3)
−1 x − 2
und wegen mA |fA ist das Minimalpolynom mA von A eines der Polyno-
me x − 1, x − 3, oder x2 − 4x + 3. Da alle Eigenwerte von A Nullstellen
von mA sind folgt mA = fA ; gleichwertig, da A zwei verschiedene Null-
stellen hat ist mA = fA .
115
(b) Sei V = R3 und sei A ∈ EndR (V ) bzgl. der Standardbasen durch
−2 1 1
A = 1 −2 1
1 1 −2
gegeben. Dann ist das charakteristische Polynom fA = x(x+3)2 . Wegen
6 −3 −3
2
A = −3 6 −3 = −3A
−3 −3 6
gilt für f = x2 + 3x = x(x + 3) dann f (A) = 0 und mA |f . Da jeder
Eigenwert von A eine Nullstelle von mA ist kann mA kein Polynom vom
Grad 1 sein; damit ist mA = x(x + 3) 6= x(x + 3)2 = fA .
Lemma 15.15. Sei V ein endlich-dimensionaler K-Vektorraum und
sei A ∈ EndK (V ). Ist das Minimalpolynom mA = g1 · · · gr ein Produkt
mit verschiedenen teilerfremden Faktoren gi ∈ K[x], i = 1, . . . , r, so ist
V = ⊕ri=1 ker(gi (A)).
Q
Beweis. Sei hi = j6=i gj ∈ k[x]. Nach Annahme ist ggT (h1 , . . . , hr ) =
1 in K[x], und nach Lemma 14.7 gibt es ki ∈ K[x], i = 1, . . . , r mit
r
X
1= ki hi .
i=1
Einsetzen von A liefert in EndK (VP) die Identität E = ri=1 ki (A)hi (A),
P
sodass für v ∈ V gilt: v = Ev = ri=1 ki (A)hi (A)v. Weiter ist wegen
Y
gi (ki hi ) = gi (ki gj ) = ki mA
j6=i
dann gi (A)(ki (A)hi (A)) = ki (A)mA (A) = 0, d.h. für jedes v ∈ V gilt
gi (A)((ki (A)hi (A))v = 0 oder (ki (A)hi (A))v ∈ ker(gi (A)). Es folgt
r
X r
X
v= ki (A)hi (A)v ∈ ker(gi (A)).
i=1 i=1
Dies zeigt V ⊆ ri=1P
P
ker(gi (A)); da die umgekehrte Inklusion trivialer-
weise gilt folgt V = ri=1 ker(gi (A)).
P
Sei U = ker(gi (A)) ∩ j6=i ker(gj (A)); wir zeigen U = 0. Für hi =
Q
j6=i gj wie oben ist gi (A)(U ) = 0 = hi (A)(U ). Da gi und hi teilerfremd
sind gibt es nach Lemma 14.7 Polynome si , ti ∈ K[x] mit si gi +ti hi = 1.
Damit ist si (A)gi (A) + ti (A)hi (A) = E in EndK (V ) und es folgt
U = E(U ) = (si (A)gi (A))(U ) + (ti (A)hi (A))(U ) = 0.
116
Theorem 15.16. Sei V ein n-dimensionaler K-Vektorraum und sei
A ∈ EndK (V ) ein Endomorphismus. Dann sind gleichwertig:
(a) A ist (über K) diagonalisierbar,
(b) mA = ri=1 (x − αj ) ∈ K[x] mit verschiedenen αi ∈ K (diese αi
Q
sind offenbar sämtliche Eigenwerte von A).
Beweis. (a)⇒(b): Ist A diagonalisierbar, so gibt es eine Zerlegung
V = ⊕ri=1 V (αi ) = ⊕ri=1 ker(αi E − A),
wobei die V (αi ) die Eigenräume
Qr zu den verschiedenen
Qr Eigenwerten αi
von A sind. Es folgt i=1 (A − αi ) = 0, sodass mA | i=1 (x − αi ). Nach
Theorem 15.13(c) ist jeder
Qr Eigenwert von A (über K) eine Nullstelle
von mA , also ist mA = i=1 (x − αi ).
(b)⇒(a): Sei mA = ri=1 (x−αi ) mit verschiedenen αi . Setze gi = x−αi ,
Q
sodass ker(gi (A)) = ker(A − αi E) = V (αi ) ist. Mit Lemma 15.15 folgt
V = ⊕ri=1 V (αi ).
Beispiele 15.17. (a) Die Endomorphismen A in den Beispielen 15.14(a)
und (b) haben Minimalpolynom mA = (x − 1)(x − 3) bzw. mA =
x(x + 3). Nach Theorem 15.16 sind diese A diagonalisierbar.
(b) Sei A der Endomorphismus von Beispiel 15.11(b). Wegen fA = x2
ist das Minimalpolynom mA eines der Polynome x oder x2 . Wegen
fA (A) = 0 und A 6= 0 folgt mA = x2 , insbesondere ist A nach Theorem
15.16 nicht diagonalisierbar.
16. Moduln über Hauptidealringen
Ein K-Vektorraum ist eine abelsche Gruppe V , auf der zusätzlich
eine Skalarmultiplikation mit Elementen aus dem Körper K definiert
ist, sodass gewisse Verträglichkeitsbedingungen gelten. Eine abelsche
Gruppe M , zusammen mit einer analogen Skalarmultiplikation, aber
mit Elemente aus einem Ring R anstelle eines Körpers ist ein R-
Modul. Wir untersuchen elementare Eigenschaften solcher R-Moduln,
und bestimmen die Struktur eines endlich erzeugten Moduls über einem
Hauptidealring. Dieser Struktursatz erlaubt es uns eine weitere kano-
nische Darstellung eines Endomorphismus als Matrix zu bestimmen,
die sogenannte Jordan-Normalform; diese ist die nach der Diagonali-
sierbarkeit bestmöglichste Darstellung.
117
Definition 16.1. Sei R ein Ring mit 1 (nicht unbedingt kommutativ).
Eine Menge M ist ein R-Modul (oder auch R-Linksmodul), falls es
eine Verknüpfung + : M × M → M, (m, m0 ) 7→ m + m0 und eine
Skalarmultiplikation · : R × M → M, (r, m) 7→ rm gibt, sodass gilt
(1) M ist bzgl. + eine abelsche Gruppe mit neutralem Element 0,
(2) (r1 + r2 )m = r1 m + r2 m und r(m1 + m2 ) = rm1 + rm2 ,
(3) (r1 r2 )m = r1 (r2 m),
(4) 1m = m.
Beispiele 16.2. (a) Ist R = K ein Körper, so sind die K-Moduln ge-
nau die K-Vektorräume; vgl. Definition 4.1.
(b) Jede abelsche Gruppe ist ein Z-Modul: Ist A bzgl. + eine abelsche
Gruppe, so definiert Z × A 7→ A, (m, a) 7→ a + · · · + a (m-fache Sum-
me) eine Z-Skalarmultiplikation. Es gilt: die Z-Moduln sind genau die
abelschen Gruppen.
(c) Jeder Ring R ist bzgl. der auf R gegebenen Multiplikation ein R-
Modul.
(d) Sei V ein K-Vektorraum und sei A ∈ EndK (V ) fest gewählt. Dann
definiert k[x] × V 7→ V, (f, v) 7→ f (A)v eine K[x]-Skalarmultiplikation
auf V (bzgl. A), d.h. der K-Vektorraum V ein auch ein K[x]-Modul.
Definition 16.3. Sei R ein Ring.
(1) Sei M ein R-Modul. Eine Menge N ⊆ M ist ein R-Untermodul,
falls N ≤ M eine abelsche Untergruppe ist, die bzgl. · abge-
schlossen ist, d.h. für r ∈ R und n ∈ N gilt rn ∈ N .
(2) Sei M ein R-Modul und N ⊆ M ein R-Untermodul. Die Fak-
torgruppe M/N = {m+N | m ∈ M } mit der üblichen Addition
(m1 + N ) + (m2 + N ) = m1 + m2 + N ist ein R-Modul mittels
r(m + N ) = rm + N ;
der R-Modul M/N ist der Faktor- oder Quotientenmodul.
(3) Seien M, N R-Moduln. Eine Abbildung f : M → N ist ein R-
Modulhomomorphismus (oder R-Homomorphismus), falls gilt:
(a) f (m + m0 ) = f (m) + f (m0 ),
(b) f (rm) = rf (m).
Die Menge aller R-Homomorphismen HomR (M, N ) ist eine abel-
sche Gruppe mittels (f1 + f2 )(m) = f1 (m) + f2 (m). Ist R ein
kommutativer Ring, so ist HomR (M, N ) ein R-Modul bzgl.
(rf )(m) = rf (m).
118
Ist f ∈ HomR (M, N ), so sind Kern und Bild von f , d.h.
ker(f ) = {m ∈ M | f (m) = 0},
im(f ) = {f (m) | m ∈ M }
wieder R-Moduln. Die Abbildung f ist ein Monomorphismus
falls ker(f ) = {0}, und ein Epimorphismus falls im(f ) = N ist.
Gilt beides, so ist f ein Isomorphismus.
(4) Sei M ein R-Modul. Ist N ⊆ MPeine Teilmenge, so ist der von
N erzeugte R-Modul hN i = { rj=1 rj nj | rj ∈ R, nj ∈ N };
dies ist der kleinste R-Untermodul von M , der die Menge N
enthält. Gilt M = hm1 , . . . , mn i, so ist M endlich erzeugt.
(5) Sei M einP R-Modul und Pseien Ni ⊆ M, i ∈ I, R-Untermoduln.
Dann ist i∈I Ni = { i∈I ni | ni ∈ Ni , endlich viele ni 6= 0}
die Summe der Ni ; dies ist ein R-Untermodul. Diese Summe ist
eine direkte Summe, ⊕i∈I Ni , falls jedesPElement eine eindeutige
Darstellung als eine endliche Summe ki=1 ni , ni ∈ Ni hat.
(6) Sind N1 , . . . , Nn R-Moduln (die nicht unbedingt R-Untermoduln
eines R-Moduls M sind), so ist die direkte Summe der Ni
⊕ni=1 Ni = N1 × · · · × Nn ,
mengentheoretisch das kartesische Produkt; ⊕i Ni ist ein R-
Modul mittels komponentenweiser Addition und Skalarmulti-
plikation. Der Spezialfall Ni = R für i = 1, . . . , n liefert den
freien R-Modul Rn = ⊕ni=1 R = R × · · · × R (n-faches Produkt).
• Mittels der obigen Definitionen lassen sich sofort alle Resultate für
Vektorräume und lineare Abbildungen übertragen, deren Beweis nur
die allgemeine algebraische Struktur einer Addition und Skalarmulti-
plikation verwendet (aber nicht, zum Beispiel, dass die Skalare aus ei-
nem Körper kommen, oder dass ein Vektorraum eine Basis besitzt).
Insbesondere gilt der Homomorphiesatz: Sind M, N R-Moduln und
f : M → N ein R-Homomorphismus, so ist M/ ker(f ) ∼ = im(f ).
Für einen Vektorraum V über einem Körper K gilt: Ist V endlich
erzeugt, so ist V ∼= K n für ein geeignetes n, wobei n die Dimension von
V ist. Weiter ist K n ∼= K m gleichwertig zu n = m, d.h. die Dimension
eines endlich erzeugtes Vektorraums bestimmt den Isomorphietyp.
Das Analogon zu dem K-Vektorraum K n für R-Moduln ist der freie
R-Modul Rn = ⊕ni=1 R. Ist ei = (0, . . . , 1, . . . , 0) ∈ Rn das Element mit
1 an der Stelle i und 0 sonst, so hat jedes Element x = (r1 , . . . , rn ) ∈ Rn
119
eine eindeutige Darstellung als eine Linearkombination
n
X
x= ri ei ,
i=1
d.h. die e1 , . . . , en bilden eine ‘R-Basis’ von Rn . Jedoch gilt für allge-
meine Ringe weder, dass jeder endlich erzeugte R-Modul M isomorph
zu Rn für ein geeignetes n ist, noch, dass für M ∼ = Rn die ganze Zahl
n den Isomorphietyp von M bestimmt.
Beispiele 16.4. (a) Die abelsche Gruppe M = Z/3Z ist nach 16.2(b)
ein Z-Modul. Dabei ist M trivialerweise endlich erzeugt, aber nicht
isomorph zu einer direkten Summe der Form Z ⊕ Z ⊕ · · · ⊕ Z (zum
Beispiel, da es bereits keine Bijektion zwischen diesen Mengen gibt).
(b) Es gibt (nicht-kommutative) Ringe mit der Eigenschaft, dass Rn ∼ =
m
R nicht unbedingt n = m impliziert (siehe Übung); inbesondere
macht der evidente Begriff der Dimension für einen allgemeinen (freien)
R-Modul keinen Sinn.
Wir zeigen im folgenden, dass für kommutative Ringe die zweite Pa-
thologie nicht auftritt, d.h. für einen kommutativen Ring R folgt aus
Rn ∼ = Rm stets n = m; insbesonder bestimmt für einen endlich erzeug-
ten freien R-Modul Rn die ganze Zahl n den Isomorphietyp.
Wir benötigen dazu ein weiteres Resultat aus der Ringtheorie; der
Beweis verwendet das ‘Lemma von Zorn’ (vgl. Bemerkung nach De-
finition 4.17), welches ein Kriterium für die Existenz von ‘maximalen
Elementen’ liefert. Genauer: Sei ∅ 6= S eine Menge, auf der eine Halb-
ordnung ≤ definiert ist, d.h. für alle s, s0 , s00 in S gilt
(i) s ≤ s (reflexiv),
(ii) s ≤ s0 und s0 ≤ s ⇒ s = s0 (antisymmetrisch),
(iii) s ≤ s0 und s0 ≤ s00 ⇒ s ≤ s00 (transitiv).
Zum Beispiel, ist P (M ) die Potenzmenge einer Menge M , d.h. die
Menge aller Teilmengen von M , so definiert die Inklusion ⊆ von Mengen
eine solche Halbordnung auf P (M ).
Ist M eine Menge mit einer Halbordnung ≤, so ist eine Teilmenge
K ⊆ M eine Kette von M , falls für k, k 0 ∈ K stets k ≤ k 0 oder
k 0 ≤ k gilt. Eine Kette K ist induktiv, falls es ein m ∈ M (aber nicht
unbedingt m ∈ K) mit der Eigenschaft k ≤ m für alle k ∈ K gibt. Wir
verwenden ohne Beweis:
Lemma von Zorn. Sei ∅ = 6 M eine Menge mit Halbordnung ≤. Ist jede
Kette in M induktiv, so gibt es ein maximales Element x ∈ M , d.h. aus
m ∈ M mit x ≤ m folgt m = x.
120
Lemma 16.5. Sei R ein Ring.
(a) Sei I ( R ein Ideal. Dann gibt es ein maximales Ideal M ( R
(d.h. M ( R ist ein Ideal und für jedes Ideal J ( R mit M ⊆
J ( R ist M = J), sodass I ⊆ M .
(b) Sei R kommutativ. Dann ist ein Ideal M ( R genau dann ma-
ximal, wenn R/M ein Körper ist.
Beweis. (a): Betrachte die Menge S = {J | J ( R Ideal mit I ⊆ J}.
Die Inklusion von Mengen ⊆ definiert eine Halbordnung auf S und ein
maximales Ideal M ( R mit I ⊆ M ist ein maximales Element von S
bzgl. der Inklusion ⊆. Damit genügt zu zeigen, dass S die Vorausset-
zungen für das Lemma von Zorn erfüllt. Wegen I ∈ S ist S 6= ∅. Sei
K ⊆ S eine Kette in S und s(K) = ∪{J | J ∈ K} ⊆ R. Offensichtlich
ist J ⊆ s(K) für alle J ∈ K. Wir zeigen: s(K) ∈ S.
Klar ist s(K) ( R (als Menge); damit ist zu zeigen, dass s(K) ( R
ein Ideal ist. Sind s, s0 ∈ s(K), so gibt es Ideale J, J 0 ∈ K mit s ∈ J
und s0 ∈ J 0 . Da K eine Kette ist gilt entweder J ⊆ J 0 oder J 0 ⊆ J; sei
oBdA J ⊆ J 0 . Dann ist s − s0 = s + (−s0 ) ∈ J + J 0 = J 0 ⊆ s(K), also ist
s(K) ≤ R eine (abelsche) Untergruppe. Ist s ∈ s(K), d.h. s ∈ J für ein
Ideal J ( R, so ist für r1 , r2 ∈ R auch r1 sr2 ∈ J. Es folgt r1 sr2 ∈ s(K),
d.h s(K) ( R ist ein Ideal.
(b): Siehe Übung.
Lemma 16.6. Sei R ein kommutativer Ring. Dann gilt:
Rn ∼
= Rm ⇔ n = m.
Beweis. Sei F = Rn , F 0 = Rm , und sei F ∼ = F 0 als R-Moduln. Nach
Lemma 16.5(a) gibt es in R ein maximales Ideal M ( R, und nach
Lemma 16.5(b) ist der Quotient k = R/M ein Körper. Die Teilmenge
M F = ⊕ni=1 M ⊆ ⊕ni=1 R = F ist ein R-Untermodul mit F/M F ∼ =
⊕ni=1 R/M ∼= ⊕ni=1 k = k n . Dasselbe Argument zeigt F 0 /M F 0 ∼
= km.
Wegen F ∼ = F 0 folgt k n ∼
= k m , und da dies ein Isomorphismus von
k-Vektoräumen ist, weiter n = m. Die Umkehrung ist trivial.
Definition 16.7. Sei R ein kommutativer Ring. Ist F = Rn ein (end-
lich erzeugter) freier R-Modul, so ist n = Rg(F ) der Rang von F .
• Der Rang Rg(F ) ist nach Lemma 16.6(b) wohl-definiert, und verall-
gemeinert den Dimensionsbegriff von Vektorräumen.
Wir betrachten im folgenden beliebige (nicht unbedingt endlich er-
zeugte) freie R-Moduln. Sei RI ∼
= ⊕i∈I Rei der freie R-Modul mit Er-
zeugenden {ei | i ∈ I}.
Lemma 16.8. Sei R ein Ring.
121
(a) Sei RI = ⊕i∈I Rei der freie R-Modul auf der Indexmenge I und
M ein beliebiger R-Modul. Für i ∈ I seien mi ∈ M beliebig
gegeben. Dann gibt es einen eindeutigen R-Homomorphismus
f : RI → M mit f (ei ) = mi .
(b) Sei F = RI ein freier R-Modul. Ist M ein beliebiger R-Modul
und f : M → F ein surjektiver R-Homomorphismus, so gibt es
einen R-linearen Isomorphismus M ∼ = ker(f ) ⊕ F .
Beweis. (a): Direktes Nachrechnen zeigt, dass die Zuordnung ei 7→ mi
einen eindeutigenP R-Homomorphismus bestimmt. Genauer,
P für ein be-
liebiges Element ki=1 ri ei ∈ RI setze f ( ki=1 ri ei ) = ki=1 ri mi . Die
P
so definierte Abbildung f ist offensichtlich additiv, und für r0 ∈ R ist
Xk k
X k
X Xk Xk
0 0 0 0 0
f (r · ri ei ) = f ( r ri ei ) = r ri mi = r · ri mi = r ·f ( ri ei ).
i=1 i=1 i=1 i=1 i=1
(b): Sei F = RI = ⊕i∈I Rei ein freier R-Modul und f : M → F
ein surjektiver R-Homomorphismus. Dann gibt es für jedes i ∈ I ein
Element mi ∈ M mit f (mi ) = ei . Sei N = hmi | i ∈ Ii ⊆ M der von
diesen mi erzeugte R-Untermodul. Nach (a) definiert die Abbildung
g : F → M, ei 7→ mi
einen R-Homomorphismus mit im(g) = N ⊆ M . Wegen (f ◦ g)(ei ) =
f (mi ) = ei ist g injektiv, sodass F ∼
= g(F ) = N ⊆ M als R-Untermodul.
Offensichtlich ist ker(F ) + N ⊆ M . Wir zeigen ker(f ) ⊕ N = M ; gilt
dies, so folgt die Behauptung ker(f ) ⊕ F ∼ = M . Für m ∈ M gibt es
eindeutig bestimmte ri ∈ R mit f (m) = ki=1 ri ei . Weiter definieren
P
diese ri ein eindeutiges Element n = ki=1 ri g(ei ) ∈ im(g) = N . Wegen
P
k
X k
X k
X k
X
f (m − n) = ri ei − ri (f ◦ g)(ei ) = ri ei − ri ei = 0,
i=1 i=1 i=1 i=1
folgt m − n = x ∈ ker(f ); dies verwendet f ◦ g = idF . Also ist m =
x + n ∈ ker(f ) + N und M ⊆ ker(f ) + N . Es bleibt zu zeigen: ker(f ) ∩
N = {0}. Für ein Element ki=1 ri mi ∈ ker(f ) ∩ N gilt
P
Xk k
X k
X
0 = f( ri mi ) = ri f (mi ) = ri ei ,
i=1 i=1 i=1
und weiter ri = 0 für i = 1, . . . , k, da F ein freier R-Modul ist. Also ist
ker(f ) ⊕ N = M .
122
Wir wollen die Struktur eines endlich erzeugte R-Moduln M über
einem Hauptidealring R bestimmen. Zum Beispiel, sei R = Z und sei
M = hm1 , . . . , mn i ein endlich erzeugter Z-Modul, wobei hm1 , . . . , mn i
ein minimales Erzeugendensystem ist. Nach Lemma 16.8(a) definiert
Θ = ⊕ni=1 Θi : ⊕ni=1 Zei → M, ei 7→ mi , i = 1, . . . , n
einen Z-Homomorphismus, der offensichtlich surjektiv ist, da alle Er-
zeuger mi von M im Bild von Θ liegen. Betrachte die i-te Komponente
Θi : Zei → M, ei 7→ mi .
Der Kern ker(Θi ) ⊆ Zei = Z ist ein Z-Untermodul, also eine (abelsche)
Untergruppe und hat damit die Form nZ für ein n ∈ N0 , siehe Beispiel
13.3(a). Aus dem Homomorphiesatz folgt im(Θi ) ∼ = Z/nZ, d.h. das
∼
Bild der i-ten Komponente ist Z/{0} = Z (falls n = 0) oder Z/nZ
(falls n ≥ 2); der Fall n = 1 mit Z/1Z = {0} tritt nicht auf, da in
einem minimalen Erzeugendensystem jeder Erzeuger mi 6= 0 ist.
Wir zeigen, dass Θ einen Isomorphismus
M∼ = [⊕k Z] ⊕ [⊕n
i=1 Z/ni Z]
i=k+1
induziert. Insbesondere besteht jeder endlich erzeugte Z-Modul M aus
einer ‘freien’ Komponente Zk (wobei eventuell k = 0 ist) und einer
endlichen ‘Torsionskomponente’ ⊕ni=k+1 Z/ni Z (im Fall k = n trivial).
Für eine ganze Zahl n ≥ 2 sei n = pn1 1 · · · pnl l die Primfaktorenzerle-
gung. Dann folgt mit dem Chinesischen Restsatz wie in Beispiel 13.9
Z/nZ ∼= Z/pn1 Z ⊕ · · · ⊕ Z/p l Z,
1 k
n
d.h. die Struktur einer ‘Torsionskomponente’ Z/nZ lässt sich weiter
analysieren.
Wir beginnen mit dem allgemeinen Fall:
Definition 16.9. Sei R ein Integritätsbereich und M ein R-Modul.
Ein Element m ∈ M ist ein Torsionselement, falls es ein 0 6= r ∈ R
mit rm = 0 gibt; setze T (M ) = {m ∈ M | m ist Torsionselement}. Ein
R-Modul M ist torsionsfrei, falls T (M ) = {0} ist.
• T (M ) ⊆ M ist ein R-Unternmodul.
• Der Faktormodul M/T (M ) ist torsionsfrei: Ist r(m+T (M )) = T (M )
für 0 6= r ∈ R und m ∈ M , so ist rm ∈ T (M ), d.h. es gibt ein
0 6= r0 ∈ R mit r0 rm = 0. Wegen 0 6= rr0 folgt m ∈ T (M ).
Beispiel 16.10. Ist M eine (additiv geschriebene) abelsche Gruppe,
so ist sind die Torsionselemente von M als Z-Modul genau diejenigen
Elemente m ∈ M , sodass nm = 0 für ein 0 6= n ∈ Z ist. Zum Beispiel,
T (Z/mZ) = Z/mZ, T (Z) = {0}, und T (Z ⊕ Z/m) = Z/mZ.
123
Proposition 16.11. Sei R ein Hauptidealring.
(a) Sei M ⊆ F = Rn ein R-Untermodul des freien R-Moduls F
vom Rang n. Dann ist M ∼ = Rk für ein k ≤ n.
(b) Sei M ein endlich erzeugter torsionsfreier R-Modul. Dann ist
M∼ = Rk für ein k ≥ 0.
(c) Sei M ein endlich erzeugter R-Modul. Dann ist M ∼= T (M )⊕F ,
wobei F ∼
= R k
für ein k ≥ 0 ist.
Beweis. (a): Induktion nach n. Für n = 1 ist ein R-Untermodul M ⊆
F = R ein Ideal in R. Da R ein Hauptidealring ist gibt es ein a ∈ R mit
M = (a) = Ra; also ist M ein freier R-Modul mit Erzeuger a vom Rang
0 (falls a = 0) oder Rang 1 (falls a 6= 0), d.h. die Behauptung gilt für
n = 1. Im Fall n > 1 seien e1 , . . . , en Erzeuger von F , d.h. F = ⊕ni=1 Rei .
Setze F 0 = Rn−1 = ⊕ni=2 Rei . Dann definiert die Projektion
n
X n
X
0
π:F →F , ri ei 7→ ri ei
i=1 i=2
einen surjektiven R-Homomorphismus mit Kern ker(π) = Re1 frei vom
Rang 1. Das Bild π(M ) von M ⊆ F unter π ist ein R-Untermodul
von F 0 . Nach Induktion ist π(M ) frei vom Rang ≤ n − 1. Nach Lem-
ma 16.8(b), angewandt auf π|M : M → π(M ), gibt es eine Zerlegung
M ∼ = ker(π|M ) ⊕ π(M ). Der R-Untermodul ker(πM )) ⊆ ker(π) = Re1
ist frei vom Rang ≤ 1, also ist M frei vom Rang ≤ n.
(b): Sei M = hm1 , . . . , mt i endlich erzeugt und torsionsfrei.
Pt Für jedes
i = 1, . . . , t ist der R-Untermodul Rmi ⊆ M frei und i=1 Rmi ⊆ M
ein R-Untermodul. Sei s ≥ 1 maximal, so dass bei geeigneter Numerie-
rung der Erzeuger von M der R-Untermodul von M
F = Rm1 ⊕ · · · ⊕ Rms = Rs
ein freier R-Modul ist. Für j > s gilt F ∩ Rmj 6= {0} und es gibt
0 6= rj ∈ R mit rj mj ∈ F . Da R ein Integritätsbereich ist ist das
Produkt r = rs+1 · · · rt 6= 0 und rmj ∈ F für alle j = 1, . . . , t, d.h. das r-
Vielfache aller Erzeuger von M liegt in F und rM ⊆ F . Nach (a) ist der
R-Untermodul rM ⊆ F isomorph zu Rk für ein k ≤ s. Die Abbildung
g : M → rM, m 7→ rm ist ein surjektiver R-Homomorphismus mit
ker(g) = {m ∈ M | rm = 0} ⊆ T (M ) = {0}. Also gilt M ∼ = rM ⊆ F
und M ist isomorph zu einem endlich erzeugten freien R-Modul.
(c): Für jeden R-Modul ist der Quotient M/T (M ) torsionsfrei. Ist M
endlich erzeugt ist, so ist auch M/T (M ) endlich erzeugt. Nach (b) ist
M/T (M ) ∼ = Rk für ein k ≥ 0. Nach Lemma 16.8(b), angewandt auf
124
die Quotientenabbildung M → M/T (M ) mit Kern T (M ) ist M ∼
=
T (M ) ⊕ Rk .
Beispiele 16.12. (a) Sei R = K[x, y] der Polynomring übern einem
Körper K in den Variablen x und y, aufgefasst als freier R-Modul
vom Rang 1. Das Ideal I = (x, y) = Rx + Ry ⊆ R definiert einen
R-Untermodul. Da das Ideal I weder von x noch von y erzeugt wird ist
{x, y} ein minimales Erzeugendensystem von I als R-Untermodul. An-
genommen I ⊆ R ist isomorph zu einem freien R-Modul. Dann bildet
{x, y} eine R-Basis und I ∼ = Rx ⊕ Ry. Wegen 0 6= yx = xy ∈ Rx ∩ Ry
ist dies ein Widerspruch.
(b) Betrachte die additive abelsche Gruppe Q als Z-Modul. Offen-
sichtlich ist T (Q) = {0}, d.h. der Z-Modul Q ist torsionsfrei. Ange-
nommen Q ist isomorph zu einem endlich erzeugten Z-Modul. Dann
ist nach Proposition 16.11(b) Q ∼ = Zk für ein k > 0. Die Abbildung
Q → Q, q 7→ 2q definiert einen surjektiven Z-Homomorphismus, aber
Zk → Zk , m 7→ 2m ist nicht surjektiv, Widerspruch. Also ist Q kein
endlich erzeugter Z-Modul. Das gleiche Argument zeigt, dass Q nicht
isomorph zu einem (nicht unbedingt endlich erzeugten) freien Z-Modul
sein kann.
(c) (Übung) Sei p eine Primzahl und Ai = Z/p2i Z für i ≥ 1. Dann ist
Y
A = {(a1 , a2 , . . . ) | ai ∈ Ai } = Ai
i≥1
ein Z-Modul bzgl. der komponentenweisen Addition; offensichtlich ist
der Z-Modul A nicht endlich erzeugt. Sei z = (pa1 , p2 a2 , . . . , pi ai , . . . ) ∈
A, wobei hai i = Ai ein Erzeuger ist. Zeigen Sie:
(i) z ∈ A \ T (A),
(ii) z ∈ pi A + T (A) für alle i ≥ 1.
Folgern Sie: T (A) ist kein direkter Summand von A.
Wir bestimmen für einen Modul M über einem Hauptidealring R
die Struktur des Torsionsanteils T (M ). Ist R = Z, d.h. M ist eine
abelsche Gruppe, so ist T (M ) = {m ∈ M | nm = 0 für ein n 6= 0}.
Dabei ist nm = 0 für 0 6= n ∈ Z und m ∈ M , falls m ein Element
endlicher Ordnung ist und diese Ordnung n teilt, insbesondere lässt
sich m als Element von Z/nZ interpretieren. Ist n = pn1 1 · · · pnr r die
Primfaktorenzerlegung von n, so folgt mit dem Chinesischen Restsatz
Z/nZ ∼= Z/pn1 1 Z ⊕ · · · ... ⊕ Z/pnr r Z. Das folgende Lemma gibt eine ana-
loge Zerlegung über einem allgemeinen Hauptidealring; dies verwendet,
dass ein Hauptidealring faktoriell ist, d.h. jedes 0 6= r ∈ R lässt sich
125
‘eindeutig’ (bis auf Reihenfolge und Einheiten) als ein Produkt einer
Einheit mit irreduziblen Elementen schreiben.
Lemma 16.13. Sei R ein Hauptidealring und M ein R-Modul.
(a) Sei p ein irreduzibles Element von R. Dann ist
Tp (M ) = {m ∈ M | pe m = 0 für ein e ∈ N0 }
ein R-Untermodul von T (M ). Es gilt T (M ) = ⊕p Tp (M ).
(b) Sei M endlich erzeugt. Dann gibt es ein 0 6= r ∈ R mit rM = 0.
Ist p ∈ R irreduzibel mit p - r, so ist Tp (M ) = 0; insbesondere
T (M ) = ⊕p|r Tp (M ).
Beweis. (a): Man rechnet nach, dass Tp (M ) ⊆ T (M ) ein R-Untermodul
von T (M ) und damit auch von M ist. Sei m ∈ M und 0 6= r ∈ R mit
rm = 0. Ist r ∈ R× , so ist m = r−1 rm = 0; sei daher 0 6= r ∈ R \ R× .
Nach Proposition 14.9 istQder Hauptidealring Q R faktoriell und r hat
m ni n
eine Primzerlegung r = i=1 pi ; setze ri = j6=i pj j . Dann ist 1 =
∈ R mit 1 = m
P
ggT (r1 , . . . , rm ) und nach Lemma 14.7 gibt es si P i=1 si ri .
m
Für m ∈ T (M ) mit rm = 0 ist so m = 1 · m = i=1 si ri m, wobei
pni i (si ri )m = si (pni i ri )m = si rm = 0
Pm
ist d.h. sPi ri m ∈ Tpi (M ). Dies zeigt rm ∈ i=1 Tpi (M ), und liefert
T (M ) ⊆ p Tp (M ). Da die umgekehrte Inklusion trivial ist folgt T (M ) =
P
p Tp (M ).P
Sei 0 = si=1 mi mit mi ∈ Tpi (M ) und ni ∈ N0 mit pni i mi = 0. Diese
irreduziblen Elemente pi definieren maximale Ideale (pi ) ⊆ R (in einem
Hauptidealring gilt: p ∈ R ist irreduzibel genau dann, wenn (p) ⊆ R ein
maximales Ideal ist; siehe Übung). Für i 6= j ist somit (pi ) + (pj ) = R
und nach dem Chinesischen Restsatz 13.7(c) gibt es tj ∈ R, sodass
( n
1(mod(pj j )),
tj ≡
0(mod(pni i )), i 6= j.
P
Es folgt 0 = tj ( i mi ) = tj mj = mj ; also gilt M = ⊕p Tp (M ).
(b): Sei T (M ) = hm1 , . . . , mn i endlich erzeugt, und ri mi = 0 für ein
0 6= ri ∈ R. Ist r = r1 · · · rn , so ist 0 6= r (da R ein Integritätsbereich ist)
und rM = 0 (da rmi = 0 für jeden Erzeuger mi ). Sei p ∈ R irreduzibel
mit p - r; wir zeigen Tp (M ) = 0. Für m ∈ Tp (M ) mit pn m = 0 ist
ggT (r, pn ) = 1 und nach Lemma 14.7 gibt es s, t ∈ R mit 1 = sr + tpn .
Es folgt m = srm + tpn m = 0, damit ist Tp (M ) = 0 für p - r.
126
Sei R ein Hauptidealring und M ein endlich erzeugter R-Modul.
Nach Proposition 16.11 gibt es eine Zerlegung
M∼
= T (M ) ⊕ Rk
und nach Lemma 16.13(b) gibt es ein 0 6= r ∈ R mit rT (M ) = 0 und
T (M ) = ⊕p|r Tp (M ).
Wir bestimmen die Struktur der in der letzten Zerlegung auftretenden
(endlich vielen) p-Torsionsmoduln Tp (M ).
Lemma 16.14. Sei R ein Hauptidealring, p ∈ R ein irreduzibles Ele-
ment und Tp (M ) ein endlich erzeugter p-Torsionsmodul. Sei n ≥ 1,
sodass pn Tp (M ) = 0, aber pn−1 Tp (M ) 6= 0. Dann gibt es ganze Zahlen
nj mit n = n1 ≥ n2 ≥ · · · ≥ ns ≥ 1 und einen R-Isomorphismus
Tp (M ) ∼
= ⊕sj=1 Rmj mit Rmj ∼
= R/(pnj ).
Für die nj gilt: Der Quotient Vi = pi−1 Tp (M )/pi Tp (M ) ist ein endlich
erzeugter Vektorraum über dem Körper K = R/(p). Ist dimK Vi = mi ,
so ist die Anzahl der nj mit nj = i genau mi − mi+1 .
• Sei R = Z und M = Z/4Z. Dann ist M = T2 (M ) ein endlich er-
zeugter Z-Modul und ist bereits in der Form T2 (M ) ∼= Z/4Z angege-
ben. In diesem Beispiel ist 2M 6= 0 (M ist zyklisch und ein Erzeuger
hat Ordnung 4) und 4M = 0. Also ist n = 2 und in der Zerlegung
2 = n = n1 ≥ · · · ≥ ns ≥ 1 können nur nj mit nj = 1 oder nj = 2
auftreten. Für die K = Z/2Z-Vektorräume Vi mit mi = dimK Vi gilt:
i = 1: V1 = (Z/4Z)/(Z/2Z) ∼= Z/2Z und m1 = 1,
∼
i = 2: V2 = (Z//2Z)/0) = Z/2Z und m2 = 1.
Also ist die Anzahl der nj mit nj = 1 gleich m1 − m2 = 0, 2 = n =
n1 ≥ 1 ist die gesamte Zerlegung und M ∼
= Z/4Z (was wir immer schon
wussten).
• Ist R = Z und M = Z/2Z⊕Z/2Z, so ist 2M = 0 (jedes Element in M
hat Ordnung 2) und n = 1. In der Zerlegung 1 = n = n1 ≥ · · · ns ≥ 1
kömmem nur Terme nj = 1 auftauchen. Die Anzahl dieser Terme ist
m1 − m2 . Dabei ist
i = 1: V1 = (Z/2Z ⊕ Z/2Z)/0) ∼ = Z/2Z ⊕ Z/2Z und m1 = 2,
∼
i = 2: V2 = 0/0 = 0 und m2 = 0.
Es folgt 1 = n1 ≥ n2 = 1 und M ∼ = Z/2Z ⊕ Z/2Z.
• Sei p eine Primzahl und sei M eine abelsche Gruppe mit |M | = p2 .
Dann ist entweder pM 6= 0 und p2 M = 0, oder pM = 0. Die analo-
gen Argumente wie in den obigen Fällen für p = 2 zeigen allgemein:
M∼ = Z/p2 Z oder M ∼= Z/pZ ⊕ Z/pZ.
127
Beweis. Sei {m1 , . . . , ms } ein minimales Erzeugendensystem von Tp (M ).
Ist s = 1, so ist Tp (M ) = Rm1 und es gibt ein n1 ≥ 1 mit pn1 m1 = 0
und pn1 −1 m1 6= 0. Also ist Rm1 ∼ = R/(pn1 ) und Tp (M ) = Rm1 ist eine
solche Zerlegung mit n1 = ns ≥ 1. Ist s > 1, so gibt es unter den Er-
zeugern ein mi mit ni ≥ 1 maximal, sodass pni mi = 0 und pni −1 mi 6=
0; oBdA ist m1 dieser Erzeuger. Setze T p (M ) = Tp (M )/Rm1 . Nach
Induktion ist T p (M ) ∼ = ⊕sj=2 Rmj mit Rmj ∼ = R/(pnj ). Wir zeigen
Tp (M ) ∼= Rm1 ⊕ T p (M ) ∼ = ⊕sj=1 Rmj . Sei q : Tp (M ) → T p (M ), m 7→
m die Quotientenabbildung. Wir definieren einen R-Homomorphismus
ι : T p (M ) → Tp (M ), sodass q ◦ ι = idT p (M ) ist. Gilt dies, so definiert
Rm1 ⊕ T p (M ) → Tp (M ), (rm1 , m) 7→ rm1 + ι(M )
einen R-Isomorphismus. Um ein solches ι zu definieren ist zu zeigen:
Für m ∈ T p (M ) mit pnj m = 0 und pnj −1 m 6= 0 gibt es ein m ∈ Tp (M )
mit q(m) = m, sodass pnj m = 0 und pnj −1 m 6= 0; dann definiert
ι(m) = m die gesuchte Abbildung (offensichtlich ist q ◦ ι = idT p (M )
und die Bedingung an die ‘Ordnung’ der Elemente ist notwendig, um
einen R-Homomorphismus zu definieren; z.B. ist 0 = ι(0) = ι(pnj m) =
pnj ι(m) = pnj m). Sei m ∈ T p (M ) mit pnj m = 0 und pnj −1 m 6= 0. Nach
Wahl von m1 ist nj ≤ n1 . Sei m0 ∈ Tp (M ) ein beliebiges Element mit
q(m0 ) = m. Wegen pnj m = 0 ist pnj m0 ∈ Rm1 , also pnj m0 = rm1 für
ein r ∈ R. Da pn1 Tp (M ) = 0 ist 0 = pn1 m0 = pn1 −nj pnj m0 = pn1 −nj rm1 .
Weiter ist auch pn1 m1 = 0, sodass pn1 m1 = pn1 −nj rm1 , oder r = r0 pnj
für ein r0 ∈ R. Setze m = m0 − r0 m1 . Klar ist q(m) = q(m0 ) = m.
Wegen pnj −1 m 6= 0 ist pnj −1 m 6= 0, aber
pnj m = pnj m0 − pnj r0 m1 = rm1 − rm1 = 0.
Aus der Zerlegung Tp (M ) = ⊕sj=1 Rmj ergibt sich sofort
pi−1 Tp (M ) ∼
= ⊕s pi−1 Rmj = ⊕n >i−1 pi−1 Rmj
j=1 j
und weiter
Vi = pi−1 Tp (M )/pi Tp (M ) ∼
= ⊕nj >i−1 (pi−1 Rmj /pi Rmj ).
Der K = R/(p)-Vektorraum pi−1 Rmj /pi Rmj hat die Dimension 1 und
mi = dim Vi = #nj mit nj > i − 1, also ist nj = mi − mi+1 .
Wir kommen zu unserem Hauptresultat:
Theorem 16.15. Sei R ein Hauptidealring und M ein endlich erzeug-
ter R-Modul. Dann gibt es k ∈ N0 , irreduzible Elemente p1 , . . . , pr ,
sowie natürliche Zahlen n(i, 1) ≥ · · · n(i, si ) ≥ 1, i = 1, . . . , r, sodass
M ∼ = Rk ⊕ Tp (M ) ⊕ · · · Tp (M ), wobei
1 r
Tpi (M ) ∼
n(i,1) n(i,2) n(i,s )
= R/(pi ) ⊕ R/(pi ) ⊕ · · · ⊕ R/(pi i ).
128
Die Zahlen k, r, n(i, si ), sowie die R-Moduln Tpi (M ) sind eindeutig
durch M bestimmt.
NB. Ist M ein endlich erzeugter Modul über einem Hauptidealring R,
und ist M ∼ = Rk ⊕ Tp1 (M ) ⊕ · · · ⊕ Tpr (M ) die entsprechende Zerlegung,
so bestimmen der Rang k und die Torsionskomponenten Tpi (M ) den
Isomorphietyp von M : Klar ist, dass zwei R-Moduln M und M 0 mit
dem gleichen Rang und isomorphen Torsionskomponenten isomorph
sind. Ist umgekehrt f : M → M 0 ein R-Isomorphismus, so induziert
die Einschränkung f |T (M ) : T (M ) → T (M 0 ) einen R-Isomorphismus
(injektiv ist klar, surjektiv ist eine einfaches Argument) und Rk ∼ =
∼ 0 0 ∼ k0 0
M/T (M ) = M /T (M ) = R , also ist k = k . Weiter gibt es ein
0 6= r ∈ R \ R× (minimal bzgl. der Anzahl der Faktoren in einer
Primzerlegung) mit rT (M ) = rT (M 0 ) = 0. Ist r = pn1 1 · · · pnr r die
Primzerlegung, so ist Tpi (M ) ∼ = Tpi (M 0 ) für alle i.
• Ein R-Modul M ist zyklisch, falls M = Rm für ein m ∈ M ist.
Das obige Theorem besagt, dass jeder endlich erzeugte R-Modul über
einem Hauptidealring R isomorph zu einer endlichen direkten Summe
von zyklischen R-Modulen ist.
Korollar 16.16. Für eine endlich erzeugte abelsche Gruppe A gibt es
ein k ∈ N0 , sowie Primzahlen p1 , . . . , pr , sodass
A ∼= Zk ⊕ Tp (A) ⊕ · · · Tp (A), wobei
1 r
Tpi (A) ∼
n(i,1) n(i,2) n(i,s )
= Z/(pi ) ⊕ Z/(pi ) ⊕ · · · ⊕ Z/(pi i ).
Beweis. Nach Proposition 16.11 ist M = T (M ) ⊕ Rk für ein wohl-
definiertes k ≥ 0 (k ist die Anzahl der Nicht-Torsionselemente in ei-
nem minimalen Erzeugendensystem von M ). Nach Lemma 16.13 ist
T (M ) die direkte Summe von endlich vielen Tpi (M ), wobei die pi ∈ R
geeignete irreduzible Elemente sind (ist T (M ) = hm1 , . . . , ms i ein mi-
nimales Erzeugendensystem und ri mi = 0, so sind die pi die Fakto-
ren in einer Primzerlegung von r = r1 · · · rs ). Lemma 16.14 zeigt dass
jeder dieser p-Torsionsmodul Tp (M ) von der Form ⊕sj=1 R/(pnj ) mit
n = n1 ≥ n2 ≥ · · · ≥ ns ist.
Beispiel 16.17. Sei A eine abelsche Gruppe mit |A| = 24, also 24A = 0
mit 24 = 23 · 3. Dann ist A = T (A) = T2 (A) ⊕ T3 (A), wobei T3 (A) ∼=
Z/3Z sein muss (jede Gruppe mit Primzahlordnung ist isomorph zu
Z/pZ). Für T2 (A) ergeben sich die drei Möglichkeiten: T2 (A) ∼
= Z/8Z
3 2 ∼
(falls 2 T2 (A) = 0 und 2 T2 (A) 6= 0), T2 (A) = Z/4Z ⊕ Z/2Z (falls
22 T2 (A) = 0 und 2T2 (A) 6= 0) und T2 (A) ∼
= Z/2Z ⊕ Z/2Z ⊕ Z/2Z (falls
2T2 (A) = 0 ist. Damit gibt es bis aus Isomorphie genau drei abelsche
Gruppen der Ordnung 24.
129
17. Allgemeine und Jordan Normalform
Wir verwenden den Struktursatz 16.15 um die allgemeine bzw. Jor-
dan Normalformen eines Endomorphismus zu bestimmen.
Sei V ein K-Vektorraum, und sei A ∈ EndK (V ) fest gewählt. Be-
trachte wie in 16.2(d) den K-Vektorraum V als K[x]-Modul mittels
K[x] × V → V, (f, v) 7→ f · v = f (A)v.
Sei dimK V = n. Das Minimalpolynom mA von A ist ein nicht-triviales,
nomiertes Polynom, dass den Kern des Einsetzungshomomorphismus
αA : K[X] → EndK (V ), f 7→ f (A) erzeugt, insbesondere ist mA (A) =
0. Also ist Also ist mA · v = mA (A)v = 0 für v ∈ V , d.h. mA ·
V = 0 und V ist ein K[x]-Torsionsmodul. Als endlich-dimensionaler
K-Vektorraum ist V endlich erzeugt und somit ein endlich erzeug-
ter K[x]-Torsionsmodul. Da K[x] ein Hauptidealring ist können wir
Theorem 16.15 auf V anwenden; dies liefert eine Zerlegung des K[x]-
Torsionsmoduls V in eine endliche direkte Summe von zyklischen K[x]-
Torsionsmoduln, diese Zerlegung ist die Grundlage der Theorie der
Normalformen.
Definition 17.1. Sei V ein K-Vektorraum, U ⊆ V ein K-linearer
Unterraum, und A ∈ EndK (V ).
(1) U ist A-invariant, falls A(U ) ⊆ U gilt.
(2) U ist A-zyklisch, falls es ein u0 ∈ U gibt, sodass die Vektoren
u0 , A(u0 ), A2 (u0 ), . . . ein Erzeugendensystem von U bilden.
(3) {0} = 6 U ist A-irreduzibel, falls U ein A-invarianter Unterraum
ist, sodass gilt: U = U 0 ⊕ U 00 mit U 0 , U 00 A-invariant ⇒ U = U 0
oder U = U 00 (d.h. U lässt sich nicht als direkte Summe von
echten A-invarianten Unterräumen schreiben).
• A-zyklisch ⇒ A-invariant: Ist ein Unterraum U A-zyklisch, so gibt
es ein u0 ∈ U , sodass die Vektoren u0 , A(u0 ), A2 (u0 ), . . . ein Erzeu-
gendensystem von U bilden. u ∈ U hat eine Darstellung u =
PnJedes i+1
P n i
c
i=0 i A (u 0 ) und A(u) = c
i=0 i A (u0 ) ∈ U .
Die obigen Begriffe haben Modul-theoretische Interpretationen:
Lemma 17.2. Sei V ein K-Vektorraum, U ⊆ V ein K-linearer Un-
terraum, und A ∈ EndK (V ). Betrachte V als K[x]-Modul (bzgl. A).
Dann gilt:
(a) U ist A-invariant ⇔ U ist K[x]-Untermodul,
(b) U ist A-zyklisch ⇔ U ist zyklischer K[x]-Modul,
(c) U ist A-irreduzibel ⇔ U lässt sich nicht als eine direkte Summe
von zwei echten K[x]-Untermoduln schreiben.
130
Beweis. Übung.
Ist V ein K-Vektorraum und A ∈ EndK (V ), so ist V sowohl ein
K-Vektorraum, als auch ein K[x]-Modul. Wir vergleichen die entspre-
chenden Homomorphismen: Seien V, V 0 K-Vektorräume, A ∈ Endk (V )
und A0 ∈ EndK (V 0 ).
Ist f : V → V 0 ein K[x]-Homomorphismus, so ist f K[x]-linear (also
K-linear) und definiert eine K-lineare Abbildung f : V → V 0 .
Sei umgekehrt f : V → V 0 eine K-lineare Abbildung. Dann ist
f offensichtlich additiv (d.h. Gruppenhomomorphismus bzgl. der zu-
grundeliegenden abelschen Gruppen). Die K-lineare Abbildung f ist
K[x]-linear, falls für jedes Polynom g ∈ K[x] gilt:
g · f (v) = f (g · v).
Dabei ist das Produkt · in g · f (v) das K[x]-Skalarprodukt auf V 0 , d.h.
g · f (v) = g(A0 )(f (v)),
und das Produkt · in g · v das K[x]-Skalarprodukt auf V , also ist
f (g · v) = f (g(A)v).
Ist f : V → V 0 K[x]-linear, so folgt:
• (g = id): Dann ist A0 ◦f = f ◦A, d.h. folgendes Diagramm kommutiert
V
A / V
f f
A0 /
V0 V0
• (g = xn , n ∈ N0 ): Dann ist xn · f (v) = f (xn · v) für v ∈ V .
Sei f : V → V 0 K-linear, sodass A0 ◦ f = f ◦ A. Da die Diagramme
V
A / V
A / V
f f f
A0 / A0 /
V0 V0 V0
kommutieren ist (A0 )i ◦ f = f ◦ Ai . Ist g = ni=0 ci xi ∈ K[x], so ist
P
n
X m
X
0 0 i
g · f (v) = g(A )f (v) = ci ((A ) ◦ f )(v) = ci (f ◦ Ai )(v) =
i=0 i=0
Xn
= f( ci Ai (v)) = f (g(A)v) = f (g · v)
i=0
d.h. f definiert eine K[x]-lineare Abbildung V → V 0 .
131
Allgemein gilt:
Lemma 17.3. Seien V, V 0 K-Vektorräume, A ∈ EndK (V ) und A0 ∈
EndK (V 0 ). Für die K[x]-Moduln V und V 0 (bzgl. A und A0 ) gilt
HomK[x] (V, V 0 ) = {f ∈ HomK (V, V 0 ) | f ◦ A = A0 ◦ f }.
Eine entsprechende Äquivalenz gilt für Mono-, Epi-, und Isomorphis-
men. Insbesondere: Sind V, V 0 endlich dimensionale K-Vektorräume
und ist V ∼
= V 0 als K[x]-Moduln, so ist mA = mA0 und fA = fA0 .
Beweis. Übung.
Lemma 17.4. Sei V ein K-Vektorraum mit dimK V = n, und sei
A ∈ EndK (V ). Für den K[x]-Modul V (bzgl. A) sind gleichwertig:
(a) V ist A-zyklisch,
(b) V ist ein zyklischer K[x]-Modul,
(c) Es gibt ein normiertes Polynom 0 6= p ∈ K[x], sodass V ∼ =
K[x]/(p) als K[x]-Moduln.
Sind (a)-(c) erfüllt, so ist p = mA = fA ; insbesondere ist Grad(p) = n.
Beweis. Die Äquivalenz von (a) und (b) ist Lemma 17.2(b).
(b) ⇒(c): Sei V als K[x]-Modul von v0 ∈ V erzeugt. Dann induziert
die Abbildung K[x] → K[x]m0 = V, 1 7→ m0 einen surjektiven K[x]-
Homomorphismus
α : K[x] → K[x]v0 = V, f 7→ f · v0 = f (A)(v0 ).
Der Kern ker(α) ⊆ K[x] ist ein K[x]-Untermodul, also ein Ideal; sei
p ∈ K[x] ein Erzeuger, sodass ker(α) = (p), oBdA ist p normiert. Mit
dem Homomorphiesatz folgt K[x]/(p) ∼ = V als K[x]-Moduln; wegen
dimK V = n und dimK K[x] = ∞ ist p 6= 0.
(c) ⇒ (b): Ist V ∼
= K[x]/(p), so betrachte die Quotientenabbildung
π : K[x] → K[x]/(p), f 7→ f = f + (p).
Der K[x]-Modul K[x]/(p) wird von 1 = 1 + (p) erzeugt, also gilt (b).
Angenommen der K-Vektorraum V ist A-zyklisch. Nach Definition
ist das Minimalpolynom mA von A der normierte Erzeuger des Ideals
(mA ) = ker(αA ) = {f ∈ K[x] | f (A) = 0} ⊆ K[x].
Da V A-zkylisch ist, gibt es ein v0 ∈ V , sodass v0 , A(v0 ), A2 (v0 ), . . . ein
Erzeugendensystem von V bilden und für f ∈ K[x] gilt f (A) = 0 genau
dann, wenn f (A)(An (v0 )) = 0 für alle n ∈ N0 ist. Klar ist f (A) = 0 ⇒
f (A)(v0 ) = 0 (n = 0). Sei umgekehrt f (A)(v0 ) = 0. Wegen
f (A)(An (v0 )) = f · An (v0 ) = f · (xn · v0 ) = xn · (f · v0 ) = xn · f (A)(v0 )
132
ist dann f (A)(An (v0 )) = xn · f (A)(v0 ) = xn · 0 = 0 für n ∈ N0 , also ist
f (A) = 0 ⇔ f (A)(v0 ) = 0 ⇔ f · v0 = 0
Es folgt
(mA ) = {f ∈ K[x] | f (A) = 0} = {f ∈ K[x] | f · v0 = 0} = (p),
und da die beiden Polynome p und mA normiert sind folgt p = mA .
Wie in Beispiel 13.6(b) ist Grad(p) = dimK K[x]/(p) = dimK V = n,
und so Grad(mA ) = n. Nach Caley-Hamilton 15.13 ist mA |fA , da fA
normiert mit Grad(fA ) = n ist, folgt mA = fA .
Sei V ein K-Vektorraum mit dimK V = n und A ∈ Endk (V ). Wir
haben gezeigt:
• V ist ein K[x]-Torsionsmodul mit mA · V = 0, wobei mA ∈ K[x] das
Minimalpolynom von A ist. Da 0 6= mA ∈ K[x] \ K[x]× hat mA ei-
ne Primzerlegung in irreduzible Elemente; seien p1 , . . . , pr die in dieser
Primzerlegung auftretenden verschiedenen irreduziblen Elemente. Set-
ze Vi = Vpi = {v ∈ V | pei v = 0 für ein e ∈ N0 }. Dann gibt es eine Zer-
legung von V als eine endliche direkte Summe von pi -Torsionsmoduln
V = ⊕ri=1 Vi .
• Für jedes Vi gibt es n(i, 1) ≥ n(i, 2) ≥ · · · ≥ n(i, si ) ≥ 1, sodass
Vi = ⊕si Vij mit Vij ∼
n(i,j)
j=1 = K[x]/(p i) als K[x]-Moduln.
n(i,1) n(i,1)−1 n(i,1)
Dabei ist pi Vij
= 0, aber pi 6= 0, d.h. pi
Vij ist die minimale
Potenz von pi , die Vij annuliert. Nach Beispiel 13.6(b) gilt für jedes Vij
die Dimensionsformel dimK Vij = n(i, j) · Grad(pi ), sodass weiter
X r Xsi
n = dimK V = n(i, j) · Grad(pi ).
i=1 j=1
• Nach Lemma 17.4 ist Vij ∼
n(i,j)
= K[x]/(pi ) ein zyklischer K[x]-Modul,
n(i,j)
Vij ist A-zyklischer Unterraum und pi ist das Minimal- und das
charakteristische Polynom von A|Vij . Das Minimalpolynom von A ist
n(1,1)
mA = p1 · · · prn(r,1) .
Dies liefert den folgenden Spezialfall von Theorem 16.15:
Theorem 17.5. Sei V ein n-dimensionaler K-Vektorraum und sei A ∈
EndK (V ). Dann gibt es paarweise verschiedene, normierte irreduzible
Polynome p1 , . . . pr , für jedes pi ganze Zahlen n(i, 1) ≥ n(i, 2) ≥ · · · ≥
n(i, si ) ≥ 1, sowie Unterräume Vij ∼
n(i,j)
= K[x]/(pi , und eine Zerlegung
V = ⊕ri=1 ⊕sj=1
i
Vij .
133
Diese Zerlegung ist (bis auf Isomorphie) eindeutig bestimmt.
n(i,j)
(a) Vij ist A-zyklischer Unterraum und pi ist das Minimal- und
das charakteristische Polynom von A|Vij ,
(b) Es ist dimK Vij = n(i, j) · Grad(pi ), insbesondere ist
Xr X si
n = dimK V = n(i, j) · Grad(pi ).
i=1 j=1
n(1,1) n(r,1)
(c) Das Minimalpolynom von A ist mA = p1 · · · pr .
Beweis. Folgt aus den obigen Bemerkungen.
Korollar 17.6. Für V und A wie in Theorem 17.5 sind gleichwertig:
(a) V ist A-irreduzibel,
(b) V ist A-zyklisch und mA = fA ist Potenz eines irreduziblen
Polynoms in K[x].
• Die Unterräume Vij ⊆ V von Theorem 17.5 sind A-zyklische Un-
terräume. Nach dem obigen Korollar sind die Vij auch A-irreduzibel.
Beweis. (a)⇒ (b): Sei V = ⊕ri=1 ⊕sj=1 Vij die Zerlegung von V wie
in Theorem 17.5 in A-zyklische K-lineare Unterräume Vij . Ist V A-
irreduzibel, so besteht diese Zerlegung aus einem einzigen Summanden,
und es gilt V = V11 ∼
n(1,1) n(1,1)
= K[x]/(p1 ), sowie mA = fA = p1 .
(b) ⇒ (a): Ist V A-zyklisch mit Minimalpolynom mA , so ist nach Lem-
ma 17.4 V ∼ = K[x]/(mA ) als K[x]-Moduln. Aufgrung der Eindeutigkeit
der Zerlegung in Theorem 17.5 ist V somit A-irreduzibel.
Definition 17.7. Für Ai ∈ K ni ×ni , i = 1, . . . r, setze
A1 0
A2
Diag(A1 , . . . , Ar ) =
· · ·
···
0 Ar
Ist Ai = (αi ) ∈ K 1×1 , so schreibe Diag(A1 , . . . , Ar ) = Diag(α1 , . . . , αr )
für die Diagonalmatrix mit den Diagonaleinträgen α1 , . . . , αr .
• Sei V ein K-Vektorraum mit dimK V = n und A ∈ EndK (V ). Für
eine Zerlegung V = ⊕ri=1 Vi in A-zyklische Unterräume sei Xi Basis von
Vi , und X die durch die Xi gegebene Basis von V . Ist Ai die Matrix
von Ai = A|Vi bzgl. Xi und A die Matrix von A bzgl. X, so gilt
(a) A = Diag(A1 , . . . , Ar ),
(b) fA = fA1 · · · fAr ,
134
(c) mA = kgV (mA1 , . . . , mAr ).
• Sei V ein K-Vektorraum mit Basis X = {x1 , . . . xn }, A ∈ EndK (V ),
und A die Matrix von A bzgl. X. Pr Ist A = Diag(A1 , . . . , Ar ), für Ma-
ni ×ni
trizen Ai ∈ K , sodass n = i=1 ni . Setze V1 = hx1 , . . . , xn1 i, V2 =
hxn1 +1 , . . . xn1 +n2 i, . . . , Vr = hxnr−1 +1 , . . . , xnr−1 +nr i. Dann sind die Vi
A-invariante Unterräume, und es gilt V = ⊕ri+1 Vi .
Definition 17.8. Sei p = xn + cn−1 xn + · · · + c0 ∈ K[x] ein normiertes
Polynom. Die Begleitmatrix zu p ist die n × n-Matrix
0 −c0
1 0 −c1
1 −c2
A(p) = ··· ···
··· ···
0 −cn−2
1 −cn−1
Ist n = 1, so ist A(p) = (−c0 ); ist n = 0, so ist A(p) die leere Matrix.
Lemma 17.9. Sei V ein n-dimensionaler K-Vektorraum und A ∈
EndK (V ). Ist p ∈ K[x] ein normiertes Polynom vom Grad n, so sind
gleichwertig:
(a) V ist A-zyklisch mit Minimalpolynom mA = p,
(b) Es existiert eine Basis X von V , sodass die Matrix A von A
bzgl. X die Begleitmatrix A(p) zu p ist.
Beweis. (a) ⇒ (b): Die Aussage ist trivial für V = {0}. Sei V 6=
{0}. Nach Lemma 17.4 ist V ∼ = K[x]/(mA ) als K[x]-Moduln, und
Grad(mA ) = n. Ist v0 ∈ V das Element, dass unter diesem Isomorphis-
mus auf 1 = 1 + (mA ) abgebildet wird, so bildet v0 , A(v0 ), A2 (v0 ), . . .
ein Erzeugendensystem von V . Wegen Grad(mA ) = n gilt nach 13.6(b)
dimK K[x]/(mA ) = n, sodass X = {v0 , A(v0 ) . . . , An−1 (v0 )} eine K-
Basis von V bildet. Sei mA = xn + cn−1 xn−1 + · · · + c0 . Dann folgt
n−1
X
n−1 n
A(A (v0 )) = A (v0 ) = − ci Ai (v0 ),
i=0
d.h. die Matrix von A bzgl. X ist A(mA ) = A(p).
(b)⇒ (a): Sei X = {x1 , . . . , xn } eine Basis von V , sodass A = A(p)
die Begleitmatrix zu einem normierten p ∈ K[x] vom Grad n ist. Setze
v0 = x1 . Dann ist xi = Ai−1 (v0 ) für i = 1, . . . , n, d.h. V ist A-zyklisch
mit Erzeuger v0 . Aus der Form von A(p) folgt, dass p · v = p(A)v0 = 0
ist; da V von v0 erzeugt wird, ist p · V = p(A)V = 0, und somit mA |p.
135
Nach Lemma 17.4 ist mA = fA , d.h. p und mA = fA sind normierte
Polynome vom gleichen Grad n, sodass aus mA |p dann auch mA = p
folgt.
Wir kommen zu den Normalformen: Wir geben diese Resultate in
Matrizensprache an; das folgende Theorem beschreibt die sogenannte
allgemeine (oder auch rationale) Normalform einer Matrix.
Theorem 17.10. Sei A ∈ K n×n eine Matrix. Dann ist
A ∼ Diag(A1 , . . . , Ar ),
wobei A1 = A(q1 ), . . . , Ar = A(qr ) Begleitmatrizen zu Potenzen qi von
irreduziblen normierten Polynomen in K[x] sind. Die Ai sind bis auf
Reihenfolge eindeutig durch A bestimmt. Ist A die Matrix eines Endo-
morphismus A ∈ EndK (V ) (bzgl. einer Basis), so gilt weiter
mA = kgV (q1 , . . . , qr ) und fA = q1 · · · qr .
NB. Eine Diagonalmatrix Diag(α1 , . . . , αn ) ∈ K n×n ist bereits in allge-
meiner Normalform, da Ai = (αi ) als die Begleitmatrix zu x−αi ∈ K[x]
aufgefasst werden kann. Theorem 17.10 besagt somit, dass ein Endo-
morphismus A genau dann diagonalisierbar ist, wenn das Minimal-
poynom mA in paarweise verschiedene Linearfaktoren zefällt; dies lie-
fert einen weiteren Beweis von Theorem 15.16.
Beweis. Ist A die Matrix von A ∈ EndK (V ), so gibt es nach Theorem
17.5 eine Zerlegung V ∼ = ⊕ri=1 Vi (in der Notation von 17.5 V = ⊕Vij ),
wobei die Vi A-zyklische Unterräume mit Vi ∼ = K[x]/(qi ) und qi eine
Potenz eines normierten irreduziblen Polynoms ist. Die erste Bemer-
kung nach Definition 17.7 zeigt, dass A ∼ Diag(A1 , . . . , Ar ) ist, wobei
Ai die Matrix von Ai = A|Vi (bzgl. einer Basis) ist. Mit Lemma 17.4
folgt qi = mAi = fAi und nach Lemma 17.9 kann die Basis von Vi so
gewählt werden, dass Ai = A(qi ) ist. Die Aussagen über mA und fA
folgen ebenfalls aus der Bemerkung nach 17.7.
Für die Eindeutigkeitsaussage sei A ∼ Diag(A1 , . . . , Ar ) mit Ai =
A(qi ) die Begleitmatrix einer Potenz qi eines irreduziblen normierten
Polynoms ist. Die zweite Bemerkung nach Definition 17.7 gibt eine
Zerlegung V ∼ = ⊕ri=1 Vi . Da die Ai = A(qi ) Begleitmatrizen sind, ist
nach Lemma 17.9 Vi A-zyklisch mit Minimalpolynom qi , und mit Lem-
ma 17.4 folgt Vi ∼= K[x]/(qi ). Die Eindeutigkeitsaussage in Theorem
17.5 besagt, dass diese A-zyklischen Summanden bis auf Reihenfolge
eindeutig bestimmt sind.
Wir kommen zur Jordan-Normalform.
136
Definition 17.11. Sei α ∈ K. Eine n × n-Matrix der Form
α 0
1 α
1 α
J(α, n) =
···
···
0 1 α
ist eine Jordanmatrix der Länge n.
Lemma 17.12. Für eine Matrix A ∈ K n×n sind gleichwertig:
(a) A ∼ J(α, n),
(b) A ∼ A(q), mit q = (x − α)n ∈ K[x].
Beweis. (a)⇒(b): Wir interpretieren A als die Matrix eines Endomor-
phismus A ∈ EndK (V ) mit dimK V = n. Ist A ∼ J(α, n), so gibt es
eine Basis X = {x1 , . . . , xn } von V mit der Eigenschaft, dass
A(xi ) = αxi + xi+1 , i = 1, . . . , n; ( wobei xn+1 = 0).
Eine einfache Induktion zeigt xi ∈ hA0 (x1 ), . . . , Ai−1 (x1 )i, i =, . . . , n;
also ist V = hA0 (x1 ), . . . , An−1 (x1 )i, d.h. V ist A-zyklisch mit Erzeuger
x1 . Nach Lemma 17.9 genügt zu zeigen: mA = (x − α)n . Betrachte
φ : K[x] → V, f 7→ f · x1 = f (A)(x1 ).
Der Beweis von Lemma 17.4 zeigt, dass ker(φ) = (mA ) ist. Wegen
(A − αE)(xi ) = xi+1 , i = 1, . . . , n
ist (A − αE)n (x1 ) = xn+1 = 0 aber (A − αE)n−1 (x1 ) = xn 6= 0. Es folgt
(x − α)n ∈ ker(φ) = (mA ), und Gradvergleich zeigt mA = (x − α)n .
(b)⇒(a): Ist A ∼ A(q) mit q = (x − α)n , so ist nach Lemma 17.9
V A-zyklisch mit Minimalpolynom q, und nach Lemma 17.4 ist V ∼ =
K[x]/(q) als K[x]-Moduln. Sei g das Bild von g ∈ K[x] in K[x]/(q).
Ist v0 ∈ V ein Erzeuger des A-zyklischen K[x]-Moduls V , so bildet
die Menge {v0 , A(v0 ), . . . , An−1 (v0 )} eine K-Basis von V . Weiter ist
{1, x, . . . , xn−1 } eine K-Basis von K[x]/(q) und V → K[x]/(q), Ai (v0 ) 7→
xi ein expliziter Isomorphismus. Unter diesem Isomorphismus entspricht
der Endomorphismus A : V → V, Ai (v0 ) 7→ Ai+1 (v0 ) der Abbildung
K[x]/(q) 7→ K[x]/(q), xi 7→ x · xi = xi+1 . Da {1, x − α, . . . , (x − α)n−1 }
ebenfalls eine K-Basis von V ist folgt aus der Identität
x · (x − α)i−1 = α · (x − α)i−1 + (x − α)i ,
dass der unter dem Isomorphismus V ∼ = K[x]/(q) zu A korrespondie-
rende K-Homomorphismus K[x]/(q) → K[x]/(q), xi 7→ xi+1 bzgl. der
137
Basis (x − α)0 , . . . , (x − α)n−1 durch die Jordanmatrix J(α, n) beschrie-
ben wird. Damit gibt es auch eine Basis von V , sodass A durch diese
Jordanmatrix beschrieben wird.
Das folgende Theorem beschreibt die Jordan-Normalform. Diese Nor-
malform kann nur dann konstruiert werden, wenn das Minimalpolynom
vollständig in Linearfaktoren zefällt; zum Beispiel, wenn der Körper K
algebraisch abgeschlossen ist.
Theorem 17.13. Sei A ∈ K n×n eine Matrix zu einem A ∈ EndK (V ),
sodass mA (bzw. fA ) über K vollständig in Linearfaktoren zerfällt (d.h.
alle Eigenwerte α1 , . . . P
, αr von A liegen in K). Dann gibt es ganze
Zahlen ni ≥ 0 mit n = ri=1 ni und Jordanmatrizen J(αi , ni ), sodass
A ∼ Diag(J(α1 , n1 ), . . . , J(αr , nr )).
Die J(αi , ni ) sind bis auf Reihenfolge eindeutig durch A bestimmt und
V ∼
= ⊕r K[x]/((x − αi )ni )
i=1
ist die Zerlegung von Theorem 17.5.
Beweis. Folgt aus Theorem 17.10 und Lemma 17.12.
Korollar 17.14. Sei A ∈ K n×n eine Matrix zu einem A ∈ EndK (V ).
Dann ist A genau dann triagonalisierbar, wenn fA vollständig in Line-
arfaktoren zerfällt.
Beweis. ⇒:QIst A ∼ B mit B = (βij ) und bij = 0 für i < j, so ist
fA = fB = ni=1 (x − βii ); insbesondere zerfällt fA vollständig in Line-
arfaktoren. Nach Theorem 15.13 gilt dies dann auch für mA .
⇐: Zerfällt fA vollständig in Linearfaktoren, so liefert die Jordan-
Normalform von A eine Triagonalmatrix.
Beispiele 17.15. (a) Sei V = R3 und sei A ∈ EndR (V ) mit Matrix
3 2 −3
A= 4 10 −12 .
3 6 −7
Man rechnet nach, dass fA = (x − 2)3 ist. Somit ist 2 der einzige
Eigenwert von A und bis auf Anordnung der Jordanmatrizen sind die
möglichen Jordanformen J von A durch die folgenden Matrizen gegeben
2 0 0 2 0 0 2 0 0
J1 = 0 2 0 , J2 = 1 2 0 , J3 = 1 2 0 .
0 0 2 0 0 2 0 1 2
Ist A ∼ J, so ist für α ∈ K auch (A − αE)l ∼ (J − αE)l für l ∈ N
(ist A ∼ B, d.h. A = T −1 BT , so folgt wegen A2 = T −1 BT T −1 BT =
138
T −1 B 2 T dann auch A2 ∼ B 2 und allgemein Al = T −1 B l T ). Nach
Lemma 6.20(b) haben ähnliche Marizen den gleichen Rang, sodass
r(A − 2E) = r(J − 2E)
gelten muss. Mittels elementarer Zeilenumformungen folgt
1 2 −3 1 2 −3 1 2 −3
z −3z z −4z
A − 2E = 4 8 −12 3→ 1 4 8 −12 2→ 1 0 0 0
3 6 −9 0 0 0 0 0 0
Da unter den möglichen Jordanformen J2 die einzige Matrix mit der
Eigenschaft r(J1 − 2E) = 1 ist, muss J = J2 gelten.
(b) Sei V = C3 , und seien α, β, γ ∈ C. Sei A ∈ EndC (V ) mit Matrix
2 0 0
A = α 2 0 .
β γ −1
Es ist fA = (x − 2)2 (x + 1), also sind die möglichen Jordanformen
2 0 0 2 0 0
J1 = 0 2 0 und J2 = 1 2 0 .
0 0 −1 0 0 −1
Das Minimalpolynom mA ist entweder (x − 2)(x + 1) (sodass A diago-
nalisierbar und A ∼ J1 ist), oder (x − 2)2 (x − 1) (sodass A ∼ J2 gilt).
Für das Minimalpolynom gilt mA (A) = 0; da mit direkter Rechnung
0 0 0
(A − 2E)(A + E) = 3α 0 0
αγ 0 0
ist A ∼ J1 genau dann, wenn α = 0 ist, und A ∼ J2 genau dann, wenn
α 6= 0 ist.
(c) Sei V = C4 , α ∈ C und A ∈ EndC (V ) mit Matrix
2 0 0 0
1 2 0 0
A= 0 0 2 0 .
0 0 α 2
Offensichtlich ist fA = (x−2)4 . Da A die direkte Summe von zwei 2×2-
Matrizen ist, ist mA = (x − 2)2 (genauer: A = A1 ⊕ A2 ; offensichtlich
ist mA1 = (x − 2)2 und mA2 = (x − 2) oder (x − 2)2 . Da mA das kleinste
gemeinsame Vielfache von mA1 und mA2 ist, folgt mA = (x − 2)2 ). Ist
139
α = 0, so ist A seine eigene Jordanform. Ist α 6= 0, so ist r(A − 2E) = 2
und A hat die Jordanform
2 0 0 0
1 2 0 0
J =0 0 2 0 .
0 0 1 2
Insbesondere: Die Matrizen für α = 0 und α 6= 0 haben dasselbe cha-
rakteristische Polynom und dasselbe Minimalpolynom, sind aber nicht
ähnlich, da sie verschiedene Jordanformen haben.
18. Innere Produkträume
Wir betrachten K-Vektorräume V , wobei K = R oder K = C ist;
unser Ziel ist es, einen Begriff der Länge sowie des Winkels zwischen
zwei Vektoren einzuführen. Wir verwenden dazu Funktionen φ : V ×
V → K, die ein sogenanntes inneres Produkt auf V definieren. Zum
Beispiel: Ist K = R2 , v1 = (α1 , α2 ) und v2 = (β1 , β2 ), so definiert
φ : R2 × R2 → K, (v1 , v2 ) 7→ α1 β1 + α2 β2
eine solche Abbildung. Ein offensichtlicher Begriff der Länge von v1 ist
q p
k v1 k= α12 + α22 = (v1 , v1 ) ≥ 0,
und der Winkel γ zwischen zwei Vektoren v1 6= 0 6= v2 ist durch
(v1 , v2 ) = cos(γ) k v1 kk v2 k
bestimmt. Die analogen Formeln gelten für Rn .
Im folgenden betrachten wir nur Vektorräume über den Körpern R
oder C; wir bezeichnen einen solchen Vektorraum als K-Vektorraum.
Definition 18.1. Sei V ein K-Vektorraum. Ein inneres Produkt (oder
Skalarprodukt) auf V ist eine Abbildung φ : V × V 7→ K, die einem
Paar von Vektoren v1 , v2 ∈ V einen Skalar φ(v1 , v2 ) = (v1 , v2 ) = v1 · v2
zuordnet, sodass folgende Regeln gelten
(1) (v1 + v2 , v3 ) = (v1 , v3 ) + (v2 , v3 ),
(2) (αv1 , v2 ) = α(v1 , v2 ), α ∈ K,
(3) (v2 , v1 ) = (v1 , v2 ) (komplexe Konjugation),
(4) (v1 , v1 ) ≥ 0 und (v1 , v1 ) = 0 ⇔ v1 = 0.
Ein endlich-dimensionaler R-Vektorraum (bzw. C-Vektorraum) V , zu-
sammen mit einem fest gewählten inneren Produkt ist ein euklidischer
(bzw. unitärer) Vektorraum.
140
• Aus (1)-(3) folgt, dass für jedes innere Produkt gilt
(5) (v1 , αv2 + v3 ) = α(v1 , v2 ) + (v1 , v3 ).
• Die Eigenschaften (1)-(5) bestimmen eine sogenannte hermitesche
Sesquilinearform (additiv in beiden Variablen, linear in der ersten und
semilinear in der zweiten Variable nach (1)-(2) und (5), hermitesch
nach (3), und positiv definit nach (4)).
• Ist K = R, so ist (v1 , v2 ) = (v1 , v2 ) und α = α. Im Fall K = C
ist die Bedingung (3) notwendig, um (4) sicherzustellen; sonst liefert
(v, v) ≥ 0 und (iv, iv) = i(v, iv) = i2 (v, v) = −1(v, v) ≤ 0 für (v, v) > 0
einen Widerspruch.
• Ist K = C, so schreibe für v1 , v2 ∈ V den Skalar (v1 , v2 ) als
(v1 , v2 ) = Re(v1 , v2 ) + iIm(v1 , v2 ).
Für eine komplexe Zahl z gilt Im(z) = Re(−iz), also ist Im(v1 , v2 ) =
Re(−i(v1 , v2 )) = Re(v1 , iv2 ), und es folgt
(v1 , v2 ) = Re(v1 , v2 ) + Re(v1 , iv2 ),
d.h. das innere Produkt ist durch seinen ‘Realteil’ Re( , ) bestimmt.
Beispiele 18.2. (a) Sei V = Cn (bzw. V = Rn ). Sind v1 = (α1 , . . . , αn )
und v1 = (β1 , . . . , βn ) zwei Vektoren in V , so definiert die Formel
n
X n
X
(v1 , v2 ) = αi βi (bzw. (v1 , v2 ) = α i βi )
i=1 i=1
ein Skalarprodukt auf Cn (bzw. Rn ); dies sind die sogenannten Standard-
Skalarprodukte.
(b) Ist V = R2 , v1 = (α1 , α2 ) und v1 = (β1 , β2 ), so definiert
(v1 , v2 ) = α1 β1 − α2 β1 − α1 β2 + 4α2 β2
ein inneres Produkt auf V . (Wegen (v1 , v1 ) = (α1 − α2 )2 + 3α22 gilt
(v1 , v1 ) ≥ 0 und (v1 , v1 ) = 0 ⇔ v1 = 0; die anderen Bedingungen (1)-
(3) sind ebenfalls leicht nachzurechnen).
(c) Sei V = K2×2 der K-Vektorraum aller 2 × 2-Matrizen. Dann ist
4 α11 α12
V →K , 7→ (α11 , α12 , α21 , α22 )
α21 α22
ein Isomorphismus. Die Komposition dieser Abbildung mit dem Standard-
Skalarprodukt auf K4 von (a) liefert ein Skalarprodukt auf V . Explizit:
Ist B = (βij ) eine weitere Matrix in K2×2 , so definiert
X
(A, B) = α11 β 11 + α12 β 12 + α21 β 21 + α22 β 22 = αjk β jk
j,k
141
ein inneres Produkt auf V . Sei B ∗ = (βij∗ ) die Matrix mit βkj ∗
= β jk ,
∗
B ist die adjungierte Matrix zu B (dies ist nicht die adjunkte Matrix
aus der Determinantentheorie). Dann gilt aufgrund der Identitäten
∗ α11 α12 β 11 β 21 α11 β 11 + α12 β 12 ∗
AB = =
α21 α22 β 12 β 22 ∗ α21 β 21 + α22 β 22
die Formel (A, B) = tr(AB ∗ ) = tr(B ∗ A); analog für Kn×n .
(d) Sei V der Vektorraum der stetigen komplexwertigen (oder reellwer-
tigen) Funktionen auf dem Einheitsintervall [0, 1]. Dann definiert
Z 1
(f, g) = f (t)g(t)dt
0
ein inneres Produkt auf V .
Lemma 18.3. Seien V, W K-Vektorräume, und ( , ) ein inneres Pro-
dukt auf W . Ist A : V → W eine injektive lineare Abbildung, so definert
pA (v1 , v2 ) = (Av1 , Av2 ) ein inneres Produkt auf V .
Beweis. Leichtes Nachrechnen; (vgl. Beispiel 18.2(c)).
Beispiele 18.4. (a) Sei V ein K-Vektorraum mit Basis {a1 , . . . , an }.
Betrachte Kn mit dem Standard-Skalarprodukt Produkt von Beispiel
18.2(a). Sei A : V → Kn die lineare Abbildung, die {a1 , . . . , an } mittels
ai 7→ ei auf die Standardbasis {e1 , . . . , en } von Kn abbildet (d.h. A ist
der ‘natürliche’ Isomorphismus V ∼ = Kn bzgl. der gegebenen Basis).
Nach Lemma 18.3 definiert dann für K = C (bzw. K = R)
n
X n
X n
X
pA ( αj aj , β j aj ) = αj β j
j=1 j=1 j=1
Xn Xn Xn
(bzw. pA ( α j aj , β j aj ) = α j βj )
j=1 j=1 j=1
ein inneres Produkt ( , ) = pA ( , ) auf V ; dabei gilt (ai , aj ) = δij .
Insbesondere gibt es zu jeder Basis {a1 , . . . , an } von V ein inneres Pro-
dukt auf V mit (ai , aj ) = δij , man kann leicht sehen, dass es genau
ein solches inneres Produkt gibt; wir werden zeigen, dass jedes innere
Produkt auf V das innere Produkt einer Basis ist.
(b) Sei V der Vektorraum von Beispiel 18.2(d). Ist W = V , und ist
A : V → W die Abbildung ‘Multiplikation mit t’, d.h. (Af )(t) =
tf (t), 0 ≤ t ≤ 1, so ist A linear (Nachrechnen) und injektiv (ist
Af = 0, so ist tf (t) = 0 für t > 0; da f stetig ist, folgt f (0) = 0,
142
und somit f = 0). Mit Lemma 18.3 ergibt sich ein inneres Produkt
Z 1 Z 1
pA (f, g) = (Af )(t)g(t)(Af )(t)dt = f (t)g(t)t2 dt.
0 0
Definition 18.5. Sei V ein K-Vektorraum mit einem inneren Produkt
( , ). Für v ∈ V definiere die Norm (oder ‘Länge’) von v als
p
k v k= (v, v) ≥ 0 (positive Quadratwurzel) .
Lemma 18.6. Sei V ein K-Vektorraum mit einem inneren Produkt
( , ). Sind v1 , v2 ∈ V und ist α ∈ K, so gilt
(a) k αv1 k= |α| k v1 k,
(b) k v1 k> 0 für 0 6= v1 ,
(c) |(v1 , v2 )| ≤ k v1 k · k v2 k (Cauchy-Schwarz Ungleichung),
(d) k v1 + v2 k ≤ k v1 k + k v2 k (Dreiecksungleichung).
Beweis. (a) und (b) folgen leicht aus den Definitionen. Betrachte (c):
Ist v1 = 0, so ist (0, v2 ) = (v2 − v2 , v2 ) = (v2 , v2 ) − (v2 , v2 ) = 0, d.h. die
Behauptung gilt für v1 = 0 und jedes v2 . Ist v1 6= 0, so setze
(v2 , v1 )
α= und v3 = v2 − αv1 .
k v1 k2
Dann ist 0 ≤k v3 k2 = (v2 − αv1 , v2 − αv1 ), wobei (wegen zz = |z|2 ) gilt
(v2 , v1 ) |(v2 , v1 )|2
−α(v1 , v2 ) + αα(v1 , v1 ) = − (v ,
1 2v ) + (v1 , v1 ) = 0,
k v1 k2 k v1 k4
und die Behauptung folgt aus der Ungleichung
2 |(v1 , v2 )|2
2
0 ≤k v3 k = (v2 , v2 ) − α(v2 , v1 ) =k v2 k − .
k v1 k2
Weiter folgt (d) aus (c) (und z + z = 2Re(z) und Re(z) ≤ |z|), da
k v1 + v2 k2 = k v1 k2 +(v1 , v2 ) + (v2 , v1 )+ k v2 k2
= k v1 k2 +2Re(v1 , v2 )+ k v2 k2
≤ k v1 k2 +2 k v1 kk v2 k + k v2 k2
= (k v1 k + k v2 k)2 .
Definition 18.7. Sei V ein K-Vektorraum mit einem inneren Produkt
( , ). Zwei Vektoren v1 , v2 ∈ V sind orthogonal (oder senkrecht), falls
(v1 , v2 ) = 0. Eine Menge M ⊆ V von Vektoren ist eine orthogonale
Menge, falls je zwei verschiedene Vektoren in M orthogonal sind. Eine
orthogonale Menge M ist orthonormal, falls k v k= 1 für alle v ∈ M .
143
• Der Nullvektor 0 ist orthogonal zu jedem Vektor in V , und ist der
einzige Vektor mit dieser Eigenschaft.
• Eine orthonormale Menge besteht aus paarweise orthogonalen Vek-
toren der Länge 1; dabei ist die Eigenschaft ‘orthogonal’ entscheidend
(da für je zwei orthogonale Vektoren 0 6= v, w ∈ V die Vektoren
v 0 =k v k−1 ·v und w0 =k w k−1 ·w orthonormal sind).
Beispiele 18.8. (a) Die Standardbasen von Rn und Cn sind orthonor-
male Mengen bzgl. dem jeweiligen Standard-Skalarprodukt.
(b) Sei V = Cn×n und sei Eij ∈ V die Matrix mit 1 an der Stelle (i, j)
und 0 sonst. Die Menge M = {Eij | i, j = 1, . . . , n} ist eine orthonor-
male Menge bzgl. des inneren Produkts von Beispiel 18.2(c), da
(Eij , Ers ) = tr(Eij Esr ) = δjs δir .
(c) Sei V der Vektorraum der stetigen C-wertigen (oder R-wertigen)
Funktionen auf [0, 1] mit dem inneren Produkt von Beispiel 18.2(d)
Z 1
(f, g) = f (t)g(t)dt.
0
√ √
Für n ≥ 1 setze fn = 2cos(2πnx) und gn = 2sin(2πnx). Dann ist
die Menge {1, f1 , g1 , f2 , g2 , . . . } orthonormal. Im komplexen Fall defi-
niert {hn }n∈Z mit hn = e2πinx ebenfalls eine orthonormale Menge.
Lemma 18.9. Sei V ein K-Vektorraum mit innerem Produkt ( ) und
M ⊆ V eine orthogonale Menge von nicht-trivialen Vektoren. Dann ist
M linear unabhängig.
NB. Der Beweis zeigt: Sind v1 , . . . , vn nicht-triviale orthogonale Vek-
toren und ist v eine Linearkombination der vi , so gilt stets
n
X (v, vi )
v= v.
2 i
i=1
k v i k
Beweis. Sei M ⊆ V eine orthogonale P Menge von nicht-trivialen Vekto-
ren, und v1 , . . . , vn ∈ M . Ist v = ni=1 αi vi , so folgt (da (vi , vk ) = δik )
n
X n
X
(v, vk ) = ( αi vi , vk ) = αi (vi , vk ) = αk (vk , vk ).
i=1 i=1
Nach Annahme ist vk 6= 0, also ist (vk , vk ) =k vk k2 6= 0 und deshalb
(v, vk )
αk = für 1 ≤ k ≤ n.
k vk k2
Ist v = ni=1 αi vi = 0, so ist (v, vk ) = (0, vk ) = (vk − vk , vk ) = 0 und
P
αk = 0. Da dies für alle k = 1, . . . , n gilt ist M linear unabhängig.
144
Theorem 18.10. (Gram-Schmidt) Sei V ein endlich-dimensionaler
K-Vektorraum mit einem inneren Produkt ( , ). Dann hat V eine or-
thonormale Basis.
NB. Sei V ein n-dimensionaler C-Vektorraum und {a1 , . . . , an } eine
Basis von V . Wie in Beispiel 18.4(b) bestimmt eine Basis ein inneres
Produkt auf V , wobei
Xn n
X n
X
( α j aj , βj aj ) = αj β j .
j=1 j=1 j=1
Wegen (ai , aj ) = δij ist die gegebene Basis eine Orthonormalbasis bzgl.
dieses inneren Produkts. Theorem 18.10 besagt, dass jedes innere Pro-
dukt auf V von dieser Form ist: Ist ( , ) ein inneres Produkt auf V , so
gibt es eine Basis {b1 , . . . , bn } P
von V , die
P bzgl. ( , P
) orthonormal ist.
Wegen (bi , bj ) = δij gilt dann ( j αj bj , k βk bk ) = nj=1 αj β j . Analog
für K = R.
Beweis. Sei {b1 , . . . , bn } eine Basis von V . Es genügt eine orthogona-
le Basis {a1 , . . . , an } zu konstruieren; um dann aus {a1 , . . . , an } eine
orthonormale Basis a01 , . . . , a0n zu erhalten, setze a0i =k ai k−1 ai , i =
1, . . . , n. Definiere a1 = b1 und für k ≥ 1 dann ak+1 rekursiv durch
k
X (bk+1 , ai )
ak+1 = bk+1 − ai .
i=1
k ai k 2
Diese Formel hat den folgenden geometrischen Hintergrund: Ist U =
ha1 , . . . , ak i, so ist ki=1 (bka
k+1 ,ai )
P
2 ai die orthogonale Projektion von bk+1
ik
auf U (d.h. das bk+1 am ‘nächsten’ gelegene Element von U ).
Ist n = 2, so ist zeigt eine direkte Rechnung (a1 , a2 ) = 0. Nach
Induktion gilt dies für alle j < n. Anwendung von (−, aj ) auf die obige
(b ,a )
Formel liefert (an , aj ) = (bn , aj ) = kanj kj2 (aj , aj ) = 0, d.h. {a1 , . . . , an }
ist orthogonal und damit nach Lemma 18.9 auch linear unabhängig.
Nach Definition hb1 , . . . , bn i ⊆ ha1 , . . . , an i und, da {b1 , . . . , bn } eine
Basis ist, gilt hier Gleichheit.
Definition 18.11. Sei V ein K-Vektorraum mit innerem Produkt ( , ).
Ist M ⊆ V eine Teilmenge, so ist das orthogonale Komplement von M
M ⊥ = {v ∈ V | (v, m) = 0 für alle m ∈ M } ⊆ V.
• Für jede Teilmenge M ⊆ V ist M ⊥ ⊆ V ist ein K-linearer Unterraum.
Lemma 18.12. Sei V ein K-Vektorraum mit einem inneren Produkt
und U ⊆ V ein linearer Unterraum endlicher Dimension. Dann gilt
145
(a) V = U ⊕ U ⊥ ,
(b) (U ⊥ )⊥ = U .
Beweis. (a): Jedes Element v ∈ V hat die Form v = u+v 0 für geeignete
u ∈ U und v 0 ∈ V \ U . Nach Theorem 18.10 hat U eine orthonormale
Basis {a1 , . . . , an } und nach der Bemerkung nach 18.9 ist dann
n
X
v= (v, ai )ai + v 0 .
i=1
Für j = 1, . . . , n folgt (v 0 , aj ) = (v, aj ) − ni=1 (v, ai )(ai , aj ) = (v, aj ) −
P
(v, aj ) = 0, d.h. v 0 ist orthogonal zu allen Basiselementen von U , und
somit in U ⊥ ; also ist V = U + U ⊥ . Ist v ∈ U ∩ U ⊥ , so ist (v, v) = 0,
und damit v = 0; dies zeigt V = U ⊕ U ⊥ .
(b): Übung.
19. Lineare Funktionale und Adjungierte
Sei V ein endlich-dimensionaler K-Vektorraum mit einem inneren
Produkt ( , ). Wir charakterisieren die linearen Funktionale auf V , d.h.
die Elemente von V ∗ = HomK (V, K), und definieren zu jedem Endo-
morphismus A : V → V eine Abbildung A∗ : V → V , sodass gilt
(Av1 , v2 ) = (v1 , A∗ v2 ).
Gilt A = A∗ , so ist A selbstadjungiert; die selbstadjungierten Endo-
morphism bilden eine wichtige Klasse von linearen Abbildungen mit
speziellen Eigenschaften.
Sei V ein K-Vektorraum mit innerem Produkt ( , ). Da das innere
Produkt linear in der ersten Variable ist, definiert für ein festes w ∈ V
fw : V → K, v 7→ fw (v) = (v, w)
ein Element von V ∗ = HomK (V, K). Das nächste Lemma besagt, dass
alle linearen Funktionale auf einem endlich-dimensionalen K-Vektorraum
V von dieser Form sind.
Lemma 19.1. Sei V ein endlich-dimensionaler K-Vektorraum mit in-
nerem Produkt ( , ) und f ∈ V ∗ = HomK (V, K). Dann gibt es einen
eindeutig bestimmten Vektor w ∈ V , sodass für alle v ∈ V gilt
f (v) = fw (v) = (v, w).
Beweis. Sei {a1 , . . . , an } eine Orthonormalbasis von V . Setze
n
X
w= f (ai ) · ai .
i=1
146
Für das durch den Vektor w definierte lineare Funktional fw gilt
n
X
fw (aj ) = (aj , f (ai )ai ) = (aj , f (aj )aj ) = f (aj );
i=1
da f und fw auf einer Basis übereinstimmen, folgt f = fw . Ist w0 ∈ V
ein weiterer Vektor mit f (v) = fw (v) = fw0 (v), so gilt (v, w) = (v, w0 )
und damit (v, w − w0 ) = 0 für v ∈ V ; der Spezialfall v = w − w0 liefert
(w − w0 , w − w0 ) = 0, also ist w − w0 = 0 und w = w0 .
Beispiel 19.2. Sei V = C[x] der C-Vektorraum der Polynome, zusam-
men mit dem durch die Formel
Z 1
(p, q) = p(t)q(t)dt
0
definierten inneren Produkt. Sei z ∈ C fest gewählt und L ∈ V ∗ die
Abbildung p 7→ p(z). Angenommen es gibt ein q ∈ V , sodass gilt
L(p) = (p, q), p ∈ V.
Betrachte h = x − z ∈ V . Für jedes p ∈ V ist h(z)p(z) = 0, sodass
Z 1
0= h(t)p(t)q(t)dt.
0
Dies gilt insbesondere für p = hq; es folgt
Z 1 Z 1
0= h(t)h(t)q(t)q(t)dt = |h(t)|2 |q(t)|2 dt
0 0
und weiter hq = 0. Da h 6= 0 ist, ist dann q = 0, und die Annahme
L(p) = (p, q) impliziert L : p 7→ p(z) = (p, 0) = 0 ist das triviale lineare
Funktional, Widerspruch. Insbesondere gilt die Aussage von Lemma
19.1 für unendlich-dimensionale K-Vektorräume im allgemeinen nicht.
Proposition 19.3. Sei V ein endlich-dimensionaler K-Vektorraum
mit einem inneren Produkt ( , ). Für jedes A ∈ EndK (V ) gibt es ein
eindeutiges A∗ ∈ EndK (V ), sodass gilt:
(Av1 , v2 ) = (v1 , A∗ v2 ), v1 , v2 ∈ V.
Beweis. Sei v ∈ V ein Vektor. Dann definiert f (w) = (Aw, v) ein
lineares Funktional auf V , und nach Lemma 19.1 gibt es einen eindeutig
bestimmten Vektor v 0 ∈ V mit f (w) = fv0 (w) = (w, v 0 ) für w ∈ V .
Setze A∗ (v) = v 0 . Diese Konstruktion bestimmt A∗ eindeutig und liefert
(Aw, v) = f (w) = fv0 (w) = (w, v 0 ) = (w, A∗ v).
147
Es bleibt zu zeigen, dass A∗ linear is. Für v1 , v2 , v3 ∈ V ist
(v1 , A∗ (v2 + v3 )) = (Av1 , v2 + v3 ) = (Av1 , v2 ) + (Av1 , v3 ) =
= (v1 , A∗ v2 ) + (v1 , A∗ v3 ) = (v1 , A∗ v2 + A∗ v3 ),
Damit ist 0 = (v1 , A∗ (v2 + v3 ) − (A∗ v2 + A∗ v3 )) für jedes v1 ∈ V ;
dies gilt insbesondere für v1 = A∗ (v2 + v3 ) − (A∗ v2 + A∗ v3 ), sodass
A∗ (v2 + v3 ) = A∗ v2 + A∗ v3 . Ist α ∈ K ein Skalar, so folgt aufgrund von
(v1 , A∗ (αv2 )) = (Av1 , αv2 ) = α(Av1 , v2 ) =
α(v1 , A∗ v2 ) = (v1 , αA∗ v2 )
genauso A∗ (αv2 ) = αA∗ v2 .
Lemma 19.4. Sei V ein endlich-dimensionaler K-Vektorraum mit in-
nerem Produkt ( , ). Dann gilt:
(a) Ist A ∈ EndK (V ), und ist A = (αij ) die Matrix von A bzgl.
einer Orthonormalbasis {a1 , . . . , an }, so ist αij = (Aaj , ai ).
(b) Hat A bzgl. einer Orthonormalbasis die Matrix A = (αij ), so hat
∗
A∗ bzgl. dieser Basis die Matrix A = (αji ) (komplex konjugiert
Transponierte).
Beweis. (a): Da {a1 , . . . , an } einen Orthonormalbasis ist gilt für v ∈ V
Xn
v= (v, ai )ai ,
i=1
siehe Bemerkung nach Lemma 18.9. Die Matrix A ist definiert durch
Xn
Aaj = αij ai .
i=1
Aus der ersten Formel ergibt sich Aaj = ni=1 (Aaj , ai )ai , und Koeffi-
P
zientenvergleich mit der zweiten Formel zeigt αij = (Aaj , ai ).
(b): Sei {a1 , . . . , an } eine Orthonormalbasis. Sind A = (αij ) und A∗ =
(βij ) die Matrizen von A und A∗ bzgl. dieser Basis, so gilt nach (a)
αij = (Aaj , ai ) und βij = (A∗ aj , ai ).
Nach Definition von A∗ gilt für diese Einträge
βij = (A∗ aj , ai ) = (ai , A∗ aj ) = (Aai , aj ) = αji .
Definition 19.5. Sei V ein K-Vektorraum mit innerem Produkt ( , )
(nicht unbedingt endlich-dimensional), und sei A ∈ EndK (V ). Dann
hat A eine Adjungierte A∗ , falls es ein A∗ ∈ EndK (V ) gibt, sodass
(Av1 , v2 ) = (v1 , A∗ v2 ), v1 , v2 ∈ V.
148
• Ist dimK V = n < ∞, so hat jedes A ∈ EndK (V ) eine Adjungierte.
• Existiert eine Adjungierte A∗ , so ist diese eindeutig bestimmt.
Beispiele 19.6. (a) Sei V = Kn×n . Für A = (αij ) ∈ V bezeichne mit
A∗ = (αji ) ∈ V die komplex konjugiere transponierte Matrix. Betrachte
V mit dem innerem Produkt (A, B) = tr(B ∗ A) von Beispiel 18.2(c).
Ist M ∈ V eine fest gewählte Matrix, so definiert Linksmultiplikation
mit M , LM : V → V, A 7→ M A eine lineare Abbildung. Es gilt
(LM (A), B) = tr(B ∗ (M A)) = tr(M AB ∗ )
= tr(AB ∗ M ) = tr(A(M ∗ B)∗ ) = (A, LM ∗ (B))
(dies verwendet tr(CD) = tr(DC)), also ist (LM )∗ = LM ∗ .
(b) Sei V = C[x] mit dem innerem Produkt von Beispiel 19.2. Für
f = ni=0 αi xi , schreibe f = ni=0 αi xi , d.h. f (t) = f (t) für t reell.
P P
Für f ∈ V fest, ist die Abbildung Mf : V → V, p 7→ f p linear. Es gilt
Z 1 Z 1
(Mf (p), q) = f (t)p(t)q(t)dt = p(t)[f (t)q(t)]dt = (p, Mf (q)),
0 0
d.h. Mf definiert eine Adjungierte zu Mf .
(c) Sei V = C[x] wie in Beispiel(b). Betrachte die lineare Abbildung
n
X n
X
i 0
D : V → V, p = αi x 7→ p = iαi xi−1
i=0 i=0
(d.h. D ist die erste Ableitung von p). Partielle Integration zeigt
(Dp, q) = p(1)q(1) − p(0)q(0) − (p, Dq).
Sei q ∈ V fest gewählt. Angenommen es gibt ein Polynom D∗ q, sodass
(Dp, q) = (p, D∗ q) für alle p ∈ V . Gibt es ein solches D∗ q, so gilt
(p, D∗ q) = (p, Dq) = p(1)q(1) − p(0)q(0) − (p, Dq),
und damit auch
(p, D∗ q + Dq) = p(1)q(1) − p(0)q(0).
Für festes q ist L(p) = p(1)q(1) − p(0)q(0) ein lineares Funktional wie
in Beispiel 19.2 und L(p) = (p, g) für ein festes g ∈ V nur dann, wenn
L = 0 ist. Existiert D∗ q, so folgt L(p) = (p, g) für g = D∗ q + Dq, und
wegen L(p) = 0 dann q(0) = q(1) = 0 (es ist p(1)q(1) − p(0)q(0) = 0
für alle Polynome p; ist p = 1, so folgt q(1) = q(0), ist p = x, so ist
q(1) = 0). Umgekehrt gilt: Ist q(0) = 0 = q(1), so setze D∗ q = −Dq.
Dann ist (Dp, q) = (p, D∗ q) für p ∈ V . Also lässt sich für jedes q ∈
V mit q(0) 6= 0 oder q(1) 6= 0 kein solches D∗ q definieren, d.h. der
Endomorphismus D hat keine allgemeine Adjungierte.
149
Die Beispiele zeigen, dass der Übergang A 7→ A∗ ähnliche Eigenschaf-
ten hat, wie die Konjugation von komplexen Zahlen. Genauer gilt:
Lemma 19.7. Sei V ein endlich-dimensionaler K-Vektorraum mit in-
nerem Produkt ( , ). Sind A, B ∈ EndK (V ), und ist α ∈ K, so gilt
(a) (A + B)∗ = A∗ + B ∗ ,
(b) (αA)∗ = αA∗ ,
(c) (AB)∗ = B ∗ A∗ ,
(d) (A∗ )∗ = A.
• Das Lemma besagt, dass A 7→ A∗ ein semi-linearer (konjugiert-
linearer) Anti-Isomorphismus ((AB)∗ = B ∗ A∗ ) der Periode 2 ((A∗ )∗ =
A) ist.
Beweis. Die erste Aussage (a) folgt aus
((A + B)v1 , v2 ) = (Av1 + Bv1 , v2 ) = (Av1 , v2 ) + (Bv1 , v2 ) =
= (v1 , A∗ v2 ) + (v1 , B ∗ v2 ) = (v1 , A∗ v2 + B ∗ v2 ) = (v1 , (A∗ + B ∗ )v2 )
und der Eindeutigkeit der Adjungierten. Die zweite Behauptung (b) ist
eine leichte Übung, und (c) bzw. (d) ergeben sich aus
(ABv1 , v2 ) = (Bv1 , A∗ v2 ) = (v1 , B ∗ A∗ v2 ),
und
(A∗ v1 , v2 ) = (v2 , A∗ v1 ) = (Av1 , v2 ) = (v2 , Av1 )
Sei V ein C-Vektorraum endlicher Dimension mit einem innerem
Produkt. Für einen Endomorphismus A ∈ EndC (V ) setze
1 1
A1 = (A + A∗ ) und A2 = (A − A∗ ).
2 2i
Dann sind A1 , A2 eindeutig bestimmt, es gilt A1 = A∗1 , A2 = A∗2 , und
A = A1 + iA2 ,
d.h. A hat einen ‘Realteil’ und einen ’Imaginärteil’. Ist A = A∗ , so ist
A = A1 ; die Analogie zwischen A 7→ A∗ und z 7→ z suggeriert, dass sich
ein A ∈ EndK (V ) mit A = A∗ “ähnlich wie eine reelle Zahl” verhält.
Definition 19.8. Sei V ein endlich-dimensionaler K-Vektorraum mit
einem innerem Produkt. Eine Endomorphismus A ∈ EndK (V ) ist selbst-
adjungiert, falls A = A∗ ist. Eine Matrix (αij ) ∈ Kn×n mit αij = αji
ist symmetrisch (falls K = R) und hermitesch (falls K = C).
150
• A ∈ EndK (V ) ist genau dann selbst-adjungiert, wenn die Matrix von
A bzgl. einer Orthonormalbasis symmetrisch (K = R) bzw. hermitesch
(K = C) ist.
• Ist A selbst-adjungiert, so sind alle Eigenwerte von A reell: Ist α ein
Eigenwert von A mit Eigenvektor v ∈ V , so ist (Av, v) = (v, Av) ⇔
α(v, v) = α(v, v) und wegen (v, v) 6= 0 dann α = α.
• Ist A selbst-adjungiert, A = A∗ , so gilt (Av, v) = (v, Av) = (Av, v)
für alle v ∈ V ; d.h. (Av, v) ∈ R.
Im Fall K = C charakterisiert die Bedingung (Av, v) ∈ R für v ∈ V
selbst-adjungierte Endomorphismen:
Lemma 19.9. Sei V ein C-Vektorraum mit inneren Produkt ( , ). Ist
(Av, v) ∈ R für alle v ∈ V , so ist A = A∗ .
Beweis. Seien v1 , v2 ∈ V . Zu zeigen ist: (Av1 , v2 ) = (v1 , Av2 ). Es ist
(A(v1 + v2 ), v1 + v2 ) = (Av1 , v1 ) + (Av1 , v2 ) + (Av2 , v1 ) + (Av2 , v2 ).
Da (A(v1 + v2 ), v1 + v2 ), (Av1 , v1 ) und (Av2 , v2 ) reell sind, ist auch
(Av1 , v2 ) + (Av2 , v1 ) reell. Das gleiche Argument für v1 + iv2 zeigt
(A(v1 + iv2 ), v1 + iv2 ) = (Av1 , v1 ) − i(Av1 , v2 ) + i(Av1 , v2 ) + (Av2 , v2 ),
also ist −i(Av1 , v2 ) + i(Av2 , v1 ) ebenfalls reell. Da für z, z 0 ∈ C mit
z + z 0 ∈ R stets z + z 0 = z + z 0 = z + z 0 gilt, folgt damit
(Av1 , v2 ) + (Av2 , v1 ) = (v2 , Av1 ) + (v1 , Av2 ),
−i(Av1 , v2 ) + i(Av2 , v1 ) = i(v2 , Av1 ) − i(v1 , Av2 )
Multiplikation der zweiten Gleichung mit i, und Addition der resultie-
renden Gleichung zur ersten Gleichung zeigt 2(Av1 , v2 ) = 2(v1 , Av2 ),
also ist (Av1 , v2 ) = (v1 , Av2 ).
20. Positive Endomorphismen
Sei V ein K-Vektorraum mit innerem Produkt, und sei A ∈ EndK (V ).
Betrachte die Abbildung φ : V × V → K, die einem Paar von Vektoren
v1 , v2 den Skalar (Av1 , v2 ) zuordnet. Wir möchten Bedingungen dafür
angeben, dass φ ein inneres Produkt auf V definiert. Da das innere Pro-
dukt ( , ) linear in der ersten Variable ist, ist die Abbildung φ linear
in der ersten Variable und die Bedingungen (1) und (2) für ein inneres
Produkt sind erfüllt. Die verbleibenden Bedingungen (3) und (4) sind
φ(v2 , v1 ) = φ(v1 , v2 ),
φ(v1 , v1 ) > 0 für v1 6= 0.
151
Wegen φ(v, v) = (Av, v) > 0 für v 6= 0 ist (Av, v) ∈ R und für K = C
zeigt Lemma 19.9, dass A = A∗ gelten muss. In diesem Fall folgt
φ(v2 , v1 ) = (Av2 , v1 ) = (v2 , Av1 ) = (Av1 , v2 ) = φ(v1 , v2 )
und die Bedingung (3) ist erfüllt. Allgemeiner definiert φ ein inneres
Produkt, falls die folgenden Bedingungen erfüllt sind
(Av1 , v2 ) = (v1 , Av2 ),
(#)
(Av1 , v1 ) > 0 für v1 6= 0.
Definition 20.1. Sei V ein K-Vektorraum mit innerem Produkt ( , ).
Ein Endomorphismus A ∈ EndK (V ) ist positiv (oder positiv definit),
falls die Bedingungen (#) erfüllt sind; insbesondere ist A = A∗ und
V × V → K, (v1 , v2 ) 7→ (Av1 , v2 ) definiert ein inneres Produkt.
In Fall endlicher Dimension ist jedes innere Produkt durch einen
positiven Endomorphismus gegeben:
Lemma 20.2. Sei V ein endlich-dimensonaler K-Vektorraum mit in-
nerem Produkt ( , ). Ist φ ein beliebiges inneres Produkt auf V , so gibt
es einen eindeutigen positiven Endomorphismus A ∈ EndK (V ), sodass
φ(v1 , v2 ) = (Av1 , v2 ) für v1 , v2 ∈ V.
Beweis. Wähle v2 ∈ V . Dann definiert v1 7→ φ(v1 , v2 ) ein lineares Funk-
tional auf V und nach Lemma 19.1 gibt es ein eindeutiges v20 ∈ V mit
φ(v1 , v2 ) = (v1 , v20 ) für alle v1 ∈ V . Definiere A : V → V durch v2 7→ v20 .
Für v1 , v2 ∈ V gilt φ(v1 , v2 ) = (v1 , v20 ) = (v1 , Av2 ), und weiter
φ(v1 , v2 ) = (v1 , Av2 ) = φ(v2 , v1 ) = (v2 , Av1 ) = (Av1 , v2 ).
Man rechnet leicht nach, dass A linear ist; da φ ein inneres Produkt ist,
ist A positiv. Ist A0 ∈ EndK (V ) ein weiterer positiver Endomorphismus
mit φ(v1 , v2 ) = (A0 v1 , v2 ), so folgt (Av1 , v2 ) = (A0 v1 , v2 ) und damit
(Av1 − A0 v1 , v2 ) = 0. Also ist Av1 − A0 v1 orthogonal zu jedem v2 ∈ V
und daher der Nullvektor, dies zeigt A = A0 .
Eine komplexe Zahl z ∈ C ist positiv genau dann, wenn es eine
nicht-triviale komplexe Zahl 0 6= w ∈ C mit z = ww = |w|2 gibt. Ein
positiver Endomorphismus A ist ein selbst-adjungierter Endormorphis-
mus A = A∗ , der zusätzlich ‘positiv’ ist, d.h. die Bedingung (Av, v) > 0
für v 6= 0 erfüllt. Die Analogie zwischen komplexer Konjugation und
Adjungierten suggeriert folgendes Resultat:
Proposition 20.3. Sei V ein endlich-dimensionaler K-Vektorraum
mit innerem Produkt. Dann ist A ∈ EndK (V ) genau dann positiv, wenn
es einen invertierbaren Endomorphismus U ∈ EndK (V ) gibt, sodass gilt
A = U ∗ U.
152
NB. Sei A ∈ EndK (V ) und A = (αij ) die Matrix von A bzgl. einer Or-
thonormalbasis. Dann hat A∗ bzgl. dieser Orthonormalbasis die Matrix
A∗ = (αji ) und det(A∗ ) = det(A). Ist A positiv, so ist det(A) > 0; ins-
besondere ist A invertierbar und A ist ein Isomorphismus: Nach obiger
Proposition ist A = U ∗ U für ein invertierbares U ∈ EndK (V ), sodass
∗
det(A) = det(U )det(U ) = det(U )det(U ) = |det(U )|2 > 0.
Beweis. Sei A = U ∗ U mit U ∈ EndK (V ) invertierbar. Dann ist
A∗ = (U ∗ U )∗ = U ∗ U = A,
d.h. A ist selbst-adjungiert. Ist v ∈ V , so gilt (Av, v) = (U ∗ U v, v) =
(U v, (U ∗ )∗ v) = (U v, U v) ≥ 0. Ist v 6= 0 so folgt, da U invertierbar ist,
U v 6= 0 und damit (Av, v) > 0 für v 6= 0. Also ist A positiv.
Sei umgekehrt A positiv. Dann definiert φ(v1 , v2 ) = (Av1 , v2 ) ein in-
neres Produkt auf V . Sei {a1 , . . . , an } eine orthonormale Basis bzgl.
dem auf V gegebenen inneren Produkt ( , ) und {b1 , . . . , bn } eine or-
thonormale Basis bzgl. dem inneren Produkt φ auf V . Dann gilt
φ(bj , bk ) = δjk = (aj , ak ).
Die lineare Abbildung U : V → V, bj 7→ aj , j = 1, . . . , n bildet eine
Basis auf eine Basis ab und ist damit invertierbar. Nach Definition ist
φ(bj , bk ) = (aj , ak ) = (U bj , U bk ).
Sind v1 = nj=1 xj bj und v2 = nj=1 yj bj zwei Vektoren in V , so folgt
P P
P P
φ(v1 , v2 ) = φ( j xj bj , j yj bj )
P P
= xj y k φ(bj , bk )
Pj Pk
= xj y k (U bj , U bk )
Pj k P
= ( j xj U bj , k yk U bk ) = (U v1 , U v2 ),
d.h. (Av1 , v2 ) = φ(v1 , v2 ) = (U v1 , U v2 ) = (v1 , U ∗ U v2 ) für v1 , v2 ∈ V .
Die Eindeutigkeit von A∗ liefert A∗ = U ∗ U und A = A∗ = U ∗ U .
Sei V ein endlich-dimensionaler K-Vektorraum mit innerem Produkt
( , ) und A ∈ EndK (V ) ein Endomorphismus. Betrachte die Matrix
A = (αij ) von A bzgl. einer Orthonormalbasis {a1 , . . . , an }. Dann ist A
positiv genau dann, wenn A = A∗ und (Av, v) > 0 für 0 6= v. Aus der
∗
ersten Bedingung folgt mit Lemma 19.4(b) A = A (d.h (αij ) = (αji )).
Der Beweis dieser Aussage benüzt, dass αij = (Aaj , ai ) ist. Die zweite
153
Bedingung (Av, v) > 0 besagt, dass für 0 6= v = nj=1 xj aj ∈ V gilt
P
(Av, v) = ( nj=1 xj Aaj , nk=1 xk ak )
P P
Pn Pn
= xj xk (Aaj , ak )
Pj=1
n Pk=1
n
= j=1 k=1 αkj xj xk > 0.
Für A = (αij ), 0 6= v = (x1 , . . . , xn )t ∈ Cn und v ∗ = (x1 , . . . , xn ) ist so
X n X n
(Av, v) > 0 ⇔ αkj xj xk = v ∗ Av > 0.
j=1 k=1
Definition 20.4. Eine hermitesche Matrix A = (αij ) ∈ Cn×n (d.h.
n
(α ji )) ist positiv, falls gilt: Für 0 6= v = (x1 , . . . , xn ) ∈ C ist
Pijn ) =
P(α
n ∗
j=1 k=1 αkj xj xk = v Av > 0.
Proposition 20.5. Sei V ein endlich-dimensionaler K-Vektorraum
mit innerem Produkt ( , ) und sei {a1 , . . . , an } eine orthonormale Ba-
sis. Dann ist ein Endomorphismus A ∈ EndK (V ) genau dann positiv,
wenn die Matrix A = (αij ) von A bzgl. {a1 , . . . , an } positiv ist (als
Element von Cn×n ).
• Es folgt: Ist A positiv und ist α ein Eigenwert von A mit normierten
Eigenvektor v ∈ V , so gilt: α = v ∗ (αv) = v ∗ Av > 0, also sind alle
Eigenwerte von A positiv.
Beweis. Ist K = C und ist A positiv, so folgt aus der obigen Diskussion,
dass auch A ∈ Cn×n positiv ist. Sei K = R und A ∈ EndR (V ) positiv.
Dann ist v ∗ Av > 0 für 0 6= v ∈ Rn ; zu zeigen ist, dass dies auch
für 0 6= v ∈ Cn gilt. Nach Proposition 20.3 gibt es ein invertierbares
U ∈ EndR (V ), sodass A = U ∗ U ist. Da U invertierbar ist gilt für
0 6= v ∈ Cn auch w = U v 6= 0. Mit den entsprechenden Matrizen folgt
v ∗ Av = v ∗ (U ∗ U )v = w∗ w > 0.
Die Umkehrung A positiv impliziert A positiv ist trivial.
Korollar 20.6. Eine hermitesche Matrix A ∈ Cn×n ist positiv genau
∗
dann, wenn es eine invertierbare Matrix U ∈ Cn×n mit A = U U gibt.
Hat A reelle Einträge (d.h. A ∈ Rn×n und A ist symetrisch), so ist
t
U ∈ Rn×n und A = U U .
1 0
Beispiele 20.7. (a) Sei E = die Einheitsmatrix. Für E ∈ R2×2
0 1
und einen Vektor 0 6= v = (x1 , x2 )t ∈ R2 ist v ∗ Ev = v t Ev, konkret
1 0 x1
(x1 , x2 ) = x21 + x22 > 0,
0 1 x2
154
d.h. die reelle Matrix E ist positiv. Für E ∈ C2×2 und einen Vektor
0 6= v = (x1 , x2 ) ∈ C2 ist die entsprechende Formel
1 0 x1
(x1 , x2 ) = x1 x1 + x2 x2 = |x1 |2 + |x2 |2 > 0.
0 1 x2
(b) Die symmetrische Matrix
−1 0 0
A = 0 1 2 ∈ R3×3
0 2 1
ist nicht positiv (zum Beispiel, da −1 ein Eigenwert ist).
(c) Sei V ein endlich-dimensionaler K-Vektorraum mit einem inneren
Produkt ( , ). Ist {a1 , . . . , an } eine beliebige Basis von V , so definiere
eine Matrix A = (αij ) ∈ Kn×n durch αjk = (ak , aj ). Nach Definition ist
A hermitesch. Für einen Vektor 0 6= (x1 , . . . , xn ) ∈ Cn ist weiter
n
X n
X n X
X n
( x j aj , y k ak ) = αkj xj xk > 0,
j=1 k=1 j=1 k=1
d.h. A ist eine positive Matrix. Ist umgekehrt A = (αkj ) eine positive
Matrix, so ist A die Matrix eines inneren Produkts bzgl. der Basis
{a1 , . . . , an }, d.h. die Formel
Xn n
X n X
X n
( x j aj , yk ak ) = αkj xj xk
j=1 k=1 j=1 k=1
definiert ein inneres Produkt auf V . Insbesondere lassen sich nach Wahl
einer Basis alle inneren Produkte auf V mittels positiver Matrizen be-
schreiben.
Konkret: Sei V = R2 mit Standardbasis {e1 , e2 }. Sei E ∈ R2×2 die Ein-
heitsmatrix. Die Matrix E ist positiv und für Vektoren v1 = (x1 , x2 )
und v2 = (y1 , y2 ) ist das durch E auf V definierte innere Produkt
2 X
X 2
(v1 , v2 ) = αkj xj y k = x1 y 1 + x2 y 2 = x1 y1 + x2 y2
j=1 k=1
das übliche innere Produkt auf V . Nach Beispiel 18.2(b) definiert die
Abbildiung (v1 , v2 ) 7→ x1 y1 − x2 y1 − x1 y2 + 4x2 y2 ebenfalls ein inneres
Produkt auf V . Dieses innere Produkt kommt von der Matrix
1 −1
A= .
−1 4
155
Genauer: Offensichtlich ist A hermitesch und weiter positiv, was sich
(1)
aus det(A) = 5 > 0 und det(A ) = det(1) = 1 > 0 folgern lässt;
siehe Lemma 20.8 unten.
Lemma 20.8. Sei A = (αij ) ∈ Cn×n eine hermitesche Matrix. Dann
ist A positiv genau dann, wenn für alle 1 ≤ k ≤ n gilt
α11 α12 · · · α1k
α21 α22 · · · α2k
(k)
det(A ) = det
· · >0
· ·
αk1 αk2 · · · αkk
Beweis. Übung.
21. Unitäre Abbildungen
Seinen V und W K-Vektorräume mit jeweils einem fest gewähltem
inneren Produkt. Eine unitäre Abbildung V → W ist ein Isomorphis-
mus von Vektorräumen, welcher zusätzlich mit den jeweiligen inneren
Produkten verträglich ist; insbesondere erhält eine solche Abbildung
geometrische Eigenschaften wie den Winkel zwischen zwei Vektoren, so-
wie die Norm eines Vektors. Offensichtliche unitäre Abbildungen sind,
zum Beispiel, Drehungen und Spiegelungen im R2 . Wir betrachten all-
gemeine unitäre Abbildungen und ihre fundamentalen Eigenschaften.
Definition 21.1. Seien V und W K-Vektorräume (über demselben
Körper K) mit einem (jeweils fest gewählten) innerem Produkt. Eine
lineare Abbildung A : V → W erhält innere Produkte, falls
(Av1 , Av2 ) = (v1 , v2 ) für v1 , v2 ∈ V.
• Erhält A innere Produkte, so gilt k Av k=k v k für v ∈ V ; insbeson-
dere erhält A die Norm, und ist injektiv (da Av = 0 ⇒ v = 0).
• Ist A : V → W ein Isomorphismus von Vektorräumen, welcher innere
Produkte erhält, so erhält A−1 ebenfalls innere Produkte: Ist Av = w,
so ist (A−1 w, A−1 w) = (v, v) = (Av, Av) = (w, w). In diesem Fall sind
V und W isomorph (als Vektorräume mit innerem Produkt).
Lemma 21.2. Seien V und W K-Vektorräume mit einem inneren
Produkt, sodass dimK V = dimK W endlich ist. Für eine K-lineare Ab-
bildung A : V → W sind gleichwertig:
(a) A erhält innere Produkte,
(b) A ist ein Isomorphismus von Vektorräumen mit innerem Pro-
dukt,
156
(c) A bildet jede Orthonormalbasis auf eine Orthonormalbasis ab,
(d) A bildet eine Orthonormalbasis auf eine Orthonormalbasis ab.
• Sei V ein n-dimensionaler K Vektorraum mit einem inneren Pro-
dukt. Dann ist V ∼ = Kn als Vektorräume mit innerem Produkt: Nach
Gram-Schmidt 18.10 hat V einen orthonormale Basis {a1 , . . . , an }. Sei
{e1 , . . . , en } die (orthonormale) Standardbasis von Kn . Die Abbildung
A : V → Kn , ai 7→ ei ist ein Isomorphismus von K-Vektorräumen
und bildet einen Orthonormalbasis auf eine Orthonormalbasis ab. Nach
dem obigen Lemma ist A ein Isomorphismus von K-Vektorräumen mit
innerem Produkt.
Beweis. (a)⇒(b): Nach Annahme ist k Av k=k v k für alle v ∈ V . Also
ist A injektiv (da Av = 0 ⇒ v = 0), und wegen dimK V = dimK W ist
A dann auch surjektiv, also ein Isomorphismus.
(b)⇒(c): Ist A ein Isomorphismus und ist {a1 , . . . , an } eine Orthonor-
malbasis von V , so ist {Aa1 , . . . , Aan } eine Basis von W . Da A innere
Produkte erhält ist (Aai , Aaj ) = (ai , aj ) = δij , d.h. {Aa1 , . . . , Aan } ist
eine Orthonormalbasis von W .
(c)⇒(d): Trivial.
(d)⇒(a): Sei {a1 , . . . , an } eine orthonormale Basis von V , die unter A
auf eine orthonormale Basis {Aa1 , . . . , Aan } von W abgebildet wird,
sodass (Aai , Aaj ) = (ai , aj ) = δij . Für Vektoren v1 = (x1 , . . . , xn ) und
v2 = (y1 , . . . , yn ) in V folgt
(Av1 , Av2 ) = ( nj=1 xj Aaj , nk=1 yk Aak )
P P
Pn Pn
= xj y k (Aaj , Aak )
Pnj=1 Pnk=1
= k=1 xi y j (aj , ak )
Pj=1
= ( j=1 xj aj , nk=1 yk ak ) = (v1 , v2 ),
n P
d.h. A erhält innere Produkte.
Beispiele 21.3. (a) Sei V = R3 mit dem üblichen inneren Produkt
und W der R-Vektorraum der schiefsymmetrischen Matrizen in R3×3
(d.h. At = −A) mit dem inneren Produkt (A, B) = 21 tr(AB t ) von
Beispiel 18.2(c) (der Faktor 1/2 dient der Vereinfachung). Ist A =
(αij ) ∈ W , so gilt αii = 0 und αij = −αji für i 6= j. Also hat jede
Matrix in W die Form
0 −α12 −α13
A = α12 0 −α23
α13 α23 0
157
und die folgenden Matrizen bilden eine Basis von W
0 −1 0 0 0 −1 0 0 0
A1 = 1 0 0 , A2 = 0 0 0 , A3 = 0 0 −1 .
0 0 0 1 0 0 0 1 0
Für i = 1, 2, 3 gilt tr(Ai Ati ) = 2; da weiter tr(Ai Atj ) = 0 für i 6= j ist
{A1 , A2 , A3 } eine Orthonormalbasis von W . Die lineare Abbildung
A : W 7→ R3 , Ai 7→ ei
bildet eine Orthonormalbasis auf eine Orthonormalbasis ab, und ist
daher ein Isomorphismus von Vektorräumen mit innerem Produkt.
(b) Sei V der R-Vektorraum der stetigen Funktionen [0, 1] → R mit
Z 1
(f, g) = f (t)g(t)dt,
0
und sei V = W mit dem inneren Produkt (vgl. Beispiel 18.4(b))
Z 1
[f, g] = f (t)g(t)t2 dt.
0
Ist A : V → W die lineare Abbildung f (t) 7→ tf (t), so gilt (Af, Ag) =
[f, g], d.h. A erhält innere Produkte. Aber: A ist kein Isomorphismus,
da im(A) ( W (die konstanten Funktionen liegen nicht in im(A)).
Lemma 21.4. Seien V und W K-Vektorräume mit einem inneren
Produkt und A : V → W eine K-lineare Abbildung. Dann erhält A
innere Produkte genau dann, wenn k Av k=k v k für alle v ∈ V .
Beweis. Übung.
Definition 21.5. Sei V ein K-Vektorraum mit innerem Produkt. Eine
unitäre Abbildung auf V ist ein Isomorphismus U : V → V , welcher
das innere Produkt erhält, d.h. (U v1 , U v2 ) = (v1 , v2 ) für v1 , v2 ∈ V .
• Die unitären Abbildungen auf V bilden eine Gruppe U (V ): Für
U1 , U2 ∈ U (V ) ist U2 U1 invertierbar und da k U2 U1 v k=k U1 v k=k v k
erhält nach Lemma 21.4 U2 U1 das innere Produkt. Ist U ∈ U (V ), so
ist auch U −1 ∈ U (V ); das neutrale Element in U (V ) ist die Iden-
titätsabbildung Id.
• Ist dimK V = n, so ist U ∈ U (V ) genau dann, wenn U eine (bzw.
jede) Orthonormalbasis von V auf eine Orthonormalbasis abbildet.
Proposition 21.6. Sei V ein K-Vektorraum mit einem innerem Pro-
dukt. Für einen Endomorphismus U ∈ EndK (V ) gilt:
U ∈ U (V ) ⇔ U ist invertierbar und U −1 = U ∗
⇔ U ∗ existiert und U ∗ U = U U ∗ = id .
158
Beweis. Ist U unitär, so ist U ein Isomorphismus und es gibt eine inver-
se Abbildung U −1 . Wegen (U v1 , v2 ) = (U v1 , U U −1 v2 ) = (v1 , U −1 v2 ) für
v1 , v2 ∈ V folgt aus der Eindeutigkeit der Adjungierten U ∗ = U −1 , und
weiter U U ∗ = U ∗ U = id. Existiert U ∗ und ist U U ∗ = U ∗ U = id, so ist U
invertierbar und U −1 = U ∗ . Wegen (U v1 , U v2 ) = (v1 , U ∗ U v2 ) = (v1 , v2 )
für v1 , v2 ∈ V erhält U innere Produkte. Dies zeigt die erste Äquivalenz.
Die zweite Äquivalenz folgt aus der Eindeutigkeit von U −1 = U ∗ .
∗
Definition 21.7. Eine Matrix A = (αij ) ∈ Cn×n ist unitär, falls A =
−1 ∗ ∗
(αji ) = A ist; für eine unitäre Matrix gilt A · A = A · A = E. Eine
−1 t
Matrix A = (αij ) ∈ Rn×n ist orthogonal, falls A = (αji ) = A ist. In
t t
diesem Fall ist A · A = A · A = E.
• Sei dimK V = n. Für K = C ist U ∈ U (V ) genau dann, wenn die
Matrix U von U bzgl. einer (bzw. jeder) Orthonormalbasis unitär ist.
Im Fall K = R ist U ∈ U (V ) genau dann, wenn die Matrix U von U
bzgl. einer (bzw. jeder) Orthonormalbasis orthogonal ist.
∗
• Für jedes A ∈ Cn×n mit det(A) = z ∈ C ist det(A ) = z. Ist A unitär,
∗
sodass A · A = E, so ist zz = |z|2 = 1, also ist die Determinante einer
unitären Matrix eine komplexe Zahl auf dem Einheitskreis.
t
• Für jede quadratische Matrix A ist det(A) = det(A ). Ist A ∈ Rn×n
t
orthogonal, so liefert A · A = E dann det(A)2 = 1, also ist die Deter-
minante einer orthogonalen Matrix ±1.
Beispiele 21.8. (a) Eine 1 × 1 Matrix A = (α) ∈ R1×1 ist orthogonal
genau dann, wenn α = ±1 ist. Eine 1 × 1 Matrix A = (α) ∈ C1×1 ist
unitär genau dann, wenn αα = 1 ist; in diesem Fall ist |α| = 1 und α
liegt auf den Einheitskreis.
(b) Sei A = (αij ) ∈ R2×2 . Dann ist A orthogonal genau dann, wenn
α11 α21 t −1 1 α22 α12
=A =A =
α12 α22 α11 α22 − α12 α21 −α21 α11
t
Wegen A · A = E gilt det(A) = ±1; ist det(A) = 1, so folgt α11 = α22
und α12 = −α21 , im Fall det(A) = −1 ist α11 = −α22 und α12 = α21 .
Somit hat jede orthogonale Matrix in R2×2 eine der beiden Formen
α −β α β
oder , wobei α2 + β 2 = 1.
β α β −α
Konkret: Für jede reelle Zahl θ ist insbesondere die folgende Matrix
cos(θ) −sin(θ)
Aθ =
sin(θ) cos(θ)
159
orthogonal vom ersten Typ; die Matrix Aθ entspricht einer Drehung im
R2 um den Winkel θ (entgegen dem Uhrzeigersinn). Die Matrix
1 0
A=
0 −1
ist orthogonal vom zweiten Typ; geometrisch beschreibt A die Spiege-
lung über die x-Achse.
(c) Sei A = (αij ) ∈ C2×2 . A ist unitär genau dann, wenn
α11 α21 ∗ −1 1 α22 α12
=A =A = .
α12 α22 α11 α22 − α12 α21 −α21 α11
∗
Wegen A · A = E hat die Determinante einer unitären Matrix den
Absolutbetrag 1, d.h. det(A) ist eine komplexe Zahl der Form exp(iθ)
für ein θ ∈ R. Koeffizientenvergleich ergibt die Relationen
α22 = exp(iθ)α11 und α21 = −exp(iθ)α12 .
Somit ist A genau dann unitär, wenn
α11 α12 1 0 α11 α12
A= = .
−exp(iθ)α12 exp(iθ)α11 0 exp(iθ) −α12 α11
Ist konkret exp(iθ) = −1, so ergibt sich die unitäre Matrix
α11 α12
A= .
α12 −α11
Für die Zeilen (α11 , α12 ) und (α12 , −α11 ), aufgefasst als Elemente von
C2 , gilt bzgl. dem üblichen inneren Produkt auf C2 dann
(α11 , α12 ) · (α12 , −α11 ) = α11 α12 − α12 α11 = 0.
Weiter ist
(α11 , α12 ) · (α11 , α12 ) = α11 α11 + α12 α12 = −det(A) = ±1,
sodass k (α11 , α12 ) k= 1 ist. Ähnlich folgt k (α12 , −α11 ) k= 1, d.h. die
Zeilen von A bilden eine orthonormale Menge. Das nächste Beispiel (d)
zeigt, dass dies kein Zufall ist.
−1
(d) Sei A = (αij ) ∈ Cn×n . Dann ist A unitär genau dann, wenn A =
∗ ∗ ∗ ∗
PnA · A = A · A = E. Wegen A · A = E ist
A ist, oder gleichwertig
∗
(A · A)ij = δij bzw. l=1 αlj αlk = δjk , d.h. die Spalten von A bilden
eine orthonormale Menge bzgl. dem üblichen inneren Produkt auf Cn .
∗
Genauso bilden wegen A · A = E die Zeilen von A eine orthonormale
Menge. Es folgt:
A ist unitär ⇔ die Spalten von A bilden eine orthonormale Menge
⇔ die Zeilen von A bilden eine orthonormale Menge.
160
Sei V ein n-dimensionaler C-Vektorraum mit innerem Produkt, und
seinen B = {a1 , . . . , an } bzw. B 0 = {a01 , . . . , a0n } zwei Orthonormalba-
sen von V bzgl. diesem inneren Produkt. Sei U : V → V der Isomor-
phismus, der durch ai 7→ a0i bestimmt ist. Da U eine Orthonormalbasis
auf eine Orthonormalbasis abbildet ist U unitär. Sei U = (uij ) ∈ Cn×n
die (unitäre) Matrix der Abbildung U bzgl. der Basis B, sodass gilt
n
X
0
aj = uij ai .
i=1
Sei A ∈ EndC (V ) eine weiterer Endomorphismus und sei AB die Matrix
AB (bzw. AB 0 ) die Matrix von A bzgl. der Basis B (bzw. B 0 ). Dann ist
−1 ∗
AB 0 = U AB U = U AB U ,
d.h. die Matrizen AB und AB 0 sind nicht nur ‘ähnlich’, sondern ‘unitär-
ähnlich’.
Definition 21.9. Seien A, B ∈ Cn×n . Dann ist A unitär-ähnlich zu
∗
B, falls es eine unitäre Matrix U ∈ Cn×n gibt, sodass B = U A U
ist. Zwei Matrizen A, B ∈ Rn×n sind orthogonal-ähnlich, falls es eine
t
orthogonale Matrix U ∈ Rn×n gibt, sodass B = U A U ist.
• Für einen n-dimensionalen C-Vektorraum Y mit Orthonormalbasen
B und B 0 sind für jeden Endomorphismus A ∈ EndC (V ) die Matrizen
AB und AB 0 unitär-ähnlich. Analog sind für jeden Endomorphismus
eines n-dimensionalen R-Vektorraums die Matrizen bzgl. zweier Or-
thonormalbasen orthogonal-ähnlich.
22. Normale lineare Abbildungen
Wir betrachten die folgende Frage: Sei V ein endlich-dimensionaler
K-Vektorraum mit innerem Produkt, und A ∈ EndK (V ). Wann gibt
es eine orthonormale Basis von V , die aus Eigenvektoren von A be-
steht, d.h. wann gibt es eine orthonormale Basis, sodass die Matrix
von A bzgl. dieser Basis Diagonalform hat?
Gilt dies, d.h. ist B = {a1 , . . . , an } eine solche Orthonormalbasis aus
Eigenvektoren, und ist ai Eigenvektor zum Eigenwert αi , so ist
Aaj = αj aj , j = 1, . . . , n,
und die Matrix von A bzgl. dieser Basis ist die Diagonalmatrix mit
den Diagonaleinträgen α1 , . . . , αn . Die Adjungierte A∗ von A ist bzgl.
derselben Basis durch die Diagonalmatrix mit den Einträgen α1 , . . . , αn
dargestellt. Ist V ein R-Vektorraum, so sind die αi reell, αi = αi , und
es folgt A = A∗ ; d.h. für einen reellen Vektorraum ist A = A∗ eine
161
notwendige Bedingung. Im komplexen Fall sind die αi nicht unbedingt
reell, jedoch muss wegen αi αi = αi αi dann AA∗ = A∗ A gelten. Wir
zeigen, dass im Fall K = C die Bedingung AA∗ = A∗ A auch hinreichend
für die Existenz einer Orthonormalbasis aus Eigenvektoren ist.
Definition 22.1. Sei V ein endlich-dimensionaler K-Vektorraum mit
innerem Produkt. Eine lineare Abbildung A : V → V ist normal, falls
AA∗ = A∗ A.
NB. Selbst-adjungierte (A = A∗ ) und unitäre Abbildungen (AA∗ =
A ∗ A = id) sind normal. Weiter ist ein Skalarvielfaches einer normalen
Abbildung normal; jedoch sind Summen und Produkte von normalem
Abbildungen in der Regel nicht normal (d.h. die normalen Abbildungen
bilden keine Untergruppe von EndK (V )).
Wir betrachten zunächst nur selbst-adjungierte Abbildungen:
Lemma 22.2. Sei V ein endlich-dimensionaler K-Vektorraum mit in-
nerem Produkt. Ist A ∈ EndK (V ) selbst-adjungiert ( A = A∗ ), so ist
jeder Eigenwert von A reell. Die Eigenvektoren zu verschiedenen Ei-
genwerten von A sind orthogonal.
Beweis. Für einen selbst-adjungierten Endomorphismus ist nach der
Bemerkung nach Definition 19.8 jeder Eigenwert reell. Sind α, α0 ∈ K
Eigenwerten von A mit Eigenvektoren v, v 0 , so sind α, α0 reell, und
α(v, v 0 ) = (Av, v 0 ) = (v, Av 0 ) = (v, α0 v 0 ) = α0 (v, v 0 ) = α0 (v, v 0 ).
Also ist (α − α0 )(v, v 0 ) = 0, und für α 6= α0 ist (v, v 0 ) = 0.
Lemma 22.3. Sei 0 6= V ein endlich-dimensionaler K-Vektorraum mit
innerem Produkt. Dann hat jeder selbst-adjungierte Endomorphismus
A ∈ EndK (V ) einen Eigenwert (und damit einen Eigenvektor 0 6= v).
NB. Im Fall K = C ist die Aussage trivial und gilt für jeden Endomor-
phismus A: Da C algebraisch abgeschlossen ist hat das charakteristische
Polynom fA ∈ C[x] eine Nullstelle, und A hat einen Eigenwert.
Beweis. Es genügt den Fall K = R zu betrachten. Sei A ∈ EndR (V )
mit A = A∗ . Wir zeigen: das charakteristische Polynom fA ∈ R[x] hat
eine reelle Nullstelle. Da C algebraisch abgeschlossen ist hat fA ∈ C[x]
eine komplexe Nullstelle α ∈ C. Ist A die Matrix von A bzgl. einer
Orthonormalbasis, so ist αE − A ∈ Cn×n nicht invertierbar und es gibt
ein 0 6= v ∈ Cn mit Av = αv. Betrachte Cn mit dem inneren Produkt
(v, v 0 ) = v ∗ · v 0 . Die (C-lineare) Abbildung U : Cn → Cn , v 0 7→ Av 0 ist
wegen A = A∗ selbst-adjungiert und hat wegen U v = Av = αv den
Eigenwert α. Nach Lemma 22.2 ist α ∈ R.
162
Lemma 22.4. Sei V ein endlich-dimensionaler K-Vektorraum mit in-
nerem Produkt, und sei A ∈ EndK (V ) ein beliebiger Endomorphismus.
Ist W ⊆ V ein A-invarianter linearer Unterraum (d.h. AW ⊆ W ), so
ist das orthogonale Komplement W ⊥ A∗ -invariant (d.h. A∗ W ⊥ ⊆ W ⊥ ).
Beweis. Sei w0 ∈ W ⊥ . Für w ∈ W ist nach Annahme Aw ∈ W und
daher 0 = (Aw, w0 ) = (w, A∗ w0 ), also ist A∗ w0 ∈ W ⊥ .
Theorem 22.5. Sei 0 6= V ein n-dimensionaler K-Vektorraum mit
innerem Produkt, und sei A ∈ EndK (V ) selbst-adjungiert. Dann gibt
es eine Orthonormalbasis von V , die aus Eigenvektoren von A besteht.
NB. Für K = R folgt: Es gibt eine Orthonormalbasis von V aus Ei-
genvektoren von A genau dann, wenn A selbst-adjungiert ist (A = A∗ ).
Beweis. Nach Lemma 22.3 hat A einen Eigenvektor a1 ; oBdA ist a1 nor-
miert. Ist dimK V = 1, so ist {a1 } eine Orthonormalbasis und wir sind
fertig. Nach Induktion gilt die Behauptung für V mit 0 < dimK V < n.
Sei W = ha1 i ⊆ V der von a1 erzeugte 1-dimensionale lineare Unter-
raum. Da W von einem Eigenvektor erzeugt ist gilt AW ⊆ W . Nach
Lemma 22.4 ist W ⊥ invariant unter A∗ = A. Der lineare Unterraum
W ⊥ ⊆ V ist ein innerer Produktraum (bzgl. dem inneren Produkt von
V ), A|W ⊥ ist selbst-adjungiert, und dimK W ⊥ = n − 1. Nach Indukti-
on gibt es eine Orthonormalbasis {a2 , . . . , an }, die aus Eigenvektoren
von A|W ⊥ besteht; jeder dieser Vektoren ist auch ein Eigenvektor von
A. Nach Lemma 18.12 ist V = W ⊕ W ⊥ ist, also ist {a1 , . . . , an } eine
Orthonormalbasis von V , die aus Eigenvektoren von A besteht.
∗
Korollar 22.6. Sei A ∈ Cn×n eine hermitesche Matrix (d.h. A = A ).
−1
Dann gibt es eine unitäre Matrix U , sodass U A U eine Diagonalma-
t
trix ist. Ist A ∈ Rn×n eine symmetrische Matrix (A = A), so gibt es
−1
eine orthogonale Matrix U ∈ Rn×n , sodass U A U eine Diagonalma-
trix ist.
Beweis. Die Matrix A ist die Matrix eines selbst-adjungierten Endo-
morphismus A bzgl. der orthonormalen Standardbasis B von Cn . Nach
Theorem 22.5 gibt es eine orthonormale Basis B 0 von Cn , die aus Eigen-
vektoren von A besteht, sodass A bzgl. dieser Basis durch eine Diago-
nalmatrix dargestellt ist. Die Bemerkung nach Definition 21.9 besagt,
dass der Basiswechsel von B zu B 0 durch unitäre (K = C) bzw. ortho-
gonale Matrizen (K = R) gegeben ist.
Wir betrachten nun normale Endomorphismen.
163
Lemma 22.7. Sei V ein endlich-dimensionaler K-Vektorraum mit in-
nerem Produkt, und sei A ∈ EndK (V ) normal. Dann gilt: v ist Eigen-
vektor von A zum Eigenwert α genau dann, wenn v Eigenvektor von
A∗ zum Eigenwert α ist.
• Der Beweis zeigt: Ist A normal, so ist k Av k=k A∗ v k für v ∈ V .
Beweis. Sei v ∈ V . Dann folgt aus der Annahme AA∗ = A∗ A, dass
k Av k2 = (Av, Av) = (v, A∗ Av) = (v, AA∗ v) = (A∗ v, A∗ v) =k A∗ v k2 ,
d.h. k Av k=k A∗ v k. Sei A ∈ EndK (V ) beliebig und α ∈ K. Dann ist
((A − α id)v1 , v2 ) = (Av1 , v2 ) − (αv1 , v2 )
= (v1 , A∗ v2 ) − (v1 , αv2 ) = (v1 , (A∗ − α id)v2 ),
d.h. (A − α id)∗ = A∗ − α id. Eine einfache direkte Rechnung zeigt, dass
für A normal auch A − α id normal ist. Somit gilt für jedes v ∈ V
k (A − α id)v k=k (A∗ − α id)v k;
insbesondere gilt für 0 6= v: Av = αv genau dann, wenn A∗ v = αv.
Theorem 22.8. Sei V ein endlich-dimensionaler C-Vektorraum mit
innerem Produkt, und sei A ∈ EndK (V ) normal. Dann hat V eine
Orthonormalbasis aus Eigenvektoren von A.
NB. Über C gilt: Es gibt eine Orthonormalbasis aus Eigenvektoren
von A genau dann, wenn A normal ist (AA∗ = A∗ A).
Beweis. Da V ein komplexer Vektorraum ist hat A einen Eigenwert
α1 mit Eigenvektor a1 ; oBdA ist k a1 k= 1. Sei W = ha1 i ⊆ V .
Der Unterraum W ist A-invariant, und da nach Lemma Aa1 = α1 a1 ⇔
A∗ a1 = α1 a1 auch A∗ -invariant. Nach Lemma 22.4 ist W ⊥ damit A∗∗ =
A-invariant. Wegen (A|W ⊥ )∗ = A∗ |W ⊥ ist die Einschränkung von A auf
W ⊥ normal, und die Behauptung folgt mit einem Induktionsargument
analog wie in dem Beweis von Theorem 22.5.
∗ ∗
Korollar 22.9. Sei A ∈ Cn×n , sodass A A = A A (d.h. A ist eine
normale Matrix). Dann gibt es eine unitäre Matrix U ∈ Cn×n , sodass
−1
U A U eine Diagonalmatrix ist.
23. Das Spektraltheorem
Sei V ein endlich-dimensionaler komplexer Vektorraum mit innerem
Produkt. Ist A ∈ EndC (V ), so gibt es nach Theorem 22.8 eine Or-
thonormalbasis aus Eigenvektoren von A genau dann, wenn A normal
ist. Die Existenz einer einer solchen Orthonormalbasis ermöglicht eine
‘geometrische’ Interpretation eines solchen Endomorphismus.
164
Wir zeigen, dass jeder normale Endomorphismus A sich als eine Li-
nearkombination von orthogonalen Projektionen darstellen lässt, d.h.
A = α 1 P1 + · · · + α k Pk ,
wobei die αi ∈ C die Eigenwerte von A und die Pi die orthogonalen
Projektionen auf die Eigenräume V (αi ) sind; dabei sind die Pi paar-
weise orthogonal, d.h. Pi Pj = 0 für i 6= j. Dies lässt sich aus Theorem
22.8 herleiten; wir geben einen direkten, algebraischen Beweis.
Für einen Vektorraum V und einen linearen Unterraum U ⊆ V ist
eine Projektion von V auf U eine lineare Abbildung p : V → V mit
p(V ) = U und p|U = idU . Jede lineare Abbildung p : V → V mit p2 = p
ist eine Projektion auf einen linearen Unterraum (nämlich U = im(p)).
Hat V ein inneres Produkt, so gibt es für jeden linearen Unterraum
U ⊆ V eine eindeutig bestimmte Projektion p von V auf U , sodass gilt
v − p(v) ∈ U ⊥ (d.h. ker(p) = U ⊥ ist das orthogonale Komplement von
U in V ); diese ausgezeichnete Projektion ist die Orthogonalprojektion
von V auf U , siehe Übung.
Die folgenden zwei Lemmata beschreiben orthogonale Unterräume
mittels Projektionen und derer Adjungierten, und sind der ‘geometri-
sche’ Anteil des Beweises des Spektraltheorems.
Lemma 23.1. Sei V ein endlich-dimensionaler K-Vektorraum mit in-
nerem Produkt, und sei P : V → V eine Projektion (d.h. P 2 = P ).
Dann sind folgende Aussagen gleichwertig:
(a) P ist normal, P P ∗ = P ∗ P ,
(b) P ist selbst-adjungiert, P = P ∗ ,
(c) P ist die Orthogonalprojektion von V auf im(P ).
Beweis. (a)⇒(b): Ist P normal, so ist k P v 0 k=k P ∗ v 0 k für v 0 ∈ V ,
siehe Beweis von Lemma 22.7. Insbesondere ist P v 0 = 0 genau dann,
wenn P ∗ v 0 = 0 ist. Für v ∈ V setze v 0 = v − P v. Es folgt
P v 0 = P (v − P v) = P v − P 2 v = P v − P v = 0,
und weiter 0 = P v 0 = P ∗ v 0 = P ∗ (v − P v) = P ∗ v − P ∗ P v. Also ist
P ∗ = P ∗ P , und P = P ∗∗ = (P ∗ )∗ = (P ∗ P )∗ = P ∗ P = P ∗ .
(b)⇒(c): Zu zeigen ist: P = P ∗ impliziert ker(P ) = im(P )⊥ . Wegen
P = P ∗ gilt (P v, v 0 ) = (v, P v 0 ). Somit ist v 0 orthogonal zu im(P )
(d.h. jedem P v) genau dann, wenn P v 0 orthogonal zu ganz V ist, also
genau dann, wenn P v 0 = 0 ist.
165
(c)⇒(a): Seien v1 , v2 ∈ V . Nach Annahme ist P eine Orthogonalpro-
jektion und v1 − P v1 ∈ im(P )⊥ ; klar ist P v2 ∈ im(P ). Es folgt
0 = (v1 − P v1 , P v2 ) = (v1 , P v2 ) − (P v1 , P v2 ) =
= (v1 , P v2 ) − (v1 , P ∗ P v2 ) = (v1 , (P − P ∗ P )v2 ).
Da dies für alle v1 , v2 ∈ V gilt ist P = P ∗ P . Wegen P = P 2 ist dann
P 2 = P ∗ P und P = P ∗ , d.h. P ist selbst-adjungiert und damit auch
normal.
Ist V = W1 ⊕ · · · ⊕ Wk ⊆ V die direkte Summe von Unterräumen
Wj ⊆ V , so hat jeder Vektor v ∈ V eine eindeutige Darstellung als
k
X
v= αj w j , w j ∈ W j .
j=1
Hat V ein inneres Produkt, so ist eine orthogonale direkte Summe eine
solche Zerlegung V = W1 ⊕ · · · ⊕ Wk , für die zusätzlich gilt, dass für
i 6= j jeder Vektor in Wi orthogonal zu jedem Vektor in Wj ist.
Lemma 23.2. Sei V ein endlich-dimensionaler C-Vektorraum mit ei-
nem innerem Produkt. Für lineare Unterräume W1 , . . . , Wk ⊆ V sei Pj
die Orthogonalprojektion von V auf Wj . Dann sind gleichwertig:
(a) V = W1 ⊕ · · · ⊕ Wk ist eine orthogonale direkte Summe,
(b) id = kj=1 Pj und Pi Pj = 0 für i 6= j,
P
(c) Ist Bj eine Orthonormalbasis von Wj , j = 1, . . . , k, so ist die
Vereinigung ∪kj=1 Bj eine Orthonormalbasis von V .
Beweis. (Skizze) (b)⇒(a): Ist v ∈ V , so folgt aus id = kj=1 Pj , dass
P
v = P1 v + · · · + Pk v ∈ W1 + · · · + Wk .
Pk P
Sei v = j=1 w j , w j ∈ Wj . Wegen P j wj = w j ist v = j Pj wj und so
Pj v = Pj P1 v + · · · Pj Pk v = Pj2 wj = wj ,
also ist V = W1 ⊕ · · · ⊕ Wk . Da die Pj Orthogonalprojektionen sind,
gilt nach Lemma 23.1 Pj = Pj∗ . Für i 6= j folgt
(Pi v1 , Pj v2 ) = (v1 , Pi∗ Pj v2 ) = (v1 , Pi Pj v2 ) = (v1 , 0) = 0,
d.h. die obige Summe ist eine orthogonale direkte Summe.
(a)⇒(b): Die Argumente im obigen Beweis lassen sich leicht ‘umkeh-
ren’.
P Gilt (a), so hat jedes v ∈ V eine eindeutige Darstellung als
(a)⇒(c):
v = j αj wj mit wj ∈ Wj und (wi , wj ) = 0 für i 6= j. Sei Bj eine
Orthonormalbasis von Wj und sei B = ∪kj=1 Bj . Offensichtlich erzeugt
166
B ganz V . Nach Lemma 18.9 ist B linear unabhängig, also eine Ortho-
normalbasis von V .
(c)⇒(a): Übung.
Lemma 23.3. Sei A ∈ EndC (V ) normal. Dann gilt:
(a) A2 v = 0 ⇒ Av = 0; insbesondere ist ker(A) ∩ im(A) = {0}.
(b) Ist f ∈ C[x], so ist f (A) normal.
(c) Das Minimalpolynom mA hat keine mehrfachen Nullstellen.
Beweis. (a): Sei A2 v = 0 und Av = v 0 , sodass Av 0 = 0. Da A normal
ist gilt k Av 0 k=k A∗ v 0 k und Av 0 = 0 impliziert A∗ v 0 = 0. Es folgt
0 = (A∗ v 0 , v) = (v 0 , Av) = (v 0 , v 0 ), d.h. v 0 = 0. Ist v 0 ∈ ker(A) ∩ im(A),
so ist Av = v 0 für ein v ∈ V und Av 0 = 0, also ist v 0 = 0.
Pn i
Pn i
(b): Sei fP= i=0 αi x ∈ C[x]. Dann ist f (A) = i=0 αi A und
n
f (A)∗ = i=0 αA∗ . Wie im Beweis von Lemma 22.7 folgt durch di-
rekte Rechnung, dass f (A) mit f (A)∗ kommutiert.
(c): Sei mA = ki=1 (x − αi ) ∈ C[x] das Minimalpolynom von A. Ist
Q
α = αi eine mehrfache Nullstelle, so ist mA = (x−α)2 g für ein g ∈ C[x].
Wegen mA (A) = 0 folgt dann (A − α id)2 g(A) = 0. Nach (b) (mit
f = x − α ∈ C[x]) ist A − α id normal. Für v ∈ V und v 0 = g(A)v ist
0 = (A − α id)2 g(A)v = (A − α id)2 v 0
und (a) impliziert (A − α id)v 0 = 0. Also ist (A − α id)g(A)v = 0 für
alle v ∈ V , d.h. (A − α id)g(A) = 0. Da 0 6= (x − α)g und Grad((x −
α)g)) < Grad(mA ) ist dies ein Widerspruch (nach Definition ist 0 6= mA
von minimalem Grad mit mA (A) = 0); also hat mA keine mehrfachen
Nullstellen.
Wir zeigen nun:
Theorem 23.4. Sei V ein endlich-dimensionaler C-Vektorraum mit
innerem Produkt, und sei A ∈ EndC (V ) eine normale Abbildung. Seien
α1 , . . . , αk die Eigenwerte von A, und Pj die Ortogonalprojektion von
V auf den Eigenraum V (αj ). Dann gilt
(a) A = α1 P1 + · · · + αk Pk ,
(b) id = P1 + · · · + Pk ,
(c) Pi Pj = 0 für i 6= j.
Insbesondere ist V = V (α1 ) ⊕ + · · · + ⊕V (αk ) eine orthogonale direkte
Summe. Die Darstellung in (a) ist die Spektralauflösung von A.
167
NB. Hat ein beliebiger Endomorphismus A eine Darstellung als
k
X
A= αi Pi ,
i=1
mit Orthogonalprojektionen Pi , sodass Pi Pj = 0 für i 6=Pj, so ist A nor-
mal: Nach Lemma 23.1 ist Pi = Pi∗ und es folgt A∗ = i αi Pi . Wegen
Pi Pj = Pj Pi = 0 für i 6= j ist AA∗ = A∗ A. Somit sind die normalen
Abbildungen genau diejenigen Endomorphismen, die eine Darstellung
als Linearkombination von Orthogonalprojektionen Pi mit Pi Pj = 0
für i 6= j haben.
Beweis. Wir beginnen mit einer Vorbemerkung. Da A normal ist hat
nach Lemma 23.3(c) das Minimalpolynom mA keine mehrfachen Null-
stellen, also ist mA = ki=1 (x − αi ), wobei die αi ∈ C verschieden sind.
Q
Angenommen wir haben eine Darstellung wie in (a). Dann gilt
A2 = ( kj=1 αj Pj )( kj=1 αj Pj ) = kj=1 αj2 Pj2 = kj=1 αj2 Pj ,
P P P P
und allgemein Ar = kj=1 αjr Pj . Ist g ∈ C[x] ein Polynom, so folgt
P
k
X
g(A) = g(αj )Pj ,
j=1
P
und für pj ∈ C[x] mit pj (αi ) = δij ist pj (A) = i pj (αi )Pi = Pj ; dies
suggeriert nach Polynomen pj mit pj (αi ) = δij zu suchen.
Ist k = 1, so ist A = α id und A hat trivialerweise eine Darstellung
der gewünschten Form. Sei also k ≥ 2. Definiere p1 , . . . , pk ∈ C[x] durch
(x − α1 )(x − α2 ) · · · (x − αj−1 )(x − αj+1 ) · · · (x − αk )
pj = .
(αj − α1 )(αj − α2 ) · · · (αj − αj−1 )(αj − αj+1 ) · · · (αj − αk )
Dann gilt pj (αi ) = δij . Ist f ∈ C[x] beliebig vom Grad ≤ k − 1, so ist
f − f (α1 )p1 − f (α2 )p2 − · · · − f (αk )pk
ein Polynom in C[x] vom Grad ≤ k − 1 mit k verschiedenen Nullstellen
α1 , . . . , αk , also ist dies das Nullpolynom und es gilt
f = f (α1 )p1 + · · · + f (αk )pk .
Die Spezialfälle f = 1 und f = x liefern die beiden Identitäten
1 = p1 + · · · + pk ,
x = α1 p1 + · · · + αk pk .
168
Setze Pj = pj (A). Dann folgt aus den obigen Relationen
id = P1 + · · · + Pk ,
A = α1 P1 + · · · + αk Pk .
Diese Pi haben die gewünschten Eigenschaften, genauer:
− Pj 6= 0 für jedes j: Es ist Pj = pj (A), wobei pj ein Polynom vom
Grad ≤ k − 1 ist. Wegen Grad(mA ) = k ist 0 6= Pj = pj (A) (mA hat
minimalen Grad mit dieser Eigenschaft).
− Pi Pj = 0 für i 6= j: Für i 6= j gilt mA |pi pj , also ist gmA = pi pj für
ein g ∈ C[x], und 0 = g(A)mA (A) = pi (A)pj (A) = Pi Pj .
− Pj ist eine Projektion: Wegen id = P1 + · · · + Pk und Pi Pj = 0 für
i 6= j folgt Pj = Pj P1 + · · · Pj Pk = Pj2 für alle j.
− Die Pj sind Orthogonalprojektionen: Nach Definiton ist Pj = pj (A),
sodass Pj nach Lemma 23.3(b) normal, und nach Lemma 23.1 einen
Orthogonalprojektion ist.
− Pj (V ) = V (αj ): Sei v ∈ Pj (V ) = im(Pj ), sodass Pj v = v. Dann ist
Xk
Av = APj v = ( αi Pi )(Pj v) = αj Pj2 v = αj v
i=1
und v ∈ V (αj ). Ist umgekehrt v ∈ V (αj ), ergibt Av = αj v, zusammen
mit den Zerlegungen A = ki=1 αi Pi und id = ki=1 Pi die Identität
P P
α1 P1 v + · · · αk Pk v = αj P1 v + · · · + αj Pk v.
Da V = ⊕ki=1 im(Pi ) ist für i 6= j dann (αj − αi )Pi v = 0, und wegen
αj 6= αi weiter Pi v = 0. Es folgt αj Pj v = αj v, d.h. v ∈ im(Pj ).
FINE