ALGLIN
ALGLIN
A LGÈBRE LINÉAIRE
D ÉFINITION 2.1.1 —
Soit A une partie non vide de l’espace vectoriel E.
On appelle VectA l’ensemble des combinaisons linéaires finies d’éléments de A.
P ROPRIÉTÉS 2.1.1 —
— Toute sur-famille d’une famille génératrice de E est génératrice de E.
— Soit A ⊂ E non vide et E 0 sev de E. Alors VectA ⊂ E 0 ⇐⇒ A ⊂ E 0 .
— Pour f ∈ L (E, F ) , E 0 = Vect{(xi )i∈I } =⇒ f (E 0 ) = Vect{ f (xi ) i∈I }
— En particulier si (e1 , e2 , ..., en ) engendre E alors Im (f ) = Vect{f (e1 ), f (e2 ), ..., f (en )}.
E XERCICE 2.1.1 —
1. Trouver une famille génératrice de {(x1 , ..., xn ) ∈ Rn | x1 + x2 + ... + xn = 0}.
2. Montrer que VectC {x 7→ cos(nx), x 7→ sin(nx) | n ∈ N} = VectC {x 7→ einx | n ∈ Z}
D ÉFINITION 2.2.1 —
(xi )i∈I est libre ssi ∀ J finie ⊂ I, ∀(λj ) ∈ KJ ,
X
λj .xj = 0E =⇒ ∀j ∈ J, λj = 0K .
P ROPRIÉTÉS 2.2.1 —
— (xi )i∈I est liée ssi il existe j ∈ I | xj ∈ Vect(xi , i 6= j).
E XERCICE 2.2.1 —
— On pose pour n ∈ N∗ , fn : x 7→ sin(nx). Montrer que {fn | n ∈ N∗ } est libre dans RR .
√ √
— Montrer que (1, 2, 3) est libre dans le Q-ev R.
2.3 Bases
D ÉFINITION 2.3.1 —
- Une base de E (si elle existe) est une famille libre et génératrice de E.
- B = (ei )i∈I base de E ssi ∀ x ∈ E, ∃ !(αi )i∈I ∈ KI (composantes de x dans B) |
{i ∈ I | αi 6= 0} fini
X
x = αi ei
i∈I
Attention:
Si E n’est pas de dimension finie, l’existence d’une base n’est pas assurée.
Démonstration:
Considérer A = {Card(L0 ) | L0 libre et L ⊂ L0 ⊂ G}.
A est une partie non vide et majorée de N donc admet un max M = Card(B) avec B libre et L ⊂ B ⊂ G.
On montre ensuite que B engendre E par l’absurde. En effet, si G 6⊂ Vect B alors il existe a ∈ G \ Vect B.
Alors L0 = B ∪ {a} est une famille libre vérifiant L ⊂ L0 ⊂ G de cardinal M + 1 > M impossible.
Donc G ⊂ Vect B donc B est libre et génératrice de E donc base de E ie conclusion.
C ONSÉQUENCES 2.3.1 —
- Si E est de dimension finie, toute famille libre de E peut être complétée en une base de E
(forme faible).
- Si E est de dimension finie, toute famille libre de E peut être complétée en une base de E
avec des vecteurs d’une base donnée (forme forte).
Démonstration:
Pour la forme forte, considérer une base donnée B, et soit L une famille libre. On a L ⊂ L ∪ B. Le TBI
s’applique ce qui donne le résultat.
Vect (A) ⊂ F ⇐⇒ A ⊂ F.
D ÉFINITION 3.1.1 —
Soit (Ei )i=1...p des sev de E
p
( p )
X X
On définit le sous-espace vectoriel Ei = xi | xi ∈ Ei .
i=1 i=1
P ROPOSITION 3.1.1 —
p p
!
X [
Soient E1 ,.., Ep des sev de E. Alors Ei = Vect Ei .
i=1 i=1
p p
!
X [
Si d’autre part Bi est une famille de vecteurs de E alors Vect(Bi ) = Vect Bi .
i=1 i=1
Démonstration:
p p p p
! !
[ [ X [
- Pour tout j ∈ Np , Ej ⊂ Ei ⊂ Vect Ei donc Ej ⊂ Vect Ei .
i=1 i=1 j=1 i=1
p p p p
!
[ X [ X
- De plus, Ei ⊂ Ei donc Vect Ei ⊂ Ei .
i=1 i=1 i=1 !i=1
p p p
!
[ [ [
- Pour tout j ∈ Np , Bj ⊂ Bi ⊂ Vect Bi donc Vect(Bj ) ⊂ Vect Bi donc
i=1 i=1 i=1
p p
!
X [
Vect(Bj ) ⊂ Vect Bi
j=1 i=1
p
X p
[ p
X p
[
- De plus, Bi ⊂ Vect(Bi ) ⊂ Vect(Bi ) donc Bi ⊂ Vect(Bi )) qui est un sev de E d’où Vect( Bi ) ⊂
i=1 i=1 i=1 i=1
p
X
Vect(Bi )) d’où l’égalité.
i=1
D ÉFINITION 3.1.2 — p
X
Soient E1 , ..., Ep des sous-espaces vectoriels de E. Alors Ei est une somme directe (notée
Lp i=1
i=1 Ei ) ssi
p
X
∀ (x1 , x2 , ..., xp ) ∈ E1 × E2 × ... × Ep , xi = 0E =⇒ ∀ i = 1...p, xi = 0E .
i=1
ssi
p
X
∀x ∈ Ei , ∃!(x1 , ..., xp ) ∈ E1 × ... × Ep | x = x1 + x2 + ... + xp
i=1
P ROPOSITION 3.1.2 —
Soient E1 , ..., Ep des sev de E.
La somme E1 + ... + Ep est directe ssi ∀k ∈ [[2, p]], (E1 + ... + Ek−1 ) ∩ Ek = {0E }.
Démonstration:
- Supposons la somme directe et soit x ∈ (E1 + ... + Ek−1 ) ∩ Ek alors x s’écrit x1 + ... + xk−1 avec chaque
xi ∈ Ei . Alors x1 + ... + xk−1 − x = 0E et vu la somme directe, on déduit x1 = ... = xk−1 = x = 0E . En
particulier x = 0E et l’intersection est nulle.
- Réciproquement soit x1 + ... + xp = 0 et supposons l’un des xi non nul. On pose k = Max{i ∈ [[0, p]] | xi 6=
0E }.
Il reste x1 + ... + xk−1 = −xk ∈ Ek ∩ (E1 + ... + Ek−1 ) = {0E } par hypothèse. D’où une contradiction avec
xk 6= 0E et tous les xi sont nuls ie Ccl.
P ROPOSITION 3.1.3 —
C1 Soit ∀k ∈ [[1, p]], Bk base de Ek . Alors
p
M
B1 ∪ B2 ∪ . . . ∪ Bp base de E ⇐⇒ E = Ek
k=1 p
M
On dit que B = B1 ∪ B2 ∪ . . . ∪ Bp est une base adaptée à la somme directe E = Ek .
k=1
C2 Formule de Grassmann :
Soit F, G 2 sev de dim finie de E. Alors
Démonstration:
C1 - Si B1 ∪ B2 ∪ . . . ∪ Bp base de E alors
De plus la somme est directe car si (x1 , ..., xp ) ∈ E1 × ... × Ep tels que x1 + ... + xp = 0 alors en écrivant
X p X
X X
xi = λe e, on obtient λe e = 0 ie λe e = 0.
e∈Bi i=1 e∈Bi e∈∪p
i=1 Bi
p
[
La famille B1 ∪ B2 ∪ . . . ∪ Bp étant libre, on obtient pour tout e ∈ Bi , λe = 0, et au total xi est nul pour
i=1
tout i ∈ Np . La somme E1 + ... + Ep est donc directe.
- Réciproquement, la somme est directe donc B1 ∪ B2 ∪ . . . ∪ Bp est libre. De plus E = Vect(B1 ) + ... +
Vect(Bp ) = Vect (B1 ∪ B2 ∪ . . . ∪ Bp ) donc Vect (B1 ∪ B2 ∪ . . . ∪ Bp ) est une famille génératrice de E ie
conclusion.
C2 Soit H un supplémentaire de F ∩ G dans G. Alors F + G = F ⊕ H. En effet, F + G = F + F ∩ G +H =
| {z }
=F
F + H. De plus, F ∩ H ⊂ F ∩ G et F ∩ H ⊂ F donc F ∩ H ⊂ F ∩ (F ∩ G) = {0} et la somme est directe.
On a donc
p p−1 p−1
!
X X X
dim Ei = dim Ei + dim Ep − dim Ep ∩ Ei
i=1 i=1 i=1
p−1
X
6 dim Ei + dim Ep
i=1
p
X p
X
6 dim Ei = dim Ei
i=1 i=1
p−1
X p−1 p−1
X X
Il y a donc égalité à chaque étape d’où en particulier dim Ei = dim Ei et Ep ∩ Ei = {0}. L’HR
i=1 i=1 i=1
p−1
X
s’applique donc E1 + ... + Ep−1 est directe. Comme Ep ∩ Ei = {0}, la somme E1 + ... + Ep est aussi
i=1
directe. RE
R EMARQUE — p p
X X
En général, on a dim Ej 6 dim Ej
j=1 j=1
D ÉFINITION 3.2.1 —
1. p ∈ L (E) est un projecteur si et seulement si p ◦ p = p.
p
M
2. On définit : ∀i = 1...p, pi : E = Ej −→ E
j=1
Xp
x= xj 7−→ xi
j=1
M
pi est la projection sur Ei parallèlement à Fi = Ek
k∈J,k6=i
p
X
On a alors : pi = idE , ∀ i = 1...p, p2i = pi , k 6= i =⇒ pk ◦ pi = 0
i=1
R EMARQUE —
Retenir que pour un projecteur p sur F parallèlement à G, on a G = Ker p, F = Ker (p − IdE ) et
Im p = Ker (p − idE ).
E XERCICE 3.2.1 —
Montrer que pour un projecteur p, rg (p) = tr(p).
Démonstration:
p
X
- Pour l’existence, on pose f = fi ◦ pi qui est bien linéaire par opérations et vérifie pour tout i ∈ Np ,
i=1
f|Ei = fi .
- Soit f, g ∈ L (E, F ) telles que ∀i = 1...p, f|Ei = g|Ei . Alors pour tout x ∈ E, on écrit x = x1 + ... + xp ,
d’où l’unicité.
4 Isomorphisme et rang
Démonstration:
- Supposons!f est injective. Soient λ1 , ..., λp ∈ K | λ1 f (e1 ) + ... + λp f (ep ) = 0 ie avec la linéarité de f ,
p
X X p X p
f λk ek = 0 donc λk ek ∈ Ker (f ) = {0}. On en déduit λk ek = 0.
k=1 k=1 k=1
Comme (e1 , ..., ep ) est libre, on a : ∀k ∈ Np , λk = 0K donc la famille (f (e1 ), ..., f (ep )) est libre ie le résultat.
Xp
- Réciproquement, soit x ∈ Ker f , x s’écrit de manière unique x = xk ek .
k=1
p
X
Alors f (x) = 0 = λk f (ek ). Or la famille (f (e1 ), ..., f (ep )) est libre par hypothèse donc chaque xk est nul
k=1
ie x = 0E .
On en déduit Ker f = {0} donc f est injective.
- f est surjective ⇐⇒ f (E) = F ⇐⇒ F = f (Vect (e1 , ..., ep )) = Vect (f (e1 ), ..., f (ep )) ⇐⇒ (f (e1 ), ..., f (ep ))
engendre F ie le résultat.
D ÉFINITION 4.0.1 —
Soit E, F 2 K-ev avec F de dimension finie n et f ∈ L (E, F ).
On pose rg(f ) = dim(Im f ) 6 n
Démonstration:
Soit g = f|F . g est linéaire comme restriction d’une application linéaire, surjective car Im f = f (E) =
f (F ) + f (Ker f ) = f (F ) = Im g et injective car Ker g = F ∩ Ker f = {0} d’où le résultat.
Démonstration:
- Soit B = (e1 , ..., ep ) base de E, Im f = Vect (f (e1 ), ..., f (ep )) donc Im f admet une famille génératrice finie
donc est bien de dimension finie.
- Pour la deuxième partie, soit F un supplémentaire de Ker f dans E. D’après le théorème précédent, f|F
est un isomorphisme entre F et Im f donc rg f = dim F = dim E − dim Ker f ie la conclusion.
5 Hyperplan
D ÉFINITION 5.0.1 —
Soit E un K-ev de dimension finie n.
- L’espace vectoriel E ∗ = L(E, K) est appelé le dual de E.
- On appelle hyperplan de E tout sous-espace vectoriel de dimension n − 1.
P ROPOSITION 5.0.1 —
Se valent :
i) H est un hyperplan de E.
ii) ∃ϕ ∈ E ∗ \ {0} | H = Ker ϕ
iii) ∀ a ∈
/ H, E = H ⊕ K.a.
Démonstration:
- i)=⇒ii) : H est de dimension n − 1. Complétons (e1 , ..., en−1 ) base de H en (e1 , ..., en−1 , en ) base de E.
Xn
Pour x = xi ei , on pose ϕ(x) = xn . On montre que ϕ est linéaire, non nulle car ϕ(en ) = 1 6= 0, et
i=1
H = Ker ϕ.
- ii)=⇒iii) Pour a ∈
/ H, on a déjà H ∩ Ka = {0}, la somme est donc directe. Ensuite, soit x ∈ E, on écrit
ϕ(x) ϕ(x)
x= a+ x − a ∈ Ka ⊕ H
ϕ(a) ϕ(a)
| {z } | {z }
∈Ka ∈Ker ϕ
d’où le résultat.
- iii)=⇒i) évident.
E XERCICE 5.0.1 — Z 1
H = f ∈ C([0, 1], R) | f (t).dt = 0 est un hyperplan de E = C([0, 1], R) et E = H ⊕ R.e
1.
0
D ÉFINITION 5.0.2 —
On appelle équation de l’hyperplan H toute relation de la forme ϕ(x) = 0K
où ϕ est une forme linéaire (non nulle) admettant H pour noyau (Ker ϕ = H).
E → K
n
e∗j : X
x= xi .ei 7−→ e∗j (x) = xj
i=1
Démonstration:
- (e∗1 , e∗2 , . . . , e∗n ) est libre car si λ1 e∗1 + λ2 e∗2 + . . . + λn e∗n = 0 alors pour tout i ∈ Nn ,
(
∗ ∗ ∗ 0
(λ1 e1 + λ2 e2 + . . . + λn en )(ei ) =
λi
donc λi = 0K .
n
X
- Soit ϕ ∈ E ∗ et x = xi ei , on a xi = e∗i (x) et
i=1
n n
!
X X
ϕ(x) = e∗i (x)ϕ(ei ) = ϕ(ei )e∗i (x)
i=1 i=1
n
X
donc ϕ = ϕ(ei )e∗i ce qui montre que (e∗1 , e∗2 , . . . , e∗n ) engendre E ∗ .
i=1
P ROPRIÉTÉS 5.0.1 —
Soit E est de dimension finie. Alors
dim(E ∗ ) = dim(E).
6 Algèbre matricielle
6.1 Rappels sur la structure de Mn,p (K)
P ROPRIÉTÉS 6.1.1 —
- Soit B une base de Kp , C une base de Kn .
Si A = MatB,C (f ) ∈ Mn,p (K) et B = MatB,C (g) ∈ Mn,p (K) alors λA+B = MatB,C (λf +g) ∈ Mn,p (K)
- Soit de plus A une base de Km .
Si B = MatA ,C (g) ∈ Mn,m (K) et A = MatB,A (f ) ∈ Mm,p (K) alors BA = MatB,C (g ◦ f ) ∈ Mn,p (K)
- Soit f ∈ L (E, F ), A = MatB,C (f ) et X = MatB (x). Alors AX = MatC (f (x))
- (Mn,p (K), +, .) est un K−ev de dimension np avec pour base canonique
Ei,j | 1 6 i 6 n, 1 6 j 6 p
où Ei,j défini par : (Ei,j )k,` = δi,k δj,` .
- (Mn (K), +, ×, .) est une K−algèbre de dimension n2 non commutative et non intègre.
P ROPOSITION 6.1.1 —
∀i ∈ Nn , ∀j, k ∈ Np , ∀` ∈ Nq , Ei,j × Ek,` = δj,k .Ei,`
Démonstration:
Soit (e1 , ..., en ) la base canonique de Kn et (e01 , ..., e0p ) celle de Kp , on remarque que
∀i ∈ Nn ∀j ∈ Np , Ei,j = ei t e0j
D’où
∀i ∈ Nn , ∀j, k ∈ Np , ∀` ∈ Nq , Ei,j × Ek,` = ei t e0j e0k t e00` = δj,k ei t e00` = δj,k Ei,` .
D ÉFINITION 6.2.1 —
Soit B et B 0 deux bases de E.
La matrice de passage PB,B0 (ou PB (B 0 )) de B à B 0 est la matrice qui exprime les vecteurs de
B 0 relativement à la base B.
P ROPRIÉTÉS 6.2.1 —
−1
- PB,B0 est inversible et PB,B 0 = PB 0 ,B .
X = PB,B0 X 0 .
- Pour un endomorphisme,
MatB0 (f ) = PB0 ,B MatB (f ) PB,B0 .
D ÉFINITION 6.3.1 —
Soient M ∈ Mn,p (K), (n1 , n2 , . . . , nk ) ∈ Nk , (p1 , p2 , . . . , p` ) ∈ N` tels que n1 + ... + nk = n et
p1 + ... + p` = p.
On appelle décomposition de M en blocs de type (n1 , n2 , . . . , nk ), (p1 , p2 , . . . , p` ) :
ln
1
A1,1 · · · A1,`
. ..
.. .
M=
Ak,1 · · · Ak,`
l nk
←→ ←→
p1 p`
Cas de 4 blocs :
" #
A B lp
M= C D ln−p
↔ ↔
p n−p
où par exemple, B est la matrice de pF ◦ f|G relativement aux bases BG (à la source) et BF (au but).
P ROPRIÉTÉS 6.3.1 —
Soient λ ∈ K et M , M 0 décomposées en blocs de même type :
" # " #
A B l n1 A0 B0 l n1
M= C D l n2 M0 = C0 D0 l n2
.
↔ ↔ ↔ ↔
p1 p2 p1 p2
" #
λ.A + A0 λ.B + B 0 l n1
λ.M + M0 = λ.C + C 0 λ.D + D0 l n2
←→ ←→
p1 p2
P ROPRIÉTÉS 6.3.2 —
Soient M , M 0 décomposées en blocs selon :
" # " #
A B l n1 A0 B0 l p1
M= C D l n2 M0 = C0 D0 l p2
.
↔ ↔ ↔ ↔
p1 p2 q1 q2
" #
AA0 + BC 0 AB 0 + BD0 l n1
M.M 0 = CA0 + DC 0 CB 0 + DD0 l n2
←→ ←→
q1 q2
R EMARQUE —
- Soit A ∈ Mn,p (K) décomposée en blocs lignes, et B ∈ Mp,q (K) en blocs colonnes :
L1
. h i
A= .. et B = C1 · · · Cq , alors
Ln
L1 B L1 C1 · · · L1 Cq
. . ..
AB = (AC1 , AC2 , ..., ACq ) = . .
. = . . .
Ln B Ln C1 Ln Cq
- Soit M de type (n1 , n2 , . . . , nk ), (p1 , p2 , . . . , p` ) .
D ÉFINITION 6.4.1 —
Soit f ∈ L (E) et F sev de E.
R EMARQUE —
{0E }, E, Ker f, Im f sont stables par f
P ROPOSITION 6.4.1 —
Soit f ∈ L (E).
C1 Si F est stable par f alors f|F : F → F ∈ L (F )
Démonstration:
Sans difficulté.
P ROPOSITION 6.4.2 —
Soit f ∈ L (E), F sev de E de dim p et BF base de F complétée en une base B de E.
# "
A D
- Alors F est f -stable ssi MatB (f ) de la forme avec A ∈ Mp (K).
0 B
- De plus A représente la matrice de f|F dans BF
Démonstration:
Il suffit de remarquer que F est stable par f ssi f (BF ) ⊂ Vect (BF ).
P ROPOSITION 6.4.3 —
r
M
Si E = Ei et B = B1 ∪ ... ∪ Br base adaptée à cette somme directe. Alors :
i=1
Démonstration:
Chaque Ei est f -stable ssi pour tout i ∈ Nr , f (Bi ) ⊂ Vect (Bi ) d’où la forme matricielle par définition de
la matrice d’une application linéaire.
D ÉFINITION 6.5.1 —
Soient A, B ∈ Mn (K). A et B sont semblables ssi
P ROPRIÉTÉS 6.5.1 —
- Soient A, B ∈ Mn (K). A et B sont semblables ssi elles représentent le même endomorphisme
dans des bases différentes.
- Si A et B sont semblables, alors ∀ k ∈ N, Ak et B k sont semblables ainsi que tA et tB.
- Deux matrices semblables ont même trace, même déterminant et même rang.
Démonstration:
- Prouvons le premier point. Soient A et B semblables, il existe P ∈ GLn (K) telle que B = P −1 AP et
appelons f l’endomorphisme associé à A relativement à la base canonique B0 . Notons B la base de E telle
que P = PB0 (B) ie P est la matrice de passage de B0 à B. La matrice de f relativement à B est, par
changement de base, P −1 AP = B. Donc A et B représentent f dans des bases différentes.
La réciproque est une simple formule de changement de base.
E XERCICE 6.5.1 — 1 0 0 1 0 0
Montrer que les matrices 0 0 −1 et 0 1 1 sont semblables.
0 1 2 0 0 1
6.6 Rang
D ÉFINITION 6.6.1 —
Deux matrices A, B ∈ Mn,p (K) sont équivalentes ssi
D ÉFINITION 6.6.2 —
Soient A ∈ Mn,p (K).
rg (A) = dim(Vect (C1 (A), C2 (A), ..., Cp (A))) = dim(Vect (L1 (A), L2 (A), ..., Ln (A)))
P ROPOSITION 6.6.1 —
Soit A ∈ Mn,p (K). Sont équivalentes :
i) rg (A) = r " #
Ir 0r,p−r
ii) A est équivalente à Jn,p,r =
0n−r,r 0n−r,p−r
P ROPRIÉTÉS 6.6.1 —
Soient A, B ∈ Mn,p (K).
A et B sont équivalentes si et seulement si rg (A) = rg (B).
7 Déterminant
7.1 Définitions de base
D ÉFINITION 7.1.1 —
Soit A ∈ Mn (K) dont les colonnes sont C1 , ..., Cn .
On définit le déterminant de A par :
X
det(A) = detB ((C1 , C2 , . . . , Cn )) = ε(σ) aσ(1),1 aσ(2),2 . . . , aσ(n),n .
σ∈Sn
P ROPRIÉTÉS 7.1.1 —
P1 Soient (x1 , x2 , . . . , xn ) ∈ E n , alors
Démonstration:
P1 Si (x1 , x2 , . . . , xn ) liée, alors un des xi est combinaison linéaire des autres donc det(x1 , x2 , . . . , xn ) = 0
vu le caractère n linéaire alterné du déterminant.
Réciproquement, si (x1 , x2 , . . . , xn ) libre, alors (x1 , x2 , . . . , xn ) est une base B 0 de E. On a alors
et en particulier detB (B 0 ) 6= 0.
D ÉFINITION 7.2.1 —
Soit i, j = 1, . . . , n.
- Mineur no (i, j) de A : Di,j = le déterminant d’ordre n − 1 obtenu en supprimant Li et Cj .
- Cofacteur no (i, j) : Ci,j = (−1)i+j Di,j
- Comatrice de A : matrice des cofacteurs de A.
T HÉORÈME 7.2.1 — n
X
- ∀i ∈ Nn , detA = ai,j Ci,j (développement par rapport à la ieme ligne).
j=1
n
X
- ∀j ∈ N, detA = ai,j Ci,j (développement par rapport à la j eme colonne).
i=1
a b
c a b (0)
.. .. ..
Calculer D = . . .
. ..
(0) . . . b
c a
Démonstration:
Le système AX = B s’écrit x1 C1 + ... + xn Cn = B d’où
n
X
det(C1 , . . . , Cj−1 , B, Cj+1 , . . . , Cn ) = det(C1 , . . . , Cj−1 , xi Ci , Cj+1 , . . . , Cn )
i=1
n
X
= xi det(C1 , . . . , Cj−1 , Ci , Cj+1 , . . . , Cn )
i=1
| {z }
=det(A)δi,j
= xj det(A)
ie le résultat.
E XERCICE 7.3.1 —
Soit a, b, c, d ∈ R 2 à 2 distincts.
x + y + z = 1
Résoudre le système ax + by + cz = d
2
a x + b2 y + c2 z = d2
P ROPRIÉTÉS 7.4.1 —
- ∀ A ∈ Mn (K), A × t (Com A) = t (Com A) × A = detA.In .
- A est inversible ⇐⇒ detA 6= 0.
1 t
- Si A est inversible, alors A−1 = (Com A).
detA
Démonstration:
On démontre le résultat dans le cas où les xi sont deux à deux distincts, sinon le résultat est clair.
Par récurrence, le résultat est vrai pour n = 2. Supposons le résultat vrai au rang n > 2, on considère le
polynôme
1 x1 x21 . . . x1n−1 xn1
2 n−1
1 x 2 x 2 . . . x2 xn2
. .. .. ..
P (X) = .. . . .
2 n−1
1 xn xn . . . xn xnn
2 n−1
1 X X ... X Xn
qui est un polynôme en X, de degré n (par développement par rapport à la dernière ligne), qui admet pour
racines x1 , ..., xn et pour coefficient dominant V (x1 , x2 , . . . , xn ), donc
0 a1
..
1 . (0) a2
Soit M = et λ ∈ K. Alors
.. ..
. 0 .
(0) 1 an
det(λIn − M ) = λn − an λn−1 − . . . − a2 λ − a1 .
Démonstration:
Faire l’opération L1 ←− L1 + λL2 + λ2 L3 + ... + λn−1 Ln :
λ 0 −a1 0 0 α
−1 λ −a2 −1 λ −a2
det(λIn − M ) = .. .. =
.. ..
. . . .
λ λ
−1 λ − an −1 λ − an
avec α = −a1 − a2 λ − ... − (an − λ)λn−1 = λn − an λn−1 − ... − a1 et par développement par rapport à la
première ligne, il vient
Démonstration:
-1er cas : A n’est pas inversible. Alors une des colonnes Ci de A est combinaison linéaire des autres donc
à fortiori, la colonne Ci de M est aussi combinaison linéaire des mêmes colonnes. Donc M n’est pas inver-
sible et le résultat est évident. " # " # " #
A C A−1 0 Ip C
- 2ème cas : A est inversible. On a . = .
0 B 0 Iq 0 B
A−1 0
Or = det(A−1 ) par développement successifs par rapport aux dernières colonnes.
0 Iq
Ip C
De même, = det(B). On en déduit det(M ).det(A−1 ) = det(B) soit
0 B
det(M ) = det(A).det(B).
P ROPOSITION 7.5.4 —
A1,1 · · · A1,p
.. ..
avec Ai,i ∈ Mni (K).
Soit M triangulaire par blocs : M =
. .
(0) Ap,p
p
Y
Alors det M = det Ai,i
i=1
Pour montrer que deux espaces sont supplémentaires, il est usuel de travailler par analyse/synthèse en
dimension quelconque. En dimension finie par contre, il est fréquent de passer par intersection nulle + dimen-
sion.
Pour plus de 2 sev, une somme directe ne s’étudie pas avec l’intersection mais avec x1 + ... + xp = 0 =⇒
∀i ∈ Np , xi = 0.
Si E est de dimension n, tout sev de E de dimension n vaut E.
Pour une application linéaire entre deux sev de même dimension (finie), la bijectivité équivaut à l’injectivité.
L’injectivité s’étudie avec Ker f .
L’image et le noyau de f ne sont pas toujours supplémentaires (malgré le théorème du rang). Cela est vrai
néanmoins pour les projecteurs par exemple.
On cherche souvent le rang d’une application linéaire en déterminant le noyau de f et en utilisant le
théorème du rang.
Pour montrer que deux applications linéaires sont égales en dimension finie, il est souvent pratique de
montrer qu’elles coïncident sur une base ou bien sur chaque sev d’une somme directe.
Toujours traduire f ◦ g = 0 par Im g ⊂ Ker f .
On peut calculer le rang d’une matrice par la méthode de Gauss.
Pour trouver A−1 lorsque A est inversible, on peut :
- appliquer la formule avec les cofacteurs (si A est d’ordre 3 seulement)
- appliquer la méthode de Gauss au système [A|In ]
- définir A comme une matrice de passage, exprimer les colonnes e0j en fonction des ei et inverser le
système à la main pour en déduire les ej en fonction des e0i ce qui donne la matrice de passage inverse soit
A−1 .
Se rappeler que Ei,j = ei t ej et Ei,j Ek,` = δj,k .Ei,` .
L’image d’une matrice est donnée par le vect de ses colonnes.
Etre au point sur les formules de changement de bases.
Lorsque l’on cherche des matrices vérifiant une relation pour toute matrice M , traduire la condition avec les
Ei,j .
Deux matrices sont équivalentes ssi elles ont même rang. Les opérations élémentaires sur les lignes ou les
colonnes d’une matrice donnent des matrices équivalentes.
Pour montrer que deux matrices sont semblables, on montre qu’elles représentant le même endomorphisme
dans des bases différentes.
Si deux matrices sont semblables, elles ont même trace, même déterminant, même rang mais les réci-
proques sont toutes fausses.
L’expression développée du déterminant est à utiliser pour des problèmes théoriques comme montrer qu’une
expression est continue, polynomiale...
Exercices
Exercice 4.1
Soient a ∈ K∗ et Pk = X k (X − a)n−k .
Montrer que la famille (Pk )k∈[[0,n]] est une base de Kn [X].
Exercice 4.2
On suppose que a0 , a1 , . . . , an sont n + 1 réels distincts.
Établir la suite (X + ak )n 06k6n est libre dans R[X].
Exercice 4.3
1
On note fα : x 7−→ . Prouver que la famille (fα )α∈]0,+∞[ est libre dans RR .
x2 + α2
Exercice 4.4
Soit E = {(un ) ∈ CN | ∀n ∈ N, un + un+1 + un+2 + un+3 = 0}.
Exercice 4.5
On pose F = {(x, y, z) ∈ C3 | x + y + z = 0 et x + iy − z = 0}.
1. F est-il un sev du R-ev C3 ? Si oui, en déterminer une base.
2. F est-il un sev du C-ev C3 ?
Exercice 4.6
On considère C comme un R espace vectoriel.
1. Montrer que tout endomorphisme de C s’écrit sous la forme f : z 7→ az + bz, avec a, b ∈ C.
2. Trouver une CNS pour que f soit bijective.
Exercice 4.7
Vérifier que F = {f ∈ RR | f (1) = −f (0)} est un sev de RR et déterminer un supplémentaire.
Exercice 4.8
Soit E un K ev, E1 , ..., En des sev de E tels que E = E1 ⊕ E2 ⊕ ... ⊕ En .
On fixe des endomorphismes u1 ∈ L (E1 ), ..., un ∈ L (En ).
1. Montrer qu’il existe un unique endomorphisme u ∈ L (E) tel que pour tout i ∈ Nn , u|Ei = ui .
2. Montrer que Ker (u) = Ker (u1 ) ⊕ ... ⊕ Ker (un ) et Im (u) = Im (u1 ) ⊕ ... ⊕ Im (un ).
Exercice 4.9
Soit E K-ev de dim n, F, G deux sev de E de même dimension p.
Prouver qu’il existe un supplémentaire commun à F et G (1) .
Exercice 4.10
Soient E un K-evdf n et f ∈ L (E). Montrer que :
f est un projecteur ssi rg (f ) + rg (idE − f ) = n.
Exercice 4.11
Soient E et F deux K-ev, f, g ∈ L (E, F ).
Montrer |rg (f ) − rg (g)| 6 rg (f + g) 6 rg (f ) + rg (g).
Exercice 4.12
On suppose que F et G sont deux sous-espaces vectoriels de E avec dim E = n.
Trouver une CNS pour que : ∃ u ∈ L(E) | Ker u = F et Im u = G.
Exercice 4.13
Soit dim E = n. Donner une CNS sur n pour qu’il existe u ∈ L(E) | Im u = Ker u.
Exercice 4.14
Soient u, v ∈ L (E). Montrer que :
a) Ker (v ◦ u) = Ker u ⇐⇒ Im u ∩ Ker v = {0}.
b) Im (v ◦ u) = Im v ⇐⇒ E = Im u + Ker v.
Exercice 4.15
Soit E un K ev de dimension finie et f ∈ L (E). On pose K = Ker f , I = Im f , puis A = {g ∈ L (E), f ◦ g = 0}
et B = {g ∈ L (E), g ◦ f = 0}.
Exercice 4.16
Théorème de factorisation :
Soient E, F et G trois K-ev de dimension finie.
(1). Par récurrence en remarquant que F ∪ G 6= E si F et G sont distincts.
1. Soient u ∈ L (F, E) et v ∈ L (G, E). Montrer que
Im v ⊂ Im u ⇐⇒ ∃h ∈ L (G, F ) | v = u ◦ h.
Exercice 4.17
Soient p, q deux projecteurs qui commutent.
Montrer que p ◦ q est un projecteur.
Déterminer Im (p ◦ q), et Ker (p ◦ q) en fonction de Ker p, Ker q, Im p et Im q.
Exercice 4.18
Soient p et q deux projecteurs quelconques de E.
Vérifier que p + q projecteur de E ssi p ◦ q = q ◦ p = 0L(E) .
Montrer qu’alors :
Ker (p + q) = Ker p ∩ Ker q et Im (p + q) = Im p ⊕ Im q.
Exercice 4.19
Soit E un K espace vectoriel et p1 ,...,pn des projecteurs tels que p1 + ... + pn = idE .
Exercice 4.20
p
[
Soit E un K-ev de dimension finie et (Fi )i∈[[1,p]] une famille de sev de E telle que E = Fi .
i=1
Montrer que l’un des Fi vaut E (2) .
Exercice 4.21
1. Soit E un ev de dimension finie et f ∈ L (E) tel que pour tout x ∈ E, (x, f (x)) liée.
a Montrer que si x 6= 0, il existe un unique scalaire λx tel que f (x) = λx x.
b Comparer λx et λy lorsque (x, y) libre.
c Montrer que f est une homothétie.
a Montrer que Z(L (E)) est un sev de L (E) (appelé centre de L (E).)
b Soit f ∈ Z(L (E)) et x ∈ E non nul.
En considérant un projecteur sur Kx, montrer que f est une homothétie.
c Déterminer Z(L (E)).
p
[
(2). Par récurrence puis par l’absurde. Définir x ∈
/ Fi et y ∈
/ Fp+1 . Considérer l’application λ 7→ i où i ∈ Np+1 est le
i=1
plus petit entier tel que x + λy ∈ Fi .
Exercice 4.22
Soit E un K-ev de dimension n et f nilpotent d’ordre n.
On note C (f ) = {g ∈ L (E) | g ◦ f = f ◦ g}.
Exercice 4.23
On dit que M est une matrice en damier si et seulement si mi,j = 0 lorsque j − i impair.
On appelle D l’ensemble des matrices en damier.
Montrer que D est une sous-algèbre de Mn (K) (3) . Déterminer la dimension de D.
Exercice 4.24
Soit A ∈ Mp (K) "et B ∈ M#q,p (K).
Iq B
Montrer que rg = q + rg (A).
0 A
Exercice 4.25
Soit A, B ∈ Mn (K).
" #
A A
Montrer que rg = rg (A) + rg (B − A).
A B
Exercice 4.26
Soit E ev de dim n, B et C deux bases de E et P la matrice de passage de B à C .
Déterminer la matrice de passage Q de la base duale B ∗ à la base duale C ∗ .
Exercice 4.27
On appelle centre de GLn (K) : Z(GLn (K)) = {A ∈ GLn (K) | ∀M ∈ GLn (K), AM = M A}.
Exercice 4.28
Matrices à diagonale dominante.
Soit A ∈ Mn (C).
Exercice 4.29
Les matrices suivantes sont-elles semblables ?
1 0 1 1 0 1
1. A = 1 1 2 et B = 0 1 0
0 1 1 0 0 1
! !
1 1 0 1
2. A = et B =
1 −1 1 0
1 1 0 0 1 2 3 4
0 1 1 0 0 1 2 3
3. A = et B =
0 0 1 1 0 0 1 2
0 0 0 1 0 0 0 1
4. Donner deux matrices ayant même rang, même trace et même déterminant mais qui ne sont pas sem-
blables.
Exercice 4.30
Soit A ∈ Mn (K) une matrice non nulle
" telle#que Im A et Ker A supplémentaires.
A0 0
Montrer que A est semblable à B = avec A0 inversible de rang r.
0 0
Exercice 4.31
Soit f ∈ L (E) tel que f 2 = 0. " #
0 Ir
Montrer qu’il existe une base B telle que M atB (f ) =
0 0
Exercice 4.32
Soit M ∈ M4 (R) telle que M 2 + I = 0.
0 −1 0 0
1 0 0 0
Montrer que M est semblable à
0 −1
0 0
0 0 1 0
Exercice 4.33
Soient E l’ev des matrices antisymétriques réelles, A ∈ Mn (R) et f : E −→ E .
t
M 7−→ AM + M A
1. Vérifier que f ∈ L (E).
2. Déterminer la trace de f (5) .
(4). Montrer que l’endomorphisme canoniquement associé à A est injectif.
(5). Utiliser la base classique des matrices antisymétriques.
Exercice 4.34
Soit H un hyperplan de Mn (K).
1. Calculer tr(AEi,j ) puis montrer qu’il existe une matrice A ∈ Mn (K) telle que
Exercice 4.35
Soit M ∈ Mn (K) non scalaire et de trace nulle.
1. Montrer qu’il existe une matrice colonne X1 telle que M X1 non colinéaire à X1 .
2. En déduire par récurrence sur n que M est semblable à une matrice à diagonale nulle.
Exercice 4.36
Discuter le système linéaire
λx + y + z + t = 1
x + λy + z + t = a
x
+ y + λz + t = a2
x + y + z + λt = a3
Exercice 4.37
a1 a2 ... an
an a1 . . . an−1
n
Soit (a1 , a2 , . . . , an ) ∈ K et A = .. .. .. .. (Matrice circulante).
. . . .
a2 a3 ... a1
On pose ω = e2iπ/n et Ω(ω) = ω (i−1)(j−1) .
i,j=1..n
1. Calculer Ω(ω) × Ω( ω1 ).
En déduire que Ω(ω) est inversible et déterminer son inverse.
2. En calculant |A × Ω(ω)|, donner une valeur de det (A).
Exercice 4.38
Calculer |A| où ai,j = |i − j|.
Exercice 4.39
n
n) ∈ Z .
Soit (a1 , a2 , ..., aY Y
Montrer que (` − k) divise (a` − ak ) en utilisant le déterminant de la matrice définie par ai,j =
16k<`6n 16k<`6n
Pj−1 (ai ) avec
X(X − 1)...(X − j + 1)
P0 = 1 et ∀j = 1...(n − 1), Pj =
j!
(6). Examiner selon que A est une matrice diagonale ou pas.
Exercice 4.40
Soit P un polynôme de degré n − 1 (n > 2) et A la matrice dont l’élément (i, j) est ai,j = P (i + j).
Grâce à la formule de Taylor, écrire A comme un produit de deux matrices. En déduire |A| (7) .
Exercice 4.41
Soient A, B ∈ Mn (R) semblables sur Mn (C).
1. Justifier qu’il existe une matrice P ∈ GLn (C) telle que P A = BP . On écrit alors P = P1 + iP2 avec
P1 , P2 ∈ Mn (R).
2. Montrer par l’absurde qu’il existe λ ∈ R tel que det(P1 + λP2 ) soit non nul.
3. En déduire que A et B sont semblables sur Mn (R).
Exercice 4.42
Soit E un C-ev de dimension n. E peut aussi être considéré comme un R-ev.
1. Montrer que si B = (e1 , e2 , ..., en ) est une C-base de E alors C = B ∪ iB est une R-base de E.
2. Soit A = U + iV (U, V ∈ Mn (R)) la matrice de f relativement à B.
Quelle est la matrice de f relativement à C ?
3. En déduire que detR (f ) = |detC f |2 .
Exercice 4.43
" #
A B
Soit M = avec A, B, C, D ∈ Mn (K) | CD = DC.
C D
Montrer que det(M ) = det(AD − BC)
Exercice 4.44
Soient A ∈ Mn (R) (n
> 2), et A
e sa comatrice.
n si rg(A) = n
Montrer que rg(A)
e = 1 si rg(A) = n − 1 (8)
0 si rg(A) 6 n − 2
En déduire det(A)
e en fonction de det(A) puis A pour n > 3.
ee
(7). On pourra utiliser en le justifiant le fait que pour k 6 n − 2, (P (k+1) , ..., P (n−1) ) est une base de l’ev des polynômes
de degré 6 n − k − 2
(8). Utiliser la caractérisation du rang par les matrices extraites inversibles.