Université Sultan Moulay Slimane
Faculté Polydisciplinaire
Beni Mellal
Filière : SMPC
Algèbre
Pr. Retbi Abderrahman
Semestre : 2 — Année Universitaire : 2023-2024
Table des matières
1 Polynômes 4
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Opérations sur les polynômes . . . . . . . . . . . . . . . . . . 5
1.3 Arithmétique des polynômes . . . . . . . . . . . . . . . . . . . 6
1.4 Racine d’un polynôme, factorisation . . . . . . . . . . . . . . . 10
2 Fractions rationnelles 14
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Décomposition en éléments simples sur C . . . . . . . . . . . . 14
2.3 Décomposition en éléments simples sur R . . . . . . . . . . . . 16
3 Espaces vectoriels 17
3.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . 17
3.2 Structure de sous-espace vectoriel . . . . . . . . . . . . . . . . 18
3.3 Dépendance et indépendance linéaires . . . . . . . . . . . . . . 23
3.4 Bases et dimension d’un espace vectoriel . . . . . . . . . . . . 25
3.5 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . 28
3.6 Rang d’un système de vecteurs . . . . . . . . . . . . . . . . . 29
4 Applications linéaires 31
4.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . 31
4.2 Noyau et image d’une application linéaire . . . . . . . . . . . . 33
5 Calcul matriciel 38
5.1 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . 41
5.2 Opérations élémentaires sur une matrice . . . . . . . . . . . . 43
2
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
5.3 Application pour déterminer l’inverse d’une matrice carrée in-
versible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.4 Puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . 45
5.5 Matrice d’une application linéaire . . . . . . . . . . . . . . . . 46
5.6 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . 49
5.7 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . 52
6 Déterminant d’une matrice 54
6.1 Déterminant d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . 54
6.2 Déterminant d’ordre 3 . . . . . . . . . . . . . . . . . . . . . . 54
6.3 Déterminant d’ordre n . . . . . . . . . . . . . . . . . . . . . . 55
6.4 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.5 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
7 Réduction des matrices carrées 59
7.1 Polynôme caractéristique et éléments propres d’une matrice
carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
7.2 Diagonalisation des matrices . . . . . . . . . . . . . . . . . . . 62
7.3 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . 63
7.4 Réduction des endomorphismes . . . . . . . . . . . . . . . . . 64
3
Chapitre 1
Polynômes
Dans toute la suite K désigne le corps R ou C.
1.1 Définitions
1.1.1 Définitions
Définition 1.1. - Un polynôme à coefficients dans K est une expression de la
forme : P (X) = an X n +an−1 X n−1 +...+a1 X 1 +a0 , n ∈ N et a0 , a1 , ..., an ∈ K.
L’ensemble des polynômes est noté K[X]. Les ai sont appelés les coefficients
du polynôme P .
- Si tous les coefficients ai sont nuls, P est appelé le polynôme nul, il est noté
0.
- On appelle le degré de P le plus grand entier i tel que ai ̸= 0, on le note
deg(P ). Pour le degré du polynôme nul on pose par convention deg(0) = −∞.
- Un polynôme de la forme P = a0 avec a0 ∈ K est appelé un polynôme
constant. Si a0 ̸= 0, son degré est 0.
- Les polynômes comportant un seul terme non nul (du type ak X k ) sont
appelés monômes.
- Soit P = an X n + an−1 X n−1 + ... + a1 X + a0 , un polynôme avec an ̸= 0.
On appelle terme dominant le monôme an X n . Le coefficient an est appelé le
coefficient dominant de P.
- Si le coefficient dominant est 1, on dit que P est un polynôme unitaire.
4
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Exemples 1.1. 1) P (X) = X 3 − 5X + 2 est un polynôme de degré 3.
2) Q(X) = X n + 1 est un polynôme de degré n.
3) R(X) = 2 est un polynôme de degré 0.
1.2 Opérations sur les polynômes
1) Égalité. Soient P (X) = an X n + an−1 X n−1 + ... + a1 X 1 + a0 et Q(X) =
bn X n + bn−1 X n−1 + ... + b1 X 1 + b0 deux polynômes à coefficients dans K.
P = Q ⇔ ai = bi ,
on dit que P et Q sont égaux.
2) Addition. Soient P (X) = an X n + an−1 X n−1 + ... + a1 X 1 + a0 et Q(X) =
bm X m + bm−1 X m−1 + ... + b1 X 1 + b0 . Si m > n, on définit :
(P + Q)(X) = bm X m + bm−1 X m−1 + ... + bn+1 X n+1
+ (an + bn )X n + (an−1 + bn−1 )X n−1 + ... + (a1 + b1 )X 1 + (a0 + b0 )
et
deg(P + Q) ≤ max(deg(P ), deg(Q)).
3) Multiplication. Soient P (X) = an X n + an−1 X n−1 + ... + a1 X + a0 et
Q(X) = bm X m + bm−1 X m−1 + ... + b1 X + b0 . On définit
(P × Q)(X) = cr X r + cr−1 X r−1 + ... + c1 X + c0 ,
P
avec r = n + m et ck = ai bj , pour k ∈ {0, ..., r}
i+j=k
et
deg(P × Q) = deg(P ) + deg(Q).
4) Multiplication par un scalaire. Si λ ∈ K alors λP est le polynôme
dont le i-ème coefficient est λai .
Exemples 1.2. P (X) = 7X + 5 et Q(X) = X 3 + 4X 2 + 2X + 3.
(P + Q)(X) = X 3 + 4X 2 + 9X + 8.
(P × Q)(X) = 7X 4 + 28X 3 + 14X 2 + 21X + 5X 3 + 20X 2 + 10X + 15
= 7X 4 + 33X 3 + 34X 2 + 31X + 15.
5
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Proposition 1.1. Soient P, Q, R ∈ K[X], alors
i) 0 + P = P, P + Q = Q + P, (P + Q) + R = P + (Q + R),
ii) 1.P = P, P × Q = Q × P, (P × Q) × R = P × (Q × R),
iii) P × (Q + R) = P × Q + P × R.
Notation : K[X] est l’espace vectoriel des polynômes a coefficient dans K
et Kn [X] = {P ∈ K[X] : deg(P ) ≤ n} est un sous espace vectoriel de K[X].
1.3 Arithmétique des polynômes
Il existe de grandes similitudes entre l’arithmétique dans Z et l’arithmétique
dans K[X].
1.3.1 Division euclidienne
Définition 1.2. Soient A, B ∈ K[X], on dit que B divise A s’il existe Q ∈
K[X] tel que A = BQ, on note alors B | A. On dit aussi que A est multiple
de B ou que A est divisible par B.
On peut remarquer que : A | A, 1 | A, A | 0
Proposition 1.2. Soient A, B, C ∈ K[X].
1) Si A | B et B | A, alors il existe λ ∈ K∗ tel que A = λB.
2) Si A | B et B | C alors A | C.
3) Si C | A et C | B, alors C | (AU + BV ), pour tout U, V ∈ K[X].
Théorème 1.1. Soient A, B ∈ K[X], avec B ̸= 0, alors il existe un unique
polynôme Q et il existe un unique polynôme R tels que : A = BQ + R et
deg(R) < deg(B).
Q est appelé le quotient et R le reste, cette écriture est la division euclidienne
de A par B.
Notez que la condition deg(R) < deg(B) signifie R = 0 ou bien 0 ≤
deg(R) < deg(B). Enfin R = 0 si et seulement si B | A.
Démonstration. Unicité. Soient A = BQ + R et A = BQ′ + R′ supposons
Q ̸= Q′ , alors B(Q−Q′ ) = R′ −R. Or deg(R′ −R) < deg(B) et deg(R′ −R) ≥
6
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
deg(B), absurde. Donc Q − Q′ = 0. Ainsi Q = Q′ , d’où aussi R = R′ .
Existence. On montre l’existence par récurrence sur le degré de A.
- Si deg(A) = 0 et deg(B) > 0, alors A est une constante, on pose Q = 0 et
R = A. Si deg(A) = 0 et deg(B) = 0, on pose Q = A | B et R = 0.
- On suppose l’existence vraie lorsque deg(A) ≤ n−1. Soit A = an X n +...+a0
un polynôme de degré n, (an ̸= 0). Soit B = bm X m + ... + b0 avec bm ̸= 0.
Si n < m on pose Q = 0 et R = A.
Si n ≥ m on écrit A = B bamn X n−m + A1 avec deg(A1 ) ≤ n − 1. On applique
l’hypothèse de récurrence à A1 , il existe Q1 , R1 ∈ K[X] tels que A1 = BQ1 +
R1 et deg(R1 ) < deg(B). Il vient : A = B( bamn X n−m + Q1 ) + R1 . Donc Q =
an
bm
X n−m + Q1 et R = R1 conviennent.
On pose une division euclidienne de deux polynômes comme on pose une
division euclidienne de deux entiers.
Exemple 1.1. A = X 3 + X + 1 et B = X + 1.
X3 + X + 1 X +1
−(X 3 + X ) 2 2
X −X +2
−X 2 + X
−(−X 2 − X)
2X + 1
−(2X + 2)
−1
Donc X 3 + X + 1 = (X + 1)(X 2 − X + 2) + (−1)
1.3.2 pgcd
Proposition 1.3. Soient A, B ∈ K[X], avec A ̸= 0 ou B ̸= 0. Il existe un
unique polynôme unitaire de plus grand degré qui divise à la fois A et B. Cet
unique polynôme est appelé le pgcd (plus grand commun diviseur) de A et B
que l’on note pgcd(A, B).
Remarque 1.1. - pgcd(A, B) est un polynôme unitaire.
- Si A | B et A ̸= 0, pgcd(A, B) = λ1 A , où λ est le coefficient dominant de
A.
7
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
- Pour tout λ ∈ K∗ , pgcd(λA, B) = pgcd(A, B).
- Comme pour les entiers : si A = BQ + R, alors pgcd(A, B) = pgcd(B, R).
C’est ce qui justifie l’algorithme d’Euclide.
Algorithme d’Euclide.
Soient A et B deux polynômes, B ̸= 0. On calcule les divisions euclidiennes
successives,
A = BQ1 + R1 deg(R1 ) < deg(B)
B = R1 Q2 + R2 deg(R2 ) < deg(R1 )
R1 = R2 Q3 + R3 deg(R3 ) < deg(R2 )
.
.
.
Rk−2 = Rk−1 Qk + Rk deg(Rk ) < deg(Rk−1 )
Rk−1 = Rk Qk+1 .
Le degré du reste diminue à chaque division. On arrête l’algorithme lorsque
le reste est nul. Donc pgcd(A, B) est le dernier reste non nul Rk (rendu
unitaire).
Exemples 1.3. 1) Calculons le pgcd de A = X 4 − 1 et B = X 3 − 1. On
applique l’algorithme d’Euclide :
X 4 − 1 = (X 3 − 1)X + X − 1
X 3 − 1 = (X − 1)(X 2 + X + 1) + 0
Le pgcd est le dernier reste non nul, donc pgcd(X 4 − 1, X 3 − 1) = X − 1.
2) Calculons le pgcd de A = X 5 + X 4 + 2X 3 + X 2 + X + 2 et B = X 4 +
2X 3 + X 2 − 4.
X 5 + X 4 + 2X 3 + X 2 + X + 2 = (X 4 + 2X 3 + X 2 − 4)(X − 1) + 3X 3 + 2X 2 + 5X − 2
1 14
X 4 + 2X 3 + X 2 − 4 = (3X 3 + 2X 2 + 5X − 2) × (3X + 4) − (X 2 + X + 2)
9 9
3X 3 + 2X 2 + 5X − 2 = (X 2 + X + 2)(3X − 1) + 0
Ainsi pgcd(A, B) = X 2 + X + 2.
8
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Définition 1.3. Soient A, B ∈ K[X]. On dit que A et B sont premiers entre
eux si pgcd(A, B) = 1.
Pour A, B quelconques on peut se ramener à des polynômes premiers
entre eux : si pgcd(A, B) = D, alors A et B s’écrivent : A = DA′ , B = DB ′
avec pgcd(A′ , B ′ ) = 1.
1.3.3 Théorème de Bézout
Théorème 1.2. (Théorème de Bézout) Soient A, B ∈ K[X] deux polynômes
avec A ̸= 0 ou B ̸= 0. On note D = pgcd(A, B). Il existe deux polynômes
U, V ∈ K[X] tels que AU + BV = D.
Ce théorème découle de l’algorithme d’Euclide et plus spécialement de sa
remontée comme on le voit sur l’exemple suivant.
Exemple 1.2. Nous avons calculé pgcd(X 4 − 1, X 3 − 1) = X − 1. Nous
remontons l’algorithme d’Euclide, ici il n’y avait qu’une ligne : X 4 − 1 =
(X 3 − 1)X + X − 1, pour en déduire X − 1 = (X 4 − 1) × 1 + (X 3 − 1) × (−X).
Donc U = 1 et V = −X conviennent.
Le corollaire suivant s’appelle aussi le théorème de Bézout.
Corollaire 1.1. Soient A et B deux polynômes. A et B sont premiers entre
eux si et seulement s’il existe deux polynômes U et V tels que AU + BV = 1.
Corollaire 1.2. Soient A, B, C ∈ K[X] avec A ̸= 0 ou B ̸= 0. Si C | A et
C | B, alors C | pgcd(A, B).
Corollaire 1.3. (Lemme de Gauss).
Soient A, B, C ∈ K[X]. Si A | BC et pgcd(A, B) = 1, alors A | C.
1.3.4 ppcm
Proposition 1.4. Soient A, B ∈ K[X] deux polynômes non nuls, alors il
existe un unique polynôme unitaire M de plus petit degré tel que A | M et
B | M . Cet unique polynôme est appelé le ppcm (plus petit commun multiple)
de A et B qu’on note ppcm(A, B).
9
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Exemples 1.4. ppcm(X(X − 2)2 (X 2 + 1)4 , (X + 1)(X − 2)3 (X 2 + 1)3 ) =
X(X + 1)(X − 2)3 (X 2 + 1)4 .
De plus le ppcm est aussi le plus petit au sens de la divisibilité :
Proposition 1.5. Soient A, B ∈ K[X] non nuls et M = ppcm(A, B). Si
C ∈ K[X] est un polynôme tel que A | C et B | C, alors M | C.
1.4 Racine d’un polynôme, factorisation
1.4.1 Racines d’un polynôme
Définition 1.4. Soit P ∈ K[X] et α ∈ K. On dit que α est une racine (ou
un zéro) de P si P (α) = 0.
Proposition 1.6.
P (α) = 0 ⇔ (X − α) divise P
Démonstration. La division euclidienne de P par X − α donne P = Q(X −
α) + R où R est une constante car deg(R) < deg(X − α) = 1. Donc P (α) =
0 ⇔ R(α) = 0 ⇔ R = 0 ⇔ (X − α) divise P .
Définition 1.5. Soit k ∈ N∗ . On dit que α est une racine de multiplicité k
de P si (X − α)k divise P , alors que (X − α)k+1 ne divise pas P . Lorsque
k = 1 on parle d’une racine simple, lorsque k = 2 d’une racine double, etc.
On dit aussi que α est une racine d’ordre k.
Par analogie avec la dérivée d’une fonction, si P (X) = a0 + a1 X + ... +
an X n ∈ K[X] alors le polynôme P ′ (X) = a1 + 2a2 X + ... + nan X n−1 est le
polynôme dérivé de P .
Proposition 1.7. Il y a équivalence entre :
(i) α est une racine de multiplicité k de P .
(ii) Il existe Q ∈ K[X] tel que P = (X − α)k Q, avec Q(α) ̸= 0.
(iii) P (α) = P ′ (α) = ... = P (k−1) (α) = 0 et P (k) (α) ̸= 0.
Exemple 1.3. P (X) = (X −1)2 (X +2), on a 1 est une racine de multiplicité
2 (d’ordre 2), on dit aussi que 1 est une racine double de P . Alors, P (1) =
P ′ (1) = 0 et P ′′ (1) ̸= 0.
10
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
1.4.2 Racines n-ième d’un nombre complexe
Définition 1.6. (racine n-ième de l’unité) Soit n un entier naturel, on appelle
racine complexe n-ième de l’unité tout nombre complexe z tel que z n = 1.
2π
Proposition 1.8. Le nombre complexe u = ei n est une racine n-ième de
l’unité. L’ensemble des racines n-ième de l’unité est l’ensemble à n éléments.
n 2kπ o
Cn = ei n : k ∈ {0, 1, ..., n − 1}
= 1, u, u2 , ..., un−1 .
2π
Exemples 1.5. C1 = {1}, C2 = {1; −1}, C3 = {1, j, j 2 } où j = ei 3 =
√
− 21 + 23 i, C4 = {1, i, −1, −i}.
Théorème 1.3. Soit c un complexe non nul, r le module de c et α ∈ [0; 2π[
son argument. On appelle racine n-ième de c, tout nombre complexe z tel que
z n = c. Cette égalité équivaut à :
|z|n = r et n × arg (z) = α[2π]
ou encore
1 α 2π
|z| = r n et arg(z) = .
n n
Le nombre complexe c non nul a donc n racines n-ième qui sont les éléments
de l’ensemble :
n 1 α 2kπ o
r n ei( n + n ) : k ∈ {0, 1, ..., n − 1}
Exemple 1.4. Déterminons les complexes z tels que z 3 = 1 + i.
√ 1
On a |1 + i| = 2 = 2 2 , arg(1 + i) = π4 et n = 3.
Donc les complexes cherchés sont donc les éléments de l’ensemble :
n 1 π 2kπ o
2 6 ei( 12 + 3 ) : k ∈ {0, 1, 2}
1.4.3 Equations du second degrés dans C
Proposition 1.9. Pour tout ∆ ∈ C, il existe δ ∈ C tel que δ 2 = ∆. On dit
que δ est une racine carrée de ∆.
11
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Remarque 1.2. Soit ∆ ∈ C∗ et δ une racine carrée de ∆, alors l’équation
z 2 = ∆ admet deux solutions δ et −δ.
Soit maintenant a ̸= 0, b et c trois nombres complexes (ils peuvent donc
être réels). Pour tout z ∈ C, observons que :
" 2 #
2
b b − 4ac
az 2 + bz + c = a z + − .
2a 4a2
Posons δ 2 = b2 − 4ac appelé discriminant de l’équation az 2 + bz + c = 0.
i) Si b2 − 4ac ̸= 0, l’équation az 2 + bz + c = 0, z ∈ C admet deux solutions :
−b + δ −b − δ
z1 = et z2 = .
2a 2a
ii) Si b2 − 4ac = 0, alors l’équation az 2 + bz + c = 0, z ∈ C admet une seule
−b
solution : z1 = z2 = .
2a
Exemple 1.5. Résoudre dans C l’équation z 2 + (i + 2)z + 3 − i = 0.
On a ∆ = δ 2 = b2 − 4ac = (i + 2)2 − 4(3 − i) = −9 + 8i ̸= 0.
Alors l’équation admet deux solutions. Cherchons un complexe δ = x + iy
avec x, y réels.
On a d’une part, δ 2 = (x2 − y 2 ) + 2xyi = −9 + 8i.
Donc x2 − y 2 = −9 et 2xy = 8.
√
D’autre part, |δ|2 = x2 + y 2 = |−9 + 8i| = 145.
Ainsi, (x, y) est solution de
√
x2 − y 2 = −9, x2 + y 2 = 145 et xy > 0.
Donc
√ √
2 −9 + 145 2 9+ 145
x = , y = et xy > 0.
2 2
D’où
r √ r √
−9 + 145 9 + 145
x=± , y=± et xy > 0.
2 2
Puisque x et y ont même signe, on trouve
r √ r √ r √ r √
−9 + 145 9 + 145 −9 + 145 9 + 145
δ= +i ou δ = − −i .
2 2 2 2
Les racines de notre équation sont
12
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
−i − 2 + δ −i − 2 − δ
z1 = , z2 =
2 2
r √ r √
−9 + 145 9 + 145
Prenons par exemple δ = +i . Les solutions de
2 2
notre équation sont
q √ q √
q √ q √
−9+ 145 9+ 145 −9+ 145 9+ 145
−i − 2 + 2
+i 2
−i − 2 − 2
+i 2
z1 = , z2 = .
2 2
Remarque 1.3. 1) az 2 + bz + c = a(z − z1 )(z − z2 ).
−b c
2) z1 et z2 sont solutions de az 2 + bz + c ⇔ z1 + z2 = et z1 z2 = .
a a
1.4.4 Théorème d’Alembert-Gauss
Nous admettons ce théorème.
Théorème 1.4. (Théorème d’Alembert-Gauss).
Tout polynôme à coefficients complexes de degré n ≥ 1 a au moins une
racine dans C. Il admet exactement n racines si on compte chaque racine
avec multiplicité.
Exemples 1.6. 1) Soit P (X) = aX 2 + bX + c un polynôme de degré 2 à
coefficients complexe.
Si ∆ = b2 − 4ac = 0, alors P admet une racine double.
Si ∆ ̸= 0, alors P admet deux racines distinctes.
2) P (X) = X n − 1 admet n racines distinctes (racines n-ième de l’unité).
Pour les autres corps que les nombres complexes (par exemples R ou Q),
nous avons le résultat plus faible suivant :
Théorème 1.5. Soit P ∈ K[X] de degré n ≥ 1 avec K = R ou Q. Alors P
admet au plus n racines dans K.
Exemple 1.6. P (X) = 3X 3 − 2X 2 + 6X − 4 = 3(X − 32 )(X 2 + 2). Considéré
comme un polynôme à coefficients dans Q ou R, P n’a qu’une seule racine
(qui est simple) α = 32 .
Si on considère maintenant P comme un polynôme à coefficients dans C alors
√ √
P (X) = 3(X − 32 )(X − i 2)(X + i 2) et admet trois racines simples.
13
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
1.4.5 Polynômes irréductibles
Définition 1.7. Soit P ∈ K[X] un polynôme de degré ≥ 1, on dit que P
est irréductible si pour tout Q ∈ K[X] divisant P , alors soit Q ∈ K∗ , soit il
existe λ ∈ K∗ tel que Q = λP .
Remarques 1.1. - Un polynôme irréductible P est donc un polynôme non
constant dont les seuls diviseurs de P sont les constantes ou P lui-même (à
une constante multiplicative près).
- La notion de polynôme irréductible pour l’arithmétique de K[X] correspond
à la notion de nombre premier pour l’arithmétique de Z.
- Dans le cas contraire, on dit que P est réductible, il existe alors des po-
lynômes A, B de K[X] tels que P = AB, avec deg(A) ≥ 1 et deg(B) ≥ 1.
Exemples 1.7. 1) Tous les polynômes de degré 1 sont irréductibles. Par
conséquent il y a une infinité de polynômes irréductibles.
2) X 2 − 1 = (X − 1)(X + 1) ∈ R[X] est réductible.
3) X 2 + 1 = (X − i)(X + i) est réductible dans C[X] mais est irréductible
dans R[X].
√ √
4) X 2 −2 = (X − 2)(X + 2) est réductible dans R[X] mais est irréductible
dans Q[X].
Nous avons l’équivalent du lemme d’Euclide dans Z pour les polynômes :
Proposition 1.10. (Lemme d’Euclide).
Soit P ∈ K[X] un polynôme irréductible et soient A, B ∈ K[X]. Si P | AB,
alors P | A ou P | B.
Démonstration. Si P ne divise pas A, alors pgcd(P, A) = 1 car P est irréductible.
Donc par le lemme de Gauss, P divise B.
1.4.6 Théorème de factorisation
Théorème 1.6. Tout polynôme non constant A ∈ K[X] s’écrit comme un
produit de polynômes irréductibles unitaires :
A = λP1k1 P2k2 ...Prkr
14
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
où λ ∈ K∗ , ki , r ∈ N∗ et les Pi sont des polynômes irréductibles distincts. De
plus cette décomposition est unique à l’ordre près des facteurs.
Il s’agit bien sûr de l’analogue de la décomposition d’un nombre relatif
en facteurs premiers.
1.4.7 Factorisation dans C[X] et R[X]
Théorème 1.7. (Factorisation dans C[X]).
Les polynômes irréductibles de C[X] sont les polynômes de degré 1.
Donc pour P ∈ C[X] de degré n ≥ 1 la factorisation s’écrit P = λ(X −
α1 )k1 (X − α2 )k2 ...(X − αr )kr , où α1 , ..., αr sont les racines distinctes de P
et k1 , ..., kr sont leurs multiplicités.
Démonstration. Ce théorème résulte du théorème d’Alembert-Gauss.
Théorème 1.8. (Factorisation dans R[X]).
Les polynômes irréductibles de R[X] sont les polynômes de degré 1 ainsi que
les polynômes de degré 2 ayant un discriminant ∆ < 0.
Soit P ∈ R[X] de degré n ≥ 1. Alors la factorisation s’écrit P = λ(X −
α1 )k1 (X −α2 )k2 ...(X −αr )kr Ql11 Ql22 ...Qlss , où les αi sont exactement les racines
réelles distinctes de multiplicité ki et les Qi sont des polynômes irréductibles
de degré 2, Qi = X 2 + βi X + γi avec ∆ = βi2 − 4γi < 0.
Exemples 1.8. 1) P (X) = 2X 4 (X − 1)3 (X 2 + 1)2 (X 2 + X + 1) est déjà
décomposé en facteurs irréductibles dans R[X], alors que sa décomposition
dans C[X] est P (X) = 2X 4 (X − 1)3 (X − i)2 (X + i)2 (X − j)(X − j 2 ) où
2iπ
√
j = e 3 = −12
+ i 2
3
.
4
2) Soit P (X) = X + 1.
- Sur C. On peut d’abord décomposer P (X) = (X 2 + i)(X 2 − i). Les racines
de P sont donc les racines carrées complexes de i et −i. Ainsi P se factorise
dans C[X] :
√ √ √ √
2 2 2 2
P (X) = (X − 2
(1 + i))(X + 2
(1 + i))(X − 2
(1 − i))(X + 2
(1 − i)).
- Sur R. Pour un polynôme à coefficient réels, si α est une racine alors α
aussi racine. Dans la décomposition ci-dessus on regroupe les facteurs ayant
15
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
des racines conjuguées, cela doit conduire à un polynôme réel :
√ √ √ √
2 2 2 2
P (X) = [(X − (1 + i))(X − (1 − i))][(X + (1 + i))(X + (1 − i))]
√2 √2 2 2
= (X 2 + 2X + 1)(X 2 − 2X + 1),
qui est la factorisation dans R[X].
16
Chapitre 2
Fractions rationnelles
2.1 Définition
Définition 2.1. Une fraction rationnelle à coefficients dans K est une ex-
P
pression de la forme : F = où P, Q ∈ K[X] et Q ̸= 0
Q
Toute fraction rationnelle se décompose comme une somme de fractions
rationnelles élémentaires que l’on appelle des ”éléments simples”. Mais ces
éléments simples sont différents entre C et R.
2.2 Décomposition en éléments simples sur C
P
Théorème 2.1. Soit une fraction rationnelle avec P, Q ∈ C[X], pgcd(P, Q) =
Q
1 et Q = (X − α1 )k1 (X − α2 )k2 ...(X − αr )kr . Alors il existe une et une seule
écriture :
P a1,1 a1,2 a1,k1
=E + k
+ k −1
+ ... +
Q (X − α1 ) 1 (X − α1 ) 1 (X − α1 )
a2,1 a2,2 a2,k2
+ k
+ k −1
+ ... +
(X − α2 ) 2 (X − α2 ) 2 (X − α2 )
+ ..............
ar,1 ar,2 ar,kr
+ k
+ k −1
+ ... +
(X − αr ) r (X − αr ) r (X − αr )
Le polynôme E s’appelle la partie polynomiale (ou partie entière). Les
a
termes sont les éléments simples sur C.
(X − α)i
17
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Comment se calcule cette décomposition ? En général on commence par
déterminer la partie polynomiale. Tout d’abord si deg(Q) > deg(P ) alors
E(X) = 0. Si deg(P ) ≥ deg(Q), alors effectuons la division euclidienne de
P R
P par Q : P = QE + R donc = E+ où deg(R) < deg(Q). La par-
Q Q
tie polynomiale est donc le quotient de cette division. Et on s’est ramené
R
au cas d’une fraction avec deg(R) < deg(Q). Voyons en détails comment
Q
continuer sur un exemple.
P X 5 − 2X 3 + 4X 2 − 8X + 11
Exemple 2.1. Décomposons la fraction : = .
Q X 3 − 3X + 2
Première étape : on cherche la partie polynomiale. La division euclidienne
de P par Q donne P (X) = (X 2 +1)Q(X)+2X 2 −5X +9. Donc la partie poly-
P 2X 2 − 5X + 9
nomiale est E(X) = X 2 +1 et la fraction s’écrit = X 2 +1+ 3 .
Q X − 3X + 2
2X 2 − 5X + 9
Maintenant, il suffit de décomposer la fraction .
X 3 − 3X + 2
Deuxième étape : factorisation du dénominateur Q = (X − 1)2 (X + 2).
Troisième étape : décomposition théorique en éléments simples. Le théorème
de décomposition en éléments simples nous dit qu’il existe une unique décomposition
R 2X 2 − 5X + 9 a b c
= = 2
+ + .
Q Q (X − 1) X −1 X +2
Quatrième étape : détermination des coefficients a, b, c.
R
Pour déterminer a on multiplie la fraction par (X − 1)2 et on évalue en
Q
6
X = 1, on trouve = a = 2.
3
On fait le même processus pour déterminer c : on multiplie par (X + 2) et
8 + 10 + 9 27
on évalue en −2, on trouve = = 3 = c.
9 9
Reste à determiner b. Comme les coefficients sont uniques tous les moyens
sont bons pour les déterminer. Par exemple lorsque l’on évalue la décomposition
R a b c 9 c
théorique = + + en X = 0, on trouve = a−b+ .
Q (X − 1)2 X − 1 X + 2 2 2
c 9
Donc b = a + − = −1.
2 2
P 2 −1 3
Finallement, = (X 2 + 1) + 2
+ + .
Q (X − 1) X −1 X +2
Remarque 2.1. Pour déterminer le coefficient b, on peut aussi multiplier la
fraction par (X − 1) et faisant tendre X vers ∞.
18
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
2.3 Décomposition en éléments simples sur R
P
Théorème 2.2. Soit une fraction rationnelle avec P, Q ∈ R[X], pgcd(P, Q) =
Q
P
1. Alors s’écrit de manière unique comme somme :
Q
1. d’une partie polynomiale E(X),
a
2. d’éléments simples du type ,
(X − α)i
aX + b
3. d’éléments simples du type .
(X 2 + βX + γ)i
Où les X − α et X 2 + βX + γ sont les facteurs irréductibles de Q(X) et les
exposants i sont inférieurs ou égaux à la puissance correspondante dans cette
factorisation.
Exemple 2.2. Décomposition en éléments simples de
P (X) 3X 4 + 5X 3 + 11X 2 + 5X + 3
F (X) = = .
Q(X) (X 2 + X + 1)2 (X − 1)
Comme deg(P ) < deg(Q), alors E(X) = 0. Le dénominateur est déjà facto-
risé sur R car X 2 + X + 1 est irréductible. La décomposition théorique est
P (X) aX + b cX + d e
donc : F (X) = = 2 2
+ 2 + .
Q(X) (X + X + 1) X +X +1 X −1
Pour déterminer a et b on multiplie par (X 2 +X +1)2 et on évalue par X = j.
En utilisant que j 3 = 1 et j 2 = j = −(j +1), on trouve a+b = 3 et 2a−b = 3
et par suite a = 2 et b = 1.
Pour déterminer e, on multiplie par X − 1 et on évalue par X = 1. On trouve
3 + 5 + 11 + 5 + 3
= e = 3.
9
Pour c, on multiplie par X et faisant tendre X vers ∞, on trouve 3 = c + e
et par suite c = 3 − 3 = 0. Pour déterminer d en évalue par X = 0, on trouve
−3 = b + d − e d’où d = −1.
P (X) 2X + 1 −1 3
Finallement, F (X) = = 2 2
+ 2 + .
Q(X) (X + X + 1) X +X +1 X −1
19
Chapitre 3
Espaces vectoriels
Dans tout ce chapitre, K désigne R ou C.
3.1 Structure d’espace vectoriel
Définition 3.1. Soit E un ensemble.
— Une loi de composition interne ”+” dans E est une application
de E × E dans E :
(u, v) ∈ E × E → u + v ∈ E
— Une loi de composition externe ”.” sur E est une application de
K × E dans E :
(α, u) ∈ K × E → α.u ∈ E
Exemples 3.1. 1. Soit E = R3 l’application notée ”+” de R3 × R3 dans
R3 définie par
(x, y, z) + (t, u, v) = (x + t, y + u, z + v)
est une loi de composition interne de R3 .
2. Soit E = R3 l’application notée ”.” de R × R3 dans R3 définie par
α(x, y, z) = (αx, αy, αz)
est une loi de composition externe.
20
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Définition 3.2. On dit qu’un ensemble E est un espace vectoriel sur K
ou un K-espace vectoriel si E est non vide et si E est muni de deux lois,
qu’on note généralement par
+ : E × E → E, (x, y) → x + y et . : R × E → E, (λ, y) → λ.y = λy.
Et vérifie les huit conditions ci-dessous :
(C1) La loi + est commutative : x + y = y + x, ∀x, y ∈ E.
(C2) La loi + est est associative : (x + y) + z = x + (y + z), ∀x, y, z ∈ E.
(C3) La loi + admet un élément neutre noté 0 : x + 0 = 0 + x = x, ∀x ∈ E.
(C4) Tout élément x de E a un opposé noté −x : x + (−x) = (−x) + x = 0.
(C5) ∀α ∈ K et ∀x, y ∈ E, α(x + y) = αx + αy.
(C6) ∀α, β ∈ K et ∀x ∈ E, (α + β)x = αx + βx.
(C7) ∀α, β ∈ K et ∀x ∈ E, (αβ)x = α(βx).
(C8) La loi . admet un élément neutre noté 1 : x.1 = 1.x = x, ∀x ∈ E.
Les éléments de E s’appellent vecteurs et ceux de K scalaires.
Le symétrique v d’un élément u de E pour ”+” est noté −u.
Exemples 3.2. (1) l’ensemble Kn est un K-espace vectoriel pour les lois
(x1 , , ..., xn ) + (y1 , ..., y) = (x1 + y1 , , ..., xn + yn )
λ(x1 , , ..., xn ) = (λx1 , , ..., λxn )
(2) RN l’ensemble des suites réelles est un R-espace vectoriel pour les lois
usuelles.
(3) L’ensemble Rn [X] des polynômes de degré inférieur ou égal à n ∈ N (à
coefficients réels) est un R-espace vectoriel pour les lois
n
X n
X n
X
ak X k + bk X k = (ak + bk )X k
i=1 i=1 i=1
n
X n
X
α. ak X k = (αak )X k , α∈R
i=1 i=1
3.2 Structure de sous-espace vectoriel
Définition 3.3. Soit (E, +, .) un K-espace vectoriel. Une partie F de E est
un sous-espace vectoriel de E si
21
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
— F est non vide,
— (F, +, .) est un K-espace vectoriel.
Théorème 3.1. Soit (E, +, .) un K-espace vectoriel. Une partie F de E est
un sous-espace vectoriel de E si et seulement si
— F est non vide,
— F est stable pour la loi ” + ” : ∀(u, v) ∈ F 2 , u + v ∈ F ,
— F est stable pour la loi ”.” : ∀α ∈ K, ∀u ∈ F, αu ∈ F .
Démonstration. - Par hypothèse F est non vide. Soit α ∈ K, (u, v) ∈ F 2 .
Comme F est un K-espace vectoriel on a u + v ∈ F et αu ∈ F .
- Pour montrer l’implication inverse, les seuls points à vérifier sont les
points 3) et 4) de la loi interne + (voir définition3.2).
Prenons α = 0 et u ∈ F , alors αu = 0 ∈ F et donc F possède un élément
neutre pour la loi +.
Soit u ∈ F , par définition il existe v ∈ E tel que u + v = v + u = 0,
donc v = −u = (−1)u ∈ F . Comme F est non vide, (F, +, .) est un K-espace
vectoriel et donc F est un sous espace vectoriel de E.
On peut résumer le théorème précédent sous la forme suivante
Corollaire 3.1. Soit (E, +, .) un K-espace vectoriel. Une partie F de E est
un sous-espace vectoriel de E si et seulement si
— F est non vide,
— ∀(α, β) ∈ K2 , ∀(u, v) ∈ F 2 , αu + βv ∈ F .
Exemples 3.3. 1) Soit E un K-espace vectoriel. Alors le singleton {0} et E
sont des sous-espaces vectoriels de E.
2) L’ensemble F = {(x, −x, 0) : x ∈ R} est un sous-espace vectoriel de R3 .
3) L’ensemble des fonctions continues de R dans R est un sous-espace vecto-
riel de F(R, R).
4) L’ensemble des polynômes de K[X] de degré inférieur ou égal à un entier
naturel n
( n )
X
Kn [X] = ai X i : a0 , a1 , ..., an ∈ K
i=1
est un sous-espace vectoriel de K[X].
22
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Proposition 3.1. Soit E un K-espace vectoriel. ∀u ∈ E, ∀α ∈ K.
αu = 0 si et seulement si α = 0 ou u = 0.
Notation : α.u = αu.
Proposition 3.2. Soient F et G deux sous-espaces vectoriels d’un K-espace
vectoriel E. Alors
1) F ∩ G est un sous-espace vectoriel de E.
2) F ∪ G n’est pas en général un sous-espace vectoriel de E.
3) Le complémentaire dans E d’un sous-espace vectoriel F (noté ∁E (F )) n’est
pas un sous-espace vectoriel de E.
Démonstration. 1) Facile.
2) Considérons les deux sous-espaces F et G de l’espace produit R2 définis
par
F = R × {0} = {(x, 0) : x ∈ R}
G = {0} × R = {(0, x) : x ∈ R}.
L’ensemble F ∪ G n’est pas un sous-espace de R2 car (1, 0) ∈ F , (0, 1) ∈ G
et (1, 0) + (1, 0) = (1, 1) ∈
/ F ∪ G.
3) Il suffit de remarquer que 0 ∈/ ∁E (F )
Exercice : Soient F = {(x, y, z) ∈ R3 : x − z = 0} et G = {(x, y, z) ∈
R3 : −x − y + z = 0}.
1) Montrer que F et G sont des sous-espaces vectoriels de R3 .
2) Déterminer F ∩ G.
Définition 3.4. Soit S = {u1 , u2 , ..., up } une famille de vecteurs d’un K-
espace vectoriel E. Une combinaison linéaire des éléments de S est tout
élément u de E de la forme
p
X
u = α1 u1 + α2 u2 + ... + αp up = αi ui , (α1 , α2 , ..., αp ) ∈ Kp .
i=1
Les scalaires α1 , α2 , ..., αp de K sont appelés coefficients de la combinaison
linéaire.
23
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Exemples 3.4. 1) Tout vecteur x = (x, y, z) de K3 est combinaison linéaire
de la famille F = (e1 , e2 , e3 ) où e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1),
car
x = (x, y, z) = (x, 0, 0) + (0, y, 0) + (0, 0, z)
= x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)
= xe1 + ye2 + ze3 .
Les coefficients de la combinaison linéaire sont x, y et z.
2) Dans R3 , le vecteur (2, 0, 1) est une combinaison linéaire des deux
vecteurs (1, 0, 0) et (0, 0, 1). En effet, (2, 0, 1) = 2(1, 0, 0) + (0, 0, 1).
3) Dans Rn [X], tout polynôme est une combinaison linéaire des éléments
de la famille (1, X, X 2 , ..., X n ).
Définition 3.5. Soient E un K-espace vectoriel et S une partie finie de
E. On appelle sous-espace engendré par S, noté V ect(S), l’ensemble des
combinaisons linéaires des éléments de S. La famille S est dite génératrice
du sous-espace V ect(S).
Théorème 3.2. Le sous-espace engendré par une famille S d’un K-espace
vectoriel E est un sous-espace vectoriel de E. C’est le plus petit sous-espace
vectoriel de E (au sens de l’inclusion) contenant S.
Démonstration. Il suffit d’utiliser le Théorème3.1
Remarque 3.1. Si S = {u1 , u2 , ..., up }, alors
V ect(S) = {α1 u1 + α2 u2 + ... + αp up : (α1 , α2 , ..., αp ) ∈ Kp },
ou encore
u ∈ V ect(S) ⇔ ∃(α1 , ..., αp ) ∈ Kp tel que u = α1 u1 + α2 u2 + ... + αp up
Exemples 3.5. 1) Si u est un vecteur d’un K-espace vectoriel E alors
V ect({u}) = {αu : α ∈ K} = Ku.
Donc pour u = 0E on a V ect({0E }) = {0E } et si u ̸= 0E , alors V ect(u) est
la droite vectorielle engendrée par u.
24
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
2) Dans R3 , soit v1 = (1, 0, 0) et v2 = (0, 1, 1), alors
V ect(v1 , v2 ) = {αv1 + βv2 : α, β ∈ R}
= {(α, 0, 0) + (0, β, β) : α, β ∈ R}
= {(α, β, β) : α, β ∈ R}
Exercice
Montrer que : V ect({1, X, X 2 }) = R2 [X].
Proposition 3.3. Soient E un K-espace vectoriel et u1 , ..., up , up+1 des vec-
teurs de E.
- Si up+1 est combinaison linéaire des p autres vecteurs u1 , ..., up alors
V ect(u1 , ..., up , up+1 ) = V ect(u1 , ..., up ).
- En particulier,
V ect(u1 , ..., up , 0E ) = V ect(u1 , ..., up ).
Exemple 3.1. Considérons dans R4 les trois vecteurs v1 = (1, 1, 0, −1),
v2 = (1, 2, 1, 0) et v3 = (3, 5, 2, −1). On a v3 = v1 + 2v2 . Le vecteur v3 est
ainsi combinaison linéaire des deux vecteurs v1 et v2 . Donc
V ect(v1 , v2 , v3 ) = V ect(v1 , v2 ).
Remarque 3.2. Une méthode pour démontrer qu’une partie non vide F
d’un espace vectoriel E est un sous-espace vectoriel de E est de montrer
que F est égal à l’ensemble des combinaisons linéaires d’un nombre fini de
vecteurs de E.
Exemple 3.2. Soit F = {(x, y, z) ∈ R3 : x − y − z = 0}. Un triplet u =
(x, y, z) ∈ R3 est un élément de F si, et seulement si, x − y − z = 0, c’est-
à-dire si, et seulement si, x = y + z. Donc u ∈ F si, et seulement si, u peut
s’écrire u = (y + z, y, z). Or, on a l’égalité
(y + z, y, z) = y(1, 1, 0) + z(1, 0, 1).
Donc F est l’ensemble des combinaisons linéaires de la famille S = {(1, 1, 0), (1, 0, 1)}.
Ainsi F = V ect(S) et F est un sous-espace vectoriel de R3 .
25
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
3.3 Dépendance et indépendance linéaires
Définition 3.6. Soit S = {u1 , u2 , ..., up } une famille finie de vecteurs d’un
K-espace vectoriel E.
- La famille S est dite liée si l’on peut trouver des scalaires α1 , α2 , ...., αp
appartenant à K, dont un au moins est non nul tels que
α1 u1 + α2 u2 + .... + αp up = 0E
On dit également que les vecteurs u1 , u2 , ..., up sont linéairement dépendants.
- Si la famille n’est pas liée, on dit qu’elle est libre (ou que les vecteurs
sont linéairement indépendants).
Remarque 3.3. - En d’autres termes, on dit qu’une famille finie S =
{u1 , u2 , ..., up } est libre si la seule possibilité pour que la combinaison linéaire
α1 u1 + α2 u2 + .... + αp up soit nulle, est que les coefficients α1 , α2 , ...., αp soient
tous nuls.
En pratique, pour montrer que la famille S = {u1 , u2 , ..., up } est libre, on
montre que la relation α1 u1 + α2 u2 + .... + αp up = 0E entraı̂ne nécessairement
que α1 = α2 = .... = αp = 0.
- Soit E un K-espace vectoriel, alors la famille {0E } est liée.
Exemples 3.6. 1) Dans C4 , les vecteurs v1 = (1, 0, 1, 1), v2 = (0, 2, 2i, 6) et
v3 = (1, i, 0, 1 + 3i), où i2 = −1 sont liés puisque
i
v1 + v2 − v3 = 0C4 .
2
2) Dans R3 , les vecteurs v1 = (1, 1, −1), v2 = (0, 2, 1) et v3 = (0, 0, 5) sont
linéairement indépendants.
3) Soit f1 , f2 et f3 trois fonctions de R dans R définies comme suit
∀x ∈ R, f1 (x) = cos2 (x), f2 (x) = cos(2x), f3 (x) = 1.
La relation cos(2x) = 2 cos2 (x) − 1 implique que la famille {f1 , f2 , f3 } est une
famille liée dans le R-espace vectoriel F(R, R).
Proposition 3.4. Soit E un K-espace vectoriel.
- Soit v un vecteur de E. La famille {v} est libre si et seulement si v ̸= 0E .
26
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
- Une famille contenue dans une famille libre est libre.
- Une famille qui contient une famille liée est liée. En particulier toute famille
qui contient 0E est liée.
La proposition suivante donne une caractérisation d’une famille liée.
Proposition 3.5. Soit E un K-espace vectoriel et p ≥ 2 un entier. Une
famille S = {u1 , u2 , ..., up } de vecteurs de E est liée si et seulement si l’un
de ses vecteurs, soit ui , est combinaison linéaire des éléments de la famille
{u1 , u2 , ..., ui−1 , ui+1 , ..., up }.
Démonstration. - Supposons que la famille S est liée, il existe des scalaires
α1 , α2 , ...., αp non tous nuls tels que
α1 u1 + α2 u2 + .... + αp up = 0E
Soit i tel que αi ̸= 0. Alors
α1 αi−1 αi+1 αp
ui = − u1 − .... − ui−1 − ui+1 − ... − up .
αi αi αi αi
Le vecteur ui est donc une combinaison linéaire des éléments de la famille
{u1 , u2 , ..., ui−1 , ui+1 , ..., up }.
- Supposons qu’un vecteur ui s’écrit
ui = α1 u1 + .... + αi−1 ui−1 + αi+1 ui+1 + ... + αp up .
Alors
α1 u1 + .... + αi−1 ui−1 − ui + αi+1 ui+1 + ... + αp up = 0E .
Ceci implique que la famille S est liée.
Exemples 3.7. : 1) dans R3 , soit les vecteurs v1 = (1, 0, −1), v2 = (1, 1, 1)
et v3 = (5, 3, 1). On a v3 = 2v1 + 3v2 donc la famille {v1 , v2 , v3 } est liée.
2) Considérons dans R2 [X] les polynômes P1 = X +1, P2 = −1+2X +3X 2
et P3 = X + X 2 . On a P1 + P2 − 3P3 = 0, ce qui implique que la famille
{P1 , P2 , P3 } est liée.
27
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Proposition 3.6. Soit V = {v1 , v2 , ..., vp } une famille libre d’un K-espace
vectoriel E. Si x est un vecteur quelconque de V ect(V ), alors la décomposition
de x sur les vi , i = 1, ..., p est unique.
Démonstration. Si x = α1 v1 + α2 v2 + ... + αp vp = β1 v1 + β2 v2 + ... + βp vp ,
alors
(α1 − β1 )v1 + (α2 − β2 )v2 + ... + (αp − βp )vp = 0E .
Ceci implique que αi − βi = 0, ∀i ∈ 1, 2, ..., p car la famille V est libre.
3.4 Bases et dimension d’un espace vectoriel
Définition 3.7. Soit E un K-espace vectoriel. On dit que E est de dimen-
sion finie s’il existe une famille finie V = {v1 , v2 , ..., vp } de vecteurs de E
telle que E = V ect(V ).
Exemples : 1) Pour tout entier n ∈ N∗ , le K-espace vectoriel Kn est
de dimension finie. Il est engendré par la famille (e1 , e2 , ..., en ) où ei =
(0, ..., 0, 1, 0, ..., 0) (1 est dans la iéme position).
2) L’espace vectoriel K[X] n’est pas de dimension finie.
Définition 3.8. Soit E un K-espace vectoriel de dimension finie. On appelle
base de E toute famille de vecteurs de E qui est libre et génératrice.
Proposition 3.7. Soit E un K-espace vectoriel de dimension finie. La fa-
mille V = {v1 , v2 , ..., vp } est une base de E si, et seulement si,
∀x ∈ E, ∃!(α1 , ..., αn ) ∈ K n : x = α1 v1 + α2 v2 + ... + αn vn .
Théorème 3.3. Soit E un K-espace vectoriel de dimension finie. Alors
toutes les bases de E ont le même cardinal.
Définition 3.9. Soit E un K-espace vectoriel de dimension finie. Le car-
dinal d’une base de E s’appelle la dimension de E. La dimension d’un
sous-espace vectoriel de E est sa dimension en tant que K-espace vectoriel.
28
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
- Par convention la dimension du sous-espace vectoriel {0E } est égale à
0.
Exemples 3.8. 1) Soit E = K2 , e1 = (1, 0) et e2 = (0, 1). La famille B =
{e1 , e2 } est génératrice de E puisque tout vecteur v = (x1 , x2 ) ∈ E s’écrit
v = x1 e1 + x2 e2 . De plus on vérifie aisément que B est libre. Donc c’est une
base de E.
2) Tout polynôme P de Kn [X] s’écrit sous la forme
P = a0 + a1 X + ... + an X n .
La famille B = (1, X, X 2 , ..., X n ) est alors génératrice. De plus, cette décomposition
est unique, et par conséquent la famille finie B est une base de Kn [X] et
dim(Kn [X]) = n + 1. On l’appelle base canonique de Kn [X]. Les éléments
a0 , a1 , ..., an de K sont les coordonnées de P par rapport à cette base.
3) Tout vecteur x = (x1 , ..., xn ) du K-espace vectoriel Kn s’écrit
x = x1 e1 + ... + xn en
avec
e1 = (1, 0, ..., 0), e2 = (0, 1, 0, ..., 0), ..., en = (0, ..., 0, 1).
La famille B = (e1 , ..., en ) est ainsi génératrice de Kn . De plus, cette famille
est libre. Par conséquent la famille B est une base de Kn et dim Kn = n. On
l’appelle base canonique de Kn . Par conséquent x1 , ..., xn sont les coordonnées
du vecteur x de Kn dans cette base.
4. Soit F = {(x, y, z) ∈ R3 : 2x + y + 3z = 0}. On a F est un sous-espace
vectoriel de R3 , et u = (x, y; , z) ∈ F ⇔ y = −2x − 3z.
Donc u ∈ F si, et seulement si, u = (x, −2x − 3z, z) = x(1, −2, 0) +
z(0, −3, 1). Ceci implique que les deux vecteurs v1 = (1, −2, 0) et v2 =
(0, −3, 1) engendrent F . On vérifie qu’ils forment une famille libre, donc
ils forment une base de F .
Exercice : Dans R3 muni de sa structure de R-espace vectoriel, on
considère les quatre vecteurs v1 = (1, 1, 2), v2 = (1, −1, 0), v3 = (0, 0, −1)
29
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
et x = (1, 1, 1).
1. Quelles sont les coordonnées de x dans la base canonique de R3
2. Montrer que les vecteurs v1 , v1 et v3 forment une base de R3 .
3. Déterminer les coordonnées du vecteur x dans cette nouvelle base.
Théorème 3.4. Un K-espace vectoriel E ̸= {0E } de dimension finie possède
au moins une base finie.
Une autre version du théorème précédent est le suivant
Théorème 3.5. Soit E ̸= {0E } un K-espace vectoriel de dimension finie.
Alors
1. De toute famille génératrice de E on peut extraire une base pour E.
2. (Théorème de la base incomplète) Toute famille libre de E peut être
complétée pour former une base de E.
La proposition suivante donne le lien entre le cardinal d’une famille génératrice
ou libre et celle d’une base.
Proposition 3.8. Soit E un K-espace vectoriel de dimension finie n.
1. Toute famille G génératrice de E vérifie card(G) ≥ n. En particulier, toute
famille génératrice constituée de n vecteurs est une base de E.
2. Toute famille L libre de E vérifie card(L) ≤ n. En particulier, toute
famille libre constituée de n vecteurs est une base de E.
Proposition 3.9. Soit E un K-espace vectoriel de dimension n et F un sous-
espace vectoriel de E. Alors F est de dimension finie et dim(F ) ≤ dim(E).
En particulier, si dim(F ) = dim(E) alors E = F .
Démonstration. Soit B une base de F . La famille B est libre dans E. Par le
théorème de la base incomplète, elle est contenue dans une base de E. Donc
dim(F ) ≤ dim(E).
Supposons que dim(F ) = dim(E) = n et soit B une base de F . La famille
B est libre de E qui contient n éléments. Elle est donc une base de E. D’où
E = F.
Exercice : On considère dans R3 [X] les polynômes P1 = 1 + X 3 , P2 =
1 − X 2 et P3 = 1.
30
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
1. La famille {P1 , P2 , P3 } est-elle libre ?
2. Déterminer un polynôme P4 tel que la famille {P1 , P2 , P3 , P4 } soit une base
de R3 [X].
3.5 Somme de sous-espaces vectoriels
Définition 3.10. Soient E un K-espace vectoriel et F , G deux sous-espaces
vectoriels de E.
1. La somme de F et G est le sous-espace de E, noté F + G, défini par
F + G = {w = u + v ∈ E : u ∈ F, v ∈ G}.
2. En particulier, la somme de F et G est dite somme directe si
∀w ∈ F + G, ∃!u ∈ F, ∃!v ∈ G, w = u + v.
Les vecteurs u et v sont alors appelés les composantes du vecteur w res-
pectivement dans F et dans G, et le sous-espace F + G se note F ⊕ G.
3. On dit que F et G sont supplémentaires dans E si E = F ⊕ G.
Théorème 3.6. Soient E un K-espace vectoriel et F , G deux sous espaces
vectoriels de E. Une condition nécessaire et suffisante pour que la somme
de F et G soit directe est que leur intersection soit réduite au vecteur nul,
c’est-à-dire
F ∩ G = {0E }.
Remarque 3.4. On peut montrer, en utilisant le théorème de la base in-
complète, que tout sous-espace vectoriel d’un K-espace possède au moins un
supplémentaire dans E.
Théorème 3.7. Soit E un K-espace vectoriel. Si F et G sont deux sous
espaces vectoriels de E alors F + G et F ⊕ G sont des sous-espaces vectoriels
de E.
Démonstration. Facile.
31
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Théorème 3.8. (Grassmann). Soit Eun K-espace vectoriel et F , G des
sous-espaces vectoriels de E. Alors
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).
Les propositions suivantes présentent les conditions que deux sous-espaces
vectoriels doivent remplir pour qu’ils soient supplémentaires.
Proposition 3.10. Soient E un K-espace vectoriel et F , G deux sous-espaces
de E. Alors
E = F ⊕ G ⇔ E = F + G et F ∩ G = {0E }.
Proposition 3.11. Soit E un K-espace vectoriel et F , G des sous-espaces
vectoriels de E. Alors E = F ⊕ G si, et seulement si, pour toute base B1 de
F et pour toute base B2 de G, B1 ∪ B2 est une base de E.
Théorème 3.9. Soit E un K-espace vectoriel et F , G des sous-espaces vec-
toriels de E. Alors
E = F⊕G ⇔ F ∩ G = {0E } et dim(F ) + dim(G) = dim(E).
Exemples 3.9. 1. Soit E = R3 , F = V ect(1, 1, 1) et G = V ect(1, 0, −1), (0, 1, −1).
Alors E = F ⊕ G. En effet, F ∩ G = {0R3 } et dim(F ) + dim(G) = 1 + 2 = 3.
2. Soit E = R3 [X], F = R et G = {XP ∈ R3 [X] : P ∈ R3 [X]}. Alors
E = F ⊕ G.
3.6 Rang d’un système de vecteurs
Définition 3.11. Le rang d’un ensemble fini de vecteurs S = {u1 , u2 , ..., up }
d’un K-espace vectoriel est égal au plus grand nombre de vecteurs linéairement
indépendants que l’on peut extraire de S (donc il est égal à la dimension du
sous-espace vectoriel engendré par S). On le note rg(S).
Proposition 3.12. Soit {u1 , u2 , ..., up } une famille de vecteurs d’un K-espace
vectoriel E.
1. rg({u1 , u2 , ..., up }}) ≤ p.
2. rg({u1 , u2 , ..., up }) = p ⇔ {u1 , u2 , ..., up } est libre.
32
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Exemple 3.3. Considérons dans R4 les vecteurs u = (1, −1, 1, 0), v = (1, 1, 0, 1)
et w = (2, 0, 1, 1). On a alors rg({u, v, w}) ≤ 3. Or w = u + v, donc
w ∈ V ect({u, v}) et rg({u, v, w}) = rg({u, v}) = 2 car la famille {u, v}
est libre.
33
Chapitre 4
Applications linéaires
4.1 Définitions et propriétés
Définition 4.1. Soit E et F deux K-espaces vectoriels.
1. Une application f de E dans F est dite linéaire si, et seulement si,
i. ∀(u, v) ∈ E 2 , f (u + v) = f (u) + f (v),
ii. ∀α ∈ K, ∀u ∈ E, f (αu) = αf (u).
Les deux relations i) et ii) peuvent s’écrire sous la forme unique suivante :
∀(α, β) ∈ K2 , ∀(u, v) ∈ E 2 , f (αu + βv) = αf (u) + βf (v).
On dit aussi que f est un morphisme d’espaces vectoriels.
2. Un endomorphisme de E est une application linéaire de E dans E.
3. Un isomorphisme de E sur F est un morphisme d’espaces vectoriels
bijectif.
4. Un automorphisme de E est un endomorphisme bijectif de E.
Notations :
1. L’ensemble des applications linéaires de E dans F est noté L(E, F ). L’en-
semble des endomorphismes de E est simplement noté L(E).
2. L’ensemble des isomorphismes de E sur F est noté Isom(E, F ).
3. L’ensemble des automorphismes de E est noté GL(E).
Exemples 4.1. 1. L’application f définie par
f : R3 → R2
34
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
(x, y, z) → (x + 2y, x − z),
est linéaire.
2. L’application f définie par
f : K[X] → K[X]
P → P ′,
où P ′ est la dérivée de P , est un endomorphisme.
3. L’application f définie par
f : R3 → R3
(x, y, z) → (x + y + z, x − y + z, x + y − z),
est un isomorphisme.
4. L’application idE définie par
idE : E → E
u → u,
est un automorphisme.
Propriétés :
Soit E et F deux K-espaces vectoriels.
1. Si f ∈ L(E, F ) alors f (0E ) = 0F ,
2. Si f ∈ L(E, F ) alors ∀u ∈ E, f (−u) = −f (u).
3. Soient f, g ∈ L(E, F ) et λ ∈ K. Les applications f + g et λf définies par
∀x ∈ E, (f + g)(x) = f (x) + g(x) et (λf )(x) = λf (x),
sont des éléments de L(E, F ). Muni de ces deux lois, L(E, F ) est un K-espace
vectoriel.
Proposition 4.1. Soit E et F deux K-espaces vectoriels de dimension res-
pectives n et m. Soient B = {e1 , ..., en } une base de E, et f ∈ L(E, F ). Alors
f est entièrement déterminée par les images f (ei ), i = 1, ..., n.
35
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Démonstration. Tout vecteur x de E se décompose d’une manière unique
dans la base B sous la forme
x = x1 e1 + x2 e2 + ... + xn en ,
où x1 , ..., xn appartenant à K sont les coordonnées de x dans la base B.
Puisque f est linéaire, alors
f (x) = f (x1 e1 + x2 e2 + ... + xn en )
= x1 f (e1 ) + x2 f (e2 ) + ... + xn f (en ).
Exemple 4.1. Soient B = {e1 , e2 , e3 } la base canonique de R3 et l’application
f : R3 → R3 définie par f (e1 ) = e1 + e2 , f (e2 ) = e1 − e1 et f (e3 ) = e1 + e3 .
On montre facilement que f est l’application linéaire de R3 dans R3 définie
par
∀x = (x1 , x2 , x3 ) ∈ R3 , f (x) = (x1 + x2 + x3 , x1 − x2 , x3 )
4.2 Noyau et image d’une application linéaire
Définition 4.2. Soit E et F deux K-espaces vectoriels et soit f ∈ L(E, F ).
- On appelle noyau de f et on note ker(f ) l’ensemble des éléments de E
dont l’image est 0F .
Ker(f ) = {u ∈ E : f (u) = 0F }.
- On appelle image de f et on note Im(f ) l’ensemble des éléments de F qui
sont l’image d’au moins un élément de E
Im(f ) = {v ∈ F : ∃u ∈ E, f (u) = v} = f (E).
Proposition 4.2. Soit E et F deux K-espaces vectoriels de dimension finie
et soit f ∈ L(E, F ). Si E = V ect{e1 , ..., en }, alors Im(f ) = V ect{f (e1 ), ..., f (en )}.
Démonstration. Soit v ∈ Im(f ). Alors il existe u ∈ E tel que f (u) = v.
Puisque E = V ect{e1 , ..., en }, alors il existe des scalaires α1 , ..., αn apparte-
nant à K tels que u = α1 e1 +...+αn en . Ceci implique v = f (u) = α1 f (e1 )+...+
αn f (en ), car f est linéaire. Par conséquent Im(f ) = V ect{f (e1 ), ..., f (en )}.
36
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Exemples 4.2. 1. Soit f : R3 → R2 l’application linéaire définie par f (x, y, z) =
(x + 2y, x − z).
Ker(f ) = {(x, y, z) ∈ R3 : (x + 2y, x − z) = (0, 0) = 0R2 }
= {(x, y, z) ∈ R3 : x = −2y et x = z}
= {(−2y, y, −2y) : y ∈ R}
= V ect{(−2, 1, −2)}
et dim(Ker(f )) = 1.
Im(f ) = f (R3 )
= f (V ect{e1 , e2 , e2 })
= V ect{f (e1 ), f (e2 ), f (e2 )})
= V ect{(1, 1), (2, 0), (0, −1)}
et dim(Im(f )) = 2.
2. Soit f : R2 [X] → R3 l’application linéaire définie par f (P ) = (P (0), P (1), P (2)).
Kerf = {P = a0 + a1 X + a2 X 2 ∈ R2 [X], (a0 , a1 , a2 ) ∈ R3 : f (P ) = (P (0), P (1), P (2)) = 0R3 }
= {0R2 [X] }
et dim(Ker(f )) = 0.
Im(f ) = f (R2 [X])
= f (V ect{1, X, X 2 })
= V ect{f (1), f (X), f (X 2 )}
= V ect{(1, 1, 1), (0, 1, 2), (0, 1, 4)}
et dim(Im(f )) = 3.
Proposition 4.3. Soit E et F deux K-espaces vectoriels et soit f ∈ L(E, F ).
Alors
1. Ker(f ) est un sous-espace vectoriel de E,
2. Im(f ) est un sous-espace vectoriel de F .
Démonstration. Facile.
37
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Théorème 4.1. Soit E et F deux K-espaces vectoriels et soit f ∈ L(E, F ).
Alors
1. f est injective ⇔ Ker(f ) = {0E }.
2. f est surjective ⇔ Im(f ) = F .
Démonstration. 1. Rappelons que f est injective si, et seulement si, ∀u, v ∈ E
on a f (u) = f (v) ⇒ u = v.
- Supposons que f est injective. Considérons un vecteur u de Ker(f ), alors
f (u) = 0F .
Puisque f (0E ) = 0F , on aura f (u) = f (0E ). Or f est injective, donc u = 0E
et par conséquent Ker(f ) = {0E }.
- Supposons que Ker(f ) = {0E } et soit u, v ∈ E tels que f (u) = f (v).
Comme f est linéaire, on a f (u − v) = f (u) − f (v) = 0F . Ceci implique que
u − v = 0E et u = v. D’où f est injective.
2. f est surjective si, et seulement si, pour tout v ∈ F il existe u ∈ E tel que
f (u) = v. D’où f est surjective si, et seulement si, Im(f ) = F .
Exemple 4.2. Soit f l’application linéaire qui à tout polynôme P de R2 [X]
lui associe le vecteur f (P ) = (P (−1), P (0), P (1)) de R3 .
- Soit P = aX 2 + bX + c ∈ Ker(f ) , où a, b, c ∈ R. Alors f (P ) = (a − b +
c, c, a + b + c) = 0R3 . Ceci implique que a = b = c = 0, et P = 0R2 [X] . Ainsi,
Ker(f ) = {0R2 [X] }. Par conséquent, f est injective.
- Puisque R2 [X] = V ect(1, X, X 2 ) et f est une application linéaire, alors
Im(f ) = V ect{f (1), f (X), f (X 2 )} = V ect{v1 , v2 , v3 }, où v1 = (1, 1, 1), v2 =
(−1, 0, 1) et v3 = (1, 0, 1). On vérifie facilement que la famille {v1 , v2 , v3 } est
une base de R3 , et donc dim(Im(f )) = 3 = dim(R3 ). Puisque Im(f ) est un
sous-espace vectoriel de R3 alors Im(f ) = R3 . Par conséquent, f est surjec-
tive.
Exercice Soit f l’application linéaire qui à tout polynôme P de R2 [X]
lui associe
f (P ) = 2(X + 1)P − (X 2 − 2X + 1)P ′
Déterminer Im(f ), Ker(f ) et la dimension de chacun de ces deux sous es-
paces.
38
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Proposition 4.4. Soit E, F deux K-espaces vectoriels, {v1 , v2 , ..., vn } une fa-
mille libre dans E et f ∈ L(E, F ). Si f est injective, alors {f (v1 ), f (v2 ), ..., f (vn )}
est une famille libre de F .
Démonstration. Soit α1 , ..., αn des scalaires appartenant à K tels que
α1 f (v1 ) + α2 f (v2 ) + ... + αn f (vn ) = 0F .
Puisque f (0E ) et f est linéaire, alors
f (α1 v1 + α2 v2 + ... + αn vn ) = f (0E ).
Or f est injective, ainsi α1 v1 + α2 v2 + ... + αn vn = 0E . Ceci implique α1 =
... = αn = 0, car la famille {v1 , v2 , ..., vn } est libre. Par conséquent, la famille
{f (v1 ), f (v2 ), ..., f (vn )} est libre.
Exemple 4.3. Reprenons l’application linéaire f définie dans l’exemple précédent.
La famille {1, X − 1; X 2 + 1} est libre. Puisque f est injective alors la famille
{f (1), f (X − 1), f (X 2 + 1)} est libre dans R3 .
Définition 4.3. Soit E et F deux K-espaces vectoriels de dimension finie
et soit f ∈ L(E, F ). On appelle rang de f et on note rg(f ) la dimension du
sous-espace vectoriel Im(f )
rg(f ) = dim(Im(f ))
Théorème 4.2. du rang. Soit E et F deux K-espaces vectoriels de dimen-
sions finies. Pour toute application f ∈ L(E, F ), on a
dim E = rg(f ) + dim(Ker(f )).
Exemple Soit f l’endomorphisme de R3 défini par
f (x, y, z) = (x − y, z, 0).
Soit B = {e1 , e2 , e3 } la base canonique de R3 . On a Ker(f ) = V ect{(1, 1, 0)},
donc rg(f ) = 2.
39
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Proposition 4.5. Soit E et F deux K-espaces vectoriels de dimensions finies
et f ∈ L(E, F ). On a alors les équivalences suivantes
1. f est surjective ⇔ rg(f ) = dim(F ),
2. f est injective ⇔ rg(f ) = dim(E),
3. f est bijective ⇔ rg(f ) = dim(E) = dim(F ).
Corollaire 4.1. Soit E et F deux K-espaces vectoriels de dimensions finies
et f ∈ L(E, F ). Si dim(E) = dim(F ), alors
f est bijective ⇔ f est injective ⇔ f est surjective.
Définition 4.4. Soit E, F et G trois K-espaces vectoriels. Soit f ∈ L(E, F )
et g ∈ L(F, G). On appelle composée de ces deux applications g et f l’ap-
plication linéaire notée gof de E dans G et qui est définie par
∀u ∈ E, (gof )(u) = g(f (u)).
Exemple 4.4. Soit les deux applications linéaires
f : R3 → R2
(x, y, z) → (x − 3y, y + 2z),
et
g : R2 → R3
(x, y) → (3y, x, 0).
Alors l’application composée gof est donnée par
gof : R3 → R3
(x, y, z) → (3y + 6z, x − 3y, 0).
Exercice : Soient E un K-espace vectoriel tel que dim(E) = 3 muni
d’une base B = {u, v, w} et p un endomorphisme de E défini par
1 1
p(u) = u + v + w, p(v) = − (u + v + w) et p(w) = (u + v + w).
2 2
Montrer que p est un projecteur de E (c-à-d. pop = p), puis caractériser
Im(p) et Ker(p).
40
Chapitre 5
Calcul matriciel
Dans tout ce qui suit, K désigne R ou C, m et n sont deux entiers naturels
non nuls.
Définition 5.1. Un tableau rectangulaire de nombres appartient à K, de la
forme
a11 a12 . . . a1n
a21 a22 ... a2n
A= .
.. ... ..
. . . .
am1 am2 . . . amn
est appelé matrice d’ordre (m, n) ou de type (m, n) (m lignes et n colonnes).
- Le nombre aij , 1 ≤ i ≤ m, 1 ≤ j ≤ n s’appelle coefficient de la matrice A.
- Dans la notation aij , 1 ≤ i ≤ m, 1 ≤ j ≤ n, i désigne le numéro de la ligne,
et j celui de la colonne.
Définition 5.2. Deux matrices A = aij et B = bij de même ordre (m, n) sont
égales si et seulement si aij = bij , pour tout (i, j) ∈ {1, . . . , m} × {1, . . . , n}.
Exemples 5.1. !
3 5 −1
A=
0 1 4
est une matrice d’ordre (2, 3).
0 1
A = 2 −1
5 3
41
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
est une matrice d’ordre (3, 2).
Notations : L’ensemble des matrices d’ordre (m, n) à coefficients dans
K est noté Mm,n (K).
Lorsque m = n, on note cet ensemble par M(K).
Quelques types de matrices
- Matrice uniligne : C’est une matrice d’ordre (1, n) (matrice qui admet une
seule ligne).
- Matrice unicolonne : C’est une matrice d’ordre (m, 1) ( matrice qui admet
une seule colonne).
- Matrice carrée : C’est une matrice dont le nombre de lignes est égal au
nombre de colonnes (m = n). Elle est dite matrice carrée d’ordre n ou tout
simplement matrice d’ordre n.
a11 a12 . . . a1n
a21 a22 ... a2n
A= .. .. . . ..
. . . .
an1 an2 . . . ann
Les éléments aii , sont appelés éléments diagonaux de A.
Les éléments aij pour i ̸= j, sont appelés éléments hors-diagonaux de A.
L’ensemble des éléments diagonaux constitue la diagonale principale de A.
- Matrice identité. On appelle matrice identité d’ordre n ∈ N, la matrice
carrée notée In telle que In = (δij )1≤i,j≤n , où δij est le symbole de Kronecker
δij = 0 si i ̸= j et δii = 1 pour tous i, j ∈ {1 . . . n}.
Par exemple la matrice identité d’ordre 3 s’écrit
1 0 0
I3 = 0 1 0
0 0 1
- Matrice diagonale. C’est une matrice carrée telle que aij = 0, ∀i ̸= j.
42
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
a11 0 0 ... 0
0 a22 0 ... 0
.. .. . . ..
A=
. . . . .
0 0 . . . a(n−1)(n−1) 0
0 0 ... 0 ann
On la note A = diag(aii ) = diag(a11 , a22 , . . . , ann ).
- Matrice triangulaire supérieure. C’est une matrice carrée vérifiant : aij = 0,
pour i > j.
a11 a12 a13 ... a1n
0 a22 a23 ... a2n
. .. . . ..
A= .. . . .
0 0 . . . a(n−1)(n−1) a(n−1)n
0 0 ... 0 ann
- Matrice triangulaire inférieure. C’est une matrice carrée vérifiant : aij = 0,
pour i < j.
a11 0 0 ... 0
a21 a22 0 ... 0
.
.. .. ... ..
A= . .
a(n−1)1 a(n−1)2 . . . a(n−1)(n−1) 0
an1 an2 ... an(n−1) ann
- Matrice nulle. C’est la matrice vérifiant : aij = 0, ∀i, j ∈ {1, ..., m} ×
{1, ..., n}. On la note 0Mm,n (K) , ou simplement 0 (si aucune confusion n’est à
craindre).
- Transposée d’une matrice. Étant donné une matrice A d’ordre (m, n). La
transposée de la matrice A est la matrice notée tA de type (n, m), obtenue
en échangeant (dans l’ordre) les lignes de A pour devenir les colonnes de tA.
! 3 1
3 1 0
Exemples A = , tA = 1 1 .
1 1 6
0 6
Définition 5.3. Si A = (aij )1≤i≤m,1≤j≤n et tA = (bij )1≤i≤n,1≤j≤m , alors on a
bij = bji , ∀i, j.
43
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
- Une matrice carrée A est dite symétrique ⇔ tA = A (i.e. aij = aji , ∀i, j).
- Une matrice carrée A est dite antisymétrique⇔ tA = −A (i.e. aij =
−aji , ∀i, j).
5.1 Opérations sur les matrices
5.1.1 Addition
La somme de deux matrices A et B de même type (m, n) est la matrice
C notée A + B de même type (m, n) ayant pour éléments cij = aij + bij , pour
tout (i, j) ∈ {1, ..., m} × {1, ..., n}. ! !
2 1 3 1 −1 0
Exemple : Soient A = et B = .
−1 0 1 0 1 −1
!
3 0 3
Alors C = A + B = .
−1 1 0
Propriétés :L’addition des matrices satisfait les propriétés suivantes :
1. A + B = B + A,
2. (A + B) + C = A + (B + C) = A + B + C,
3. A + 0 = 0 + A = A, où 0 est la matrice nulle,
4. A + (−A) = (−A) + A = 0, où −A = (−aij ).
5.1.2 Produit
Soit A = (aij ) une matrice de type (m, n) et soit λ ∈ K. On définit la
matrice λA de type (m, n) par :
λa11 λa12 . . . λa1n
.. .. ..
λA = (λaij ) = . . .
λam1 λam2 . . . λamn
! !
2 1 3 4 2 6
Exemple 5.1. : Soient A = et λ = 2. Alors 2A = .
−1 0 1 −2 0 2
Propriétés :
(1) λ(A + B) = λA + λB,
44
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
(2) (λ + µ)A = λA + µA,
(3) λ(µA) = (λµ)A.
Remarques : (1) Mm,n (K, +, .) est un K-espace vectoriel.
(2) Soit A = (aij ) une matrice d’ordre (m, n) et B = (bkl ) une matrice
d’ordre (r, p). Le produit AB (dans cet ordre) n’est défini que si n = r
et AB = C = (cil ) de type (m, p) dont les éléments sont donnés par :
cil = nj=1 aij bjl , pour tout (i, l) ∈ {1, ..., m} × {1, ..., p}.
P
! 1 2 0
1 −1 0
Exemple 5.2. Soient A = et B = −1 1 1 .
0 1 −1
0 1 0
A est une matrice (2, 3) et B est une matrice (3, 3). D’où !
1 × 1 + (−1) × (−1) + 0 × 0 1 × 2 + (−1) × 1 + 0 × 1 1 × 0 + (−1) × 1 + 0 × 0
AB =
0 × 1 + 1 × (−1) + (−1) × 0 0 × 2 + 1 × 1 + (−1) × 1 0 × 0 + 1 × 1 + (−1) × 0
!
2 1 −1
AB = . AB est une matrice du type (2, 3).
−1 0 1
Mais produit BA n’est pas possible car le nombre de colonnes de B est
différent du nombre de lignes de A.
Propriétés : Le produit matriciel vérifie les propriétés suivantes :
(1) λ(AB) = (λA)B,
(2) A(BC) = (AB)C,
(3) (A + B)C = AC + BC,
(4) C(A + B) = CA + CB.
Remarques :
- Le produit de matrices n’est pas commutatif.
- AB = 0 n’implique pas que A = 0 ou B = 0.
Exemples 5.2.
!: ! ! !
1 0 0 1 0 1 0 0
-A= ,B = . Alors AB = et BA = .
0 0 1 0 0 0 1 0
Donc AB ̸= BA.
! ! !
1 1 −1 1 0 0
- A = ,B = , alors AB = et pourtant
2 2 1 −1 0 0
45
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
A ̸= 0 et B ̸= 0.
5.2 Opérations élémentaires sur une matrice
Soit A une matrice quelconque. On appelle opération élémentaire sur la
matrice A l’une des transformations suivantes :
(1) Ajouter à une ligne (reps. à une colonne) de A une autre ligne (reps.
colonne) multipliée par un scalaire : Lj + λLi → Lj ou Cj + µCi → Cj , i ̸= j.
(2) Multiplier une ligne (reps. une colonne) de A par un scalaire non nul :
λLj → Lj ou µCj → Cj , où λ, µ ∈ K.
(3) Permuter les lignes (reps. les colonnes) de A : Lj ↔ Li ou Cj ↔ Ci .
Exercice Soit I la matrice identité d’ordre 3
1 0 0
I= 0 1 0
0 0 0
1. Permuter les lignes L2 et L3 .
2. Remplacer les ligne L2 par −6L2 .
3. Remplacer la −4L1 + L3 .
ligne L3 par
1 0 0
Réponse : 1. 0 0 1 .
0 1 0
1 0 0
2. 0 −6 0 .
0 0 1
1 0 0
3. 0 1 0 .
−4 0 1
Définition 5.4. Une matrice A d’ordre n, est dite inversible (ou régulière)
s’il existe une matrice B telle que AB = BA = In , où In est la matrice
identité d’ordre n. B est dite matrice inverse de A, et on la note A−1 .
Si la matrice inverse existe, elle est unique. Dans le cas contraire, on dit
que A est non inversible ou que A est une matrice singulière.
46
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
5.3 Application pour déterminer l’inverse d’une
matrice carrée inversible
Exercice : Trouver l’inverse de la matrice
1 0 2
A= 2 −1 3 .
4 1 8
Réponse :
Pour déterminer l’inverse A−1 d’une matrice inversible, on place la matrice
unité du même ordre, à droite de A, puis on applique les mêmes opérations
élémentaires sur A et I jusqu’à ce qu’on obtienne la matrice I à gauche d’une
matrice B et on a B = A−1 .
1 0 2 | 1 0 0
(A|I) = 2 −1 3 | 0 1 0 .
4 1 8 | 0 0 1
L2 − 2L1 → L2 , L3 − 4L1 → L3
1 0 2 | 1 0 0
0 −1 −1 | −2 1 0
0 1 0 | −4 0 1
L2 ↔ L3 .
1 0 2 | 1 0 0
0 1 0 | −4 0 1
0 −1 −1 | −2 1 0
L3 + L2 → L3 .
1 0 2 | 1 0 0
0 1 0 | −4 0 1
0 0 −1 | −6 1 1
. L1 + 2L3 → L1 , −L3 → L3 .
1 0 0 | −11 2 2
(I|A−1 ) 0 1 0 | −4 0 1 .
0 0 1 | 6 −1 −1
47
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Alors
−11 2 2
A−1 = −4 0 1 .
6 −1 −1
Pour calculer l’inverse de A, on peut aussi utiliser la méthode suivante dite,
méthode des coefficients indéterminés. On cherche une matrice B =
(bij ) telle que AB = In . ! !
1 1 a b
Exemple : Soient A = ,B = telle que AB = I2 .
1 0 c d
!
0 1
On trouve que B = A−1 =
1 −1
Proposition 5.1. Soient A et B deux matrices inversibles de même ordre,
alors
1) AB est une matrice inversible et on : (AB)−1 = B −1 A−1 .
2) t A est une matrice inversible et on a : (t A)−1 = t (A−1 ).
5.4 Puissances d’une matrice
5.4.1 Puissances positives d’une matrice
Définition 5.5. Soit A une matrice d’ordre n. On définit les puissances
p-ièmes (p ∈ N) de A, par
A0 = In et Ap = A...A, ∀p ∈ N∗
Le produit est effectué p fois.
Propriétés : Soit A une matrice carrée, m et n deux entiers naturels non
nuls, on a
1. An Am = An+m .
2. (An )m = Anm .
Formule des binômes de Newton
Soient A et B, deux matrices carrées de même ordre telles que AB = BA,
48
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
alors
n
X
n
(A + B) = ∁kn Ak B n−k .
k=0
Matrice nilpotente : Une matrice A d’ordre n est dite nilpotente s’il existe
p
un entier non nul p tel que A
! = 0.
1 0
La matrice A = est une matrice nilpotente car A2 = 0.
0 0
5.4.2 Puissances négatives d’une matrice
Soit A une matrice inversible. On définit les puissances négatives de A de
la manière suivante :
A−p = (A−1 )p , ∀p ∈ N.
5.5 Matrice d’une application linéaire
Soit E, F deux K-espaces vectoriels de dimensions finies et f ∈ L(E, F ).
On suppose que dim(E) = n et dim(F ) = p. Soit B = {e1 , e2 , ..., en } une
base de E et soit C = {ϵ1 , ϵ2 , ..., ϵp } une base de F .
Chacun des vecteurs f (e1 ), f (e2 ), ..., f (ep ) de F se décompose d’une manière
unique dans la base C. On écrit
f (e1 ) = a11 ϵ1 + a21 ϵ2 + . . . + ap1 ϵp
f (e2 ) = a12 ϵ1 + a22 ϵ2 + . . . + ap2 ϵp
..
.
f (e ) = a ϵ + a ϵ + . . . + a ϵ
n 1n 1 2n 2 pn p
avec a1j , a2j , ..., apj sont les coordonnées du vecteur f (ej ) dans la base C.
On appelle matrice associée à f relativement aux bases B et C et on note
M atB,C (f ) la matrice d’ordre (p, n) dont la j ème colonne est constituée par
les coordonnées du vecteur f (ej ) dans la base C
a11 a12 . . . a1n
a21 a22 . . . a2n
M atB,C (f ) =
.. .. .. ..
. . . .
ap1 ap2 . . . apn
49
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Exemples 5.3. 1. Soit l’application linéaire
f : R2 → R3
(x, y) → (x + 3y, 3x, 2y).
Soit B = {e1 , e2 } la base canonique de R2 et C = {ϵ1 , ϵ2 , ϵ3 } la base canonique
de R3 . Alors la matrice de f relativement aux bases B et C est
1 3
M atB,C (f ) = 3 0 .
0 2
2. Soit B = {1, X, X 2 } la base canonique de R2 [X]. On considère l’endomor-
phisme de R2 [X] défini par
f : R2 [X] → R2 [X]
P → XP ′ .
La matrice de f relativement à la base B est
0 0 0
M atB (f ) = 0 1 0 .
0 0 2
Remarque : Soit E un K-espace vectoriel de dimension n, muni d’une
base B = {e1 , ..., en } et F un K-espace vectoriel de dimension p, muni d’une
base C = {ϵ1 , ..., ϵp }. Soient f ∈ L(E, F ) et A = M atB,C (f ). Soit u un vecteur
représenté dans E par u = x1 e1 + ... + xn en . Notons
x1
.
X = ..
xn
le vecteur des coordonnées de u dans B, et
y1
.
Y = ..
yn
50
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
le vecteur des coordonnées de f (u) dans C . Alors on a
Y = AX.
!
3 −1 1
Exemple Soit et soit f l’application linéaire associée à A
1 1 2
relativement aux bases canoniques B = {e1 , e2 , e3 } de R3 et C = {ε1 , ε2 }.
Soit u = {1, 2, 3} ∈ R3 .
Alors
1 !
4
f (u) = A 2 =
9
3
5.5.1 Matrice de la composée
Soient E, F, G trois K-espace vectoriels et B, B ′ , B ′′ leur base respective-
ment.
Théorème 5.1. ∀f ∈ L(E, F ) et ∀g ∈ L(F, G), g ◦ f ∈ L(E, G) et on a
MB,B′′ (g ◦ f ) = MB′ ,B′′ (g)MB,B′ (f ).
Exemple 5.3. Soient f et g les deux applications linéaires définies par
f : R2 → R3
(x, y) → (x + y, x − y, 2x + 4y),
g : R3 → R3
(x, y, z) → (x + y + 3z, −x + y + 2z, 2x + y + 3z).
Alors relativement aux bases canoniques B1 de R2 et B2 de R3 , on a
1 1 1 1 3
MB1 ,B2 (f ) = 1 −1 et MB2 (g) = −1 1 2 .
2 4 2 1 3
On trouve que
8 12
MB1 ,B2 (g ◦ f ) = MB2 (g)MB1 ,B2 = (f ) = 4 6 .
9 13
Autre méthode : On cherche g ◦ f , puis on trouve MB1 ,B2 (g ◦ f ).
51
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Remarque : Soient f ∈ L(E) et B une base de E. Alors
MB (f 2 ) = MB (f ◦ f ) = (MB (f ))2 .
D’une manière générale, on a :
∀n ∈ N, MB (f n ) = MB (f ◦ f ◦ ... ◦ f ) = (MB (f ))n .
Conséquence (matrice d’un endomorphisme) : Si dim(E) = dim(F ) = n,
alors f ∈ Isom(E, F ) ⇔ MB,B′ (f ) est inversible et l’on a alors
MB′ ,B (f −1 ) = (MB,B′ (f ))−1
Preuve : on a
MB (f −1 ◦ f ) = MB′ ,B (f −1 )MB,B′ (f ) = MB (IdE ) = In
et
MB′ (f ◦ f −1 ) = MB,B′ (f )MB′ ,B (f −1 ) = MB′ (IdF ) = In
Donc MB,B′ (f ) est inversible et (MB,B′ (f ))−1 = MB′ ,B (f −1 ).
5.6 Changement de bases
5.6.1 Matrice de passage
Définition 5.6. Soit E un espace vectoriel de dimension n et soient B1 =
{e1 , ..., en } et B2 = {e′1 , ..., e′n } deux bases de E. La matrice de changement
de bases ou matrice de passage de la base B1 à la base B2 notée PB1 ,B2 est la
matrice de Mn (K) définie par
PB1 ,B2 = MB1 ,B2 (IdE ).
De plus,
n
X
PB1 ,B2 = (pij )1≤i,j≤n ⇔ e′j = pij ei ∀j ∈ {1, 2, ..., n}.
i=1
52
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Exemple 5.4. Soit B1 = (e1 , e2 , e3 ) la base canonique de R3 . Soit la base
B2 = (e′1 , e′2 , e′3 ) telle que e′1 = (1, 1, 0), e′2 =(1, 0, 1) et
e′3 = (0, 1, 1). Alors la
1 1 0
matrice de passage de B1 à B2 est PB1 B2 = 1 0 1 .
0 1 1
Propriétés
- La matrice de passage PB1 ,B2 est la matrice dont la j ème colonne est
constituée par les composantes de e′j dans la base B1 .
- PB1 ,B2 est une matrice inversible et PB−1
1 ,B2
= PB2 ,B1 .
Exemple 5.5. Soient B = (e1 , e2 ) la base canonique de R2 et B ′ = (e′1 , e′2 )
une famille de deux vecteurs de R2 tels que e′1 = 2e1 + 3e1 , e′2 = e1 + e2 .
On peut vérifier facilement que B ′ est une base de R2 . La matrice de passage
de B à B ′ est !
2 1
PB,B′ =
3 1
−1
La matrice de passage est une matrice inversible, donc PB,B ′ existe. Il y a
−1
beaucoup de méthodes pour déterminer PB,B′ . Parmi ces méthodes il suffit
d’écrire les éléments de B en fonction des éléments de B ′ . En effet, e′1 =
2e1 + 3e2 , e′2 = e1 + e2 ⇔ e1 = −e′1 + 3e′2 , e2 = e′1 − 2e′2 . Par conséquent
!
−1 −1 1
PB,B ′ = PB ′ ,B = .
3 −2
5.6.2 Effet d’un changement de base pour une appli-
cation linéaire
Théorème 5.2. Soient E un K-espace vectoriel muni de deux bases B1 et
C1 , F un K- espace vectoriel muni de deux bases B2 et C2 et f ∈ L(E, F ).
Alors les deux matrices A1 = M atB1 ,B2 (f ) et A2 = M atC1 ,C2 (f ) vérifient
A2 = Q−1 A1 P
où P = PB1 ,C1 et Q = PB2 ,C2 . Les matrices A1 et A2 sont dites matrices
équivalentes.
53
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Théorème 5.3. Soient E un K-espace vectoriel muni de deux bases B et
C et f ∈ L(E). Alors les deux matrices A1 = M atB (f ) et A2 = M atC (f )
vérifient
A2 = P −1 A1 P
où P = PB,C . Les matrices A1 et A2 sont dites matrices semblables.
Exemple 5.6. Soit B = {e1 , e2 , e3 } la base canonique de R3 et soit C =
{u1 , u2 , u3 } une base de R3 avec u1 = (2, 0, −1), u2 = (−8, 1, 0) et u3 =
(0, 1, −5). Soit f ∈ L(R3 ) où
∀(x, y, z) ∈ R3 , f (x, y, z) = (2x − 2y, −x + 3y + z, 2x + y + z).
La matrice de passage de la base B à la base C est donnée par
2 −8 0
P = PB,C = 0 1 1 .
−1 0 −5
On vérifie que
5 40 8
1
P −1 = PC,B = 1 10 2 .
2
−1 −8 −2
La matrice de f dans la base B est donnée par
2 0 −2
A = M atB (f ) = −1 3 1 .
2 1 1
Donc par la formule de changement de base, on trouve la matrice de f dans
la base C :
−33 120 −31
−1
A = M atC (f ) = P AP = −9 32 −9 .
6 −21 7
54
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
5.7 Rang d’une matrice
5.7.1 Définition et propriétés
Définition 5.7. Soit A ∈ Mm,n (K). Le rang de A est le rang dans Kn de
ses n vecteurs colonnes. On le note par rg(A).
Propriétés :
1) Si f ∈ L(Kn , Km ), alors le rang de f est égal au rang de sa matrice.
2) rg(A)) ≤ min(m, n).
3) Une matrice A d’ordre n est inversible si et seulement si rg(A) = n.
4) Soit A ∈ Mm,n (K). Alors rg(A) = rg(t A).
5) A, B ∈ Mm,n (K) sont équivalentes si et seulement si rg(A) = rg(B).
!
1 1 −1
Exemple 5.7. Soit A = . Alors le rg(A) = 2.
2 1 0
!
3 5 −1
Exercice : Soit B = . Déterminer rg(B)
2 3 0
5.7.2 Calcul le rang d’une matrice par la méthode de
Gauss
La méthode du pivot de Gauss est une méthode pour transformer une ma-
trice A en une autre matrice B qui est triangulaire ou sous forme échelonné et
telle que rg(A) = rg(B). Pour cette transformation on applique les opérations
élémentaires déjà cités.
Exemple 5.8. : Soit la matrice
1 2 3
A= 2 3 4
3 4 5
1 2 3 1 2 3 1 2 3
On a rg 2 3 4 = rg 0 −1 −2 = rg 0 −1 −2 .
3 4 5 3 −2 −4 0 0 0
Donc rg(A) = 2.
55
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
5.7.3 Solutions des systèmes linéaires par la méthode
de Gauss
La méthode du pivot de Gauss pour les systèmes linéaires est une méthode
pour transformer un système en un autre système équivalent (ayant les même
solutions) qui est triangulaire et est donc facile à résoudre. Les opérations
autorisées pour cette transformation sont :
- Échange de deux lignes.
- Multiplication d’une ligne par un nombre non nul.
- Addition d’un multiple d’une ligne à une autre ligne.
Exemple 5.9. : On va résoudre le système suivant par la méthode de Gauss :
1x + 2y +
2z = 2
x + 3y + −2z = −1
3x + 5y + 8z = 8
On effectue les opérations : L1 → L1 , L2 − L1 → L2 et L3 − 3L1 → L3 , on
trouve :
x + 2y + 2z = 2
1y − 4z = −3
− y + 2z = 2
On effectue L1 → L1 , L2 → L2 et L3 + L2 → L3 , on obtient :
x + 2y + 2z = 2
y − 4z = −3
− 2z = −1
Ce dernier système triangulaire est facile à résoudre, donc
x =
3
y = −1
z =
1
2
1
D’où S = {(3, −1, )}.
2
56
Chapitre 6
Déterminant d’une matrice
Toutes les matrices considérées dans ce chapitre sont des matrices carrées.
6.1 Déterminant d’ordre 2
Considérons la matrice
!
a11 a12
A= ∈ M2 (K).
a21 a22
On appelle déterminant de A et on note
a11 a12
det(A) = ,
a21 a22
la valeur det(A) = a11 a22 − a!21 a12 .
1 2 1 2
Exemple Soit A = . Alors det(A) = = −2.
3 4 3 4
6.2 Déterminant d’ordre 3
Considérons la matrice
a11 a12 a13
A = a21 a22 a23 ∈ M3 (K).
a31 a32 a33
57
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
On définit le déterminant de A comme suit (développement, par exemple,
suivant la 1ère ligne) :
a11 a12 a13
a22 a23 a21 a23 a21 a22
det(A) = a21 a22 a23 = a11 − a12 + a13 .
a32 a33 a31 a33 a31 a32
a31 a32 a33
Alors
det(A) = a11 a22 a33 − a11 a32 a23 − a12 a21 a33 + a12 a31 a23 + a13 a32 a23 − a13 a31 a22 .
Définition 6.1. - Le mineur de aij , noté mij , est égal au déterminant de la
matrice obtenue en enlevant la ligne i et la colonne j de A.
- On appelle cofacteur de aij , noté Cij , l’élément (−1)i+j mij .
Remarque : En développant suivant la 1ère ligne de A on obtient
det(A) = a11 C11 + a12 C12 + a13 C13 .
Mais on peut aussi développer suivant n’importe quelle autre ligne ou co-
lonne. Par exemple, suivant la 2ème colonne, on aura
det(A) = a12 C12 + a22 C22 + a32 C32 .
6.3 Déterminant d’ordre n
On peut développer selon la j-ème colonne :
n
X n
X
i+j
det(A) = (−1) aij mij = aij Cij
i=1 i=1
ou développer selon la i-ème ligne
n
X
det(A) = aij Cij
j=1
Proposition 6.1. Si T = (tij ), 1 ≤ i, j ≤ n est une matrice triangulaire,
alors
det(T ) = t11 t22 ...tnn .
58
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
6.4 Propriétés
Propriété 1 : Si tous les éléments d’une même ligne (reps. colonne) sont
nuls alors le déterminant est nul.
Propriété 2 : Si l’on permute deux lignes (reps. colonnes) alors le déterminant
change de signe.
Propriété 3 : Si l’on multiplie par α ∈ K tous les éléments d’une ligne
(reps.colonne) alors le déterminant est multiplié par α. Par exemple,
12 4 4 3 1 1 1 1 1
3 1 0 =4 3 1 0 =4×3 1 1 0 .
3 0 1 3 0 1 1 0 1
En particulier,
∀α ∈ K, ∀A ∈ Mn (K), det(αA) = αn det(A).
Propriété 4 : Si une ligne (reps. colonne) s’écrit comme une combinaison
linéaire des autres lignes (reps. colonnes), alors le déterminant est nul. En
particulier, si deux lignes (reps. colonnes) sont égales alors le déterminant est
nul.
Propriété 5 : Le déterminant ne change pas si l’on rajoute à une ligne
(reps. colonne) une combinaison linéaire des autres lignes (reps. colonnes).
Par exemple :
sin2 (α) sin2 (β) sin2 (γ) 1 1 1
cos2 (α) cos2 (β) cos2 (γ) = cos (α) cos (β) cos2 (γ)
2 2 = 0.
1 1 1 1 1 1
Proposition 6.2. Soit n ∈ N∗ et soient A et B deux matrices carrées d’ordre
n. Alors
1) det(AB) = det(BA) = det(A) × det(B).
2) En général, det(A + B) ̸= det(A) + det(B).
3) A est inversible si et seulement si det(A) ̸= 0. Si A est inversible alors
1
det(A−1 ) = .
det(A)
4) Si A et B sont semblables alors det(A) = det(B).
5) det(t A) = det(A).
59
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
6.5 Applications
6.5.1 Calcul de l’inverse d’une matrice
Définition 6.2. Soit A ∈ Mn (K). La matrice des cofacteurs (Cij ) des
éléments (aij ) de A, notée Adj(A) ou Com(A), est appelée matrice adjointe
de A ou co-matrice de A.
Adj(A) = Com(A) = (Cij ) = ((−1)i+j mij ) 1 ≤ i, j ≤ n.
Théorème 6.1. Soit A ∈ Mn (K). Alors
- Si det(A) = 0, alors A n’est pas inversible.
- Si det(A) ̸= 0, alors A est inversible, et on a
1 t
A−1 = Com(A).
det(A)
!
1 2
Exercice : Montrer que la Matrice A = est inversible, puis
3 4
Calculer A−1 .
6.5.2 Systèmes de Cramer
Soit (S) le système linéaire à n équations et n inconnues :
a11 x1 + . . . + a1n xn = b11
.. ..
. .
an1 x1 + . . . + ann xn = bnn
Le système (S) s’écrit aussi sous la forme
AX = b
a11 . . . a1n
. ..
où A = .. . est appelée la matrice associée au système (S).
an1 . . . ann
b = (b1 , b2 , . . . , bn )t est appelé le second membre de (S), et X = (x1 , x2 , . . . , xn )t
est l’inconnue du système.
60
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Proposition 6.3. Si A est inversible, alors la solution X0 de (S) est donnée
par
X0 = A−1 b.
La solution de (S) et les déterminants
Lorsque la matrice A est inversible alors le système (S) est dit de Cramer.
Un système de Cramer possède une et une seule solution.
Proposition 6.4. Notons ∆ = det(A) et
b1 a12 . . . a1n a11 b1 . . . a1n a11 . . . a1,n−1 b1
.. .. .. .. .. .. .. .. ..
∆1 = . . . , ∆2 = . . . , . . . , ∆n = . . . .
bn an2 . . . ann an1 bn . . . ann an1 . . . an,n−1 bn
Si A est inversible, alors les coordonnées x1 , ..., xn de l’unique solution X0 de
(S) sont données par
∆1 ∆2 ∆n
x1 = , x2 = , ..., xn = .
∆ ∆ ∆
61
Chapitre 7
Réduction des matrices carrées
Dans tout ce qui suit, K désigne R ou C.
7.1 Polynôme caractéristique et éléments propres
d’une matrice carrée
Soit n un entier non nul. On note Mn (K) l’espace des matrices carrées
d’ordre n à entrées dans K. Soit A = (aij ) ∈ Mn (K). On peut montrer par
une récurrence facile sur n que
a11 − X a12 ... a1n
a21 a22 − X . . . a2n
det(A − XIn ) = .. .. ..
. . .
an1 an2 . . . ann − X
est un polynôme en X de degré n.
Définition 7.1. Soit A ∈ Mn (K). Le polynôme caractéristique PA de A est
le polynôme en X défini par
PA (X) = det(A − XIn )
Le coefficient du terme de plus haut degré de PA est égal à (−1)n et PA (0) =
det(A), donc
PA (X) = (−1)n X n + an−1 X n−1 + ... + a1 X + det(A).
62
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
!
1 2 1−X 2
Exemples 7.1. 1) Soit A = , on a PA (X) = =
−1 3 −1 3−X
X 2 − 4X + 5.
1 1 1
2) Soit A = 1 1 1 . On a
1 1 1
1−X 1 1 3−X 1 1
PA (X) = det(A − XI3 ) = 1 1−X 1 = 3−X 1−X 1
1 1 1−X 3−X 1 1−X
1 1 1 1 1 1
= (3 − X) 1 1 − X 1 = (3 − X) 0 −X 0
1 1 1−X 1 1 1−X
1 1
= −X(3 − X)
1 1−X
= X 2 (3 − X).
Définition 7.2. Soit A ∈ Mn (K). Les racines du polynôme caractéristique
PA (X) de A sont appelées les valeurs propres de A.
Exemple 7.1. Les valeurs propres de la matrice A de l’exemple précédent
sont λ1 = 0 (double) et λ1 = 3 (simple).
Théorème 7.1. Soit A ∈ Mn (K). Les conditions suivantes sont équivalentes :
1) λ ∈ K est une valeur propre de A.
2) Ker(A − λIn ) ̸= {0}.
3) Il existe v ∈ Kn , v ̸= 0, tel que (A − λIn )v = 0.
Démonstration. On a λ est une valeur propre de A ⇔ PA (λ) = 0 ⇔ det(A −
λIn ) = 0 ⇔ Ker(A − λIn ) ̸= {0} ⇔ ∃v ∈ Kn , v ̸= 0 et (A − λIn )v = 0.
Remarque : La matrice A est inversible si et seulement si 0 n’est pas
v.p. de A.
Définition 7.3. Soit A ∈ Mn (K) et soit λ une v.p. de A. Le sous-espace
Eλ = Ker(A − λIn ) de Kn est appelé le s.e. propre associé à la v.p. λ.
63
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Exemple 7.2. Soit la matrice réelle
1 1 1
A = 1 1 1 .
1 1 1
On a vu que les v.p. de A sont λ1 = 0 et λ2 = 3. Déterminons les s.e. propres
de A :
- Le s.e propre
E 0
x 1 1 1 x 0
On a v = y ∈ E0 ⇔ Av = 0 ⇔ 1 1 1 y = 0 ⇔
z 1 1 1 z 0
x + y + z = 0
x + y + z = 0 ⇔ x + y + z = 0 ⇔ z = −x − y ⇔ v =
x + y + z = 0
x 1 0
y ⇔ v = x 0 +y 1 . Alors E0 = V ect {(1, 0, −1), (0, 1, −1)}.
−x − y −1 −1
- Le s.e propre
3 E
x −2 1 1 x
On a v = y ∈ E3 ⇔ (A − 3I3 )v = 0 ⇔ 1 −2 1 y =
z 1 1 −2 z
0 −2x +
y + z = 0
x + y + −2z = 0
0 ⇔ x + −2y + z = 0 ⇔ −2x + y + z = 0 ⇔
0 x + y + −2z = 0 x + −2y + z = 0
−2x + y + z = 0
(
−2x + y + z = 0
3y − 3z = 0 ⇔ ⇔x=
x + −2y + z = 0
−3y + 3z = 0
x 1
y = z ⇔ v = x ⇔ v = x 1 . Donc E3 = V ect {(1, 1, 1)}.
x 1
Remarque : On a 1 ≤ dim(Eλ ) ≤ multiplicité de λ.
Théorème 7.2. Soient M, N ∈ Mn (K) deux matrices semblables. Alors M
et N ont les mêmes polynômes caractéristiques, et donc les mêmes v.p. et les
mêmes s.e. propres.
64
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
Démonstration. Soit P ∈ Mn (K) une matrice inversible telle que M =
P N P −1 . On a PM (X) = det(N − XIn ) = det(P M P −1 − XIn ) = det(P (M −
xIn)P −1 ) = det(M − XIn ).
7.2 Diagonalisation des matrices
Définition 7.4. On dit qu’un polynôme non constant p ∈ K[X] est scindé
dans K[X] si on peut l’écrire sous la forme
p(X) = an (X − X1 )α1 ...(X − Xk )αk ,
où X1 , ..., Xk sont les racines 2 à 2 distinctes de p et α1 , ..., αk sont leur
multiplicités respectives.
Exemples 7.2. - Le polynôme p(X) = X 3 − 2X 2 + X est scindé dans R[X].
En effet, on a p(X) = X(X − 1)2 .
- Tout polynôme p ∈ C[X] est scindé.
Définition 7.5. Soit M ∈ Mn (K). On dit que M est diagonalisable si on
peut trouver une matrice diagonale D ∈ Mn (K) et une matrice inversible
P ∈ Mn (K) telles que
M = P DP −1 .
On dit alors que la matrice P diagonalise M .
Théorème 7.3. Soient M ∈ Mn (K) et P ∈ Mn (K) une matrice inversible.
Si M est diagonalisable, alors P −1 M P est diagonalisable.
Théorème 7.4. Soit M ∈ Mn (K). Alors les conditions suivantes sont
équivalentes :
1. La matrice M est diagonalisable.
2. Il existe une base de Kn formée de vecteurs propres de M .
Théorème 7.5. Soit M ∈ Mn (K). Alors les conditions suivantes sont
équivalentes :
1. La matrice M est diagonalisable.
65
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
2. Le polynôme caractéristique pM de M est scindé et la dimension de
chaque sous-espace propre Eλ de M est égale à la multiplicité de λ.
En résumé :
Pour diagonaliser une matrice, on procède de la faCcon suivante. On calcule
le polynôme caractéristique de M , on détermine les v.p. et les s.e. propres
de M . Si la condition 2 de ce théorème est satisfaite, alors la matrice est
diagonalisable, et voici comment on forme les matrices P et D :
1) La matrice D : C’est la matrice diagonale obtenue en mettant les valeurs
propres λi de M sur la diagonale, chacune un nombre de fois égal à sa mul-
tiplicité, dans l’ordre λ1 , λ2 , ..., λk .
2) La matrice P : Après avoir construit la matrice D, on construit P en co-
lonnes les composantes (dans la base canonique de Kn ) des vecteurs de bases
des s.e. propres Eλ1 , Eλ2 , ..., Eλk dans cet ordre.
On ne calcule pas P −1 sauf pour les applications, par exemple pour le
calcul de M n = P Dn P −1 , où on a vraiment besoin de connaitre P −1 .
1 1 1
Exemple 7.3. Revenons à la matrice réelle A = 1 1 1 de l’exemple
1 1 1
précédent. On a vu que pA (X) = X 2 (3 − X), qui est scindé dans R[X]. Les
v.p. de A sont λ1 = 0 (double) et λ2 = 3 (simple).
Les s.e. de A sont E0 = V ect {(1, 0, −1), (0, 1, −1)} et E3 = V ect {(1, 1, 1)}.
On a dim(E0 ) = 2 et dim(E 2 ) = 1, donc
A est diagonalisable
et on a A =
0 0 0 1 0 1
P DP −1 , où D = 0 0 0 et P = 0 −1 1 .
0 0 3 −1 1 1
7.3 Théorème de Cayley-Hamilton
Soit p(X) = an X n + ... + a0 ∈ K[X]. Pour toute matrice A ∈ Mn (K) on
pose
p(A) = an An + an−1 An−1 + ... + a0
Théorème 7.6. Cayley-Hamilton. Soit A ∈ Mn (K), et pA le polynôme
caractéristique de A. Alors on a pA (A) = 0.
66
Faculté Polydisciplinaire -Beni Mellal- Pr. Retbi Abderrahman
1 1 1
Exemple 7.4. Soit A = 1 1 1 . On a PA (X) = X 2 (3 − X) = −X 3 +
1 1 1
2
3X . Donc d’après le théorème de Cayley-Hamilton, on trouve pA (A) =
−A3 + 3A2 = 0. Il en résulte que A3 = 3A2 ce qui implique An = 3n−2 A2
pour tout n ≥ 3. Un calcul simple donne A2 = 3A, et par suite An = 3n−1 A.
7.4 Réduction des endomorphismes
Définition 7.6. Soit f ∈ L(E). On dit que λ ∈ K est une v.p. de f si
Ker(f − λIE ) ̸= {0}, autrement dit si (f − λIE ) ∈ L(E) n’est pas injectif.
Théorème 7.7. Soient f ∈ L(E) et B une base de E. Alors les conditions
suivantes sont équivalentes :
1. λ ∈ K est une v.p. de f .
2. λ est une v.p. de la matrice M de f dans B.
Démonstration. On a λ est une v.p. de f ⇔ Ker(f −λIE ) ̸= {0} ⇔ det(M −
λIn ) = 0 ⇔ pM (λ) = 0 ⇔ λ est une v.p. de M .
Définition 7.7. Un endomorphisme f de E est dit diagonalisable si sa ma-
trice dans une base de E est diagonalisable.
67