0% ont trouvé ce document utile (0 vote)
46 vues71 pages

Analyse Numerique 2

Transféré par

Bafodé ibnou Sow
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
46 vues71 pages

Analyse Numerique 2

Transféré par

Bafodé ibnou Sow
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 71

UNIVERSITÉ MOHAMED PREMIER - OUJDA

Faculté Des Sciences


Département De Mathématiques et Informatique

Cours du module

Analyse Numérique
SMI S4
Prof. Mohammed BERRAJAA

Année Universitaire 2016/2017

Merci de nous rendre visite sur


http://fso.umpoujda.com/
Table des matières

M
O
1 Résolution de systèmes linéaires Méthode direct 3

C
1.1 Position du problème : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

A.
1.2 Méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.2.1 Elimination de Gauss sur un exemple : . . . . . . . . . . . . . . . . . .


JD 5

1.2.2 Algorithme d’élimination . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.3 Matrice élémentaire de Gauss . . . . . . . . . . . . . . . . . . . . . . . 8


U
1.2.4 Elimination da Gauss avec changement de Pivot . . . . . . . . . . . . 10
PO

1.2.5 Méthode de Gauss avec pivot total . . . . . . . . . . . . . . . . . . . . 13

1.2.6 Factorisation LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
M

1.3 Méthode de Choleski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16


.U

1.3.1 Description de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.3.2 Théorème : Décomposition de Choleski . . . . . . . . . . . . . . . . . . 18


O

2 Méthodes itératives pour la résolution des systèmes linéaires 22


FS

2.1 Rappels : normes, rayon spectral . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.2 Méthodes itératives : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.2.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.3 Description des méithodes classiques . . . . . . . . . . . . . . . . . . . . . . . 29

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3 Approximation des solutions de l’equation non linéaire f ( x) = 0 33

3.1 Rappels et notations : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.2 Méthode de Newton et méthode de la corde . . . . . . . . . . . . . . . . . . . 39

3.2.1 Méthode de Newton (ou Newton-Raphson) : . . . . . . . . . . . . . . 39

3.3 Méthode de dichotomie : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

3.4 Méthode de la fausse position (Fegula Falsi) . . . . . . . . . . . . . . . . . . . 45

M
4 Problèmes d’interpolation 47

O
4.1 Position du problème : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

C
4.2 Interpolation de LAGRANGE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

A.
4.3 Interpolation d’une fonction continue par un polynôme . . . . . . . . . . . . . 50

4.4
JD
Existance et unicité de l’interpolant . . . . . . . . . . . . . . . . . . . . . . . . 51

5 Dérivation et intégration numérique 58


U
5.1 Dérivation numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
PO

5.1.1 Dérivée première : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

5.1.2 Dérivées d’ordre supérieure : . . . . . . . . . . . . . . . . . . . . . . . . 60


M

5.2 Intégration numérique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60


.U

5.3 Poids d’une formule de quadrature. . . . . . . . . . . . . . . . . . . . . . . . . 65


O
FS

Merci de nous rendre visite sur


http://fso.umpoujda.com/
Chapitre 1

Résolution de systèmes linéaires


Méthode direct

M
O
C
A.
1.1 Position du problème :
JD
Dans ce chapitre, nous considérons un système d’équations
linéaires d’ordre n de la forme
U
Ax = b (1.1)
PO

Ici A est une n × n matrice régulière de coefficients ai j , 1 ≤ i, j ≤ n,


donnés, b est un vecteur colonne à n composantes b j , 1 ≤ j ≤ n,
M

données et x est un vecteur colonne à n composantes x j , 1 ≤ j ≤ n,


inconnues. Dans la suite, nous utiliserons les notations matricielles
.U

standards, i.e
O

     
a
 1,1
a1,2 . . . a1,n
 
b1
 
x1

. . .
     
 a2,1 a2,2 a2,n b2 x2
FS

    
     
 . . .
     
  .   . 
, b = , b =
     
 
 . . .   .   . 
     
     
 . . . . .
     
    
     
an,1 an,2 . . . an,n bn xn

Le système (4.1) peut s’écrire explicitement sous forme d’un


système de n équations à n inconnues x1 , x2 , ....., xn :

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.1. Position du problème :




 a1,1 x1 + a1,2 x2 +..... + a1,n xn = b1






 a2,1 x1 + a2,2 x2 +..... + a2,n xn = b2


 .

(1.2).
 .





.







 a x + a x +..... + a x = b
n,1 1 n,2 2 n,n n n

M
O
Définition 1.1 : On dira que la matrice A est triangulaire supérieure
(respectivement triangulaire inférieure) si ai j = 0 pour tout couple

C
(i, j) tel que 1 ≤ j < i ≤ n (respectivement 1 ≤ i < j ≤ n).

A.
Définition 1.2 : Si A est une matrice triangulaire supérieure
JD
(respect. triangulaire inférieure), on dira que les systèmes (1.1) et
(1.2) sont triangulaires supérieurs (resp. triangulaire inférieurs).
U

Supposons un instant que la matrice A soit triangulaire supérieure


PO

nous constatons alors que le déterminant de la matrice A est


le produit des valeurs diagonales aii et, puisque A est supposée
M

régulière ; nous avons aii 6= 0, 1 ≤ i ≤ n. Ainsi, quitte à diviser chaque


équation de (1.2) par le terme de la diagonale, il n’est pas restrictif
.U

de supposer que aii = 1, 1 ≤ i ≤ n. Dans ce cas, la matrice est une


matrice triangulaire avec des valeurs 1 dans sa diagonale et, de
O

(1.2), nous déduisons successivement les inconnues xn , xn−1 , ..., x1 .


FS

En effet, nous avons :

xn = bn / an,n

et pour i = n − 1, n − 2, ....3, 2, 1 :

xi = bi / aii − ∑nj=i+1 ( ai j x j )/ aii .

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.2. Méthode de Gauss

Dans le cas où la matrice A est régulière mais non nécessairement


triangulaire supérieure, la méthode d’élimination de Gauss aura
pour but de transformer le système Ax = b en un système équivalent
triangulaire supérieure avec des valeurs 1 sur la diagonale.

1.2 Méthode de Gauss

M
O
1.2.1 Elimination de Gauss sur un exemple :

C
Soit le système linéaire c est une matrice triangulaire :

A.
   
4 8 12 4

A = 3

8


13  et
JD 
b = 5



 (1.3)
   
2 9 18 11
U
PO

Le système Ax = b devient dans ce cas :


 


 4x1 +8x2 +12x3 = 4 


 
M

3x1 +8x2 +13x3 = 5 (1.4)



 

 
2x1 +9x2 +18x3 = 11
 
.U

Première étape,
O

ça consiste à diviser la première équation de (1.4) par a11 = 4


FS

(appelé pivot) pour obtenir :

x1 +2x2 +3x3 = 1. (1.5)

Ensuite nous soustrayons 3 fois (1.5) à la deuxième équation


de (1.4) et 2 fois l’équation (1.5) à la troisième équation de (1.4) :
Nous obtenons un système équivalent à (1.4) qui est

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.2. Méthode de Gauss

 
x +2x2 +3x3 = 1
 1

 

 

2x2 +4x3 = 2 (1.6)

 

 
5x2 +12x3 = 9
 

Deuxième étape,
nous divisons la deuxième équation (1.6) par 2 (le deuxième

M
pivot). Nous obtenons :

O
x2 +2x3 = 1 (1.7)

C
A.
Et par la suite :


 x +2x2 +3x3 = 1
 1

JD 




x2 +2x3 = 1 (1.8)

 

 
U
2x3 = 4
 
PO

qui est équivalent au système (1.4).

Dernière étape,
M

finalement, il suffit de diviser la troisième équation par le troisième


pivot, qui est ici 2, pour obtenir :
.U

 
x +2x2 +3x3 = 1
 1
O


 

 

x2 +2x3 = 1 (1.9)
 
FS


 

x3 = 2
 

De (1.9) , il est facile de déduire successivement les inconnues


x1 , x2 , x3 :

x3 = 2 x2 = −3 x1 = 1.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.2. Méthode de Gauss

1.2.2 Algorithme d’élimination

Nous présentons maintenant un algorithme qui, effectué par


un ordinateur, permet de réaliser l’élimination dont, le mécanisme
a été décrit dans la section précédente. Pour réaliser cet objectif,
nous appelons A(i) la matrice et b(i) le second membre obtenus
avant la ième étape de l’élimination. Ainsi le tableau A(i) a la forme

M
suivante :

O
 
(1) (1) (1) (1) (1) (1)

a11 a12 a13 a14 . . . a1i . . . a1n

(2) (2) (2) (2) (2)

0 a22 a23 a24 . . . a2i a2n

C
 
 
(3) (3) (3) (3)
0
 

 0 a33 a34 a3i a3n 

A.
(4) (4) (4)
0 0
 

 0 a44 a4i a4n 

 



0 0 0 0 . JD . 



0 0 . .

A (i )
 
=  , (1.10)
 (i − 1 ) 

 .ai−1,i−1 . 

U
 (i ) (i ) 

 0 aii ain 

 
. .
PO

 
 
 



. . 





. . 


M

(i ) (i )
0 ani ann
Avec A(1) = A, et Ax = b
.U

La ième étape de l’élimination consistera à passer du tableau


A(i) au tableau A(i+1) et du tableau b(i+1) par opération suivante :
O

étape. Nous divisons la ième ligne de A(i) par le ième pivot aii(i)
i ème
FS

(supposé différent de zéro), puis on remplace la ligne L(ji+1) par


la ligne
(i + 1 ) (i ) (i ) ( j) (i )
Lj = L j −m ji ∗ Li , j = i + 1, i + 2, ..., n où, m ji = a ji / aii (1.11)

Nous faisons de même avec le second membre :

(i + 1 ) (i ) (i )
b 0 = bi − m ji ∗ bi (1.12)
j

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.2. Méthode de Gauss

1.2.3 Matrice élémentaire de Gauss

Soient les matrices élémentaires de Gauss


 
1 0 0
 
 

 −m21 1 0 

 
 −m31 0 1 . 
M1 =  ,
 

M

 . . . 

 
. . . 0 
 

O
 
−mn1 0 0 1

C
↓ k − ième colonne

A.
 
1 0 0 0
 
 
0 . . . 



JD


 0 . . .  
 
 . . 0 . . 
U
 
 
. 1 . . .  ←−−−−−−−−−
 

Mk =   k − i eme
` ligne (1.13)
PO

 

 . −mk+1,k .1 . 

 

 . . . . .  
 
 . . . 0 . 
M

 
 
. . 1 0 
 

 
0 −mn,k 0 0 1
.U

(k)
aik
où mi,k = i = k + 1, k + 2, ..., n en supposant que a(kkk) 6= 0,
O

(k)
akk
FS

En posant ek = (0, ....., 1, 0, ..., 0)T et mk = (0, 0, ....., −mk+1,k , ...., −mn,k )T ,on obtient
Mk = I + mk ekT et on vérifie que Mk est inversible et que Mk−1 = I − mk ekT

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.2. Méthode de Gauss

Remarque : Matriciellement, dans l’algorithme d’élimination


la première étape est équivalente au produit matriciel A(2) = M1 A(1) .
L’étape finale est alors donnée par :

A(n) = U = Mn−1 Mn−2 .....M2 M1 A(1) , A(1) = A.

Evidemment, l’étape finale n’est accessible par ce procédé que

M
si tous les pivots aii(i) sont tous non nuls.

O
C
Définition : 1.3 : Ak est la sous matrice principale d’ordre k de
A si Ak est la k × k matrice de coefficient ai j , 1 ≤ i, j ≤ k ≤ n.

A.
Nous avons le résultat suivant. JD
Théorème1 : Si toutes les sous-matrices principales Ak de la
U
matrice de départ A sont régulières, k = 1, 2, ..., n, alors les pivots
PO

obtenus successivement dans l’élimination de Gauss sont tous


non nuls. Inversement si tous les pivots obtenus au cours de
l’élimination de Gauss sont non nuls, alors toutes les sous-matrices
M

principales de A sont régulières.


(1) (2) (i )
.U

det Ai = a11 × a22 × ... × aii (1.14)


O
FS

Il est également facile de vérifier que les opérations faites sur


la matrice A impliquent, si Ai est la sous-matrice principale d’ordre
i de A :

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.2. Méthode de Gauss

 
(1)


 det A1 = det A1 



 

 (1) (2) 
det A2 = a11 det A2

 


 

 
(1) (2) (3)
 
det A3 = a11 a22 det A3

 


 


 

 



 . 




 

.

 

(1.15)



 . 



 
 (1) (2) (i − 1 ) (i ) 
det Ai = a11 a22 .....ai−1,i−1 det Ai
 

M

 


 


 




 . 


O

 

.

 


 


 

 
 . 

C
A.
Nous concluons de (1.14) et (1.15) que si det Ai 6= 0 pour tout
(1) (2) (i − 1 ) (n)
i = 1, 2, .....n alors les valeurs a11 , a22 , .....ai−1,i−1 , .., ann sont non nulles.
JD
U
1.2.4 Elimination da Gauss avec changement de Pivot
PO

Comme nous venons de le voir, l’algorithme d’élimination


donné dans la section précédente ne peut être exécuté que si
les pivots successifs sont non nuls, c’est à dire si toutes les sous-
M

matrices principales de A sont régulières. Il est évident qu’il est


impossible de traiter par cet algorithme le système suivant :
.U
O

 


 0x1 + x2 +3x3 = 1 


 
5x1 +2x2 +3x3 = 4 (1.16)
FS


 

 
6x1 +8x2 + x3 = 1
 

Car, dans ce cas, on ne peut pas diviser la première ligne par le


premier pivot qui est nul (la première sous-matrice principale
est donc singulière !). On voit immédiatement que les choses se
présentent mieux si on échange la première et la troisième ligne
pour obtenir

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.2. Méthode de Gauss

 


 6x1 +8x2 + x3 = 1 


 
5x1 +2x2 +3x3 = 4 (1.17)

 

 
0x1 + x2 +3x3 = 1
 

En effet, maintenant nous pouvons diviser la première ligne


par le pivot 6.
Cette manière de faire s’appelle” pivotage partiel” ; elle consiste

M
à échanger deux équations dont le but d’avoir le plus grand

O
pivot possible en valeur absolue.

C
Le problème peut se poser même avec un pivot trop petit.
Pour éviter de diviser par des pivots trop petits pouvant conduire

A.
à des solutions absurdes. JD
Exemple : soit à résoudre le système
 
 10−10 x1 + x2 = 1 
U
;
 x −x = 0
1 2

PO

La solution exact est x1 = x2 = 1/(1 + 10−10 ) ' 1.


Cependant, si on suppose que les calculs sont effectués en
M

virgule flottante, avec mantisse à 9 chiffres, la résolution du


système par la méthode de Gauss donne des résultats différents
.U

selon qu’on l’applique avec ou sans pivot


(i) Si on applique la méthode de Gauss sans pivot on obtient
O
FS

 
−10
 10 x1 + x2 = 1 
m21 = 1010 et
 (−1 − 1010 ) x = −1010 
2
Ce qui donne x1 ' 0, x2 ' 1 à cause des arrondis des résultats avec
neuf premiers chiffres significatifs.
(ii) Si on adopte la stratégie du pivot partiel qui consiste
à mettre en première ligne celle dont le coefficient de x
1 est le
plus grand en module alors on permute les lignes pour obtenir

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.2. Méthode de Gauss

 
 x1 − x2 = 0 
 10−10 x + x = 1 
1 2

Pour lequel m21 = 10−10 et qui conduit à la solution approchée


x2 ' 1 et x1 = x2 .

En conclusion, on peut adopter automatiquement la stratégie


du pivot partiel, c’est à dire à chaque étape k :

M
choisir aii(i) = maxk≥i (k)
aki .

O
Matriciellement, cette opération revient à multiplier la matrice

C
A(i) par une matrice de permutation Pkl avant d’appliquer l’élimination

A.
de Gauss. L’étape finale est données par A(n) = U = Mn−1 Pi−1i Mn−2 .....M2 P2i M1 P1i A
où les Mi sont des matrices élémentaires de Gauss et les Pkl des
JD
matrices de permutations (elle échange les lignes k et l) pour
l ≥ k.
U
Si à une étape k on n’a pas besoin de pivoter, l’écriture reste
valable avec Pkl = I où I est la matrice identité.
PO

↓ k..... l↓
 
1 0 0
M

 
 

 0 1 0 

 
0 0 1 0
.U

 
 
 

 0 0 1 0 

 
O

.. . . . Pkk = 0 1 . Pkl = 1 . .  ←−−−−−−−−−


 

Pkl =   k − i ème ligne (1.18)
 
 0 0 
FS

 
 

 . 1 

 

 Plk = 1 Pll = 0 . 

 
.
 
 
 
0 1

Remarque : Pkl A échange les lignes k et l alors que APkl échange


les colonnes k et l. on a encore :Pkl = P−kl 1 = PklT .

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.2. Méthode de Gauss

Définition 1.4 : Une matrice de permutation est un produit de


matrices de permutation.

1.2.5 Méthode de Gauss avec pivot total

On pourrait aussi adopter la stratégie du pivot total qui consiste,


à chaque étape k, à prendre aii(i) = maxk>i, j>i a(kij) . Ce qui reviendrait

M
à multiplier la matrice A(i) par deux matrices, de permutation

O
P et Q l’une à droite pour permuter les lignes et l’autre pour
permuter les colonnes.

C
A.
1.2.6 Factorisation LU JD
Tout va donc très bien pour ce système, mais supposons qu’on
ait à résoudre 3089 systèmes avec la même matrice A mais 3089
U
seconds membres b différents (par exemple on peut vouloir calculer
PO

la réponse d’une structure de génie civil à 3089 changements


différents). Il serait un peu dommage de recommencer les opérations
ci-dessous 3089 fois, alors qu’on peut en éviter une bonne partie.
M

Comment faire ?
.U

L’idée est de ”factoriser” la matrice A , c’est à dire comme un


produit A = LU, où L est triangulaire inférieure et U triangulaire
O

supérieure.
FS

On reformule alors le système Ax = b sous forme LUx = b et on


résout maintenant deux systèmes faciles à résoudre car triangulaires
Ly = b et Ux = y.

La factorisation LU de la matrice A découle immédiatement de


l’algorithme de Gauss.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.2. Méthode de Gauss

Théorème : Décomposition LU d’une matrice Soit A ∈ Mn ( IR)


une matrice inversible, il existe une matrice de permutation P
telle que, pour cette matrice de permutation, il existe un et un
seul couple ( L, U ) où L est une matrice triangulaire inférieure de
termes diagonaux tous égaux à 1 et U est une matrice triangulaire
supérieure, vérifiant

M
PM = LU

O
C
*Preuve : L’existence de la matrice P et les matrices L, U peut

A.
s’effectuer en s’inspirant de l’algorithme ”LU avec pivot partiel”.
JD
En effet, chaque étape i peut s’écrire A(i) = Mi−1 P(i−1) A(i−1) où A(1) = A, P(i−1)
est la matrice de permutation qui permet le choix du pivot
U
partiel, et Mi−1 est une matrice élémentaire de Gauss (matrice
d’élimination qui effectue les combinaisons linéaires de lignes
PO

permettant de mettre à zéro tous les coefficients de la colonne


i situés en dessous de la ligne i. Pour simplifier, raisonnons sur
une matrice 4 × 4 (le raisonnement est le même pour une matrice
M

n × n.
.U

En appliquant l’algorithme
O

M3 P(3) M2 P(2) M1 P(1) A = U


FS

Les matrices P(i+1) et Mi+1 ne permutent pas .Prenons par exemple


   
 1 0 0 0   1 0 0 0 
   
 0 1 0 0   0 1 0 0 
( 2
M = )   ( 3 )
P = P34 = 
 
 
 0
 a 1 0 

 0
 0 0 1 

   
0 b 0 1 0 0 1 0

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.2. Méthode de Gauss

On vérifie facilement que M2 P(2) 6= P(2) M2 ,mais par contre, comme


la multiplication à gauche par P(i+1) permute les lignes i + 1 et i + k,
pour k ≥ 1 et que la multiplication à droite permute les colonnes

i + 1 et i + k de Mi , La matrice Mi = P(i+1) Mi P(i+1) est encore une matrice
triangulaire inférieure avec la même structure que Mi : On a
juste échangé les coefficients extra diagonaux des lignes i + 1 et
i + k. On a donc

M

P(i+1) Mi = Mi P(i+1) car P(i+1) . P(i+1) = I.

O
Dans l’exemple précédent, on effectue le calcul

C
A.
 
 1 0 0 0 
 
 0 1 0 0 
 ∼
P(3) M2 P(3) = 

 0

JD
b 1
 = M2
0 

 
0 a 0 1
U
qui est une matrice triangulaire inférieure de coefficient tous
PO

égaux à 1, et comme P(3) P(3) = I , on donc



P(3) M2 = M2 P(3)
M

Pour revenir à notre exemple où n = 4 on peut donc écrire


.U

∼ ∼
M3 M2 P(3) M1 P(2) P(1) A = U
O


∼ ∼
FS

Mais par le même raisonnement que précédemment, on P(3) M 1 = M1 P


(3)



où M1 est encore une matrice triangulaire inférieure avec des 1
sur la diagonale. On en déduit que

∼ ∼
M3 M2 M1 P(3) P(2) P(1) A = U,

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.3. Méthode de Choleski

soit encore PA = LU où P = P(3) P(2) P(1) est bien une matrice de permutation

∼ ∼
et L = ( M 3 M 2 M 1 )−1
est une matrice triangulaire inférieure avec des
1 sur la diagonale.
Le raisonnement pour n=4 se généralise facilement à n arbitraire.
Dans ce cas, l’échelonnement de la matrice s’écrit

Mn−1 P(n−1) Mn−2 P(n−2) ..........M2 P(2) M1 P(1) A = U

M
Et se transforme en

O
C
Fn−1 Fn−1 ......F 1 P(n−1) P(n−2) .......P(1) A = U

A.
où Fi est une matrice triangulaire inférieure avec des 1 sur la
diagonale.
JD
On a ainsi démontré l’existence.
U
2. Unicité : Pour montrer l’unicité du couple ( L, U ) à P donnée,
PO

supposons qu’il existe une matrice P et des matrices L1 et L2


triangulaires inférieures et U1 U2 triangulaires supérieures telles
que PA = L1 U1 = L2 U2 .
M

Dans ce cas, on a L−2 1 L1 = U2 U1−1 , or la matrice L−2 1 L1 est une matrice


.U

triangulaire inférieure avec des 1 sur la diagonale, et la matrice


U2 U1−1 triangulaire supérieure, on en déduit que L− 1 −1
2 L1 = U2 U1 = I
O

et donc L1 = L2 et U1 = U 2 .
FS

1.3 Méthode de Choleski


On va maintenant étudier la méthode de Choleski, qui est une
méthode directe adaptée au cas où la matrice A est symétrique
définie positive (s.d.p). On rappelle qu’une matrice A ∈ Mn ( IR)
de coefficients (ai j )i,n j=1 est symétrique si AT = A, où AT désigne la

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.3. Méthode de Choleski

transposée de A, définie par les coefficients (a ji )n∈ IN et que A est


définie positive si Ax.x > 0 (ou xT Ax > 0) pour tout x 6= 0. Dans ce cas
,x.y désigne le produit scalaire de x et y de IRn . On rappelle que
si A est s.d.p elle est en particulier inversible.

1.3.1 Description de la méthode

M
Commençons par un exemple. On considère la matrice

O
 
2 −1 0
 

C
A =  −1 −1 
 
2
 
0 −1 2

A.
qui est également symétrique. Calculons sa décomposition LU.
JD
Par échelonnement, on obtient
U
  
1 −0 0 2 −1 0
  
PO

A = LU =  −0.5 −1 
  
1 0  0 3/2
  
0 −2/3 1 0 0 4/3
M

La structure LU ne conserve pas la symétrie de la matrice A.


Pour des raisons de coût mémoire, il est important de pouvoir
.U

la conserver. Une façon de faire est de décomposer U en sa


partie diagonale fois une matrice triangulaire.
O

On obtient
FS

  
2 0 1 −1/2 0
  
U = 0 −2/3 
  
3/2  0 1
  
0 4/3 0 0 1

On a donc U = DLT , comme tous les coefficients de D sont positifs,


√ √ √
on peut écrire D = D D , où D est la matrice diagonale dont

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.3. Méthode de Choleski

les éléments diagonaux sont les racines carrées des éléments


√ √ ∼∼ T ∼ √
diagonaux de D, on a donc A = L D DLT = L L , avec L= L D.

Notons que la matrice L est toujours triangulaire inférieure,
mais ses coefficients diaginaux ne sont plus astreints à être égaux
à 1. C’est la décomposition de Choleski de la matrice A.

M
1.3.2 Théorème : Décomposition de Choleski

O
Soit A ∈ Mn ( IR) (n ≥ 1) une matrice symétrique définie positive.

Alors il existe une unique matrice L∈ Mn ( IR) telle que

C
∼ ∼
1. L est triangulaire inférieure, L= (l i j )i,n j=1

A.
2. lii > 0, pour tout i ∈ {1, 2, ...., n} JD
∼∼ T
3. A = L L
U
1. Existence de la décomposition Soit A ∈ Mn ( IR) (n ≥ 1) une matrice
symétrique définie positive. On sait déjà qu’il existe une matrice
PO

de permutation P et L triangulaire inférieure et U triangulaire


supérieure telles que PA = LU. A l’avantage dans le cas où la
matrice est s.d.p, est que la décomposition est toujours possible
M

sans permutation. On prouve l’existence et l’unicité en construisant


.U

la décomposition, c’est à dire en construisant la matrice L.


Démonstration par récurrence sur n
O

1. Pour n=1, on a A = (a11 ).Comme A est s.d.p a11 > 0. On a peut


FS

∼ ∼∼ T
définir L= (l 11 ) où l11 =√a11 , et on a bien A = L L .
2. On suppose que la décomposition de Choleski s’obtient
pour A ∈ M p ( IR), pour 1 ≤ p ≤ n et démontrons que la propriété est
encore vraie pour A ∈ Mn+1 ( IR) s.d.p.
Soit donc A ∈ Mn+1 ( IR) s.d.p ; on peut écrire A sous forme :

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.3. Méthode de Choleski

 
B a
A = 
aT α

où B ∈ Mn ( IR), a ∈ IRn et α ∈ IR. Montrons que



B est s.d.p, c’est à

y
dire que By.y > 0, pour tout y ∈ IRn − {0} , et x =   ∈ IRn+1
0

Comme A est s.d.p, on a

M
        
B a y y Bx y

O
0 < Ax.x =   . = .  = By.y
aT α 0 0 aT 0

C
Et donc B est s.d.p. Par hypothèse de récurrence, il existe une

A.
matrice M ∈ Mn ( IR), M = (mi j )i,n j=1 telle que :
1. mi j = 0 si j>i (triangulaire inférieure)
JD
2. mii > 0
3. B = MMT .
U
On va chercher L sous forme
PO

 
∼ M 0
L=  
bT λ
M

∼∼ T
Avec b ∈ IRn et λ ∈ IR∗+ tels que A = L L . Pour déterminer b et λ,
.U

∼∼ T
calculons L L = A, et on veut que les égalités suivantes soient
vérifiées :
O

Mb = a et bT b + λ2 = α
FS

Comme M est inversible (en effet det ( M) = Πin=1 mii > 0), la première
égalité ci-dessous donne : b−1 = Ma et en remplaçons dans la deuxième
égalité, on obtient :
( M−1 a)T ( Ma) + λ 2 = α, et donc aT ( M T )−1 ( M−1 a) + λ 2 = α soit encore a
soit encore a T ( MMT )−1 a + λ2 = α,
c’est à dire a T B−1 a + λ 2 = α (2.1)

Merci de nous rendre visite sur


http://fso.umpoujda.com/
1.3. Méthode de Choleski

Pour que (2.1) soit vérifiée, il faut que

α − a T B−1 a > 0 (2.2)

Montrons que cette condition est effectivement vérifiée :


 
B−1 a
Soit z =  ∈ IRn+1 . On a z 6= 0 et donc 0 < Ax.x car A est s.d.p
−1

M
et donc
    
B−1 a

O
B a 0
Az =   = 
aT α −1 a T B−1 a − α

C
On a donc Az.z = α − aT B−1 a > 0 ce qui démontre l’inégalité (2.2)

A.

On peut choisir ainsi λ = α − a T B−1 a > 0 JD de tel sorte que (2.1) soit
vérifiée.
Posons :
U
 
∼ M 0
PO

L=  
−1 −1
(M a) λ

∼ ∼∼ T
L est bien triangulaire inférieure et vérifie lii > 0 et A = L L .
M

On a terminé ainsi la partie existence.


.U


2. Unicité et calcul de L Soit donc A ∈ Mn ( IR) s.d.p ; on vient de
O


montrer qu’il existe donc L∈ Mn ( IR) triangulaire inférieure telle
∼∼ T
que lii > 0 et A = L L . On a donc
FS

ai j = ∑nk=1 lik l jk ∀(i, j) ∈ {1, ...., n}2 (2.3)


1. Calculons la première colonne de L ; pour j = 1, on a
a11 = l 11 l11 (l 1 j = 0, ∀ j ≥ 2);et donc l11 =√a11
a21 = l 21 l11 (l 2 j = 0, ∀ j ≥ 3); l 21 = al 21
11

.
Merci de nous rendre visite sur
http://fso.umpoujda.com/
1.3. Méthode de Choleski

.
.
ai1 = l i1 l11 li1 = lai1 ∀i ∈ {2, ...., n} .
11


2. On suppose avoir calculé les q premières colonnes de L. On
calcul la colonne (q+1) en prenant j=q+1 dans (2
q+1
pour i = q + 1

M
aq+1q+1 = ∑k=1 lq+1k lq+1k ; lq+1k = 0 pour k ≥ q + 2
q
q q
= ∑k=1 lq2+1k +l q+1q+1 =⇒ l q+1q+1 = aq+1q+1 − ∑k=1 lq2+1k

O

Notons que aq+1q+1 − ∑qk=1 lq2+1k > 0 car L existe.

C
On procède de la même manière pour q + 2, ....., n on a :

A.
q+1 q
aiq+1 = ∑k=1 lik lq+1k = ∑k=1 lik lq+1k +l iq+1 lq+1q+1
JD
Et donc
U
q 1
liq+1 = ( aiq+1 − ∑k=1 lik lq+1k ) l
q+1q+1
PO


On calcule ainsi toutes les colonnes de L. On a donc démontré
∼ ∼
que L est unique par moyen constructif de calcul de L.
M
.U
O
FS

Merci de nous rendre visite sur


http://fso.umpoujda.com/
Chapitre 2

Méthodes itératives pour la résolution


des systèmes linéaires

M
O
C
A.
2.1 Rappels : normes, rayon spectral
JD
Définition 1.1 : Norme matricielle-norme induite) On note
Mn ( IR) l’espace vectoriel sur IR des matrices carrées d’ordre n.
U
a. On appelle norme matricielle sur Mn ( IR) une norme ||.|| sur
Mn ( IR) telle que :
PO

|| AB|| ≤ || A||.|| B|| ∀ A, B ∈ Mn ( IR).


M

b. On considère IRn muni de la norme ||.||. On appelle norme


matricielle induite sur Mn ( IR) la norme encore notée ||.||, la norme
.U

sur Mn ( IR) définie par :


O

|| A|| = sup {|| Ax|| ; x ∈ IRn , || x|| = 1} ∀ A ∈ Mn ( IR)


FS

Proposition 1.2 Soit Mn ( IR) muni d’une norme induite ||.||. Alors
pour toute matrice A ∈ Mn ( IR), on a :
1.|| Ax|| ≤ || A|| ||X || ∀ x ∈ IRn .

2.|| A|| = max {|| Ax|| ; x ∈ IRn , ||x|| = 1}


n o
|| Ax||
3.|| A|| = max || x||
;x ∈ IRn − {0}

4.||.|| est une norme matricielle.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
2.1. Rappels : normes, rayon spectral

Preuve 1. Soit x ∈ IRn − {0} posons y = ||xx|| , alors || y|| = 1 donc || Ay|| ≤
|| A|| (car || A|| = sup || Ax||) et donc A ||xx|| ≤ || A|| c’est à dire || Ax|| ≤
|| x||=1
|| A|| × || X || ∀ x ∈ IRn − {0} .

si x = 0 Alors Ax = 0 et || X || = 0 et || Ax|| = 0 et l’inégalité est encore


vérifiée.
2. Soit l’application Φ définie sur IRn dans IR : Φ(x) = || Ax|| est

M
continue sur la sphère unité S1 = {x ∈ IRn , ||x|| = 1} qui est un compact
de IRn . Donc Φ esr bornée et atteint ses bornes. Il existe x0 ∈ IRn tel

O
que || A|| = || Ax0 || .

C
|| Ax||
3. Cette égalité résulte du fait que || x||
= x
A || Ax ||
et x
|| Ax||
∈ S1 pour
x 6= 0.

A.
4. Soient A et B ∈ Mn ( IR) on || A|| = sup {|| Ax|| ; x ∈ IRn , ||x|| = 1} , or
JD
|| ABx|| ≤ || A|| × || Bx|| ≤ || A|| × || B|| × || X || ≤ || A|| × || B|| ,
U
on en déduit que ||.|| est une norme matricielle.
PO

Définition 1.3 : Rayon spectral Soit A ∈ Mn ( IR) une matrice inversible.


On appelle rayon spectral de A la quantité :
M

n o
ρ( A) = max |λ | ; λ ∈ C, λvaleur propre de A .
.U

Caractérisation de normes induites : Soit A = (ai j )1≤i, j≤n ∈ Mn ( IR)


O

1. On munit IRn de la norme ||.||∞ et Mn ( IR) de la norme induite


FS

correspondante, notée aussi ||.||∞


Alors :

|| A||∞ = max ∑nj=1 ai j


i ∈{1,...,n}

2. On munit IRn de la norme ||.||1 et Mn ( IR) de la norme induite


correspondante, notée aussi ||.||1

Merci de nous rendre visite sur


http://fso.umpoujda.com/
2.1. Rappels : normes, rayon spectral

Alors : || A||1 = max ∑in=1 ai j .


j∈{1,...,n}

3. On munit IRn de la norme ||.||2 et Mn ( IR) de la norme induite


correspondante, notée aussi ||.||2 .
Alors :
h i1
T 2
|| A||2 = ρ( A A) , en particulier si A est symétrique, || A||2 = ρ( A).

M
O
Proposition 1.5 : Approximation du rayon spectral par une

C
norme induite Soit A ∈ Mn ( IR) et ε > 0. Il existe une norme spectral

A.
sur IRn (qui dépend de A et ε) telle que la norme induite sur Mn ( IR),
notée ||.|| A,ε vérifie : JD
|| A|| A,ε ≤ ρ( A) + ε
U
PO

Corollaire 1.6 : convergence spectrale On munit Mn ( IR) d’une


norme , notée ||.|| . Soit A ∈ Mn ( IR).
Alors :
M

si et seulement si Ak converge vers 0 quand k tend vers


.U

ρ( A) < 1
+∞.
O

Preuve : Si ρ( A) < 1, grâce à l’approximation du rayon spectral


FS

de la proposition précédente, il existe ε > 0 tel que ρ( A) < 1 − 2ε et


d’une norme induite ||.|| A,ε tel que || A|| A,ε = µ ≤ ρ( A) + ε < 1 − ε, comme
|| A|| A,ε est une norme matricielle, on a Ak ≤ µ k converge vers 0
A,ε

qd k → +∞. Comme Mn ( IR) est de dimension finie, toutes les normes


sont équivalentes et donc

Ak → 0 qd k → +∞.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
2.1. Rappels : normes, rayon spectral

Réciproquement, supposons Ak converge vers 0 qd k tend vers +∞.


et montrons que ρ( A) < 1.
Soit λ une valeur propre et x 6= 0 le vecteur propre associé. Alors
Ak x = λ k x et si Ak → 0 qd k → +∞ alors Ak x → 0 et donc λ k x → 0, qui n’est
possible que si |λ| < 1.

1.7 Proposition : convergence et rayon spectral On munit Mn ( IR)

M
1/k
d’une norme, notée ||.||. Soit A ∈ Mn ( IR). Alors ρ( A) =lim

Ak .(admise)

O
1.8 Corollaire : comparaison rayon spectral et norme. On munit

C
Mn ( IR) d’une norme, notée ||.||. Soit A ∈ Mn ( IR). Alors :

A.
ρ( A) ≤ || A|| .
JD
Par conséquent si M ∈ Mn ( IR) et x(0) ∈ IRn , pour montrer que la
suite x(k) = Mk x(0) converge vers 0 dans IRn , il suffit de trouver une
U
norme matricielle ||.|| telle que ||.M|| < 1.
PO

Preuve Si ||.|| est une norme matricielle, alors Ak ≤ || A||k et


donc par la caractérisation du rayon spectral donné dans la
M

1/k
proposition précédente, on obtient ρ( A) =lim

Ak ≤ || A|| .
.U

1.9 Théorème : Matrice de la forme I + A 1. Soit une norme


matricielle induite, I la matrice identité de Mn ( IR) et A ∈ Mn ( IR)
O

telle que || A|| < 1. Alors la matrice I + A est inversible et on a ( I + A)−1 ≤


FS

1
1−|| A||.
.

2. Si une matrice de la forme I + A ∈ Mn ( IR) est singulière, alors


|| A|| ≥ 1 pour toute norme matricielle ||.|| .
Démonstration :
1. Si ρ( A) < 1, les valeurs propres de A sont toutes différentes de
1 et −1. Donc 0 n’est pas valeur propre des matrices I + A et I − A,
qui sont donc inversibles.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
2.2. Méthodes itératives :

Supposons que || A|| < 1 alors on a ρ( A) < 1. Il est facile de vérifier


que
n+1
∑nk=0 Ak ( I − A) = I − A

Si ρ( A) < 1 et le corollaire 1.6 =⇒ Ak → 0 qd k → +∞. De plus, I−A


inversible.
En passant à la limite, on a donc ( I − A)−1 = ∑+k=∞0 Ak .

M
(F)

Réciproquement, si ρ( A) ≥ 1 la série ne peut converger en raison

O
du corollaire 1.6.

C
On a démontré plus haut que si ρ( A) < 1 la série de terme générale
Ak est absolument convergente et qu’elle vérifie (F). On en déduit

A.
que si || A|| < 1

( I + A )−1 ≤ ∑+ ∞
JD
k ≤ +∞ || A ||k = 1
k=0 A ∑k=0 1−|| A||
.

De même on a ( I − A)−1 = ∑+k=∞0 (−1)k Ak et ( I + A)−1 ≤ 1−||1A||. .


U

2. Si une matrice de la forme I + A ∈ Mn ( IR) est singulière, alors


PO

λ = −1 est valeur propre et donc ρ( A) = 1 ≥ 1 et en utilisant le corollaire


1.8, on obtient que || A|| ≥ ρ( A) = 1 ≥ 1.
M

2.2 Méthodes itératives :


.U
O

2.2.1 Définitions et propriétés


FS

Soit A ∈ Mn ( IR) une matrice inversible et b ∈ IRn , on cherche toujours


ici à résoudre le système : Trouver x ∈ IRn tel que Ax = b, mais de
façon itérative, c’est à dire par la construction d’une suite.
Définition 2.1.1 : Méthode itérative On appelle méthode itérative
de résolution du système linéaire Ax = b une méthode qui construit
une suite (x(k) )k∈ IN où ”l’itéré” x(k) est calculé à partir des itérés
x(0) , x(1) , x(2) , ....., x(k−1) censée converger vers x solution de Ax = b.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
2.2. Méthodes itératives :

Définition 2.1.2 : (méthode itérative convergente) On dit que


la méthode itérative est convergente si pour tout choix initial
x(0) ∈ IRn , on a, x(k) → x qd x → +∞.

Enfin, on veut que cette suite soit à calculer. Une idée est de
travailler avec une matrice P inversible qui soit ”proche” de A,
mais plus facile à inverser que A.
On appelle matrice de pré conditionnement cette matrice. On

M
écrit alors A = P − (P − A) = P − N, et on réécrit le système Ax = b sous

O
forme :

C
Px = ( P − A) x + b = Nx + b

Cette forme suggère la construction de la suite (x(k) )k∈ IN à partir

A.
d’un choix initial x(0) donné, par la formule suivante :JD
Px(k+1) = Nx(k) +b,

ce qui peut s’écrire également


U
x(k+1) = Bx(k) +c (2.1)
PO

avec B = P−1 N = I − P−1 A et c = P−1 b.


On introduit l’erreur d’approximation e(k) à l’itération définie
M

par :
e(k) = x(k) − x, k ∈ IRn
.U

(2.2)

où x(k) est construit par (2.1) et x = A−1 b. Il est facile de vérifier


O

que x(k) → x = A−1 b qd x → +∞ si et seulement si e(k) → 0 qd k → +∞.


FS

Lemme 2.1.3 : La suite ( e(k) )k∈ I N définie par (2.2) est également
définie par
e(0) = x(0) − x et e(k) = x(k) − x = Bk e(0) (2.3)

comme c = P−1 b = P−1 Ax, on a


e(k+1) = x(k+1) − x = Bx(k) − x + P−1 Ax = B( x(k) − x), B = P−1 N = I − P−1 A

Par récurrence sur k on a e(k) = Bk (x(0) −x)


Merci de nous rendre visite sur
http://fso.umpoujda.com/
2.2. Méthodes itératives :

Théorème 2.1.4 : Convergence de la suite. Soit A, P ∈ Mn ( IR) inversibles.


Soit x(0) donné et la suite (x(k) )k∈I N la suite définie par (2.1)
1. La suite (x(k) )k∈ IN définie par (2.1) converge vers x = A−1 b si et
seulement si ρ(B) < 1.
2. La suite (x(k) )k∈ IN définie par (2.1) converge si et seulement si
il existe une norme induite ||.|| telle que ||B|| < 1.

M
dém :
1. On a vu aussi que (x(k) )k∈I N définie par (2.1) converge si et

O
seulement si e(k) → 0 qd x → +∞, on en déduit par le crollaire 1.6 que

C
(e(k) )k∈ IN converge vers 0 si et seulement si ρ( B) < 1

A.
2. S’il existe une norme induite ||.|| telle que ||B|| < 1 et donc
ρ( B) < 1 et donc d’aprés le corollaire 1.6 la méthode converge.
JD
Réciproquement Si la méthode converge alors ρ(B) < 1, et donc
il existe η > 0 tel que ρ(B) = 1 − η. Prenons ε = η2 et appliquons la
U
proposition 1.5, il existe une norme induite ||B||B,ε ≤ 1 − ε < 1 d’où
PO

le résultat.
M

(k+1) ∼ ∼(k)
Théorème 2.1.5 : Considérons deux méthodes itératives ∼x =T x

+c
∼ (0)
et x(k+1) = Tx(k) +c avec ρ(T ) < ρ(T ) et x(0) =∼x alors ∀ε > 0 ∃k0 > 0 tq
.U

∼(k) ∼
ρ( T )
k > k0 sup ee(k) ≥ ( ρ(T )+ε )k .

Donc la méthode itérative de la matrice T converge plus rapidement


O


que celle de la matrice T, en résumé, l’étude des méthodes itératives
FS

consiste à étudier les deux problèmes suivants :


1. Etant donne une méthode itérative de la matrice T, déterminer
si la méthode converge, i.e si ρ( A) < 1 ou s’il existe une norme ||.||
telle que ||T || < 1.
2. Etant donné deux méthodes itératives convergente T et ∼
T,
les comparer, la méthode plus rapide est celle ayant le plus petit
rayon spectral.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
2.3. Description des méithodes classiques

2.1.6 On appelle taux moyen de convergence sur k itérations



le nombre R = (k, T ) = − log T k 1/k et taux asymptotique de convergence

lim R(k, T ) = − log (ρ( T )) R( T ) joue le rôle de vitesse
le nombre R(T ) =k→+ ∞
de convergence, plus R(T ) est grand plus rapide est la convergence.

2.3 Description des méithodes classiques

M
Méthode de Jacobi 3.1 : Elle consiste à choisir P = D = diag(aii )

O
inversible et N = (−ai j )i6= j . Le schéma itératif est comme suit :

C
x(k+1) = D −1 ( L + U ) x(k) + D −1 b (3.1.1)

A.
La matrice BJ = D−1 ( L + U ) est dite matrice de Jacobi associée à la
JD
matrice A. Si x(0) est le vecteur initial (donné), l’algorithme de
Jacobi est de la forme
U
(k+1) (k)
xi = − a1ii ∑ j6=i ai j x j + abiii pour i = 1, 2....., n
PO

Cette algorithme nécessite aii 6= 0 pour i = 1, 2....., n c’est à dire


D inversible.
M

Explicitement, on obtient
.U

(k+1) (k) (k) (k)


a11 x1 = − a12 x2 − a12 x2 −........... − a1n xn +b1

.
O

.
FS

.
(k+1) (k) (k) (k) (k)
an1 x1 = − an1 x1 − an2 x2 − an2 x2 −........ − ann−1 xn−1 +bn

D’après le théorème précédent, une condition suffisante pour


que la méthode de JACOBI converge est ρ(B J ) < 1 ou BJ < 1.

Théorème 3.1.2

Merci de nous rendre visite sur


http://fso.umpoujda.com/
2.3. Description des méithodes classiques

Si A est une matrice carrée à diagonale strictement dominante


en lignes alors la m éthode de Jacobi converge.

Preuve On a ∑nj=1 ai j < | aii | par définition BJ = D−1 ( L + U ),


j 6 =i

D’autre part (b J )i j = − aaiiij pour i 6= j et (b J )ii = 0 d’où BJ ∞


= max ∑ j (b J )i j =
i
( )
max
i
1
| aii | ∑nj=1 ai j et on a BJ ∞
< 1.

M
j 6 =i

Corollaire 3.1.3

O
C
Si A est une matrice carrée à diagonale strictement dominante
en colonnes alors la méthodes de Jacobi converge.(la démonstration

A.
est identique à celle du théor ème 3.1.2 en considérant la norme JD
||.||1

3.2 Méthode Gauss-Seidel Pour cette méthode, les matrices P


U
et N sont données par :
PO

P = D − L inversible et N = U, L et U proviennent de l’écriture A = D − L − U,


le schéma itératif est :
M

( D − L) x(k+1) = Ux(k) +b (3.2.1)


.U

ou encore
O

x(k+1) = ( D − L)−1 Ux(k) +( D − L)−1 b (3.2.2)


FS

en posant que D − L est inversible (3.2.1) et (3.3.2) peuvent s’écrire


sous forme

Dx(k+1) = Lx(k+1) +Ux(k) +b (3.2.3)

et
x(k+1) = D −1 Lx(k+1) + D −1 Ux(k) + D −1 b (3.3.3)

Merci de nous rendre visite sur


http://fso.umpoujda.com/
2.3. Description des méithodes classiques

En explicitant (3.3.3) on obtient :


(k+1) (k) (k)
a11 x1 = − a12 x2 −............... − a1n xn + D−1 b1
(k+1) (k+1) (k) (k)
a22 x2 = − a21 x1 − a23 x3 −.............. − a2n xn + D−1 b2
.
.
(k+1) (k+1) (k+1) (k+1) (k+1) (k)
aii xi = − ai1 x1 − ai2 x2 −... − aii−1 xi−1 − ai+1 xi+1 −... − ain xn + D−1 bi

M
(k+1) (k+1) (k+1) (k+1)
ann xn = − an1 x1 − an2 x2 −.............. − ann−1 xn−1 + D−1 bn

O
La matrice BGS = (D − L)−1 U est dite matrice de Gauss-Seidel associée
à la matrice A.

C
Remarque :

A.
BGS = ( I − D −1 L)−1 D −1 U.
JD
Théorème 3.2.1 Si A est une matrice carrée à diagonale strictement
dominante en lignes alors la méthode de Gauss-Seidel converge.
U
PO

Preuve Posons BGS = (D − L)−1 U et montrons que ||BGS ||∞ < 1 où ||BGS ||∞ =
|| BGS x||∞
sup || x||∞
x6=0
Soit y = BGS x = (D − L)−1 Ux alors (D − L) y = Ux ou encore
M

Dy = Ly + Ux
et y = D−1 Ly + D−1 Ux. Considérons l’indice i0 tq
.U

yi0 = max | yi | = || y||∞ = || BGS x||∞


i
Il vient yi0 = ∑ij0=−11 (D−1 L)i0 j y j + ∑nj=i0 +1 (D−1 U )i0 j x j
O

par suite yi0 = || y||∞ ≤ ∑ij0=−11 aaii00i0j . || y||∞ + ∑nj=i0 +1 ai0 j


ai0 i0 .||x||∞
FS

En regroupant les termes


ai0 j || y|| ai0 j
(1− ∑ij0=−11 ai0 i0 ) ||x||∞ ≤ ∑nj=i0 +1 ai0 i0

ai0 j
Par hypothèse, le terme 1− ∑ij0=−11 ai0 i0 >0 d’où on tire :
|| BGS x||∞ || y||∞ ai0 j ai0 j
|| x||∞
= ||x|| ≤ ( ∑nj=i + 1 a )(1− ∑ij0=−11 aii0 i0 )−1
∞ 0 i0 i0

Finalement
|| BGS x||∞
max < 1.
x6=0 || x||∞

Merci de nous rendre visite sur


http://fso.umpoujda.com/
2.3. Description des méithodes classiques

3.3 Méthode de relaxation Si on considère les matrices P et N


dépendantes d’un paramètre w, on obtient A(w) = P(w) − N (w).
Prenons P(w) = w1 D − L et N (w) = 1−ww D + U, en supposant P(w) inversible,
le schéma itératif qui en résulte est le suivant :
(k)
x(k+1) = ( w1 D − L)−1 ( 1−ww D + U ) x +( w1 D − L)−1 b (3.3.1)

M
L’équation 3.3.1 peut être remplaceée par :

O
−1
x(k+1) = ( w1 D ) Lx(k+1) +[(1 − w) I + wD −1 U )−1 x(k) +(wD −1 )b (3.3.2)

C
La matrice de relaxation est donnée par :

A.
Bw = ( w1 D − L)−1 ( 1−ww D + U ).
JD
* Si w = 1, on retrouve la méthode de Gauss-Seidel.
U
* Si w > 1, on parle de sur-relaxation.
* Si w < 1, on parle de sous-relaxation.
PO

Ici la condition de convergence ||Bw || < 1 dépendra du paramètre


w et par conséquent, on est amené à chercher tous les w pour
M

lesquels il y a convergence et en suite choisir la valeur optimale


w0 de telle sorte que la vitesse de convergence soit meilleure
.U

possible.
O

Théorème Si A est une matrice hermitienne définie positive


FS

alors la méthode de relaxation converge si w ∈ ]0, 2[ .

Merci de nous rendre visite sur


http://fso.umpoujda.com/
Chapitre 3

Approximation des solutions de


l’equation non linéaire f ( x) = 0

M
O
C
3.1 Rappels et notations :

A.
Définition 1 : Soit k un réel strictement positif et g une fonction
JD
définie sur un intervalle [a, b] de IR à valeurs dans IR.
La fonction g est dite Lipschitzienne de rapport k (ou encore
U
k − Lipshitzienne si pour tout x et y ∈ [ a, b] on a :
PO

| g( x) − g( y)| ≤ k | x − y| .

Définition 2 : Soit g est une fonction k − Lipschitzienne de rapport k


M

sur [a, b]. La fonction g est dite contractante de rapport de contraction


.U

k ∈ ]0, 1[ .
O

Exemple 1 : g( x) = sin x est Lipshitzienne de rapport k = 1.


FS

3.1.3 Définition 3 : Soit une g fonction définie sur un intervalle


[ a, b] de IR à valeurs dans IR, la fonction g est dite uniformément
continue sur [a, b], si :
∀ε > 0, ∃η > 0 tel que ∀ x et y ∈ [ a, b] , vérifiant | x − y| ≤ η, on ait | g( x) − g( y)| ≤ ε.

Remarque 1 : Toute fonction Lipschitzienne sur [a, b] est uniformément


continue sur [a, b] .

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3.1. Rappels et notations :

Théorème 1 : (Des valeurs intermédiaires) Soit f une fonction


définie et continue sur un intervalle fermé borné [a, b] de IR. Alors
pour tout θ ∈ f ( [a, b] ), il existe un réel c ∈ [a, b] tel que θ = f (c). Si de
plus f est strictement monotone alors le point c est unique.

3.1.5 Théorème 2 : (TVI. cas particulier θ = 0) Soit f une fonction


définie et continue sur un intervalle [a, b] et vérifiant f (a) × f (b) < 0

M
alors ∃c ∈ [a, b] tel que f (c) = 0. Si de plus f est trictement monotone
alors c est unique.

O
3.15 bis :(Théorème de Rolle)

C
Soit f une fonction définie sur un intervalle [a, b] à valeurs dans

A.
IR et si f est continue sur [ a, b] et dérivable ] a, b[ et vérifie f (b) = f ( a)
alors ∃c ∈ ]a, b[ tel que f (1) (c) = 0 JD
3.1.6 Téorème 3 :(Des accroissemenys finis) Soit f une fonction
U
définie sur un intervalle [a, b] à valeurs dans IR et si f est continue
sur [a, b] et dérivable sur ]a, b[, alors elle existe ∃c ∈ ]a, b[ tel que :
PO

f ( b ) − f ( a ) = ( b − a ) × f (1) ( c )

où f (1) ( c ) est la dérivée de f au point c.


M
.U

Théorème 4 : (Formule de Taylor) Soit f une fonction de classe


C n sur un intervalle [ a, b], alors il existe un réel c ∈ ] a, b[ tel que
O

f (b) = f ( a) + (b − a) f (1) ( a)+ 2!1 (b − a) f (2) ( a)


FS

+....+ n!1 (b − a)n f (n) ( a)+ (n+1 1)! (b − a)n+1 f (n+1) (c).

Théorème 5 : (De Maclaurin) Soit f une fonction de classe Cn


sur un intervalle I contenant 0, et telle que f (n) soit dérivable
à l’interieur de l’intervalle de I. Alors ∀ x ∈ I , il existe un réel c
strictement compris entre 0 et x tel que :
f ( x) = f (0) + x f (1) (0)+ 2!1 x2 f (2) (0) + ....+ n!
1 n (n)
x f (0)+ (n+1 1)! xn+1 f (n+1) (c).

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3.1. Rappels et notations :

Définition 4 : Soit θ un réel et f une fonction définie sur un


intervalle I de IR à valeurs dans IR. θ est dit zéro de f si f (θ) = 0.

Définition 5 : Soit θ un réel et g une fonction définie sur un


intervalle I ⊂ IR. On dit que θ est un point fixe de g si g(θ) = θ.

Lemme 1 : Soit I un intervalle de IR et f une fonction définie

M
sur I et à valeur dans IR. Alors la recherche des zéros de f est
équivalente à la recherche des points fixes de la fonction g définie

O
par g(x) = x − f (x).

C
Lemme 2 : Soit g une fonction de classe C1 sur [a, b] . S’il existe

A.
un réel k ≥ 0 tel que : g(1) (x) ≤ k ∀x ∈ [a, b] alors g est k − Lipschitzienne.
JD
Preuve : Il suffit d’appliquer le théorème des accroissements
finis à g sur [x, y] avec x ≤ y. Donc ∃c ∈ ]x, y[ tel que
U
g ( y ) − g ( x ) = ( y − x ) × g(1) ( c )
PO

donc | g( y) − g(x)| ≤ k | y − x| puisque g(1) (c) ≤ k.

Définition 6 : Soit (xn )n∈ IN une suite admettant pour limite θ.


M

On appelle erreur de la n-ième étape le réel défini par :


.U

en = xn −θ.
O

Définition 7 : On dit que la convergence (xn )n∈ IN vers θ est d’ordre


FS

p si :

|en+1 |
lim p = c
x→+∞ |en |

où c et p sont des réels positifs


* si p = 1 la convergence est dite linéaire
* si p = 2 la convergence est dite quadratique
* si p = 3 la convergence est dite cubique.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3.1. Rappels et notations :

Définition 8 : On dira que le réel δ est une approximation du


réel α avec une précision ε si |α − δ| ≤ ε.
En particulier, on dira que le terme (xn0 ) d’une suite ( xn )n∈ I N
approche θ avec une précision ε si |xn −θ| ≤ ε.
Exemple :
xn = 1/n tend vers zéro quand n tend vers +∞.

M
Si on veut une précision ε = 10−3 il suffit de prendre n0 tel que
n0 ≥ 103 .

O
C
3.1.16 Théorème 6 : Soit g une fonction k − contractante sur [ a, b] à
valeurs dans [a, b] , et (xn )n∈ IN la suite récurrente définie par

A.
x0 ∈ [ a, b] , x0 donné et xn+1 = g(xn ) pour tout n ≥ 0.
JD
Alors :
1. La suite (xn )n∈ IN converge vers un réel θ.
U
2. La fonction g admet un point fixe unique.
PO

3. Pour tout n ∈ IN ∗ on a :
n
| xn −θ | ≤ 1k−k | x1 − x0 |
M

Preuve : Comme x0 ∈ [a, b] et que g une fonction k − contractante sur


.U

[ a, b] à [ a, b ], on a xn ∈ [ a, b ] ∀ n ∈ I N.
O

Le fait que g est une fonction k − contractante sur [ a, b] implique


FS

| xn+1 − xn | ≤ | g( xn ) − g( xn−1 )| ≤ k | xn − xn−1 | ∀n ∈ I N ∗ .

Par conséquent on obtient

| xn+1 − xn | ≤ k n | x1 − x0 | n≥0 (3.1.1)

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3.1. Rappels et notations :

A l’aide de l’inégalité (3.1.1) on montre que la suite ( xn )n∈ IN


vérifie :
xn+ p − xn ≤ xn+ p − xn+ p−1 + xn+ p−1 − xn+ p−2 + .................. +
| xn+1 − xn |
≤ kn+ p−1 | x1 − x0 | + kn+ p−2 | x1 − x0 | + ...................... +
kn | x1 − x0 |
1−k p n
≤ 1−k k | x1 − x0 | .

M
1 n
xn+ p − xn ≤ 1−k k | x1 − x0 | (3.1.2)

O
L’inégalité (3.1.2) prouve que la suite est de Cauchy car kn →

C
0 qd k → +∞

A.
alors ∀ε > 0, ∃n0 > 0 tel que pour tout n ≥ n0 on ait :
kn ≤
JD
1−k
| x1 − x0 |ε

et par la suite
U
1 n
1−k k | x1 − x0 | ≤ ε.
PO

Donc pour tout ε > 0, ∃n0 > 0 tel que pour tout n ≥ n0
on ait :
M

1 n
xn+ p − xn ≤ 1−k k | x1 − x0 | ≤ ε.
.U

( xn )n∈ I N est de Cauchy et par conséquent elle converge vers


une limite θ. Comme g est continue sur [ a, b], et que xn+1 =
O

g( xn ) et que xn ∈ [ a, b] ∀n ∈ I N alors on a lim xn = θ = g(θ ),


+∞
FS

c’est à dire que θ est un point fixe de g.


Unicité du point fixe :
Supposons que g admet un autre point fixe α 6= β alors on a :
| g(α ) − g(β)| = |α − β| ≤ k |α − β| ou encore (1 − k) |α − β| ≤
0 mais comme k < 1, alors α = β.
Enfin, en faisant tendre p vers +∞ on obtient dans l’inégalité(3.1.2) :

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3.1. Rappels et notations :

1 n
xn+ p − xn ≤ 1−k k | x1 − x0 |

on obtient :

|θ − xn | ≤ 1 n
1−k k | x1 − x0 | ∀n ∈ I N ∗ .

Théorème 7 : (Condition de convergence locale) Soit g une


fonction de classe C 1 au voisinage de θ. Si g(θ ) = θ et g(1) (θ ) <

M
1, alors ∃ε > 0 tel que ∀ x0 ∈ [θ − ε, θ + ε] la suite ( xn )n∈ IN =

O
( g( xn−1 ))n∈ IN est définie et converge vers θ,l’unique solution
de g( x) = x dans I = [θ − ε, θ + ε] .

C
A.
preuve : Puisque g est une fonction de classe C 1 au voisinage
de θ et que g(1) (θ ) < 1 on a : JD
g(1) ( x) < 1,au voisinage de θ.
U
Par conséquent, il existe ε > 0 tel que :
PO

∀ x ∈ I = [θ − ε, θ + ε] g(1) ( x) < 1, et puisque g(1) est continue


sur le fermé I, on en déduit qu’∃ k ∈ [0, 1] tel que
M

∀ x ∈ I = [θ − ε, θ + ε] g(1) ( x ) ≤ k < 1
.U

Pour appliquer le théorème 6, il suffit de vérifier que : g( I ) ⊂


I
O

Or, par application du théorème des accroissements finis on


FS

a:

∀ x ∈ I = [θ − ε, θ + ε] | g( x) − θ | ≤ | x − θ | .
Remarque 2 : * Si g(1) (θ ) = 1, la suite peut converger ou
diverger.
* Si g(1) (θ ) > 1, et si la suite possède une infinité de termes
différents de θ, alors la suite ne peut converger.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3.2. Méthode de Newton et méthode de la corde

Théorème 8 : La suite récurrente définie par x0 ∈ [ a, b], x0


donné et xn+1 = g( xn ), ∀n ≥ 0, converge linéairement vers θ
et si g est de classe C 1 sur [ a, b], alors
|en+1 |
C = lim =| g(1) (θ ) |
+∞ |en |

preuve : Il suffit d’appliquer le théorème des accroissements

M
finis dans l’intervalle d’extrémités xn et θ,on a
|en+1 | = | xn+1 − θ | = | g( xn ) − θ | = ( xn − θ ) g(1) (cn ) et de là

O
on obtient :

C
|en+1 |
= lim | g(1) (cn ) |=| g(1) (θ ) | .

A.
lim
+∞ |en | +∞
JD
3.2 Méthode de Newton et méthode de la corde
U
3.2.1 Méthode de Newton (ou Newton-Raphson) :
PO

Soit une f : IR → IR une fonction de classe C 1 et θ un zéro


simple de f , c’est à dire f (θ ) = 0 et f (1) (θ ) 6= 0. Supposons
M

que l’on connaisse une valeur xn proche de θ. Pour calculer


xn+1 nous prenons l’intersection de l’axe Ox avec la droite de
.U

la tangente du graphe de f passant par le point ( xn , f ( xn ))


Clairement, nous avons la relation f ( xn )/( xn − xn+1 ) = f (1) ( xn )
O

qui donne, lorsque x0 est choisi proche de θ, la méthode de


FS

Newton :
f ( xn )
xn+1 = xn − f (1) ( xn )
n = 0, 1, ....... (3.2.1)

Nous voyons ainsi que la la méthode de Newton est une méthode


de point fixe pour calculer θ. En effet, il suffit de constater que
si on pose :

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3.2. Méthode de Newton et méthode de la corde

f ( x)
g( x) = x − f (1) ( x)
alors f ( x) = 0 ⇐⇒ x = g( x) (du moins
au voisinage de θ pour lequel f (1) ( x) 6= 0) et (3.2.1) s’écrit
x n + 1 = g ( x n ).

En vu d’utiliser le Théorème de la convergence locale, calculons


g(1) ( x ) :
si f est C 2 :

M
O
( f (1) ( x))2 − f ( x) f (2) ( x)
g(1) ( x ) = 1 − 2
[ f (1) ( x) ]

C
et par la suite , puisque f (θ ) = 0 et f (1) (θ ) =⇒ g(1) (θ ) = 0.

A.
Nous obtenons le résultat suivant : JD
Théorème 9 : Supposons f est C 2 et supposons que θ soit tel
que f (θ ) = 0 et f (1) (θ ) 6= 0. Alors ∃ε > 0 si x0 satisfait |θ − x0 | ≤
U
ε, la suite ( xn )n∈ IN donnée par la méthode de Newton (3.2)
PO

converge vers θ. De plus la convergence est quadratique.


Preuve :
f ( x)
M

on a g( x) = x − f (1) (x) et g(1) (θ ) < 1 alors la convergence


annoncée dans ce théorème est une conséquence du théorème
.U

de la convergence locale.
A priori la covergence est linéaire
O
FS

R x (1) (1)
| g( x) − g( y)| = y g ( t ) dt ≤ max g ( t ) | x − y | <
t∈ I
k | x − y|

si nous prenons y = θ nous tirons que

| g( x) − g(θ )| ≤ k | x − θ | ≤ | x − θ | ≤ ε.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3.2. Méthode de Newton et méthode de la corde

Nous allons maintenant montrer que la convergence est quadratique,


ceci est une conséquence du fait que g(1) (θ ) = 0.
Nous développons f autour de xn , nous obtenons :

f ( x) = f ( xn ) + ( x − xn ) f (1) ( xn ) + 2!1 ( x − xn )2 f (2) (ξ x )

où ξ x ∈ à l’intervalle d’extrimité x et xn . En choisisant x = θ

M
dans l’égalité ci-dessous, en divisant par f (1) ( xn ) et en tenant
compte du fait que f (θ ) = 0, nous avons :

O
f ( xn ) (2)
+ θ − xn + 2ff (1)((ξxθ )) ( x − xn )2 = 0

C
f 1) ( xn )
(
n

A.
En utilisons (3.2.1) nous obtenons
(2)
JD
1 | f (ξθ )|
| xn+1 − θ | = 2 | f (1) ( xn )| | θ − xn |2
U
Il suffit maintenant de poser
PO

max| f (2) (ξθ )|


1 x∈ I
C= 2 min| f (1) ( xn )|
x∈ I
M

Pour obtenir
.U

| xn+1 − θ | ≤ C | x − xn |2
O

d’où la convergence quadratique.


FS

B. Mhéthode de la corde (ou Newton modifiée) Cette méthode


permet d’éviter qu’à chaque itération de (3.2.1) on ait à évaluer
f (1) ( xn ). La méthode de la corde consiste à remplacer f (1) ( xn )
par f (1) ( x0 ) dans (3.2.1), ce qui donne :
f ( xn )
xn+1 = xn − f 1) ( x0 )
( n = 0, 1.........

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3.2. Méthode de Newton et méthode de la corde

Le calcul de la suite ( xn )n∈ IN s’effectue en prenant toujours la


même pente f (1) ( x0 ), d’où l’appelation méthode de la corde. Ici
encore, nous posons
f ( x)
g( x) = x − f (1) ( x 0)

et constatons que f (θ ) = 0 si g(θ ) = θ.

M
Ainsi on a

O
x n+1 = g ( x n )

C
et la méthode est une méthode de point fixe.

A.
Remarque : g dépend du point fixe de départ x0 .
JD
Théorème 10 : Supposons f de C 2 et supposons θ soit tel que
U
f (θ ) = 0 et f (1) (θ ) 6= 0. Alors ∃ε > 0 tel que si x0 ∈ I =
[θ − ε, θ + ε], la suite ( xn )n∈ IN donnée par la méthode de la corde
PO

converge vers θ. La convergence est linéaire.


M

Preuve : f de C 2 et puisque f (1) (θ ) 6= 0, il est facile de montrer


qu’∃ε > 0 et k < 1 tels que x0 ∈ I = [θ − ε, θ + ε] on a
.U

(1) f (1) ( x)
g ( x) = 1 − <k ∀ x ∈ I.
O

f (1) ( x0 )
FS

et par la suite on a
R x (1) (1)
| g( x) − g( y)| = y g ( t ) dt ≤ max g ( t ) | x − y | <
t∈ I
k | x − y|

si y = θ, on a | g( x) − g(θ )| ≤ k | x − θ | , c à d | g( x) − θ | ≤
k |x − θ|

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3.3. Méthode de dichotomie :

3.3 Méthode de dichotomie :

Soit f une fonction continue sur [ a, b] vérifiant f ( a) × f (b) ≤


0.
La fonction f admet au moins un zéro dans [ a, b]. La méthode
de dichotomie consiste à approcher θ par un encadrement, en

M
réduisant à chaque étape l’intervalle de moitié selon l’algorithme
suivant

O
C
Etape I : on pose a0 = a et b0 = b, on pose c = a0 +2 b0 puis on

A.
teste si c0 = θ c’est terminé, sinon si f ( a0 ) × f (c0 ) ≤ 0 alors
θ ∈ [ a0 , c0 ] , on pose a1 = a0 et b1 = c0 puis c1 = a1 +2 b1 .
JD
Si f (b0 ) × f (c0 ) ≤ 0 alors θ ∈ [c0 , b0 ] , alors on pose a1 = c0 et
b1 = b0 puis c1 = a1 +2 b1 .
U
b0 − a0
Aprés cette étape la longueur de [ a1 , b1 ] est égale à 2 =
b− a
PO

2 .

Etape II : On recommence le procédé de l’étape 1.


M

Etape k : A chaque étape k du procédé, soit on tombe sur ck =


.U

θ soit on diminue la longueur de l’intervalle de moitié.


O

Théorème : Les ak , bk et ck satisfont les propriétés suivantes :


FS

1. [ ak+1 , bk+1 ] ⊂ [ ak , bk ] .
bk − ak b0 − a0
2. bk+1 − ak+1 = 2 = 2k+1
.
3. la suite ck converge vers θ.
b− a
4. |ck − θ | ≤ 2k+1
.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3.3. Méthode de dichotomie :

Preuve : 1. Pour k ≥ 0 on ck = ( ak + bk )/2 et [ ak+1 , bk+1 ] =


[ ak , ck ] ou [ck , bk ] donc [ ak+1 , bk+1 ] ⊂ [ ak , bk ] .
2. On a par construction bk+1 − ak+1 = (bk − ak )/2 montre par
récurrence que

bk − ak = (b − a)/2k

M
Pour k = 0 la relation est vraie.
Si on suppose que la relation est vraie à l’ordre k, c’est à dire

O
bk − ak = (b − a)/2k .

C
Montrons alors que bk+1 − ak+1 = (b − a)/2k+1 .

A.
1
En effet, bk+1 − ak+1 = (bk − ak )/2 = 2 (bk − ak )/2 = (b −
a)/2k+1 .
JD
3. Par construction θ ∈ [ ak , bk ] et ck = ( ak + bk )/2 est le milieu
de [ ak , bk ] donc :
U

k → +∞.
PO

|ck − θ | ≤ (bk − ak )/2 ≤ (b − a)/2k+1 → 0 qd

En d’auters termes :
M

ck → θ qd k → +∞.
.U
O

Remarque : Le théorème précédent permet de calculer à l’avance


le nombre maximal n ∈ I N d’itérations assurant la précision ε,
FS

en effet :
Pour que cn vérifie : |ck − θ | ≤ (b − a)/2n+1 à la n-ième
étape, il suffit que n vérifie : (b − a)/2n+1 ≤ ε, on a alors :

|ck − θ | ≤ (b − a)/2n+1 ≤ ε,
b− a
ε ≤ 2n+1 ⇐⇒ n ≥ ln(b−lna)−2
Lnε
− 1.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3.4. Méthode de la fausse position (Fegula Falsi)

Exemple : f ( x) = x3 + 4x2 − 10. On vérifie graphiquement


que f admet une racine réellé dans [1, 2] et que la méthode de
dichotomie est appliquable. f (1) × f (2) ≤ 0.
Pour trouver une approximation de cette racine, on peut réaliser
la méthode de dichotomie avec une précision égale à 10−10 .
On a les résultats suivants : n (numérique) = 33 n(théorie) =

M
32, 21928
x = 1.3652300134 f ( x) = −2.378897e − 0.11.

O
C
3.4 Méthode de la fausse position (Fegula Falsi)

A.
Au lieu de prendre à chaque étape ck qui est le milieu de [ a, b],
JD
la méthode de fausse position prend le point d’intersection de
l’axe Ox avec la droite passant par ( ak , f ( ak )) et (bk , f (bk )).
U
L’équation de cette droite est donnée par :
PO

x− a y− f ( a)
b− a = f (b)− f ( a)
M

−bk
Elle coupe l’axe Ox au point : M(ck , 0) où ck = ak + f ( ak ) f (aak)− f (b )
.
k k
.U

On suit le procédé comme dans le cas de dichotomie en testant :


O

Si f (ck ) × f ( ak ) ≤ 0 alors θ ∈ [ ak , ck ] , alors on pose ak+1 = ak


FS

et bk+1 = ck .
Si f (ck ) × f (bk ) ≤ 0 alors θ ∈ [ck , bk ] , alors on pose ak+1 = ck
et bk+1 = bk .
Puis on cherche à nouveau la droite passant par ( ak+1 , f ( ak+1 ))
et (bk+1 , f (bk+1 )).

Merci de nous rendre visite sur


http://fso.umpoujda.com/
3.4. Méthode de la fausse position (Fegula Falsi)

Exemple : f ( x) = x3 − 20 et comme f (0.75) × f (4.5) < 0


on peut donc appliquer la méthode de la fausse position dans
l’intervalle [0.75, 4.5] .

La solution est x = 2.7133.

M
O
C
A.
JD
U
PO
M
.U
O
FS

Merci de nous rendre visite sur


http://fso.umpoujda.com/
Chapitre 4

Problèmes d’interpolation

M
O
C
4.1 Position du problème :

A.
Supposons que l’on veuille chercher un polynôme p de degré
n ≥ 0 qui, pour des valeurs t0 , t1 , t2 , ...., tn distinctes données, prennent
JD
des valeurs p0 , p1 , p2 , ...., pn respectivement, c’est à dire
U
p(t j ) = p j , pour 0 ≤ j ≤ n (4.1)
PO

Une manière apparemment simple de résoudre ce problème


est d’écrire
M

p(t) = a + a1 t + a2 t2 +......... + an tn (4.2)


.U

où a0 , a1 , a2 , ...., an sont des coefficients qui devront être déterminés.


O

Les (n + 1) relations (4.1) s’écrivent alors :


FS

a + a1 t j + a2 t2j +......... + an tnj = p j pour 0 ≤ j ≤ n (4.3)

On obtient un système de (n + 1) équations à (n + 1) inconnues


a0 , a1 , a2 , ...., an

Soit T la (n + 1) × (n + 1) matrice définie par :

Merci de nous rendre visite sur


http://fso.umpoujda.com/
4.2. Interpolation de LAGRANGE

 
1 t0 t20 . . . . . . . tn0
 
t21 tn1
 

 1 t1 . . . . . . . 

 

 . . . . 

 

 . . . . 

 
. . . .
 
 
 
T =
 
. . . . 
 
 
. . . .

M
 
 
 

 . . . . 

O
 

 . . . 

 
. . .
 

C
 
 
1 tn t2n tnn

A.
C’est la matrice de Vandermonde associée aux points t0 , t1 ,
t2 , ...., tn JD
Si →a et→p sont (n + 1)- vecteurs colonnes suivants :
→ →
a = ( a0 , a1 , a2 , ...., an )t et p = ( p0 , p1 , p2 , ...., pn )t , nous pouvons écrire
U
(4.3) sous forme matricielles :
PO

→ →
Ta=p (4.4)
M

Ainsi, le problème consiste à chercher le polynôme p satisfaisant


(4.1) peut se réduire à résoudre le système linéaire (4.4) qui n’est
.U

pas une tâche triviale.


O

4.2 Interpolation de LAGRANGE


FS

1.1 Base de Lagrange : Il est facile de résoudre le problème (4.1)


lorsque toutes les valeurs p j sont égales à zéro sauf une, qui est
fixée à 1.
Soit k un entier donné entre 0 et x, et supposons que l’on ait
pk = 1 et pour j 6= k p j = 0.
Soit ϕk la fonction de t définie par
Merci de nous rendre visite sur
http://fso.umpoujda.com/
4.2. Interpolation de LAGRANGE

(t−t0 )(t−t1 )................(t−tk−1 )(t−tk+1 )..........(t−tn )


ϕk ( t ) = (t (4.5)
k −t0 )(tk −t1 )................ (tk −tk−1 )(tk −tk+1 ).......... (tk −tn )

Le numérateur de ϕk est un produit de n termes (t − t j ), j 6= k et


est donc un polynôme de degré n en t.
Le dénominateur de ϕk est une constante et il est facile de
vérifier que :
(i) ϕk est un polynôme de degré n

M
(ii) ϕk (t j ) = 0 si j 6 = k, 0 ≤ j ≤ n

O
(iii) ϕk (tk ) = 1

C
A chaque point tk nous avons donc associé un polynôme ϕk de
degré n valant 1 en tk et zéro aux autres points t j , j 6= k.

A.
Les polynômes ϕ0 , ϕ1 , ϕ2 , ...., ϕn sont linéairements indépendants. JD
En effet ∀t ∈ IR, si a0 , a1 , a2 , ...., an sont n + 1 nombres réels tels que
∑nj=0 α jϕ j (t) = 0 (∀t ∈ IR), alors pour t = tk nous obtenons :
U
0 = ∑nj=0 α jϕ j (tk ) = α k ,

et par conséquent tous les αk = 0


PO

pour 0 ≤ k ≤ n.

Notons IPn l’espace vectoriel formé par tous les polynômes de


degré ≤ n de dimension n + 1 et que sa base canonique est donnée
M

par 1, t, t2 , ...., tn .
Le fait que les polynômes ϕ0 , ..., ϕk , ...., ϕn sont linéairements indépendants
.U

montre que ces derniers forment aussi une base de IPn .


O

Définition 1.1 : Nous dirons que (ϕ0 , ..., ϕk , ...., ϕn ) est base de Lagrange
FS

de IPn associée aux points t0 , t1 , t2 , ...., tn .

Exemple 1.1 : Prenons n = 2, t1 = −1, t2 = 0 et t3 = 1. La base de Lagrange


de IPn associée aux points -1, 0 et 1 est formée par les polynômes
définis par : ϕ0 (t) = (t−t1 )(t−t2 ) = 0.5t2 −0.5t (4.6)
(t0 −t1 )(t0 −t2 )
(t−t )(t−t2 )
ϕ01 (t) = (t = 1−t (4.7)
1 −t0 )(t1 −t2 )

Merci de nous rendre visite sur


http://fso.umpoujda.com/
4.3. Interpolation d’une fonction continue par un polynôme

(t−t0 )(t−t1 )
ϕ2 ( t ) = (t = 0.5t2 +0.5t (4.8)
2 −t1 )(t2 −t1 )

Revenons au point (4.1) consistant à chercher le polynôme p


de degré n qui prenne des valeurs données p0 , p1 , p2 , ...., pn en des
points distincts t0 , t1 , t2 , ...., tn .
Soit (ϕ0 , ..., ϕk , ...., ϕn ) une base de Lagrange de IPn associée aux
points t0 , t1 , t2 , ...., tn .

M
Alors le polynôme p cherché est défini par ;
p(t) = p0ϕ0 (t) + p1ϕ1 (t) + ........ + pnϕn (t) = ∑nj=0 p jϕ j (t) (4.9)

O
En effet, puisque p est une combinaison linéaire de (n + 1) polynômes

C
ϕ0 , ..., ϕk , ...., ϕn tous de degré n, alors p est lui même de degré n, c’est

A.
à dire p ∈ IPn .
D’autre part, si nous utilisons les propriétés des polynômes
JD
ϕk , nous avons pour k = 0, 1, 2, ......, n :

p(tk ) = ∑nj=0 p jϕ j (tk ) = pk (4.10)


U
PO

qui est bien la relation (1.1).

Exemple 2 : Trouver un polynôme de degré deux qui vaut en


M

t0 = −1 en p0 = 8, en t1 = 0 en p1 = 3, en t2 = 3 en p0 = 6.
.U

p(t) = 4t2 −t + 3.
O

4.3 Interpolation d’une fonction continue par un polynôme


FS

Soit une fonction : IR → IR continue donnée et soit t0 , t1 , t2 , ...., tn


(n + 1) points distincts donnés.

Nous cherchons maintenant à interpoler f par un polynôme p


de degré n aux points t0 , t1 , t2 , ...., tn c’est à dire nous cherchons un
polynôme p de degré n tel que :
p(tk ) = f (tk ), 0≤k≤n (4.11)

Merci de nous rendre visite sur


http://fso.umpoujda.com/
4.4. Existance et unicité de l’interpolant

Si f (t) est donnée, alors en posant p j = f (t j ), 0 ≤ j ≤ n et en suivant


ce qui est fait dans la relation (4.3), nous obtenons

p(t) = p0ϕ0 (t) + p1ϕ1 (t) + ..... + pnϕn (t) = ∑nj=0 p jϕ j (t),

où ϕ j , 0 ≤ j ≤ n forment une base de Lagrange de IPn associée aux


points t0 , t1 , t2 , ...., tn .

M
La solution du point (4.11) est donc définie par :

O
p(t) = ∑nj=0 f (t j )ϕ j (t) ∀t ∈ IR (4.12)

C
Définition 1.2 : On dira que le polynôme p défini par (4.12) est

A.
l’interpolant de f de degré n aux points t0 , t1 , t2 , ...., tn .
JD
Exemple 3 : Soit f (t) = et . Trouver l’interpolants de f de degré 2
aux points t0 = −1, t1 = 0, t2 = 1.
U
Soit maintenant une fonction :[a, b] → IR continue et donnée sur
PO

un intervalle [a, b] . Soit n un entier positif et considérons le cas où


tous les points [a, b], 0 ≤ j ≤ n, sont équidistribués dans [a, b], c’est à
dire t j = a + jh, 0 ≤ j ≤ n, avec h = b−n a . Soit p l’interpolant de f de degré
M

n aux points t0 , t1 , t2 , ...., tn que nous noterons pn pour montrer qu’il


dépend bien de n choisi au départ. D’aprés (4.12), pn est défini par
.U

pn (t) = ∑nj=0 f (t j )ϕ j (t) ∀t ∈ IR (4.13)


O

où (ϕ0 , ..., ϕk , ...., ϕn ) est la base de Lagrange de IPn associée aux


points t0 , t1 , t2 , ...., tn . On peut montrer le résultat suivant :
FS

4.4 Existance et unicité de l’interpolant

1.51 Théorème 1 : Il existe un polynôme pn unique de degré


≤ n, interpolant f en (n+1) points, c’est à dire tel que :
p(tk ) = f (tk ) pour 0 ≤ k ≤ n.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
4.4. Existance et unicité de l’interpolant

Preuve : Existence :
Soit
(t−t0 )(t−t1 )................(t−ti−1 )(t−ti+1 )..........(t−tn )
Li ( t ) = (t −t
i 0 )(ti −t1 )................ (ti −tk−1 )(ti −ti +1 ).......... (ti −tn )

pn (t) = ∑nj=0 f (t j ) L j (t) pour 0 ≤ j ≤ n, on a Li (t j ) = δi j


et par conséquent p n ( ti ) = f ( ti ) .

Unicité :

M
Supposons qu’il existe deux polynômes pn et qn de degré ≤ n,

O
interpolant f aux points t0 , t1 , t2 , ...., tn , en posant
dn = pn −qn , on arrive à une contradiction. En effet, dn est un polynôme

C
de degré ≤ n et par conséquent il peut avoir au plus n zéros, mais

A.
d’autre part dn (tk ) = 0, pour 0 ≤ k ≤ n ce qui voudrait dire que dn
aurait n + 1 zéros d’où la contradiction donc pn = qn . JD
1.5.2 Erreure d’interpolation.
U
1.5.2.1 Théorème : Soit pn le polynôme interpolant de f aux
PO

points a = x0 < x1 < ........ < xn = b, si f est de classe Cn+1 sur [a, b] alors :
a. ∀x ∈ [a, b], il existe Θ = Θ(x) ∈ [a, b] tel que :
M

en ( x) = f ( x) − pn ( x) = ( f (n+1) (Θ)/(n + 1)!)Πn+1 ( x)

avec
.U

Πn+1 ( x) = ∏in=0 ( x − xi )
O

b. En posant
FS

Mn+1 = max f (n+1) (Θ)


x∈[ a,b]

On obtient :
Mn+1
max | f ( x) − pn ( x)| ≤ (n+1)! x∈[ a,b] | n+1
max Π ( x)|
x∈[ a,b]

et en particulier : M
max | f ( x) − pn ( x)| ≤ (n+n+11)! (b − a)n+1 .
x∈[ a,b]

Merci de nous rendre visite sur


http://fso.umpoujda.com/
4.4. Existance et unicité de l’interpolant

Lemme 1 : Soit f une fonction définie sur [a, b] à valeurs dans IR


dérivable sur [a, b], si f possède au moins n + 2 zéros distincts sur
0
[ a, b], alors f = f (1) possède au moins n + 1 zéros distincts sur [ a, b] .

Il suffit d’appliquer le théorème de Rolle entre deux zéros


consécutifs de f .

Corolaire 1 : soit f une fonction de classe Cn+1 sur [a, b] . Si f

M
possède au moins n+2 zéros distincts sur [a, b] alors f (n+1) possède

O
au moins 1 zéros sur [a, b] .
Il suffit de faire une récurrence en appliquant le Lemme 1

C
précédent.

A.
Preuve du théorème : Si x = xi , le résultat est évident. JD f ( x)− pn ( x)
Si x 6= xi , posons ; R(t) = f (t) − pn (t)− Πn+1 ( x )
Πn+1 ( t ) .

on vérifie alors que R ∈ Cn+1 [a, b] et que :


U
f ( x)− pn ( x)
R( xi ) = f ( xi ) − pn ( xi )− Πn+1 ( xi ) = 0, i = 1, 2, ....., n
PO

Πn+1 ( x )

et
M

R( x) = en ( x) − en ( x) = 0.
.U

Par conséquent, R admet au moins n+2 zéros distincts sur


[ a, b], en appliquant le corolaire précédent, on montre que R(n+1)
O

possède au moins 1 zéros sur [a, b] , c’est à dire qu’il existe Θ ∈ [a, b]
FS

tel que R(n+1) (Θ)= 0,


et donc :

en ( x) = ( f (n+1) (Θ)/(n + 1)!)Πn+1 ( x)

ce qui implique que max |Πn+1 ( x)|


x∈[ a,b]
max |en ( x)| ≤ (n+1)!
Mn+1 .
x∈[ a,b]

Merci de nous rendre visite sur


http://fso.umpoujda.com/
4.4. Existance et unicité de l’interpolant

2 Interpolation de Newton :

2.1.1 Définition : différences divisées soit f une fonction définie


sur [a, b] à valeurs dans IR dérivable sur [a, b] contenant (n+1) points
distincts t0 , t1 , t2 , ...., tn .
On définit les différences divisées d’ordre i de f aux points (xk )
comme suit :

M
f [ x0 ] = f ( x0 )
f ( x1 )− f ( x0 )

O
f [ x0 , x1 ] = x1 − x0

C
.

A.
f [ x1 ,x2 ,.......,xi ]− f [ x0 ,x1 ,.......,xi−1 ]
f [ x0 , x1 , ......., xi ] = xi − x 0 pour i ≥ 2.

Exemple : x0 = −1, x1 = 1, x2 = 1, f (x0 ) = 2,


JD f ( x1 ) = 1, f ( x2 ) = −1,

on obtient :
U
f [ x0 ] = 2
PO

f [ x0 , x1 ] = −1

f [ x1 ] = 1

f [ x2 ] = −1
M

f [ x1 , x2 ] = −2
.U

f [ x0 , x1 , x2 ] = −0.5.

2.1.2 Propriétés : La valeur d’une différence divisée est indépendante


O

de l’ordre de xi ;
FS

f ( x1 )− f ( x0 ) f (x ) f (x )
f [ x0 , x1 ] = x1 − x0 = f [ x1 , x0 ] = x0 −0x1 + x1 −1x0
f ( x0 ) f ( x1 ) f ( x2 )
f [ x0 , x1 , x2 ] = ( x0 − x1 )( x0 − x2 )
+ ( x1 − x0 )( x1 − x2 )
+ ( x2 − x0 )( x2 − x1 )
= f [ x0 , x1 , x2 ]

= f [ x1 , x2 , x0 ] = f [ x2 , x1 , x0 ] .

De façon générale :
f [ x1 ,x2 ,.......,xi ]− f [ x0 ,x1 ,.......,xi−1 ]
f [ x0 , x1 , ......., xi ] = xi − x 0
f ( x0 ) f ( x1 ) f ( xi )
= + + ....... + (x −x .
( x0 − x1 )( x0 − x2 )......( x0 − xi ) ( x1 − x0 )( x1 − x2 ).........( x1 − xi ) i 0 )( xi − x2 )......... ( xi − xi −1 )

Merci de nous rendre visite sur


http://fso.umpoujda.com/
4.4. Existance et unicité de l’interpolant

2.1.3 Interpolant de Newton : On appelle interpolant de newton


le polynôme pn donné par :
pn ( x) = f [ x0 ] + f [ x0 , x1 ] ( x − x0 ) + f [ x0 , x1 , x2 ] ( x − x0 )( x − x1 ) + ...

...... + f [ x0 , x1 , .., xn ] ( x − x0 )( x − x1 )...( x − xn−2 )( x − xn−1 ).

Exemple : x0 = −1, f ( x0 ) = 2, x1 = 0, f ( x1 ) = 1, x2 = 1, f ( x2 ) = −1.

M
f [ x0 ] = 2

O
f [ x0 , x2 ] = −1

C
f [ x1 , x2 ] = −2

A.
f [ x0 , x1 , x2 ] = −0.5

pn ( x) = 1 − 1.5x − 0.5x2 . JD
2.1.5 Base de Newton : Soient t0 , t1 , t2 , ...., tn (n + 1) points deux
à deux distincts d’un intervalle [a, b] de IR et les polynômes Ni
U
définis par
PO

N0 ( x) = 1, N 1 ( x) = ( x − x0 )

Ni ( x) = ( x − x0 )( x − x1 )........( x − xn−2 )( x − xi−1 ) i = 1, 2, ....., n.


M

3.1.6 Les polynômes Ni ont les propriétés suivantes : 1. Ni est


.U

un polynôme degré i
O

2. Pour i ≥ 1, Ni (x) admet t0 , t1 , t2 , ...., ti−1 comme racines.


3. La famille { N0 ( x), ......., N n ( x)} est une base de IPn dite base de
FS

Newton.

Preuve : 1. est évidente d’aprés la définition de Ni (x)


2. est évidente d’aprés la définition de Ni
3. Il suffit de montrer que la famille { N0 (x), ......., N n (x)} est libre.
Soient c0 , c1 , ........, cn des constantes telles que

Merci de nous rendre visite sur


http://fso.umpoujda.com/
4.4. Existance et unicité de l’interpolant

∑in=0 ci Ni ( x) = 0

comme les xi sont supposés deux à deux distincts, on a


0 = ∑in=0 ci Ni ( x0 ) = c0

0 = ∑in=0 ci Ni ( x1 ) = c0 N0 ( x1 ) + c1 N1 ( x1 ) = c1 ( x1 − x0 ) ⇒ c1 = 0, car x1 6= x0

.
.

M
0 = ∑in=0 ci Ni ( xn ) = cn N1 ( xn ) = cn ( xn − x0 )( xn − x1 )........( xn − xn−2 )( xn − xn−1 ) ⇒ cn = 0,

car les xi sont deux à deux distincts.

O
d’où le résultat.

C
2.1.7 Théorème : Soit f une fonction numérique définie sur un

A.
intervalle [a, b] . JD
Soit pn un polynôme interpolant de f en (n+1) points x0 , x1 , ........, xn ∈ [a, b] .
a. on peut exprimer pn (x) comme combinaison linéaires des
Ni ( x) de la base de Newton :
U
PO

pn ( x) = ∑in=0 Di Ni ( x).

on

obtient le système triangulaire inférieur suivant : 
 pn ( x0 ) = D 0 = f ( x0 )
M


 


 

 
p ( x ) = D 0 + D 1 N1 ( x1 ) = f ( x1 ) 
 
 n 1

 
 

.U

. ( S1 )

 

 
.

 


 

O


 

pn ( xn ) = D 0 + D 1 N1 ( xn ) + D 2 N2 ( xn ) + ........ + D n Nn ( xn ) = f ( xn )

 

Les Di solutions du système ( S1 ) sont données par


FS

D0 = f [ x 0 ]

D1 = f [ x 0 , x 2 ]

.
.
.
f [ x1 ,x2 ,.......,xi ]− f [ x0 ,x1 ,.......,xi−1 ]
Di = xi − x 0 = f [ x0 , ..., xi ] pour i ≥ 2.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
4.4. Existance et unicité de l’interpolant

2.1.8 Exemple : Soit la fonction f telle que


x 0.15 2.30 3.15 4.85 6.25 7.95
f ( x) 4.79867 4.49013 4.2243 3.47313 2.66674 1.51909

Les coeffficients du polynôme interpolant de f dans la base de


Newton sont :
D0 = 4.798670, D 1 = −0.143507, D 2 = −0.056411, D 3 = 0.001229,

M
D4 = 0.000104,

O
D5 = −0.000002.

C
A.
JD
U
PO
M
.U
O
FS

Merci de nous rendre visite sur


http://fso.umpoujda.com/
Chapitre 5

Dérivation et intégration numérique

M
O
5.1 Dérivation numérique

C
Dans ce paragraphe, la fonction n’est bien sûr pas connue par

A.
une formule explicite mais :
JD
- ou bien par ses valeurs sur un ensemble discret (en supposant
que les points sont assez proches pour que la notion de dérivée
ait un sens).
U
- ou bien, le plus souvant, par algorithme de calcul ou une
PO

formule compliquée qui permet, au moins en théorie, de la calculer


en tout point. On suppose bien sûr que la dérivée n’est pas
accessible par un procédé analogue.
M
.U

5.1.1 Dérivée première :


O

Supposons qu’on veuille calculer une valeur approchée de


0
f ( xi ).Une première idée, consiste à remplacer f par un polynôme
FS

d’interpolation au voisinage du point xi et on dérive celui-ci.


Les formules vont varier en fonction du nombre des points
qu’on choisit pour écrire le polynôme d’interpolation (en général
2 ou 3).
Dans toute la suite, on supposera f connue ou calculable aux
points ....., xi−2 , xi−1 , xi , ......qu0 on supposera proches. On notera hi = xi+1 −xi .

Merci de nous rendre visite sur


http://fso.umpoujda.com/
5.1. Dérivation numérique

5.1.1 Formules à deux points : Le polynôme d’interpolation


sur les deux points xi ,xi+1 s’écrit :
p ( x ) = f ( xi ) + f [ xi , xi +1 ] ( x − xi )

On a donc p0 (x) = f [xi , xi+1 ] , ce qui fournit la formule à droite


0 f ( xi+1 )− f ( xi )
f ( xi ) ' xi +1 − xi (5.1)

On a bien sûr aussi la formule à gauche

M
0 f ( xi )− f ( xi−1 )

O
f ( xi ) ' xi − xi −1 (5.2)

C
5.1.2 Formules à de 3 points : On choisit d’interpoler sur les
points xi−1 , xi , xi+1 (ce qui est normalement plus satisfaisant). Dans

A.
ce cas on a JD
p( x) = f ( xi ) + f [ xi , xi+1 ] ( x − xi ) + f [ xi−1, xi , xi+1 ] ( x − xi−1 )( x − xi ) (5.3)

Donc
U
0
p ( x) = f [ xi−1 , xi ] + f [ xi−1, xi , xi+1 ] ( x − xi−1 )( xi − xi−1 )
PO

ce qui fournit, après simplification la formule centrée avec :

hi = xi +1 − xi (5.4)
M

0 f ( xi+1 )− f ( xi−1 )
f ( xi ) ' (5.5)
.U

2h
O

Remarque : La formule ci-dessus n’est autre la moyenne des


deux formules décentrés dans le cas équidistants (hi = xi+1 −xi ).
FS

5.1.3 Erreur : Pour le calcul théorique de l’erreur commise quand


on remplace f (xi ) par d’une des formules approchées ci-dessus
on a :
0 f ( xi )− f ( xi−1 )
f ( xi )− xi − xi −1 ≤ M2 2h
0 f ( xi+1 )− f ( xi−1 ) 2
f ( xi )− 2h ≤ M3 h6 Mi = max f (i) ( x)
[ a,b]

Merci de nous rendre visite sur


http://fso.umpoujda.com/
5.2. Intégration numérique.

5.1.2 Dérivées d’ordre supérieure :

Le principe est exactement le même, il faut simplement prendre


garde que le degré du polynôme d’interpolation soit suffisant
pour que sa dérivée n-ième soit non nulle !
Par exemple, pour la dérivée seconde, on choisit en général
d’interpoler sur 3 points, ce qui donne

M
Dérivée seconde : points équidistants

O
00 f ( xi+1 )+ f ( xi−1 )+2 f ( xi )
f ( xi ) '

C
h2

avec une erreur

A.
00 f ( xi+1 )+ f ( xi−1 )+2 f ( xi ) 2
f ( xi ) − h2
JD h
≤ M4 12
U
5.2 Intégration numérique.
PO

5.2 Généralités : Nous avons pour but de calculer numériquement


des intégrales définis. Soit f : [a, b] → IR une fonction continue donnée
sur [a, b]. Nous désirons approcher numériquement la quantité
M
.U

Rb
a f ( x)dx (5.2.1)

Pour ce faire, nous commençons par partitionner [a, b] en petits


O

intervalles [xi , xi+1 ], i = 0, 1, 2....., N tels que :


FS

a < x0 < x1 < ...... < x N < b (5.2.2)

Soit

h = max | xi+1 − xi |
0 ≤i ≤ N − 1

Merci de nous rendre visite sur


http://fso.umpoujda.com/
5.2. Intégration numérique.

Le réel positif caractérisant la finesse de la partition. Il est clair


que, N augmente, nous pouvons nous placer les points xi de
sorte à ce que h soit petit. Lorsqu’aucune raison nous incite à
choisir des intervalles de longueurs différentes, nous posons
h = b−
N
a
et xi = a + ih, i = 0, 1, ..., N.
Etant donné la partition (5.2.2), il est naturel d’écrire :

M
Rb R xi +1
a f ( x)dx = ∑iN=−0 1 xi f ( x)dx (5.2.3)

O
ce sont ainsi les intégrales

C
R xi +1
xi f ( x)dx

A.
que nous allons approcher dans la suite par des formules appelées
”formules de quadrature”. Mentionnons encore que souvant,
JD
pour donner des formules de quadrature sur un intervalle standart
(par exemple [−1, 1] ,on exécute un changement de variable de la
U
forme :
PO

t = 2 x x−−xix −1 (5.2.4)
i +1 i

qui, à x ∈ [xi , xi+1 ], fait correspendre t ∈ [−1, 1] Avec ce changement


M

de variable, nous obtenons :


.U

x = xi +( xi+1 − xi ) t+2 1 (5.2.5)


O

et par la suite
FS

R xi +1 R1
xi f ( x)dx = ( xi+1 − xi ) 21 −1
gi (t)dt (5.2.6)

gi (t) = f ( xi +( xi+1 − xi ) t+2 1 ), t ∈ [−1, 1] (5.2.7)


Nous somme maintenant en mesure de définir la notion de la
formule de quadrature pour approcher numériquement −11 gi (t)dt,
R

gi étant une fonction continue sur [−1, 1] .

Merci de nous rendre visite sur


http://fso.umpoujda.com/
5.2. Intégration numérique.

Définition 5.1 : Si gi est une fonction sur [−1, 1], la formule de


quadrature pour approcher numériquement :

J ( gi ) = ∑ M
j=1 w j gi ( t j ) (5.2.8)
dé f

est définie par la donnée de M points −1 ≤ t1 < ..... < t M ≤ 1 appelées


points d’intégration et M nombres réels w1 , ...., w M appelés poids

M
de la formule de quadrature. Ces M points et M poids devront
être cherchés de façon à ce que J ( gi ) soit une approximation

O
numérique de −11 gi (t)dt.
R

C
Nous remarquons que la formule (5.2.8) est linéaire. En effet,
si gi et li sont deux fonctions continues données sur l’intervalle

A.
[−1, 1] et si α et β ∈ IR, nous vérifions facilement que :JD
J ( gi +l i ) = α J ( gi ) + βJ (l i ).
U
Exemple 5.1 : Un exemple classique est la formule à 2 points
PO

( M = 2) :

t1 = −1, t2 = 1, w1 = 1, w2 = 1
M

et donc
.U

J ( gi ) = gi (−1) + gi (1) (5.2.9).


O

Nous remarquons que J ( gi ) correspond à l’aire du trapèze hachuré


FS

de la figure (5.2).Par conséquent, approcher −11 gi (t)dt par J ( gi ) correspond


R

à approcher l’aire sous le graphe de gi par l’aire du trapèze


hachuré. Pour cette raison, la formule de quadrature (5.2.9) est
appelée ”formule du trapèze”.

fig.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
5.2. Intégration numérique.

Dans les sections suivantes, nous construisons d’autres formules


de quadrature que la formule du ”trapèze”.
Dans, l’égalité (3.7) nous approchons par Ainsi la
R1
−1
gi (t)dt J ( gi ) .
quantité xxii+1 f (x)dx est approchée par :
R

( xi +1 − xi ) t+1
2 ∑M
j=1 w j f ( xi + ( xi +1 − xi ) 2 ) (3.11)

M
et donc nous allons approcher f ( x)dx par la formule dite ”formule
Rb
a

composite” :

O
C
( xi +1 − xi )
Lh ( f ) = ∑iN=−1 1 2 ∑M t+1
j=1 w j f ( xi + ( xi +1 − xi ) 2 ) (3.12)

A.
Exemple 3.2 : t1 = −1, t2 = 1, w1 = 1, w2 = 1. La formule composite (3.12)
s’écrit :
JD
( xi +1 − xi )
Lh ( f ) = ∑iN=−1 1 2 [ f ( xi ) + f ( xi+1 )] (3.13).
U
La formule composite (3.1) est facile à interpréter graphiquement,
PO

la quantité Lh ( f ) correspond à l’aire hacuée de la fig. 3.2

Fig 3.2 Formule du trapèze.pour approcher dans le cas


Rb
f ( x)dx
M

N = 4.
.U

En régle générale nous pouvons procéder de la manière suivante


O

pour approcher la quantité ab f (x)dx par la quantité Lh ( f ) ; on définit


R
FS

une formule de quadrature par la donnée de M points t1 < ..... < t M


et M poids w1 , ....., w M (ces points et ces poids sont reprertoriés
dans des tables numériques ou logiciels de calcules) ; on partitionne
l’intervalle [a, b] en intervalles [xi , xi+1 ] les xi satisfaisant (3.2) et on
calcule Lh ( f ) par la formule composite (3.12).
Avant de montrer comment construire des formules de quadrature,
définissons une propriété de J ( gi ).

Merci de nous rendre visite sur


http://fso.umpoujda.com/
5.2. Intégration numérique.

Définition 3.2 : On dira que la formule de quadrature :

J ( gi ) = ∑ M
j=1 w j gi ( t j ) .
dé f

Pour calculer numériquement −11 gi (t)dt est exacte pour tout polynôme
R

de deg r ≥ 0 si J ( p) = −11 p(t)dt, pour tout polynôme de deg ≤ r.


R

Lorsque la formule de quadrature. J ( gi ) satisfait la propriété de

M
la définition (3.2), il est possible d’estimer l’erreur entre la valeur

O
exacte ab f (x)dx et la valeur approchée Lh ( f ), pour autant que f soit
R

assez régulière.

C
A.
Théorème 3.1 : Supposons que le formule de quadrature :

J ( gi ) = ∑ M
JD
j=1 w j gi ( t j )
dé f
U
pour calculer numériquement −11 gi (t)dt soit exacte pour des polynômes
R

deg = r. Soit f une fonction donnée sur [ a, b], soit Lh ( f ) la formule


PO

composite définie par (3.12) et soit h la quantité définie par (3.3).


Alors si f est assez régulière (i.e (r + 1) fois continûment dérivable
sur [a, b], il existe une constante C indépendante du choix des
M

points xi telle que :


.U

Rb
a f ( x)dx − Lh ( f ) ≤ Chr+1 (3.14)
O
FS

Exemple 3.3 : Considérons l’exemple de la formule du trapèze


(3.10) ainsi que la formule composite Lh ( f ) (3.13) qui en découle.
Clairement si p est un polynôme de deg = r = 1,c’est à dire p(t) = α + βt o
α et β ∈ IR.Il est facile de vérifier que lorsque la formule de quadrature
définie par (3.10), alors
R1
J ( p) = −1
p(t)dt

Merci de nous rendre visite sur


http://fso.umpoujda.com/
5.3. Poids d’une formule de quadrature.

Ainsi la formule du trapèze (3.10) pour calculer numériquement


g (t)dt est exacte pour tout polynôme de deg = r = 1.
R1
−1 i

Si l’intervalle est divisé en en N parties égales i.e h = b−Na ,


[ a, b]
xi = a + ih, i = 0, 1, ..., N et si f est C 2 [ a, b], alors le théorème (3.1) fournit
l’estimation d’erreur suivante :
Rb
a f ( x)dx − Lh ( f ) ≤ Ch2 (3.15)

M
où C ne dépend ni de N ni de h. L’estimation (3.15) indique qu’en

O
principe, lorsqu’on utilise la formule (3.13) pour approcher numériquement
f ( x)dx, l’erreur est divisée par 4 chaque fois que N est multiplié
Rb

C
a

par 2!

A.
En fait, l’inégalité (3.14) montre que , lorsque la partition est
finie (h petit), l’erreur obtenue en approchant ab f (x)dx par Lh ( f ) est
R JD
petite. Cette erreur devient d’autant plus petite avec h et que r
est grand.
U
Il est donc légitime de chercher des points d’intégration t j et
PO

w j , j = 1, ..., M; de sorte que la formule de quadrature J (.) soit exacte


pour des polynômes de deg = r aussi élevé que possible.
M
.U

5.3 Poids d’une formule de quadrature.

Dans cette section, nous supposons donnés M points d’integration


O

distincts dans [−1, 1]


FS

−1 < t1 < ..... < t M < +1


et nous cherchons à déterminer les poids w j , j = 1, ..., M, de sorte
que la formule de quadrature J ( g) d=é f ∑ Mj=1 w j g(t j ) soit exacte pour
des polynômes de deg = r aussi élevé que possible.
Pour réaliser cet objectif, considérons la base de Lagrange ϕ1 , ϕ2 , ..., ϕ M
de IP M−1 associée aux points t1 , ....., t M .

Merci de nous rendre visite sur


http://fso.umpoujda.com/
5.3. Poids d’une formule de quadrature.

Par définition, ϕk est le polynôme de deg = M − 1 défini par :


(t−t0 )(t−t1 )................(t−tk−1 )(t−tk+1 )..........(t−tn )
ϕk ( t ) = (t j = 1, ..., M (3.16)
k −t1 )(tk −t2 )................ (tk −tk−1 )(tk −tk+1 ).......... (tk −tn )

Soit g : [−1, 1] −→ IR une fonction continue donnée. Son interpolant



g de deg = M − 1 aux points t1 , ....., t M est défini par :


g (t) = ∑ M
j=1 g ( t j )ϕ j ( t )

M
R1 ∼
Il semble naturel de remplacer par g (t)dt,puisque
R1
−1
g(t)dt −1

O
R1 ∼ R1
−1
g (t)dt = ∑ M
j=1 g ( t j ) −1
ϕ j (t)dt,

C
nous constatons qu’il suffit de poser

A.
R1
w j= −1
ϕ j (t)dt
JD
pour que J ( g) d=é f ∑ Mj=1 w j g(t j ) soit une approximation de
R1
−1
g(t)dt.
U
Théorème 3.2 : Soit t1 < ..... < t M M points distincts de [−1, 1] et soit
PO

(ϕ1 , ϕ2 , ..., ϕ M ) la base de Lagrange de IP M−1 assoviée à ces M points.


Alors la formule de quadrature :
M

J ( g) = ∑ M
j=1 w j g ( t j )
.U

est exate pour les polynômes de deg = M − 1 si et seulement si


R1
O

w j= −1
ϕ j (t)dt, j = 1, ..., M (3.17)
FS

Preuve : i) Montrons que si la formule de quadrature J (.) est


exate pour les polynômes de deg = M − 1, alors on a les relations
(3.17). Puisque
R1
J ( g) = ∑ M
j=1 w j p ( t j ) = −1
p(t)dt
pour tout polynôme p ∈ IP M−1 , nous pouvons choisir p = ϕk , k = 1, ..., M
et nous obtenons

Merci de nous rendre visite sur


http://fso.umpoujda.com/
5.3. Poids d’une formule de quadrature.

R1
J (ϕk ) = ∑ M
j=1 w jϕk ( t j ) = −1
ϕk (t)dt

puisque ϕk (t j ) = δk j , nous avons bien,


R1
wk = −1
ϕk (t)dt

ii) Montrons maintenant que si les relations (3.17) sont satisfaites,


alors la formule de quadrature J (.) est exate pour les polynômes

M
de deg = M − 1.

O
Soit p ∈ IP M−1 que nous développons dans la base de Lagrange

C
de IPM−1 associé aux points t1 , ....., t M , i.e

A.
p(t) = ∑ M
j=1 p ( t j )ϕ j ( t )

Ainsi donc
JD
R1 R1
p(t)dt = ∑ M ϕ j (t)dt = ∑ M
U
−1 j=1 p ( t j ) −1 j=1 p ( t j ) w j = J ( p ) .
PO

Remarque 3.1 : Les relations (3.17) nous permettent donc de


calculer les poids wk , k = 1, ..., M, d’une formule de quadrature,étant
donné les points d’intégration t1 , ....., t M .De plus, ∑ Mj=1 ϕk (t j ) est le
M

polynôme de deg = M − 1 qui vaut 1 aux points t1 , ....., t M , et est donc


.U

la fonction identique à 1.
Par conséquent, nous obtenons, en utilisons (3.17)
O

R1 R1
∑M
j=1 w j = ( ∑M
j=1 ϕk ( t j ) dt = dt = 2.
FS

−1 −1

Ce qui prouve que la somme des poids caclculés par (3.17) est
toujours égale à 2.

Merci de nous rendre visite sur


http://fso.umpoujda.com/
5.3. Poids d’une formule de quadrature.

Exemple 3.4 : M = 2, t1 = −1, t2 = 1 (formule du trapèzes) et explicitons


la base de Lagrange ϕ1 , ϕ2 associée aux points t1 , t2 :
ϕ1 (t) = 0.5(1 − t) et ϕ1 (t) = 0.5(1 + t)

La relation (3.17) s’écrit :


w1 = −11 ϕ1 (t)dt = 1 et w2 = −11 ϕ2 (t)dt = 1.
R R

Le théorème 3.2 nous assure que les formules de quadratures


construites grâce à (3.17) sont exactes pour les polynômes de deg

M
= r, avec r plus grand que M − 1.

O
Dans la suite nous verrons qu’il se peut que ces formules de

C
quadratures soient exactes pour les polynômes de deg = r, avec r
plus grand que M − 1.

A.
3.3 Formule du rectangle : La formule du rectangle est une
JD
formule à un seul point ( M= 1) : t1 = 0

La base de Lagrange de IP0 associée à t1 est donnée par


U
ϕ1 (t) = 1 ∀t ∈ [−1, 1]
PO

Ainsi (3.17) nous donne


R1
w1 = −1
ϕ1 (t)dt = 2
M

et la formule du rectangle devient


.U

J ( g) = 2g(0) (3.18)
O

On interprète la formule du rectangle (3.18) de la façon suivante :


Elle consiste à remplacer −11 g(t)dt par l’aire du rectangle de base
R
FS

[−1, 1] et de hauteur g(0) ( f ig3.3), d’où son nom. Selon le théorème


3.2, cette formule de quadrature est exacte pour tout polynôme
de degré 0, mais en fait elle est meillleure, elle est exacte pour
tout polynôme p ∈ IP1 défini par p(t) = αt + β, où α, β ∈ IR.
Il est alors facile de vérifier que −11 p(t)dt = 2β = 2p(0).
R

Si nous utilisons la formule du rectangle dans la formule composite


(3.12), nous obtenons
Merci de nous rendre visite sur
http://fso.umpoujda.com/
5.3. Poids d’une formule de quadrature.

xi +1 + xi
Lh ( f ) = ∑iN=−1 1 ( xi+1 − xi ) f ( 2 ) (3.19)

et l’estimation (3.14) du théorème (3.1)


Rb
a f ( x)dx − Lh ( f ) ≤ Ch2 (3.20)

L’interprétation géométrique de (3.19) est la suivante :


On somme les aires des rectangles dont la base est le segment

M
[ xi , xi+1 ] et dont la haureur est f (ζ i ), où ζi est le milieu de [ xi , xi+1 ].

O
fig 3.3 Formule du rectangle sur [−1, 1]

C
3.4 Formule de Simpson : La formule de Simpson est une formule

A.
à trois points : M = 3, t1 = −1, t2 = 0, t3 = 1.
La base de Lagrange ϕ1 , ϕ2 , ϕ3 de JD IP2 associée aux 3 points t1 , t2 , t3
s’écrit
ϕ1 (t) = 0.5(t2 −t), ϕ2 (t) = (1 − t2 ), ϕ3 (t) = 0.5(t2 +t)
U
Les relations (3.17) deviennent alors :
PO

R1 R1 R1
w1 = −1
ϕ1 (t)dt = 31 , w2 = −1
ϕ2 (t)dt = 43 , w3 = −1
ϕ3 (t)dt = 31

La formule de Simpson s’écrit donc :


M

J ( g) = 13 g(−1)+ 43 g(0)+ 13 g(1) (3.21)


.U

Elle est une moyenne pondérée entre la formule du trapèze


(poids 13 ) et la formule du rectangle ( poids 23 ).Si nous utilisons cette
O

formule de quadrature dans (3.12), nous obtenons :


FS

h i
Lh ( f ) =∑iN=−1 1 (xi+16−xi ) x +x
f ( xi ) + 4 f ( i+12 i ) + f ( xi +1 ) (3.22)

D’après le théorème 3.2, la formule de Simpson est exacte


pour tout polynôme de deg = r = 2. En fait, elle est exacte pour
tout polynôme de deg = r = 3.
En effet, si g(t) = t3 , alors J ( g) = 0 et L’estimation (3.14)
R1
−1
g(t)dt = 0.
du théorème 3.2 devient donc :

Merci de nous rendre visite sur


http://fso.umpoujda.com/
5.3. Poids d’une formule de quadrature.

Rb
a
f (t)dt − Lh ( f ) ≤ Ch4 .

La formule de Simpson donne une erreur d’ordre h4 . Cette


formulle est souvent utilisée dans la pratique car Lh ( f ) converge
rapidement vers ab f (t)dt lorsque h → 0.
R

M
O
C
A.
JD
U
PO
M
.U
O
FS

Merci de nous rendre visite sur


http://fso.umpoujda.com/

Vous aimerez peut-être aussi