CHAPITRE 2.
METHODES NUMERIQUES DE RESOLUTION DES SYSTEMES
D’EQUATIONS LINEAIRES (suite)
I INTODUCTION
II METHODES DIRECTES DE RESOLUTION DES SEL
II.1 SYSTEMES FACILES A RESOUDRE
II.2 PRINCIPE DES METHODES DIRECTES
II.3 METHODES D’ELIMINATION DE GAUSS ET FACTORISATION LU
On considère le SEL suivant :
( )
où ( ) est une matrice carrée d’ordre inversible, et sont des
vecteurs de taille , étant le vecteur inconnu.
II.3.1 PRINCIPE DE LA METHODE DE GAUSS
Le principe de la méthode directe de Gauss consiste à transformer à
l'aide des opérations élémentaires sur les lignes, le SEL (1) en un
système équivalent dont la matrice est triangulaire supérieure. Le
système triangulaire obtenu est alors résolu en appliquant la méthode
de la Remontée. Cette méthode procède généralement en deux grandes
étapes : l’élimination de Gauss qui s'opère en effectuant des opérations
élémentaires (échange et addition) sur les linges de la matrice
augmentée du système (1), et la résolution du système triangulaire
obtenu.
L’étape d’élimination de Gauss s’opère en construisant une suite finie de
SEL équivalents
( ) ( ) ( ) ( ) ( ) ( )
où ( ) , ( ) , et ( ) est sup-triangulaire.
II.3.1 ELIMINATION SANS ECHANGE
On suppose que (si tel n’est pas le cas on procède à une échange
de ligne de sorte que la propriété soit vérifiée et l’élimination n’est plus
sans échange). On souhaite éliminer l’inconnue de la deuxième à la
dernière équation. Ceci est obtenu en retranchant à la ligne du système,
la première ligne de celui-ci multipliée par le coefficient . En désignant
par ( .. ) la ligne du système, on effectue les opérations
suivantes :
( ) ( )
Les coefficients de la matrice et du vecteur sont alors donnés
par :
( ) ( )
( )
De même, en supposant que , on peut éliminer l'inconnue de
la troisième à la dernière équation en procédant comme suit:
( )
( )
.
( ) ( )
Ainsi, les coefficients de la matrice et du vecteur sont alors
donnés par :
( ) ( ) ( ) ( )
( )
( ) ( )
( )
( )
.
( ) ( ) ( )
( )
( ) ( )
A l'issu de l'étape , la matrice du système a la forme
( )
En supposant que , le passage de l'étape a l'étape
s'effectue comme suit:
( )
( )
.
( ) ( )
Ainsi, les coefficients de la matrice et du vecteur sont alors
donnés par :
( ) ( ) ( ) ( )
( )
( ) ( )
( )
( )
.
( ) ( ) ( )
( )
* De la nécessité de permuter les lignes
On considère le SEL , où la matrice est donnée par
Cette matrice est bien inversible, mais la méthode d'élimination de Gauss
sans échange de ligne n'est pas applicable.
Considérons cet autre cas où
La matrice est inversible et on a
( )
et l'élimination s'interrompe a l'issue de la première étape, car .
Pour continuer le processus d'élimination, il devient nécessaire de
permuter les lignes deux et trois de la matrice. Ceci conduit a la méthode
d'élimination de Gauss avec échange ou avec pivot simple.
II.3.2 ELIMINATION AVEC ECHANGE (OU PIVOT SIMPLE)
- Passage de ( ) ( )
à ( ) ( )
: On suppose que la matrice
est inversible, alors il existe au moins un élément de la première colonne
qui est non nul. Si , on cherche tel que , et on
permute les lignes et 1 du SEL. Ainsi, l'élimination de l'inconnue
peut continuer comme dans le cas sans échange, pour obtenir le SEL
( ) ( )
.
-Passage de ( ) ( )
à ( ) ( )
: La matrice ( ) est
( )
inversible. Donc l'un au moins des ( ) est non nul.
( ) ( )
Ainsi, si , on peut trouver tel que .
On permute les lignes et du SEL et on procède comme dans le cas
sans échange, pour obtenir le SEL ( ) ( )
.
II.3.3 STRATEGIES DU CHOIX DU PIVOT (PIVOT PARTIEL, PIVOT TOTAL)
Une autre stratégie intermédiaire aux précédentes, connue sous le
( )
nom de rook pivoting , consiste a prendre pour pivot l'élément
( )
de la sous matrice ayant le plus grand module dans la
ligne et la colonne auxquelles il appartient
Remarque: Dans les stratégies du pivot total et du rook pivoting, si la
colonne du pivot est différente de la colonne , le positionnement du
pivot nécessite une permutation de colonne. ceci a pour effet de
réorganiser l'ordre des inconnues. A l'issue de la résolution du système
triangulaire, il faudra procéder a une remise en ordre des inconnues.
II.3.4 ALGORITHMES DES METHODES D'ELIMINATION DE GAUSS
a- Méthode d'élimination de Gauss sans échange
Algorithme: Elim_Gauss_sans_Pivot
Entrée(s): Tableau contenant la matrice A, tableau contenant b;
Sortie(s): Tableaux contenant la matrice et le second membre du système sup-triangulaire
Pour ( ) Faire
Si ( ) Alors
Pour ( ) Faire
( ) ( )
Pour ( ) Faire
( ) ( ) ( )
FinPour
() () ( )
FinPour
Sinon
Arrêt;
Finsi
FinPour
b- Méthode d'élimination de Gauss avec échange
Algorithme: Elim_Gauss_Pivot_Simple
Entrée(s): Tableau contenant la matrice A, tableau contenant b;
Sortie(s): Tableaux contenant la matrice et le second membre du système sup-triangulaire;
Pour ( ) Faire
Si ( ) Alors
Trouver un entier tel que et ( ) ;
Pour ( ) Faire
Echanger ( ) et ( );
FinPour
Echanger ( ) et ( );
FinSi
Pour ( ) Faire
( ) ( )
Pour ( ) Faire
( ) ( ) ( )
FinPour
() () ( )
FinPour
FinPour
c- Méthode d'élimination de Gauss avec stratégie du pivot partiel
Algorithme: Elim_Gauss_Pivot_Partiel
Entrée(s): Tableau contenant la matrice A, tableau contenant b;
Sortie(s): Tableaux contenant la matrice et le second membre du système sup-triangulaire;
Pour ( ) Faire
Trouver un entier tel que et ( ) ( ) ;
Pour ( ) Faire
Echanger ( ) et ( );
FinPour
Echanger ( ) et ( );
Pour ( ) Faire
( ) ( )
Pour ( ) Faire
( ) ( ) ( )
FinPour
() () ( )
FinPour
FinPour
c- Méthode d'élimination de Gauss avec stratégie du pivot Total
Algorithme: Elim_Gauss_Pivot_Total
Entrée(s): Tableau contenant la matrice A, tableau contenant b;
Sortie(s): Tableaux contenant la matrice et le second membre du système sup-triangulaire;
Vecteur contenant les permutation sur les colonnes. est initialisée a la permutation identité
Pour ( ) Faire
Trouver les entiers et tels que , et ( ) ( )
;
Echanger ( ) et ( );
Pour ( ) Faire
Echanger ( ) et ( );
FinPour
Pour ( ) Faire
Echanger ( ) et ( );
FinPour
Echanger ( ) et ( );
Pour ( ) Faire
( ) ( )
Pour ( ) Faire
( ) ( ) ( )
FinPour
() () ( )
FinPour
FinPour
d- Méthode d'élimination de Gauss avec stratégie du Rook pivoting
Algorithme: Elim_Gauss_Rook_Pivoting
Entrée(s): Tableau contenant la matrice A, tableau contenant b;
Sortie(s): Tableaux contenant la matrice et le second membre du système sup-triangulaire;
Vecteur contenant les permutation sur les colonnes. est initialisée a la permutation identité
Pour ( ) Faire
Echanger ( ) et ( );
Pour ( ) Faire
Echanger ( ) et ( );
FinPour
Pour ( ) Faire
Echanger ( ) et ( );
FinPour
Echanger ( ) et ( );
Pour ( ) Faire
( ) ( )
Pour ( ) Faire
( ) ( ) ( )
FinPour
() () ( )
FinPour
FinPour
II.3.5 FACTORISATION LU
1- Définitions
Définition: Factorisation LU- On dit que la matrice admet une
factorisation , s'il existe une matrice inf-triangulaire et une matrice
sup-triangulaire telles que .
Définition: Factorisation PLU- On dit que la matrice admet une
factorisation , s'il existe une matrice inf-triangulaire , une matrice
sup-triangulaire et une matrice de permutation telles que .
Définition: Factorisation PLUQ- On dit que la matrice admet une
factorisation , s'il existe une matrice inf-triangulaire , une matrice
sup-triangulaire et deux matrices de permutation et telles que
.
Définition: Sous matrice principale de A- Soit une matrice carrée
d'ordre . On appelle sous matrice principale d'ordre ( ) de
, la matrice carrée d'ordre définie
.
Définition: Mineur principal (fondamental) de A- Soit une matrice
carrée d'ordre . On appelle mineur principal ou fondamental
d'ordre ( ) de , le determinant de la sous matrice principale
d'ordre de :
det( ).
2. Résultats d'existence et d'unicité
Théorème: Existence de la factorisation LU.
Soit , une matrice inversible. admet une factorisation LU si et
seulement ses mineurs principaux sont tous non nuls.
Théorème: Unicité de la factorisation LU.
Soit , une matrice admettant une factorisation . Cette factorisation
est unique si on fixe les termes de la diagonale de l'une des matrice.
Remarque: On fixe généralement les termes de la diagonale de égaux a
1.
Théorème: Factorisation et .
Soit une matrice d’ordre inversible. Alors, il existe une matrice de
permutation (resp. des matrices de permutation et ) tenant
compte d’une stratégie de pivot partiel (resp. de pivot total ou de rook
pivoting), une matrice triangulaire inférieure , dont les éléments sont
inférieurs ou égaux à 1 en valeur absolue, et une matrice triangulaire
supérieure telles que
( . ).
3- Algorithmes de Factorisations LU et ses variantes
Algorithme: Facto_LU_sans_Pivot
Entrée(s): Tableau contenant la matrice A,
Sortie(s): la partie triangulaire inférieure stricte de la matrice L et la partie triangulaire
supérieure de la matrice U , stockées dans le tableau contenant la matrice A en entrée.
Pour ( ) Faire
Si ( ) Alors
Pour ( ) Faire
( ) ( ) ( )
Pour ( ) Faire
( ) ( ) ( ) ( )
FinPour
FinPour
Sinon
Arrêt;
Finsi
FinPour
Algorithme: Facto_PLU_Pivot_Partiel
Entrée(s): Tableau contenant la matrice A;
Sortie(s): le tableau P contenant les échanges de lignes, la partie triangulaire inférieure stricte
de la matrice L et la partie triangulaire supérieure de la matrice U de la factorisation P A = LU
étant stockées dans le tableau contenant la matrice A en entrée. P est initialisée a la
permutation identité;
Pour ( ) Faire
Trouver un entier tel que et ( ) ( ) ;
Pour ( ) Faire
Echanger ( ) et ( );
FinPour
Echanger ( ) et ( );
Pour ( ) Faire
( ) ( ) ( )
Pour ( ) Faire
( ) ( ) ( ) ( )
FinPour
FinPour
FinPour
Algorithme: Facto_PLUQ_Pivot_Total
Entrée(s): Tableau contenant la matrice A;
Sortie(s): les tableaux P et Q contenant respectivement les échanges de lignes et de colonnes, la partie
triangulaire inférieure stricte de la matrice L et la partie triangulaire supérieure de la matrice U de la
factorisation PAQ = LU étant stockées dans le tableau contenant la matrice A en entrée. P et Q sont
initialisées a la permutation identité
Pour ( ) Faire
Trouver les entiers et tels que , et ( ) ( )
;
Echanger ( ) et ( ); Echanger ( ) et ( );
Pour ( ) Faire
Echanger ( ) et ( );
FinPour
Pour ( ) Faire
Echanger ( ) et ( );
FinPour
Pour ( ) Faire
( ) ( ) ( )
Pour ( ) Faire
( ) ( ) ( ) ( )
FinPour
FinPour
FinPour
Algorithme: Facto_PLUQ_Rook_Pivoting
Entrée(s): Tableau contenant la matrice A, tableau contenant b;
Sortie(s): les tableaux P et Q contenant respectivement les échanges de lignes et de colonnes, la partie
triangulaire inférieure stricte de la matrice L et la partie triangulaire supérieure de la matrice U de la
factorisation PAQ = LU étant stockées dans le tableau contenant la matrice A en entrée. P et Q sont
initialisées a la permutation identité
Pour ( ) Faire
Echanger ( ) et ( ); Echanger ( ) et ( );
Pour ( ) Faire
Echanger ( ) et ( );
FinPour
Pour ( ) Faire
Echanger ( ) et ( );
FinPour
Pour ( ) Faire
( ) ( ) ( )
Pour ( ) Faire
( ) ( ) ( ) ( )
FinPour
FinPour
FinPour
II.4 FACTORISATION DE CHOLESKY
La factorisation de Cholesky est une alternative a la factorisation LU, pour les
matrice symétriques et définies positives. Elle consiste a déterminer une matrice
inf-triangulaire telle que
.
Soit une matrice carrée réelle d'ordre . On a les propriétés suivantes:
1. Si est définies positive alors elle est inversible;
2. Si est inversible, alors est définie positive;
3. Si est définies positive alors ( ) ,( ).
4. A est définie positive si et seulement si .
5. Si A est symetrique, alors A est definie positive si et seulement si tous les
mineurs principaux de A sont strictement positifs (ce resultat est connu sous
le nom de "Condition de Sylvester").
Théorème: Existence et Unicité de la factorisation de Cholesky
Soit une matrice carrée réelle d'ordre , symétrique et définie positive.
Alors il existe une unique matrice satisfaisant les:
1. est inf-triangulaire;
2. ( ) , pour ;
3. .
Exemple:
Algorithme: Facto_Cholesky
Entrée(s): Tableau contenant la matrice symétrique et définie positive A,
Sortie(s): Tableau contenant la matrice inf-triangulaire L telle que .
( ) ( );
Pour ( ) Faire
( ) ( ) ( );
FinPour
Pour ( ) Faire
( ) ( ) ( ) ;
Pour ( ) Faire
( ) ( ) ( ) ( ) ( );
FinPour
FinPour
II.5 FACTORISATION QR (Projet)
II.5.1 Définitions et Résultats d'existence
II.5.2 Méthodes d'orthogonalisation de Gram-Shmidt
II.5.2.1 Méthode de Gram-Schmidt Classique
II.5.2.1 Méthode de Gram-Schmidt Modifié
II.5.3 Méthode de Householder
III.- METHODES ITERATIVES
III.1.- Motivations:
Soit A une matrice carrée d'ordre n inversible et .
On considère le SEL
( )
En général, le cout des méthodes directes pour la
résolution du SEL (1) est ( ) .
Si on prend avec un calculateur cadençant a
, alors le temps de résolution du SEL (1) est de
l'ordre de
Ainsi, pour n assez grand ( ), les méthodes directes
ne sont pas pratique dans le cas général.
Solution:
Déterminer une approximation a près , de la solution
du SEL (1) telle que
a l'aide des méthodes des approximations successives qui
permettent de construire une suite ( ( ) ) telle que
( )
lim
avec pour contrainte que le calcul de qu'a l'étape k, le calcul
de ( ) se fasse en au plus ( ) opérations arithmétiques
élémentaires (multiplication matrice*vecteur).
Ainsi, si est obtenu après N étapes, , le cout sera
alors
( ) ( )
Ce qui est avantageux par rapport aux méthodes directes.
Il existe en général deux types de méthodes itératives pour
la résolution des SEL:
1) Les méthodes stationnaires
2) Les méthodes non stationnaires
III.2. Méthodes stationnaires
III.2.1. Principe des méthodes stationnaires
Partant du SEL
( )
On construit un problème du point fixe équivalent
(3)
ou et .
On obtient alors la méthode itérative suivante pour la
résolution SEL (1)
( )
( ) ( )
( )
Définitions:
1. La matrice est appelee matrice de la méthode itérative
(4).
2. La méthode (4) est dite consistante si et seulement si la
suite ( ( ) ) en cas de convergence, converge vers la
solution du probleme (2).
III.2.2. Convergence de la méthode itérative (4)
Soit la solution du SEL (2) et soit . On a:
( ) ( ) ( )
Ainsi, on a
( ) ( ) ( )
. ( )
Désignons par ( ) ( )
, l'erreur a l'etape de la
methode (4). On a
( ) ( )
. ( )
La méthode itérative (4) converge si et seulement si la
suite ( ) converge vers .
( ) ( ) ( )
lim lim lim .
Ainsi, la méthode (4) converge si et seulement si
lim . ( )
On a le résultat suivant:
Théorème (CNS de convergence de la méthode (4))
La méthode itérative (4) pour la résolution du SEL (2)
converge si et seulement si
( ) ( )
ou ( ) designe le rayon spectral de la matrice d'iteration
.
Corollaire (CS de convergence de la méthode (4))
S'il existe une norme matricielle . , pour laquelle
( )
alors la méthode (4) converge.
Définition: La vitesse de convergence de la méthode
itérative (4) est donnée par:
( ) ( )
III.2.3. Une méthode de construction de la matrice .
On considère le SEL (2). On suppose qu'il existe deux
matrices carrées d'ordre et , telle que est
inversible et "facile" a inverser et
. ( )
On a
Ainsi,
( )
avec
( 3)
III.2.4. Méthodes de Richardson.
III.2.4.1. Méthodes de Richardson standard.
On pose
.
On a alors
.
On obtient alors la méthode itérative de Richardson
suivante:
( )
( ) ( ) ( ) ( )
La méthode (R) peut encore s'écrire
( )
( ) ( ) ( )
( )
ou
( ) ( )
( )
désigne le résidu a l'étape de la methode itératives (R).
Convergence de la méthode (R)
La matrice de la méthode (R) est
. ( )
Soit une valeur propre de . On a
det( ) det( )
det( ( ) ) .
Ainsi, est une valeur propre de la matrice .
On deduit alors les valeurs propres de la matrice
sont de la forme
( )
ou est une valeur propre de . On a alors
( ) ma .
( )
La methode (R) converge si et seulement si ( ) .
( ) ma
( )
( ).
Si ( ) alors
( )
( ).
III.2.4.2 Méthode de Richardson Généralisée
Elle est définie par :
( )
( ) ( ) ( ) ( )
( )
où .
Convergence de la méthode (RG)
Matrice de la méthode
On a
( ) ( ) ( ) ( ) ( )
Ainsi, la matrice de la méthode est
( )
Soit une valeur propre de . On a
det ( ) det ( )
det
det ( )
( )
Ainsi,
( ) ( )
ma
( )
Cas où ( )
( )
Valeur optimal de , ( )
min( ma
( )
On suppose que , où min( ( )) et
ma ( ( ))
Ainsi,
min( ma
( )
min(ma ( )
est tel que
( ) ( )
III.2.5. Méthodes de Jacobi, Gauss-Seidel et SOR
On considère le SEL
On suppose que tous les termes de la diagonale de sont
non nuls (dans le cas contraire, on pourra effectuer une
permutation des lignes du SEL). On considère la
décomposition suivante de la matrice
où
est la partie diagonale de ,
est l’opposée la partie inf-triangulaire stricte de ,
est l’opposée la partie Sup-triangulaire stricte de ,
III.2.5.1 Méthode de Jacobi
On pose
On a
et on obtient la méthode itérative suivante :
( )
( ) ( ) ( )
( )
La méthode (J) est équivalente à :
( )
( ) ( ) ( ) ( )
La matrice de la méthode de Jacobi est
( )
III.2.5.2 Méthode de Gauss-Seidel
Elle est donnée par
( )
( ) ( ) ( ) ( )
Pour , on a :
( ) ( ) ( )
ie
( ) ( ) ( )
ie
( ) ( ) ( )
( ) ( ) ( )
Donc
( ) ( ) ( ) ( )
Et la matrice de la méthode est
( )
III.2.5.3 Méthode SOR
Elle est donnée par
( )
( ) ( ) ( ) ( )
( )
où est le paramètre de relaxation. Lorsque , on
obtient la méthode de Gauss-Seidel.
Matrice de la méthode :
Pour , on a :
( ) ( )
( )
( )
ie
( ) ( )
( )
( )
ie
( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( )
En mettant en facteur membre à membre, on obtient
( ) ( )
D’où
( ) ( )
et la matrice de la méthode est :
( )
Condition nécessaire de convergence :
det ( ) det det
( )
Où les sont les valeurs propres de la matrice ( ),
chaque valeur propre étant compté autant de fois que sa
multiplicité.
Pour , on a :
( ( ))
D’où
( ( ))
ie
( ( ))
Proposition : Si alors la méthode SOR diverge.
III.2.5.4 Résultats de convergence des méthodes de Jacobi,
Gauss-Seidel et SOR
On considère le SEL
On suppose que A est inversible et que tous les termes de la
diagonale de sont non nuls.
Proposition: Si la matrice A est a stricte dominance
diagonale, alors les methodes de Jacobi et Gauss-Seidel sont
convergentes.
Proposition: On suppose que A est symetrique et definie
positive et que A admet la decomposition
avec M inversible.
Si la matrice est symetrique et definie positive,
alors
( )
et la méthode itérative de matrice converge.
Proposition: Si A est symétrique et définie positive, alors la
méthode SOR converge si et seulement si
Remarque: 1- La méthode de Gauss-Seidel converge pour
les matrices symétriques et définies positives ( )
2- La méthode de Jacobi peut diverger pour des matrices
symétriques et définies positives
Proposition: Soit A une matrice tridiagonale inversible.
Alors
( )
et les méthodes de Jacobi et Gauss-Seidel convergent ou
divergent simultanément. En cas de convergence, la
méthode de Gauss-Seidel converge deux fois plus
rapidement.
Remarque: Soit A une matrice tridiagonale, symétrique et
definie positive. Alors la méthode SOR converge si et
seulement si
( )
Si , alors
III.2.6. Condition d'arrêt des itérations
On considère le SEL Ax=b, de solution . Soit ( ( ) )
( )
une suite d'approximation de telle que lim
. Pour l'implementation des methodes iteratives, on peut
considerer les conditions d'arret suivantes:
( ) ( )
( ) ( )
( )
( )
( )
Les deux dernières conditions sont plus pratiques.
III.2. Exemples de Méthodes Itératives Non Stationnaires
CHAPITRE III. METHODES NUMERIQUES DE RESOLUTION
DES EQUATIONS ET SYSTEMES D'EQUATIONS NON
LINEAIRES
1. GENERALITES
On appelle système d'équations linéaire, toute équation de
la forme
( ) ( )
ou est une application non affine de . On
s'interesse ici au cas ou .
si , on obtient une équation non linéaire.
La solution exacte de (1) est généralement difficile a
obtenir sauf pour des cas rare dans la pratique. On procède
alors a une approximation de celle-ci a l'aide des méthodes
itératives.
2. CAS DES EQUATIONS NON LINEAIRES.
Soit une application continue. On considère le
problème suivant:
( ) ( )
2.1 Existence de la solution de (2)
On suppose que f est continue sur [a,b].
Si ( ). ( ) , alors l'équation (2) admet un nombre
pair de racine, dont peut-être aucune.
Si ( ). ( ) , alors l'équation (2) admet un nombre
impair de racine, dont au moins une.
Un résultat d'unicité (Théorème de la valeur
intermédiaire):
Si f est continue et strictement monotone sur [a,b] et
( ). ( ) , alors f admet une racine unique dans
[a,b].
2.2 Méthode de la dichotomie
On considère sur [a,b] l'équation non linéaire
( ) (3)
On suppose que f est continue et strictement monotone sur
[a,b] et y admet une racine unique.
Principe de la méthode:
Construire une suite d'intervalles de longueur
telle que
Algorithme DICHOTOMIE
Données:
Résultats: ( )
Début
( )
Tant que (( ) ) ( ( ) ) faire
Si ( ). ( ) alors
sinon
fsi
( )
fintantque
Fin
2.3 Méthode de la fausse position (Regula-Falsi)
Principe de la méthode:
Construire une suite d'intervalles telle que
en procédant comme suit:
Soit le zéro de la droite reliant les points ( ( )) et
( ( )), si ( ). ( ) ,
sinon, et .
Calcul de
L'équation de la droite reliant les points ( ( )) et
( ( )) est
( ) ( ) ( ) ( )
( )
Ainsi,
( ) ( ) ( ) ( )
( )
ie
( ) ( )
( ) ( )
Algorithme REGULA-FALSI
Données:
Résultats: ( )
Début
( ) ( )
( )
;
( )
Tant que ( ( ) ) faire
Si ( ). ( ) alors
sinon
fsi
( ) ( )
( ) ( )
fintantque
Fin
2.4 Méthodes du point fixe
On considère sur [a,b] l'équation non linéaire
( ) ( )
ou f est continue sur [a,b]. On suppose qu'il existe
tel que ( ) .
2.4.1 Principes des Méthodes du point fixe
Elles consistent a déterminer une application
continue et telle que
( ) ( )
puis construire la suite d'approximation
( )
( )
Exemple:
( ) ( )
2.4.1 Existence et unicité (Théorème du point fixe)
Si g est une contraction stricte sur [a,b] ie
( ) ( )
alors l'équation
( )
admet une solution unique dans [a,b]. Si on pose
( )
alors
La fonction g est appelée fonction de la méthode du point
fixe (5).
2.4.2 Condition suffisante de convergence de la méthode (5):
1) Si
( )
alors g est une contraction stricte sur [a,b] et la méthode
(5) converge.
2) Soit la solution de l'equation ( ) ,
i) si ( ) , alors la méthode (5) converge;
ii) si ( ) , alors la méthode (5) diverge;
iii) si ( ) , on ne peut conclure.
Exemple: Convergence de la méthode de fonction
( ) ( ).
on a ( ) ( ).
( ) ( ) ( ) .
( )
si ( ) , alors la méthode converge.
2.4.3 Ordre de convergence de la méthode du point fixe
On considère la méthode du point fixe suivante:
( )
( )
On suppose que la fonction ( ). Soit
Alors on dit que l'ordre de convergence de la méthode (PF)
est si et seulement si
( )( )
( )( )
.
Si la méthode converge et ( ) , alors l'ordre de
convergence de celle-ci est .
2.5 Méthode de Newton-Raphson
On considère sur [a,b] l'équation
( ) ( ) .
On suppose que ( ) . Alors la méthode de
Newton-Raphson pour la résolution de l'équation (6) est
donnée par:
( ) ( )
( )
La fonction de la méthode (NR) est:
( )
( )
( )
Ordre de convergence de la méthode (NR)
On suppose que la méthode (NR) converge vers tel que
( ) .
On a
( ) ( ) ( ) ( ) ( )
( )
( ) ( )
Ainsi, ( )
Proposition: La convergence de la méthode (NR) est moins
d'ordre 2
2.6 Méthode de la sécante
C'est une variante de la méthode (NR) ou a l'étape , on
remplace ( ) par son approximation
( ) ( )
( )
Ceci nécessite d'avoir deux valeurs initiales et . On
obtient alors la méthode de la sécante suivante:
( ) ( )
( )
( ) ( )
Géométriquement, est le zéro de la droite passant par
les points ( ( )) et ( ( ) ).
On montre que l'ordre de convergence de la méthode de la
sécante est
NB. La convergence d'une méthode itérative est dite
d'ordre p si et seulement si
lim