Analyse Numerique 2
Analyse Numerique 2
Cours du module
Analyse Numérique
SMI S4
Prof. Mohammed BERRAJAA
M
O
1 Résolution de systèmes linéaires Méthode direct 3
C
1.1 Position du problème : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
A.
1.2 Méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.6 Factorisation LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
M
M
4 Problèmes d’interpolation 47
O
4.1 Position du problème : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
C
4.2 Interpolation de LAGRANGE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
A.
4.3 Interpolation d’une fonction continue par un polynôme . . . . . . . . . . . . . 50
4.4
JD
Existance et unicité de l’interpolant . . . . . . . . . . . . . . . . . . . . . . . . 51
M
O
C
A.
1.1 Position du problème :
JD
Dans ce chapitre, nous considérons un système d’équations
linéaires d’ordre n de la forme
U
Ax = b (1.1)
PO
standards, i.e
O
a
1,1
a1,2 . . . a1,n
b1
x1
. . .
a2,1 a2,2 a2,n b2 x2
FS
. . .
. .
, b = , b =
. . . . .
. . . . .
an,1 an,2 . . . an,n bn xn
a1,1 x1 + a1,2 x2 +..... + a1,n xn = b1
a2,1 x1 + a2,2 x2 +..... + a2,n xn = b2
.
(1.2).
.
.
a x + a x +..... + a x = b
n,1 1 n,2 2 n,n n n
M
O
Définition 1.1 : On dira que la matrice A est triangulaire supérieure
(respectivement triangulaire inférieure) si ai j = 0 pour tout couple
C
(i, j) tel que 1 ≤ j < i ≤ n (respectivement 1 ≤ i < j ≤ n).
A.
Définition 1.2 : Si A est une matrice triangulaire supérieure
JD
(respect. triangulaire inférieure), on dira que les systèmes (1.1) et
(1.2) sont triangulaires supérieurs (resp. triangulaire inférieurs).
U
xn = bn / an,n
et pour i = n − 1, n − 2, ....3, 2, 1 :
M
O
1.2.1 Elimination de Gauss sur un exemple :
C
Soit le système linéaire c est une matrice triangulaire :
A.
4 8 12 4
A = 3
8
13 et
JD
b = 5
(1.3)
2 9 18 11
U
PO
Première étape,
O
x +2x2 +3x3 = 1
1
2x2 +4x3 = 2 (1.6)
5x2 +12x3 = 9
Deuxième étape,
nous divisons la deuxième équation (1.6) par 2 (le deuxième
M
pivot). Nous obtenons :
O
x2 +2x3 = 1 (1.7)
C
A.
Et par la suite :
x +2x2 +3x3 = 1
1
JD
x2 +2x3 = 1 (1.8)
U
2x3 = 4
PO
Dernière étape,
M
x +2x2 +3x3 = 1
1
O
x2 +2x3 = 1 (1.9)
FS
x3 = 2
x3 = 2 x2 = −3 x1 = 1.
M
suivante :
O
(1) (1) (1) (1) (1) (1)
a11 a12 a13 a14 . . . a1i . . . a1n
(2) (2) (2) (2) (2)
0 a22 a23 a24 . . . a2i a2n
C
(3) (3) (3) (3)
0
0 a33 a34 a3i a3n
A.
(4) (4) (4)
0 0
0 a44 a4i a4n
0 0 0 0 . JD .
0 0 . .
A (i )
= , (1.10)
(i − 1 )
.ai−1,i−1 .
U
(i ) (i )
0 aii ain
. .
PO
. .
. .
M
(i ) (i )
0 ani ann
Avec A(1) = A, et Ax = b
.U
étape. Nous divisons la ième ligne de A(i) par le ième pivot aii(i)
i ème
FS
(i + 1 ) (i ) (i )
b 0 = bi − m ji ∗ bi (1.12)
j
M
. . .
. . . 0
O
−mn1 0 0 1
C
↓ k − ième colonne
A.
1 0 0 0
0 . . .
JD
0 . . .
. . 0 . .
U
. 1 . . . ←−−−−−−−−−
Mk = k − i eme
` ligne (1.13)
PO
. −mk+1,k .1 .
. . . . .
. . . 0 .
M
. . 1 0
0 −mn,k 0 0 1
.U
(k)
aik
où mi,k = i = k + 1, k + 2, ..., n en supposant que a(kkk) 6= 0,
O
(k)
akk
FS
En posant ek = (0, ....., 1, 0, ..., 0)T et mk = (0, 0, ....., −mk+1,k , ...., −mn,k )T ,on obtient
Mk = I + mk ekT et on vérifie que Mk est inversible et que Mk−1 = I − mk ekT
M
si tous les pivots aii(i) sont tous non nuls.
O
C
Définition : 1.3 : Ak est la sous matrice principale d’ordre k de
A si Ak est la k × k matrice de coefficient ai j , 1 ≤ i, j ≤ k ≤ n.
A.
Nous avons le résultat suivant. JD
Théorème1 : Si toutes les sous-matrices principales Ak de la
U
matrice de départ A sont régulières, k = 1, 2, ..., n, alors les pivots
PO
(1)
det A1 = det A1
(1) (2)
det A2 = a11 det A2
(1) (2) (3)
det A3 = a11 a22 det A3
.
.
(1.15)
.
(1) (2) (i − 1 ) (i )
det Ai = a11 a22 .....ai−1,i−1 det Ai
M
.
O
.
.
C
A.
Nous concluons de (1.14) et (1.15) que si det Ai 6= 0 pour tout
(1) (2) (i − 1 ) (n)
i = 1, 2, .....n alors les valeurs a11 , a22 , .....ai−1,i−1 , .., ann sont non nulles.
JD
U
1.2.4 Elimination da Gauss avec changement de Pivot
PO
0x1 + x2 +3x3 = 1
5x1 +2x2 +3x3 = 4 (1.16)
FS
6x1 +8x2 + x3 = 1
6x1 +8x2 + x3 = 1
5x1 +2x2 +3x3 = 4 (1.17)
0x1 + x2 +3x3 = 1
M
à échanger deux équations dont le but d’avoir le plus grand
O
pivot possible en valeur absolue.
C
Le problème peut se poser même avec un pivot trop petit.
Pour éviter de diviser par des pivots trop petits pouvant conduire
A.
à des solutions absurdes. JD
Exemple : soit à résoudre le système
10−10 x1 + x2 = 1
U
;
x −x = 0
1 2
PO
−10
10 x1 + x2 = 1
m21 = 1010 et
(−1 − 1010 ) x = −1010
2
Ce qui donne x1 ' 0, x2 ' 1 à cause des arrondis des résultats avec
neuf premiers chiffres significatifs.
(ii) Si on adopte la stratégie du pivot partiel qui consiste
à mettre en première ligne celle dont le coefficient de x
1 est le
plus grand en module alors on permute les lignes pour obtenir
x1 − x2 = 0
10−10 x + x = 1
1 2
M
choisir aii(i) = maxk≥i (k)
aki .
O
Matriciellement, cette opération revient à multiplier la matrice
C
A(i) par une matrice de permutation Pkl avant d’appliquer l’élimination
A.
de Gauss. L’étape finale est données par A(n) = U = Mn−1 Pi−1i Mn−2 .....M2 P2i M1 P1i A
où les Mi sont des matrices élémentaires de Gauss et les Pkl des
JD
matrices de permutations (elle échange les lignes k et l) pour
l ≥ k.
U
Si à une étape k on n’a pas besoin de pivoter, l’écriture reste
valable avec Pkl = I où I est la matrice identité.
PO
↓ k..... l↓
1 0 0
M
0 1 0
0 0 1 0
.U
0 0 1 0
O
. 1
Plk = 1 Pll = 0 .
.
0 1
M
à multiplier la matrice A(i) par deux matrices, de permutation
O
P et Q l’une à droite pour permuter les lignes et l’autre pour
permuter les colonnes.
C
A.
1.2.6 Factorisation LU JD
Tout va donc très bien pour ce système, mais supposons qu’on
ait à résoudre 3089 systèmes avec la même matrice A mais 3089
U
seconds membres b différents (par exemple on peut vouloir calculer
PO
Comment faire ?
.U
supérieure.
FS
M
PM = LU
O
C
*Preuve : L’existence de la matrice P et les matrices L, U peut
A.
s’effectuer en s’inspirant de l’algorithme ”LU avec pivot partiel”.
JD
En effet, chaque étape i peut s’écrire A(i) = Mi−1 P(i−1) A(i−1) où A(1) = A, P(i−1)
est la matrice de permutation qui permet le choix du pivot
U
partiel, et Mi−1 est une matrice élémentaire de Gauss (matrice
d’élimination qui effectue les combinaisons linéaires de lignes
PO
n × n.
.U
En appliquant l’algorithme
O
M
∼
P(i+1) Mi = Mi P(i+1) car P(i+1) . P(i+1) = I.
O
Dans l’exemple précédent, on effectue le calcul
C
A.
1 0 0 0
0 1 0 0
∼
P(3) M2 P(3) =
0
JD
b 1
= M2
0
0 a 0 1
U
qui est une matrice triangulaire inférieure de coefficient tous
PO
∼ ∼
M3 M2 P(3) M1 P(2) P(1) A = U
O
∼
∼ ∼
FS
∼
∼
où M1 est encore une matrice triangulaire inférieure avec des 1
sur la diagonale. On en déduit que
∼
∼ ∼
M3 M2 M1 P(3) P(2) P(1) A = U,
soit encore PA = LU où P = P(3) P(2) P(1) est bien une matrice de permutation
∼
∼ ∼
et L = ( M 3 M 2 M 1 )−1
est une matrice triangulaire inférieure avec des
1 sur la diagonale.
Le raisonnement pour n=4 se généralise facilement à n arbitraire.
Dans ce cas, l’échelonnement de la matrice s’écrit
M
Et se transforme en
O
C
Fn−1 Fn−1 ......F 1 P(n−1) P(n−2) .......P(1) A = U
A.
où Fi est une matrice triangulaire inférieure avec des 1 sur la
diagonale.
JD
On a ainsi démontré l’existence.
U
2. Unicité : Pour montrer l’unicité du couple ( L, U ) à P donnée,
PO
et donc L1 = L2 et U1 = U 2 .
FS
M
Commençons par un exemple. On considère la matrice
O
2 −1 0
C
A = −1 −1
2
0 −1 2
A.
qui est également symétrique. Calculons sa décomposition LU.
JD
Par échelonnement, on obtient
U
1 −0 0 2 −1 0
PO
A = LU = −0.5 −1
1 0 0 3/2
0 −2/3 1 0 0 4/3
M
On obtient
FS
2 0 1 −1/2 0
U = 0 −2/3
3/2 0 1
0 4/3 0 0 1
M
1.3.2 Théorème : Décomposition de Choleski
O
Soit A ∈ Mn ( IR) (n ≥ 1) une matrice symétrique définie positive.
∼
Alors il existe une unique matrice L∈ Mn ( IR) telle que
C
∼ ∼
1. L est triangulaire inférieure, L= (l i j )i,n j=1
A.
2. lii > 0, pour tout i ∈ {1, 2, ...., n} JD
∼∼ T
3. A = L L
U
1. Existence de la décomposition Soit A ∈ Mn ( IR) (n ≥ 1) une matrice
symétrique définie positive. On sait déjà qu’il existe une matrice
PO
∼ ∼∼ T
définir L= (l 11 ) où l11 =√a11 , et on a bien A = L L .
2. On suppose que la décomposition de Choleski s’obtient
pour A ∈ M p ( IR), pour 1 ≤ p ≤ n et démontrons que la propriété est
encore vraie pour A ∈ Mn+1 ( IR) s.d.p.
Soit donc A ∈ Mn+1 ( IR) s.d.p ; on peut écrire A sous forme :
B a
A =
aT α
M
B a y y Bx y
O
0 < Ax.x = . = . = By.y
aT α 0 0 aT 0
C
Et donc B est s.d.p. Par hypothèse de récurrence, il existe une
A.
matrice M ∈ Mn ( IR), M = (mi j )i,n j=1 telle que :
1. mi j = 0 si j>i (triangulaire inférieure)
JD
2. mii > 0
3. B = MMT .
U
On va chercher L sous forme
PO
∼ M 0
L=
bT λ
M
∼∼ T
Avec b ∈ IRn et λ ∈ IR∗+ tels que A = L L . Pour déterminer b et λ,
.U
∼∼ T
calculons L L = A, et on veut que les égalités suivantes soient
vérifiées :
O
Mb = a et bT b + λ2 = α
FS
Comme M est inversible (en effet det ( M) = Πin=1 mii > 0), la première
égalité ci-dessous donne : b−1 = Ma et en remplaçons dans la deuxième
égalité, on obtient :
( M−1 a)T ( Ma) + λ 2 = α, et donc aT ( M T )−1 ( M−1 a) + λ 2 = α soit encore a
soit encore a T ( MMT )−1 a + λ2 = α,
c’est à dire a T B−1 a + λ 2 = α (2.1)
M
et donc
B−1 a
O
B a 0
Az = =
aT α −1 a T B−1 a − α
C
On a donc Az.z = α − aT B−1 a > 0 ce qui démontre l’inégalité (2.2)
A.
√
On peut choisir ainsi λ = α − a T B−1 a > 0 JD de tel sorte que (2.1) soit
vérifiée.
Posons :
U
∼ M 0
PO
L=
−1 −1
(M a) λ
∼ ∼∼ T
L est bien triangulaire inférieure et vérifie lii > 0 et A = L L .
M
∼
2. Unicité et calcul de L Soit donc A ∈ Mn ( IR) s.d.p ; on vient de
O
∼
montrer qu’il existe donc L∈ Mn ( IR) triangulaire inférieure telle
∼∼ T
que lii > 0 et A = L L . On a donc
FS
∼
1. Calculons la première colonne de L ; pour j = 1, on a
a11 = l 11 l11 (l 1 j = 0, ∀ j ≥ 2);et donc l11 =√a11
a21 = l 21 l11 (l 2 j = 0, ∀ j ≥ 3); l 21 = al 21
11
.
Merci de nous rendre visite sur
http://fso.umpoujda.com/
1.3. Méthode de Choleski
.
.
ai1 = l i1 l11 li1 = lai1 ∀i ∈ {2, ...., n} .
11
∼
2. On suppose avoir calculé les q premières colonnes de L. On
calcul la colonne (q+1) en prenant j=q+1 dans (2
q+1
pour i = q + 1
M
aq+1q+1 = ∑k=1 lq+1k lq+1k ; lq+1k = 0 pour k ≥ q + 2
q
q q
= ∑k=1 lq2+1k +l q+1q+1 =⇒ l q+1q+1 = aq+1q+1 − ∑k=1 lq2+1k
O
∼
Notons que aq+1q+1 − ∑qk=1 lq2+1k > 0 car L existe.
C
On procède de la même manière pour q + 2, ....., n on a :
A.
q+1 q
aiq+1 = ∑k=1 lik lq+1k = ∑k=1 lik lq+1k +l iq+1 lq+1q+1
JD
Et donc
U
q 1
liq+1 = ( aiq+1 − ∑k=1 lik lq+1k ) l
q+1q+1
PO
∼
On calcule ainsi toutes les colonnes de L. On a donc démontré
∼ ∼
que L est unique par moyen constructif de calcul de L.
M
.U
O
FS
M
O
C
A.
2.1 Rappels : normes, rayon spectral
JD
Définition 1.1 : Norme matricielle-norme induite) On note
Mn ( IR) l’espace vectoriel sur IR des matrices carrées d’ordre n.
U
a. On appelle norme matricielle sur Mn ( IR) une norme ||.|| sur
Mn ( IR) telle que :
PO
Proposition 1.2 Soit Mn ( IR) muni d’une norme induite ||.||. Alors
pour toute matrice A ∈ Mn ( IR), on a :
1.|| Ax|| ≤ || A|| ||X || ∀ x ∈ IRn .
Preuve 1. Soit x ∈ IRn − {0} posons y = ||xx|| , alors || y|| = 1 donc || Ay|| ≤
|| A|| (car || A|| = sup || Ax||) et donc A ||xx|| ≤ || A|| c’est à dire || Ax|| ≤
|| x||=1
|| A|| × || X || ∀ x ∈ IRn − {0} .
M
continue sur la sphère unité S1 = {x ∈ IRn , ||x|| = 1} qui est un compact
de IRn . Donc Φ esr bornée et atteint ses bornes. Il existe x0 ∈ IRn tel
O
que || A|| = || Ax0 || .
C
|| Ax||
3. Cette égalité résulte du fait que || x||
= x
A || Ax ||
et x
|| Ax||
∈ S1 pour
x 6= 0.
A.
4. Soient A et B ∈ Mn ( IR) on || A|| = sup {|| Ax|| ; x ∈ IRn , ||x|| = 1} , or
JD
|| ABx|| ≤ || A|| × || Bx|| ≤ || A|| × || B|| × || X || ≤ || A|| × || B|| ,
U
on en déduit que ||.|| est une norme matricielle.
PO
n o
ρ( A) = max |λ | ; λ ∈ C, λvaleur propre de A .
.U
M
O
Proposition 1.5 : Approximation du rayon spectral par une
C
norme induite Soit A ∈ Mn ( IR) et ε > 0. Il existe une norme spectral
A.
sur IRn (qui dépend de A et ε) telle que la norme induite sur Mn ( IR),
notée ||.|| A,ε vérifie : JD
|| A|| A,ε ≤ ρ( A) + ε
U
PO
ρ( A) < 1
+∞.
O
Ak → 0 qd k → +∞.
M
1/k
d’une norme, notée ||.||. Soit A ∈ Mn ( IR). Alors ρ( A) =lim
∞
Ak .(admise)
O
1.8 Corollaire : comparaison rayon spectral et norme. On munit
C
Mn ( IR) d’une norme, notée ||.||. Soit A ∈ Mn ( IR). Alors :
A.
ρ( A) ≤ || A|| .
JD
Par conséquent si M ∈ Mn ( IR) et x(0) ∈ IRn , pour montrer que la
suite x(k) = Mk x(0) converge vers 0 dans IRn , il suffit de trouver une
U
norme matricielle ||.|| telle que ||.M|| < 1.
PO
1/k
proposition précédente, on obtient ρ( A) =lim
∞
Ak ≤ || A|| .
.U
1
1−|| A||.
.
M
(F)
O
du corollaire 1.6.
C
On a démontré plus haut que si ρ( A) < 1 la série de terme générale
Ak est absolument convergente et qu’elle vérifie (F). On en déduit
A.
que si || A|| < 1
( I + A )−1 ≤ ∑+ ∞
JD
k ≤ +∞ || A ||k = 1
k=0 A ∑k=0 1−|| A||
.
Enfin, on veut que cette suite soit à calculer. Une idée est de
travailler avec une matrice P inversible qui soit ”proche” de A,
mais plus facile à inverser que A.
On appelle matrice de pré conditionnement cette matrice. On
M
écrit alors A = P − (P − A) = P − N, et on réécrit le système Ax = b sous
O
forme :
C
Px = ( P − A) x + b = Nx + b
A.
d’un choix initial x(0) donné, par la formule suivante :JD
Px(k+1) = Nx(k) +b,
par :
e(k) = x(k) − x, k ∈ IRn
.U
(2.2)
Lemme 2.1.3 : La suite ( e(k) )k∈ I N définie par (2.2) est également
définie par
e(0) = x(0) − x et e(k) = x(k) − x = Bk e(0) (2.3)
M
dém :
1. On a vu aussi que (x(k) )k∈I N définie par (2.1) converge si et
O
seulement si e(k) → 0 qd x → +∞, on en déduit par le crollaire 1.6 que
C
(e(k) )k∈ IN converge vers 0 si et seulement si ρ( B) < 1
A.
2. S’il existe une norme induite ||.|| telle que ||B|| < 1 et donc
ρ( B) < 1 et donc d’aprés le corollaire 1.6 la méthode converge.
JD
Réciproquement Si la méthode converge alors ρ(B) < 1, et donc
il existe η > 0 tel que ρ(B) = 1 − η. Prenons ε = η2 et appliquons la
U
proposition 1.5, il existe une norme induite ||B||B,ε ≤ 1 − ε < 1 d’où
PO
le résultat.
M
(k+1) ∼ ∼(k)
Théorème 2.1.5 : Considérons deux méthodes itératives ∼x =T x
∼
+c
∼ (0)
et x(k+1) = Tx(k) +c avec ρ(T ) < ρ(T ) et x(0) =∼x alors ∀ε > 0 ∃k0 > 0 tq
.U
∼(k) ∼
ρ( T )
k > k0 sup ee(k) ≥ ( ρ(T )+ε )k .
∼
que celle de la matrice T, en résumé, l’étude des méthodes itératives
FS
M
Méthode de Jacobi 3.1 : Elle consiste à choisir P = D = diag(aii )
O
inversible et N = (−ai j )i6= j . Le schéma itératif est comme suit :
C
x(k+1) = D −1 ( L + U ) x(k) + D −1 b (3.1.1)
A.
La matrice BJ = D−1 ( L + U ) est dite matrice de Jacobi associée à la
JD
matrice A. Si x(0) est le vecteur initial (donné), l’algorithme de
Jacobi est de la forme
U
(k+1) (k)
xi = − a1ii ∑ j6=i ai j x j + abiii pour i = 1, 2....., n
PO
Explicitement, on obtient
.U
.
O
.
FS
.
(k+1) (k) (k) (k) (k)
an1 x1 = − an1 x1 − an2 x2 − an2 x2 −........ − ann−1 xn−1 +bn
Théorème 3.1.2
M
j 6 =i
Corollaire 3.1.3
O
C
Si A est une matrice carrée à diagonale strictement dominante
en colonnes alors la méthodes de Jacobi converge.(la démonstration
A.
est identique à celle du théor ème 3.1.2 en considérant la norme JD
||.||1
ou encore
O
et
x(k+1) = D −1 Lx(k+1) + D −1 Ux(k) + D −1 b (3.3.3)
M
(k+1) (k+1) (k+1) (k+1)
ann xn = − an1 x1 − an2 x2 −.............. − ann−1 xn−1 + D−1 bn
O
La matrice BGS = (D − L)−1 U est dite matrice de Gauss-Seidel associée
à la matrice A.
C
Remarque :
A.
BGS = ( I − D −1 L)−1 D −1 U.
JD
Théorème 3.2.1 Si A est une matrice carrée à diagonale strictement
dominante en lignes alors la méthode de Gauss-Seidel converge.
U
PO
Preuve Posons BGS = (D − L)−1 U et montrons que ||BGS ||∞ < 1 où ||BGS ||∞ =
|| BGS x||∞
sup || x||∞
x6=0
Soit y = BGS x = (D − L)−1 Ux alors (D − L) y = Ux ou encore
M
Dy = Ly + Ux
et y = D−1 Ly + D−1 Ux. Considérons l’indice i0 tq
.U
Finalement
|| BGS x||∞
max < 1.
x6=0 || x||∞
M
L’équation 3.3.1 peut être remplaceée par :
O
−1
x(k+1) = ( w1 D ) Lx(k+1) +[(1 − w) I + wD −1 U )−1 x(k) +(wD −1 )b (3.3.2)
C
La matrice de relaxation est donnée par :
A.
Bw = ( w1 D − L)−1 ( 1−ww D + U ).
JD
* Si w = 1, on retrouve la méthode de Gauss-Seidel.
U
* Si w > 1, on parle de sur-relaxation.
* Si w < 1, on parle de sous-relaxation.
PO
possible.
O
M
O
C
3.1 Rappels et notations :
A.
Définition 1 : Soit k un réel strictement positif et g une fonction
JD
définie sur un intervalle [a, b] de IR à valeurs dans IR.
La fonction g est dite Lipschitzienne de rapport k (ou encore
U
k − Lipshitzienne si pour tout x et y ∈ [ a, b] on a :
PO
| g( x) − g( y)| ≤ k | x − y| .
k ∈ ]0, 1[ .
O
M
alors ∃c ∈ [a, b] tel que f (c) = 0. Si de plus f est trictement monotone
alors c est unique.
O
3.15 bis :(Théorème de Rolle)
C
Soit f une fonction définie sur un intervalle [a, b] à valeurs dans
A.
IR et si f est continue sur [ a, b] et dérivable ] a, b[ et vérifie f (b) = f ( a)
alors ∃c ∈ ]a, b[ tel que f (1) (c) = 0 JD
3.1.6 Téorème 3 :(Des accroissemenys finis) Soit f une fonction
U
définie sur un intervalle [a, b] à valeurs dans IR et si f est continue
sur [a, b] et dérivable sur ]a, b[, alors elle existe ∃c ∈ ]a, b[ tel que :
PO
f ( b ) − f ( a ) = ( b − a ) × f (1) ( c )
+....+ n!1 (b − a)n f (n) ( a)+ (n+1 1)! (b − a)n+1 f (n+1) (c).
M
sur I et à valeur dans IR. Alors la recherche des zéros de f est
équivalente à la recherche des points fixes de la fonction g définie
O
par g(x) = x − f (x).
C
Lemme 2 : Soit g une fonction de classe C1 sur [a, b] . S’il existe
A.
un réel k ≥ 0 tel que : g(1) (x) ≤ k ∀x ∈ [a, b] alors g est k − Lipschitzienne.
JD
Preuve : Il suffit d’appliquer le théorème des accroissements
finis à g sur [x, y] avec x ≤ y. Donc ∃c ∈ ]x, y[ tel que
U
g ( y ) − g ( x ) = ( y − x ) × g(1) ( c )
PO
en = xn −θ.
O
p si :
|en+1 |
lim p = c
x→+∞ |en |
M
Si on veut une précision ε = 10−3 il suffit de prendre n0 tel que
n0 ≥ 103 .
O
C
3.1.16 Théorème 6 : Soit g une fonction k − contractante sur [ a, b] à
valeurs dans [a, b] , et (xn )n∈ IN la suite récurrente définie par
A.
x0 ∈ [ a, b] , x0 donné et xn+1 = g(xn ) pour tout n ≥ 0.
JD
Alors :
1. La suite (xn )n∈ IN converge vers un réel θ.
U
2. La fonction g admet un point fixe unique.
PO
3. Pour tout n ∈ IN ∗ on a :
n
| xn −θ | ≤ 1k−k | x1 − x0 |
M
[ a, b] à [ a, b ], on a xn ∈ [ a, b ] ∀ n ∈ I N.
O
M
1 n
xn+ p − xn ≤ 1−k k | x1 − x0 | (3.1.2)
O
L’inégalité (3.1.2) prouve que la suite est de Cauchy car kn →
C
0 qd k → +∞
A.
alors ∀ε > 0, ∃n0 > 0 tel que pour tout n ≥ n0 on ait :
kn ≤
JD
1−k
| x1 − x0 |ε
et par la suite
U
1 n
1−k k | x1 − x0 | ≤ ε.
PO
Donc pour tout ε > 0, ∃n0 > 0 tel que pour tout n ≥ n0
on ait :
M
1 n
xn+ p − xn ≤ 1−k k | x1 − x0 | ≤ ε.
.U
1 n
xn+ p − xn ≤ 1−k k | x1 − x0 |
on obtient :
|θ − xn | ≤ 1 n
1−k k | x1 − x0 | ∀n ∈ I N ∗ .
M
1, alors ∃ε > 0 tel que ∀ x0 ∈ [θ − ε, θ + ε] la suite ( xn )n∈ IN =
O
( g( xn−1 ))n∈ IN est définie et converge vers θ,l’unique solution
de g( x) = x dans I = [θ − ε, θ + ε] .
C
A.
preuve : Puisque g est une fonction de classe C 1 au voisinage
de θ et que g(1) (θ ) < 1 on a : JD
g(1) ( x) < 1,au voisinage de θ.
U
Par conséquent, il existe ε > 0 tel que :
PO
∀ x ∈ I = [θ − ε, θ + ε] g(1) ( x ) ≤ k < 1
.U
a:
∀ x ∈ I = [θ − ε, θ + ε] | g( x) − θ | ≤ | x − θ | .
Remarque 2 : * Si g(1) (θ ) = 1, la suite peut converger ou
diverger.
* Si g(1) (θ ) > 1, et si la suite possède une infinité de termes
différents de θ, alors la suite ne peut converger.
M
finis dans l’intervalle d’extrémités xn et θ,on a
|en+1 | = | xn+1 − θ | = | g( xn ) − θ | = ( xn − θ ) g(1) (cn ) et de là
O
on obtient :
C
|en+1 |
= lim | g(1) (cn ) |=| g(1) (θ ) | .
A.
lim
+∞ |en | +∞
JD
3.2 Méthode de Newton et méthode de la corde
U
3.2.1 Méthode de Newton (ou Newton-Raphson) :
PO
Newton :
f ( xn )
xn+1 = xn − f (1) ( xn )
n = 0, 1, ....... (3.2.1)
f ( x)
g( x) = x − f (1) ( x)
alors f ( x) = 0 ⇐⇒ x = g( x) (du moins
au voisinage de θ pour lequel f (1) ( x) 6= 0) et (3.2.1) s’écrit
x n + 1 = g ( x n ).
M
O
( f (1) ( x))2 − f ( x) f (2) ( x)
g(1) ( x ) = 1 − 2
[ f (1) ( x) ]
C
et par la suite , puisque f (θ ) = 0 et f (1) (θ ) =⇒ g(1) (θ ) = 0.
A.
Nous obtenons le résultat suivant : JD
Théorème 9 : Supposons f est C 2 et supposons que θ soit tel
que f (θ ) = 0 et f (1) (θ ) 6= 0. Alors ∃ε > 0 si x0 satisfait |θ − x0 | ≤
U
ε, la suite ( xn )n∈ IN donnée par la méthode de Newton (3.2)
PO
de la convergence locale.
A priori la covergence est linéaire
O
FS
R x (1) (1)
| g( x) − g( y)| = y g ( t ) dt ≤ max g ( t ) | x − y | <
t∈ I
k | x − y|
| g( x) − g(θ )| ≤ k | x − θ | ≤ | x − θ | ≤ ε.
M
dans l’égalité ci-dessous, en divisant par f (1) ( xn ) et en tenant
compte du fait que f (θ ) = 0, nous avons :
O
f ( xn ) (2)
+ θ − xn + 2ff (1)((ξxθ )) ( x − xn )2 = 0
C
f 1) ( xn )
(
n
A.
En utilisons (3.2.1) nous obtenons
(2)
JD
1 | f (ξθ )|
| xn+1 − θ | = 2 | f (1) ( xn )| | θ − xn |2
U
Il suffit maintenant de poser
PO
Pour obtenir
.U
| xn+1 − θ | ≤ C | x − xn |2
O
M
Ainsi on a
O
x n+1 = g ( x n )
C
et la méthode est une méthode de point fixe.
A.
Remarque : g dépend du point fixe de départ x0 .
JD
Théorème 10 : Supposons f de C 2 et supposons θ soit tel que
U
f (θ ) = 0 et f (1) (θ ) 6= 0. Alors ∃ε > 0 tel que si x0 ∈ I =
[θ − ε, θ + ε], la suite ( xn )n∈ IN donnée par la méthode de la corde
PO
(1) f (1) ( x)
g ( x) = 1 − <k ∀ x ∈ I.
O
f (1) ( x0 )
FS
et par la suite on a
R x (1) (1)
| g( x) − g( y)| = y g ( t ) dt ≤ max g ( t ) | x − y | <
t∈ I
k | x − y|
si y = θ, on a | g( x) − g(θ )| ≤ k | x − θ | , c à d | g( x) − θ | ≤
k |x − θ|
M
réduisant à chaque étape l’intervalle de moitié selon l’algorithme
suivant
O
C
Etape I : on pose a0 = a et b0 = b, on pose c = a0 +2 b0 puis on
A.
teste si c0 = θ c’est terminé, sinon si f ( a0 ) × f (c0 ) ≤ 0 alors
θ ∈ [ a0 , c0 ] , on pose a1 = a0 et b1 = c0 puis c1 = a1 +2 b1 .
JD
Si f (b0 ) × f (c0 ) ≤ 0 alors θ ∈ [c0 , b0 ] , alors on pose a1 = c0 et
b1 = b0 puis c1 = a1 +2 b1 .
U
b0 − a0
Aprés cette étape la longueur de [ a1 , b1 ] est égale à 2 =
b− a
PO
2 .
1. [ ak+1 , bk+1 ] ⊂ [ ak , bk ] .
bk − ak b0 − a0
2. bk+1 − ak+1 = 2 = 2k+1
.
3. la suite ck converge vers θ.
b− a
4. |ck − θ | ≤ 2k+1
.
bk − ak = (b − a)/2k
M
Pour k = 0 la relation est vraie.
Si on suppose que la relation est vraie à l’ordre k, c’est à dire
O
bk − ak = (b − a)/2k .
C
Montrons alors que bk+1 − ak+1 = (b − a)/2k+1 .
A.
1
En effet, bk+1 − ak+1 = (bk − ak )/2 = 2 (bk − ak )/2 = (b −
a)/2k+1 .
JD
3. Par construction θ ∈ [ ak , bk ] et ck = ( ak + bk )/2 est le milieu
de [ ak , bk ] donc :
U
k → +∞.
PO
En d’auters termes :
M
ck → θ qd k → +∞.
.U
O
en effet :
Pour que cn vérifie : |ck − θ | ≤ (b − a)/2n+1 à la n-ième
étape, il suffit que n vérifie : (b − a)/2n+1 ≤ ε, on a alors :
|ck − θ | ≤ (b − a)/2n+1 ≤ ε,
b− a
ε ≤ 2n+1 ⇐⇒ n ≥ ln(b−lna)−2
Lnε
− 1.
M
32, 21928
x = 1.3652300134 f ( x) = −2.378897e − 0.11.
O
C
3.4 Méthode de la fausse position (Fegula Falsi)
A.
Au lieu de prendre à chaque étape ck qui est le milieu de [ a, b],
JD
la méthode de fausse position prend le point d’intersection de
l’axe Ox avec la droite passant par ( ak , f ( ak )) et (bk , f (bk )).
U
L’équation de cette droite est donnée par :
PO
x− a y− f ( a)
b− a = f (b)− f ( a)
M
−bk
Elle coupe l’axe Ox au point : M(ck , 0) où ck = ak + f ( ak ) f (aak)− f (b )
.
k k
.U
et bk+1 = ck .
Si f (ck ) × f (bk ) ≤ 0 alors θ ∈ [ck , bk ] , alors on pose ak+1 = ck
et bk+1 = bk .
Puis on cherche à nouveau la droite passant par ( ak+1 , f ( ak+1 ))
et (bk+1 , f (bk+1 )).
M
O
C
A.
JD
U
PO
M
.U
O
FS
Problèmes d’interpolation
M
O
C
4.1 Position du problème :
A.
Supposons que l’on veuille chercher un polynôme p de degré
n ≥ 0 qui, pour des valeurs t0 , t1 , t2 , ...., tn distinctes données, prennent
JD
des valeurs p0 , p1 , p2 , ...., pn respectivement, c’est à dire
U
p(t j ) = p j , pour 0 ≤ j ≤ n (4.1)
PO
1 t0 t20 . . . . . . . tn0
t21 tn1
1 t1 . . . . . . .
. . . .
. . . .
. . . .
T =
. . . .
. . . .
M
. . . .
O
. . .
. . .
C
1 tn t2n tnn
A.
C’est la matrice de Vandermonde associée aux points t0 , t1 ,
t2 , ...., tn JD
Si →a et→p sont (n + 1)- vecteurs colonnes suivants :
→ →
a = ( a0 , a1 , a2 , ...., an )t et p = ( p0 , p1 , p2 , ...., pn )t , nous pouvons écrire
U
(4.3) sous forme matricielles :
PO
→ →
Ta=p (4.4)
M
M
(ii) ϕk (t j ) = 0 si j 6 = k, 0 ≤ j ≤ n
O
(iii) ϕk (tk ) = 1
C
A chaque point tk nous avons donc associé un polynôme ϕk de
degré n valant 1 en tk et zéro aux autres points t j , j 6= k.
A.
Les polynômes ϕ0 , ϕ1 , ϕ2 , ...., ϕn sont linéairements indépendants. JD
En effet ∀t ∈ IR, si a0 , a1 , a2 , ...., an sont n + 1 nombres réels tels que
∑nj=0 α jϕ j (t) = 0 (∀t ∈ IR), alors pour t = tk nous obtenons :
U
0 = ∑nj=0 α jϕ j (tk ) = α k ,
pour 0 ≤ k ≤ n.
par 1, t, t2 , ...., tn .
Le fait que les polynômes ϕ0 , ..., ϕk , ...., ϕn sont linéairements indépendants
.U
Définition 1.1 : Nous dirons que (ϕ0 , ..., ϕk , ...., ϕn ) est base de Lagrange
FS
(t−t0 )(t−t1 )
ϕ2 ( t ) = (t = 0.5t2 +0.5t (4.8)
2 −t1 )(t2 −t1 )
M
Alors le polynôme p cherché est défini par ;
p(t) = p0ϕ0 (t) + p1ϕ1 (t) + ........ + pnϕn (t) = ∑nj=0 p jϕ j (t) (4.9)
O
En effet, puisque p est une combinaison linéaire de (n + 1) polynômes
C
ϕ0 , ..., ϕk , ...., ϕn tous de degré n, alors p est lui même de degré n, c’est
A.
à dire p ∈ IPn .
D’autre part, si nous utilisons les propriétés des polynômes
JD
ϕk , nous avons pour k = 0, 1, 2, ......, n :
t0 = −1 en p0 = 8, en t1 = 0 en p1 = 3, en t2 = 3 en p0 = 6.
.U
p(t) = 4t2 −t + 3.
O
p(t) = p0ϕ0 (t) + p1ϕ1 (t) + ..... + pnϕn (t) = ∑nj=0 p jϕ j (t),
M
La solution du point (4.11) est donc définie par :
O
p(t) = ∑nj=0 f (t j )ϕ j (t) ∀t ∈ IR (4.12)
C
Définition 1.2 : On dira que le polynôme p défini par (4.12) est
A.
l’interpolant de f de degré n aux points t0 , t1 , t2 , ...., tn .
JD
Exemple 3 : Soit f (t) = et . Trouver l’interpolants de f de degré 2
aux points t0 = −1, t1 = 0, t2 = 1.
U
Soit maintenant une fonction :[a, b] → IR continue et donnée sur
PO
Preuve : Existence :
Soit
(t−t0 )(t−t1 )................(t−ti−1 )(t−ti+1 )..........(t−tn )
Li ( t ) = (t −t
i 0 )(ti −t1 )................ (ti −tk−1 )(ti −ti +1 ).......... (ti −tn )
Unicité :
M
Supposons qu’il existe deux polynômes pn et qn de degré ≤ n,
O
interpolant f aux points t0 , t1 , t2 , ...., tn , en posant
dn = pn −qn , on arrive à une contradiction. En effet, dn est un polynôme
C
de degré ≤ n et par conséquent il peut avoir au plus n zéros, mais
A.
d’autre part dn (tk ) = 0, pour 0 ≤ k ≤ n ce qui voudrait dire que dn
aurait n + 1 zéros d’où la contradiction donc pn = qn . JD
1.5.2 Erreure d’interpolation.
U
1.5.2.1 Théorème : Soit pn le polynôme interpolant de f aux
PO
points a = x0 < x1 < ........ < xn = b, si f est de classe Cn+1 sur [a, b] alors :
a. ∀x ∈ [a, b], il existe Θ = Θ(x) ∈ [a, b] tel que :
M
avec
.U
Πn+1 ( x) = ∏in=0 ( x − xi )
O
b. En posant
FS
On obtient :
Mn+1
max | f ( x) − pn ( x)| ≤ (n+1)! x∈[ a,b] | n+1
max Π ( x)|
x∈[ a,b]
et en particulier : M
max | f ( x) − pn ( x)| ≤ (n+n+11)! (b − a)n+1 .
x∈[ a,b]
M
possède au moins n+2 zéros distincts sur [a, b] alors f (n+1) possède
O
au moins 1 zéros sur [a, b] .
Il suffit de faire une récurrence en appliquant le Lemme 1
C
précédent.
A.
Preuve du théorème : Si x = xi , le résultat est évident. JD f ( x)− pn ( x)
Si x 6= xi , posons ; R(t) = f (t) − pn (t)− Πn+1 ( x )
Πn+1 ( t ) .
Πn+1 ( x )
et
M
R( x) = en ( x) − en ( x) = 0.
.U
possède au moins 1 zéros sur [a, b] , c’est à dire qu’il existe Θ ∈ [a, b]
FS
2 Interpolation de Newton :
M
f [ x0 ] = f ( x0 )
f ( x1 )− f ( x0 )
O
f [ x0 , x1 ] = x1 − x0
C
.
A.
f [ x1 ,x2 ,.......,xi ]− f [ x0 ,x1 ,.......,xi−1 ]
f [ x0 , x1 , ......., xi ] = xi − x 0 pour i ≥ 2.
on obtient :
U
f [ x0 ] = 2
PO
f [ x0 , x1 ] = −1
f [ x1 ] = 1
f [ x2 ] = −1
M
f [ x1 , x2 ] = −2
.U
f [ x0 , x1 , x2 ] = −0.5.
de l’ordre de xi ;
FS
f ( x1 )− f ( x0 ) f (x ) f (x )
f [ x0 , x1 ] = x1 − x0 = f [ x1 , x0 ] = x0 −0x1 + x1 −1x0
f ( x0 ) f ( x1 ) f ( x2 )
f [ x0 , x1 , x2 ] = ( x0 − x1 )( x0 − x2 )
+ ( x1 − x0 )( x1 − x2 )
+ ( x2 − x0 )( x2 − x1 )
= f [ x0 , x1 , x2 ]
= f [ x1 , x2 , x0 ] = f [ x2 , x1 , x0 ] .
De façon générale :
f [ x1 ,x2 ,.......,xi ]− f [ x0 ,x1 ,.......,xi−1 ]
f [ x0 , x1 , ......., xi ] = xi − x 0
f ( x0 ) f ( x1 ) f ( xi )
= + + ....... + (x −x .
( x0 − x1 )( x0 − x2 )......( x0 − xi ) ( x1 − x0 )( x1 − x2 ).........( x1 − xi ) i 0 )( xi − x2 )......... ( xi − xi −1 )
M
f [ x0 ] = 2
O
f [ x0 , x2 ] = −1
C
f [ x1 , x2 ] = −2
A.
f [ x0 , x1 , x2 ] = −0.5
pn ( x) = 1 − 1.5x − 0.5x2 . JD
2.1.5 Base de Newton : Soient t0 , t1 , t2 , ...., tn (n + 1) points deux
à deux distincts d’un intervalle [a, b] de IR et les polynômes Ni
U
définis par
PO
N0 ( x) = 1, N 1 ( x) = ( x − x0 )
un polynôme degré i
O
Newton.
∑in=0 ci Ni ( x) = 0
0 = ∑in=0 ci Ni ( x1 ) = c0 N0 ( x1 ) + c1 N1 ( x1 ) = c1 ( x1 − x0 ) ⇒ c1 = 0, car x1 6= x0
.
.
M
0 = ∑in=0 ci Ni ( xn ) = cn N1 ( xn ) = cn ( xn − x0 )( xn − x1 )........( xn − xn−2 )( xn − xn−1 ) ⇒ cn = 0,
O
d’où le résultat.
C
2.1.7 Théorème : Soit f une fonction numérique définie sur un
A.
intervalle [a, b] . JD
Soit pn un polynôme interpolant de f en (n+1) points x0 , x1 , ........, xn ∈ [a, b] .
a. on peut exprimer pn (x) comme combinaison linéaires des
Ni ( x) de la base de Newton :
U
PO
pn ( x) = ∑in=0 Di Ni ( x).
on
obtient le système triangulaire inférieur suivant :
pn ( x0 ) = D 0 = f ( x0 )
M
p ( x ) = D 0 + D 1 N1 ( x1 ) = f ( x1 )
n 1
.U
. ( S1 )
.
O
pn ( xn ) = D 0 + D 1 N1 ( xn ) + D 2 N2 ( xn ) + ........ + D n Nn ( xn ) = f ( xn )
D0 = f [ x 0 ]
D1 = f [ x 0 , x 2 ]
.
.
.
f [ x1 ,x2 ,.......,xi ]− f [ x0 ,x1 ,.......,xi−1 ]
Di = xi − x 0 = f [ x0 , ..., xi ] pour i ≥ 2.
M
D4 = 0.000104,
O
D5 = −0.000002.
C
A.
JD
U
PO
M
.U
O
FS
M
O
5.1 Dérivation numérique
C
Dans ce paragraphe, la fonction n’est bien sûr pas connue par
A.
une formule explicite mais :
JD
- ou bien par ses valeurs sur un ensemble discret (en supposant
que les points sont assez proches pour que la notion de dérivée
ait un sens).
U
- ou bien, le plus souvant, par algorithme de calcul ou une
PO
M
0 f ( xi )− f ( xi−1 )
O
f ( xi ) ' xi − xi −1 (5.2)
C
5.1.2 Formules à de 3 points : On choisit d’interpoler sur les
points xi−1 , xi , xi+1 (ce qui est normalement plus satisfaisant). Dans
A.
ce cas on a JD
p( x) = f ( xi ) + f [ xi , xi+1 ] ( x − xi ) + f [ xi−1, xi , xi+1 ] ( x − xi−1 )( x − xi ) (5.3)
Donc
U
0
p ( x) = f [ xi−1 , xi ] + f [ xi−1, xi , xi+1 ] ( x − xi−1 )( xi − xi−1 )
PO
hi = xi +1 − xi (5.4)
M
0 f ( xi+1 )− f ( xi−1 )
f ( xi ) ' (5.5)
.U
2h
O
M
Dérivée seconde : points équidistants
O
00 f ( xi+1 )+ f ( xi−1 )+2 f ( xi )
f ( xi ) '
C
h2
A.
00 f ( xi+1 )+ f ( xi−1 )+2 f ( xi ) 2
f ( xi ) − h2
JD h
≤ M4 12
U
5.2 Intégration numérique.
PO
Rb
a f ( x)dx (5.2.1)
Soit
h = max | xi+1 − xi |
0 ≤i ≤ N − 1
M
Rb R xi +1
a f ( x)dx = ∑iN=−0 1 xi f ( x)dx (5.2.3)
O
ce sont ainsi les intégrales
C
R xi +1
xi f ( x)dx
A.
que nous allons approcher dans la suite par des formules appelées
”formules de quadrature”. Mentionnons encore que souvant,
JD
pour donner des formules de quadrature sur un intervalle standart
(par exemple [−1, 1] ,on exécute un changement de variable de la
U
forme :
PO
t = 2 x x−−xix −1 (5.2.4)
i +1 i
et par la suite
FS
R xi +1 R1
xi f ( x)dx = ( xi+1 − xi ) 21 −1
gi (t)dt (5.2.6)
où
J ( gi ) = ∑ M
j=1 w j gi ( t j ) (5.2.8)
dé f
M
de la formule de quadrature. Ces M points et M poids devront
être cherchés de façon à ce que J ( gi ) soit une approximation
O
numérique de −11 gi (t)dt.
R
C
Nous remarquons que la formule (5.2.8) est linéaire. En effet,
si gi et li sont deux fonctions continues données sur l’intervalle
A.
[−1, 1] et si α et β ∈ IR, nous vérifions facilement que :JD
J ( gi +l i ) = α J ( gi ) + βJ (l i ).
U
Exemple 5.1 : Un exemple classique est la formule à 2 points
PO
( M = 2) :
t1 = −1, t2 = 1, w1 = 1, w2 = 1
M
et donc
.U
fig.
( xi +1 − xi ) t+1
2 ∑M
j=1 w j f ( xi + ( xi +1 − xi ) 2 ) (3.11)
M
et donc nous allons approcher f ( x)dx par la formule dite ”formule
Rb
a
composite” :
O
C
( xi +1 − xi )
Lh ( f ) = ∑iN=−1 1 2 ∑M t+1
j=1 w j f ( xi + ( xi +1 − xi ) 2 ) (3.12)
A.
Exemple 3.2 : t1 = −1, t2 = 1, w1 = 1, w2 = 1. La formule composite (3.12)
s’écrit :
JD
( xi +1 − xi )
Lh ( f ) = ∑iN=−1 1 2 [ f ( xi ) + f ( xi+1 )] (3.13).
U
La formule composite (3.1) est facile à interpréter graphiquement,
PO
N = 4.
.U
J ( gi ) = ∑ M
j=1 w j gi ( t j ) .
dé f
Pour calculer numériquement −11 gi (t)dt est exacte pour tout polynôme
R
M
la définition (3.2), il est possible d’estimer l’erreur entre la valeur
O
exacte ab f (x)dx et la valeur approchée Lh ( f ), pour autant que f soit
R
assez régulière.
C
A.
Théorème 3.1 : Supposons que le formule de quadrature :
J ( gi ) = ∑ M
JD
j=1 w j gi ( t j )
dé f
U
pour calculer numériquement −11 gi (t)dt soit exacte pour des polynômes
R
Rb
a f ( x)dx − Lh ( f ) ≤ Chr+1 (3.14)
O
FS
M
où C ne dépend ni de N ni de h. L’estimation (3.15) indique qu’en
O
principe, lorsqu’on utilise la formule (3.13) pour approcher numériquement
f ( x)dx, l’erreur est divisée par 4 chaque fois que N est multiplié
Rb
C
a
par 2!
A.
En fait, l’inégalité (3.14) montre que , lorsque la partition est
finie (h petit), l’erreur obtenue en approchant ab f (x)dx par Lh ( f ) est
R JD
petite. Cette erreur devient d’autant plus petite avec h et que r
est grand.
U
Il est donc légitime de chercher des points d’intégration t j et
PO
∼
g (t) = ∑ M
j=1 g ( t j )ϕ j ( t )
M
R1 ∼
Il semble naturel de remplacer par g (t)dt,puisque
R1
−1
g(t)dt −1
O
R1 ∼ R1
−1
g (t)dt = ∑ M
j=1 g ( t j ) −1
ϕ j (t)dt,
C
nous constatons qu’il suffit de poser
A.
R1
w j= −1
ϕ j (t)dt
JD
pour que J ( g) d=é f ∑ Mj=1 w j g(t j ) soit une approximation de
R1
−1
g(t)dt.
U
Théorème 3.2 : Soit t1 < ..... < t M M points distincts de [−1, 1] et soit
PO
J ( g) = ∑ M
j=1 w j g ( t j )
.U
w j= −1
ϕ j (t)dt, j = 1, ..., M (3.17)
FS
R1
J (ϕk ) = ∑ M
j=1 w jϕk ( t j ) = −1
ϕk (t)dt
M
de deg = M − 1.
O
Soit p ∈ IP M−1 que nous développons dans la base de Lagrange
C
de IPM−1 associé aux points t1 , ....., t M , i.e
A.
p(t) = ∑ M
j=1 p ( t j )ϕ j ( t )
Ainsi donc
JD
R1 R1
p(t)dt = ∑ M ϕ j (t)dt = ∑ M
U
−1 j=1 p ( t j ) −1 j=1 p ( t j ) w j = J ( p ) .
PO
la fonction identique à 1.
Par conséquent, nous obtenons, en utilisons (3.17)
O
R1 R1
∑M
j=1 w j = ( ∑M
j=1 ϕk ( t j ) dt = dt = 2.
FS
−1 −1
Ce qui prouve que la somme des poids caclculés par (3.17) est
toujours égale à 2.
M
= r, avec r plus grand que M − 1.
O
Dans la suite nous verrons qu’il se peut que ces formules de
C
quadratures soient exactes pour les polynômes de deg = r, avec r
plus grand que M − 1.
A.
3.3 Formule du rectangle : La formule du rectangle est une
JD
formule à un seul point ( M= 1) : t1 = 0
J ( g) = 2g(0) (3.18)
O
xi +1 + xi
Lh ( f ) = ∑iN=−1 1 ( xi+1 − xi ) f ( 2 ) (3.19)
M
[ xi , xi+1 ] et dont la haureur est f (ζ i ), où ζi est le milieu de [ xi , xi+1 ].
O
fig 3.3 Formule du rectangle sur [−1, 1]
C
3.4 Formule de Simpson : La formule de Simpson est une formule
A.
à trois points : M = 3, t1 = −1, t2 = 0, t3 = 1.
La base de Lagrange ϕ1 , ϕ2 , ϕ3 de JD IP2 associée aux 3 points t1 , t2 , t3
s’écrit
ϕ1 (t) = 0.5(t2 −t), ϕ2 (t) = (1 − t2 ), ϕ3 (t) = 0.5(t2 +t)
U
Les relations (3.17) deviennent alors :
PO
R1 R1 R1
w1 = −1
ϕ1 (t)dt = 31 , w2 = −1
ϕ2 (t)dt = 43 , w3 = −1
ϕ3 (t)dt = 31
h i
Lh ( f ) =∑iN=−1 1 (xi+16−xi ) x +x
f ( xi ) + 4 f ( i+12 i ) + f ( xi +1 ) (3.22)
Rb
a
f (t)dt − Lh ( f ) ≤ Ch4 .
M
O
C
A.
JD
U
PO
M
.U
O
FS