0% ont trouvé ce document utile (0 vote)
40 vues42 pages

Poly AN

Transféré par

maxime.behocaray
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
40 vues42 pages

Poly AN

Transféré par

maxime.behocaray
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 42

Analyse Numérique

Laurent Seppecher et Grégory Vial

'

Cours de tronc commun S5

Version 1.11 – 3 novembre 2024


Table des matières

1 Analyse numérique matricielle 5


1.1 Résolution numérique de systèmes linéaires . . . . . . . . . . . . . . . . . . 5
1.1.1 Normes subordonnées . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Conditionnement d’un système linéaire . . . . . . . . . . . . . . . . 6
1.1.3 Autour de l’algorithme de Gauss . . . . . . . . . . . . . . . . . . . . 7
1.1.4 Quelques méthodes itératives . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Calcul d’éléments propres : méthodes de puissance . . . . . . . . . . . . . 9

2 Intégration numérique 13
2.1 La méthode des rectangles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 La méthode des trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Généralisation : les méthodes composées . . . . . . . . . . . . . . . . . . . 14
2.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.2 Cadre formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.3 Calcul des poids . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.4 Méthode de Gauss-Legendre . . . . . . . . . . . . . . . . . . . . . . 16
2.4 La méthode de Monte-Carlo pour le calcul d’intégrales . . . . . . . . . . . 17

3 Optimisation numérique 19
3.1 Quelques définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2 Méthodes de dichotomie en dimension 1 . . . . . . . . . . . . . . . . . . . 19
3.3 Optimisation libre dans Rd . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3.1 Méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3.2 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.3 Critères d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4 Optimisation sous contraintes . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4.1 Méthode du gradient projeté . . . . . . . . . . . . . . . . . . . . . . 22
3.4.2 Méthode de pénalisation . . . . . . . . . . . . . . . . . . . . . . . . . 23

4 Résolution numérique des équations différentielles ordinaires 25


4.1 Problème de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2 Principe des méthodes d’approximation . . . . . . . . . . . . . . . . . . . . 25
4.3 La méthode d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.4 Méthodes classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.5 Consistance, stabilité, convergence . . . . . . . . . . . . . . . . . . . . . . . 27
4.6 Schémas classiques à un pas . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3
5 Discrétisation de l’équation de Laplace par différences finies 31
5.1 Un problème mono-dimensionnel . . . . . . . . . . . . . . . . . . . . . . . 31
5.2 En dimension supérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

6 Discrétisation de l’équation de transport 37


6.1 L’équation de transport linéaire mono-dimensionnelle . . . . . . . . . . . . 37
6.2 La méthode des caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . 38
6.3 Approximation par différences finies . . . . . . . . . . . . . . . . . . . . . . 39

Références 42

4
Chapitre 1
Analyse numérique matricielle

1.1 Résolution numérique de systèmes linéaires


1.1.1 Normes subordonnées
Définition 1.1
Soit ∥ · ∥ une norme sur Rd et A ∈ Rd×d (ou Cd×d ) une matrice carrée. La norme
subordonnée de A est définie comme
∥ Ax ∥
||| A||| = sup .
x ∈Cd \{0}
∥x∥

Proposition 1.1
Soient A, B ∈ Rd×d et x ∈ Cd .
⋄ ∥ Ax ∥ ⩽ ||| A||| × ∥ x ∥.
⋄ ||| Id ||| = 1.
⋄ ||| AB||| ⩽ ||| A||| × ||| B|||.

Définition 1.2 (rayon spectral)


Soit A ∈ Rd×d (ou Cd×d ). On appelle rayon spectral de A le nombre
n o
ρ( A) = max |λ| ; λ valeur propre complexe de M .

Proposition 1.2
Soit A ∈ Rd×d . Alors, pour toute norme subordonnée, on a

ρ( A) ⩽ ||| A|||.

On utilise fréquemment les normes suivantes sur Rd (p ⩾ 1) :


! 1p
d
d
∥x∥ p = ∑ | xi | p , ∥ x ∥∞ = max | xi |.
i =1
i =1

5
Les normes subordonnées associées sont notées ||| A||| p et ||| A|||∞ . Les normes 1 et ∞
se calculent aisément en fonction des coefficients de la matrice, la norme 2 est reliée aux
valeurs propres :

Proposition 1.3
d d
d d
||| A|||∞ = max ∑ | Aij |, ||| A|||1 = max ∑ | Aij |.
i =1 j =1 j =1 i =1
q
||| A|||2 = ρ( ATA).

En particulier, si A est symétrique, on a ||| A|||2 = ρ( A).

1.1.2 Conditionnement d’un système linéaire


Définition 1.3
Soit ∥ · ∥ une norme sur Rd et ||| · ||| la norme subordonnée associée. On appelle condi-
tionnement d’une matrice A ∈ Rd×d inversible le nombre

cond( A) = ||| A||| × ||| A−1 |||.

Ce nombre dépend de la norme choisie. Pour les normes usuelles ∥ · ∥ p et ∥ · ∥∞ , il est


noté cond p ( A), et cond∞ ( A), respectivement.

Le conditionnement s’interprète comme le facteur d’amplification des erreurs rela-


tives lors de la résolution d’un système linéaire :

Proposition 1.4
Soient A ∈ Rd×d inversible, b, δb ∈ Rd . On note x ∈ Rd et x + δx ∈ Rd les solutions
des systèmes linaires
Ax = b, A( x + δx ) = b + δb.
Alors
∥δx ∥ ∥δb∥
⩽ cond( A) .
∥x∥ ∥b∥

Propriétés 1.5
Soit A ∈ Rd×d une matrice inversible.
⋄ Quelle que soit la norme subordonnée choisie, cond( A) ⩾ 1.
⋄ Si A est symétrique définie positive, alors

λmax ( A)
cond2 ( A) = .
λmin ( A)

⋄ Si A est orthogonale, alors cond2 ( A) = 1.

6
1.1.3 Autour de l’algorithme de Gauss
L’algorithme du pivot de Gauss
Le principe consiste à effectuer des opérations sur les lignes de la matrice A pour
l’échelonner, et se ramener à un système triangulaire inférieur. Les différentes étapes sont
détaillées ci-dessous.
⋄ Étape 0 : on initialise l’algorithme à partir de la matrice A et du vecteur second
membre b, selon les notations suivantes :
[0] [0] [0] [0]
a1,1 a1,2 . . . a1,d b1
[0] [0] [0] [0]
a2,1 a2,2 . . . a2,d b2
.. ..
. .
[0] [0] [0] [0]
ad,1 ad,2 . . . ad,d bd

[0]
⋄ Étape 1.1 : si a1,1 = 0, on permute les lignes 1 et k, opération notée L1 ↔ Lk de
[0]
telle sorte que ak,1 ̸= 0.
[0] [0] [0] [0]
ã1,1 ã1,2 . . . ã1,d b̃1
[0] [0] [0] [0]
ã2,1 ã2,2 . . . ã2,d b̃2
.. ..
. .
[0] [0] [0] [0]
ãd,1 ãd,2 . . . ãd,d b̃d
[0]
[0] ãk,1
⋄ Étape 1.2 : Maintenant ã1,1 ̸= 0 ; on effectue Lk ← Lk − rk L1 avec rk = [0] .
ã1,1

[0] [0] [0] [0]


ã1,1 ã1,2 . . . ã1,d b̃1
[1] [1] [1]
0 a2,2 . . . a2,d b2
.. ..
. .
[1] [1] [1]
0 ad,2 . . . ad,d bd

⋄ Étape 2 : On recommence avec la sous-matrice correspondant aux indices 2 ⩽


i, j ⩽ d :
[0] [0] [0] [0]
ã1,1 ã1,2 . . . ã1,d b̃1
0 [1] [1] [1]
a2,2 . . . a2,d b2
0 .. ..
.. . .
. [1] [1] [1]
0 ad,2 . . . ad,d bd

À l’issue des d − 1 étape de l’algorithme, la matrice est devenue triangulaire, et on est


ramené au système linéaire Uy = c : U est la matrice triangulaire obtenue à la fin de
l’algorithme, c est le vecteur second membre final, et y contient les composantes de la
solution recherchée x, dans un ordre éventuellement différent si des permutations ont eu
lieu.

7
La décomposition LU
Définition 1.4
Soit A ∈ Rd×d une matrice. On appelle mineur fondamental d’ordre k ⩽ d le déter-
minant  
det ( Aij )1⩽i,j⩽k .

La décomposition LU est une interprétation matricielle de l’algorithme du pivot de


Gauss :
Théorème 1.6 (Décomposition LU)
Soit A ∈ Rd×d une matrice ayant tous ses mineurs fondamentaux non nuls. Alors il
existe un unique couple ( L, U ) ∈ (Rd×d )2 tel que
⋄ L est triangulaire inférieure avec des 1 sur la diagonale,
⋄ U est triangulaire supérieure,
⋄ A = LU.
Lorsque A admet une décomposition LU on peut, pour résoudre le système linéaire
Ax = b, résoudre successivement les systèmes triangulaires
Ly = b et Ux = y.
Le coût de résolution d’un système quelconque de taille d × d par l’algorithme de Gauss
est de l’ordre O(d3 ). Il est bien moins coûteux de résoudre un système triangulaire,par
descente ou remontée, en O(d2 ). Toutefois le coût du calcul de L et U est également O(d3 ).
L’intérêt de la décomposition LU réside dans la résolution de nombreux systèmes
linéaires avec la même matrice et des seconds membres différents. On peut, en effet, cal-
culer (et stocker) une fois pour toutes les matrices L et U et résoudre les p systèmes li-
néaires triangulaires ensuite. Le coût de calcul est O(d3 + pd2 ), inférieur à O( pd3 ) requis
par la méthodes de Gauss appliquée aux p systèmes linéaires. Observons toutefois que
cela n’a d’intérêt que lorsque les seconds membres ne sont pas connus tous à l’avance
(car sinon, on peut appliquer l’algorithme de Gauss une seule fois avec comme second
membre la matrice concaténant les p seconds membres). Un exemple d’une telle situation
se rencontre lorsqu’on utilise la méthode de la puissance inverse (voir §1.2).
Remarque 1.1
⋄ Dans le cas, plus général, où A est seulement inversible, on peut montrer qu’il existe une
matrice de permutation (non unique) P telle que PA admette une décomposition LU.

Corollaire 1.7 (Décomposition de Choleski)


Soit A une matrice symétrique définie positive. Il existe une unique matrice B, trian-
gulaire inférieure avec des entrées diagonales strictement positives, telle que

A = BBT .

1.1.4 Quelques méthodes itératives


En vue de résoudre un système linéaire Ax = b, les méthodes itératives construisent
une suite de vecteurs ( x (n) )n qui converge vers la solution x. L’idée générale consiste à

8
décomposer la matrice A en
A = M − N,
avec M inversible et « simple ». Le système linéaire est alors équivalent au problème de
point fixe
Mx = Nx + b.
Il est alors naturel de construire la suite récurrente ( x (n) par la relation

x (n+1) = M−1 ( Nx (n) + b).


Théorème 1.8
Soit B ∈ Rd×d et c ∈ Rd . La suite ( x (n) )n définie par

x (n+1) = Bx (n) + c

converge pour tout choix de x (0) et tout choix de c si et seulement si

ρ( B) < 1.

Dans ce cas, la convergence est géométrique : si x désigne la limite, alors

∥ x − x (n) ∥ = O ( ρ ( B )n ) .

La méthode de Jacobi correspond au choix M = D. Elle est bien définie sitôt que la
matrice A n’a pas de 0 sur la diagonale. La méthode de Gauss-Seidel, quant à elle, revient
à choisir pour M la partie triangulaire (diagonale comprise) de A. Elle est bien définie
dans les mêmes conditions. La question de la convergence de ces méthodes n’est pas
simple dans le cas général.

1.2 Calcul d’éléments propres : méthodes de puissance


Théorème 1.9 (Méthode de la puissance)
Soit A ∈ Rd×d une matrice dont on note λ1 , . . . , λ p , avec p ⩽ d, les valeurs propres
complexes distinctes. On suppose que

| λ 1 | ⩽ | λ 2 | ⩽ · · · ⩽ | λ p −1 | < | λ p | ,
et on construit la suite


 y(n+1) = Ax (n) ,

y ( n +1)


x ( n +1) = ( n +1) ,


 ∥y ∥2
x ∈R .
(0) d

Si x (0) n’est pas choisi dans le sous-espace engendré par les vecteurs propres associées
à {λ1 , . . . , λ p−1 }, alors la suite

( Ax (n) | x (n) ) converge vers λp.

9
Remarque 1.2
⋄ En général la suite ( x (n) ) ne converge pas bien qu’asymptotiquement le vecteur x(n) est
proche d’un vecteur propre associé à λ p .
⋄ L’hypothèse |λ p−1 | < |λ p | est essentielle pour assurer la convergence de l’algorithme.
Des phénomènes d’oscillation peuvent avoir lieu dans le cas où cette hypothèse n’est pas
satisfaite. On peut alors étudier la matrice A + εI si cette situation arrive.
⋄ Si l’on applique la méthode de la puissance à la matrice A−1 (on n’inverse pas explicite-
ment la matrice, mais on résout un système linéaire à chaque itération), on peut approcher
la plus petite valeur propre (en module) de A. On parle de méthode de la puissance inverse.
De même, si on applique la méthode à ( A − µId )−1 , on approchera la valeur propre la plus
proche du nombre complexe µ (méthode de la puissance inverse avec translation).
⋄ Il est possible, notamment dans le cas où A est symétrique, d’adapter la méthode pour
les quelques plus grandes valeurs propres de la matrice A. Il s’agit de la méthode dite de
déflation.

P REUVE . (Pour les matrices diagonalisables) Soit x (0) ∈ Rd , x ̸= 0. Comme A est dia-
gonalisable, on écrit A = P−1 DP avec P inversible et D = diag(λ p , . . . , λ p , λ p−1 , . . . , λ1 ).
Posons maintenant la suite z(n) définie par

z ( n ) = A n x (0) , ∀n ∈ N.
z(n)
Remarquons que par récurrence = xn pour n ⩾ 1. En effet z(1) = y(1) et x (1) =
∥ z(n) ∥2
y (1)
, si c’est vrai au rang n, on a
∥ y (1) ∥ 2
z(n) = z(n) x (n) ,
2

Az(n) = z(n) Ax (n) = z(n) y ( n +1)


2 2

z ( n +1) = z ( n ) y ( n +1) ,
2
z ( n +1) y ( n +1)
= = x ( n +1) .
z ( n +1) 2
y ( n +1) 2

On réécrit alors D = λ p × diag(1, . . . , 1, α1 , . . . , αr ) ou les αi sont des complexes de


module strictement inférieurs à 1. Ainsi D n = λnp × diag(1, . . . , 1, α1n , . . . , αrn ) et donc

1 n
D → J,
λnp
 
Im 0
avec J = avec m la multiplicité de la valeur propre λ p . Ainsi 1
λnp An → P−1 JP et
0 0
donc

1 (n)
z → P−1 JPx (0) .
λnp

On pose ξ = P−1 JPx (0) ̸= 0. Supposons que ξ ̸= 0. Alors la suite z(n) ne peut jamais
s’annuler, (sinon nulle à partir d’une certain rang). On a

10
1
z(n) → ∥ ξ ∥,
|λ p |n 2

et donc

z(n) ξ ξ
→ , i.e. x (n) →
z(n) 2
∥ ξ ∥2 ∥ ξ ∥2
De plus,

Aξ = P−1 DPP−1 JPx (0) = P−1 DJPx (0) = λ p P−1 JPx (0) = λ p ξ
( Aξ |ξ )
donc = λ p et on a bien ( Ax (n) | x (n) ) → λ p .
∥ξ ∥22

11
12
Chapitre 2
Intégration numérique

Le principe général des méthodes d’intégration numérique (dites aussi méthodes de


quadrature) pour le calcul approché de l’intégrale d’une fonction continue f
Z b
I= f ( x ) dx,
a

consiste à subdiviser l’intervalle d’intégration [ a, b] en

b−a
xi = a + ih, avec h= ,
N
où N est un entier donné. On alors, d’après la relation de Chasles,
Z b N − 1 Z x i +1
I=
a
f ( x ) dx = ∑ xi
f ( x ) dx.
i =0

La construction d’une méthode d’intégration numérique consiste donc à approcher l’in-


tégrale sur chacun des sous-intervalles [ xi , xi+1 ].

2.1 La méthode des rectangles


La méthode des rectangles consiste à utiliser l’approximation suivante :
Z x i +1
f ( x ) dx ≃ h f ( xi ).
xi

L’approximation de I est alors définie par


N −1
IN = h ∑ f ( x i ).
i =0

Théorème 2.1
Si f est de classe C 1 sur l’intervalle [ a, b], alors on a l’estimation d’erreur suivante
pour la méthode des rectangles :

( b − a )2
| I − IN | ⩽ sup | f ′ ( x )|.
2N x∈[a,b]

13
En particulier, on a  
1
| I − IN | = O .
N

2.2 La méthode des trapèzes


On peut améliorer l’approximation en utilisant
Z x i +1
f ( x i ) + f ( x i +1 )
f ( x ) dx ≃ h .
xi 2

La méthode obtenue, dite méthode des trapèzes définit alors l’approximation

N −1 N −1
h h
IN =
2 ∑ ( f ( xi ) + f ( xi+1 )) =
2
( f ( x0 ) + f ( x N )) + h ∑ f ( xi ).
i =0 i =1

Ainsi, la méthode des trapèzes ne nécessite qu’une seule évaluation supplémentaire par
rapport à la méthode des rectangle. Elle est, en revanche, plus précise.
Théorème 2.2
Si f est de classe C 2 sur l’intervalle [ a, b], alors on a l’estimation d’erreur suivante
pour la méthode des trapèzes :

( b − a )3
| I − IN | ⩽ sup | f ′′ ( x )|.
N 2 x∈[a,b]

En particulier, on a  
1
| I − IN | = O .
N2

2.3 Généralisation : les méthodes composées


2.3.1 Introduction
On décrit ici un procédé qui permet de construire d’autres méthodes d’intégration nu-
mérique, dites composées. Pour approcher l’intégrale, on la découpe selon une subdivision
(ici encore, de pas uniforme h) :
Z b N − 1 Z x i +1
I=
a
f ( x ) dx = ∑ xi
f ( x ) dx.
i =0

Sur chaque intervalle [ xi , xi+1 ], on va approcher l’intégrale par une combinaison linéaire
de valeurs de f :
Z x i +1 ki

xi
f ( x ) dx ≃ ∑ wiq f (ξ qi ).
q =0

Il reste à expliquer comment on choisit les points (ou nœuds) ξ qi et les poids wiq .

14
Une manière simple de procéder consiste à choisir k i indépendant de i, de même que
les wiq . Pour les points, on se donne un motif :

ξ qi = xi + tq h,

où t0 , t1 , . . . , tq sont donnés. Autrement dit, on utilise l’approximation suivante :


Z x i +1 Z 1 k
f ( x ) dx = h f ( x + th) dt ≃ h ∑ wq φi (tq ).
xi 0 | i{z } q =0
φi ( t )

Lorsque l’on utilise l’approximation


Z 1 k

0
φ(t) dt ≃ ∑ w q φ ( t q ),
q =0

on parle de modèle élémentaire.


Remarque 2.1
Il est important de comprendre qu’un modèle élémentaire ne donne, en général, pas une bonne
approximation de l’intégrale de φ sur [0, 1]. Le seul paramètre sur lequel on pourrait jouer est k,
et il n’est pas assuré que lorsque k → ∞, on ait convergence vers l’intégrale.

2.3.2 Cadre formel


Définition 2.1
On appelle modèle élémentaire toute formule du type

k
∑ w q φ ( t q ), (2.1)
q =0

où les points tq et les poids wq sont donnés.


On dit que ce modèle est exact Pℓ (ou exact au degré ℓ) lorsque, pour tout poly-
nôme p ∈ Pℓ , on a
k Z 1
∑ wq p ( t q ) =
0
p(t) dt.
q =0

Définition 2.2
On appelle méthode composée à partir du modèle élémentaire (2.1) pour le calcul de
l’intégrale
Z b
I= f ( x ) dx
a
la formule d’approximation

N −1 k
IN = h ∑ ∑ w q f ( x i + t q h ). (2.2)
i =0 q =0

15
Théorème 2.3
Si le modèle élémentaire (2.1) est exacte Pℓ et si f ∈ C ℓ+1 ([ a, b]), alors on a l’estima-
tion d’erreur
(b − a)ℓ+2
| I − IN | ⩽ ℓ+1 sup f (ℓ+1) ( x ) .
N (ℓ + 1)! x∈[a,b]

Remarque 2.2
La méthode des rectangles est la méthode composée à partir du modèle élémentaire correspondant
à
k = 0, t0 = 0, w0 = 1.
Ce modèle est exact P0 , donc si f ∈ C 1 ([ a, b]), le théorème 2.3 nous assure l’estimation d’erreur

( b − a )2
| I − IN | ⩽ sup f ′ ( x ) .
N x ∈[ a,b]

On voit que l’estimation du théorème 2.1 est plus précise (en raison du facteur 2 au dénominateur).
Toutefois, l’ordre de convergence O( N ¯1 ) est le même dans les deux cas.

2.3.3 Calcul des poids


On suppose que les points d’intégration (encore appelés points de quadrature sont don-
nés. On a intérêt à ajuster les poids pour que le modèle élémentaire soit exacte Pℓ pour le
plus grand ℓ possible.
Proposition 2.4
Pour tout choix des points t0 < t1 < · · · < tk , il existe un unique choix de poids
w0 , w1 , . . . , wk tel que le modèle élémentaire soit exact Pk . Le vecteur W = (w0 , w1 , . . . , wk )T
est solution du système linéaire de Vandermonde

VW = b,

avec
1
∀0 ⩽ i, j ⩽ k, Vij = tij et bi = .
i+1

Notons qu’il n’est, en général, pas possible de calculer les poids pour que la formule
soit exacte Pℓ avec ℓ > k.

2.3.4 Méthode de Gauss-Legendre


Si l’on suppose que les points de quadrature peuvent également être ajustés, il est
possible d’augmenter le degré d’exactitude d’un modèle élémentaire au delà de k.
Théorème 2.5 (Méthode de Gauss-Legendre)
Soit ( P0 , P1 , . . .) la famille de polynômes orthogonaux (avec do Pi = i) pour le produit
scalaire

Z 1
( φ, ψ) = φ(t)ψ(t) dt.
0

16
On note (tq )q=0,...,k les racines de Pk+1 . On détermine les poids (wq )q=0,...,k tel que le
modèle élémentaire soit exact Pk , i.e. solution de
k
1
∀i = 0, 1, . . . , k, ∑ wq tiq = i + 1 .
q =0

Alors la formule
Z 1 k

0
φ(t) dt ≃ ∑ wq φ ( t q )
q =0

est exacte P2k+1 .

2.4 La méthode de Monte-Carlo pour le calcul d’intégrales


Théorème 2.6 (Loi forte des grands nombres pour une loi uniforme)
Si X ,→ U([ a, b]) et f : [ a, b] → R, alors
Z b
1
E [ f ( X )] = f ( x ) dx.
b−a a

Si ( X0 , X1 , . . .) est une suite de variables aléatoires indépendantes de même loi que X,


alors
b − a N −1
Z b

N i∑
f ( X i ) converge presque sûrement vers f ( x ) dx.
=0 a

Remarque 2.3
⋄ Le théorème 2.6 n’est autre que la loi forte des grands nombres, dans le cas particulier de
la loi uniforme.
⋄ En pratique, on dispose d’une réalisation (issue d’observations) de l’échantillon, notée
( x0 , x1 , x N −1 ), et la quantité calculable
N −1
b−a
N ∑ f ( xi )
i =0

approche l’intégrale.
⋄ Le théorème centrale limite fournit une information sur la vitesse de convergence. Sans
1
rentrer dans les détails, on peut retenir que l’approximation obtenue est de l’ordre O( N − 2 ).
Cette convergence est plus lente que pour la plus simple des méthodes déterministes (la
méthode des rectangles). Toutefois, la méthode de Monte Carlo trouve son intérêt pour le
calcul d’intégrales en grande dimension, là où les méthodes déterministes sont complète-
ment inopérantes (en dimension d, mettre 10 points dans chaque direction pour un calcul
déterministe requiert 10d évaluations de la fonction à intégrer).

17
18
Chapitre 3
Optimisation numérique

3.1 Quelques définitions


Définition 3.1
Une fonction f : R → R est dite unimodale lorsqu’il existe x ∗ ∈ R tel que f soit
strictement décroissante sur ] − ∞, x ∗ [ et strictement croissante sur [ x ∗ , +∞[.

Définition 3.2
Une fonction f : R → R est dite coercive lorsque

lim f ( x ) = +∞.
| x |→+∞

Définition 3.3
Une fonction f : R → R de classe C 2 est dite fortement convexe lorsqu’il existe un
réel α > 0 tel que pour tout x ∈ R, on a f ′′ ( x ) ⩾ α.

Proposition 3.1
⋄ Une fonction fortement convexe est coercive.
⋄ Une fonction coercice et fortement convexe est unimodale.

3.2 Méthodes de dichotomie en dimension 1


Proposition 3.2 (Méthode de bissection ou dichotomie)
Soit f : R → R unimodale, dérivable, minimale en x ∗ ∈ [ a0 , b0 ]. On définit les suites
( an ), (bn ), ( xn ) comme suit :
a n + bn
xn = .
2
⋄ Si f ′ ( xn ) < 0, alors
a n +1 = x n , et bn + 1 = bn ,

⋄ Si f ′ ( xn ) > 0, alors
a n +1 = a n , et bn + 1 = x n .

19
La suite ( xn ) converge vers x ∗ , et on a l’estimation d’erreur

b−a
| xn − x ∗ | ⩽ .
2n +1

Cette méthode est très facile à mettre en œuvre si l’on peut évaluer facilement la déri-
vée f ′ . Dans le cas contraire, on lui préfère souvent la méthode dite du nombre d’or.
Proposition 3.3 (Méthode du nombre d’or)
Soit f : R → R unimodale, minimale en x ∗ ∈ [ a0 , b0 ]. On fixe aussi c0 , d0 tels que
a0 < c0 < d0 < b0 avec
b0 − c0 b0 − d0 1
= = .
b0 − a0 b0 − c0 γ
On définit les suites ( an ), (bn ), (cn ), (dn ), ( xn ) comme suit :

a n + bn
xn = .
2
⋄ Si f (cn ) < f (dn ), alors

a n +1 = an
bn + 1 = dn
bn + 1 − a n + 1
c n +1 = bn + 1 − γ
d n +1 = cn

⋄ Si f (cn ) > f (dn ), alors

a n +1 = cn
bn + 1 = bn
c n +1 = dn
bn + 1 − a n + 1
d n +1 = a n +1 + γ

La suite ( xn ) converge vers x ∗ , et on a l’estimation d’erreur

b−a
| xn − x ∗ | ⩽ .
2γn

3.3 Optimisation libre dans Rd


Les méthodes de dichotomie présentées dans le paragraphe précédent ne se généra-
lisent pas en dimension supérieure. En effet, elles sont basées sur le théorème des valeurs
intermédiaires qui n’a pas d’équivalent à partir de la dimension 2.

3.3.1 Méthodes de descente


Proposition 3.4 (Méthode du gradient à pas fixe)
Soit f ∈ C 1 (Rd , R) strictement convexe, coercive, et telle que

∃ M > 0, ∀x, y ∈ Rd , ∥∇f(x) − ∇f(y)∥2 ⩽ M∥x − y∥2 .

20
2
(on dit que ∇f est M-lipschitzien). Si 0 < ρ < M, alors la suite définie par

x (0) ∈ Rd , et x ( n +1) = x ( n ) − ρ ∇ f ( x ( n ) )

converge vers le point de minimum global de f sur Rd .

Remarque 3.1
Si f est de classe C 2 et si l’on ajoute l’hypothèse (dite de α-convexité)

∃α > 0, ∀x, y ∈ Rd , ( Hf(x)y|y) ⩾ α∥y∥22 ,



alors si 0 < ρ < M2
, alors la convergence est géométrique.

Proposition 3.5 (Méthode du gradient à pas optimal)


La méthode du gradient à pas optimal ( steepest descent method en anglais) est définie
par l’itération 

 x (0) ∈ Rd ,

ρn = argmin f(x(n) − ρ∇f(x(n) )) ; ρ ∈ R ,


 ( n +1)
= x ( n ) − ρ n ∇ f ( x ( n ) ).

x
Si f est de classe C 2 , α-convexe, coercive, et

∃ M > 0, ∀x, y ∈ Rd , ∥∇f(x) − ∇f(y)∥2 ⩽ M∥x − y∥2 ,

alors la méthode du gradient à pas optimal converge vers le point de minimum global
de f sur Rd . La convergence est géométrique.

Remarque 3.2
Dans le cas d’une fonctionnelle quadratique

f(x) = ∥ Ax − b∥22 ,

où A est une matrice symétrique définie positive, alors le pas optimal ρn peut être calculé explici-
tement :
∥∇f( x (n) )∥22
ρn = .
2∥ A∇f( x (n) )∥22

3.3.2 Méthode de Newton


Définition 3.4 (Méthode de Newton pour la recherche de zéros)
Soit F : Rd → Rd une fonction de classe C 1 . La méthode de Newton consiste à
construire la suite x (n) par la récurrence
h i −1
x(n+1) = x(n) − JF(x(n) ) F ( x ( n ) ).

21
Lorsque l’on souhaite minimiser une fonction f : Rd → R, on peut recherche ses
points critiques, i.e. les zéros de son gradient. La méthode de Newton s’écrit alors, pour
f ∈ C2 : h i −1
x(n+1) = x(n) − Hf(x(n) ) ∇ f ( x ( n ) ).
Proposition 3.6 (Convergence de la méthode de Newton)
Soit F ∈ C 2 (Rd , Rd ) et x∗ ∈ Rd tel que F(x∗ ) = 0. On suppose JF(x∗ ) inversible. Alors
il existe η > 0 tel que pour tout x(0) ∈ B(x∗ , η ), la méthode de Newton est bien définie
et converge vers x∗ .
La convergence est quadratique, i.e. il existe C > 0 tel que

∀n ⩾ 0, ∥ x ( n +1) − x ∗ ∥ ⩽ C ∥ x ( n ) − x ∗ ∥ 2 .

Remarque 3.3
On n’est assuré de la convergence de la méthode de Newton que si le vecteur initial est suffisam-
ment proche d’un zero de F. D’un point de vue pratique, il est très difficile de faire un tel choix.
Dans le cas où le problème ne laisse apparaître aucun choix naturel, une stratégie consiste à faire
des essais jusqu’à ce que la méthode converge. En cas de convergence, celle-ci est très rapide et la
précision machine est obtenue après quelques itérations.

3.3.3 Critères d’arrêt


Les méthodes présentées ci-dessus sont de nature itérative. D’un point de vue pra-
tique, il est essentiel de disposer de critères d’arrêt pour décider de stopper l’algorithme.
Un choix naturel consiste en le contrôle de l’incrément : on arrête l’algorithme lorsque

∥x(n+1) − x(n) ∥ < ε,

pour une précision ε donnée. Cela correspond à stopper l’algorithme lorsque les itérés ne
sont presque plus modifiés d’une itération à l’autre.
Dans le cas des méthodes de gradient, ce contrôle coïncide (à multiplication par le pas
près) à contrôler la norme du gradient. Cela s’interprète en stoppant l’algorithme lorsque
l’itéré se trouve dans une zone de très faible pente de la fonction à minimiser.

3.4 Optimisation sous contraintes


3.4.1 Méthode du gradient projeté
Définition 3.5 (Projection sur on convexe fermé)
Soit K ⊂ Rd un convexe fermé non vide. Pour tout x ∈ Rd , il existe un unique point
πK (x) ∈ K qui minimise la distance à K :

∥x − πK (x)∥2 = min ∥x − y∥2 .


y∈K

Proposition 3.7 (Méthode du gradient projeté)


Soit f ∈ C 1 (Rd , R) strictement convexe et coercive, et K convexe fermé non vide, avec
∃ M > 0, ∀x, y ∈ Rd , ∥∇
22f(x) − ∇f(y)∥2 ⩽ M∥x − y∥2 ,
alors la méthode du gradient projeté définie par x(0) ∈ Rd et
 
x ( n +1) = π K x ( n ) − ρ ∇ f ( x ( n ) )

2
converge vers le point de minimum global de f sur K, dès que 0 < ρ < M.

3.4.2 Méthode de pénalisation


Définition 3.6 (Fonction de pénalisation)
Soit K ⊂ Rd . On appelle fonction de pénalisation de K toute fonction β : Rd → R
satisfaisant
⋄ β est continue,
⋄ β ⩾ 0 sur Rd ,
⋄ β(x) = 0 ⇐⇒ x ∈ K.

La stratégie de pénalisation consiste à remplacer le problème avec contrainte

min f(x) (3.1)


x∈K

par le problème sans contrainte

1
min f(x) + β(x). (3.2)
x ∈R d ε

Théorème 3.8
Soient f ∈ C 1 (Rd , R) strictement convexe et coercive, et K ⊂ Rd un convexe fermé
non vide. Soit β une fonction de pénalisation de K. Alors, pour tout ε > 0, le problème
pénalisé (3.2) admet une unique solution xε , qui satisfait

lim xε = x,
ε →0

où x est l’unique solution du problème avec contrainte (3.1).

23
24
Chapitre 4
Résolution numérique des équations
différentielles ordinaires

4.1 Problème de Cauchy


On appelle problème de Cauchy un problème différentiel avec condition initiale :

 u′ (t) = f(t, u(t)), t ∈ [0, T ],
(4.1)
 u (0) = u ,
0

où f : [0, T ] × Rd → Rd est une fonction donnée, et u0 ∈ Rd . Lorsque d = 1, le


problème est scalaire, il s’agit d’une équation différentielle avec condition initiale. Dans le
cas d ⩾ 2, on a affaire à un système d’équations différentielles avec conditions initiales :
c’est un problème vectoriel.
Si l’on a
∃f̃ : Rd → Rd , ∀t ∈ [0, T ], ∀v ∈ Rd , f(t, v) = f̃(v),
alors on dit que le problème est autonome.
On rappelle ici le théorème de Cauchy-Lipschitz global, qui fournit un cadre de réso-
lution pour le problème (4.1).
Théorème 4.1 (Cauchy-Lipschitz global)
On suppose que f est continue et qu’il existe L > 0 tel que

∀t ∈ [0, T ], ∀v, w ∈ Rd , ∥f(t, v) − f(t, w)∥ ⩽ L∥v − w∥.

Alors le problème (4.1) admet une unique solution u ∈ C 1 ([0, T ], Rd ).

4.2 Principe des méthodes d’approximation


Afin d’approcher numériquement la solution u du problème (4.1), on introduit un
entier Nh ⩾ 1 lié au pas de discrétisation h par h = NTh , et la subdivision

∀n = 0, 1, . . . , Nh , tn = nh.

25
Une méthode (ou schéma) numérique consiste en la construction des valeurs

(U0 , U1 , . . . , U Nh )

dont on espère qu’elles approcheront les évaluations de la solution sur la subdivision

(u(t0 ), u(t1 ), . . . , u(t Nh )).

Bien sûr, sauf cas exceptionnel, Un ̸= u(tn ). Par ailleurs, insistons sur le fait que, lorsque
Nh change, les valeurs des temps auxquels ont approche la solution changent également.
Par exemple, t1 = h = NTh .

4.3 La méthode d’Euler


La méthode d’Euler consiste à construire la suite (Un ) grâce à la relation de récurrence

Un+1 = Un + hf(tn , Un ),

l’initialisation étant naturellement effectuée par U0 = u0 (condition initiale donnée par le


problème de Cauchy).
La méthode d’Euler consiste à suivre la tangente à la courbe intégrale passant par le
point (tn , Un ) pendant un pas de temps h, comme le représente la figure (4.1).

F IGURE 4.1 – La méthode d’Euler en dimension 1.

4.4 Méthodes classiques


Définition 4.1 (Schéma numérique à un pas)
Un schéma général à un pas et une relation de récurrence de la forme

Un+1 = Un + hGh (tn , Un , Un+1 ), n ∈ N.

Si G ne dépend pas de Un+1 le schéma est explicite, sinon il est implicite.

26
Voici une liste non exhaustives des schémas à un pas les plus classiques.
⋄ Méthode d’Euler rétrograde (implicite, ordre 1)

Un+1 = Un + hf(Un+1 , tn+1 ).

⋄ Méthode de Heun (explicite, ordre 2)

h
U n +1 = U n + [f(Un , tn ) + f(Un + hf(Un , tn ), tn+1 )] .
2
⋄ La méthode de Crank-Nicolson (implicite, ordre 2)

h
U n +1 = U n + [f(Un , tn ) + f(Un+1 , tn+1 )] .
2
⋄ La méthode de Runge-Kutta 2 (RK2) (explicite, ordre 2)
 
h h
Un+1 = Un + hf Un + f(Un , tn ), tn + .
2 2

⋄ La méthode de Runge-Kutta 4 (RK4) (explicite, ordre 4)




 k1 = f ( U n , t n )
  
h h


k = f U + k , t +

n 1 n

 2



 2 2
 
h h

k3 = f U n + k2 , t n +


 2 2




 k4 = f(Un + hk3 , tn+1 )

Un+1 = Un + h (k1 + 2k2 + 2k3 + k4 ).



6

4.5 Consistance, stabilité, convergence


Considérons un schéma numérique sous la forme

∀n = 0, 1, . . . , Nh − 1, Un+1 = Un + hG(tn , Un , Un+1 ). (4.2)

Si la fonction G ne dépend pas de la variable Un+1 , on dit que le schéma est explicite, sinon
on dit qu’il est implicite.
Définition 4.2 (Erreur de consistance)
L’erreur de consistance (locale) du schéma (4.2) est définie par

u ( t n +1 ) − u ( t n )
∀n = 0, 1, . . . , Nh − 1, εhn = − G(tn , u(tn ), u(tn+1 )),
h
où u désigne la solution du problème de Cauchy (4.1).

Définition 4.3 (Consistance, ordre de consistance)


On dit que la méthode (4.2) est consistante avec le problème (4.1) lorsque l’erreur de

27
consistance locale converge vers 0 lorsque Nh tend vers l’infini (i.e. h tend vers 0) :
Nh −1
lim max ∥εhn ∥ = 0.
h →0 n =0

On dit que la méthode est consistante d’ordre k lorsque


Nh −1
max ∥εhn ∥ = O(hk ).
n =0

Définition 4.4 (Stabilité)


Soit le schéma perturbé

∀n = 0, 1, . . . , Nh − 1, Vn+1 = Vn + hG(tn , Vn , Vn+1 ) + µn ,

initialisé avec V0 = u0 .
On dit que le schéma (4.2) est stable lorsqu’il existe une constante C, telle que pour
tout choix de (µn ), on ait
Nh −1
Nh
max ∥Un − Vn ∥ ⩽ C
n =0
∑ ∥ µ n ∥.
n =0

Définition 4.5 (Convergence)


On dit que la méthode (4.2) est convergente lorsque
Nh
lim max ∥Un − u(tn )∥ = 0.
h →0 n =0

La convergence est dite d’ordre k lorsque


Nh
max ∥Un − u(tn )∥ = O(hk ).
n =0

Théorème 4.2 (Lax)


Une méthode consistante et stable est convergente. Si la consistance est d’ordre k, la
convergence est également d’ordre k.

4.6 Schémas classiques à un pas


Méthode d’Euler (explicite)

Un+1 = Un + hf(tn , Un ).

Méthode d’Euler implicite

Un+1 = Un + hf(tn+1 , Un+1 ).

28
Méthode de Heun
hh i
U n +1 = U n + (f(tn , Un ) + f tn+1 , Un + hf(tn , Un ) .
2

Méthode de Crank-Nicolson
hh i
U n +1 = U n + ( f ( t n , U n ) + f ( t n +1 , U n +1 ) .
2

Méthode de Runge-Kutta 2

k1 = f ( t n , U n ) .
 
h h
k2 = f t n + , U n + k1 .
2 2
Un+1 = Un + hk2 .

Méthode de Runge-Kutta 4

k1 = f ( t n , U n ) .
 
h h
k2 = f t n + , U n + k1 .
2 2
 
h h
k3 = f t n + , U n + k2 .
2 2
k4 = f (tn + h, Un + hk3 ) .
h
Un+1 = Un + (k1 + 2k2 + 2k3 + k4 ) .
6

29
30
Chapitre 5
Discrétisation de l’équation de Laplace
par différences finies

5.1 Un problème mono-dimensionnel


On considère le problème

−u′′ ( x ) = f ( x ) pour x ∈]0, 1[,





u(0) = α, (5.1)


u(1) = β,

où la fonction f est donnée, et α, β sont deux réels fixés.


Un entier N ⩾ 1 étant fixé, on introduit le pas de discrétisation

1
h= ,
N+1

et la subdivision
∀i = 0, 1, . . . , N + 1, xi = ih.
Définition 5.1
L’approximation de la dérivée seconde à 3 points est donnée par

u( x − h) − 2u( x ) + u( x + h)
u′′ ( x ) ≃ .
h2
Si u est de classe C 4 , on a l’estimation d’erreur

u( x − h) − 2u( x ) + u( x + h) h2
u′′ ( x ) − ⩽ max |u(4) (ξ )|.
h2 12 ξ ∈[ x−h,x+h]

En utilisant l’approximation de la dérivée seconde à 3 points en chaque xi pour 1 ⩽


i ⩽ N, on obtient le problème discret suivant, où Ui fournira une approximation de u( xi )

−Ui−1 + 2Ui − Ui+1


∀1 ⩽ i ⩽ N, = f ( x i ),
h2

31
et U0 , UN +1 sont données par les conditions aux limites :
U0 = α, UN +1 = β.
On obtient le système linéaire AU = F, avec
 
   
 f ( x1 ) + α/h2
 2 −1  U1

   
1  −1
   U
 2
  f ( x2 ) 
A = 2 , U= , F= .
   
h      

 −1 






 f ( x N −1 ) 

−1 2 UN 
f ( x N ) + β/h2

Remarque 5.1
Il est possible de choisir pour vecteur d’inconnues
 
 U0 
 U1
 

V=  ∈ R N +2 .
 
 U2 
 
 
 
 
U N +1

Le système linéaire obtenu peut alors s’écrire BV = G,


 
  α/h 2

 1 0
 
 −1 2 −1



 f ( x 1 ) 

1
 
B = 2 G=
   f (x ) 
, 2 
h  
  
−1 2 −1 
  
 f (x ) 
   N 
0 1  
β/h2

Théorème 5.1
La matrice A est symétrique définie positive. Ses valeurs propres sont données par
 
4 2 ℓ πh
λℓ = 2 sin , ℓ = 1, 2, . . . , N.
h 2

Théorème 5.2
Si la solution du problème (5.1) est de classe C 4 sur l’intervalle fermé [0, 1], alors

N h2
max |u( xi ) − Ui | ⩽ sup u(4) ( x )
i =1 96 x∈[0,1]

Remarque 5.2
Si f est de classe C 2 , alors u est de classe C 4 .

32
5.2 En dimension supérieure
On considère le problème modèle
−∆u = f dans Ω,
(
(5.2)
u=0 sur ∂Ω.
Définition 5.2
L’approximation du laplacien à 5 points est donnée par

u( x − h, y) + u( x + h, y) + u( x, y − h) + u( x, y + h) − 4u( x, y)
∆u( x, y) ≃ ∆h u( x, y) = .
h2
Si u est de classe C 4 , on a l’estimation d’erreur

h2 ∂4 u ∂4 u
|∆u( x, y) − ∆h u( x, y)| ⩽ max ( ξ, η ) + (ξ, η ) .
12 ξ ∈[ x−h,x+h],η ∈[y−h,y+h] ∂x (4) ∂y(4)

Si Ω est le carré [0, 1]2 , on introduit le pas


1
h= ,
N+1
où N ⩾ 1 est un entier fixé, et la subdivision
∀0 ⩽ i, j ⩽ N + 1, xi = ih, y j = jh.
Alors, l’approximation du laplacien à 5 points conduit au schéma discret
4Ui,j − Ui−1,j − Ui+1,j − Ui,j−1 − Ui,j+1
∀1 ⩽ i, j ⩽ N, = f ( x i , y j ),
h2
les Ui,j représentant les approximations construites pour u( xi , y j ). Bien sûr, les conditions
aux limites fournissent
∀0 ⩽ i, j ⩽ N + 1, U0,j = UN +1,j = Ui,0 = Ui,N +1 = 0.
Si l’on ré-ordonne les (Ui,j )1⩽i,j⩽ N selon l’ordre lexicographique, on obtient le système
linéaire
AU = F,
où  
H −I
 
. ..
−I . .
 
1  .  2 2
A= 2  ∈ RN ×N ,
 
h  .. ..
 . . −I 

 
−I H
avec  
 4 −1 
 −1 
H=  ∈ RN×N , I = IN ∈ R N × N .
 
 

 −1 

−1 4

33
Le vecteur F est donné par les valeurs f ( xi , y j ), ré-ordonnées de la même manière que les
Ui,j .

Exemple. Considérons le cas où Ω = [0, 1]2 , et N = 4. La numérotation des nœuds par


ordre lexicographique est indiquée sur la figure 5.1. La matrice A est donnée par
 
4 −1 0 0 −1 0 0 0 0 0 0 0 0 0 0 0
 −1 4 −1 0 0 −1 0 0 0 0 0 0 0 0 0 0 
 
 0 −1 4 − 1 0 0 − 1 0 0 0 0 0 0 0 0 0 
 
 0
 0 −1 4 0 0 0 −1 0 0 0 0 0 0 0 0 

 −1 0 0 0 4 −1 0 0 −1 0 0 0 0 0 0 0 
 
 0 −1 0 0 −1 4 −1 0 0 −1 0 0 0 0 0 0 
 
 0
 0 − 1 0 0 − 1 4 − 1 0 0 − 1 0 0 0 0 0 

 0 0 0 −1 0 0 −1 4 0 0 0 −1 0 0 0 0 
 
A=
 0 Discrétisation de l’équation de Laplace
0 0 0 −1 0 0 0 4 −1 0 0 −1 0 0 0 

 0 0 0 0 0 −1 0 0 −1 4 −1 0 0 −1 0 0 
 
 0 En0 dimension
0 0 0 2 0 −1 0 0 −1 4 −1 0 0 −1 0 
 
0 −1 0 −1 0 −1 
 
 0 0 0 0 0 0 0 4 0 0
0 −1 4 −1
 
 0 0 0 0 0 0 0 0 0 0 0 0 
 
 0
 0 0 0 0 0 0 0 0 −1 0 0 −1 4 −1 0 

 0 0 0 0 0 0 0 0 0 0 −1 0 0 −1 4 −1 
0 0 0 0 u0 (M0 ) 0' 0
4u (M0 i,j0
) 0 u−(M ) u (M
1 i 0 1,j0 −1 4 i+1,j
) u (Mi
i,j
h2
• • • • • •
I Inconnues en bleu.
• 13• 14• 15• 16• •
• • 10• 11• 12• • I Données en rouge.
9
• • • • • • I
5 6 7 8 {6, 7, 10, 11} : aucun v
• 1
• •
2 3
• 4
• •
I Autres nœuds : interac
• • • • • •
F IGURE 5.1 – Numérotation des nœuds pour N = 4.

Dans le vecteur solution U, la huitième composante, par exemple, correspond à l’ap-


proximation de u(4h, 2h).
Si l’on change la manière de numéroter les nœuds, la structure de la matrice change
(le nombre de coefficients non nuls reste le même, mais leur position est modifiée).

On a une estimation d’erreur similaire à celle obtenue en dimension 1 :
Théorème 5.3
Si la solution u du problème (5.2) est de classe C 4 sur Ω, alors
N h2 ∂4 f ∂4 f
max u( xi , y j ) − Ui,j ⩽ sup ( x, y ) + ( x, y) .
i =1 48 x∈[0,1] ∂x (4) ∂y(4)

34
Remarque 5.3
⋄ La prise en compte de géométries complexes par cette méthode (dite de différences finies)
n’est pas aisée.
⋄ Dès la dimension 2, l’hypothèse f ∈ C 2 (Ω) n’implique u ∈ C 4 (Ω) que lorsque le do-
maine Ω a une frontière régulière.

35
36
Chapitre 6
Discrétisation de l’équation de
transport

6.1 L’équation de transport linéaire mono-dimensionnelle


Définition 6.1
On appellera équation de transport (ou d’advection) linéaire une équation aux déri-
vées partielles de la forme

 ∂t u( x, t) + v( x, t)∂ x u( x, t) + a( x, t)u( x, t) = f ( x, t), x ∈ R, t ∈ [0, T ],
(6.1)
 u( x, 0) = u ( x ),
0 x ∈ R,


⋄ u est la fonction inconnue,
⋄ v est la vitesse (connue),
⋄ a est le facteur d’amortissement (connu),
⋄ f est le terme source (connu),
⋄ u0 est la donnée (ou condition) initiale (connue).

Dans le cas particulier où a = f = 0, et v( x, t) = c, vitesse indépendante de l’espace


et du temps, on obtient le problème simple

 ∂t u( x, t) + c∂ x u( x, t) = 0, x ∈ R, t ∈ [0, T ],
(6.2)
 u( x, 0) = u ( x ),
0 x ∈ R.

Pour cette équation, on peut déterminer l’unique solution explicitement.


Théorème 6.1
Soit u0 : R → R, de classe C 1 . Le problème (6.2) admet une unique solution, donnée
par
∀ x ∈ R, ∀t > 0, u( x, t) = u0 ( x − ct).

37
6.2 La méthode des caractéristiques
Définition 6.2
On appelle caractéristique du problème (6.1) une fonction t 7→ X (t) solution de
l’équation différentielle
X ′ ( t ) = v ( X ( t ), t ).

Proposition 6.2
Si v : R×]0, +∞[ est k-lipschitzienne c’est-à-dire si

∃k > 0, ∀ x, y ∈ R, ∀t > 0, |v( x, t) − v(y, t)| ⩽ k| x − y|,

alors le problème aux caractéristiques


( ′
X ( t ) = v ( X ( t ), t ), t ∈ [0, T ],
X ( t0 ) = x0 ,

(où t0 ∈ [0, T ] et x0 ∈ R sont fixé) admet une unique solution.

Dans le cas particulier ou a et f sont nulle on remarque aisément que la fonction


définie par φ(t) = u( X (t), t) est constante. En effet,

φ′ (t) = ∂ x u( X (t), t) X ′ (t) + ∂t u( x, t) = ∂ x u( X (t), t)v( X (t), t) + ∂t u( x, t) = 0.


Cela implique notamment l’églité

u( x0 , t0 ) = u( X (0), 0) = u0 ( X (0)).
Autrement dit, on peut trouver la valeur de u( x0 , t0 ) en déterminant l’unique caracté-
ristique X qui passe par x0 à t = t0 et en évaluant u0 sur la position d’origine X (0) de la
caractéristique.
Dans le cas général, φ n’est pas constante mais elle est solution d’une EDO simple. En
dérivant,

φ ′ ( t ) = v ( X ( t ), t ) ∂ x u ( X ( t ), t ) + ∂ t u ( X ( t ), t ).
et en exploitant l’équation (6.1), on peut écrire
φ ′ ( t ) = f ( X ( t ), t ) − a ( X ( t ), t ) φ ( t ),
qui n’est autre qu’une équation différentielle linéaire satisfaite par la fonction φ. On peut
écrire la formule explicite grâce à la formule de Duhamel (variation de la constante) :
Z t  Z t   Z t 
φ(t) = f ( X (s), s) exp − a( X (τ ), τ ) dτ ds + φ(0) exp − a( X (τ ), τ ) dτ .
0 s 0

Or φ(0) = u( X (0), 0) = u0 ( X (0)) est connu grâce à la donnée initiale. Ainsi, φ est connue
pour tout temps t > 0, et on en déduit immédiatement l’évaluation de la solution en
( x0 , t0 ) grâce à l’expression
u ( x0 , t0 ) = φ ( t0 ).
On peut montrer que cette approche offre un résultat d’existence et d’unicité pour l’équa-
tion de transport.

38
Théorème 6.3
On se place sous les hypothèses de la proposition 6.2, et on suppose a, et f continues,
et u0 de classe C 1 . Alors le problème (6.1) admet une unique solution de classe C 1 sur
R × [0, T ].

D’un point numérique, la méthodes des caractéristiques peut donner lieu à la mise en
place d’une méthode par résolution numérique des équations différentielles définissant
X et φ. Toutefois, il faut répéter l’opération pour chaque nouveau couple ( x0 , t0 ).

6.3 Approximation par différences finies


On revient au cas particulier de l’équation sans second membre, sans amortissement,
et à vitesse constante (6.2).
Pour la discrétisation, on fixe un intervalle d’espace [ a, b] sur lequel on va travaillé, et
Nx , Nt deux entiers non nuls. On introduit des pas d’espace et de temps
b−a T
∆x = , ∆t = ,
Nx Nt
et on pose
xi = i∆x (0 ⩽ i ⩽ Nx ) et tn = n∆t (0 ⩽ n ⩽ Nt ).
La méthode des différences finies consiste à construire Uin qui approche u( xi , tn ).
Définition 6.3
Un schéma d’approximation (ou de discrétisation) est une relation (homogène à ∂t u)
du type  
G∆x,∆t (Uin+1 )iN=x1 , (Uin )iN=x1 = 0, 0 ⩽ n ⩽ Nt ,

permettant de calculer les Uin à partir de la donnée initiale Ui0 = u0 ( xi ). Si G∆t,∆x ne


dépend pas des (Ujn+1 ) j⩽i+1 le schéma est dit explicite, sinon il est implicite.

Exemple. Un premier schéma s’écrit

Uin+1 − Uin U n − Uin−1


+c i = 0, (6.3)
∆t ∆x
soit encore
Uin+1 = (1 − β)Uin + βUin−1 ,
où l’on a posé
∆t
β=c .
∆x
Ce schéma permet de construire les (Uin+1 )i à partir des (Uin )i seulement pour i < Nx .
On ajoute la condition aux limites (non présente dans le problème initial) pour régler ce
problème :
n
∀n, UN x
= 0.
On observe que ce schéma fournit une approximation raisonnable de la solution lorsque
β ∈ [0, 1]. Ce résultat peut être montré mathématiquement grâce aux notions de consis-
tance et de stabilité. ♢

39
Définition 6.4
L’erreur de consistance est donnée par

εni = G∆x,∆t u( xi , tn+1 ))iN=x1 , (u( xi , tn ))iN=x1 ,




où u désigne la solution exacte du problème (6.1).

Exemple. Pour le schéma (6.3), l’erreur de consistance vaut

u ( x i , t n +1 ) − u ( x i , t n ) u ( x i , t n ) − u ( x i −1 , t n )
εni = +c .
∆t ∆x

Définition 6.5
Le schéma est consistant si

max |εni | −→ 0 lorsque ∆x, ∆t → 0.


0⩽i⩽ Nx , 0⩽n⩽ Nt

Il est dit d’ordre q en espace et p en temps, lorsque

max |εni | = O(∆t p + ∆x q ).


0⩽i⩽ Nx , 0⩽n⩽ Nt

Exemple. Le schéma (6.3) est d’ordre 1 en espace et en temps. ♢

Pour définir la notion de stabilité, on considère un schéma perturbé


 
G∆x,∆t (Vin+1 )iN=x1 , (Vin )iN=x1 = µin , 0 ⩽ i ⩽ Nx , 0 ⩽ n ⩽ Nt , (6.4)

Définition 6.6
Le schéma est dit stable pour la norme infinie lorsqu’il existe une constante C > 0
telle que, pour toute perturbation (µin ), on ait

Nt −1
max
0⩽i⩽ Nx , 0⩽n⩽ Nt
|Uin − Vin | ⩽ C ∑ max |µin |.
n=0 0⩽i⩽ Nx

Exemple. Le schéma (6.3) est stable pour β ∈ [0, 1]. ♢

Définition 6.7
Le schéma est dit convergent pour la norme infinie lorsque

max |Uin − u( xi , tn )| −→ 0 lorsque ∆x, ∆t → 0.


0⩽i⩽ Nx , 0⩽n⩽ Nt

Il est dit d’ordre q en espace et p en temps, lorsque

max |Uin − u( xi , tn )| = O(∆t p + ∆x q ).


0⩽i⩽ Nx , 0⩽n⩽ Nt

40
En général les schémas peuvent s’écrire simplement à l’aide de matrices. En posant Un =
(Uin )iN=x0 on obtient une relation de récurrence de la forme

U n +1 = A U n , n ∈ N,
où A est une matrice carrée de taille Nx + 1.
Proposition 6.4
Le schéma numérique

U n +1 = A U n , n ∈ N,
est stable en norme infinie si et seulement si |||A|||∞ ≤ 1.

Théorème 6.5 (Lax)


Un schéma numérique consistant et stable est convergent.

41
42

Vous aimerez peut-être aussi