Poly AN
Poly AN
'
2 Intégration numérique 13
2.1 La méthode des rectangles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 La méthode des trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Généralisation : les méthodes composées . . . . . . . . . . . . . . . . . . . 14
2.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.2 Cadre formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.3 Calcul des poids . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.4 Méthode de Gauss-Legendre . . . . . . . . . . . . . . . . . . . . . . 16
2.4 La méthode de Monte-Carlo pour le calcul d’intégrales . . . . . . . . . . . 17
3 Optimisation numérique 19
3.1 Quelques définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2 Méthodes de dichotomie en dimension 1 . . . . . . . . . . . . . . . . . . . 19
3.3 Optimisation libre dans Rd . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3.1 Méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3.2 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.3 Critères d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4 Optimisation sous contraintes . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4.1 Méthode du gradient projeté . . . . . . . . . . . . . . . . . . . . . . 22
3.4.2 Méthode de pénalisation . . . . . . . . . . . . . . . . . . . . . . . . . 23
3
5 Discrétisation de l’équation de Laplace par différences finies 31
5.1 Un problème mono-dimensionnel . . . . . . . . . . . . . . . . . . . . . . . 31
5.2 En dimension supérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Références 42
4
Chapitre 1
Analyse numérique matricielle
Proposition 1.1
Soient A, B ∈ Rd×d et x ∈ Cd .
⋄ ∥ Ax ∥ ⩽ ||| A||| × ∥ x ∥.
⋄ ||| Id ||| = 1.
⋄ ||| AB||| ⩽ ||| A||| × ||| B|||.
Proposition 1.2
Soit A ∈ Rd×d . Alors, pour toute norme subordonnée, on a
ρ( A) ⩽ ||| A|||.
5
Les normes subordonnées associées sont notées ||| A||| p et ||| A|||∞ . Les normes 1 et ∞
se calculent aisément en fonction des coefficients de la matrice, la norme 2 est reliée aux
valeurs propres :
Proposition 1.3
d d
d d
||| A|||∞ = max ∑ | Aij |, ||| A|||1 = max ∑ | Aij |.
i =1 j =1 j =1 i =1
q
||| A|||2 = ρ( ATA).
Proposition 1.4
Soient A ∈ Rd×d inversible, b, δb ∈ Rd . On note x ∈ Rd et x + δx ∈ Rd les solutions
des systèmes linaires
Ax = b, A( x + δx ) = b + δb.
Alors
∥δx ∥ ∥δb∥
⩽ cond( A) .
∥x∥ ∥b∥
Propriétés 1.5
Soit A ∈ Rd×d une matrice inversible.
⋄ Quelle que soit la norme subordonnée choisie, cond( A) ⩾ 1.
⋄ Si A est symétrique définie positive, alors
λmax ( A)
cond2 ( A) = .
λmin ( A)
6
1.1.3 Autour de l’algorithme de Gauss
L’algorithme du pivot de Gauss
Le principe consiste à effectuer des opérations sur les lignes de la matrice A pour
l’échelonner, et se ramener à un système triangulaire inférieur. Les différentes étapes sont
détaillées ci-dessous.
⋄ Étape 0 : on initialise l’algorithme à partir de la matrice A et du vecteur second
membre b, selon les notations suivantes :
[0] [0] [0] [0]
a1,1 a1,2 . . . a1,d b1
[0] [0] [0] [0]
a2,1 a2,2 . . . a2,d b2
.. ..
. .
[0] [0] [0] [0]
ad,1 ad,2 . . . ad,d bd
[0]
⋄ Étape 1.1 : si a1,1 = 0, on permute les lignes 1 et k, opération notée L1 ↔ Lk de
[0]
telle sorte que ak,1 ̸= 0.
[0] [0] [0] [0]
ã1,1 ã1,2 . . . ã1,d b̃1
[0] [0] [0] [0]
ã2,1 ã2,2 . . . ã2,d b̃2
.. ..
. .
[0] [0] [0] [0]
ãd,1 ãd,2 . . . ãd,d b̃d
[0]
[0] ãk,1
⋄ Étape 1.2 : Maintenant ã1,1 ̸= 0 ; on effectue Lk ← Lk − rk L1 avec rk = [0] .
ã1,1
7
La décomposition LU
Définition 1.4
Soit A ∈ Rd×d une matrice. On appelle mineur fondamental d’ordre k ⩽ d le déter-
minant
det ( Aij )1⩽i,j⩽k .
A = BBT .
8
décomposer la matrice A en
A = M − N,
avec M inversible et « simple ». Le système linéaire est alors équivalent au problème de
point fixe
Mx = Nx + b.
Il est alors naturel de construire la suite récurrente ( x (n) par la relation
x (n+1) = Bx (n) + c
ρ( B) < 1.
∥ x − x (n) ∥ = O ( ρ ( B )n ) .
La méthode de Jacobi correspond au choix M = D. Elle est bien définie sitôt que la
matrice A n’a pas de 0 sur la diagonale. La méthode de Gauss-Seidel, quant à elle, revient
à choisir pour M la partie triangulaire (diagonale comprise) de A. Elle est bien définie
dans les mêmes conditions. La question de la convergence de ces méthodes n’est pas
simple dans le cas général.
| λ 1 | ⩽ | λ 2 | ⩽ · · · ⩽ | λ p −1 | < | λ p | ,
et on construit la suite
y(n+1) = Ax (n) ,
y ( n +1)
x ( n +1) = ( n +1) ,
∥y ∥2
x ∈R .
(0) d
Si x (0) n’est pas choisi dans le sous-espace engendré par les vecteurs propres associées
à {λ1 , . . . , λ p−1 }, alors la suite
9
Remarque 1.2
⋄ En général la suite ( x (n) ) ne converge pas bien qu’asymptotiquement le vecteur x(n) est
proche d’un vecteur propre associé à λ p .
⋄ L’hypothèse |λ p−1 | < |λ p | est essentielle pour assurer la convergence de l’algorithme.
Des phénomènes d’oscillation peuvent avoir lieu dans le cas où cette hypothèse n’est pas
satisfaite. On peut alors étudier la matrice A + εI si cette situation arrive.
⋄ Si l’on applique la méthode de la puissance à la matrice A−1 (on n’inverse pas explicite-
ment la matrice, mais on résout un système linéaire à chaque itération), on peut approcher
la plus petite valeur propre (en module) de A. On parle de méthode de la puissance inverse.
De même, si on applique la méthode à ( A − µId )−1 , on approchera la valeur propre la plus
proche du nombre complexe µ (méthode de la puissance inverse avec translation).
⋄ Il est possible, notamment dans le cas où A est symétrique, d’adapter la méthode pour
les quelques plus grandes valeurs propres de la matrice A. Il s’agit de la méthode dite de
déflation.
P REUVE . (Pour les matrices diagonalisables) Soit x (0) ∈ Rd , x ̸= 0. Comme A est dia-
gonalisable, on écrit A = P−1 DP avec P inversible et D = diag(λ p , . . . , λ p , λ p−1 , . . . , λ1 ).
Posons maintenant la suite z(n) définie par
z ( n ) = A n x (0) , ∀n ∈ N.
z(n)
Remarquons que par récurrence = xn pour n ⩾ 1. En effet z(1) = y(1) et x (1) =
∥ z(n) ∥2
y (1)
, si c’est vrai au rang n, on a
∥ y (1) ∥ 2
z(n) = z(n) x (n) ,
2
z ( n +1) = z ( n ) y ( n +1) ,
2
z ( n +1) y ( n +1)
= = x ( n +1) .
z ( n +1) 2
y ( n +1) 2
1 n
D → J,
λnp
Im 0
avec J = avec m la multiplicité de la valeur propre λ p . Ainsi 1
λnp An → P−1 JP et
0 0
donc
1 (n)
z → P−1 JPx (0) .
λnp
On pose ξ = P−1 JPx (0) ̸= 0. Supposons que ξ ̸= 0. Alors la suite z(n) ne peut jamais
s’annuler, (sinon nulle à partir d’une certain rang). On a
10
1
z(n) → ∥ ξ ∥,
|λ p |n 2
et donc
z(n) ξ ξ
→ , i.e. x (n) →
z(n) 2
∥ ξ ∥2 ∥ ξ ∥2
De plus,
Aξ = P−1 DPP−1 JPx (0) = P−1 DJPx (0) = λ p P−1 JPx (0) = λ p ξ
( Aξ |ξ )
donc = λ p et on a bien ( Ax (n) | x (n) ) → λ p .
∥ξ ∥22
11
12
Chapitre 2
Intégration numérique
b−a
xi = a + ih, avec h= ,
N
où N est un entier donné. On alors, d’après la relation de Chasles,
Z b N − 1 Z x i +1
I=
a
f ( x ) dx = ∑ xi
f ( x ) dx.
i =0
Théorème 2.1
Si f est de classe C 1 sur l’intervalle [ a, b], alors on a l’estimation d’erreur suivante
pour la méthode des rectangles :
( b − a )2
| I − IN | ⩽ sup | f ′ ( x )|.
2N x∈[a,b]
13
En particulier, on a
1
| I − IN | = O .
N
N −1 N −1
h h
IN =
2 ∑ ( f ( xi ) + f ( xi+1 )) =
2
( f ( x0 ) + f ( x N )) + h ∑ f ( xi ).
i =0 i =1
Ainsi, la méthode des trapèzes ne nécessite qu’une seule évaluation supplémentaire par
rapport à la méthode des rectangle. Elle est, en revanche, plus précise.
Théorème 2.2
Si f est de classe C 2 sur l’intervalle [ a, b], alors on a l’estimation d’erreur suivante
pour la méthode des trapèzes :
( b − a )3
| I − IN | ⩽ sup | f ′′ ( x )|.
N 2 x∈[a,b]
En particulier, on a
1
| I − IN | = O .
N2
Sur chaque intervalle [ xi , xi+1 ], on va approcher l’intégrale par une combinaison linéaire
de valeurs de f :
Z x i +1 ki
xi
f ( x ) dx ≃ ∑ wiq f (ξ qi ).
q =0
Il reste à expliquer comment on choisit les points (ou nœuds) ξ qi et les poids wiq .
14
Une manière simple de procéder consiste à choisir k i indépendant de i, de même que
les wiq . Pour les points, on se donne un motif :
ξ qi = xi + tq h,
0
φ(t) dt ≃ ∑ w q φ ( t q ),
q =0
k
∑ w q φ ( t q ), (2.1)
q =0
Définition 2.2
On appelle méthode composée à partir du modèle élémentaire (2.1) pour le calcul de
l’intégrale
Z b
I= f ( x ) dx
a
la formule d’approximation
N −1 k
IN = h ∑ ∑ w q f ( x i + t q h ). (2.2)
i =0 q =0
15
Théorème 2.3
Si le modèle élémentaire (2.1) est exacte Pℓ et si f ∈ C ℓ+1 ([ a, b]), alors on a l’estima-
tion d’erreur
(b − a)ℓ+2
| I − IN | ⩽ ℓ+1 sup f (ℓ+1) ( x ) .
N (ℓ + 1)! x∈[a,b]
Remarque 2.2
La méthode des rectangles est la méthode composée à partir du modèle élémentaire correspondant
à
k = 0, t0 = 0, w0 = 1.
Ce modèle est exact P0 , donc si f ∈ C 1 ([ a, b]), le théorème 2.3 nous assure l’estimation d’erreur
( b − a )2
| I − IN | ⩽ sup f ′ ( x ) .
N x ∈[ a,b]
On voit que l’estimation du théorème 2.1 est plus précise (en raison du facteur 2 au dénominateur).
Toutefois, l’ordre de convergence O( N ¯1 ) est le même dans les deux cas.
VW = b,
avec
1
∀0 ⩽ i, j ⩽ k, Vij = tij et bi = .
i+1
Notons qu’il n’est, en général, pas possible de calculer les poids pour que la formule
soit exacte Pℓ avec ℓ > k.
Z 1
( φ, ψ) = φ(t)ψ(t) dt.
0
16
On note (tq )q=0,...,k les racines de Pk+1 . On détermine les poids (wq )q=0,...,k tel que le
modèle élémentaire soit exact Pk , i.e. solution de
k
1
∀i = 0, 1, . . . , k, ∑ wq tiq = i + 1 .
q =0
Alors la formule
Z 1 k
0
φ(t) dt ≃ ∑ wq φ ( t q )
q =0
N i∑
f ( X i ) converge presque sûrement vers f ( x ) dx.
=0 a
Remarque 2.3
⋄ Le théorème 2.6 n’est autre que la loi forte des grands nombres, dans le cas particulier de
la loi uniforme.
⋄ En pratique, on dispose d’une réalisation (issue d’observations) de l’échantillon, notée
( x0 , x1 , x N −1 ), et la quantité calculable
N −1
b−a
N ∑ f ( xi )
i =0
approche l’intégrale.
⋄ Le théorème centrale limite fournit une information sur la vitesse de convergence. Sans
1
rentrer dans les détails, on peut retenir que l’approximation obtenue est de l’ordre O( N − 2 ).
Cette convergence est plus lente que pour la plus simple des méthodes déterministes (la
méthode des rectangles). Toutefois, la méthode de Monte Carlo trouve son intérêt pour le
calcul d’intégrales en grande dimension, là où les méthodes déterministes sont complète-
ment inopérantes (en dimension d, mettre 10 points dans chaque direction pour un calcul
déterministe requiert 10d évaluations de la fonction à intégrer).
17
18
Chapitre 3
Optimisation numérique
Définition 3.2
Une fonction f : R → R est dite coercive lorsque
lim f ( x ) = +∞.
| x |→+∞
Définition 3.3
Une fonction f : R → R de classe C 2 est dite fortement convexe lorsqu’il existe un
réel α > 0 tel que pour tout x ∈ R, on a f ′′ ( x ) ⩾ α.
Proposition 3.1
⋄ Une fonction fortement convexe est coercive.
⋄ Une fonction coercice et fortement convexe est unimodale.
⋄ Si f ′ ( xn ) > 0, alors
a n +1 = a n , et bn + 1 = x n .
19
La suite ( xn ) converge vers x ∗ , et on a l’estimation d’erreur
b−a
| xn − x ∗ | ⩽ .
2n +1
Cette méthode est très facile à mettre en œuvre si l’on peut évaluer facilement la déri-
vée f ′ . Dans le cas contraire, on lui préfère souvent la méthode dite du nombre d’or.
Proposition 3.3 (Méthode du nombre d’or)
Soit f : R → R unimodale, minimale en x ∗ ∈ [ a0 , b0 ]. On fixe aussi c0 , d0 tels que
a0 < c0 < d0 < b0 avec
b0 − c0 b0 − d0 1
= = .
b0 − a0 b0 − c0 γ
On définit les suites ( an ), (bn ), (cn ), (dn ), ( xn ) comme suit :
a n + bn
xn = .
2
⋄ Si f (cn ) < f (dn ), alors
a n +1 = an
bn + 1 = dn
bn + 1 − a n + 1
c n +1 = bn + 1 − γ
d n +1 = cn
a n +1 = cn
bn + 1 = bn
c n +1 = dn
bn + 1 − a n + 1
d n +1 = a n +1 + γ
b−a
| xn − x ∗ | ⩽ .
2γn
20
2
(on dit que ∇f est M-lipschitzien). Si 0 < ρ < M, alors la suite définie par
x (0) ∈ Rd , et x ( n +1) = x ( n ) − ρ ∇ f ( x ( n ) )
Remarque 3.1
Si f est de classe C 2 et si l’on ajoute l’hypothèse (dite de α-convexité)
alors la méthode du gradient à pas optimal converge vers le point de minimum global
de f sur Rd . La convergence est géométrique.
Remarque 3.2
Dans le cas d’une fonctionnelle quadratique
f(x) = ∥ Ax − b∥22 ,
où A est une matrice symétrique définie positive, alors le pas optimal ρn peut être calculé explici-
tement :
∥∇f( x (n) )∥22
ρn = .
2∥ A∇f( x (n) )∥22
21
Lorsque l’on souhaite minimiser une fonction f : Rd → R, on peut recherche ses
points critiques, i.e. les zéros de son gradient. La méthode de Newton s’écrit alors, pour
f ∈ C2 : h i −1
x(n+1) = x(n) − Hf(x(n) ) ∇ f ( x ( n ) ).
Proposition 3.6 (Convergence de la méthode de Newton)
Soit F ∈ C 2 (Rd , Rd ) et x∗ ∈ Rd tel que F(x∗ ) = 0. On suppose JF(x∗ ) inversible. Alors
il existe η > 0 tel que pour tout x(0) ∈ B(x∗ , η ), la méthode de Newton est bien définie
et converge vers x∗ .
La convergence est quadratique, i.e. il existe C > 0 tel que
∀n ⩾ 0, ∥ x ( n +1) − x ∗ ∥ ⩽ C ∥ x ( n ) − x ∗ ∥ 2 .
Remarque 3.3
On n’est assuré de la convergence de la méthode de Newton que si le vecteur initial est suffisam-
ment proche d’un zero de F. D’un point de vue pratique, il est très difficile de faire un tel choix.
Dans le cas où le problème ne laisse apparaître aucun choix naturel, une stratégie consiste à faire
des essais jusqu’à ce que la méthode converge. En cas de convergence, celle-ci est très rapide et la
précision machine est obtenue après quelques itérations.
pour une précision ε donnée. Cela correspond à stopper l’algorithme lorsque les itérés ne
sont presque plus modifiés d’une itération à l’autre.
Dans le cas des méthodes de gradient, ce contrôle coïncide (à multiplication par le pas
près) à contrôler la norme du gradient. Cela s’interprète en stoppant l’algorithme lorsque
l’itéré se trouve dans une zone de très faible pente de la fonction à minimiser.
2
converge vers le point de minimum global de f sur K, dès que 0 < ρ < M.
1
min f(x) + β(x). (3.2)
x ∈R d ε
Théorème 3.8
Soient f ∈ C 1 (Rd , R) strictement convexe et coercive, et K ⊂ Rd un convexe fermé
non vide. Soit β une fonction de pénalisation de K. Alors, pour tout ε > 0, le problème
pénalisé (3.2) admet une unique solution xε , qui satisfait
lim xε = x,
ε →0
23
24
Chapitre 4
Résolution numérique des équations
différentielles ordinaires
∀n = 0, 1, . . . , Nh , tn = nh.
25
Une méthode (ou schéma) numérique consiste en la construction des valeurs
(U0 , U1 , . . . , U Nh )
Bien sûr, sauf cas exceptionnel, Un ̸= u(tn ). Par ailleurs, insistons sur le fait que, lorsque
Nh change, les valeurs des temps auxquels ont approche la solution changent également.
Par exemple, t1 = h = NTh .
Un+1 = Un + hf(tn , Un ),
26
Voici une liste non exhaustives des schémas à un pas les plus classiques.
⋄ Méthode d’Euler rétrograde (implicite, ordre 1)
h
U n +1 = U n + [f(Un , tn ) + f(Un + hf(Un , tn ), tn+1 )] .
2
⋄ La méthode de Crank-Nicolson (implicite, ordre 2)
h
U n +1 = U n + [f(Un , tn ) + f(Un+1 , tn+1 )] .
2
⋄ La méthode de Runge-Kutta 2 (RK2) (explicite, ordre 2)
h h
Un+1 = Un + hf Un + f(Un , tn ), tn + .
2 2
Si la fonction G ne dépend pas de la variable Un+1 , on dit que le schéma est explicite, sinon
on dit qu’il est implicite.
Définition 4.2 (Erreur de consistance)
L’erreur de consistance (locale) du schéma (4.2) est définie par
u ( t n +1 ) − u ( t n )
∀n = 0, 1, . . . , Nh − 1, εhn = − G(tn , u(tn ), u(tn+1 )),
h
où u désigne la solution du problème de Cauchy (4.1).
27
consistance locale converge vers 0 lorsque Nh tend vers l’infini (i.e. h tend vers 0) :
Nh −1
lim max ∥εhn ∥ = 0.
h →0 n =0
initialisé avec V0 = u0 .
On dit que le schéma (4.2) est stable lorsqu’il existe une constante C, telle que pour
tout choix de (µn ), on ait
Nh −1
Nh
max ∥Un − Vn ∥ ⩽ C
n =0
∑ ∥ µ n ∥.
n =0
Un+1 = Un + hf(tn , Un ).
28
Méthode de Heun
hh i
U n +1 = U n + (f(tn , Un ) + f tn+1 , Un + hf(tn , Un ) .
2
Méthode de Crank-Nicolson
hh i
U n +1 = U n + ( f ( t n , U n ) + f ( t n +1 , U n +1 ) .
2
Méthode de Runge-Kutta 2
k1 = f ( t n , U n ) .
h h
k2 = f t n + , U n + k1 .
2 2
Un+1 = Un + hk2 .
Méthode de Runge-Kutta 4
k1 = f ( t n , U n ) .
h h
k2 = f t n + , U n + k1 .
2 2
h h
k3 = f t n + , U n + k2 .
2 2
k4 = f (tn + h, Un + hk3 ) .
h
Un+1 = Un + (k1 + 2k2 + 2k3 + k4 ) .
6
29
30
Chapitre 5
Discrétisation de l’équation de Laplace
par différences finies
1
h= ,
N+1
et la subdivision
∀i = 0, 1, . . . , N + 1, xi = ih.
Définition 5.1
L’approximation de la dérivée seconde à 3 points est donnée par
u( x − h) − 2u( x ) + u( x + h)
u′′ ( x ) ≃ .
h2
Si u est de classe C 4 , on a l’estimation d’erreur
u( x − h) − 2u( x ) + u( x + h) h2
u′′ ( x ) − ⩽ max |u(4) (ξ )|.
h2 12 ξ ∈[ x−h,x+h]
31
et U0 , UN +1 sont données par les conditions aux limites :
U0 = α, UN +1 = β.
On obtient le système linéaire AU = F, avec
f ( x1 ) + α/h2
2 −1 U1
1 −1
U
2
f ( x2 )
A = 2 , U= , F= .
h
−1
f ( x N −1 )
−1 2 UN
f ( x N ) + β/h2
Remarque 5.1
Il est possible de choisir pour vecteur d’inconnues
U0
U1
V= ∈ R N +2 .
U2
U N +1
1 0
−1 2 −1
f ( x 1 )
1
B = 2 G=
f (x )
, 2
h
−1 2 −1
f (x )
N
0 1
β/h2
Théorème 5.1
La matrice A est symétrique définie positive. Ses valeurs propres sont données par
4 2 ℓ πh
λℓ = 2 sin , ℓ = 1, 2, . . . , N.
h 2
Théorème 5.2
Si la solution du problème (5.1) est de classe C 4 sur l’intervalle fermé [0, 1], alors
N h2
max |u( xi ) − Ui | ⩽ sup u(4) ( x )
i =1 96 x∈[0,1]
Remarque 5.2
Si f est de classe C 2 , alors u est de classe C 4 .
32
5.2 En dimension supérieure
On considère le problème modèle
−∆u = f dans Ω,
(
(5.2)
u=0 sur ∂Ω.
Définition 5.2
L’approximation du laplacien à 5 points est donnée par
u( x − h, y) + u( x + h, y) + u( x, y − h) + u( x, y + h) − 4u( x, y)
∆u( x, y) ≃ ∆h u( x, y) = .
h2
Si u est de classe C 4 , on a l’estimation d’erreur
h2 ∂4 u ∂4 u
|∆u( x, y) − ∆h u( x, y)| ⩽ max ( ξ, η ) + (ξ, η ) .
12 ξ ∈[ x−h,x+h],η ∈[y−h,y+h] ∂x (4) ∂y(4)
33
Le vecteur F est donné par les valeurs f ( xi , y j ), ré-ordonnées de la même manière que les
Ui,j .
34
Remarque 5.3
⋄ La prise en compte de géométries complexes par cette méthode (dite de différences finies)
n’est pas aisée.
⋄ Dès la dimension 2, l’hypothèse f ∈ C 2 (Ω) n’implique u ∈ C 4 (Ω) que lorsque le do-
maine Ω a une frontière régulière.
35
36
Chapitre 6
Discrétisation de l’équation de
transport
où
⋄ u est la fonction inconnue,
⋄ v est la vitesse (connue),
⋄ a est le facteur d’amortissement (connu),
⋄ f est le terme source (connu),
⋄ u0 est la donnée (ou condition) initiale (connue).
37
6.2 La méthode des caractéristiques
Définition 6.2
On appelle caractéristique du problème (6.1) une fonction t 7→ X (t) solution de
l’équation différentielle
X ′ ( t ) = v ( X ( t ), t ).
Proposition 6.2
Si v : R×]0, +∞[ est k-lipschitzienne c’est-à-dire si
u( x0 , t0 ) = u( X (0), 0) = u0 ( X (0)).
Autrement dit, on peut trouver la valeur de u( x0 , t0 ) en déterminant l’unique caracté-
ristique X qui passe par x0 à t = t0 et en évaluant u0 sur la position d’origine X (0) de la
caractéristique.
Dans le cas général, φ n’est pas constante mais elle est solution d’une EDO simple. En
dérivant,
φ ′ ( t ) = v ( X ( t ), t ) ∂ x u ( X ( t ), t ) + ∂ t u ( X ( t ), t ).
et en exploitant l’équation (6.1), on peut écrire
φ ′ ( t ) = f ( X ( t ), t ) − a ( X ( t ), t ) φ ( t ),
qui n’est autre qu’une équation différentielle linéaire satisfaite par la fonction φ. On peut
écrire la formule explicite grâce à la formule de Duhamel (variation de la constante) :
Z t Z t Z t
φ(t) = f ( X (s), s) exp − a( X (τ ), τ ) dτ ds + φ(0) exp − a( X (τ ), τ ) dτ .
0 s 0
Or φ(0) = u( X (0), 0) = u0 ( X (0)) est connu grâce à la donnée initiale. Ainsi, φ est connue
pour tout temps t > 0, et on en déduit immédiatement l’évaluation de la solution en
( x0 , t0 ) grâce à l’expression
u ( x0 , t0 ) = φ ( t0 ).
On peut montrer que cette approche offre un résultat d’existence et d’unicité pour l’équa-
tion de transport.
38
Théorème 6.3
On se place sous les hypothèses de la proposition 6.2, et on suppose a, et f continues,
et u0 de classe C 1 . Alors le problème (6.1) admet une unique solution de classe C 1 sur
R × [0, T ].
D’un point numérique, la méthodes des caractéristiques peut donner lieu à la mise en
place d’une méthode par résolution numérique des équations différentielles définissant
X et φ. Toutefois, il faut répéter l’opération pour chaque nouveau couple ( x0 , t0 ).
39
Définition 6.4
L’erreur de consistance est donnée par
u ( x i , t n +1 ) − u ( x i , t n ) u ( x i , t n ) − u ( x i −1 , t n )
εni = +c .
∆t ∆x
♢
Définition 6.5
Le schéma est consistant si
Définition 6.6
Le schéma est dit stable pour la norme infinie lorsqu’il existe une constante C > 0
telle que, pour toute perturbation (µin ), on ait
Nt −1
max
0⩽i⩽ Nx , 0⩽n⩽ Nt
|Uin − Vin | ⩽ C ∑ max |µin |.
n=0 0⩽i⩽ Nx
Définition 6.7
Le schéma est dit convergent pour la norme infinie lorsque
40
En général les schémas peuvent s’écrire simplement à l’aide de matrices. En posant Un =
(Uin )iN=x0 on obtient une relation de récurrence de la forme
U n +1 = A U n , n ∈ N,
où A est une matrice carrée de taille Nx + 1.
Proposition 6.4
Le schéma numérique
U n +1 = A U n , n ∈ N,
est stable en norme infinie si et seulement si |||A|||∞ ≤ 1.
41
42