Correction détaillée de l’examen de Martingales 23-24
March 8, 2025
Exercice 1
On considère le processus (Xt )t≥0 défini par
Z t
Xt = (sin s)dBs .
0
1. Montrer que la v.a. Xt est bien définie.
Rt
Justification: Nous devons montrer que l’intégrale stochastique 0 (sin s)dBs est bien définie. Pour cela,
il faut vérifier que la fonction intégrée, f (s) = sin s, satisfait les conditions d’intégrabilité de l’intégrale
d’Itô.
Démonstration:
• f (s) = sin s est une fonction déterministe, donc elle est Fs -prévisible.
Rt
• De plus, f (s) est continue et bornée sur [0, t], donc 0 f (s)2 ds < ∞ presque sûrement. Plus
précisément, Z t Z Z t t
E (sin s)2 ds = (sin s)2 ds ≤ 1 ds = t < ∞.
0 0 0
• Théorème utilisé: Le théorème principal de l’intégrale d’Itô assure que si f (s) est un processus
Rt Rt
Fs -prévisible tel que 0 f (s)2 ds < ∞ presque sûrement, alors l’intégrale d’Itô 0 f (s)dBs est bien
définie.
2. Montrer que (Xt )t≥0 est un processus gaussien. Calculer son espérance et
sa covariance E[Xs Xt ].
Justification: Un processus gaussien est un processus tel que toute combinaison linéaire de ses valeurs
à différents temps est une variable aléatoire gaussienne. L’intégrale d’Itô d’une fonction déterministe par
rapport à un mouvement brownien est gaussienne.
Démonstration:
• Comme Xt est une intégrale d’Itô par rapport à un mouvement brownien avec une fonction intégrée
Pn variable gaussienne pour tout t ≥ 0. De plus, pour tout t1 , t2 , . . . , tn , la
déterministe, Xt est une
combinaison linéaire i=1 ai Xti est aussi une intégrale d’Itô, donc gaussienne. Ainsi, (Xt )t≥0 est
un processus gaussien.
• Espérance: Z t Z t
E[Xt ] = E (sin s)dBs = (sin s)E[dBs ] = 0.
0 0
Théorème utilisé: L’espérance de l’intégrale d’Itô d’un processus prévisible est nulle.
• Covariance: Pour s ≤ t,
Z s Z t Z s Z t
E[Xs Xt ] = E (sin u)dBu (sin v)dBv = (sin u)(sin v)E[dBu dBv ].
0 0 0 0
1
Comme E[dBu dBv ] = δ(u − v)dudv où δ est la fonction de Dirac, on a
Z s Z s Z s s
2 1 − cos(2u) 1 sin(2u) 1 sin(2s)
E[Xs Xt ] = (sin u)(sin u)du = sin u du = du = u− = s− .
0 0 0 2 2 2 0 2 2
2 R
Rt t
Théorème utilisé: L’isométrie d’Itô donne E 0
f (s)dB s = 0 E[f (s)2 ]ds.
3. Calculer E[Xt |Fs ].
Justification: La propriété de martingale de l’intégrale d’Itô permet de simplifier le calcul de l’espérance
conditionnelle.
Démonstration: Pour s ≤ t,
Z t Z s Z t
E[Xt |Fs ] = E (sin u)dBu Fs = E (sin u)dBu + (sin u)dBu Fs .
0 0 s
Rs
Comme 0
(sin u)dBu est Fs -mesurable,
Z s Z t
E[Xt |Fs ] = (sin u)dBu + E (sin u)dBu Fs = Xs + 0 = Xs .
0 s
Rt
Théorème utilisé: L’intégrale d’Itô est une martingale, donc E s
f (u)dBu Fs = 0 si f (u) est
prévisible.
Rt
4. Montrer que Xt = (sin t)Bt − 0
(cos s)Bs ds.
Justification: Il s’agit d’une application d’intégration par parties pour les intégrales stochastiques
(formule d’Itô).
Démonstration: Soit Ut = (sin t)Bt . On applique la formule d’Itô à Ut = f (t, Bt ) avec f (t, x) =
(sin t)x. Alors,
∂f ∂f 1 ∂2f
df = dt + dx + (dx)2 .
∂t ∂x 2 ∂x2
∂f ∂f ∂2f
Ici, ∂t = (cos t)Bt , ∂x = sin t, et ∂x2 = 0. Donc,
dUt = (cos t)Bt dt + (sin t)dBt .
Intégrons de 0 à t: Z t Z t
Ut − U0 = (cos s)Bs ds + (sin s)dBs .
0 0
Comme U0 = (sin 0)B0 = 0, on a
Z t
(sin t)Bt = (cos s)Bs ds + Xt .
0
Donc, Z t
Xt = (sin t)Bt − (cos s)Bs ds.
0
Exercice 2
1.
Soient Zt , Yt deux processus d’Itô,
Z t Z t
Zt = Z0 + Ks ds + Hs dBs ,
0 0
Z t Z t
Yt = Y0 + Ls ds + Gs dBs .
0 0
2
a. Montrer que Ut := Zt + Yt est un processus d’Itô.
Démonstration:
Z t Z t
Ut = Zt + Yt = Z0 + Y0 + (Ks + Ls )ds + (Hs + Gs )dBs .
0 0
Rt Rt
Donc, Ut est de la forme U0 + 0
As ds + 0
Cs dBs , où As = Ks + Ls et Cs = Hs + Gs . Ainsi, Ut est un
processus d’Itô.
b. Exprimer Ut2 en utilisant la formule d’Itô.
∂2f
Démonstration: On applique la formule d’Itô à f (t, Ut ) = Ut2 . On a ∂f
∂t = 0,
∂f
∂u = 2Ut , et ∂u2 = 2.
Donc,
1
dUt2 = 2Ut dUt + · 2(dUt )2 = 2Ut dUt + (dUt )2 .
2
On sait que dUt = (Kt + Lt )dt + (Ht + Gt )dBt . Donc,
(dUt )2 = (Ht + Gt )2 (dBt )2 = (Ht + Gt )2 dt.
Ainsi,
dUt2 = 2Ut [(Kt +Lt )dt+(Ht +Gt )dBt ]+(Ht +Gt )2 dt = [2Ut (Kt +Lt )+(Ht +Gt )2 ]dt+2Ut (Ht +Gt )dBt .
Intégrant de 0 à t:
Z t Z t
Ut2 = U02 + [2Us (Ks + Ls ) + (Hs + Gs ) ]ds + 2
2Us (Hs + Gs )dBs .
0 0
Rt Rt Rt
c. En déduire que Zt Yt = Z0 Y0 + 0
Zs dYs + 0
Ys dZs + 0
Hs Gs ds.
Démonstration: On a Zt Yt = 21 [(Zt + Yt )2 − Zt2 − Yt2 ]. Donc,
1
d(Zt Yt ) = [d(Zt + Yt )2 − d(Zt2 ) − d(Yt2 )].
2
On sait que dZt = Kt dt + Ht dBt et dYt = Lt dt + Gt dBt . Appliquons la formule d’Itô à Zt2 et Yt2 :
dZt2 = 2Zt dZt + (dZt )2 = 2Zt (Kt dt + Ht dBt ) + Ht2 dt = (2Zt Kt + Ht2 )dt + 2Zt Ht dBt .
dYt2 = 2Yt dYt + (dYt )2 = 2Yt (Lt dt + Gt dBt ) + G2t dt = (2Yt Lt + G2t )dt + 2Yt Gt dBt .
On a déjà calculé d(Zt + Yt )2 :
d(Zt + Yt )2 = [2(Zt + Yt )(Kt + Lt ) + (Ht + Gt )2 ]dt + 2(Zt + Yt )(Ht + Gt )dBt .
Donc,
1
d(Zt Yt ) = {[2(Zt + Yt )(Kt + Lt ) + (Ht + Gt )2 ]dt + 2(Zt + Yt )(Ht + Gt )dBt
2
− [(2Zt Kt + Ht2 )dt + 2Zt Ht dBt ] − [(2Yt Lt + G2t )dt + 2Yt Gt dBt ]}
1
= {[2Zt Lt + 2Yt Kt + 2Ht Gt ]dt + 2Yt Ht dBt + 2Zt Gt dBt }
2
= (Zt Lt + Yt Kt + Ht Gt )dt + Yt Ht dBt + Zt Gt dBt
= Zt (Lt dt + Gt dBt ) + Yt (Kt dt + Ht dBt ) + Ht Gt dt
= Zt dYt + Yt dZt + Ht Gt dt.
Intégrant de 0 à t: Z t Z t Z t
Zt Yt = Z0 Y0 + Zs dYs + Ys dZs + Hs Gs ds.
0 0 0
3
h i
σ2
2. Montrer que St := x0 exp µ− 2
t + σWt est une solution issue de x0 de
l’EDS dXt = Xt (µdt + σdWt ).
σ2
Démonstration: Appliquons la formule d’Itô à St = x0 exp(f (t, Wt )) avec f (t, w) = µ − 2 t + σw.
On a
∂f σ2 ∂f ∂2f
=µ− , = σ, = 0.
∂t 2 ∂w ∂w2
Soit g(x) = x0 ex , alors g ′ (x) = x0 ex et g ′′ (x) = x0 ex . Donc
1 1
dSt = x0 ef (t,Wt ) df + x0 ef (t,Wt ) (df )2 = St df + St (df )2 .
2 2
σ2
df = µ − dt + σdWt .
2
(df )2 = σ 2 (dWt )2 = σ 2 dt.
Donc,
σ2
1
dSt = St µ− dt + σdWt + St σ 2 dt = St [µdt + σdWt ] .
2 2
Ainsi, St satisfait l’EDS dXt = Xt (µdt + σdWt ) et S0 = x0 .
3. Montrer, en considérant une autre solution (Xt ) et en appliquant 1) pour
montrer que Xt /St est constant, que St est la seule solution de l’EDS (1) issue
de x0 .
Démonstration: Soit Xt une autre solution de l’EDS dXt = Xt (µdt + σdWt ) issue de x0 . Considérons
Yt = X Xt
St . Alors Xt = Yt St . Appliquons la formule d’Itô à Yt = St :
t
St dXt − Xt dSt 1
dYt = − 3 d[St , Xt ]
St2 St
St Xt (µdt + σdWt ) − Xt St (µdt + σdWt ) 1
dYt = 2 − 3 St Xt σ 2 dt = 0
St St
X0 x0
Comme dYt = 0, Yt est constant. Donc Yt = Y0 = S0 = x0 = 1. Ainsi Xt = St pour tout t.
Exercice 3
Soit a, α, b, β quatre constantes réelles. Soit x ∈ R. On considère l’équation différentielle stochastique
(
dXt = (a + αXt )dt + (b + βXt )dBt
(1)
X0 = x.
1. Montrer que (2) admet une unique solution.
Justification: On utilise le théorème d’existence et d’unicité pour les EDS.
Démonstration: Soit f (t, x) = a + αx et g(t, x) = b + βx. On doit vérifier que f et g sont Lipschitz
et satisfont une condition de croissance linéaire.
• Lipschitz: |f (t, x) − f (t, y)| = |α(x − y)| ≤ |α||x − y| et |g(t, x) − g(t, y)| = |β(x − y)| ≤ |β||x − y|.
• Croissance linéaire: |f (t, x)|2 = (a + αx)2 ≤ 2a2 + 2α2 x2 ≤ K(1 + x2 ) et |g(t, x)|2 = (b + βx)2 ≤
2b2 + 2β 2 x2 ≤ K ′ (1 + x2 ).
Théorème utilisé: Le théorème d’existence et d’unicité pour les EDS assure que si f et g sont Lipschitz
et satisfont une condition de croissance linéaire, alors l’EDS dXt = f (t, Xt )dt + g(t, Xt )dBt avec X0 = x
admet une unique solution.
4
2.
On note m(t) = E(Xt ) et M (t) = E[Xt2 ].
a. Montrer que m(t) est l’unique solution de l’équation différentielle ordinaire
(
y ′ − αy = a
(2)
y(0) = x
Démonstration: On prend l’espérance de l’EDS :
E[dXt ] = E[(a + αXt )dt + (b + βXt )dBt ].
E[dXt ] = (a + αE[Xt ])dt + (b + βE[Xt ])E[dBt ].
Comme E[dBt ] = 0,
dm(t) = (a + αm(t))dt.
Donc, m′ (t) = a + αm(t), ce qui donne m′ (t) − αm(t) = a avec m(0) = E[X0 ] = x.
b. Écrire la formule d’Itô pour Xt2 où Xt est solution de (2).
∂2f
Démonstration: Appliquons la formule d’Itô à f (t, Xt ) = Xt2 . On a ∂f
∂t = 0,
∂f
∂x = 2Xt , et ∂x2 = 2.
Donc,
1
dXt2 = 2Xt dXt + · 2(dXt )2 = 2Xt dXt + (dXt )2 .
2
On sait que dXt = (a + αXt )dt + (b + βXt )dBt . Donc,
(dXt )2 = [(a + αXt )dt + (b + βXt )dBt ]2 = (b + βXt )2 (dBt )2 = (b + βXt )2 dt.
Ainsi,
dXt2 = 2Xt [(a+αXt )dt+(b+βXt )dBt ]+(b+βXt )2 dt = [2Xt (a+αXt )+(b+βXt )2 ]dt+2Xt (b+βXt )dBt .
c. En déduire que M (t) est l’unique solution de l’équation différentielle ordinaire
(
y ′ − (2α + β 2 )y = 2(a + bβ)m + b2
(3)
y(0) = x2
où m est la solution de (3). (On admettra que l’intégrale stochastique qui intervient est
une martingale).
Démonstration: On prend l’espérance de dXt2 :
E[dXt2 ] = E [2Xt (a + αXt ) + (b + βXt )2 ]dt + 2Xt (b + βXt )dBt .
E[dXt2 ] = [2E[Xt (a + αXt )] + E[(b + βXt )2 ]]dt + 2E[Xt (b + βXt )]E[dBt ].
Comme E[dBt ] = 0,
dM (t) = [2aE[Xt ] + 2αE[Xt2 ] + b2 + 2bβE[Xt ] + β 2 E[Xt2 ]]dt.
M ′ (t) = 2am(t) + 2αM (t) + b2 + 2bβm(t) + β 2 M (t).
M ′ (t) = (2α + β 2 )M (t) + 2(a + bβ)m(t) + b2 .
Donc, M ′ (t) − (2α + β 2 )M (t) = 2(a + bβ)m(t) + b2 avec M (0) = E[X02 ] = x2 .
d. Résoudre (3) pour déterminer m(t), puis (4) pour déterminer M (t).
Démonstration: (3) y ′ − αy = a avec y(0) = x. La solution générale est de la forme y(t) = Ceαt − αa
si α ̸= 0. En utilisant la condition initiale, x = C − αa , donc C = x + αa . Ainsi, m(t) = x + αa eαt − αa .
Si α = 0, alors y ′ = a, donc y(t) = at + x.
(4) y ′ − (2α + β 2 )y = 2(a + bβ)m + b2 avec y(0) = x2 . On a m(t) = x + αa eαt − αa . Donc,
h a αt a i
y ′ − (2α + β 2 )y = 2(a + bβ) x + e − + b2 .
α α
a αt 2a(a + bβ)
y ′ − (2α + β 2 )y = 2(a + bβ) x + e − + b2 .
α α
On résout cette équation différentielle linéaire du premier ordre.