Revisions I1iIKdy
Revisions I1iIKdy
Nicolas Fournier
, d'après Thomas Duquesne
2016-2017
2
Table des matières
3
4
Chapitre I
Théorie de la mesure et de l'intégration
Lemme 3 Soit (Ei , i ∈ I), une famille de tribus (resp. de classes monotones) sur E. Alors,
\
Ei = {A ⊂ E : ∀i ∈ I , A ∈ Ei }
i∈I
5
Théorème 5 (Théorème de la classe monotone) Soient E un ensemble non-vide, L une classe mono-
tone sur E et P un pi-système sur E. Si P ⊂ L, alors σ(P) ⊂ L .
Pour montrer qu'une propriété est satisfaite pour tout élément d'une tribu F engendrée par une
classe C (i.e. F = σ(C )), on introduit G = {A ∈ F : A vérie la propriété}, puis on montre que G
contient C . Pour conclure, il y a deux méthodes :
• soit on parvient à montrer directement que G est une tribu ;
• soit on montrer que G est une classe monotone (c'est plus facile) ET que C est un pi-système.
Preuve : on pose E = λ(P). Bien sûr, E ⊂ L . On va montrer que E est une tribu, ce qui impliquera
le résultat (car alors σ(P) ⊂ E ). Comme E est une classe monotone, il sut de montrer que E est
stable par intersection (nie).
Pour A ∈ E , on pose LA = {B ⊂ E : A ∩ B ∈ E }. Montrons que LA est une classe monotone.
Tout d'abord, il est clair que E ∈ LA . Montrons la stabilité de LA par diérence propre : pour cela on
se donne B, C ∈ LA tels que B ⊂ C , on observe que A ∩ (C\B) = (A ∩ C)\(A ∩ B) qui est donc dans E
puisque A ∩ C et A ∩ B sont dans E (car B, C ∈ LA ), puisque A ∩ B ⊂ A ∩ C , et puisque E est stable
par diérence propre (en tant que classe monotone). Soit ensuite Bn ∈ LA , n ∈ N t.q. Bn ⊂ Bn+1 .
Puisque Bn ∩A ∈ E pour tout n, puisque la suite Bn ∩A est croissante et puisque E est stable par union
dénombrable croissante (en tant que classe monotone), on a bien A ∩ (∪n∈N Bn ) = ∪n∈N (A ∩ Bn ) ∈ E .
Donc ∪Bn ∈ LA .
Si maintenant A ∈ P , il est clair que P ⊂ LA , donc LA est une classe monotone qui contient P
et donc E ⊂ LA .
Ceci montre que pour tout A ∈ P , tout B ∈ E , A ∩ B ∈ E .
Du coup, pour tout B ∈ E , on a P ⊂ LB . Donc LB est une classe monotone qui contient P et
donc E ⊂ LB . Autrement dit, pour tout A, B ∈ E , A ∩ B ∈ E .
Dénition 6 Soit E un ensemble muni d'une topologie O. On appelle tribu borélienne B(E) la tribu
σ(O) (lorsqu'il n'y a pas d'ambiguité sur la topologie).
Remarque 7 (i) Si E est un espace vectoriel normé, on a une topologie O découlant la la norme
(O ∈O ssi pour tout x ∈ O, il existe > 0 tel que pour tout y ∈ E avec ||x − y|| < , on ait y ∈ O) et
donc une tribu borélienne naturelle.
(ii) Si E est un espace vectoriel de dimension nie, alors toutes les normes induisent la même
topologie et donc la même tribu borélienne.
Dénition 9 On note B(Rd ) la tribu borélienne sur Rd (muni de sa topologie naturelle, associée à
n'importe quelle norme).
6
Lemme 10 On note R l'ensembles des pavés ouverts à extrémités rationnelles de Rd , i.e.
R est
Alors (i) dénombrable, (ii) tout ouvert de Rd est union dénombrable d'éléments de R et (iii)
B(R ) = σ(R).
d
Preuve : Le point (i) est évident. Pour (ii), il sut d'écrire un ouvert O comme l'union de tous les
éléments de R inclus dans O (utiliser que O est ouvert pour montrer l'égalité). Enn, (iii) découle de
(ii), puisqu'alors O ⊂ σ(R) et donc B(Rd ) = σ(O) ⊂ σ(R), l'autre inclusion étant triviale puisque
R ⊂ O.
Cette seconde propriété est appelée propriété de sigma-additivité. Si µ est une mesure sur (E, E ),
on dit que (E, E , µ) est un espace mesuré. Une mesure de masse µ(E) = 1 est appelée probabilité (ou
mesure de probabilité).
Remarque 13 On montre alors facilement que si A, B ∈ E sont disjoints, alors µ(A ∪ B) = µ(A) +
µ(B) et que si A, B ∈ E avec A ∪ B, alors µ(B) = µ(A) + µ(B \ A).
Proposition 14 Soit (E, E ) un espace mesurable et µ, une mesure sur E. Soit An ∈ E , n ∈ N, une
suite d'ensembles mesurables.
S
(i) Si An ⊂ An+1 , n ∈ N, alors limn ↑ µ(An ) = µ (A), où An = A.
T
(ii) Si An+1 ⊂ An , n ∈ N, et si µ(A0 ) < ∞, limn ↓ µ(An ) = µ (B),
alors où An = B .
S P
(iii) La mesure µ est sigma-sous-additive : µ ( An ) ≤ µ(An ).
Preuve : on suppose tout d'abord que la suite An , n ∈ N, est croissante pour l'inclusion et on prouve
(i). On pose B0 =SA0 et Bn = An \AS n−1 pour tout n ≥ 1. Il est clair que les Bn sont deux-à-deux
disjoints. De plus, 0≤k≤n Bk = An et n∈N Bk = A. La sigma-additivité de µ entraîne alors
n
X X
lim µ(An ) = lim µ(Bk ) = µ(Bn ) = µ(A) ,
n→∞ n→∞
k=0 n≥0
ce qui prouve (i). Le point (ii) se déduit de (i) par passage au complémentaire : on pose A0n = A0 \An
pour tout n ≥ 1. Comme la suite An , n ∈ N, est décroissante, la suite des A0n est croissante pour
7
l'inclusion. Par ailleurs, puisque µ(A0 ) < ∞, il en est de même pour les quantités µ(An ) et on a :
µ(A0n ) = µ(A0 ) − µ(An ). Le point (i) donne alors
où A0n A0 . Il sut ensuite de remarquer que A0 = A0 \A et donc que µ(A) = µ(A0 ) − µ(A0 ).
S
=
Il reste a démontrer (iii). Pour cela on remarque tout d'abord que pour tous B, C ∈ E , on a
B ∪ C = B ∪ (C ∩ B c ) et que B et C ∩ B c sont disjoints. Donc
En appliquant de façon répétée cette inégalité on trouve µ(∪0≤k≤n Ak ) ≤ 0≤k≤n µ(Ak ). Or la suite
P
∪0≤k≤n Ak est croissante donc (i) implique que
X
µ ∪n∈N An = lim µ ∪0≤k≤n Ak ≤ lim µ(Ak ) ,
n→∞ n→∞
0≤k≤n
Lemme 16 Soit (E, E , µ) un espace mesuré. Il y a équivalence entre les assertions suivantes.
En ∈ E , n ∈ N,
S
(ii) Il existe tels que En ⊂ En+1 , µ(En ) < ∞ et n∈N En = E.
En ∈ E , n ∈ N,
S
(iii) Il existe deux-à-deux disjoints tels que µ(En ) < ∞ et n∈N En = E.
Preuve : on suppose que µ est
S sigma-nie. Il existe donc En ∈ E , n ∈ N, tels que µ(En ) < ∞ et
. On pose 0 = . On a bien 0 ∈ E,
S
E
n∈N n = E En 0≤k≤n kE En
[ X
µ(En0 ) = µ Ek ≤ µ(Ek ) < ∞
0≤k≤n 0≤k≤n
et n∈N En0 = E . Cela montre que (i) implique (ii). Avec les notations précédédentes, on pose E000 = E0
S
et pour tout n ≥ 1, on pose également En00 = En0 \E Sn−1 . On
0 voit que En00 ∈ E , que les En00 sont deux-
à-deux disjoints, que µ(En ) ≤ µ(En ) < ∞ et que n∈N En = E . Cela montre que (ii) implique (iii).
00 0 00
µ1 , µ2 : E → [0, ∞], deux mesures, et soit a ∈]0, ∞[. On dénit µ : E → [0, ∞],
(i) Soit par
µ(A) = µ1 (A) + aµ2 (A), pour tout A ∈ E . Alors µ est une mesurenotée µ = µ1 + aµ2 .
(ii) Plus généralement, soit µn : E →P[0, ∞], n ∈ N, une suite de mesures. Soit an ∈ ]0, ∞[,
n∈NP. Pour tout A ∈ E , on pose µ(A) = n∈N an µn (A). Alors µ : E → [0, ∞] est une mesure notée
µ = an µn .
(iii) Soit µ : E → [0, ∞] une mesureet soit B ∈ E . Pour tout A ∈ E, on pose ν(A) = µ(B ∩ A).
Alors ν est une mesure appellée mesure-trace sur B de µ.
8
Le preuve est assez facile.
Théorème 18 (i) Il existe une unique mesure ` : B(R) → [0, ∞], appelée mesure de Lebesgue sur R,
telle que pour tout a < b, on ait `(]a, b]) = b − a.
(ii) Il existe une unique mesure `d : B(Rd ) → [0, ∞], appelée mesure de Lebesgue sur Rd , telle que
pour tout pavé R =]a1 , b1 ] × . . . ×]ad , bd ], on ait `d (R) = (b1 − a1 ) × . . . × (bd − ad ).
L'existence est dicile et sera prouvée à la n du chapitre. L'unicité découle du théorème suivant
avec (E, E ) = (Rd , B(Rd )) et P = {]a1 , b1 ] × . . . ×]ad , bd ] : −∞ < ai < bi < ∞} ∪ {Rd } (exercice).
Théorème 19 (Unicité de prolongement des mesures) Soit (E, E ) un espace mesurable. Soit P, un
pi-système tel que σ(P) = E . Soient µ1 et µ2 deux mesures sigma-nies. On fait les deux hypothèses
suivantes (si µ1 (E) = µ2 (E) < ∞, la seconde est inutile)
(i) Pour tout A ∈ P , µ1 (A) = µ2 (A).
(ii) Il existe En ∈ P , n ∈ N, tels que
9
Dénition 20 Soient (E, E ) et (F, F ), deux espaces mesurables. Une application f :E→F est dite
(E , F )-mesurable ssi
∀B ∈ F , f −1 (B) ∈ E . (I.1)
Convention. Lorsque f est à valeurs dans R, on dit simplement que f ∈ L (E, E ) ou que f est
E -mesurable en sous-entendant qu'elle est (E , B(R))-mesurable.
Proposition 21 Soient (E, E ) et (F, F ), deux espaces mesurables. Soit C ⊂ F une classe d'ensembles
t.q. σ(C ) = F . Soit f : E → F . Alors f est (E , F )-mesurable ssi
∀C ∈ C , f −1 (C) ∈ E .
Remarque 22 (i) Pour montrer que f : E 7→ R est E -mesurable, il sut de voir que pour tout a ∈ R,
f −1 (] − ∞, a]) ∈ E (car σ ] − ∞, a]; a ∈ R = B(R)).
(ii) Si E et F sont munis de topologies OE et OF , alors toute fonction continue de E dans F est
(B(E), B(F ))-mesurable.
Pour le point (ii), on rappelle que f est dite continue si pour tout O ∈ OF , on a f −1 (O) ∈ OE , que
B(E) = σ(OE ) et que B(F ) = σ(OF ).
Preuve : pour (i), on prouve d'abord que h := (f, g) : E → R2 est (E , B(R2 ))-mesurable. Il sut
de montrer que pour tout ouvert U de R2 , h−1 (U ) ∈ E . Mais on sait (voir Lemme 10) que U est une
union dénombrable de rectangles ouverts, i.e. U = ∪n≥1 (]an , bn [×]cn , dn [). Par conséquent,
On introduit ensuite ψ1 (x, y) = x + ay , ψ2 (x, y) = xy , qui sont continues et donc (B(R2 ), B(R))-
mesurables. On conclut qu'en eet, f + cg = ψ1 ◦ h et f g = ψ2 ◦ h sont (E , B(R))-mesurables.
10
Pour (ii), on remarque qu'il sut de traiter sup fn (car inf fn = − sup(−fn ), car lim sup fn =
inf n supp≥n fp et lim inf fn = supn inf p≥n fp ). On pose donc g = supn fn et on remarque que pour tout
a ∈ R, on a
g −1 (] − ∞, a]) = ∩n∈N fn−1 (] − ∞, a]) ∈ E .
Exemple 25 Soit A⊂E et 1A : E → {0, 1} sa fonction indicatrice. Alors 1A est E -mesurable ssi
A ∈ E.
Une fonction E -mesurable s : E 7→ R+ est étagée ssi elle prend un nombre ni de valeurs (exercice).
Preuve : Pour (i), on dénit ψn (a) = min{n, b10n ac/10n } pour tout a ∈ R+ , qui est bien sûr mesurable
(de R+ dans R+ ). Comme ψn (a) est croissante (en n) et tend vers a (quand n → ∞) pour tout a ≥ 0
et comme ψn prend un nombre ni de valeurs, on conclut aisément que sn = ψn ◦ f convient.
Pour (ii), on écrit f = limn sn = s1 + k≥1 (sk+1 − sk ). Comme s1 , s2 − s1 , s3 − s2 , etc. sont
P
mesurables, positives et prennent un nombre ni de valeurs, P onPpeut les écrire sous la forme s1 =
i=1 a1,i 1B1,i , s2 − s1 = i=1 a2,i 1B2,i , etc. Ainsi, f = i=1 ak,i 1Bk,i , qu'on peut bien sûr
Pn1 Pn2 nk
k≥1
réécrire avec une seule somme.
Intégration des fonctions étagées. On note S+ l'ensemble des fonctions E -mesurables étagées
(positives).
Dénition 28
P
Soits ∈ S+ , on a donc #(s(E)) < ∞ et on peut écrire s = a∈s(E) 1s−1 ({a}) . On
dénit, pour tout A ∈ E, Z X
sdµ = aµ(A ∩ s−1 ({a})).
A a∈s(E)
Proposition 29 = α A sdµ, ∀ A ∈ E .
RR
(i) Si s ∈ S+ et α ≥ 0, alors αs ∈ S+ et A (αs)dµ
(ii) Si s1 , s2 ∈ S+ , alors s1 + s2 ∈ S+ et A (s1 + s2 )dµ = A s1 dµ + A s2 dµ, ∀ A ∈ E .
R R R
(iv) Si s ∈ S+ , alors ν dénie par ν(A) = A sdµ, ∀ A ∈ E , est une mesure sur (E, E ).
R
11
Preuve : (i) est évident, (iii) découle de (ii) (écrires2 = s1 + t avec t = s2 − s1 ≥ 0) et (iv) n'est
pas dicile. Concentrons-nous sur (ii), qui est relativement délicat. On pose I1 = s1 (E), I2 = s2 (E)
et I = s(E), où s = s1 + s2 . Pour tout a ∈ I , on peut écrire l'union disjointe
[
s−1 ({a}) = (s−1 −1
1 ({a1 }) ∩ s2 ({a2 })).
a1 ∈I1 ,a2 ∈I2 tels que a1 +a2 =a
De plus, {s−1
1 ({a1 }), a1 ∈ I1 } est une partition de E , ainsi que {s2 ({a2 }), a2 ∈ I2 }. Donc par dénition,
−1
Z X X X
sdµ = aµ(A ∩ s−1 ({a})) = a µ(A ∩ s−1 −1
1 ({a1 }) ∩ s2 ({a2 })),
A a∈I a∈I a1 ∈I1 ,a2 ∈I2 tels que a1 +a2 =a
puis, en rentrant a dans la seconde somme et en le remplaçant par a1 + a2 , on trouve
Z X X
sdµ = a1 µ(A ∩ s−1 −1
1 ({a1 }) ∩ s2 ({a2 }))
A a∈I a1 ∈I1 ,a2 ∈I2 tels que a1 +a2 =a
X X
+ a2 µ(A ∩ s−1 −1
1 ({a1 }) ∩ s2 ({a2 })).
a∈I a1 ∈I1 ,a2 ∈I2 tels que a1 +a2 =a
Le premier terme peut se réécrire simplement
X X Z
µ(A ∩ s−1 −1
1 ({a1 }) ∩ s2 ({a2 })) = a1 µ(A ∩ s−1
1 ({a1 }))) = s1 dµ.
a1 ∈I1 ,a2 ∈I2 a1 ∈I1 A
Remarque 30
Pn
On déduit aisément de la proposition précédente que si s= 1 ai 1Bi , avec ai ≥ 0 et
Bi ∈ E (non forcément 2.2.d.), alors pour tout A ∈ E, on a
Z n
X
sdµ = ai µ(A ∩ Bi ).
A 1
En utilisant le point (iii) de la proposition précédente, on voit que si s ∈ S+ , cette nouvelle dénition
donne bien le même résultat, i.e. que cette dénition est bien une extension de la dénition 28.
12
Proposition 32 R f, g : ER→ [0, ∞], deux fonctions E -mesurables.
Soient
(i) Si f ≤ g alors A f dµ ≤ A g dµ, pour tout A ∈ E .
Preuve
R : par le Rpoint (i) de la proposition 32, la suite n 7→ fn dµ est croissante. De plus fn ≤ f et
R
E
donc E fn dµ ≤ E f dµ, puis
Z Z Z
lim ↑ fn dµ = sup fn dµ ≤ f dµ .
n→∞ E n∈N E E
Pour l'inégalité contraire, on xe a ∈ ]0, 1[ et s ∈ S+ telle que s ≤ f . Pour tout entier n ≥ 1, on pose
En = {x ∈ E : fn (x) ≥ as(x)} .
Comme fn et s sont E -mesurables, on a En ∈ E . On voit que En ⊂ En+1 et, comme fn tend simplement
vers f ≥ s > as, on a E = ∪n≥1 En .
On remarque ensuite
R que pour tout x ∈ E , on a fn (x) ≥R 1En (x)fn (x) ≥ 1En (x)as(x), d'où
l'inégalité E fn dµ ≥ a En sdµ. En utilisant leRfait que A R∈ E 7→ A s dµ est une mesure positive (voir
R
Proposition 29 (iv )), on conclut que limn→∞ ↑ En s dµ = E s dµ et donc que lim f dµ ≥ a E s dµ.
R R
Rn E n
Comme a peut être choisi arbitrairement proche de 1, on conclut que limn E fn dµ ≥ E s dµ. En
R
prenant Rnalement Rle supremum sur toutes les fonctions étagées positives majorées par f , on obtient
limn→∞ E fn dµ ≥ E f dµ.
Lemme 34 Soient f, g : E → [0, ∞], deux applications E -mesurables. Soit a ∈ [0, ∞[. On a alors
Z Z Z
(f + ag) dµ = f dµ + a g dµ .
E E E
13
Preuve : découle immédiatement du théorème de convergence monotone appliqué à gn = k=0 fk .
Pn
Théorème 36 (Lemme de Fatou) Soit fn : E → [0, ∞], n ∈ N, une suite d'applications E -mesurables.
On a Z Z
(lim inf fn ) dµ ≤ lim inf fn dµ .
E n→∞ n→∞ E
Preuve : on pose gn = inf p≥n fp , n ∈ N. On remarque que 0 ≤ gn ≤ gn+1 et que gn ≤ fn . Par ailleurs,
on a limn gn = lim inf n fn . Le théorème de convergence monotone implique alors que
Z Z
(lim inf fn ) dµ = lim gn dµ .
E n→∞ n→∞ E
Or on a Z Z Z
lim gn dµ = lim inf gn dµ ≤ lim inf fn dµ ,
n→∞ E n→∞ E n→∞ E
ce qui montre bien le résultat voulu.
OnR observe que f = f+ − f− , ceR qui justie Rcette dénition. On observe aussi que |f | = f+ + f− .
Donc E |f | dµ < ∞ implique que A f+ dµ et A f− dµ sont deux nombres réels positifs nis (pour
A ∈ E xé), il n'y a donc pas de problème dans la dénition.
On conclut facilement.
14
Théorème 39 (Convergence dominée, V1) Soient fn : E → R, n ∈ N, une suite de fonctions E-
mesurables telle que
(a) Il existe f :E→R telle que limn fn (x) = f (x), pour tout x ∈ E.
(b) Il existe g ∈ L 1 (E, E , µ) telle que |fn (x)| ≤ g(x), pour tout n ∈ N et tout x ∈ E .
fn , f ∈ L 1 (E, E , µ),
R R R
Alors (i) (ii) limn→∞ E |f − fn | dµ = 0 et (iii) limn→∞ E fn dµ = E f dµ.
PreuveR : en passant à la limite en n dans les inégalités de l'hypothèse (b), on obtient |f | ≤ g et on
a donc E |f | dµ < ∞, par le point (iv) de la proposition 38, ce qui prouve (i). On remarque ensuite
que |fn − f | ≤ |f | + |fn | ≤ 2g . Si on pose hn = 2g − |f − fn |, on observe que les hn sont des fonctions
positives E -mesurables et µ-intégrables. De plus lim inf n hn = limn hn = 2g , d'après l'hypothèse (a).
En appliquant le lemme de Fatou à la suite hn , on obtient
Z Z Z Z Z
2g dµ = (lim inf hn ) dµ ≤ lim inf (2g − |f − fn |) dµ = 2g dµ − lim sup |f − fn | dµ ,
E E n n→∞ E E n→∞ E
ce qui implique que lim supn→∞ |f − fn | dµ ≤ 0. Cela prouve (ii), qui implique bien sûr (iii).
R
E
Preuve : Le (i) est très facile. Pour (ii), on écrit n≥1 an 1Cn , avec an ≥ 0 et Cn ∈ F (voir
P
h =
Lemme 27-(ii)), puis
Z X X X Z
−1
hdν = an ν(Cn ) = an µ(f (Cn )) = an 1f −1 (Cn ) dµ.
F n≥1 n≥1 n≥1 E
On a utilisé un peu partout la proposition 35 pour échanger les sommes et les intégrales. Le point (iii)
se déduit classiquement du point (ii), à faire en exercice.
15
Remarque 42 (E, E , µ), Nn ∈ Nµ , n ∈ N. ∈ Nµ .
S
Soient un espace mesuré et Alors n∈N Nn
Dénition 43 (Propriété vraie presque partout) Soit (E, E , µ), un espace mesuré. Une propriété est
dite vraie µ-p.p. si elle est vraie en dehors d'un ensemble µ-négligeable.
Par exemple, pour deux fonctions réelles f, g : E 7→ R, on dit que f = g µ-p.p. si l'ensemble
{x ∈ E : f (x) 6= g(x)} est µ-négligeable.
Preuve : (i) Pour tout n ≥ 1, on pose En = {x ∈ E : |f (x)| ≥ 1/n} = |f |−1 ([1/n,R ∞]) ∈ E . On a donc
f −1 (R\{0}) = ∪n∈N En . D'autre part, |f | ≥ 1En |f | ≥ n1 1En . Par conséquent, 0 = E |f | dµ ≥ µ(En )/n.
Donc, µ(En ) = 0. On en déduit que f −1 (R\{0}) = ∪n En est µ-négligeable comme désiré.
(ii) Soit En = {|f | ≥ n|} = |f |−1 ([n, ∞[} ∈ E . Alors 1En décroit vers 1{|f |=∞} , donc par Fatou,
Z Z Z
µ({|f | = ∞}) = 1{|f |=∞} dµ ≤ lim inf 1En dµ ≤ lim inf n−1 |f |dµ = 0.
E n E n E
(iii)
R Soit A R= {f 6= g}R ∈ E . On a µ(A) = 0, et donc − g|dµ = 0. On conclut
R R
E |f − g|dµ = A |f
que | E f dµ − E gdµ| ≤ E |f − g|dµ = 0.
Théorème 45 (Théorèmes limites, versions dénitives) Soit (E, E , µ) un espace mesuré. Soit fn , n ∈
N, une suite d'applications E -mesurables de E dans R.
(Convergence monotone) Si pour tout
R n ∈ N, R0 ≤ fn ≤ fn+1 µ-p.p., alors supn fn = f est bien
dénie, positive µ-p.p., et on a limn→∞↑ E fn dµ = E f dµ.
(Lemme de
R Fatou) Si pour tout
R n ∈ N, on a fn ≥ 0 µ-p.p., alors lim inf n fn = f est positive
µ-p.p. et on a E f dµ ≤ lim inf n→∞ E fn dµ.
(Convergence dominée) S'il existe une application f , E -mesurable, telle que limn fn = f , µ-p.p.
R g ∈ L (E, E , µ) telle que |f
1
et s'il existe une application
R n | ≤ g µ-p.p.
R pour tout n ∈ N. Alors, f est
µ-intégrable, on a limn→∞ E |f − fn | dµ = 0 et limn→∞ E fn dµ = E f dµ.
(Interversion) Si n E |fn |dµP< ∞, alors la série n |fn | converge
P R P
R µ-p.p.P Il existe une fonction
h : E 7→ R, E -mesurable, telle que n≥1 fn = h µ-p.p. De plus, on a E hdµ = n≥1 E fn dµ.
R
Preuve : Les trois premiers points se déduisent des versions précédentes (sans les presque partout)
de la même manière, étudions par exemple la convergence dominée. On trouve facilement un ensemble
A, dont le complémentaire est µ-négligeable, sur lequel on a |fn | ≤ g pour tout n et limn fn = f .
On introduit alors fn0 = fn 1A , f 0 = f 1A et g 0 = g1A , qui satisfont les Rhypothèses du théorème
de convergence dominée. On en déduit que f 0 ∈ L 1 (E, E , µ) et que limn E |fn0 − f 0 |dµ = 0. Mais
bien sûr, f = f R0 µ-p.p., donc f ∈ L 1 (E,RE , µ). De plus, fn0 − f 0 = fn − f µ-p.p. (pour tout nR), donc
0 −f 0 |dµ. Ainsi, lim , d'où on déduit que = E f dµ.
R R
|f
E n −f |dµ = |f
E n n E |f −fn | dµ = 0 lim f
n E n dµ
16
P Pour l'interversion, on utiliseP que E ( n |fn |)dµ = n E |fn |dµ < ∞, ce qui impliqueP que
R P P R
n≥1 E fn dµ.
R
E hdµ =
Preuve : observons tout d'abord que F (y) est bien dénie pour tout y ∈ Y par (a) et (c). Soit yn ∈ Y ,
n ∈ N, une suite de points de Y qui converge vers y ∈ Y xé (i.e. limn d(yn , y) = 0). Pour tout
n ∈ N, on pose hn (x) = f (x, yn ), x ∈ E . L'hypothèse (a) entraîne que les hn sont des applications
E -mesurables. De plus, l'hypothèse (b) montre que pour µ-presque tout x, on a limn hn (x) = h(x), où
h(x) = f (x, y), x ∈ E . Enn, on a |hn | ≤ g µ-p.p. pour toutRn d'après l'hypothèse (c). Le théorème de
convergence dominée implique alors que limn F (yn ) = limn E hn dµ = E h dµ = F (y).
R
Le théorème suivant concerne la dérivabilité des intégrales à paramètres.
y ∈ I , on ait ∂f
∂y (x, y) ≤ g(x).
F 0 (y) =
R
Alors F (y) = E f (x, y) dµ(x) est bien dénie, continue et dérivable sur I. De plus, on a
R ∂f
E ∂y (x, y)µ(dx) pour tout y ∈ I .
Preuve : on xe yn ∈ I , n ∈ N, une suite de points distincts de y qui converge vers y ∈ I xé.
Pour tout n, on pose hn (x) = f (x,yynn)−f
−y
(x,y)
. Par (a), les hn sont intégrables. Par ailleurs, l'hypothèse
(b) implique que pour µ-p.t. x ∈ E , limn hn (x) = ∂f ∂y (x, y). Enn, l'inégalité des accroissements nis
combinée avec l'hypothèse (c) entraîne que pour µ-p.t. x ∈ E , |hn (x)| ≤ supy∈I ∂f ∂y (x, y) ≤ g(x). Le
17
théorème de convergence dominée s'applique donc à la suite des hn et montre que
F (yn ) − F (y)
Z Z
∂f
lim = lim hn dµ = (x, y) dµ(x) ,
n→∞ yn − y n→∞ E E ∂y
ce qui implique le résultat désiré.
I.9 Espaces L p et L p
Dans toute la section, l'espace mesuré (E, E , µ) est xé. Soit f : E → R, une application E -
mesurable. Pour p ∈ [1, ∞[, on pose
Z 1
p
kf kp := |f |p dµ .
E
On commence par montrer les inégalités de Hölder et de Minkowski. On rappelle que p, q ∈ [1, ∞]
sont conjugués ssi p1 + 1q = 1 (avec 1/0 = ∞ et 1/∞ = 0).
PropositionR 49 (Hölder) Soient p, q , conjugués et f, g : E → [0, ∞] des applications E -mesurables.
On a alors : E f g dµ ≤ ||f ||p ||g||q avec la convention 0 × ∞ = 0.
Preuve : Le cas p = 1, q = ∞ (ou le contraire) est facile, on suppose donc que p, q ∈]1, ∞[. On a
s1/p t1/q ≤ s/p+t/q pour tout s, t ≥ 0 (utiliser la concavité du log ou, plus simplement, xer s et étudier
la fonction en t). On pose c = ||f ||p et d = ||g||q . On applique l'inégalité précédente à s = (f (x)/c)p ,
t = (g(x)/d)q et on obtient (cd)−1 f (x)g(x) ≤ c−p f (x)p /p + d−q g(x)q /q . En intégrant cette inégalité,
on obtient alors (cd) E f g dµ ≤ 1/p + 1/q = 1, ce qui entraîne le résultat désiré.
−1
R
18
Remarque 51 Fixons p ∈ [1, ∞]. Alors L p (E, E , µ) est un R-espace vectoriel (bien sûr, f, g ∈
L p (E, E , µ) et a ∈ R implique que f +ag ∈ L p (E, E , µ)). De plus, || · ||p vérie ||f +g||p ≤ ||f ||p +||g||p ,
||af ||p = |a|||f ||p , et ||0||p = 0. Par contre, ||f ||p = 0 implique que f = 0 µ-p.p., mais pas que f = 0.
Ce n'est donc pas une vraie norme.
ne dépend pas du choix de f puisque si f, g sont deux représentants de u, alors f = g µ-p.p. et donc
||f ||p = ||g||p ).
Remarque 53 Soit p ∈ [1, ∞]. Alors || · ||p est une (vraie) norme sur L (E, E , µ).
p
suite strictement croissante d'indices (nk , k ∈ N) tels que limk fnk = f µ-p.p. et limk ||fnk − f ||p = 0.
Preuve : Le cas p = ∞ est plus facile, on traite donc le cas où p ∈ [1, ∞[. Pour tout k ∈ N, on pose
nk = n(2−0 ) + · · · + n(2−k ) qui est strictement croissante, et on a
Pour tout k ∈ N, on pose gk P = 0≤i≤k |fni+1 − fni | et g = i≥0 |fni+1 − fni |. Par Minkowski, on
P P
montre aisément P que ||g||p ≤ i≥0 ||fni+1 − fni ||p ≤ 2 et donc g < ∞ µ-p.p., ce qui implique que
la série fn0 (x) + i≥0 (fni+1 (x) − fni (x)) est absolument convergente, et donc convergente, µ-p.p., on
appelle f sa somme (en posant f = 0 là où elle P n'existe pas). De plus fP i=0 (fni+1 − fni ),
Pk
nk = fn0 +
d'où limk fnk = f µ-p.p. Enn, ||fnk − f ||p = || i≥k (fni+1 − fni )||p ≤ i≥k ||fni+1 − fni ||p → 0.
Théorème 55 Pour tout p ∈ [1, ∞], L (E, E , µ)
p
muni de la norme k·kp est complet.
Preuve : Soit (xnk )k≥1 la sous-suite qui converge et soit x = limk xnk . Fixons > 0. Il existe n t.q.
pour tout n, m ≥ n , d(xn , xm ) < . En particulier, si n ≥ n , on a lim supk d(xn , xnk ) < . Or pour
tout n ≥ 1, on a d(xn , x) = limk d(xn , xnk ). Donc pour tout n ≥ n , on a d(xn , x) < .
Dénition 57 (Tribu produit) Soient (E1 , E1 ) et (E2 , E2 ), deux espaces mesurables. On note E1 ⊗E2 =
σ(P) la tribu sur E1 × E2 engendrée par P = {A1 × A2 : A1 ∈ E1 , A2 ∈ E2 }.
19
Lemme 58 On note π1 et π2 les projections canoniques de E1 × E2 :
La tribu produit E1 ⊗ E2 est la plus petite tribu G sur E1 × E2 qui rende (G , E1 )-mesurable la projection
π1 et qui rende (G , E2 )-mesurable la projection π2 .
Théorème 60 (Théorème de Fubini) Soient (E1 , E1 , µ1 ) et (E2 , E2 , µ2 ), deux espaces mesurés avec µ1
et µ2 σ -nies.
(i) Il existe une unique mesure µ sur (E1 × E2 , E1 ⊗ E2 ) telle que µ(A1 × A2 ) = µ1 (A1 )µ2 (A2 ) pour
tout A1 ∈ E 1 et tout A2 ∈ E 2 . Cette mesure se note µ1 ⊗ µ2 et se nomme mesure produit.
(ii) Soit f : E1 × E2 7→ R+ , E1 ⊗ E2 -mesurable. Alors
Z Z hZ i Z hZ i
(∗) f d(µ1 ⊗ µ2 ) = f (x1 , x2 )µ1 (dx1 ) µ2 (dx2 ) = f (x1 , x2 )µ2 (dx2 ) µ1 (dx1 ).
E1 ×E2 E2 E1 E1 E2
(iii) Soit f : E1 × E2 7→ R, E1 ⊗ E2 -mesurable. Alors (a), (b) et (c) sont équivalents et impliquent
qu'on a encore (∗) :
(a) f ∈ L (E1 × E2 , E1 ⊗ E2 , µ1 ⊗ µ2 ),
1
20
est bien E1 -mesurable). Enn, P est stable par intersection (nie). Le théorème de la classe monotone
nous dit que σ(P) ⊂ L , ce qui termine l'étape puisque E1 ⊗ E2 = σ(P).
Etape 2 : On introduit alors µ : E1 ⊗ E2 7→ [0, ∞] dénie par
Z Z hZ i
µ(A) = µ2 (Ax1 )µ1 (dx1 ) = 1A (x1 , x2 )µ2 (dx2 ) µ1 (dx1 ).
E1 E1 E2
C'est bien déni grâce à l'étape 1. On vérie facilement que pour tout A = A1 × A2 ∈ P , on a
µ(A) = µ1 (A1 )µ2 (A2 ). De plus µ est une mesure sur (E1 × E2 , E1 ⊗ E2 ), car µ(∅) = 0 et car si on a
une famille 2.2.d. An ∈ E1 ⊗ E2 , alors
Z hZ X i XZ hZ i
µ(∪n An ) = 1An (x1 , x2 )µ2 (dx2 ) µ1 (dx1 ) = 1An (x1 , x2 )µ2 (dx2 ) µ1 (dx1 ),
E1 E2 n n E1 E2
qui n'est autre que n µ(An ). On a utilisé deux fois l'interversion somme/intégrale (tout est positif).
P
Remarque 61 Si on a trois (ou plus) espaces mesurés (E1 , E1 , µ1 ), (E2 , E2 , µ2 ) et (E3 , E3 , µ3 ) avec
µ1 , µ2 , µ3 σ -nis, alors on identie (E1 × E2 ) × E3 et E1 × (E2 × E3 ) et on montre facilement que (à
21
identication près) (E1 ⊗ E2 ) ⊗ E3 = E1 ⊗ (E2 ⊗ E3 ) et (µ1 ⊗ µ2 ) ⊗ µ3 = µ1 ⊗ (µ2 ⊗ µ3 ), ce qui permet
de justier la notation suivante :
(E1 × E2 × E3 , E1 ⊗ E2 ⊗ E3 , µ1 ⊗ µ2 ⊗ µ3 ).
Le point (i) est à vérier soigneusement. Pour (ii), il sut de poser `d = ` ⊗ · · · ⊗ `, qui est bien une
mesure sur (Rd , B(Rd )) vériant `d (A1 × · · · × Ad ) = `(A1 ) × · · · × `(Ad ) pour tout A1 , . . . , Ad ∈ B(R).
Donc en particulier, pour tout pavé R =]a1 , b1 ]×. . . ×]ad , bd ], on a bien `d (R) = (b1 −a1 )×. . .×(bd −ad )
(puisque `(]a, b]) = b − a).
Schwarz) est un produit scalaire, qui de plus vérie hf, f i = ||f ||22 . Le théorème de projection suivant
est ultra classique.
Mais comme (vn + vm )/2 ∈ C , on a ||x − (vn + vm )/2||2 ≥ α2 . Ainsi, ||vn − vm ||2 ≤ 2/n + 2/m, et la
suite vn est de Cauchy. Elle converge donc vers un certain v ∈ H , qui de plus appartient à C puisque
C est fermé. Et bien sûr, on a ||x − v|| = limn ||x − vn || ≤ α et donc (par dénition de α) ||x − v|| = α.
(ii) Unicité. Si ||x − v|| = ||x − v 0 || = α avec v, v 0 ∈ C , on écrit
||v − v 0 ||2 = 2 ||x − v||2 + ||x − v 0 ||2 − 2||x − (v + v 0 )/2||2 .
22
(iv) Caractérisation sens 2. Soit v ∈ C t.q. hx − v, wi = 0 pour tout w ∈ C . Alors pour tout w ∈ C ,
||w − x||2 = ||w − v + v − x||2 = ||x − v||2 + ||v − w||2 car hw − v, v − xi = 0 (puisque w − v ∈ C ). Donc
pour tout w ∈ C , ||w − x||2 ≥ ||x − v||2 .
Théorème 64 Soit H un espace de Hilbert et F : H 7→ R une forme linéaire continue. Alors il existe
z0 ∈ H t.q. pour tout x ∈ H , on ait F (x) = hx, z0 i.
Preuve : Si Ker F = H , on peut choisir z0 = 0. On suppose donc que C =Ker F 6= H . On considère
x0 ∈ H \ C , on pose v0 = πC (x0 ) et w0 = x0 − v0 (C est un s.e.v. fermé car F est continue). On
vérie que F (w0 ) = F (x0 ) − F (v0 ) = F (x0 ) 6= 0 et donc aussi w0 6= 0. Pour tout x ∈ H , on a
x − [F (x)/F (w0 )]w0 ∈ C (car F est linéaire). Donc (comme w0 = x0 − πC (x0 ) est orthogonal à C ),
||w0 ||2
F (x)
w0 , x − w0 = 0, i.e. F (x) = hw0 , xi.
F (w0 ) F (w0 )
On conclut avec z0 = [F (w0 )/||w0 ||2 ]w0 .
µ est
(a) absolument continue par rapport à ν (ou µ << ν ) si pour tout A ∈ E , ν(A) = 0 implique
µ(A) = 0 ;
(b) µ admet une densité f par rapport à ν (ou dµ = f dν ) si f : E 7→ R+ est E -mesurable et si
A ∈ E , µ(A) =
R
pour tout A dν .
f
Preuve : Comme
P d'habitude, il sut de traiter le cas positif. Soit donc g : E 7→ R+ , E -mesurable,
qu'on écrit g = a 1
n n An avec an ≥ 0 et A n ∈ E , voir le lemme 27. On a alors
Z X X Z Z
gdµ = an µ(An ) = an 1An f dν = gf dν,
E n n E E
Lemme 67 Soit (E, E , µ) un espace mesuré. Alors (a) µ est σ -nie si et seulement si (b) il existe une
probabilité ν sur (E, E ) par rapport à laquelle µ admet une densité f .
Preuve : Pour (b) implique (a), on introduit En = {f ≤ n}. Bien sûr, ∪n En = E et µ(En ) =
En f dν ≤ nν(En ) = n.
R
23
qui vaut bien µ(B).
Le résultat suivant est important.
L (E, E , λ). Elle est de plus continue, car pour ϕ, ϕ ∈ L (E, E , λ), on a |F (ϕ) − F (ϕ )| ≤ E |ϕ −
2 0 2 0
Z Z
(∗) ϕ(1 − h)dµ = ϕhdν.
E E
(Pour les puristes, le paragraphe ci-dessus doit être traité dans L2 (E, E , λ)).
Montrons maintenant que h ∈ [0, 1[ λ-p.p. Comme λ = µ + ν et comme µ << ν , il sut de voir
que h ∈ [0, 1[ ν -p.p. En appliquant (∗) avec ϕ = 1{h≥1} , on obtient
Z Z
ν({h ≥ 1}) ≤ h1{h≥1} dν = (1 − h)1{h≥1} dµ ≤ 0,
E E
1−h
Z Z
h
dµ = dν.
A 1 − h + 1/n A 1 − h + 1/n
En faisant tendre n vers l'inni (par convergence monotone), on conclut que µ(A) = A f dν .
R
(a) `(∅) = 0 ;
(b) Si A, B ∈ P(E) et si A ⊂ B, alors `(A) ≤ `(B) ;
24
P
(c) `(∪n An ) ≤ n `(An ) pour toute famille dénombrable de parties de E.
Alors L = {B ∈ P(E) : `(A) = `(A ∩ B c ) + `(A ∩ B) ∀ A ∈ P(E)} est une tribu et `, restreinte
à L, est une mesure sur (E, L ).
Une application vériant (a), (b), (c) s'appelle une mesure extérieure.
Proposition 70 On dénit ` : P(R) 7→ [0, ∞] par
nX o
`(A) = inf (bi − ai ) : ai ≤ bi ∀ i ≥ 1 et A ⊂ ∪i≥1 ]ai , bi [ ,
i≥1
avec la convention que ]a, a[= ∅. Alors ` vérie les trois points (a),(b) et (c) de la proposition 69 et la
tribu L en résultant contient B(R).
25
En faisant tendre n vers l'inni, on conclut que (en utilisant aussi (c), car A ∩ (∪∞
1 Bi ) = ∪1 (A ∩ Bi ))
∞
∞
X
`(A) ≥ `(A ∩ Bi ) + `(A ∩ (∩∞ c ∞ ∞ c
1 Bi )) ≥ `(A ∩ (∪1 Bi )) + `(A ∩ (∪1 Bi ) ).
1
Donc ∪∞
1 Bi ∈ L . Et la première égalité avec A = ∪1 Bi donne `(∪1 Bi ) = `(Bi ).
∞ ∞
P∞
1
(vi) Il ne reste qu'à montrer que L est stable par union dénombrable (non nécessairement 2.2.d.)
Cela découle facilement de la stabilité par union nie (iii) et par union dénombrable disjointe (v).
Preuve de laPproposition 69 : (a) est évident, puisque ∅ ⊂ ∪i ]ai , bi [ avec par exemple ai = bi = 0,
ce qui donne i (bi − ai ) = 0.
(b) est évident : si A ⊂ B , `(B) est déni par un inmum d'un ensemble plus grand que celui qui
déni A, donc `(B) ≤ `(A).
(c) Soit donc A1 , A2 , . . . des parties de R. On veut montrer que `(∪n An ) ≤ n `(An ). On suppose
P
tous les `(An ) < ∞, sinon c'estPévident. Fixons > 0. Pour tout n, on peut trouver des ani ≤ bni tels
que An ⊂ ∪i ]ani , bni [ P
et tels que i (bniP
− ani ) ≤ `(An ) + 2−n .P
Du coup, ∪n An est inclus dans ∪i,n ]ani , bni [,
et donc `(∪n An ) ≤ i,n (bni − ani ) ≤ n (`(An ) + 2−n ) = n `(An ) + .
Reste à voir que L contient B(R). Comme L est une tribu, il sut de montrer que ] − ∞, x] ∈ L
pour tout x ∈ R. On veut donc montrer (on se rappelle le (i) de la preuve de la proposition 69) que
pour tout A ⊂ R, `(A)P≥ `(A∩] − ∞, x]) + `(A∩]x, +∞[). Par dénition de `, il sut de montrer que
si A ⊂ ∪i ]ai , bi [, alors i (bi − ai ) ≥ `(A∩] − ∞, x]) + `(A∩]x, +∞[).
• Comme A∩]x, +∞[⊂ (∪i ]ai , bi [)∩]x, ∞[= ∪i ]ai ∨x, bi ∨x[, on a `(A∩]x, +∞[) ≤ i (bi ∨x−ai ∨x).
P
• Pour > 0, comme A∩] − ∞, x] ⊂]x − , x + [∪[(∪i ]aP i , bi [)∩] − ∞, x[)], ce qui se réécrit A ⊂
]x − , x + [∪(∪i ]ai ∧ x, bi ∧ x[), on a `(A∩] − ∞, x]) ≤ 2 + i (bi ∧ x − ai ∧ x).
Ainsi, `(A∩] − ∞, x]) + `(A∩]x, +∞[) ≤ 2 + i (bi ∧ x − ai ∧ x + bi ∨ x − ai ∨ x) = 2 P+ i (bi − ai ).
P P
Comme > 0 est arbitraire, on conclut qu'en eet, `(A∩] − ∞, x]) + `(A∩]x, +∞[) ≤ i (bi − ai ).
Preuve de la proposition 71. Déjà, `([a, b]) ≤ b − a :Pen eet, [a, b] ⊂ ∪i ]ai , bi [ avec a1 = a − ,
b1 = b + et ai = bi = 0 pour tout i ≥ 2, donc `(]a, b]) ≤ i (bi − ai ) = b − a + 2.
Reste à voir que `([a, b]) ≥ (b − a). Il faut donc montrer que si [a, b] ⊂ ∪i ]ai , bi [, alors i (bi − ai ) ≥
P
b − a. Comme [a, b] est compact et que ∪i ]ai , bi [ en est un recouvrement par des ouverts, on peut en
extraire un recouvrement ni : on a donc [a, b] ⊂ ∪N , et on doit démontrer que i ) ≥ b−a.
PN
1 ]a ,
i ib [ 1 (bi −a
Ceci peut se faire par récurrence sur N (c'est évident si N = 1, très facile si N = 2), c'est un peu
fastidieux, sans plus.
26
(ii) Il est impossible de construire une mesure µ sur (R, P(R)), invariante par translation, telle
que µ([0, 2]) soit non trivial (i.e. ni nul, ni inni).
σ(E , Nµ ). Il existe une unique mesure µ̄ sur (E, E ) telle que µ̄(A) = µ(A) pour tout A ∈ E . De plus,
µ
(i) on a Nµ̄ = Nµ ⊂ E µ ,
(ii) pour B ∈ E µ, il existe A1 , A2 ∈ E t.q. A1 ⊂ B ⊂ A2 et µ(A1 ) = µ̄(B) = µ(A2 ),
f : E 7→ R+R, E µ -mesurable,
(iii) pour
R il existe h1 , h2 : E 7→ R+ , E -mesurables,
R t.q. h1 ≤ f ≤ h2 ,
t.q. h1 = h2 µ-p.p. et t.q. E h1 dµ = E f dµ̄ = E h2 dµ.
Preuve : (a) On
montre que pour tout B ∈ E , il existe A ∈ E t.q. A ⊂ B et B \ A ∈ Nµ . Pour cela,
µ
27
N, N 0 ∈ Nµ , on a bien sûr µ(A) = µ(A0 ) (il sut par symétrie de montrer que µ(A) = µ(A ∩ A0 ) ;
pour cela on écrit A = (A ∩ A0 ) ∪ (A ∩ (A0 )c ) et on observe que A ∩ (A0 )c ∈ E ∩ Nµ car A ∩ (A0 )c ⊂
(A ∪ N ) ∩ (A0 )c = (A0 ∪ N 0 ) ∩ (A0 )c ⊂ N 0 ; on a donc µ(A) ≤ µ(A ∩ A0 ) + µ(A ∩ (A0 )c ) = µ(A ∩ A0 )).
(c) On vérie (exercice facile) que µ̄ est une mesure sur (E, E µ ) : µ̄(∅) = 0 et la σ -additivité découle
essentiellement de celle de µ et du fait qu'une union dénombrable de négligeables l'est encore. De plus,
on a bien µ̄(A) = µ(A) pour tout A ∈ E .
(d) Pour l'unicité, supposons que ν soit une mesure positive sur l'espace mesurable (E, E µ ) telle
que ν(A) = µ(A), pour tout A ∈ E . Soit B ∈ E µ . Par (a), on peut écrire B = A ∪ N avec A ∈ E et
N ∈ Nµ . Il existe donc N0 ∈ E tel que N ⊂ N0 et µ(N0 ) = 0. On remarque alors que A ⊂ B ⊂ A ∪ N0 .
Donc forcément, µ(A) = ν(A) ≤ ν(B) ≤ ν(A ∪ N0 ) = µ(A ∪ N0 ) = µ(A), ce qui détermine ν(B).
Montrons maintenant le point (i) : soit donc N ∈ Nµ̄ . Il existe N0 ∈ E µ tel que µ̄(N0 ) = 0 et
N ⊂ N0 . Par (a), il existe N1 ∈ E t.q. N1 ⊂ N0 et N0 \ N1 ∈ Nµ . Mais N1 ∈ Nµ , car µ(N1 ) = µ̄(N1 ) ≤
µ̄(N0 ) = 0. Donc N0 = N1 ∪ (N0 \ N1 ) ∈ Nµ et, comme N ⊂ N0 , N ∈ Nµ .
Pour (ii), on considère B ∈ E µ . Par (a), il existe A ∈ E et N ∈ Nµ t.q. B = A ∪ N . Soit N0 ∈ E
t.q. µ(N0 ) = 0 et N ⊂ N0 . On conclut facilement avec A1 = A et A2 = A ∪ N0 : on a A1 , A2 ∈ E , on
a A1 ⊂ B ⊂ A2 , et on a µ(A1 ) = µ̄(A1 ) ≤ µ̄(B) ≤ µ̄(A2 ) = µ(A2 ) = µ(A1 ).
Soit enn f : E 7→ R+ , E µ -mesurable. Par le lemme 27, on peut écrire f = n an 1Bn , avec an ≥ 0
P
et Bn ∈ E µ . On applique ensuite (ii) pour construire, pour chaque n, An,1 , An,2 ∈ EP t.q. An,1 ⊂
An,2 et µ(An,1 ) = µ̄(Bn ) = µ(An,2 ). On conclut facilement que les fonctions h1 = n an 1An,1 et
Bn ⊂ P
h2 = n an 1An,2 vérient les conclusions du (iii).
28
Chapitre II
Probabilités
Variables aléatoires. Soit (E, E ), un espace mesurable. Une application X : Ω 7→ E qui est (F , E )-
mesurable est appelée une variable . C'est donc une fonction de l'aléa.
aléatoire
On omet le plus souvent les accolades : P(X ∈ C) = P({X ∈ C}) = P(X −1 (C)). Si Y est une autre
variable aléatoire, on note P(X ∈ C , Y ∈ D) = P(X −1 (C) ∩ Y −1 (D)).
Loi. La loi d'une v.a. X à valeurs dans E (muni d'une tribu E ) est la mesure image µX de P par X ,
voir proposition 40. Autrement dit, pour tout A
R ∈ E , on a µX (A) = P(X ∈ A). On a alors, pour toute
fonction ϕ : E 7→ R, E -mesurable, E[ϕ(X)] = E ϕdµX , dès que ϕ est positive ou E[|ϕ(X)|] < ∞. On
remarque que ϕ(X) est bien une v.a.r. Bien sûr, µX est toujours une probabilité.
Espace canonique. Si on a une mesure de probabilité µ sur un espace mesurable (E, E ), on peut
toujours construire une v.a. X de loi µ. Il sut de prendre (Ω, F , P) = (E, E , µ) et X : Ω 7→ E dénie
par X(ω) = ω . Pour A ∈ F = E , on a bien P(X ∈ A) = µ({ω : ω ∈ A}) = µ(A).
Mais dans toute la suite, sauf mention contraire, (Ω, F , P) est un espace de probabilité abstrait
sur lequel sont dénies toutes les v.a.
29
Variance. Si X est une v.a.r. telle que E[X 2 ] < ∞, on pose
Var X = E[(X − E[X])2 ] = E[X 2 ] − E[X]2 .
Preuve : Comme ϕ est convexe, pour tout x0 ∈ R, il existe a ∈ R tel que ϕ(x) ≥ ϕ(x0 ) + a(x − x0 )
pour tout x ∈ R. En choisissant x0 = E[X], on trouve a tel que ϕ(x) ≥ ϕ(E[X]) + a(x − E[X]) pour
tout x ∈ R. Donc ϕ(X) ≥ ϕ(E[X]) + a(X − E[X]). On conclut en prenant l'espérance.
Lemme 75 (Inégalité de Markov) Soit X une v.a.r. positive. Pour tout a > 0, on a P(X ≥ a) ≤
E[X]/a.
Remarque 76 On peut décliner cette inégalité. Par exemple, si X v.a.r. (pas forcément positive),
a ∈ R, alors pour tout θ > 0, on peut
et si écrire P(X ≥ a) = P(eθX ≥ eθa ) ≤ e−θa E[eθX ], et
P(X ≤ a) = P(e−θX ≤ e−θa ) ≤ eθa E[e−θX ].
Lemme 77 (Inégalité de Tchebychev) Soit X une v.a.r. telle que E[X 2 ] < ∞. Alors pour tout a > 0,
P(|X − E[X]| ≥ a) ≤ (Var X)/a2 .
Fonction de répartition. Soit X , une variable réelle F -mesurable. Sa fonction de répartition est
la fonction FX : R :→ [0, 1] donnée par FX (a) = P(X ≤ a) = µX (] − ∞, a]).
Lemme 78 SoitX une v.a.r. La fonction FX est croissante, continue à droite, lima→−∞ FX (a) = 0
et lima→∞ FX (a) = 1. De plus, pour tout a ∈ R, on a P(X = a) = FX (a) − FX (a−).
Preuve : FX est bien sûr croissante. La continuité à droite découle de la proposition 14-(ii) : si an
décroit vers a, on a ∩] − ∞, an ] =] − ∞, a], ce qui implique que limn µX (] − ∞, an ]) = µX (] − ∞, a]).
On montre de même que lima→−∞ FX (a) = 0 et lima→∞ FX (a) = 1. Enn, il est facile de voir (par la
proposition 14-(i)) que FX (a−) = µX (] − ∞, a[), d'où FX (a) − FX (a−) = µX ({a}).
Proposition 79 Soient X et Y, deux v.a.r. Alors, FX = FY ssi µX = µY . Autrement dit, la loi d'une
variable est caractérisée par sa fonction de répartition.
30
Preuve : Si µX = µY , alors bien sûr FX = FY . Supposons que FX = FY . On pose P = {R} ∪
{ ] − ∞, a]; a ∈ R}. C'est un pi-système (car il contient R et car si A, B ∈ P , on a A ∩ B ∈ P ) qui
de plus engendre B(R). Comme on a µX (A) = µY (A) pour tout A ∈ P , le théorème d'unicité de
prolongement des mesures garantit donc que µX = µY .
Densité. Soit X une v.a.r. Si pour tout A ∈ B(R) de mesure de Lebesgue nulle, on a µX (A) =
P(X ∈ A) = 0, alors le théorème de Radon-Nikodym garantit l'existence d'une densité fX : R 7→ R+ ,
B(R)-mesurable, telle que pour tout A ∈ B(R),
Z
P(X ∈ A) = µX (A) = f (x)dx.
A
Cette dernière intégrale est une notation pour A fX d`, où ` est la mesure de Lebesgue sur R. Par la
R
Proposition 66, on a alors aussi, pour toute fonction ϕ : R 7→ R, B(R)-mesurable, positive ou telle que
E[|ϕ(X)|] < ∞, Z
E[ϕ(X)] = ϕ(x)fX (x)dx.
R
Lois usuelles sur R. Voici une liste de lois usuelles, dont on pourra retrouver facilement les déni-
tions et propriétés élémentaires dans n'importe quel livre (ou ailleurs).
• Lois discrètes : loi de Bernoulli Ber(p), loi binômiale B(n, p), loi de Poisson P(λ), loi géométrique
Geo(p).
• Lois à densité : loi exponentielle E (λ), loi gamma Γ(a, p), loi normale N (m, σ 2 ), loi uniforme
U ([a, b]). On dit parfois que X ∼ N (m, 0) si P(X = m) = 1.
Lois ni discrètes ni à densité. Il est très facile de trouver des variables aléatoires dont la loi n'est
ni discrète, ni à densité. Si par exemple on a U ∼ N (0, 1) et V ∼ Ber(1/2) indépendantes, on vérie
(exercice) la loi de X = V U est donnée par µX (dx) = 12 δ0 (dx) + 2√12π e−x /2 dx, qui a donc une partie
2
tout i ∈ {0, ..., 9}, limn n−1 Nn (u, i) = 1/10, où Nn (u, i) = #{k ∈ {1, ..., n} : xk = i}. On note N
l'ensemble des u ∈ [0, 1] qui sont 1-normaux.
On déduit des deux paragraphesPprécédent que si U ∼ U ([0, 1]), alors P(U ∈ N ) = 1 (car par la
LGN, limn n−1 Nn (U, i) = limn n−1 N 1 1Xk =i = 1/10 p.s.). Autrement dit, la mesure de Lebesgue sur
[0, 1] ne charge que les nombres 1-normaux, i.e.√`(N ∩ [0, 1]) = 1. Pourtant, on ne connaît quasiment
aucun nombre 1-normal, e.g. on ne sait pas si 2 − 1, e − 2, π − 3, etc. le sont.
Considérons maintenant Y1 , Y2 , ... i.i.d. de loi uniforme sur {0, 1, ..., 8} et soit V = n≥1 Yn 10−n .
P
Les Yi sont donc les chires (après la virgule) de V en base 10. On voit que limn n−1 Nn (V, i) =
31
1Yk =1 = 1/9 p.s., donc V est p.s. non 1-normal. La loi de V n'admet donc pas de densité
PN
limn n−1 1
par rapport à la mesure de Lebesgue (puisqu'on a `(N c ) = 0 et pourtant µV (N c ) = 1, et par le
théorème
P de Radon-Nikodym). Pourtant,Qil est clair V est une v.a. continue : pour v ∈ [0, 1], on écrit
v = n≥1 yn 10−n , et on a P(V = v) = ∞ 1 P(Vn = yn ) = 0, car c'est un produit inni de nombres
qui valent soit 0 (si yn = 9) soit 1/8 (sinon).
Vecteurs aléatoires. Une v.a. X = (X1 , . . . , Xd ) à valeurs dans Rd est appelée vecteur aléatoire
(tous les vecteurs sont des vecteurs colonne). Pour x = (x1 , . . . , xd ) ∈ Rd , on pose
FX (x) = P X1 ≤ x1 , . . . , Xd ≤ xd = µX ]−∞, x1 ] × . . . × ]−∞, xd ] .
On appelle parfois FX la fonction de répartition de X. En raisonnant comme pour les v.a.r., on voit
que deux vecteurs aléatoires ont même loi ssi ils ont même fonction de répartition.
On note k · k la norme Euclidienne de Rd et h·, ·i le produit scalaire Euclidien. Soit X = (X1 , . . . , Xd )
un vecteur aléatoire tel que E kXk2 = E[X12 ] + . . . + E[Xd2 ] < ∞. On note
sa matrice de covariance de X, qui est une matrice réelle d × d symétrique (et positive). On montre
aisément que pour tout u = (u1 , . . . , ud ) ∈ Rd , la v.a.r. hu, Xi vérie
E[hu, Xi] = hu, E[X]i et Var (hu, Xi) = u∗ ΓX u.
Presque sûr. On dit qu'une propriété est vraie p.s. si elle est vraie en dehors d'un ensemble P-
négligeable. Par exemple, deux v.a. X, Y sont égales p.s. si P(X 6= Y ) = 0, i.e. si P(X = Y ) = 1.
32
Rappelons quelques résultats sur les espaces Lp qui sont prouvés dans un cadre général à la section
I.9 du chapitre I. Pour X une v.a.r., on pose
1
∀p ∈ [1, ∞[ , kXkp = E[ |X|p ] p
et kXk∞ = inf a ∈ [0, ∞] : P( |X| > a) = 0 .
(Convergence monotone) On suppose que Xn ≤ Xn+1 p.s., pour tout n ≥ 0. On pose X∞ = supn Xn .
Alors limn E[Xn ] = E[X∞ ].
hP i P
(Interversion positive) E n≥0 n =
X n≥0 E[Xn ].
• Il existe une v.a.r. Z telle queE[Z] < ∞ et |Xn | ≤ Z p.s., pour tout n ≥ 0.
alors, X∞ est intégrable, limn E |Xn − X∞ | = 0, et limn E[Xn ] = E[X∞ ].
33
Lemme 84 (Borel-Cantelli) An ∈ F , n ∈ N .
P
Soit On suppose que n≥0 P(An ) < ∞. On a alors
P(lim supn→∞ An ) = 0. Par passage au complémentaire, on voit que
P à partir d'un certain, aucun An n'est réalisé = 1.
Preuve : on pose Z = n≥0 1An . On a E[Z] = n≥0 P(An ) < ∞. Donc P(Z = ∞) = 0. Or
P P
{Z = ∞} = {une innité de An sont réalisés} = lim supn An .
Une application du lemme de Borel-Cantelli est le critère de convergence p.s. suivant.
Proposition 85
P
εn ∈ ]0, ∞[ , n ∈ N, telle que n≥0 εn < ∞. Soit (Xn )n≥0 , une suite de v.a.r.
Soit
P
telles que n≥0 P |Xn+1 − Xn | > εn < ∞. Il existe une v.a.r. X∞ telle que limn→∞ Xn = X∞ p.s.
Preuve : (a) est évident puisque par Hölder, ||Xn − X∞ ||q ≤ ||Xn − X∞ ||p . Pour (b), on utilise
Markov : pour tout > 0, P(|Xn − X∞ | ≥ ) ≤ −1 E[|Xn − X∞ |] → 0. Pour (c), on xe et on écrit
P(|Xn − X∞ | ≥ ) = E[1{|Xn −X∞ |≥} ], qui tend vers 0 par convergence dominée. .
Remarque 88 La convergence p.s. n'est pas une vraie convergence : elle n'est associée à aucune topolo-
gie sur L(Ω, F , P) (donc a fortiori à aucune norme).
Preuve : Soit (H, T ) un espace topologique, soit (xn ) une suite d'éléments de H et x ∈ H . Alors
limn xn = x ssi de toute sous-suite de (xn ) on peut extraire une sous-sous-suite qui converge vers x.
Le premier sens est évident (si limn xn = x alors de toute sous-suite de (xn ) on peut extraire une
sous-sous-suite qui converge vers x : n'importe quelle sous-sous-suite convient). Pour montrer l'autre
sens, il sut de montrer que si xn ne converge pas vers x, alors il existe une sous-suite de xn dont on
ne peut pas extraire une sous-sous-suite qui converge vers x. Mais comme xn ne converge pas vers x,
34
on peut trouver O ∈ T avec x ∈ O et une sous-suite (xnk ) à valeurs dans Oc . De cette sous-suite, on
ne peut clairement pas extraire une sous-sous-suite convergeant vers x.
Si Xn → X en probabilité, alors de toute sous-suite de Xn , on peut extraire une sous-sous-suite
convergeant p.s. vers X . Or il est possible que Xn → X en probabilité sans que Xn → X p.s.
Par la proposition 85, la suite Xnk converge donc p.s., et donc en probabilité, et donc pour d.
On conclut donc que lim supn P(|Zn − Z∞ | > ) ≤ P(|X∞ | > A) + P(|Y∞ | > A). Il ne reste plus qu'à
faire tendre A vers l'inni.
35
II.4 Uniforme intégrabilité
Dénition 91 Une famille (Xi )i∈I de v.a.r. intégrables est dite uniformément intégrable (ou U.I.) si
lima→∞ supi∈I E[|Xi |1{|Xi |≥a} ] = 0.
Remarque 92 Une famille bornée dans L1 n'est pas nécessairement U.I. : si P(Xn = n) = 1/n et
P(Xn = 0) = 1 − 1/n, alors E[|Xn |] = 1, mais pour tout a > 0, supn≥1 E[|Xn |1|Xn |≥a ] = 1.
(ii) S'il existe une v.a.r. Z intégrable telle que pour tout i ∈ I , |Xi | ≤ Z p.s., alors (Xi )i∈I est U.I.
(iii) Si supi∈I E[|Xi |p ] < ∞ pour un p > 1, alors (Xi )i∈I est U.I.
Preuve : Pour (ii), on écrit supi∈I E[|Xi |1{|Xi |≥a} ] ≤PE[Z1Z>a ] qui tend vers 0 quand a → ∞ par
convergence dominée. Le (i) découle du (ii) avec Z = i∈I |Xi |. Le (iii) découle du théorème suivant
avec ϕ(x) = xp .
Théorème 94 (de de la Vallée Poussin) Soit (Xi )i∈I , une famille de v.a.r. On a l'équivalence
(i) (Xi )i∈I est U.I.
ϕ(x)
(ii) Il existe ϕ : R+ 7→ R+ (qu'on peut choisir croissante et convexe) telle que lim∞ x =∞ et
telle que supi∈I E[ϕ(|Xi |)] < ∞.
X X X
∀ i ∈ I, E[ϕ(|Xi |)] = E[(|Xi | − ak )+ ] ≤ E[|Xi |1{|Xi |≥ak } ] ≤ 2−k = 2.
k≥0 k≥0 k≥0
Théorème 95 (Convergence dominée, version optimale) Soit Xn une suite de v.a.r. et X∞ une v.a.r.,
toutes intégrables. On a l'équivalence
(i) Xn → X∞ dans L1 .
(ii) Xn → X∞ en probabilité et la famille (Xn )n≥1 est U.I.
36
Preuve : Comme X∞ ∈ L1 , on montre facilement que (Xn )n≥1 est U.I. ssi (Xn − X∞ )n≥1 est U.I.
(exercice). De plus, Xn → X∞ dans L1 (ou en probabilité) ssi Xn − X∞ dans L1 (ou en probabilité).
On peut donc se ramener au cas où X∞ = 0.
Pour montrer que (ii) implique (i). Fixons > 0 petit et a > 0 grand. On écrit
E[|Xn |] ≤E[1{|Xn |≤} ] + E[|Xn |1{|Xn |>} ] ≤ + aP(|Xn | > ) + E[|Xn |1{|Xn |≥a} ].
Comme (Xn )n≥0 est U.I., on trouve lim supn E[|Xn |] ≤ en faisant tendre a → ∞, et il n'y a plus qu'à
faire tendre → 0.
Supposons maintenant (i). Bien sûr, Xn → 0 en probabilité, et il sut de montrer que la famille
(Xn )n≥1 est U.I. On xe donc > 0, et on cherche A > 0 tel que supn≥0 E[|Xn |1{|Xn |≥A } ] ≤ . Il
sut de considérer N tel que supn≥ E[|Xn |] ≤ puis A > 0 tel que supn∈{0,...,N } |Xn |1{|Xn |≥A } ] ≤
(ce A existe car la famille X0 , . . . , XN est nie et donc U.I.).
II.5 Indépendance
Dénition 96 Soit I un ensemble quelconque et, pour tout i ∈ I , une v.a. Xi à valeurs dans Ei
(muni d'une tribu Ei ). On note σ(Xi , i ∈ I) la plus petite tribuG sur Ω t.q. pour tout i ∈ I , Xi soit
(G , Ei )-mesurable.
Il est facile de vérier que σ(Xi , i ∈ I) = σ({{Xi ∈ Ci } : Ci ∈ Ei , i ∈ I}). La situation est plus simple
lorsqu'on ne considère qu'une seule variable, puisqu'alors σ(X) = {{X ∈ C} : C ∈ E } (vérier que le
membre de droite est une tribu sur Ω).
Le résultat suivant est crucial.
Théorème 97 (i) Soit X une v.a. à valeurs dans E (muni d'une tribu E ) et Y une v.a.r. Si Y est
σ(X)-mesurable (i.e. (σ(X), B(R))-mesurable), alors il existe ϕ : E 7→ R, (E , B(R))-mesurable, telle
que Y = ϕ(X).
(ii) Soient X1 , . . . , Xn des v.a. à valeurs dans E1 , . . . , En , munis de tribus E1 , . . . , En . Si Y est une
v.a.r. σ(X1 , . . . , Xn )-mesurable, alors il existe ϕ : E1 × · · · × EN 7→ R, (E1 ⊗ · · · ⊗ En , B(R))-mesurable,
telle que Y = ϕ(X1 , . . . , Xn ).
Preuve : Pour (i), on suppose d'abord Y ≥ 0, et on utilise le Lemme 27 pour écrire Y = n≥0 an 1Bn ,
P
avec an ≥ 0 et Bn ∈ σ(X). Mais σ(X) = {{XP∈ C} : C ∈ E }, donc chaque BnPest de la forme
Bn = {X ∈ Cn }, pour un Cn ∈ E . Du coup, Y = n≥0 an 1{X∈Cn } = ϕ(X), avec ϕ = n≥0 an 1Cn , qui
est bien sûr (E , B(R))-mesurable. Si maintenant Y est quelconque, on écrit Y+ = ϕ1 (X), Y− = ϕ2 (X),
et on conclut avec ϕ = ϕ1 − ϕ2 .
Le point (ii) n'est que l'application du (i) à la variable X = (X1 , . . . , Xn ), qui est une v.a. à valeurs
dans E1 × · · · × EN (muni de la tribu E1 ⊗ · · · ⊗ En ).
37
Dénition 98 (a) Soit Ai ∈ F , i ∈ I , une famille d'événements.
Q On dit qu'ils sont indépendants si
pour tout sous-ensemble ni d'indices J ⊂ I , on a P(∩j∈J Aj ) = j∈J P(Aj ).
(b) Soit Ri , i ∈ I , une famille de classes de sous-ensembles telles que Ri ⊂ F , pour tout i∈I (on
ne suppose rien d'autre sur les Ri ). On dit que les classes Ri , i ∈ I , sont indépendantes si toute famille
d'événements Ai ∈ R i , i ∈ I ,
Q est indépendante sous P, c'est-à-dire que ∀J ⊂ I ni, ∀Aj ∈ Rj , j ∈ J ,
P(∩j∈J Aj ) = j∈J P(Aj ).
(c) Soit (Ei , Ei ), i ∈ I , une famille d'espaces mesurables. Pour tout i ∈ I,
Xi une v.a. à soit
valeurs v.a. Xi , i ∈ I sont indépendantes si les tribus σ(Xi ), i ∈ I sont
dans Ei . On dit que les
indépendantes, i.e. si pour tout sous-ensemble ni d'indices J ⊂ I , pour tous Bj ∈ Ej , j ∈ J , on a
Q
P(∩j∈J {Xj ∈ Bj }) = j∈J P(Xj ∈ Bj ).
Lemme
P 100 (Lemme de Borel) Soit An ∈ F , n ∈ N, une suite d'événements indépendants. Si on a
Preuve : Comme lim supn→∞ An = ∩n Bn , où Bn = ∪k≥n Ak (qui est décroissante), il sut (voir
proposition 14-(ii)) de montrer que P(Bn ) = 1 pour tout n, i.e. que P(Bnc ) = 0 pour tout n.
Mais Bnc = ∩k≥n Ack , et on vérie facilement que les Ack sont indépendants. Du coup, P(Bnc ) =
k=n P(Ak ). On écrit ensuite que
N c
QN c) =
Q∞ c
Q∞ c
→∞ P(∩k=n Ak ) = limN →∞
limNP k=n P(AkP k=n P(Ak ) =
exp( ∞k=n log(1−P(Ak ))). En utilisant que k=n P(Ak ) = ∞, on conclut que
∞ P ∞
k=n log(1−P(Ak )) =
−∞, et donc P(Bn ) = 0.
c
Le théorème suivant est d'un usage très fréquent.
Théorème 101 Soit Pi ⊂ F , i ∈ I , une famille de pi-systèmes. On suppose que les pi-systèmes Pi ,
i ∈ I, sont indépendants. Alors les tribus σ(Pi ), i ∈ I , le sont également.
Preuve : par dénition de l'indépendance, on peut supposer I ni, donc I = {1, . . . , n}.
Montrons déjà que {σ(P1 ), P2 , . . . , Pn } sont indépendants. Pour cela, xons A2 ∈ P2 , . . . , , An ∈
Pn et considérons L = {B ∈ σ(P1 ) : P(B ∩ A2 ∩ · · · ∩ An ) = P(B)P(A2 ) . . . P(An )}. Il sut de
montrer que L = σ(P1 ). On montre facilement que L est une classe monotone. D'autre part, L
contient P1 (par hypothèse). Par le théorème de la classe monotone, on a donc σ(P1 ) ⊂ L , ce qu'on
désirait.
En appliquant l'étape précédente à P1∗ = P2 , P2∗ = σ(P1 ), Pk∗ = Pk pour k = 3, . . . , n, on
voit que {σ(P1∗ ), P2∗ , . . . , Pn∗ } sont indépendants, ce qui se réécrit {σ(P1 ), σ(P2 ), P3 , . . . , Pn } sont
indépendants, etc. .
38
Preuve : pour tout j ∈ J , on note
Pj = A1 ∩ . . . ∩ An ; n ∈ N, A1 , . . . , An ∈ ∪i∈Ij Fi .
Il est facile de voir que Pj est un pi-système tel que σ(Pj ) = Gj . L'indépendance des tribus Fi , i ∈ I ,
entraîne facilement celle des Pj , j ∈ J . Le théorème 101 permet de conclure.
Bj ∈ Ej , j ∈ J , P(∩j∈J {Xj ∈ Bj }) =
Q
(ii) Pour tout J ⊂I ni, pour tous j∈J P(Xj ∈ Bj ).
Bj ∈ Cj , j ∈ J , P(∩j∈J {Xj ∈ Bj }) =
Q
(iii) Pour tout J ⊂I ni, pour tous j∈J P(Xj ∈ Bj ).
(iv) Pour tout J = {j1 , . . . , jn } ⊂ I , où les jk sont distincts, µ(Xj1 ,...,Xjn ) = µXj1 ⊗ . . . ⊗ µXjn .
(v) Pour tout J ⊂I ni, toutes hj : Ej → R, Ej -mesurables bornées (ou positives), j ∈ J,
hY i Y
E hj (Xj ) = E[hj (Xj )].
j∈J j∈J
Preuve : (i) est équivalent à (ii) par dénition, (ii) implique (iii) est trivial, ainsi que (v) implique (ii)
(prendre hj = 1Bj ).
Montrons (iii) implique (i). Soit Pi = {{Xi ∈ Bi } : Bi ∈ Ci }. C'est un pi-système (car Ci en
est un). (iii) dit précisément que les Pi , i ∈ I sont indépendants. Donc par la proposition 101, les
σ(Pi ), i ∈ I sont indépendants. Il nous faut donc montrer que σ(Pi ) = σ(Xi ). Mais {B ∈ Ei :
{Xi ∈ B} ∈ σ(Pi )} est une tribu (exercice) qui contient Ci , donc Ei . Ainsi, pour tout B ∈ Ei ,
{Xi ∈ B} ∈ σ(Pi ). Comme σ(Xi ) = {{Xi ∈ B} : B ∈ Ei }, on conclut que σ(Pi ) = σ(Xi ).
Montrons que (ii) implique (iv). µXj1 ⊗ . . . ⊗ µXjn est l'unique mesure µ sur Ej1Q× · · · × Ejn t.q. pour
tout B1 ∈ Ej1 , . . . , Bn ∈ Ejn , on ait µ(B1 × · · · × Bn ) = µXj1 (BQ1n) . . . µXjn (Bn ) = 1 P(Xjk ∈ Bk ). Or
n
µ(Xj1 ,...,Xjn ) (B1 × · · · × Bn ) = P(Xj1 ∈ B1 , . . . , Xjn ∈ Bn ) = 1 P(Xjk ∈ Bk ) par (ii). Donc en eet,
µ(Xj1 ,...,Xjn ) = µXj1 ⊗ . . . ⊗ µXjn .
Enn, montrons que (iv) implique (v) : on suppose J = {j1 , . . . , jn } et on écrit
n
hY i Z n
Y Z n
Y
E hjk (Xjk ) = ( hjk )dµ(Xj1 ,...,Xjn ) = ( hjk )d(µXj1 ⊗ . . . ⊗ µXjn ).
1 Ej1 ×···×Ejn 1 Ej1 ×···×Ejn 1
Donc, par Fubini,
n
hY i n Z
Y n
Y
E hjk (Xjk ) = hjk dµXjk = E[hjk (Xjk )].
1 1 Ejk 1
Cela termine la peuve.
39
II.6 Loi du 0 − 1 et loi des grands nombres.
Dénition 105 Soit Xn , n ∈ N une suite de v.a. La tribu asymptotique de cette suite est T∞ =
∩n≥0 σ(Xk , k ≥ n).
Exemple 106 Xn , n ∈ N, une suite de v.a.r. Alors les v.a. Y = lim supn Xn et Z = lim inf n Xn
Soient
sont T∞ -mesurables. Pour montrer que Y est T∞ -mesurable, il faut montrer que pour tout B ∈ B(R),
{Y ∈ B} ∈ T∞ , i.e. que pour tout n0 ≥ 0, {Y ∈ B} ∈ σ(Xk , k ≥ n0 ). C'est évident, puisque
lim supn Xn = lim supn Xn0 +n .
Dénition 107 Soit T une tribu sur Ω telle que T ⊂ F. On dit que T est P-triviale si pour tout
A ∈ T , P(A) = 0 ou P(A) = 1.
Lemme 108 Soit T, une sous-tribu de F . Soit X une v.a.r. T -mesurable. On suppose que T est
P-triviale. Alors, il existe x0 ∈ R tel que X = x0 p.s.
Preuve : pour tout x ∈ R, FX (x) = P(X ≤ x) = 0 ou 1. Comme de plus FX (−∞) = 0, FX (+∞) = 1
et comme FX est croissante, on en déduit que FX saute de 0 à 1 en un certain x0 . Ainsi, comme FX
est continue à droite, P(X = x0 ) = FX (x0 ) − FX (x0 −) = 1.
Théorème 109 (Kolmogorov : loi du 0 − 1) Soient Xn , n ∈ N, une suite de v.a. indépendantes. Alors
leur tribu asymptotique T∞ est P-triviale.
Preuve : on pose Fn = σ(X0 , . . . , Xn ), Tn = σ(Xp , p > n). On a donc T∞ = n≥0 Tn . On voit
T
que Fn est indépendante de Tn puis, comme T∞ ⊂ Tn , que Fn est indépendante de T∞ . Donc
T∞ est indépendante de ∪n≥0 Fn et donc de σ(∪n≥0 Fn ) (car ∪n≥0 Fn est un pi-système). Mais bien
sûr, σ(∪n≥0 Fn ) = σ(X0 , X1 , . . . ) et donc T∞ ⊂ σ(∪n≥0 Fn ). Donc T∞ est indépendante de T∞ . En
particulier, pour tout A ∈ T∞ , A est indépendant de A, i.e. P(A) = P(A)2 , puis P(A) ∈ {0, 1}.
Théorème 110 (Loi des grands nombres) Soit Xn une suite de v.a.r. i.i.d. et intégrables. Alors X̄n =
n−1 (X1 + · · · + Xn ) → E[X1 ] p.s.
Preuve : Il sut de montrer que pour tout a > E[X1 ], p.s., lim supn X̄n ≤ a. En eet, on en déduira
que p.s., pour tout k ≥ 1, lim supn X̄n ≤ E[X1 ] + 1/k, puis p.s. lim supn X̄n ≤ E[X1 ], puis, en
appliquant le résultat à la suite −Xn , que lim supn (−X̄n ) ≤ −E[X1 ] p.s., i.e. lim inf n X̄n ≥ E[X1 ] p.s.
Ainsi, limn X̄n = E[X1 ] p.s.
On xe donc a > E[X1 ]. On pose S0 = S0∗ = 0 et, pour n ≥ 1, Sn = X1 + . . . + Xn et Sn∗ =
X2 + . . . + Xn+1 , Mn = max0≤k≤n (Sk − ak) et Mn∗ = max0≤k≤n (Sk∗ − ak), puis
∗
M∞ = lim Mn = sup Mn et M∞ = lim Mn∗ = sup Mn∗ .
n→∞ n≥0 n→∞ n≥0
= max(0, X1 − a + Mn∗ )
= Mn∗ + X1 + max(−X1 − Mn∗ , −a)
= Mn∗ + X1 − min(X1 + Mn∗ , a).
40
Clairement Mn et Mn∗ ont même loi. Donc
On remarque que | min(X1 + Mn∗ , a)| ≤ |X1 | + a (car Mn∗ ≥ 0, séparer les cas (i) a ≤ X1 + Mn∗ , (ii)
0 ≤ X1 + Mn∗ ≤ a et (iii) X1 + Mn∗ ≤ 0 et X1 + Mn∗ ≤ a). Donc par convergence dominée,
∗
E[X1 ] ≥ E[min(X1 +M∞ , a)]. (∗)
Mais {M∞ ∗ = ∞} est dans la tribu asymptotique des X (exercice). Comme elle est P-triviale par
n
la loi du 0 − 1, on a donc P(M∞∗ = ∞) ∈ {0, 1}.
Si on avait M∞∗ = ∞ p.s., on aurait, par (*), E[X ] ≥ a. Donc M ∗ < ∞ p.s. Du coup, M
1 ∞ ∞ < ∞
p.s. (car de même loi que M∞ ∗ ), ce qui signie que pour tout n ≥ 0, S − an ≤ M
n ∞ < ∞ et donc
lim supn (Sn /n) ≤ a.
Dénition 111 (a) Soient µn ∈ M1 (E), n ∈ N ∪ {∞}. On dit que la suite (µn )n∈N converge étroite-
ment vers µ∞ , et on note µn =⇒ µ∞ , si
Z Z
∀ ϕ ∈ Cb (E), lim ϕ dµn = ϕ dµ∞ .
n E E
(b) Soient Xn , n ∈ N ∪ {∞}, des v.a. à valeurs dans E. On dit que la suite de variables (Xn )n∈N
converge en loi vers X∞ si µXn =⇒ µX∞ , i.e. si
L'unicité de la limite étroite se déduit du lemme suivant (car Cb (E) ⊂ Lipb (E)).
Preuve : L'ensemble P des fermés de E est un pi-système qui engendre B(E). Par le théorème
d'unicité du prolongement des mesures, il sut de montrer que µ(F ) = ν(F ) pour tout F ∈ P . Pour
F ∈ P et k ≥ 1, on considère ϕk,F (x) = (1 − kd(x, F ))+ , qui est Lipschitz bornéeR et qui décroit vers
1F (x) (exercice, utiliser que F est fermé). On a donc par hypothèse E ϕk,F dµ = E ϕk,F dν , puis, par
R
Remarque 113 Par contre, si Xn converge en loi vers X et vers Y, on n'a pas forcément X=Y (du
tout). On a seulement µX = µ Y .
41
Théorème 114 (Théorème du porte-manteau incomplet) Soient Xn , n ∈ N ∪ {∞}, des v.a. à valeurs
dans E. Les assertions suivantes sont équivalentes.
tout r, P(ϕ(Xn ) ≥ r) = P(Xn ∈ ϕ−1 ([r, ∞[)). Comme ϕ−1 ([r, ∞[) est fermé (car ϕ est continue),
on a par hypothèse lim supn P(XRbn
∈ ϕ−1 ([r, ∞[)) ≤ P(X∞ ∈ ϕ−1 ([r, ∞[)) = P(ϕ(X∞ ) ≥ r). On
conclut facilement que lim supn a P(ϕ(Xn ) ≥ r)dr ≤ ab P(ϕ(X∞ ) ≥ r)dr. Ainsi, lim supn E[ϕ(Xn )] ≤
R
Preuve : On veut montrer que pour tout ϕ : E 0 7→ R continue bornée, on a E[ϕ(Φ(Xn ))] →
E[ϕ(Φ(X∞ ))]. Cela découle de la convergence en loi de Xn vers X∞ , puisque ϕ ◦ Φ : E 7→ R est
continue bornée.
Preuve : il sut de montrer que pour tout ϕ ∈ Lipb (E), limn E[ϕ(Xn )] = E[ϕ(X∞ )]. Soit donc
ϕ ∈ Lipb (E) et C > 0 tel que |ϕ(x) − ϕ(y)| ≤ Cd(x, y). Pour > 0 xé, on écrit
Donc lim supn |E[ϕ(Xn )] − E[ϕ(X∞ )]| ≤ C pour tout > 0, puis limn |E[ϕ(Xn )] − E[ϕ(X∞ )]| = 0.
Proposition 117 Soient Xn , n ∈ N, des v.a. à valeurs dans E et a∈E (déterministe). Si Xn → a
en loi, alors Xn → a en probabilités.
Preuve : Pour > 0, on introduit la fonction continue bornée ϕ (x) = min{1, d(x, a)/}, on sait que
E[ϕ (Xn )] → E[ϕ (a)] = 0. Mais 1{d(x,a)>} ≤ ϕ (x), d'où P (d(Xn , a) > ) ≤ E[ϕ (Xn )] → 0.
On peut aussi montrer le résultat suivant, dont la preuve est assez technique.
42
Remarque 118 Xn , n ∈ N ∪ {∞}, des v.a. à valeurs dans E . Soit ϕ : E 7→ R bornée et
Soient
(E , B(R))-mesurable. Soit Cϕ ⊂ E l'ensemble des points de continuité de ϕ. Si Xn converge en loi
vers X∞ et si X∞ ∈ Cϕ p.s., alors limn E[ϕ(Xn )] = E[ϕ(X∞ )].
C'est en fait très utile. Si par exemple, si E = R, si Xn → X∞ , si la loi de X∞ a une densité, alors
limn E[ϕ(Xn )] = E[ϕ(X∞ )] dès que ϕ : R 7→ R est bornée et continue `-p.p.
Preuve : Le point (b) (et l'unicité de la limite étroite) implique le point (a) (choisir µn = µ et µ∞ = ν ).
Montrons (b). Pour R > 0, soit φR (x) = (1 − d(x, B(0, R)))+ . On a alors 1B(0,R) ≤ φR ≤ 1B(0,R+1) et
φR ∈ Cc (Rd ). Pour ϕ ∈ Cb (Rd ) et n ∈ N ∪ {∞},
Z Z Z Z
ϕ dµn − ϕφR dµn ≤ kϕk∞ (1 − φR )dµn = kϕk∞ 1 − φR dµn ,
Rd Rd Rd Rd
puis
Z Z Z Z Z Z
ϕ dµn − ϕ dµ∞ ≤ ϕφR dµn − ϕφR dµ∞ + kϕk∞ 2 − φR dµn − φR dµ∞ .
Rd Rd Rd Rd Rd Rd
(b) Pour X
une v.a. à valeurs dans Rd , on appelle fonction caractéristique de X la transformée de
bX (ξ) = E[eihξ,Xi ].
Fourier de sa loi µ
43
Preuve : comme X = (X1 , . . . , Xd ) avec les Xk i.i.d. N (0, σ2 ), on a clairement, pour ξ = (ξ1 , . . . , ξd ),
µ
bX (ξ) = µ bXd (ξd ). Il sut donc de traiter le cas d = 1. On a par dénition, puis en
bX1 (ξ1 ) × · · · × µ
dérivant en ξ ,
Z Z
1 i
iξx −x2 /(2σ 2 )
dx puis
2 /(2σ 2 )
bX (ξ) = √
µ e e b0X (ξ)
µ = √ eiξx xe−x dx.
σ 2π R σ 2π R
En intégrant par parties, on trouve µb0X (ξ) = −ξσ 2 µbX (ξ), dont la solution est µbX (ξ) = µbX (0)e−σ .
2 ξ 2 /2
Preuve : Bien sûr (ii) implique (i). On divise la preuve (ii) en plusieurs étapes.
√
Etape 1. On note gσ (x) = (σ R 2π)−d e−||x||2 /(2σ2 ) la densité de la loi N (0, σ2 Id ). Pour µ ∈ M1 (Rd ) et
x ∈ Rd , on pose (gσ ? µ)(x) = Rd gσ (x − y)µ(dy). On vérie ici que
Z
1 2 ||ξ||2 /2
(gσ ? µ)(x) = e−σ eihξ,xi µ
b(−ξ)dξ.
(2π)d Rd
√
1/σ (ξ) = (σ 2π) gσ (ξ) (voir la remarque 122), on a
Comme gd d
σd
Z Z Z
1 1 2 2
(gσ ? µ)(x) = √ 1/σ (x − y)µ(dy) =
gd √ √ eihx−y,ξi e−σ ||ξ|| /2 dξ µ(dy),
(σ 2π)d Rd (σ 2π)d Rd Rd ( 2π)d
Etape 2. Soit ψ ∈ Cc (Rd ). Elle est uniformément continue, et on dénit son module d'uniforme
continuité : pour δ > 0, ω(ψ; δ) = sup |ψ(x) − ψ(y)| : kx − yk ≤ δ . On montre ici que pour tout
44
Etape 3. On conclut. On suppose donc que µn ∈ M1 (Rd ) pour n ∈ N ∪ {∞} et que Rµcn (ξ) → µc
∞ (ξ)
pour tout ξ ∈ Rd . On considère ψ ∈ Cc (Rd ), et on doit montrer que In = | ψdµ∞ | tend
R
Rd ψdµn − Rd
vers 0. Pour σ > 0, on écrit In ≤ In1,σ + I 2,σ + In3,σ , où
Z Z
In1,σ = ψdµn − ψ(x)(gσ ? µn )(x)dx ,
d d
ZR ZR
I 2,σ = ψdµ∞ − ψ(x)(gσ ? µ∞ )(x)dx ,
d Rd
ZR h i
In3,σ = ψ(x) (gσ ? µn )(x) − (gσ ? µ∞ )(x) dx .
Rd
En utilisant l'étape 2, on voit que pour tout n, In1,σ + I 2,σ ≤ (σ), où (σ) = 2 Rd g1 (z) ω(ψ; σkzk)(dz).
R
Comme ω(ψ; δ) est borné (par 2||ψ||∞ ) et tend vers 0 quand δ → 0, on conclut, par convergence
dominée, que (σ) → 0 quand σ → 0.
Par l'étape 1, on a
Z Z
1 2 ||ξ||2 /2
h i
In3,σ = ψ(x) e−σ eihξ,xi µcn (−ξ) − µc
∞ (−ξ) dξdx .
(2π)d Rd Rd
à support compact.
Nous avons donc montré que pour tout σ > 0, on a In ≤ (σ) + In3,σ , avec limn In3,σ = 0 (pour tout
σ > 0) et limσ→0 (σ) = 0. On conclut que limn In = 0.
Dénition 124 Soit X = (X1 , . . . , Xd ) une v.a. à valeurs dans Rd . C'est un vecteur gaussien si pour
tout u = (u1 , . . . , ud ) ∈ Rd , hu, Xi = u1 X1 + . . . + ud Xd est une v.a. gaussienne.
Remarque 125 Si X est un vecteur gaussien de dimension d et si M est une matrice réelle d × d,
alors MX est un vecteur gaussien.
Exemple 126 Si X1 , . . . , Xd sont i.i.d. N (0, 1), alors X = (X1 , . . . , Xn ) est un vecteur gaussien. En
eet, pour u = (u1 , . . . , ud ) ∈ Rd et ξ ∈ R, par indépendance,
h Y i Y 2 2 2 2 2
µ
bhu,Xi (ξ) = E eiξuk Xk = E[eiξuk Xk ] = e−ξ (u1 +...+ud )/2 = e−ξ kuk /2 .
1≤k≤d 1≤k≤d
45
Lemme 127 Soit X, un vecteur gaussien. Pour tout u ∈ Rd , hu, Xi ∼ N (hu, E[X]i, hu, ΓX ui). Et
pour tout ξ∈ Rd , µc
X (ξ) = exp(ihξ, E[X]i − hξ, ΓX ξi/2).
Preuve : On sait que hu, Xi est une v.a. gaussienne, que E[hu, Xi] = hu, E[X]i et Var (hu, Xi) =
hu, ΓX ui. Donc forcément, hu, Xi ∼ N (hu, E[X]i, hu, ΓX ui). Ensuite, on voit que µ bhξ,Xi (1),
bX (ξ) = µ
et on conclut aisément en utilisant que hξ, Xi ∼ N (hξ, E[X]i, hξ, ΓX ξi).
Dénition 128 Le lemme précédent montre que la loi d'un vecteur Gaussien X est entièrement car-
actérisée par son vecteur moyenne v et sa matrice de covariance Γ. On note N v, Γ cette loi.
Proposition 129 Soient v ∈ Rd et Γ, une matrice réelle de taille d×d symétrique positive. Il existe
un vecteur Gaussien X ∼ N (v, Γ).
Preuve : Γ est symétrique positive, donc admet une racine carrée S (i.e. une matrice symétrique
positive d × d telle que S 2 = Γ). On considère Y1 , . . . , Yd i.i.d. de loi N (0, 1), on pose Y = (Y1 , . . . , Yd )
puis X = v + SY. On vérie ensuite que X est un vecteur gaussien (comme dans l'exemple), que sa
moyenne est v, et que sa matrice de covariance est S 2 = Γ.
√ 1
N 0, Γ .
n (X1 + · · · + Xn ) − v converge en loi vers
n
Lemme 131 Soit X est une v.a.r. t.q. E[|X|2 ] < ∞. Il existe : R 7→ C telle que limξ→0 (ξ) = 0 et
ξ2
∀ ξ ∈ Rd , bX (ξ) = 1 + iξE[X] −
µ E[X 2 ] + |ξ|2 (ξ).
2
Preuve : On vérie (exercice) que pour y ∈ R
y2
eiy − 1 − iy + ≤ y 2 min{|y|, 1}.
2
Ainsi,
ξ2 h ξ2 i
E[X 2 ] = E eihξ,Xi − 1 − iξX + X 2 ≤ |ξ|2 E X 2 min{1, |ξX|} .
bX (ξ) − 1 − iξE[X] +
µ
2 2
Par convergence dominée, limξ→0 E[X 2 min{2, |ξX|}] = 0, ce qui achève la preuve.
Preuve du théorème : On suppose sans perte de généralité que v = 0 on on procède en deux étapes.
On vérie d'abord le théorème quand d = 1. On doit montrer que Zn = n−1/2 (X1 + · · · + Xn )
converge en loi vers N (0, E[X12 ]). Par le théorème de Lévy, il sut de voir que pour tout ξ ∈ R, quand
n → ∞, on a µ bZn (ξ) → exp(−E[X12 ]ξ 2 /2). Mais par indépendance et identité des lois,
h √ i h √ in √
bZn (ξ) = E eiξ(X1 +···+Xn )/ n = E eiξX1 / n = [b
µ µX1 (ξ/ n)]n .
46
Par le lemme, on a de plus l'existence d'une fonction : R 7→ C telle que limξ→0 (ξ) = 0 et
ξ2 ξ2
∀ ξ ∈ R, bX1 (ξ) = 1 + iξE[X1 ] −
µ E[X12 ] + ξ 2 (ξ) = 1 − E[X12 ] + ξ 2 (ξ).
2 2
En combinant ces deux résultats, on conclut qu'en eet, quand n → ∞,
ξ2 ξ2 2
bZn (ξ) = 1 −
µ E[X12 ] + (ξ) → exp(−E[X12 ]ξ 2 /2).
2n n
47
48
Chapitre III
Espérance conditionnelle
Dans tout ce chapitre (Ω, F , P) désigne un espace de probabilité. La tribu F est la tribu de
référence . On dit que G est une sous-tribu de F si G est une tribu sur Ω et si G ⊂ F . Dans ce qui
suit, il sera commode d'interpréter une sous-tribu G de F comme une famille d'événements dont on
sait déjà s'ils sont réalisés ou non. La notion d'espérance conditionnelle est une façon de formaliser le
problème suivant : comment calculer la moyenne d'une variable aléatoire sachant que les évenements
de G sont réalisés ou non ?
Dénition 132 Soit G une sous-tribu de F. Soit X une v.a.r. positive (resp. intégrable). Une v.a.r.
Y positive (resp. intégrable) est une version de l'espérance conditionnelle de X sachant G si
Rappelons que H = L2 (Ω, F , P), muni du produit scalaire hX1 , X2 i = E[X1 X2 ], est un espace de
Hilbert. Pour G une sous-tribu de F , F = L2 (Ω, G , P) est un s.e.v. fermé de H . Si X ∈ L2 (Ω, F , P),
on peut voir Y = E[X|G ] comme la projection orthogonale de X sur F . Voir la section I.11. Nous
utiliserons ici Radon-Nikodym, ce qui n'est pas très diérent, puisque la preuve du théorème de Radon-
Nikodym utilise la projection orthogonale dans l'espace de Hilbert L2 (Ω, F , P).
On montre d'abord l'unicité p.s. de l'espérance conditionnelle.
Proposition 133 Soit G une sous-tribu de F. Soient Y et Y0 deux v.a.r. G -mesurables positives (ou
intégrables). Si
∀B ∈ G , E[Y 1B ] ≤ E[Y 0 1B ],
alors Y ≤Y0 p.s.
Preuve : pour a < b, on pose Ca,b = {Y 0 ≤ a < b ≤ Y } ∈ G . On a Y 0 1Ca,b ≤ a1Ca,b ≤ b1Ca,b ≤ Y 1Ca,b .
En prenant l'espérance, on trouve E[Y 0 1Ca,b ] ≤ aP(Ca,b ) ≤ bP(Ca,b ) ≤ E[Y 1Ca,b ]. Mais par hypothèse,
E[Y 0 1Ca,b ]. Donc aP(Ca,b ) = bP(Ca,b ). Comme a < b, on conclut que P(Ca,b ) = 0. Comme
E[Y 1Ca,b ] ≤ S
{Y < Y } = a,b∈Q,a<b Ca,b , on voit que P(Y 0 < Y ) = 0.
0
Y = Y 0 presque sûrement. On emploie donc l'abus suivant : on parle de l' espérance conditionnelle
deX sachant G , au lieu de "version de l'espérance conditionnelle", et on note toutes les versions de
l'espérance conditionnelle de X sachant G de la même manière, E[X|G ].
49
Théorème 135 (Existence de l'espérance conditionnelle) Soit G une sous-tribu de F et X une v.a.r.
positive (ou intégrable). Alors E[X|G ] existe.
Preuve : Soit d'abord X une v.a.r. positive. Pour B ∈ G , on pose ν(B) = E[X1B ] = X dP. Alors
R
B
ν est une mesure sur G , et elle est σ -nie (voir le lemme 67). Donc le théorème de Radon-Nikodym
implique l'existence de Y : Ω 7→ [0, ∞[, G -mesurable, telle que pour tout B ∈ F , ν(B) = B Y dP =
R
E[Y 1B ]. On conclut donc en posant E[X|G ] = Y : c'est une v.a.r. positive, G -mesurable, et on a
E[Y 1B ] = E[X1B ] pour tout B ∈ G . Remarquons d'ores et déjà que E[E[X|G ]] = E[Y ] = E[X] : il
sut de choisir B = Ω.
Si maintenant X est une v.a.r. intégrable, on introduit X+ et X− , et on montre aisément que Y =
E[X+ |G ] − E[X− |G ] convient. En particulier, Y est intégrable car E[Y ] ≤ E[E[X+ |G ]] + E[E[X− |G ]] =
E[X+ ] + E[X− ] = E[|X|] < ∞.
Proposition 136 Soit G, une sous-tribu de F et X, Y deux v.a.r. positives (resp. intégrables).
(iii) Pour tout a ∈ R+ (resp. tout a ∈ R), E[X + aY |G ] = E[X|G ] + aE[Y |G ] p.s.
Preuve : (i) il sut de vérier que E[X] est G -mesurable (évident) et que pour B ∈ {∅, Ω}, on a bien
E[X1B ] = E[E[X]1B ] (évident, traiter les cas B = ∅ puis B = Ω).
(ii) il sut de vérier que X est G -mesurable (hypothèse) et que pour B ∈ G , on a bien E[X1B ] =
E[X1B ] (trivial).
(iii) On pose X 0 = E[X|G ] et Y 0 = E[X|G ], puis Z 0 = X 0 + aY 0 . C'est une v.a. positive (resp.
intégrable), G -mesurable, et pour B ∈ G , E[Z 0 1B ] = E[E[X|G ]1B ] + aE[E[Y |G ]1B ], qui n'est autre
que E[X1B ] + aE[Y 1B ].
(iv) Posons X 0 = E[X|G ] et Y 0 = E[X|G ]. Pour tout B ∈ G , on a E[X 0 1B ] = E[X1B ] ≤ E[Y 1B ] =
E[Y 0 1B ]. Comme de plus Y, Y 0 sont G -mesurables, la proposition 133 implique que Y ≤ Y 0 .
Les points (v) et (vi) ont plus ou moins déjà été vus dans la preuve du théorème précédent.
Lemme 137 Soit G une sous-tribu de F, soit X une v.a.r. positive (resp. intégrable). Pour toute
v.a.r. Z G -mesurable E[ZE[X|G ]] = E[ZX].
et positive (resp. bornée), on a
Preuve : traitons e.g. le cas X, Z ≥ 0. Par le lemme 27, on écrit Z = n an 1Bn , avec an ≥ 0 et
P
Bn ∈ G . Alors, en notant Y = E[X|G ],
hX i X X hX i
E[ZY ] = E an 1Bn Y = an E[1Bn Y ] = an E[1Bn X] = E an 1Bn X = E[ZX].
n≥0 n≥0 n≥0 n≥0
50
Proposition 138 Soit G une sous-tribu de F X une v.a.r. positive (resp.
et intégrable). Alors pour
toute v.a.r. Z G -mesurable positive (resp. bornée), E[ZX|G ] = ZE[X|G ] p.s.
Preuve : on suppose e.g. X, Z ≥ 0. Il faut vérier que ZE[X|G ] est G -mesurable (évident) et que pour
B ∈ G , E[ZE[X|G ]1B ] = E[XZ1B ]. Cela découle du lemme précédent appliqué à X et à Z = Z1B
(abus de notation).
Lemme 139 Soit G une sous-tribu de F et X une v.a.r. positive (resp. intégrable) indépendante de
G. Alors E[X|G ] = E[X] p.s.
Preuve : on suppose e.g. X ≥ 0. Il faut vérier que E[X] est G -mesurable (évident) et que pour
B ∈ G , E[X1B ] = E[E[X]1B ] (évident).
Proposition 140 Soient G1 ⊂ G2 deux sous-tribus de F et X une v.a.r. positive (resp. intégrable).
Alors E[E[X|G2 ] |G1 ] = E[X|G1 ] p.s.
Preuve : On suppose e.g. X ≥ 0. On doit montrer que Y = E[E[X|G2 ] |G1 ] est G1 -mesurable (évident)
et que pour B ∈ G1 , on a E[Y 1B ] = E[X1B ]. Mais
E[Y 1B ] = E[E[E[X|G2 ] |G1 ]1B ] = E[E[E[X|G2 ]1B |G1 ]] = E[E[E[X1B |G2 ]|G1 ]].
On a utilisé que 1B est G1 -mesurable (on peut donc le rentrer dans l'espérance conditionnelle sachant
G1 par la proposition 138), puis que 1B est G2 -mesurable (on peut donc le rentrer dans l'espérance con-
ditionnelle sachant G2 par la proposition 138). En utilisant deux fois la proposition 136-(vi) (l'espérance
de l'espérance conditionnelle est l'espérance), on conclut que E[Y 1B ] = E[X1B ].
Proposition 142 Soient G1 et G1 , deux sous-tribus de F. Soit X , une v.a.r. positive (ou intégrable).
On suppose que G2 est indépendante de σ(σ(X), σ(G1 )). Alors E[X|σ(G1 , G2 )] = E[X|G1 ] p.s.
Preuve : par la proposition précédente, il sut de vérier que E[X|G1 ] est σ(G1 , G2 )-mesurable (évi-
dent) et que pour tout B1 ∈ G1 et B2 ∈ G2 , on a E[E[X|G1 ]1B1 1B2 ] = E[X1B1 1B2 ]. Mais en utilisant
que B1 ∈ G1 puis que B2 est indépendant de E[X|G1 ] et de X1B1 , on peut écrire
E[E[X|G1 ]1B1 1B2 ] = E[E[X1B1 |G1 ]1B2 ] = E[E[X1B1 |G1 ]]E[1B2 ] = E[X1B1 ]E[1B2 ] = E[X1B1 1B2 ].
C'est ce qu'on désirait.
51
Proposition 143 Soit G, une sous-tribu de F et (Xn )n≥0 , une suite de v.a.r.
(Interversion positive)
P P
Si Xn ≥ 0 p.s. ∀ n ≥ 0, alors E[ n Xn |G ] = n E[Xn |G ] p.s.
(Fatou) Si Xn ≥ 0 p.s. ∀ n ≥ 0, E[lim inf n Xn | G ] ≤ lim inf n E[Xn |G ] p.s.
alors
(Interversion )
P P P
n E[|Xn |] < ∞, alors E[ n Xn |G ] = n E[Xn |G ] p.s.
1
L Si
Proposition 145 Soit (E, E ) un espace mesurable, soit V une v.a. à valeurs dans E et soit X une
v.a.r. positive (resp. intégrable). On note alors E[X|V ] = E[X|σ(V )].
(a) Il existe h : E 7→ R, E -mesurable, telle que E[X|V ] = h(V ).
(b) Si h : E → R est E -mesurable, alors, E[X|V ] = h(V ) p.s. ssi pour toute fonction ϕ : E → R,
E -mesurable positive (resp. bornée), on a E[Xϕ(V )] = E[h(V )ϕ(V )].
Preuve : le point (a) découle du théorème 97. Le second point découle du lemme 137 et du fait
que les v.a. Z qui sont σ(V )-mesurables positives (resp. bornées) sont exactement les v.a. ϕ(V ), avec
ϕ : E → R, E -mesurables et positive (resp. bornée).
Lemme 146 Soient X1 , X2 deux v.a. indépendantes à valeurs dans E1 et E2 , munis de tribus E1 et
E2 . Alors pour toute fonction Φ : E1 × E2 7→ R, E1 ⊗ E2 -mesurable et positive (ou bornée), on a
52
Preuve : Il faut vérier que pour tout ϕ : E1 7→ R+ , on a E[Φ(X1 , X2 )ϕ(X1 )] = E[Ψ(X1 )ϕ(X1 )].
Mais on sait (voir proposition 103-(iv)) que µ(X1 ,X2 ) = µX1 ⊗ µX2 . On a donc, par Fubini positif,
Z Z Z
E[Φ(X1 , X2 )ϕ(X1 )] = Φ(x1 , x2 )ϕ(x1 )µX2 (dx2 ) µX1 (dx1 ) = Ψ(x1 )ϕ(x1 )µX1 (dx1 ),
E1 E2 E1
puisque Φ(x1 , x2 )µX2 (dx2 ) par dénition. Pour conclure, il n'y a plus qu'à remarquer que
R
Ψ(x1 ) = E2
E1 Ψ(x1 )ϕ(x1 )µX1 (dx1 ) = E[Ψ(X1 )ϕ(X1 )].
R
D'autre part, E[f (U1 )ϕ(V )] = E[f (U1 )ϕ(U1 )1{U1 ≥U2 } ] + E[f (U1 )ϕ(U2 )1{U2 ≥U1 } ], ce qui donne
E[f (U1 )ϕ(V )] = 0 uf (u)ϕ(u)du + 0 ( 0 f (x)dx)ϕ(u)du.
R1 R1 Ru
Il faut donc que 2h(u)u = uf (u) + f (x)dx, i.e. h(u) = 21 f (u) + f (x)dx.
Ru 1
Ru
0 2u 0
C. On xe encore f : [0, 1] 7→ R+ mesurable et souhaite calculer E[f (V )|U1 ]. On cherche donc
h : R+ 7→ R+ telle que pour toute ϕ : [0, 1] 7→ R+ mesurable, on ait E[h(U1 )ϕ(U1 )] = E[f (V )ϕ(U1 )].
On aura alors E[f (V )|U1 ] = h(U1 ) p.s.
Déjà, E[h(U1 )ϕ(U1 )] = 01 h(u)ϕ(u)du.
R
D'autre part, E[f (V )ϕ(U1 )] = E[f (U1 )ϕ(U1 )1{U1 ≥U2 } ] + E[f (U2 )ϕ(U1 )1{U2 ≥U1 } ], ce qui donne
E[f (V )ϕ(U1 )] = 0 uf (u)ϕ(u)du + 0 ( u f (x)dx)ϕ(u)du.
R1 R1 R1
53
54
Chapitre IV
Martingales
Dénition 148 Soit (Fn )n≥0 une ltration. Une suite de v.a. (Xn )n≥0 est dite
• (Fn )n≥0 -adaptée si pour tout n ≥ 0, Xn est Fn -mesurable.
• (Fn )n≥0 -prévisible si pour tout n ≥ 1, Xn est Fn−1 -mesurable et si X0 est F0 -mesurable.
Dénition 149 Soit (Fn )n≥0 une ltration et (Xn )n≥0 une suite (Fn )n≥0 -adaptée de v.a.r. inté-
grables. La suite (Xn )n≥0 est une
• (Fn )n≥0 -martingale si ∀ n ≥ 0, E[Xn+1 |Fn ] = Xn ;
• (Fn )n≥0 -sous-martingale si ∀ n ≥ 0, E[Xn+1 |Fn ] ≥ Xn ;
• (Fn )n≥0 -sur-martingale si ∀ n ≥ 0, E[Xn+1 |Fn ] ≤ Xn .
Remarque 150 Soit (Xn )n≥0 , une (Fn )n≥0 -martingale (resp. sur/sous-martingale). Alors pour tout
m, n ∈ N, E[Xn+m |Fn ] = Xn , (resp. ≤ Xn , ≥ Xn ). De plus la suite n 7→ E[Xn ] est constante (resp.
décroissante, resp. croissante).
En utilisant Jensen conditionnel, on voit facilement que, sous réserve d'intégrabilité, si (Xn )n≥0 est
une martingale et si ϕ : R 7→ R est convexe, alors (ϕ(Xn ))n≥0 est une sous-martingale. Si ϕ : R 7→ R
est concave, (ϕ(Xn ))n≥0 est une sur-martingale. Si maintenant (Xn )n≥0 est une sous-martingale et si
ϕ : R 7→ R est convexe et croissante, alors (ϕ(Xn ))n≥0 est une sous-martingale, etc.
Proposition 151 (Décomposition de Doob) Soit (Xn )n≥0 une suite de v.a.r. (Fn )n≥0 -adaptées ité-
grables. Il existe une unique paire de suites (Mn )n≥0 , (Vn )n≥0 , telle que
(i) Xn = X0 + Mn + Vn , n ≥ 0.
(ii) (Mn )n≥0 est une (Fn )n≥0 -martingale.
(iii) (Vn )n≥0 est (Fn )n≥0 -prévisible et V0 = 0.
Preuve : Unicité. Considérons une paire (Mn )n≥0 , (Vn )n≥0 satisfaisant les trois points. Par (i), on a
Xn+1 − Xn = Mn+1 − Mn + Vn+1 − Vn . En prenant l'espérance conditionnelle sachant Fn , on trouve
55
E[Xn+1 −Xn |Fn ] = Vn+1 −Vn . Comme V0 = 0, on conclut que forcément, Vn = k=0 E[Xk+1 −Xk |Fk ].
Pn−1
Puis forcément, Mn = Xn − X0 − Vn .
Existence. On pose V0 = 0, Vn = n−1 k=0 E[Xk+1 − Xk |Fk ] (pour n ≥ 1), puis Mn = Xn − X0 − Vn
P
(pour n ≥ 0). Les points (i) et (iii) sont évidemment vériés. Pour (ii), on remarque que Mn+1 − Mn =
(Xn+1 − Xn ) − (Vn+1 − Vn ) = (Xn+1 − Xn ) − E[Xn+1 − Xn |Fn ], d'où E[Mn+1 − Mn |Fn ] = 0.
Inégalités de Doob. Commençons par montrer deux inégalités de Doob. La seconde est fort utile.
Lemme 152 (Inégalité maximale) Soit (Xn )n≥0 une (Fn )n≥0 -sous-martingale constituée de variables
positives et L1 . Alors pour tout a > 0, toutn ∈ N,
aP sup Xm > a ≤ E Xn 1{sup0≤m≤n Xm >a} .
0≤m≤n
(Inégalité de Doob) Soit(Xn )n≥0 une (Fn )n≥0 -martingale et p ∈]1, ∞[.
p p
sup E |Xn |p < ∞, alors E sup |Xn |p ≤ p−1 sup E |Xn |p .
Si
n∈N n∈N n∈N
Preuve : on xe n ∈ N et a > 0, et on introduit Ta = inf{n ≥ 0 : Xn > a} (avec inf ∅ = ∞). Pour
m ≤ n, on a (comme {Ta = m} = {X0 ≤ a, . . . , Xm−1 ≤ a, Xm > a} ∈ Fm )
a1{Ta =m} ≤ Xm 1{Ta =m} ≤ E[Xn |Fm ]1{Ta =m} = E[Xn 1{Ta =m} |Fm ].
Donc aP(Ta = m) ≤ E[Xn 1{Ta =m} ] puis, en sommant sur m ≤ n, aP(Ta ≤ n) ≤ E[Xn 1{Ta ≤n} ].
L'inégalité maximale est prouvée, puisque {sup0≤m≤n Xm > a} = {Ta ≤ n}.
Comme x 7→ |x| est convexe, (|Xn |)n≥0 est une sous-martingale, et on peut appliquer l'inégalité
maximale : en posant Sn = sup0≤m≤n |Xm |, on trouve aP(Sn > a) ≤ E[|Xn |1{Sn >a} ], puis
Z ∞ Z ∞
p−2
aP(Sn > a)pa da ≤ E[|Xn |1{Sn >a} ]pap−2 da.
0 0
56
Convergence p.s. Les deux résultats principaux de convergence sont les suivants.
Théorème 153 (i) Toute sur-martingale positive (Xn )n≥0 converge p.s.
(ii) Toute sous-martingale (Xn )n≥0 bornée dans L1 (i.e. supn E[|Xn |] < ∞) converge p.s. vers une
v.a.r. intégrable X∞ quand n → ∞.
Remarque 154 (a) Si (Xn )n≥0 est une suite (Fn )n≥0 -adaptée de v.a.r. positives telle que ∀ n ≥ 0,
E[Xn+1 |Fn ] ≤ Xn , alors Xn converge p.s. (En eet, la preuve du point (i) n'utilise pas l'intégrabilité
des Xn ).
(b) Dans (ii), on peut remplacer sous-martingale par sur-martingale (appliquer le résultat à −X ).
En fait, tous les résultats de convergence de martingales ne sont que des ranements du lemme
fondammental suivant.
Lemme 155 Soit (Mn )n≥0 une (Fn )n≥0 -martingale bornée dans L2 (i.e. supn E[Mn2 ] < ∞). Alors
Mn converge p.s.
2
et dans L .
car ∆Mk est Fk ⊂ Fn−1 -mesurable et car E[∆Mn |Fn−1 ] = 0. 0n en déduit que
h n+m
X 2 i n+m
X
∀ n + m > n ≥ 0, E[(Mn+m − Mn )2 ] = E ∆k = E[(∆Mk )2 ]. (∗)
n+1 n+1
En particulier supn E[Mn2 ] < ∞ implique supn E[(Mn − M0 )2 ] < ∞ et donc 2 < ∞.
P
k≥1 E[(∆Mk ) ]
57
Déjà, V est p.s. croissant : Vn+1 −Vn = E[Vn+1 −Vn |Fn ] = E[Yn+1 −Yn |Fn ]−E[Mn+1 −Mn |Fn ] =
E[Yn+1 − Yn |Fn ] ≥ 0 p.s. Donc V∞ = limn Vn ∈ [0, ∞] existe p.s.
Montrons maintenant quePsupn E[Mn2 ] < ∞. Comme dans la preuve précédente (voir (∗) et utiliser
Pn k )2 ] où, 2pour (Xn )n≥0 un processus, on note ∆Xk = Xk −Xk−1
que M0 = 0), on a E[Mn2 ] = n1 E[(∆M 2
pour k ≥ 1. On écrit Yn = Y0 + k=1 (Yk − Yk−1 ) puis, comme Yk = Yk−1 + ∆Mk + ∆Vk ,
2 2
n
X n
X n
X n
X n
X
Yn2 =Y02 + (∆Mk ) + 2 2
(∆Vk ) + 2 Yk−1 ∆Mk + 2 Yk−1 ∆Vk + 2 ∆Mk ∆Vk .
k=1 k=1 k=1 k=1 k=1
n
X n
X
2
(∆Mk ) + 2 (Yk−1 + ∆Vk )∆Mk ≤ Yn2 ≤ 1.
k=1 k=1
1 E[(∆Mk ) ] ≤ 1.
On déduit donc du lemme 155 que M∞ = limn Mn existe p.s. Ainsi, Y∞ = limn Yn = Y0 + M∞ + V∞
p.s. De plus, Y∞ ∈ [0, 1] p.s., puisque Yn est à valeurs dans [0, 1]. On en déduit que limn Xn = X∞
p.s., où X∞ = − ln Y∞ ∈ [0, ∞] (avec − ln 0 = ∞), et il ne reste plus qu'à voir que X∞ < ∞ p.s. Mais
on voit facilement par récurrence que E[Xn |F0 ] ≤ X0 puis, par Fatou, que E[X∞ |F0 ] ≤ X0 < ∞ p.s.,
ce qui implique le résultat.
Preuve du point (ii) du théorème 153 : Soit donc Xn une sous-martingale bornée dans L1 . Posons
K = supn E[|Xn |]. Montrons qu'il existe deux sur-martingales positives Yn , Zn telles que Xn = Yn −Zn .
Cela impliquera, par le point (i), que X∞ = lim Xn existe p.s. (et on aura E[|X∞ |] ≤ K par Fatou).
Le processus (Xn )+ est une sous-martingale, car x 7→ x+ est convexe croissante. Écrivons sa
décomposition de Doob (Xn )+ = (X0 )+ + Mn + Vn . On vérie comme sans la preuve du (ii) que V est
croissant p.s. (et donc positif puisque V0 = 0). De plus E[Vn ] = E[(Xn )+ ]−E[(X0 )+ ] ≤ E[(Xn )+ ] ≤ K .
Donc V∞ = limn Vn existe p.s. et de plus, E[V∞ ] ≤ K par convergence monotone.
Posons Yn = (X0 )+ + Mn + E[V∞ |Fn ]. C'est bien sûr une martingale, et elle est positive car
Yn ≥ (X0 )+ + Mn + Vn = (Xn )+ ≥ 0 (comme V est p.s. croissant, E[V∞ |Fn ] ≥ E[Vn |Fn ] = Vn ).
Enn, Zn = Yn − Xn est une sur-martingale (car c'est la diérence d'une martingale et d'une
sous-martingale) et on a Zn ≥ (Xn )+ − Xn = (Xn )− ≥ 0.
Convergence dans L1 .
Théorème 156 Soit (Xn )n≥0 une (Fn )n≥0 -martingale. Les points suivants sont équivalents.
58
Preuve : Montrons que (i) implique (ii) : si Xn converge dans L1 vers X∞ , alors supn E[|Xn |] < ∞,
donc le théorème 153 nous dit que Xn converge p.s., nécessairement vers X∞ . Pour montrer que
Xn = E[X∞ |Fn ], on écrit Xn = E[Xn+m |Fn ] et on fait tendre m → ∞ de la façon suivante :
(ii) implique trivialement (iii) car X∞ = limn Xn p.s. est intégrable par Fatou car supn E[|Xn |] < ∞.
(iii) implique (iv) par le lemme.
Enn, (iv) implique (i), car {Xn , n ≥ 0} U.I. implique que supn E[|Xn |] < ∞, donc le théorème
153 nous dit que Xn converge p.s., et donc aussi dans L1 puisque {Xn , n ≥ 0} U.I. (par le théorème
95 de convergence dominée optimal).
Convergence dans Lp .
Théorème 157 Soit (Xn )n≥0 une (Fn )n≥0 -martingale. Si supn E[|Xn |p ] < ∞ pour un p ∈]1, ∞[,
alors il existe X∞ ∈ L t.q. X∞ = limn Xn p.s. et dans Lp . De plus, Xn = E[X∞ |Fn ] pour tout n ≥ 0.
p
Preuve : Comme supn E[|Xn |p ] < ∞ avec p > 1, la famille {Xn , n ≥ 0} est U.I. et le théorème 156
implique que X∞ = limn Xn p.s. et dans L1 avec de plus Xn = E[X∞ |Fn ] pour tout n. Il ne nous reste
qu'à montrer que Xn → X∞ dans Lp . On utilise la convergence dominée : bien sûr, |Xn −X∞ |p → 0 p.s.
D'autre part, supn≥0 |Xn − X∞ |p ≤ 2p (supn≥0 |Xn |p + |X∞ |p ) ≤ 2p+1 supn≥0 |Xn |p , qui est intégrable
par l'inégalité de Doob (et car on a supposé que supn E[|Xn |p ] < ∞).
(i) Une v.a. T à valeurs dans N ∪ {∞} est un (Fn )n≥0 -temps d'arrêt ssi {T ≤ n} ∈ Fn , pour tout
n∈N ssi {T > n} ∈ Fn , pour tout n ∈ N.
(ii) Si T est un (Fn )n≥0 -temps d'arrêt, alors FT est une sous-tribu de F∞ .
(iii) Si S, T (Fn )n≥0 -temps
sont deux d'arrêt, alors S + T, S ∧ T, S ∨ T sont des (Fn )n≥0 -temps
d'arrêt. De plus, FS∧T = FS ∩ FT .
(iv) Si S, T sont deux (Fn )n≥0 -temps d'arrêt avec S≤T p.s., alors FS ⊂ FT .
Proposition 161 Soit (Xn )n≥0 une (Fn )n≥0 -martingale (resp. sur-martingale, resp. sous-martingale)
et T un (Fn )n≥0 -temps d'arrêt. Alors (Xn∧T )n≥0 est une (Fn )n≥0 -martingale (resp. sur-martingale,
sous-martingale).
59
Preuve : Déjà,
P pour chaque n ≥ 0, |Xn∧T | ≤ 0 |Xk | est intégrable. Ensuite, pour chaque n ≥
Pn
0, Xn∧T = n
P Xk 1{T =k} + Xn 1{T >n} est Fn -mesurable. Enn, pour n ≥ 0P
k=0 , on a X(n+1)∧T =
Xn+1 1{T >n} + nk=0 Xk 1{T =k} . Du coup, comme {T > n} ∈ Fn , et comme k=0 Xk 1{T =k} est
n
Fn -mesurable,
Xn
E[X(n+1)∧T |Fn ] = E[Xn+1 |Fn ]1{T >n} + Xk 1{T =k}
k=0
Proposition 162 Soit (Xn )n≥0 (Fn )n≥0 -martingale et soit T , un (Fn )n≥0 -temps d'arrêt.
une On
suppose que T < ∞ p.s. et qu'il existe une v.a.r. Z intégrable t.q. ∀n ∈ N, |Xn∧T | ≤ Z . Alors XT est
une variable intégrable et E[X0 ] = E[XT ].
Preuve : Comme XT ∧n est une martingale, E[XT ∧n ] = E[X0 ]. De plus, comme T < ∞ p.s., on a
limn XT ∧n = XT . Il n'y a plus qu'à utiliser le théorème de convergence dominée.
Application à la ruine du joueur. Soit (ξn )n≥1 i.i.d. avec P(ξn = 1) = p et P(ξn = −1) = q,
où p ∈]0, 1[ et q = 1 − p. On pose X0 = 0, F0 = {∅, Ω}, et pour tout n ≥ 1, Xn = ξ1 + . . . + ξn et
Fn = σ(ξn , . . . , ξn ). Pour tout c ∈ Z, on pose Tc = inf{n ∈ N : Sn = c}, avec la convention inf ∅ = ∞.
C'est un (Fn )n≥0 temps d'arrêt. On xe a, b ∈ N∗ et on pose T−a,b = T−a ∧ Tb , on admet qu'il est p.s.
ni. On a alors
1−(q/p)b
(q/p)−a −(q/p)b si p 6= q ,
P(ST−a,b = −a) =
b
si p = q = 1/2.
a+b
Cas p = q = 1/2 : (Sn )n≥0 est une (Fn )n≥0 -martingale et |Sn∧T−a,b | ≤ max(a, b). La proposition 162
s'applique, donc E[ST−a,b ] = E[S0 ] = 0. Mais E[ST−a,b ] = −aP(ST−a,b = −a) + bP(ST−a,b = b). Comme
P(ST−a,b = b) = 1 − P(ST−a,b = −a), on conclut que 0 = −(a + b)P(ST−a,b = −a) + b.
Cas p 6= q : soit x = q/p. En utilisant que px+qx−1 = 1, il n'est pas trop dur de montrer que E[xξ1 ] = 1
puis que Xn = xSn est une Fn -martingale. Clairement Xn∧T−a,b est bornée (par max−a≤k≤b xk ). La
proposition 162 s'applique, donc E[XT−a,b ] = E[X0 ] = 1. Mais E[XT−a,b ] = x−a P(ST−a,b = −a) +
xb P(ST−a,b = b). Donc 1 = (x−a − xb )P(ST−a,b = −a) + xb .
60
Théorème 163 (Théorème d'arrêt de Doob) Soit (Xn )n≥0 une (Fn )n≥0 -martingale U.I. On note X∞
sa limite presque sûre, qui est aussi sa limite dans
P L1 . Soient aussi S, T , deux (Fn )n≥0 -temps d'arrêt
(à valeurs dans N ∪ {∞}). On dénit XT = n≥0 Xn 1{T =n} + X∞ 1{T =∞} et XS similairement.
(i) XT est FT -mesurable, intégrable, XT = E[X∞ | FT ] (et par conséquent E[XT ] = E[X0 ] puisque
X0 = E[X∞ | F0 ]).
(ii) (Xn∧T )n≥0 est une (Fn )n≥0 -martingale U.I. qui converge p.s. et dans L1 vers XT .
(iii) E[XT |FS ] = XS∧T .
Preuve : Montrons (i). Pour montrer que XT est FT -mesurable, considérons A ∈ B(R) et montrons
que {XT ∈ A} ∈ FT , i.e. que pour tout n ∈ N, {T = n} ∩ {XT ∈ A} ∈ Fn , ce qui est clair puisque
{T = n} ∩ {XT ∈ A} = {T = n} ∩ {Xn ∈ A}. Rappelons ensuite que X∞ est intégrable et montrons
que E[X∞ |FT ] = XT , ce qui impliquera que XT est aussi intégrable. On doit montrer que XT est
FT -mesurable (déjà fait) et que pour tout B ∈ FT , on a E[XT 1B ] = E[X∞ 1B ]. Pour cela, on écrit
X
E[XT 1B ] = E[Xn 1B 1{T =n} ] + E[X∞ 1B 1{T =∞} ]
n≥0
Montrons (ii). On sait déjà que (Xn∧T )n≥0 est une (Fn )n≥0 -martingale. Comme n ∧ T est un
(Fn )n≥0 -temps d'arrêt, le (i) implique que XT ∧n = E[X∞ |FT ∧n ]. Donc (XT ∧n )n≥0 est U.I. par le
lemme 144, et la martingale XT ∧n converge p.s. et dans L1 quand n → ∞. Sa limite p.s. (et donc aussi
L1 ) est bien sûr XT (sur l'évènement {T < ∞} c'est évident et sur l'évènement {T = ∞} aussi).
Pour (iii), il sut d'appliquer (i) avec la martingale U.I. (Xn∧T )n≥0 (dont la limite est XT ) et le
temps d'arrêt S , ce qui donne XS∧T = E[XT | FS ].
Il existe d'autres théorèmes d'arrêt. Une CNS pour avoir E[XT ] = E[X0 ] est que la martingale
(Xn∧T )n≥0 soit U.I. Cette condition n'est pas très explicite. En gros, il faut que la martingale soit
sympathique , comme dans le théorème d'arrêt de Doob, ou que le temps d'arrêt soit susamment
intégrable, ou un peu des deux. Par exemple, on a
Remarque 164 Pour toute (Fn )n≥0 -martingale (Xn )n≥0 et tout (Fn )n≥0 -temps d'arrêt borné, on a
E[XT ] = E[X0 ].
Preuve : Si T est borné par n0 , il sut d'appliquer la proposition 162 avec Z = |Xk | ∈ L1 .
Pn0
0
61