Centrale 2017 - PSI1
Un corrigé
1 Premiers résultats
1.1 Une classe de variables aléatoires
1. Il s’agit de l’inégalité de Cauchy-Schwarz. Pour la prouver, on remarque que E((U + tV )2 ) > 0
pour tout t. Par linéarité de l’espérance, on a donc
∀t ∈ R, t2 E(V 2 ) + 2tE(U V ) + E(U 2 ) > 0
Comme V n’est pas presque surement nulle, E(V 2 ) > 0 (puisque V 2 > 0) et on a un trinôme
du second degré qui reste positif. Son discriminant est donc négatif ou nul et
E(U V )2 − E(U 2 )E(V 2 ) 6 0
Si on a égalité alors le trinôme admet une racine et il existe t tel que E((U + tV )2 ) > 0 et
comme (U + tV )2 > 0, ceci entraı̂ne que U + tV est presque surement nulle.
Réciproquement, s’il existe un tel t alors le trinôme admet une racine et le discriminant est nul.
Ainsi
E(U V )2 = E(U 2 )E(V 2 ) 6 0 ⇐⇒ ∃ t ∈ R/ tV + U est presque surement nulle
Remarque : on a utilisé à deux reprises le fait que si X > 0 et E(X) = 0 alors X est presque
surementPnulle. Ceci découle du fait qu’en notant xi , i ∈ I les valeurs prises par X, on a
E(X) = i∈I xi P(X = xi ) qui est une somme de termes positifs et n’est donc nulle que si tous
les termes sont nuls ce qui entraı̂ne P(X = xi ) = 0 pour tous les i tels que xi 6= 0.
2. (a) Il existe une constante M telle que X(Ω) ⊂ [−M, M ]. Soit τ > 0 ; on a
∀x ∈ X(Ω), |eτ x P(X = x)| 6 eτ M P(X = x)
Ceci est le terme général d’une série convergente (de somme eτ M ) et par formule de transfert,
eτ X est d’espérance finie.
Si X est bornée alors ∀τ > 0, X vérifie (Cτ )
(b) On a
p
∀k ∈ N∗ , etk P(X = k) = p(1 − p)k−1 etk = ((1 − p)et )k
1−p
1
C’est le terme général d’une série géométrique de raison (1 − p)et qui converge ssi et < 1−p
(tout est positif) i.e. t < − ln(1 − p). C’est la condition pour que E(etX ) existe. On sait alors
calculer la somme :
pet
∀t < − ln(1 − p), E(etX ) = 1−(1−p)et
(c) On a
(λet )k −λ
∀k ∈ N, etk P(X = k) = e
k!
C’est pour tout t le terme général d’une série convergente et E(etX ) < +∞ avec
∀t ∈ R, E(etX ) = exp(λ(et − 1))
3. (a) Si t ∈ [a, b] alors pour x > 0, tx 6 bx et pour x 6 0, tx 6 ax. Dans chaque cas on peut
composer par exp qui croı̂t. Ainsi, etx est majoré soit par eta soit par etb . Et comme exp est
positive, un majorant commun est eta + etb . On en déduit que
∀t ∈ [a, b], 0 6 etX 6 eaX + ebX
La somme de deux variables ayant une espérance admet une espérance. Avec le résultat
rappelé en préambule,
1
∀t ∈ [a, b], E(etX ) < +∞
L’ensemble {t ∈ R/ E(etX ) < +∞} est donc convexe et c’est donc un intervalle (les inter-
valles sont exactement les convexes de R).
(b) Comme a < b, on a
- Au voisinage de +∞, eay = o(eby ) et donc θk,t,a,b (y) ∼ y k e(t−b)y . Pour t < b, cette
quantité est de limite nulle en +∞.
- Au voisinage de −∞, eby = o(eay ) et donc θk,t,a,b (y) ∼ y k e(t−a)y . Pour t > a, cette
quantité est de limite nulle en −∞.
∀t ∈]a, b[, lim θk,t,a,b (y) = lim θk,t,a,b (y) = 0
t→+∞ t→−∞
La fonction θk,t,a,b est donc bornée par 1 sur des voisinages [α, +∞[ et ] − ∞, β]. Comme elle
est continue, elle est aussi bornée par une quantité M sur le segment [β, α]. Elle est alors
bornée par max(M, 1) sur R.
∀t ∈]a, b[, ∀k ∈ N, θk,t,a,b est bornée sur R
(c) On peut imaginer que l’on travaille encore avec t ∈]a, b[ et k ∈ N. En notant M un majorant
de |θk,t,a,b | sur R, on a alors
0 6 |X|k etX 6 M (eaX + ebX )
Le majorant étant d’espérance finie, il en va de même de |X|k etX par le résultat du
préambule.
∀t ∈]a, b[, ∀k ∈ N, E(|X|k etX ) < +∞
(d) Notons Φ : (y, t) ∈ R × [c, d] 7→ θk,t,a,b (y). On a
ecy + edy
∀y ∈ R, ∀t ∈ [c, d], |Φ(y, t)| 6 |y|k
eay + eby
Comme en question (b), le majorant est de limite nulle quand y tend vers +∞ ou −∞. Il
est donc plus petit que 1 sur une partie R\]α, β[ :
∀t ∈ [c, d], ∀y ∈
/ [α, β], |Φ(y, t)| 6 1
Par ailleurs, Φ est continue sur le compact [α, β] × [c, d] et donc bornée par une constante
K sur ce compact. Φ est alors bornée par max(K, 1) sur son domaine.
∃Mk,a,b,c,d / ∀t ∈ [c, d], ∀y ∈ R, |θk,t,a,b (y)| 6 Mk,a,b,c,d
4. (a) On sait depuis 3(a) que I est un intervalle. Comme ∀t ∈ [−τ, τ ], 0 6 etX 6 eτ |X| et comme
E(eτ |X| ) < +∞, le résultat admis en préambule indique que [−τ, τ ] ⊂ I.
(b) X et etX prenant un nombre fini de valeurs, ces variables admettent des espérances et I = R.
Notons x1 , . . . , xn les valeurs deux à deux distinctes prises par X. Par formule de transfert,
on a
Xn
∀t ∈∈ R, ϕX (t) = etxk P(X = xk )
k=1
Par théorèmes d’opérations, on a donc
ϕX ∈ C ∞ (R)
(c) On a cette fois
∞
X
∀t ∈ I, ϕX (t) = etxn pn
n=1
On pose fn : t ∈ I 7→ pn etxn .
On va appliquer le théorème de continuité puis celui de
régularité (relatifs aux sommes de séries de fonctions).
2
- ∀n, fn ∈ C 0 (I). P
- Par définition de I, (fn ) converge simplement sur I. Plus précisément, pour tout
segment [a, b] ⊂ I, on a (avec 3(a))
∀t ∈ [a, b], 0 6 fn (t) 6 fn (a) + fn (b)
et donc kf Pn k∞,[a,b] 6 fn (a) + fn (b). Le majorant est le terme général d’une série conver-
gente et (fn ) est donc normalement P convergente sur tout segment de I.
Ceci montre que la somme ϕX de la série (fn ) est continue sur I.
(k)
- Pour tout n, fn est de classe C ∞ sur I. Sa dérivée k-ième, pour k ∈ N, est fn : t 7→
k tx
xn p n e n .
- Soit k ∈ N. Soit [c, d] un segment inclus dans l’intérieur de I, que nous noterons Int(I)
(on pourrait bien sûr écrire ˚I). Par définition de l’intérieur d’une partie, il existe a, b ∈ I
tels que [c, d] ⊂]a, b[. Avec la question 3(d) (et aussi 3(a)) on a
∀t ∈ [c, d], ∀n, |fn(k) (t)| 6 pn Mk,a,b,c,d etxn 6 Mk,a,b,c,d (fn (a) + fn (b))
(k)
On a donc kfn k∞,[c,d] 6 Mk,a,b,c,d (fn (a) + fn (b))
P qui est le terme général d’une série
convergente. Ainsi, toutes les séries dérivées de (fn ) convergent normalement sur tout
segment de Int(I).
On peut alors appliquer le théorème de régularité sur Int(I).
ϕX ∈ C 0 (I) ∩ C ∞ (Int(I))
(d) Le théorème utilisé ci-dessous stipule aussi que la dérivée k-ième s’obtient en dérivant terme
P (k)
à terme et est donc la somme de la série (fn ). Par téorème de transfert, on a donc
(k)
∀t ∈ Int(I), ∀k ∈ N, ϕX (t) = E(X k etX )
(e) On peut penser qu’il y a une erreur d’énoncé et que l’on travaille sur l’intérieur sur I (puisque
la dérivabilité de ϕX n’a été justifiée que sur cet ensemble).
Notons tout d’abord que etX est une variable strictement positive et que quand son espérance
existe, elle est > 0. En particulier, ϕX (t) > 0 pour t ∈ I et ψX est bien définie sur Int(I).
Avec la régularité prouvée, on a ψX ∈ C ∞ (Int(I)) et
0 ϕ00X (t)ϕX (t) − ϕ0X (t)2
∀t ∈ Int(I), ψX (t) =
ϕX (t)2
Or, ϕ00X (t)ϕX (t) − ϕ0X (t)2 = E(X 2 etX )E(etX ) − E(XetX )2 > 0 avec 1.1 appliquée avec
U = XetX/2 et V = etX/2 (qui admettent des moments d’ordre 2 et avec V qui est > 0 et
donc non presque surement nulle). La dérivée de ψX est donc positive et
ψX croı̂t sur Int(I)
Si X n’est pas presque surement constante alors (comme etX/2 est > 0), U/V = X n’est
pas presque surement constante et ψX est alors strictement croissante sur l’intérieur de I
puisque sa dérivée est > 0 en tout point de cet ensemble (avec le cas d’égalité de 1.1).
1.2 Inégalité de Bienaymé-Tchebychev
1. Comme X admet un moment d’ordre 2, il en est de même de Sn . De plus, par indépendance
mutuelle des Xk (l’argument sert uniquement pour la variance, pour l’espérance on a la linéarité)
n
X n
X
E(Sn ) = E(Xk ) = nE(X) et V(Sn ) = V(Xk ) = nV(X)
k=1 k=1
3
L’inégalité de Bienaymé-Tchebychev appliquée à Sn donne
V(Sn )
∀a > 0, P(|Sn − E(Sn )| > a) 6
a2
Il nous suffit d’appliquer ceci avec a = nδ et d’utiliser les formules données :
V(X)
∀δ > 0, P(|Sn − nE(X)| > nδ) 6 nδ 2
2. Comme u < E(X) < v, on a δ = min(E(X) − u, v − E(X)) > 0. Si |Sn − nE(X)| < nδ alors
n(E(X) − δ) < Sn < n(δ + E(X)) et donc nu 6 Sn 6 nv. On en déduit que
1 − P(|Sn − nE(X)| > nδ) = P(|Sn − nE(X)| < nδ) 6 πn
et avec la question précédente,
V(X)
1−
6 πn
nδ 2
Comme πn 6 1, on en déduit par encadrement que
lim πn = 1
n→+∞
1.3 Suites sur-additives
1. On a u(k+1)m+r > um + ukm+r et donc, par récurrence, ukm+r > kum + ur pour tout k ∈ N. En
particulier,
un = uqm+r > qum + ur
Ainsi, un − ns > qum + ur − ns. Comme ns = (mq + r)s, on peut alors regrouper les termes et
obtenir
un − ns > q(um − ms) + ur − rs
2. Notons n = qm + r la division euclidienne de n par m (c’est possible car m > 1 et on a
0 6 r 6 m − 1). On a alors
un q ur um q 1 ur
≥ um + = + um − +
n n n m n m n
q 1 qm−n r
Comme n − m = nm = − nm on a donc
un um ur r
≥ + −
n m n nm
Or, unr − nm
r
6 |urn|+1 6 max(|u0 |,...,|u
n
m−1 |)+1
qui est de limite nulle quand n → +∞ (le
numérateur du majorant est indépendant de n et ne dépend que de m). Il est donc arbi-
trairement petit pour n grand et
∀n ∈ N∗ , ∀ε > 0, ∃N/ ∀n > N, un
n > um
m −ε
3. Soit ε > 0. Par définition de la borne supérieure, il existe un entier m > 1 tel que umm > s − ε
(ce réel n’étant pas un majorant de l’ensemble dont s est la borne supérieure puisque s est le
plus petit des majorants). La question précédente fournit un N tel que
un
∀n > N, s − 2ε 6 6s
n
Par définition de la limite,
lim un =s
n→+∞ n
4
2 Le théorème des grandes déviations
2.1 Exposant des grandes déviations
1. Supposons que P(X > a) = 0. Montrons par récurrence que pour tout n on a P(Sn > na) = 0.
- C’est immédiat pour n = 1 puisque S1 = X1 a la même loi que X.
- Supposons le résultat vrai jusqu’à un rang n > 1. On a Sn+1 = Sn +Xn+1 . Si Sn+1 > (n+1)a
alors soit Sn > na, soit Sn < na et alors Xn+1 > a (sinon la somme est < (n + 1)a). Ainsi
0 6 P(Sn+1 > (n + 1)a) 6 P(Sn > na) + P(Xn+1 > a)
Le majorant est nul par l’hypothèse de récurrence et le résultat supposé sur X.
Réciproquement, si ∀n ∈ N∗ on a P(Sn > na) = 0, le résultat pour n = 1 donne P(X > a) = 0.
Ainsi
P(X > a) = 0 ⇐⇒ ∀n ∈ N∗ , P(Sn > na) = 0
2. (a) On a T = Sm+n − Sm = Xm+1 + · · · + Xm+n . Soit x ∈ T (Ω) ; on a
[ n
\
(Sm+n − Sm = x) = (Xm+i = xi )
x1 ,...,xn ∈X(Ω) k=1
x1 +···+xn =x
Comme la réunion (qui est dénombrable) est disjointe, on a
n
!
X \
P(Sm+n − Sm = x) = P (Xm+i = xi )
x1 ,...,xn ∈X(Ω) k=1
x1 +···+xn =x
Les variables Xm+k étant indépendantes,
X n
Y
P(Sm+n − Sm = x) = P(Xm+i = xi )
x1 ,...,xn ∈X(Ω) k=1
x1 +···+xn =x
Les Xi ayant même loi,
X n
Y
P(Sm+n − Sm = x) = P(Xi = xi )
x1 ,...,xn ∈X(Ω) k=1
x1 +···+xn =x
Les variables Xk étant indépendantes, onremonte le calcul et on obtient que T a même loi
que X1 + · · · + Xn = Sn .
Sm+n − Sm et Sn ont même loi
(b) On a
(Sm+n − Sm > nb) ∩ (Sm > mb) ⊂ (Sm+n > (n + m)b)
Par lemme des coalitions, Sm+n −Sm et Sm sont indépendantes. En passant aux probabilités,
on a donc
P(Sm+n − Sm > nb)P(Sm > mb) 6 P(Sm+n > (n + m)b)
Avec la question précédente, Sm+n − Sm a même loi que Sn et donc
P(Sm+n > (n + m)b) > P(Sn > nb)P(Sm > mb)
5
3. Comme P(X > a) > 0, la question 2.1.1 montre que P(Sn > na) > 0 pour tout n. On peut
donc poser
un = ln(P(Sn > na))
La question précédente indique que (un ) est une suite sur-additive (um+n > un + um ). Comme
un un ∗
n 6 0, on peut utiliser la partie 1.3 pour conclure que n → γa = sup{un /n ∈ N } et cette
borne supérieure est négative (les éléments de l’ensemble étant négatifs). Par croissance de
l’exponentielle, on passe de unn 6 γa à eun 6 enγa . Ainsi
ln(P(Sn >na))
n → γ 6 0 et ∀n ∈ N∗ , P(Sn > na) 6 enγa
2.2 Majoration des grandes déviations
1. On a etSn = nk=1 etXk . Les variables Xk étant mutuellement indépendantes, il en va de même
Q
des etXk . L’espérance du produit est alors égale au produit des espérances. Les Xk ayant la
même loi que X, on a donc
∀t ∈ I, E(etSn ) = (ϕX (t))n
Si t ∈ R+∗ ∩ I alors Sn > na équivaut à tSn > nta et donc à etSn > enta . Comme etSn admet
une espérance et est à valeurs positives, on peut utiliser l’inégalité de Markov :
E(etSn )
P(Sn > na) = P(etSn > eta ) 6
enta
Si t = 0 le résultat reste vrai puisque le majorant vaut alors 1. Avec le premier résultat, on
conclut que
ϕX (t)n
∀t ∈ I ∩ R+ , P(Sn > na) 6 enta
2. (a) Le résultat précédent pour n = 1 donne, par croissance du logarithme, la relation
∀t ∈ R+ ∩ I, ln(P(X > a)) 6 χ(t) (on rappelle que l’on a supposé P(X > a) > 0).
ηa = inf{χ(t)/ t ∈ I ∩ R+ } existe
(b) Notons que puisqu’il existe τ > 0 tel que X vérifie (Cτ ), ϕX est définie sur [−τ, τ ] et est de
classe C ∞ sur ] − τ, τ [. Par formule de Taylor-Young, on a
ϕX (t) = ϕX (0) + tϕ0x (t) + o0 (t) = 1 + tE(X) + o0 (t)
On en déduit que χ(t) = (E(X) − a)t + o(t) et comme E(X) 6= a,
χ(t) ∼ (E(X) − a)t
t→0
Comme E(X) − a < 0, χ prend des valeurs < 0 sur I ∩ R+ (fonction localement négative au
voisinage de 0+ ) et donc
ηa < 0
(c) On peut trouver une suite (tk ) d’éléments de I ∩ R+ telle que χ(tk ) → ηa . On a alors
φX (tk )e−tk a → eηa et donc φX (tk )n e−ntk a → enηa quand k → +∞. On en déduit avec 2.2.1
que
P(Sn > a) 6 enηa
ln(P(Sn >na ))
Ainsi, n 6 ηa et donc γa 6 ηa < 0.
6
(d) Dans le cas où X suit la loi B(p), on a P(X > a) = 0 ssi a > 1. De plus E(X) = p. On fait
donc l’hypothèse
a ∈]p, 1]
Par théorème de transfert, on a, pour tout t réel,
φX (t) = E(etX ) = (1 − p) + pet
On en déduit que
∀t > 0, χ(t) = ln((1 − p) + pet ) − ta
ou encore
∀t > 0, χ(t) = ln (1 − p)e−ta + pe(1−a)t
Posons g(t) = (1 − p)e−ta + pe(1−a)t en sorte que g 0 (t) = e−ta −a(1 − p) + p(1 − a)et . g est
donc χ est minimale sur R+ quand et = a(1−p)
p(1−a) et le minimum vaut, après un calcul que l’on
t
espérera sans erreur (on remplace e par son expression dans χ(t) et de même on remplace
t par le logarithme de l’expression trouvée pour et )
1−p
ηa = (1 − a) ln 1−a − a ln ap
On suppose maintenant que X suit la loi P(λ). On a donc E(X) = λ. De plus P(X > a) est
> 0 pour toute valeur de a et on impose donc
a ∈]λ, +∞[
Comme ϕX (t) = E(etX ) = exp(λ(et − 1)) (question 1.1.2.c), on a χ(t) = λ(et − 1) − ta.
χ est minimale sur R+ en t tel que et = λa et on a donc
ηa = a − λ − a ln λa
2.3 Le théorème de Cramer
1. (a) Par formule de transfert, on a E(etX ) = x∈X(Ω) etx P(X = x). Comme E(etX ) > 0 (car etX
P
est une variable > 0 admet une espérance finie), on a donc
P etx
E(etX )
P(X = x) = 1
x∈X(Ω)
(b) Par définition de l’espérance, on a (l’existence est légitimée par le calcul après avoir noté
que toutes les quantités sont positives)
X
E(X 0 ) = xP(X 0 = x)
x∈X(Ω)
X xetx
= P(X = x)
E(etX )
x∈X(Ω)
1 X
= xetx P(X = x)
ϕX (t)
x∈X(Ω)
(ϕX 0
) (t)
=
ϕX (t)
ϕ0
On sait que ψX = ϕX X
est strictement croissante. Par ailleurs, χ0 = ψX − a est nulle en σ (χ
atteignant alors un minimum en un point intérieur). On a donc ψX (σ) = a et donc (t > σ),
ψX (t) > a. On en déduit que
7
E(X 0 ) > a
2. (a) En notant f la fonction de l’énoncé, f (X10 , . . . , Xn0 ) suit une loi de Bernoulli de paramètre
P(na 6 Sn0 6 nb). Avec le résultat admis, on a donc
1
P(na 6 Sn0 6 nb) = E(f (X1 , . . . , Xn )etSn )
ϕX (t)n
Par formule de transfert,
X
E(f (X1 , . . . , Xn )etSn ) = et(x1 +···+xn ) P(X1 = x1 ∩ · · · ∩ Xn = xn )
xi ∈X(Ω)
na6x1 +···+xn 6nb
Dans la somme, et(x1 +···+xn ) 6 entb par croissance de l’expontielle et donc
X
E(f (X1 , . . . , Xn )etSn ) 6 entb P(X1 = x1 ∩ · · · ∩ Xn = xn )
xi ∈X(Ω)
na6x1 +···+xn 6nb
Enfin la somme est majorée par la somme des P(X1 = x1 ∩· · ·∩Xn = xn ) pour x1 +· · ·+xn >
a qui vaut P(Sn > na). On conclut que
ntb
P(na 6 Sn0 6 nb) 6 P(Sn > na) ϕX
e
(t)n
(b) Comme a < E(X 0 ) < b (avec 2.C.1b et l’hypothèse sur b) et avec 1.2.2, on a
πn0 = P(na 6 Sn0 6 nb) → 1
Par ailleurs P(Sn > na) 6 enγa avec 2.1.3 et donc
ϕX (t)n 0
π 6 enγa
entb n
On passe au logarithme et on divise par n et on fait tendre n vers +∞ :
ln(ϕX (t)) − tb 6 γa
On a donc
ηa + t(a − b) 6 χ(t) + t(a − b) 6 γa
Soit ε > 0. ψX étant continue, on peut trouver t ∈]σ, σ + 1] tel que 0 6 ψX (t) − ψX (σ) 6 ε.
On a choisit alors b = ψX (t) + ε. On a alors |a − b| = |ψX (σ) − b| 6 2ε et t|b − a| 6 2ε(σ + 1).
On vient de voir que
∀ε > 0, ηa + 2ε(σ + 1) 6 γa
et donc ηa 6 γa . 2.2.2c ayant donné l’inégalité inverse, on conclut que
η a = γa
3. (a) Une somme de n variables de Bernoulli indépendantes de même paramètre 1/2 est une
loi binomiale B(n, 1/2). Si on se place dans le cas où X suit la loi B(1/2), Sn suit la loi
B(n, 1/2). On a alors
X 1 X n
P(Sn > (α + 1/2)n) = P(Sn = k) = n
2 k
k>(α+1/2)n k>(α+1/2)n
Par symétrie dans le triangle de Pascal, on a aussi
1 X n 1 X n
n
= n
2 k 2 k
k>(α+1/2)n k6(−α+1/2)n
8
Comme An est l’ensemble des k tels que k > (α + 1/2)n ou k 6 (−α + 1/2)n, on trouve
ainsi que
Un = 2n−1 P(Sn > (α + 1/2)n)
On en déduit que
ln(Un ) n−1 P(Sn > (α + 1/2)n)
= ln(2) +
n n n
Le second terme tend vers γα+1/2 = ηα+1/2 pour une loi de Bernoulli de paramètre 1/2 c’est
à dire (après calcul toujours un peu délicat)
1 1
(α − ) ln(1 − 2α) − (α + ) ln(2α + 1)
2 2
En passant au logarithme, on obtient PEUT-ETRE ( ! ! !)
(1 − 2α)α−1/2
lim Un1/n = 2
n→+∞ (1 + 2α)α+1/2
(b) Une somme de n variables de Poisson indépendantes et de même paramètre λ est une
variable de Poisson de paramètre nλ. Si on se place dans le cas où X suit la loi P(λ), Sn
suit la loi P(nλ). On a donc
X (nλ)k
P(Sn > nα) = e−nλ
k!
k>αn
1
ln(Un )
et on retrouve Un = e−nλ Tn . Comme Unn = exp n on est dans le cas a = α et
1/n
Un → exp(γα ) = exp(ηα ) et donc (formule de 2.2.2d)
α
1/n α−λ λ
lim U =e
n→+∞ n α
et ainsi α
λ
lim T 1/n =e α
n→+∞ n α