0% ont trouvé ce document utile (0 vote)
23 vues9 pages

CentraleSupélec 2017 PSI Mathématiques 1 Ca

Le document présente des résultats sur les variables aléatoires, notamment l'inégalité de Cauchy-Schwarz et des propriétés des moments d'ordre supérieur. Il aborde également l'inégalité de Bienaymé-Tchebychev et des suites sur-additives, en démontrant des résultats sur les espérances et les variances. Les résultats sont soutenus par des démonstrations mathématiques détaillées et des applications de théorèmes sur la convergence des séries.

Transféré par

boulouazka
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
23 vues9 pages

CentraleSupélec 2017 PSI Mathématiques 1 Ca

Le document présente des résultats sur les variables aléatoires, notamment l'inégalité de Cauchy-Schwarz et des propriétés des moments d'ordre supérieur. Il aborde également l'inégalité de Bienaymé-Tchebychev et des suites sur-additives, en démontrant des résultats sur les espérances et les variances. Les résultats sont soutenus par des démonstrations mathématiques détaillées et des applications de théorèmes sur la convergence des séries.

Transféré par

boulouazka
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 9

Centrale 2017 - PSI1

Un corrigé

1 Premiers résultats
1.1 Une classe de variables aléatoires
1. Il s’agit de l’inégalité de Cauchy-Schwarz. Pour la prouver, on remarque que E((U + tV )2 ) > 0
pour tout t. Par linéarité de l’espérance, on a donc
∀t ∈ R, t2 E(V 2 ) + 2tE(U V ) + E(U 2 ) > 0
Comme V n’est pas presque surement nulle, E(V 2 ) > 0 (puisque V 2 > 0) et on a un trinôme
du second degré qui reste positif. Son discriminant est donc négatif ou nul et
E(U V )2 − E(U 2 )E(V 2 ) 6 0
Si on a égalité alors le trinôme admet une racine et il existe t tel que E((U + tV )2 ) > 0 et
comme (U + tV )2 > 0, ceci entraı̂ne que U + tV est presque surement nulle.
Réciproquement, s’il existe un tel t alors le trinôme admet une racine et le discriminant est nul.
Ainsi
E(U V )2 = E(U 2 )E(V 2 ) 6 0 ⇐⇒ ∃ t ∈ R/ tV + U est presque surement nulle
Remarque : on a utilisé à deux reprises le fait que si X > 0 et E(X) = 0 alors X est presque
surementPnulle. Ceci découle du fait qu’en notant xi , i ∈ I les valeurs prises par X, on a
E(X) = i∈I xi P(X = xi ) qui est une somme de termes positifs et n’est donc nulle que si tous
les termes sont nuls ce qui entraı̂ne P(X = xi ) = 0 pour tous les i tels que xi 6= 0.
2. (a) Il existe une constante M telle que X(Ω) ⊂ [−M, M ]. Soit τ > 0 ; on a
∀x ∈ X(Ω), |eτ x P(X = x)| 6 eτ M P(X = x)
Ceci est le terme général d’une série convergente (de somme eτ M ) et par formule de transfert,
eτ X est d’espérance finie.
Si X est bornée alors ∀τ > 0, X vérifie (Cτ )
(b) On a
p
∀k ∈ N∗ , etk P(X = k) = p(1 − p)k−1 etk = ((1 − p)et )k
1−p
1
C’est le terme général d’une série géométrique de raison (1 − p)et qui converge ssi et < 1−p
(tout est positif) i.e. t < − ln(1 − p). C’est la condition pour que E(etX ) existe. On sait alors
calculer la somme :
pet
∀t < − ln(1 − p), E(etX ) = 1−(1−p)et

(c) On a
(λet )k −λ
∀k ∈ N, etk P(X = k) = e
k!
C’est pour tout t le terme général d’une série convergente et E(etX ) < +∞ avec
∀t ∈ R, E(etX ) = exp(λ(et − 1))
3. (a) Si t ∈ [a, b] alors pour x > 0, tx 6 bx et pour x 6 0, tx 6 ax. Dans chaque cas on peut
composer par exp qui croı̂t. Ainsi, etx est majoré soit par eta soit par etb . Et comme exp est
positive, un majorant commun est eta + etb . On en déduit que
∀t ∈ [a, b], 0 6 etX 6 eaX + ebX
La somme de deux variables ayant une espérance admet une espérance. Avec le résultat
rappelé en préambule,

1
∀t ∈ [a, b], E(etX ) < +∞
L’ensemble {t ∈ R/ E(etX ) < +∞} est donc convexe et c’est donc un intervalle (les inter-
valles sont exactement les convexes de R).
(b) Comme a < b, on a
- Au voisinage de +∞, eay = o(eby ) et donc θk,t,a,b (y) ∼ y k e(t−b)y . Pour t < b, cette
quantité est de limite nulle en +∞.
- Au voisinage de −∞, eby = o(eay ) et donc θk,t,a,b (y) ∼ y k e(t−a)y . Pour t > a, cette
quantité est de limite nulle en −∞.
∀t ∈]a, b[, lim θk,t,a,b (y) = lim θk,t,a,b (y) = 0
t→+∞ t→−∞

La fonction θk,t,a,b est donc bornée par 1 sur des voisinages [α, +∞[ et ] − ∞, β]. Comme elle
est continue, elle est aussi bornée par une quantité M sur le segment [β, α]. Elle est alors
bornée par max(M, 1) sur R.
∀t ∈]a, b[, ∀k ∈ N, θk,t,a,b est bornée sur R
(c) On peut imaginer que l’on travaille encore avec t ∈]a, b[ et k ∈ N. En notant M un majorant
de |θk,t,a,b | sur R, on a alors

0 6 |X|k etX 6 M (eaX + ebX )

Le majorant étant d’espérance finie, il en va de même de |X|k etX par le résultat du


préambule.
∀t ∈]a, b[, ∀k ∈ N, E(|X|k etX ) < +∞
(d) Notons Φ : (y, t) ∈ R × [c, d] 7→ θk,t,a,b (y). On a

ecy + edy
∀y ∈ R, ∀t ∈ [c, d], |Φ(y, t)| 6 |y|k
eay + eby
Comme en question (b), le majorant est de limite nulle quand y tend vers +∞ ou −∞. Il
est donc plus petit que 1 sur une partie R\]α, β[ :

∀t ∈ [c, d], ∀y ∈
/ [α, β], |Φ(y, t)| 6 1

Par ailleurs, Φ est continue sur le compact [α, β] × [c, d] et donc bornée par une constante
K sur ce compact. Φ est alors bornée par max(K, 1) sur son domaine.
∃Mk,a,b,c,d / ∀t ∈ [c, d], ∀y ∈ R, |θk,t,a,b (y)| 6 Mk,a,b,c,d
4. (a) On sait depuis 3(a) que I est un intervalle. Comme ∀t ∈ [−τ, τ ], 0 6 etX 6 eτ |X| et comme
E(eτ |X| ) < +∞, le résultat admis en préambule indique que [−τ, τ ] ⊂ I.
(b) X et etX prenant un nombre fini de valeurs, ces variables admettent des espérances et I = R.
Notons x1 , . . . , xn les valeurs deux à deux distinctes prises par X. Par formule de transfert,
on a
Xn
∀t ∈∈ R, ϕX (t) = etxk P(X = xk )
k=1
Par théorèmes d’opérations, on a donc
ϕX ∈ C ∞ (R)
(c) On a cette fois

X
∀t ∈ I, ϕX (t) = etxn pn
n=1

On pose fn : t ∈ I 7→ pn etxn .
On va appliquer le théorème de continuité puis celui de
régularité (relatifs aux sommes de séries de fonctions).

2
- ∀n, fn ∈ C 0 (I). P
- Par définition de I, (fn ) converge simplement sur I. Plus précisément, pour tout
segment [a, b] ⊂ I, on a (avec 3(a))

∀t ∈ [a, b], 0 6 fn (t) 6 fn (a) + fn (b)

et donc kf Pn k∞,[a,b] 6 fn (a) + fn (b). Le majorant est le terme général d’une série conver-
gente et (fn ) est donc normalement P convergente sur tout segment de I.
Ceci montre que la somme ϕX de la série (fn ) est continue sur I.
(k)
- Pour tout n, fn est de classe C ∞ sur I. Sa dérivée k-ième, pour k ∈ N, est fn : t 7→
k tx
xn p n e n .
- Soit k ∈ N. Soit [c, d] un segment inclus dans l’intérieur de I, que nous noterons Int(I)
(on pourrait bien sûr écrire ˚I). Par définition de l’intérieur d’une partie, il existe a, b ∈ I
tels que [c, d] ⊂]a, b[. Avec la question 3(d) (et aussi 3(a)) on a

∀t ∈ [c, d], ∀n, |fn(k) (t)| 6 pn Mk,a,b,c,d etxn 6 Mk,a,b,c,d (fn (a) + fn (b))
(k)
On a donc kfn k∞,[c,d] 6 Mk,a,b,c,d (fn (a) + fn (b))
P qui est le terme général d’une série
convergente. Ainsi, toutes les séries dérivées de (fn ) convergent normalement sur tout
segment de Int(I).
On peut alors appliquer le théorème de régularité sur Int(I).
ϕX ∈ C 0 (I) ∩ C ∞ (Int(I))
(d) Le théorème utilisé ci-dessous stipule aussi que la dérivée k-ième s’obtient en dérivant terme
P (k)
à terme et est donc la somme de la série (fn ). Par téorème de transfert, on a donc
(k)
∀t ∈ Int(I), ∀k ∈ N, ϕX (t) = E(X k etX )
(e) On peut penser qu’il y a une erreur d’énoncé et que l’on travaille sur l’intérieur sur I (puisque
la dérivabilité de ϕX n’a été justifiée que sur cet ensemble).
Notons tout d’abord que etX est une variable strictement positive et que quand son espérance
existe, elle est > 0. En particulier, ϕX (t) > 0 pour t ∈ I et ψX est bien définie sur Int(I).
Avec la régularité prouvée, on a ψX ∈ C ∞ (Int(I)) et

0 ϕ00X (t)ϕX (t) − ϕ0X (t)2


∀t ∈ Int(I), ψX (t) =
ϕX (t)2

Or, ϕ00X (t)ϕX (t) − ϕ0X (t)2 = E(X 2 etX )E(etX ) − E(XetX )2 > 0 avec 1.1 appliquée avec
U = XetX/2 et V = etX/2 (qui admettent des moments d’ordre 2 et avec V qui est > 0 et
donc non presque surement nulle). La dérivée de ψX est donc positive et
ψX croı̂t sur Int(I)
Si X n’est pas presque surement constante alors (comme etX/2 est > 0), U/V = X n’est
pas presque surement constante et ψX est alors strictement croissante sur l’intérieur de I
puisque sa dérivée est > 0 en tout point de cet ensemble (avec le cas d’égalité de 1.1).

1.2 Inégalité de Bienaymé-Tchebychev


1. Comme X admet un moment d’ordre 2, il en est de même de Sn . De plus, par indépendance
mutuelle des Xk (l’argument sert uniquement pour la variance, pour l’espérance on a la linéarité)
n
X n
X
E(Sn ) = E(Xk ) = nE(X) et V(Sn ) = V(Xk ) = nV(X)
k=1 k=1

3
L’inégalité de Bienaymé-Tchebychev appliquée à Sn donne
V(Sn )
∀a > 0, P(|Sn − E(Sn )| > a) 6
a2
Il nous suffit d’appliquer ceci avec a = nδ et d’utiliser les formules données :
V(X)
∀δ > 0, P(|Sn − nE(X)| > nδ) 6 nδ 2

2. Comme u < E(X) < v, on a δ = min(E(X) − u, v − E(X)) > 0. Si |Sn − nE(X)| < nδ alors
n(E(X) − δ) < Sn < n(δ + E(X)) et donc nu 6 Sn 6 nv. On en déduit que

1 − P(|Sn − nE(X)| > nδ) = P(|Sn − nE(X)| < nδ) 6 πn

et avec la question précédente,


V(X)
1−
6 πn
nδ 2
Comme πn 6 1, on en déduit par encadrement que
lim πn = 1
n→+∞

1.3 Suites sur-additives


1. On a u(k+1)m+r > um + ukm+r et donc, par récurrence, ukm+r > kum + ur pour tout k ∈ N. En
particulier,
un = uqm+r > qum + ur
Ainsi, un − ns > qum + ur − ns. Comme ns = (mq + r)s, on peut alors regrouper les termes et
obtenir
un − ns > q(um − ms) + ur − rs
2. Notons n = qm + r la division euclidienne de n par m (c’est possible car m > 1 et on a
0 6 r 6 m − 1). On a alors
 
un q ur um q 1 ur
≥ um + = + um − +
n n n m n m n
q 1 qm−n r
Comme n − m = nm = − nm on a donc
un um ur r
≥ + −
n m n nm

Or, unr − nm
r
6 |urn|+1 6 max(|u0 |,...,|u
n
m−1 |)+1
qui est de limite nulle quand n → +∞ (le
numérateur du majorant est indépendant de n et ne dépend que de m). Il est donc arbi-
trairement petit pour n grand et
∀n ∈ N∗ , ∀ε > 0, ∃N/ ∀n > N, un
n > um
m −ε
3. Soit ε > 0. Par définition de la borne supérieure, il existe un entier m > 1 tel que umm > s − ε
(ce réel n’étant pas un majorant de l’ensemble dont s est la borne supérieure puisque s est le
plus petit des majorants). La question précédente fournit un N tel que
un
∀n > N, s − 2ε 6 6s
n
Par définition de la limite,
lim un =s
n→+∞ n

4
2 Le théorème des grandes déviations
2.1 Exposant des grandes déviations
1. Supposons que P(X > a) = 0. Montrons par récurrence que pour tout n on a P(Sn > na) = 0.
- C’est immédiat pour n = 1 puisque S1 = X1 a la même loi que X.
- Supposons le résultat vrai jusqu’à un rang n > 1. On a Sn+1 = Sn +Xn+1 . Si Sn+1 > (n+1)a
alors soit Sn > na, soit Sn < na et alors Xn+1 > a (sinon la somme est < (n + 1)a). Ainsi

0 6 P(Sn+1 > (n + 1)a) 6 P(Sn > na) + P(Xn+1 > a)

Le majorant est nul par l’hypothèse de récurrence et le résultat supposé sur X.


Réciproquement, si ∀n ∈ N∗ on a P(Sn > na) = 0, le résultat pour n = 1 donne P(X > a) = 0.
Ainsi
P(X > a) = 0 ⇐⇒ ∀n ∈ N∗ , P(Sn > na) = 0
2. (a) On a T = Sm+n − Sm = Xm+1 + · · · + Xm+n . Soit x ∈ T (Ω) ; on a

[ n
\
(Sm+n − Sm = x) = (Xm+i = xi )
x1 ,...,xn ∈X(Ω) k=1
x1 +···+xn =x

Comme la réunion (qui est dénombrable) est disjointe, on a


n
!
X \
P(Sm+n − Sm = x) = P (Xm+i = xi )
x1 ,...,xn ∈X(Ω) k=1
x1 +···+xn =x

Les variables Xm+k étant indépendantes,

X n
Y
P(Sm+n − Sm = x) = P(Xm+i = xi )
x1 ,...,xn ∈X(Ω) k=1
x1 +···+xn =x

Les Xi ayant même loi,

X n
Y
P(Sm+n − Sm = x) = P(Xi = xi )
x1 ,...,xn ∈X(Ω) k=1
x1 +···+xn =x

Les variables Xk étant indépendantes, onremonte le calcul et on obtient que T a même loi
que X1 + · · · + Xn = Sn .
Sm+n − Sm et Sn ont même loi
(b) On a
(Sm+n − Sm > nb) ∩ (Sm > mb) ⊂ (Sm+n > (n + m)b)
Par lemme des coalitions, Sm+n −Sm et Sm sont indépendantes. En passant aux probabilités,
on a donc
P(Sm+n − Sm > nb)P(Sm > mb) 6 P(Sm+n > (n + m)b)
Avec la question précédente, Sm+n − Sm a même loi que Sn et donc
P(Sm+n > (n + m)b) > P(Sn > nb)P(Sm > mb)

5
3. Comme P(X > a) > 0, la question 2.1.1 montre que P(Sn > na) > 0 pour tout n. On peut
donc poser
un = ln(P(Sn > na))
La question précédente indique que (un ) est une suite sur-additive (um+n > un + um ). Comme
un un ∗
n 6 0, on peut utiliser la partie 1.3 pour conclure que n → γa = sup{un /n ∈ N } et cette
borne supérieure est négative (les éléments de l’ensemble étant négatifs). Par croissance de
l’exponentielle, on passe de unn 6 γa à eun 6 enγa . Ainsi
ln(P(Sn >na))
n → γ 6 0 et ∀n ∈ N∗ , P(Sn > na) 6 enγa

2.2 Majoration des grandes déviations


1. On a etSn = nk=1 etXk . Les variables Xk étant mutuellement indépendantes, il en va de même
Q
des etXk . L’espérance du produit est alors égale au produit des espérances. Les Xk ayant la
même loi que X, on a donc
∀t ∈ I, E(etSn ) = (ϕX (t))n

Si t ∈ R+∗ ∩ I alors Sn > na équivaut à tSn > nta et donc à etSn > enta . Comme etSn admet
une espérance et est à valeurs positives, on peut utiliser l’inégalité de Markov :

E(etSn )
P(Sn > na) = P(etSn > eta ) 6
enta
Si t = 0 le résultat reste vrai puisque le majorant vaut alors 1. Avec le premier résultat, on
conclut que
ϕX (t)n
∀t ∈ I ∩ R+ , P(Sn > na) 6 enta

2. (a) Le résultat précédent pour n = 1 donne, par croissance du logarithme, la relation


∀t ∈ R+ ∩ I, ln(P(X > a)) 6 χ(t) (on rappelle que l’on a supposé P(X > a) > 0).
ηa = inf{χ(t)/ t ∈ I ∩ R+ } existe
(b) Notons que puisqu’il existe τ > 0 tel que X vérifie (Cτ ), ϕX est définie sur [−τ, τ ] et est de
classe C ∞ sur ] − τ, τ [. Par formule de Taylor-Young, on a

ϕX (t) = ϕX (0) + tϕ0x (t) + o0 (t) = 1 + tE(X) + o0 (t)

On en déduit que χ(t) = (E(X) − a)t + o(t) et comme E(X) 6= a,

χ(t) ∼ (E(X) − a)t


t→0

Comme E(X) − a < 0, χ prend des valeurs < 0 sur I ∩ R+ (fonction localement négative au
voisinage de 0+ ) et donc
ηa < 0
(c) On peut trouver une suite (tk ) d’éléments de I ∩ R+ telle que χ(tk ) → ηa . On a alors
φX (tk )e−tk a → eηa et donc φX (tk )n e−ntk a → enηa quand k → +∞. On en déduit avec 2.2.1
que
P(Sn > a) 6 enηa
ln(P(Sn >na ))
Ainsi, n 6 ηa et donc γa 6 ηa < 0.

6
(d) Dans le cas où X suit la loi B(p), on a P(X > a) = 0 ssi a > 1. De plus E(X) = p. On fait
donc l’hypothèse
a ∈]p, 1]
Par théorème de transfert, on a, pour tout t réel,

φX (t) = E(etX ) = (1 − p) + pet

On en déduit que
∀t > 0, χ(t) = ln((1 − p) + pet ) − ta
ou encore  
∀t > 0, χ(t) = ln (1 − p)e−ta + pe(1−a)t

Posons g(t) = (1 − p)e−ta + pe(1−a)t en sorte que g 0 (t) = e−ta −a(1 − p) + p(1 − a)et . g est


donc χ est minimale sur R+ quand et = a(1−p)


p(1−a) et le minimum vaut, après un calcul que l’on
t
espérera sans erreur (on remplace e par son expression dans χ(t) et de même on remplace
t par le logarithme de l’expression trouvée pour et )
   
1−p
ηa = (1 − a) ln 1−a − a ln ap

On suppose maintenant que X suit la loi P(λ). On a donc E(X) = λ. De plus P(X > a) est
> 0 pour toute valeur de a et on impose donc

a ∈]λ, +∞[

Comme ϕX (t) = E(etX ) = exp(λ(et − 1)) (question 1.1.2.c), on a χ(t) = λ(et − 1) − ta.
χ est minimale sur R+ en t tel que et = λa et on a donc
ηa = a − λ − a ln λa


2.3 Le théorème de Cramer


1. (a) Par formule de transfert, on a E(etX ) = x∈X(Ω) etx P(X = x). Comme E(etX ) > 0 (car etX
P
est une variable > 0 admet une espérance finie), on a donc
P etx
E(etX )
P(X = x) = 1
x∈X(Ω)

(b) Par définition de l’espérance, on a (l’existence est légitimée par le calcul après avoir noté
que toutes les quantités sont positives)
X
E(X 0 ) = xP(X 0 = x)
x∈X(Ω)
X xetx
= P(X = x)
E(etX )
x∈X(Ω)
1 X
= xetx P(X = x)
ϕX (t)
x∈X(Ω)
(ϕX 0
) (t)
=
ϕX (t)
ϕ0
On sait que ψX = ϕX X
est strictement croissante. Par ailleurs, χ0 = ψX − a est nulle en σ (χ
atteignant alors un minimum en un point intérieur). On a donc ψX (σ) = a et donc (t > σ),
ψX (t) > a. On en déduit que

7
E(X 0 ) > a
2. (a) En notant f la fonction de l’énoncé, f (X10 , . . . , Xn0 ) suit une loi de Bernoulli de paramètre
P(na 6 Sn0 6 nb). Avec le résultat admis, on a donc
1
P(na 6 Sn0 6 nb) = E(f (X1 , . . . , Xn )etSn )
ϕX (t)n
Par formule de transfert,
X
E(f (X1 , . . . , Xn )etSn ) = et(x1 +···+xn ) P(X1 = x1 ∩ · · · ∩ Xn = xn )
xi ∈X(Ω)
na6x1 +···+xn 6nb

Dans la somme, et(x1 +···+xn ) 6 entb par croissance de l’expontielle et donc


X
E(f (X1 , . . . , Xn )etSn ) 6 entb P(X1 = x1 ∩ · · · ∩ Xn = xn )
xi ∈X(Ω)
na6x1 +···+xn 6nb

Enfin la somme est majorée par la somme des P(X1 = x1 ∩· · ·∩Xn = xn ) pour x1 +· · ·+xn >
a qui vaut P(Sn > na). On conclut que
ntb
P(na 6 Sn0 6 nb) 6 P(Sn > na) ϕX
e
(t)n

(b) Comme a < E(X 0 ) < b (avec 2.C.1b et l’hypothèse sur b) et avec 1.2.2, on a

πn0 = P(na 6 Sn0 6 nb) → 1

Par ailleurs P(Sn > na) 6 enγa avec 2.1.3 et donc


ϕX (t)n 0
π 6 enγa
entb n
On passe au logarithme et on divise par n et on fait tendre n vers +∞ :

ln(ϕX (t)) − tb 6 γa

On a donc
ηa + t(a − b) 6 χ(t) + t(a − b) 6 γa
Soit ε > 0. ψX étant continue, on peut trouver t ∈]σ, σ + 1] tel que 0 6 ψX (t) − ψX (σ) 6 ε.
On a choisit alors b = ψX (t) + ε. On a alors |a − b| = |ψX (σ) − b| 6 2ε et t|b − a| 6 2ε(σ + 1).
On vient de voir que
∀ε > 0, ηa + 2ε(σ + 1) 6 γa
et donc ηa 6 γa . 2.2.2c ayant donné l’inégalité inverse, on conclut que
η a = γa
3. (a) Une somme de n variables de Bernoulli indépendantes de même paramètre 1/2 est une
loi binomiale B(n, 1/2). Si on se place dans le cas où X suit la loi B(1/2), Sn suit la loi
B(n, 1/2). On a alors
 
X 1 X n
P(Sn > (α + 1/2)n) = P(Sn = k) = n
2 k
k>(α+1/2)n k>(α+1/2)n

Par symétrie dans le triangle de Pascal, on a aussi


   
1 X n 1 X n
n
= n
2 k 2 k
k>(α+1/2)n k6(−α+1/2)n

8
Comme An est l’ensemble des k tels que k > (α + 1/2)n ou k 6 (−α + 1/2)n, on trouve
ainsi que
Un = 2n−1 P(Sn > (α + 1/2)n)
On en déduit que
ln(Un ) n−1 P(Sn > (α + 1/2)n)
= ln(2) +
n n n
Le second terme tend vers γα+1/2 = ηα+1/2 pour une loi de Bernoulli de paramètre 1/2 c’est
à dire (après calcul toujours un peu délicat)
1 1
(α − ) ln(1 − 2α) − (α + ) ln(2α + 1)
2 2
En passant au logarithme, on obtient PEUT-ETRE ( ! ! !)

(1 − 2α)α−1/2
lim Un1/n = 2
n→+∞ (1 + 2α)α+1/2

(b) Une somme de n variables de Poisson indépendantes et de même paramètre λ est une
variable de Poisson de paramètre nλ. Si on se place dans le cas où X suit la loi P(λ), Sn
suit la loi P(nλ). On a donc
X (nλ)k
P(Sn > nα) = e−nλ
k!
k>αn

1  
ln(Un )
et on retrouve Un = e−nλ Tn . Comme Unn = exp n on est dans le cas a = α et
1/n
Un → exp(γα ) = exp(ηα ) et donc (formule de 2.2.2d)
 α
1/n α−λ λ
lim U =e
n→+∞ n α

et ainsi  α
λ
lim T 1/n =e α
n→+∞ n α

Vous aimerez peut-être aussi