0% ont trouvé ce document utile (0 vote)
204 vues8 pages

Serie TD Proba 2020 2021 Gmec1 1

Transféré par

أشرف عبود
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
204 vues8 pages

Serie TD Proba 2020 2021 Gmec1 1

Transféré par

أشرف عبود
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 8

Université Ibn Zohr

Ecole Nationale des Sciences Appliquées


G-Mec 1
A.U. 2020/2021
M. Fakhouri

Probabilités
Travaux Dirigés

Exercice 1
Soit (X, Y ) un vecteur aléatoire de densité :
f(X,Y ) (x, y) = θ2 e−θ(x+y) 1R+∗ (x)1R∗+ (y)
où θ > 0 est une constante fixée.
a) Vérifier que f(X,Y ) est une densité.
b) Calculer les densités de X et Y .
c) Déduire l’indépendance de X et Y .
d) Calculer la fonction de répartition F(X,Y ) du vecteur aléatoire (X, Y ).
e) Calculer P(2 ≤ X ≤ 5) et P(1 ≤ Y ≤ 3).

Exercice 2
Soit (X, Y ) un vecteur aléatoire de densité
f(X,Y ) (x, y) = θ2 e−θ(x+y) 1R∗+ ×R∗+ (x, y).
Soient les v.a. U = X + Y et V = X − Y .
Quelle est la loi du vecteur aléatoire (U, V )?

Exercice 3
Soient X et Y deux v.a. réelles indépendantes de même loi PX = PY = N (µ, σ 2 ).
Montrer que X + Y et X − Y sont indépendants.

Exercice 4
Soient Y et Z deux variables aléatoires indépendantes telles que Y suit la loi normale
centrée réduite N (0, 1) et Z a pour loi P(Z = 1) = P(Z = −1) = 12 .
Soit W = Y Z.
(i) Montrer que W est une v.a. gaussienne.
(ii) Montrer que (Y, W ) n’est pas un vecteur gaussien.

Exercice 5
 
4 2 3
Soit (X, Y, Z) un vecteur aléatoire de loi N (µ, Σ) avec µ = (0, 2, 1) et Σ =  2 4 2 .
 

3 2 3
(i) Quelles sont les lois de X, de Y , de Z, de −X + 2Z ?
(ii) Le vecteur (X, Y + Z) est-il un vecteur gaussien ? Déterminez sa loi.
Exercice 6
Soit un vecteur aléatoire gaussien X dont les n + 1 composantes Z, X1 , · · · Xn sont des
variables centrées réduites telles que (α étant une constante connue )

ρ (Z, Xi ) = α, 16i6n
2
ρ (Xi , Xj ) = α , 1 6 i 6= j 6 n.

a) On pose
Xi − αZ
Ui = √ , 16i6n
1 − α2
Déterminer la loi du vecteur (Z, U1 , · · · , Un ) et en déduire celle du vecteur (Z, X1 , · · · , Xn ).

Pn S
b) Loi de S = i=1 Xi ? Loi de T = Z
?

Exercice 7
Soit X = (X1 , X2 , X3 ) un vecteur

aléatoire gaussien dont la matrice de variance-covariance
1 0 −1
 0 2 2 
est donnée par :  

−1 2 5
Soit Y=(Y1 , Y2 , Y3 ) le vecteur aléatoire définie par :


 Y1 = X1 + X 3
Y2 = αX1 + 2X2 + βX3
Y3 = −X1 − X2 + X3

avec α et β deux réelles. Le vecteur espérance de Y est µY = (0, 0, 0).


a) Donner la matrice de variance-covariance du vecteur Y .
b) Quelle valeur doit prendre β pour que Y1 et Y2 soient indépendants.
c) Soit Z = (Y1 , Y3 ) un vecteur aléatoire. Déterminer la loi de Z.
Solutions
Solution Exo 1 :

a) Vérifions que f(X,Y ) est une densité :


f(X,Y ) est une fonction positive. En plus, on peut facilement vérifier que
ZZ
f(X,Y ) (x, y) dx dy = 1.
R2

Alors on déduit que f(X,Y ) est une fonction de densité sur R2 .


b) Calculons les densités de X et de Y :

• On a :
Z Z
fX (x) = f(X,Y ) (x, y) dy = θ2 e−θ(x+y) 1R+∗ (x)1R∗+ (y) dy
R R Z
= θe−θx 1R∗+ (x) θe−θy 1R∗+ (y) dy
ZR
= θe−θx 1R∗+ (x) θe−θy dy
R∗+

= θe−θx 1R∗+ (x)[−e−θy ]+∞


0

= θe−θx 1R∗+ (x)(0 + 1)


= θe−θx 1R∗+ (x).
Donc X suit la loi exponentielle de paramètre θ.
• De la même façon, on montre que :
Z
fY (y) = f(X,Y ) (x, y) dx = θe−θy 1R∗+ (y).
R

Donc Y suit la loi exponentielle de paramètre θ.


c) D’après la question précédente on déduit que
f(X,Y ) (x, y) = θ2 e−θ(x+y) 1R+∗ (x)1R∗+ (y)
= θe−θx 1R∗+ (x) × θe−θy 1R∗+ (y)
= fX (x) × fY (y).
On déduit que X et Y sont des v.a. indépendantes.
d) Calculons la fonction de répartition F(X,Y ) du vecteur aléatoire (X, Y ) : On a
ZZ
F(X,Y ) (x, y) = f(X,Y ) (u, v) du dv
]−∞,x]×]−∞,y]
ZZ
= θ2 e−θ(u+v) du dv
]0,x]×]0,y]
  
= 1 − e−θx 1 − e−θy ,
puisque que f(X,Y ) = 0 dès que u 6 0 ou v 6 0.
On déduit que :
(   
1 − e−θx 1 − e−θy , si x > 0 et y > 0,
F(x,y) (x, y) =
0, sinon.
e) Calculons P(2 ≤ X ≤ 5) et P(1 ≤ Y ≤ 3).

• On a :
Z Z 5
−θy
P(2 ≤ X ≤ 5) = θe dy θe−θx dx
R∗+ 2

= [−e−θy ]+∞
0 [−e
−θx 5
]2
= e−2θ − e−5θ .

• On a :
Z Z 3
P(1 ≤ Y ≤ 3) = θe−θx dx θe−θy dy
R∗+ 1

= [−e−θx ]+∞
0 [−e
−θy 3
]1
−θ −3θ
= e −e .

1
Solution Exo 2 : L’application h(x, y) = (x + y, x − y) est un C -difféomorphisme

de R∗+ × R∗+ dans D = {(u, v) : u > 0, |v| < u}, avec h−1 (u, v) = u+v
2
, u−v
2
. Le jacobien
est !
1 1
(Dh)(x) = det = −2.
1 −1
Donc (U, V ) a pour densité
1 1
f(U,V ) (u, v) = θ2 e−θ(x+y) 1R+∗ ×R+∗ (x, y) = θ2 e−θu 1D (u, v).
2 2

Solution Exo 3 :
Pour montrer l’indépendance, on va montrer que la fonction caractéristique ϕ(X+Y,X−Y )
du vecteur aléatoire (X + Y, X − Y ) est égale au produit des fonctions caractéristiques
des variables aléatoires X + Y et X − Y , i.e. ϕ(X+Y,X−Y ) = ϕX+Y × ϕX−Y .
En effet, on a pour (t1 , t2 ) ∈ R2
 
ϕ(X+Y,X−Y ) (t1 , t2 ) = E ei(t1 +t2 )X+i(t1 −t2 )Y
= ϕX (t1 + t2 ) ϕY (t1 − t2 )
σ 2 (t1 + t2 )2 σ 2 (t1 − t2 )2
!
= exp iµ (t1 + t2 ) − + iµ (t1 − t2 ) −
2 2
  
= exp i(2µ)t1 − σ 2 t21 + t22 .

Déterminons maintenant les lois des variables aléatoires X + Y et X − Y afin d’en déduire
les fonctions caractériqtiques.
On sait que X et Y ont pour loi N (µ, σ 2 ) et en plus ils sont indépendants. Alors
! !
σ 2 t2 σ 2 t2
ϕX+Y (t) = ϕX (t)ϕY (t) = exp itµ − × exp itµ −
2 2
 
= exp i(2µ)t − σ 2 t2 .

Donc X + Y a pour loi PX+Y = N (2µ, 2σ 2 ). De la même façon on montre que la loi de
X − Y est PX−Y = N (0, 2σ 2 ) .
Alors ϕX+Y (t1 ) = exp (i(2µ)t1 − σ 2 t21 ) , et ϕX−Y (t2 ) = exp (−σ 2 t22 ) .
Par conséquent,

ϕ(X+Y,X−Y ) (t1 , t2 ) = ϕX+Y (t1 ) ϕX−Y (t2 ) , ∀ (t1 , t2 ) ∈ R2 .

On déduit donc que X + Y et X − Y sont deux v.a. indépendantes.


Solution Exo 4 :

(i) Afin de montrer que W est une v.a. gaussienne, déterminons soit sa fonction de
répartition ou sa fonction caractéristique.
Fonction de répartition :

FW (t) = P[W ≤ t]
= P[Y Z ≤ t]
 
= P[{Y Z ≤ t} ∩ {Z = 1} ∪ {Z = −1} ]
   
= P[ {Y Z ≤ t} ∩ {Z = 1} ∪ {Y Z ≤ t} ∩ {Z = −1} ]
   
= P[ {Y ≤ t} ∩ {Z = 1} ∪ {−Y ≤ t} ∩ {Z = −1} ]
   
= P[ {Y ≤ t} ∩ {Z = 1} ] + P[ {−Y ≤ t} ∩ {Z = −1} ]
= P(Y ≤ t)P(Z = 1) + P(−Y ≤ t)P(Z = −1)
1 1
= P(Y ≤ t) + P(−Y ≤ t).
2 2
Or on a :

P(−Y ≤ t) = P(Y ≥ −t)


= 1 − P(Y ≤ −t)
1 Z +∞ −y2 1 Z −t −y2
= √ e 2 dy − √ e 2 dy
2π −∞ 2π −∞
1 Z +∞ −y2
= √ e 2 dy
2π −t
1 Z −∞ −u2
= −√ e 2 du en utilisant le changement de variable y = −u
2π t
1 Z t −y2
= √ e 2 dy
2π −∞
= P(Y ≤ t).

On peut aussi conclure directement à partir de la deuxième ligne car on a FY (t) =


1 − FY (−t) = 1 − P(Y ≤ −t) puisque Y est une gaussienne centrée réduite.
Par conséquent on déduit que
1 1
FW (t) = P(Y ≤ t) + P(−Y ≤ t)
2 2
= P(Y ≤ t)
= FY (t).

Alors W est bien une v.a. gaussienne.


Fonction caractéristique :
En effet, on a :

ϕW (t) = E[eitW ]
= E[eitY Z ]
= E[eitY Z 1{Z=1}∪{Z=−1} ]
 
= E[eitY Z 1{Z=1} + 1{Z=−1} − 1{Z=1}∩{Z=−1} ]
= E[eitY Z 1{Z=1} + eitY Z 1{Z=−1} ]
= E[eitY ]E[1{Z=1} ] + E[e−itY ]E[1{Z=−1} ] car Y et Z sont indépendants
= ϕY (t)P(Z = 1) + ϕY (−t)P(Z = −1)
= ϕY (t),
t2
car ϕY (t) = ϕY (−t) = e− 2 . On a aussi utilisé le fait que E[1{Z=1} ] = P(Z = 1) et
E[1{Z=−1} ] = P(Z = −1).
Donc on déduit que W est une v.a. gaussienne.
(ii) Si le vecteur aléatoire (Y, W ) est un vecteur gaussien alors, par définition, chacune
des combinaisons linéaires αY + βW , pour (α, β) ∈ R2 , doit suivre une loi normale.
En particulier Y +W doit suivre une loi normale et alors nécessairement P[Y +W =
0] = 0. Or, si nous calculons cette probabilité :

P[Y + W = 0] = P[Y + Y Z = 0]
= P[Y (1 + Z) = 0]
= P[Y = 0 ou 1 + Z = 0]
= P[Y = 0] + P[Z = −1] − P[Y = 0 et Z = −1]
= P[Y = 0] + P[Z = −1] − P[Y = 0]P[Z = −1]
= 1/2
6= 0

Donc, on déduit que le vecteur aléatoire (Y, W ) n’est pas un vecteur gaussien.
Solution Exo 5 :

(i) Le vecteur aléatoire (X, Y, Z) est un vecteur gaussien donc, par définition, chacune
des combinaisons linéaires αX +βY +γZ, pour (α, β, γ) ∈ R3 , suit une loi normale.
En choisissant (α, β, γ) = (1, 0, 0), nous obtenons que la variable aléatoire X suit
une loi normale. L’espérance de X est donnée par la première composante de
µ1 = 0 et sa variance par le coefficient Σ1,1 = 1. Ainsi X suit une loi normale
N (0, 4). De la même manière Y et Z suivent une loi normale N (2, 4) et N (1, 3).
Pour (α, β, γ) = (−1, 0, 2), nous déduisons que −X + 2Z suit une loi normale.
Calculons son espérance : E(−X + 2Z) = −E(X) + 2E(Z) = 2. Pour la variance,
Var(−X + 2Z) = Var(−X) + 2 Cov(−X, 2Z) + Var(2Z) = Var(X)

−4 Cov(X, Z) + 4 Var(Z) = 4 − 4 × 3 + 4 × 3 = 4

(ii) Le vecteur V = (X, Y + Z) est gaussien si chacune des combinaisons linéaires


αX + β(Y + Z), pour (α, β) ∈ R2 , suit une loi normale, ce qui est bien le cas
puisque (X, Y, Z) est un vecteur gaussien et que donc, par définition, chacune des
combinaisons linéaires αX + βY + γZ, pour (α, β, γ) ∈ R3 , suit une loi normale.
Calculons l’espérance de V : E(V) = (E(X), E(Y + Z)) = (0, 3). Puis déterminons
sa matrice de variance-covariance Var(V) :
! !
Var(X) Cov(X, Y + Z) 4 5
Var(V) = = .
Cov(Y + Z, X) Var(Y + Z) 5 11

Solution Exo 6 :

a) Le vecteur aléatoire (Z, U1 , · · · , Un ) étant une transformation linéaire du vecteur


gaussien X, est un vecteur gaussien, centré. Pour déterminer sa loi, il suffit de
déterminer la matrice de covariances. Pour 1 6 i 6 n,
Var (Xi ) + α2 Var(Z) − 2α Cov (Xi , Z)
Var (Ui ) = =1
1 − α2
et
Cov (Z, Xi ) − α Var(Z)
Cov (Z, Ui ) = √ =0
1 − α2
Si 1 6 i 6= j 6 n
Cov (Xi , Xj ) + α2 Var(Z) − α Cov (Xi , Z) − α Cov (Xj , Z)
Cov (Ui , Uj ) = =0
1 − α2
Donc (Z, U1 , · · · , Un ) suit la loi gaussienne N (0, Id), où Id désigne la matrice
(n + 1) × (n + 1) identitique. Autrement dit, Z, U1 , · · · , Un sont des variables
indépendantes suivant la même loi gaussienne centrée réduite.
Le vecteur aléatoire (Z, X1 , · · · , Xn ) étant une transformation linéaire du vecteur
gaussien (Z, U1 , · · · , Un ) , est donc aussi un vecteur gaussien. On a (en écrivant

β := 1 − α2
 
  1 0 0 ··· 0    
Z Z Z
α β 0 ··· 0
 
 

X1    U1  
U1 
α 0 β ··· 0
    
.. = .. := A· ..
     
 

.
  .. .. .. . . ..  .
 
.

. . . . .
      
Xn  
Un Un
α 0 0 ··· β
 
Z

 X1 

Donc la matrice de covariances de  ..  est
.
 
 
Xn
 
1 0 0 ··· 0  

 α β 0 ··· 0 
 1 α α ··· α
 0 β 0 ··· 0 
 
 α 0 β ··· 0   
D := AAt =  0 0 β ··· 0 

 .. .. .. . . 
. . . .
 
 
 .. .. ... . .. 
 . . . . . 

 ..  

 .  0 0 0 ··· β
α 0 0 ··· β
 
1 α α ··· α
α 1 α2 · · · α2 
 

α α2 1 · · · α2 
 
= 
 
 .. .. .. .. .. 

 . . . . .  
α α α2
2
··· 1
Autrement dit, le vecteur aléatoire (Z, X1 , · · · , Xn ) suit la loi gaussienne N (0, D).

b) Par définition,
√ n
X
S = nαZ + 1 − α2 Ui
i=1

qui suit la loi gaussienne N (0, n2 α2 + n (1 − α2 )). D’autre part,

n−1/2 ni=1 Ui
P
S q
T = = nα + n (1 − α2 )
Z Z
q
La variable T a donc la même loi que nα+ n (1 − α2 )C, où C désigne une variable
aléatoire suivant la loi de Cauchy standard. La densité de T vaut
q
1 n (1 − α2 )
fT (x) = , x∈R
π n (1 − α2 ) + (x − nα)2

Vous aimerez peut-être aussi