Cours Stat Math
Cours Stat Math
K.Boulifa
4. Tests d’hypothèses
2021-2022
Table des matières
1
4 Tests d’hypothèses paramétriques 23
4.1 Notions générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2 Test du rapport de vraisemblance simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3 Principaux tests paramétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3.1 Comparaison d’une moyenne observée et d’une moyenne théorique . . . . . . . . . . . . . . 32
A) Test sur la moyenne m : σ est connu . . . . . . . . . . . . . . . . . . . . . . . . . 32
B) Test sur la moyenne m : σ est inconnu . . . . . . . . . . . . . . . . . . . . . . . . 34
4.4 Comparaison de la proportion théorique à une valeur de référence (cas à un échantillon . . . . . . . . 36
4.4.1 Comparaison de la variance théorique à une valeur de référence (cas à un échantillon) . . . . . 38
A) Test sur l’écart-type σ : m est connu . . . . . . . . . . . . . . . . . . . . . . . . . 38
B) Test sur l’écart-type σ : m est inconnu . . . . . . . . . . . . . . . . . . . . . . . . 39
4.5 Tests de comparaison d’échantillons (2 échantillons . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
A) Comparaison des moyennes de deux échantillons gaussiens indépendants, les va-
riances étant connues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
B) Comparaison des moyennes de deux échantillons gaussiens indépendants, les va-
riances n’étant pas connues mais supposées égales . . . . . . . . . . . . . . . . . . 42
B).1 Test de l’égalité des variances ou test de Fisher-Snedecor . . . . . . . . . 42
B).2 Test de comparaison de deux moyennes ou test des espérances de Student 43
4.6 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.6.1 Tests d’adéquation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.6.2 Test du khi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.6.3 Test d’indépendance du khi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.7 La P-valeur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2
CHAPITRE 1. LOIS FONDAMENTALES DE L’ÉCHANTILLONNAGE
CHAPITRE 1
LOIS FONDAMENTALES DE
L’ÉCHANTILLONNAGE
Définition 1.1. On appelle échantillon aléatoire de taille n (en bref n-échantillon) une suite de n variables aléatoires
indépendantes et de même loi (ou v.a. i.i.d). Cette loi est appelée la loi mère de l’échantillon.
L’objectif de ce chapitre est d’étudier certaines caractéristiques de l’échantillonne aléatoire, essentiellement sa moyenne
et sa variance, en relation avec celles de la loi mère. Une telle caractéristique est une v.a. qui prend le nom de «statistique»
dans le contexte de l’échantillonnage, selon la définition suivante.
Définition 1.2. Soit X1 , X2 , ..., Xn un n-échantillon, on appelle statistique toute v.a. T n = h(X1 , X2 , ..., Xn ) fonction de
X1 , X2 , ..., Xn .
n
1X
X̄ = Xi
n i=1
————————————————————— 3 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 1. LOIS FONDAMENTALES DE L’ÉCHANTILLONNAGE
1.2. MOYENNE, VARIANCE, MOMENTS EMPIRIQUES
n
1X
S̃ 2 = (Xi − X̄)2
n i=1
n−1 2
E(S̃ 2 ) = σ
n
n n
1X 1 Xh i2
(Xi − X̄)2 = Xi − µ) − (X̄ − µ)
n i=1 n i=1
=−−−−− (1.1)
n
1X
= (Xi − µ)2 − (X̄ − µ)2
n i=1
D’où
n
1X σ n−1 2
E(S̃ 2 ) = V(Xi ) − V(X̄) = σ2 − = σ
n i=1 n n
Quand on abordera l’estimation ponctuelle (chapitre 2) on dira que S̃ est un estimateur biaisée de σ2 Par anticipation
définissons l’estimateur S 2 = n−1 σ
n 2
qui est sans biais pour σ2 , c’est-à-dire E(S 2 ) = σ2 .
Définition 1.5. On appelle variance de l’échantillon la statistique
n
1 X
S2 = (Xi − X̄)2
n − 1 i=1
Si la loi mère est N(µ, σ2 ), alors X̄ est gaussienne, en tant que combinaison linéaire de gaussiennes indépendantes.
Par conséquent :
X̄ ⇝ N(µ, σ2 /n)
Proposition 1.3. Si la loi mère est gaussienne, X̄ et S 2 sont des v.a. indépendantes.
n
1X r
Mr = X
n i−1 i
————————————————————— 4 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 1. LOIS FONDAMENTALES DE L’ÉCHANTILLONNAGE
1.3. FONCTION DE RÉPARTITION EMPIRIQUE
Définition 1.7. On appelle moment centré empirique d’ordre r, notée Mr′ la statistique :
n
1X
Mr = (Xi − X̄)r
n i−1
E(Mr ) = µr
On a la formule de décentrage de la variance empirique
n n
1X 1X 2
(Xi − X̄)2 = X − X̄ 2
n i−1 n i−1 i
En d’autres termes Fn (x) est la v.a «proportion» des n observations X1 , X2 , ..., Xn prenant une valeur inférieure ou égale
à x. Chaque Xi ayant une probabilité F(x) d’être inférieure ou égale à x.
nFn (x) suit une loi binomiale B(n, F(x)). En conséquence Fn (x) est une v.a discrète prenant les valeurs nk , où k = 0, 1, ..., n
avec probabilités : !
k
P Fn (x) = = P (nFn (x) = k) = Ckn F(X)k (1 − F(x))n−k
n
Proposition 1.6. La moyenne de la loi χ2 (ν) est égale au nombre de degrés de liberté ν, sa variance est 2ν.
————————————————————— 5 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
Pµ
Or µ4 = 3, d’où V(Zi2 ) = 2 et i=1 V(Zi2 ) = 2ν
T 1 + T 2 ⇝ χ2 (ν1 + ν2 )
(n − 1)S 2
⇝ χ2 (n − 1)
σ2
Z
T= q
Q
ν
suit une loi appelée loi de Student à ν degrés de liberté, notée t(ν).
ν
V(T ) = , si 3 ≤ ν
ν−2
Théorème 1.10. (Application fondamentale) Soit X1 , X2 , ..., Xn un n-échantillon de loi mère N(µ, σ2 ). Alors :
X̄ − µ
√ ⇝ t(n − 1)
S/ n
U/ν1
F=
V/ν2
suit une loi de Fisher-Snedecor à ν1 degrés de liberté au numérateur et ν1 degrés de liberté au dénominateur, notée
F(ν1 , ν2 ). En bref on l’appellera loi de Fisher.
6
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE
CHAPITRE 2
ESTIMATION PARAMÉTRIQUE
PONCTUELLE
————————————————————— 7 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE
2.2. CADRE DE L’ESTIMATION PARAMÉTRIQUE
n o
(µ, σ2 )/µ ∈ R, σ2 ∈ R, σ2 > 0
La loi de la v.a. T n (X1 , ..., Xn ) dépend de celle de X, et donc de θ , et chaque réalisation T n (x1 , ..., xn ) sera une estimation
de θ.
Si θ = E(X) c’est à-dire la moyenne théorique de la loi de X et on retient donc très logiquement comme estimateur du
paramètre θ la moyenne empirique ou moyenne de l’échantillon :
n
1X
T n (X1 , ..., Xn ) = X̄n = Xi
n i=1
dans le cadre des échantillons aléatoires, la loi conjointe du n-échantillon (X1 , X2 , ..., Xn ) peut être définie par la fonction
de densité (respectivement la fonction de probabilité conjointe :
n
Y
f (x1 , x2 , .., ., xn ; θ) = f (x1 ; θ) f (x2 ; θ)... f (xn ; θ) = f (xi , θ)
i=1
où θ est le paramètre inconnu dans Θ. Dans le cas discret cette expression est la probabilité
Pθ (X1 = x1 , X2 = x2 , ..., Xn = xn ).
Cette classe regroupe des familles paramétriques de lois qui, de par leur forme particulière, partagent beaucoup de
propriétés dans la théorie de l’estimation ou la théorie des tests, du fait que leurs densités peuvent s’écrire sous une
même expression canonique (on parle aussi de la famille exponentielle)
————————————————————— 8 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE
2.3. MÉTHODES DE CONSTRUCTION D’UN ESTIMATEUR
Définition 2.2. Soit une famille paramétrique de lois admettant des fonctions de densité (cas continu) ou des fonctions
de probabilité (cas discret) { f (x; θ); θ ∈ Θ ⊂ Rk }. On dit qu’elle appartient à la classe exponentielle de lois si f (x; θ)
peut s’écrire :
f (x; θ) = a(θ)b(x) exp {c1 (θ)d1 (x) + c2 (θ)d2 (x) + ........ck (θ)dk (x)}, pour tout x ∈ R
Notons qu’il doit y avoir autant de termes de produits dans la partie exponentielle que de dimensions pour θ. En
particulier, si θ est de dimension 1, on a :
p
f (x; n; p) = Cnx p x (1 − p)n−x = (1 − p)n Cnx e xln 1−p , pour x = 0, 1, 2, ..., n
λx
f (x, λ) = e−λ , pour x ∈ N
x!
1
= e−λ e xln(λ)
x!
d’où d(x) = x.
1 1 (x − µ)2
f (x; µ, σ2 ) = √ exp{− }, x ∈ R
2πσ2 2 σ2
1 µ2 1 µ
= √ exp{− }exp{− 2 x2 + 2 x}
2πσ2 2σ2 2σ σ
Nous commençons par le cas d’un paramètre à une dimension. Pour une réalisation x1 , x2 , ..., xn de l’échantillon la
méthode consiste alors à choisir pour estimation de θ la valeur telle que la moyenne théorique µ(θ) (ou premier moment
de la loi) coïncide avec la moyenne empirique x̄.
Pour un paramètre de dimension 2 l’estimation résulte de la résolution de deux équations, l’une reposant sur le premier
moment, l’autre sur le moment d’ordre 2.
Prenons le cas de la loi de Gauss avec (µ, σ2 ) comme paramètre, dont le premier moment est µ lui-même et le moment
————————————————————— 9 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE
2.3. MÉTHODES DE CONSTRUCTION D’UN ESTIMATEUR
d’où
µ̂ M = X̄
n
1X 2
σ̂ 2,M
= X − X̄ 2 = S̃ 2
n i=1 i
La moyenne et la variance théoriques sont donc estimées naturellement par la moyenne et la variance empiriques.
D’une façon générale l’estimation de θ de dimension 2 par la méthode des moments est la solution du système :
µ(θ) = x̄
.
µ2 (θ) = 1 Pn
xi2
n i=1
d’où la deuxième équation porte donc sur les moments centrées d’ordre 2.
La vraisemblance L(x1 , ..., xn ; θ) représente la probabilité d’observer le n-uple (x1 , ..., xn ) pour une valeur fixée de θ.
Dans la situation inverse ici où on a observé (x1 , ..., xn ) sans connaître la valeur de θ. on va attribuer à θ la valeur qui
paraît la plus vraisemblable, compte tenu de l’observation dont on dispose.
Définition 2.3. On appelle vraisemblance (likelihood) de l’échantillon (X1 , ..., Xn ) la loi de probabilité de ce n-uple,
notée L(x1 , ..., xn ; θ) , et définie par :
n
Y
L(x1 , ..., xn ; θ) = P(Xi = xi |θ)
i=1
Définition 2.4. On appelle estimateur du maximum de vraisemblance (emv) toute fonction θ̂n de (x1 , ..., xn ) qui vérifie :
La recherche de l’emv peut se faire directement par recherche du maximum de L , ou dans le cas particulier où la
∂L ∂2 L
fonction L est deux fois dérivable par rapport à θ, comme solution de l’équation ∂θ = 0 qui vérifie aussi ∂2 θ
< 0.
Cependant, la vraisemblance se calculant à partir d’un produit, on préfère remplacer ce dernier problème par le problème
∂ ln L
équivalent pour la log-vraisemblance, puisque la fonction ln est strictement croissante ∂θ = 0 qui vérifie aussi
∂2 ln L
∂2 θ
< 0.
————————————————————— 10 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE 2.4. PROPRIÉTÉS D’UN ESTIMATEUR
Remarquons enfin que si θ̂n est un emv du paramètre θ , alors g(θ̂n ) est un emv du paramètre g(θ) pour toute fonction g
strictement croissante.
Exemple 2.4. Soit X une v.a. de loi exponentielle de paramètre 1θ , avec θ > 0 de densité pour x > 0 :
1 −x
f (x; θ) = e θ
θ
avec :
n
∂2 ln L n 2 X n
= − xi = 3 (θ − 2xn )
∂2 θ θ2 θ3 i=1 θ
pour θ = xn :
∂2 ln L
!
n
=−
∂2 θ θ=xn θ2
Définition 2.5. Un estimateur (ou plus généralement une statistique) T est un estimateur exhaustif pour le paramètre θ
si, pour tout n ∈ N nous avons :
L(x1 , ..., xn ; θ) = g(t, θ)h(x1 , ..., xn ; t)
Exemple 2.5. X une v.a suit une loi de poisson de paramètre λ
T (X1 , ....Xn ) = X̄ = n1 ni=1 Xi est un estimateur de λ, soit T (x1 , ....xn ) = x̄ = t
P
n
Y Pn 1
L(x1 , ..., xn ; λ) = L(xi ; λ) = λ i=1 xi
exp(−nλ) × Qn
i=1 i=1 xi !
Pn
g(t, θ) = λ i=1 xi
exp(−nλ)
1
h(x1 , ..., xn ; t) = Qn
i=1 xi !
————————————————————— 11 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE 2.4. PROPRIÉTÉS D’UN ESTIMATEUR
Eθ (T n ) = θ
Exemple 2.6. Si le paramètre à estimer est la moyenne théorique de la loi, i.e. θ = E(X), l,estimateur naturel est la
moyenne empirique T n = X̄
Définition 2.7. Un estimateur T n de θ est dit asymptotiquement sans biais si pour tout θ de Θ
Eθ (T n ) → θ quand n → +∞
Exemple 2.7. Si le paramètre à estimer est la variance théorique de la loi, i.e. θ = V(X) = σ2 , l’estimateur naturel est
n θ. Donc S̃ est
la variance empirique T n = S̃ 2 = 1n ni=1 (Xi − X̄)2 et nous avons vu dans le chapitre 1 que Eθ (T n ) = n−1 2
P
Nous allons voir que dans certaines conditions il existe une borne inférieure pour l’ensemble des variances des
estimateurs sans biais, si cette borne est atteinte par un estimateur, il deviendra le meilleur et sera qualifié d’optimal
dans la classe des estimateurs sans biais.
Le théorème suivant va préciser la borne inférieure pour la variance des estimateurs sans biais, sous certaines hypothèses
relatives à la loi de probabilité de X et que nous appellerons hypothèses de Cramer-Rao. L’énoncé du théorème fait
intervenir la notion de quantité d’information de Fisher qui est définie par :
!2
∂ ln L
In (θ) = Eθ
∂θ
Théorème 2.1. Sous les hypothèses de Cramer-Rao, en particulier si E = X(Ω) est indépendant du paramètre à estimer
θ , pour tout estimateur sans biais T n de θ on a :
1
Vθ (T n ) ≥ = BF (θ)
In (θ)
La quantité BFθ est la borne inférieure de Cramer-Rao. Si E = X(Ω) est indépendant du paramètre à estimer θ, la
quantité d’information de Fisher est :
∂2 ln L
!
In (θ) = Eθ − 2
∂ (θ)
Exemple 2.8. Soit X une v.a. de loi exponentielle de paramètre 1θ , avec θ > 0 de densité pour x > 0 :
1 −x
f (x; θ) = e θ
θ
————————————————————— 12 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE 2.4. PROPRIÉTÉS D’UN ESTIMATEUR
n
Y 1 (− 1 Pni=1 xi )
L(x1 , ..., xn , θ) = f (xi ; θ) = e θ
i=1
θn
n
1X
ln L(x1 , ..., xn , θ) = −n ln θ − xi
θ i=1
n
∂ln L n 1 X
=− + 2 xi
∂θ θ θ i=1
En élevant au carré : n 2
!2 n
∂ln L 1 n2 − 2 n
X 1 X
= 2 xi + 2 xi
∂θ θ θ i=1 θ i=1
Si on pose S n =
Pn
i=1 xi on obtient :
!2
∂ln L
" #
1 2 n 1
In (θ) = Eθ = n − 2 E (S
θ n ) + E (S
θ n
2
)
∂θ θ2 θ θ2
Avec
Eθ (S n ) = nEθ (X) = nθ
on obtient :
n
In (θ) =
θ2
Comme X(Ω) = R+ est indépendant de θ, on peut utiliser la seconde expression de la quantité d’information de Fisher,
calculée à partir de :
∂2 ln L n 2
= 2 − 3Sn
∂2 (θ) θ θ
∂2 ln L
!
n nθ n
In (θ) = Eθ − 2 =− 2 +2 3 = 2
∂ (θ) θ θ θ
————————————————————— 13 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE 2.5. QUALITÉ D’UN ESTIMATEUR
La vraisemblance s’écrit :
n
n
Y X
L(x1 , ..., xn ; θ) = exp − (xi − θ)
i=1 i=1
n
X
ln L(x1 , ..., xn ; θ) = − xi + nθ
i=1
. d’où
∂ln L
=n
∂θ
et !2
∂ln L
In (θ) = Eθ = n2
∂θ
Remarque 1.
∂2 ln L ∂2 ln L
!
=0 et Eθ − = 0 , In (θ)
∂2 θ ∂2 θ
ne coïncide pas avec la valeur de la quantité d’information de Fisher, ce qui s’explique par le fait que X(Ω) = [θ, +∞[
dépend du paramètre à estimer θ.
Si on se place dans la classe des estimateurs sans biais, on pourra comparer deux estimateurs T n et T n′ de cette classe par
leur variance qui mesure alors leur dispersion par rapport au paramètre qui est leur espérance commune. Nous dirons
que l’estimateur T n est plus efficace que T n′ si pour tout θ de Θ et pour une taille d’échantillon n > N.
Vθ (T n ) ≤ Vθ (T n′ )
Définition 2.8. (Estimateur efficace :) Un estimateur sans biais T n est dit efficace si sa variance est égale à la borne
inférieure de FDCR
1
Vθ (T n ) =
In (θ)
Exemple 2.10. Reprenons l’exemple 2.8.
Comme Eθ (X) = θ et T n = X̄ est un estimateur sans biais et convergent, et de plus
V(X) θ2 1
Vθ (T n ) = V(θ)(X¯n ) = = =
n n In (θ)
————————————————————— 14 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
donc cet estimateur est aussi efficace.
Théorème
2.2. Tout estimateur sans biais dont la variance tend vers zéro est convergent :
Eθ (T n ) = θ
⇒ T n → θ quant n → ∞
Vθ (T n )→ 0
T n est convergent
Théorème 2.3. Tout estimateur asymptotiquement sans biais dont la variance tend vers zéro est convergent :
Eθ (T n )→ θ
⇒ T n → θ quant n → ∞
Vθ (T n )→ 0
15
CHAPITRE 3. ESTIMATION PARAMÉTRIQUE PAR INTERVALLE DE CONFIANCE
CHAPITRE 3
Définition 3.1. Soit X1 , X2 , , Xn un échantillon aléatoire issu d’une loi de densité (ou fonction de probabilité) f (x; θ) où
θ ∈ Θ est un paramètre inconnu de dimension 1. On appelle procédure d’intervalle de confiance de niveau 1 − α tout
couple de statistiques (T 1 , T 2 ) tel que, quel que soit θ ∈ Θ, on ait :
Pθ (T 1 ≤ θ ≤ T 2 ) ≥ 1 − α.
En pratique on choisira 1 − α assez élevé : couramment 1 − α = 0.95. Ainsi, il y a une forte probabilité pour que
l’intervalle à bornes aléatoires [T 1 , T 2 ] contienne la vraie valeur de θ
Exemple 3.1. Prenons l’exemple d’une loi mère gaussienne N(0, 1) le centrage de la moyenne empirique du n-
échantillon :
X−µ
∼ N(0, 1)
√1
n
d’où
X − µ
P −1.96 < 1 < 1.96 = 0.95, avec α = 0.05
√
n
X − µ √ √
P −1.96 < 1 < 1.96 = P −1.96/ n < X − µ ≤ 1.96/ n
√
n
√ √
= P −1.96/ n < µ − X < 1.96/ n (3.1)
√ √
= P X − 1.96/ n < µ < 1.96/ n + X
= 0.95
h √ √ i
et ceci quel que soit µ, ce qui prouve que X − 1.96/ n, 1.96/ n + X constitue une procédure d’intervalle de confiance
————————————————————— 16 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 3. ESTIMATION PARAMÉTRIQUE PAR INTERVALLE 3.1.
DE CONFIANCE
MÉTHODE DE LA FONCTION PIVOT
Définition 3.2. Dans le contexte de la définition 3.1, soit x1 , x2 , , xn une réalisation de X1 , X2 , , Xn conduisant à la
réalisation (t1 , t2 ) de (T 1 , T 2 ). Alors l’intervalle [t1 , t2 ] est appelé intervalle de confiance de niveau α pour θ et l’on
note : IC1−α = [t1 , t2 ]
Supposons que dans l’exemple 3.1, avec un échantillon de taille 9, on ait observé la valeur 6 pour la moyenne de cet
échantillon, alors : " #
1.96 1.96
IC0.95 = 6 − √ ; 6 + √ ≃ [5.35; 6.65].
9 9
Remarque 2. S’il s’agit d’estimer une fonction h(θ) bijective, par exemple strictement croissante, du paramètre θ, il
suffit de prendre l’intervalle [h(t1 ), h(t2 )].
X−µ
Dans l’exemple 3.1, la variable aléatoire √1
était une fonction pivot car pour toute valeur x on peut résoudre l’inégalité :
n
x−µ
µ1 < < µ2
√1
n
⇔
√ √
x − µ2 / n < µ < x − µ1 / n
————————————————————— 17 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 3. ESTIMATION PARAMÉTRIQUE PAR INTERVALLE DE CONFIANCE
3.3. IC POUR UNE PROPORTION
Posons
α1 = Pθ [θ > b(T n )] et α2 = Pθ [θ < a(T n )] .
— Symétrique : α1 = α2 = α/2
— Dissymétrique : α1 , α2
Seules des raisons très particulières peuvent permettre de fixer les valeurs de α1 et α2 telles que α1 + α2 = α
B-Intervalle unilatéral : α1 α2 = 0
— Unilatéral à gauche α1 = α, α2 = 0
Si par exemple le paramètre est une proportion de défectueux dans un lot, ou un taux d’impuretés, on souhaite
qu”il soit inférieur à un seuil maximum, d’où un intervalle de la forme θ < b(T n )
n
1X
p̂ = Xi
n i=1
en dérivant ln L et on trouve
∂ ln L (1 − p)sn − (n − sn )p
=
∂p p(1 − p)
————————————————————— 18 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 3. ESTIMATION PARAMÉTRIQUE PAR INTERVALLE DE CONFIANCE
3.3. IC POUR UNE PROPORTION
n
∂ ln L sn X
= 0 pour p = , avec sn = xi
∂p n i=1
∂2 ln L sn n − sn
=− 2 − <0
∂p 2 p (1 − p)2
√ pˆn − p loi
n √ → N(0, 1)
pq
!
pˆn − p
P −z1−α/2 < √ < z1−α/2 = 1 − α
pq
√ Xn − µ
Xn ∼ N(µ, σ2 /n) ⇒ n ∼ N(0, 1)
σ
√ Xn − µ
≤ z1−α/2 = 1 − α
P −z1−α/2 ≤ n
σ
σ σ
!
P Xn − z1−α/2 √ ≤ µ ≤ Xn + z1−α/2 √ = 1 − α
n n
il s’agit de l’intervalle aléatoire
σ σ
" #
Xn − z1−α/2 √ , Xn + z1−α/2 √
n n
Ainsi, l’IC est donné par
σ σ
" #
IC1−α = xn − z1−α/2 √ , xn + z1−α/2 √
n n
————————————————————— 19 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 3. ESTIMATION PARAMÉTRIQUE PAR INTERVALLE DE CONFIANCE
3.3. IC POUR UNE PROPORTION
Nous abordons le cas où (µ, σ2 ) est un paramètre de dimension 2 inconnu, mais nous nous intéresserons ici
uniquement à un encadrement pour µ indépendamment de σ2 . Rappelons le résultat du théorème 1.10
X̄ − µ
√ ⇝ t(n − 1)
S / n approx
X̄ − µ
!
(n−1)
P −t1−α/2 < √ < t1−α/2 = 1 − α
(n−1)
S/ n
où tα(n−1) est la notation adoptée pour le quantile d’ordre α de la loi de Student à (n-1) d.d.l. (degrés de liberté) Il s’ensuit
que :
(n−1) √ √
P X̄ − t1−α/2 S / n < µ < X̄ + t1−α/2
(n−1)
S/ n = 1 − α
d’où l’intervalle :
IC0.95 (µ) = [1888, 2112]
L’estimateur de σ2 , basé sur l ?échantillon (X1 , ..., Xn ) de cette loi N(µ, σ2 ) , est :
n
1X
σ̂2 = (Xi − µ)2
n i=1
nσ̂2
!
P a< < b =1−α
σ2
————————————————————— 20 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 3. ESTIMATION PARAMÉTRIQUE PAR INTERVALLE DE CONFIANCE
3.3. IC POUR UNE PROPORTION
On peut prendre la borne a égale au quantile d’ordre α/2 et la borne b égale au quantile d’ordre 1 − α/2 pour la loi du
χ2 (n).
L’intervalle de confiance pour σ2 est égal :
nσ̂2 nσ̂2
" #
,
b a
Exemple 3.3. Si on a observé sur un échantillon de taille 15 la valeur σ̂2 = 18. Pour un niveau de confiance 1−α = 0.99
c’est-à-dire α = 0.01. Soit α1 = α2 = 0.005 a = χ215,0.005 = 44, 60 et b = χ215,0.995 = 32.80 d’où l’intervalle
Quand le second paramètre m de la loi normale est inconnu, l’estimateur sans biais et convergent de σ2 qu’il faut
retenir est :
n
1 X
S n2 = (Xi − X̄n )2
n − 1 i=1
et on sait que
(n − 1)S n2 ⧸σ2 ⇝ χ2n−1
(n − 1)S n2
!
P a< <b =1−α
σ2
d’où
(n − 1)S n2 (n − 1)S n2
!
P <σ <
2
=1−α
b a
il n’y a qu’une seule contrainte pour déterminer les valeurs de a et b c’est α1 + α2 = α avec
α1 = P χ2n−1 < a ) et α2 = P χ2n−1 > b
2
Sur un échantillon de seize chiffres d’affaires de magasins d’une chaîne de grandes surfaces on a observé S 16 = 72.53.
L’intervalle de niveau 0.95 à risques symétriques est défini à partir de α1 = α2 = 0.025 et on lit dans la table de khi-deux
a = 6.26 et b = 27.49 Soit
I1−α = [39.56, 173.79]
Si on fait le choix d’un intervalle unilatéral à gauche, soit α1 = α = 0.05 et α2 = 0 on obtient a = 7.26
————————————————————— 21 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 3. ESTIMATION
3.4. INTERVALLE
PARAMÉTRIQUE
DE CONFIANCE
PAR INTERVALLE
POUR LA
DEMOYENNE
CONFIANCE
D’UNE LOI QUELCONQUE
Exercice 3.1. On considère un échantillon de 40 paquets de biscuits provenant d’une production de 2000 unités. Le
poids moyen obtenu pour cet échantillon est égal à 336g et l’écart-type empirique, c’est-à-dire la quantité s, est égal à
0.86g. Quelle est l’estimation, par intervalle de confiance, du poids moyen de ces paquets de biscuits, pour l’ensemble
de la fabrication, avec les seuils de confiance 0.90, 0.98 et 0.99 ?
Correction de l’exercice 1. Pour un grand échantillon (n = 40 > 30), l’intervalle de confiance est de la forme :
" #
(39) s s
x̄ − t1−α/2 √ , x̄ + (39)
t1−α/2 √
n−1 n−1
(39)
Niveaux de confiance t1−α/2 Limites inférieures Limites supérieures
0.9 1.685 336-0.232 = 335.768 336+ 0.232 = 336.232
0.98 2.429 336-0.334 = 335.666 336+0.334 = 336.334
0.99 2.708 336 -0.373 = 335.627 336+0.373 = 336.373
————————————————————— 22 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4
— Un tel test a pour objet de décider sur la base d’un échantillon si une caractéristique de la loi mère répond ou non
à une certaine spécification que l’on appelle hypothèse
— Dans le cadre paramétrique, les hypothèses portent sur le paramètre inconnu θ ou sur une fonction de ce paramètre
h(θ)
— Dans l’approche paramétrique la plus générale un test statistique consiste à décider d’accepter ou de rejeter une
hypothèse spécifiant que θ appartient à un ensemble de valeurs Θ0 . Cette hypothèse de référence est appelée
hypothèse nulle et est notée H0 . Au contraire on définit l’hypothèse alternative, notée H1 pour laquelle θ appartient
à Θ1 = Θ − Θ0 où Θ − Θ0 = Θ̄0 dénote le complémentaire de Θ0 par rapport à Θ et on écrit
H0 : θ ∈ Θ0 vs : H1 : θ ∈ Θ1
H0 : θ = θ0 vs H1 : θ = θ1
H0 : θ = θ0 vs H1 : θ , θ0
23
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.1. NOTIONS GÉNÉRALES
H0 : θ ∈ Θ0 vs H1 : θ ∈ Θ1
Un test pour une hypothèse H0 est une règle de décision fondée sur la valeur réalisée t d’une statistique T appelée
statistique de test.
La règle est comme suit :
— si t ∈ A on accepte H0 ,
La région A, qui est généralement un intervalle, sera appelée région d’acceptation et A région de rejet.
Deux types d’erreur possibles :
Définition 4.1. (Risque de première espèce) On appelle risque de première espèce la valeur α telle que :
La règle de décision comporte un risque β ou risque de deuxième espèce, c’est le risque de ne pas rejeter H0 alors que
H1 est vraie :
Définition 4.2. (risque de deuxième espèce) On appelle risque de deuxième espèce la valeur β telle que
β = P (ne pas rejeter H0 /H1 vraie) = Pθ1 (T ∈ A/H1 ) = P (choisir H0 /H1 vraie)
Remarques 1. La probabilité α, appelée aussi risque du client, en revanche, la probabilité β, appelée aussi risque du
fournisseur. La quantité (1 − β) est la puissance du test. Elle représente la probabilité d’accepter H1 alors que celle-ci
est vraie.
Les valeurs les plus utilisées pour α sont .05 et .01.
1. Unilatéral à gauche (figure 4.1a) : la valeur de H1 est significativement plus petite que la valeur de H0 .
2. Unilatéral à droite (figure 4.1b) : la valeur de H1 est significativement plus grande que la valeur de H0
3. Bilatéral (figure 4.1c) : la valeur de H1 est significativement différente de la valeur de H0 , soit qu’elle est plus
grande, soit qu’elle est plus petite.
————————————————————— 24 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.1. NOTIONS GÉNÉRALES
−1.64
1.64
Rejet H0 Acceptation H0 Acceptation H0 Rejet H0
5% 5%
−3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3
Test bilatéral
−1.96
1.96
Rejet H0 Acceptation H0 Rejet H0
2.5% 2.5%
−3 −2 −1 0 1 2 3
(c) H0 : µ = µ0 vs H1 : µ1 , µ0
Figure 4.1 – Région de rejet et région d’acceptation pour chaque type de test
Définition 4.3. (Puissance d’un test :) On appelle puissance d’un test la probabilité de rejeter H0 alors qu’elle est
effectivement fausse soit, dans les notations précédentes :
Définition 4.4. (Test est sans biais) On dit qu’un test est sans biais si sa puissance est supérieure ou égale à son risque
α, soit :
P(T ∈ A|H1 ) ≥ P(T ∈ A|H0 )
Définition 4.5. (Test plus puissant) On dit que le test τ1 est plus puissant que le test τ1 au niveau α si :
— il est de niveau α,
————————————————————— 25 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.1. NOTIONS GÉNÉRALES
Exemple 4.1. Deux machines A et B produisent le même type de produit, mais la machine A fournit un produit plus cher
de qualité supérieure. La qualité d’un produit se mesure à une entité aléatoire qui est de loi N(5; 1) pour la machine A
et N(4; 1) pour la machine B, et ne diffère donc que par la moyenne.
Un client achète le produit le plus cher par lots de 10 et désire développer un test pour contrôler qu’un lot donné
provient bien de la machine A. Comme accuser le producteur à tort peut avoir de graves conséquences, il doit limiter le
risque correspondant et tester
H0 : µ = 5 vs H1 : µ = 4
à un niveau 0.05 par exemple. Il semble naturel d’utiliser comme statistique de test la moyenne X̄ du lot.
Sous H0 la loi de X̄ est N(5; 1/10) et l’on a alors l’intervalle de confiance de niveau 1 − α = 0.95
h √ √ i
5 − 1.95/ 10, 5 + 1.95/ 10 , soit A = [4.38, 5.62]
D’où une puissance d’environ 1 − β = 1 − 0.115 = 0.885.** On peut obtenir un test plus puissant en prenant comme
région d’acceptation l’intervalle de probabilité 0.95 :
√
A = [5 − 1.645/ 10; +∞[
!
4.48 − 4
β = P(4.48 < X̄|H1 ) = P √ < Z = P(1.52 < Z) = 0.064
1/ 10
ce qui donne une puissance de 0.936
Exemple 4.2. On suppose que la durée de vie des lampes suit une loi normale de même écart-type σ = 100, sous les
deux hypothèses. Le meilleur estimateur de l’espérance mathématique est la statistique X̄, moyenne d’un échantillon de
taille n. C’est la variable de décision utilisée pour construire le test. On décide de contrôler un échantillon de taille
n = 25 lampes fabriquées suivant le nouveau procédé. Les deux hypothèses en présence sont :
————————————————————— 26 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES
4.2. TEST DU RAPPORT DE VRAISEMBLANCE SIMPLE
P A/H0 = 0.05 c’est-à-dire P X̄ > d = 0.05
!
X̄ − 1000 d − 1000
P X̄ > d = P U = > = 0.05
20 20
d − 1000
= 1.6449 ⇒ d ≃ 1033 heures
20
Règles de décision :
— X̄ ≥ 1033 heures, on rejette H0
L’échantillon a donné pour la statistique X̄ la valeur 1050 heures. On doit donc rejeter l’hypothèse H0 , et accepter
l’hypothèse H1 .
Le risque β de deuxième espèce est défini par :
β = P (T ∈ A/H1 ) = P X̄ < d/H1
!
X̄ − 1075 1033 − 1075
β = P(X̄ < d) = P(X̄ < 1033) = P U = < ≃ 0.0179
20 20
La probabilité de rejeter H1 alors que cette hypothèse est vraie est donc égale à 0.0179, elle est assez faible ; la puissance
du test est égale à 0.9821.
H0 : θ = θ0 vs H1 : θ = θ1
X est une variable aléatoire dont la densité f (x; θ) dépend du paramètre réel θ et X = (X1 , ..., Xn ) est un échantillon
aléatoire de taille n de cette variable. Soit la vraisemblance L(x1 , x2 , ......xn ; θ),
————————————————————— 27 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES
4.2. TEST DU RAPPORT DE VRAISEMBLANCE SIMPLE
H0 : θ = θ0 vs H1 : θ = θ1
L(x1 , x2 , ......xn ; θ0 )
( )
Ā = (x1 , x2 , ............xn / ≤ kα
L(x1 , x2 , ......xn ; θ1 )
Si L(x1 , x2 , ..., xn ; θ1 ) s’annule on a une réalisation impossible sous H1 et l’on peut choisir θ0 sans aucun risque
d’erreur.
Théorème 4.1. (historiquement : lemme de Neyman-Pearson) Le test du RV est le plus puissant quel que soit le choix
de α ∈]0, 1[.
Définition 4.7. (Statistique exhaustive) : On dit que T n est une statistique exhaustive pour θ ∈ Θ ⊆ RK si la loi
conditionnelle de (X1 , X2 , ..., Xn ) sachant T n ne dépend pas de θ
Théorème 4.3. (Théorème de factorisation.) La statistique T n = t(X1 , X2 , ..., Xn ) est exhaustive pour θ si et seulement
si la densité de probabilité (ou fonction de probabilité ) conjointe s’écrit, pour tout (x1 , x2 , ..., xn ) ∈ Rn , sous la forme :
Définition 4.8. (Statistique exhaustive minimale) On dit que la statistique T n∗ est exhaustive minimale si elle est
exhaustive et si, pour toute statistique exhaustive T n , on peut trouver une fonction u telle que T n∗ = u(T n )
Proposition 4.4. S’il existe une statistique T = t(X1 , X2 , , Xn ) exhaustive minimale à valeurs dans R, alors le rapport de
vraisemblance ne dépend de la réalisation (x1 , x2 , ..., xn ) qu’ à travers la valeur t(x1 , x2 , ..., xn ). De plus si ce rapport de
vraisemblance est une fonction monotone de t(x1 , x2 , ..., xn ) alors le test du RV se ramène à un test dont la région de rejet
est de la forme t(x1 , x2 , ..., xn ) < c si c’est une fonction croissante ou t(x1 , x2 , ..., xn ) > c si la fonction est décroissante.
Exemple 4.3. Dans le contexte de l’exemple 4.1 la fonction de vraisemblance pour µ est :
n !
Y 1 1
L(x1 , x2 , , xn ; µ) = √ exp − (xi − µ)2
i=1 2π 2
!n n
1 1 X
= √ (xi − µ) .
2
exp −
2π 2 i=1
————————————————————— 28 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES
4.2. TEST DU RAPPORT DE VRAISEMBLANCE SIMPLE
Le rapport de vraisemblance ne dépend donc des observations qu’à travers ni=1 xi . De plus comme c’est une
P
fonction croissante de (µ0 − µ1 ni=1 xi est inférieur à kα si et seulement si (µ0 − µ1 ni=1 xi < kα′ où kα′ est une autre
P P
Dans l’exemple 4.1 on a vu que, pour α = 0.05, µ0 = 5 et µ1 = 4, la région de rejet était définie par x̄ < 4.48
Proposition 4.5. Si la loi mère est dans une famille appartenant à la classe exponentielle, i.e.
n
X
d(xi ) < k si c(θ0 ) − c(θ1 ) > 0
i=1
ou
n
X
d(xi ) > k si c(θ0 ) − c(θ1 ) < 0
i=1
pour le paramètre p d’une loi de Bernoulli. Cette famille de lois appartient à la classe exponentielle et l’on a
! !
p
f (x; p) = p x (1 − p)1−x = exp ln x , x ∈ [0, 1]
1− p
p0 p1
>
1 − p0 1 − p1
————————————————————— 29 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES
4.2. TEST DU RAPPORT DE VRAISEMBLANCE SIMPLE
Pn
La statistique de test i=1 Xi ⇝ B(n, p)
k est le quantile d’ordre 0.05 de la loi B(n, p0 ).
H0 : θ ≤ θ0 vs H1 : θ > θ0
H0 : θ ≥ θ0 vsvs H1 : θ < θ0
Définition 4.9. (Test uniformément plus puissant) On dit que le test τ1 de niveau α est uniformément plus puissant que
le test τ1 au niveau α s’il est de niveau α , si τ2 est de niveau égal (ou inférieur) à α et si la fonction puissance de τ1
reste toujours supérieure ou égale à celle de τ2 , mais strictement supérieure pour au moins une valeur de θ ∈ Θ1 i.e.
pour tout
θ ∈ Θ1 , h1 (θ) ≥ h2 (θ)
et il existe
θ∗ ∈ Θ1 , h1 (θ∗ ) > h2 (θ)
Proposition 4.6. S’il existe une statistique T = t(X1 , X2 , , Xn ) exhaustive minimale à valeurs dans R et si, pour tout
couple(θ, θ′ ) tel que θ < θ′ , le rapport de vraisemblance
L(x1 , x2 , ..., xn ; θ)
L(x1 , x2 , ..., xn ; θ′ )
est une fonction monotone de t(x1 , x2 , , xn ), alors il existe un test uniformément le plus puissant pour les situations
d’hypothèses unilatérales et la région de rejet est soit de la forme t(x1 , x2 , , xn ) < k, soit de la forme t(x1 , x2 , , xn ) > k.
Une famille de densité qui vérifie les conditions de la proposition 4.6 est dite être à rapport de vraisemblance monotone.
Si elle appartient à la classe exponentielle son RV est égal à
!n n
a(θ) ′
X
exp c(θ) − c(θ ) Xi
a(θ′ ) i=1
Dans cette classe une condition nécessaire et suffisante pour remplir ces conditions est donc que c(θ) soit monotone.
De plus la fonction des observations t(x1 , x2 , , xn ) de la proposition 4.6 est ni=1 Xi , d’où la proposition suivante.
P
————————————————————— 30 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES
4.2. TEST DU RAPPORT DE VRAISEMBLANCE SIMPLE
Proposition 4.7. Si la loi mère est dans une famille appartenant à la classe exponentielle, i.e. f (x; θ) =
a(θ)b(x) exp c(θ)d(x), et si la fonction c(θ) est monotone, alors il existe un test uniformément le plus puissant pour les
situations d ?hypothèses unilatérales et la région de rejet est :
n
X
soit de la forme : d(xi ) > k
i=1
n
X
soit de la forme : d(xi ) < k
i=1
c(µ) = µ et d(x) = x. Donc le test a une région de rejet de la forme xi > k ou xi < k
Pn Pn
i=1 i=1
pour µ < µ0, la région de rejet est ni=1 xi > k′ ou encore x̄ > k”
P
√
Sous H0 , X ⇝ N(µ0 , 1⧸ n)
Pour un niveau 0,05 la constante k" est définie par :
P X > k” = α = 0.05
√
k" égale au quantile 0.95 de la loi N(µ0 , 1⧸ n), soit
1
k” = µ0 + 1.645 √
n
√ √ √ √ √
h(µ) = Pµ X > µ0 + 1.645/ n = Pµ n(X − µ) > n(µ0 + 1.645/ n − µ) = Pµ Z > 1.645 − n(µ − µ0 )
————————————————————— 31 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.3. PRINCIPAUX TESTS PARAMÉTRIQUES
Soit X, une variable aléatoire observée sur une population, suivant une loi normale et un échantillon extrait de
cette population. Le but est de savoir si un échantillon de moyenne x , estimateur de µ, appartient à une population
de référence connue d’espérance µ0 (µ0 vraie) et ne diffère de µ0 que par des fluctuations d’échantillonnage ou
bien appartient à une autre population inconnue d’espérance µ (H1 vraie).
Population inconnu : X ∼ N(µ, σ2 ) Population connu : X ∼ N(µ0 , σ20 )
Échantillon : n, X, S 2
µ,µ (4.3)
0
H0 : µ = µ0 vs H1 : µ > µ0
(4.4)
µ < µ0
(4.5)
Sous H0 , la statistique de test, commandes R et p-valeurs ( Hypothèses 4.3 ; 4.4 et 4.5) sont représentées dans le
tableau 4.1
H0 : m = m0 vs H1 : m = m1 > m0 (4.6)
√
Loi de X̄ sous H0 : N(m0 , σ/ n)
√
Loi de X̄ sous H1 : N(m1 , σ/ n
En désignant par α le risque de première espèce, la région critique est définie par :
!
k − m0
α = P( X̄ > k/H0 = P( U > √
σ/ n
La valeur u = k−m0
√
σ/ n
est lue sur la table statistique de N(0, 1), on en déduit la valeur de k et donc la région critique.
La forme de l’hypothèse H1 conduit à rejeter les valeurs trop grandes de X. Le risque de deuxième espèce β est défini
par : !
k − m1
β = P X̄ > k/H1 = P U < √ = P(U < Uβ )
σ/ n
————————————————————— 32 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.3. PRINCIPAUX TESTS PARAMÉTRIQUES
k − m1
Uβ = √
σ/ n
H0 : m = m0 vs H1 : m = m1 < m0 (4.7)
La variable de décision est encore la statistique X̄ et la région critique est définie par :
k − m0
α = P X̄ < k/H0 = P U < √ = P(U < Uα )
σ/ n
H0 : m = m0 vs H1 : m = m1 , m0 (4.8)
L’hypothèse H1 implique m1 < m0 ou m1 > m0 . La région critique est déterminée avec la même variable de décision X̄
par : !
k − m0
α = P |X̄| > k/H0 = P |U| > √ = P (|U| > u)
σ/ n
La valeur u est lue sur la table statistique . Puis, on calcule la valeur de β comme dans les cas précédents.
Exemple 4.6. On prélève, au hasard, dans une population suivant une loi normale de variance égale à 25, un échantillon
de taille n = 16.
En choisissant un risque de première espèce α = 0.05 (risque bilatéral, symétrique), quelle est la règle de décision si
l’on veut tester les hypothèses :
H0 : m = m0 = 45 vs H1 : m = m1 , 45
D’où :
k1 − 45
= −1.96
5/4
et
k2 − 45
= 1.96
5/4
K1 = 42.55, k2 = 47.45
Si on observe une moyenne de l’échantillon égale à 49. Cette valeur est en contradiction avec l’hypothèse H0 , on refuse
donc l’hypothèseH0 et on accepte l’hypothèse H1 .
————————————————————— 33 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.3. PRINCIPAUX TESTS PARAMÉTRIQUES
D’où : β = 0.1075
La probabilité de refuser l’hypothèse H1 , m1 = 49, alors qu’elle est vraie, est égale à 0.1075, la puissance du test est
égale à 0.8925.
X̄ − m
√
S/ n − 1
suit une loi de Student à (n − 1) degrés de liberté. On procède alors de façon analogue en utilisant la table de la loi de
Student.
Exemple 4.7. Un fabricant de téléviseurs achète un certain composant électronique à un fournisseur. Un accord entre
le fournisseur et le fabricant stipule que la durée de vie de ces composants doit être égale à 600 heures au moins.
Le fabricant qui vient de recevoir un lot important de ce composant veut en vérifier la qualité. Il tire au hasard un
échantillon de 16 pièces. Le test de durée de vie pour cet échantillon donne les résultats suivants :
620-570- 565- 590- 530- 625- 610- 595- 540- 580- 605- 575- 550- 560- 575- 615
Le fabricant doit-il accepter le lot ? (On choisit un risque de première espèce égal à 5%. Quel est le risque de deuxième
espèce ?
On admettra que la durée de vie de ces composants suit une loi normale. Caractéristiques de l’échantillon : x̄ = 581.60
et s = 27.90.
Les hypothèses à tester sont :
H0 : m = 600 heures vs H1 : m < 600heures
————————————————————— 34 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.3. PRINCIPAUX TESTS PARAMÉTRIQUES
Or
P t15 < −1.753 = 0.05
D’où
dc − 600
√ = −1.753 et dc = 587.40
27.90 15
La valeur de la moyenne arithmétique donnée par l’échantillon étant égale à 581.60, on doit rejeter l’hypothèse H0 .
-Risque de deuxième espèce
La forme de l’hypothèse H1 implique que l’on doit calculer le risque β pour toutes les valeurs de m < 600. On fait le
calcul pour m = 575 par exemple :
β = P( x̄ > dc /H1 )
!
x̄ − 575 587, 40 − 575
P √ > √ = P (t(15) > 1.721) ≃ 0.05
27.90 15 27.90 15
Remarque 3. Si la loi suivie par la variable aléatoire X n’est pas une loi normale, mais si la taille de l’échantillon est
supérieure à 30, on peut admettre que la loi limite est la loi normale. Si de plus l’écart-type n’est pas connu, on utilisera
la loi de Student.
————————————————————— 35 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
4.4. COMPARAISON DE LA PROPORTION THÉORIQUE À UNE VALEUR DE RÉFÉRENCE (CAS À UN
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES ÉCHANTILLON
Soit p la fréquence inconnue d’un caractère dans une population donnée. On observe des données de présen-
ce/absence de ce caractère sur les individus d’un échantillon de taille n de cette population. Les hypothèses du
test que nous considérons sont :
p,p
0 (4.11)
H0 : p = p0 vs H1 : p > p0
(4.12)
p < p0
(4.13)
La variable K suit la loi binomiale B(n ;p) avec n = 200. Soit le test
On peut utiliser l’approximation normale, en effet, np = 200 × 0.03 = 6 > 5 et n(l − p) = 200X0.97 = 194 > 5.
Paramètres de la loi normale :
————————————————————— 36 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
4.4. COMPARAISON DE LA PROPORTION THÉORIQUE À UNE VALEUR DE RÉFÉRENCE (CAS À UN
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES ÉCHANTILLON
p
La loi limite de la variable K est la loi normale N(200p; 200p(1 − p)).
0.5 − np k − np 10.5 − np
p < p < p
200p(1 − p) 200p(1 − p) 200p(1 − p)
————————————————————— 37 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
4.4. COMPARAISON DE LA PROPORTION THÉORIQUE À UNE VALEUR DE RÉFÉRENCE (CAS À UN
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES ÉCHANTILLON
Instruction R
La fonction utilisée :
prop.test()
Soit σ2 la variance d’un caractère quantitatif X, avec X ∼ N(µ, σ2 ). Les hypothèses du test sont :
σ,σ (4.16)
0
H0 : σ = σ0 vs H1 : σ > σ0
(4.17)
σ < σ0
(4.18)
H0 : σ = σ 0 vs H1 : σ = σ1 > σ0 (4.19)
La variable aléatoire
n
1 X
(Xi − m)2
σ2 i=1
n
1X
D= (Xi − m)2
n i=1
————————————————————— 38 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
4.4. COMPARAISON DE LA PROPORTION THÉORIQUE À UNE VALEUR DE RÉFÉRENCE (CAS À UN
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES ÉCHANTILLON
H0 : σ = σ 0 vs H1 : σ = σ1 < σ0 (4.20)
La moyenne m n’est pas connue, elle doit donc être estimée. La statistique de décision est la statistique :
n
1X
S2 = (Xi − X̄)2
n i=1
La variable aléatoire nS 2 ⧸σ2 ⇝ χ2 (n − 1) et les différents tests s’étudient comme dans le cas précédent.
Exemple 4.9. On veut contrôler la précision d’une balance au bout d’un an de fonctionnement.
Si on pèse un poids de 1g, on peut considérer que l’observation est la réalisation d’une variable aléatoire suivant une
loi normale d’espérance mathématique m = 1g (la balance est juste) et d’écart-type σ0 = 1.2mg. Si au bout d’un an de
fonctionnement, on constate quel’ écart-type σ est supérieur à σ0 , la précision de la balance a diminué.
On veut tester (seuil critique α = 0.10, taille de l’échantillon n = 10) :
H0 : σ0 : σ0 = 1.2mg vs H1 : σ1 = 1.5mg
————————————————————— 39 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES
4.5. PARAMÉTRIQUES
TESTS DE COMPARAISON D’ÉCHANTILLONS (2 ÉCHANTILLONS
nk
= 15.987, n = 10, σ0 = 1.2 =⇒ k = 2.3
σ20
Exemple 4.10. Une usine fabrique des boîtes de conserve de poids µ avec une précision σ2 = 10. On veut montrer que la
chaîne de production est déréglée (précision différente de σ2 = 10). Voici les poids d’une série de vingt boîte de conserve.
165.1,171.5,168.1,165.6,166.8,170.0,168.8,171.1,168.8,173.6,163.5,169.9,165.4,174.4,171.8, 166.0,174.6,174.5,166.4,173.8
1. un échantillon E1 de n1 individus de P1 ,
2. un échantillon E2 de n2 individus de P2 .
————————————————————— 40 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES
4.5. PARAMÉTRIQUES
TESTS DE COMPARAISON D’ÉCHANTILLONS (2 ÉCHANTILLONS
Descriptif du test
On considère deux variables quantitatives X1 et X2 (qui mesurent la même caractéristique, mais dans deux
populations différentes). On suppose que X1 a pour moyenne théorique µ1 et pour variance σ21 et X2 a pour
moyenne théorique µ1 et pour variance σ22 . A partir des estimations calculées sur deux échantillons de tailles
respectives n1 et n2 issus des deux populations, on veut comparer µ1 et µ2 .
Les hypothèses du test sont :
1. Pour la moyenne
µ ,µ (4.23)
1 2
H0 : µ1 = µ2 vs H1 : µ1 > µ2
(4.24)
µ1 < µ2
(4.25)
2. Pour la variance σ2
H0 : σ21 = σ22 , vs H1 : σ21 , σ22 (4.26)
A) Comparaison des moyennes de deux échantillons gaussiens indépendants, les variances étant connues
Soient N(mi , σi ), les lois suivies par les deux populations (i = 1 ou 2). La variable aléatoire D = X1 − X2 suit alors la
loi normale s
σ21 σ22
U ∼ N(m1 − m2 , σD ) avec σD = +
n1 n2
D − (m1 − m2 )
U=
σD
Soit l’hypothèses :
H0 : m1 = m2 vs H1 : m1 , m2
Exemple 4.11. On dispose de deux échantillons de tubes, construits suivant deux procédés de fabrication A et B. On a
mesuré les diamètres de ces tubes et on a trouvé (en millimètres) :
Procédé A : 52.80 52.90 51.90 50.90 53.40
Procédé B : 52.10 51.30 51.50 51.10
On suppose que les diamètres sont distribués suivant une loi normale et que les écarts- types sont égaux à : σA = 1mm
et σB = 0.45mm.
Peut-on affirmer au niveau 5 % qu’il y a une différence significative entre les procédés de fabrication A et B ?
————————————————————— 41 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES
4.5. PARAMÉTRIQUES
TESTS DE COMPARAISON D’ÉCHANTILLONS (2 ÉCHANTILLONS
Soient XA et XB , les variables aléatoires « diamètres des cubes fabriqués suivant les procédés A et B ».
√
Loi de XA : N(mA , 1), Loi de XA : N(mA , 1/ 5)
√
Loi de XB : N(mB , 1), Loi de XB : N(mB , 1/ 5)
Avec les données apportées par les échantillons, on obtient pour la moyenne des deux échantillons XB = 52.38 et
XA = 51.50. d = 52.38 − 51.50 = 0.88
B) Comparaison des moyennes de deux échantillons gaussiens indépendants, les variances n’étant pas
connues mais supposées égales
H1 : m1 , m2 , σ1 , σ2
Comme les populations sont gaussiennes, on sait que (chapitre 2 : section 2.6)
σ21
ni S 12 ⧸(ni − 1) = σ̂2i , ⇝ F(n1 − 1, n2 − 1)
σ22
————————————————————— 42 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES
4.5. PARAMÉTRIQUES
TESTS DE COMPARAISON D’ÉCHANTILLONS (2 ÉCHANTILLONS
Donc, sous l’hypothèse H0 , le rapport des estimateurs sans biais des deux variances est une variable aléatoire de Fisher.
Les conclusions du test sont obtenues en calculant le rapport :
F = n1 S 12 ⧸(n1 − 1) × n2 S 22 ⧸(n2 − 1)
B).2 Test de comparaison de deux moyennes ou test des espérances de Student Si le test de Fisher-
Snedecor a permis de conclure à l’égalité des variances des deux populations, la variable de décision D = X1 − X2 suit la
loi normale de paramètres :
1 1
E(D) = m1 − m2 , V(D) = σ2 ( + )
n1 n2
La variable aléatoire : √
X1 − X2 − (m1 − m2 ) n1 + n2 − 2
q × q
n1 + n2
P n1 2 + n2 (X − X )2
P 1 1
i=1 (Xi − X1 ) i=1 i 2
Remarque 4. Remarque Il est indispensable de tester d’abord l’égalité des variances pour appliquer le test de Student.
Exemple 4.12. On reprend les données numériques de l’exemple 4.11, en supposant que les variances sont inconnues.
- Estimations non biaisées des variances : σˆ2 = 0.977, σˆ2 = 0.977,
A B
D’où :
σ2A
= 5.2246
σ2B
P(0.10 < F(4; 3) < 15.1) = 0.95
Donc, au seuil critique égal à 5 %, on ne peut pas refuser l’hypothèse de l’égalité des variances des deux populations.
-Test de Student de comparaison des moyennes :
La variable aléatoire √
X1 − X2 − (m1 − m2 ) nA + n B − 2
Z = qP × q
nA + n B
n1 2 + nB (x − x )2 1 1
P
i=1 (x i − x A ) i=1 i B
Si mA = mB , la variable Z = 1.642 . Donc, on ne peut pas rejeter l’hypothèse d’égalité des moyennes.
————————————————————— 43 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES
4.5. PARAMÉTRIQUES
TESTS DE COMPARAISON D’ÉCHANTILLONS (2 ÉCHANTILLONS
Instruction R
les fonctions utilisées selon le cas sont :
Table 4.6 – Commandes R pour calculer les p-valeurs ( Hypothèses 4.23,4.24,4.25 et 4.26)
————————————————————— 44 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.6. COMPLÉMENTS
4.6 Compléments
L’examen de la loi de probabilité empirique associée à un échantillon dont la loi parente est inconnue permet de
choisir parmi les lois usuelles celle qui lui « ressemble » . Si notre choix s’oriente vers une certaine loi P de fonction
de répartition F, on pourra retenir l’hypothèse que l’échantillon provient de cette loi si la distance entre la fonction de
répartition théorique F et la fonction de répartition empirique Fn est faible
Si l’événement d(Fn , F) < C est réalisé, alors je retiens l’hypothèse qu’il s’agit d’un échantillon de la loi de fonction de
répartition F ». On peut cependant se tromper en rejetant cette hypothèse alors que F est bien la fonction de répartition
des variables de l’échantillon ; cette erreur se produit avec une probabilité qui est α = P (d(Fn , F) > C).
Ce test est à retenir si les données sont discrètes, avec des valeurs possibles notéesxi , de probabilité pi pour 1 ≤ i ≤ k
ou si les données individuelles ne sont pas fournies, mais ont été réparties en classes (ai , ai+1 ) dont les fréquences
théoriques sont calculées à partir de la loi théorique postulée :
Si Ni est le nombre (aléatoire) d’observations xi , ou appartenant à la classe (ai , ai+1 ) , nous allons le comparer à l’effectif
théorique qui est npi
Ni ⇝ B(n, pi )
————————————————————— 45 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.6. COMPLÉMENTS
P(X > cα ) = α
d(Fn , F) > cα
Exemple 4.13. Ayant demandé à dix personnes de fournir chacune dix chiffres choisis au hasard, on souhaite savoir si
effectivement les cent chiffres obtenus forment bien une distribution au hasard. L’hypothèse à tester ici est donc celle
d’une loi uniforme discrète sur l’ensemble des dix chiffres {0, 1, ..., 9} , donc avec des probabilités égales pour chacune
de ces valeurs, pi = 1/10 pour i = 0, 1, ..., 9. Le tableau ci-après contient la distribution empirique (observée) sur la
deuxième ligne et la distribution théorique sur la troisième.
xi 0 1 2 3 4 5 6 7 8 9
Ni 10 8 9 14 8 9 11 9 12 10
npi 10 10 10 10 10 10 10 10 10 10
(Ni − npi )2 /npi 0 0.4 0.1 1.6 0.4 0.1 0.1 0.1 0.4 0
k
X (Ni − npi )2
d (F, Fn ) = = 3.2
i=1
npi
α = P (d(Fn , F) > C) = P χ2 (10) > C = 0.05
.
P χ2 (10) < C = 0.95.
donc
cα = χ29,0.95 = 16.92 > 3.2
la valeur de la distance est inférieure à cα on peut accepter l’hypothèse d’une répartition uniforme.
Exemple 4.14. On a observé pendant deux heures le nombre de voitures arrivées par minute à un poste de péage. Si X
est la v.a. représentant le nombre de voitures arrivant dans une minute à ce poste de péage, on fait l’hypothèse qu’elle
suit une loi de Poisson.
Le tableau ci-après contient les valeurs observées xi de cette variable et le nombre d’observations correspondantes Ni .
Pour calculer les probabilités théoriques pi = P(X = xi ) il faut spécifier complétement la loi, c’est-à-dire indiquer le
paramètre de cette loi de Poisson.
Le calcul de la moyenne empirique donne
n
X
x̄ = Ni xi = 444/120 = 3.7
i=1
————————————————————— 46 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.6. COMPLÉMENTS
n
X
V(X) = 1/120 Ni (xi − x̄)2 = 525.20/120 = 4.38
i=1
On retient alors la partie entière de (3.7 + 4.38)/2 = 4.038 , c’es 4 comme paramètre de cette loi de Poisson.
xi 0 1 2 3 4 5 6 7 8 9 10 11 Somme
Ni 4 9 24 25 22 18 6 5 3 2 1 1 120
npi = nP(x = xi ) 2 9 18 23 23 19 13 7 3 2 1 0
N i xi 0 9 48 75 88 90 36 35 24 18 10 11 444
(xi − x̄)2 54.76 65.61 69.36 12.25 1.98 30.42 31.74 54.45 55.47 56.18 39.69 53.29 525.20
Les valeurs des effectifs théoriques inférieures à 5 nécessitent de regrouper la première et les quatre dernières
valeurs :
xi 1 2 3 4 5 6 7 autre
Ni 9 24 25 22 18 6 5 11
npi = nP(x = xi ) 9 18 23 23 19 13 7 8
ramenant à 8 le nombre de valeurs retenues, soit 8 − 1 − 1 = 6 degrés de liberté puisqu’un paramètre a été estimé.
Le fractile d’ordre 0.95 de la loi du khi-deux à 6 degrés de liberté est C = 12.6. On obtient d(Fn , F) = 7.73 ce qui
conduit donc à accepter l’hypothèse que X suit une loi de Poisson de paramètre 4.
Pour tester l’indépendance de deux caractères X et Y, qualitatifs ou quantitatifs (répartis alors en classes), à
respectivement r et s modalités, on relève le nombre ni j d’individus d ?une population de taille
r X
X s
ni j
i=1 j=1
s
X r
X
pi. = pi j et p. j = pi j
j=1 i=1
H0 : pi j = pi. × p. j vs H1 : : pi j , pi. × p. j .
————————————————————— 47 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.6. COMPLÉMENTS
on utilise la statistique : r s
X X n2i j
r X
s
X (ni j − ni. n. j ⧸n)2
Dn = = n − 1
i=1 j=1
ni. n. j ⧸n)2 ni. n. j
i=1 j=1
Sous H0 , sa loi asymptotique, est la loi du khi-deux à (r − 1)(s − 1) degrés de liberté, les effectifs marginaux :
s
X r
X
ni. = ni j et n. j = ni j
j=1 i=1
Dn ≥ C
Exemple 4.15. Pour comparer l’efficacité de deux médicaments semblables, mais de prix très différents, la Sécurité
sociale a effectué une enquête sur les guérisons obtenues avec ces deux traitements. Les résultats sont présentés dans le
tableau suivant :
1562 442 62
!
Dn = 250 +2 4 + − 1 = 2.5
4.104 10 25.102
————————————————————— 48 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa