0% ont trouvé ce document utile (0 vote)
23 vues49 pages

Cours Stat Math

Transféré par

zerrouk.yassir
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
23 vues49 pages

Cours Stat Math

Transféré par

zerrouk.yassir
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 49

Cours de Statistique Mathématique

Ingénierie Statistique-S6: FST-Tanger

K.Boulifa

1. Lois fondamentales de l’échantillonnage

2. Estimation paramétrique ponctuelle

3. Estimation paramétrique par intervalle de confiance

4. Tests d’hypothèses

2021-2022
Table des matières

1 Lois fondamentales de l’échantillonnage 3


1.1 Phénomènes aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Moyenne, variance, moments empiriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Fonction de répartition empirique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Loi du Khi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Loi de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.6 Loi de Fisher-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Estimation paramétrique ponctuelle 7


2.1 Cadre général de l’estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Cadre de l’estimation paramétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.1 La classe exponentielle de lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Méthodes de construction d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3.1 Estimation par la méthode des moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3.2 Méthode du maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4 Propriétés d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4.1 Estimateur exhaustif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4.2 Biais d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4.3 Inégalité de Fréchet-Darmois-Cramer-Rao . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.5 Qualité d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5.1 Convergence d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3 Estimation paramétrique par intervalle de confiance 16


3.1 Méthode de la fonction pivot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2 Construction des IC classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3 IC pour une proportion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3.1 IC pour la moyenne d’une loi N(µ, σ2 ) : σ2 connu . . . . . . . . . . . . . . . . . . . . . . . 19
3.3.2 IC pour la moyenne d’une loi N(µ, σ ) : σ inconnu . . . . . . . . . . . . . . . . . . . . . .
2 2
20
3.3.3 Intervalle pour la variance d’une loi N(µ, σ2 ) : µ connue . . . . . . . . . . . . . . . . . . . . 20
3.3.4 Intervalle pour la variance d’une loi N(µ, σ ) : µ inconnue . . . . . . . . . . . . . . . . . . .
2
21
3.4 Intervalle de confiance pour la moyenne d’une loi quelconque . . . . . . . . . . . . . . . . . . . . . 22

1
4 Tests d’hypothèses paramétriques 23
4.1 Notions générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2 Test du rapport de vraisemblance simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3 Principaux tests paramétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3.1 Comparaison d’une moyenne observée et d’une moyenne théorique . . . . . . . . . . . . . . 32
A) Test sur la moyenne m : σ est connu . . . . . . . . . . . . . . . . . . . . . . . . . 32
B) Test sur la moyenne m : σ est inconnu . . . . . . . . . . . . . . . . . . . . . . . . 34
4.4 Comparaison de la proportion théorique à une valeur de référence (cas à un échantillon . . . . . . . . 36
4.4.1 Comparaison de la variance théorique à une valeur de référence (cas à un échantillon) . . . . . 38
A) Test sur l’écart-type σ : m est connu . . . . . . . . . . . . . . . . . . . . . . . . . 38
B) Test sur l’écart-type σ : m est inconnu . . . . . . . . . . . . . . . . . . . . . . . . 39
4.5 Tests de comparaison d’échantillons (2 échantillons . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
A) Comparaison des moyennes de deux échantillons gaussiens indépendants, les va-
riances étant connues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
B) Comparaison des moyennes de deux échantillons gaussiens indépendants, les va-
riances n’étant pas connues mais supposées égales . . . . . . . . . . . . . . . . . . 42
B).1 Test de l’égalité des variances ou test de Fisher-Snedecor . . . . . . . . . 42
B).2 Test de comparaison de deux moyennes ou test des espérances de Student 43
4.6 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.6.1 Tests d’adéquation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.6.2 Test du khi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.6.3 Test d’indépendance du khi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.7 La P-valeur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

2
CHAPITRE 1. LOIS FONDAMENTALES DE L’ÉCHANTILLONNAGE

CHAPITRE 1

LOIS FONDAMENTALES DE
L’ÉCHANTILLONNAGE

1.1 Phénomènes aléatoires


L’aléatoire peut être provoqué expérimentalement comme, par exemple, dans les jeux de hasard ou dans les
mécanismes de tirage au sort «d’individus» dans des «populations1» finies pour les sondages, pour le contrôle de
qualité, etc. Dans ce contexte expérimental la notion d’expérience aléatoire, point de départ de la modélisation
probabiliste, a un sens tout à fait réel.

Définition 1.1. On appelle échantillon aléatoire de taille n (en bref n-échantillon) une suite de n variables aléatoires
indépendantes et de même loi (ou v.a. i.i.d). Cette loi est appelée la loi mère de l’échantillon.

L’objectif de ce chapitre est d’étudier certaines caractéristiques de l’échantillonne aléatoire, essentiellement sa moyenne
et sa variance, en relation avec celles de la loi mère. Une telle caractéristique est une v.a. qui prend le nom de «statistique»
dans le contexte de l’échantillonnage, selon la définition suivante.

Définition 1.2. Soit X1 , X2 , ..., Xn un n-échantillon, on appelle statistique toute v.a. T n = h(X1 , X2 , ..., Xn ) fonction de
X1 , X2 , ..., Xn .

1.2 Moyenne, variance, moments empiriques


Définition 1.3. On appelle moyenne de l’échantillon ou moyenne empirique la statistique, notée X̄, définie par :

n
1X
X̄ = Xi
n i=1

————————————————————— 3 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 1. LOIS FONDAMENTALES DE L’ÉCHANTILLONNAGE
1.2. MOYENNE, VARIANCE, MOMENTS EMPIRIQUES

Définition 1.4. On appelle variance empirique la statistique, notée S̃ 2 définie par :

n
1X
S̃ 2 = (Xi − X̄)2
n i=1

Certaines relations entre les lois de ces statistiques et la loi mère


Proposition 1.1.
σ2
E(X̄) = µ, V(X̄) =
n
. En effet :  n n n

 1 X  1 X 1X
E  Xi  = E(Xi ) = µ
n i=1 n i=1 n i=1

Puis, en raison de l’indépendance des Xi :


 n  n n
 1 X  1 X 1 X 2 nσ2 σ2
V  Xi  = 2 V(Xi ) = 2 σ = 2 =
n i=1 n i=1 n i=1 n n

Proposition 1.2. La moyenne de la loi de la variance empirique est :

n−1 2
E(S̃ 2 ) = σ
n
n n
1X 1 Xh i2
(Xi − X̄)2 = Xi − µ) − (X̄ − µ)
n i=1 n i=1

=−−−−− (1.1)
n
1X
= (Xi − µ)2 − (X̄ − µ)2
n i=1

D’où
n
1X σ n−1 2
E(S̃ 2 ) = V(Xi ) − V(X̄) = σ2 − = σ
n i=1 n n

Quand on abordera l’estimation ponctuelle (chapitre 2) on dira que S̃ est un estimateur biaisée de σ2 Par anticipation
définissons l’estimateur S 2 = n−1 σ
n 2
qui est sans biais pour σ2 , c’est-à-dire E(S 2 ) = σ2 .
Définition 1.5. On appelle variance de l’échantillon la statistique

n
1 X
S2 = (Xi − X̄)2
n − 1 i=1

Si la loi mère est N(µ, σ2 ), alors X̄ est gaussienne, en tant que combinaison linéaire de gaussiennes indépendantes.
Par conséquent :
X̄ ⇝ N(µ, σ2 /n)

Proposition 1.3. Si la loi mère est gaussienne, X̄ et S 2 sont des v.a. indépendantes.

Définition 1.6. On appelle moment empirique d’ordre r, noté Mr , la statistique

n
1X r
Mr = X
n i−1 i

————————————————————— 4 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 1. LOIS FONDAMENTALES DE L’ÉCHANTILLONNAGE
1.3. FONCTION DE RÉPARTITION EMPIRIQUE

Définition 1.7. On appelle moment centré empirique d’ordre r, notée Mr′ la statistique :

n
1X
Mr = (Xi − X̄)r
n i−1

Proposition 1.4. Si la loi mère admet un moment µr d’ordre r alors :

E(Mr ) = µr
On a la formule de décentrage de la variance empirique

n n
1X 1X 2
(Xi − X̄)2 = X − X̄ 2
n i−1 n i−1 i

1.3 Fonction de répartition empirique


Définition 1.8. Pour tout x ∈ R, on appelle valeur de la fonction de répartition empirique en x, la statistique, notée
Fn (x), définie par :
n
1X
Fn (x) = I]−∞,x] (Xi )
n i=1

où I]−∞,x] est la fonction indicatrice de l’intervalle ] − ∞, x]



 1 si u ∈] − ∞, x]



I]−∞,x] (u) = 


 0 sinon

En d’autres termes Fn (x) est la v.a «proportion» des n observations X1 , X2 , ..., Xn prenant une valeur inférieure ou égale
à x. Chaque Xi ayant une probabilité F(x) d’être inférieure ou égale à x.
nFn (x) suit une loi binomiale B(n, F(x)). En conséquence Fn (x) est une v.a discrète prenant les valeurs nk , où k = 0, 1, ..., n
avec probabilités : !
k
P Fn (x) = = P (nFn (x) = k) = Ckn F(X)k (1 − F(x))n−k
n

1.4 Loi du Khi-deux



Définition 1.9. Soit Z1 , Z2 , ..., Zν une suite de variables aléatoires i.i.d. de loi N(0, 1). Alors la v.a. i=1 Zi2 suit une
loi appelée loi du Khi-deux à ν degrés de liberté notée χ2 (ν)

Proposition 1.5. La densité de la loi du Khi-deux à ν degrés de liberté est :



ν/2−1 −π/2
si 0 < x
 1
 2ν/2 Γ(ν/2) x e



fν (x) = 


si x < 0

0

Proposition 1.6. La moyenne de la loi χ2 (ν) est égale au nombre de degrés de liberté ν, sa variance est 2ν.

Comme Zi ⇝ N(0, 1), on a : E(Zi2 ) = V(Zi ) = 1, d’où E νi=1 Zi2 = ν


P 

V(Zi2 ) = E(Zi4 ) − (E(Zi2 ))2 = µ4 − 1

————————————————————— 5 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa

Or µ4 = 3, d’où V(Zi2 ) = 2 et i=1 V(Zi2 ) = 2ν

Proposition 1.7. Si T 1 ⇝ χ2 (ν1 ) et T 2 ⇝ χ2 (ν2 ), T 1 et T 2 sont indépendants, alors

T 1 + T 2 ⇝ χ2 (ν1 + ν2 )

Théorème 1.8. Soit un n-échantillon X1 , X2 , ..., Xn de loi N(µ, σ2 ) on a :

(n − 1)S 2
⇝ χ2 (n − 1)
σ2

1.5 Loi de Student


Définition 1.10. Soit Z et Q deux v.a. indépendantes telles que Z ⇝ N(0, 1) et Q ⇝ χ2 (ν). Alors la v.a.

Z
T= q
Q
ν

suit une loi appelée loi de Student à ν degrés de liberté, notée t(ν).

Proposition 1.9. Si T ⇝ t(ν) alors


E(T ) = 0, si 2 ≤ ν

ν
V(T ) = , si 3 ≤ ν
ν−2

Théorème 1.10. (Application fondamentale) Soit X1 , X2 , ..., Xn un n-échantillon de loi mère N(µ, σ2 ). Alors :

X̄ − µ
√ ⇝ t(n − 1)
S/ n

1.6 Loi de Fisher-Snedecor


Définition 1.11. Soit U et V deux v.a. indépendantes telles que U ⇝ t(ν1 ) et V ⇝ t(ν2 ) Alors la v.a.

U/ν1
F=
V/ν2

suit une loi de Fisher-Snedecor à ν1 degrés de liberté au numérateur et ν1 degrés de liberté au dénominateur, notée
F(ν1 , ν2 ). En bref on l’appellera loi de Fisher.

6
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE

CHAPITRE 2

ESTIMATION PARAMÉTRIQUE
PONCTUELLE

2.1 Cadre général de l’estimation


Soit X une v.a. associée à un certain phénomène aléatoire observable de façon répétée comme décrit en section
1.1. Notre objectif est «d’estimer» certaines caractéristiques d’intérêt de sa loi (la moyenne, la variance, la fonction de
répartition, la fonction de densité, etc.) sur la base d’une série d’observations x1 , x2 , ..., xn .
La théorie de l’estimation étudie les propriétés des estimations et des méthodes générales d’estimation comme celle dite
du «maximum de vraisemblance ». L’objectif est de comparer les lois d’échantillonnage des «estimateurs» pour établir
des préférences lorsque plusieurs choix se présentent.
Dans le cadre défini ci-dessus, soit à estimer une caractéristique c de la variable aléatoire X sur la base de la réalisation
(x1 , x2 , ..., xn ) du n-échantillon (X1 , X2 , ..., Xn ). On appellera estimateur toute statistique (donc toute fonction de
X1 , X2 , ..., Xn , voir définition 1.1) dont la réalisation après expérience est envisagée comme estimation de c. Un
estimateur se définit donc dans l’intention de fournir une estimation.
Insistons sur le fait qu’un estimateur est une variable aléatoire, alors qu’une estimation est une valeur numérique prise
par l’estimateur suite à la réalisation du n-échantillon. Si un estimateur est déterminé par une fonction h(X1 , X2 , ..., Xn ),
l’estimation correspondante est évidemment h(x1 , x2 , ...., xn ). Soit, par exemple, à estimer la moyenne E(X) de la loi
de X, un estimateur qui semble a priori naturel est la moyenne empirique X̄ qui produit une estimation x̄, moyenne
descriptive de la série des valeurs observées.

————————————————————— 7 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE
2.2. CADRE DE L’ESTIMATION PARAMÉTRIQUE

2.2 Cadre de l’estimation paramétrique


En estimation paramétrique la loi de X est réputée appartenir à une famille de lois qui peut être décrite par une forme
fonctionnelle connue soit de sa fonction de répartition, soit de sa fonction de densité dans le cas continu, soit de sa
fonction de probabilité dans le cas discret, forme dépendant d’un ou plusieurs paramètres inconnus réels.
De façon générique nous noterons θ ce paramètre ou vecteur de paramètres et F(x; θ), f (x; θ)oup(x; θ) les trois formes
fonctionnelles précitées.
L’ensemble des valeurs possibles pour θ, appelé espace paramétrique, sera noté Θ, lequel est inclus dans Rk où k est la
dimension du paramètre θ.
2
− (x−µ)
La famille des lois de Gauss est d’écrite par la famille des densités de la forme : f (x, θ) = √ 1 e 2σ2
2πσ
, pour tout x ∈ R
où intervient un paramètre (µ, σ ) de dimension 2, l’espace paramétrique étant la partie de R
2 2

n o
(µ, σ2 )/µ ∈ R, σ2 ∈ R, σ2 > 0

Définition 2.1. Un estimateur de θ est une application T n de E n dans F (E = X(Ω) ⊂ R ou RP et F ⊂ R ou Rk ) qui à


un échantillon (X1 , ..., Xn ) de la loi Pθ associe une variable aléatoire réelle (ou plusieurs dans le cas d’un paramètre
multidimensionnel) dont on peut déterminer la loi de probabilité.

La loi de la v.a. T n (X1 , ..., Xn ) dépend de celle de X, et donc de θ , et chaque réalisation T n (x1 , ..., xn ) sera une estimation
de θ.
Si θ = E(X) c’est à-dire la moyenne théorique de la loi de X et on retient donc très logiquement comme estimateur du
paramètre θ la moyenne empirique ou moyenne de l’échantillon :

n
1X
T n (X1 , ..., Xn ) = X̄n = Xi
n i=1

dans le cadre des échantillons aléatoires, la loi conjointe du n-échantillon (X1 , X2 , ..., Xn ) peut être définie par la fonction
de densité (respectivement la fonction de probabilité conjointe :

n
Y
f (x1 , x2 , .., ., xn ; θ) = f (x1 ; θ) f (x2 ; θ)... f (xn ; θ) = f (xi , θ)
i=1

où θ est le paramètre inconnu dans Θ. Dans le cas discret cette expression est la probabilité

Pθ (X1 = x1 , X2 = x2 , ..., Xn = xn ).

2.2.1 La classe exponentielle de lois

Cette classe regroupe des familles paramétriques de lois qui, de par leur forme particulière, partagent beaucoup de
propriétés dans la théorie de l’estimation ou la théorie des tests, du fait que leurs densités peuvent s’écrire sous une
même expression canonique (on parle aussi de la famille exponentielle)

————————————————————— 8 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE
2.3. MÉTHODES DE CONSTRUCTION D’UN ESTIMATEUR

Définition 2.2. Soit une famille paramétrique de lois admettant des fonctions de densité (cas continu) ou des fonctions
de probabilité (cas discret) { f (x; θ); θ ∈ Θ ⊂ Rk }. On dit qu’elle appartient à la classe exponentielle de lois si f (x; θ)
peut s’écrire :

f (x; θ) = a(θ)b(x) exp {c1 (θ)d1 (x) + c2 (θ)d2 (x) + ........ck (θ)dk (x)}, pour tout x ∈ R

Notons qu’il doit y avoir autant de termes de produits dans la partie exponentielle que de dimensions pour θ. En
particulier, si θ est de dimension 1, on a :

f (x; θ) = a(θ)b(x) exp{c(θ)d(x)}

Exemple 2.1. Loi B(n, p) avec n connu.

p
f (x; n; p) = Cnx p x (1 − p)n−x = (1 − p)n Cnx e xln 1−p , pour x = 0, 1, 2, ..., n

d’où d(x) = x . Le cas de la loi de Bernoulli B(p) est identique avec n = 1.

Exemple 2.2. Loi P(λ)

λx
f (x, λ) = e−λ , pour x ∈ N
x!
1
= e−λ e xln(λ)
x!

d’où d(x) = x.

Exemple 2.3. Loi N(µ, σ2 )

1 1 (x − µ)2
f (x; µ, σ2 ) = √ exp{− }, x ∈ R
2πσ2 2 σ2
1 µ2 1 µ
= √ exp{− }exp{− 2 x2 + 2 x}
2πσ2 2σ2 2σ σ

d’où d1 (x) = x2 et d2 (x) = x.

2.3 Méthodes de construction d’un estimateur

2.3.1 Estimation par la méthode des moments

Nous commençons par le cas d’un paramètre à une dimension. Pour une réalisation x1 , x2 , ..., xn de l’échantillon la
méthode consiste alors à choisir pour estimation de θ la valeur telle que la moyenne théorique µ(θ) (ou premier moment
de la loi) coïncide avec la moyenne empirique x̄.
Pour un paramètre de dimension 2 l’estimation résulte de la résolution de deux équations, l’une reposant sur le premier
moment, l’autre sur le moment d’ordre 2.
Prenons le cas de la loi de Gauss avec (µ, σ2 ) comme paramètre, dont le premier moment est µ lui-même et le moment

————————————————————— 9 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE
2.3. MÉTHODES DE CONSTRUCTION D’UN ESTIMATEUR

d’ordre 2 est E(X 2 ) = µ2 + σ2







 E(X) = µ

n

 1X 2
2
= µ 2
+ σ 2
=


 E(X ) X
n i=1 i


d’où 




 µ̂ M = X̄

n

 1X 2
σ̂ 2,M
= X − X̄ 2 = S̃ 2



n i=1 i


La moyenne et la variance théoriques sont donc estimées naturellement par la moyenne et la variance empiriques.
D’une façon générale l’estimation de θ de dimension 2 par la méthode des moments est la solution du système :

µ(θ) = x̄



.



µ2 (θ) = 1 Pn
xi2



n i=1

Il est équivalent de résoudre :


µ(θ) = x̄



.



σ2 (θ) = s̃2


d’où la deuxième équation porte donc sur les moments centrées d’ordre 2.

2.3.2 Méthode du maximum de vraisemblance

La vraisemblance L(x1 , ..., xn ; θ) représente la probabilité d’observer le n-uple (x1 , ..., xn ) pour une valeur fixée de θ.
Dans la situation inverse ici où on a observé (x1 , ..., xn ) sans connaître la valeur de θ. on va attribuer à θ la valeur qui
paraît la plus vraisemblable, compte tenu de l’observation dont on dispose.
Définition 2.3. On appelle vraisemblance (likelihood) de l’échantillon (X1 , ..., Xn ) la loi de probabilité de ce n-uple,
notée L(x1 , ..., xn ; θ) , et définie par :
n
Y
L(x1 , ..., xn ; θ) = P(Xi = xi |θ)
i=1

si X est une v.a. discrète, et par :


n
Y
L(x1 , ..., xn , θ) = f (xi , θ)
i=1

si X est une v.a. continue de densité f (x, theta).

Définition 2.4. On appelle estimateur du maximum de vraisemblance (emv) toute fonction θ̂n de (x1 , ..., xn ) qui vérifie :

L(x1 , ..., xn , θ̂n ) = max L(x1 , ..., xn , θ)


θ∈Θ

La recherche de l’emv peut se faire directement par recherche du maximum de L , ou dans le cas particulier où la
∂L ∂2 L
fonction L est deux fois dérivable par rapport à θ, comme solution de l’équation ∂θ = 0 qui vérifie aussi ∂2 θ
< 0.
Cependant, la vraisemblance se calculant à partir d’un produit, on préfère remplacer ce dernier problème par le problème
∂ ln L
équivalent pour la log-vraisemblance, puisque la fonction ln est strictement croissante ∂θ = 0 qui vérifie aussi
∂2 ln L
∂2 θ
< 0.

————————————————————— 10 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE 2.4. PROPRIÉTÉS D’UN ESTIMATEUR

Remarquons enfin que si θ̂n est un emv du paramètre θ , alors g(θ̂n ) est un emv du paramètre g(θ) pour toute fonction g
strictement croissante.

Exemple 2.4. Soit X une v.a. de loi exponentielle de paramètre 1θ , avec θ > 0 de densité pour x > 0 :

1 −x
f (x; θ) = e θ
θ

nous avions obtenu dans l’exemple 2.8


n
∂ln L n 1 X
=− + 2 xi
∂θ θ θ i=1

qui s’annule en changeant de signe pour


1
θ= Xi = xn
n

avec :
n
∂2 ln L n 2 X n
= − xi = 3 (θ − 2xn )
∂2 θ θ2 θ3 i=1 θ

pour θ = xn :
∂2 ln L
!
n
=−
∂2 θ θ=xn θ2

donc l’emv est θ̂n = X n

2.4 Propriétés d’un estimateur


il se peut que pour certains problèmes on ait le choix entre plusieurs estimateurs et il va donc falloir aussi définir un
critère de comparaison pour déterminer quel est le meilleur

2.4.1 Estimateur exhaustif


Propriété 2.1. Si L(x1 , ..., xn ; θ) désigne la vraisemblance de X, nous avons alors, pour tous les (x1 , ..., xn ) ∈ Rn , t =
T (x1 , ..., xn ), θ ∈ Θ
L(x1 , ..., xn ; θ) = g(t, θ)h(x1 , ..., xn ; t; θ)

Définition 2.5. Un estimateur (ou plus généralement une statistique) T est un estimateur exhaustif pour le paramètre θ
si, pour tout n ∈ N nous avons :
L(x1 , ..., xn ; θ) = g(t, θ)h(x1 , ..., xn ; t)
Exemple 2.5. X une v.a suit une loi de poisson de paramètre λ
T (X1 , ....Xn ) = X̄ = n1 ni=1 Xi est un estimateur de λ, soit T (x1 , ....xn ) = x̄ = t
P

n
Y Pn 1
L(x1 , ..., xn ; λ) = L(xi ; λ) = λ i=1 xi
exp(−nλ) × Qn
i=1 i=1 xi !

Pn
g(t, θ) = λ i=1 xi
exp(−nλ)

1
h(x1 , ..., xn ; t) = Qn
i=1 xi !

————————————————————— 11 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE 2.4. PROPRIÉTÉS D’UN ESTIMATEUR

2.4.2 Biais d’un estimateur


Définition 2.6. Un estimateur T n de θ est dit sans biais si pour tout θ de Θ et tout entier positif n :

Eθ (T n ) = θ

Exemple 2.6. Si le paramètre à estimer est la moyenne théorique de la loi, i.e. θ = E(X), l,estimateur naturel est la
moyenne empirique T n = X̄

Définition 2.7. Un estimateur T n de θ est dit asymptotiquement sans biais si pour tout θ de Θ

Eθ (T n ) → θ quand n → +∞

Exemple 2.7. Si le paramètre à estimer est la variance théorique de la loi, i.e. θ = V(X) = σ2 , l’estimateur naturel est

n θ. Donc S̃ est
la variance empirique T n = S̃ 2 = 1n ni=1 (Xi − X̄)2 et nous avons vu dans le chapitre 1 que Eθ (T n ) = n−1 2
P

un estimateur asymptotiquement sans biais de θ.


Nous avons vu aussi que Eθ = V(X) = θ. S 2 = n−1 θ
n
est la variance empirique modifiée qui est donc toujours un
estimateur sans biais de la variance théorique, quelle que soit la loi de probabilité de la variable X.

2.4.3 Inégalité de Fréchet-Darmois-Cramer-Rao

Nous allons voir que dans certaines conditions il existe une borne inférieure pour l’ensemble des variances des
estimateurs sans biais, si cette borne est atteinte par un estimateur, il deviendra le meilleur et sera qualifié d’optimal
dans la classe des estimateurs sans biais.
Le théorème suivant va préciser la borne inférieure pour la variance des estimateurs sans biais, sous certaines hypothèses
relatives à la loi de probabilité de X et que nous appellerons hypothèses de Cramer-Rao. L’énoncé du théorème fait
intervenir la notion de quantité d’information de Fisher qui est définie par :

!2
∂ ln L
In (θ) = Eθ
∂θ

Théorème 2.1. Sous les hypothèses de Cramer-Rao, en particulier si E = X(Ω) est indépendant du paramètre à estimer
θ , pour tout estimateur sans biais T n de θ on a :

1
Vθ (T n ) ≥ = BF (θ)
In (θ)

La quantité BFθ est la borne inférieure de Cramer-Rao. Si E = X(Ω) est indépendant du paramètre à estimer θ, la
quantité d’information de Fisher est :
∂2 ln L
!
In (θ) = Eθ − 2
∂ (θ)

Exemple 2.8. Soit X une v.a. de loi exponentielle de paramètre 1θ , avec θ > 0 de densité pour x > 0 :

1 −x
f (x; θ) = e θ
θ

————————————————————— 12 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE 2.4. PROPRIÉTÉS D’UN ESTIMATEUR

La vraisemblance admet ici pour expression :

n
Y 1 (− 1 Pni=1 xi )
L(x1 , ..., xn , θ) = f (xi ; θ) = e θ
i=1
θn

Pour calculer la quantité d’information de Fisher nous écrivons la logvraisemblance

n
1X
ln L(x1 , ..., xn , θ) = −n ln θ − xi
θ i=1

Nous dérivons par rapport au paramètre θ :

n
∂ln L n 1 X
=− + 2 xi
∂θ θ θ i=1

En élevant au carré :   n 2 
!2 n
∂ln L 1 n2 − 2 n
 X 1 X  
= 2 xi + 2  xi  
∂θ θ  θ i=1 θ i=1  

Si on pose S n =
Pn
i=1 xi on obtient :

!2
∂ln L
" #
1 2 n 1
In (θ) = Eθ = n − 2 E (S
θ n ) + E (S
θ n
2
)
∂θ θ2 θ θ2

Avec
Eθ (S n ) = nEθ (X) = nθ

Eθ (S n2 ) = Vθ (S n ) + Eθ2 (S n ) = nVθ (X) + n2 θ2 = n(n + 1)θ2

on obtient :
n
In (θ) =
θ2

Comme X(Ω) = R+ est indépendant de θ, on peut utiliser la seconde expression de la quantité d’information de Fisher,
calculée à partir de :
∂2 ln L n 2
= 2 − 3Sn
∂2 (θ) θ θ

ce qui permet d’obtenir plus facilement :

∂2 ln L
!
n nθ n
In (θ) = Eθ − 2 =− 2 +2 3 = 2
∂ (θ) θ θ θ

Exemple 2.9. Loi exponentielle sur [θ, +∞[



si x ≥ θ
 −(x−θ)
e



f (x; θ) = 



0

 sinon

————————————————————— 13 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 2. ESTIMATION PARAMÉTRIQUE PONCTUELLE 2.5. QUALITÉ D’UN ESTIMATEUR

La vraisemblance s’écrit :
n
 n 
Y  X
L(x1 , ..., xn ; θ) = exp − (xi − θ)


i=1 i=1

. Si tous les xi sont plus grands que θ, on a alors :

n
X
ln L(x1 , ..., xn ; θ) = − xi + nθ
i=1

. d’où
∂ln L
=n
∂θ

et !2
∂ln L
In (θ) = Eθ = n2
∂θ

Remarque 1.
∂2 ln L ∂2 ln L
!
=0 et Eθ − = 0 , In (θ)
∂2 θ ∂2 θ

ne coïncide pas avec la valeur de la quantité d’information de Fisher, ce qui s’explique par le fait que X(Ω) = [θ, +∞[
dépend du paramètre à estimer θ.

2.5 Qualité d’un estimateur


La qualité d’un estimateur va se mesurer à l’aide d’une distance au paramètre qui peut être par exemple |T n − θ| ou
(T n − θ)2 .
Pour obtenir un indicateur, on calcule l’erreur quadratique moyenne définie pour tout θ par :

EQ(T n ) = Eθ (T n − θ)2 = Vθ (T n ) + b2n (θ)

Si on se place dans la classe des estimateurs sans biais, on pourra comparer deux estimateurs T n et T n′ de cette classe par
leur variance qui mesure alors leur dispersion par rapport au paramètre qui est leur espérance commune. Nous dirons
que l’estimateur T n est plus efficace que T n′ si pour tout θ de Θ et pour une taille d’échantillon n > N.

Vθ (T n ) ≤ Vθ (T n′ )

Définition 2.8. (Estimateur efficace :) Un estimateur sans biais T n est dit efficace si sa variance est égale à la borne
inférieure de FDCR
1
Vθ (T n ) =
In (θ)
Exemple 2.10. Reprenons l’exemple 2.8.
Comme Eθ (X) = θ et T n = X̄ est un estimateur sans biais et convergent, et de plus

V(X) θ2 1
Vθ (T n ) = V(θ)(X¯n ) = = =
n n In (θ)

————————————————————— 14 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
donc cet estimateur est aussi efficace.

2.5.1 Convergence d’un estimateur


Définition 2.9. Un estimateur Tn est convergent si la suite de v.a. (T n ) converge en probabilité vers la valeur du
paramètre, c’est-à-dire pour tout θ de Θ :

T n → p θ ⇔Pθ (|T n − θ| < ϵ) → 1, ∀ϵ > 0, n → ∞

⇔Pθ (|T n − θ| > ϵ) → 0

Théorème
 2.2. Tout estimateur sans biais dont la variance tend vers zéro est convergent :
 Eθ (T n ) = θ



⇒ T n → θ quant n → ∞



 Vθ (T n )→ 0

Exemple 2.11. Si θ = E(X) , ce paramètre est estimé sans biais par T n = Xn .

Vθ (T n) = V(X)/n donc Vθ (T n ) → 0 quand n → ∞

T n est convergent

Théorème 2.3. Tout estimateur asymptotiquement sans biais dont la variance tend vers zéro est convergent :
Eθ (T n )→ θ
⇒ T n → θ quant n → ∞
Vθ (T n )→ 0

15
CHAPITRE 3. ESTIMATION PARAMÉTRIQUE PAR INTERVALLE DE CONFIANCE

CHAPITRE 3

ESTIMATION PARAMÉTRIQUE PAR


INTERVALLE DE CONFIANCE

Définition 3.1. Soit X1 , X2 , , Xn un échantillon aléatoire issu d’une loi de densité (ou fonction de probabilité) f (x; θ) où
θ ∈ Θ est un paramètre inconnu de dimension 1. On appelle procédure d’intervalle de confiance de niveau 1 − α tout
couple de statistiques (T 1 , T 2 ) tel que, quel que soit θ ∈ Θ, on ait :

Pθ (T 1 ≤ θ ≤ T 2 ) ≥ 1 − α.

En pratique on choisira 1 − α assez élevé : couramment 1 − α = 0.95. Ainsi, il y a une forte probabilité pour que
l’intervalle à bornes aléatoires [T 1 , T 2 ] contienne la vraie valeur de θ

Exemple 3.1. Prenons l’exemple d’une loi mère gaussienne N(0, 1) le centrage de la moyenne empirique du n-
échantillon :
X−µ
∼ N(0, 1)
√1
n

d’où  
 X − µ 
P −1.96 < 1 < 1.96 = 0.95, avec α = 0.05

n

 
 X − µ   √ √ 
P −1.96 < 1 < 1.96 = P −1.96/ n < X − µ ≤ 1.96/ n

n
 √ √ 
= P −1.96/ n < µ − X < 1.96/ n (3.1)
 √ √ 
= P X − 1.96/ n < µ < 1.96/ n + X

= 0.95

h √ √ i
et ceci quel que soit µ, ce qui prouve que X − 1.96/ n, 1.96/ n + X constitue une procédure d’intervalle de confiance

————————————————————— 16 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 3. ESTIMATION PARAMÉTRIQUE PAR INTERVALLE 3.1.
DE CONFIANCE
MÉTHODE DE LA FONCTION PIVOT

(IC) de niveau 1 − α = 0.95

Définition 3.2. Dans le contexte de la définition 3.1, soit x1 , x2 , , xn une réalisation de X1 , X2 , , Xn conduisant à la
réalisation (t1 , t2 ) de (T 1 , T 2 ). Alors l’intervalle [t1 , t2 ] est appelé intervalle de confiance de niveau α pour θ et l’on
note : IC1−α = [t1 , t2 ]

Supposons que dans l’exemple 3.1, avec un échantillon de taille 9, on ait observé la valeur 6 pour la moyenne de cet
échantillon, alors : " #
1.96 1.96
IC0.95 = 6 − √ ; 6 + √ ≃ [5.35; 6.65].
9 9
Remarque 2. S’il s’agit d’estimer une fonction h(θ) bijective, par exemple strictement croissante, du paramètre θ, il
suffit de prendre l’intervalle [h(t1 ), h(t2 )].

3.1 Méthode de la fonction pivot


Définition 3.3. Soit le contexte de la définition 3.1 Une fonction g(X1 , X2 , , Xn ; θ) est appelée fonction pivot si : la loi de
g(X1 , X2 , , Xn ; θ) est connue et ne dépend pas de θ, pour tous réels µ1 et µ2 tels que µ1 ≤ µ2 et tout (x1 , x2 , , xn ) ∈ Rn la
double inégalité
µ1 ≤ g(x1 , x2 , , xn ; θ) ≤ µ2

peut se résoudre (ou «pivoter») en θ selon :

t1 (x1 , x2 ........xn ) ≤ θ ≤ t2 (x1 , x2 , ...........xn )

X−µ
Dans l’exemple 3.1, la variable aléatoire √1
était une fonction pivot car pour toute valeur x on peut résoudre l’inégalité :
n

x−µ
µ1 < < µ2
√1
n


√ √
x − µ2 / n < µ < x − µ1 / n

3.2 Construction des IC classiques


Le point de départ est fourni par un estimateur T n du paramètre θ , construit à partir d’un échantillon (X1 , ..., Xn ) et
dont on connaît la loi en fonction de θ, ce qui va permettre de déterminer les valeurs t1 = t1 (θ) et t2 = t2 (θ) telles que :

Pθ [t1 (θ) < θ < t2 (θ)] = 1 − α

En utilisant la méthode de la fonction pivot on obtient

Pθ [a(T n ) < θ < b(T n )] = 1 − α

————————————————————— 17 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 3. ESTIMATION PARAMÉTRIQUE PAR INTERVALLE DE CONFIANCE
3.3. IC POUR UNE PROPORTION

Posons
α1 = Pθ [θ > b(T n )] et α2 = Pθ [θ < a(T n )] .

Les différents choix possibles sont les suivants.

A- Intervalle bilatéral : α1 α2 > 0

— Symétrique : α1 = α2 = α/2

— Dissymétrique : α1 , α2
Seules des raisons très particulières peuvent permettre de fixer les valeurs de α1 et α2 telles que α1 + α2 = α

B-Intervalle unilatéral : α1 α2 = 0

— Unilatéral à droite :α1 = 0, α2 = α


par exemple θ est la résistance d’un matériau qui doit être supérieure à un seuil minimum, qui conduit à un
intervalle de la forme θ > a(T n )

— Unilatéral à gauche α1 = α, α2 = 0
Si par exemple le paramètre est une proportion de défectueux dans un lot, ou un taux d’impuretés, on souhaite
qu”il soit inférieur à un seuil maximum, d’où un intervalle de la forme θ < b(T n )

3.3 IC pour une proportion


Supposons que l’on ait effectué un sondage pour déterminer les intentions de vote pour un certain candidat à une
élection présidentielle. A chaque individu interrogé, on associe une variable de Bernoulli qui prend la valeur 1 si cet
individu i déclare vouloir voter en faveur de ce candidat :

i = 1, 2, ............n

1 p



Xi = 


q=1− p

0

Le paramètre p de cette loi de Bernoulli représente la proportion, dans la population

n
1X
p̂ = Xi
n i=1

est un estimateur de P sans biais et convergent


p̂ est-il efficace ?
La vraisemblance s’écrit
n
Y
L(x1 , x2 , , ...............xn , p) = p xi (1 − p)(1−xi )
i=1

en dérivant ln L et on trouve
∂ ln L (1 − p)sn − (n − sn )p
=
∂p p(1 − p)

————————————————————— 18 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 3. ESTIMATION PARAMÉTRIQUE PAR INTERVALLE DE CONFIANCE
3.3. IC POUR UNE PROPORTION

n
∂ ln L sn X
= 0 pour p = , avec sn = xi
∂p n i=1

∂2 ln L sn n − sn
=− 2 − <0
∂p 2 p (1 − p)2

puisque sn ≤ n. Donc pˆn = S n /n est l’emv de p .


la quantité d’information de Fisher
n
In (p) =
p(1 − p)
p(1 − p) 1
E( pˆn ) = p, V( p̂) = =
n In (p)

Donc pˆn est efficace.


En utilisant la loi asymptotique de p̂, déduite du théorème central limite :

√ pˆn − p loi
n √ → N(0, 1)
pq
!
pˆn − p
P −z1−α/2 < √ < z1−α/2 = 1 − α
pq

α = 0.05, soit z1−α/2 = 1.96


d’où r r !
pq pq
P pˆn − 1.96 < p < pˆn + 1.96 =1−α
n n

Remplaçant p par pˆn et on déduit une intervalle de confiance pour p


 r r 
pˆn (1 − pˆn ) pˆn (1 − pˆn ) 
=  pˆn − 1.96 , pˆn + 1.96

IC1−α  
n n

3.3.1 IC pour la moyenne d’une loi N(µ, σ2 ) : σ2 connu

On utilise la moyenne empirique Xn = Xi avec Xn ∼ N(µ, σ2 /n)


Pn
i=1

√  Xn − µ 
 
Xn ∼ N(µ, σ2 /n) ⇒ n   ∼ N(0, 1)
σ

√  Xn − µ 
   
 ≤ z1−α/2  = 1 − α
 
P −z1−α/2 ≤ n 
σ

σ σ
!
P Xn − z1−α/2 √ ≤ µ ≤ Xn + z1−α/2 √ = 1 − α
n n
il s’agit de l’intervalle aléatoire
σ σ
" #
Xn − z1−α/2 √ , Xn + z1−α/2 √
n n
Ainsi, l’IC est donné par
σ σ
" #
IC1−α = xn − z1−α/2 √ , xn + z1−α/2 √
n n

————————————————————— 19 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 3. ESTIMATION PARAMÉTRIQUE PAR INTERVALLE DE CONFIANCE
3.3. IC POUR UNE PROPORTION

où xn est l’estimation ponctuelle de µ

3.3.2 IC pour la moyenne d’une loi N(µ, σ2 ) : σ2 inconnu

Nous abordons le cas où (µ, σ2 ) est un paramètre de dimension 2 inconnu, mais nous nous intéresserons ici
uniquement à un encadrement pour µ indépendamment de σ2 . Rappelons le résultat du théorème 1.10

X̄ − µ
√ ⇝ t(n − 1)
S / n approx

X̄ − µ
!
(n−1)
P −t1−α/2 < √ < t1−α/2 = 1 − α
(n−1)
S/ n

où tα(n−1) est la notation adoptée pour le quantile d’ordre α de la loi de Student à (n-1) d.d.l. (degrés de liberté) Il s’ensuit
que :
 (n−1) √ √ 
P X̄ − t1−α/2 S / n < µ < X̄ + t1−α/2
(n−1)
S/ n = 1 − α

et le résultat très classique : " #


s (n−1) s
IC1−α (µ) = x̄ − (n−1)
t1−α/2 √ , x̄ + t1−α/2 √
n n
Exemple 3.2. Sur un échantillon de n = 30 durées de vie d’un certain modèle de lampe on a obtenu comme moments
empiriques x̄ = 2000h et s = 300h . L’intervalle de confiance de niveau 0.95 pour la durée de vie moyenne µ est donc :
" #
300 (29) 300
IC0.95 (µ) = 2000 − (29)
t0.975 √ , 2000 + t0.975 √
30 30

α = 0.05, 1 − α/2 = 0.975 (29)


et t0.975 = 2.045

d’où l’intervalle :
IC0.95 (µ) = [1888, 2112]

3.3.3 Intervalle pour la variance d’une loi N(µ, σ2 ) : µ connue

L’estimateur de σ2 , basé sur l ?échantillon (X1 , ..., Xn ) de cette loi N(µ, σ2 ) , est :

n
1X
σ̂2 = (Xi − µ)2
n i=1

estimateur sans biais, convergent et efficace, de loi connue

nσ̂2 ⧸σ2 ⇝ χ2n

a et b sont les bornes de l’intervalle de probabilité pour nσ̃2 ⧸σ2

nσ̂2
!
P a< < b =1−α
σ2

————————————————————— 20 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 3. ESTIMATION PARAMÉTRIQUE PAR INTERVALLE DE CONFIANCE
3.3. IC POUR UNE PROPORTION

On peut prendre la borne a égale au quantile d’ordre α/2 et la borne b égale au quantile d’ordre 1 − α/2 pour la loi du
χ2 (n).
L’intervalle de confiance pour σ2 est égal :
nσ̂2 nσ̂2
" #
,
b a

la loi utilisée n’est pas symétrique


On pose α1 = P(χ2 (n) < a) et α2 = P(χ2 (n) > b) avec α1 + α2 = α

Exemple 3.3. Si on a observé sur un échantillon de taille 15 la valeur σ̂2 = 18. Pour un niveau de confiance 1−α = 0.99
c’est-à-dire α = 0.01. Soit α1 = α2 = 0.005 a = χ215,0.005 = 44, 60 et b = χ215,0.995 = 32.80 d’où l’intervalle

I1−α = [8.23, 58.70]

3.3.4 Intervalle pour la variance d’une loi N(µ, σ2 ) : µ inconnue

Quand le second paramètre m de la loi normale est inconnu, l’estimateur sans biais et convergent de σ2 qu’il faut
retenir est :
n
1 X
S n2 = (Xi − X̄n )2
n − 1 i=1

et on sait que
(n − 1)S n2 ⧸σ2 ⇝ χ2n−1

on peut donc déterminer les valeurs de a et b telles que :

(n − 1)S n2
!
P a< <b =1−α
σ2

d’où
(n − 1)S n2 (n − 1)S n2
!
P <σ <
2
=1−α
b a

il n’y a qu’une seule contrainte pour déterminer les valeurs de a et b c’est α1 + α2 = α avec

   
α1 = P χ2n−1 < a ) et α2 = P χ2n−1 > b

2
Sur un échantillon de seize chiffres d’affaires de magasins d’une chaîne de grandes surfaces on a observé S 16 = 72.53.
L’intervalle de niveau 0.95 à risques symétriques est défini à partir de α1 = α2 = 0.025 et on lit dans la table de khi-deux
a = 6.26 et b = 27.49 Soit
I1−α = [39.56, 173.79]

Si on fait le choix d’un intervalle unilatéral à gauche, soit α1 = α = 0.05 et α2 = 0 on obtient a = 7.26

I1−α = [0, 149.86]

et qui est de longueur plus grande que le précédent.

————————————————————— 21 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 3. ESTIMATION
3.4. INTERVALLE
PARAMÉTRIQUE
DE CONFIANCE
PAR INTERVALLE
POUR LA
DEMOYENNE
CONFIANCE
D’UNE LOI QUELCONQUE

3.4 Intervalle de confiance pour la moyenne d’une loi quelconque


Quelle que soit la taille de l’échantillon, on prendra pour estimateurs sans biais de la moyenne, la statistique X̄, et de
la variance, la statistique S̃ 2
Si la taille de l’échantillon est grande, en pratique n > 30, grâce au théorème central limite on calcule l’intervalle de
confiance pour la moyenne. " #
s s
I1−α = x̄ − t1−α/2
(n−1)
√ , x̄ + t1−α/2
(n−1)

n−1 n−1
avec le fractile de la table de Student d’ordre 1 − α/2

Exercice 3.1. On considère un échantillon de 40 paquets de biscuits provenant d’une production de 2000 unités. Le
poids moyen obtenu pour cet échantillon est égal à 336g et l’écart-type empirique, c’est-à-dire la quantité s, est égal à
0.86g. Quelle est l’estimation, par intervalle de confiance, du poids moyen de ces paquets de biscuits, pour l’ensemble
de la fabrication, avec les seuils de confiance 0.90, 0.98 et 0.99 ?

Correction de l’exercice 1. Pour un grand échantillon (n = 40 > 30), l’intervalle de confiance est de la forme :
" #
(39) s s
x̄ − t1−α/2 √ , x̄ + (39)
t1−α/2 √
n−1 n−1

avec x̄ = 336 s = 0.86 n = 40


Le fractile h est lu sur la table de Student, degré de liberté n − 1 = 39, il dépend du seuil choisi.

Table 3.1 – Limites de l’intervalle de confiance.

(39)
Niveaux de confiance t1−α/2 Limites inférieures Limites supérieures
0.9 1.685 336-0.232 = 335.768 336+ 0.232 = 336.232
0.98 2.429 336-0.334 = 335.666 336+0.334 = 336.334
0.99 2.708 336 -0.373 = 335.627 336+0.373 = 336.373

————————————————————— 22 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4

TESTS D’HYPOTHÈSES PARAMÉTRIQUES

4.1 Notions générales


Les tests statistiques constituent une approche décisionnelle de la statistique inférentielle.

— Un tel test a pour objet de décider sur la base d’un échantillon si une caractéristique de la loi mère répond ou non
à une certaine spécification que l’on appelle hypothèse

— Dans le cadre paramétrique, les hypothèses portent sur le paramètre inconnu θ ou sur une fonction de ce paramètre
h(θ)

— Dans l’approche paramétrique la plus générale un test statistique consiste à décider d’accepter ou de rejeter une
hypothèse spécifiant que θ appartient à un ensemble de valeurs Θ0 . Cette hypothèse de référence est appelée
hypothèse nulle et est notée H0 . Au contraire on définit l’hypothèse alternative, notée H1 pour laquelle θ appartient
à Θ1 = Θ − Θ0 où Θ − Θ0 = Θ̄0 dénote le complémentaire de Θ0 par rapport à Θ et on écrit

H0 : θ ∈ Θ0 vs : H1 : θ ∈ Θ1

On distinguera trois cas :

1. hypothèse nulle simple et alternative simple où Θ = {θ0 , θ1 }

H0 : θ = θ0 vs H1 : θ = θ1

2. hypothèse nulle simple et alternative multiple :

H0 : θ = θ0 vs H1 : θ , θ0

23
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.1. NOTIONS GÉNÉRALES

3. hypothèse multiple et alternative multiple :

H0 : θ ∈ Θ0 vs H1 : θ ∈ Θ1

Un test pour une hypothèse H0 est une règle de décision fondée sur la valeur réalisée t d’une statistique T appelée
statistique de test.
La règle est comme suit :

— si t ∈ A on accepte H0 ,

— si t ∈ A (partie complémentaire) on rejette H0 .

La région A, qui est généralement un intervalle, sera appelée région d’acceptation et A région de rejet.
Deux types d’erreur possibles :

— Rejeter H0 alors qu’elle est vraie (i.e. θ = θ0 ) : erreur de première espèce,

— Accepter H0 alors qu’elle est fausse (i.e. θ = θ1 ) : erreur de deuxième espèce.

Définition 4.1. (Risque de première espèce) On appelle risque de première espèce la valeur α telle que :

α = P (rejeter H0 /H0 vraie) = Pθ0 (T ∈ A/H0 )

La règle de décision comporte un risque β ou risque de deuxième espèce, c’est le risque de ne pas rejeter H0 alors que
H1 est vraie :

Définition 4.2. (risque de deuxième espèce) On appelle risque de deuxième espèce la valeur β telle que

β = P (ne pas rejeter H0 /H1 vraie) = Pθ1 (T ∈ A/H1 ) = P (choisir H0 /H1 vraie)

Remarques 1. La probabilité α, appelée aussi risque du client, en revanche, la probabilité β, appelée aussi risque du
fournisseur. La quantité (1 − β) est la puissance du test. Elle représente la probabilité d’accepter H1 alors que celle-ci
est vraie.
Les valeurs les plus utilisées pour α sont .05 et .01.

On distingue trois tests (voir la figue 4.1)

1. Unilatéral à gauche (figure 4.1a) : la valeur de H1 est significativement plus petite que la valeur de H0 .

2. Unilatéral à droite (figure 4.1b) : la valeur de H1 est significativement plus grande que la valeur de H0

3. Bilatéral (figure 4.1c) : la valeur de H1 est significativement différente de la valeur de H0 , soit qu’elle est plus
grande, soit qu’elle est plus petite.

————————————————————— 24 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.1. NOTIONS GÉNÉRALES

Test unilatéral à gauche Test unilatéral à droite

−1.64

1.64
Rejet H0 Acceptation H0 Acceptation H0 Rejet H0

5% 5%

−3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3

(a) H0 : µ = µ0 vs H1 : µ = µ1 , µ1 > µ0 (b) H0 : µ = µ0 vs H1 µ = µ0 , µ1 < µ0

Test bilatéral
−1.96

1.96
Rejet H0 Acceptation H0 Rejet H0

2.5% 2.5%

−3 −2 −1 0 1 2 3

(c) H0 : µ = µ0 vs H1 : µ1 , µ0

Figure 4.1 – Région de rejet et région d’acceptation pour chaque type de test

Définition 4.3. (Puissance d’un test :) On appelle puissance d’un test la probabilité de rejeter H0 alors qu’elle est
effectivement fausse soit, dans les notations précédentes :

η(θ) = P(T ∈ A/H1 ) = 1 − P(T ∈ A/H1 ) = 1 − β

Définition 4.4. (Test est sans biais) On dit qu’un test est sans biais si sa puissance est supérieure ou égale à son risque
α, soit :
P(T ∈ A|H1 ) ≥ P(T ∈ A|H0 )

Définition 4.5. (Test plus puissant) On dit que le test τ1 est plus puissant que le test τ1 au niveau α si :

— il est de niveau α,

— τ2 est de niveau égal (ou inférieur) à α

— la puissance de τ1 est supérieure à celle de τ2 .

————————————————————— 25 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.1. NOTIONS GÉNÉRALES

Exemple 4.1. Deux machines A et B produisent le même type de produit, mais la machine A fournit un produit plus cher
de qualité supérieure. La qualité d’un produit se mesure à une entité aléatoire qui est de loi N(5; 1) pour la machine A
et N(4; 1) pour la machine B, et ne diffère donc que par la moyenne.
Un client achète le produit le plus cher par lots de 10 et désire développer un test pour contrôler qu’un lot donné
provient bien de la machine A. Comme accuser le producteur à tort peut avoir de graves conséquences, il doit limiter le
risque correspondant et tester
H0 : µ = 5 vs H1 : µ = 4

à un niveau 0.05 par exemple. Il semble naturel d’utiliser comme statistique de test la moyenne X̄ du lot.
Sous H0 la loi de X̄ est N(5; 1/10) et l’on a alors l’intervalle de confiance de niveau 1 − α = 0.95

h √ √ i
5 − 1.95/ 10, 5 + 1.95/ 10 , soit A = [4.38, 5.62]

- Accepter H0 si la réalisation x̄ (moyenne du lot considéré) de X̄ est dans [4.38, 5.62]


- Rejeter sinon.
Il est possible de calculer la puissance de ce test puisque la loi de X est connue sous H1 : c’est la loi N(4; 1/10). Le
risque de deuxième espèce vaut :

β = P(4, 38 < X < 5, 62|H1 )


!
4.38 − 4 5.62 − 4
=P √ <Z< √ avec Z ⇝ N(0; 1)
1/ 10 1/ 10
= P(1.20 < Z < 5.12) ≃ 0.115.

D’où une puissance d’environ 1 − β = 1 − 0.115 = 0.885.** On peut obtenir un test plus puissant en prenant comme
région d’acceptation l’intervalle de probabilité 0.95 :


A = [5 − 1.645/ 10; +∞[
!
4.48 − 4
β = P(4.48 < X̄|H1 ) = P √ < Z = P(1.52 < Z) = 0.064
1/ 10
ce qui donne une puissance de 0.936

Exemple 4.2. On suppose que la durée de vie des lampes suit une loi normale de même écart-type σ = 100, sous les
deux hypothèses. Le meilleur estimateur de l’espérance mathématique est la statistique X̄, moyenne d’un échantillon de
taille n. C’est la variable de décision utilisée pour construire le test. On décide de contrôler un échantillon de taille
n = 25 lampes fabriquées suivant le nouveau procédé. Les deux hypothèses en présence sont :

H0 : m = m0 = 1000 heures vs H1 : m = m1 = 1075 heures

La variable de décision, X, suit une loi normale qui a pour paramètres :


m0 = 1000 heures sous l’hypothèse H0

————————————————————— 26 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES
4.2. TEST DU RAPPORT DE VRAISEMBLANCE SIMPLE

m1 = 1075 heures sous l’hypothèse H1 .


L’écart-type est égal à 100 heures sous les deux hypothèses.
Si le risque de première espèce α est égal à 5%, la région critique, de rejet de H0 , est définie par :

   
P A/H0 = 0.05 c’est-à-dire P X̄ > d = 0.05

Soit U la variable aléatoire centrée réduite associée à X̄ : U = X̄−1000


20

!
  X̄ − 1000 d − 1000
P X̄ > d = P U = > = 0.05
20 20

d − 1000
= 1.6449 ⇒ d ≃ 1033 heures
20

Règles de décision :
— X̄ ≥ 1033 heures, on rejette H0

— X̄ < 1033, on garde H0

L’échantillon a donné pour la statistique X̄ la valeur 1050 heures. On doit donc rejeter l’hypothèse H0 , et accepter
l’hypothèse H1 .
Le risque β de deuxième espèce est défini par :

 
β = P (T ∈ A/H1 ) = P X̄ < d/H1

!
X̄ − 1075 1033 − 1075
β = P(X̄ < d) = P(X̄ < 1033) = P U = < ≃ 0.0179
20 20

La probabilité de rejeter H1 alors que cette hypothèse est vraie est donc égale à 0.0179, elle est assez faible ; la puissance
du test est égale à 0.9821.

4.2 Test du rapport de vraisemblance simple


A- Hypothèse nulle simple et alternative simple où Θ = {θ0 , θ1 }

H0 : θ = θ0 vs H1 : θ = θ1

X est une variable aléatoire dont la densité f (x; θ) dépend du paramètre réel θ et X = (X1 , ..., Xn ) est un échantillon
aléatoire de taille n de cette variable. Soit la vraisemblance L(x1 , x2 , ......xn ; θ),

————————————————————— 27 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES
4.2. TEST DU RAPPORT DE VRAISEMBLANCE SIMPLE

Définition 4.6. On appelle test du rapport de vraisemblance (RV) de l’hypothèse

H0 : θ = θ0 vs H1 : θ = θ1

au niveau α, le test défini par la région de rejet de la forme :

L(x1 , x2 , ......xn ; θ0 )
( )
Ā = (x1 , x2 , ............xn / ≤ kα
L(x1 , x2 , ......xn ; θ1 )

où la valeur de la constante kα > 0 déterminée en fonction du risque de première espèce α


On a supposer que la densité ait un support indépendant de θ pour éviter que L(x1 , x2 , ..., xn ; θ1 ) s’annule alors que
L(x1 , x2 , ..., xn ; θ0 ) ne s’annule pas. On peut toutefois contourner ce problème en définissant la région de rejet par

L(x1 , x2 , ..., xn ; θ0 ) < kL(x1 , x2 , ..., xn ; θ1 ).

Si L(x1 , x2 , ..., xn ; θ1 ) s’annule on a une réalisation impossible sous H1 et l’on peut choisir θ0 sans aucun risque
d’erreur.

Théorème 4.1. (historiquement : lemme de Neyman-Pearson) Le test du RV est le plus puissant quel que soit le choix
de α ∈]0, 1[.

Proposition 4.2. Le test du RV est sans biais.

Nous montrons ici que le test du RV se ramène à un test simple,

Définition 4.7. (Statistique exhaustive) : On dit que T n est une statistique exhaustive pour θ ∈ Θ ⊆ RK si la loi
conditionnelle de (X1 , X2 , ..., Xn ) sachant T n ne dépend pas de θ

Théorème 4.3. (Théorème de factorisation.) La statistique T n = t(X1 , X2 , ..., Xn ) est exhaustive pour θ si et seulement
si la densité de probabilité (ou fonction de probabilité ) conjointe s’écrit, pour tout (x1 , x2 , ..., xn ) ∈ Rn , sous la forme :

f (x1 , x2 , ..., xn ; θ) = g(t(x1 , x2 , ..., xn ); θ)h(x1 , x2 , ..., xn ).

Définition 4.8. (Statistique exhaustive minimale) On dit que la statistique T n∗ est exhaustive minimale si elle est
exhaustive et si, pour toute statistique exhaustive T n , on peut trouver une fonction u telle que T n∗ = u(T n )

Proposition 4.4. S’il existe une statistique T = t(X1 , X2 , , Xn ) exhaustive minimale à valeurs dans R, alors le rapport de
vraisemblance ne dépend de la réalisation (x1 , x2 , ..., xn ) qu’ à travers la valeur t(x1 , x2 , ..., xn ). De plus si ce rapport de
vraisemblance est une fonction monotone de t(x1 , x2 , ..., xn ) alors le test du RV se ramène à un test dont la région de rejet
est de la forme t(x1 , x2 , ..., xn ) < c si c’est une fonction croissante ou t(x1 , x2 , ..., xn ) > c si la fonction est décroissante.

Exemple 4.3. Dans le contexte de l’exemple 4.1 la fonction de vraisemblance pour µ est :

n !
Y 1 1
L(x1 , x2 , , xn ; µ) = √ exp − (xi − µ)2
i=1 2π 2
!n n
 
1  1 X
= √ (xi − µ)  .
2

exp −
2π 2 i=1

————————————————————— 28 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES
4.2. TEST DU RAPPORT DE VRAISEMBLANCE SIMPLE

Pour être plus général considérons


H0 : µ = µ0 vs H1 : µ = µ1

d’où le rapport de vraisemblance :


  n n

L(x1 , x2 , , xn ; µ0 )  1 X 1X
= exp −  (xi − µ0 ) − (xi − µ1 ) 
2 2

L(x1 , x2 , , xn ; µ1 ) 2 i=1 2 i=1
n
  
 1  X
= exp − −2(µ0 − µ1 ) xi + n(µ0 − µ1 )
2 2

2 i=1

Le rapport de vraisemblance ne dépend donc des observations qu’à travers ni=1 xi . De plus comme c’est une
P

fonction croissante de (µ0 − µ1 ni=1 xi est inférieur à kα si et seulement si (µ0 − µ1 ni=1 xi < kα′ où kα′ est une autre
P P

constante que l’on déduit aisément de kα .


′′′
Si µ0 > µ1 alors la région de rejet est de la forme xi < k”α ou, de façon équivalente, x̄ < kα
Pn
i=1

Si µ0 > µ1 les inégalités doivent être inversées.

Dans l’exemple 4.1 on a vu que, pour α = 0.05, µ0 = 5 et µ1 = 4, la région de rejet était définie par x̄ < 4.48

Proposition 4.5. Si la loi mère est dans une famille appartenant à la classe exponentielle, i.e.

f (x; θ) = a(θ)b(x) exp (c(θ)d(x))

alors le test du RV a une région de rejet de la forme :

n
X
d(xi ) < k si c(θ0 ) − c(θ1 ) > 0
i=1

ou
n
X
d(xi ) > k si c(θ0 ) − c(θ1 ) < 0
i=1

Exemple 4.4. Soit le test


H0 : p = p0 vs H1 : p = p1

pour le paramètre p d’une loi de Bernoulli. Cette famille de lois appartient à la classe exponentielle et l’on a
! !
p
f (x; p) = p x (1 − p)1−x = exp ln x , x ∈ [0, 1]
1− p

Donc d(x) = x et, supposant par exemple que p0 > p1 , alors

p0 p1
>
1 − p0 1 − p1

et la région de rejet est de la forme


n
X
xi < k
i=1

————————————————————— 29 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES
4.2. TEST DU RAPPORT DE VRAISEMBLANCE SIMPLE

Pn
La statistique de test i=1 Xi ⇝ B(n, p)
k est le quantile d’ordre 0.05 de la loi B(n, p0 ).

B- Tests d’hypothèses multiples


Nous considérons dans cette section des situations de test du type :

H0 : θ ≤ θ0 vs H1 : θ > θ0

H0 : θ ≥ θ0 vsvs H1 : θ < θ0

où θ est donc un paramètre de dimension 1

Définition 4.9. (Test uniformément plus puissant) On dit que le test τ1 de niveau α est uniformément plus puissant que
le test τ1 au niveau α s’il est de niveau α , si τ2 est de niveau égal (ou inférieur) à α et si la fonction puissance de τ1
reste toujours supérieure ou égale à celle de τ2 , mais strictement supérieure pour au moins une valeur de θ ∈ Θ1 i.e.
pour tout
θ ∈ Θ1 , h1 (θ) ≥ h2 (θ)

et il existe
θ∗ ∈ Θ1 , h1 (θ∗ ) > h2 (θ)

h1 (θ) et h2 (θ) sont les fonctions puissance respectives des tests τ1 et τ2 .

Proposition 4.6. S’il existe une statistique T = t(X1 , X2 , , Xn ) exhaustive minimale à valeurs dans R et si, pour tout
couple(θ, θ′ ) tel que θ < θ′ , le rapport de vraisemblance

L(x1 , x2 , ..., xn ; θ)
L(x1 , x2 , ..., xn ; θ′ )

est une fonction monotone de t(x1 , x2 , , xn ), alors il existe un test uniformément le plus puissant pour les situations
d’hypothèses unilatérales et la région de rejet est soit de la forme t(x1 , x2 , , xn ) < k, soit de la forme t(x1 , x2 , , xn ) > k.

Une famille de densité qui vérifie les conditions de la proposition 4.6 est dite être à rapport de vraisemblance monotone.
Si elle appartient à la classe exponentielle son RV est égal à

!n n
 
a(θ)  ′
X 
exp  c(θ) − c(θ ) Xi 
a(θ′ ) i=1

Dans cette classe une condition nécessaire et suffisante pour remplir ces conditions est donc que c(θ) soit monotone.
De plus la fonction des observations t(x1 , x2 , , xn ) de la proposition 4.6 est ni=1 Xi , d’où la proposition suivante.
P

————————————————————— 30 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES
4.2. TEST DU RAPPORT DE VRAISEMBLANCE SIMPLE

Proposition 4.7. Si la loi mère est dans une famille appartenant à la classe exponentielle, i.e. f (x; θ) =
a(θ)b(x) exp c(θ)d(x), et si la fonction c(θ) est monotone, alors il existe un test uniformément le plus puissant pour les
situations d ?hypothèses unilatérales et la région de rejet est :

n
X
soit de la forme : d(xi ) > k
i=1

n
X
soit de la forme : d(xi ) < k
i=1

Exemple 4.5. Considérons une loi mère N(µ, 1) où µ est inconnu.


Testons
H0 : µ ≤ µ0 vs H1 : µ > µ0

La densité de la loi mère est :


! ! !
1 1 1 1 1
f (x, µ) = √ exp − (x − µ)2 = √ exp − x2 exp − µ2 exp (µx)
2π 2 2π 2 2

c(µ) = µ et d(x) = x. Donc le test a une région de rejet de la forme xi > k ou xi < k
Pn Pn
i=1 i=1

pour µ < µ0, la région de rejet est ni=1 xi > k′ ou encore x̄ > k”
P

Sous H0 , X ⇝ N(µ0 , 1⧸ n)
Pour un niveau 0,05 la constante k" est définie par :

 
P X > k” = α = 0.05


k" égale au quantile 0.95 de la loi N(µ0 , 1⧸ n), soit

1
k” = µ0 + 1.645 √
n

La fonction puissance est définie par


 √ 
h(µ) = Pµ X > µ0 + 1.645/ n
√ √
sous H1 , X ⇝ N(µ, 1⧸ n) avec µ ∈]µ0 + ∞[. En posant Z = n(X − µ) on obtient

 √  √ √ √   √ 
h(µ) = Pµ X > µ0 + 1.645/ n = Pµ n(X − µ) > n(µ0 + 1.645/ n − µ) = Pµ Z > 1.645 − n(µ − µ0 )

————————————————————— 31 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.3. PRINCIPAUX TESTS PARAMÉTRIQUES

4.3 Principaux tests paramétriques

4.3.1 Comparaison d’une moyenne observée et d’une moyenne théorique


Descriptif du test

Soit X, une variable aléatoire observée sur une population, suivant une loi normale et un échantillon extrait de
cette population. Le but est de savoir si un échantillon de moyenne x , estimateur de µ, appartient à une population
de référence connue d’espérance µ0 (µ0 vraie) et ne diffère de µ0 que par des fluctuations d’échantillonnage ou
bien appartient à une autre population inconnue d’espérance µ (H1 vraie).
Population inconnu : X ∼ N(µ, σ2 ) Population connu : X ∼ N(µ0 , σ20 )

Échantillon : n, X, S 2

Les hypothèses du test sont :

µ,µ (4.3)

 0



H0 : µ = µ0 vs H1 :  µ > µ0

(4.4)





µ < µ0

(4.5)

Sous H0 , la statistique de test, commandes R et p-valeurs ( Hypothèses 4.3 ; 4.4 et 4.5) sont représentées dans le
tableau 4.1

A) Test sur la moyenne m : σ est connu

H0 : m = m0 vs H1 : m = m1 > m0 (4.6)

La variable de décision est la statistique X̄ dont la loi est facile à établir :


Loi de X̄ sous H0 : N(m0 , σ/ n)


Loi de X̄ sous H1 : N(m1 , σ/ n

En désignant par α le risque de première espèce, la région critique est définie par :
!
  k − m0
α = P( X̄ > k/H0 = P( U > √
σ/ n

La valeur u = k−m0

σ/ n
est lue sur la table statistique de N(0, 1), on en déduit la valeur de k et donc la région critique.
La forme de l’hypothèse H1 conduit à rejeter les valeurs trop grandes de X. Le risque de deuxième espèce β est défini
par : !
  k − m1
β = P X̄ > k/H1 = P U < √ = P(U < Uβ )
σ/ n

————————————————————— 32 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.3. PRINCIPAUX TESTS PARAMÉTRIQUES

k − m1
Uβ = √
σ/ n
H0 : m = m0 vs H1 : m = m1 < m0 (4.7)

La variable de décision est encore la statistique X̄ et la région critique est définie par :

  k − m0
α = P X̄ < k/H0 = P U < √ = P(U < Uα )
σ/ n

De façon analogue, on en déduit la valeur de β :


!
  k − m1
β = P X̄ > k/H1 = P U > √
σ/ n

H0 : m = m0 vs H1 : m = m1 , m0 (4.8)

L’hypothèse H1 implique m1 < m0 ou m1 > m0 . La région critique est déterminée avec la même variable de décision X̄
par : !
  k − m0
α = P |X̄| > k/H0 = P |U| > √ = P (|U| > u)
σ/ n
La valeur u est lue sur la table statistique . Puis, on calcule la valeur de β comme dans les cas précédents.

Exemple 4.6. On prélève, au hasard, dans une population suivant une loi normale de variance égale à 25, un échantillon
de taille n = 16.
En choisissant un risque de première espèce α = 0.05 (risque bilatéral, symétrique), quelle est la règle de décision si
l’on veut tester les hypothèses :
H0 : m = m0 = 45 vs H1 : m = m1 , 45

Soient k1 et k2 les seuils critiques.


La règle de décision est : on accepte l’hypothèse Ho si k1 < x̄ < k1

P (k1 < x̄ < k2 /H0 ) = 0.95


!
k1 − 45 X̄ − 45 k2 − 45
P < < = 0.95
5/4 5/4 5/4

D’où :
k1 − 45
= −1.96
5/4

et
k2 − 45
= 1.96
5/4

K1 = 42.55, k2 = 47.45

Si on observe une moyenne de l’échantillon égale à 49. Cette valeur est en contradiction avec l’hypothèse H0 , on refuse
donc l’hypothèseH0 et on accepte l’hypothèse H1 .

————————————————————— 33 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.3. PRINCIPAUX TESTS PARAMÉTRIQUES

On peut calculer le risque de deuxième espèce β associé à cette valeur m1 = 49

β = P (k1 < x̄ < k2 /H1 )


!
42.55 − 49 x̄ − 49 47.45 − 49
β=P < < = P (−5.16 < U < −1.24)
5/4 5/4 5/4

D’où : β = 0.1075
La probabilité de refuser l’hypothèse H1 , m1 = 49, alors qu’elle est vraie, est égale à 0.1075, la puissance du test est
égale à 0.8925.

B) Test sur la moyenne m : σ est inconnu

Si l’écart-type σ n’est pas connu mais estimé. La variable aléatoire

X̄ − m

S/ n − 1

suit une loi de Student à (n − 1) degrés de liberté. On procède alors de façon analogue en utilisant la table de la loi de
Student.

Exemple 4.7. Un fabricant de téléviseurs achète un certain composant électronique à un fournisseur. Un accord entre
le fournisseur et le fabricant stipule que la durée de vie de ces composants doit être égale à 600 heures au moins.
Le fabricant qui vient de recevoir un lot important de ce composant veut en vérifier la qualité. Il tire au hasard un
échantillon de 16 pièces. Le test de durée de vie pour cet échantillon donne les résultats suivants :
620-570- 565- 590- 530- 625- 610- 595- 540- 580- 605- 575- 550- 560- 575- 615
Le fabricant doit-il accepter le lot ? (On choisit un risque de première espèce égal à 5%. Quel est le risque de deuxième
espèce ?
On admettra que la durée de vie de ces composants suit une loi normale. Caractéristiques de l’échantillon : x̄ = 581.60
et s = 27.90.
Les hypothèses à tester sont :
H0 : m = 600 heures vs H1 : m < 600heures

La variable de décision est la moyenne de l’échantillon X̄.


La variable
X̄ − m

S/ n − 1
suit une loi de Student à (n − 1) = 15 degrés de liberté
-Calcul du seuil critique dc . La règle de décision est la suivante : x̄ < dc Refus de H0 et x̄ > dc Acceptation de H0

P( x̄ < dc /H0 ) = 0.05


!
x̄ − 600 dc − 600
P √ < √ = 0.05
27.90 15 27.90 15

————————————————————— 34 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.3. PRINCIPAUX TESTS PARAMÉTRIQUES

Or
 
P t15 < −1.753 = 0.05

D’où
dc − 600
√ = −1.753 et dc = 587.40
27.90 15
La valeur de la moyenne arithmétique donnée par l’échantillon étant égale à 581.60, on doit rejeter l’hypothèse H0 .
-Risque de deuxième espèce
La forme de l’hypothèse H1 implique que l’on doit calculer le risque β pour toutes les valeurs de m < 600. On fait le
calcul pour m = 575 par exemple :
β = P( x̄ > dc /H1 )
!
x̄ − 575 587, 40 − 575
P √ > √ = P (t(15) > 1.721) ≃ 0.05
27.90 15 27.90 15
Remarque 3. Si la loi suivie par la variable aléatoire X n’est pas une loi normale, mais si la taille de l’échantillon est
supérieure à 30, on peut admettre que la loi limite est la loi normale. Si de plus l’écart-type n’est pas connu, on utilisera
la loi de Student.

Table 4.1 – Commandes R et p-valeurs ( Hypothèses 4.3 ; 4.4 et 4.5)

X ∼ N(µ, σ2 ) H1 Stat. Test.obs p-valeurs


√  0
σ connu :Z-test µ , µ0 zobs = n x−µ σ P(|Z| ≥ |zobs |)
µ > µ0 P(Z ≥ zobs )
µ < µ0 P(Z ≤ zobs )
√  x−µ0 
σ inconnu : T-test µ , µ0 tobs = n s P(|T | ≥ |tobs |)
µ > µ0 P(T ≥ tobs )
µ < µ0 P(T ≤ tobs )
X ∼ N(µ, σ2 ) H1 Stat. Test.obs Commandes R
√  0
σ connu :Z-test µ , µ0 zobs = n x−µ σ mean_test1(x, mu0, sigma)
µ > µ0 mean_ test1(x, mu0, sigma, side = 1)
µ < µ0 mean_ test1(x, mu0, sigma, side = -1)
√  x−µ0 
σ inconnu : T-test µ , µ0 tobs = n s t.test(x, mu = mu0)
µ > µ0 t.test(x, mu = mu0, alternative = "greater")
µ < µ0 t.test(x, mu = mu0, alternative = "less")

————————————————————— 35 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
4.4. COMPARAISON DE LA PROPORTION THÉORIQUE À UNE VALEUR DE RÉFÉRENCE (CAS À UN
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES ÉCHANTILLON

4.4 Comparaison de la proportion théorique à une valeur de référence (cas à


un échantillon
Descriptif du test

Soit p la fréquence inconnue d’un caractère dans une population donnée. On observe des données de présen-
ce/absence de ce caractère sur les individus d’un échantillon de taille n de cette population. Les hypothèses du
test que nous considérons sont :

 p,p

 0 (4.11)



H0 : p = p0 vs H1 :  p > p0

(4.12)





p < p0

(4.13)

La statistique de test sous H0 est :  


√  X − p0 
Z = n  p
 
p0 (1 − p0 )
Exemple 4.8. On veut vérifier que le pourcentage p de pièces défectueuses dans un lot de plusieurs milliers de pièces
n’excède pas 3%. On prélève un échantillon de n = 200 pièces et on adopte la règle de décision suivante, en désignant
par K le nombre de pièces défectueuses dans l’échantillon prélevé :
- si K ≤ 10 le lot est accepté,
- si K ≥ 11 le lot est refusé.
-Risque de première espèce associé à cette règle de décision :

α = P (refuser H0 /H0 vraie) = P (K ≥ 11/p0 = 0.03)

La variable K suit la loi binomiale B(n ;p) avec n = 200. Soit le test

H0 : p = p0 = 0.03 vs H1 : p = p1 > 0.03

On peut utiliser l’approximation normale, en effet, np = 200 × 0.03 = 6 > 5 et n(l − p) = 200X0.97 = 194 > 5.
Paramètres de la loi normale :

E(K) = 6, Var(K) = 200 × 0.03 × 0.97 = 5.82 = (2.41)2

α = P(11 ≤ K ≤ 200) = P(10.5 < K < 200.5)

(avec la correction de continuité)


!
10.5 − 6 k − 6 20.5 − 6
P < =U< = 0.031 = α
2.41 2.41 2.41

————————————————————— 36 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
4.4. COMPARAISON DE LA PROPORTION THÉORIQUE À UNE VALEUR DE RÉFÉRENCE (CAS À UN
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES ÉCHANTILLON

-Risque de deuxième espèce :

β = P (refuser H1 /H1 vraie) = P (0 ≤ K ≤ 10/p > 0.03)

p
La loi limite de la variable K est la loi normale N(200p; 200p(1 − p)).

0.5 − np k − np 10.5 − np
p < p < p
200p(1 − p) 200p(1 − p) 200p(1 − p)

(avec la correction de continuité) .

Table 4.2 – Résultats numériques.

p 0.04 0.05 0.06 0.08 0.1


np 8 10 12 16 20
p
np(1 − p 2.77 3.08 3.36 3.84 4.24
u 0.902 0.162 0.446 -1.432 -2.24
β 0.81 0.56 0.328 0.076 0.012
1-β 0.19 0.44 0.672 0.924 0.988

On remarque que le test est d’autant plus puissant que p ≫ 0.03


Si on observe un pourcentage de pièces défectueuses p = 0.08, on trouve β = 0.076 (risque d’accepter le lot) et donc
1 − β = 0.924.

Figure 4.2 – Courbe puissance et courbe d’efficacité du test.

————————————————————— 37 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
4.4. COMPARAISON DE LA PROPORTION THÉORIQUE À UNE VALEUR DE RÉFÉRENCE (CAS À UN
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES ÉCHANTILLON

Instruction R
La fonction utilisée :

prop.test()

voir le tableau 4.3

Table 4.3 – Commandes R et p-valeurs ( Hypothèses 4.11 ; 4.12 et 4.13)

X ∼ B(p) H1 Stat. Test.obs ! p-valeurs


√ x−p0
n ≥ 31, np0 ≥ 5 p , p0 zobs = n √ P(|Z| ≥ |zobs |)
p0 (1−p0 )
n(1 − p0 ) ≥ 5 p > p0 P(Z ≥ zobs )
Prop-Z-Test p < p0 P(Z ≤ zobs )
X ∼ B(p) H1 Stat. Test.obs ! Commande R
√ x−p0
n ≥ 31, np0 ≥ 5 p , p0 zobs = n √ prop.test(x, n, p, correct = F)
p0 (1−p0 )
n(1 − p0 ) ≥ 5 p > p0 prop.test(x, n, p, alternative = "greater", correct = F)
Prop-Z-Test p < p0 prop.test(x, n, p, alternative = "less", correct = F)

4.4.1 Comparaison de la variance théorique à une valeur de référence (cas à un échantillon)


Descriptif du test

Soit σ2 la variance d’un caractère quantitatif X, avec X ∼ N(µ, σ2 ). Les hypothèses du test sont :

σ,σ (4.16)

 0



H0 : σ = σ0 vs H1 :  σ > σ0

(4.17)





σ < σ0

(4.18)

La statistique de test sous H0 est :


(n − 1)S 2
T= ∼ χ2 (n − 1)
σ20

A) Test sur l’écart-type σ : m est connu

Les hypothèses à tester sont, par exemple :

H0 : σ = σ 0 vs H1 : σ = σ1 > σ0 (4.19)

La variable aléatoire
n
1 X
(Xi − m)2
σ2 i=1

suit une loi du chi-deux à n degrés de liberté.


La variable de décision est la statistique D qui est un estimateur sans biais de la variance :

n
1X
D= (Xi − m)2
n i=1

————————————————————— 38 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
4.4. COMPARAISON DE LA PROPORTION THÉORIQUE À UNE VALEUR DE RÉFÉRENCE (CAS À UN
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES ÉCHANTILLON

La région critique (ou de rejet de H1 ) est définie par :


 
nk 
α = P(D > k/H0 ) = P χ2n > 2 

σ0

En utilisant la table de χ2 , on détermine k puis le risque β :


 
nk 
α = P(D < k/H1 ) = P χ2n < 2 

σ1

H0 : σ = σ 0 vs H1 : σ = σ1 < σ0 (4.20)

La région critique est définie par :  


 2 nk 
α = P(D < k/H0 ) = P χn < 2 
σ0

En utilisant la table de χ2 , on détermine k puis le risque β :


 
nk 
α = P(D > k/H1 ) = P χ2n > 2 

σ1

B) Test sur l’écart-type σ : m est inconnu

La moyenne m n’est pas connue, elle doit donc être estimée. La statistique de décision est la statistique :

n
1X
S2 = (Xi − X̄)2
n i=1

La variable aléatoire nS 2 ⧸σ2 ⇝ χ2 (n − 1) et les différents tests s’étudient comme dans le cas précédent.

Exemple 4.9. On veut contrôler la précision d’une balance au bout d’un an de fonctionnement.
Si on pèse un poids de 1g, on peut considérer que l’observation est la réalisation d’une variable aléatoire suivant une
loi normale d’espérance mathématique m = 1g (la balance est juste) et d’écart-type σ0 = 1.2mg. Si au bout d’un an de
fonctionnement, on constate quel’ écart-type σ est supérieur à σ0 , la précision de la balance a diminué.
On veut tester (seuil critique α = 0.10, taille de l’échantillon n = 10) :

H0 : σ0 : σ0 = 1.2mg vs H1 : σ1 = 1.5mg

La moyenne m étant connue ;


-la statistique de décision
n
1X nD
D= (Xi − m)2 , ⇝ χ2 (n − 1)
n i=1 σ2

La région critique est définie par :


 
nk 
α = P(D > k/H0 ) = P χ2n > 2  = 0.1

σ0

————————————————————— 39 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES
4.5. PARAMÉTRIQUES
TESTS DE COMPARAISON D’ÉCHANTILLONS (2 ÉCHANTILLONS

nk
= 15.987, n = 10, σ0 = 1.2 =⇒ k = 2.3
σ20

Conclusion : soit d la valeur de la statistique donnée D par l’échantillon :


si d > k, on rejette l’hypothèse Ho.
- Risque de deuxième espèce :
 
 nD 10 × 2.3
β = P(D < k/H1 ) = P  2 < =  = 0.55

10.22
σ1 1.52

1 − β = 0.45, le test est peu puissant


Les résultats de 10 pesées ont donné : d = 3. On rejette donc l’hypothèse H0 .

Table 4.4 – text

X ∼ N(µ, σ2 ) H1 Stat. Test.obs p-valeurs


χ2 − T est σ2 , σ20 χ2obs = n−1
σ2
s2 2 min(P(K ≥ χ2obs ), P(K ≥ χ2obs ))
0
σ2 > σ20 P(K ≥ χ2obs )
σ2 < σ20 P(K ≤ χ2obs )
X ∼ N(µ, σ2 ) H1 Stat. Test.obs Commandes
χ2 -Test σ2 , σ20 χ2obs = n−1
σ2
s2 var_test1(x, sigma20)$P_value
0
σ2 > σ20 var_test1(x, sigma20, side = 1)$P_value
σ2 < σ20 var_test1(x, sigma20, side = -1)$P_value

Exemple 4.10. Une usine fabrique des boîtes de conserve de poids µ avec une précision σ2 = 10. On veut montrer que la
chaîne de production est déréglée (précision différente de σ2 = 10). Voici les poids d’une série de vingt boîte de conserve.
165.1,171.5,168.1,165.6,166.8,170.0,168.8,171.1,168.8,173.6,163.5,169.9,165.4,174.4,171.8, 166.0,174.6,174.5,166.4,173.8

4.5 Tests de comparaison d’échantillons (2 échantillons


Contexte

Étudier un caractère dans deux populations P1 et P2 .


on considère

1. un échantillon E1 de n1 individus de P1 ,

2. un échantillon E2 de n2 individus de P2 .

————————————————————— 40 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES
4.5. PARAMÉTRIQUES
TESTS DE COMPARAISON D’ÉCHANTILLONS (2 ÉCHANTILLONS

Descriptif du test

On considère deux variables quantitatives X1 et X2 (qui mesurent la même caractéristique, mais dans deux
populations différentes). On suppose que X1 a pour moyenne théorique µ1 et pour variance σ21 et X2 a pour
moyenne théorique µ1 et pour variance σ22 . A partir des estimations calculées sur deux échantillons de tailles
respectives n1 et n2 issus des deux populations, on veut comparer µ1 et µ2 .
Les hypothèses du test sont :

1. Pour la moyenne

µ ,µ (4.23)

 1 2



H0 : µ1 = µ2 vs H1 :  µ1 > µ2

(4.24)





µ1 < µ2

(4.25)

2. Pour la variance σ2
H0 : σ21 = σ22 , vs H1 : σ21 , σ22 (4.26)

A) Comparaison des moyennes de deux échantillons gaussiens indépendants, les variances étant connues

Soient N(mi , σi ), les lois suivies par les deux populations (i = 1 ou 2). La variable aléatoire D = X1 − X2 suit alors la
loi normale s
σ21 σ22
U ∼ N(m1 − m2 , σD ) avec σD = +
n1 n2

On considère la variable aléatoire centrée réduite, U :

D − (m1 − m2 )
U=
σD

Soit l’hypothèses :
H0 : m1 = m2 vs H1 : m1 , m2

la région critique est de la forme |U| > k

Exemple 4.11. On dispose de deux échantillons de tubes, construits suivant deux procédés de fabrication A et B. On a
mesuré les diamètres de ces tubes et on a trouvé (en millimètres) :
Procédé A : 52.80 52.90 51.90 50.90 53.40
Procédé B : 52.10 51.30 51.50 51.10
On suppose que les diamètres sont distribués suivant une loi normale et que les écarts- types sont égaux à : σA = 1mm
et σB = 0.45mm.
Peut-on affirmer au niveau 5 % qu’il y a une différence significative entre les procédés de fabrication A et B ?

————————————————————— 41 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES
4.5. PARAMÉTRIQUES
TESTS DE COMPARAISON D’ÉCHANTILLONS (2 ÉCHANTILLONS

Soient XA et XB , les variables aléatoires « diamètres des cubes fabriqués suivant les procédés A et B ».


Loi de XA : N(mA , 1), Loi de XA : N(mA , 1/ 5)


Loi de XB : N(mB , 1), Loi de XB : N(mB , 1/ 5)

D = XA − XB , mD = mA − mB , σ2D = 1/5 + 0.45)2 /4 = 0.2506

Loi de D : N(mD , 0.5)


On veut tester mD = mA − mB = 0 avec un seuil critique égal à 5%

P(|U| > d) = α = 1 − P(|U| < d)

Avec les données apportées par les échantillons, on obtient pour la moyenne des deux échantillons XB = 52.38 et
XA = 51.50. d = 52.38 − 51.50 = 0.88

Uc = d/σD = 0.88/0.5 = 1.76

On ne peut rejeter l’hypothèse d’égalité des moyennes .

B) Comparaison des moyennes de deux échantillons gaussiens indépendants, les variances n’étant pas
connues mais supposées égales

Soient les hypothèses :


H0 : m1 = m2 , σ1 = σ2

H1 : m1 , m2 , σ1 , σ2

B).1 Test de l’égalité des variances ou test de Fisher-Snedecor


H0 : σ1 = σ2 , vs H1 : σ1 , σ2

Comme les populations sont gaussiennes, on sait que (chapitre 2 : section 2.6)

n1 S 12 ⧸(n1 − 1) × n2 S 22 ⧸(n2 − 1) ⇝ F(n1 − 1, n2 − 1)

en introduisant les estimateurs sans biais des deux variances :

σ21
ni S 12 ⧸(ni − 1) = σ̂2i , ⇝ F(n1 − 1, n2 − 1)
σ22

————————————————————— 42 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES
4.5. PARAMÉTRIQUES
TESTS DE COMPARAISON D’ÉCHANTILLONS (2 ÉCHANTILLONS

Donc, sous l’hypothèse H0 , le rapport des estimateurs sans biais des deux variances est une variable aléatoire de Fisher.
Les conclusions du test sont obtenues en calculant le rapport :

F = n1 S 12 ⧸(n1 − 1) × n2 S 22 ⧸(n2 − 1)

pour les valeurs données par les échantillons.


L’hypothèse alternative étant H1 : σ1 , σ2
la règle de décision est :
Rejeter H0 si F < F1−α/2 (n1 − 1, n2 − 1) ou F > F1−α (n1 − 1, n2 − 1)

B).2 Test de comparaison de deux moyennes ou test des espérances de Student Si le test de Fisher-
Snedecor a permis de conclure à l’égalité des variances des deux populations, la variable de décision D = X1 − X2 suit la
loi normale de paramètres :
1 1
E(D) = m1 − m2 , V(D) = σ2 ( + )
n1 n2

La variable aléatoire : √
X1 − X2 − (m1 − m2 ) n1 + n2 − 2
q × q
n1 + n2
P n1 2 + n2 (X − X )2
P 1 1
i=1 (Xi − X1 ) i=1 i 2

Sous l’hypothèse H1 (m1 , m2 ), la région critique est de la forme |T | > k

Remarque 4. Remarque Il est indispensable de tester d’abord l’égalité des variances pour appliquer le test de Student.

Exemple 4.12. On reprend les données numériques de l’exemple 4.11, en supposant que les variances sont inconnues.
- Estimations non biaisées des variances : σˆ2 = 0.977, σˆ2 = 0.977,
A B

D’où :
σ2A
= 5.2246
σ2B
P(0.10 < F(4; 3) < 15.1) = 0.95

Donc, au seuil critique égal à 5 %, on ne peut pas refuser l’hypothèse de l’égalité des variances des deux populations.
-Test de Student de comparaison des moyennes :
La variable aléatoire √
X1 − X2 − (m1 − m2 ) nA + n B − 2
Z = qP × q
nA + n B
n1 2 + nB (x − x )2 1 1
P
i=1 (x i − x A ) i=1 i B

suit une loi de Student à nA + nB − 2 = 5 + 4 − 2 = 7 degrés de liberté.

P(−2.365 < t(7) < 2.365) = 0.95

Si mA = mB , la variable Z = 1.642 . Donc, on ne peut pas rejeter l’hypothèse d’égalité des moyennes.

————————————————————— 43 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES
4.5. PARAMÉTRIQUES
TESTS DE COMPARAISON D’ÉCHANTILLONS (2 ÉCHANTILLONS

Table 4.5 – kkk

X1 ∼ N(µ21 , σ1 ), X2 ∼ N(µ2 , σ22 ), H1 Stat. Test.obs p-valeurs


σ1 , σ2 connus : Z-test µ1 , µ2 zobs = rx¯12− x¯2 2 P(|Z| ≥ |zobs |)
σ σ
1
n1 + n2
2
µ1 > µ2 P(Z ≥ zobs )
µ1 < µ2 P(Z ≤ zobs )
2
1 ,s2 )

σ1 , σ2 inconnus : F -test σ21 , σ22 fobs = max(s
min(s1 ,s2 ) 2P(F ≥ fobs )
σ1 , σ2 inconnus, σ1 = σ2 : T-test µ1 , µ2 tobs = qx¯1 −1 x¯2 1 P(|T (ν)| ≥ |tobs |)
sp n1 +n
2
µ1 > µ2 P(T (ν) ≥ tobs )
µ1 < µ2 P(T (ν) ≤ tobs )
σ1 , σ2 inconnus, σ1 , σ2 : T-test µ1 , µ2 tobs = x¯ − x¯
r1 2 P(|T(γ)| ≥ |tobs |)
s2 s2
sp 1
n1 + n2
2
µ1 > µ2 P(T (γ) ≥ tobs )
µ1 < µ2 P(T (γ) ≤ tobs )

Instruction R
les fonctions utilisées selon le cas sont :

mean_test2(), t.test() & var.test

voir le tableau 4.6

Table 4.6 – Commandes R pour calculer les p-valeurs ( Hypothèses 4.23,4.24,4.25 et 4.26)

X1 ∼ N(µ1 , σ21 ), X2 ∼ N(µ2 , σ22 ), H1 Commande R


σ1 , σ2 connus : Z-test µ1 , µ2 mean_test2(x1, x2, sigma = c(sigma1, sigma2))
µ1 > µ2 mean_test2(x1, x2, sigma = c(sigma1, sigma2), side = 1)
µ1 < µ2 mean_test2(x1, x2, sigma = c(sigma1, sigma2), side = -1)
σ1 , σ2 inconnus : F -test σ21 , σ22 var.test(x1, x2)
σ1 , σ2 inconnus, σ1 = σ2 : T-test µ1 , µ2 t.test(x1, x2, var.equal = T)
µ1 > µ2 t.test(x1, x2, alternative = "greater, var.equal = T)
µ1 < µ2 t.test(x1, x2, alternative = "less", var.equal = T)
σ1 , σ2 inconnus, σ1 , σ2 : T-test µ1 , µ2 t.test(x1, x2)
µ1 > µ2 t.test(x1, x2, alternative = "greater")
µ1 < µ2 t.test(x1, x2, alternative = "less")

————————————————————— 44 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.6. COMPLÉMENTS

4.6 Compléments

4.6.1 Tests d’adéquation

L’examen de la loi de probabilité empirique associée à un échantillon dont la loi parente est inconnue permet de
choisir parmi les lois usuelles celle qui lui « ressemble » . Si notre choix s’oriente vers une certaine loi P de fonction
de répartition F, on pourra retenir l’hypothèse que l’échantillon provient de cette loi si la distance entre la fonction de
répartition théorique F et la fonction de répartition empirique Fn est faible
Si l’événement d(Fn , F) < C est réalisé, alors je retiens l’hypothèse qu’il s’agit d’un échantillon de la loi de fonction de
répartition F ». On peut cependant se tromper en rejetant cette hypothèse alors que F est bien la fonction de répartition
des variables de l’échantillon ; cette erreur se produit avec une probabilité qui est α = P (d(Fn , F) > C).

4.6.2 Test du khi-deux

Ce test est à retenir si les données sont discrètes, avec des valeurs possibles notéesxi , de probabilité pi pour 1 ≤ i ≤ k
ou si les données individuelles ne sont pas fournies, mais ont été réparties en classes (ai , ai+1 ) dont les fréquences
théoriques sont calculées à partir de la loi théorique postulée :

pi = P (X ∈ (ai , ai+1 )) = F(ai+1 ) − F(ai )

Si Ni est le nombre (aléatoire) d’observations xi , ou appartenant à la classe (ai , ai+1 ) , nous allons le comparer à l’effectif
théorique qui est npi

Ni ⇝ B(n, pi )

Les variables centrées



(Ni − npi )⧸ npi
 p 
convergent vers la loi N 0, 1 − pi .
On retient donc la distance :
k
X (Ni − npi )2
d (F, Fn ) =
i=1
npi

converge vers une loi vers χ2 (k − 1)


Cette approximation est justifiée si n est assez grand et pi pas trop petit, avec comme règle empirique npi ≥ 5 . Si ce
n’est pas le cas à cause d’une valeur de pi trop petite on doit regrouper des classes (ou des valeurs)
Soit l’hypothèse :
H0 : la loi de l’échantillon est égale à F

H1 : la loi de l’échantillon est différente de F

on procède de la manière suivante :

1. on choisit un risque (de première espèce) α

————————————————————— 45 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.6. COMPLÉMENTS

2. avec la table de la loi du χ2 (k − 1) on détermine la borne cα = χ2 k−1,α avec

P(X > cα ) = α

3. on rejette l’hypothèse H0 au profit de H1 si :

d(Fn , F) > cα

Exemple 4.13. Ayant demandé à dix personnes de fournir chacune dix chiffres choisis au hasard, on souhaite savoir si
effectivement les cent chiffres obtenus forment bien une distribution au hasard. L’hypothèse à tester ici est donc celle
d’une loi uniforme discrète sur l’ensemble des dix chiffres {0, 1, ..., 9} , donc avec des probabilités égales pour chacune
de ces valeurs, pi = 1/10 pour i = 0, 1, ..., 9. Le tableau ci-après contient la distribution empirique (observée) sur la
deuxième ligne et la distribution théorique sur la troisième.

xi 0 1 2 3 4 5 6 7 8 9
Ni 10 8 9 14 8 9 11 9 12 10
npi 10 10 10 10 10 10 10 10 10 10
(Ni − npi )2 /npi 0 0.4 0.1 1.6 0.4 0.1 0.1 0.1 0.4 0

k
X (Ni − npi )2
d (F, Fn ) = = 3.2
i=1
npi

 
α = P (d(Fn , F) > C) = P χ2 (10) > C = 0.05

.
 
P χ2 (10) < C = 0.95.

donc
cα = χ29,0.95 = 16.92 > 3.2

la valeur de la distance est inférieure à cα on peut accepter l’hypothèse d’une répartition uniforme.

Exemple 4.14. On a observé pendant deux heures le nombre de voitures arrivées par minute à un poste de péage. Si X
est la v.a. représentant le nombre de voitures arrivant dans une minute à ce poste de péage, on fait l’hypothèse qu’elle
suit une loi de Poisson.
Le tableau ci-après contient les valeurs observées xi de cette variable et le nombre d’observations correspondantes Ni .
Pour calculer les probabilités théoriques pi = P(X = xi ) il faut spécifier complétement la loi, c’est-à-dire indiquer le
paramètre de cette loi de Poisson.
Le calcul de la moyenne empirique donne

n
X
x̄ = Ni xi = 444/120 = 3.7
i=1

————————————————————— 46 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.6. COMPLÉMENTS

la variance empirique a pour valeur

n
X
V(X) = 1/120 Ni (xi − x̄)2 = 525.20/120 = 4.38
i=1

On retient alors la partie entière de (3.7 + 4.38)/2 = 4.038 , c’es 4 comme paramètre de cette loi de Poisson.

xi 0 1 2 3 4 5 6 7 8 9 10 11 Somme
Ni 4 9 24 25 22 18 6 5 3 2 1 1 120
npi = nP(x = xi ) 2 9 18 23 23 19 13 7 3 2 1 0
N i xi 0 9 48 75 88 90 36 35 24 18 10 11 444
(xi − x̄)2 54.76 65.61 69.36 12.25 1.98 30.42 31.74 54.45 55.47 56.18 39.69 53.29 525.20

Les valeurs des effectifs théoriques inférieures à 5 nécessitent de regrouper la première et les quatre dernières
valeurs :

xi 1 2 3 4 5 6 7 autre
Ni 9 24 25 22 18 6 5 11
npi = nP(x = xi ) 9 18 23 23 19 13 7 8

ramenant à 8 le nombre de valeurs retenues, soit 8 − 1 − 1 = 6 degrés de liberté puisqu’un paramètre a été estimé.
Le fractile d’ordre 0.95 de la loi du khi-deux à 6 degrés de liberté est C = 12.6. On obtient d(Fn , F) = 7.73 ce qui
conduit donc à accepter l’hypothèse que X suit une loi de Poisson de paramètre 4.

4.6.3 Test d’indépendance du khi-deux

Pour tester l’indépendance de deux caractères X et Y, qualitatifs ou quantitatifs (répartis alors en classes), à
respectivement r et s modalités, on relève le nombre ni j d’individus d ?une population de taille

r X
X s
ni j
i=1 j=1

qui possèdent simultanément la modalité i, 1 ≤< r, du caractère X et la modalité j, 1 ≤ j ≤ s du caractère Y.


Soit pi j la probabilité théorique correspondante, pour un individu tiré au hasard dans la population, de posséder
simultanément ces deux modalités i et j. Les probabilités marginales sont :

s
X r
X
pi. = pi j et p. j = pi j
j=1 i=1

L’indépendance de ces deux caractères se traduit par l ?hypothèse nulle

H0 : pi j = pi. × p. j vs H1 : : pi j , pi. × p. j .

————————————————————— 47 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa
CHAPITRE 4. TESTS D’HYPOTHÈSES PARAMÉTRIQUES 4.6. COMPLÉMENTS

on utilise la statistique :  r s
X X n2i j
r X
s

X (ni j − ni. n. j ⧸n)2 
Dn = = n  − 1
i=1 j=1
ni. n. j ⧸n)2 ni. n. j
i=1 j=1

Sous H0 , sa loi asymptotique, est la loi du khi-deux à (r − 1)(s − 1) degrés de liberté, les effectifs marginaux :

s
X r
X
ni. = ni j et n. j = ni j
j=1 i=1

La région critique (rejet) de ce test est de la forme :

Dn ≥ C

Le risque de première espèce


α = P (Dn ≥ c/H0 )

avec C= le fractile d’ordre 1 − α de la loi χ2(r−1)(s−1)

Exemple 4.15. Pour comparer l’efficacité de deux médicaments semblables, mais de prix très différents, la Sécurité
sociale a effectué une enquête sur les guérisons obtenues avec ces deux traitements. Les résultats sont présentés dans le
tableau suivant :

Médicament cher Médicament bon marché


Guérisons 156 44 200
Non-guérisons 44 6 50
200 50 250

On calcule la valeur de la statistique :

1562 442 62
!
Dn = 250 +2 4 + − 1 = 2.5
4.104 10 25.102

Pour un risque de première espèce α = 0.05,

C = χ21−α (1) = 3.84

Dn = 2.3 < C = 3.84

, donc, on accepte l’hypothèse nulle d’indépendance du taux de guérison et du coût du médicament.

————————————————————— 48 —————————————————————
Cours de Statistique Mathématique Ingénierie Statistique-S6: FST-Tanger—2021-2022— K.Boulifa

Vous aimerez peut-être aussi