0% ont trouvé ce document utile (0 vote)
77 vues12 pages

Poisson

Transféré par

mponggustave06042003
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
77 vues12 pages

Poisson

Transféré par

mponggustave06042003
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 12

Cours sur les processus de poissons

Jérémy Bettinger & Simon Viel

Table des matières

1 Introduction 2

2 Processus de Poisson simples 2


2.1 Définitions et caractérisations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2 Comportement asymptotique et estimation de l’intensité . . . . . . . . . . . . . . . . . . 5

3 Le processus de Poisson non homogène 7


3.1 Définition et propriétés fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.2 Estimation paramétrique de la fonction d’intensité . . . . . . . . . . . . . . . . . . . . . 9
3.3 Test de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

4 Processus de Poisson composé 10

5 Amincissement et superposition 11
5.1 Amincissement d’un processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.2 Superposition de processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1
1 Introduction
Les processus de Poisson sont les processus ponctuels les plus simples à étudier. Les évènements parti-
culiers modélisés sont appelés des sauts. Ils peuvent être temporels, représentant le moment d’arrivée
d’une personne à un service, la date d’apparition d’une catastrophe ou bien spatiaux comme la position
des antennes téléphoniques dans la ville de Sydney.
Nous étudierons les processus de Poisson simples, de paramètre constant, c’est-à-dire lorsque l’appari-
tion des sauts est équilibrée au cours du temps (on suppose qu’il n’y a pas plus de clients arrivant à la
banque à l’heure de midi) ainsi que les processus de Poisson dits inhomogènes et composés.

2 Processus de Poisson simples


2.1 Définitions et caractérisations

Définition 2.1. Soit (Xt )t∈R+ un processus stochastique à valeurs réelles. On dit (Xt )t∈R+ est un
processus de comptage si pour P-presque tout ω ∈ Ω, la trajectoire t 7→ Xt (ω) est croissante par sauts
de 1, continue à droite et telle que X0 = 0 p.s.

Définition 2.2. Un processus de comptage (Nt )t∈R+ est appelé un processus de Poisson simple de
paramètre λ ∈ R×
+ lorsque :
1. le processus est à accroissements indépendants, c’est-à-dire que pour tous s, t ∈ R×
+ , la variable
aléatoire Nt+s − Ns est indépendante de σ (Nu | u ∈ [0; s]).
2. Pour tous s, t ∈ R+ , la variable aléatoire Nt+s − Ns suit une loi de Poisson de paramètre λt.

Remarque 2.3. — Les accroissements d’un processus de Poisson sont aussi stationnaires car la
loi de Nt+s − Ns est la même pour toutes les valeurs de s.
— Un processus de Poisson simple est donc un cas particulier de processus de Lévy ainsi qu’un
processus de naissance.
— Le paramètre λ est appelé l’intensité du processus. On la retrouve dans l’expression E[Nt ] = λt.

Exemple 2.4. Un processus de Poisson homogène peut traditionnellement représenter le nombre de


pannes d’une machine jusqu’à un instant donné en supposant la machine réparée instantanément.
Ce processus a aussi été aussi utilisé pour modéliser le nombre de désintégrations de particules
 radioac-
(n) (n)
tives dans un intervalle de temps donné. Plus précisément, si on considère un n-uplet X1 , . . . , Xn
de variables aléatoires toutes indépendantes entre elles et toutes de loi exponentielle de paramètre λ/n
(représentant les durée de vies des particules), alors le réarrangement croissant de ces variables aléa-
toires converge en loi vers la suite des temps de sauts d’un processus de Poisson d’intensité λ.

Théorème 2.5. Soit N un processus de comptage sur R+ . Alors N est un processus de Poisson simple
si et seulement si :
— N a des accroissements indépendants et stationnaires,
— P (Nt+h − Nt = 1) = λh + o(h),
— P (Nt+h − Nt > 1) = o(h).

2
Définition 2.6. Soient N un processus de Poisson simple de paramètre λ et n ∈ N, on définit la date
du n-ième saut comme la variable aléatoire Tn = inf {t ∈ R+ | Nt ≥ n} et la durée du n-ième intersaut,
n ≥ 1, comme la variable aléatoire En = Tn − Tn−1 .

Proposition 2.7. Si (Tn )n∈N désigne les instants de sauts du processus de Poisson simple alors
X
Nt = 1{Tn ≤t} .
n∈N∗

De plus les durées (En = Tn − Tn−1 )n∈N∗ d’intersauts sont des variables aléatoires iid de loi exponen-
tielle de paramètre λ.

Remarque 2.8. La proposition précédente donne une nouvelle définition équivalente du processus de
Poisson simple ainsi qu’une première façon de le construire. On part d’une collection iid (En )n∈N∗ de
variables aléatoires de loi E(λ) puis on définit le processus N sur R+ par Nt = n∈N∗ 1(Pn Ek ≤t) ou
P
k=1
encore Nt = max{n ∈ N | nk=1 Ek ≤ t}.
P

Cette construction est d’autant plus pratique lorsque l’on sait à l’avance que l’on veut générer une
trajectoire de processus de Poisson jusqu’à son n-ième saut, on a alors besoin de générer n variables
exponentielles indépendantes.

Corollaire 2.9. La densité du vecteur (T1 , . . . , Tn ) est donnée par

f(T1 ,...,Tn ) (t1 , . . . , tn ) = λn exp (−λtn ) 1(0<t1 <...<tn ) .

Proposition 2.10. Conditionnellement à l’événement {Nt = n}, le vecteur des temps de sauts (T1 , . . . , Tn )
a la même loi que les statistiques d’ordre de n variables aléatoires iid de loi uniforme sur [0, t].

Remarque 2.11. Cette proposition nous donne une seconde manière de simuler une trajectoire d’un
processus de Poisson simple qui est cette fois adaptée lorsque l’on sait à l’avance que l’on va s’arrêter
à la date T .
Étant donné λ et T , on simule la variable aléatoire NT , de loi de Poisson de paramètre λT puis
connaissant cet entier N , on simule N variables uniformes U1 , . . . , UN sur [0; T ] que l’on range dans
l’ordre croissant afin d’obtenir les dates T1 , . . . , TN .
On définit enfin Nt = N n=1 1(Tn ≤t) = max{n ∈ J1; N K | Tn ≤ t}.
P

3
Proposition 2.12 (Simulation de la loi de Poisson). Soit (Un )n∈N∗ une suite de variables aléatoires
de loi uniforme sur [0, 1]. La variable aléatoire
X := inf{n ∈ N | U1 × · · · × Un+1 < e−λ }
suit une loi de Poisson de paramètre λ.

4
2.2 Comportement asymptotique et estimation de l’intensité

Au niveau du comportement asymptotique de N , nous avons les deux résultats suivants.


Nt
Théorème 2.13. 1. On a lim = λ p.s.
t→+∞ t
2. On a de plus la convergence en loi
r
t Nt
 
L
− λ −−−−→ N (0, 1).
λ t t→+∞

Ce théorème nous donne de bons espoirs quant à la qualité asymptotique d’estimateurs de l’intensité
λ ∈ R×+ . Afin de pouvoir parler d’estimation de l’intensité, il nous faut au préalable préciser quelles sont
les variables aléatoires que l’on observe et l’on distingue alors trois cas.
1. On suppose d’abord que l’on observe l’intégralité du processus jusqu’à une date fixée T . De
manière équivalente, on observe les variables NT et (T1 , . . . , TNT ) et l’estimateur du maximum
de vraisemblance de l’intensité λ est dans ce cas NTT . Le théorème précédent assure la consistance
forte ainsi que la normalité asymptotiquement de cet estimateur. De plus, associé au lemme de
Slutsky, il permet de donner un intervalle de confiance asymptotique de niveau 1 − α pour
l’estimation de l’intensité λ basé sur l’observation du processus jusqu’à la date T
 s s 
NT NT NT NT 
In =  − 2
q, + q
T T T T2

α
où q est le quantile d’ordre 1 − 2 de la loi normale N (0, 1).

5
Cela permet par exemple de construire un test de (H0 ) : λ = λ0 contre (H1 ) : λ ̸= λ0 ou bien
contre (H1 ) : λ > λ0 .

2. On suppose maintenant que l’on observe le processus uniquement à des dates fixées t1 < . . . < tn .
La méthode de la vraisemblance nous donne alors l’estimateur λ̂n = Ntntn qui est le même que
celui obtenu en observant l’intégralité du processus jusqu’au temps tn .

3. On suppose enfin que l’on observe une trajectoire du processus jusqu’à son n-ième saut avec
n ∈ N∗ fixé, c’est-à-dire que l’on observe les variables T1 , . . . , Tn .
Dans ce cas, grâce au corollaire 2.9, l’estimateur du maximum de vraisemblance devient λ̂n = Tnn .
De plus, λ̂n est un estimateur fortement consistant de λ et on dispose de la convergence en loi
√ Tn
 
L
n λ − 1 −−−−−→ N (0, 1).
n n→+∞

permettant d’obtenir un intervalle de confiance asymptotique pour l’estimation de λ dans ce


cadre.

6
3 Le processus de Poisson non homogène
3.1 Définition et propriétés fondamentales
Définition 3.1. Soit λ : R+ → R+ une fonction localement intégrable et Λ : R+ → R+ la fonction
définie par Z t
Λ(t) = λ(s)ds.
0
Un processus de comptage (Nt )t≥0 est appelé processus de Poisson d’intensité λ lorsque :
1. Le processus est à accroissements indépendants.
2. Pour tous s < t ∈ R+ , Nt − Ns suit une loi de Poisson de paramètre Λ(t) − Λ(s).

Remarque 3.2. — On a E[Nt ] = Var (Nt ) = Λ(t).


— Le processus de Poisson simple correspond à une intensité constante au cours du temps (i.e
λ(t) = λ pour tout t ∈ R+ ).

Proposition 3.3. La construction d’un processus de Poisson non homogène peut se faire à partir
d’un processus de poisson simple par une modification de l’échelle de temps. Si N est un processus de
Poisson simple d’intensité 1, alors le processus N
e défini par N
et = N
Λ(t) est un processus de Poisson
non homogène d’intensité λ. Notons

Λ−1 (t) = inf{x ∈ R+ | Λ(x) ≥ t}

la pseudo-inverse continue à gauche de Λ et posons Sn = Λ−1 (Tn ) pour n ∈ N∗ , où Tn est le temps du


n-ième saut de N . Alors on a X
Net = 1(Sn ≤t) , t ∈ R+ .
n∈N∗

Exemple 3.4. — On peut imaginer que l’intensité des arrivées à un guichet subit une modification
brusque au cours du temps : λ(t) = λ1 si t ≤ t0 et λ(t) = λ2 si t > t0 .

— En fiabilité, lorsque un matériel subit une succession de pannes et lorsque chaque panne est
réparée instantanément, on utilise souvent un processus de Weibull, c’est à dire un processus de
Poisson non homogène d’intensité :
 β−1
β s
λ(s) = , s ∈ R+ .
α α

On peut alors montrer que le premier instant de saut S1 = Λ−1 (T1 ) a pour loi la loi de Weibull
de paramètres α et β dont la densité est donnée par
 β−1  β !
β t t
f (t) = exp − 1R+ (t)
α α α

De plus si β = 1 (taux de panne constant autour du temps) on retrouve la loi exponentielle


de paramètre λ = α1 et donc le processus de Poisson simple. Si β > 1, le taux de défaillance
augmente avec le temps (usure du système) alors que si β < 1, le taux de défaillance diminue
avec le temps (les éléments défectueux qui fragilisent le système tombent en panne rapidement).
Les figures suivantes montrent des trajectoires dans les trois cas.

7
Proposition 3.5. Supposons l’intensité λ continue au voisinage de t. Alors

P (Nt+h − Nt = 1) = λ(t)h + o(h) et P (Nt+h − Nt ≥ 2) = o(h).

Remarque 3.6. Afin de pouvoir étendre les résultats sur les temps de sauts des processus de Poisson
homogènes, on demande à ce que presque sûrement Sn = Λ−1 (Tn ) < +∞ pour tout n ∈ N∗ , ce qui est
assuré dès lors que l’on suppose que lim Λ(t) = +∞, hypothèse que l’on fera dans toute la suite.
t→+∞

Proposition 3.7. Soit (Sn )n∈N∗ les temps de sauts d’un processus de Poisson non homogène d’intensité
λ et soit n ∈ N∗ .
1. La loi de (S1 , . . . , Sn ) a pour densité par rapport à la mesure de Lebesgue
 Z tn n
Y
(t1 , . . . , tn ) 7→ exp − λ(u)du λ (tk ) 1(0<t1 <...<tn ) .
0 k=1

8
2. Soit t ∈ R×
+ . Alors la loi conditionnelle de (S1 , . . . , Sn ) | (Nt = n) a pour densité
n
n! Y
(t1 , . . . , tn ) 7→ λ (tk ) 1(0<t1 <...<tn <t) .
Λ(t)n k=1

Remarque 3.8. Rappelons que si X1 , . . . , Xn sont  n variables aléatoires iid de loi à densité f , alors
la loi du réarrangement croissant X(1) , . . . , X(n) de ces variables admet une densité par rapport à la
mesure de Lebesgue
n
Y
(y1 , . . . , yn ) 7→ n! f (yk ) 1(0<y1 <...<yn ) .
k=1
Ainsi la proposition ci-dessus assure que la loi conditionnelle de (S1 , . . . , Sn ) | (Nt = n) est celle du
réarrangement croissant d’un n-échantillon de loi à densité f (x) = λ(x)
Λ(t) 1[0,t] (x).

3.2 Estimation paramétrique de la fonction d’intensité


Comme pour le cas du processus de Poisson simple, on peut utiliser la Proposition 3.7 pour calculer
la fonction de vraisemblance du modèle lorsque l’on observe une trajectoire sur l’intervalle [0, t]. On se
place dans un modèle paramétrique où l’intensité du processus appartient à une famille {λθ | θ ∈ Θ}.
La fonction de vraisemblance s’écrit alors
n
Y
L (t1 , . . . , tn , n; θ) = λθ (tk ) exp (−Λθ (t)) .
k=1

On va donner un estimateur du maximum de vraisemblance dans le cas du processus de Weibull, défini


plus haut, caractérisé par les paramètres α et β via
 β−1
β s
λα,β (t) = , t ∈ R+ .
α α
Ainsi la log-vraisemblance s’écrit
n  β
X t
ℓ (t1 , . . . , tn , n; α, β) = (ln(β) − β ln(α))n + (β − 1) ln (tk ) − .
k=1
α
On en déduit l’estimateur du maximum de vraisemblance
Nt
1 1 X
= ln(t) − ln (Sk ) ,
β̂ Nt k=1
1
ln(α̂) = ln(t) − ln (Nt ) .
β̂
Il est alors possible de donner des intervalles de confiance non-asymptotique pour le paramètre β, en
utilisant une statistique pivotale. En effet, la statistique 2nβ admet comme loi sachant Nt = n une loi
β̂
du χ2 à 2n degrés de liberté. On peut donc construire différents intervalles de confiance de niveau 1 − δ
(conditionnellement à Nt = n)) utilisables pour réaliser des tests sur le paramètre β, soit sur l’usure du
système :
" # " " " #
β̂ β̂ β̂ β̂
In = 0, qδ , In = q1−δ , +∞ , In = q 1−δ , q 1+δ
2n 2n 2n 2 2n 2
où qδ désigne le δ-quantile de la loi χ2 (2n).

9
3.3 Test de Laplace
On cherche maintenant à être en mesure de tester si un processus de Poisson observé sur [0, t] est
homogène ou non. On teste alors l’hypothèse nulle (H0 ) : ”N est un processus de Poisson simple"
contre l’hypothèse (H1 ) : ”N est un processus de Poisson dont l’intensité est non constante et décroît
au cours du temps (resp. croît au cours du temps)".

R +∞
Proposition 3.9. On rappelle que 0 λ(s)ds = +∞. Sachant (Nt = N ), on introduit la statistique
PN
k=1 Sk − N t/2
Yt = p .
t N/12

Pour tester H0 contre H1 "l’intensité est décroissante non constante", notre test est T = 1({Yt <qα }) où
qα est le quantile d’ordre α de la loi N (0, 1).
Si l’hypothèse H1 était "l’intensité est croissante non constante", on aurait choisi le test T = 1({Yt >q1−α }) .

4 Processus de Poisson composé


Définition 4.1. Soient N un processus de Poisson simple de paramètre λ et (Xn )n∈N∗ une collection
de variables aléatoires iid et indépendantes du processus N .
Le processus Zt = N
P t
k=1 Xk définit un processus de Poisson composé sur R+ .

Remarque 4.2. Lorsque l’on choisit pour Xn des variables déterministes égales à 1, on retrouve
Zt = Nt , soit un processus de Poisson simple.

Exemple 4.3. Imaginons que le nombre de clients arrivés à un service à l’instant t suive un processus
de Poisson N et qu’un client dépense une quantité aléatoire X indépendante des autres clients et du
nombre de clients. Alors le montant gagné par le service est un processus de Poisson composé Z.

En conditionnant par rapport à la valeur de Nt , on peut facilement accéder aux moments des variables
Zt dans le processus de Poisson composé en passant par les fonctions caractéristiques.

Proposition 4.4. Un processus de Poisson composé (Zt )t∈R+ a des accroissements stationnaires et
indépendants. De plus, sa fonction caractéristique est donnée par φZ(t) : u 7→ exp{λt(φX (u) − 1)}.

Corollaire 4.5. 1. Si X1 admet un moment d’ordre 1, alors c’est aussi le cas de tous les Zt et
E[Zt ] = λt E[X1 ],
2. Si X1 admet un moment d’ordre 2, alors c’est aussi le cas de tous les Zt et V ar[Zt ] = λt E[X12 ],
L
3. Si X1 est centrée réduite, alors on a la convergence en loi √Zt −−−−→ N (0, 1).
Nt t→+∞

10
5 Amincissement et superposition
5.1 Amincissement d’un processus de Poisson

Définition 5.1. Considérons un processus de Poisson non homogène N d’intensité t 7→ Λ(t). Soient
K un entier naturel et (p1 , . . . , pK ) un vecteur de probabilités tel que chaque événement du processus
a une probabilité pj d’être de type j, pour tout j ∈ J1; KK. Supposons en outre que les attributions des
types sont indépendantes les unes des autres. Pour chaque j ∈ J1; KK, le processus de comptage des
événements de type j, (Nj (t))t∈R+ , est appelé amincissement du processus (N (t))t∈R+ .

Exemple 5.2. On suppose que les arrivées des clients dans un magasin suivent un modèle de Poisson
et que les clients vont acheter au choix du lieu, du bar ou du flétan indépendemment du nombre de
clients et du choix des autres clients. Alors les processus d’arrivées des clients aux différents stands
sont des processus de Poisson amincis du processus des arrivées des clients.

Théorème 5.3. On se donne un processus de Poisson non homogène N d’intensité λ et pour chaque
instant de saut t, on tire aléatoirement son type dans J1; KK selon une loi (P1 (t), . . . , PK (t)) indépen-
dante du processus et des types des autres sauts.
On note Nj (t) le nombre d’événements de type j jusqu’à la date t. Alors N1 , . . . , NK sont des processus
de Poisson non homogènes indépendants d’intensités respectives µj : t 7→ λ(t)Pj (t).

Exemple 5.4 (File d’attente M/G/∞). On imagine que des clientes arrivent à un service doté d’une
infinité de serveurs selon un processus de Poisson simple d’intensité λ. Les durées de services des diffé-
rentes clientes sont iid de loi de fonction de répartition G. Alors le nombre de clientes Ñ (t) satisfaites
jusqu’au temps t est un processus de Poisson non homogène d’intensité t 7→ λG(t).

Pour voir cela, on peut fixer s, t ∈ R× + et attribuer le type 1 à une cliente si elle repart entre les temps
s et s + t. Si la cliente est arrivée à l’instant y, elle bénéficie du type 1 avec probabilité

 G(t + s − y) − G(s − y)
 si y<s
P (y) = G(t + s − y) si s<y <s+t

 0 si y >s+t

D’après le théorème 5.3, le nombre de clientes Ñ (t + s) − Ñ (s) reparties entre les dates s et s + t est
de loi de Poisson de paramètre 0s+t λP (y)dy = λ ss+t G(y)dy.
R R

Parallèlement à cela, pour des intervalles disjoints de R+ notés I1 , . . . , IK , si on donne à une cliente
le type j lorsqu’elle repart dans l’intervalle Ij , on observe, grâce au théorème 5.3, que les nombres de
clientes reparties dans les différents intervalles sont indépendants.
Par conséquent, Ñ satisfait tous les axiomes d’un processus de Poisson non homogène.
On observe également qu’en temps long, λG(t) −−−−→ λ donc on se rapproche du comportement du
t→+∞
simple processus d’arrivée N .

11
5.2 Superposition de processus de Poisson
Définition 5.5. Soient N1 , . . . , NK des processus de Poisson indépendants les uns des autres d’inten-
sités respectives t 7→ λj (t). Pour tout t ∈ R+ , on pose N (t) = K
P
j=1 Nj (t). Le processus (N (t))t∈R+ est
appelé superposition des processus (Nj )j∈J1;KK .
Au niveau des processus ponctuels ou des instants de sauts, cela revient à considérer la réunion de tous
les événements.

Proposition 5.6. Dans les conditions de la définition précédente, le processus (N (t))t∈R+ est un pro-
cessus de Poisson d’intensité t 7→ K
P
j=1 mj (t).

Voyons maintenant ce qu’il se passe pour des processus de Poisson composés.

Définition 5.7. Soient Z1 , . . . , ZK des processus de Poisson composés indépendants tels que pour tout
PNj (t) j
j ∈ J1; KK, Zj (t) = n=1 Yn . Le processus (Z(t))t∈R+ défini par Z(t) = Z1 (t) + . . . + ZK (t), pour
t ∈ R+ , est appelé superposition des processus (Zj )j∈J1;KK .

Proposition 5.8. La superposition de processus de Poisson composés indépendants donne un nouveau


processus de Poisson composé et le processus de Poisson simple sous-jacent N est la superposition des
processus N1 , . . . , NK .

Exemple 5.9. Pour illustrer la superposition de processus de Poisson, voici un exemple concret. Si
l’on suppose que les processus d’ouverture des tulipes d’une certaine couleur dans un jardin sont des
processus de Poisson de même type (tous simples ou tous non homogènes ou encore tous composés)
indépendants les uns des autres, alors le processus d’ouverture de toutes les tulipes est un processus de
Poisson superposé.

Références :
[1] Lionel Truquet, Cours de Master 2 Recherche, Statistique des processus (2012).
[2] Sheldon M. Ross, Stochastic processes 2nd Edition (1996).

12

Vous aimerez peut-être aussi