next up previous contents
Next: Les chaînes de Markov Up: Introduction aux processus stochastiques Previous: La marche aléatoire unidimensionnelle   Contents


Le processus ponctuel de Poisson

Le processus ponctuel de Poisson est un processus stochastique d'un type un peu différent, qui associe une distribution de probabilité aux configurations de points sur $ \R_+$. Ces points modélisent, par exemple, les temps de passage d'un bus à un arrêt, les instants d'arrivée d'appels téléphoniques dans une centrale, et ainsi de suite.

\begin{figure}{\small {\bf Figure 3.5. }
Une r\'ealisation d'un processus de Poisson.}\end{figure}

Le processus peut être caractérisé de plusieurs manières différentes. Une réalisation peut être spécifiée par une suite croissante de nombres réels positifs

$\displaystyle X_0 = 0 < X_1(\omega) < X_2(\omega) < X_3(\omega) < \dots \;,$ (3.23)

désignant les positions des points dans $ \R_+$. Alternativement, on peut décrire une réalisation en donnant le nombre de points $ N_I(\omega)$ contenus dans chaque intervalle $ I$ de la forme $ I=]t,t+s]$. Si nous abrégeons $ N_{]0,t]}$ par $ N_t$, nous aurons $ N_{]t,t+s]}=N_{t+s}-N_t$, et les $ N_t$ sont donnés en fonction des $ X_n$ par

$\displaystyle N_t(\omega) = \sup\setsuch{n\geqs0}{X_n(\omega)\leqs t}\;.$ (3.24)

Inversement, les $ X_n$ se déduisent des $ N_t$ par la relation

$\displaystyle X_n(\omega) = \inf\setsuch{t\geqs0}{N_t(\omega)\geqs n}\;.$ (3.25)

Nous allons voir deux constructions équivalentes du processus de Poisson. La première construction part de la distribution des $ N_t$.


\begin{definition}[Processus de Poisson]
Le processus ponctuel de Poisson satisf...
...s:
$\lim_{\eps\to0}\frac1\eps\prob{N_\eps\geqs2}=0$.
\end{enum}\end{definition}

Supposant qu'un tel processus existe bel et bien, nous pouvons dériver quelques-unes de ses propriétés.


\begin{prop}\hfill
\begin{enum}
\item Soit $\alpha(t)=\expec{N_t}$. Alors il exi...
...$I\subset\R_+$, on a $\prob{N_I\geqs 1}\leqs
\expec{N_I}$.
\end{enum}\end{prop}

EMONSTRATION.
\begin{enum}
% latex2html id marker 3267\item Comme $N_0=0$, on a $\alpha(0)=0...
...equence directe du Lemme~\ref{lem_Cheby} et du fait
que $N_I\geqs0$.
\end{enum}
$ \qedsymbol$

La propriété remarquable du processus de Poisson est alors que les variables aléatoires $ N_{]t,t+s]}$ suivent nécessairement une loi de Poisson de paramètre $ \lambda s$.


\begin{theorem}
% latex2html id marker 3278Si le processus satisfait les 5 con...
...a s}(k)
= \e^{-\lambda s}\frac{(\lambda s)^k}{k!}\;.
\end{equation}\end{theorem}

EMONSTRATION. Par la propriété 1., il suffit de montrer le résultat pour $ t=0$, c'est-à-dire pour $ N_s$. Partageons $ ]0,s]$ en $ k$ intervalles de longueur égale, de la forme

$\displaystyle ]s_{j-1},s_j]$   où $ s_j = \dfrac{js}k$ pour $ 0\leqs j\leqs k$  . (3.26)

L'idée de la preuve est que pour $ k$ suffisamment grand, il est peu probable d'avoir plus d'un point par intervalle, donc la loi de $ Y^{(k)}_j
= N_{]s_{j-1},s_j]}$ est à peu près une loi de Bernoulli. La loi de $ N_s$ est donc proche d'une loi binomiale, que l'on peut approximer par la loi de Poisson pour $ k$ grand.

Il suit des conditions 1. et 2. que les $ Y^{(k)}_j$ sont i.i.d., de même loi que $ N_{s_1}=N_{s/k}$, et on a

$\displaystyle N_s = \sum_{j=1}^k Y^{(k)}_j\;.$ (3.27)

Introduisons alors des variables aléatoires

$\displaystyle \overbar Y^{(k)}_j = \begin{cases}0 & \text{si $Y^{(k)}_j=0$\;,}\\  1 & \text{si $Y^{(k)}_j\geqs1$\;.} \end{cases}$ (3.28)

Les $ \overbar Y^{(k)}_j$ sont également i.i.d.. La variable aléatoire

$\displaystyle \overbar N^{(k)}_s = \sum_{j=1}^k \overbar Y^{(k)}_j\;,$ (3.29)

satisfaisant $ \overbar N^{(k)}_s \leqs N_s$ pour tout $ k$, on a

$\displaystyle \prob{\overbar N^{(k)}_s \geqs m} \leqs \prob{N_s \geqs m}$ (3.30)

pour tout $ k$ et tout $ m$. De plus, $ \overbar N^{(k)}_s$ suit une loi binomiale de paramètre

$\displaystyle p_k = \prob{\overbar Y^{(k)}_j=1} = \prob{Y^{(k)}_j\geqs1} = \prob{N_{s/k}\geqs1}\;.$ (3.31)

Estimons maintenant la différence entre les lois de $ \overbar N^{(k)}_s$ et $ N_s$. Nous avons

$\displaystyle \prob{\overbar N^{(k)}_s\neq N_s}$ $\displaystyle = \prob{\exists j\in\set{1,\dots,k}:\,Y^{(k)}_j\geqs2}$    
  $\displaystyle \leqs \sum_{j=1}^k \prob{Y^{(k)}_j\geqs2}$    
  $\displaystyle = k \prob{Y^{(k)}_1\geqs2} = k \prob{N_{s/k}\geqs2}\;.$ (3.32)

La condition 5. avec $ \eps=s/k$ implique alors

$\displaystyle \lim_{k\to\infty} \prob{\overbar N^{(k)}_s\neq N_s} = 0\;.$ (3.33)

Comme on a d'une part la minoration

$\displaystyle \prob{N_s = m} \geqs \prob{N_s = \overbar N^{(k)}_s = m} \geqs \prob{\overbar N^{(k)}_s = m} - \prob{\overbar N^{(k)}_s \neq N_s}\;,$ (3.34)

et d'autre part la majoration

$\displaystyle \prob{N_s = m}$ $\displaystyle = \prob{\overbar N^{(k)}_s = N_s = m} + \prob{\overbar N^{(k)}_s \neq N_s = m}$    
  $\displaystyle \leqs \prob{\overbar N^{(k)}_s = m} + \prob{N_s \neq \overbar N^{(k)}_s}\;,$ (3.35)

il suit que

$\displaystyle \lim_{k\to\infty} \prob{\overbar N^{(k)}_s = m} = \prob{N_s = m}\;.$ (3.36)

Il reste à montrer que $ kp_k$ tend vers $ \lambda s$ pour $ k\to\infty$. Si c'est le cas, alors la Proposition 1.6.3 montre que $ N_s$ suit une loi de Poisson de paramètre $ \lambda s$. Or nous avons

$\displaystyle kp_k$ $\displaystyle = \expec{\overbar N^{(k)}_s} = \sum_{j=1}^\infty j\prob{\overbar N^{(k)}_s=j} = \sum_{j=1}^\infty \sum_{\ell=1}^j\prob{\overbar N^{(k)}_s=j}$    
  $\displaystyle = \sum_{\ell=1}^\infty \sum_{j=\ell}^\infty\prob{\overbar N^{(k)}_s=j} = \sum_{\ell=1}^\infty \prob{\overbar N^{(k)}_s\geqs\ell}\;.$ (3.37)

Un calcul analogue montre que

$\displaystyle \lambda s = \expec{N_s} = \sum_{\ell=1}^\infty \prob{N_s\geqs\ell}\;.$ (3.38)

Il suit de (3.2.10) que $ kp_k \leqs \lambda s$ pour tout $ k$. Par un théorème d'analyse, on peut alors intervertir limite et somme, et écrire

$\displaystyle \lim_{k\to\infty} \sum_{\ell=1}^\infty \prob{\overbar N^{(k)}_s\g...
...r N^{(k)}_s\geqs\ell} = \sum_{\ell=1}^\infty \prob{N_s\geqs\ell} = \lambda s\;,$ (3.39)

en vertu de (3.2.16). Ceci montre que $ kp_k$ converge bien vers $ \lambda s$, et par conséquent que la loi de $ N_s$, étant la limite d'une loi binomiale de paramètre $ kp_k$, est une loi de Poisson de paramètre $ \lambda s$. $ \qedsymbol$

La seconde construction du processus ponctuel de Poisson se base sur la distribution des différences de position $ Z_n=X_n-X_{n-1}$. Celles-ci caractérisent également de manière univoque le processus, via la relation

$\displaystyle X_n(\omega) = \sum_{j=1}^n Z_j(\omega)\;.$ (3.40)


\begin{theorem}
Pour tout $n$, les variables al\'eatoires $Z_1,\dots,Z_n$\ sont
...
...antes, et suivent la m\^eme loi exponentielle $\cE\!xp(\lambda)$.
\end{theorem}

EMONSTRATION. Fixons des instants

$\displaystyle t_0=0 < s_1 < t_1 < s_2 < t_2 < \dots < s_n < t_n\;.$ (3.41)

Nous pouvons alors calculer

  $\displaystyle \bigprob{X_1\in]s_1,t_1], X_2\in]s_2,t_2], \dots, X_n\in]s_n,t_n]}$    
  $\displaystyle {\qquad}= \bigprob{N_{]0,s_1]}=0, N_{]s_1,t_1]}=1, N_{]t_1,s_2]}=0, \dots, N_{]t_{n-1},s_n]}=0, N_{]s_n,t_n]}\geqs1}$    
  $\displaystyle {\qquad}= \prod_{k=1}^n \bigprob{N_{]t_{k-1},s_k]}=0} \prod_{k=1}^{n-1} \bigprob{N_{]s_k,t_k]}=1} \,\bigprob{N_{]s_n,t_n]}\geqs 1}$    
  $\displaystyle {\qquad}= \prod_{k=1}^n \e^{-\lambda(s_k-t_{k-1})} \prod_{k=1}^{n-1} \lambda(t_k-s_k)\e^{-\lambda(t_k-s_k)} \,\bigbrak{1 - \e^{-\lambda(t_n-s_n)}}$    
  $\displaystyle {\qquad}= \lambda^{n-1} \prod_{k=1}^{n-1} (t_k-s_k) \bigbrak{\e^{-\lambda s_n} - \e^{-\lambda t_n}}$    
  $\displaystyle {\qquad}= \int_{s_1}^{t_1} \int_{s_2}^{t_2} \dots \int_{s_n}^{t_n} \lambda^n \e^{-\lambda x_n} \,\6x_n \6x_{n-1} \dots \6x_2 \6x_1\;.$ (3.42)

La loi conjointe de $ (X_1,\dots,X_n)$ admet donc la densité

$\displaystyle f(x_1,\dots,x_n) = \begin{cases}\lambda^n \e^{-\lambda x_n} & \text{si $0<x_1<\dots<x_n$\;,}\\  0 & \text{sinon\;.} \end{cases}$ (3.43)

Nous pouvons alors calculer la fonction de répartion des $ Z_k$:

$\displaystyle \bigprob{Z_1\leqs z_1,\dots,Z_n\leqs z_n}$ $\displaystyle = \bigprob{X_1\leqs z_1,X_2-X_1\leqs z_2,\dots,X_n-X_{n-1}\leqs z_n}$    
  $\displaystyle = \bigprob{X_1\leqs z_1,X_2\leqs z_2+X_1,\dots,X_n\leqs z_n+X_{n-1}}$    
  $\displaystyle = \int_0^{z_1} \int_{x_1}^{z_2+x_1} \dots \int_{x_{n-1}}^{z_n+x_{n-1}} f(x_1,\dots,x_n) \6x_n \dots \6x_1 \;.$ (3.44)

La densité conjointe de $ (Z_1,\dots,Z_n)$ s'obtient alors en calculant la dérivée

$\displaystyle \dpar{^n}{z_1\dots\partial z_n}\bigprob{Z_1\leqs z_1,\dots,Z_n\leqs z_n}$ $\displaystyle = f(z_1,z_1+z_2,\dots,z_1+\dots+z_n)$    
  $\displaystyle = \lambda^n \e^{-\lambda (z_1+\dots+z_n)}\;,$ (3.45)

Or cette densité est bien la densité conjointe de $ n$ variables exponentielles indépendantes de paramètre $ \lambda$. $ \qedsymbol$

Ce résultat fournit une méthode permettant de construire le processus de Poisson: chaque $ X_n$ est obtenu à partir de $ X_{n-1}$ en lui ajoutant une variable aléatoire de loi exponentielle, indépendante des variables précédentes. Ceci présuppose l'existence d'un espace probabilisé pouvant contenir une infinité de variables aléatoires exponentielles indépendantes: C'est l'espace produit que nous avons évoqué (sans prouver son existence) dans l'Exemple 2.3.4.


next up previous contents
Next: Les chaînes de Markov Up: Introduction aux processus stochastiques Previous: La marche aléatoire unidimensionnelle   Contents
berglund 2005-11-28