next up previous contents
Next: Fonction génératrice Up: Probabilités discrètes Previous: Théorème de la limite   Contents


Loi de Poisson et `` loi des petits nombres''

La loi normale donne une bonne approximation de la loi binomiale pour $ q$ fixé et $ n$ tendant vers l'infini. La loi de Poisson, quant à elle, décrit bien la loi binomiale pour $ n$ tendant vers l'infini et $ q$ tendant vers zéro, avec le produit $ nq$ tendant vers une constante. Elle modélise donc les expériences de Bernoulli avec une très faible probabilité de succès, mais avec un grand nombre d'essais, du même ordre de grandeur que l'inverse de la probabilité de succès.


\begin{definition}[Loi de Poisson]
La\/ \defwd{loi de Poisson}\/ de param\\lq etre\...
...bda}\frac{\lambda^k}{k!}
\qquad
\forall k\in\N\;.
\end{equation}\end{definition}

Remarquons que $ \pi_\lambda$ définit bien une loi de probabilité, puisque $ \e^\lambda > \lambda^k/k!$ pour tout $ k$ et donc $ \pi_\lambda(k)\in[0,1]$, et

$\displaystyle \sum_{k=0}^\infty \pi_\lambda(k) = \e^{-\lambda} \sum_{k=0}^\infty \frac{\lambda^k}{k!} = \e^{-\lambda}\e^{\lambda} = 1\;.$ (1.38)


\begin{prop}\hfill
\begin{enum}
\item L'esp\'erance et la variance de la loi de ...
...+Y$\ suit une loi de
Poisson de param\\lq etre $\lambda+\mu$.
\end{enum}\end{prop}

EMONSTRATION.
\begin{enum}
\item Si $X$\ suit une loi de Poisson de param\\lq etre $\lambda$, alo...
...\mu)^n}
\e^{-(\lambda+\mu)} \\
&= \pi_{\lambda+\mu}(n)\;.
\end{align}\end{enum}
$ \qedsymbol$

La proposition suivante établit la convergence (simple, c'est-à-dire à $ k$ fixé) de la loi binomiale vers la loi de Poisson.


\begin{prop}
Soit $\set{q_n}_{n\geqs0}$\ une suite telle que
$\lim_{n\to\infty}n...
...ion}
\lim_{n\to\infty} b(k; n, q_n) = \pi_\lambda(k)\;.
\end{equation}\end{prop}

EMONSTRATION. Soit $ \lambda_n=nq_n$. Alors

$\displaystyle b(k; n, q_n)$ $\displaystyle = b\Bigpar{k; n, \frac{\lambda_n}n}$    
  $\displaystyle = \frac{n(n-1)\dots(n-k+1)}{k!} \frac{\lambda_n^k}{n^k} \biggpar{1-\frac{\lambda_n}n}^{n-k}$    
  $\displaystyle = \frac{\lambda_n^k}{k!} \frac1{(1-\lambda_n/n)^k} \biggpar{1-\frac1n}\dots\biggpar{1-\frac{k-1}n}\biggpar{1-\frac{\lambda_n}n}^n\;.$ (1.39)

Lorsque $ n\to\infty$, on a $ \lambda_n\to\lambda$, $ \lambda_n/n\to0$ et $ j/n\to0$ pour $ j=0,\dots,k-1$, donc

$\displaystyle \lim_{n\to\infty} b(k; n, q_n) = \frac{\lambda^k}{k!} \lim_{n\to\infty} \biggpar{1-\frac{\lambda_n}n}^n = \frac{\lambda^k}{k!}\e^{-\lambda}\;,$ (1.40)

la dernière égalité pouvant se montrer par un développement limité de $ \log\brak{(1-\lambda_n/n)^n}$. $ \qedsymbol$


\begin{example}
La probabilit\'e de gagner au tierc\'e est de $1/1000$. Quelle e...
...er, puisqu'elle ne fait pas intervenir de coefficients binomiaux.
\end{example}

On peut en fait faire beaucoup mieux que de montrer la convergence simple de la loi binomiale vers la loi de Poisson, et borner la `` distance $ \ell_1$'' entre les deux lois.


\begin{theorem}
On a
\begin{equation}
\sum_{k=0}^\infty \bigabs{b(k; n, q) - \pi_{nq}(k)} \leqs nq^2\;.
\end{equation}\end{theorem}

EMONSTRATION. La démonstration que nous allons donner est une petite merveille de la théorie des probabilités. Elle n'utilise pratiquement pas d'analyse, mais un grand nombre de concepts de probabilités discrètes vus jusqu'ici.

Nous commençons par introduire des espaces probabilisés $ (\Omega_i,p_i)$, pour $ i=1,\dots,n$, donnés par $ \Omega_i = \set{-1,0,1,2,\dots}$ et

$\displaystyle p_i(k) = \begin{cases}\e^{-q} - (1-q) & \text{si $k=-1$\;,} \\  1...
...{si $k=0$\;,} \\  \e^{-q} \dfrac{q^k}{k!} & \text{si $k\geqs 1$\;.} \end{cases}$ (1.41)

On vérifiera que les $ p_i$ définissent bien une distribution de probabilité. Sur chaque $ \Omega_i$, nous introduisons les deux variables aléatoires

$\displaystyle X_i(\omega_i) = \begin{cases}0 & \text{si $\omega_i=0$\;,} \\  1 ...
...s}\omega_i & \text{si $\omega_i\geqs 1$\;,} \\  0 & \text{sinon\;.} \end{cases}$ (1.42)

De cette manière, on a $ \prob{X_i=0}=1-q$, $ \prob{X_i=1}=q$, et $ \prob{Y_i=k}= \pi_q(k)$ pour tout $ k\geqs0$. De plus,

$\displaystyle \prob{X_i=Y_i}$ $\displaystyle = \prob{X_i=0, Y_i=0} + \prob{X_i=1, Y_i=1}$    
  $\displaystyle = p_i(0) + p_i(1) = 1 - q + q \e^{-q}\;,$ (1.43)

donc

$\displaystyle \prob{X_i \neq Y_i} = q (1-\e^{-q}) \leqs q^2\;.$ (1.44)

Soit $ (\Omega,p)$ l'espace produit des $ (\Omega_i,p_i)$. Alors
\begin{itemiz}
% latex2html id marker 1535\item $X=X_1+\dots+X_n$\ suit la loi...
...rob{Y=k}=\pi_{nq}(k)$,
en vertu de la Proposition~\ref{prop_lpn1}.
\end{itemiz}
Comme $ X\neq Y$ implique que $ X_i\neq Y_i$ pour un $ i$ au moins, il suit de (1.6.14) que

$\displaystyle \prob{X\neq Y} \leqs \sum_{i=1}^n \prob{X_i\neq Y_i} \leqs nq^2\;.$ (1.45)

Il reste donc à montrer que la le membre de gauche de (1.6.10) est majoré par $ 2\prob{X\neq Y}$. Un tel procédé s'appelle un argument de couplage. Nous posons, pour abréger l'écriture, $ f(k)=\prob{X=k}$, $ g(k)=\prob{Y=k}$ et $ A = \setsuch{k}{f(k)>g(k)}$. Alors

$\displaystyle \sum_{k=0}^\infty \bigabs{b(k; n, q) - \pi_{nq}(k)}$ $\displaystyle = \sum_{k=0}^\infty \bigabs{f(k)-g(k)}$    
  $\displaystyle = \sum_{k\in A} \bigpar{f(k)-g(k)} - \sum_{k\notin A} (f(k)-g(k))$    
  $\displaystyle = 2 \sum_{k\in A} \bigpar{f(k)-g(k)} - \underbrace{\sum_{k\in\N} \bigpar{f(k)-g(k)}}_{=1-1=0}\;.$ (1.46)

Or nous pouvons écrire

$\displaystyle \sum_{k\in A} \bigpar{f(k)-g(k)}$ $\displaystyle = \prob{X\in A} - \prob{Y\in A}$    
  $\displaystyle = \prob{X\in A, Y\in A} + \prob{X\in A, Y\neq X} - \prob{Y\in A}$    
  $\displaystyle \leqs \prob{X\in A, Y\in A} + \prob{X\neq Y} - \prob{Y\in A}$    
  $\displaystyle \leqs \prob{X \neq Y}\;,$ (1.47)

ce qui conclut la démonstration. $ \qedsymbol$

Le corollaire suivant montre l'utilité de la relation (1.6.10).


\begin{cor}
Soit $f:\N\to\R$\ une fonction telle que $\abs{f(k)}\leqs M$\ pour t...
...n}
\bigabs{\prob{X\in A} - \prob{Y\in A}} \leqs nq^2\;.
\end{equation}\end{cor}

EMONSTRATION.

$\displaystyle \bigabs{\expec{f(X)}-\expec{f(Y)}} \leqs \sum_{k=0}^\infty \bigabs{f(k)}\bigabs{b(k; n, q)-\pi_{nq}(k)} \leqs Mnq^2\;.$ (1.48)

La relation (1.6.19) est un cas particulier de (1.6.18), avec $ f(X)=\indicator{A}(X)$ égale à la fonction indicatrice de $ X\in A$. En effet, on a $ \expec{\indicator{A}(X)} = \sum_{k\in A}\prob{X=k} = \prob{X\in A}$ et $ \abs{\indicator{A}(k)}\leqs 1$ pour tout $ k\in A$. $ \qedsymbol$


\begin{example}
% latex2html id marker 1618Revenons \\lq a l'exemple~\ref{ex_lpn}...
...t la
somme de ces diff\'erences qui est inf\'erieure \\lq a $0.002$.
\end{example}


next up previous contents
Next: Fonction génératrice Up: Probabilités discrètes Previous: Théorème de la limite   Contents
berglund 2005-11-28