Next: About this document ...
Up: Introduction aux processus stochastiques
Previous: Chaînes de Markov absorbantes
  Contents
Chaînes de Markov ergodiques
La particularité des chaînes régulières est que l'on peut aller de
n'importe quel état vers n'importe quel autre état en un nombre fixé
de pas, où est indépendant de l'état de départ. Pour les
chaînes ergodiques, on demande simplement que tout état soit
atteignable depuis tout autre, mais le nombre de pas n'est pas
nécessairement fixé.
Nous allons d'abord étudier de plus près les chaînes
régulières, dont le comportement asymptotique est plus simple. En
particulier, la suite des puissances de leur matrice de transition
converge toujours vers une matrice particulière, dont toutes les lignes
sont égales.
D´EMONSTRATION.
Si la chaîne n'a qu'un état, le résultat est immédiat, donc nous
pouvons admettre que
. Nous pouvons supposer que tous les
éléments de
sont positifs pour
, sinon il suffit de
considérer la chaîne dont la matrice de transition est
au lieu
de
. Soit
le plus petit élément de
. Alors
,
puisque
. Soit
un vecteur colonne tel que
|
(3.53) |
Soit
. La plus grande valeur possible d'une composante
de
est obtenue si
et
. Dans ce cas, la
somme des
derniers éléments de la ligne
de
vaut
, et
par conséquent
. On a donc nécessairement
|
(3.54) |
Un raisonnement similaire montre que
|
(3.55) |
Par conséquent, nous avons
, avec
|
(3.56) |
De plus, on voit facilement que
et
.
Après
itérations, les composantes de
seront comprises entre
des nombres
et
, satisfaisant
|
(3.57) |
et
|
(3.58) |
Les suites
et
sont donc
adjacentes, et convergent vers une même limite
. On a donc
|
(3.59) |
où
dépend de
. Appliquons cette relation sur les vecteurs de
base
. Il existe des nombres
tels que
|
(3.60) |
pour chaque
. Or
est la
-ème colonne de
, nous avons
donc prouvé la relation (
3.5.2). Par ailleurs, comme dans le cas
on a
et
, la relation (
3.5.5) donne
, donc
. Par conséquent, tous les
sont strictement
positifs.
L'interprétation des grandeurs
est la suivante: On a
|
(3.61) |
La probabilité que la chaîne de Markov se trouve dans l'état
tend donc vers lorsque le temps tend vers l'infini, indépendamment
de l'état de départ.
Pour déterminer les , il n'est pas nécessaire de calculer
explicitement. En effet, le résultat suivant montre que est un vecteur
propre (à gauche) de . On peut donc le calculer en résolvant un
système linéaire.
D´EMONSTRATION.
L'équation a une interprétation importante.
Supposons qu'à un instant , on ait
pour tout .
À l'instant on aura
|
(3.62) |
ce qui signifie que et ont la même loi.
Si la chaîne de Markov est ergodique mais non régulière, la suite
des ne tend en général pas vers une matrice constante. Par
exemple, les peuvent osciller entre plusieurs valeurs. Cependant,
certaines propriétés du Théorème 3.5.4 restent vraies pour
les chaînes ergodiques générales.
D´EMONSTRATION.
Considérons la matrice
|
(3.63) |
On vérifie facilement que c'est une matrice stochastique. Soit
le
nombre maximal de pas nécessaires pour joindre deux états quelconques
de la chaîne. Considérons la matrice
|
(3.64) |
Pour tout
, il existe au moins une puissance
de
telle que
soit strictement positif. Comme tous les autres éléments
sont positifs ou nuls, la matrice
n'a que des éléments strictement
positifs, et par conséquent
est la matrice de transition d'une chaîne régulière. On peut donc appliquer le Théorème
3.5.4, pour
obtenir l'existence d'un vecteur
tel que
. Mais ceci implique
|
(3.65) |
donc
. Les autres points se démontrent de la même manière.
Nous appellerons encore dans le cas général distribution
stationnaire l'unique vecteur tel que et
.
Ce vecteur satisfait toujours la relation (3.5.18).
On sait déterminer d'autres propriétés d'une chaîne de Markov que son
comportement asymptotique. Une quantité importante est la fréquence
moyenne de passage dans les différents états de la chaîne.
Une première méthode de calculer est la suivante. On modifie la
matrice de transition en rendant l'état absorbant, c'est-à-dire
que l'on remplace par , et tous les autres éléments de la
ligne par 0. La chaîne ainsi modifiée est alors absorbante.
Le temps de premier passage moyen est alors égal au temps
d'absorption du Théorème 3.4.6. Cette méthode est
néanmoins assez fastidieuse à mettre en oeuvre, et nous allons
introduire une méthode plus efficace pour calculer .
D´EMONSTRATION.
L'équation (3.5.31) ne permet pas encore de calculer , car
n'est pas inversible puisque admet la valeur propre . Il s'avère
cependant que est inversible, et que son inverse permet de calculer
les éléments de matrice de .
D´EMONSTRATION.
Finalement, on peut également caractériser la fréquence des passages
en un état donné. Le nombre de passages en parmi itérations
est donné par la variable aléatoire
|
(3.66) |
La variable
donne donc la proportion du temps passée dans
l'état .
D´EMONSTRATION.
Nous allons nous borner à prouver la relation (
3.5.57). Un calcul direct
montre que
, et on a donc
En multipliant à droite par
, il vient
Or l'espérance de
est donnée par
On a donc
|
(3.69) |
Comme les éléments de
sont compris entre 0 et
, cette
expression converge vers
lorsque
tend vers l'infini.
Nils Berglund
FRUMAM, CPT-CNRS LUMINY
Case 907, 13288 Marseille Cedex 9, France
et
PHYMAT, UNIVERSITÉ DE TOULON
E-mail address: berglund@cpt.univ-mrs.fr
Next: About this document ...
Up: Introduction aux processus stochastiques
Previous: Chaînes de Markov absorbantes
  Contents
berglund
2005-11-28