Cominciamo col capire cosa sono le catene di Markov. Prendiamo un meteo, in cui si hanno soltanto due stati:
sole, ;
nuvoloso, .
Se oggi c'è il sole, allora domani ci sarà
sole con probabilità ;
nuvoloso con probabilità .
Al contrario, se oggi è nuvoloso, allora domani ci sarà
sole con probabilità ;
nuvoloso con probabilità .
Questa è una catena di Markov. Il tempo di domani dipende dal tempo di oggi, e non dal tempo di ieri; inoltre, la probabilità che esce da ogni stato è unitaria, quindi anche la probabilità che in un dato istante si sia in un determinato punto soddisferà anch'essa la proprietà di uniterietà.
Definizione: Processo di Markov
Il processo è un processo di Markov se
In altre parole, possiamo scrivere che una variabile casuale dipende solo dalla variabile casuale , mentre è indipendente da tutte le variabili casuali precedenti l'istante .
Implicazioni:
la probabilità del futuro, dato passato e presente, dipende solo dal presente.
la probabilità del futuro, congiunta a quella del passato e conoscendo il presente, è
Gli eventi che soddisfano questa seconda condizione sono detti condizionalmente indipendenti, cioè sono indipendenti soltanto se vi è la conoscenza dello stato intermedio. Nel caso in cui non si conosca il presente, allora passato e futuro non sono più indipendenti.
Per caratterizzare una catena di Markov è sufficiente conoscere la densità di probabilità del second'ordine, non serve scendere fino all'-esimo ordine. In questo modo, la trattazione diventa molto più semplice, fino a renderla quasi banale.
che sono due insiemi discreti. La catena di Markov è caratterizzata da due quantità:
la probabilità incondizionata
la matrice delle probabilità di transizione .
Si ha
cioè, per ogni istante, la somma delle probabilità di tutti gli stati è unitaria; noto l'alfabeto , la probabilità incondizionata si può scrivere come
La stessa condizione si può esprimere con
Fissati due istanti temporali e dato lo stato di partenza , la somma delle probabilità degli stati di arrivo è unitaria.
dove la somma dei valori di ogni singola riga è
Per ogni coppia , il valore di sarà diverso. Si ha
Quest'ultima è detta l'equazione di Chapman e Kolmogorov, che in forma matriciale si può scrivere come
da cui si ha
Per caratterizzare una catena di Markov, basta conoscere:
Esempio: Caso 1
Si ha
La sequenza degli stati è deterministica,
Esempio: Caso 2
Si ha
da cui
da cui si deduce che vale
Definizione: Catena di Markov omogenea
Una catena di Markov è detta omogenea se
ossia, la matrice di probabilità di transizione ad un passo è la stessa per tutti i .
Esempio:
Si ha
da cui
Definizione: Distribuzione stazionaria
Data una catena di Markov omogenea, si definisce distribuzione stazionaria il vettore di probabilità
tale che
da cui, nel caso in cui , allora si ottiene
In generale, una catena di Markov può avere più distribuzioni stazionarie.
Esempio:
Sia
da cui si ha
Definizione: Catena di Markov irriducibile
Una catena di Markov si dice irriducibile se non è possibile portare la matrice di probabilità di transizione in una forma diagonale a blocchi, del tipo
Se una catena di Markov è irriducibile, allora la distribuzione stazionaria esiste ed è unica.
Definizione: Distribuzione limite
Una distribuzione stazionaria si dice distribuzione limite se
Questo deve valere , cioè per qualsiasi condizione iniziale.
Definizione: Catena di Markov aperiodica
Una catena di Markov omogenea ed irriducibile è aperiodica se il massimo comun divisore delle lunghezze di tutti i cammini chiusi che si possono individuare sul diagramma delle transizioni è pari a .
Esempio:
Catena periodica di periodo :
In questo caso, .
Esempio:
Catena di Markov aperiodica:
In questo caso, .
Se una catena di Markov omogenea ed irriducibile è aperiodica, allora la distribuzione stazionaria è anche distribuzione limite. Per queste catene di Markov, a regime la probabilità assoluta è indipendente dal tempo, dando origine a processi stazionari.
Nota: una distribuzione è una distribuzione limite se
Definizione: Matrice doppiamente stocastica
Una matrice di probabilità di transizione è doppiamente stocastica se la somma degli elementi di ciascuna colonna è unitario; in tal caso, la distribuzione limite risulta essere