Probabilità di transizione
In teoria delle probabilità la probabilità di transizione di un processo aleatorio indica la probabilità del processo di passare ad un certo stato. Più precisamente, per una famiglia di variabili aleatorie (indicanti gli stati) St indicizzate dal tempo t, la probabilità di transizione da {xτ}τ<t a xt è la probabilità condizionata
Quando il processo aleatorio è discreto nel tempo, ovvero può essere indicizzato da numeri interi, la probabilità di transizione è definita da
Se la probabilità di transizione dipende solo dallo stato precedente, cioè se è della forma
allora il processo è detto di Markov.
Il processo di Markov è omogeneo quando questa probabilità non dipende dal tempo, ovvero se
Quando il processo di Markov è a stati discreti (catena di Markov) finiti, ovvero quando le Sn possono assumere solo un numero finito di valori (stati), le probabilità di transizione da Sn-1 a Sn possono essere raccolte in una matrice A, detta di transizione: nella riga i e colonna j viene indicata la probabilità di passare dallo stato i allo stato j. Se inoltre la catena di Markov è omogenea, quindi, le probabilità di transizione dopo k passi sono espresse dalla matrice di transizione Ak