[go: up one dir, main page]

Vai al contenuto

Probabilità di transizione

Da Wikipedia, l'enciclopedia libera.

In teoria delle probabilità la probabilità di transizione di un processo aleatorio indica la probabilità del processo di passare ad un certo stato. Più precisamente, per una famiglia di variabili aleatorie (indicanti gli stati) St indicizzate dal tempo t, la probabilità di transizione da {xτ}τ<t a xt è la probabilità condizionata

Quando il processo aleatorio è discreto nel tempo, ovvero può essere indicizzato da numeri interi, la probabilità di transizione è definita da

Se la probabilità di transizione dipende solo dallo stato precedente, cioè se è della forma

allora il processo è detto di Markov.

Il processo di Markov è omogeneo quando questa probabilità non dipende dal tempo, ovvero se

Quando il processo di Markov è a stati discreti (catena di Markov) finiti, ovvero quando le Sn possono assumere solo un numero finito di valori (stati), le probabilità di transizione da Sn-1 a Sn possono essere raccolte in una matrice A, detta di transizione: nella riga i e colonna j viene indicata la probabilità di passare dallo stato i allo stato j. Se inoltre la catena di Markov è omogenea, quindi, le probabilità di transizione dopo k passi sono espresse dalla matrice di transizione Ak

Voci correlate

[modifica | modifica wikitesto]
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica