Distribuzione |
---|
Funzione di densità di probabilità
|
Funzione di ripartizione
|
Parametri |
|
---|
Supporto |
|
---|
Funzione di densità |
|
---|
Funzione di ripartizione | (funzione Beta incompleta regolarizzata)
|
---|
Valore atteso |
|
---|
Moda | se
se e
se e
|
---|
Varianza |
|
---|
Indice di asimmetria |
|
---|
Funzione generatrice dei momenti |
|
---|
Funzione caratteristica |
|
---|
Manuale |
In teoria delle probabilità e in statistica, la distribuzione (Beta) è una distribuzione di probabilità continua definita da due parametri e sull'intervallo unitario .
Questa distribuzione nasce in modo molto naturale nella inferenza bayesiana, perché governa la probabilità di un processo di Bernoulli a posteriori dell'osservazione di "successi" e "fallimenti", quando è a priori distribuita uniformemente tra e .
La distribuzione Beta di parametri (entrambi positivi) è definita sull'intervallo con funzione di densità di probabilità
- .
In altri termini la funzione di densità di probabilità è proporzionale alla funzione
- ,
riscalata per un fattore dato dalla funzione Beta
- ;
in questo modo ha probabilità totale .
La sua funzione di ripartizione è la funzione Beta incompleta regolarizzata
- .
I momenti semplici di una variabile aleatoria con distribuzione Beta di parametri sono
- ,
dove indica il fattoriale crescente con k fattori, .
(L'ultima uguaglianza può essere dedotta dall'espressione della funzione Beta attraverso la funzione Gamma, e dalla proprietà .)
I momenti semplici soddisfano quindi la relazione ricorsiva
- .
In particolare, la distribuzione ha:
- valore atteso ;
- varianza ;
- indice di asimmetria ;
- indice di curtosi .
Invertendo le relazioni qui sopra, che forniscono il valore atteso e la varianza in funzione dei parametri e , possiamo esprimere univocamente i suddetti parametri in termini del valore atteso e della varianza:
- ;
- .
Queste formule vengono applicate nel metodo dei momenti, con la media e la varianza osservate su un campione.
L'entropia è
- ,
dove è la funzione digamma.
La moda della distribuzione dipende dai segni di e , ed è unica solo se almeno uno dei due è positivo:
- se e allora la moda è ;
- se (o ) e allora la moda è 1;
- se (o ) e allora la moda è 0.
(La funzione di densità di probabilità ha un asintoto in 0 se , in 1 se .)
Una distribuzione Beta può essere definita su un qualunque intervallo , costruendo una nuova variabile casuale .
Se segue la distribuzione Beta di parametri allora segue la distribuzione Beta di parametri .
- La distribuzione di Dirichlet è una generalizzazione della distribuzione Beta: essa descrive la distribuzione a posteriori dei parametri di una distribuzione multinomiale a posteriori, appunto, di un'osservazione. La distribuzione di Dirichlet con due parametri è esattamente la distribuzione Beta.
- Per la densità di probabilità del tipo Beta è, in termini geometrici, la metà superiore di una circonferenza: , descrive un semicerchio. La variabile aleatoria segue una distribuzione di Wigner di parametro r.
- Se e sono due variabili aleatorie indipendenti con distribuzioni Gamma di rispettivi parametri e , allora la variabile aleatoria segue la distribuzione Beta di parametri .
- Se la variabile aleatoria segue la distribuzione Beta di parametri allora la variabile aleatoria è descritta dalla distribuzione Beta del secondo tipo, che ha funzione di densità di probabilità
- La distribuzione di Wilks può essere interpretata come la distribuzione che governa il prodotto di n variabili aleatorie indipendenti con rispettivi parametri .
- Se è una variabile aleatoria con distribuzione di Kumaraswamy di parametri allora segue la distribuzione Beta di parametri .
E' immediato dimostrare che, se X è distribuita come una v.c. binomiale
con parametri n e π
e il parametro π è distribuito a priori come una v.c. Beta con i parametri a e b
allora il parametro π è distribuito a posteriori, anch'esso, come una v.c. Beta, ma con parametri a+x e b+n-x
Come detto in precedenza, qualora il parametro π sia distribuito a priori come una variabile casuale rettangolare nell'intervallo [0;1] (ovvero ipotizzando a priori tutti i possibili valori di π equiprobabili), e pertanto a=1 e b=1, allora la distribuzione a posteriori del parametro π è una Beta con parametri x+1 e n-x+1
essa ha come valore modale p
- , che corrisponde alla stima usata in ambito frequentistico, mentre il valore atteso o media, è
- , che per x<n/2 è maggiore del valore modale . Il valore atteso minimizza lo scarto quadratico.
Infatti, la probabilità di ottenere successi e fallimenti in un processo di Bernoulli di parametro p è , proporzionale alla densità della distribuzione Beta di parametri .
Pertanto, come detto sopra, se la variabile aleatoria segue una distribuzione binomiale con parametro aleatorio P distribuito a priori uniformemente sull'intervallo unitario , a posteriori dell'osservazione il parametro P segue la distribuzione .
Più in generale, se è una variabile aleatoria con distribuzione binomiale e il parametro P segue a priori la distribuzione , allora a posteriori dell'osservazione il parametro P segue la distribuzione .
Il caso della distribuzione uniforme a priori è un caso particolare di quest'ultimo, essendo .
Se X è distribuita come una v.c. binomiale negativa
con parametri m e θ
e il parametro θ è distribuito a priori come una v.c. Beta con i parametri a e b
allora il parametro θ è distribuito a posteriori anch'esso come una v.c. Beta, ma con parametri a+m e b+x
Qualora la distribuzione a priori sia una variabile casuale rettangolare nell'intervallo [0;1] (ovvero ipotizzando a priori tutti i possibili valori di θ equiprobabili), e pertanto a=1 e b=1, allora la distribuzione a posteriori è una Beta con parametri m+1 e x+1
che ha come valore modale t
- t=m/(m+x)
Similmente, se la variabile aleatoria segue la distribuzione di Pascal e P segue a priori la distribuzione , allora a posteriori dell'osservazione il parametro P segue la distribuzione .