Definizione
Se
[math](\Omega, \bar{A}, P)[/math]
è uno spazio di probabilità, una variabile aleatoria vettoriale
[math]X[/math]
è una funzione
[math]X: \Omega \to \mathbb{R}^n[/math]
[math]X(\omega) = (X_1(\omega), X_2(\omega), \ldots, X_n(\omega))[/math]
dove ogni componente è una variabile aleatoria scalare.
Dunque una variabile aleatoria discreta vettoriale è un vettore di variabili aleatorie scalari.
Densità di probabilità congiunta (discreta)
Data un variabile aleatoria discreta vettoriale
[math]X[/math]
(a
[math]n[/math]
dimensioni), fissato
[math]x = (x_1, x_2, \ldots, x_n) \in \mathbb{R}^n[/math]
, la densità di probabilità congiunta di
[math]X[/math]
è definita come
[math]p(x) = P(\{X = x\}) = P(\{X_1 = x_1\} \cap \{X_2 = x_2\} \cap \ldots \cap {X_n = x_n})[/math]
Proprietà
1)
[math]p(x) \in [0,1][/math]
per ogni
[math]x \in \mathbb{R}^n[/math]
2)
[math]p(x) > 0[/math]
solo in (al più) un'infinità numerabile di punti,
[math]x^{(1)}, x^{(2)}, \ldots, x^{(k)}, \ldots[/math]
, e
[math]p(x) = 0[/math]
altrove
3)
[math]\sum_{k} p(x^{(k)}) = 1[/math]
, se
[math]x^{(1)}, x^{(2)}, \ldots, x^{(k)}, \ldots[/math]
sono tutti e soli i valori che la
[math]X[/math]
può assumere (notare che
[math]x^{(k)}[/math]
è un vettore di
[math]\mathbb{R}^n[/math]
, cioè
[math]x^{(k)} = (x_1^{(k)}, x_2^{(k)}, \ldots, x_n^{(k)})[/math]
)
Densità di probabilità marginali
Data una variabile aleatoria vettoriale
[math]X = (X_1, X_2, \ldots, X_n)[/math]
, le densità di probabilità delle componenti
[math]X_i[/math]
si chiamano densità di probabilità marginali di
[math]X[/math]
. Dalla densità di probabilità congiunta di
[math]X[/math]
si può sempre risalire alle marginali, non è sempre vero il viceversa.
Caso [math]n=2[/math]
Sia
[math]X = (X_1, X_2)[/math]
è una variabile aleatoria vettoriale, e sia
[math]p[/math]
la densità di probabilità congiunta. Se
[math]x^{(1)}, x^{(2)}, \ldots, x^{(k)}, \ldots[/math]
sono tutti e soli i valori che può assumere
[math]x[/math]
, dove
[math]x^{(k)} = (x_1^{(k)}, x_2^{(k)}[/math]
, le due marginali valgono
[math]p_1(z) = \sum_{k} p(z, x_2^{(k)})[/math]
[math]p_2(z) = \sum_{k} p(x_1^{(k)}, z)[/math]
Variabili aleatorie indipendenti
Si dice che
[math]n[/math]
variabili aleatorie
[math]X_1, X_2, \ldots, X_n[/math]
sono indipendenti se e solo se
[math]P(\{X_1 \in A_1, X_2 \in A_2, \ldots, X_n \in A_n\}) = P(\{X_1 \in A_1\}) \cdot P(\{X_2 \in A_2\}) \cdot \ldots \cdot P({X_n \in A_n})[/math]
per ogni
[math]A_1, A_2, \ldots, A_n \subseteq \mathbb{R}[/math]
.
Densità di probabilità congiunta e marginale
Se
[math]X = (X_1, X_2, \ldots, X_n)[/math]
, e le variabili
[math]X_1, X_2, \ldots, X_n[/math]
sono indipendenti, allora la densità di probabilità congiunta di
[math]X[/math]
è uguale al prodotto delle densità di probabilità marginali
[math]p(x) = p_1(x_1) \cdot p_2(x_2) \cdot \ldots \cdot p_n(x_n)[/math]
dove
[math]x = (x_1, x_2, \ldots, x_n)[/math]
. Nel caso di variabili aleatorie indipendenti si può passare dalla congiunta alle marginali e dalle marginali alla congiunta.