_Tipper
4 min
Ominide
Vota
Appunto verificato
Contenuto originale e autentico, validato dal Team di Esperti di Skuola.net Informazioni appunto verificato Informazioni appunto verificato hover

Indice

  1. Definizione
  2. Densità di probabilità congiunta (discreta)
  3. Densità di probabilità marginali
  4. Variabili aleatorie indipendenti

Definizione

Se
[math](\Omega, \bar{A}, P)[/math]
è uno spazio di probabilità, una variabile aleatoria vettoriale
[math]X[/math]
è una funzione
[math]X: \Omega \to \mathbb{R}^n[/math]

[math]X(\omega) = (X_1(\omega), X_2(\omega), \ldots, X_n(\omega))[/math]

dove ogni componente è una variabile aleatoria scalare. Dunque una variabile aleatoria discreta vettoriale è un vettore di variabili aleatorie scalari.

Densità di probabilità congiunta (discreta)

Data un variabile aleatoria discreta vettoriale
[math]X[/math]
(a
[math]n[/math]
dimensioni), fissato
[math]x = (x_1, x_2, \ldots, x_n) \in \mathbb{R}^n[/math]
, la densità di probabilità congiunta di
[math]X[/math]
è definita come
[math]p(x) = P(\{X = x\}) = P(\{X_1 = x_1\} \cap \{X_2 = x_2\} \cap \ldots \cap {X_n = x_n})[/math]

Proprietà
1)

[math]p(x) \in [0,1][/math]
per ogni
[math]x \in \mathbb{R}^n[/math]

2)

[math]p(x) > 0[/math]
solo in (al più) un'infinità numerabile di punti,
[math]x^{(1)}, x^{(2)}, \ldots, x^{(k)}, \ldots[/math]
, e
[math]p(x) = 0[/math]
altrove

3)

[math]\sum_{k} p(x^{(k)}) = 1[/math]
, se
[math]x^{(1)}, x^{(2)}, \ldots, x^{(k)}, \ldots[/math]
sono tutti e soli i valori che la
[math]X[/math]
può assumere (notare che
[math]x^{(k)}[/math]
è un vettore di
[math]\mathbb{R}^n[/math]
, cioè
[math]x^{(k)} = (x_1^{(k)}, x_2^{(k)}, \ldots, x_n^{(k)})[/math]
)

Densità di probabilità marginali

Data una variabile aleatoria vettoriale
[math]X = (X_1, X_2, \ldots, X_n)[/math]
, le densità di probabilità delle componenti
[math]X_i[/math]
si chiamano densità di probabilità marginali di
[math]X[/math]
. Dalla densità di probabilità congiunta di
[math]X[/math]
si può sempre risalire alle marginali, non è sempre vero il viceversa.

Caso

[math]n=2[/math]
Sia

[math]X = (X_1, X_2)[/math]
è una variabile aleatoria vettoriale, e sia
[math]p[/math]
la densità di probabilità congiunta. Se
[math]x^{(1)}, x^{(2)}, \ldots, x^{(k)}, \ldots[/math]
sono tutti e soli i valori che può assumere
[math]x[/math]
, dove
[math]x^{(k)} = (x_1^{(k)}, x_2^{(k)}[/math]
, le due marginali valgono
[math]p_1(z) = \sum_{k} p(z, x_2^{(k)})[/math]

[math]p_2(z) = \sum_{k} p(x_1^{(k)}, z)[/math]

Variabili aleatorie indipendenti

Si dice che
[math]n[/math]
variabili aleatorie
[math]X_1, X_2, \ldots, X_n[/math]
sono indipendenti se e solo se
[math]P(\{X_1 \in A_1, X_2 \in A_2, \ldots, X_n \in A_n\}) = P(\{X_1 \in A_1\}) \cdot P(\{X_2 \in A_2\}) \cdot \ldots \cdot P({X_n \in A_n})[/math]

per ogni

[math]A_1, A_2, \ldots, A_n \subseteq \mathbb{R}[/math]
.

Densità di probabilità congiunta e marginale
Se

[math]X = (X_1, X_2, \ldots, X_n)[/math]
, e le variabili
[math]X_1, X_2, \ldots, X_n[/math]
sono indipendenti, allora la densità di probabilità congiunta di
[math]X[/math]
è uguale al prodotto delle densità di probabilità marginali
[math]p(x) = p_1(x_1) \cdot p_2(x_2) \cdot \ldots \cdot p_n(x_n)[/math]

dove

[math]x = (x_1, x_2, \ldots, x_n)[/math]
. Nel caso di variabili aleatorie indipendenti si può passare dalla congiunta alle marginali e dalle marginali alla congiunta.

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community