Definizione
Data una variabile aleatoria vettoriale continua
[math]X = (X_1, X_2, \ldots, X_n)[/math]
, le variabili aleatorie
[math]X_1, X_2, \ldots, X_n[/math]
si dicono congiuntamente gaussiane se e solo se esistono un vettore
[math]\mu \in \mathbb{R}^n[/math]
e una matrice definita positiva
[math]\Sigma \in \mathbb{R}^{n imes n}[/math]
tali che la densità di probabilità congiunta di
[math]X[/math]
possa essere scritta come
[math]f_X(x) = \frac{1}{\sqrt{{2 \\pi}^n det(\Sigma)}} e^{-\frac{1}{2} (x - \mu)^T \Sigma^{-1} (x - \mu)}[/math]
Notare che i vettori sono intesi come colonne, quindi
[math](x - \mu)^T[/math]
è un vettore riga mentre
[math](x - \mu)[/math]
è un vettore colonna.
Proprietà
Se
[math]X_1, X_2, \ldots, X_n[/math]
sono variabili aleatorie congiuntamente gaussiane, allora
[math]\mu[/math]
è il valore atteso di
[math]X[/math]
mentre
[math]\Sigma[/math]
è la matrice di covarianza di
[math]X[/math]
.
Se
[math]X_1, X_2, \ldots, X_n[/math]
sono congiuntamente gaussiane e scorrelate, allora sono anche indipendenti.
Se
[math]X_1, X_2, \ldots, X_n[/math]
sono congiuntamente gaussiane e indipendenti, allora la matrice di covarianza è una matrice diagonale.
Se
[math]X = (X_1, X_2, \ldots, X_n)[/math]
è un vettore di variabili aleatorie congiuntamente gaussiane, comunque si scelgano
[math]A \in \mathbb{R}^{m imes n}[/math]
e
[math]b \in \mathbb{R}^m[/math]
, la variabile aleatoria data da
[math]Y = A X + b[/math]
è un vettore di variabili aleatorie congiuntamente gaussiane, con
[math]E[Y] = A E[X] + b[/math]
[math]\Sigma_Y = A \Sigma_X A^T[/math]
(
[math]\Sigma_Y[/math]
e
[math]\Sigma_X[/math]
sono le matrici di covarianza di
[math]Y[/math]
e
[math]X[/math]
)
Se
[math]X_1, X_2, \ldots, X_n[/math]
sono variabili aleatorie congiuntamente gaussiane, allora ogni variabile
[math]X_i[/math]
,
[math]1 \le i \le n[/math]
, è una variabile aleatoria gaussiana.