_Tipper
Ominide
7 min. di lettura
Vota

Indice

  1. Valore atteso
  2. Varianza
  3. Covarianza
  4. Matrice di covarianza
  5. Matrice di covarianza
  6. Valore atteso condizionale

Valore atteso

Definizione

Si dice che una variabile aleatoria continua

[math]X[/math]
ha speranza matematica finita se e solo se

[math]\int_{-\infty}^{+\infty} |x| f_X(x) dx (
[math]f_X[/math]
è la densità  di probabilità  di
[math]X[/math]
)

e in tal caso si chiama valore atteso di

[math]X[/math]
la quantità 

[math]E[X] = \int_{-\infty}^{+\infty} x f_X(x) dx[/math]

Caso vettoriale

Se

[math]X = (X_1, X_2, \ldots, X_n)[/math]
è una variabile aleatoria vettoriale, il suo valore atteso è il vettore dei valori attesi delle componenti, cioè

[math]E[X] = (E[X_1], E[X_2], \ldots, E[X_n])[/math]

Proprietà  del valore atteso

- Linearità 

[math]E[X + Y] = E[X] + E[Y][/math]

[math]E[\alpha X] = \alpha E[X][/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]

- Valore atteso di una funzione di variabili aleatorie

Se

[math]X = (X_1, X_2, \ldots, X_n)[/math]
è una variabile aleatoria vettoriale con densità  congiunta
[math]f_X(x)[/math]
e se
[math]\phi[/math]
è una funzione
[math]\phi: \mathbb{R}^n \to \mathbb{R}[/math]
, la variabile aleatoria
[math]\phi(X)[/math]
ha speranza matematica finita se e solo se

[math]\int_{\mathbb{R}^n} |\phi(x)| f_X(x) dx

e in tal caso il valore atteso di

[math]\phi(X)[/math]
vale

[math]E[\phi(X)] = \int_{\mathbb{R}^n} \phi(x) f_X(x) dx[/math]

- Valore atteso di un prodotto: se

[math]X[/math]
e
[math]Y[/math]
sono variabili aleatorie indipendenti, allora

[math]E[X Y] = E[X] E[Y][/math]

Varianza

Se

[math]X[/math]
è una variabile aleatoria scalare, si definisce varianza di
[math]X[/math]
la quantità 

[math]\text{Var}(X) = \sigma_X^2 = E[(X - E[X])^2][/math]

Se

[math]X[/math]
è una variabile aleatoria continua con densità  di probabilità 
[math]f_X(x)[/math]
, allora

[math]\text{Var}(X) = \int_{-\infty}^{+\infty} (x - E[X])^2 f_X(x) dx[/math]

La quantità 

[math]\sigma_X = \sqrt{\text{Var}{X}}[/math]
si chiama deviazione standard.

Disuguaglianza di Chebyshev

Fissato

[math]\eta \in \mathbb{R}^+[/math]
, risulta

[math]P({|X - E[X]| > \eta}) \le \frac{\text{Var}(X)}{\eta^2}[/math]

Proprietà  della varianza

[math]\text{Var}(X) = E[X^2] - (E[X])^2[/math]

[math]\text{Var}(\alpha X) = \alpha^2 \text{Var}(X)[/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]

[math]\text{Var}(\alpha + X) = \text{Var}(X)[/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]

Covarianza

Date due variabili aleatorie scalari

[math]X[/math]
e
[math]Y[/math]
, si definisce covarianza, fra
[math]X[/math]
e
[math]Y[/math]
, la quantità 

[math]\text{Cov}(X, Y) = E[(X - E[X]) \cdot (Y - E[Y])][/math]

Se

[math]X[/math]
e
[math]Y[/math]
sono variabili aleatorie continue con densità  di probabilità  congiunta pari a
[math]f_{X,Y}(x,y)[/math]
, allora

[math]\text{Cov}(X, Y) = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} (x - E[X]) (y - E[Y]) f_{X,Y}(x,y) dx dy[/math]

Proprietà 

[math]\text{Cov}(X, Y) = E[X Y] - E[X] E[Y][/math]

[math]\text{Var}(X + Y) = \text{Var}(X) + 2 \text{Cov}(X, Y) + \text{Var}(Y)[/math]

[math]\text{Cov}(X, Y) = \text{Cov}(Y, X)[/math]

Coefficiente di correlazione

Date due variabili aleatorie scalari

[math]X[/math]
e
[math]Y[/math]
, si definisce coefficiente di correlazione la quantità 

[math]\\rho_{X, Y} = \frac{\text{Cov}(X, Y)}{\sqrt{\text{Var}{X}} \cdot \sqrt{\text{Var}(Y)}}[/math]

Due variabili aleatorie si dicono scorrelate se e solo se

[math]\\rho_{X, Y} = 0[/math]
, cioè se e solo se
[math]\text{Cov}(X, Y) = 0[/math]
, o equivalentemente
[math]E[X Y] = E[X] E[Y][/math]

Nota: due variabili aleatorie indipendenti sono anche scorrelate, non è vero, in generale, il viceversa.

Matrice di covarianza

Matrice di covarianza

Se

[math]X = ((X_1),(X_2),(vdots),(X_n))[/math]
è una variabile aleatoria vettoriale, si definisce matrice di covarianza di
[math]X[/math]

[math]\Sigma_X = E[(X - E[X]) \cdot (X - E[X])^T][/math]
(i vettori sono intesi come colonne)

La matrice di covarianza di

[math]X[/math]
equivale a

[math]\Sigma_X = ((\text{Var}(X_1), \quad \text{Cov}(X_1, X_2), \quad \ldots, \quad \text{Cov}(X_1, X_n)),(\text{Cov}(X_2, X_1), \quad \text{Var}(X_2), \quad \ldots, \quad \text{Cov}(X_2, X_n)),(vdots, \quad vdots, \quad ddots, \quad vdots),(\text{Cov}(X_n, X_1), \quad \text{Cov}(X_n, X_2), \quad \ldots, \quad \text{Var}(X_n)))[/math]

Si nota che l'elemento di

[math]\Sigma_X[/math]
di posto
[math]ij[/math]
vale

[math]\Sigma_\begin{cases} & X_{ij}} = {(\text{Var}(X_i & \quad \text{se } i = j \\ \text{Cov}(X_i & X_j & \quad \text{se } i \ne j \ \end{cases}[/math]

Proprietà 

La matrice di covarianza è simmetrica

[math]\Sigma_X = \Sigma_X^T[/math]

dato che

[math]\text{Cov}(X_i, X_j) = \text{Cov}(X_j, X_i)[/math]
.

Valore atteso condizionale

Date due variabili aleatorie continue

[math]X[/math]
e
[math]Y[/math]
, il valore atteso condizionale di
[math]X[/math]
dato
[math]Y = y[/math]
vale

[math]E_{X | Y}[X | y] = \int_{-\infty}^{+\infty} x f_{X | y}(x | y) dx[/math]

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community