_Tipper
7 min
Ominide
Vota
Appunto verificato
Contenuto originale e autentico, validato dal Team di Esperti di Skuola.net Informazioni appunto verificato Informazioni appunto verificato hover

Indice

  1. Valore atteso
  2. Varianza
  3. Covarianza
  4. Matrice di covarianza

Valore atteso

Definizione

Data una variabile aleatoria discreta

[math]X[/math]
che può assumere i valori
[math]x_1, x_2, \ldots, x_k, \ldots[/math]
, si dice che
[math]X[/math]
ha speranza matematica finita se e solo se

[math]\sum_{k} |x_k| p(x_k) (
[math]p[/math]
è la densità  di probabilità  di
[math]X[/math]
)

e in tal caso si chiama valore atteso di

[math]X[/math]
la quantità 

[math]E[X] = \sum_{k} x_k p(x_k)[/math]

Esempio: dato un dado non truccato, sia

[math]X = \text{numero uscito dopo un lancio}[/math]
. Calcolare il valore atteso di
[math]X[/math]
. VIsta l'ipotesi di equiprobabilità , la densità  di probabilità  di
[math]X[/math]
vale

[math]p(k) = \begin{cases}
\frac{1}{6} & \text{se } k = 1,2,3,4,5,6 \\
0 & \text{altrimenti}
\end{cases}[/math]

Quindi il valore atteso di

[math]X[/math]
vale

[math]E[X] = \sum_{k=1}^6 k p(k) = 1 \cdot \frac{1}{6} + 2 \frac{1}{6} + 3 \frac{1}{6} + 4 \frac{1}{6} + 5 \frac{1}{6} + 6 \frac{1}{6} = \frac{7}{2}[/math]

Caso vettoriale

Se

[math]X = (X_1, X_2, \ldots, X_n)[/math]
è una variabile aleatoria vettoriale, il suo valore atteso è il vettore dei valori attesi delle componenti, cioè

[math]E[X] = (E[X_1], E[X_2], \ldots, E[X_n])[/math]

Proprietà  del valore atteso

- Linearità 

[math]E[X + Y] = E[X] + E[Y][/math]

[math]E[\alpha X] = \alpha E[X][/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]

- Valore atteso di una funzione di variabili aleatorie

Se

[math]X = (X_1, X_2, \ldots, X_n)[/math]
è una variabile aleatoria vettoriale che può assumere i valori
[math]x^{(1)}, x^{(2)}, \ldots, x^{(k)}, \ldots[/math]
, se
[math]p[/math]
è la sua densità  di probabilità  congiunta e se
[math]\phi[/math]
è una funzione
[math]\phi: \mathbb{R}^n \to \mathbb{R}[/math]
, allora il valore atteso di
[math]\phi(X)[/math]
vale

[math]E[\phi(X)] = \sum_{k} \phi(x^{(k)}) p(x^{(k)})[/math]

supposto che

[math]\sum_{k} |\phi(x^{(k)})| p(x^{(k)}) .

- Valore atteso di un prodotto: se

[math]X[/math]
e
[math]Y[/math]
sono variabili aleatorie indipendenti, allora

[math]E[X Y] = E[X] E[Y][/math]

Varianza

Se

[math]X[/math]
è una variabile aleatoria scalare, si definisce varianza di
[math]X[/math]
la quantità 

[math]\text{Var}(X) = \sigma_X^2 = E[(X - E[X])^2][/math]

Se

[math]X[/math]
è una variabile aleatoria discreta con densità  di probabilità 
[math]p(\cdot)[/math]
, e
[math]x_1, x_2, \ldots, x_k, \ldots[/math]
sono tutti e soli i valori che può assumere, allora

[math]\text{Var}(X) = \sum_{k} (x_k - E[X])^2 p(x_k)[/math]

La quantità 

[math]\sigma_X = \sqrt{\text{Var}{X}}[/math]
si chiama deviazione standard.

Disuguaglianza di Chebyshev

Fissato

[math]\eta \in \mathbb{R}^+[/math]
, risulta

[math]P({|X - E[X]| > \eta}) \le \frac{\text{Var}(X)}{\eta^2}[/math]

Proprietà  della varianza

[math]\text{Var}(X) = E[X^2] - (E[X])^2[/math]

[math]\text{Var}(\alpha X) = \alpha^2 \text{Var}(X)[/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]

[math]\text{Var}(\alpha + X) = \text{Var}(X)[/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]

Covarianza

Date due variabili aleatorie scalari

[math]X[/math]
e
[math]Y[/math]
, si definisce covarianza, fra
[math]X[/math]
e
[math]Y[/math]
, la quantità 

[math]\text{Cov}(X, Y) = E[(X - E[X]) \cdot (Y - E[Y])][/math]

Proprietà 

[math]\text{Cov}(X, Y) = E[X Y] - E[X] E[Y][/math]

[math]\text{Var}(X + Y) = \text{Var}(X) + 2 \text{Cov}(X, Y) + \text{Var}(Y)[/math]

[math]\text{Cov}(X, Y) = \text{Cov}(Y, X)[/math]

Coefficiente di correlazione

Date due variabili aleatorie scalari

[math]X[/math]
e
[math]Y[/math]
, si definisce coefficiente di correlazione la quantità 

[math]\\rho_{X, Y} = \frac{\text{Cov}(X, Y)}{\sqrt{\text{Var}{X}} \cdot \sqrt{\text{Var}(Y)}}[/math]

Due variabili aleatorie si dicono scorrelate se e solo se

[math]\\rho_{X, Y} = 0[/math]
, cioè se e solo se
[math]\text{Cov}(X, Y) = 0[/math]
, o equivalentemente
[math]E[X Y] = E[X] E[Y][/math]

Nota: due variabili aleatorie indipendenti sono anche scorrelate, non è vero, in generale, il viceversa.

Matrice di covarianza

Se

[math]X = ((X_1),(X_2),(\vdots),(X_n))[/math]
è una variabile aleatoria vettoriale, si definisce matrice di covarianza di
[math]X[/math]

[math]\Sigma_X = E[(X - E[X]) \cdot (X - E[X])^T][/math]
(i vettori sono intesi come colonne)

La matrice di covarianza di

[math]X[/math]
equivale a

[math]\Sigma_X = ((\text{Var}(X_1), \quad \text{Cov}(X_1, X_2), \quad \ldots, \quad \text{Cov}(X_1, X_n)),(\text{Cov}(X_2, X_1), \quad \text{Var}(X_2), \quad \ldots, \quad \text{Cov}(X_2, X_n)),(\vdots, \quad \vdots, \quad \ddots, \quad \vdots),(\text{Cov}(X_n, X_1), \quad \text{Cov}(X_n, X_2), \quad \ldots, \quad \text{Var}(X_n)))[/math]

Si nota che l'elemento di

[math]\Sigma_X[/math]
di posto
[math]ij[/math]
vale

[math]\Sigma_{ij} =
\begin{cases}
\text{Var}(X_i) & \text{se } i = j \\[2mm]
\text{Cov}(X_i, X_j) & \text{se } i \ne j
\end{cases}[/math]

Proprietà 

La matrice di covarianza è simmetrica

[math]\Sigma_X = \Sigma_X^T[/math]

dato che

[math]\text{Cov}(X_i, X_j) = \text{Cov}(X_j, X_i)[/math]
.

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community