Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
E P E P P P P
Teorema 6.14 (Disuguaglianza di Chebyshev) 2
σ
2 ∀ε
− ≤ > 0
Data X v.a. con (X) = µ, Var (X) = σ , (|X µ| > ε)
E P 2
ε
Dimostrazione: 2 2 2
2 P P P
− − −
σ = p (ω) (X (ω) µ) = p (ω) (X (ω) µ) + p (ω) (X (ω) µ)
P P P
ω∈Ω ω:|X(ω)−µ|>ε ω:|X(ω)−µ|≤ε
2 2
P
≥ −
p (ω) ε = ε (|X µ| > ε)
P
ω:|X(ω)−µ|>ε
Definizione 6.26 (Variabile standard)
Una variabile aleatoria Z t.c. (Z) = 0, Var (Z) = 1
E
Teorema 6.15 (Variabile standardizzata)
X−E(X)
∗ √ v.a. standardizzata.
Data X v.a., allora X = Var(X)
Corollario 6.15.1 (Disuguaglianza di Chebyshev per le standard)
∗ ∗ 1
| ≤
X v.a. standard, (|X > ε)
P 2
ε
Teorema 6.16 (Legge dei grandi numeri in forma finita)
{X }
Sia famiglia di v.a. aleatorie aventi lo stesso valore atteso µ, la stessa
i P 2
X σ
2 − ≤
k
varianza σ e covarianza nulla, posto Y = , (|Y µ| > ε)
P
n n 2
n nε
{X }
Condizione sufficiente è che sia equi-distribuita e totalmente indipendente.
i P Var(X )
P 2
) k σ
Xk
E(X k = µ, Var (Y ) = =
Dimostrazione: (Y ) =
E n
n 2
n n n
6.4.3 Valore atteso condizionato
Definizione 6.27 (Valore atteso condizionato)
P
[X|A] = xP (X = x|A)
E x∈X(Ω)
Teorema 6.17 (Valore atteso totale per variabili finite)
P
H
Sia partizione, (X) = (X|H) (H)
E E P
H∈H
Dimostrazione:
P P P P P
(X|H) (H) = xP (X = x|H) (H) = xP (X = x|H) (H) =
E P P P
H∈H H∈H x∈X(Ω) x∈X(Ω) H∈H
P P P
x (X = x|H) (H) = xP (X = x) = (X)
P P E
x∈X(Ω) H∈H x∈X(Ω)
Osservazione 6.5 (Partizione generata da Y )
Y P P
H
Sia partizione generata dalla variabile aleatoria Y , allora (X) = xP (x|y) (y)
E P Y
X|Y
y∈Y (Ω) x∈X(Ω)
Definizione 6.28 (Funzione Ψ) →
Siano X, Y due variabili aleatorie, definiamo la funzione Ψ : Y (ω) come
R
P
Ψ (y) = xP (X = x|y) = (X|Y = y)
E
X|Y
x∈X(Ω) 19
Definizione 6.29 (Valore atteso condizionale)
→
Definiamo la variabile aleatoria [X|Y ] : Ω [X|Y ] (Ω) definita come [X|Y ] (ω) =
E E E
P (X|Y = y) 1 (ω)
E Y =y
y∈Y (Ω)
Corollario 6.17.1 (Valore atteso condizionale in funzione di Ψ)
[X|Y ] (ω) = Ψ (Y (ω))
E
Dimostrazione: Si evince dalla definizione di Ψ
Teorema 6.18 (Proprietà del valore atteso condizionale)
Linearità.
Monotonia.
(X) = (E [X|Y ])
E E
Z = g (Y ) , [ZX|Y ] = ZE [X|Y ]
E
Z = g (Y ) , [Z|Y ] = Z
E
X⊥Y, (X) = [X|Y ]
E E
Dimostrazione: P P
1) [αX + Z|Y ] = (x + z) (X + Z = x + z|Y )
E P
x∈αX z∈Z
P P
= (αx + z) (X = x, Z = z|Y )
P
x∈X z∈Z
P P P P
= αx (X = x, Z = z|Y ) + z (X = x, Z = z|Y )
P P
x∈X z∈Z z∈Z x∈X
P P
= α xP (X = x|Y ) + (Z = z|Y ) = αE [X|Y ] + zE [Z|Y ]
P
x∈X z∈Z
≤ − − ≥ ⇐⇒ ≥
2) X Z, [Z X|Y ] = [Z|Y ] [X|Y ] 0 [Z|Y ] [X|Y ]
E E E E E
P
3) (E [X|Y ]) = (Ψ (Y )) = ψP (Ψ = ψ)
E E ψ∈Ψ
P
= Ψ (y) (Y = y)
P
y∈Y
P P
= xP (X = x|Y = y) (Y = y)
P
y∈Y x∈X
P P
= xP (X = x|Y = y) (Y = y)
P
x∈X y∈Y
P
= xP (X = x) = (X)
E
x∈X ∗ ∗ ∗
∀ω ∈
4) Ω, è fissato il valore y = Y (ω) e quindi anche il valore z = g (y ):
∗ ∗ ∗
P P
ne consegue che (ZX = z x|y ) = (X = x, Z = z|y ) =
P P
∗
x∈X z∈Z:zx=z x
∗ ∗ ∗ ∗ ∗ ∗
P P P P
(X = x|y ) e quindi che z xP (ZX = z x|y ) = z (X = x|y ) =
P P
x∈X x∈X z∈Z x∈X
∗
z [X|Y ] (ω)
E {1}
5) Corollario del punto 4 con X (Ω) =
P P
∀ω,
6) [X|Y ] (ω) = xP (X = x|Y (ω)) = xP (X) = (X)
E E
x∈X x∈X
Definizione 6.30 (Varianza condizionale)
2
− |Y
La funzione Var [X|Y ] = (X [X|Y ]) , con variabile aleatoria associ-
E E
2 2
P
− −
ata Var [X|Y ] (ω) = (X [X|Y ] (ω)) = (x (x|Y = Y (ω))) (x|Y = Y (ω))
E E E E P
x∈X
Teorema 6.19 (Formulazione equivalente della varianza totale)
2
2 |Y −
Var [X|Y = y] = X = y [X|Y = y]
E E
Teorema 6.20 (Teorema della varianza totale)
Var (X) = (Var [X|Y ]) + (E [X|Y ])
E E 20
6.4.4 Intuizione sul valore atteso, sul valore atteso condizionale e
sulle variabili aleatorie
Teorema 6.21 (Valore atteso come minimo)
2
2 2
− −2tE
µ = (X) è il punto di minimo di f (t) = (X t) = X (X)+t
E E E
′ − ⇐⇒
Dimostrazione: f (t) = 2t 2µ = 0 t = µ
Teorema 6.22 (Spazio vettoriale delle variabili aleatorie)
∼ |Ω|
{X →
Consideriamo l’insieme H = : Ω , e il prodotto scalare <
=
R} R
·; ·
X; Y >= (XY ), allora (H, < >, +) /R è uno spazio vettoriale di Hilbert
E
con distanza indotta dalla norma.
Dimostrazione: Omettiamo la dimostrazione che sia di Hilbert.
∈ ∈ ∀v, −v ∈
1) 0 H, 1 H, H
2) Gode della proprietà distributiva, associativa e commutativa
∀v, ∈ ∀α ∈ ∈
3) w H, v + w, αv H
R,
∀v, ∈
4) w H, < v; w >∈ H
Definizione 6.31 (Sottospazio delle trasformate)
X {Z →
Il sottospazio vettoriale H = : Y (Ω) R}
Teorema 6.23 (Osservazioni sul valore atteso, sulla varianza e sulla covarianza)
2 2
− ||X − ||
1) Var (X) = d (X (X)) = (X)
E E
2 − −
2) Cov (X, Y ) =< X (X) ; Y (Y ) >
E E
∀X ∈
3) H, (X) è punto di minimo della funzione d (X, t)
E 2
Y Y
∀H ∀X ∈ ∀Z ∈ − −
4) , H, H , < X [X|Y ] ; Z >= 0, ovvero X [X|Y ] è
E E
Y Y
ortogonale a H e la proiezione di X su H è [X|Y ]
E
2
−
5) [X|Y ] minimizza la funzione (X g (Y ))
E E
Dimostrazione: 1),2) sono vere per costruzione, la 3) è già dimostrata sopra.
− −
4) < X [X|Y ] ; Z >= ((X [X|Y ]) Z)
E E E
− −
= (XZ ZE [X|Y ]) = (XZ) (ZE [X|Y ])
E E E
− −
= (E [XZ|Y ]) (ZE [X|Y ]) = (ZE [X|Y ]) (ZE [X|Y ]) = 0
E E E E
Teorema 6.24 (Teorema di Pitagora)
2 2 2
Y
∀Z ∈ − − −
H , (X Z) = (X [X|Y ]) + (E [X|Y ] Z)
E E E E
Dimostrazione:
2 2 2 2
− − − − −
(X Z) = (X [X|Y ] + [X|Y ] Z) = (X [X|Y ]) +(E [X|Y ] Z) +
E E E
2 2
− − − −
2 < X [X|Y ] ; [X|Y ] Z >= (X [X|Y ]) + (E [X|Y ] Z)
E E E
La linearità del valore atteso conclude la dimostrazione.
Corollario 6.24.1 (Il valore atteso condizionale minimizza la distanza)
2 Y
− ∈
[X|Y ] minimizza la funzione (X Z) , Z H
E E 21
2
− ≥
Dimostrazione: Nella dimostrazione di prima (E [X|Y ] Z) 0
E
Teorema 6.25 (Teorema di Pitagora per la varianza)
2 2
− −
Var (X) = (X (X|Y )) + (E (X|Y ) (X)) = (Var [X|Y ]) +
E E E E E
(E [X|Y ])
E
Dimostrazione:
2 2
− − −
(X (X)) = (X [X|Y ] + [X|Y ] (X))
E E E E
2 2
− − − −
= (X [X|Y ]) + (E [X|Y ] (X)) + 2 < X [X|Y ] ; [X|Y ] (X) >
E E E E E
2 2 Y
− − − ∈
= (X [X|Y ]) + (E [X|Y ] (X)) poichè [X|Y ] (X) H
E E E E
La linearità del valore atteso conclude la prima parte della dimostrazione.
2 2
− −
Poichè (E [X|Y ]) = (X) , (E [X|Y ] (X)) = Var (E [X|Y ]) , (X [X|Y ]) =
E E E E E E
h i
2
− |Y
(X [X|Y ]) = (Var (X|Y ))
E E E E
Teorema 6.26 (Disuguaglianza di Cauchy-Schwarz)
p p
2 2
∀X, ∈ |) ≤
Y H, (|XY (X ) (Y )
E E E p 2
|) |X|; |Y | |||X|||
Dimostrazione: Notare che (|XY =< >, (X ) =
E E
Teorema 6.27 (Due sottospazi con le loro proiezioni)
∀Y ∈ {Z ∈ −
H = H : Var (Z) = 0}, < X (X) ; Y >= 0
E
0 Cov(X,Y ) −
∀Y ∈ {aY ∈ ∈ − (Y (Y )) +
H = + b : Y H, a, b < x E
R},
Y Var(Y )
(X) , Y >= 0
E
Dimostrazione: Omessa la dimostrazione che sono sottospazi vettoriali.
≡ ∈ − −
1) Var (Z) = 0 =⇒ Z λ =⇒ < X (X) ; λ >= ((X (X)) λ) =
R E E E
−
(X) λ (X) λ = 0
E E
∗ ∗ ∗
− −
2) Y = Y (Y ) , γ = aE (Y ) + b (X) , aY + b = aY + γ + (Y ) , X =
E E E
∗ ∗ ∗ ∗
− −
X (X) e consideriamo < X (a Y + γ + (Y )) ; aY + γ + (Y ) >=
E E E
∗ ∗ ∗ ∗ ∗
−
([X (a Y + γ )] [aY + γ + (Y )])
E E
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
− − − − − −
= (aX Y a aY Y aγ Y )+E (γX a γY γγ )+E (E (Y ) X a Y (Y ) (Y ) γ )
E E E
∗ ∗ ∗
− −
= aCov (X, Y ) a aVar (Y ) γγ + (Y ) γ
E ∗
∀a,
Poniamo questo valore = 0, notando che deve fare 0 γ e quindi che γ =
Cov(X,Y )
0, a = Var(Y )
Definizione 6.32 (Coefficiente di correlazione)
Cov(X,Y )
ρ =
X,Y 1/2 1/2
Var(X) Var(Y )
Teorema 6.28 (Osservazioni su ρ )
X,Y
Cov(X,Y ) −E(Y
(Y )) −E(Y
Y )
Var(Y )
|ρ | ≤ 1, =