Anteprima
Vedrai una selezione di 9 pagine su 36
Probabilità I   Pag. 1 Probabilità I   Pag. 2
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Probabilità I   Pag. 6
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Probabilità I   Pag. 11
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Probabilità I   Pag. 16
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Probabilità I   Pag. 21
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Probabilità I   Pag. 26
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Probabilità I   Pag. 31
Anteprima di 9 pagg. su 36.
Scarica il documento per vederlo tutto.
Probabilità I   Pag. 36
1 su 36
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

E P E P P P P

Teorema 6.14 (Disuguaglianza di Chebyshev) 2

σ

2 ∀ε

− ≤ > 0

Data X v.a. con (X) = µ, Var (X) = σ , (|X µ| > ε)

E P 2

ε

Dimostrazione: 2 2 2

2 P P P

− − −

σ = p (ω) (X (ω) µ) = p (ω) (X (ω) µ) + p (ω) (X (ω) µ)

P P P

ω∈Ω ω:|X(ω)−µ|>ε ω:|X(ω)−µ|≤ε

2 2

P

≥ −

p (ω) ε = ε (|X µ| > ε)

P

ω:|X(ω)−µ|>ε

Definizione 6.26 (Variabile standard)

Una variabile aleatoria Z t.c. (Z) = 0, Var (Z) = 1

E

Teorema 6.15 (Variabile standardizzata)

X−E(X)

∗ √ v.a. standardizzata.

Data X v.a., allora X = Var(X)

Corollario 6.15.1 (Disuguaglianza di Chebyshev per le standard)

∗ ∗ 1

| ≤

X v.a. standard, (|X > ε)

P 2

ε

Teorema 6.16 (Legge dei grandi numeri in forma finita)

{X }

Sia famiglia di v.a. aleatorie aventi lo stesso valore atteso µ, la stessa

i P 2

X σ

2 − ≤

k

varianza σ e covarianza nulla, posto Y = , (|Y µ| > ε)

P

n n 2

n nε

{X }

Condizione sufficiente è che sia equi-distribuita e totalmente indipendente.

i P Var(X )

P 2

) k σ

Xk

E(X k = µ, Var (Y ) = =

Dimostrazione: (Y ) =

E n

n 2

n n n

6.4.3 Valore atteso condizionato

Definizione 6.27 (Valore atteso condizionato)

P

[X|A] = xP (X = x|A)

E x∈X(Ω)

Teorema 6.17 (Valore atteso totale per variabili finite)

P

H

Sia partizione, (X) = (X|H) (H)

E E P

H∈H

Dimostrazione:

P P P P P

(X|H) (H) = xP (X = x|H) (H) = xP (X = x|H) (H) =

E P P P

H∈H H∈H x∈X(Ω) x∈X(Ω) H∈H

P P P

x (X = x|H) (H) = xP (X = x) = (X)

P P E

x∈X(Ω) H∈H x∈X(Ω)

Osservazione 6.5 (Partizione generata da Y )

Y P P

H

Sia partizione generata dalla variabile aleatoria Y , allora (X) = xP (x|y) (y)

E P Y

X|Y

y∈Y (Ω) x∈X(Ω)

Definizione 6.28 (Funzione Ψ) →

Siano X, Y due variabili aleatorie, definiamo la funzione Ψ : Y (ω) come

R

P

Ψ (y) = xP (X = x|y) = (X|Y = y)

E

X|Y

x∈X(Ω) 19

Definizione 6.29 (Valore atteso condizionale)

Definiamo la variabile aleatoria [X|Y ] : Ω [X|Y ] (Ω) definita come [X|Y ] (ω) =

E E E

P (X|Y = y) 1 (ω)

E Y =y

y∈Y (Ω)

Corollario 6.17.1 (Valore atteso condizionale in funzione di Ψ)

[X|Y ] (ω) = Ψ (Y (ω))

E

Dimostrazione: Si evince dalla definizione di Ψ

Teorema 6.18 (Proprietà del valore atteso condizionale)

ˆ Linearità.

ˆ Monotonia.

ˆ (X) = (E [X|Y ])

E E

ˆ Z = g (Y ) , [ZX|Y ] = ZE [X|Y ]

E

ˆ Z = g (Y ) , [Z|Y ] = Z

E

ˆ X⊥Y, (X) = [X|Y ]

E E

Dimostrazione: P P

1) [αX + Z|Y ] = (x + z) (X + Z = x + z|Y )

E P

x∈αX z∈Z

P P

= (αx + z) (X = x, Z = z|Y )

P

x∈X z∈Z

P P P P

= αx (X = x, Z = z|Y ) + z (X = x, Z = z|Y )

P P

x∈X z∈Z z∈Z x∈X

P P

= α xP (X = x|Y ) + (Z = z|Y ) = αE [X|Y ] + zE [Z|Y ]

P

x∈X z∈Z

≤ − − ≥ ⇐⇒ ≥

2) X Z, [Z X|Y ] = [Z|Y ] [X|Y ] 0 [Z|Y ] [X|Y ]

E E E E E

P

3) (E [X|Y ]) = (Ψ (Y )) = ψP (Ψ = ψ)

E E ψ∈Ψ

P

= Ψ (y) (Y = y)

P

y∈Y

P P

= xP (X = x|Y = y) (Y = y)

P

y∈Y x∈X

P P

= xP (X = x|Y = y) (Y = y)

P

x∈X y∈Y

P

= xP (X = x) = (X)

E

x∈X ∗ ∗ ∗

∀ω ∈

4) Ω, è fissato il valore y = Y (ω) e quindi anche il valore z = g (y ):

∗ ∗ ∗

P P

ne consegue che (ZX = z x|y ) = (X = x, Z = z|y ) =

P P

x∈X z∈Z:zx=z x

∗ ∗ ∗ ∗ ∗ ∗

P P P P

(X = x|y ) e quindi che z xP (ZX = z x|y ) = z (X = x|y ) =

P P

x∈X x∈X z∈Z x∈X

z [X|Y ] (ω)

E {1}

5) Corollario del punto 4 con X (Ω) =

P P

∀ω,

6) [X|Y ] (ω) = xP (X = x|Y (ω)) = xP (X) = (X)

E E

x∈X x∈X

Definizione 6.30 (Varianza condizionale)

2

− |Y

La funzione Var [X|Y ] = (X [X|Y ]) , con variabile aleatoria associ-

E E

2 2

P

− −

ata Var [X|Y ] (ω) = (X [X|Y ] (ω)) = (x (x|Y = Y (ω))) (x|Y = Y (ω))

E E E E P

x∈X

Teorema 6.19 (Formulazione equivalente della varianza totale)

2

2 |Y −

Var [X|Y = y] = X = y [X|Y = y]

E E

Teorema 6.20 (Teorema della varianza totale)

Var (X) = (Var [X|Y ]) + (E [X|Y ])

E E 20

6.4.4 Intuizione sul valore atteso, sul valore atteso condizionale e

sulle variabili aleatorie

Teorema 6.21 (Valore atteso come minimo)

2

2 2

− −2tE

µ = (X) è il punto di minimo di f (t) = (X t) = X (X)+t

E E E

′ − ⇐⇒

Dimostrazione: f (t) = 2t 2µ = 0 t = µ

Teorema 6.22 (Spazio vettoriale delle variabili aleatorie)

∼ |Ω|

{X →

Consideriamo l’insieme H = : Ω , e il prodotto scalare <

=

R} R

·; ·

X; Y >= (XY ), allora (H, < >, +) /R è uno spazio vettoriale di Hilbert

E

con distanza indotta dalla norma.

Dimostrazione: Omettiamo la dimostrazione che sia di Hilbert.

∈ ∈ ∀v, −v ∈

1) 0 H, 1 H, H

2) Gode della proprietà distributiva, associativa e commutativa

∀v, ∈ ∀α ∈ ∈

3) w H, v + w, αv H

R,

∀v, ∈

4) w H, < v; w >∈ H

Definizione 6.31 (Sottospazio delle trasformate)

X {Z →

Il sottospazio vettoriale H = : Y (Ω) R}

Teorema 6.23 (Osservazioni sul valore atteso, sulla varianza e sulla covarianza)

2 2

− ||X − ||

1) Var (X) = d (X (X)) = (X)

E E

2 − −

2) Cov (X, Y ) =< X (X) ; Y (Y ) >

E E

∀X ∈

3) H, (X) è punto di minimo della funzione d (X, t)

E 2

Y Y

∀H ∀X ∈ ∀Z ∈ − −

4) , H, H , < X [X|Y ] ; Z >= 0, ovvero X [X|Y ] è

E E

Y Y

ortogonale a H e la proiezione di X su H è [X|Y ]

E

2

5) [X|Y ] minimizza la funzione (X g (Y ))

E E

Dimostrazione: 1),2) sono vere per costruzione, la 3) è già dimostrata sopra.

− −

4) < X [X|Y ] ; Z >= ((X [X|Y ]) Z)

E E E

− −

= (XZ ZE [X|Y ]) = (XZ) (ZE [X|Y ])

E E E

− −

= (E [XZ|Y ]) (ZE [X|Y ]) = (ZE [X|Y ]) (ZE [X|Y ]) = 0

E E E E

Teorema 6.24 (Teorema di Pitagora)

2 2 2

Y

∀Z ∈ − − −

H , (X Z) = (X [X|Y ]) + (E [X|Y ] Z)

E E E E

Dimostrazione:

2 2 2 2

− − − − −

(X Z) = (X [X|Y ] + [X|Y ] Z) = (X [X|Y ]) +(E [X|Y ] Z) +

E E E

2 2

− − − −

2 < X [X|Y ] ; [X|Y ] Z >= (X [X|Y ]) + (E [X|Y ] Z)

E E E

La linearità del valore atteso conclude la dimostrazione.

Corollario 6.24.1 (Il valore atteso condizionale minimizza la distanza)

2 Y

− ∈

[X|Y ] minimizza la funzione (X Z) , Z H

E E 21

2

− ≥

Dimostrazione: Nella dimostrazione di prima (E [X|Y ] Z) 0

E

Teorema 6.25 (Teorema di Pitagora per la varianza)

2 2

− −

Var (X) = (X (X|Y )) + (E (X|Y ) (X)) = (Var [X|Y ]) +

E E E E E

(E [X|Y ])

E

Dimostrazione:

2 2

− − −

(X (X)) = (X [X|Y ] + [X|Y ] (X))

E E E E

2 2

− − − −

= (X [X|Y ]) + (E [X|Y ] (X)) + 2 < X [X|Y ] ; [X|Y ] (X) >

E E E E E

2 2 Y

− − − ∈

= (X [X|Y ]) + (E [X|Y ] (X)) poichè [X|Y ] (X) H

E E E E

La linearità del valore atteso conclude la prima parte della dimostrazione.

2 2

− −

Poichè (E [X|Y ]) = (X) , (E [X|Y ] (X)) = Var (E [X|Y ]) , (X [X|Y ]) =

E E E E E E

h i

2

− |Y

(X [X|Y ]) = (Var (X|Y ))

E E E E

Teorema 6.26 (Disuguaglianza di Cauchy-Schwarz)

p p

2 2

∀X, ∈ |) ≤

Y H, (|XY (X ) (Y )

E E E p 2

|) |X|; |Y | |||X|||

Dimostrazione: Notare che (|XY =< >, (X ) =

E E

Teorema 6.27 (Due sottospazi con le loro proiezioni)

∀Y ∈ {Z ∈ −

H = H : Var (Z) = 0}, < X (X) ; Y >= 0

E

0 Cov(X,Y ) −

∀Y ∈ {aY ∈ ∈ − (Y (Y )) +

H = + b : Y H, a, b < x E

R},

Y Var(Y )

(X) , Y >= 0

E

Dimostrazione: Omessa la dimostrazione che sono sottospazi vettoriali.

≡ ∈ − −

1) Var (Z) = 0 =⇒ Z λ =⇒ < X (X) ; λ >= ((X (X)) λ) =

R E E E

(X) λ (X) λ = 0

E E

∗ ∗ ∗

− −

2) Y = Y (Y ) , γ = aE (Y ) + b (X) , aY + b = aY + γ + (Y ) , X =

E E E

∗ ∗ ∗ ∗

− −

X (X) e consideriamo < X (a Y + γ + (Y )) ; aY + γ + (Y ) >=

E E E

∗ ∗ ∗ ∗ ∗

([X (a Y + γ )] [aY + γ + (Y )])

E E

∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗

− − − − − −

= (aX Y a aY Y aγ Y )+E (γX a γY γγ )+E (E (Y ) X a Y (Y ) (Y ) γ )

E E E

∗ ∗ ∗

− −

= aCov (X, Y ) a aVar (Y ) γγ + (Y ) γ

E ∗

∀a,

Poniamo questo valore = 0, notando che deve fare 0 γ e quindi che γ =

Cov(X,Y )

0, a = Var(Y )

Definizione 6.32 (Coefficiente di correlazione)

Cov(X,Y )

ρ =

X,Y 1/2 1/2

Var(X) Var(Y )

Teorema 6.28 (Osservazioni su ρ )

X,Y

Cov(X,Y ) −E(Y

(Y )) −E(Y

Y )

Var(Y )

|ρ | ≤ 1, =

Dettagli
Publisher
A.A. 2023-2024
36 pagine
SSD Scienze matematiche e informatiche MAT/06 Probabilità e statistica matematica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher LuginiAndrea di informazioni apprese con la frequenza delle lezioni di Probabilità i e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Roma La Sapienza o del prof Nappo Giovanna.