Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
- Stima ML
Critéri di Stima
L(s)
soluzioni improprie, ma comode (Fisher & non)
Vogliamo saper progettare stimatore, anche nei casi in cui non sia ovvio quale è il migliore
Critéri della massima verosomiglianza (Maximum Likelihood) (ML)
per v.c. discrete
L(g, x) = p(5x):
dall'esperienza x
- Es: 5:30 Lez 3
Non è una v.c.
In generale
Criterio della massima verosomiglianza
L(g, x)
- Es: 1:45 Lez 3
Per trovare i punti di massimo azzera le derivate prime e controlla i radici...
Nota: Spesso è più comodo massimizza il ln L invece...
ln L(g, x)
S(θ; y) = ln[L(θ; X)] e detto anche supporto "loqo likelihood".
Massimizzare Sθ equivale a ln(x) = 1 <=> x=2 < ln(x).
θ = parametro dello = a che se ho n osservazioni indipendenti.
S(θ) = ln[L(θ; X)]
Riacutare df numeri MLE a partire dalle osservazioni: i.i.d. Xi ~ λ(m, θ), i=1, ..., n
L(θ; X) = ∏i=1n = 1 / 2πθn/2(e- 1 2θ ∑i=1n (Xi - θ)2
S(θ; X) = ln[L(θ; X)] =- 2 - 2 ∑(Xi - θ)
Calcolo la derivata seconda che < 0 => θ* è un punto di massimo medio apparente.
θ* = 1/n ∑ Xi
Proprietà degli Stimatori ML
- Invarianza parametrica.
Per osservazioni Xi = i.i.d.
- θ* è consistente (converge in probabilità a θ0)
- θ* è asintoticamente: non polarizzata => E[θ*∞] = θ0
- θ* traguingere asintoticamente il limite o (kumer differenti CR.) :
- E asintoticamente gaussiane θ*∞ ~ N(θ0, R)
Perché è bernouill con B=P. Conosce il numero K di necessità in N prove
Caso vettoriale: X è un vettore casuale
Mean Squared Error - MSE X(s) = E[(E[s - E[s]])2] ≥ E[(E[s])2]
dove s: ↠ X, X ε Rm
Si dimostra che MSEX(s) è minimizzato dal s = E[X]
Stimare un v.c. è stimare di "pullutera v.c"
Es.: stimare κ valore X sulla base della misura di Y (esempio)
Ym (β esempio)
Ipotesi X Y v.c. congiunte con fX,Y(x,y) nota
Teorema fondsource: X*(y) = E[X|Y = y]
Dim: Come luilletana, sia con fX|Y(x|y) - vetcre sia fX(x)
Definizione:
- Equazione min E[(E[Y] - X)2] | Y = y]
- È noto il problema di stimani media quadratica
Nel caso vettoriale x*(y) = E[X|Y = y] minimizza E[E[(Y - X)2|X]]
dove s: ↠ X, X ε Rm
Se X e ε Y sono indipendenti ⇒ E[X|Y = y] = E[X]
E[E[(Q(Y)-X)|Y = y] = E[E[Y - X*] + VX[X]]
Nel caso vettoriale X*(y) = E[X|Y = y] minimizza E[E[Y - X*]]
X:*(y) = E[X|Y = y] + E[Y]* in media XL
MSE = E[E[Y]L X]|Y = y] = V