vuoi
o PayPal
tutte le volte che vuoi
2) ESR
E(Xi) = μ
V(Xi) = G2, i=1,..,n
TEORIA DELLA STIMA
Supponiamo X1,...,Xn v.c. i.i.d. (quindi ECR)
Xi ~ f(.)
Osserviamo delle v.c. e distribuite secondo una certa legge di probabilità generata da un certo parametro incognito
Bernoulli: Θ ∈ (0,1)
Poisson: Θ ∈ ƛ
Normale: Θ ∈ (μ, G2)
Uno stimatore (h) è una funzione che mappa lo spazio dei campioni nello spazio dei parametri
h: S → Θ
1) Θ ≡ [0,1] Se la legge che genera i dati è Bernoulli
2) Θ ≡ R+ Se la legge è Poisson
3) Θ ≡ R x IR+ Se la legge è Normale
Proprietà auspicali per uno stimatore
1. Correttezza (-non distorsione-)
h(Θ,x1,...,xn) = Θ
La media aritmetica è uno stimatore corretto della media.
2. Efficienza , MSE = E[(hx1,...,xn) - Θ)2]
Se h1 e h2 stimatori per Θ, la MSE(h1) < MSE(h2)
Proprietà stimatore per N finito
- Correttezza: Sia h stimatore per θ, h è corretto se E(h) = θ
- Efficienza: Sia h stimatore per θ, definito MSE(h) = E((h - θ)2) = V(h) + B2(h) dove B(h) = E(h) - θ, allora h1 è più efficiente di h2 se MSE(h1) < MSE(h2)
Proprietà asintotiche degli stimatori (n → ∞)
- Correttezza asintotica: h stimatore per θ è asintoticamente corretto se E(−h) → n→∞ θ es.: E(−X2) = m + 1/m → n→∞ σ2
- Consistenza h è consistente (in media quadratica), MSE(h) → n→∞ 0 es.: E(X) = μ, V(X) = σ2/m MSE(X) = V(X) = σ2/m → n→∞ 0
è stimatore corretto (dei minimi X)
MĈ(a) = VĈ(n)
V(Σxi/m) = (1/m2) V(Σm) = (1/m2) ΣV(xi)
1/m2( ⟨a1⟩ (n⟩ - n⟩)) ⟶ 0
Questo lo otteniamo fatto per una Bernoulli, {Cadese tensioni whole}.
Siamo X1, X2, ..., Xm VC I.I.D
(X = (xn, Xn, ..., Xm))
Xi ~ L(Θ), Θ ∈ (cases)
Si definisce funzione di verosimiglienza (fdV) L(Θ, x) = P(X = x | Θ)
- P(X1 = x1, Θ) P(x2 = x2, Θ)... P(Xm = xm, Θ)
- ∏(xn) f(xn) ... f(xn)
- ∏i=1n f(xi, Θ)
L(Θ, x) ∝ ∏i=1n ƒ(x, Θ)
Si definisce:
L(lg) = lΘ L(Θ, x) = lΘ ∏i=1m f(xi, Θ) = Σlog f(xi, Θ)