Anteprima
Vedrai una selezione di 3 pagine su 10
Statistica - Regressioni, stimatori, teoria della stima Pag. 1 Statistica - Regressioni, stimatori, teoria della stima Pag. 2
Anteprima di 3 pagg. su 10.
Scarica il documento per vederlo tutto.
Statistica - Regressioni, stimatori, teoria della stima Pag. 6
1 su 10
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

2) ESR

E(Xi) = μ

V(Xi) = G2, i=1,..,n

TEORIA DELLA STIMA

Supponiamo X1,...,Xn v.c. i.i.d. (quindi ECR)

Xi ~ f(.)

Osserviamo delle v.c. e distribuite secondo una certa legge di probabilità generata da un certo parametro incognito

Bernoulli: Θ ∈ (0,1)

Poisson: Θ ∈ ƛ

Normale: Θ ∈ (μ, G2)

Uno stimatore (h) è una funzione che mappa lo spazio dei campioni nello spazio dei parametri

h: S Θ

1) Θ ≡ [0,1] Se la legge che genera i dati è Bernoulli

2) Θ ≡ R+ Se la legge è Poisson

3) Θ ≡ R x IR+ Se la legge è Normale

Proprietà auspicali per uno stimatore

1. Correttezza (-non distorsione-)

h(Θ,x1,...,xn) = Θ

La media aritmetica è uno stimatore corretto della media.

2. Efficienza , MSE = E[(hx1,...,xn) - Θ)2]

Se h1 e h2 stimatori per Θ, la MSE(h1) < MSE(h2)

Proprietà stimatore per N finito

  1. Correttezza: Sia h stimatore per θ, h è corretto se E(h) = θ
  2. Efficienza: Sia h stimatore per θ, definito MSE(h) = E((h - θ)2) = V(h) + B2(h) dove B(h) = E(h) - θ, allora h1 è più efficiente di h2 se MSE(h1) < MSE(h2)

Proprietà asintotiche degli stimatori (n → ∞)

  1. Correttezza asintotica: h stimatore per θ è asintoticamente corretto se E(h) → n→∞ θ es.: E(X2) = m + 1/m → n→∞ σ2
  2. Consistenza h è consistente (in media quadratica), MSE(h) → n→∞ 0 es.: E(X) = μ, V(X) = σ2/m MSE(X) = V(X) = σ2/m → n→∞ 0

è stimatore corretto (dei minimi X)

MĈ(a) = VĈ(n)

V(Σxi/m) = (1/m2) V(Σm) = (1/m2) ΣV(xi)

1/m2( ⟨a1⟩ (n⟩ - n⟩)) ⟶ 0

Questo lo otteniamo fatto per una Bernoulli, {Cadese tensioni whole}.

Siamo X1, X2, ..., Xm VC I.I.D

(X = (xn, Xn, ..., Xm))

Xi ~ L(Θ), Θ ∈ (cases)

Si definisce funzione di verosimiglienza (fdV) L(Θ, x) = P(X = x | Θ)

  • P(X1 = x1, Θ) P(x2 = x2, Θ)... P(Xm = xm, Θ)
  • ∏(xn) f(xn) ... f(xn)
  • i=1n f(xi, Θ)

L(Θ, x) ∝ ∏i=1n ƒ(x, Θ)

Si definisce:

L(lg) = lΘ L(Θ, x) = lΘ ∏i=1m f(xi, Θ) = Σlog f(xi, Θ)

Dettagli
Publisher
A.A. 2014-2015
10 pagine
4 download
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher birillo44 di informazioni apprese con la frequenza delle lezioni di Statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Modena e Reggio Emilia o del prof Frederic Patric.