Estratto del documento

2) ESR

E(X) = µ

V(X) = σ2

TEORIA DELLA STIMA

Siano X1,..., Xn n VC IID (quindi ECR)

Xi ~ f(θ) - Ognuna delle quali è distribuita secondo una certa legge di probabilità generata da un certo parametro vett.

Se f è

  • BERNOULLI Θ = p
  • POISSON Θ = λ
  • NORMALE Θ = (µ, σ2)

Uno stimatore (h) è una funzione che mappa lo spazio dei campioni nello spazio dei parametri

h : S → Θ̂

  1. Θ̂ ≡ [0, 1] se è BERNOULLI
  2. Θ̂ ≡ R+ se la legge è POISSON
  3. Θ̂ ≡ R x R+ se la legge è NORMALE

Proprietà auspicabili per uno stimatore

  1. CONTEZZA (– min distorsione)

Sia h₁ uno stimatore per Θ, h₁ è corretto se e solo se

E(h(X1,..., Xn)) = Θ

(es. la media aritmetica è uno stimatore corretto della media)

  1. EFFICIENZA, MSE = E [(h(X1,..., Xn) - Θ)2]

Sono h₁ e h₂ stimatori per Θ. Se MSE(h₁) < MSE(h₂) allora h₁ è più efficiente di h₂, cioè la media si avvicina di più.

MSE(h) = V(h) m.b. h→ h(X1,..., Xn)

B(h₁) ≡ E(h) = Θ, se h₁ è corretto. B(h) = 0 e MSE(h) = V(h)

MSE = med square error = errore quadrato medio

2) ESR

E(Xi) = μ

V(Xi) = σi2

TEORIA DELLA STIMA

Siano X1, ..., Xn n VC IID (quindi ECR).

X̄ = f(θ) -> Dunque delle quali è distribuita secondo una certa legge di probabilità generata da un certo parametro vero.

Se f è

  • BERNOULLI -> Θ = π
  • POISSON -> Θ = λ
  • NORMALE -> Θ = (μ, σ2)

Uno stimatore (h) è una funzione che mappa lo spazio dei campioni nello spazio dei parametri.

h : S ->

  1. [0,1] se e solo se genera dati è BERNOULLI
  2. R+ se la legge è POISSON
  3. R x IR+ se la legge è NORMALE

Proprietà auspicabili per uno stimatore

  1. CONTEZZA (m.m. distorsione)

Sia h1 uno stimatore per Θ, h1 è corretto se e solo se

E[h(X1, ..., Xn)] = Θ

(e) La media aritmetica è uno stimatore corretto della media.

  1. EFFICIENZA, MSE = E[(h(X1, ..., Xn) - Θ )2]

Sono h1 e h2 stimatori per Θ. Se MSE(h1) < MSE(h2) allora

h1 è più efficiente di h2, cioè la media si avvicina di più. MSE(h) = V(h) m.b. h -> (X1,..., Xn)

B(h) = E(h) - Θ se h è corretto B(h) = 0 e MSE(h) = V(h)

L.M.E.: minor squadrata mean = errore quadrato medio)

h(X1, ..., Xn) stimatore è VC

h(x1, ..., xn) lo stimatore è un numero

Proprietà stimatore per n finito

  1. Correttezza: Sia h stimatore per θ, h è corretto se (h) = θ

  2. Efficienza: Sia h stimatore per θ, definito

    MSE(h) = [(h-θ)2] = V(h) + B2(h)

    dove B(h) = (h) - θ, allora h1 è più efficiente di h2 se MSE(h1) < MSE(h2)

Proprietà asintotiche degli stimatori (n → ∞)

  1. Correttezza asintotica: h stimatore per θ è asintoticamente corretto se (h) n→∞ θ

    es. (Ĉ) = n-1/n σ2 n→∞ σ2

  2. Consistenza

    h è consistente (in media quadratica), MSE(h) n→∞ 0

    es. μ̂n = x̄ , (x̄) = μ , V(x̄) = σ2/n

    MSE(x̄) = V(x̄) = σ2/n n→∞ 0

Nota Terminologica:

Esercizio tipo

Un urna 10 8 4 1 1 1 si effettuano 21 ECE.P( 0,6 < PS < 0,65) ?

modifica ai dati

Abbiamo una moneta opiniamo che è Bernoulli ma nonsappiamo se è truccata o no

  • n = 5
  • x = x1, x2, x3, x4, x5

Tocco i 5 cambi e vedo x = 1, 0, 0, 1, 1 cosa posso dire di π?Con che probabilità:

FUNZIONE DI VEROSIMIGLIANZA DEL PARAMETRO

(L) likelihood

L(η, x) = P(X = x ; η)

  • se η = 0 inattendibile
  • se η = 0,1 verosimiglianza = 0,00081
  • se η = 0,6 la più verosimile di tutti

η^ è l'argomento che rende massima la verosimiglianza di η alla luce dei dati x

η^ = argmax η L(η, x) , η∈ [0,1]

η^ = stima di massima verosimiglianza

Il logaritmo è una funzione monotona, cioè passando al logaritmo di una funzione i massimi non cambiano .

L(η, x) = P(X = x

lη(η) = log L(η, x)

se η^ , L(η^, x) > L(η, x)   ∀x ≠ η^   ⟹   l(η^) > l(ɷ)

A06

Guardiamo la L di π dato x

L(π, x) = πx₁(1 - π)l - x₁ · πx₂(1 - π)l - x₂ · ... · πxₘ(1 - π)l - xₘ

dove x = (x₁, ..., xₘ)

Consideriamo l'esempio di prima:

L(π) = π3(1 - π)2 nell'esempio

l(π) = log [πΣxᵢ] + log [(1 - π)m - Σxᵢ]

log xi + log (1 - π)m - Σxᵢ = Σxᵢ log (π) + (m - Σxᵢ) log (1 - π)

La funzione di verosimiglianza misura la π dati i dati. La somma dei dati Σxᵢ è una costante cioè è nota.

d l(π) / d π = e'(π) = (Σxᵢ / π) + (m - Σxᵢ) / (1 - π) = Σxᵢ / π + (m - Σxᵢ) / (1 - π)

e'(π) = 0 ⟹ ((1 - π) Σxᵢ - π (m - Σxᵢ)) / (π (1 - π)) = 0

Σxᵢ - π Σxᵢ - πm + π Σxᵢ = 0

πm = Σxᵢ ⟹ Quindi il π che rende max la verosimiglianza è la regola:

π̂ = Σxᵢ / m = (1 + 0 + 0 + 1 + 1) / 5 = 3 / 5 = 0.6

E(π̂) = 1 / m E(Σxᵢ) = 1 / π E m π̂ = π̂

è stimatore corretto (devi usare)X

è stima (se usiamo x)

N( p̂ ) = V( p̂ ), V ( ∑ xi / m ) = 1 / m2 V ( ∑ xi ) = 1 / m2 ∑ V(xi)

= -1 / m2 np̂ (1-p̂ ) = n̂(1-n̂) / m

m→ ∞→ 0

MAGGIORE È IL CAMPIONE > PIÙ SIAMO VICINI ALLA VERA

CONOSCENZA

Questo lo chiamiamo fatto per una Bernoulli; adesso tensioniamo

per una V.C. qualsiasi

Siano x1, x2, ..., xm n VC IID Sia x = (x1, x2, ..., xn)

la realizzazione di X, t.c. ogni

xi ~ L(Θ), Θ∈una certafatta delmodello

Si definisce funzione di verosimiglianza (FdV) L(Θ x) = P(X = x, Θ)

Riesco minima

giusto la verosimile

di date tutte osservazioni

campione

= P(X1 = x1, Θ) P(X2 = x2, Θ) ....P(Xm = xm, Θ)

= ℓ(X1, Θ) ℓ(x2, Θ) .... ℓ(xm, Θ)

= ∏i=1m f(xi, Θ)

ℓ(Θ x) ∝ ℓ(xi, Θ)

Si definisce:

ℒ(Θ) = ∞ ℒ(Θ x) = ∞ i=1m f(xi, Θ) = ∑i=1m log f(xi, Θ)

Lo stimatore di massima verosimiglianza ネ la θ:

θ̂ = arg max L(θ, x) = arg max l(θ) , θ ∈ Θ

θ ネ costante

Diamo x = (x_1, x_2, ..., x_m) x_i ∼ Poiss(λ)

x(x_1, x_2, ..., x_m) redistribuzione di x

f(x_i, λ) = 1 / x₁ ! λ^x ⅇ^−λ

L( λ, x ) = ∏i=1^m 1 / xᵢ ! λ^x_i ⅇ^−λ = [∏i=1^m 1 / xᵢ ! ] (λ^x_i ⅇ^−λ) . ( 1 / λ₁ λ₁x_1ⅇ^−λ ) ...

[ mi=1(1 / xᵢ ! )] λ^( x₁+ x₂ + ...+xₘ ) ⅇ^−λ ...

(la consideriamo come una costante, non la riscriviamo)

= λ^(Σxᵢ) ⅇ^−m λ

ℓ (λ) = log λ^(Σxᵢ) ⅇ^−mλ = log λ^(Σxᵢ) + log ⅇ^−mλ

= Σx_i log λ − mλ (log ⅇ) = Σx_i log λ − m λ

ℓ' (λ) = Σxᵢ / λ − m = 0

=> Σxᵢ − λm = 0 Σxᵢ = λm

=>

λ̂ = Σxᵢ / m è stimato , λ̂ = Σ (xᵢ / m) ネ stimatore corretto

Є(λ̂) = Є (Σxᵢ / Є ) = 1 / m Σ Є(xᵢ) = 1 / m λx = λ

V(λ̂) = V (Σxᵢ / m) = 1 / m2 Σ V(xᵢ) = 1 / m2 mλ = λ / m → m → ∞ 0

λ ˆ è CONSISTENTE

Cose da sapere sulle proprietà degli stimatori di massima verosimiglianza:

  1. E(θˆ) → θ m →∞ E−INVARIANTE
  2. V(θˆ) → col seno quantile chiamato I−1(θ) m →∞
    • − È la varianza dello stimatore a parità di efficienza
    • − cioè la varianza più piccola che uno stimatore può assumere, per n abbastanza grande
  3. θˆ ~ N(θ, I−1(θ))
  4. Gli stimatori di massima verosimiglianza sono invarianti alle trasformazioni monotone g(θˆ) = g(θ) es. nella σ21 mi interessa la sostituzione: Vθ2 = θˆ

λ = 1ψ , λˆ = 1ψˆ

d\ \ell (\mu, \sigma^2) = 0

d\ \ell (\mu, \sigma) = 0

Da sapere per l’esame:

\[\hat{\mu} = \frac{1}{m} \sum_{i=1}^{m} x_i\]

\[\hat{\sigma} = \frac{1}{m} \sum_{i=1}^{m} (x_i - \hat{\mu})^2\]

\[\hat{\mu} = \frac{1}{m} \sum_{i=1}^{m} X_i\]

stimatore

\[E(\hat{\mu}) = E(\frac{1}{m} \sum_{i=1}^{m} x_i) = \frac{1}{m} \sum_{i=1}^{m} E(x_i)= \mu\]

\[V(\hat{\mu}) = V(\frac{1}{m} \sum_{i=1}^{m} x_i) = \frac{1}{m} \sum_{i=1}^{m} (x_i)= \frac{\sigma^2}{m}\]

\[E(\hat{\sigma}^2) = \frac{m-1}{m} \cdot \sigma^2\] -> la varianza calcolata sul campione non è uno stimatore corretto

\[\sigma^2 = \frac{m}{m-1} \cdot \hat{\sigma}^2 = \frac{m}{m-1} \cdot \frac{1}{m} \sum_{i=1}^{m} (x_i - \hat{\mu})^2\]

\[\hat{\sigma}^2 = \frac{1}{m-1} \sum_{i=1}^{m} (x_i - \hat{\mu})^2\]

\[E(\hat{\sigma}^2) = E(\frac{m}{m-1} \cdot \sigma^2) = \frac{m}{m-1} \cdot \sigma^2\] abbiamo corretto lo stimatore lo abbiamo corretto

la V(\hat{\sigma}^2) non è richiesta

passare da \sigma^2 a \hat{\sigma}^2 vuol dire ricampella

Anteprima
Vedrai una selezione di 3 pagine su 10
Statistica - Regressioni, stimatori, teoria della stima Pag. 1 Statistica - Regressioni, stimatori, teoria della stima Pag. 2
Anteprima di 3 pagg. su 10.
Scarica il documento per vederlo tutto.
Statistica - Regressioni, stimatori, teoria della stima Pag. 6
1 su 10
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher birillo44 di informazioni apprese con la frequenza delle lezioni di Statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Modena e Reggio Emilia o del prof Frederic Patric.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community