2) ESR
E(X) = µ
V(X) = σ2
TEORIA DELLA STIMA
Siano X1,..., Xn n VC IID (quindi ECR)
Xi ~ f(θ) - Ognuna delle quali è distribuita secondo una certa legge di probabilità generata da un certo parametro vett.
Se f è
- BERNOULLI Θ = p
- POISSON Θ = λ
- NORMALE Θ = (µ, σ2)
Uno stimatore (h) è una funzione che mappa lo spazio dei campioni nello spazio dei parametri
h : S → Θ̂
- Θ̂ ≡ [0, 1] se è BERNOULLI
- Θ̂ ≡ R+ se la legge è POISSON
- Θ̂ ≡ R x R+ se la legge è NORMALE
Proprietà auspicabili per uno stimatore
- CONTEZZA (– min distorsione)
Sia h₁ uno stimatore per Θ, h₁ è corretto se e solo se
E(h(X1,..., Xn)) = Θ
(es. la media aritmetica è uno stimatore corretto della media)
- EFFICIENZA, MSE = E [(h(X1,..., Xn) - Θ)2]
Sono h₁ e h₂ stimatori per Θ. Se MSE(h₁) < MSE(h₂) allora h₁ è più efficiente di h₂, cioè la media si avvicina di più.
MSE(h) = V(h) m.b. h→ h(X1,..., Xn)
B(h₁) ≡ E(h) = Θ, se h₁ è corretto. B(h) = 0 e MSE(h) = V(h)
MSE = med square error = errore quadrato medio
2) ESR
E(Xi) = μ
V(Xi) = σi2
TEORIA DELLA STIMA
Siano X1, ..., Xn n VC IID (quindi ECR).
X̄ = f(θ) -> Dunque delle quali è distribuita secondo una certa legge di probabilità generata da un certo parametro vero.
Se f è
- BERNOULLI -> Θ = π
- POISSON -> Θ = λ
- NORMALE -> Θ = (μ, σ2)
Uno stimatore (h) è una funzione che mappa lo spazio dei campioni nello spazio dei parametri.
h : S ->
- [0,1] se e solo se genera dati è BERNOULLI
- R+ se la legge è POISSON
- R x IR+ se la legge è NORMALE
Proprietà auspicabili per uno stimatore
- CONTEZZA (m.m. distorsione)
Sia h1 uno stimatore per Θ, h1 è corretto se e solo se
E[h(X1, ..., Xn)] = Θ
(e) La media aritmetica è uno stimatore corretto della media.
- EFFICIENZA, MSE = E[(h(X1, ..., Xn) - Θ )2]
Sono h1 e h2 stimatori per Θ. Se MSE(h1) < MSE(h2) allora
h1 è più efficiente di h2, cioè la media si avvicina di più. MSE(h) = V(h) m.b. h -> (X1,..., Xn)
B(h) = E(h) - Θ se h è corretto B(h) = 0 e MSE(h) = V(h)
L.M.E.: minor squadrata mean = errore quadrato medio)
h(X1, ..., Xn) stimatore è VC
h(x1, ..., xn) lo stimatore è un numero
Proprietà stimatore per n finito
Correttezza: Sia h stimatore per θ, h è corretto se (h) = θ
Efficienza: Sia h stimatore per θ, definito
MSE(h) = [(h-θ)2] = V(h) + B2(h)
dove B(h) = (h) - θ, allora h1 è più efficiente di h2 se MSE(h1) < MSE(h2)
Proprietà asintotiche degli stimatori (n → ∞)
Correttezza asintotica: h stimatore per θ è asintoticamente corretto se (h) n→∞ θ
es. (Ĉ) = n-1/n σ2 n→∞ σ2
Consistenza
h è consistente (in media quadratica), MSE(h) n→∞ 0
es. μ̂n = x̄ , (x̄) = μ , V(x̄) = σ2/n
MSE(x̄) = V(x̄) = σ2/n n→∞ 0
Nota Terminologica:
Esercizio tipo
Un urna 10 8 4 1 1 1 si effettuano 21 ECE.P( 0,6 < PS < 0,65) ?
modifica ai dati
Abbiamo una moneta opiniamo che è Bernoulli ma nonsappiamo se è truccata o no
- n = 5
- x = x1, x2, x3, x4, x5
Tocco i 5 cambi e vedo x = 1, 0, 0, 1, 1 cosa posso dire di π?Con che probabilità:
FUNZIONE DI VEROSIMIGLIANZA DEL PARAMETRO
(L) likelihood
L(η, x) = P(X = x ; η)
- se η = 0 inattendibile
- se η = 0,1 verosimiglianza = 0,00081
- se η = 0,6 la più verosimile di tutti
η^ è l'argomento che rende massima la verosimiglianza di η alla luce dei dati x
η^ = argmax η L(η, x) , η∈ [0,1]
η^ = stima di massima verosimiglianza
Il logaritmo è una funzione monotona, cioè passando al logaritmo di una funzione i massimi non cambiano .
L(η, x) = P(X = x
lη(η) = log L(η, x)
se η^ , L(η^, x) > L(η, x) ∀x ≠ η^ ⟹ l(η^) > l(ɷ)
A06
Guardiamo la L di π dato x
L(π, x) = πx₁(1 - π)l - x₁ · πx₂(1 - π)l - x₂ · ... · πxₘ(1 - π)l - xₘ
dove x = (x₁, ..., xₘ)
Consideriamo l'esempio di prima:
L(π) = π3(1 - π)2 nell'esempio
l(π) = log [πΣxᵢ] + log [(1 - π)m - Σxᵢ]
log xi + log (1 - π)m - Σxᵢ = Σxᵢ log (π) + (m - Σxᵢ) log (1 - π)
La funzione di verosimiglianza misura la π dati i dati. La somma dei dati Σxᵢ è una costante cioè è nota.
d l(π) / d π = e'(π) = (Σxᵢ / π) + (m - Σxᵢ) / (1 - π) = Σxᵢ / π + (m - Σxᵢ) / (1 - π)
e'(π) = 0 ⟹ ((1 - π) Σxᵢ - π (m - Σxᵢ)) / (π (1 - π)) = 0
Σxᵢ - π Σxᵢ - πm + π Σxᵢ = 0
πm = Σxᵢ ⟹ Quindi il π che rende max la verosimiglianza è la regola:
π̂ = Σxᵢ / m = (1 + 0 + 0 + 1 + 1) / 5 = 3 / 5 = 0.6
E(π̂) = 1 / m E(Σxᵢ) = 1 / π E m π̂ = π̂
è stimatore corretto (devi usare)X
è stima (se usiamo x)
N( p̂ ) = V( p̂ ), V ( ∑ xi / m ) = 1 / m2 V ( ∑ xi ) = 1 / m2 ∑ V(xi)
= -1 / m2 np̂ (1-p̂ ) = n̂(1-n̂) / m
m→ ∞→ 0
MAGGIORE È IL CAMPIONE > PIÙ SIAMO VICINI ALLA VERA
CONOSCENZA
Questo lo chiamiamo fatto per una Bernoulli; adesso tensioniamo
per una V.C. qualsiasi
Siano x1, x2, ..., xm n VC IID Sia x = (x1, x2, ..., xn)
la realizzazione di X, t.c. ogni
xi ~ L(Θ), Θ∈una certafatta delmodello
Si definisce funzione di verosimiglianza (FdV) L(Θ x) = P(X = x, Θ)
Riesco minima
giusto la verosimile
di date tutte osservazioni
campione
= P(X1 = x1, Θ) P(X2 = x2, Θ) ....P(Xm = xm, Θ)
= ℓ(X1, Θ) ℓ(x2, Θ) .... ℓ(xm, Θ)
= ∏i=1m f(xi, Θ)
ℓ(Θ x) ∝ ℓ(xi, Θ)
Si definisce:
ℒ(Θ) = ∞ ℒ(Θ x) = ∞ i=1m f(xi, Θ) = ∑i=1m log f(xi, Θ)
Lo stimatore di massima verosimiglianza ネ la θ:
θ̂ = arg max L(θ, x) = arg max l(θ) , θ ∈ Θ
θ ネ costante
Diamo x = (x_1, x_2, ..., x_m) x_i ∼ Poiss(λ)
x(x_1, x_2, ..., x_m) redistribuzione di x
f(x_i, λ) = 1 / x₁ ! λ^x ⅇ^−λ
L( λ, x ) = ∏i=1^m 1 / xᵢ ! λ^x_i ⅇ^−λ = [∏i=1^m 1 / xᵢ ! ] (λ^x_i ⅇ^−λ) . ( 1 / λ₁ λ₁x_1ⅇ^−λ ) ...
[ mi=1(1 / xᵢ ! )] λ^( x₁+ x₂ + ...+xₘ ) ⅇ^−λ ...
(la consideriamo come una costante, non la riscriviamo)
= λ^(Σxᵢ) ⅇ^−m λ
ℓ (λ) = log λ^(Σxᵢ) ⅇ^−mλ = log λ^(Σxᵢ) + log ⅇ^−mλ
= Σx_i log λ − mλ (log ⅇ) = Σx_i log λ − m λ
ℓ' (λ) = Σxᵢ / λ − m = 0
=> Σxᵢ − λm = 0 Σxᵢ = λm
=>
λ̂ = Σxᵢ / m è stimato , λ̂ = Σ (xᵢ / m) ネ stimatore corretto
Є(λ̂) = Є (Σxᵢ / Є ) = 1 / m Σ Є(xᵢ) = 1 / m λx = λ
V(λ̂) = V (Σxᵢ / m) = 1 / m2 Σ V(xᵢ) = 1 / m2 mλ = λ / m → m → ∞ 0
λ ˆ è CONSISTENTE
Cose da sapere sulle proprietà degli stimatori di massima verosimiglianza:
- E(θˆ) → θ m →∞ E−INVARIANTE
- V(θˆ) → col seno quantile chiamato I−1(θ) m →∞
- − È la varianza dello stimatore a parità di efficienza
- − cioè la varianza più piccola che uno stimatore può assumere, per n abbastanza grande
- θˆ ~ N(θ, I−1(θ))
- Gli stimatori di massima verosimiglianza sono invarianti alle trasformazioni monotone g(θˆ) = g(θ) es. nella σ21 mi interessa la sostituzione: Vθ2 = θˆ
λ = 1⁄ψ , λˆ = 1⁄ψˆ
d\ \ell (\mu, \sigma^2) = 0
d\ \ell (\mu, \sigma) = 0
Da sapere per l’esame:
\[\hat{\mu} = \frac{1}{m} \sum_{i=1}^{m} x_i\]
\[\hat{\sigma} = \frac{1}{m} \sum_{i=1}^{m} (x_i - \hat{\mu})^2\]
\[\hat{\mu} = \frac{1}{m} \sum_{i=1}^{m} X_i\]
stimatore
\[E(\hat{\mu}) = E(\frac{1}{m} \sum_{i=1}^{m} x_i) = \frac{1}{m} \sum_{i=1}^{m} E(x_i)= \mu\]
\[V(\hat{\mu}) = V(\frac{1}{m} \sum_{i=1}^{m} x_i) = \frac{1}{m} \sum_{i=1}^{m} (x_i)= \frac{\sigma^2}{m}\]
\[E(\hat{\sigma}^2) = \frac{m-1}{m} \cdot \sigma^2\] -> la varianza calcolata sul campione non è uno stimatore corretto
\[\sigma^2 = \frac{m}{m-1} \cdot \hat{\sigma}^2 = \frac{m}{m-1} \cdot \frac{1}{m} \sum_{i=1}^{m} (x_i - \hat{\mu})^2\]
\[\hat{\sigma}^2 = \frac{1}{m-1} \sum_{i=1}^{m} (x_i - \hat{\mu})^2\]
\[E(\hat{\sigma}^2) = E(\frac{m}{m-1} \cdot \sigma^2) = \frac{m}{m-1} \cdot \sigma^2\] abbiamo corretto lo stimatore lo abbiamo corretto
la V(\hat{\sigma}^2) non è richiesta
passare da \sigma^2 a \hat{\sigma}^2 vuol dire ricampella