vuoi
o PayPal
tutte le volte che vuoi
Lezione Introduttiva
Modello ⇒ schema teorico che descrive un fenomenoModello Statistico ⇒ modello di tipo matematico composto da:
- parte sistematica (segnale)
- parte accidentale (rumore)
yoss. = f (Xoss., Xlatenti) + εlatenti
- f = funzione ignote
- ε = termine di errore che cattura l'effetto dei fattori latenti
Modello Statistico lineare con errore additivo
y = X't β + εnon-linearità + εlatenti
X't β = β0 + β1 x1 + β2 x2 + …. + βk xk → componente sistematica (ignota e deterministica)
εtotale → componente accidentale (quantità ignota e aleatoria)
Osserva:
- X' = vettore delle osservazioni
- β = vettore dei parametri
- β1, β2, …, βk non sono osservabili direttamente, ma bisogna stimarli.
In che senso lineare? → lineare nei parametri
es. log y = β0 + β1· 1/X + ε → y' = β0 + β1 X't + ε
Popolazione e Campione
yi = β0 + β1 xi1 + β2 xi2 + .... + βk xik + ei
i = 1,..., n
unità statistiche
Ipotesi sugli errori; (MODELLO LINEARE CLASSICO)
Distribuzione degli errori condizionatamente alle var. esplicative:
- a) E(ei | x) = 0 ∀i
- b) Var(ei | x) = σ2 ∀i ERRORI OMOSCHEDASTICI
- c) Cov(ei, ej | x) = 0 ∀i ≠ j
Regressione Lineare Semplice
con una variabile esplicativa (k=1)
y = γ0 + γ1 x + ey|x → rappresenta quello che rimane della y una volta che mi sono condizionato a X.
Osserva
- γ0 = intercetta
- γ1 = pendenza
- σ2y|x = Var(ey|x) = varianza residua
- (una varianza residua piccola significa un modello migliore e quindi stime più precise)
- Modello di regressione non fa altro che un'analisi di correlazione nel verso X → Y
- Interpretazione dei coefficienti di regressione
- a) interpretazione associativa (predittiva): due unità statistiche che differiscono di 1 per il regressore in questione
- b) interpretazione causale (controfattuale): considera il cambiamento, in media, nella risposta di una unità statistica causato dall'incremento di 1 del regressore in questione (cambio il sesso e vedo come si modifica la situazione)
- utile negli studi sperimentali;
- poco attendibile negli studi osservazionali;
Esempio
E(y | z, w) = β0 + β1z + β2w
- poichè w non è osservata, abbiamo che:
E(β̃1) = β1 + cov(z, w)/var(z) β2
= β1 + 0/var(z) β2 = β1
- y = punteggio test
- z = libro B
- w = abilità studente
- in questo esempio è stata omessa w, ma vale anche in caso di omissione di un vettore perchè l'assegnazione a caso di z garantisce che z sia incorrelata con ogni altra variabile
- se non considero w però sovrastimo l'effetto di z.
3.1.1 Model Parameters, Estimation and Residuals
PARAMETRI → β0, β1, β2
STIMATORI → β 0, β 1, β 2
E(y i) = β0 + β1 Xi1 + β2 Xi2 + ... + βk Xik = Xiβ
→ poiché la media è la migliore previsione di un valore aleatorio
Residui → (Ê1, Ê2, ..., Ên)′
Ê = yi - Xβ
= yi - y i → valore previsto
&enspace;→ valore osservato
β ha il cappello poiché è un valore stimato. Non si chiama errore, ma residuo. L'errore è quello vero!
Osserva
- a) stimatori per i β poiché si tratta di una quantità fissa, ma ignota
- b) predizioni per yi e Êi poiché si tratta di variabili aleatorie.
- residui parziali → considero tutte le variabili tranne la j-esima
ÊXJi = yi - β0 - ... - β J-1 Xi,J-1 - β J+1 Xi,J+1 - .... - β k Xi,k
sottraggo e aggiungo la stessa quantità
= yi - Xiβ + β J Xi,j
= Êi + β J xij
utile per fare dei plot per studiare il fit della j-esima var. esplicativa, poiché così posso fare dei plot a due dimensioni