Anteprima
Vedrai una selezione di 4 pagine su 98
Regressione lineare Pag. 1 Regressione lineare Pag. 2
Anteprima di 4 pagg. su 98.
Scarica il documento per vederlo tutto.
Regressione lineare Pag. 6
Anteprima di 4 pagg. su 98.
Scarica il documento per vederlo tutto.
Regressione lineare Pag. 11
1 su 98
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Lezione Introduttiva

Modello ⇒ schema teorico che descrive un fenomenoModello Statistico ⇒ modello di tipo matematico composto da:

  1. parte sistematica (segnale)
  2. parte accidentale (rumore)

yoss. = f (Xoss., Xlatenti) + εlatenti

  • f = funzione ignote
  • ε = termine di errore che cattura l'effetto dei fattori latenti

Modello Statistico lineare con errore additivo

y = X't β + εnon-linearità + εlatenti

X't β = β0 + β1 x1 + β2 x2 + …. + βk xk → componente sistematica (ignota e deterministica)

εtotale → componente accidentale (quantità ignota e aleatoria)

Osserva:

  • X' = vettore delle osservazioni
  • β = vettore dei parametri
  • β1, β2, …, βk non sono osservabili direttamente, ma bisogna stimarli.

In che senso lineare? → lineare nei parametri

es. log y = β0 + β1· 1/X + ε → y' = β0 + β1 X't + ε

Popolazione e Campione

yi = β0 + β1 xi1 + β2 xi2 + .... + βk xik + ei

i = 1,..., n

unità statistiche

Ipotesi sugli errori; (MODELLO LINEARE CLASSICO)

Distribuzione degli errori condizionatamente alle var. esplicative:

  • a) E(ei | x) = 0 ∀i
  • b) Var(ei | x) = σ2 ∀i ERRORI OMOSCHEDASTICI
  • c) Cov(ei, ej | x) = 0 ∀i ≠ j

Regressione Lineare Semplice

con una variabile esplicativa (k=1)

y = γ0 + γ1 x + ey|x → rappresenta quello che rimane della y una volta che mi sono condizionato a X.

Osserva

  • γ0 = intercetta
  • γ1 = pendenza
  • σ2y|x = Var(ey|x) = varianza residua
  • (una varianza residua piccola significa un modello migliore e quindi stime più precise)
  • Modello di regressione non fa altro che un'analisi di correlazione nel verso X → Y
  • Interpretazione dei coefficienti di regressione
    • a) interpretazione associativa (predittiva): due unità statistiche che differiscono di 1 per il regressore in questione
    • b) interpretazione causale (controfattuale): considera il cambiamento, in media, nella risposta di una unità statistica causato dall'incremento di 1 del regressore in questione (cambio il sesso e vedo come si modifica la situazione)
      • utile negli studi sperimentali;
      • poco attendibile negli studi osservazionali;

Esempio

E(y | z, w) = β0 + β1z + β2w

  • poichè w non è osservata, abbiamo che:

E(β̃1) = β1 + cov(z, w)/var(z) β2

= β1 + 0/var(z) β2 = β1

  • y = punteggio test
  • z = libro B
  • w = abilità studente
  • in questo esempio è stata omessa w, ma vale anche in caso di omissione di un vettore perchè l'assegnazione a caso di z garantisce che z sia incorrelata con ogni altra variabile
  • se non considero w però sovrastimo l'effetto di z.

3.1.1 Model Parameters, Estimation and Residuals

PARAMETRI → β0, β1, β2

STIMATORI → β 0, β 1, β 2

E(i) = β0 + β1 Xi1 + β2 Xi2 + ... + βk Xik = Xiβ 

→ poiché la media è la migliore previsione di un valore aleatorio

Residui → (Ê1, Ê2, ..., Ên)

Ê = yi - Xβ 

= yi - i → valore previsto

      &enspace;→ valore osservato

β  ha il cappello poiché è un valore stimato. Non si chiama errore, ma residuo. L'errore è quello vero!

Osserva

  • a) stimatori per i β poiché si tratta di una quantità fissa, ma ignota
  • b) predizioni per yi e Êi poiché si tratta di variabili aleatorie.

- residui parziali → considero tutte le variabili tranne la j-esima

ÊXJi = yi - β0 - ... - β J-1 Xi,J-1 - β J+1 Xi,J+1 - .... - β k Xi,k

      sottraggo e aggiungo la stessa quantità

= yi - Xiβ  + β J Xi,j

= Êi + β J xij

utile per fare dei plot per studiare il fit della j-esima var. esplicativa, poiché così posso fare dei plot a due dimensioni

Dettagli
A.A. 2020-2021
98 pagine
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher alessia.barnaba di informazioni apprese con la frequenza delle lezioni di Regressione lineare e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Firenze o del prof Adamo Stefano.