Capitolo 4: Regressione lineare con singolo L’ varia tra 0 e 1 e misura la frazione della
regressore varianza di che è spiegata da .
Il modello di regressione lineare postula una E’ il rapporto tra la somma dei quadrati spiegata
relazione lineare tra le variabili x e y, la pendenza e la somma dei quadrati totale.
della retta che mette in relazione x e y è l’effetto La somma dei quadrati spiegata (ESS, Explained
di una variazione unitaria di x e y, ed è una Sum of Squares) è la somma delle deviazioni
̂
caratteristica incognita come la media di y. La quadratiche dei valori predetti dalla loro
pendenza e l’intercetta possono essere stimati media.
attraverso un metodo chiamato Minimi Quadrati ̂ ̅)
∑(
Ordinari (OLS, Ordinary Least Squares).
A noi interessa stimare la variazione di y al variare
di x (pendenza; y=x0X; dX:dY), al fine di predire La somma dei quadrati totale (TSS, Total Sum of
una relazione valida in media nella popolazione. Squares) è la somma delle deviazioni quadratiche
Per fare questo è utile incorporare nella relazione di Y dalla loro media.
tutti quei fattori che possono influenzare y. Al ̅
∑
momento ci limiteremo ad un modello con
singolo regressore: Quindi l’ , sarà:
Bisogna usare i dati (raccolti usando un
campione casuale) per stimare la pendenza e
l’intercetta (coefficienti o parametri della L’ della regressione di Y sul singolo regressore
regressione), sfruttando il loro stimatore è il quadrato del coefficiente di correlazione tra Y
naturale: la media. e X.
Lo stimatore OLS sceglie i coefficienti di Errore standard della regressione (SER)
regressione in modo che la retta di regressione L’errore standard della regressione misura la
stimata sia il più possibile vicina ai dati osservati, distanza tipica di dal suo valore predetto (SER,
dove la vicinanza è misurata dalla somma dei Standard Error of the Regression). E’ uno
quadrati degli errori che si commettono nel stimatore della deviazione standard dell’errore di
predire y data x. Quindi bisogna trovare quei regressione ui, ovvero misura la dispersione delle
coefficienti che minimizzano: osservazioni intorno alla retta di regressione
̂ ̂
∑ [ ] (stessa unità di misura della variabile
dipendente).
̂ ̂
Dove e sono stimatori dei minimi quadrati Poiché gli errori di regressione non sono
ordinari di B0 e B1, da cui si costruisce la retta di osservati, il SER è calcolato usando le loro
̂
regressione OLS e quindi il valore predetto . Tali ̂ ̂
controparti campionarie, i residui OLS .
coefficienti sono il risultato dell’operazione di
̂
̂
minimizzazione.Il residuo sarà . ∑ ̂
Le formule di calcolo degli stimatori OLS della ̂ ̂
pendenza e dell’intercetta sono:
̅ ̅
∑
̂ Le assunzioni dei minimi quadrati
̅
∑ Assunzioni sotto le quali gli OLS costituiscono uno
̂ ̅ ̂ ̅ stimatore appropriato dei coefficienti di
regressione ignoti B0 e B1.
L’ e l’errore standard misurano quanto bene si Assunzione 1: la distribuzione condizionata di Ui
adatta la retta di regressione standard OLS ai data Xi ha media nulla.
dati. Assunzione 2: (Xi, Yi) sono indipendentemente e
L’ identicamente distribuite. Altrimenti incorrelati.
1
Assunzione 3: gli outlier sono improbabili. Con Per il test unilaterale (coda sinistra):
momenti quarti finiti nulli. | | | |
Capitolo 5: Verifica di ipotesi ed intervalli di
confidenza Si rifiuta l’ipotesi a livello di significatività del 5%,
Verifica di ipotesi su un singolo coefficiente di se il valore-p è minore di 0,05 (o,
regressione equivalentemente, se | |>1,96).
Verifica di ipotesi circa la pendenza B1 Verifica di ipotesi circa l’intercetta B0
Verifica dell’ipotesi contro Stesso procedimento. Con erro
-
Riassunto esame Econometria, prof. Fiorentini, libro consigliato Introduzione all'Econometria, Stock Watson
-
Riassunto esame Econometria, prof. Fiorentini, libro consigliato Introduzione all'Econometria, Stock Watson
-
Riassunto esame Econometria, Prof. Billio Monica, libro consigliato Introduzione all'econometria, Stock, J. and Wat…
-
Riassunto esame di Econometria, prof. Tivegna, libro consigliato: Introduzione all'econometria, Stock e Watson