Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
LETTURA REGRESSIONI LINEARI MULTIPLE
Testcore^=686.03 -1,10*str -0,65*el_pct
All’aumentare di 1 punto percentuale degli studenti non madrelingua inglese, il test score
diminuisce di 0,65 mantenendo costante la dimensione della classe (str).
Il resto dell’interpretazione dei coefficienti rimane uguale.
Misure della bontà di adattamento nelle regressioni lineari multiple
L’R² aggiustato (scritto con una barretta sopra), cerca di tenere conto del fatto che
aggiungendo nuovi regressori si sta sfoltendo l’errore, ed è sempre <R². La formula è:
R²aggiustato= 1 − ( − 1 / − − 1) ∗ (/) = 1 − ( − 1/ − − 1) ∗ (1 − 2)
Al numeratori si hanno i gradi di libertà, al denominatore si rimanda al numero di regressori.
Quando aggiungo nuovi regressori l’effetto finale che ho sul R^2 può essere opposto: - può
aumentare oppure diminuire l’R² aggiustato. Se l’R² aumenta tutte le volte che
aggiungiamo nuovi regressori, allora si può concludere che la bontà di adattamento sta
migliorando. L’ R² aggiustato potrebbe addirittura essere negativo, ma in questo caso
significa che si sta commettendo un grave errore e che una parte della varianza di y non è
spiegata da x.
L’R2 e l’R¯2 ci dicono se i regressori sono idonei a prevedere, o a “spiegare” i valori della
variabile dipendente nel campione di dati a disposizione. Se l’R2 (o l’R¯2) tende a uno, i
regressori producono delle buone previsioni della variabile dipendente in quel campione,
nel senso che la varianza dei residui OLS è piccola rispetto alla varianza della variabile
dipendente. Se l’R2 (o l’R¯2) tende a zero, è vero il contrario. L’R2 e l’R¯2 NON ci dicono
se: 1. una variabile inclusa è statisticamente significativa; 2. i regressori sono causa effettiva
dei movimenti della variabile dipendente; 3. c’è una distorsione da variabile omessa; 4.
abbiamo scelto il gruppo di regressori più appropriato
Esempio con 2 regressori e N=420
Il SER si calcola come √/ − − 1
Le variabili di controllo
Una variabile di controllo W è una variabile correlata e che controlla per un fattore causale
omesso nella regressione di Y su X, ma che di per sé non ha un effetto causale su Y.
La variabile di controllo non è un regressore di interesse nello studio, ma è un regressore
incluso per tener conto dei fattori che, se trascurati, potrebbero comportare la distorsione
da variabili omesse per la stima dell’effetto causale.
Quando inserisco la variabile di controllo la prima assunzione della OLS si modifica e diventa
l’assunzione di indipendenza della media condizionale. La media condizionata dell’errore
rispetto alle variabili di interesse è pari a zero (non sono correlate) mentre possono essere
correlate con le variabili di controllo. Quindi posso avere una certa correlazione; ecco perché
il coefficiente stimato della variabile di controllo non lo posso interpretare (non
risponde alla prima assunzione del modello OLS).
Variabili dummy
Sono una modalità econometrica per tradurre le variabili qualitative in quantitative,
ossia di tradurre le caratteristiche in numeri: 1 indica la presenza di una caratteristica e 0
l’assenza della stessa (esempio: variabile gender femmina 1 se l’individuo è donna;
femmina 0 se l’individuo è uomo). Esse si possono inserire nella regressione, prestando
attenzione al loro coefficiente stimato. Se ne considerano due tipi:
1. Variabile dummy intercetta: tiene conto di una qualità e permette alla retta di
regressione, che corrisponde a quella qualità, di differenziarsi rispetto all’altro gruppo
spostandosi parallelamente verso l’alto o verso il basso. N.B. Tutte le volte che abbiamo
a che fare con la variabili dummy intercetta, l’interpretazione del coefficiente stimato non
è la pendenza della retta ma è la differenza tra le medie campionarie dei due gruppi 1 e
0!
2. Trappola delle variabili dummy: Se si inserissero tutte le variabili dummy a disposizione
di un campione, si avrebbero problemi di collinearità perfetta. Dunque, quando si ha a
che fare con le variabili dummy, si deve sempre omettere uno dei gruppi di
riferimento oppure, laddove si fosse interessati ad includere tutti i gruppi di
riferimento, bisogna togliere l’intercetta.
Esempio distretti scolastici nord (Dn) centro (Dc) e sud (Ds) di cui voglio considerare la
performance scolastica rispetto alla grandezza della classe, ipotizzata a 20 studenti. Si
considerano Dn e Dc ma non Ds, il cui valore viene riferito dalla costante. La variabile che
manca (dummy di base) può sempre essere letta nella costante.
Testscore^= 664.43 + 8.28Dn + 4.11Dc -0,75STR
Il coefficiente stimato di “nord” è di 8,28. Questo significa che tutti i distretti scolastici che
fanno parte die distretti del nord hanno, in media, 8,28 punti in più nel Test Score rispetto al
centro e al sud. Come faccio a saperlo se la variabile dummy per il sud non è all’interno di
questa stima? Me lo dice la costante ossia 664,4299 è il Test Score predetto per una classe
del Sud che abbia uno STR=0. Il nord ha, rispetto al sud, 8 punti in più. Le classi del centro
hanno 4,11 punti in più rispetto al sud. Se si stima direttamente la variabile dummy otteniamo
già la differenza tra il valore di base (cioè la variabile dummy che non abbiamo inserito) e la
variabile dummy che stiamo analizzando (es: 8,28 è la differenza tra il sud e il nord)
Interazioni tra variabili indipendenti
Le interazioni sono di tre tipologie (vedremo solo le prime due):
1. Interazioni tra variabili binarie: le variabili binarie sono tali per cui l’interazione è
semplicemente data dal prodotto delle due variabili. Supponiamo di avere due variabili
dummy binarie: D1 e D2. Posso creare una terza variabile dummy D3=D1*D2. I possibili
output di D3 sono: 1*1; 1*0; 0*1; 0*0. La variabile dummy interazione va a beccare il
primo fenomeno in cui congiuntamente entrambe le variabili siano pari ad 1. Come si
interpretano i coefficienti delle regressioni con variabili binarie? Semplicemente
guardando i coefficienti come abbiamo sempre fatto, quindi interpretandoli come
differenze tra le medie oppure procedendo con il calcolo del valore predetto.
2. Interazioni tra variabile binaria e continua: variabile dummy nella pendenza. Ci aiuta
a capire cosa succede quando per la nostra variabile viene tenuto conto di una
particolare caratteristica quantitativa.
3. Interazione tra variabili continue (non da sapere)
Regressioni non lineari
Possiamo stimare il modello o con dei polinomi o con delle trasformazioni logaritmiche.
Polinomi
Se una funzione non è lineare, la sua pendenza della curva è data dalla tangente ed essa
non è costante ma cambia in ogni punto. L’effetto marginale di X è quindi maggiore nel tratto
AB rispetto al tratto CD: al crescere di X, il valore di Y aumenta ma a tassi di variazione
sempre più bassi (Y cresce ad un tasso decrescente). La funzione di regressione non
lineare si include mettendo dentro il quadrato del regressore; quindi, si genera una
nuova variabile che è uguale al quadrato del regressore. Si deve ragionare sul segno del
termine al quadrato, che dimostra se la funzione è concava o convessa (se è a collina o
a valle). = + 2
Se si opera il calcolo della derivata prima si trova la pendenza, (‘) = + 2
Se si calcola la derivata seconda si capisce se la pendenza è a collina (b<0)
(“) = 2
o a valle (b>0)
Tutte e le volte che abbiamo a che fare con dei quadrati non dobbiamo fare altro che
sostituire dei valori molto bassi e molto alti del regressore e vedere effettivamente di
quanto varia l’outcome. (verifica rendimenti marginali decrescenti)
Scegliere il polinomio
Più non linearità mettiamo nel modello di stima, più la complessità di quest’ultimo aumenta.
Esiste dunque un trade-off, ma come scegliere il polinomio a cui fermarsi?
Ci sono due procedure:
1. Dal polinomio più grande al polinomio più piccolo
2. Dal polinomio più piccolo (lineare) al polinomio più grande, che è quella preferibile
All’esame: In STATA, se facendo lo scatterplot mi rendo conto che non c’è linearità; prima
di tutto stimo il modello lineare (consapevole che risulterà però sbagliato perché c’è non
linearità). A questo punto genero il quadrato della variabile (comando gen) e inserisco il
lineare e il quadratico. Mi accorgo quindi che il risultato migliora (guardando R^2 e SER).
Guardando i dati mi rendo conto che potrebbe starci bene anche il cubico. Ecco, quindi, che
genero il cubico e faccio la regressione contenente lineare, quadratico e cubico. Mi rendo
conto che il coefficiente è statisticamente che R^2 è aumentato e che il SER è diminuito.
≠0,
Posso quindi andare oltre e fare la stima di un polinomio alla quarta. Mi accorgo che il
coefficiente stimato non è statisticamente che l’R^2 sta diminuendo e che il SER è
≠0,
aumentato di poco. Quindi mi fermo allo step precedente (cubico). Questa procedura si
chiama “verifica delle ipotesi sequenziali”.
Si parte dal polinomio più elevato, su quello più elevato si costruisce il test delle ipotesi a
partire dal coefficiente stimato ad esso associato. Guardo il suo pvalue, che mi dice se posso
o no rifiutare H0. Nel momento in cui il pvalue mi permette di rifiutare H0, questo coefficiente
sparisce e così via. (esempio con B^4 e B^3 che spariscono e mi fermo a B^2).
Trasformazioni logaritmiche
Perché si usano? Perchè permettono di ridurre dati molto grandi nelle regressioni non
lineari, così da poterli rappresentare graficamente come rette. Quelli di cui stiamo parlando
sono logaritmi naturali. Quello che è importante sapere è che il logaritmo di un valore + la
sua variazione - il logaritmo del valore è pari al rapporto della variazione del valore e del
valore stesso:
N.B. I logaritmi sono definiti per w>0. Il Log di 0 non può essere calcolato. Ecco quindi che
se nei dati ho degli 0 devo usare un trucchetto: aggiungo un piccolissimo valore allo 0 tale
da farlo diventare un numero bassissimo come 0,0001.
Elasticità e semi-elasticità
Nel fare le trasformazioni logaritmiche l’idea fondamentale è riuscire a gestire le
interpretazioni dei coefficienti stimati come elasticità (rapporti di variazioni
percentuali) o come semi-elasticit&agrav