Anteprima
Vedrai una selezione di 6 pagine su 22
Formulario Metodologie per la valutazione delle politiche 1 a.s. 2023-2024 Pag. 1 Formulario Metodologie per la valutazione delle politiche 1 a.s. 2023-2024 Pag. 2
Anteprima di 6 pagg. su 22.
Scarica il documento per vederlo tutto.
Formulario Metodologie per la valutazione delle politiche 1 a.s. 2023-2024 Pag. 6
Anteprima di 6 pagg. su 22.
Scarica il documento per vederlo tutto.
Formulario Metodologie per la valutazione delle politiche 1 a.s. 2023-2024 Pag. 11
Anteprima di 6 pagg. su 22.
Scarica il documento per vederlo tutto.
Formulario Metodologie per la valutazione delle politiche 1 a.s. 2023-2024 Pag. 16
Anteprima di 6 pagg. su 22.
Scarica il documento per vederlo tutto.
Formulario Metodologie per la valutazione delle politiche 1 a.s. 2023-2024 Pag. 21
1 su 22
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

LETTURA REGRESSIONI LINEARI MULTIPLE

Testcore^=686.03 -1,10*str -0,65*el_pct

All’aumentare di 1 punto percentuale degli studenti non madrelingua inglese, il test score

diminuisce di 0,65 mantenendo costante la dimensione della classe (str).

Il resto dell’interpretazione dei coefficienti rimane uguale.

Misure della bontà di adattamento nelle regressioni lineari multiple

L’R² aggiustato (scritto con una barretta sopra), cerca di tenere conto del fatto che

aggiungendo nuovi regressori si sta sfoltendo l’errore, ed è sempre <R². La formula è:

R²aggiustato= 1 − ( − 1 / − − 1) ∗ (/) = 1 − ( − 1/ − − 1) ∗ (1 − 2)

Al numeratori si hanno i gradi di libertà, al denominatore si rimanda al numero di regressori.

Quando aggiungo nuovi regressori l’effetto finale che ho sul R^2 può essere opposto: - può

aumentare oppure diminuire l’R² aggiustato. Se l’R² aumenta tutte le volte che

aggiungiamo nuovi regressori, allora si può concludere che la bontà di adattamento sta

migliorando. L’ R² aggiustato potrebbe addirittura essere negativo, ma in questo caso

significa che si sta commettendo un grave errore e che una parte della varianza di y non è

spiegata da x.

L’R2 e l’R¯2 ci dicono se i regressori sono idonei a prevedere, o a “spiegare” i valori della

variabile dipendente nel campione di dati a disposizione. Se l’R2 (o l’R¯2) tende a uno, i

regressori producono delle buone previsioni della variabile dipendente in quel campione,

nel senso che la varianza dei residui OLS è piccola rispetto alla varianza della variabile

dipendente. Se l’R2 (o l’R¯2) tende a zero, è vero il contrario. L’R2 e l’R¯2 NON ci dicono

se: 1. una variabile inclusa è statisticamente significativa; 2. i regressori sono causa effettiva

dei movimenti della variabile dipendente; 3. c’è una distorsione da variabile omessa; 4.

abbiamo scelto il gruppo di regressori più appropriato

Esempio con 2 regressori e N=420

Il SER si calcola come √/ − − 1

Le variabili di controllo

Una variabile di controllo W è una variabile correlata e che controlla per un fattore causale

omesso nella regressione di Y su X, ma che di per sé non ha un effetto causale su Y.

La variabile di controllo non è un regressore di interesse nello studio, ma è un regressore

incluso per tener conto dei fattori che, se trascurati, potrebbero comportare la distorsione

da variabili omesse per la stima dell’effetto causale.

Quando inserisco la variabile di controllo la prima assunzione della OLS si modifica e diventa

l’assunzione di indipendenza della media condizionale. La media condizionata dell’errore

rispetto alle variabili di interesse è pari a zero (non sono correlate) mentre possono essere

correlate con le variabili di controllo. Quindi posso avere una certa correlazione; ecco perché

il coefficiente stimato della variabile di controllo non lo posso interpretare (non

risponde alla prima assunzione del modello OLS).

Variabili dummy

Sono una modalità econometrica per tradurre le variabili qualitative in quantitative,

ossia di tradurre le caratteristiche in numeri: 1 indica la presenza di una caratteristica e 0

l’assenza della stessa (esempio: variabile gender femmina 1 se l’individuo è donna;

femmina 0 se l’individuo è uomo). Esse si possono inserire nella regressione, prestando

attenzione al loro coefficiente stimato. Se ne considerano due tipi:

1. Variabile dummy intercetta: tiene conto di una qualità e permette alla retta di

regressione, che corrisponde a quella qualità, di differenziarsi rispetto all’altro gruppo

spostandosi parallelamente verso l’alto o verso il basso. N.B. Tutte le volte che abbiamo

a che fare con la variabili dummy intercetta, l’interpretazione del coefficiente stimato non

è la pendenza della retta ma è la differenza tra le medie campionarie dei due gruppi 1 e

0!

2. Trappola delle variabili dummy: Se si inserissero tutte le variabili dummy a disposizione

di un campione, si avrebbero problemi di collinearità perfetta. Dunque, quando si ha a

che fare con le variabili dummy, si deve sempre omettere uno dei gruppi di

riferimento oppure, laddove si fosse interessati ad includere tutti i gruppi di

riferimento, bisogna togliere l’intercetta.

Esempio distretti scolastici nord (Dn) centro (Dc) e sud (Ds) di cui voglio considerare la

performance scolastica rispetto alla grandezza della classe, ipotizzata a 20 studenti. Si

considerano Dn e Dc ma non Ds, il cui valore viene riferito dalla costante. La variabile che

manca (dummy di base) può sempre essere letta nella costante.

Testscore^= 664.43 + 8.28Dn + 4.11Dc -0,75STR

Il coefficiente stimato di “nord” è di 8,28. Questo significa che tutti i distretti scolastici che

fanno parte die distretti del nord hanno, in media, 8,28 punti in più nel Test Score rispetto al

centro e al sud. Come faccio a saperlo se la variabile dummy per il sud non è all’interno di

questa stima? Me lo dice la costante ossia 664,4299 è il Test Score predetto per una classe

del Sud che abbia uno STR=0. Il nord ha, rispetto al sud, 8 punti in più. Le classi del centro

hanno 4,11 punti in più rispetto al sud. Se si stima direttamente la variabile dummy otteniamo

già la differenza tra il valore di base (cioè la variabile dummy che non abbiamo inserito) e la

variabile dummy che stiamo analizzando (es: 8,28 è la differenza tra il sud e il nord)

Interazioni tra variabili indipendenti

Le interazioni sono di tre tipologie (vedremo solo le prime due):

1. Interazioni tra variabili binarie: le variabili binarie sono tali per cui l’interazione è

semplicemente data dal prodotto delle due variabili. Supponiamo di avere due variabili

dummy binarie: D1 e D2. Posso creare una terza variabile dummy D3=D1*D2. I possibili

output di D3 sono: 1*1; 1*0; 0*1; 0*0. La variabile dummy interazione va a beccare il

primo fenomeno in cui congiuntamente entrambe le variabili siano pari ad 1. Come si

interpretano i coefficienti delle regressioni con variabili binarie? Semplicemente

guardando i coefficienti come abbiamo sempre fatto, quindi interpretandoli come

differenze tra le medie oppure procedendo con il calcolo del valore predetto.

2. Interazioni tra variabile binaria e continua: variabile dummy nella pendenza. Ci aiuta

a capire cosa succede quando per la nostra variabile viene tenuto conto di una

particolare caratteristica quantitativa.

3. Interazione tra variabili continue (non da sapere)

Regressioni non lineari

Possiamo stimare il modello o con dei polinomi o con delle trasformazioni logaritmiche.

Polinomi

Se una funzione non è lineare, la sua pendenza della curva è data dalla tangente ed essa

non è costante ma cambia in ogni punto. L’effetto marginale di X è quindi maggiore nel tratto

AB rispetto al tratto CD: al crescere di X, il valore di Y aumenta ma a tassi di variazione

sempre più bassi (Y cresce ad un tasso decrescente). La funzione di regressione non

lineare si include mettendo dentro il quadrato del regressore; quindi, si genera una

nuova variabile che è uguale al quadrato del regressore. Si deve ragionare sul segno del

termine al quadrato, che dimostra se la funzione è concava o convessa (se è a collina o

a valle). = + 2

Se si opera il calcolo della derivata prima si trova la pendenza, (‘) = + 2

Se si calcola la derivata seconda si capisce se la pendenza è a collina (b<0)

(“) = 2

o a valle (b>0)

Tutte e le volte che abbiamo a che fare con dei quadrati non dobbiamo fare altro che

sostituire dei valori molto bassi e molto alti del regressore e vedere effettivamente di

quanto varia l’outcome. (verifica rendimenti marginali decrescenti)

Scegliere il polinomio

Più non linearità mettiamo nel modello di stima, più la complessità di quest’ultimo aumenta.

Esiste dunque un trade-off, ma come scegliere il polinomio a cui fermarsi?

Ci sono due procedure:

1. Dal polinomio più grande al polinomio più piccolo

2. Dal polinomio più piccolo (lineare) al polinomio più grande, che è quella preferibile

All’esame: In STATA, se facendo lo scatterplot mi rendo conto che non c’è linearità; prima

di tutto stimo il modello lineare (consapevole che risulterà però sbagliato perché c’è non

linearità). A questo punto genero il quadrato della variabile (comando gen) e inserisco il

lineare e il quadratico. Mi accorgo quindi che il risultato migliora (guardando R^2 e SER).

Guardando i dati mi rendo conto che potrebbe starci bene anche il cubico. Ecco, quindi, che

genero il cubico e faccio la regressione contenente lineare, quadratico e cubico. Mi rendo

conto che il coefficiente è statisticamente che R^2 è aumentato e che il SER è diminuito.

≠0,

Posso quindi andare oltre e fare la stima di un polinomio alla quarta. Mi accorgo che il

coefficiente stimato non è statisticamente che l’R^2 sta diminuendo e che il SER è

≠0,

aumentato di poco. Quindi mi fermo allo step precedente (cubico). Questa procedura si

chiama “verifica delle ipotesi sequenziali”.

Si parte dal polinomio più elevato, su quello più elevato si costruisce il test delle ipotesi a

partire dal coefficiente stimato ad esso associato. Guardo il suo pvalue, che mi dice se posso

o no rifiutare H0. Nel momento in cui il pvalue mi permette di rifiutare H0, questo coefficiente

sparisce e così via. (esempio con B^4 e B^3 che spariscono e mi fermo a B^2).

Trasformazioni logaritmiche

Perché si usano? Perchè permettono di ridurre dati molto grandi nelle regressioni non

lineari, così da poterli rappresentare graficamente come rette. Quelli di cui stiamo parlando

sono logaritmi naturali. Quello che è importante sapere è che il logaritmo di un valore + la

sua variazione - il logaritmo del valore è pari al rapporto della variazione del valore e del

valore stesso:

N.B. I logaritmi sono definiti per w>0. Il Log di 0 non può essere calcolato. Ecco quindi che

se nei dati ho degli 0 devo usare un trucchetto: aggiungo un piccolissimo valore allo 0 tale

da farlo diventare un numero bassissimo come 0,0001.

Elasticità e semi-elasticità

Nel fare le trasformazioni logaritmiche l’idea fondamentale è riuscire a gestire le

interpretazioni dei coefficienti stimati come elasticità (rapporti di variazioni

percentuali) o come semi-elasticit&agrav

Dettagli
A.A. 2023-2024
22 pagine
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher giorgiastagnoli di informazioni apprese con la frequenza delle lezioni di Metodologie per la valutazione delle politiche 1 e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università Cattolica del "Sacro Cuore" o del prof Uberti Teodora Erika.