Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
L’INCREMENTO DI SPIEGAZIONE E’ SIGNIFICATIVO
Notiamo l’analogia con MLE:
- Qui abbiamo il modello generale con 6 intercette e il modello ristretto con una sola intercetta: il
test confronta l’informazione che si perde restringendo il modello; se l’informazione che si perde è
trascurabile allora uso il modello ristretto, in caso contrario userò il modello generale.
Qui ho una stima lineare: uso la varianza spiegata come misura dell’informazione che guadagno o
perdo e uso il test F.
→
- MLE non è una stima lineare: per misurare l’informazione utilizzo il rapporto delle VS (test χ²).
Costi osservati = Dati veri; Stime IV = LSDV, risentono delle intercette individuali; Stime Pooled: tutti i punti
stanno sulla stessa retta. (matrice NTx(T+1)
NB. Qui stimo le intercette individuali e temporali. Se inserissi N e T il determinante della matrice sarebbe
pari a 0, perciò rinuncio ad una dummy temporale (anno 1) che sarebbe il riferimento rispetto al quale
indico aumenti o diminuzioni.
Se lavoro separatamente sulle intercette individuali e temporali, avrei una dummy per ogni US (N) oppure
una dummy per ogni tempo (T). Se lavoro insieme avrò invece una dummy per ogni US (N) E (T-1) dummy
con riferimento al tempo.
Per quanto riguarda COEFF, l’effetto temporale che abbiamo inserito prima era rimasto nel residuo e, se
significativo, quando lo esplicito cambia tutto. Ora ho ripulito il residuo da componenti non strettamente
IID (OMOSC e INCORR).
E quindi...
coeff. sqm test t
a1 -0,035 0,677 -0,051
a2 0,197 0,788 0,250
a3 1,374 0,964 1,425
a4 1,917 1,023 1,874
a5 1,696 1,012 1,677
a6 2,536 1,119 2,266
t2 0,238 0,065 3,683
t3 0,380 0,097 3,899
t4 0,587 0,134 4,381
beta 0,195 0,119 1,635
2
R = 0,996463
Migliore del precedente??? In generale SI’
Per t>2 il test t p significativo. In questo caso solo a6 è significativo.
Quando passo ad uno schema di questo tipo devo guardare il plot dei residui in modo diverso (di solito li
guardo rispetto ad una variabile indipendente): qui dovrei depurarli da tutte le intercette individuali.
Dal punto di vista delle US i valori medi sono così:
I residui ti e ai sono pari a 0 perché il modello è molto buono. Meno buono è il residuo totale perché c’è
l’effetto del tempo (?).
Dal punto di vista dei tempi:
4)Modelli a componenti di varianza, effetti casuali –
random effects
In questo caso le intercette individuali sono trattate come componenti stocastiche, non come parametri
fissi. Le α e le γ (intercette temporali) diventano delle variabili indipendenti.
i i
Vi sono numerose considerazioni che rendono plausibile questa ipotesi:
1. Si tratta di caratteristiche non spiegate (non osservate talvolta) relative al singolo individuo, è
“naturale” ipotizzare distribuzioni probabilistiche (come per la statura).
2. Essendo diventata una variabile esplicativa, è difficile immaginare indipendenza tra le intercette e
le esplicative, ad esempio se stimiamo funzioni di produzione, le intercette rappresenterebbero
una sorta di capacità imprenditoriale “tipica” dell’impresa e sicuramente questa ha effetto sulla
quantità di input utilizzati.
3. Trattate come determinazione empirica di una variabile stocastica comune a tutti gli individui, le
intercette assumono un significato riferibile all’intero collettivo e non al singolo soggetto.
Questa ipotesi distingue EC dagli EF: se il comportamento è collettivo, l’intercetta non può essere
data dalla somma ma deve essere tipica di quel collettivo perché l’interazione è importante.
L’assunzione di intercette stocastiche ha, ovviamente, conseguenze sulla struttura di VAR/COVAR del
Modello e quindi sulla tecnica di stima.
Come abbiamo visto in questi casi dobbiamo ricorrere (in prevalenza) a GLS, o meglio a FGLS.
Sintetizzando i passi che ci portano ad una stima FGLS:
1. Ipotizzare un modello della Var/Covar del fenomeno;
2. (cioè) ipotizzare una “forma” per la matrice Ω;
3. Ottenere una prima stima dei coefficienti e dei residui;
4. Sulla base dei residui e delle ipotesi sulla forma stimare Ω;
5. Utilizzando la stima di Ω ottenere una seconda stima dei residui;
6. Ripetere i passi 4. e 5. fino a convergenza.
Quindi otterremo tante strategie di stima quanti sono le ipotesi che possiamo sensatamente formulare
sulla struttura di Var/Covar. Tali ipotesi saranno strettamente legate (cioè plausibili e coerenti) almeno con
il processo generatore dei dati che possiamo immaginare per il fenomeno che ci interessa.
Qui ne vedremo approfonditamente uno, e accenneremo ad altri, tuttavia la logica della formulazione della
strategia rimane la stessa, cioè quella indicata in precedenza.
Ogni ipotesi determina una strategia e questo spiega la pluralità di stimatori che abbiamo a disposizione.
Molto spesso questi stimatori sono identificati con il nome del loro “ideatore”.
MVC può essere costituita da un numero di parametri molto minore: qui sono solo 2 parametri.
Questa è la struttura della matrice Ω:
Notiamo che nella DP di Ω compaiono componenti di varianza sia individuali sia di tutti gli individui; fuori
i
dalla DP abbiamo la componente individuale di varianza che si ripete nel tempo.
2 2
I 2 parametri e ci consentono di riempire Ω in maniera adeguata al fine di trovare una stima dei
coefficienti adeguata.
Il test dei moltiplicatori di Lagrange confronta le varianze. L’ipotesi nulla è che non vi è alcun effetto
individuale.
Questo test ci dice se la componente individuale è rilevante oppure no E se devo usare i random effects o i
fixed effects.
Nei random effects ho 2 componenti di errore: quella individuale (variabilità che impatta sulla varianza
totale) e quello temporale; nei R.E. uso lo stimatore Between per quantificare la componente individuale,
random e la somma delle precedenti. Quindi ottengo Ω che rende utilizzabile i GLS.
→
Nel caso in cui la componente di varianza individuale è pari a 0 lo stimatore più adatto è quello a
effetti fissi.
Il test di Hausman è un’estensione del test t, che viene proiettato in termini matriciali; l’ipotesi nulla
̂ ̂
praticamente confronta effetti casuali (GLS) e effetti fissi (OLS).
Le time invariant variables è come se fossero effetti individuali, uguali in tutti i tempi: è come se fossero
un’unica intercetta individuale (?).
Questa è la soluzione più diretta del problema, però mancano le proprietà stocastiche di questi stimatori.
Un esempio può essere un’indagine panel sulle famiglie: il numero di figli è una variabile costante nel panel.
γ’ è la media delle x sugli individui ed è il coefficiente che descrive la correlazione tra gli effetti individuali e
le variabili esplicative: all’aumentare di γ è meglio usare i random effects.
Gli effetti individuali sono componenti stocastiche: qui sottraggo loro la parte deterministica.
Qui abbiamo problemi di “autocorrelazione”.
Le IV sono correlate con le X ma non con i residui u.
Cerco le variabili strumentali nelle osservazioni che ho: sacrifico alcune informazioni che ho per usarle
come variabili strumentali. Ad esempio, mi trovo al secondo ritardo: y e y diventeranno le variabili
t-3 t-4
strumentali per y ; in questo modo avrò la garanzia che le IV non siano correlate con i residui e sappiamo
t-2
che y e y hanno già “esaurito” il loro contributo per quanto riguarda i residui.
t-3 t-4 5)Sistemi complessi
I modelli che stimiamo (tipo i panel) includono implicitamente o esplicitamente al loro interno le variabili
temporali. Queste hanno qualche criticità nei “modelli di equilibrio” (modello di Keynes, modelli neo-
classici, eccetera) perché, anche se si può creare uno stato di perturbazione momentanea, la logica al di
sotto della relazione tra variabili tende a creare una situazione che poi permane fino a che essa non viene di
nuovo disturbata. Questo aggiustamento nella realtà tuttavia non è istantaneo!
NB. Equilibrio per i neo-classici significa che tutta la domanda è soddisfatta e tutta la produzione è venduta:
questo è un concetto piuttosto limitato, poiché non considera la capacità produttiva inutilizzata, la
possibilità di modulare l’utilizzo dei fattori primari.
Vi sono 2 problemi con i modelli di equilibrio:
1) È virtualmente assente il tempo, infatti si ipotizza che gli aggiustamenti siano simultanei: il tempo è
semplicemente un fenomeno inerziale che non ha un ruolo chiave: rallenta solo alcuni
automatismi.
2) Un mercato non trova un prezzo di equilibrio istantaneo: anche se così fosse, introducendo la
variabile tempo non come inerzia ma come variabile sostanziale, il modello diventerebbe più
→
complicato perché contiene al suo interno un’informazione temporale non si ha simultaneità
negli algoritmi di stima e nel loro significato economico.
Le decisioni che riguardano una delle due curve (es. D) hanno uno sfasamento temporale forte rispetto alle
decisioni prese sull’altra curva (Offerta): quanto devo produrre lo devo decidere almeno un anno prima. I
produttori, dovendo scommettere sul futuro, prenderanno come segnale della curva di domanda di domani
quella di oggi.
Il prezzo atteso può avere tante componenti come la siccità, la pubblicità, eccetera.
Notiamo che c’è dipendenza lineare: la differenza p e p è casuale: più i produttori sono bravi a
t t-1
“predictare” e più alta è la probabilità che i due prezzi coincidano. Tuttavia si tratta sempre di un
adattamento temporale visto che non è un “gioco” istantaneo.
5 Argomento 5\Slides_Dati_Covid-19.pdf
6)Distribuzioni troncate
Uno dei problemi nelle misurazioni di tipo statistico è il fatto che vi sono alcune manifestazioni dei
fenomeni che non possono essere osservate: in questo caso parliamo di distribuzioni troncate.
Ho una forte eterogeneità nel senso che al di sotto (o al di sopra) di una certa soglia o non vedo niente
→
(troncamento) oppure vedo un comportamento uguale per tutti (censura) su questo punto ci torneremo
dopo.
Per risolvere il problema del troncamento simulo ciò che si avrebbe quando non ho un’informazione, per
capire come funziona il processo.
Esempio
Qui faccio riferimento al teorema delle probabilità composte secondo cui f(x/x>a) è uguale al rapporto tra
la probabilità che l’evento si verifichi a prescindere dalla soglia (probabilità original