Anteprima
Vedrai una selezione di 8 pagine su 34
Appunti lezioni Econometria finanziaria, parte 2 Pag. 1 Appunti lezioni Econometria finanziaria, parte 2 Pag. 2
Anteprima di 8 pagg. su 34.
Scarica il documento per vederlo tutto.
Appunti lezioni Econometria finanziaria, parte 2 Pag. 6
Anteprima di 8 pagg. su 34.
Scarica il documento per vederlo tutto.
Appunti lezioni Econometria finanziaria, parte 2 Pag. 11
Anteprima di 8 pagg. su 34.
Scarica il documento per vederlo tutto.
Appunti lezioni Econometria finanziaria, parte 2 Pag. 16
Anteprima di 8 pagg. su 34.
Scarica il documento per vederlo tutto.
Appunti lezioni Econometria finanziaria, parte 2 Pag. 21
Anteprima di 8 pagg. su 34.
Scarica il documento per vederlo tutto.
Appunti lezioni Econometria finanziaria, parte 2 Pag. 26
Anteprima di 8 pagg. su 34.
Scarica il documento per vederlo tutto.
Appunti lezioni Econometria finanziaria, parte 2 Pag. 31
1 su 34
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Bootstrap Parametrico

L'idea è stimare il modello 9, facciamo un t test e mettiamo da parte il valore della statistica t su questo coefficiente gamma, poi stimiamo il modello ristretto (10) che per definizione soddisfa l'ipotesi che gamma=0. Quindi prendiamo i residui di questo modello e stimiamo la varianza dei disturbi sotto l'ipotesi hp0. Quindi nel modello 10 andiamo a stimare sigma^2 con lo stimatore solito s^2. Stimando il modello 10 otteniamo:

Queste info ci permettono di calcolare un boostrap DGP cioè un altro campione dei dati in questo modo: prendiamo gli errori stimati, ipotizziamo che abbiano una distribuzione gaussiana con media 0 e varianza S^2. Questa y* fake ci permette di soddisfare il modello vero ristretto. Questo ci permette di avere questa y* che calcoliamo come: Campione boostrap

Prendiamo il primo numero casuale estratto dalla distribuzione gaussiana 11 ma con varianza stimata da noi con il modello ristretto e generiamo u1* (primo disturbo fake) +

beta tilda loabbiamo stimato nel ristretto e X1 lo conosciamo. Stessa cosa possiamo fare con le altre y.Questa cosa ci permette di costruire un campione di n osservazioni esattamente uguale alladimensione del campione originale. Successivamente utilizziamo la y e la regrediamo sui regressorioriginali ossia sulla X e Z della 9 perché a questo punto posso rifare un test t su gamma e vedereche valore viene della statistica t. a questo questa statistica soddisfa l’hp0 perché nella y che stoutilizzando ho imposto la condizione che Z non ci fosse. Questo procedimento di creare queste yfalse e quindi una t boostrappate lo ripetiamo B volte. E alla fine vado a calcolare il P value con laformula 6 o 7. 68BOOSTRAP NON PARAMETRICOàNel boostrap parametrico ci siamo affidati ad un hp forte: i disturbi veri siano distribuiti come unagaussiana. Questa ipotesi può essere considerata molto restrittiva. Come possiamo smontarla?Passando al boostrap non parametrico:

continueremo a utilizzare beta tilda ma anziché generare u* da una distribuzione che ipotizziamo noi li generiamo dai residui stimati. Immaginiamo di aver un modello e di stimare i residui: I residui che stimiamo nel modello ristretto, u tilda, sono dei residui che stimano in modo consistente i veri residui del modello ristretto. Quindi ricampioniamo i residui del modello ristretto ossia prendere un box, inserire all'interno tutti i residui stimati nel modello ristretto, inserire la mano n volte cioè una per ogni osservazione che noi abbiamo nel campione ed estrarre casualmente uno di questi residui, grazie a questo possiamo andare ad utilizzare questi residui per ricostruire la variabile y*. Cioè di fatto noi anziché estrarre da una distribuzione conosciuta ipotizzata da noi gaussiana adesso ri campioniamo i residui stimati da qui risample dei residuals. Questo vuol dire che alcuni dei residui che produrranno la variabile y boostrap potranno comparire.

più volte, altri potrebbero non comparire mai. È sufficiente avere una distribuzione uniforme compreso tra zero e n in modo tale da dirci quale residuo prendere e lo metti da parte, quel residuo servirà per generare la corrispondente y. (nella slide 21 ci sono i passaggi)

Esempio: supponiamo di avere n=10 e quindi avere 10 residui: supponiamo di prendere 10 numeri casuali da una distribuzione U(0,1):

Gli indici che tiriamo fuori sono: prendiamo in posizione il 7imo residuo (che corrisponde a -2,03) e così via questi sono i residui boostrappati per generare la y boostrappata: 69

Lezione 30/10/2020

PANEL DATA ANALYSIS

I modelli per dati panel sono dei modelli in cui oltre alla dimensione cross section abbiamo anche una dimensione time series quindi di fatto abbiamo una presenza di due tipologie di informazioni:

- da un lato abbiamo studiato i modelli per dati in forma di cross section (sono più osservazioni tutte prese allo stesso tempo, nello stesso periodo)-

dall'altro abbiamo le time series (dimensione di serie storiche, sono una famiglia osservata in un arco temporale più o meno lungo). Ad esempio 100 osservazione non riferite a differenti famiglie prese nello stesso tempo ma la stessa famiglia in un arco temporale più ampio. Queste due dimensioni possono essere combinate nei modelli per analisi in forma di dati panel. È fondamentale che quando abbiamo analisi per dati panel abbiamo due indici, quindi quando raccogliamo delle osservazioni panel dobbiamo essere sicuri di avere nel nostro dataset due celle in cui è rappresentata in una l'istante temporale riferito a quelle osservazioni e nell'altra l'unità statistica a cui si riferisce quella osservazione. Abbiamo in questa slide id che si riferisce all'unità statistica (1-2-3), year che si riferisce all'anno. In base a queste due info vediamo il salario (es: 2.20 si riferisce al salario del tipo 2 nell'anno).

88). Dobbiamo spiegare il salario di un individuo attraverso delle caratteristiche dell'individuo stesso: education, age, ecc..). Il modello più semplice per analizzare la relazione tra salario e caratteristiche dell'individuo è quello Pooled: è un modello in cui noi abbiamo inserito tutte le osservazioni in modo indistinto quindi di fatto non c'è una caratteristica specifica per l'individuo, viene trattato il modello come se si trattasse di un mega campione quindi si perde la peculiarità dei modelli panel cioè non c'è una differenziazione tra gli individui o tra le unità statistiche quindi nel nostro caso non ci sono delle caratteristiche specifiche del singolo individuo che vadano ad influenzare i parametri stimati quindi di fatto viene messo tutto insieme e il modello è rappresentato in questa forma: I coefficienti (beta1,2) sono costanti per tutti gli individui in tutti i periodi. Quindi non

c'è la possibilità di avere eterogeneità tra gli individui. Questo modello è il più semplice. Se ipotizziamo che il termine di errore abbia media zero e varianza costante e siano incorrelati sia rispetto al tempo che rispetto agli individui e siano a loro volta esogenei rispetto a x1 e x2 allora non c'è niente di differente rispetto a un modello di regressione multipla e infatti vengono applicati gli ols puri nel modello pooled ols. È evidente che quando andiamo a trattare modelli di questo tipo ci sia una situazione in cui gli standard error potrebbero risultare errati perché il modello potrebbe avere, anche se formalmente lo stiamo negando nelle ipotesi fatte prima, delle caratteristiche degli individui che sono fisse tra gli individui ma che cambiano tra un individuo ed un altro. Ad esempio se per un dato livello di education il salario di una donna o uomo è più alto della media in un anno

sarà sicuramente più alto anche negli altri anni. Ci sono delle caratteristiche individuali del singolo individuo che per necessità sono escluse dal set di variabili esplicative e tuttavia questo elemento fa si che la covarianza tra i disturbi tra due istanti temporali diversi per lo stesso individuo non sia in realtà uguale a 0 ma sia uguale a: Questo elemento quindi che cosa produce? Produce eteroschedasticità quindi nonostante noi avessimo ipotizzato che ci fosse di fatto covarianza pari a zero tra gli errori in realtà potrebbe non essere così perché è implicito nel fatto che se ho un individuo e lo osservo per più anni le caratteristiche di questo individuo fisse che vengono a manifestarsi ogni anno e questo provoca una varianza che non è possibile ipotizzarla costante. Quindi abbiamo una necessità di alterare le nostre ipotesi per tenere conto della possibile eteroschedasticità. Cosa vuol dire avere

una situazione in cui è presente eteroschedasticità? Che dobbiamo utilizzare almeno degli standard error che siano robusti per l'eteroschedasticità. Un approccio relativamente moderno per la gestione di etero è quello dell'utilizzo di standard error che siano cluster robust: l'idea è che ci sono dei dati che sono raccolti a livello individuale ma ogni osservazioni è associata con una entità di livello più elevato. (città, stati, un ospedale, una scuola) Significa che ogni osservazione o gruppi di osservazioni sono associati tra loro in entità formando un cluster. C'è eteroschedasticità all'interno di questo cluster oppure ci potrebbe essere etero ed autocorrelazione all'interno del cluster ma tra cluster diversi no. In questo caso è un caso che si presta bene per i dati panel diventa interessante utilizzare degli standard error che siano cluster robust. Ci sono delle

tecniche dietro che permettono di maneggiare questi cluster e questa tipologia di etero e o serial correlation. Quindi quando andiamo a stimare un modello con il pooled ols ricordiamo di considerare l'opzione di avere standard error robusti per cluster. Esempio: Gli standard error sono importanti perché ci aiutano a capire se il parametro sia o meno statisticamente significativo. Cioè se prendiamo un coefficiente e lo dividiamo per il suo standard error (test T) è evidente che se noi lo dividiamo per uno standard error più grande è più probabile che il nostro coeff non sia statisticamente significativo. Se passiamo da standard error normali a quelli cluster robust tutte le caratteristiche relative alla dimensione del campione, r2 aggiustato non cambiano perché i parametri mantengono esattamente lo stesso valore cioè la eteroschedasticità non entra nel modo in cui noi andiamo a stimare i beta. Quindi non c'è da

sorprendersi che gli ols continuino a fornire esattamente gli stessi valori.

THE FIXED EFFECT MODEL

Si può fare meglio rispetto al modello ols pooled andando a considerare l'ipotesi di avere intercette diverse per i singoli individui. Quindi il modello chiamato fixed effects da dove trae il suo nome? Ci sono delle caratteristiche dell'individuo che sono fisse dell'individuo, è inutile far finta che non esistano (come si faceva nel pooled), ne teniamo specificatamente conto con una appropriata intercetta.

Cioè ogni unità statistica ha una sua precisa intercetta quindi rispetto al modello precedente abbiamo alpha, questa i identifica la presenza di una intercetta specifica per l'unità statistica i-esima.

Ovviamente potremmo far variare tutti i beta ma il modello si complicherebbe troppo quindi quello che viene fatto in questo modello è di avere i beta sempre fissi mentre l'intercetta varia in funzione dell'unità.

statistica considerata. Questo vuol dire che se c'è una caratteristica o più specifiche dell'in
Dettagli
Publisher
A.A. 2020-2021
34 pagine
3 download
SSD Scienze economiche e statistiche SECS-P/05 Econometria

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher gstudio di informazioni apprese con la frequenza delle lezioni di Econometria finanziaria e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università Cattolica del "Sacro Cuore" o del prof Monticini Andrea.