Anteprima
Vedrai una selezione di 10 pagine su 190
Econometria Pag. 1 Econometria Pag. 2
Anteprima di 10 pagg. su 190.
Scarica il documento per vederlo tutto.
Econometria Pag. 6
Anteprima di 10 pagg. su 190.
Scarica il documento per vederlo tutto.
Econometria Pag. 11
Anteprima di 10 pagg. su 190.
Scarica il documento per vederlo tutto.
Econometria Pag. 16
Anteprima di 10 pagg. su 190.
Scarica il documento per vederlo tutto.
Econometria Pag. 21
Anteprima di 10 pagg. su 190.
Scarica il documento per vederlo tutto.
Econometria Pag. 26
Anteprima di 10 pagg. su 190.
Scarica il documento per vederlo tutto.
Econometria Pag. 31
Anteprima di 10 pagg. su 190.
Scarica il documento per vederlo tutto.
Econometria Pag. 36
Anteprima di 10 pagg. su 190.
Scarica il documento per vederlo tutto.
Econometria Pag. 41
1 su 190
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Ystargomento più formale è che OAC e OBD sono triangoli simili e, di conseguenza, = .$ $Dunque, facendo una trasformazione lineare da x per ottenere z, sottraendo una costante generica, ilX! stàcoefficiente angolare rimane inalterato (cioè uguale ad ) questa un'ulteriore dimostrazione di quanto detto precedentemente. (Domanda V/F esame!)#̅Quando la costante c è scelta tale pari a , il vettore z è dettoT. stcentrato, ed è ortogonale a In questo caso, la stima di è lo$Tstessa sia che venga ottenuta regredendo y su e z, sia che vengaottenuta regredendo y solo su z. Questo è come dire che in talTcaso si potrebbe non considerare il regressore e ottenere loTstesso risultato nella stima che si ha considerando il regressorenel modello. Dunque, quando i regressori sono ortogonali, ci sipuò 'dimenticare' del regressore ortogonale, perché ilcoefficiente che si ottiene per il regressore

inserito nellaregressione è esattamente uguale a quello che si sarebbe ottenutose fosse stato inserito anche l'altro regressore. T.Questo è illustrato nella Figura 3.13, che mostra come sarebbe la Figura 3.12 se z fosse ortogonale a Ancoradl st T + st w, T.una volta, il vettore dei fitted values è scomposto come con z ora ad angolo retto rispetto a# $51 TNella Figura 3.12, z spostava la x ma non faceva diventare i vettori e z ortogonali, perché l'angolo che formatodai due vettori non è a 90°. Nella Figura 3.13, invece, z è stato scelto in modo tale da essere esattamenteT,ortogonale a infatti i due vettori formano un angolo a 90° tra loro.Considerando la Figura 3.13 e immaginando che in alto ci sia il vettore y di valori osservati sulla variabileTdipendente, si può affermare che andare a regredire y su e z oppure regredire y soltanto su z fa ottenere esattamente lo stesso coefficiente angolare nel processo di

stima.

Apparentemente questo è un po' assurdo, perché si pensa che aggiungendo uno o più regressori, tutto il resto dovrebbe cambiare; tuttavia, questo è vero solo se i due regressori non sono ortogonali (perpendicolari) l'uno all'altro, ma se i regressori sono l'uno ortogonale all'altro, fare una regressione soltanto su un regressore o su due regressori è esattamente la stessa cosa in termini di coefficiente ottenuto.

In sintesi, quando i regressori sono ortogonali è possibile omettere uno dei due regressori, perché il coefficiente che si ottiene nella stima non cambia.

Vediamo il perché di ciò da un punto di vista economico-finanziario. Combinare dei regressori che non sono ortogonali tra di loro, vuol dire che è possibile moltiplicarli tra loro e ottenere un punto particolare. Tuttavia, se i regressori sono ortogonali uno all'altro, vuol dire che i punti che si ottengono moltiplicando

Tali regressori tra loro sono pari a 0; quindi, questo non influenza il coefficiente che si va a stimare, perché i regressori sono posizionati in modo tale che sia impossibile combinarli l'uno con l'altro.

Supponiamo ora che y sia regredito solo su z. Immaginiamo che il vettore y stia sempre in alto, ma anziché proiettare tale vettore sul piano lo proiettiamo solo su z. Per cui, si va a disegnare una perpendicolare che da y va a z, che ricalca la perpendicolare che si aveva prima, cioè quella tratteggiata in figura, e quindi si arriva esattamente su , che è uguale a quello ottenuto prima.

Questo significa che y è proiettato ortogonalmente sul sottospazio S(z), che in figura è la linea verticale passante per z. Per definizione, si ha che:

kTdove è ortogonale sia al vettore che al vettore z.

TMa è anche ortogonale a z, e quindi il solo termine sul lato destro della 3.32 che non è annichilito.

(annullato)dalla proiezione sul sottospazio S(z) è il termine centrale, che viene lasciato immutato.st w,

Quindi il fitted value della regressione di y su z è solo e così la stima OLS è la stessa che si ottiene$st Tstimando nella regressione su e z.

Geometricamente, otteniamo questo risultato perché la proiezione di y sul sottospazio S(z) è la stessadlproiezione di su S(z). T,Il fatto che i residui OLS siano ortogonali a tutti i regressori, incluso porta all'importante risultato che: senel modello di regressione è presente la costante, la somma dei residui della regressione è sempre pari azero. (Domanda esame!)Infatti,si ricordi l'equazione 2.29.Una conseguenza di ciò è che: la somma dei residui della regressione è pari a zero anche in ogniT ∈ T,regressione in cui S(X), anche se cioè la costante, non compare esplicitamente nell'elenco dei regressori.Questo può accadere se i

regressori includono delle dummy variables (variabili indicatrici che assumono valore 0 oppure 1), che sono disposte in modo tale da riformare nuovamente, tramite una loro combinazione lineare, un vettore di 1. In questo caso, è come se implicitamente dentro al modello ci fosse la costante, anche se non appare come coefficiente stimato ma sottoforma di differenti dummy variables, e quindi la somma dei residui sarebbe nuovamente uguale a zero.

Ricapitolando: stiamo vedendo cosa accade nel caso in cui i regressori sono ortogonali tra loro. Quando si applica il metodo dei minimi quadrati nella circostanza particolare in cui vi sono due regressori ortogonali, regredire la y su entrambi i regressori oppure regredire la y su un solo regressore, fornisce esattamente lo stesso valore.

Due Gruppi di Regressori

I risultati forniti nel precedente paragrafo sono casi speciali di risultati più generali che si applicano a qualsiasi regressione in cui i regressori possono essere logicamente

suddivisi in due gruppi.

Immaginiamo di avere una regressione in cui si hanno due sets di regressori V e V, cioè una regressione in cui la X generica viene suddivisa in due:

dove V è una matrice di dimensioni n×k, quindi ha lo stesso numero di righe della matrice X (n) ma meno 1 colonne (k-1), V è una matrice di dimensioni n×k, quindi ha lo stesso numero di righe della matrice X (n) ma meno colonne (k-1), e X può essere scritta come la matrice partizionata [V1 V2], con k = k1 + k2.

Il caso precedente è un caso particolare di questo caso, perché avevamo che V aveva una sola colonna, cioè il vettore z (o x). Quindi, stiamo semplicemente generalizzando il precedente risultato.

Assumiamo che tutti i regressori presenti in V siano ortogonali a tutti i regressori presenti in V, quindi che XTX = [V1 V2]'T[V1 V2] = [V1'V1 V1'V2; V2'V1 V2'V2].

di 0). Sotto questa ipotesi, la stima di dalla 3.33 è la stessa della" ! !stima ottenuta dalla regressione di y solo su X , cioè dalla regressione:1X!e la stima di è parimenti la stessa della stima ottenuta dalla regressione di y solo su X , cioè dalla" 2regressione: X!y = X + u ."2 2 X!In altre parole, quando X e X sono ortogonali tra loro, la regressione di y su X e X fornisce un che è lo!1 2 1 2X!stesso che si ottiene regredendo semplicemente y solo su X , e, allo stesso modo, la regressione di y su X! 1 1X X! !e X fornisce un che è lo stesso che si ottiene regredendo semplicemente y solo su X . Questo perché," "2 2essendo X e X ortogonali tra loro, è possibile spezzare la regressione e farla solo su un regressore, anziché1 2su entrambi.Dunque, quando X e X sono ortogonali, possiamo eliminare un set di regressori dalla 3.33 senza influenzare1 2il coefficiente dell’altro set di

regressori.Il vettore dei fitted values della 3.33 è P y, mentre quello della 3.34 è P y, dove abbiamo usato la notazioneX1abbreviata:Come vediamo direttamente, se si proietta la matrice di proiezione definita su X, cioè P , solo su X , cioè P P ,X1 Xsi ottiene solo P , perché si proietta su un insieme più piccolo; quindi, P P , dove P comprende al suo interno1 1 X XX , fornisce P :1 1questo è vero indipendentemente dal fatto che X e X siano ortogonali. Quindi:1 2La prima uguaglianza sopra, che segue dalla 3.35, esprime che la proiezione di y su S(X ) è uguale alla1dl ≡proiezione di P y su S(X ). La seconda uguaglianza segue dalla definizione del vettore del fitted valueX1della 3.33 come P y; la terza dall’ortogonalità di X e X , che implica che P X = O; e l’ultima dal fatto cheX1 2 1 2X è invariante sotto l’azione di P . Poiché P y è uguale a X postmoltiplicato per le

Stime OLS della 3.34,1 1 1 1 X!l’uguaglianza delle espressioni più a sinistra e più a destra nella 3.36 ci dà il risultato che lo stesso può!X!essere ottenuto sia dalla 3.33 che dalla 3.34. L’analogo risultato per si dimostra nello stesso modo."53Abbandoniamo ora l’ipotesi che X e X siano ortogonali e dimostriamo la 3.35, un risultato molto utile che è1 2vero in generale. Per sostenere che P P = P , procediamo come segue:X 1 1L’uguaglianza di mezzo si ottiene notando che P X = X , perché tutte le colonne di X sono in S(X), e quindiX 1 1 1sono lasciate invariate da P . L’altra uguaglianza nella 3.35, cioè P P = P , si ottiene direttamente trasponendoX 1 X 1P P = P e utilizzando la simmetria di P e P . I due risultati nella 3.35 ci dicono che il prodotto di dueX 1 1 X 1proiezioni ortogonali, dove una proietta su un sottospazio dell'immagine dell'altra, è la proiezione su

quelsottospazio.Il risultato generale corrispondente a quello mostrato nella Figura 3.12 può essere espresso come segue. Se trasformiamo la matrice del regressore nella 3.33 aggiungendo X A a X , dove A è una matrice di dimensioni1 2k1 × k2, e lasciando X così com'è, abbiamo la regressione:1 Xzl ! Quindi della 3.37 è lo stesso di della 3.33. Ciò può essere visto immediatamente esprimendo il membro destro della 3.37 come combinazione lineare delle colonne di X e di X .1 2 Il prossimo passaggio
Dettagli
Publisher
A.A. 2021-2022
190 pagine
6 download
SSD Scienze economiche e statistiche SECS-P/05 Econometria

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher AG_unicatt di informazioni apprese con la frequenza delle lezioni di Econometria e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università Cattolica del "Sacro Cuore" o del prof Monticini Andrea.