Estratto del documento

DIGRESSIONE SULLA MVC

Matrice di Varianza e Covarianza (MVC):

  • È una tabella quadrata in cui vengono riportati gli indici di correlazione tra le variabili;
  • Essendo una matrice di correlazione, sulla sua DP ci sta la correlazione di una variabile con se stessa→ sulla DP sono tutti 1, hanno una covariabilità perfetta (basta che ti ricordi l’indice dicorrelazione); la matrice di correlazione è una trasformazione di una matrice più generale, chesarebbe la MVC; →
  • Riassume tutta l’informazione di cui le variabili sono portatrici se cambio un dato cambia tuttoall’interno di questa matrice;
  • Nella DP della MVC c’è la varianza e fuori dalla DP vi sono le covarianze;

Proprietà della MVC :

  1. È una matrice quadrata ammette sempre la matrice inversa (purché abbia determinante diversoda 0!);
  2. Per definizione, la DP è positiva –> è una matrice semidefinita positiva (può

    avere dei valori negativi dalla DP); →3) È una matrice simmetrica la trasposta di una matrice simmetrica è uguale alla matricesimmetrica ed è molto facile calcolare l’inversa di una matrice simmetrica.

    Questa era una MVC tra variabili!La MVC vale per qualunque tipo di distribuzione (ad esempio le “normaline”), che ha una propriavarianza e covarianza. Allora l’ipotesi di omoschedasticità e incorrelazione equivale ad ipotizzarel’esistenza di una MVC tra le distribuzioni dei singoli individui, non tra le variabili, che abbia ununico valore sulla DP (perché σ è uno solo ed è uguale per tutti) e 0 fuori dalla DP per ipotesi diincorrelazione (COV=0). Quindi, sotto ipotesi di omoschedasticità e incorrelazione, la MVC per gliindividui è una matrice diagonale (sulla DP c’è un solo valore). Quando succede questo la matrice→può essere degradata a livello di scalare

    (numero) per questo quando troviamo la soluzione OLSΩ non la troviamo.

    Di MVC (importanti) ne abbiamo almeno 2 per ora:

    1. quella che riguarda le variabili, su cui andiamo a guardare le correlazioni, la collinearità, eccetera;
    2. quella che riguarda gli individui, su cui vediamo l’eteroschedasticità e la correlazione;

    → →III) quella dei coefficienti di regressione test t (= valore del coefficiente - 0/σ σ è la DP della MVC dei coefficienti di regressione). →

    Adesso neghiamo le ipotesi di omoschedasticità e incorrelazione residuo moltiplicato per una qualche matrice E (ε’ε)=σΩ.Ω

    Se noi prendiamo questa formula, non è necessario che sia una MVC, basta che sia proporzionale alla MVC! Se i pesi sono proporzionali alle varianze e alle covarianze, la MVC raccoglie comunque la deviazione rispetto all’ipotesi principale.

    Ω, essendo una MVC e godendo di quelle proprietà già descritte, può

    essere decomposta (sempre) in duematrici (→ prodotto tra matrice x vettore x trasposta della matrice precedente):

    Ω = CꓥC’ con

    C = Autovettori

    ꓥ = Autovalori (lambda maiuscolo)

    Dobbiamo prendere da quella matrice alcune informazioni rilevanti: ciò che si estrae da quella matrice sono gli autovalori.

    Gli autovalori sono dei valori incogniti λ, che sottratti ai termini della diagonale principale, che rendono il determinante della matrice sia pari a 0 (non sono numeri immaginari nel nostro caso).

    Ad ogni autovalore è associato un (auto)vettore. Sappiamo che un vettore in un piano cartesiano è una freccia che congiunge due punti; quando prendiamo queste matrici, immaginiamo che le righe o le colonne di queste matrici siano delle coordinate cartesiane in uno spazio a n dimensione, e che ogni riga o ogni colonna sia un vettore (tante frecce); questi sono gli autovettori (prendi questa definizione per buono).

    Come sappiamo, una matrice è composta da

    righe e da colonne: ad esempio, una matrice 2x2 identifica due punti all'interno di uno spazio cartesiano; se prendo il vettore che collega l'origine e i due punti (e collego i due punti) ottengo un triangolo [in 3d otterrei un prisma]. Il determinante di quella matrice è l'area della figura piana (o del solido) descritta dai vettori riga/colonna della matrice.

    Se la matrice fosse [5 10; 1 2], i due vettori sarebbero allineati sulla stessa retta (sono proporzionali), l'area del "triangolino" (i due lati sono sovrapposti) è 0 perché i due punti sono collineari, quindi il determinante è 0. Se due delle x sono collineari, vuol dire che 2 delle colonne della matrice stanno sulla stessa retta e quindi il determinante della matrice è pari a 0.

    Il determinante della matrice ha a che fare con la quantità di informazione originale di cui sono portatrici le proprie colonne siccome le colonne sono variabili, se due

    Le variabili sono perfettamente collineari (una è il doppio dell'altra, ad esempio) una delle due è completamente inutile. Questo viene segnalato dal fatto che il determinante della matrice diventa 0. La matrice è stata ridotta di dimensione (ad una non matrice): se due vettori sono collineari la dimensione non è 2, non ho bisogno di uno spazio di dimensione 2 per rappresentare 2 punti che stanno sulla stessa retta, mi basta uno spazio di dimensione minore: se avessi una matrice kxk, mi basterebbe uno spazio a k-1 dimensioni. Se devo semplificare una matrice, cerco quei valori λ che mi consentono di passare ad uno spazio di dimensione minore.

    Esempio:

    λΩ - I = C

    λΩ - I = soluzione se Det(I) ≠ 0

    λΩ - I =

    [5 1]

    [2 4]

    λΩ - I = λ - 2Det(I)

    λΩ - I = λ - 2(5 * 4 - 2 * 9) = λ - 18

    λΩ - I = λ - 18

    Det ( I ) = 0 se 6 o 31 2 →Il numero di soluzioni (autovalori) è pari alla dimensione della matrice [2x2 ho 2 soluzioni]. Siccomel’equazione caratteristica ha lo stesso ordine della matrice, ogni matrice ha un numero di autovalori parialla sua dimensione.

    La matrice che abbiamo costruito con gli autovalori è una specie di standardizzazione: separiamo una MVCperché abbiamo sottratto via una parte di varianza per costruire questa standardizzazione.

    Abbiamo parlato di matrici quadrate, ma noi non rappresentiamo i dati con una matrice quadrata: abbiamo→n soggetti e k variabili (n e k sono diversi!) la prima operazione che facciamo quando abbiamo un datasetè quello di renderlo quadrato. Infatti negli OLS la matrice X’X è una matrice quadrata: questa matrice è una  →MVC delle X, è proporzionale come metto al denominatore di questa matrice X’X. contiene lavariabilità e funge da peso.

    Abbiamo trovato λ

    torniamo all'equazione iniziale e troviamo C: λΩ - I)C = 0 sotto il vincolo C' C

    Ω - soluzione se Det(I - λΩ) = 0

       [ c5  1  1 ]   [ Es ]   [ 0 ]
       [ c2  4  2 ] * [ c1 ] = [ 0 ]
       [ c0  c1 c2 ]   [ c0 ]   [ 0 ]

    Un autovettore di una funzione tra spazi vettoriali è un vettore non nullo la cui immagine è il vettore stesso moltiplicato per un numero (reale o complesso) detto autovalore.

    "Ho un cubo, dentro uno spazio tridimensionale, che è rappresentato da una matrice. Posso prendere questo cubo e rappresentarlo come un insieme di 2 quadrati che in qualche modo si incrociano? Dipende, ad esempio, da quanto è alto il cubo: se fosse basso una delle dimensioni/variabili non è portatore di informazione importante, cioè è quasi collineare con le altre."

    Per trovare i valori di C (autovettori) dobbiamo sfruttare il vincolo:

       [ c5  1  1 ]   [ Es ]   [ 0 ]
       [ c2  4  2 ] * [ c1 ] = [ 0 ]
       [ c0  c1 c2 ]   [ c0 ]   [ 0 ]

    1 2 =  =  =6 c c C  1 2 1 2  1 1 5 =  =  =3 c c C  1 2 −2 1 5 

    Gli autovettori sono 2 ma sono composti da due valori.

    Osserviamo che: →- Gli autovalori non hanno tutti lo stesso valore le proprietà di ci dicono che gli autovalori sono tutti reali e maggiori o uguali a 0;

    Se uno degli autovalori è 0, significa che c’è un λ=0 che rende il determinante pari a 0: allora→determinante della matrice originaria era già pari 0 problemi di linearità: la matrice kxk contiene almeno 2 vettori collineari: vuol dire che non è necessario avere uno spazio k per rappresentare quelle dimensioni, ma mi basta uno a k-1 dimensioni perché una dimensione non mi dà nessuna→informazione per questo cerco gli autovalori:

    ES. Potrei avere una dimensione di osservazioni pari a 100 ed ogni individuo è un punto in uno spazio a 100 dimensioni, ma potrei perdere nessuna

    informazione passando da 100 variabili a→ →99/98/3 diminuisce la complessità L’autovalore segnala cosa c’è di essenziale e di ridondante.Il nuovo spazio ridotto (quello che ci fa passare da 100 a 3) dovrà avere degli assi, ma non possono→essere i vecchi assi devono essere assi in cui le dimensioni rilevanti della matrice di partenza(con autovalori diversi da 0) vengono collocate come punti: le coordinate dei punti devono passareda 100 a 3. Come si fa? Bisogna proiettare il punto sul nuovo sistema.Da cosa è dato il nuovo sistema? Dagli autovettori, che sono il nuovo sistema di assi in cui larappresentazione della matrice non subisce alterazioni (se non di scala) quando io tolgo gliautovalori pari a 0. [se io non voglio perdere informazione devo mantenere la stessa dimensione,→come nell’esempio con 6 e 3] voglio fare il conto dell’informazione che perdo in modo da capirese la perdita dell’informazione è

    guadagnata in termini di maneggiabilità.- Se io prendo gli autovalori di una MVC e li sommo, trovo la misura della varianza complessiva del fenomeno gli autovalori sono proporzionali alla varianza. ES. Ho 10 autovalori (80, 10, 0,5, POCO). Se prendo lo spazio complessivo e lo riduco ad una dimensione, salvo l'80% dell'informazione della varianza [regressione 1D spiega l'80% dellavarianza]; se prendo 80+10 recupero il 90% (ho 2 dimensioni).- Gli autovettori, che sono in un nuovo spazio in cui io definisco le vecchie variabili, hanno la proprietà di essere perpendicolari/ortogonali tra loro.
Anteprima
Vedrai una selezione di 13 pagine su 60
Appunti e slides integrate di Metodi statistici per il comportamento economico (parte 1) Pag. 1 Appunti e slides integrate di Metodi statistici per il comportamento economico (parte 1) Pag. 2
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Appunti e slides integrate di Metodi statistici per il comportamento economico (parte 1) Pag. 6
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Appunti e slides integrate di Metodi statistici per il comportamento economico (parte 1) Pag. 11
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Appunti e slides integrate di Metodi statistici per il comportamento economico (parte 1) Pag. 16
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Appunti e slides integrate di Metodi statistici per il comportamento economico (parte 1) Pag. 21
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Appunti e slides integrate di Metodi statistici per il comportamento economico (parte 1) Pag. 26
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Appunti e slides integrate di Metodi statistici per il comportamento economico (parte 1) Pag. 31
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Appunti e slides integrate di Metodi statistici per il comportamento economico (parte 1) Pag. 36
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Appunti e slides integrate di Metodi statistici per il comportamento economico (parte 1) Pag. 41
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Appunti e slides integrate di Metodi statistici per il comportamento economico (parte 1) Pag. 46
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Appunti e slides integrate di Metodi statistici per il comportamento economico (parte 1) Pag. 51
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Appunti e slides integrate di Metodi statistici per il comportamento economico (parte 1) Pag. 56
1 su 60
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Ferros94 di informazioni apprese con la frequenza delle lezioni di Metodi statistici per il comportamento economico e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Bologna o del prof Drudi Ignazio.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community