Anteprima
Vedrai una selezione di 13 pagine su 57
Analisi delle serie storiche Pag. 1 Analisi delle serie storiche Pag. 2
Anteprima di 13 pagg. su 57.
Scarica il documento per vederlo tutto.
Analisi delle serie storiche Pag. 6
Anteprima di 13 pagg. su 57.
Scarica il documento per vederlo tutto.
Analisi delle serie storiche Pag. 11
Anteprima di 13 pagg. su 57.
Scarica il documento per vederlo tutto.
Analisi delle serie storiche Pag. 16
Anteprima di 13 pagg. su 57.
Scarica il documento per vederlo tutto.
Analisi delle serie storiche Pag. 21
Anteprima di 13 pagg. su 57.
Scarica il documento per vederlo tutto.
Analisi delle serie storiche Pag. 26
Anteprima di 13 pagg. su 57.
Scarica il documento per vederlo tutto.
Analisi delle serie storiche Pag. 31
Anteprima di 13 pagg. su 57.
Scarica il documento per vederlo tutto.
Analisi delle serie storiche Pag. 36
Anteprima di 13 pagg. su 57.
Scarica il documento per vederlo tutto.
Analisi delle serie storiche Pag. 41
Anteprima di 13 pagg. su 57.
Scarica il documento per vederlo tutto.
Analisi delle serie storiche Pag. 46
Anteprima di 13 pagg. su 57.
Scarica il documento per vederlo tutto.
Analisi delle serie storiche Pag. 51
Anteprima di 13 pagg. su 57.
Scarica il documento per vederlo tutto.
Analisi delle serie storiche Pag. 56
1 su 57
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

FORMULE:(22 marzo 2022)

Ricordiamo che per indagare sul legame tra due variabili statistiche, possiamo utilizzare due metodi:

  1. Regressione: funzione che esprime il legame di indipendenza tra una variabile statistica e un'altra che viene individuata come causa. Con la regressione cerchiamo quindi di capire se esiste un rapporto causa-effetto tra due variabili statistiche;
  2. Covarianza e Correlazione: definiamo con tali nomi, degli indicatori che misurano la variabilità congiunta tra due variabili statistiche. Ricordiamo inoltre che sono esattamente la stessa cosa, ciò che cambia tra loro è l'unità di misura. In tal caso, cerchiamo un indicatore di variabilità congiunta prescindendo dall'eventuale legame di dipendenza tra le due variabili: in altre parole, quando cerchiamo calcoliamo il coefficiente di correlazione Ro, non sappiamo se le due variabili sono dipendenti o indipendenti. Ad esempio, Peso e Altezza sono due variabili.
variabile. La correlazione può essere positiva, quando le due variabili variano nella stessa direzione, o negativa, quando variano in direzioni opposte. Per rappresentare graficamente la correlazione tra le due variabili, si utilizza un diagramma di dispersione, in cui ogni punto rappresenta una coppia di valori delle due variabili. La retta di regressione, che passa al centro dei punti, indica la tendenza della relazione tra le variabili. È importante notare che la correlazione non implica necessariamente una relazione di causa-effetto tra le variabili. Può essere solo una coincidenza o essere influenzata da altre variabili nascoste. Per calcolare la correlazione tra due variabili, si utilizzano diversi metodi statistici, come il coefficiente di correlazione di Pearson o il coefficiente di correlazione di Spearman. In conclusione, l'analisi delle correlazioni tra le variabili è uno strumento utile per comprendere le relazioni tra i dati e trarre informazioni significative dalle statistiche.

variabile: in tali casi si avrà correlazione positiva e Ro avrà valore positivo. Se invece la correlazione fosse inversa, Ro avrebbe valore negativo. Se la correlazione fosse invece perfetta, i due grafici che illustrano ognuno una delle due variabili oggetto di studio, si sovrapporrebbero perfettamente e Ro sarebbe =1.

Collocando su un unico grafico le due variabili (es. Peso e Altezza, oppure le quotazioni di due indici di Borsa), otteniamo uno scatterplot, cioè una nuvola di punti in cui ogni punto è dato dalla coppia di osservazioni delle due variabili. Dalla direzione della nuvola di punti, possiamo capire il tipo di variabilità congiunta che c'è tra le due variabili, e la sua intensità.

Ad esempio, tra questi due scatterplot possiamo notare che la correlazione in entrambi sarà positiva (quindi con Ro positivo, perché i punti assumono un andamento verso l'altro a destra), gli indici quindi andranno in direzioni

uguali: quando uno sale, l'altro in corrispondenza sale anche; inoltre la correlazione sarà più intensa nel grafico (b) perché c'è minore variabilità o dispersione (=maggiore concentrazione attorno alla media) rispetto al grafico (a). Invece, tra questi due scatterplot, possiamo notare che la correlazione in entrambi sarà negativa (quindi con Ro negativo, perché i punti assumono un andamento verso il basso a destra), gli indici quindi andranno in direzioni opposte: quando uno sale, l'altro in corrispondenza scende; inoltre, la correlazione sarà più intensa nel grafico (a) perché c'è minore variabilità o dispersione (=maggiore concentrazione attorno alla media) rispetto al grafico (b).

Come si calcola la covarianza? Occorre partire dalla varianza: questa è la sommatoria della media degli scarti dalla media al quadrato (parte prima del segno =), esprimibile anche come la sommatoria

dei prodotti degli scarti dalla media (parte dopo del segno =):

Da questa formula, ci basta sostituire l'ultimo scarto dalla media di x, con lo scarto dalla media di y:

La covarianza quindi è data dalla media della sommatoria dei prodotti degli scarti dalla media delle due variabili.

Perciò, per ciascun dato oggetto di rilevazione, dobbiamo conoscere gli scarti di entrambe le variabili (es. per ciascuna persona dobbiamo conoscere gli scarti dalla media sia relativi alla variabile Altezza che alla variabile Peso).

Il problema della covarianza risiede nell'unità di misura, che è detta composta perché le due variabili hanno unità di misura diverse. Sappiamo infatti che se i numeri al numeratore e al denominatore di un rapporto hanno la stessa unità di misura, il loro risultato sarà privo di unità di misura. Si preferisce allora eliminare l'unità di misura, ed esprimere la covarianza in termini adimensionali. Il

Il risultato privo di unità di misura sarà quindi il coefficiente di correlazione, cioè la covarianza stessa al cui denominatore aggiungiamo il prodotto degli scarti dalla media. In questo modo, riduciamo la covarianza in modo tale che abbia valori compresi tra -1 e +1.

In sintesi, la correlazione r è la covarianza diviso il prodotto degli scarti quadrati medi tra le due variabili.

La covarianza può essere positiva o negativa. Ciò accade perché è una media: al suo numeratore infatti, troviamo sempre N, e il segno della covarianza dipende proprio dal suo numeratore N.

Nella formula della covarianza al numeratore abbiamo degli scarti, che potrebbero avere sia segno positivo che segno negativo. Il numeratore è quindi una somma di numeri con segno positivo o negativo che ci dicono il segno della covarianza.

Come si forma la covarianza? Su un grafico, tracciamo la media delle due variabili: in orizzontale disegniamo la media della

variabile y (es. sarà la media del Peso della popolazione), e in verticale la media della variabile x (es. sarà la media dell'Altezza della popolazione). Dato che la covarianza è il prodotto tra scarti, le due medie appena disegnate dividono il grafico in 4 quadranti:

In questo grafico vediamo anche disegnato lo scarto dalla media di un determinato punto: se x < x-barrato, lo scarto (disegnato col tratteggio) sarà negativo; allo stesso modo, se y < y-barrato sarà negativo. Ciò vale per tutti i punti dello stesso quadrante.

Se tutti i punti dello stesso quadrante hanno seguo negativo, dato che - per - fa + allora: (x - xbarrato)(y - ybarrato) avrà segno positivo.

Viceversa, se i punti x hanno segno positivo, e i punti y segno negativo (sempre dello stesso quadrante), dato che + per - fa -, il prodotto (x - xbarrato)(y - ybarrato) avrà segno negativo.

Se sono prevalenti i punti con segno negativo,

La covarianza sarà negativa; se sono prevalenti ipunti con segno positivo, la covarianza sarà positiva. Se le due variabili hanno varianza congiunta opposta (cioè x sarà negativa e y sarà negativa, e lo scatterplot andrà a decrescere), si parlerà di discordanza. Quando invece lo scatterplot andrà a crescere, si parla di concordanza.

Detto tutto ciò sulla covarianza e correlazione, possiamo ora parlare di autocovarianza o autocorrelazione: queste due sono come covarianza e correlazione, con l'unica differenza che in tal caso si considera solo una variabile, cioè il prodotto degli scarti viene calcolato considerando solo una variabile.

Inoltre, come vediamo dalle formule è presente anche k, chiamato "lag" o "sfasamento temporale". Dalla serie storica infatti possiamo creare una serie storica sfasata, cioè quella che parte con un k di sfasamento (che può essere sia -k che +k).

Per sfasamento intendiamo dire allora che ogni 32istante di rilevazione, è possibile costruire due serie: una prima serie (che è quella osservata) e una seconda serie che è quella sfasata di un k scelto da noi, iniziando da 1. Consideriamo ad esempio che sia -K:

Se ipotizziamo che k=-1, al posto di y avremo y , quindi la serie storica invece di partire dat t-1 gennaio, ad esempio, partirà dal mese precedente cioè il dicembre dell’anno precedente. Il secondo dato della serie sarà quindi:

Per la serie storica osservata, febbraio;

Per la serie storica sfasata, gennaio.

E così via.

Se invece, ad esempio, volessimo sfasare una serie considerando k=1, cioè spostando un dato da un periodo (y) a un periodo successivo (y ), di fatto faremmo ciò:

t+1 (questa tabella non c’entra col discorso che sto facendo dove k=-1, ma l’ho messo solo per capire cosa provoca lo sfasamento; inoltre come detto questo k è

1) Tornando al nostro discorso, l'autocorrelazione è quindi la somma del prodotto degli scarti tra la serie osservata e la serie sfasata più k arbitrario.

Notiamo che il denominatore di r non è altro che la varianza.xy

Il problema principale dell'autocorrelazione riguarda la sua interpretazione, cioè quello che i dati ci suggeriscono. Se ad esempio, i dati nello scatterplot assumono valori alti in un certo periodo sia in un anno che nell'anno precedente (k=12), i dati ci suggeriscono che c'è Stagionalità.

Se invece k=1 e i dati in sequenza sono simili tra loro (cioè tra loro c'è correlazione positiva), e conosco un certo valore (es. quello di gennaio), conosco di conseguenza anche quello successivo (es. quello di febbraio): possiamo dire infatti che se gennaio assume un valore alto, lo stesso farà febbraio, quindi ciò ci suggerisce che probabilmente siamo in presenza di un Trend. Ciò vale

anche per i mesi successivi (cioè anche se k=2, 3, 4…): se a distanza cioè di 2, 3, 4 mesi i dati assumono valori simili, significa che siamo in presenza di un Trend. Se invece k=1 ma tra i dati c’è correlazione negativa (cioè prevalgono i dati con segno negativo), significa che a dati bassi di un mese corrispondono dati alti del mese successivo. Ciò significa che i dati oscillano (fanno sali e scendi) e quindi non c’è alcun Trend perché la serie probabilmente è stazionaria in media. Le oscillazioni quindi avranno natura stagionale o residuale.

Se abbiamo 50 valori osservati e k=1, nello scatterplot avremo 49 punti. Se i dati osservati sono invece k=6, i punti saranno il loro numero – 6. Infatti, se in questo secondo caso sfasiamo la serie di 6 mesi, per 6 mesi non possiamo calcolare il prodotto degli scarti. Pertanto, la numerosità dei punti nello scatterplot decresce al crescere di k.

Per ciascuna serie,

avremo allora tanti coefficienti, ci basta cambiare il numero di k; mentre, per ogni k, possiamo calcolare un solo coefficiente

Dettagli
Publisher
A.A. 2021-2022
57 pagine
1 download
SSD Scienze economiche e statistiche SECS-P/08 Economia e gestione delle imprese

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher fpasqua44 di informazioni apprese con la frequenza delle lezioni di Metodi statistici per il management e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Messina o del prof Caratozzolo Fabio.