Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

REGRESSIONE LINEARE SEMPLICE

∑ ∑ =

X X n X

perché = i

X i

n

Dividendo per 2 e sostituendo a b l’ espressione ottenuta in precedenza si ottiene

1

un’equazione che contiene soltanto b .

2

∑ ∑

− + − =

2

b X X Y (

Y b X ) n X 0

2 i i i 2

( )

∑ ∑

− = −

2 2

b X n X X Y n X Y

2 i i i

⎛ ⎞

1 1

∑ ∑

− = −

⎜ 2 2

b X X X Y X Y

i i i

2 ⎝ ⎠

n n

=

b X X Y

Var ( ) Cov ( , )

2 Y

X

Cov ( , )

=

b

2 X

Var( )

I termini che non contengono b vengono trasferiti nella parte destra dell’equazione e

2

l’equazione viene poi divisa per n. Si ottiene così l’ultima formula, molto semplice. 30

REGRESSIONE LINEARE SEMPLICE

Quindi: = −

b Y b X

1 2 Y

X

Cov ( , )

=

b

2 X

Var( )

1 ∑ − − ∑

( )( )

X X Y Y − −

( )( )

X X Y Y

i i

n

= = i i

b ∑ −

2 2

1 ∑ ( )

X X

− 2

( )

X X i

i

n 1 ∑ − ∑

X Y X Y −

X Y n X Y

i i

n

= = i i

b ∑ −

2 2 2

1 ∑ X n X

2 2

X X i

i

n

L’espressione data per b è praticamente standard, mentre b viene scritto in vari modi.

1 2 31

REGRESSIONE LINEARE SEMPLICE

Y β β

= + +

Modello vero : Y X u

1 2

= +

ˆ

Retta stimata : Y b b X

1 2 = +

ˆ

Y b b X

n 1 2 n

Y

n

Y = −

1 b Y b X

1 2

= + Y

X

Cov ( , )

ˆ =

Y b b X b

1 1 2 1

b 2

b X

Var( )

2

1 X X X

1 n

La retta stimata può essere riportata sullo scatter. 32

REGRESSIONE LINEARE SEMPLICE

La RETTA DEI MINIMI QUADRATI possiede alcune proprietà notevoli:

• è l’unica retta che rende minima la somma dei quadrati degli scarti;

( x , y )

• passa sempre per il punto

=

∑ e 0

• è tale che i

i =

ˆ

Cov (

Y , e ) 0

• inoltre

La penultima condizione implica che

= ˆ

∑ ∑

Y Y

i i

e quindi la media campionaria delle Y osservate coincide con la media

delle Y calcolate con la retta dei minimi quadrati. 33

REGRESSIONE LINEARE SEMPLICE

Il coefficiente che esprime la pendenza della retta di regressione viene detto

b 2 COEFFICIENTE DI REGRESSIONE LINEARE

ed ha le seguenti caratteristiche:

∞ ∞;

• varia tra - e +

• ha come unità di misura il rapporto tra le unità di misura di Y e X: indica di quanto

varia Y in corrispondenza di una variazione unitaria di X;

• la quantità al denominatore è sempre positiva, quindi il segno è determinato dal

segno della covarianza:

• per >0 la retta è crescente;

b

2 <0 è descrescente;

• per b

2

• se X e Y sono statisticamente indipendenti oppure indipendenti in media, allora =0;

b 2

tuttavia non vale il contrario (la covarianza può annullarsi anche quando non vale

l’indipendenza tra X e Y);

• quando =0 la retta di regressione è parallela all’asse delle ascisse e interseca

b

2 y

l’asse delle ordinate nel punto (0, ) 34

REGRESSIONE LINEARE SEMPLICE

Riassumendo:

• abbiamo ipotizzato che la relazione tra X e Y fosse lineare;

• abbiamo rilevato i dati campionari;

• abbiamo adattato una retta ai dati;

• abbiamo adottato il criterio dei minimi quadrati, individuando i coefficienti della retta

in modo tale che la somma dei residui al quadrato fosse minima

e b

• abbiamo derivato in base a tale criterio le espressioni di b

1 2 35

REGRESSIONE LINEARE SEMPLICE E INDICI DI CONCORDANZA

RELAZIONE TRA b E IL COEFFICIENTE DI CORRELAZIONE LINEARE r

2 xy

Il coefficiente di regressione, come il coefficiente di correlazione, può essere

considerato un indice che misura la dipendenza lineare tra X e Y, con la

differenza che è un indice asimmetrico, cioè assume un valore diverso se si

scambia il ruolo assunto tra i caratteri (ma mantiene lo stesso segno!).

Infatti: Cov Cov ( , )

( , ) X Y

X Y =

= *

b

b

2 2

Var( ) Var( )

Y

X

In particolare: σ

= x

r b σ

xy 2 y

MISURA DEL LEGAME MISURA DELLA DIPENDENZA

LINEARE TRA X ED Y LINEARE DI Y DA X 36

REGRESSIONE LINEARE SEMPLICE E INDICI DI CONCORDANZA

Si può dimostrare che il coefficiente di correlazione lineare è la radice quadrata del

prodotto tra i due coefficienti di regressione semplice, con segno uguale a quello dei

coefficienti stessi, ossia può interpretarsi come MEDIA GEOMETRICA – con segno –

dei due coefficienti: = ± ⋅ *

r b b

2 2

xy

RICORDA:

=±1 tutti i punti dello scatter giacciono sulla retta di regressione; in tal

1) se r

xy

caso si dice che tra X e Y sussiste correlazione lineare perfetta

ƒ diretta se r= +1

ƒ inversa se r= -1

è invariante rispetto a trasformazioni lineari di X o di Y (al contrario di e

2) r b

xy 1

).

b

2 37

BONTÀ DI ADATTAMENTO

PROBLEMA

La retta stimata quanto si avvicina ai valori osservati?

È necessario costruire una

misura della bontà di accostamento,

cioè un indicatore capace di riassumere l’adattamento globale

e la capacità esplicativa complessiva del modello in rapporto

ai dati campionari. 38

BONTÀ DI ADATTAMENTO

SI PUÒ DIMOSTRARE CHE:

∑ ∑ ∑

− = − +

ˆ

2 2 2

Y Y Y Y e

( ) ( )

= +

TSS ESS RSS

In cui:

TSS=Total Sum of Squares (Devianza totale)

ESS=Explained Sum of Squares (Devianza spiegata o devianza di regressione)

RSS=Residual Sum of Squares (Devianza non spiegata o devianza residua)

Ricorda: i valori veri e i valori stimati di Y hanno la stessa media. 39 29

BONTÀ DI ADATTAMENTO

La scomposizione afferma che la variabilità totale di Y si può scomporre in una

variabilità dovuta alla retta di regressione (ESS) e in una variabilità dovuta ai

residui (RSS).

Maggiore sarà il contributo di ESS:

• tanto più la relazione lineare riuscirà a spiegare la variabilità di Y

• tanto minori saranno i residui

• tanto più la retta passerà vicino ai dati campionari

Quanto più elevato sarà RSS:

• tanto più debole sarà la forza del legame lineare stimato con la regressione

• tanto più rilevanti saranno i residui

• tanto più elevata sarà la dispersione dei dati rispetto alla retta di regressione.

40

BONTÀ DI ADATTAMENTO

= +

TSS ESS RSS

COEFFICIENTE (o INDICE) DI DETERMINAZIONE LINEARE: rapporto tra la devianza

spiegata e la devianza totale, ossia la quota di devianza di Y spiegata dalla retta di

regressione. ∑ ∑

− 2

ˆ 2

(

Y Y ) e

ESS

= = = −

i i

2

R 1

∑ ∑

− −

2 2

TSS (

Y Y ) (

Y Y )

i i

Ovviamente sarebbe auspicabile individuare la retta di regressione che soddisfa al meglio

tale criterio.

Questo obiettivo è soddisfatto dal criterio dei MQ?

∑ ∑

− 2

ˆ 2

(

Y Y ) e

ESS

= = = −

i i

2

R 1

∑ ∑

− −

2 2

TSS (

Y Y ) (

Y Y )

i i

Dato che i coefficienti MQ vengono scelti in modo tale da minimizzare la somma dei

2

quadrati dei residui, ciò significa che R viene automaticamente massimizzato. 41 33

BONTÀ DI ADATTAMENTO

Ovviamente: ≤ ≤

2

0 R 1

CASI LIMITE: 2

R =0

Il modello non spiega per niente la variabile risposta (la devianza di

regressione è nulla e la variabilità di Y non dipende dalla relazione con X).

La retta di regressione è parallela all'asse X (indipendenza interpolativa).

2

R =1

Il modello spiega perfettamente la variabile risposta.

I punti sono allineati sulla retta di regressione.

Nei casi reali non si otterrà nessuna delle due situazioni limite: il significato

2

R

dell’ consiste, allora, nel misurare la percentuale di variabilità totale

“spiegata” mediante la retta di regressione. 42

2

R e r

xy

Un altro criterio naturale per valutare la bontà di adattamento consiste nel calcolare il

coefficiente di autocorrelazione lineare tra i valori veri di Y e quelli stimati. Infatti:

+

ˆ ˆ ˆ

Y Y Y e Y

Cov ( , ) Cov ([ ], )

= =

r ˆ

,

Y Y ˆ ˆ

Y Y Y Y

Var ( ) Var ( ) Var ( ) Var ( )

+

ˆ ˆ ˆ ˆ

Y Y e Y Y

Cov ( , ) Cov ( , ) Var ( )

= =

ˆ ˆ

Y Y Y Y

Var ( ) Var ( ) Var ( ) Var ( )

ˆ ˆ ˆ

Y Y Y

Var ( ) Var ( ) Var ( )

= =

ˆ Y

Var ( )

Y Y

Var ( ) Var ( )

= 2

R 2

Il coefficiente di correlazione lineare è la radice quadrata di R (il segno è quello del

coefficiente angolare della retta.

Di conseguenza i MQ lo massimizzano.

=

2 2

R r

Analogamente: xy 43

2

cioè l’indice R non è altro che il quadrato del coefficiente di correlazione lineare. 37

2

R e r

xy

2

R

ESEMPIO: =1 e = +1

r

xy

2

R

ESEMPIO: =1 e = -1

r

xy 44

2

R e r

xy

2

R

ESEMPIO: =0 e = 0

r

xy P

Y 4

Y P

1 P

3

P

2 X X

X X

X 3

1 2 4 45

2

R e r

xy

ATTENZIONE:

tra X e Y è “elevato” quando:

2

R linearmente

Y dipende da X (o viceversa)

(p.e. relazione consumo-reddito)

MA ANCHE QUANDO:

Z non inclusa nel modello

• X e Y dipendono da una terza variabile

(p.e. relazione tra il voto nell’esame di Stat.1 e Mat. Gen. dipende da

capacità individuali, ore di studio, ecc.)

spuria

• Correlazione : concordanza o discordanza tra X e Y senza un

nesso logico

(p.e. regressione tra due serie storiche con trend crescente). 46

2

R e r

xy

ATTENZIONE:

• un coefficiente di correlazione lineare non nullo (anche elevato) tra X e Y non implica

necessariamente che i due caratteri siano legati da una relazione di causa-effetto;

• un coefficiente di correlazione lineare nullo (o, comunque, prossimo allo zero) non

sgnifica che tra X e Y non possa sussistere una relazione di causa-effetto.

Anche se il valore di R risulta molto elevato non è detto che il modello sia valido.

È necessario verificare il modello facendo una serie di ulteriori analisi che richiedono

un’impostazione del problema non esclusivamente descrittiva.

Per fare questo è necessario ipotizzare che i residui siano variabili casuali e attribuire

loro particolari proprietà. 47

COEFFICIENTI DI REGRESSIONE COME VARIABILI CASUALI

I coefficienti di regressione sono interpretabili come variabili casuali.

Modello vero:

β β

= + +

Y X u

1 2

Retta stimata:

= +

ˆ

Y b b X

1 2 48

COEFFICIENTI DI REGRESSIONE COME VARIABILI CASUALI

β β

= + +

Y X u

1 2

= +

ˆ

Y b b X

1 2 β β

+ +

Cov ( X , Y ) Cov ( X , [ X u ])

= = 1 2

b

2 Var ( X ) Var ( X )

β β

+ +

Cov ( X , ) Cov ( X , X ) Cov ( X , u )

= 1 2 β β

b dipende da X e Y, ma a sua volta Y dipende da X, u e dai parametri and .

Var ( X )

2 1 2

Il comportamento di Y è quindi influenzato da quello di X, di u e dei parametri.

β

+ +

0 Cov ( X , X ) Cov ( X , u )

= , dobbiamo sostituire Y utilizzando il modello

Quindi, per investigare il comportamento di b

2 2

vero. Var ( X )

Cov ( X , u )

β

= +

2 Var ( X ) 49

COEFFICIENTI DI REGRESSIONE COME VARIABILI CASUALI

β β

= + +

Y X u

1 2

= +

ˆ

Y b b X

1 2 β β

+ +

Cov ( X , Y ) Cov ( X , [ X u ])

= = 1 2

b

2 Var ( X ) Var ( X )

β β

+ +

Cov ( X , ) Cov ( X , X ) Cov ( X , u )

= 1 2

Var ( X )

β

+ +

0 Cov ( X , X ) Cov ( X , u )

= 2 Var ( X )

Cov ( X , u )

β

= +

2 Var ( X ) β

Come si vede, è possibile scomporre b in due parti: il valore vero, , e un termine di

2 2

errore.

Il termine di errore dipende dal valore del termine di disturbo di ogni osservazione nel 50

campione e quindi è un particolare tipo di variabile casuale.

COEFFICIENTI DI REGRESSIONE COME VARIABILI CASUALI

Si è ipotizzata una relazione lineare tra X e Y

β β

Per stimare e si è utilizzato il metodo dei minimi quadrati

1 2

Noto il campione, il metodo MQ determina le stime b e b che sono funzione esclusiva

1 2

dei valori campionari delle X e delle Y

Al variare del campione casuale variano le stime b b , le quali generano delle

e

1 2

variabili casuali che chiameremo B e B

1 2

B e B avranno una loro distribuzione di probabilità e assumeranno i valori numerici

1 2

b b a seconda del campione casuale estratto

e

1 2

In breve:

β β

e sono i valori VERI dei parametri

1 2

b e b sono le STIME dei MQ per un campione specifico

1 2

e B sono le variabili casuali STIMATORI dei MQ

B 1 2 51

COEFFICIENTI DI REGRESSIONE COME VARIABILI CASUALI

La bontà del metodo dei MQ non può essere giudicata sulla base dei

valori numerici ottenuti da un singolo campione, poiché essi

b e b

1 2

variano al variare del campione, bensì esaminando le proprietà delle

variabili casuali generate dalla stima dei MQ.

B e B

1 2

Per poter fare questo è necessario fare delle ipotesi, dette

IPOTESI SUL MODELLO DI REGRESSIONE LINEARE:

∀i

1. Y = b + b X + u (il modello di regressione semplice vale per ogni

i 1 2 i i

osservazione del campione)

∀i

) = 0 (il disturbo deve avere carattere ‘accidentale’)

2. E(u

i ∀i

) = cost (omoschedasticità dei disturbi)

3. Var(u

i ∀i ≠

, u )= 0 j (incorrelazione dei disturbi)

4. Cov(u

i j

5. le X sono non stocastiche (i dati relativi alla variabile indipendente X sono

52

“noti senza errore”, cioè non soggetti a deviazione di natura accidentale)

COEFFICIENTI DI REGRESSIONE COME VARIABILI CASUALI

Se le ipotesi dette sono valide gli stimatori dei MQ sono:

NON DISTORTI: β

β =

=

E ( B ) E ( B )

1 1 2 2

CONSISTENTI (la loro varianza tende a 0 al crescere della

numerosità del campione: la precisione delle stime aumenta

con N)

LINEARI (perché sono combinazione lineare delle

osservazioni Y)

I PIÙ EFFICIENTI (a varianza minima)

: gli stimatori MQ sono i più efficienti nella

Teorema di Gauss-Markov β β

classe degli stimatori lineari e non distorti per e

1 2 . 53

PRECISIONE DEI COEFFICIENTI DI REGRESSIONE

La varianza degli stimatori dei coefficienti di regressione indica la concentrazione

della distribuzione di probabilità degli stimatori attorno al loro valore medio (che

per la non distorsione è il valore vero del parametro).

Funzione di densità

di probabilità di B 2 Deviazione standard

della funzione di

densità di B 2

β B

2 2

Si possono ottenere stime anche sulle deviazioni standard delle distribuzioni, che danno

informazioni sull’affidabilità delle stime e forniscono la base per il test di ipotesi. 54

PRECISIONE DEI COEFFICIENTI DI REGRESSIONE

Efficienza

Funzione di densità

di probabilità di B 2 MQ Altro stimatore

corretto

β B

2 2

Il teorema di Gauss-Markov afferma che, se il modello è correttamente specificato e le

ipotesi di lavoro sono soddisfatte, gli stimatori MQ hanno varianza più piccola di qualunque

altro stimatore lineare corretto e quindi sono i più efficienti. 55

PRECISIONE DEI COEFFICIENTI DI REGRESSIONE

Si può dimostrare che le varianze degli stimatori sono:

σ ⎧ ⎫

2 2

X

σ

= = +

2 ⎨ ⎬

u

B

var( ) 1

b

1 ⎩ ⎭

n X

Var ( )

1 σ 2

σ

= =

2 u

var(B )

2 b n Var ( X )

2

Le varianze sono inversamente proporzionali a n, il numero di osservazioni nel campione.

Più informazioni si hanno, più è accurata la stima. 56

PRECISIONE DEI COEFFICIENTI DI REGRESSIONE

σ ⎧ ⎫

2 2

X

σ

= = +

2 ⎨ ⎬

u

B

var( ) 1

b

1 ⎩ ⎭

n X

Var ( )

1 σ 2

σ

= =

2 u

var(B )

2 b n Var ( X )

2

σ 2

Le varianze sono proporzionali a , varianza del termine di disturbo. A parità di tutto il

u

resto, maggiore è il termine di disturbo, peggiori sono le stime. 57

PRECISIONE DEI COEFFICIENTI DI REGRESSIONE

Y Y

35

35 30

30 25

25 20

20 15

15 10

10 5

5 0

0 0 5 10 15 20

0 5 10 15 20 X X

-5

-5 -10

-10 -15

-15 Y = 3.0 + 0.8X

ESEMPIO: I valori delle X sono gli stessi e il termine di disturbo è stato generato con gli

stessi numeri casuali. Tuttavia, nel grafico di destra i numeri casuali sono stati moltiplicati

per un fattore pari a 5. Di conseguenza, in questo caso la retta di regressione stimata (linea

58

continua) rappresenta peggio la vera relazione (linea tratteggiata).

PRECISIONE DEI COEFFICIENTI DI REGRESSIONE

σ ⎧ ⎫

2 2

X

σ

= = +

2 ⎨ ⎬

u

B

var( ) 1

b

1 ⎩ ⎭

n X

Var ( )

1 σ 2

σ

= =

2 u

var(B )

2 b n Var ( X )

2

Le varianze sono inversamente proporzionali alla varianza di X. 59

PRECISIONE DEI COEFFICIENTI DI REGRESSIONE

Nei due diagrammi che seguono, la componente non stocastica della relazione è la

stessa e la serie di numeri casuali utilizzata per generare i termini di disturbo è la

stessa.

Y Y

35

35 30

30 25

25 20

20 15

15

10 10

5 5

0 0

X X

0 5 10 15 20

0 5 10 15 20

-5 -5

-10 -10

-15 -15

Y = 3.0 + 0.8X

Tuttavia, Var(X) è molto più piccola nel grafico a destra perché i valori di X sono molto più

vicini tra loro. In questo caso la posizione della retta di regressione è più sensibile ai valori

dei termini di disturbo e di conseguenza la retta di regressione tende ad essere poco

60

accurata. PRECISIONE DEI COEFFICIENTI DI REGRESSIONE

Le varianze non possono essere calcolate esattamente, perché non è nota la varianza del

disturbo.

Tale varianza viene stimata con n

n

= =

2 Var ( e ) Var ( e )

s − −

u n 2

n k

Dove k è il numero di parametri del modello. Per il modello di regressione semplice k=2.

2

s

Infatti, mentre la varianza dei residui è uno stimatore distorto, è uno stimatore corretto.

u σ

2 2

Le stime delle varianze di B e B si ottengono sostituendo s a nelle formule delle

1 2 u u

pagine precedenti.

Le radici quadrate di tali espressioni sono le stime delle deviazioni standard e vengono

comunemente detti errori standard (standard error=s.e.) dei coefficienti.

⎧ ⎫

2 2

s X 2

s

= +

⎨ ⎬

u =

s.e.

( ) 1

B u

s.e.

( B )

1 ⎩ ⎭

Var ( )

n X 2 Var

n ( X ) 61

TEST DI IPOTESI SUI COEFFICIENTI DI REGRESSIONE

β β

Modello: Y = + X + u

1 2

β β

= 0

H :

Ipotesi nulla 0 2 2

β β

≠ 0

Ipotesi alternativa H :

1 2 2

Supponiamo di riferirsi al modello di regressione semplice standard e di voler testare

β 20

che il coefficiente angolare sia pari ad un certo valore .

l’ipotesi H 0

L’ipotesi da testare è l’ipotesi nulla. β

, secondo la quale è diverso da

L’ipotesi nulla viene testata contro l’ipotesi alternativa H 1 2

β 20

. 62

TEST DI IPOTESI SUI COEFFICIENTI DI REGRESSIONE

β β

Come è noto dalla teoria per sottoporre a test delle ipotesi sui parametri e

1 2

mediante i valori b e b stimati da un campione è necessario ipotizzare una

1 2

distribuzione di probabilità per le v.c. B e B .

1 2

Essendo combinazioni lineari delle v.c. Y , e quindi delle v.c. u, questo equivale a fare

un’ipotesi sul tipo di distribuzione di probabilità delle v.c. u.

Più precisamente supporremo che

u~N(0,1)

Poiché le u sono anche incorrelate (per le ipotesi del modello), risulta che le u sono

normali e indipendenti.

N.B.: Soltanto per derivare le regioni critiche per il test sui coefficienti è necessario

specificare la distribuzione di probabilità delle componenti stocastiche del modello di

regressione.

Per derivare gli stimatori dei MQ e le loro proprietà sintetizzate nel teorema di Gauss-

Markov la normalità non è necessaria. 63

TEST DI IPOTESI SUI COEFFICIENTI DI REGRESSIONE

Sotto l’assunzione di normalità per il disturbo si può dimostrare che:

β

∼ N( , sd(B ))

B 1 1 1

β

∼ N( , sd(B ))

B 2 2 2

Dato che la varianza degli stimatori non è nota e va stimata con gli

standard error già presentati, le statistiche test seguenti si

distribuiscono, in realtà, come t di Student con g gradi di libertà (g=n-2):

β

− 0 β

b 0

= b

1 1 =

t 2 2

t

1 s

.

e

.( B ) 2 s

.

e

.( B )

1 2 64

TEST DI IPOTESI SUI COEFFICIENTI DI REGRESSIONE

β β

Modello: Y = + X + u

1 2

β β

= 0

Ipotesi nulla: H :

0 2 2

β β

≠ 0

Ipotesi alternativa: H :

1 2 2

Il caso seguente è molto particolare, ma molto comune:

modello: Y = b1 + b2X + u

Ipotesi nulla: H0 : b2 = 0

Vi si ricorre quando si desidera dimostrare che una variabile X

influenza un’altra variabile.

Nell’ipotesi nulla si specifica l’assenza di effetto e si cerca di

rifiutare H0. 65

TEST DI IPOTESI SUI COEFFICIENTI DI REGRESSIONE

β

Funzione di densità di Ipotesi nulla: H : = 0

0 2

probabilità di B β

2 Ipotesi alternativa: H : = 0

1 2

rifiuto H non rifiuto H rifiuto H

0 0 0

α α

/2 /2

− t 0 t

α

n 2 , / 2 α

n 2 , / 2 α

Se si utilizza un test a due code ad un livello di significatività pari ad , la stima deve

sopra o sotto lo 0 per rifiutare H .

essere t α

n-2, /2 0 66

TEST DI IPOTESI SUI COEFFICIENTI DI REGRESSIONE

β

Funzione di densità di Ipotesi nulla: H : = 0

0 2

probabilità di B β

2 Ipotesi alternativa: H : = 0

1 2

rifiuto H non rifiuto H rifiuto H

0 0 0

2.5% 2.5%

0

-1.96 sd 1.96 sd

Se si utilizza un test a due code ad un livello di significatività del 95%, la stima deve essere

.

1.96 per la standard deviation sopra o sotto lo 0 per rifiutare H 0 67

TEST DI IPOTESI SUI COEFFICIENTI DI REGRESSIONE

Procedura per effettuare un test al 5% sul coefficiente angolare di una regressione

sotto l’ipotesi che la standard deviation NON SIA NOTA.

Differenza tra valore stimato e valore sotto l’ipotesi nulla

in termini di s.e.:

− 0

b

= 2

t s.e.

Test di significatività al 5% :

rifiuto : = se

H b 0

0 2

> oppure < -

t t t t

0.025 0.025

t

I valori si trovano sulle tavole della t di Student nel modo usuale,

0.025

tenendo conto del numero di gradi di libertà. 68

TEST DI IPOTESI SUI COEFFICIENTI DI REGRESSIONE

In questo caso si può usare la regola pratica di richiedere - per rifiutare H –

0

che il rapporto fra la stima campionaria del parametro ed il suo errore

standard sia almeno superiore a due unità perché, per n non troppo piccolo,

la t teorica al 5% è all’incirca uguale a 2.

Quindi, un rapporto parametro/errore standard superiore a 2 implica che,

per N non troppo piccolo, la t calcolata ricade nella regione critica per

, almeno al livello di significatività del 5%.

rifiutare H 0 69


PAGINE

91

PESO

363.40 KB

AUTORE

davidux_

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in economia e commercio
SSD:
Università: Firenze - Unifi
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher davidux_ di informazioni apprese con la frequenza delle lezioni di Statistica economica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Firenze - Unifi o del prof Buzzigoli Lucia.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Statistica economica

Statistica economica - analisi delle serie storiche
Appunto
Statistica economica - serie storiche
Appunto
Statistica economica - Appunti
Appunto
Statistica economica - Appunti
Appunto