Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
RSS RSS
RSS R
U R
U e 2
2 −
− −
− R =1
=1 =1
R =1 TSS TSS TSS TSS
R
U U R
e quindi che RSS TSS e RSS TSS
2 2
− −
= 1 R = 1 R .
U R
U R
Di conseguenza, RSS
−
(RSS )/G
R U
F = =
RSS −
/(T k)
U
TSS(1 TSS(1
2 2
− − −
R ) R ) /G
R U
= =
TSS(1 2
− −
R )/(T k)
U
2 2
−
(R R )/G
U R ∼ F .
= −k
G,T
2
− −
(1 R )/(T k) H 0
U
Fissato il livello di significatività se
α,
p-value = P F > F < α,
H oss
0
allora si rifiuta .
H
0
4.2.1 Test F per “zero slopes”
Si considera il modello con
· · ·
M : y = β + β x + + β x + u t = 1, . . . , T.
U t 1 2 t2 k tk t
Il test F per “zero slopes” prevede il seguente sistema di ipotesi:
vs “almeno una delle slopes diversa da 0”.
· · ·
H : β = β = = β = 0 H :
0 2 3 k 1 17
Il numero di restrizioni è Assumendo vera, si definisce quindi il modello
−
G = k 1. H 0
ristretto con
M : y = β + u t = 1, . . . , T
R t 1 t
che è tale per cui 2
R = 0.
R
Siccome le variabili dipendenti sono uguali, le restrizioni sono omogenee e quindi
2 2
−
(R R )/G
U R
F = =
2
− −
(1 R )/(T k)
U
2 −
R /(k 1)
U ∼
= F .
−k
k−1,T
2
− −
(1 R )/(T k) H 0
U
4.3 Test F asintotico
Si considera il modello y = X β + X β + u .
1 1 2 2 ×1
T
×G
T
×1 ×(k−G)
T G×1
T (k−G)×1
Data l’ipotesi nulla H : β = 0 ,
0 2 G×1
G×1
si definiscono i seguenti modelli:
M : y = X β + X β + u
U 1 1 2 2
e M : y = X β + e.
R 1 1
Per determinare il test F asintotico, si considera la regressione ausiliaria
M : ê = X γ + X γ + η
A 1 1 2 2
.
il cui coefficiente di determinazione è RSS
2 −
R =1 A
A TSS A
Vale che TSS RSS , infatti
=
A R T T
2
X X
TSS RSS
2
−
= ê ê = ê = .
A t R
t
t=1 t=1
Nel modello non ristretto e nel modello ausiliario si ha che
M : y = ŷ + û = X β̂ + X β̂ + û M : y = ŷ + η̂ = X γ̂ + X γ̂ + η̂
U 1 1 2 2 A 1 1 2 2
M y = M X γ̂ + M X γ̂ + M η̂
= M X β̂ + M X β̂ + M û
M y 1 1 1 1 1 2 2 1
1 1 1 1 2 2 1
1 | {z }
|{z} |{z}
|{z}
| {z }
|{z} =0
=ê =η̂
=0 =û
=ê ê = M X γ̂ + η̂
ê = M X β̂ + û 1 2 2
1 2 2
Siccome 0 −1 0 0 −1 0
β̂ = (X M X ) X M y = (X M X ) X ê
2 1 2 1 1 2
2 2 2 2
|{z}
=ê
18
e 0 −1 0
γ̂ = (X M X ) X ê,
2 1 2
2 2
vale che , che e quindi che
β̂ = γ̂ û = η̂
2 2 RSS RSS
0 0
= û û = η̂ η̂ = .
U A
Segue che .
−RSS
RSS RSS RSS
2 − −
R =1 =1 =
A U R U
A TSS RSS RSS
A R R
Siccome si dimostra che è stimatore distorto ma consistente per , dalla (43)
RSS
2 2
σ̃ = σ
R
u u
T
segue che RSS RSS
− A
R U 2
∼ χ .
G
2
σ̃ H 0
u
Quindi RSS RSS
−
R U =
2
σ̃ u
RSS RSS
−
R U
= =
RSS
R
T
RSS RSS
−
R U
·
= T =
RSS R
A 2
2
·R ∼ χ .
= T G
A H 0
Fissato il livello di significatività se
α, 2 2
·R
T > χ ,
Aoss G,1−α
allora si rifiuta .
H
0 19
5 Stimatore RLS
Lo stimatore RLS (Restricted o ai minimi quadrati vincolati viene utilizzato
Least Squares)
quando si vuole stimare un modello considerando informazioni aggiuntive sui parametri.
Preso in considerazione il modello
M : y = X β + u ,
U ×1
×k T
T
×1
T k×1
si riscrivono le informazioni sui parametri in forma matriciale:
R β = r
×1
T
G×k k×1
dove e sono matrice e vettore di valori pari a 0 o a 1 in posizioni opportune per
R r
×1
T
G×k
scrivere le restrizioni cui è soggetto il modello.
Lo stimatore RLS è quindi il risultato del problema
soggetto a
0
arg min S(·) = u u
β
k×1 Rβ = r.
Per risolvere questo problema si utilizza il metodo dei moltiplicatori di Lagrange. Una volta
determinata la funzione di Lagrange, definita come
0 0
− −
L = û û λ ( R β r ),
×1
1×T T 1×G G×1
G×k k×1
la si minimizza risolvendo il seguente sistema di equazioni:
k + G
( ∂L(·) = 0
∂β
∂L(·) = 0
∂λ
La soluzione del sistema coincide con lo stimatore RLS ed è
0 −1 0 0 −1 0
− −
β̂ = (X X) X y A(R, r, X) R(X X) X y r =
RLS − −
= β̂ A(R, r, X)(Rβ̂ r)
dove è una matrice non stocastica che dipende da e
A(R, r, X) R, r X.
5.1 Proprietà dello stimatore RLS
Lo stimatore RLS è non distorto per solo se le restrizioni sono vere, infatti
β lin.
− −
β̂ ) = β̂ A(R, r, X)(Rβ̂ r) =
E( E
RSL
− −
= β̂) A(R, r, X) RE(
β̂) r =
E(
− −
= β A(R, r, X) Rβ r = β.
| {z }
= 0 se le
restrizioni
sono vere
20
6 Modello di regressione lineare con variabile dummy
Si prende in considerazione il seguente modello di regressione:
con
y = β + β x + u t = 1, . . . , T.
t 1 2 t t
Si suppone di avere delle informazioni aggiuntive sui parametri del modello che sono codifi-
cabili tramite una variabile cioè
dummy,
( se si verifica un certo evento
1 con
d = t = 1, . . . , T.
t altrimenti
0
La variabile può essere utilizzata tramite tre approcci: il modello additivo, il modello
dummy
moltiplicativo e il modello misto.
6.1 Modello additivo
Il modello additivo è definito nel seguente modo: con
M : y = β + β x + β d + u t = 1, . . . , T
A t 1 2 t 3 t t
dove
• è la variazione di al variare di di un’unità
β y x
2
• è la variazione di al passaggio da un tempo in cui si verifica un certo evento ad
β y t
3
uno in cui questo non si verifica.
Il modello additivo dice che i valori della variabile sono sistematicamente più alti/bassi
y
t
in ogni tempo in cui si verifica un certo evento e tale differenza è pari a , costante
t β 3
indipendente da .
x t
Se si ha .
d = 0, y = β + β x + u
t t 1 2 t t
Se si ha .
d = 1, y = β + β + β x + u
t t 1 3 2 t t
Esempio: si ipotizza che , e siano maggiori di
β̂ β̂ β̂ 0.
1 2 3 ^ ^ ^
y = β + β + β
y x
t t
1 3 2
^ ^
= β + β
y x
t t
1 2
^ ^
β + β
1 3
^
β 1 x
Fig. 3: rette di regressione nel modello additivo
21
6.2 Modello moltiplicativo
Il modello moltiplicativo è definito nel seguente modo: con
M : y = β + β x + β d x + u t = 1, . . . , T.
M t 1 2 t 4 t t t
Ai tempi in cui si verifica un certo evento, i valori della variabile sono maggiori/minori
t y
t
(tranne per e la differenza aumenta/decresce all’aumentare di .
x = 0) x
t t
Se si ha .
d = 0, y = β + β x + u
t t 1 2 t t
Se si ha .
d = 1, y = β + (β + β )x + u
t t 1 2 4 t t
Esempio: si ipotizza che , e siano maggiori di
β̂ β̂ β̂ 0.
1 2 4 ^ ^ ^
( )
y = β + β + β
y x
t t
1 3 4
^ ^
= β + β
y x
t t
1 2
^
β 1 x
Fig. 4: rette di regressione nel modello moltiplicativo
6.3 Modello misto
Il modello misto è definito nel seguente modo: con
M : y = β + β x + β d + β d x + u t = 1, . . . , T.
X t 1 2 t 3 t 4 t t t
Il modello misto unisce gli effetti del modello additivo e del modello moltiplicativo e viene
utilizzato per testarli.
Se si ottiene il modello additivo.
β = 0,
4
Se si ottiene il modello moltiplicativo.
β = 0,
3
Si testano quindi i seguenti sistemi di ipotesi:
vs 6
H : β = 0 H : β = 0
0 4 1 4
e vs 6
H : β = 0 H : β = 0.
0 3 1 3
Se si rifiuta e non si rifiuta si accetta il modello additivo.
H : β = 0 H : β = 0,
0 3 0 4
Se si rifiuta e non si rifiuta si accetta il modello moltiplicativo.
H : β = 0 H : β = 0,
0 4 0 3
Nei restanti casi, si accetta il modello misto.
Se si ha .
d = 0, y = β + β x + u
t t 1 2 t t
Se si ha .
d = 1, y = β + β + (β + β )x + u
t t 1 3 2 4 t t
22
Esempio: si ipotizza che , , e siano maggiori di
β̂ β̂ β̂ β̂ 0.
1 2 3 4 ^ ^ ^ ^
( )
y = β + β + β + β
y x
t t
1 3 2 4
^ ^
= β + β
y x
t t
1 2
^ ^
β + β
1 3
^
β 1 x
Fig. 5: rette di regressione nel modello misto
Per stimare i parametri del modello misto, si può procedere in due modi:
• stima OLS sul modello misto
• stime OLS sui seguenti modelli ∀t
M : y = α + α x + u , : d = 0
0 t 1 2 t t t
e ∀t
M : y = γ + γ x + u , : d = 1.
1 t 1 2 t t t
Le stime di e sono rispettivamente e .
β β β = α β = α
1 2 1 1 2 2
Inoltre, siccome e , si ha che le stime di e sono
\ \
γ̂ = β + β γ̂ = β + β β β
1 1 3 2 2 4 3 4
rispettivamente e .
− −
β = γ α β = γ α
3 1 1 4 2 2
È i