Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Modelli Statistici - Statistica Multivariata
Lezione 1
- Un modello è una rappresentazione semplificata della realtà.
- Un modello deve essere:
- sufficientemente semplice e essere interpretabile ed utilizzabile
- non troppo semplice e rappresentare adeguatamente la realtà
Costruzione di un modello:
- Specificazione del modello
- Stima del modello
- Verifica e diagnostica del modello
- Utilizzo del modello
Esempio: Costruzione del modello di regressione lineare semplice
- Specificazione del modello:
- VAR e spiegative esogene
- (y = f (x1, ..., xn) + e) + (VAR errore intrinseca al modello)
- VAR risposta = (componente deterministica + del modello)
- La specificità, così, costruire un modello di regressione lineare semplice.
- Il modello dipende:
- dalla relazione tra le due variabili x e y
- dagli metodologie di raccoglita dati (scelta non tramite alcuna differenziazione tra le variabili)
- In questo caso supponiamo che i dati siano in relazione lineare tra loro.
- In questa fase adotto un approccio condizionale: il modello viene specificato basandosi solamente sulla realizzazione della variabile esplicativa, ovvero dal valore assunto dalla esplicativa preso dal dataset considerato.
Stima del modello:
- Cosa devo stimare?
- La componente deterministica specificazione a meno di uno o più parametri
- La componente erratica, anch'essa può dipendere da uno o più parametri
Verifica e diagnostica del modello
- Bondà del modello
- Significatività dei coefficienti di regressione (= 3 B; nulli che accettano H0)
- Ipotesi residui (teoria errori)
n = nr osservazioni
i = 1, ..., n
REGRESSIONE
UNIVARIATA
- una sola var risposta
semplice
- una var esplicativa
Yi = E(Xi, β) + εi
multipla
- più var esplicative
Yi = E(Xi1, ..., Xip, β) + εi
MULTIVARIATA
- più variabili risposta
semplice
- una var esplicativa
Yi = f(Xi, β) + εi
Yim = fm(Xi, β) + εi
multipla
- più var esplicative
Yi = f(Xi1, ..., Xip, β) + εi
Yim = E(Xi1, Xip, β) + εim
Modelli di regressione sulla base del legame funzionale
- Lineare
- Quando la risposta è combinazione lineare dei parametri
es: Yi = β0 + β1Xi + ... + βpXip + εi
- Linearizzabile
- modello che mediante opportune trasformazioni può essere reso lineare.
es: Yi = β0Xiβ1εε
log Yi = log(P0) + β1logXi + log εi
- Ottengo un modello infatti lineare ponde le uguaglianze
Yi* log yi* = log β0* β1* log Xi* εi* = log
Averemo che Yi* = β0* + β1*Xi* + εi*
- Non Lineari
- modelli non lineari e non linearizzabili
(*) RISOLVO IL SISTEMA
- ∑(yi - β0 - β1xi) = 0
-2∑(yi - β0 - β1xi) = 0
-2∑(yi - β0 - β1xi)xi
- ∑xi(yi - β0 - β0) = 0
y = β1x
∑yixi - β0∑xi - β1∑xi2 = 0
∑xiyi - β1∑‹ xi2
β1Σxi(xiγi - β1∑xi2) = 0
β1Σ(xi∤yi) = 0
β1Σxiyi #NOTE
β1 = Sxy/Sx
β0 = y - β1x
SxxSyy
PER*(β0,β1)
UNICO PUNTO CRITICO: (β0,β1)
POICHE‘ UNICO PUNTO CRITICO
dS/dβ0
∅
Sy2
β0, β1
Come stimare σ²
Var(β1) = σ² / Σj=1(xj – x)²
Var(β2) = σ² (1 + ( x² / n / Σj=1(xj – x)² ))
Si ricordi che σ² è anche la varianza degli errori εi (V.A.)l'analogo campionario di εi è lo scarto ei = yi - ŷi
Posso stimare σ² con la varianza degli scarti
Sn² = 1/n Σ(yi - ŷi)² = 1/n Σei²
Ricordando che ei = yi - ŷi è lo scarto osservato, considero la variazione casuale ei = yi - ŷi ⇒ determino quindi lo stimatore
Sn² del σ² come:
Sn² = 1/n Σ (ei² - ē)² = 1/n Σ (ui + β2 - β1xi)²
- E[Sn²] = n-2/n σ² è perciò stimatore distorto di σ²
però risulta asintoticamente non distorto (mrfam)
lim n→∞ n-2/n σ² = σ² lim n→∞ Bias[Sn²] = lim n→∞ E[Sn²] - σ² = 0
Consideriamo quindi lo stimatore corretto di σ²:
S² = n/n-2 S²
⇒ In Ȧ E[S²] = E[n/n-2 Σn-2] = n/n-2 (n/n-2 + S²) σ²
dunque, gli stimatori di massimo verosimiglianza sono: