Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
MODELLI: REGRESSIONE NON LINEARE
- GLM (GENERALISED LINEAR MODELS)
- REGRESSIONE NON PARAMETRICA
LM
Yn×1 = Xn×k+1 βk+1 + εn×1
ε ~ N (0; σ² I)
- Y: OSSERVABILE
- y = VETTORE ALEATORIO
- X: MATRICE DEL DISEGNO
- - QUANTITÀ NOTE
- β: PARAMETRI IGNOTI
- ε = COMPONENTE ERRATICA NON OSSERVABILE
RISCRIVO
Yi = B0 + B1 Xi + ... + Br Xik + εi
Yi = X' i β + εi X'i = i - ESIMA RIGA DI X
(PREDITTORE LINEARE)
RISCRIVO IL MODELLO COME CI SERVE
Yi = mi
E[Yi]
Yi N (ζi; σ²) II
RESTRINGO
- yi = f (X; xi, β) + εi LINEARITÀ ?
- OMOSCHEDASTICITÀ ?
- INCORRELAZIONE ?
- NORMALITÀ ?
GLM
- Y ∈ De1
- Famiglia dispersione esponenziale di ordine 1
- Normale
- Bernoulli
- Binomiale
- Poisson
- Gamma
- f non usare
- LM → ξi = μi;
- GLM → g(ξi) = μi
- g = funzione nota, monotona, derivabile
- g = link function (teoricamente EGA ME)
Nota storica
- Alcuni modelli esistevano sin '70
- Dopo '70 → Teoria unificata GLM → Riassunta nel libro (1972) Monografia McCullagh-Nelder 1989
Osservazioni
- n ∈ De1
Intervalli Confidenza: dobbiamo passare dalle stime agli stimatori
Stima → \( \hat{\beta}_0 = 5{,}309 \) , \( \hat{\beta}_1 = 0{,}111 \)
Stimatori → \( \beta_0 \) , \( \beta_1 \)
LM → \( \hat{\beta} = (X'X)^{-1} X' y \)
\(y_i\) ~ in , \(N \rightarrow 1\)
GLM → MLE godono di alcune proprietà asintotiche
\( (\hat{\beta}_0, \hat{\beta}_1) \approx \mathcal{N}_2 ([\beta_0, \beta_1]' , E(\beta_0, \beta_1)) \)
\( \hat{\beta} \sim \mathcal{N}_{k+1} (\beta, \varepsilon \hat{\beta}) \)
Matrice di varianze-covarianze asintotiche
- Var(\(\hat{\beta_0}\)) — cov
- — Var(\(\hat{\beta_1}\)) —
- cov — Var(\(\hat{\beta}^{E^2}\))
\( \varepsilon \hat{\beta} = [I(\beta)]^{-1} \)
\( E \left[ - \frac{\partial^2 \mathcal{L} ( \beta)}{\partial \beta_j \beta_{j'}} \right] \) \( ( j, j' = 1, ..., k+1 ) \)
Stima delle matrici di varianze e covarianze asintotica dosu me
COSTANTE 3,512 0,8145 0,000
ETÀ 0,027 0,116 0,019
CANCRO 0,124 0,6168 0,692
PRESSIONE 1,646 0,6234 0,008
INFEZIONE 0,681 0,3804 0,074
D1 -0,937 1,086 0,377
D2 0,260 0,8743 0,766
Logit (xi) = -3,512 + 0,027 ETÀ + 0,244 x12 + ... + 0,26 D12
[1, xi, xi2, ...]
TEST BONTÀ DEL MODELLO
M0 CON SOLO INTERCETTA
M1 CON 6 COVARIATE
H0: B1 = B2 = ... = B6 = 0
H1: ALMENO UN Bj ≠ 0
ℓM0 = -100,08
ℓM1 = -89,65
dobs = -2 [-100,08 + 89,65] = 20,86
α = 0,05 ⇒ ACCETTARE e RIFIUTARE
P-VALUE = P(χ62 ≥ 20,86) = 0,00194
AL 5% E 1% RIFIUTO H0 ⇒ M1
Famiglie Esponenziale Naturale di Ordine 1
La famiglia parametrica EN1:
- X ∈ Sx
- A ∈ Θ
Osservazioni
- Θ è il parametro canonico o naturale
- X è l'osservazione naturale
- Sx - {f(x; a) > 0} ↔ il Sx di EN1 non dipende da Θ
- È indifferente scrivere: f(x; a) = exp {x a - c(a) + D(x)}
Esempio 1
- X ∼ N(0, 1)
- Sx = R
- Θ = R
f(x; a) = (1/√2πσ²) e-(x-Θ)²/2σ² = (1/√2π) exp { -½ (x-Θ)² } =
= exp { x a - ½ a² } exp { -x²/2 } (1/√2π)
- N(0, 1) ∈ EN1
Esempio 2
- X ∼ Poisson (a)
- Sx = N
- Θ = R+
f(x; a) = e-a ax/x! = exp { x log a - Θ } 1/x!
- Poisson ∉ EN1
- Poisson ∈ E1
Generalizzazione EN1, EN2
Ep: {∫ f(x, α) - exp{∫[ai(x)bi(α) - c(α)]} dx }
- ai(x) --- ap(x) Osservazione naturale
- b1(α) --- bp(α) Parametro naturale o canonico
Esempio
X∼ N(μ, σ2) p=2 EΣ?
- a1(x) = x
- b1(α) = x/σ2
- a2(x) = x2
- b2(α) = -1/2σ2
Esempio
X ∼ Beta (α1, α2) S = (0,1) α1 > 0 α2 > 0
f(x; α1, α2) = xα1-1(1-x)α2-1
B(α1, α2)
B(α1, α2) = Γ(α1)Γ(α2)/Γ(α1+α2)
- a1(x) = log x
- a2(x) = log (1-x)
Parametro canonico: (α1, α2)
ESEMPIO
Vu.B (1, xε) i=1, ..., n
Sx = {0, ..., 2n-1, n/n, n/n, ...}
f(x; 0; n; ε) = (n/n) xε (1-x/ε)
E(x) = E (Y/n) - ε(ν) = 1/n nε xε
VAR(x) = VAR (Y/n) = 1/n2 VAR(Y) = 1/n2 n xε (1-xε) = ε(xε + x)
ε = exp {nx log xε + (n-nx) log (1- xε) + log (n xε)}
= exp {x log xε / 1-xε + n log(xε -x) + log(n xε)}
= exp{x log xε / (1-xε) + log (n xε)}
= exp{- 1/n}
OSSERVAZIONI INTUITE: x
a= log xε / 1-xε = logn ε => xε = ea / 1+ea (MEAN FUNCTION)
Φ = 1
h(b) = COSTANTE
C(a) = log (1+ea)
C(tε)= - log (1-xε)
C'(xε)= - ea / 1+ea xε * x
C''(xε)= ea (1+ea) -eae0 / (1+ex)2
VAR (xε)=V(x) h(Φ)/xε(xε-1)1/n
INFORMAZIONE FISHER
H: MATRICE HESSIANA => J-P.ESIMO ELEMENTO
∑ (ck+ x ck+1)
n∑
∂2ℓ
∂βj∂βp J,P. 1, 2, ... K+1
2 MODI
−E (−H) = I (β)
• E [∂ℓ ∂ℓ ] = -E [ ∑ ∂2ℓ ] J.P-ESIMO ELEMENTO DI I (β)
∂β ∂β ∂β∂β
INFORMAZIONE OSSERVATA
−H | ̂β = ̂β
CALCOLIAMO L'I-ESIMO CONTRIBUTO ALL'ESIMO J.P-ESIMO DELL'I (β):
−E [∂2ℓ] = E [∂ℓ ∂ℓ ] − E [((__y__−__)t ()) ∂ℓ xij]
∂βj∂βp] ∂β ∂β Var (y ) ∂m2
sj sp
((__y__−__)t xi xip) =
Var(__y__ ) ()
E[((__y__i−__)t ()) ] = (∂2 xij xip 1
Var(y ) ; ) Var(yj)
=(∂2) xij x2ip (∂2 ) xij xip
; ) Var(y )
I(β)jj = ∑i (∂2 ) (xij xip )
Var(yi)
I(β)= [ε (ω; x1 x2 ε(ω; x1 xk+3 ε(ω; x1 xk+4
]
[ε (ω; x2k