Anteprima
Vedrai una selezione di 18 pagine su 83
Appunti di Statistica III Pag. 1 Appunti di Statistica III Pag. 2
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 6
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 11
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 16
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 21
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 26
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 31
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 36
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 41
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 46
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 51
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 56
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 61
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 66
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 71
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 76
Anteprima di 18 pagg. su 83.
Scarica il documento per vederlo tutto.
Appunti di Statistica III Pag. 81
1 su 83
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

MODELLI: REGRESSIONE NON LINEARE

  1. GLM (GENERALISED LINEAR MODELS)
  2. REGRESSIONE NON PARAMETRICA

LM

Yn×1 = Xn×k+1 βk+1 + εn×1

ε ~ N (0; σ² I)

  • Y: OSSERVABILE
  • y = VETTORE ALEATORIO
  • X: MATRICE DEL DISEGNO
  • - QUANTITÀ NOTE
  • β: PARAMETRI IGNOTI
  • ε = COMPONENTE ERRATICA NON OSSERVABILE

RISCRIVO

Yi = B0 + B1 Xi + ... + Br Xik + εi

Yi = X' i β + εi X'i = i - ESIMA RIGA DI X

(PREDITTORE LINEARE)

RISCRIVO IL MODELLO COME CI SERVE

Yi = mi

E[Yi]

Yi  N (ζi; σ²) II

RESTRINGO

  • yi = f (X; xi, β) + εi LINEARITÀ ?
  • OMOSCHEDASTICITÀ ?
  • INCORRELAZIONE ?
  • NORMALITÀ ?

GLM

  1. Y ∈ De1
    • Famiglia dispersione esponenziale di ordine 1
    • Normale
    • Bernoulli
    • Binomiale
    • Poisson
    • Gamma
  2. f non usare
    • LM → ξi = μi;
    • GLM → g(ξi) = μi
    • g = funzione nota, monotona, derivabile
    • g = link function (teoricamente EGA ME)

Nota storica

  • Alcuni modelli esistevano sin '70
  • Dopo '70 → Teoria unificata GLM → Riassunta nel libro (1972) Monografia McCullagh-Nelder 1989

Osservazioni

  • n ∈ De1

Intervalli Confidenza: dobbiamo passare dalle stime agli stimatori

Stima → \( \hat{\beta}_0 = 5{,}309 \) , \( \hat{\beta}_1 = 0{,}111 \)

Stimatori → \( \beta_0 \) , \( \beta_1 \)

LM → \( \hat{\beta} = (X'X)^{-1} X' y \)

\(y_i\) ~ in , \(N \rightarrow 1\)

GLM → MLE godono di alcune proprietà asintotiche

\( (\hat{\beta}_0, \hat{\beta}_1) \approx \mathcal{N}_2 ([\beta_0, \beta_1]' , E(\beta_0, \beta_1)) \)

\( \hat{\beta} \sim \mathcal{N}_{k+1} (\beta, \varepsilon \hat{\beta}) \)

Matrice di varianze-covarianze asintotiche

  • Var(\(\hat{\beta_0}\)) — cov
  • — Var(\(\hat{\beta_1}\)) —
  • cov — Var(\(\hat{\beta}^{E^2}\))

\( \varepsilon \hat{\beta} = [I(\beta)]^{-1} \)

\( E \left[ - \frac{\partial^2 \mathcal{L} ( \beta)}{\partial \beta_j \beta_{j'}} \right] \) \( ( j, j' = 1, ..., k+1 ) \)

Stima delle matrici di varianze e covarianze asintotica dosu me

COSTANTE 3,512 0,8145 0,000

ETÀ 0,027 0,116 0,019

CANCRO 0,124 0,6168 0,692

PRESSIONE 1,646 0,6234 0,008

INFEZIONE 0,681 0,3804 0,074

D1 -0,937 1,086 0,377

D2 0,260 0,8743 0,766

Logit (xi) = -3,512 + 0,027 ETÀ + 0,244 x12 + ... + 0,26 D12

[1, xi, xi2, ...]

TEST BONTÀ DEL MODELLO

M0 CON SOLO INTERCETTA

M1 CON 6 COVARIATE

H0: B1 = B2 = ... = B6 = 0

H1: ALMENO UN Bj ≠ 0

M0 = -100,08

M1 = -89,65

dobs = -2 [-100,08 + 89,65] = 20,86

α = 0,05 ⇒ ACCETTARE e RIFIUTARE

P-VALUE = P(χ62 ≥ 20,86) = 0,00194

AL 5% E 1% RIFIUTO H0 ⇒ M1

Famiglie Esponenziale Naturale di Ordine 1

La famiglia parametrica EN1:

  • X ∈ Sx
  • A ∈ Θ

Osservazioni

  • Θ è il parametro canonico o naturale
  • X è l'osservazione naturale
  • Sx - {f(x; a) > 0} ↔ il Sx di EN1 non dipende da Θ
  • È indifferente scrivere: f(x; a) = exp {x a - c(a) + D(x)}

Esempio 1

  • X ∼ N(0, 1)
  • Sx = R
  • Θ = R

f(x; a) = (1/√2πσ²) e-(x-Θ)²/2σ² = (1/√2π) exp { -½ (x-Θ)² } =

= exp { x a - ½ a² } exp { -x²/2 } (1/√2π)

  • N(0, 1) ∈ EN1

Esempio 2

  • X ∼ Poisson (a)
  • Sx = N
  • Θ = R+

f(x; a) = e-a ax/x! = exp { x log a - Θ } 1/x!

  • Poisson ∉ EN1
  • Poisson ∈ E1

Generalizzazione EN1, EN2

Ep: {∫ f(x, α) - exp{∫[ai(x)bi(α) - c(α)]} dx }

  • ai(x) --- ap(x) Osservazione naturale
  • b1(α) --- bp(α) Parametro naturale o canonico

Esempio

X∼ N(μ, σ2) p=2 EΣ?

  • a1(x) = x
  • b1(α) = x/σ2
  • a2(x) = x2
  • b2(α) = -1/2σ2

Esempio

X ∼ Beta (α1, α2) S = (0,1) α1 > 0 α2 > 0

f(x; α1, α2) = xα1-1(1-x)α2-1

B(α1, α2)

B(α1, α2) = Γ(α1)Γ(α2)/Γ(α12)

  • a1(x) = log x
  • a2(x) = log (1-x)

Parametro canonico: (α1, α2)

ESEMPIO

Vu.B (1, xε) i=1, ..., n

Sx = {0, ..., 2n-1, n/n, n/n, ...}

f(x; 0; n; ε) = (n/n) xε (1-x)

E(x) = E (Y/n) - ε(ν) = 1/n nε xε

VAR(x) = VAR (Y/n) = 1/n2 VAR(Y) = 1/n2 n xε (1-xε) = ε(xε + x)

ε = exp {nx log xε + (n-nx) log (1- xε) + log (n xε)}

= exp {x log xε / 1-xε + n log(xε -x) + log(n xε)}

= exp{x log xε / (1-xε) + log (n xε)}

= exp{- 1/n}

OSSERVAZIONI INTUITE: x

a= log xε / 1-xε = logn ε => xε = ea / 1+ea (MEAN FUNCTION)

Φ = 1

h(b) = COSTANTE

C(a) = log (1+ea)

C(tε)= - log (1-xε)

C'(xε)= - ea / 1+ea xε * x

C''(xε)= ea (1+ea) -eae0 / (1+ex)2

VAR (xε)=V(x) h(Φ)/xε(xε-1)1/n

INFORMAZIONE FISHER

H: MATRICE HESSIANA => J-P.ESIMO ELEMENTO

∑ (ck+ x ck+1)

n∑

2

∂βj∂βp J,P. 1, 2, ... K+1

2 MODI

−E (−H) = I (β)

• E [∂ℓ ∂ℓ ] = -E [ ∑ ∂2ℓ ] J.P-ESIMO ELEMENTO DI I (β)

∂β ∂β ∂β∂β

INFORMAZIONE OSSERVATA

−H | ̂β = ̂β

CALCOLIAMO L'I-ESIMO CONTRIBUTO ALL'ESIMO J.P-ESIMO DELL'I (β):

−E [∂2ℓ] = E [∂ℓ ∂ℓ ] − E [((__y__−__)t ()) ∂ℓ xij]

∂βj∂βp] ∂β ∂β Var (y ) ∂m2

sj sp

((__y__−__)t xi xip) =

Var(__y__ ) ()

E[((__y__i−__)t ()) ] = (∂2 xij xip 1

Var(y ) ; ) Var(yj)

=(∂2) xij x2ip (∂2 ) xij xip

; ) Var(y )

I(β)jj = ∑i (∂2 ) (xij xip )

Var(yi)

I(β)= [ε (ω; x1 x2 ε(ω; x1 xk+3 ε(ω; x1 xk+4

]

[ε (ω; x2k

Dettagli
Publisher
A.A. 2020-2021
83 pagine
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Aishapodavini di informazioni apprese con la frequenza delle lezioni di Statistica III e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Milano - Bicocca o del prof Migliorati Sonia.