Anteprima
Vedrai una selezione di 13 pagine su 60
Calcolo delle probabilità e Statistica Matematica 2 - Appunti Pag. 1 Calcolo delle probabilità e Statistica Matematica 2 - Appunti Pag. 2
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Calcolo delle probabilità e Statistica Matematica 2 - Appunti Pag. 6
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Calcolo delle probabilità e Statistica Matematica 2 - Appunti Pag. 11
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Calcolo delle probabilità e Statistica Matematica 2 - Appunti Pag. 16
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Calcolo delle probabilità e Statistica Matematica 2 - Appunti Pag. 21
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Calcolo delle probabilità e Statistica Matematica 2 - Appunti Pag. 26
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Calcolo delle probabilità e Statistica Matematica 2 - Appunti Pag. 31
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Calcolo delle probabilità e Statistica Matematica 2 - Appunti Pag. 36
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Calcolo delle probabilità e Statistica Matematica 2 - Appunti Pag. 41
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Calcolo delle probabilità e Statistica Matematica 2 - Appunti Pag. 46
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Calcolo delle probabilità e Statistica Matematica 2 - Appunti Pag. 51
Anteprima di 13 pagg. su 60.
Scarica il documento per vederlo tutto.
Calcolo delle probabilità e Statistica Matematica 2 - Appunti Pag. 56
1 su 60
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Metodo dei minimi quadrati

Definizione 5.2. (Metodo dei minimi quadrati)
Posto η = X β diciamo che β̂ è stimatore dei minimi quadrati di β se rende minimo il valore
T M Q X 2 2 2kεk kY −ε = = ηki
cioè 2kY −β̂ = arg min ηkM Q β

È importante sapere che con questo metodo si approssimano al meglio tutti i dati e che si ottengono stimatori non-distorti ed efficienti (quindi a varianza minima).

Definizione 5.3. (Equazioni normali)
Sono delle equazioni che risolvono β̂, in particolare XY = Sβ
Per ottenere una equazione normale basta considerare la funzione 2" #X X2kY − −s(Y, β) = X βk = Y X βT j i,j ij i∂s = 0 si ottiene
e se si pone ∂βr "" # #X X−2 −Y X β X = 0, r = 1, . . . , pj i,j i r,jj icioè − ⇒XY XX β = 0 XY = XX β =

SβT T-1 −1 −1 −1∃ ∃! In particolare se S = (XX ) si ha β̂ = S XY e quindi β̂T M Q M Q Teorema 5.4. Gli stimatori dei minimi quadrati sono tutte e sole le soluzioni delle equazioni normali, cioè kY − ⇔β̂ = arg min X βk XY = SβM Q Tβ Dimostrazione. Cerchiamo Sia X β = η,T 2kY −η̂ = arg min ηkη e quindi η̂ = X β̂T M Q ⇒) kY − Se β minimizza la quantità X βk, allora risolve l’equazione normale. T 39⇐) n n p∈ ⊆ ∈ ∈ ∈ × Abbiamo che Y U , ε , β e X M (n p)R R Rn T= X β; si ha Riscriviamo in modo più esplicito l’equazione η T     X ... X β β1,1 1,p 11 .. .. ... ih .. ... ξξ .. ∈ ⊆ η = V V=     .. . . r n1 p     X ... X β βn,1 n,p pp ≤ 6 Con r = rk(X ) = rk(X) p, in particolare se r = p allora S non è invertibile. T,

... , α una base ortonormale per V, grazie al teorema di Gram-Schmidt, è possibileSia α r1 r , . . . , α , con n > r ad una base ortonormale per V .ampliare la base a α n1 n nP∈ ∈z αPossiamo riscrivere Y V : Y = e possiamo anche riscrivere η V attraverso la basein riirP= ẑαortonormale: η iiQuindi si ottiene: r n X XX X 2 2−− − = (z ẑ ) + zY η = (z ẑ )α + z α i ii i i ii=1 i=r+1Poiché questa è un somma di termini positivi, l’unico modo per minimizzarla è annullare quantipiù coefficienti possibili, e quindi prendere ẑ = z , i = 1, 2, . . . , ri iLa scelta di questi ẑ equivale a quella di prendere η come proiezione ortogonale di Y su V, cioèi r− ∀j − ⇒ −(Y η)⊥ξ = 1, . . . , p e quindi ξ (Y X β) = 0 XY XX β = 0 che è una equazionej j T Tnormale.Nota. −1 −1 −1Se S è invertibile, allora si

ha che β̂ ] = XY ] = S X ] = S XX β = βE[ E[S E[YM Q T

Proposizione 5.5. k ×Sia X un vettore aleatorio con matrice di covarianza Cov(X) in e A una matrice m kRdeterministica. Allora si ha Cov(AX) = A Cov(X)A T

Dalla precedente proposizione si evince che, supponendo S invertibile−1 −1 −1 −1 −1 −12 2Cov(S XY ) = S X Cov(Y )(S X) = σ [S XI X S ] = σ ST n T−1e poiché in generale S non è diagonale, le componenti di β̂ sono correlati.M Q

Definizione 5.6. (Funzione parametrica)p p∈ ∈Sia c deterministico e β il vettore dei parametri del modello di regressione lineareR R  Y = X β + εT ] = X βE[Y T 2Cov(Y ) = σ I nβ è detta funziona parametrica.La funzione Ψ = cT

Definizione 5.7. (Funzione parametrica stimabile)Una funzione Ψ parametrica si dice stimabile se possiede uno stimatore lineare in Y non distorto,∃ ∈ciò se a V tale che [aY

= Ψ.En β 40

Lemma 5.8. ∈ V tale che [aY ] = Ψ. Sia d la proiezione diSia Ψ una funzione parametrica stimabile e a En βa su un sottospazio V , allorar1. [dY ] = ΨEβ2 2≥2. σ (aY ) σ (dY )= cβ̂3. dY M Q⊂4. Se e V è un vettore tale che ] = Ψ, allora e = dE[eYrDimostrazione.1) può venir scritto in maniera univoca nel seguente modo: a = b + d con b⊥V e quindiIl vettore a raY = (b + d)Y = bY + dYe di conseguenza Ψ = [aY ] = [bY ] + [dY ] = bX β + [dY ]E E E Eβ β β T βPer l’ortogonalità si ha bX = 0 e quindiT Ψ = [dY ]Eβ2 2 2 2kak kbk kdkPer come è stato decomposto il vettore a si può scrivere = + e quindi2 2 2 2 2 2kak ≥ kdkσ (aY ) = a Cov a = σ σ = σ (dY )3Si ha Y ] = Ψ = c β per definizione e Y ] = d ] = d X β da cui segue vtc =E[d E[d E[Y T TT T T T Td X .TT −Si consideri η̂ = X β̂ , essa è la proiezione

ortogonale di Y su V, quindi d (Y η̂) = 0 da M Q T M Q r T. Cui segue d Y = d η̂ = d X β̂β̂ = cM Q T M QM QT T T T4 ∈. Sia e V tale che [eY ] = Ψ, si ha allora Er β − − −0 = [dY ] [eY ] = [(d e)Y ] = (a e)X βE E Eβ β β T− −. Serve quindi (d e)X = 0 identicamente in β. La richiesta è equivalente a chiedere d eT −ortogonali a V, il che è impossibile poichè entrambi stanno in V a patto che d e = 0r r. Definizione 5.9. (Stimatore dei minimi quadrati)∈ ∈Sia Ψ = cY una funzione stimabile. Esiste allora a V tale che [aY ] = Ψ, sia d V la suaEn β rchiamiamo tale quantità stimatore dei minimi quadrati di Ψ. Teorema 5.10. (di Gauss-Markov)Dato il modello  Y = X β + εT 2 2⇔ (8)Cov(ε) = σ I Cov(Y ) = σ In n ⇔= 0 ] = X β E[ε] E[Y Te sia Ψ una funzione stimabile,

Allora lo stimatore Ψ̂ dei minimi quadrati di Ψ ha varianza minima nella classe degli stimatori non distorti per Ψ e lineari in Y.

Dimostrazione. ∈ ∀β.∃a V tale che Y = Ψ + a.

Sia Ψ stimabile, allora E[an] = 0.

Sia d la proiezione di a su V, allora si ha Ψ̂ = d Y = c β̂.

MQ = M QT TY un’altro stimatore per Ψ lineare in Y non distorto, allora:

1. Se b ∈ V si ha b = d e quindi var(b Y ) = var(d Y ) = var(Ψ̂).

2. Se b non ∈ V è possibile considerare la sua proiezione su V, che avrà varianza pari a var(d Y ) = var(Ψ̂) < var(b).

Corollario 5.11. ∈∀c V la funzione Ψ è stimabile e Ψ̂ è ottimale.

Sia rk(X) = n il massimo possibile; allora n = MQ, come anche tutti i β̂ MQ,j.

Dimostrazione. -1

Se il rango di X è massimo la matrice S è invertibile, quindi β̂ = S XY. Se scelgo c = (0, . . . , 0, 1, 0, . . . , 0) allora c β̂ = β̂ ed esso ha varianza minima.

Q M Q,jTRiduzione del modello lineare - stima della varianzaFino ad ora è stato scritto soltanto come stimare i parametri β, non è stato detto ancora nulla sulla σ.Ricordiamo che V è lo spazio r-dimensionale generato dalle colonne di X, con r = rk(X). Sia T{α} α, . . . , α una base ortonormale per V, questa base può essere estesa a , . . . , α, α, . . . , α1 r r 1 r r+1 n∈∈base ortonormale per V. Poiché Y V e la sua proiezione η̂ V si hanno n M Q rrn XX z αz α e η̂ =Y = j jj j M Q j=1j=1quindi nn XX 222 kkY − k k zz α =η̂ = j jM Q jj=r+1 j=r+1Posto Z = (z , . . . , z ) e P la matrice che contiene le componenti della base di V si ha, poiché1 n n2 2 2Cov(Y) = σ I , Cov(Z) = P σ I P = σ I. Inoltre E[Z] = E[P Y] = P η, mentre ] =E[Zn n T n j 2 2∀j ∀j0 > r e di conseguenza E z = var(z )σ > r.jjQuindi nX2 2 2 kY −

k - −η̂ = ] = (n r) var(z ) = (n r)σE[zE M Q jjj=r+1

Quindi 2kY - kη̂E M Q2σ̂ = - (n r)è uno stimatore della varianza. 42

Verifica di ipotesi sul modello lineare di regressione∈ V , cioè η soddisfa q ipotesi lineari con

Un test di ipotesi che si è soliti fare è H : η r-q0∈0 < q < r stiamo quindi verificando se alcuni parametri β sono nulli o meno.

N, iSi pone preventivamente X 2-s = s(Y, β) = (Y ])E[Yi isi denota con s se si sta supponendo vera l’ipotesi H oppure con s se non si suppone nessunaH 0 H0 2∼ipotesi. Se si suppone Y N (η, σ I ) una normale multivariata, si ha che, per l’indipendenzandelle Yi s(Y,β)n z }| {1 12 X 22 2- − )L(Y, β, σ ) = exp σ (Y ]E[Yi i22πσ 2 {z }|=η i2Fissato σ , massimizzare L rispetto a β sotto l’ipotesi H , è equivalente a cercare0 2kY -min s(Y, β) = min

Quindi β̂ è la soluzione e β̂ = β̂M QM LM QS. Sia quindi s = min s(Y, β) sotto l'ipotesi H e s = min s(Y, β) senza nessuna ipotesi. H β₀ H β₀ ∈ L = 0 e poiché il l
Dettagli
Publisher
A.A. 2011-2012
60 pagine
SSD Scienze matematiche e informatiche MAT/06 Probabilità e statistica matematica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Ely90h di informazioni apprese con la frequenza delle lezioni di Calcolo delle probabilità e Statistica Matematica 2 e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Milano o del prof Apolloni Bruno.