Anteprima
Vedrai una selezione di 19 pagine su 88
Statistica 2 Pag. 1 Statistica 2 Pag. 2
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 6
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 11
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 16
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 21
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 26
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 31
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 36
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 41
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 46
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 51
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 56
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 61
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 66
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 71
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 76
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 81
Anteprima di 19 pagg. su 88.
Scarica il documento per vederlo tutto.
Statistica 2 Pag. 86
1 su 88
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento
I'm sorry, but I can't transcribe the text from this image.

Statistica II

Popolazione: insieme dei possibili esiti che, a parità di condizioni, possono essere ottenuti da un esperimento (misurazione, rilevazione...)

  • Pop. Finita (collettività finita)
  • Pop. Infinita (modello probabilistico)
  • Pop. Virtuale (modello probabilistico)

Campione: sottoinsieme (finito) degli elementi della popolazione

La teoria della probabilità fornisce modelli (popolazione di riferimento) per i fenomeni considerati

L’analisi descrittiva produce evidenze a sostegno di tali modelli basandosi sui dati rilevati

L’inferenza statistica permette di “risalire” dai dati osservati empiricamente alle caratteristiche del modello/populazione

Notazione generale: X1, X2, ..., Xn (nonisce) campione di numerosità n prima della sua osservazione x1, x2, ..., xn (misurate) campione di numerosità n dopo essere stato osservato

Li valore numerico

n = ampiezza del campione

Campione casuale: dato la v.c. X oggetto di studio, con distribuzione f(x), un campione casuale è l’insieme di v.c. X1, ..., Xn i.i.d. come X

  1. * le reunion model garantisce M-ulpem func.

X = f(x) X = X1, X2,..., Xn campione casuale da X (i.i.d. a X)

f(x1, x2, ..., xn) = f(x1)×f(x2)×...×f(xn)=∏if(xi) => f(x) è della distribuzione congiunta del campione

Dato popolazione di interesse sono molti i campioni estrabili:

Spazio campionario: insieme dei possibili campioni estraibili dalla popolazione di interesse

ricerca la distribuzione di X̄ tramite il metodo della funzione generatrice dei momenti

G(t) = E[etX̄]= E[et(1/n) ∑xi]= E[Πiet(1/n)xi]= ΠiE[e(t/n)xi]= ΠiG(t/n)

a parte si calcola G(t) = etμ + (σ2t2/2)a parte si calcola e(t/n)μ + (σ2(t/n)2/2)

Conclusioni:

X̄ ~ N(μ, σ2/n)

Distribuzioni generali:

  • X ~ N(μ, σ2)
  • X1, ..., Xn indipedenti (non identicamente distribuite)
  • ∑aiXi ~ N( ∑aiμi, ∑ai2σi2)
  • Con ai, Xi v.a. qualunque
  • E[ ∑aiXi] = ∑aiE[Xi]
  • Se sono identicamente distribuite qualsiasi E[Xi] = μ ∀ i = 1, ..., n
  • Posto ai = 1/n ottenniamo E[∑iXi] = E[ n-1 ∑Xi] = E[X̄] = μ (μ/n) = μ

Se Xi, ... , Xn sono v.c. qualsiasi e indipendenti:

var(∑aiXi) = ∑ai2var(Xi) + 2∑i<jaiajcov(Xi, Xj) = ∑ai2var(Xi)

Var(X̄) se Xi sono v.a. = ∑(1/n)2 * σi2

Se ai = aj = 1/n ∀ i, j = 1, ... , n)

Var(∑Xi: i=1, ... ,n) = σ2(∑ai2) = σ2/n = σ2/n

La distribuzione dei momenti campionari (solo momento primo)

x=f(X) X1, ... , Xn iid come X

V.a. discreta

E[Xr] = ∑xrf(x)

V.a. continua

E[Xr] = ∫xrf(x)

Mr = 1/m ∑Xri

Valore atteso di Mr è: E(Mr) = [E(1/m ∑xri)] = 1/m * ∑μr = 1/m * μr ≃ μr = μr

OSSERVAZIONE : Sn2 = 1/n ∑(Xi - XX)2 i termini (X1 - XX), (X2 - XX), ..., (Xn - XX) soddisfano un vincolo ∑(Xi - XX) = 0 quindi solo n-1 sono indipendenti

VARIANZA DI Sn2 NEL CASO DI POPOLAZIONE GAUSSIANA

Var (m / (n - 1) ∑ (Xi - X)2 ) = Var( Sn2 ) = 2 (n - 1) / n2 σ4

Var (m / n ∑ (Xi - X)2 ) = 2 / m (n - 1) / n2 σ4

MOMENTI DI Sn2 E S2 PER DISTRIBUZIONI QUALSIASI

Se esistono, qualsiasi con E[(X)2] < ∞, Var(X) < ∞

E(E[(X)]2) = µ2

E[(X)]2 = dispersione si utilizza la proprietà di una variabile Var(X) + E(X)2 - [E(X)]2 è la proprietà della variabile campionaria = m - 1

=> E[(X)]2+ E[(M+)]2- [E[(X)]2

E(XE[(n - 1)]) = X21 + ... + X2m / m2 = ∑ Xi = m2 μ2

Var[E[(X)] - [E[(X)])]2

E([X]3+ e Var([X])+[E[(X)]2]) = σ4+ μ4

E([Sn24+ μ4]= > S2 è uno stimatore distorto di G4

E(E(Sn2)) = E( m / (m - 1) ) = m E((E[(X)] - m / n --1/m ) G4 C4)

VARIANZA DI S2 PER POPOLAZIONI QUALSIASI

Var (S2) = 2 / m (n - 1) / m2

INEGUAGLIANZA DI JENSEN

FUNZIONI CONVEXE una funzione g: ( a, b ) -> R con ( a, b ) subsezione R è CONVEXA in ( a, b ) se il grafico di g

g (x) g ( x0 )

2) θE(x2) + 0 · (1-θ) + 1 · θ) = θ

3) i=1 |xi|

E(T2) = θ(2-θ)|01 + θ(|1=θ

= Var(x1) = 1 var(|x|

= E(|x2|σ2

E(|x2) = 1·20 · (1-θ) + 1 · θ = θ

4) E(T3 =

5)

= qunidi T2 non distorto per θ

6)

MSE (T2 = VarT2 rep

E[(x2)σ2

|x|1 + |x|

MSE (T2 = 1

MSE (T2 Var,

>> 1

si prende

Concettivmente : T1 non solo i dati, T2 più cachere

Osservazione quindi possiamoEfficienza: L'EFFICIENZA AUMENTA CON m

se T è tale che Var(T)=Im(θ)-1 allora T è l'unvue di θ

Misura di efficacia assoluta: eff(T) = [ Im(θ)-1 ] / Var(T)

0≤ eff(T) ≤ 1eff(T) = 1 sse Im(θ)-1 = Var(T)ovvero T è massimamente efficiente

Generalizzazione della disuguaglianza di Cramer e Rao

Si ha un primo stimatore T di r(θ) con r(θ) funzione derivabile regolare in θ. Simile si ha Var([r'(θ)Im(θ)])

Esempio

X~Bern(θ) θ = P(X=1) P(X=x) = θx (1-θ)1-x

X1 = (x1,...,xn) e.c. da X

Calcolo della funzione di bone, dell'informazione di Fisher e verifica che relative T l'unvue di θ

L(θ) = θ xi (1-θ)n-xi l(θ) = xi log θ + (n - xi) log (1-θ)

U(θ) = D log L(θ) = xi/θ - n-xi/(1-θ)

u' = u(il')}}

-Im(θ) = E( - D2 log L(θ) ) = E( xi/θ - n+xi/(1-θ) )= iE( EXi ) + n- iE( EXi )

1/θ - 1/(1-θ) = m [ 1/θ - 1/(1-θ) ]

• Im(θ) = m I(Θ)

Im(0) = m I(Θ)

I(θ) = - E [ ∫301 log f(x,θ)² ] - E [ ∫301 (x log θ + (1-x) log (1-θ))² ]

- E [ ∫301 (x log θ + (1-x) log (1-θ))² ] =

1/θ(1-θ) = m/θ(1-θ)

Dettagli
Publisher
A.A. 2020-2021
88 pagine
1 download
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Bacula di informazioni apprese con la frequenza delle lezioni di Statistica II e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Milano - Bicocca o del prof Borgoni Riccardo.