Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Statistica II
Popolazione: insieme dei possibili esiti che, a parità di condizioni, possono essere ottenuti da un esperimento (misurazione, rilevazione...)
- Pop. Finita (collettività finita)
- Pop. Infinita (modello probabilistico)
- Pop. Virtuale (modello probabilistico)
Campione: sottoinsieme (finito) degli elementi della popolazione
La teoria della probabilità fornisce modelli (popolazione di riferimento) per i fenomeni considerati
L’analisi descrittiva produce evidenze a sostegno di tali modelli basandosi sui dati rilevati
L’inferenza statistica permette di “risalire” dai dati osservati empiricamente alle caratteristiche del modello/populazione
Notazione generale: X1, X2, ..., Xn (nonisce) campione di numerosità n prima della sua osservazione x1, x2, ..., xn (misurate) campione di numerosità n dopo essere stato osservato
Li valore numerico
n = ampiezza del campione
Campione casuale: dato la v.c. X oggetto di studio, con distribuzione f(x), un campione casuale è l’insieme di v.c. X1, ..., Xn i.i.d. come X
- * le reunion model garantisce M-ulpem func.
X = f(x) X = X1, X2,..., Xn campione casuale da X (i.i.d. a X)
f(x1, x2, ..., xn) = f(x1)×f(x2)×...×f(xn)=∏if(xi) => f(x) è della distribuzione congiunta del campione
Dato popolazione di interesse sono molti i campioni estrabili:
Spazio campionario: insieme dei possibili campioni estraibili dalla popolazione di interesse
ricerca la distribuzione di X̄ tramite il metodo della funzione generatrice dei momenti
GX̄(t) = E[etX̄]= E[et(1/n) ∑xi]= E[Πiet(1/n)xi]= ΠiE[e(t/n)xi]= ΠiGX̄(t/n)
a parte si calcola GX̄(t) = etμ + (σ2t2/2)a parte si calcola e(t/n)μ + (σ2(t/n)2/2)
Conclusioni:
X̄ ~ N(μ, σ2/n)
Distribuzioni generali:
- X ~ N(μ, σ2)
- X1, ..., Xn indipedenti (non identicamente distribuite)
- ∑aiXi ~ N( ∑aiμi, ∑ai2σi2)
- Con ai, Xi v.a. qualunque
- E[ ∑aiXi] = ∑aiE[Xi]
- Se sono identicamente distribuite qualsiasi E[Xi] = μ ∀ i = 1, ..., n
- Posto ai = 1/n ottenniamo E[∑iXi] = E[ n-1 ∑Xi] = E[X̄] = μ (μ/n) = μ
Se Xi, ... , Xn sono v.c. qualsiasi e indipendenti:
var(∑aiXi) = ∑ai2var(Xi) + 2∑i<jaiajcov(Xi, Xj) = ∑ai2var(Xi)
Var(X̄) se Xi sono v.a. = ∑(1/n)2 * σi2
Se ai = aj = 1/n ∀ i, j = 1, ... , n)
Var(∑Xi: i=1, ... ,n) = σ2(∑ai2) = σ2/n = σ2/n
La distribuzione dei momenti campionari (solo momento primo)
x=f(X) X1, ... , Xn iid come X
V.a. discreta
E[Xr] = ∑xrf(x)
V.a. continua
E[Xr] = ∫xrf(x)
Mr = 1/m ∑Xri
Valore atteso di Mr è: E(Mr) = [E(1/m ∑xri)] = 1/m * ∑μr = 1/m * μr ≃ μr = μr
OSSERVAZIONE : Sn2 = 1/n ∑(Xi - XX)2 i termini (X1 - XX), (X2 - XX), ..., (Xn - XX) soddisfano un vincolo ∑(Xi - XX) = 0 quindi solo n-1 sono indipendenti
VARIANZA DI Sn2 NEL CASO DI POPOLAZIONE GAUSSIANA
Var (m / (n - 1) ∑ (Xi - X)2 ) = Var( Sn2 ) = 2 (n - 1) / n2 σ4
Var (m / n ∑ (Xi - X)2 ) = 2 / m (n - 1) / n2 σ4
MOMENTI DI Sn2 E S2 PER DISTRIBUZIONI QUALSIASI
Se esistono, qualsiasi con E[(X)2] < ∞, Var(X) < ∞
E(E[(X)]2) = µ2
E[(X)]2 = dispersione si utilizza la proprietà di una variabile Var(X) + E(X)2 - [E(X)]2 è la proprietà della variabile campionaria = m - 1
=> E[(X)]2+ E[(M+)]2- [E[(X)]2
E(XE[(n - 1)]) = X21 + ... + X2m / m2 = ∑ Xi = m2 μ2
Var≥[E[(X)] - [E[(X)])]2
E([X]3+ e Var([X])+[E[(X)]2]) = σ4+ μ4
E([Sn2-σ4+ μ4]= > S2 è uno stimatore distorto di G4
E(E(Sn2)) = E( m / (m - 1) ) = m E((E[(X)] - m / n --1/m ) G4 C4)
VARIANZA DI S2 PER POPOLAZIONI QUALSIASI
Var (S2) = 2 / m (n - 1) / m2
INEGUAGLIANZA DI JENSEN
FUNZIONI CONVEXE una funzione g: ( a, b ) -> R con ( a, b ) subsezione R è CONVEXA in ( a, b ) se il grafico di g
g (x) g ( x0 )
2) θE(x2) + 0 · (1-θ) + 1 · θ) = θ
3) i=1 |xi|
E(T2) = θ(2-θ)|01 + θ(|1=θ
= Var(x1) = 1 var(|x|
= E(|x2|σ2 E(|x2) = 1·20 · (1-θ) + 1 · θ = θ 4) E(T3 = 5) = qunidi T2 non distorto per θ 6) MSE (T2 = VarT2 rep E[(x2)σ2 |x|1 + |x| MSE (T2 = 1 MSE (T2 Var, >> 1 si prende Concettivmente : T1 non solo i dati, T2 più cachere Osservazione quindi possiamoEfficienza: L'EFFICIENZA AUMENTA CON m se T è tale che Var(T)=Im(θ)-1 allora T è l'unvue di θ Misura di efficacia assoluta: eff(T) = [ Im(θ)-1 ] / Var(T) 0≤ eff(T) ≤ 1eff(T) = 1 sse Im(θ)-1 = Var(T)ovvero T è massimamente efficiente Generalizzazione della disuguaglianza di Cramer e Rao Si ha un primo stimatore T di r(θ) con r(θ) funzione derivabile regolare in θ. Simile si ha Var([r'(θ)Im(θ)]) Esempio X~Bern(θ) θ = P(X=1) P(X=x) = θx (1-θ)1-x X1 = (x1,...,xn) e.c. da X Calcolo della funzione di bone, dell'informazione di Fisher e verifica che relative T l'unvue di θ L(θ) = θ xi (1-θ)n-xi l(θ) = xi log θ + (n - xi) log (1-θ) U(θ) = D log L(θ) = xi/θ - n-xi/(1-θ) u' = u(il')}} -Im(θ) = E( - D2 log L(θ) ) = E( xi/θ - n+xi/(1-θ) )= iE( EXi ) + n- iE( EXi ) 1/θ - 1/(1-θ) = m [ 1/θ - 1/(1-θ) ] • Im(θ) = m I(Θ) Im(0) = m I(Θ) I(θ) = - E [ ∫301 log f(x,θ)² ] - E [ ∫301 (x log θ + (1-x) log (1-θ))² ] - E [ ∫301 (x log θ + (1-x) log (1-θ))² ] = 1/θ(1-θ) = m/θ(1-θ)