Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
1) Dare la definizione di vettore aleatorio gaussiano standard e di vettore aleatorio gaussiano. Fornire le principali proprietà dei vettori gaussiani.
Un vettore aleatorio n = (z1; ... ; zn)T è gaussiano standard n-dimensionale se le z1, ..., zn sono v.a. gaussiane standard indipendenti.
Un vettore aleatorio n-dimensionale n è gaussiano se esistono una matrice A n x m, m ∈ ℝr e un vettore gaussiano standard n-dim. n tali che n = A n + m.
Sia n = A n + m vettore gaussiano r-dim. e C = AAT la matrice di covarianza di n, allora valgono le seguenti proprietà:
- Se cii > 0, allora la componente i-esimo xi è una gaussiana con xi ∼ (μi, cii). Se cii = 0 allora P(xi=μi) = 1.
- Se G è una matrice k x n e h ∈ ℝk allora k = G n + h è gaussiano con vettore delle medie Gm + h e matrice di covarianza GCGT.
- Se x1, ..., xn sono non correlate allora sono anche indipendenti.
Statistica - Teoria
2) Dare la definizione di funzione generatrice dei momenti di una variabile aleatoria e elencare le sue principali proprietà. Calcolare la fgm della V.A. X+Y, con X e Y indipendenti e con distribuzione esponenziale di media ϑ, giustificando i passaggi.
Sia X una VA per la quale esiste un intervallo aperto G contenente lo 0 tale che etx ammette media ∀t ε G. Allora la funzione :
mx(t) = E(etx) definita almeno ∀t ε 0 è la fgm di x.
Tutti gli altri momenti possono essere ottenuti derivando più volte mx nell'origine. Valgono le seguenti proprietà:
- Siano x e y vettori aleatori che ammettono fgm mx, my, allora le 2 fgm : Fx = Fy ⇔ se e solo se mx = my.
- Sia x̅ un vettore aleatorio che ammette mx̅ e siano mx le fgm marginali. Allora le componenti di x̅ sono indipendenti se e solo se mx̅ = mx1, mx2, …, mxn.
X e Y sono VA indipendenti 1/λ = ϑ λ = 1/ϑ, fx(x) = 1/ϑ e-1/ϑx.
Poiché sono indipendenti la fgm di x+y è data dal prodotto delle 2 funzioni generatrici mx+y(t) = mx(t) · my(t).
E(etx) = ∫0+∞ etx · 1/ϑ e-1/ϑx dx = ∫0+∞ e(t-1/ϑ)x dx =
= -1/ϑ (1/(t-1/ϑ)) ∫0+∞ [-(t-1/ϑ)x] e(-t-t-1/ϑ)x dx = -1/t-1/ϑ = 1/1-tϑ.
- consistenza: P(|X̅n−μ|>ε)→0 per n→+∞ ∀ε>0 : Pθ(|Dn - k(θ)|>ε)→0 per n→+∞, vale ∀ε>0 perciò è uno stimatore consistente.
- asintoticamente gaussiano per il TCC: P((X̅n−μ)√n/σ̂ ≤ x)→Φ(x) per n→+∞. Per "n grande" X̅n ≃ N(μ, σ2/n) qualunque sia la distribuzione delle xi (con media e varianza finita).
3) Descrivere brevemente il metodo di massima verosimiglianza per la stima di un vettore di parametri incogniti della popolazione.
Sia fθ una densità discreta o assolutamente continua dipendente da un parametro incognito θ (o da un vettore di parametri incogniti θ = (θ1,..., θk)). Sia x1,...,xn un campione aleatorio estratto da fθ; la densità del campione essendo le xi v.a. i.i.d. è:
L(θ) = Fθ(x1,...,xn) = L(x1,...,xn| θ) = ∏i=1n fθ(xi)
Supponiamo di osservare i dati x1 = x̄1, ..., xn = x̄n e consideriamo la funzione di θ, detta verosimiglianza del campione o likelihood
L(θ) = Fθ(x̄1,...,x̄n| θ) = ∏i=1n fθ(x̄i)
Se x1,...,xn sono v.a. discrete allora: L(θ) = ∏i=1n Pθ(xi = x̄i)
se assolutamente continue: L(θ) = ∏i=1n Fθ(x̄i).
Stima MLE → ˆθn = argmaxθ (L(θ)) = argmaxθ (∏i=1n fθ(x̄i))
Stimatore MLE → ˆθn = tn(x1,...,xn)
Descrivere il procedimento per ottenere un intervallo di confidenza unilatero, di livello \(1-\alpha\), per la varianza di una popolazione normale con media e varianza \(\alpha^2_0\) nota.
Costruiamo l’intervallo di confidenza per la varianza \(\alpha^2\) usando il fatto che \(\frac{(n-1)Sn^2}{\alpha^2} \sim \chi^2_{n-1}\) è una quantità pivotale perché funzione solo di \(\alpha^2\).
Se \(\alpha \epsilon (0;1)\) ho:
\(1-\alpha = P\left(\mu;\alpha^2\right) \left( \frac{(n-1)Sn^2}{\alpha^2} < \chi^2_{\frac{\alpha}{2};n-1} < \frac{(n-1)Sn^2}{\alpha^2} \right) =\)
\(P\left(\mu;\alpha^2\right) \left( \frac{(n-1)Sn^2}{\chi^2_{\frac{\alpha}{2};n-1}} < \alpha^2 < \frac{(n-1)Sn^2}{\chi^2_{\frac{\alpha}{2};n-1}} \right)
Per gli intervalli unilateri avrò:
\(1-\alpha = P\left(\mu;\alpha^2\right) \left( \frac{(n-1)Sn^2}{\alpha^2} \leq \chi^2_{\alpha; n-1} \right) = P\left(\mu;\alpha^2\right) \left(\alpha^2 > \frac{(n-1)Sn^2}{\chi^2_{\alpha; n-1}}\right)
ossia \(\left(\frac{(n-1)Sn^2}{\chi^2_{\alpha; n-1}} ; + \infty \right) \), intervallo illimitato superiormente.
\(1-\alpha = P(\mu;\alpha^2)\left(\frac{(n-1)Sn^2}{\alpha^2} > \chi^2_{1-\alpha; n-1} \right) = P(\mu;\alpha^2)\left(\alpha^2 < \frac{(n-1)Sn^2}{\chi^2_{1-\alpha; n-1}}\right)
ossia \((0 ; \frac{(n-1)Sn^2}{\chi^2_{1-\alpha; n-1}})\), intervallo illimitato inferiormente.
18) descrivere il procedimento per ottenere un test di livello α per le ipotesi H0: μ = 0 contro H1 : μ ≠ 0 dove μ è la media di un campione gaussiano x1, ... , xn di varianza σ02 = 1.
x1, ... , xn dove xi estratto da N(μ, σ2), voglio verificare:
H0: μ = μ0 = 0
H1: μ ≠ 0
Considero una regione critica del tipo:
c := { (x1, ... , xn) : | x̄n - μ0 | > k }
α = P(errore di I specie) = PH0 ( (x1, ... , xn) ∈ c ) = Pμ0 ( | x̄n - μ0 | ≥ k )
Se μ0 = 0 ho: x̄n ~ N(μ0, σ02 / n) → ( x̄n - 0 ) √n / 1 ~ N(0;1) quindi:
α = Pμ0 ( | x̄n - μ0 | / σ0/√n > k √n / σ0 ) = 2 Pμ0 ( ( x̄n - μ0) / σ0/√n > k √n / σ0 ) =
= 2P( z ≥ k √n / σ0 ) = 2P( z ≥ k √n / 1 ), risolvo rispetto a k:
P( z ≥ k √n / σ0) = α / 2 → k √n / σ0 = zα/2 per cui ottengo:
c := { (x1, ... , xn) : | x̄n - μ0 | √n / σ0 > zα/2 }.
Possiamo dunque concludere che un test di livello di significatività α