Teoria Statistica
Tipo 1
-
Quali sono i vantaggi del campionamento rispetto al censimento?
- riduzione costi
- risparmio di tempo
- maggiore qualità delle info
- maggiore quantità delle info
-
Elencare le proprietà della frequenza relativa fj
- 0 ≤ fj ≤ 1 ∀j=1,...,h
- ∑j=1h fj = 1
-
Elencare le proprietà della frequenza percentuale pj
- 0 ≤ pj ≤ 100 ∀j=1,...,h
- ∑j=1h pj = 100
-
Proprietà della frequenza assoluta nj
- 0 ≤ nj ≤ m ∀j=1,...,h
- ∑j=1h nj = n
-
Proprietà della media aritmetica
x̄ = (1/m) ∑i=1m xi
- internalità: x(1) ≤ x̄ ≤ x(m)
- somma a zero degli scarti: ∑i (xi - x̄) = 0
TEORIA STATISTICA
TIPO 1
(non è detto che ci sia)
- Quali sono i vantaggi del campionamento rispetto al censimento?
- Riduzione costi
- Risparmio di tempo
- Maggiore qualità delle info
- Maggiore quantità delle info
- Elencare le proprietà della frequenza relativa fj
- 0 ≤ fj ≤ 1 ∀ j = 1,...,k
- k∑j=1 fj = 1
- Elencare le proprietà della frequenza percentuale pj
- 0 ≤ pj ≤ 100 ∀ j = 1,...,k
- k∑j=1 pj = 100
- Proprietà della frequenza assoluta mj
- 0 ≤ mj ≤ m ∀ j = 1,...,k
- k∑j=1 mj = n
- Proprietà della media aritmetica
- ̄x = 1/m · m∑i=1 xi
- Intensità: x(u) < ̄x < x(m)
- Somma a zero degli scarti: m∑i=1 (xi - ̄x) = 0
- somma dei quadrati degli scarti è minima1
- 1
- invarianza alle trasformazioni lineari2
- associatività, obtiamo la ope
- definizione la mediana x0
- 1) internazionali(x), x →
- 2) x0 = minim c∑
- 3) distribuzione x = di de -
- proprietà della varianza(x)
- v(x)=
- definizione la mediana x0
- v(x) > 0
- v(x)= 0 e
- se yi = a + bx
Proprietà della SD
- SD(x) > 0
- SD(x) = 0 se x è costante
- ∀i, i = a + bx ⇒ SD(y) = |b| SD(x)
Definire il k-esimo percentile
xp è quel valore t.c. F(xp) = p
Tipo 2 (c'è ma sempre 1)
Sia dato uno spazio di probabilità Σ e sia A un evento di Σ, indagare le proprietà della funzione di probabilità P(A)
- 0 ≤ P(A) ≤ 1
- P(∅) = 0 , P(Σ) = 1
Enunciare il postulato empirico del caso (cioè del frequentismo della probabilità)
In un gruppo di prove ripetute più volte nelle stesse condizioni, ciascuno degli eventi A presenta con una frequenza relativa che tende alla probabilità dell'aumento del numero di prove
P(A) = M/M + ε, dove ε → 0 per m → ∞
Elencare i postulati del calcolo delle probabilità
- Gli eventi formano un'algebra (di Boole)
- ∀A ⊆ Σ P(A) ≥ 0
- P(Σ) = 1
- ∀ A, B disgiunti: A∩B = ∅, la loro unione P(A∪B) = P(A) + P(B)
TIPO 3
- Definire in generale il supporto di una VC x
Il supporto SX è l'insieme dei possibili valori che la VC x può assumere
- Definire in generale il valore atteso di una VC x
E(x) = Σx∈Sx x P(X=x)
- Elencare le proprietà del valore atteso
- xmin ≤ E(x) ≤ xmax
- E[x - E(x)] = 0
- E(x) = argminc E[(x-c)2]
- Se y = a + bx allora E(y) = a + bE(x)
- Elencare le proprietà della funzione di prob. f(x)
- 0 ≤ f(x) ≤ 1
- Σx∈Sx f(x) = 1
- Elencare le proprietà della funzione di ripartizione F(x)
F(x) = P(X ≤ x)
- Monotonia: ∀x1 < x2, F(x1) ≤ F(x2)
2)0
limx→−∞F(x)=0, limx→+∞F(x)=1
3)
continuità a dx
limx→x0+ F(x)=F(x0)
(la funz. ci ripeteremo più fort. anche i der.)
4)
P(a<x≤b) = F(b) - F(a)
Definire la V.C Bernoulli e tutte le sue proprietà
X ~ Ber (π)
- X = {0, 1}
- f(X) = πX (−π)1−X oppure f(X) = {bπ ,͠se Χ=11−π, se Χ=0}
- Θ = [0, 1], cioè 0≤π≤1, dove m∈ℤ+
- E(X) = π
- V(X) = π(1-π)
Definire la binomiale con tutte le sue proprietà
X ~ Bin (m, π)
- X = {0, 1, ..., m}
- f(x) = ( mx) πx (1−π)m−x
- Θ = [0, 1], cioè 0≤π≤1, dove m∈ℤ+
- E(X) = mπ
- V(X) = mπ(1-π)
- Proprietà riproduttiva della binomialesono Χ1, ...,ΧkV.C indi. pendenti, dove Χi ~ Bin (ℳ, π)posto ℒ = Χ1 + ... + Χk, alloraℒk ~ Bin (ℓk + ... + ℓk, π)
1. Definire la Poisson con tutte le sue proprieta
- SX = {0, 1, 2, ..., n}
- fX(x) = 1/x! λx e-λ
- Θ = ℝ+, cioe λ > 0
- E(x) = λ
- V(x) = λ
- Proprieta riproduttiva: siano x1, ..., xm m VC indip. ident. dove xi ~ Poiss(λi) , Sm = x1 + ... + xm ~ Poiss(λ1 + ... + λm)
2. Definire la Normale con tutte le sue proprieta
- Sx = ℝ, cioe (-∞, +∞)
- fx(x) = 1/√(2π)σ² e-½ (x-µ/σ)²
- Θ = ℝ x ℝ+, cioe Θ = { -∞ < µ < +∞ ; 0 < σ² < +∞ }
- E(x) = µ
- V(x) = σ²
- X ~ N(µ, σ²), Y = a + bX → Y ~ N(a+bµ, b²σ²)
- X ~ N(µx, σx²) , Y ~ N(µy, σy²)
- X e Y indipendenti → X + Y ~ N(µx + µy, σx² + σy²)
Proprieta della normale
Definire la variabile χ2 (Chi-Quadro)
Siano z1, ..., zm m VC IID, dovezi ~ N(0,1)
- χ12 = z12 + ... + zm2 = ∑i=1m zi2
- Sm = ℝ+
- Θ = { 1, 2, ..., } = m, dove m sono i gradi di libertà
- E(χ12) = m
- V(χ12/m) = 2m
Definire la t-Student
Sia Z ~ N(0,1), con y ~ χ2m,Z e y indipendenti
- tm = Z/√(y/m)
- Stm = ℝ
- è campanulare, simmetrica rispetto allo zero, e con code più alte rispetto alla Normale e l'andamento dipende dai gradi di libertà
- E(tm) = 0
- V(tm) = m/(m-2)
- Θ = { 1, 2, 3, ..., m }
TCL per la somma
Def: sono \( x_1, x_2, \ldots, x_m \) m VC IID, t.c.
\( V(x_i) = \sigma^2 \) e \( E(x_i) = \mu \)
posso
\( S_m = x_1 + x_2 + \ldots + x_m \)
allora,
\( S_m \sim N(m \mu, m \sigma^2) \)
Osservazioni:
- \( E(S_m) = E(x_1 + x_2 + \ldots + x_m) \) \( = E(x_1) + E(x_2) + \ldots + E(x_m) \) ma visto che sono IID, il valore di \( E = \mu \) \( = \mu + \mu + \ldots + \mu = M\mu \)
- \( V(S_m) = V(x_1 + x_2 + \ldots + x_m) \) \( = V(x_1) + V(x_2) + \ldots + V(x_m) \) \( = \sigma^2 + \sigma^2 + \ldots + \sigma^2 \) \( = m \sigma^2 \) quindi fare \( \sqrt{m} \sigma \)
- Se \( x_1, x_2, \ldots, x_m \) fossero tutte normali indipendenti \( x_i \sim N( \mu, \sigma^2 ) \) \( S_m \sim N(m \mu, m \sigma^2 ) \)
TCL per la media
Def: siano \( x_1, x_2, \ldots, x_m \) m VC IID t.c.
\( E(x_i) = \mu \) e \( V(x_i) = \sigma^2 \)
posso
\( \overline{x} = \frac{x_1 + x_2 + \ldots + x_m}{m} = \frac{S_m}{m} \)
allora
\( \overline{x} \xrightarrow{a} N \left( \mu, \frac{\sigma^2}{m} \right) \)
OSSERVAZIONI:
1o. E(x) = E(M) = 1⁄m E(Sm) = 1⁄m E(cSm) = mu⁄m = u
2o. V(x) = V(M) = V(Sm⁄m) = 1⁄m2 V(Sm) = 1⁄m2 var s2 = S2⁄m2
....
TCL per la PROPORZIONE (o fateri relat trebui)
Det: Siamo x1, x2, ..., xm a VC di Bernoulli (o di coloniiche); xi ~ Bern (prog)
poso
- = x1 + x2 + .... + xmm
Inoltre
- ~ N (u, uu(1-u)⁄m)
----------
TIPO 5
Induzione il volore atteso e varianza della media campionia ne del caso di un campionamento casuale semplice senza nēimmirtione (OOS-SLE)
E(x̄) = Su2 ⁄m
V(x̄) = O2⁄m [N - m⁄N - 1]
in cui N è la numerasita tole defta popolnecione
..........
Deservere le propriete desideraili per cue vtinatoren per un esseroso
1O CORRETTEZZA: Se h uno enmmatorio per m, uh e corretto se e solo se E(h) = o
2O EFFICIENZA
—Se h stimatore per ufl, e uk≠0 e h ha piena efficienza se CE(h-ref) = 1, w⁄ornost ≠ u
h ha piena efficienza se CE(h) = C⁄E(81)
.....
Definire l'errore quadratico medio (MSE) di uno stimatore e le sue decomposizione
MSE(h) = E[(h - θ)2] = V(h) + β2(h) dove β(h) = E(h) - θ
Se h è corretto, MSE(h) = V(h).
Definire le proprietà asintotiche degli stimatori (solo per m → ∞)
Sia h uno stimatore per θ:
- Correttezza asintotica: h è corretto asintotico se
E(h) → θ
m → ∞
- Consistenza: h è consistente (in media quadratica) per θ, se
MSE(hm) → 0
m → ∞
V(hm) → 0 , β2(hm) → 0
m → ∞
-
Riportare le proprietà degli stimatori di massimo verosimiglianza
Sia Θ̂ uno stimatore di massimo verosimiglianza per Θ:
- E(Θ̂) → Θ
m → ∞
- V(Θ̂) → I-1(Θ) (dove I-1 è la minima varianza possibile)
m → ∞
- Θ̂ ≃ N(Θ, I-1(Θ))
- È invariante alle trasformazioni monotone, cioè se
ψ = g(Θ) → φ = g(Θ̂) ∀ g incompleta
dove si può scrivere g(Θ̂) = g(̂Θ)
Definire e spiegare gli errori del I e del II tipo
Accetto H0 Accetto H1 Ho vera Errore I tipo α Ha vera Errore II tipo β
Errore I tipo è rifiutare H0 quando è vera e si commette con probabilità α
Errore II tipo è accettare H0 quando è falsa e si commette con probabilità β
Definire la potenza del test
Accetto H0 Accetto H1 Ho vera Errore I tipo α Ha vera Errore II tipo β
La potenza del test è 1-β ovvero la probabilità di accettare H1 quando è vera
Definire il livello di confidenza
Il livello di confidenza della stima di un parametro θ è la "fiducia" che si ripone nel fatto che l'intervallo di confidenza cada sul parametro. In altri termini è la probabilità che il tale contenga θ. 1-α = P(θ ∈ IC) = P(θ| X̄ ± zα se(X̄)) = P(θ ∈ (H(X̄) ± hseX̄))
Riportare la definizione del livello di significatività di un test statistico specificando il suo significato
P(T > tos | H0 vera)
Distinzione tra SD e SE
SD(x): σ = √(1/m Σ (xi - ̅)2)
SE(θ̂) = √V(θ̂)
SE = σ/√m
V(̅) = σ2/m
Importante la definizione di funzione di verosimiglianza
sia f(x, Θ), un modello e sia x1, ..., xm i componenti, si definisce la funzione di verosimiglianza per Θ
L(Θ) ∝ ∏i=1m f(xi, Θ)
... e misura la verosimiglianza dei valori Θ alle basi
Tipo 8
Elencare e descrivere gli assunti del modello di regressione
- = 0 + + corretta specificazione
- E() = 0
- V() = 2 ∀, omoschedasticità
- COV(, ) = 0, esogeneità
- La covarianza tra i vari residui è nulla COV(, ) = 0 ∀ ≠ , i residui sono tra loro indipendenti
- ∼ (, 2) ⟷ ∼ (0, , 2)
Elencare e descrivere le proprietà degli stimatori della retta di regressione
- ̂0 e ̂1 sono stimatori corretti E(̂0) = 0 , E(̂1) = 1
- Teorema di Gauss-Markov Nella classe degli stimatori corretti per 0 e 1, ̂0 e ̂1 hanno varianza minima
Indicare le proprietà del coefficiente di correlazione
- -1 ≤ ≤ 1
- è un numero puro
- è simmetrico =
- è invariabile alle trasformazioni lineari = + ⟶ [ℎ | ]
5. Rxy misura l'associazione lineare tra x e y; se l'associazione è non lineare allora R non funziona.
• Descrivere l'analisi dei residui nella verifica degli assunti del modello di regressione
ei = yi - ŷi = yi - (β0 + β1 x̄i)
- 1) E(ei) = 0
- 2) V(ei) = σ2 costante si osserva la nube dei residui e si valuta se questi hanno una forma oblungata
- 3) COV(ei, ej) = 0
- 4) COV(ei, x) = 0
- 5) ei ~ N(0, σ2) si verifica osservando l'istogramma dei residui, se tale istogramma assomiglia
• Riportare la scomposizione della varianza della variabile y e lo schema di analisi della varianza nel modello di regressione
TSS = RSS + ESS
TSS = mΣi=1 (yiA - y̅)2
residual sum of squares → RSS = nΣi=1 (yi - ŷi)
explained sum of squares → ESS = mΣj=1 (ŷj - ÿj)2
Schema di analisi della varianza
SS GDL Var. stimatore F Regressione ESS 1 ESS/1 (ESS/1) / (RSS/m-2) Residua RSS m - 2 RSS/m-2