Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
STATISTICA DESCRITTIVA
FREQUENZA ASSOLUTA fa:
QUANTE VOLTE COMPARE Xi NEL DATASET
FREQUENZA ASSOLUTA CUMULATA Fa:
SOMMA DI TUTTE LE fa FINO ALLA CLASSEO ELEMENTO Xi
FREQUENZA RELATIVA fr:
FREQUENZA ASSOLUTA FRATTO NUMERO DI OSSERVAZIONI fa / n 0 ≤ fr ≤ 1
FREQUENZA RELATIVA CUMULATA Fr:
SOMMA DI TUTTE LE fr FINO ALLA CLASSEO ELEMENTO Xi 0 ≤ Fr ≤ 1
MEDIA CLASSICA:
X̄ = N∑i=1 Xi / N
PESO Xi = 1 / N
MEDIA PER DATI CUMULATI
X̄ = M∑i=1 (Mj Yj) / N = ∑ (fj) Yj
Yj = CLASSEMj = N ELEMENTI DELLA CLASSEfj PESO Mj / N
VARIANZA σ²:
σ² = ∑ (Xi - X̄)² / N
VARIANZA PER DATI CUMULATI
σ² = Σ (ŷ₁ - x̄)² mi / N
σ² = Σ f(ŷj) (ŷj - x̄)²
SCARTO (DEVIAZIONE STANDARD) σ:
σ = √Σ (xi - x̄)² / N
RELAZIONE MEDIA - VARIANZA
σ² = E(xi²) - E²(xi)
QUANTILI, QUARTILI, PERCENTILI
1° QUARTILE / 0,25 QUANTILE / 25 PERCENTILE
NUMERO ENTRO IL QUALE LA FREQUENZA RELATIVA CUMULATA VALE 0,25
2° QUARTILE / 0,5 QUANTILE / 50 PERCENTILE / MEDIANA
= 0,5
3° QUARTILE / 0,75 QUANTILE / 75 PERCENTILE
= 0,75
STANDARDIZZAZIONE DATI:
zi = (xi - x̄) / σ → E(zi) = 0
σ²(zi) = 1
Teorema Probabilità Totale
Bi partizioni dell'evento certo
Bi ∩ Bj = 0 , ⋃Bi = Ω
P(D) = ∑i=1m P(D|Bi) · P(Bi)
Legge di Probabilità delle Cause (Bayes)
P(Bi|D) =
P(Bi ∩ D)/P(D)
= (P(D|Bi) · P(Bi)) / ∑k=1m P(D|Bk) · P(Bk)
MEDIA E VARIANZA NELLE V.A.
- Σx xi PX(xi)
- ∫R x fx(x) dx
VARIANZA
- Σx (xi - μ)2 PX (xi)
- ∫R (x - μ)2 fx(x) dx
QUANTILI NELLE V.A.
q QUANTILE: MINIMO ξq DEI VALORI ξi TALE CHE P(X ≤ ξ) ≥ q
MODA
DISCRETE: PUNTO IN CUI LA LEGGE DI PROBABILITÀ È MASSIMA
CONTINUE: PUNTO DI MASSIMO DELLA FUNZIONE DI DENSITÀ
Legge dei Grandi Numeri
∀ ε limm→∞ P(|Xm - μ| < ε) = 1
Per numeri molto elevati di osservazioni:
- Xm → μ
- frel → ρ
Stima(tore) (T) di parametro (θ)
Funzione del campione (funzione stimatrice) che usiamo per stimare il parametro
Nota: Lo stimatore non deve contenere θ ma la sua distribuzione deve dipendere da θ.
Correttezza e Consistenza Asintotica
E(Tm) = θ → Stima corretta
limm→∞ E(Xm) = θ → Stima asintoticamente corretta
Media e Varianza Campionaria
Xm = ∑xi / m
Sm2 = m ∑(xi - μ)2
Sm2 = 1/(m-1) ∑(xi - Xm)2
Sm*2 = 1/m ∑(xi - Xm)2
P( | x̄m-μ / s / √m | ≤ α ) = γ
Nota
S = √ (1 / m-1) { Σ (xi - x̄i)2 }
x̄m - s / √m tm-1 (1 + γ / 2) ≤ μ ≤ x̄m + s / √m tm-1 (1 + γ / 2)
Intervallo di confidenza per la varianza
Media ignota
Stimatore:
S2m / m-1 Σ (xi; x̄m)2
Qta pivotale:
(m-1) S2m / σ2 ~ χ2 m-1
P( a < (m-1) S2m / σ2 ≤ b) = γ
Media nota
Stimatore:
S20 = 1 / m Σ (xi - μ )2
Qta pivotale:
m S20 / σ2 ~ χ2 m
P( a < m S20 / σ2 ≤ b) = γ
Stima di q̂0
Stima puntuale
q̂0 = b̂0 + b̂1 x0
Intervallo di confidenza
b̂0 + b̂1 x0 ± tm-2 √[((1 + 1/m) + (x0 − x̄)2 / Sxx)] (SSE/m-2)
Notare che la semiampezza minima si ha per x0 = x̄
Modeliazione lineare binariata
y = b0 + b1 x1 + ... + bk xk + ϵ
ϵ ~ N(0,σ²)
[ 1 x1,1 x2,1 ... xk,1 1 x1,2 x2,2 xk,2 1 x1,3 x2,3 xk,3 ... 1 x1,m x2,m xk,m ] = [1 x1 x2 ... xk]
[ y1 y2 ym ] = X b + ϵ
Rumori gaussiani
ϵ = [ ϵ1 ϵm ] ~ [N(0,σ12) Nm(0,σm2)]
1 = Σ(xi - x̄)(yi - ȳ)/Σ(xi - x̄)2
0 = ȳ - b1x̄
Nota: sono variabili aleatorie stimatori di b0 e b1
S(b0, b1) = Σ (yi - (b1xi + b0))2
Rappresentazione Grafica
q = b0 + b1x + ε
ε ~ N(0, σ2)