Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
MODELISTICA E IDENTIFICAZIONE
Il corso è suddiviso in 3 parti:
- Statistica descrittiva: media, varianza, dissymmetria, curtosi, percentili, test statistici di ipotesi
- Statistica inferenziale: Si tratta di analizzare un campione di dati e da questo inferire tutte le proprietà del campione
- Modelli regressivi e analisi di serie temporali
Statistica descrittiva
Consideriamo un apparato di produzione di supporti in ferro.
La qualità del prodotto è definita in termini di carico di rottura (kg/cm2).
Si esamina un lotto di N = 100 pz
X = "carico di rottura" kg/cm2
N = 100
Vogliamo sapere se il processo di produzione soddisfa la specifica del carico di rottura. Ovviamente NON possiamo effettuare una prova distruttiva su tutta la produzione ma preso il campione N = 100 possiamo definire una certa tolleranza percentuale.
Mediana
La mediana fornisce il valore di X che divide la distribuzione in due classi contigue di frequenza 0.5 (esattamente a metà).
Il calcolo è il seguente:
m = a + (P/C) (b-a)
dove:
- [a,b] -> Intervallo classe centrale
- P -> Posizione centrale
- C -> Popolazione classe centrale
Dall'esempio:
m = 70 + (16/29) (80-70) = 75.517
Δ 50 - 34 = 16
Σ Elementi prima della classe centrale
4 + 10 + 20 = 34
Moda
Valore di X per cui si ha un massimo locale della frequenza relativa.
Si intende cioè, il valore di X che si ripete più frequentemente. Quando si ha un solo massimo si parla di distribuzione unimodale; se ve ne sono diversi multimodale (bimodale se ve ne sono 2).
- Monomodale
- Bimodale: 2 sottogruppi significative
- Data una TRASFORMAZIONE AFFINE
Y = aX + b
notiamo che questa è una combinazione delle prime due 1* M∑ Myiπi = ∑(axi + b)πi i=1 i=1 = ∑axiπi + ∑bπi = a∑xiπi + b∑πi = ai=1 i=1 i=1 i=1 = aμx + b·1
ŷy = aŷx + b
2* σ2y = ∑(yi - ŷy)2πi = ∑(axi + b - aŷx - b)2 = a2 M M = a2∑(xi - ŷx)2πi Mi=1
σy = aσx
La TRASFORMAZIONE AFFINE è importante poiché consente di effettuare la STANDARDIZZAZIONE di una v.a. X ovvero la trasformazione di X in X'
X' = (X - μx) / σx
con stesso tipo di distribuzione ma μ0x = 0 e σ2x = 1.
che corrisponde ad una TRASFORMAZIONE AFFINE con a = 1 b = -μx σx σx
Y = X - μx = 1X - μx
σx = 1σx
ESEMPIO APPLICATIVO 1
Un'azienda deve decidere tra diversi tipi di investimento riguardo alla produzione e vendita di un caro prodotto.
Abbiamo 5 possibili strategie
- X1: utili annui
- πi: freq. relative
Dalla semplice ispezione dei dati non riusciamo a decidere la strategia.
Una buona politica è scegliere l'investimento che comporti mediamente i migliori guadagni annuali.
- * S1, μX=4000=Σ
- * S2, μX=3700
- * S3, μX=2900
- * S4, μX=4000
- S5, μX =2400
Quale scegliere tra S1 e S2?
Calcoliamo la VARIABILITÀ: σ²=Σ(x-μ)²π
- σ1² = (0-4000)²•0.8+(20000-4000)²•0.2=
1280000 + 5120000
- σ5=8000
σ2=0
È più utile rappresentare X, anziché come valore assoluto, come
X - mX / σX
In questo modo in base alla grandezza di λ posso valutare la dispersione della distribuzione.
Esempio
- X̄ = 30, X = 15 → σ̄X = 5
- λ ↓ dispersione ↑
- X̄ = σX, X = 15 → σ̄X = 15
- λ ↑ dispersione ↓
Il valore di X che risolve il problema λ = λε1 è chiamato percentile ε1, o λε1*.
In una distribuzione si è interessati a eventi del tipo
| X - mX | / σX > λε1
con probabilità
P ( | X - mX | / σX > λε1 ) = ε1.
λεi viene calcolato sempre in riferimento alla V.A. standardizzata X - mX / σX e rappresentano i valori in ascissa per cui l'evento ha il εi, di probabilità.
- t ∈ (-∞, +∞)
- SIMMETRICA
- UNIMODALE
- C >> 0, LEPTOCURTICA
All'aumentare dei gradi di libertà somiglia sempre più ad una gaussiana.
MOMENTI DISPARI NULLI
- MOMENTI PARI (υ > 2) dati da
E(t2k) = 1⋅3⋯(2k-1)υk/(υ-2)(υ-4)⋯(υ-2k)
per cui σx2 = υ/υ-2
L'INTERVALLO BILATERALE è -tυ,ε/2 ≤ t ≤ tυ,ε/2
essendo P(-tυ,ε/2 ≤ t ≤ tυ,ε/2)= 1 - ε.
In generale
P(μx - λσx ≤ X ≤ μx + λσx)
|X - μx|/σx ≤ λ
Poi: μx - λσx ≤ X ≤ μx + λσx
Analizzo una parte:
X - Μx/σx ≤ λ
Guardiamo graficamente cosa succede
- RISPETTO 1a CURVA
pΔx(1)
μ1 Δx χ μ2
- RISPETTO 2a CURVA
pΔx(2)
La 1a prob. pΔx(1) comprende anche pΔx(2) da cui si può dedurre chepΔx(1) > pΔx(2)
Questa regola funziona fino al punto di intersezione delle due curve, motivo per cui diciamo che
{
- χ̅ ≥ χ0 malato
- χ̅ < χ0 sano
con χ0 punto di intersezione.
Le due situazioni sopracitate sono le più verosimili.