Varianza
Varianza è la media degli scarti al quadrato dalla media aritmetica, infatti si indica con σ2.
σ2 = 1⁄n ∑i=1n (Xi - X)2
Misura il grado di dispersione delle modalità intorno alla loro media. σ2 = 0 implica che è stata rilevata una sola modalità (nessuna eterogeneità). All'aumentare della varianza, si ingrossano le code della distribuzione. Quando σ2 è sotto radice √σ2 assume il significato di deviazione standard → σ = √σ2.
Entropia
Entropia vuol dire disordine, quindi variabilità. Si lavora su scala logaritmica.
Si ricorda che: logab = b → eb = a (a>0). Il log è l'esponente al quale bisogna elevare la base per ottenere l'argomento. La funzione logaritmo è crescente in X!
Indice di entropia
E = -∑k=1K fk loge fk
Esempio
| Classe | fk | loge fk | fk loge fk |
|---|---|---|---|
| -10 | 0.60 | -3.22 | 0.13 |
| -6 | 0.20 | -1.14 | -0.36 |
| -2 | 0.20 | -0.87 | -0.36 |
| 2 | 0.60 | -1.71 | -0.31 |
| 6 | 1.00 | -3.22 | -0.13 |
| Total | -1.29 |
L'entropia di questa distribuzione di frequenze è: E = +1.29. Il segno va cambiato perché nella formula è presente il - davanti!
-
Statistica descrittiva
-
Formulario statistica
-
Statistica - Indice di Entropia
-
Appunti meccanica statistica