Estratto del documento

Varianza

Varianza è la media degli scarti al quadrato dalla media aritmetica, infatti si indica con σ2.

σ2 = 1ni=1n (Xi - X)2

Misura il grado di dispersione delle modalità intorno alla loro media. σ2 = 0 implica che è stata rilevata una sola modalità (nessuna eterogeneità). All'aumentare della varianza, si ingrossano le code della distribuzione. Quando σ2 è sotto radice √σ2 assume il significato di deviazione standardσ = √σ2.

Entropia

Entropia vuol dire disordine, quindi variabilità. Si lavora su scala logaritmica.

Si ricorda che: logab = b → eb = a (a>0). Il log è l'esponente al quale bisogna elevare la base per ottenere l'argomento. La funzione logaritmo è crescente in X!

Indice di entropia

E = -∑k=1K fk loge fk

Esempio

Classe fk loge fk fk loge fk
-10 0.60 -3.22 0.13
-6 0.20 -1.14 -0.36
-2 0.20 -0.87 -0.36
2 0.60 -1.71 -0.31
6 1.00 -3.22 -0.13
Total -1.29

L'entropia di questa distribuzione di frequenze è: E = +1.29. Il segno va cambiato perché nella formula è presente il - davanti!

Anteprima
Vedrai una selezione di 1 pagina su 1
Statistica - Entropia Pag. 1
1 su 1
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Fra.M di informazioni apprese con la frequenza delle lezioni di Statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi Roma Tre o del prof Lagona Francesco.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community