Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
DEVIANZA
È una misura di variabilità di una distribuzione. È data dalla somma degli scarti dalla media
aritmetica al quadrato. È il numeratore della varianza.
VARIANZA
È definita come la media aritmetica del quadrato degli scarti dalla media.
Per praticità di calcolo può essere anche calcolata come la differenza di due medie al quadrato.
Lo scarto quadratico medio o deviazione standard è dato dalla radice quadrata dal rapporto
tra varianza e numerosità del campione ovvero dalla radice quadrata del risultato finale che
ottengo per la varianza. JACOPO G.
JACOPO G.
Se si aggiunge a tutti i campioni una costante es. k=2 il risultato non cambia. Vedi ultima
ing sopra.
INTERVALLI DI VARIAZIONE
Campo di Variazione: è la differenza tra il valore massimo e quello minimo della distribuzione:
Xmax - xmin
La sua utilizzazione è molto limitata; È influenzata dai valori anomali.
Differenza interquartile: è data dalla differenza tra il terzo e il primo quartile.
BOX PLOT JACOPO G.
JACOPO G.
Il box plot consente con un colpo d’occhio di valutare:
• Il valore della tendenza centrale
• La dispersione che dipende dall’ampiezza del rettangolo
• La simmetria, infatti se i dati sono simmetrici si ha una perfetta distribuzione tra sx e dx
• l’asimmetria nelle distribuzioni simmetriche positive si ha un box plot piu spostato a sx
• in quelle negative piu a dx
INDICI DI VARIABILITÀ RELATIVA
Sono indipendenti dall’unità di misura e permettono di fare confronti.
E’generalmente espresso in termini percentuali, consente di effettuare confronti fra diverse
distribuzioni per fenomeni omogenei.
Si calcola:
Scarto quadratico (dato dalla radice quadrata dal rapporto tra varianza e numerosità del
campione ovvero dalla radice quadrata del risultato finale che ottengo per la varianza) : media
Anche per i caratteri qualitativi esiste un concetto simile alla variabilità:
La mutabilità: è l’attitudine di un fenomeno qualitativo ad assumere diverse modalità.
Tra gli indici di mutabilità vanno ricordati gli indici che misurano l’omogeneità e per negazione
l’eterogeneità.
Un insieme si dice omogeneo rispetto ad un carattere se tutte le unità presentano la stessa
modalità, per contro se le unità statistiche tendono a distribuirsi in maniera uniforme si parlerà di
insieme eterogeneo.
INDICI DI FORMA
LA SIMMETRIA
per sintetizzare una distribuzione oltre agli indici di posizione e variabilità possono essere usati
anche gli indici di forma; sono indici descrittivi che mettono in evidenza ulteriori aspetti della
variabilità di un fenomeno.
Una distribuzione si dice simmetrica se le modalita equidistanti dalla mediana presentano la
stessa frequenza (cioè se ci sono tante modalità a sx quante a dx) (assoluta/relativa) cioè se
x’-med = x”-med e le loro frequenze sono n’ = n”
Nel caso di un grafico risulta diviso in due parti uguali specularmente (sull’asse orizzontale x).
JACOPO G.
JACOPO G.
Se una distribuzione unimodale è simmetrica la media, mediana e moda coincidono,
viceversa non vale.
Tenuto conto che la mediana è il centro della simmetria ed è un valore interno alla moda e alla
media se la distribuzione non è simmetrica si hanno le seguenti situazioni:
Uno degli indici di asimmetria più noti è il Skewness di Pearson: y= media - moda : varianza
Se:
Y>0 la distribuzione asimmetrica è positiva
Y<0 è negativa
Y=0 simmetrica
Inoltre Pearson propose un altro indice di asimmetria che utilizza il concetto di momento centrale
rispetto alla media aritmetica definito ‘momento centrale di ordine r’ (rispetto alla media aritmetica).
Un altro indice è il coefficiente di Fisher-Pearson.
Data una forma campanulare (a forma di campana)
JACOPO G.
JACOPO G.
Non tutte le distribuzioni a forma di campana sono normali, si possono verificare due forme:
- ipernormale : la forma della distribuzione è piu allungata
- iponormale : è piu appiattita
Per misurare questo grado di disnormalità viene impiegato il coefficiente di curtosi di Pearson.
y = momento quarto : quadrato della varianza
La curtosi rappresenta quindi lo schiacciamento della campana della distribuzione:
• un valore negativo indica una distribuzione più schiacciata (platicurtica)
un valore positivo più appuntita (leptocurtica)
•
LE RELAZIONI STATISTICHE INDIPENDENZA IN MEDIA
Esiste indipendenza in media tra due variabili statistiche se e solo se si verifica la seguente
condizione:
MEDIE PARZIALI UGUALI TRA LORO = MEDIA GENERALE
Un indice relativo di dipendenza in media è il rapporto di correlazione di Pearson. Esso è
uguale al rapporto della devianza di x e la devianza di Y e varia tra 0 e 1.
L’indipendenza in media non è un concetto simmetrico.
INDIPENDENZA CORRELATIVA
Si ha concordanza tra due variabili se a valori più piccoli di X corrispondono in media valori più
piccoli Y e a valori più grandi di X corrispondono in media valori più grandi di Y.
Nel caso contrario si ha discordanza.
Due variabili si dicono quindi perfettamente correlate se il coefficiente di correlazione è pari
a 1 in valore assoluto.
La codevianza (covarianza) è una misura di concordanza tra X e Y.
La codevianza: è la somma dei prodotti degli scarti dei due carattere X e Y.
La covarianza: è la codevianza divisa per n.
La Covarianza e Codevianza sono:
• Positive se prevalgono i prodotti degli scarti concordi
• Negative se prevalgono i prodotti degli scarti discordi
• Misure simmetriche JACOPO G.
JACOPO G.
• La loro unità di misura è data dal prodotto dell’unità di
misura di X e Y
Cod (X,Y)>0 CONCORDANZA
All’aumentare di X la Y aumenta(variano nello stesso senso)
Cod (X,Y) < 0 DISCORDANZA
All’aumentare di X la Y diminuisce (variano in senso opposto)
Cod (X,Y)=0 INDIPENDENZA CORRELATIVA
All’aumentare di X non vi è alcun mutamento della Y (indifferenza).
Per misurare la concordanza o la discordanza tra le due variabili, si utilizza il coefficiente di
correlazione lineare di Bravis-Pearson che fornice una misura del grado di correlazione lineare
reciproca che esiste tra le due variabili X e Y
Il coefficiente di correlazione è un numero puro, che varia tra -1 e 1 ed ha il segno algebrico
della codevianza.
LA RETTA DI REGRESSIONE
La regressione è volta alla ricerca di un modello atto a descrivere la relazione esistente tra una
variabile Dipendente e una variabile indipendente (regressione semplice) o più variabili
(regressione multipla) indipendenti o esplicative.
In un modello di regressione, le variabili esplicative spiegano, prevedono, simulano, controllano la
variabile dipendente.
X : Variabile indipendente Y: Variabile dipendente
L’espressione analitica della retta di regressione è:
JACOPO G.
JACOPO G.
Mediante il metodo dei minimi quadrati, si trova la retta migliore con coefficienti:
La codevianza determina il segno del coefficiente di regressione:
Proprietà della retta dei minimi quadrati:
• È l’unica retta che minimizza la somma dei quadrati degli scarti tra valori osservati e
teorici
• La retta passa per il punto (media di x; media di y) come centro di gravità
• La somma dei residui è uguale a 0
• La somma dei valori osservati è uguale alla somma dei valori teorici, quindi i valori osservati e i
valori
teorici presentano la stessa media
• Il coefficiente angolare indica la variazione di Y in Corrispondenza di una variazione unitaria di X
IL COEFFICIENTE DI DETERMINAZIONE LINEARE (R alla seconda)
La devianza di residua: misura il grado di dispersione dei punti osservati intorno alla retta di
regressione se è nulla il coefficiente di determinazione lineare è uguale a 1.
La devianza di regressione: è quella parte delle variabilità della Y che viene spiegata dalla
relazione lineare, è nulla se i valori teorici coincidono con la media della Y.
Il coefficiente di determinazione lineare
• R2 (alla seconda) = 0 quando:
La devianza di regressione è nulla, i valori teorici sono tutti costanti e pari al valore medio della
Y.
• R2 = 1 quando:
La devianza residua è nulla, per cui la variabilità della Y è spiegata totalmente dalla variabile X, i
valori osservati coincidono con i valori teorici.
COEFFICIENTE DI CORRELAZIONE (r)
Il coefficiente di correlazione è un numero puro, che varia tra -1 e 1 ed ha il segno algebrico della
codevianza
(r = -1) Vi è perfetta correlazione lineare, vi è discordanza le due rette di regressione coincidono
(-1 < r < 0) Vi è discordanza
(r = 0) non vi è correlazione lineare, le variabili sono incorrelate, non vi è né concordanza, né
discordanza JACOPO G.
JACOPO G.
(0 < r < 1) Vi è concordanza
(r = 1) Vi è perfetta correlazione lineare, vi è concordanza le due rette di regressione coincidono.
Il coefficiente di determinazione lineare è equivalente al quadrato del coefficiente di
correlazione lineare
Esempio
ELEMENTI DI CALCOLO DELLE PROBABILITA
Un esperimento casuale, indicato con E, può essere considerato come una operazione il cui
risultato non può essere previsto con certezza.
L’insieme di tutti i possibili risultati connessi all’esperimento casuale è detto spazio campionario è
viene indicato con (gamma).
Lo spazio degli eventi è definito dalla classe di tutti i sottoinsiemi dello spazio campionario.
JACOPO G.
JACOPO G.
• Unione – dati due eventi A e B si indica con A B l’insieme degli elementi che stanno A o B o in
entrambi.
Intersezione - dati due eventi A e B si indica con A B l’insieme degli elementi che stanno in A
• e in B
Negazione di eventi: L’insieme degli elementi non inclusi in A è denominato complemento o
• negazione di A e si indica con il simbolo A (con un trattino sopra). La negazione dell’evento A
riguarda tutti gli eventi di una prova escluso l’evento A.
JACOPO G.
JACOPO G.
• Eventi disgiunti(o incompatibili o mutualmente esclusivi) – due eventi si dicono disgiunti se non
contengono elementi comuni (non possono verificarsi contemporaneamente), ovvero:
• Partizione – si definisce partizione di un insieme D quell’insieme costituito dalle parti A ,....., A
non vuote, disgiunte la cui unione &egr