Anteprima
Vedrai una selezione di 10 pagine su 80
Statistica riassunto Pag. 1 Statistica riassunto Pag. 2
Anteprima di 10 pagg. su 80.
Scarica il documento per vederlo tutto.
Statistica riassunto Pag. 6
Anteprima di 10 pagg. su 80.
Scarica il documento per vederlo tutto.
Statistica riassunto Pag. 11
Anteprima di 10 pagg. su 80.
Scarica il documento per vederlo tutto.
Statistica riassunto Pag. 16
Anteprima di 10 pagg. su 80.
Scarica il documento per vederlo tutto.
Statistica riassunto Pag. 21
Anteprima di 10 pagg. su 80.
Scarica il documento per vederlo tutto.
Statistica riassunto Pag. 26
Anteprima di 10 pagg. su 80.
Scarica il documento per vederlo tutto.
Statistica riassunto Pag. 31
Anteprima di 10 pagg. su 80.
Scarica il documento per vederlo tutto.
Statistica riassunto Pag. 36
Anteprima di 10 pagg. su 80.
Scarica il documento per vederlo tutto.
Statistica riassunto Pag. 41
1 su 80
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

DEVIANZA

È una misura di variabilità di una distribuzione. È data dalla somma degli scarti dalla media

aritmetica al quadrato. È il numeratore della varianza.

VARIANZA

È definita come la media aritmetica del quadrato degli scarti dalla media.

Per praticità di calcolo può essere anche calcolata come la differenza di due medie al quadrato.

Lo scarto quadratico medio o deviazione standard è dato dalla radice quadrata dal rapporto

tra varianza e numerosità del campione ovvero dalla radice quadrata del risultato finale che

ottengo per la varianza. JACOPO G.

JACOPO G.

Se si aggiunge a tutti i campioni una costante es. k=2 il risultato non cambia. Vedi ultima

ing sopra.

INTERVALLI DI VARIAZIONE

Campo di Variazione: è la differenza tra il valore massimo e quello minimo della distribuzione:

Xmax - xmin

La sua utilizzazione è molto limitata; È influenzata dai valori anomali.

Differenza interquartile: è data dalla differenza tra il terzo e il primo quartile.

BOX PLOT JACOPO G.

JACOPO G.

Il box plot consente con un colpo d’occhio di valutare:

• Il valore della tendenza centrale

• La dispersione che dipende dall’ampiezza del rettangolo

• La simmetria, infatti se i dati sono simmetrici si ha una perfetta distribuzione tra sx e dx

• l’asimmetria nelle distribuzioni simmetriche positive si ha un box plot piu spostato a sx

• in quelle negative piu a dx

INDICI DI VARIABILITÀ RELATIVA

Sono indipendenti dall’unità di misura e permettono di fare confronti.

E’generalmente espresso in termini percentuali, consente di effettuare confronti fra diverse

distribuzioni per fenomeni omogenei.

Si calcola:

Scarto quadratico (dato dalla radice quadrata dal rapporto tra varianza e numerosità del

campione ovvero dalla radice quadrata del risultato finale che ottengo per la varianza) : media

Anche per i caratteri qualitativi esiste un concetto simile alla variabilità:

La mutabilità: è l’attitudine di un fenomeno qualitativo ad assumere diverse modalità.

Tra gli indici di mutabilità vanno ricordati gli indici che misurano l’omogeneità e per negazione

l’eterogeneità.

Un insieme si dice omogeneo rispetto ad un carattere se tutte le unità presentano la stessa

modalità, per contro se le unità statistiche tendono a distribuirsi in maniera uniforme si parlerà di

insieme eterogeneo.

INDICI DI FORMA

LA SIMMETRIA

per sintetizzare una distribuzione oltre agli indici di posizione e variabilità possono essere usati

anche gli indici di forma; sono indici descrittivi che mettono in evidenza ulteriori aspetti della

variabilità di un fenomeno.

Una distribuzione si dice simmetrica se le modalita equidistanti dalla mediana presentano la

stessa frequenza (cioè se ci sono tante modalità a sx quante a dx) (assoluta/relativa) cioè se

x’-med = x”-med e le loro frequenze sono n’ = n”

Nel caso di un grafico risulta diviso in due parti uguali specularmente (sull’asse orizzontale x).

JACOPO G.

JACOPO G.

Se una distribuzione unimodale è simmetrica la media, mediana e moda coincidono,

viceversa non vale.

Tenuto conto che la mediana è il centro della simmetria ed è un valore interno alla moda e alla

media se la distribuzione non è simmetrica si hanno le seguenti situazioni:

Uno degli indici di asimmetria più noti è il Skewness di Pearson: y= media - moda : varianza

Se:

Y>0 la distribuzione asimmetrica è positiva

Y<0 è negativa

Y=0 simmetrica

Inoltre Pearson propose un altro indice di asimmetria che utilizza il concetto di momento centrale

rispetto alla media aritmetica definito ‘momento centrale di ordine r’ (rispetto alla media aritmetica).

Un altro indice è il coefficiente di Fisher-Pearson.

Data una forma campanulare (a forma di campana)

JACOPO G.

JACOPO G.

Non tutte le distribuzioni a forma di campana sono normali, si possono verificare due forme:

- ipernormale : la forma della distribuzione è piu allungata

- iponormale : è piu appiattita

Per misurare questo grado di disnormalità viene impiegato il coefficiente di curtosi di Pearson.

y = momento quarto : quadrato della varianza

La curtosi rappresenta quindi lo schiacciamento della campana della distribuzione:

• un valore negativo indica una distribuzione più schiacciata (platicurtica)

un valore positivo più appuntita (leptocurtica)

LE RELAZIONI STATISTICHE INDIPENDENZA IN MEDIA

Esiste indipendenza in media tra due variabili statistiche se e solo se si verifica la seguente

condizione:

MEDIE PARZIALI UGUALI TRA LORO = MEDIA GENERALE

Un indice relativo di dipendenza in media è il rapporto di correlazione di Pearson. Esso è

uguale al rapporto della devianza di x e la devianza di Y e varia tra 0 e 1.

L’indipendenza in media non è un concetto simmetrico.

INDIPENDENZA CORRELATIVA

Si ha concordanza tra due variabili se a valori più piccoli di X corrispondono in media valori più

piccoli Y e a valori più grandi di X corrispondono in media valori più grandi di Y.

Nel caso contrario si ha discordanza.

Due variabili si dicono quindi perfettamente correlate se il coefficiente di correlazione è pari

a 1 in valore assoluto.

La codevianza (covarianza) è una misura di concordanza tra X e Y.

La codevianza: è la somma dei prodotti degli scarti dei due carattere X e Y.

La covarianza: è la codevianza divisa per n.

La Covarianza e Codevianza sono:

• Positive se prevalgono i prodotti degli scarti concordi

• Negative se prevalgono i prodotti degli scarti discordi

• Misure simmetriche JACOPO G.

JACOPO G.

• La loro unità di misura è data dal prodotto dell’unità di

misura di X e Y

Cod (X,Y)>0 CONCORDANZA

All’aumentare di X la Y aumenta(variano nello stesso senso)

Cod (X,Y) < 0 DISCORDANZA

All’aumentare di X la Y diminuisce (variano in senso opposto)

Cod (X,Y)=0 INDIPENDENZA CORRELATIVA

All’aumentare di X non vi è alcun mutamento della Y (indifferenza).

Per misurare la concordanza o la discordanza tra le due variabili, si utilizza il coefficiente di

correlazione lineare di Bravis-Pearson che fornice una misura del grado di correlazione lineare

reciproca che esiste tra le due variabili X e Y

Il coefficiente di correlazione è un numero puro, che varia tra -1 e 1 ed ha il segno algebrico

della codevianza.

LA RETTA DI REGRESSIONE

La regressione è volta alla ricerca di un modello atto a descrivere la relazione esistente tra una

variabile Dipendente e una variabile indipendente (regressione semplice) o più variabili

(regressione multipla) indipendenti o esplicative.

In un modello di regressione, le variabili esplicative spiegano, prevedono, simulano, controllano la

variabile dipendente.

X : Variabile indipendente Y: Variabile dipendente

L’espressione analitica della retta di regressione è:

JACOPO G.

JACOPO G.

Mediante il metodo dei minimi quadrati, si trova la retta migliore con coefficienti:

La codevianza determina il segno del coefficiente di regressione:

Proprietà della retta dei minimi quadrati:

• È l’unica retta che minimizza la somma dei quadrati degli scarti tra valori osservati e

teorici

• La retta passa per il punto (media di x; media di y) come centro di gravità

• La somma dei residui è uguale a 0

• La somma dei valori osservati è uguale alla somma dei valori teorici, quindi i valori osservati e i

valori

teorici presentano la stessa media

• Il coefficiente angolare indica la variazione di Y in Corrispondenza di una variazione unitaria di X

IL COEFFICIENTE DI DETERMINAZIONE LINEARE (R alla seconda)

La devianza di residua: misura il grado di dispersione dei punti osservati intorno alla retta di

regressione se è nulla il coefficiente di determinazione lineare è uguale a 1.

La devianza di regressione: è quella parte delle variabilità della Y che viene spiegata dalla

relazione lineare, è nulla se i valori teorici coincidono con la media della Y.

Il coefficiente di determinazione lineare

• R2 (alla seconda) = 0 quando:

La devianza di regressione è nulla, i valori teorici sono tutti costanti e pari al valore medio della

Y.

• R2 = 1 quando:

La devianza residua è nulla, per cui la variabilità della Y è spiegata totalmente dalla variabile X, i

valori osservati coincidono con i valori teorici.

COEFFICIENTE DI CORRELAZIONE (r)

Il coefficiente di correlazione è un numero puro, che varia tra -1 e 1 ed ha il segno algebrico della

codevianza

(r = -1) Vi è perfetta correlazione lineare, vi è discordanza le due rette di regressione coincidono

(-1 < r < 0) Vi è discordanza

(r = 0) non vi è correlazione lineare, le variabili sono incorrelate, non vi è né concordanza, né

discordanza JACOPO G.

JACOPO G.

(0 < r < 1) Vi è concordanza

(r = 1) Vi è perfetta correlazione lineare, vi è concordanza le due rette di regressione coincidono.

Il coefficiente di determinazione lineare è equivalente al quadrato del coefficiente di

correlazione lineare

Esempio

ELEMENTI DI CALCOLO DELLE PROBABILITA

Un esperimento casuale, indicato con E, può essere considerato come una operazione il cui

risultato non può essere previsto con certezza.

L’insieme di tutti i possibili risultati connessi all’esperimento casuale è detto spazio campionario è

viene indicato con (gamma).

Lo spazio degli eventi è definito dalla classe di tutti i sottoinsiemi dello spazio campionario.

JACOPO G.

JACOPO G.

• Unione – dati due eventi A e B si indica con A B l’insieme degli elementi che stanno A o B o in

entrambi.

Intersezione - dati due eventi A e B si indica con A B l’insieme degli elementi che stanno in A

• e in B

Negazione di eventi: L’insieme degli elementi non inclusi in A è denominato complemento o

• negazione di A e si indica con il simbolo A (con un trattino sopra). La negazione dell’evento A

riguarda tutti gli eventi di una prova escluso l’evento A.

JACOPO G.

JACOPO G.

• Eventi disgiunti(o incompatibili o mutualmente esclusivi) – due eventi si dicono disgiunti se non

contengono elementi comuni (non possono verificarsi contemporaneamente), ovvero:

• Partizione – si definisce partizione di un insieme D quell’insieme costituito dalle parti A ,....., A

non vuote, disgiunte la cui unione &egr

Dettagli
Publisher
A.A. 2019-2020
80 pagine
17 download
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher jacopogiunta di informazioni apprese con la frequenza delle lezioni di Statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Universita telematica "Pegaso" di Napoli o del prof Crisci Anna.