vuoi
o PayPal
tutte le volte che vuoi
Curva normale
È la più importante distribuzione continua e trova numerose
applicazioni nello studio dei fenomeni biologici. Fu proposta da
Gauss (1809) nell’ambito della teoria degli errori , ed è stata
attribuita anche a Laplace ( 1821) che ne definì le proprietà
principali in anticipo rispetto alla trattazione completa di gauss.
Il nome normale deriva dalla convinzione che molti fenomeni fisico
– biologici si distribuiscono con frequenze più elevate nei valori
centrali e frequenze progressivamente minore verso gli estremi. È
detta anche curva degli errori accidentali in quanto, soprattutto nelle
discipline fisiche , la distribuzione degli errori commessi nel
misurare ripetutamente la stessa grandezza , è molto ben
approssimata da questa curva. Quando le
distribuzioni di frequenze prima risultano crescenti , raggiungono un
massimo e poi cominciano a decrescere fino ad arrivare a zero , si
possono parlare di variabili che tendono a distribuirsi normalmente
ossia che seguono un andamento secondo la curva di gauss. In
una distribuzione simmetrica , i valori media aritmetica, moda e
mediana coincidono. Se non valgono le condizioni precedenti , la
distribuzione si dice asimmetrica. In particolare se a media è
maggiore alla mediana e quest’ultima è maggiore alla moda si ha
asimmetria positiva e graficamente , la distribuzione viene
rappresentata con una coda più lunga verso destra. Nel caso in cui
invece la media è minore alla mediana e quest’ultima è minore alla
moda si ha asimmetria negativa e graficamente la distribuzione
viene rappresentata con una coda più lunga verso sinistra. La
distribuzione normale dipende da due parametri, media e moda.
Caratteristiche di questa curva sono:
- è un istogramma con infiniti casi.
– comprende casi da meno infinito a più infinito.
– è asintoticamente normale , ovvero è asintotica all’asse delle x da
entrambi i casi.
L ’area sottesa alla curva è 1.
Se varia la media si sposta orizzontalmente l’asse di simmetria
della curva. Se varia la varianza la curva si allarga e appiattisce al
crescere del valore. Presenta due punti di flesso in corrispondenza
ʮ ʮ
di + e di - cioè i punti in cui la curva da connessa diventa
ϑ ϑ
concava e si trovano a più o meno 1 deviazione standard.
In statistica l’indice di curtosi è uno degli indici relativi alla forma di
una distribuzione , che costituisce una misura dello spessore delle
code di una funzione di densità , ovvero il grado di appiattimento di
una distribuzione. L’interesse per questo indice è dato dal fatto che
lo spessore delle code influenza il comportamento di diverse
statistiche. Se il coefficiente di curtosi è:
- > 0 la curva si definisce leptocurtica cioè più appiattita di una
normale. - <0 la curva si
definisce platicurtica cioè più piatta di una normale.
- =0 la curva si definisce normocurtica cioè come una normale.
Correlazione
Il grado di correlazione è dato da alcuni indici, di cui il più
importante è il coefficiente di correlazione lineare di Bravais
Pearson. La correlazione indica la tendenza che hanno due variabili
(x,y) a variare, ovvero a covariare. La correlazione viene usata per
esprimere la forza, l’intensità del legame. La covarianza è il valor
medio del prodotto degli scarti corrispondenti di x e di y. Tale
coefficiente è standardizzato ed assume valori che vanno da -1
( correlazione perfetta negativa ) e 1 (correlazione perfetta positiva)
Regressione
L’obbiettivo della regressione è quello di trovare l’equazione di una
curva che meglio interpreta il meccanismo con il quale una
variabile è relazionata ad un'altra. Talvolta l’analisi della
correlazione precede lo studio della regressione, in quanto una
variabile viene confrontata con varie altre per vedere quelle più
connesse fra di loro. Per regressione lineare s’intende una
procedura che permette di trovare una funzione di primo grado
( lineare ) del tipo y= a+bx che esprime il legame che esiste tra una
variabile y considerata dipendente ed una variabile x considerata
indipendente.
La procedura matematica che permette di trovare le formule per
calcolare i parametri a e b della funzione è chiamata metodo dei
minimi quadrati. Con il metodo dei minimi quadrati è sempre
possibile ottenere la retta che meglio si adatta ai dati relativi,
indipendentemente dalla dispersine dei punti intorno alla retta.
La retta potrebbe indicare :
-una relazione reale tra due variabili, se il valore di b è alto e la
dispersione dei punti intorno alla retta è ridotta.
- relazione casuale non significativa , quando la dispersione dei
punti intorno alla retta è approssimativamente uguale alla media.