vuoi
o PayPal
tutte le volte che vuoi
ELABORAZIONE DELLA VARIABILITA’ DEI DATI CAMPIONARI.
CONSENTE DI VALUTARE e confrontare tra di loro le medie di due o più distribuzioni con analisi della
variabilità dei dati che definiscono le distribuzioni stesse.
SCOPO di valutare se la differenze fra le medie campionarie è tale da inferire che i campioni provengano da
popolazioni con medie differenti o al contrario da un'unica popolazione di riferimento.
Quindi verificare presenza di differenze significative dovute a diversi livelli di codifica di variabile indipendente.
IPOTESI POSSIBILI
NULLA
ALTERNTIVA BIDIREZIONALE
Il metodo generale dell’Anova si basa sul principio:
Scomposizione della variabilità. All'interno del disegno sperimentale dove vengono comparati i diversi
trattamenti con altri gruppi ci sono 3 fonti alle quali è possibile attribuire la variabilità dei dati:
FONTI DI VARIABILITA' (V)
EFFETTI DEL TRATTAMENTO (VARIABILITA' SPERIMENTALE)
EFFETTI DELLE DIFFERENZE INDIVIDUALI
ERRORE
PER CAPIRE QUALE DELLE IPOTESI è IN GIOCO, BISOGNA INDIVIDUARE LA variabilità del modello
ANOVA:
-VARIABILITA’ TRA I GRUPPI (V. TRATTAMENTO + V. INDIVIDUALE+ V. ERRORE)
-VARIABILITA' DENTRO I GRUPPI (RESIDUA, DI ERRORE O ACCIDENTALE): V. INDIVIDUALE+ V.
ERRORE
ANALISI DELLA VARIANZA A DUE VIE (O CON DUE FATTORI TRA GRUPPI
Ragionamento nell’analisi di dati classificati contemporaneamente sulla base di due variabili indipendenti. I dati
sono classificati in modo incrociato e sono disposti in una tabella a doppia entrata. Ciascun elemento è codificato
secondo due criteri simultanei di classificazione (fattori).
La tecnica dell’analisi si basa sulla scomposizione della varianza totale dei dati.
Capitolo 3
CORRELAZIONE E REGRESSIONE
-Correlazione: analizza se esiste una relazione tra due variabili (come e quanto due variabili variano insieme)
-Regressione: analizza la forma della relazione tra variabili
Si afferma che due variabili sono legate da una RELAZIONE quando la variazione espressa da una di queste è
coerente con la variazione espressa dall'altra.
DATE 2 variabili A e B:
-al variare di una varia anche l’altra: quindi tra le due esiste una COVARIANZA
-indice della probabile esistenza di una relazione che lega entrambe le variabili.
FORMA, DIREZIONE E FORZA DELLA RELAZIONE TRA LE DUE VARIABILI
Correlazione: è relazione tra due variabili; il suo studio si basa su diverse tecniche che consentono di descrivere
qualitativamente e quantitativamente la relazione tra due variabili.
La correlazione tra due variabili ha 3 caratteristiche, ovvero, in base a:
forma
direzione
forza (o grado)
Direzione positiva se variano in stessa direzione o negativa se variano in direzioni opposte.
In statistica la relazione lineare tra 2 variabili viene quantificata mediante il calcolo di appositi indici detti
COEFFICIENTI DI CORRELAZIONE.
COEFFICIENTI DI CORRELAZIONE
Coefficiente di correlazione: rapporto tra la covarianza esistente tra le 2 variabili e la varianza delle stesse
variabili prese in maniera singola.
ESISTONO 2 coefficienti di correlazione:
• Pearson product-moment (parametrico)
• Spearman rank correlation (non parametrico) • Entrambi vanno da -1 (correl.negativa) a +1 (correl.positiva). 0
corrisponde ad assenza di correlazione
1) Coefficiente di correlazione di Pearson:
entrambe le variabili devono essere continue
i dati devono essere secondo una scala a intervalli o razionale
entrambe le variabili devono seguire una distribuzione normale
la relazione tra le variabili è lineare
2) Il coefficiente di correlazione di Spearman per ranghi
Questo indice di correlazione non parametrico viene indicato con rs o Spearman rho e permette di valutare la
forza del rapporto tra due variabili quando le assunzioni per il modello di correlazione parametrica, coefficiente r
Pearson, non sono soddisfatte. In particolare quando la distribuzione delle variabili X ed Y non risulta normale
(caso piuttosto frequente per popolazioni di dati ad elevato numero di casi) o quando le sottopopolazioni dei
valori di Y od X non risultino avere la stessa varianza, la correlazione parametrica non viene utilizzata e si
ricorre a questo indice che ha inoltre modalità di calcolo piuttosto semplice.
LA REGRESSIONE
Ci permette di costruire un modello funzionale della risposta di una variabile (effetto) ad un’altra (causa)
Conoscendo la forma della relazione funzionale tra variabile indipendente e dipendente è possibile stimare il
valore della variabile dipendente conoscendo quello della variabile indipendente (interpolazione) solo nel range
di dati X usato per la regressione (non è corretto estrapolare)
Regressione lineare (semplice)
Nella regressione lineare la relazione tra variabili (causa-effetto) è rappresentata da una linea retta
La relazione tra variabili è espressa dall’equazione: Y = a+bX dove X è la variabile indipendente, Y la variabile
dipendente, a è l’intercetta (il valore di Y quando X=0) e b è la pendenza (quanto aumenta Y per ogni aumento di
un’unità di X). N.B: La retta passa per il punto delle medie delle due variabili Regressione lineare (X,Y )
Il grado di correlazione tra due variabili è possibile all’interno di una relazione di dipendenza impiegare il valore
di una variabile per predire il valore dell’altra.
Il concetto di predizione è legato a quello di correlazione.
L' obiettivo è quello di studiare la relazione tra variabili mediante la formulazione di un modello matematico
LINEARE in grado di predire i valori della variabile dipendente Y sulla base dei valori assegnati arbitrariamente
alla variabile indipendente X.
Nelle relazioni lineari il modello matematico di riferimento è rappresentato dall’equazione di una retta dove i
parametri di definizione sono ricavati sulla base del grado di correlazione esistente tra le due variabili oggetto di
studio.
Il principio su cui si basa il modello predittivo lineare è quello di identificare una linea retta detta anche RETTA
DI REGRESSIONE che è quella che meglio si adatta alla distribuzione bivariata dei punti.
Il meccanismo matematico che porta all’ identificazione dei parametri di questa retta è detto di