Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

Lorenzo Atti – lorenzo.atti2@studio.unibo.it

Idealmente l’unico risultato che esprime l’assenza di differenza nei test è quello corrispondente a 0. In

realtà i risultati sperimentali si distribuiscono attorno allo 0, ma questo è spesso dovuto all’oscillazione

casuale e non è sufficiente a falsificare l’ipotesi nulla. La regione al cui interno si distribuiscono i risultati per

pura oscillazione casuale si chiama regione di non falsificazione.

Cosa succede se non falsifico l’ipotesi nulla?

 L’ipotesi nulla è “vera”: non vuol dire che la differenza è esattamente zero, ma che la differenza è

sotto la minima differenza che ho giudicato apprezzabile;

 Il test è poco potente perché:

1) il campione ha varianza elevata;

2) vi è scarsa numerosità del campione;

3) il campione non soddisfa le condizioni relative alla distribuzione;

4) il campione non è rappresentativo dell'intera popolazione;

5) non vi è sufficiente separazione fra H0 e H1;

Significatività, potenza, numerosità e minima differenza apprezzabile

La significatività può essere anche definita come l’intervallo all’interno del quale otteniamo valori che ci

permettono di falsificare la nostra ipotesi nulla.

La potenza (1- ) di un test statistico è il grado di probabilità di falsificare Ho quando questa è falsa (è

complementare all’errore Beta). La potenza del test, attualmente, è richiesta normalmente attorno all’80%.

La potenza del test dipende dalla soglia di significatività che utilizziamo per falsificare l’ipotesi nulla:

normalmente si assume il 5%. Più è alta la soglia, maggiore sarà la potenza. Il limite di significatività e

potenza lavorano nella stessa direzione.

La potenza entra in due momenti nell’analisi statistica:

• Prima di mettere a punto l’esperimento, perché permette di calcolare la numerosità del campione;

• Dopo l’esperimento se non è stata falsificata.

La minima differenza apprezzabile è la minima differenza che lo sperimentatore considera interessante dal

punto di vista pratico.

La numerosità ha la caratteristica di avere un limite inferiore al di sotto del quale è impossibile falsificare

l’ipotesi nulla: in questo caso l’esperimento è a potenza zero. Se aumento moltissimo la numerosità, ho

un’altissima probabilità di falsificare l’ipotesi nulla, una potenza molto elevata, ma l’ipotesi nulla viene

falsificata per delle differenze trascurabili. In definitiva, la potenza di un test dipende da:

limite di significatività

- minima differenza apprezzabile

- numerosità del campione

- varianza casuale

- 13 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

Quando stabilisco la minima differenza apprezzabile, dico qual è la minima distanza a cui può stare H1. Se è

vera HO, per sapere che probabilità ho di ottenere una certa differenza, mi occorre la distribuzione di HO →

oltre la regione del 95% ( limiti di falsificazione), i valori sono poco probabili per accettare come credibile

HO

La probabilità di errore alfa è proporzionale all’area sottesa alla curva di distribuzione HO, a destra del

limite di falsificazione dell’ipotesi H1 (segmento verticale).

La probabilità dell’errore beta è proporzionale all’area sottesa alla curva di distribuzione H1, a sinistra del

segmento di falsificazione dell’ipotesi nulla.

Tanto più H1 si avvicina ad HO tanto più le due distribuzioni tendono a sovrapporsi e più grande diventa

l’errore beta, per cui diminuisce la potenza del test, data da 1-.

Test parametrici T-test

Il t-test (Test t di Student)è il test parametrico utilizzato per il confronto della media di un gruppo rispetto

ad un valore di riferimento, oppure il confronto fra due medie di gruppi che voglio stabilire essere differenti

a causa dell’effetto che sto studiando. Sulla media di un gruppo

14 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

: (la media del gruppo è uguale alla media teorica)

Una volta che ho raccolto i soggetti del mio campione sperimentale e misurato l’effetto che voglio studiare,

calcolo la media del gruppo esaminato e la varianza fra le medie e applico la formula per trovare il

parametro t:

La varianza delle medie è tanto più bassa tanto più grande è il numero dei soggetti sui quali viene calcolata

la media. Essa è inversamente proporzionale al numero di soggetti che la compongono e quindi può essere

opportunamente stimata dividendo la varianza tra gli individui per N: tanto più il gruppo è grande, tanto più

piccola sarà la varianza. Confronto fra le medie di due gruppi

: (le medie teoriche devono essere uguali)

Il confronto fra le medie di due gruppi rappresenta l’uso più classico del t-test. Una volta formati i due

campioni sperimentali e misurati i valori medi di ogni campione si applica la formula:

Al denominatore c’è la radice della varianza accorpata che rappresenta la varianza stimata all’interno dei

due gruppi → calcolo soggetto per soggetto, il suo scarto dalla media del suo gruppo, lo elevo al quadrato,

e lo faccio per i soggetti di tutto il gruppo. Questi sono scarti al quadrato, e li divido per il numero totale dei

soggetti -2 (gradi di libertà). 15 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

Z-test

Lo z-test è il test più primitivo fra quelli parametrici e si utilizza in quei rari casi in cui il confronto fra medie

o il confronto di una media con la media generale si possa effettuare conoscendo la varianza teorica, un

valore che si conosce a priori e che non è legato al campione che utilizziamo.

Confronto fra distribuzione t e z:

Utilizzano formule analoghe;

- La distribuzione t è simile alla distribuzione z ma ha maggiore incertezza sul risultato: anche t ha

- media 0 come z ma non ha varianza unitaria (dal momento che S2 è una stima effettuata sul

campione) e quindi è soggetta a variabilità maggiore;

E’ una distribuzione a campana ma con più variabilità della distribuzione z (t è più allargata);

- Mentre la distribuzione z ha una sola fonte di variabilità (la media), la distribuzione t ha 2 fonti

- variabilità (media e varianza stimata sul campione).

Analisi della varianza

Quando i gruppi sono più di due non è più possibile applicare il t-test per il confronto fra due medie,

perché eseguire più t-test combinati fra diversi gruppi non ci darebbe la misura della variabilità fra gruppi e

perché ogni campione raccolto deve essere specifico per un test e non può essere usato più di una volta.

In questi casi si ricorre all’analisi della varianza (ANOVA – Analysys Of VAriance) che è il test parametrico

fondamentale in quanto non solo è una generalizzazione del t-test ma esprime al meglio il meccanismo

chiave di tutti i test parametrici: ottenere un parametro rapportando una variazione dovuta ad un effetto

alla variazione casuale. Essa studia come una variabile qualitativa influenza una variabile quantitativa

(variabile dipendente): Q.I. MEDIO

MASCHI 101

FEMMINE 106

Ogni valore y di ogni singolo soggetto può essere scomposto in tre componenti di variabilità:

Dove:

 = intercetta, valore basale, media generale;

 = SSQ fra gruppi; 16 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

 = SSQ nei gruppi;

La varianza tra i gruppi si trova facendo il rapporto degli scarti della media di ogni gruppo meno la media

generale, elevati al quadrato, diviso per i gradi di libertà, che sono uguali al numero dei gruppi meno uno (la

relazione vincolante è lo scarto dalla media generale).

Essa rappresenta la variazione dovuta all’effetto: per esempio, valori di Q.I. differenti fra due gruppi, uno di

maschi e uno di femmine, potrebbe dimostrarmi una differenza significativa fra il Q.I di maschi e femmine.

La varianza all’interno dei gruppi si trova facendo il rapporto degli scarti di ogni soggetto di ogni gruppo

dalla media del suo gruppo, elevati al quadrato, diviso per i gradi di libertà che sono uguali al numero dei

soggetti meno il numero di gruppi (poiché facendo gli scarti dalle medie, ogni gruppo ha un soggetto

vincolato).

Essa rappresenta la variazione casuale, e più precisamente la variazione interindividuale, cioè fra ogni

individuo di ogni gruppo. Effetto interazione

L’effetto interazione è l’effetto che si ottiene combinando fra loro due effetti principali. L’ipotesi nulla è che

l’effetto studiato sia la semplice somma degli effetti principali, e quindi assenza di interazione.

L’effetto interazione NON è un tipo particolare di test statistico! Il test che si effettua per saggiarne la

significatività è sempre l’ANOVA.

ESEMPIO

Devo valutare che cosa mi aspetterei se ci fossero solo gli aspetti principali e non anche un effetto dovuto

all’interazione. Gli effetti principali vengono calcolati sempre a prescindere dall’altro effetto. Differenza e

somma sono statisticamente indipendenti: quindi, nel calcolare la media dei maschi, non tengo conto della

differenza tra trattati e non trattati.

Devo trovare in pratica la deviazione delle medie dei sottogruppi dal valore teorico, ovvero il valore che

avrebbero dovuto avere se il risultato fosse dipeso unicamente dagli effetti principali:

17 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

Il risultato ottenuto rappresenta il valore teorico del sottogruppo dei maschi trattati. Per ottenere la

varianza dovuta all’effetto interazione si sommano i quadrati di tutti gli scarti dei valori medi dei

sottogruppi dal loro valore teorico, in pratica ogni scarto è formato da:

Questi tre elementi sono indipendenti tra loro, quindi possono essere sommati. In questo modo si calcola il

risultato degli effetti principali indipendentemente dalla loro interazione. Questo è il valore teorico dovuto

agli effetti principali e si calcola separatamente (4 valori). Si hanno in teoria quindi 4 scarti. Se il

trattamento avesse lo stesso effetto, indipendentemente dal sesso, allora si avrebbero due segmenti

paralleli, infatti l’effetto interazione viene anche chiamata mancanza di parallelismo.

Nella formula finale per trovare il parametro F, riassumendo, avremo quindi:

1. Al numeratore la somma degli scarti al quadrato di ogni valore del sottogruppo meno il suo

corrispondente teorico, con gradi di libertà pari al prodotto fra i gradi di libertà dei due effetti

principali;

2. Al denominatore avremo la varianza fra i soggetti di tutti i sottogruppi (che corrisponde a quella

che si utilizza nella formula dell’ANOVA per i singoli effetti principali).

18 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

Analisi della regressione

L’analisi della regressione è un test parametrico che si utilizza per studiare la relazione fra due variabili

quantitative gaussiane.

1. Se ho una variabile dipendente e un fattore la regressione è LINEARE SEMPLICE;

2. Se ho più fattori quantitativi che incidono su una variabile dipendente, la regressione è MULTIPLA;

3. Se ho più variabili dipendenti, la regressione è lineare MULTIVARIATA.

La regressione ha due funzioni:

1. una di analisi degli effetti sulla variabile dipendente;

2. una di predizione dei valori della variabile dipendente in base alla conoscenza dell’altra variabile.

La definizione del modello (lineare, logaritmico, etc) è legata al tipo di conoscenze che abbiamo a priori del

sistema che stiamo studiando. In questo caso si parla di REGRESSIONE LINEARE SEMPLICE.

Y= a + bx

La a indica l’intercetta, cioè il punto di incontro della retta con l’asse delle y, mentre la b rappresenta la

pendenza della retta.

I parametri del modello, a e b, vengono calcolati attraverso il METODO DEI MINIMI QUADRATI, che è un

criterio di ottimizzazione per il quale scelgo la retta che ha la minima distanza possibile dai punti; cerco

quindi di individuare la retta migliore che rappresenta i dati sperimentali, quella per la quale la somma dei

quadrati degli scarti fra i punti e la retta è minima rispetto a tutte le altre rette.

s xy

a = y - b x b = 2

s x 2

Altri parametri importanti per l’analisi della regressione sono il coefficiente di determinazione R e il

2

coefficiente di correlazione r (che elevato al quadrato dà R ):

19 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

2

 Il coefficiente di determinazione R ci dà un’informazione su quanto la retta modello rappresenta

bene i miei dati sperimentali: è compreso fra 0 e 1 ( perché ho R alla seconda) e non può mai essere

superiore a 1 perché la varianza del modello non può essere maggiore della varianza totale.

 Il coefficiente di correlazione r indica il grado di correlazione fra la variabile dipendente e il fattore

nel nostro esperimento: è il rapporto tra la covarianza di xy e il prodotto tra la variazione standard

di x e la variazione standard di y. può essere positivo o negativo: scambiando x ed y, resta identico.

Può valere da -1 a +1: correlazione inversa massima, correlazione diretta massima. Zero, assenza

di correlazione.

è la covarianza della variabile x e della variabile y: essa rappresenta una generalizzazione della varianza

infatti la sua formula è:

Caratteristiche:

 Analizza contemporaneamente la variabilità fra i valori sia delle x che delle y;

 Al contrario della varianza, non essendoci elevazioni al quadrato, può essere sia positiva che

negativa.

SSQ modello: e’ la somma degli scarti di ogni y relativa al modello (proiezione del punto sperimentale sul

modello) e il valore medio delle y;

SSQ residui: è’ la somma degli scarti di ogni y sperimentale dalla y proiettata sul modello (distanza

verticale); 20 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

Analisi per prove ripetute

II disegno sperimentale per prove ripetute viene utilizzato sia come artificio utile ad eliminare la variabilità

interindividuale in determinati test sia per test che ricercano specificatamente differenze fra valori di un

determinato effetto negli stessi soggetti a seguito di terapie o trattamenti (prove sperimentali).

Nel t-test

Nel t-test Il punto cruciale è che valutiamo nello stesso soggetto la prestazione in una modalità e la stessa

prestazione in un’altra modalità. Se noi somministriamo due questionari che misurano uno l’ansia e l’altro

la depressione, con le prove ripetute è sbagliato: deve trattarsi della stessa grandezza. Quello che cambia

dev’essere la condizione sperimentale e non la misurazione da effettuare.

La formula per le prove ripetute nel t-test è:

Dove d medio indica la media delle differenze che ogni soggetto ha ottenuto fra il valore nella prima prova

sperimentale e quello della seconda prova sperimentale: di conseguenza a denominatore c’è la varianza fra

le differenze. Nell’analisi della varianza

L’analisi della varianza per prove ripetute è il test che si utilizza nel caso in cui ci siano più di due prove

ripetute (e quindi sia inutilizzabile il t-test per prove ripetute). Si può procedere in due modi:

 Metodo approssimato: come se si trattasse di 3 gruppi differenti con l’analisi della varianza classica.

Al denominatore si usa la varianza stimata tra i soggetti tenendo conto che sono gli stessi soggetti

che ripetono le 3 prove sperimentali. Questo induce ad un calcolo approssimato (in quanto si usa la

varianza stimata).

 Analisi multivariata per prove ripetute: Si calcola la differenza tra prova sperimentale mattina e

prova sperimentale del mezzogiorno, soggetto per soggetto. Successivamente, la differenza tra la

prova sperimentale della sera e la media delle prove della mattina e del mezzogiorno (le differenze

sono statisticamente indipendenti). Consente di analizzare effetti di gruppo ed effetti di ripetizione.

21 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

Il modello lineare generale (GLM)

L’analisi della regressione ha la stessa logica dell’analisi della varianza ed è anche possibile unirle per creare

l’analisi della varianza e della covarianza: attraverso un’unica procedura possiamo analizzare, su una

variabile dipendente, sia effetti di gruppo sia effetti dovuti ad una variabile continua. Questa unione di

procedure ha portato ad una generalizzazione completa dei test parametrici che va sotto il nome di

modello lineare generale (GLM).

ovvero Y = costante + effettoA + effettoB + interazione AxB + bX

Il Modello Lineare Generale si può rappresentare con una equazione in cui il valore della variabile

dipendente Y è dato da effetti di gruppo ed effetti quantitativi, ovvero una COSTANTE più una quantità di

CLASSIFICAZIONE A più una quantità di classificazione dovuta al CRITERIO B più altre quantità di altri

EFFETTI DI GRUPPO, per cui compete alla Y il valore che è tipico di quel gruppo più le interazioni tra i vari

effetti e gli insieme di effetti dovuti a variabili quantitative determinate dal coefficiente b che rappresenta

le relazione. Di ogni parametro viene data la significatività e questi vengono calcolati eliminando al netto gli

effetti di tutti gli altri parametri. Si possono calcolare contrasti multipli ortogonali. Permette l’uso di fattori

qualitativi e quantitativi, l’uso di più variabili dipendenti (quindi è un’analisi multivariata: più variabili

dipendenti, non più fattori) ed il confronto fra prove ripetute di dati correlati.

Test non parametrici

I test non parametrici affrontano tutte le rimanenti situazioni in cui la distribuzione non è gaussiana, che

cambiano da test a test.

Ciascun test infatti è nato per affrontare una situazione specifica: sono diversi nella sostanza e sono

moltissimi, in quanto non avendo una condizione determinata dalla distribuzione dei dati, affrontano il

problema da prospettive diverse.

Non avendo a che fare con variabili continue come i test parametrici, i test non parametrici sono test che in

realtà vanno ad esaminare caratteristiche abbastanza evidenti dei miei dati, e quindi da un certo punto di

vista sono meno potenti dei parametrici (meno efficienti a falsificare H0 quando è falsa, ma sono più sicuri

perché attenti alle caratteristiche dei miei dati. I test non parametrici guardano alcune caratteristiche di

base, e falsificano H0 relativa a cose di base: se falsificano H0, siamo sicuri che il fenomeno c’è).

Un effetto per essere credibile deve poter essere dimostrato con test molto semplici, come i test non

parametrici.

Caratteristiche:

• Si utilizzano quando le variabili non sono gaussiane;

• Sono più grezzi e quindi meno potenti dei test parametrici;

• Sono meno generalizzabili, cioè sono messi a punto per risolvere uno specifico problema;

22 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

• I test non parametrici utilizzano le stesse distribuzioni dei test parametrici ma operano diverse

trasformazioni dei punteggi di partenza in modo da renderli gestibili da distribuzioni che operano

con variabili gaussiane (tranne il test del segno che usa direttamente la binomiale, che gestisce lo

stesso tipo di casualità della gaussiana). Non ci sono distribuzioni non parametriche;

• Per ogni problema specifico cerchiamo una sua trasformazione che ci permetta di utilizzare una

delle distribuzioni note.

TABELLA DI COMPARAZIONE TEST PARAMETRICI E NON PARAMETRICI*:

TEST PARAMETRICO TEST NON PARAMETRICO

Effetto interazione (Anova) Tavole di contingenza (chi quadro)

T test Test di Mann-whitney

T test per prove ripetute Test di Wilcoxon

*Questa comparazione non significa che i test siano equivalenti, l’analogia ha esclusivamente la finalità di facilitare la

comprensione dei test non parametrici!

Tavole di contingenza (test chi quadro)

Il test chi quadro si usa per confrontare due variabili qualitative (procedura simile all'interazione)

utilizzando le tavole di contingenza basata sulla frequenza di diverse combinazioni delle variabili. L’ipotesi

nulla è l’assenza di relazione fra le due variabili (es. tipo di terapia e risultato ottenuto).

La percentuale di positivi deve essere uguale per i due gruppi (terapia A e terapia B), pertanto i risultati

positivi dei due gruppi devono essere proporzionali. Calcolo i valori che mi sarei aspettato in ogni casella

nel caso Ho fosse vera. La somma dei valori teorici deve essere uguale alla somma dei valori delle

frequenze. 23 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

Otteniamo le differenze fra valori teorici ottenuti dalla formula sopra riportata e i valori sperimentali.

Valuto l’entità di queste differenze applicando la formula del chi quadro:

Test esatto di Fisher

Il test chi quadro non fornisce una variabile che non ha realmente una distribuzione normale, perché le

frequenze non sono variabili reali ma approssimate. Se ci si chiede quale valore sperimentale è più

distante dall’ipotesi nulla, si cerca un’informazione che va oltre ciò che possiamo conoscere effettuando il

test chi quadro. Il test chi quadro è più facile da calcolare ed è più facile capire se è significativo o no e

capire il suo significato pratico.

Il test esatto di Fisher utilizza la distribuzione esatta dell’ipotesi nulla, ovvero la distribuzione multinomiale

(estensione della distribuzione binomiale) e vado a vedere la probabilità di ottenere la tabella che ho

ottenuto o dei valori che si discostano maggiormente. Nel test di Fisher utilizziamo la Distribuzione

Ipergeometrica, perché i valori che abbiamo nella multinomiale sono fissi.

Ipotesi nulla Negativo Positivo TOTALE

Gruppo A ..8 7 6 5,1 4 3 2.. 19,9 25

Gruppo B 4,9 19,1 24

10 39 49

Devo calcolare la somma della probabilità della tabella sperimentale e di tutte le tabelle ancora più distanti

da quella di Ho. Cambio la frequenza di soggetti del gruppo A risultati negativi e cambio tutti gli altri valori

della tabella mantenendo le stesse somme. Più mi allontano dalla tabella sopra riportata più cala la

probabilità di ottenere le tabelle ottenute. Prendo la prima tabella che dista più di 3,1 dall’ipotesi nulla

(nell’esempio non parto da 6,7 o 8 ma da 9). Sommando le probabilità delle tabelle ottengo la significatività

24


ACQUISTATO

23 volte

PAGINE

27

PESO

2.07 MB

AUTORE

Attolo

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in scienze e tecniche psicologiche
SSD:
Università: Bologna - Unibo
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Attolo di informazioni apprese con la frequenza delle lezioni di Statistica psicometrica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Bologna - Unibo o del prof Bolzani Roberto.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Statistica psicometrica

Lezioni, Statistica Psicometrica
Appunto
Lezioni, Statistica Psicometrica
Appunto