Che materia stai cercando?

Riassunto esame Metodologia della ricerca psicologica, prof: Mossi, Libro consigliato: Metodologia della ricerca psicologica di Pedon e Gnisci

Riassunto per l'esame di metodologia della ricerca psicologica basato sullo studio autonomo del testo consigliato dal docente: Metodologia della ricerca psicologica di Pedon e Gnisci su: evoluzione del concetto di scienza, processo di ricerca, comunicazione dei risultato, strumenti di ricerca, esperimenti, quasi esperimenti ed esperimenti su singoli sogg, attendibilità e validità. Vedi di più

Esame di Metodologia della ricerca psicologica docente Prof. P. Mossi

Anteprima

ESTRATTO DOCUMENTO

responsabile della ricerca, oppure effettuata dai ricercatori individuando fonti secondarie, come per

esempio i dati ISTAT.

L'inchiesta può essere condotta con diversi metodi, i principali sono a inchiesta trasversale e a

inchiesta sul panel o Coorte.

L'inchiesta trasversale si caratterizza in quanto la raccolta dei dati su un campione rappresentativo

della popolazione avviene nello stesso momento. Il significato di stesso momento dipende dalla ricerca

dal fenomeno sotto studio: L'importante è che tale momento sia un intervallo in cui non avvengono

eventi rilevanti tali da condizionare, differenzialmente nel tempo, le risposte alle domande.

Esiste anche un tipo particolare di inchiesta trasversale cosiddetta ripetuta, in questo caso, il

ricercatore conduce una serie di inchieste multiple nel tempo, una indipendentemente dall'altra,

estraendo più campioni rappresentativi della stessa popolazione.

L'inchiesta sul Panel consiste nel raccogliere dati sullo stesso campione di soggetti più volte nel tempo,

tale rilevazione longitudinale implica lo studio di una coorte, cioè un gruppo di persone che condivide

una caratteristica o un'esperienza comuni in un determinato periodo. Infine, qualora si è ritenuto

opportuno, l'inchiesta sul Panel può essere combinata con quella trasversale. L'inchiesta è molto simile

al sondaggio ma la differenza sta nel fatto che il sondaggio Indaga l'opinione o l'atteggiamento verso

un fenomeno, rimanendo su un piano descrittivo, mentre l'inchiesta affronta questioni più approfondite,

anche di rilevanza teorica, che spesso hanno bisogno di correlare alcune variabili. Il primo ha, perciò,

un'ottica più descrittiva, la seconda più confermativa.

Errori, vantaggi e limiti dell’inchiesta campionaria

gli errori:

a) errori nella copertura della popolazione ( sopra o sotto copertura), che si verifica quando il gruppo

di potenziali partecipanti non include porzioni della popolazione di interesse o, al contrario, include

porzioni che non la rappresentano.

b) errori di campionamento

c) mancanza di risposte da parte di alcuni soggetti del campione

d) errori di costrutto, che avvengono quando i costrutti vengono misurati in modo errato

e) errori di misurazione dovuti a errori sistematici ascrivibili al rispondente, come ad esempio la

desiderabilità sociale, all'intervistatore, come l'influenzare la risposta o al questionario come domande

malposte

f) errori nei pesi utilizzati per la correzione

g)Errori di elaborazione dovuti alla pulizia e trasformazione dei dati della matrice dei dati grezzi.

Vantaggi e limiti dell'inchiesta campionaria dipendono in primo luogo dalla modalità con cui essa viene

condotta ed altri aspetti della ricerca, come il campionamento. Per esempio, l'intervista faccia a faccia è

onerosa in termini di soldi e tempo ma i dati raccolti sono di solito migliori, altre forme come l'intervista

telefonica permettono di raggiungere in poco tempo tante persone ma quanto i rispondenti siano attenti

quando rispondono, non è dato sapere.

INCHIESTA TRAMITE WEB O IL QUESTIONARIO ONLINE

la ricerca online può essere svolta in tre modi diversi:

a) con i metodi non reattivi

b) con la somministrazione di questionari online

c) con esperimenti Condotti sul web.

La somministrazione online di un questionario ha un grande successo dovuto all'apparente facilità con

cui questionari possono essere costruiti e gli studi condotti, raggiungendo in breve tempo un ampio

numero di partecipanti. Ma, l'inchiesta tramite web rischia di condividere alcuni dei problemi

dell'inchiesta tradizionale, per esempio, non si conosce il grado di serietà con cui il partecipante

compila il questionario. Spesso non si sa bene quanto il campione raccolto sia rappresentativo della

popolazione che si voleva raggiungere. Questo dipende probabilmente anche da come e da dove si

pubblicizza il reclutamento online. Alcuni ricercatori, piuttosto che cercare di intercettare a caso

partecipanti che navigano online, preferiscono invitare alcune platee direttamente a partecipare

seguendo determinati piani di campionamento, per esempio, un docente può invitare gli studenti della

propria classe A eseguire il questionario.

Il senso di anonimità dei partecipanti a un'inchiesta online è enfatizzato, in alcuni casi, questo è un

difetto, infatti, insieme alle informazioni sugli incentivi per partecipare alla ricerca, esso influenza la

frequenza di abbandono dello studio; in altri casi, invece, è un vantaggio, per esempio quando si

studiano temi sensibili. Attraverso il questionario online è possibile somministrare direttamente

strumenti di misura psicologici, come, per esempio, inventari di personalità, scale di self-monitoring o

questionari di memoria prospettica.

LA METANALISI

In psicologia, raramente un singolo studio offre una risposta esauriente e completa a un problema di

ricerca, per ottenere una risposta sufficientemente esaustiva, si devono condurre numerose ricerche. La

replica di una ricerca è spesso fondamentale ma spesso porta a risultati diversi, a causa di campioni,

variabili, procedimenti differenti; perciò si fa un'integrazione dei risultati delle ricerche , essa implica la

raccolta delle ricerche condotte su un dato argomento, la loro categorizzazione ( per esempio Quelle

metodologicamente ben fondate VS quelle che contengono evidenti carenze di controllo) e quindi il

tentativo di trarre conclusioni di carattere generale sulla base della proporzione di ricerche che

convergono su un determinato risultato. Tale approccio però, ha comportato l'introduzione di giudizi

soggettivi, preferenze ed errori, che sono diventati evidenti quando in molti casi, si è visto che due

esaminatori arrivavano a conclusioni differenti analizzando la stessa letteratura.

La metanalisi evita questo scoglio perché si basa su analisi di analisi, cioè analizza i risultati di altre

ricerche. Il termine metanalisi fu introdotto da Glass per indicare un approccio quantitativo ideato per

integrare i risultati di numerose ricerche relative alla stessa tematica e indica un'analisi fatta

successivamente o che va oltre. Quindi è un metodo di analisi secondario che si basa sui dati della

ricerca primaria e, in quanto tale ha un elemento di somiglianza con la ricerca d'archivio.

Esistono due classi di metanalisi, la prima tende a stabilire un risultato globale combinando

statisticamente gli indici di significatività dei risultati delle singole ricerca.

La seconda classe di metanalisi si basa su indici di grandezza dell'effetto tra le varianti riscontrato

nella ricerca. Un indice di grandezza dell'effetto indica la forza della relazione tra le due variabili.

Questa seconda tecnica di metanalisi consente al ricercatore di combinare i risultati di parecchi studi e

arrivare a una stima combinata dell'ampiezza dell'effetto. I due approcci alla metanalisi possono anche

essere applicati insieme.

La procedura per la metanalisi è sintetizzabile in quattro passi:

1) innanzitutto, Bisogna definire concettualmente il fenomeno sotto studio, le variabili un'ipotesi di

ricerca;

2) bisogno individuare i criteri per campionare gli studi precedenti. i criteri principali sono:

studio di correlazione o della causa

1. miglior prova, cioè si eliminano gli studi metodologicamente più difettosi a favore di quelli di

2. alta qualità

omogeneità metodologica, che previene l'uso problematico di ricerche con metodi marcatamente

3. diversi

inclusione o meno di studi mai pubblicati

4.

3) bisogna Codificare sistematicamente le caratteristiche di base degli Studi selezionati

4) bisogna stimare gli indici di grandezza dell'effetto di ogni studio, analizzarli statisticamente,

interpretare i risultati e diffonderli.

Ci sono due aspetti importanti della metanalisi: l'errore sistematico nelle pubblicazioni e l'uso di

moderatori.

L'errore sistematico delle pubblicazioni si riferisce al fatto che gli studi con risultati non significativi

hanno una probabilità minore di essere pubblicati. Perciò, i risultati della metanalisi tendono a

dimostrare la presenza di un effetto più di quanto sia vero. Proprio perché lo scopo della metanalisi

è descrivere l'universo degli studi su quel fenomeno non un campione selezionato, uno dei compiti degli

studiosi che fanno metanalisi è includere nel campione studi non pubblicati.

A volte, numerose ricerche ottengono risultati difformi semplicemente perché ci sono differenze

culturali, differenze nei partecipanti, di linguaggio. Perciò, se si guarda al fenomeno con una prospettiva

più ampia di quella del singolo ricercatore che ha condotto la ricerca, il motivo per cui l'effetto della

variabile indipendente sulla dipendente può mutare da ricerca a ricerca è che tale effetto è moderato da

una terza variabile. Perciò, l'analista deve assolutamente trattare questa terza variabile come un

moderatore. Un moderatore è una variabile che influenza la direzione o la forza della relazione tra due

variabili. Nella meta-analisi, i moderatori possono spiegare parte delle eterogeneità tra diversi studi e

quindi contribuire a una più ampia comprensione del fenomeno.

UN BILANCIO

Se teniamo conto dei metodi descritti in questo capitolo, scopriamo che essi possono essere ordinati

sulla base delle limitazioni che impongono al ricercatore (vincoli) e dell'affidabilità dei risultati ottenuti.

Questi vincoli vengono detti livelli di costrizione, si tratta di condizionamenti strettamente legati alla

caratteristiche della ricerca, tra cui la natura del problema da indagare, la quantità e il tipo di

informazioni disponibili su di esso. Sulla base di questi due elementi le scelte del ricercatore potranno

essere o piuttosto aperte, con le ipotesi e le procedure di ricerca flessibili e relativamente poco definite,

oppure molto particolareggiate, che non lasciano spazio ad alcuna flessibilità.

Emerge che più si aumenta il controllo sulle condizioni e sui metodi di osservazione più le regole

diventano rigide; in cambio, diventa più sicura la relazione tra le variabili che si vogliono studiare.

all'aumentare dei vincoli, aumenta la certezza dei risultati ottenuti.

E' importante sapere che, se sono usati in modo appropriato, tutti i livelli di costruzione sono

scientificamente validi. I problemi sorgono quando non sono adeguati all'argomento da studiare e

quando vengono mescolati in modo errato.

LIVELLI DI COSTRIZIONE: Dai più flessibili a più costrittivi:

1) osservazione naturalistica: essa vieta ogni tentativo di modificare l'ambiente di condizionare il

comportamento di soggetti.

2) studio dei casi singoli: il ricercatore deve in qualche misura intervenire sul comportamento del

soggetto, ad esempio: fare delle domande, sottoporre i soggetti a reattivi psicologici ecc.

3) inchiesta e inchiesta online: scelta di un numero sufficientemente grande di soggetti in poco tempo e

somministrazione di domande strutturate. In questi casi, bisogna quantificare ciò che si misura, spesso,

con semplici statistiche descrittive (percentuali).

4) ricerca d'archivio: molti vincoli sono posti dalle limitazioni dovute a difficoltà di accesso al

materiale o cattiva qualità dei dati, meno vincoli vi sono quando è possibile trovare un archivio

facilmente accessibile con dati completi.

5) ricerca correlazionale: Comporta costrizioni legate alle scale di misura adoperate nella raccolta dei

dati e ai metodi statistici della correlazione.

6) studi longitudinali e trasversali: il livello di costrizione di questi studi implica una esplicita

comparazione o tra due misure, prelevate a distanza di tempo, del rendimento di un solo gruppo di

soggetti, oppure tra quelle di due gruppi di soggetti, e raccolte nello stesso momento. Perché la

comparazione sia significativa, è necessario che il ricercatore tratti i gruppi esattamente nella stessa

maniera, eccetto per una variabile: quella della distanza di tempo tra una misura e l'altra nel primo caso,

oppure quella relativa alla variabile di interesse nel secondo caso (livello d’età ecc).

7) quasi- esperimenti: il livello di costruzione richiesto da disegni quasi sperimentali è simile a quello

sperimentale, a eccezione del controllo sull’estrazione e l'assegnazione casuale dei soggetti alle

condizioni.

8) la ricerca sperimentale: negli esperimenti si devono attuare specifici confronti tra soggetti sottoposti

a differenti condizioni, i soggetti devono essere estratti casualmente dalla popolazione, devono essere

assegnati a gruppi o condizioni in modo randomizzato, e le variabili di confusione devono essere

strettamente controllate.

Quindi, man mano che si sale da disegni a bassa costrizione a quelli più rigidamente controllati, le

norme per condurre la ricerca diventano sempre più numerose e più rigide. Nell'osservazione

naturalistica, il disegno comporta pochi divieti, mentre nei veri esperimenti e procedure sono molto

severe, riguardano tutte le fasi dell'esperimento e vanno pianificate in anticipo.

VERI ESPERIMENTI

Costruire un disegno sperimentale vuol dire mettere punto un insieme di elementi e di procedure che

consentono di dire, con la più alta sicurezza, che gli effetti riscontrati nella variabile dipendente sono

causati dalla manipolazione di quella indipendente e non dall'influenza di variabili non controllate.

I veri esperimenti consentono allo studioso di avere controllo completo su tutte le variabili della

ricerca: chi, cosa, quando, dove e come. Il controllo sul chi comporta che si possano assegnare in modo

casuale i soggetti alle varie condizioni sperimentali.

I quasi esperimenti, invece, non controllano tutte le condizioni, perché i soggetti possono essere

sottoposti alle varie condizioni sperimentali solo in ragione di raggruppamenti già costituiti. Il

ricercatore cioè non può manipolare a suo piacimento i livelli della variabile indipendente, ma li prende

così come sono in natura. Ad esempio, se si dovessero esaminare le differenze di abilità meccanica tra i

sessi, si potrebbe disegnare solo un quasi-esperimento. Poiché non è possibile assegnare i soggetti in

modo casuale alle condizioni maschio e femmina. La variabile sesso condiziona così il piano stesso,

inoltre, nei quasi esperimenti non è possibile controllare tutti i fattori di confusione. Proprio perché

sono basati su gruppi già esistenti, i quasi esperimenti talvolta vengono chiamati anche ex posto facto

(dopo il fatto).

OPZIONI PROCEDURALI PER IL DISEGNO SPERIMENTALE

Sulla base degli scopi e delle assunzioni scientifiche, l'impostazione dei diversi disegni sperimentali

viene fatta sulla diversa combinazione delle seguenti 4 opzioni procedurali:

La misura della variabile dipendente può essere eseguita

1.

a) sia prima che dopo il trattamento

b) solo dopo il trattamento

I modi di sottoporre a trattamento i gruppi:

2.

a)ogni gruppo è sottoposto a un solo livello della variabile indipendente= disegno sperimentale TRA

I GRUPPI/TRA I SOGGETTI

b)Ogni gruppo è sottoposto a tutte le condizioni di trattamento= disegno sperimentale ENTRO I

GRUPPO/ENTRO I SOGGETTI

Il numero delle variabili indipendenti:

3.

a)una soltanto

b) 2 o più, in questo caso parliamo di DISEGNO FATTORIALE.

Il controllo delle variabili estranee viene eseguito mediante randomizzazione, pareggiamento

4. o metodo a blocchi.

DISEGNI PRE-SPERIMENTALI

Alcuni piani di ricerca vengono utilizzati per esplorare nuovi problemi o per mettere a punto eventuali

nuove ipotesi. Proprio peché servono per compiti esplorativi, alcuni autori li chiamano disegni pre-

sperimentali.

Questi disegni non garantiscono alcuna garanzia di validità. Essi sono:

• disegno con un solo gruppo e una sola prova, ha una totale carenza di validità interna e vi è

l'assenza di qualsiasi punto di paragone.

• disegno con un solo gruppo e 2 prove (una prima e una dopo il trattamento), esso rispetto al

primo contiene la prova preliminare, potrebbe apparire valido perché vi è una logica di

confronto tra prima e dopo; in realtà, non assicura che il trattamento sia il solo fattore della

differenza dei risultati tra le due misurazioni, inoltre, non controlla le minacce della validità

interna: come la storia, tra le due prove vi sono dei cambiamenti che avvengono nei

soggetti(uno mette gli occhiali); maturazione, tra la prima e la seconda prova, i soggetti

crescono, si possono stancare o possono perdere l'entusiamo iniziale; effetto delle prove, ad

esempio l'esperienza pre-test può avere aumentato la motivazione; effetti dovuti alla

strumentazione, ogni cambiamento nel test ecc; regressione statistica; mortalità.

• disegno con 2 gruppi non equivalenti e una prova: comprende un gruppo di confronto, il

quale tuttavia non è un vero e proprio gruppo di controllo perché non è randomizzato. Un

gruppo di soggetti viene sottoposto al trattamento mentre l’altro no. Apparentemente il

procedimento sembra adeguato; il motivo è che nella comparazione finale si assume che i due

gruppi fossero equivalenti in partenza. Ma tale equivalenza non è stata verificata, perché i

soggetti non sono stati assegnati ai gruppi in modo randomizzato.

DISEGNI CON UNA SOLA VARIABILE INDIPENDENTE

Essi si suddividono in piani tra gruppi e piani entro i gruppi.

-I disegni tra gruppi comportano che i soggetti siano scelti in modo casuale dalla popolazione e siano

assegnati pure casualmente alle condizioni di trattamento; ogni soggetto deve essere sottoposto ad una

sola condizione sperimentale.

-I piani entro i gruppi richiedono che i soggetti siano sottoposti a tutte le condizioni sperimentali, ciò

che viene assegnato casualmente è l’ordine di esposizione alle prove.

PIANO TRA GRUPPI CIN UNA SOLA VARIABILE INDIPENDENTE

I piani a gruppi indipendenti comportano la presenza di due o più gruppi, i cui singoli elementi devono

essere:

a) scelti in modo casuale da una popolazione;

b) assegnati pure casualmente ai diversi livelli della variabile indipendente.

La pluralità dei gruppi richiesta da questi piani ha un ruolo fondamentale per controllare le influenze

delle variabili di disturbo. L’effetto del trattamento viene evidenziato confrontando il rendimento di un

gruppo sottoposto ad un livello della variabile indipendente con quello di un gruppo differente che non

riceve il trattamento o che è sottoposto ad una condizione sperimentale dello stesso tipo ma di diverso

livello.

Disegno classico e sue variazioni:

Comporta la presenza di due gruppi randomizzati, due prove e il trattamento per un solo gruppo.

Un gruppo sperimentale randomizzato viene sottoposto al pre-test, al trattamento e al post-test. Ed un

gruppo di controllo randomizzato esegue il pre-test ed il post-test ma non subisce il trattamento.

a) Si scelgono i soggetti da una popolazione con uno dei procedimenti di campionamento casuale;

b) Si assegnano i soggetti in egual numero al gruppo sperimentale e a quello di controllo mediante

randomizzazione;

c) Sia i soggetti del gruppo sperimentale che quelli del gruppo di controllo vengono sottoposti al pre-

test;

d) Si tengono costanti tutte le condizioni per ambedue i gruppi, ad eccezione del trattamento;

e) Si sottopongono i due gruppi al pre-test e si trovano le medie dei punteggi;

f) Si confrontano le medie per determinare Se il trattamento è associato ad un cambiamento a favore del

gruppo sperimentale rispetto a quello di controllo;

g) Si applica un appropriato test statistico per verificare se la differenza tra i due post-test è significativa.

Cioè sufficientemente alta da permettere di rigettare l'ipotesi nulla, secondo cui la differenza sarebbe

dovuta la caso.

Per quanto riguarda la validità interna, in questo disegno si possono escludere gli effetti della

regressione statistica, della selezione e della mortalità. Inoltre la presenza del gruppo di controllo

equivalente consente di analizzare gli effetti dovuti alla storia, maturazione, fluttuazioni dello strumento

di misura e alla interazione tra mortalità e trattamento.

La validità esterna di questo disegno può essere delineata:

a) interazione tra pre-test e trattamento non può essere controllata;

b) sull’interazione tra selezione e trattamento si deve dire che i soggetti hanno caratteristiche del tutto

diverse da quelle delle persone a cui si vuole generalizzare i risultati, non è possibile eliminare la

presenza di errori sistemativi;

c) Anche l’interazione tra trattamento e altri fattori possono limitare la possibilità di generalizzazione;

d) Gli effetti dovuti alla reazione ai procedimenti sperimentali possono compromettere la

generalizzazione.

in alcune circostanze è preferibile il piano in cui anche il gruppo di controllo randomizzato è sottoposto

al trattamento, purché il livello sia differente da quello del gruppo sperimentale.

Nel caso si adoperassero tre gruppi invece di due, il terzo dei quali fa da gruppo di controllo e non

viene sottoposto a trattamento, il disegno diventerebbe ancora più affidabile.

La validità interna di questo disegno risulta rafforzata rispetto a quella del disegno classico perché

sono controllati gli eventuali fattori di disturbo tra le due sessioni. L’unico problema che può incorrere è

la maggiore difficoltà di ottenere gruppi omogenei col crescere del numero dei gruppi. Per quanto

riguarda la validità esterna, valgono le stesse osservazioni di quello precedente.

Il disegno di Solomon:

Solomon ha ampliato in diversi modi il disegno classico basato su un solo gruppo di controllo. Uno di

questi è il piano che Campbell e Stanley hanno chiamato “disegno a quattro gruppi randomizzati di

Solomon”. Richiede quattro gruppi di soggetti, che sono sottoposti alle condizioni sperimentali.

Questo disegno comporta un doppio esperimento: uno eseguito con il pre-test e uno senza.

Questo è anche il suo principale difetto: è molto difficile da attuare perché molto articolato, sia perché

richiede la disponibilità di un gran numero di soggetti.

Il primo gruppo viene sottoposto ad ambedue le prove e al trattamento; il secondo gruppo esegue

ambedue le prove ma non la condizione sperimentale; il terzo gruppo viene sottoposto al trattamento e

alla seconda prova; il quarto gruppo esegue il post-test. Tutti i gruppi devono essere randomizzati.

Il piano di Solomon consente tre importanti tipi di controllo.

1- Permette di verificare l’omogeneità del rendimento del gruppo sperimentale con quello di

controllo, dato che ambedue i gruppi sono sottoposti al medesimo pre-test, e di verificare perciò

l’efficacia del trattamento.

2-Permette di verificare se la presenza della prova preliminare produce qualche effetto sul

rendimento dei soggetti.

3- Consente anche di controllare se esiste una interazione tra prova preliminare e trattamento.

PIANO ENTRO I GRUPPI CON UNA SOLA VARIABILE INDIPENDENTE

I disegni entro i gruppi, comportano che tutti i soggetti siano sottoposti a tutte le condizioni

sperimentali.

Disegno a misure ripetute semplice:

a) Ogni soggetto è sottoposto a tutti i livelli della variabile indipendente; perciò i punteggi di ogni

condizione sono correlati tra loro;

b) Ogni soggetto viene valutato più di una volta sulla variabile dipendente;

c) il confronto critico consiste nel calcolare la differenza dei punteggi ottenuti dai soggetti nelle due o

più condizioni sperimentali.

Quando viene usato in modo appropriato, il disegno entro i soggetti presenta i seguenti vantaggi:

1. Garantisce l’equivalenza dei gruppi rispetto a variabili importanti nelle varie condizioni prima

dell’esperimento.

2. È molto sensibile agli effetti della variabile indipendente rispetto ai disegni tra gruppi.

3. L’attuazione corretta di questo piano comporta un numero di soggetti minore di un disegno tra

gruppi.

4. L’efficacia di questo disegno è aumentata dal fatto che non è necessario impartire le istruzioni più

volte perché ad essere sottoposti a più condizioni sono gli stessi soggetti.

Il disegno entro i soggetti comporta anche dei limiti non trascurabili, primo fra tutti l’effetto dell’ordine

e della sequenza.

Disegni controbilanciati per il controllo degli effetti dell'ordine e della sequenza

A volte agli stessi partecipanti vengono somministrate molte condizioni. Negli esperimenti di questo

tipo è possibile che l'esecuzione delle prime prove influisca sul rendimento di quelle successive. Gli

autori distinguono 2 possibili effetti: dell'ordine e della sequenza.

Effetti dell'ordine e della sequenza

EFFETTO DELL'ORDINE: E' dovuto all'ordine delle condizioni, se ad esempio presentiamo più

condizioni, il fatto che il soggetto possa prendere pratica e familiarità può portare a far diventare

queste delle variabili di confusione. Ad esempio, possono avere un effetto di facilitazione, facendo ciò

aumentare la performance dei soggetti nelle prove successive rispetto a quelle precedenti, o al contrario

diminuire, a causa della fatica, stanchezza.

EFFETTO DELLA SEQUENZA: E' dovuto alla parziale dipendenza di una condizione sperimentale

da quella precedente. E' come se la prova precedente lasciasse un residuo che influenza quella

successiva, ma non per il fatto che ci sia stata una prova prima, ma proprio quella specifica prova. Per

esempio, negli esperimenti psicofisici, come quello del sollevamento pesi, è quasi sempre presente il

cosiddetto effetto di contrasto: una persona, dopo aver sollevato un oggetto molto pesante, deve

stimare la pesantezza di uno molto più leggero, percepisce quest'ultimo assai più leggero di quello che

in realtà è.

Il controbilanciamento

Il controllo degli effetto dell'ordine e della sequenza viene detto controbilanciamento delle prove.

Esistono 2 strategie di controbilanciamento. La prima consiste nel disporre l'ordine delle condizioni in

modo che i due effetti siano controllati entro i soggetti. La seconda consiste nel controllare gli effetti

dell'ordine e della sequenza tra i soggetti.

Controbilanciamento TRA I SOGGETTI

Si basa sulla costituzione di un determinato numero di gruppi, tanti quanti sono le combinazioni delle

prove in sequenza: a ogni gruppo viene somministrata una combinazione unica di queste prove. Se si

somministrato tutte le combinazioni di prove possibili si tratta di controbilanciamento completo, se

vengono selezionate solo combinazioni particolari di prove, si dice controbilanciamento incompleto.

Questa tecnica permette di controllare solo gli effetti dell'ordine e non della sequenza.

Controbilanciamento ENTRO I SOGGETTI

Il controllo si esercita sottoponendo ciascun soggetto a tutte le prove, più volte, in diverse combinazioni.

Si possono distinguere 3 soluzioni di controbilanciamento entro i soggetti:

• RANDOMIZZAZIONE DELLE PROVE: ciascun soggetto sarà sottoposto più volte alle

diverse prove in successioni casuali.

• CONTROBILANCIAMENTO INVERSO: è un modo per controllare gli effetti del solo ordine,

consiste nel sottoporre ogni soggetto a tutte le prove prima in un ordine e poi nell'ordine inverso.

Esso è efficace quando si ha la certezza che non vi siano effetti di sequenza.

• RANDOMIZZAZIONE A BLOCCHI: controlla sia gli effetti dell'ordine, sia della sequenza.

Esistono insiemi di prove, detti blocchi, ciascuna delle quali viene presentata una volta soltanto

all'interno di quell'insieme e , in generale, tante volte quanti sono gli insiemi. Tuttavia, le

sequenze all'interno dei blocchi non sono inverse, sono scelte casualmente, e i blocchi possono

essere più di due. Perciò, questa tecnica consiste nel randomizzare l'ordine delle prove con

l'avvertenza che la seconda (ed eventualmente terza) ripetizione delle condizioni formi un

blocco diverso dalla prima.

DISEGNI CON PIU' VARIABILI INDIPENDENTI O DISEGNI FATTORIALI

Nella ricerca psicologica molto spesso è necessario analizzare l’effetto combinato di due o più variabili

indipendenti. In tal caso ci si trova di fronte ai cosiddetti disegni fattoriali. In un disegno fattoriale la

variabile dipendente è sempre quantitativa. E la tecnica statistica adeguata per tali disegni è detta analisi

della varianza (O ANOVA)

Caratteristiche dei disegni fattoriali:

I disegni fattoriali si caratterizzano:

1. Per la presenza di due o più variabili indipendenti, fattori, ciascun fattore è composto da due o più

livelli, uno dei quali è di controllo, l’altro/i prevedono il trattamento.

2. Per la presenza (eventuale) dell’effetto esclusivo di ciascuna variabile indipendente sulla variabile

dipendente. Effetto principale di ciascun fattore.

3. Per la presenza (eventuale) dell’effetto dovuto contemporaneamente alle due o più variabili

indipendenti. Effetto di interazione dei fattori.

Effetti principali e interazioni:

In metodologia si parla di interazione tra variabili quando l’effetto di una variabile indipendente risulta

diverso nei differenti livelli dell’altra variabile indipendente.

Se ogni variabile ha un proprio effetto principale sul soggetto, quindi sono entrambe presenti nello

stesso soggetto, l'effetto combinato delle due variabili indipendenti da un effetto differente, che non è

semplicemente la somma degli effetti delle 2 variabili, ma si tratta di un effetto INTERATTIVO: si

verifica tutte le volte che il risultato è diverso dalla somma degli effetti principali, non solo più

grande.

Possibili esiti di un disegno fattoriale:

Poiché l’azione di un effetto non esclude la possibilità che qualsiasi altro effetto agisca, i possibili esiti

di UN DISEGNO FATTORIALE 2X2(con 2 variabili indipendenti, A e B) sono otto:

i fattori non hanno effetto sulla variabile dipendente

1. esiste solo un effetto principale di A

2. esiste solo un effetto principale di B

3. esistono solo due effetti principali di A e B (azione sommativa)

4. esiste solo l'effetto di interazione tra A e B (azione interattiva)

5. esistono solo l'effetto principale di A e l'effetto interattivo di A e B

6. esistono solo l'effetto principale di B e l'effetto interattivo di A e B

7. esistono i due effetti principali e l'effetto interattivo di A e B

8.

Progettazione di un disegno fattoriale:

- Stabilire il problema;

- Definire le variabili operazionalmente;

- Sviluppare e definire le ipotesi di ricerca;

- Assegnare in modo randomizzato i soggetti alle condizioni;

- Determinare le misure dipendenti;

- Scegliere con cura i metodi statistici per misurare le risposte dei soggetti;

Lo scopo è di verificare una o più ipotesi casuali. Tuttavia i disegni fattoriali sono più complicati dei

disegni con una sola variabile indipendente.

Il disegno fattoriale 2x2 poiché ha due variabili indipendenti che devono essere manipolate, ha una

validità interna più fragile di un disegno con una sola variabile indipendente.

inoltre, poiché è essenzialmente un disegno composto da due disegni, contiene più di una ipotesi nulla.

Ad esempio, in un disegno fattoriale 2x2, vi sono tre ipotesi nulle per ogni misura dipendente.

a) nessuna differenza tra i livelli del fattore A;

b) nessuna differenza tra i livelli del fattore B;

c) nessuna interazione significativa tra i fattori A e B;

Con disegni fattoriali più complessi, si dovranno verificare più ipotesi nulle.

Lo si fa ricorrendo all’analisi della varianza.

ALCUNI DISEGNI FATTORIALI

1-Disegno fattoriale completamente randomizzato:

Si parla di disegno fattoriale completamente randomizzato quando sono presenti

contemporaneamente:

a) due o più variabili indipendenti manipolate, con due o più livelli per ciascuna di esse;

b) quando ogni variabile indipendente è completamente incrociata con ogni altra variabile indipendente,

cosa che comporta che ogni livello di una variabile indipendente sia combinata con ogni livello

dell’altro fattore;

c) quando i soggetti sono assegnati in modo randomizzato ad ogni gruppo;

d) quando ogni gruppo è sottoposto solamente a una combinazione delle variabili indipendenti.

Tale piano è considerato di base, in quanto da esso si possono trarre conclusioni sulla relazione causale

tra le variabili con una considerevole fiducia.

2-Disegno fattoriale entro i soggetti (o a misure ripetute):

In questi piani i gruppi sono sottoposti a tutte le combinazioni dei fattori invece che a uno di essi.

Rispetto al disegno tra i soggetti, quello entro i soggetti comporta degli svantaggi che derivano dal

fatto che ogni soggetto è sottoposto ad ogni condizione. Questo può consentire la presenza di effetti

dovuti all’ordine e alla sequenza.

se gli effetti dell’ordine e della sequenza sono tenuti sotto controllo, allora i piani fattoriali entro i

soggetti offrono notevoli vantaggi. Questi sono:

a) Una maggiore sensibilità agli effetti della variabile indipendente;

b) L’equivalenza dei gruppi all’inizio e durante l’esperimento;

c) L’esigenza di un minor numero di soggetti;

d) Una migliore efficienza;

3-Disegni misti

Alle volte le due o più variabili indipendenti che costituiscono un disegno fattoriale possono

essere di tipo diverso. Ad esempio, una tra i soggetti e uno entro i soggetti, oppure una

manipolabile e l’altra no. Questi piani vengono chiamati disegni misti. Tale termine è usato in due

modi differenti:

a) Nel primo significato indica un piano che include una variabile indipendente tra i soggetti ed

una entro i soggetti;

b) Nel secondo significato si intende un disegno fattoriale che comprende un fattore manipolato

ed uno non manipolato

Disegno misto con fattori tra i soggetti ed entro i soggetti:

Tale disegno non presenta nulla di nuovo rispetto alle finalità descritte per i precedenti disegni

fattoriali, ad eccezione del fatto che nella scelta delle formule dell’analisi della varianza si dovrà

tener conto di questa combinazione.

La forma più semplice di un disegno del genere implica una situazione in cui due variabili

indipendenti variano in due maniere diverse. Uno dei fattori richiede tanti gruppi di soggetti quanti

sono i suoi livelli di variazione e l’altro fattore comporta che tutti i soggetti siano sottoposti a tutti i

livelli.

Questo disegno consente di verificare gli effetti principali di ciascun fattore, come pure l’effetto di

interazione tra le due variabili indipendenti. Tale verifica è attuata con un minor numero di soggetti

rispetto al disegno fattoriale completamente randomizzato.

Disegno misto con fattori manipolati e non manipolati:

Il secondo tipo di disegni misti è composto da fattori manipolati e fattori non manipolati, ed i

soggetti sono assegnati in modo randomizzato alle condizioni della variabile manipolata, mentre ai

livelli del fattore non manipolato vengono assegnati sulla base delle caratteristiche preesistenti

(maschio e femmina x es).

Il problema presentato da questo disegno riguarda quello dell’interpretazione dei risultati, perché

le variabili non manipolate comportano sempre degli effetti di confusione, per cui è difficile

fare inferenze causali basate sull’analisi degli effetti principali della variabile.

QUASI-ESPERIMENTI ED ESPERIMENTI SU SINGOLI SOGGETTI

Nelle ricerche psicologiche capita spesso di non poter utilizzare i veri esperimenti. La migliore

soluzione è di dirottare la scelta sui quasi-esperimenti.

Poiché non controllano tutte le variabili di disturbo, le inferenze basate sui loro dati non sono molto

affidabili. Tale limite è dovuto ad uno dei seguenti:

a) non è possibile manipolare a piacimento la variabile indipendente;

b) non si possono scegliere in modo casuale dalla popolazione i soggetti che devono formare il

campione;

c) non si possono assegnare i soggetti ai gruppi in modo randomizzato;

Nei disegni quasi-sperimentali quindi è possibile:

- Stabilire l’ipotesi causale;

- Determinare almeno due livelli della variabile indipendente, ma non manipolarla a piacimento;

- Attuare Le procedure specifiche per verificare le ipotesi;

- Includere alcuni controlli sulle minacce alla validità;

- Assegnare i soggetti ai gruppi ma non in modo casuale.

Disegni con gruppi di controllo non equivalenti:

Si tratta di piani che comportano un procedimento simile a quello del disegno classico “classico” dei

veri esperimenti. Ad eccezione del fatto che i soggetti non sono assegnati ai gruppi in modo casuale.

I gruppi si assomigliano solo per la loro facile reperibilità e vengono sottoposti al pre-test e

successivamente al post-test. I limiti di questi disegni dipendono dalla mancanze di un punto di

paragone fisso con cui confrontare i risultati del gruppo sperimentale. Il pregio, invece, è dato dal fatto

che costituiscono la soluzione migliore quando i gruppi formano delle entità naturali, che devono essere

mantenute intatte per studiarne le caratteristiche.

I due principali problemi:

a) La mancanza di equivalenza nei gruppi;

b) L’impossibilità di controllare con l’assegnazione casuale tutte le variabili parassite.

Le conseguenze dovute all’assenza di equivalenza dei gruppi vengono in genere limitate componendo

un gruppo di controllo quanto più possibile simile a quello sperimentale.

Ma anche se il grado di equivalenza del rendimento al pre-test fosse elevato, non è mai eliminata la

possibilità che possano influire altre variabili estranee. Per limitare tali effetti di disturbo è importante

isolare tutte le potenziali variabili di confusione, adottando le procedure di controllo.

a) si sottopongono i due gruppi al pre-test, al trattamento e al successivo post-test.

b) si calcolano le differenze tra i punteggi del pre-test e del post-test di ogni gruppo.

c) si applica un appropriato test statistico per verificare se vi è una differenza significativa tra le

differenze dei due gruppi.

La correttezza dell’uso e dell’interpretazione dei disegni con un gruppo di controllo non equivalente

richiede una notevole esperienza.

La validità interna può risultare abbastanza controllata quando:

a) i gruppi hanno medie e deviazioni standard simili nel pre-test;

b) il gruppo di controllo permette di evidenziare gli errori dovuti alla storia, al pre-test, alla maturazione,

alla strumentazione e al trattamento.

c) l’effetto dovuto alla mortalità è controllato mediante il confronto tra i risultati del pre-test e quelli del

post-test;

d) la regressione statistica è eliminata;

e) l’interazione tra selezione-maturazione e selezione-storia viene sufficientemente controllata.

Si deve sempre sospettare a motivo dell’assenza della randomizzazione, qualche differenza critica

contamini i risultati del post-test.

Per quanto riguarda la validità esterna, valgono le stesse osservazioni fatte a proposito del disegno

classico. Il piano con un gruppo di controllo non equivalente ha, però, il vantaggio di rispettare

l’integrità naturale dei gruppi e di non toglierli dal contesto della vita quotidiana.

Disegni simulati prima-dopo:

Quando le ricerche sono condotte sul campo, non si può sempre assegnare casualmente i soggetti a

differenti livelli di trattamento. In molte circostanze, però, è possibile esercitare un sufficiente controllo

sui momenti di registrazione delle prove preliminari e del post-test, come pure sui campioni.

Negli studi su grandi popolazioni è possibile rilevare l’impatto esercitato da un intervento qualunque

sull'insieme della popolazione se si possono raccogliere e misurare i dati della variabile che interessa sia

prima che accada l’evento che modifica la variabile, sia dopo.

In questi tipi di ricerche si possono adoperare i seguenti due disegni:

1. Piani a campione differente nel pre-test e post-test.

2. Piani a campione differente nel pre-test e post-test, con o senza trattamento.

A)Piani a campioni differenti nel pre-test e nel post-test:

Questo disegno è utile quando il trattamento riguarda tutta la popolazione.

Si supponga che il consiglio di facoltà di una grande università promuova una campagna pubblicitaria

per una appropriata e corretta utilizzazione della biblioteca.

Per valutare l’impatto della campagna pubblicitaria sui 10.000 iscritti alla facoltà, all’interno della

popolazione si possono formare due gruppi di soggetti: quello sperimentale e quello di controllo.

a) si misurano le abitudini di consultazione del gruppo di controllo prima dell’inizio della campagna

pubblicitaria;

b) una volta che questa è terminata, si misurano le abitudini di consultazione del gruppo sperimentale;

c) si confrontano i dati ottenuti nella prova preliminare del gruppo di controllo con quelli ottenuti nel

post-test dal gruppo sperimentale.

B)Piani a campioni differenti nel pre-test e nel post-test con o senza trattamento:

Questo disegno è utile qualora il gruppo di controllo non possa essere sottoposto a condizione

sperimentale. Esso richiede che il gruppo sperimentale e quello di controllo siano a loro volta suddivisi

in due sottogruppi. I sottogruppi 1 e 2 del gruppo sperimentale corrispondono a quello di controllo del

disegno a campioni nel pre-test e nel post-test. I sottogruppi 3-4 del gruppo di controllo sono

rispettivamente sottoposti a pre-test e post-test. L’efficacia del trattamento viene verificata confrontando

la differenza osservata tra i risultati dei sottogruppi 1-2 e quella dei sottogruppi 3-4.

Grazie al gruppo di controllo, di cui una parte è sottoposta al pre-test e una parte al post-test, il

ricercatore può controllare gli effetti dovuti alla storia e alla maturazione.

È possibile però che i risultati siano influenzati da certe variabili esterne che intervengono solo nel

gruppo sperimentale. In tal caso si può pensare all’interazione tra selezione e fattori storici.

SOTTOGRUPPI PRE-TEST TRATTAMENTO POST-TEST

Gruppo sperimentale 1 T1 - -

2 - SI T2

Gruppo di controllo 3 T3 - -

4 - - T4

Disegni a serie temporali interrotte:

Assomigliano a un disegno con un solo gruppo e due prove ma, invece di una singola misura prima del

trattamento e un’altra dopo, richiedono diverse misurazioni della variabile dipendente, a scadenze

ben definite, sia prima della condizione sperimentale che dopo. Prima del trattamento e per un certo

periodo di tempo, si effettuerà la prima serie di misurazioni, poi si darà luogo alla fase della

manipolazione. Infine si riprenderanno le misurazioni per un periodo di tempo.

La molteplicità delle misurazioni protratta nel tempo ha un ruolo molto importante. Consente, infatti, di

evidenziare la tendenza dei dati prima della condizione sperimentale, chiamata linea di base, che viene

utilizzata come punto di paragone fisso per l’andamento dei dati raccolti dopo il trattamento. Tale

confronto ha funzione di controllo, anche perché ogni elemento del gruppo è sottoposto a tutte le

conduzioni di trattamento.

A)Disegni a serie temporali interrotte semplice:

E' utile quando si dispone di un solo gruppo di soggetti ed è difficile trovare un gruppo di controllo,

come nel caso di ricerche cliniche. Un esempio è quello di Graziano volto a studiare il comportamento

violento dei bambini autistici. Lo studio fu condotto su quattro bambini autistici. La serie di misurazioni

prima del trattamento durò un anno intero, poi fu applicato il trattamento. Interrotto esso, fu ripresa la

serie di misure per un altro anno solare. La linea di base dopo il trattamento non assomiglia affatto a

quella riscontrata prima del trattamento.

Tale disegno offre la possibilità di utilizzare dati raccolti in passato e confrontarli con quelli che si

stanno raccogliendo nel momento di ricerca e può essere usato anche per studiare fenomeni su larga

scala.

B)Disegni a serie temporali interrotte multiple:

Un interessante sviluppo del disegno a serie temporali interrotte è quello a multiple.

Tale piano utilizza un secondo gruppo di soggetti che non è sottoposto al trattamento. In questo

modo si ottengono due indicazioni sulla efficacia del trattamento.

1. La prima è data dal confronto tra rendimenti pre-sperimentali e post-sperimentali misurati sullo

stesso gruppo.

2. La seconda proviene dal confronto con il rendimento del gruppo di controllo che non riceve il

trattamento.

Questo piano ha il pregio di permettere il controllo degli effetti di confusione dovuti alla storia.

Invece, non è possibile controllare l’interazione fra trattamento e prove, poiché l’introduzione

dell’intervento è successiva alla serie di misure pre-sperimentali. Un altro limite di questo piano è il

carattere graduale o differito dell’effetto del trattamento, per cui non è sempre facile sapere se i

cambiamenti sono dovuti al trattamento o alla presenza di altre variabili di disturbo.

ESPERIMENTI SUI SINGOLI SOGGETTI

Anche se si tratta spesso di disegni sperimentali la loro struttura ricalca da vicino i disegni a serie

temporali interrotte.

Ebbinghaus eseguì gli studi sulla memoria usando se stesso come soggetto. Wundt misurò le varie

risposte psicologiche e comportamentali su soggetti singoli, o Pavlov, fece esperimenti su cani singoli.

La soluzione adottata per sostenere la validità scientifica del loro lavoro consisteva nel fare numerose

osservazioni e nel replicare le prove per verificare la somiglianza dei risultati. L'assunto alla base di

questo modo di procedere era l'equivalenza dei soggetti umani, perciò, una volta evitati i casi anomali,

la convergenza dei dati dei vari esperimenti era ritenuta la prova della generalizzabilità dei risultati.

-Vantaggi degli esperimenti su soggetti singoli:

Sebbene la ricerca su gruppi sia ormai di gran lunga la più seguita, si deve rilevare che l’esperimento sui

soggetti singoli presenta dei vantaggi che la ricerca sui gruppi non offre.

-

La prestazione individuale:

Già nel 1918 Skinner denunciava il fatto che la maggior parte dei dati empirici provenissero

dall’impiego di una metodologia centrata sullo studio di più soggetti.

Sidman faceva notare che la prestazione media di un gruppo rappresenta il comportamento di un

individuo inesistente. Le basi del suo argomentare era che gli esperimenti sui gruppi comportano il

confronto dei valori medi del rendimento di più persone. In questa media si perdono le informazioni

sulla specificità del comportamento dei singoli individui.

-Evidenziamento dei grossi effetti:

Per comprendere cosa significa ci si deve rifare ad alcuni concetti di statistica. La potenza di un test

statistico è data dalla probabilità di rigettare l’ipotesi nulla (H ) quando è falsa nella popolazione.

0

Poiché nell’ipotesi nulla si suppone che non vi sia differenza significativa tra due campioni scelti

casualmente e sottoposti a trattamento diverso, la potenza di un test è la sua capacità di rigettare tale

uguaglianza quando questa effettivamente non c’è. Così si può dire che la potenza di un test è la

probabilità di pervenire ad una decisione corretta.

Potenza di un test è uguale a 1 – β, in cui β indica la probabilità di commettere un errore di secondo

tipo, cioè di accettare l’ipotesi nulla quando è falsa.

Dalla statistica si sa che la probabilità di commettere un errore di secondo tipo è inversamente

proporzionale all’ampiezza del campione, la potenza di un test aumenta con l'aumentare di un campione.

Ma questa regola non è applicabile agli esperimenti con un soggetto solo. In tal caso il metodo consiste

nel potenziare l’entità dell’effetto sperimentale. Si deve elevare l’intervallo tra i valori della variabile

indipendente utilizzati per definire le condizioni sperimentali.

In un esperimento condotto su grandi gruppi di soggetti è probabile scoprire che una variabile

indipendente produce un effetto significativo, anche se tale effetto è piccolo; mentre negli esperimenti

su soggetti singoli, è necessario che l’effetto sia consistente.

-Flessibilità del disegno:

Il disegno sui singoli soggetti è assai più facile e flessibile del disegno sui gruppi. Lavorando con

campioni di soggetti è necessario formare dei gruppi che siano omogenei. Inoltre se nel corso di un

esperimento, un ricercatore scopre che un soggetto non risponde a un rinforzo che ha funzionato con

altre persone, l’intervento di modifica diventa oneroso e richiede tempi lunghi; mentre se sta lavorando

con un solo soggetto può intervenire immediatamente cambiando i rinforzi o le istruzioni senza

troppa fatica. Il disegno sui soggetti singoli permette interventi da parte dello sperimentatore più

tempestivi e meno dispendiosi.

Il fatto che questi disegni non esigano l’esame di soggetti di controllo, consentono di interrompere il

trattamento appena questo si è dimostrato efficace.

-Caratteristiche strutturali:

I piani sperimentali sui soggetti singoli vengono spesso confusi con gli studi sui casi singoli, mentre i

primi tendono a precisare la relazione causale esistente tra variabili indipendenti e dipendenti nei

soggetti singoli, i secondi hanno per compito la descrizione di una singola persona, o aspetti particolari

del suo comportamento.

-Manipolazione delle variabili:

I disegni sperimentali sui singoli soggetti richiedono necessariamente l’introduzione di una sola

variabile indipendente per volta. Qualora si introducessero contemporaneamente due variabili,

sarebbe impossibile determinare in che misura ognuna di esse contribuisce al cambiamento osservativo.

Un secondo problema riguarda il controllo, nei disegni con soggetti singoli il controllo viene fatto

mediante la strategia dell'accertamento della linea di base.

-Valutazione dell’effetto del trattamento:

Per quanto riguarda la valutazione dei risultati degli esperimenti sui soggetti singoli, si deve dire che

non sempre i ricercatori ricorrono alle analisi statistiche. Spesso preferiscono rappresentare i

risultati mediante grafici, dove l’andamento delle curve indica chiaramente l’evoluzione del

comportamento del soggetto durante le differenti fasi dell’esperimento. Queste due diverse procedure si

basano su due criteri differenti di valutazione: uno sperimentale ed uno clinico.

Il criterio sperimentale è certamente associato ad un effetto statisticamente significativo del

trattamento; mentre il criterio clinico riguarda il grado di cambiamento capace di permettere

all’individuo di comportarsi adeguatamente alla società.

-I disegni di ricerca sui singoli soggetti:

Il più primitivo disegno sperimentale sui casi singoli è indicato dalle lettere A-B, in cui A indica la fase

di misura delle linee di base, e B quella del trattamento. Tuttavia, il disegno A-B è poco usato, ed in

genere è ampliato con l’aggiunta di un’altra fase, volta a verificare l’effetto del trattamento. Anche

questa fase è indicata con la lettera A. Così esso diventa come disegno A-B-A. Esso presenta due

problemi.

Il primo riguarda la reversibilità del comportamento al livello della fase antecedente al trattamento. Se

questo ritorno non si verifica completamente, il piano A-B-A risulta deformato; in effetti non ha luogo la

seconda fase della linea di base.

Il secondo problema del disegno A-B-A è deontologico. In certi casi può essere desiderabile lasciare il

soggetto nella nuova condizione determinata dal trattamento anziché riportarlo allo stato originale.

-Il disegno B-A-B consente di evitare che l’esperimento termini con un ritorno al livello di base.

Esso comporta le seguenti tre fasi:

1. Prima presentazione del trattamento;

2. Assenza che coincide con il rilevamento della linea di base;

3. La seconda presentazione del trattamento;

Questo piano è utile quando è superfluo stabilire il livello di base dato che è già acquisito.

Poiché in questo disegno il trattamento viene somministrato nella fase iniziale e non in quella di mezzo,

i risultati cui dà luogo non possono essere confrontati con una precedente misura del comportamento;

quindi formulare delle relazioni casuali è poco corretto.

-Il disegno A-B-A-B è praticamente un disegno a trattamenti ripetuti. La ripetizione del trattamento

ha un duplice scopo: prima di tutto, di permettere al soggetto di continuare a godere del beneficio

ottenuto con l’azione della prima somministrazione del trattamento, beneficio che viene rafforzato dalla

seconda fase del trattamento; in secondo luogo, di consentire un’ulteriore diminuzione degli aspetti

negativi di un comportamento.

GLI STRUMENTI DI MISURA IN PSICOLOGIA

I TEST PSICOLOGICI

Col termine test si indica una tipologia di strumenti psicologici. Lo scopo del test psicologico è avere

una valutazione obiettiva di un soggetto che permetta di prevedere il comportamento in situazioni

analoghe.

Un test o reattivo psicologico, è una procedura attraverso cui si pone il soggetto in una situazione

standardizzata nella quale gli si forniscono una serie di stimoli e item in grado di elicitare delle risposte

e che sono valutabili sulla base di criteri quantitativi predefiniti e interpretabili come indicatori di un

determinato costrutto. Gli aspetti definitori del test riguardano:

a) Le condizioni di somministrazione standardizzate;

b) Gli stimoli standardizzati;

c) Il campione del comportamento del soggetto;

d) Le modalità predefinite di quantificazione o misurazione delle risposte intese come indicatori di un

costrutto.

La standardizzazione del contesto e delle risposte si riferisce all’uniformità delle procedure durante la

somministrazione degli stimoli e nella determinazione del punteggio per tutti i soggetti, per quantificare

le risposte deve essere utilizzato lo stesso modus operandi.

È inoltre importante sottolineare che le risposte dei soggetti agli stimoli sono considerate un campione

di comportamenti, perciò i test intendono raccogliere campioni significativi, rilevanti e rappresentativi

degli universi di comportamenti dei soggetti.

Anche le procedure di attribuzione dei punteggi o di classificazione delle risposte dei soggetti

devono rispettare una serie di regole relative alle definizioni concettuali e operative dei costrutti che

stiamo misurando.

I test psicologici sono considerati oggi degli strumenti indispensabili e insostituibili che permettono con

rapidità di ottenere informazioni che contribuiscono a prendere decisioni importanti in molti contesti.

Colui che utilizza tali strumenti di misura deve essere cosciente delle implicazioni etiche e

deontologiche, degli aspetto sociali e culturali, di quelli tecnici e procedurali e integrare l’uso del test

con altre fonti di informazione attendibile.

Va infine notato che la rapida crescita tecnologica ha incoraggiato l’uso di computer nella

somministrazione dei test.

Esiste un numero sorprendentemente elevato di test psicologici atti a misurare i più disparati costrutti o

capacità umane, il che a volte rende complicata la stessa classificazione dei test.

Sulla base dell’aspetto psicologico indagato, essi possono essere distinti in test cognitivi o di massima

performance, che misurano aspetti legati alle capacità del soggetto, quali l’intelligenza, l’attitudine, e i

test non cognitivi o di performance tipica, che rilevano le preferenze del soggetto o i suoi

comportamenti abituali, quali aspetti di personalità e atteggiamenti.

I test di intelligenza cercano di misurare questa capacità, i test attitudinali cercano di individuare le

aree del soggetto che hanno maggiori capacità di essere sviluppate, e i test di profitto permettono di

valutare il livello di conoscenza, capacità o competenza di un individuo.

I test di personalità tradizionalmente si basano sull’intervista, sulle griglie di repertorio, sui questionari

o inventari di personalità e sui test proiettivi. Gli inventari di personalità sono costituiti da un insieme

di item che riportano affermazioni riguardanti la propria personalità a cui il soggetto deve rispondere

graduando la sua risposta su una scala di risposta dicotomica o più ampia (mi piace andare alle feste). I

test proiettivi consistono nel somministrare al soggetto una serie di stimoli, ambigui o non

completamente definiti, che devono essere descritti dal soggetto con l’assunto di base che la descrizione

di questi stimoli rifletta aspetti affettivi e nascosti della personalità (il Rorschach o il Tat). Le scale di

misura degli atteggiamenti, sono un insieme di affermazioni o item che riguardano l’atteggiamento del

soggetto verso un oggetto o una opinione.

I METODI OSSERVATIVI

Essi permettono di osservare, registrare, descrivere, trascrivere e codificare il comportamento animale e

umano o l’interazione sociale che si realizza tra le persone sia in condizioni di standardizzazione sia in

condizioni naturali.

Il mezzo principale attraverso cui viene realizzata la rilevazione dei dati è l’osservatore.

L’osservazione può essere messa in atto nel momento in cui si realizza il comportamento rilevato (live)

oppure in un momento diverso grazie ai sistemi di audio o videoregistrazione (differita). I vantaggi dei

metodi osservativi sono legati alla possibilità di campionare comportamenti spontanei dei soggetti, di

raccogliere informazioni anche su soggetti che non sono ingrado di parlare o riempire questionari

(bambini e animali).

L’osservazione del comportamento che si realizza in psicologia viene distinta dall’osservazione ingenua

che ognuno di noi realizza nella vita quotidiana. L’osservazione può poi essere realizzata con un

approccio quantitativo o qualitativo a seconda della posizione epistemologica del ricercatore che

confidi o no nella possibilità di misurare, quantificare e formalizzare in modelli, il comportamento

umano. Nel primo caso il prodotto dell’osservazione viene espresso in “prosa”, nel secondo in

“numeri” dotati di significato. . All’interno dell’approccio quantitativo si è soliti distinguere tra due

tipi di osservazione, la codifica e l’osservazione valutativa.

Con la codifica o osservazione sistematica, l’osservatore associa determinate categorie

comportamentali nominali e ordinali al ricorrere di determinati eventi comportamentali e produce perciò

delle frequenze (ad esempio: una coppia di coniugi in crisi si sono lamentati 30 volte).

Tramite l’osservazione valutativa o metrica, l’osservatore associa determinate categorie numeriche al

comportamento degli individui e produce perciò punteggi che esprimono l’intensità di un fenomeno.

(il clima emotivo di una lezione è di 5 in una scala da 1 a 7).

L’osservazione sistemica si definisce perciò come una forma di osservazione pubblica e replicabile che

utilizza determinati schemi di categorie comportamentali, qualitative e prefissate, che l’osservatore

associa ai comportamenti o agli eventi interattivi sulla base di alcune regole di corrispondenza.

All'osservazione naturalistica, eseguita in contesti naturali e in modo da non interferire sull'osservato, va

contrapposta l'osservazione controllata eseguita in laboratorio.

Invece l’osservazione sistemica, assieme al rating, forma l’osservazione quantitativa che va

contrapposta a quella qualitativa. Per questo si dice che l'osservazione sistematica non dipende dal

contesto (context-free).

L’ANALISI DEL CONTENUTO

I metodi di raccolta di analisi del contenuto condividono molti aspetti rilevanti con i metodi

osservativi in quanto si basano sulla codifica. L’analisi del contenuto è un approccio quantitativo che si

applica principalmente a materiale verbale ma anche a materiale non verbale. Si distingue dall’analisi

narrativa che è un approccio che si occupa esclusivamente di materiale verbale basato principalmente

su storie o racconti di esperienze personali. L’analisi del contenuto viene definita come una tecnica che

serve a estrarre le informazioni desiderate da un corpus materiale, identificandone sistematicamente

e oggettivamente determinate caratteristiche.

L’attività di codifica, che comprende la classificazione e rating, viene seguita secondo regole precise

da codificatori chiamati anche giudici o valutatori che utilizzano un sistema di codifica. Essi sono veri

e propri strumenti di misura, descritti nei manuali di codifica con riferimento:

a) Alla definizione delle unità del materiale che deve essere analizzato;

b) Alle categorie e alle dimensioni di classificazione;

c) alle regole per l’applicazione del sistema;

Le unità sono di tre tipi:

1. Unità di testo: si riferisce al corpus di materiale più ampio, soggetto all’analisi all’interno di uno

studio. (un saggio, un articolo)

2. Unità di codifica: si riferisce a quella parte dell’unità di testo a cui si applicano le categorie o le

dimensioni del sistema di codifica. Può essere designata da una porzione o un segmento di testo vero e

proprio (es. la parola) o da qualcosa che può essere da esso estrapolabile, come il tema.

3. Unità di contesto: si riferisce ad un corpo di materiale più grande dell’unità di codifica che può essere

preso in considerazione per prendere una decisione di codifica. Per esempio per codificare una parola

può essere necessario prendere come unità di contesto tutta la frase a cui appartiene.

L’INTERVISTA

essa è una tecnica di raccolta dei dati psicologici costituita da un’interazione verbale del soggetto. Si

distingue di solito in intervista non strutturata, strutturata e semistrutturata.

- Intervista non strutturata: quando il ricercatore non ha predeterminato ciò che dell’intervista deve

essere codificato.

- Intervista strutturata: il ricercatore pone una serie di domande predisposte sia nel contenuto sia

nell’ordine in maniera tale che la stessa forma viene ripetuta in modo pressoché identico per ciascun

soggetto.

- Intervista semistrutturata: la forma generale dell’intervista si ripete, ciò che può variare sono le

domande, nel senso che il ricercatore ha la flessibilità di continuare a richiedere e a confermare le

informazioni che si prefigge di ottenere e seguire il flusso della conversazione lasciando l’intervistato

libero.

Esse sono collocate su un continuum che vanno dalla minima alla massima strutturazione della

domanda.

IL QUESTIONARIO

esso è uno strumento di raccolta dei dati che consiste in una serie di domande relative a informazioni

oggettive e a questioni riguardanti personalità, atteggiamenti e opinioni. Possono essere composti da

domande aperte o chiuse in cui il rispondente deve scegliere una risposta tra un set di alternative.

Quando si utilizzano domande chiuse è necessario fare una serie di scelte nella struttura del questionario

e delle domande. Una questione riguarda la scelta tra rating e ranking.

Se opta per il ranking chiede direttamentante “preferisce Tizio o Caio?”, se opta per il rating formula 2

domade separatemente “cosa ne pensa di tizio? Cosa ne pensa di Caio?”, ciascuna domanda con la sua

scala di risposta, ad esemio una scala di valutazione che va da 1 a 5.

Sebbene spesso i ricercatori abbiano adottato il rating, è dimostrato che il ranking è più efficace del

rating in termini di discriminazione delle risposte, di attendibilità e validità dei dati. Tuttavia il ranking

diventa complicato quando è necessario comparare tra più di due oggetti ed inoltre restringe il campo di

applicazione delle tecniche statistiche.

Le domande chiuse vengono dette dicotomiche quando prevedono due possibili risposte,

tricotomiche quando ne prevedono tre, a 5 punti o passi se le possibilità sono cinque. Uno dei

problemi è scegliere il numero di punti adeguato della scala di risposta. Per le scale bipolari (variano

da positivo a negativo) la scala migliore è quella a 7 punti, per le scale unipolari (per niente d'accordo o

completamente) la scala migliore è a 5 punti.

Spesso nelle scale di risposta il passo “neutrale”, Nè favorevole, né sfavorevole, o indeciso, è il passo

centrale della scala. Se tale passo viene rimosso per forzare i soggetti a rispondere, la domanda viene

detta a scelta forzata.

LE MISURE FISIOLOGICHE

Uno dei modi per raccogliere dati in psicologia è utilizzare degli indici fisiologici. Le tecniche

fisiologiche di raccolta dati si basano su due tipi di tecnologie, quella asciutta e quella umida. La

prima è la tecnologia della registrazione elettrofisiologica, la seconda riguarda la registrazione dei livelli

biochimici presenti nel corpo.

La logica su cui si basano queste tecnologie per la registrazione dei dati psicologici è che una serie di

processi fisiologici producono segnali sulla superficie del corpo, segnali che possono essere elettrici

o no.

Questi segnali possono essere catturati e immagazzinati attraverso quattro tappe:

1) percezione: applicazione di idonei sensori in determinate parti del corpo.

2) trasduzione: quando il segnale non è elettrico è necessario un trasduttore che converta le risposte

fisiologiche in segnali elettrici.

3) condizionamento: un filtro che specifichi o isoli il segnale dagli altri segnali che il corpo emette

continuamente e/o lo amplifichi.

4) registrazione: un apposito macchinario registra infine il segnale.

GLI STRUMENTI DELLA NEUROPSICOLOGIA E DELLE NEUROSCIENZE

In ambito neuropsicologico e nelle neuroscienze si utilizzano molti metodi che permettono di

raccogliere dati psicologici.

Essi possono essere divisi in 4 categorie:

1)Lo studio dei pazienti cerebrolesi: consiste nell'osservazione e nella definizione dei disturbi

cognitivi e comportamentali dei pazienti da correlate evidenze di danni neurologici. Questa attività può

permettere l'individuazione delle funzioni di alcune aree cerebrali (localizzazione).

2)Lo studio della specializzazione emisferica, cioè della specializzazione delle funzioni cognitive

degli emisferi destro e sinistro si basa sul fatto che l’informazione raccolta dai nostri sistemi percettivi

viene trasferita normalmente all’emisfero contro-laterale e solo successivamente raggiunge l’emisfero

ipsilaterale. Tutti questi passaggi implicano dei tempi diversi (latenze) o della diversità di performance

nei compiti che permettono di fare inferenze sulla specializzazione degli emisferi. Una tecnica utilizzata

potrebbe essere la presentazione di stimoli in un solo emisfero ecc → tecniche non invasive. Vengono

invece considerate invasivi, metodi come il test di Wanda, con i quali si disattivavano

temporaneamente le attività di un emisfero cerebrale tramite l'iniezione di alcune sostanze.

3)tecnica elettrofisiologica L’elettroencefalogramma (EEG) è una tecnica elettrofisiologica con la

quale l’attività elettrica cerebrale o il livello di attivazione cerebrale viene rilevato mediante degli

elettrodi posti sul cranio e poi registrato un tracciato.

4)Le tecniche di visualizzazione del cranio si distinguono in indirette, come la radiografia del cranio

o l’angiografia, o dirette perché permettono un’immagine diretta della morfologia dell’encefalo. La

tomografia assiale computerizzata (TAC) è una tecnica radiologica che sfrutta il fatto che i diversi

tessuti cerebrali assorbono diversamente i raggi X. Per cui dopo aver emesso fasci di raggi X sul sistema

nervoso viene registrata l’attività di assorbimento dei raggi stessi sulla regione interessata.

Nella tomografia a emissioni di positroni (PET) al soggetto viene somministrata una sostanza

radioattiva, che penetra nel sistema nervoso e si concentra sulle aree cerebrali in cui si registra attività

metabolica. Solitamente il soggetto viene impegnato in un’attività o in un compito che attiva il

metabolismo delle aree interessate. I raggi gamma rilasciati finalmente dalla sostanza in queste aree

sono poi registrati da una camera rotante intorno alla testa del paziente.

La tecnica della risonanza magnetica funzionale (RMf) è un’applicazione della tecnica della risonanza

magnetica al sistema nervoso. Questa tecnica si basa sul fatto che i nuclei degli atomi, se posti

all’interno di un campo magnetico e stimolati da onde radio, emettono parte dell’energia assorbita.

Questa tecnica è la meno nociva in quanto non sottopone il paziente a esposizione a raggi X o a sostanze

radioattive.

LO SCALING

Le scale di misura degli atteggiamenti attribuiscono un punteggio finale complessivo ad un aspetto della

psicologia del soggetto (ad esempio un'opinione politica)

L’assunto è che sia possibile scalare l’atteggiamento del soggetto.

Scaling si riferisce a un insieme di procedure con le quali è possibile assegnare dei numeri a un insieme

di affermazioni riferite proprio all’atteggiamento.

Lo scaling unidimensionale permette di assegnare un singolo punteggio che rappresenta

l’atteggiamento generale del soggetto, a un insieme di risposte fornite dal soggetto stesso. Quello

multidimensionale permette di valutare l’atteggiamento del soggetto sulla base di più aspetti qualora

questo sia appropriato teoricamente.

Lo scaling unidimensionale:

1)La scala di Thurnstone:

Per procedere alla costruzione di tale scala è necessario passare per alcune fasi:

a) formulare e/o invitare una serie di persone a formulare affermazioni riguardanti l’oggetto

dell’atteggiamento.

b) far valutare ad un gruppo di giudici su una scala di undici passi quanto quell’affermazione indica in

generale un atteggiamento favorevole o sfavorevole verso l’oggetto;

c) calcolare valori di scala di ciascun item utilizzando la mediana e la differenza interquantificata, la

media e la deviazione standard di ciascun item;

d) selezionare gli item per la scala finale individuando un item per ciascun valore di scala.

A questo punto si può somministrare la scala finale ad un campione di soggetti che devono

semplicemente rispondere a quali item sono d’accordo. Il punteggio di ogni soggetto è la media dei

valori scalati di ciascun item per cui ha espresso accordo.

2)La scala di Guttman:

Un altro modo di costruire una scala di atteggiamento è lo scaling cumulativo o scalogramma di

Guttman, raccoglie un insieme di item ordinati in modo tale che se un soggetto è d’accordo con uno di

essi allora necessariamente deve andare d’accordo con le affermazioni precedenti.

La procedura per costruire uno scalogramma è la seguente:

a) formulare e/o invitare una serie di persone a formulare affermazioni riguardanti l’oggetto

dell’atteggiamento.

b) far valutare ad un gruppo di giudici se ciascun item esprime una affermazione favorevole o

sfavorevole all’atteggiamento.

c) costruire una matrice di dati con i giudici in riga, gli item in colonna e le loro risposte in ogni cella,

ordinando i giudici in modo tale che quelli che hanno espresso più accordi vengono messi per primi e

quelli che esprimono più disaccordi per ultimi e ordinando i giudici che hanno lo stesso accordo, le

affermazioni da sinistra a destra in modo tale da esprimere da maggiore a minore accordo.

d) attraverso un’analisi cosiddetta di scalogramma vengono individuati gli item che mostrano di

possedere la proprietà della cumulatività, i quali vengono selezionati per la scala finale.

e) somministrare la scala con gli item randomizzati in modo che i soggetti non riconoscano l’ordine

cumulativo delle domande chiedendo a ciascun soggetto solo se è o non è d’accordo con gli item.

Il punteggio finale è ottenuto dalla somma finale dei valori di scala di ciascun item con cui il soggetto è

d’accordo.

3)La scala Likert:

La scala Likert è di fatto la scala più utilizzata in psicologia. Si tratta di una serie di item in cui il

rispondente deve dichiararsi d’accordo o in disaccordo, solitamente su una scala che va da 5 a 7.

l'assunzione è che ci sia una relazione monotona tra ogni item e l'atteggiamento: più una persona è

d'accordo con un item più è d'accordo con l'atteggiamento generale.

Ci sono diverse procedure suggerite per costruire una scala Likert. Una di queste indica le seguenti

tappe:

a) generare o far generare gli item che devono essere costruiti in modo che i rispondenti possano

esprimersi sulla base dell’accordo o del disaccordo verso il contenuto dell’item.

b) sottoporre gli item a un gruppo di giudici che valuti quanto il giudice considera pertinente quell’item

rispetto al costrutto.

c) selezionare gli item sulla base di tecniche differenti, come eliminare gli item che non corrispondono

con il punteggio totale di tutti gli item e gli item che non discriminano significativamente tra giudici che

hanno dato un punteggio alto e quelli con un punteggio basso allo stesso item.

Somministrare la scala di atteggiamento finale a soggetti normali con una scala disposta da 5 a 7 passi

che vanno dal massimo disaccordo al massimo accordo. Per ciascun soggetto si calcola un punteggio

finale che nasce dalla somma di tutte le risposte dei soggetti o della media ottenuta dividendo per il

numero di item.

Lo scaling multidimensionale

Mentre lo scopo dello scaling unidimensionale è quello di ottenere x ciascun soggetto un solo

punteggio finale, partendo dall'assunto che l'atteggiamento che vogliamo misurare sia unidimensionale,

formato da un solo costrutto. Lo scopo dello scaling multidimensionale, invece, è quello di prendere e

codificare concetti bidimensionali come ad esempio l’intelligenza (formata da abilità pratiche e abilità

astratte), che si assume siano formati da 2 o più dimensioni.

Il differenziale semantico è una nota scala psicologica secondo la quale il significato di un termine o un

concetto può essere spiegato da tre dimensioni bipolari. Le tre dimensioni che spiegano la percezione

dei soggetti nei confronti dell’oggetto sono l’attività, secondo un continuum passivo-attivo che

comprende coppie di aggettivi quali “attivo-passivo”, “eccitabile-calmo”, ecc. La valutazione, secondo

un continuum positivo-negativo che comprende coppie di aggettivi quali “buono-cattivo”, “favorevole-

sfavorevole”, la potenza, secondo un continuum di potenza-impotenza che comprende coppie di

aggettivi quali “duro-soffice”, “forte-debole”, ecc. Ogni scala di risposta è formata quindi da una

coppia di aggettivi di significato opposto presentata con una scala solitamente di 7 passi.

ATTENDIBILITÀ E VALIDITA' DELLA MISURAZIONE

Quando eseguiamo una misurazione associamo ad oggetti, individui o eventi una categoria e qui

possiamo compiere degli errori. Gli strumenti devono essere costruiti in modo da evitare errori e le

condizioni di somministrazione devono garantire una misurazione efficace. Ad esempio, bisogna evitare

l'affaticamento transitorio dei soggetti sottoposti a prove o questionari, errori simili sono considerati

casuali perché dovuti a fluttuazioni del caso. Bisogna evitare che gli errori che viziano la misurazione,

cioè che vanno nella stessa direzione. Supponiamo che per misurare l'aggressività venga somministrato

un test composto da domande come: ti è mao capitato di picchiare qualcuno? Le cui risposte sono

mai/qualche volta/mediamente/spesso e quasi sempre. Nelle istuzioni di presentazione del questionario

viene inserita erroneamente una raccomandazione del tipo “Non bisogna aver paura di manifestare la

propria aggressività, essa ha una funzione liberatoria nei rapporti sociali”. E' probabile che tutti i

soggetti siano portati da questa istruzione a indicare un livello di aggressività maggiore di quello che

effettivamente hanno. Ogni soggetto, in tal modo, produce una risposta viziata nella stessa direzione

(bias), questi errori sono detti Errori sistematici. La sommatoria degli errori sistematici non tenderebbe

a zero, per prevenire o valutare l’entità degli errori di misurazione, i ricercatori hanno sollevato la

questione dell’attendibilità e della validità della misurazione.

NELLA MAGGIOR PARTE DEI CASI IN PSICOLOGIA SI MISURANO COSTRUTTI, CONCETTI

ASTRATTI CHE INDICANO UN COMPLESSO DELLA VITA PSICHICA DEL SOGGETTO, non

osservabili direttamente ma inferiti a partire da una serie di indicatori empirici osservabili (la

sudorazione delle mani è un possibile indicatore del costrutto dell'ansia).

Un indicatore è una variabile o misura empirica che indica il costrutto non osservabile tramite una

regola di corrispondenza. Il rapporto che esiste tra costrutto e indicatori può essere di due tipi.

Un indicatore si dice riflettivo quando è una semplice manifestazione empirica del costrutto, un

prolungamento del costrutto a livello osservabile, una conseguenza della presenza del costrutto stesso.

L’indicatore riflette il costrutto, il fatto osservabile di insultare qualcuno è semplicemente una

manifestazione del costrutto aggressività.

Un indicatore si dice formativo se è l'indicatore stesso a contribuire, o a causare, il costrutto. Ad

esempio lo stress, può essere rilevato da indicatori del tipo “negli ultimi mesi ho avuto un grave lutto”.

Perciò quando l'indicatore è riflettivo il costrutto viene considerato causa dell'indicatore, quando è

formativo l'indicatore stesso è considerato causa del costrutto.

Esistono costrutti più complessi che implicano una organizzazione gerarchica in dimensioni. Esse

sono aspetti psicologici organizzati e non osservabili che rappresentano ognuno una parte del costrutto

che si collocano tra i costrutti e gli indicatori. Ad esempio, l'estroversione viene indicata da 3 dimensioni

latenti, la socialità, l'assertività e la loquacità. Ognuna delle quali è rappresentata da un certo numero di

indicatori empirici. Lo studio del numero e delle caratteristiche delle dimensioni di un costrutto è

chiamato studio della dimensionalità, che viene condotto con una tecnica statistica chiamata analisi

fattoriale, che permette di identificare le dimensioni latenti dei costrutti, raggruppando item che

correlano di più tra di loro e scegliendo tra le possibili soluzioni quella più semplice (principio di

parsimonia).

ATTENDIBILITÀ E VALIDITA'

Se una misurazione è attendibile e valida, allora il costrutto è misurato bene. Se una misurazione non è

attendibile e/o valida, nella misurazione del costrutto abbiamo commesso errori e il costrutto stesso non

rappresenta quello che inizialmente in ricercatore aveva intenzione di misurare.

- Validità: grado in cui uno strumento misura ciò che dice di misurare;

- Attendibilità: il grado di accordo tra misurazioni indipendenti dello stesso costrutto. Non si può parlare

di misurazione attendibile se le misure dello stesso tavolo, che uno stesso osservatore prende ogni mese,

risultano diverse tra loro. O se diversi osservatori che lo misurano contemporaneamente ottengono tutte

lunghezze diverse.

Le preoccupazioni dei ricercatori in merito a questioni relative all’attendibilità e alla validità sono

spesso affrontate chiarendo alcuni concetti di fondo.

Accuratezza, precisione e stabilità:

Tecnicamente, l'attendibilità è la correlazione tra 2 o + misure indipendenti all'interno dello stesso

costrutto, uno strumento di misura attendibile produce una misurazione di cui ci possiamo fidare perché

ha dato risultati coerenti in occasioni simili. Se c’è alta correlazione tra le misurazioni indipendenti,

questo significa che durante le misurazioni sono stati fatti pochi errori.

- Stabilità: si riferisce al grado di correlazione tra misurazioni avvenute in tempi diversi dello stesso

costrutto.

- Accuratezza: si riferisce al grado di corrispondenza tra il costrutto misurato e la realtà.

- Precisione: è il grado di sistematicità o coerenza con cui eseguiamo la misurazione, cioè la coerenza

con cui si associano eventi od oggetti a determinate categorie di riferimento.

La differenza tra stabilità e precisione : si parla di stabilità quando la cosa misurata su uno stesso

campione di persone risulta la stessa in una seconda misurazione a distanza di un certo lasso di tempo, si

parla invece di precisione quando proponendo in maniera diversa, ad esempio con due item diversi, due

indicatori dello stesso costrutto allo stesso soggetto, questi fornisce sempre la stessa risposta. Si può

verificare il caso in cui il ricercatore ottiene delle misurazioni coerenti con se stesse, ma non è detto che

il ricercatore stia realmente misurando ciò che vuole misurare: questo si verifica, ad esempio, quando il

ricercatore ha costrutto una scala di aggressività, ma gli item scelti misurano invece la competizione.

esempio di attendibilità può essere la metafora della pistola fissata davanti a un bersaglio e con a

disposizione 10 spari:

- Precisa e accurata: la pistola colpisce tutte e 10 volte al centro;

- Inaccurata e imprecisa: la pistola spara a caso commettendo vari errori;

- Inaccurata ma precisa: la pistola spara sistematicamente sullo stesso anello ma non al centro,

dimostra una notevole precisione ma una scarsa accuratezza.

In questo modo rispecchia la realtà, se una misurazione sarà accurata, sarà per forza precisa mentre una

misura precisa non è necessariamente accurata. Per esprimere la stabilità si immagini che dopo sei mesi

la pistola ripete la sessione di dieci spari se dopo questo tempo la pistola resta attendibile, allora sarà

anche stabile. Se uno strumento di misura è accurato allora sarà stabile ma se è stabile allora non sarà

necessariamente accurato.

La teoria classica dell’attendibilità:

Secondo la teoria classica dell’attendibilità, il punteggio prodotto dalla misurazione è formato da due

componenti, il punteggio vero e l’errore:

X = V + E (Punteggio osservato = Punteggio Vero + Errore Causale)

In condizioni ideali l’errore casuale è nullo. In quelle reali ha sempre un suo peso.

Se potessimo fare infinite misurazioni di una stessa variabile, la sommatoria degli errori casuali

dovrebbe essere zero, così come la loro media, e il punteggio vero V diverrebbe la media degli infiniti

5

punteggi osservati X .

L’attendibilità di uno strumento di misura viene definita come il rapporto tra la varianza della

parte vera e la varianza osservata o totale, che porta al calcolo di un coefficiente di attendibilità, che

di fatto è una proporzione. Il limite minimo dell’attendibilità è 0(quando il punteggio osservato è

composto solo da errore), il massimo 1 (quando tutto il punteggio osservato è vero).

Quindi l’attendibilità finisce per essere la proporzione di varianza vera rispetto alla varianza standard

totale prodotta dallo strumento di valutazione.

Il rapporto tra attendibilità e validità:

Attendibilità e validità sono due componenti fondamentali per eseguire una misurazione adeguata.

Tuttavia, esse non si collocano sullo stesso livello. L’attendibilità ci assicura che le diverse misure siano

coerenti tra loro, la validità che riflettano adeguatamente il costrutto che volevamo misurare.

L’attendibilità è considerata la base della validità: senza attendibilità una misura non può essere valida.

Diverse applicazioni dell’attendibilità:

I tipi di attendibilità vengono, innanzitutto, divisi in base al fatto che per determinarla sono necessarie

una o due somministrazioni dello strumento. Quando vengono eseguite 2 somministrazioni, si possono

determinare 3 tipi di attendibilità:

- L’attendibilità test-retest: misura la stabilità nel tempo delle risposte dei soggetti o i cambiamenti

nelle situazioni sperimentali;

- Equivalenza tra forme parallele di uno strumento: consiste nel somministrare agli stessi

partecipanti nello stesso momento due forme diverse dello strumento che misurano lo stesso costrutto.

-L'accordo tra 2 o più osservatori, valutatori o giudici: misura l’accordo o il disaccordo tra loro in

ciascuna codifica eseguita. Questa consistenza interna viene detta calibrazione.

Quando viene eseguita una somministrazione, si hanno 2 tipi di attendibilità:

- Consistenza interna e “split-half” di una scala o di un test: due metodi diversi per vedere se i

molteplici item sono correlati tra di loro mostrando maggiore o minore eterogeneità nel contenuto.

L’”α” di Cronbach di una scala di misura:

È uno degli indici più utilizzati all’interno della psicologia sociale perché è un indice chiaro e

comprensibile per molti aspetti.

Supponiamo di avere una scala composta da 8 item, 4 da un lato e 4 dall’altro, calcoliamo poi i punteggi

totali di ciascun gruppo di item per ciascun soggetto e quindi correliamo queste due misure. Abbiamo un

primo coefficiente di correlazione. Poi dividiamo ancora gli 8 item in altri due gruppi della stessa

numerosità, diversi dai precedenti e calcoliamo anche qui la correlazione. Il processo procede nella

stessa maniera fin quando non è stato calcolato un coefficiente di correlazione per tutte le possibili

suddivisioni a metà degli 8 item. Il coefficiente di α di Cronbach è dato dalla media di tutte le

correlazioni. Viene infatti definito come la media delle intercorrelazioni tra tutte le possibili divisioni

a metà del test.

Ma non c'è un livello di “a” adeguato in tutte le circostanze. Esso deve essere interpretato tenendo conto

dei 2 elementi da cui dipende: le intercorrelazioni tra item e la lunghezza della scala.

Se per misurare l'estroversione utilizzo una scala con questi item: Mi piace andare alle feste- alle feste

non mi diverto per niente- alle feste mi diverto molto- preferisco di gran lunga andare ad una festa che

passare la serata da solo ecc.., è ovvio che sto chiedendo la stessa cosa in modi diversi e che quindi le

correlazioni tra item saranno molto alte e alta sarà la l'attendibilità della scala. Perciò valori anche

abbastanza alti per scale come queste, dette gonfiate, non è detto che diano garanzia di attendibilità,

anzi, sono semplicemente un segno di ridondanza, mancanza di informazione.

La ripetizione di Item simili è spesso in contrasto con le esigenze di brevità di una scala. Inoltre scale

simili possono nuocere alla validità nella misura in cui una parte del costrutto viene iper-rappresentata a

spese di altre parti importanti del costrutto. Questi problemi sono correlati a due fenomeni conosciuti

come:

- Paradosso dell’attenuazione: indica che l’incrementare oltre un limite la consistenza interna di un

test non aumenta necessariamente la validità di costrutto.

- Il dilemma della larghezza della banda: si riferisce al fatto che l’eccessivo restringimento del

contenuto della scala(il piacere di andare alle feste), non correla con nient’altro di interesse o rilevanza

psicologica. Invece l’eccessivo allargamento del contenuto (generico atteggiamento di apertura sociale)

ha un grosso potere predittivo rispetto ai costrutti psicologicamente rilevanti, a spese però di

comportamenti specifici.

Dato che aumentando il contenuto diminuisce la capacità predittiva, e viceversa, il ricercatore si trova

costantemente di fronte al dilemma di rinunciare all'uno a favore dell'altra.

Il “K” di Cohen di una griglia di osservazione:

È un coefficiente di attendibilità utilizzato principalmente quando ci sono due o più valutatori che

eseguono una stessa misurazione in genere basata su una forma di codifica o classificazione nominale o

ordinale.

Supponiamo che un ricercatore voglia analizzare l’interazione in gruppi di persone impegnate in un

compito di problem solving. A tal fine utilizza una griglia di codifica.

Dopo aver registrato ogni seduta di interazione ed addestrato alcuni osservatori all’uso dell’IPA, gli

osservatori codificano ciascun evento interattivo di interesse di ciascuna seduta sulla base delle

categorie della griglia stessa. La principale fonte di errore è l’osservatore stesso.

Perciò il concetto di base di attendibilità relativa ad un sistema di codifica è quello di accordo: se due

osservatori che osservano lo stesso materiale vanno d’accordo, allora il sistema può dirsi attendibile.

La procedura per calcolare il K di Cohen è il seguente:

1. Addestrare i due osservatori all’uso della griglia;

2. Fargli codificare il materiale indipendentemente l’uno dall’altro;

3. Costruire la matrice di confusione che riporta in riga tutte le categorie del sistema di riferimento al

primo osservatore mentre in colonna quelle del secondo (O e O ) e nelle celle la frequenza riferibile

1 2

all’accordo tra i due osservatori rispetto a ciascuna categoria. La matrice è costruita in modo che

maggiore è l’accordo tra i due osservatori, maggiore sarà la frequenza in celle in diagonale rispetto a

quelle fuori dalla diagonale.

La soluzione tradizionale è la proporzione di accordo che consiste nel rapporto tra tutti gli accordi e la

somma degli accordi più i disaccordi. Si tratta di sommare le frequenze nelle celle in diagonale e

dividerle per le frequenze totali della matrice di confusione. Questo indice varia tra 0 e 1 indicando con

0 assenza totale di accordo e con 1 il massimo accordo.

VALIDITA':

VALIDITA' DI CONTENUTO

La validità di contenuto è un aspetto della validità alquanto controverso. Viene stabilita dimostrando che

gli item utilizzati per la misurazione sono un campione rappresentativo dell’universo del contenuto degli

item rilevanti per quel costrutto (ESAUSTIVITA').

Può essere definita come il grado in cui gli item che fanno parte dello strumento costituiscono un

campione rappresentativo dell’universo dei comportamenti possibili relativi al costrutto che si vuole

misurare.

Secondo alcuni, pur essendo un aspetto centrale nella misurazione, non dovrebbe essere considerata

validità di costrutto perché “La validità si riferisce a inferenze fatte a partire dai punteggi non ad una

valutazione del contenuto di uno strumento”, secondo altri invece lo è.

La validità di contenuto è essenzialmente valutativa, nel senso di basata sul giudizio. La procedura è la

seguente: il ricercatore deve soppesare la presunta rilevanza di ogni item rispetto alla proprietà che viene

misurata. Poi altri giudici esperti devono valutare il contenuto degli item anche sulla base di specifiche

indicazioni sull'universo del contenuto. .

Un ultimo aspetto che a volte viene fatto rientrare nella validità di contenuto riguarda la validità di

facciata, cioè il grado in cui gli item utilizzati appaiono ragionevoli o sensibili, come indicatori di

costrutto che si vuole misurare, alle persone a cui è diretto quel test o anche a quelle che lo usano.

VALIDITA' DI CRITERIO O ESTERNA

È il grado di corrispondenza tra la misura e una variabile esterna, diversa dal costrutto originario, che si

assume come criterio di riferimento. Ad esempio. Se costruisco un test di successo lavorativo, alti

punteggi al test devono essere associati con persone che hanno realmente fatto una carriera folgorante.

Quando il criterio è concomitante con il costrutto di cui si vuole stabilire la validità di criterio, si parla di

validità concorrente, quando il criterio è differito nel tempo si parla validità predittiva.

Procedura per determinare la validità di criterio: si usano tre metodi:

1) si usa spesso per stabilire la validità concorrente e consiste nell’eseguire una correlazione tra il test e

il criterio;

2) Si usa invece per stabilire la validità predittiva e consiste nell’applicare tecniche di regressione al

criterio;

3) Si applica a entrambi e consiste nel verificare se il test discrimina tra due o più gruppi di soggetti che

sulla base delle proprie caratteristiche dovrebbero differenziarsi per la caratteristica misurata.

VALIDITA' DI COSTRUTTO

Viene definita come il grado in cui uno strumento misura ciò che intende misurare. Secondo l’approccio

più diffuso, una misurazione ha validità di costrutto quando essa correla con misurazioni dello stesso

costrutto fatte con metodi diversi e non correla invece con misurazioni di costrutti diversi. Perciò essa è

composta da due aspetti:

1. Validità convergente: il grado di accordo tra due misurazioni dello stesso costrutto fatte con metodi

diversi.

2. Validità divergente: il grado di discriminazione tra due misure di costrutti diversi. Questo approccio è

stato il primo che ha formalizzato queste definizioni all’interno di un approccio sistematico che incrocia

misure di diversi costrutti eseguite con metodi differenti, detto metodo della matrice multi tratto-multi

metodo (MTMM).

La validità di costrutto di uno strumento di misura è alta quando questo strumento riesce a misurare il

costrutto in modo che tale strumento utilizzato non è essenziale nella misurazione del costrutto

stesso(quindi quando diversi modi, strumenti, metodi, maniere per misurare il costrutto danno risultati

simili e correlano tra loro) e quando lo strumento misura quel costrutto in modo tale che esso sia non

correlato con costrutti diversi.

VALIDITA' NOMOLOGICA

Gli autori che sostengono una concezione integrata della validità di costrutto l’hanno definita in questo

modo, ovvero come il grado in cui il costrutto che vogliamo misurare si inserisce in una serie di

relazioni, predittive, positive o negative o nulle, tra costrutti e criteri appositamente definiti. In questo

caso non c’è un solo criterio ma molte misure all’interno di una rete nomologica o di relazioni tra

costrutti.

Validità di costrutto come validità tout court

Secondo un approccio molto attuale, la validità di costrutto, sarebbe oggi la validità tout court che

riassume, ingloba e sostituisce i vecchi tipi di validità.

Quelli che in passato venivano ritenuti diversi tipi di validità vengono ora considerati semplicemente

come diversi tipi di verifiche empiriche che supportano un solo tipo di validità, quella di costrutto.

In questa concezione, la validità di costrutto si articola in:

validità di contenuto: che riguarda la qualità tecnica degli item, la loro rilevanza e

1. rappresentatività;

validità sostanziale, che riguarda omogeneità e regolarità del comportamento, legate a un

2. criterio rilevante per il costrutto (detta anche validità di criterio)

validità strutturale o fattoriale: che riguarda il numero e la tipologia delle dimensioni (o

3. fattori) che compongono il costrutto e la tipologia degli item per ciascuna dimensione;

generalizzabilità, che riguarda il grado in cui i punteggi e ele interpretazioni dei punteggi

4. possono essere generalizzati ad alcuni gruppi, contesti e tipi di compiti

validità consequenziale : che riguarda la valutazione delle conseguenze sociali e personali,

5. attese o non previste, dei punteggi e delle loro interpretazioni (per esempio errori diagnostici e

le conseguenti ingiustizie).

DIVERSI TIPI DI VALIDITA' DELLA RICERCA

Il termine validità indica una vera corrispondenza tra mondo reale e conclusioni di una ricerca. Una

nota definizione di Cook e Campbell si riferisce alla validità come alla migliore approssimazione

disponibile della verità o della falsità di proporzioni. I ricercatori si sono preoccupati di controllare

tutti gli elementi che possono nuocere alla corrispondenza tra mondo reale e conclusioni. Hanno dovuto

affrontare il problema della validità, distinguendone i vari aspetti.

-Il primo di questi riguarda l’esistenza o meno di una relazione causale tra variabile indipendente e

quella dipendente nelle condizioni e sui soggetti realmente studiati.

-Il secondo tende a verificare se la relazione riscontrata tra le suddette variabili vale anche per

persone diverse da quelle esaminate, per altre situazioni, altri luoghi e altri tempi.

-Il terzo mira ad assicurare che la ricerca effettivamente misuri quello che il ricercatore si è proposto di

misurare.

-Il quarto aspetto di validità controlla se i risultati della ricerca sono dovuti alla manipolazione della

variabile indipendente oppure a variazioni casuali.

-Il quinto si riferisce alle possibilità o meno di generalizzare i risultati ottenuti in laboratorio alla vita

vissuta in un ambiente naturale.

Questi vari aspetti della validità hanno tutti un proprio nome. Validità interna, esterna, di costrutto,

statistica ed ecologica.

1)VALIDITA' INTERNA

Concetto di validità interna:

Si ha validità interna quando la relazione tra due variabili è di tipo causale. Cioè quando si può

provare che le modifiche della variabile indipendente causano quelle della variabile dipendente e non

dipendono da altre variabili.

Tale relazione, per essere causale, deve avere due requisiti: una determinata direzione e l’esclusione di

fattori di confusione.

Il tipo di direzione dà la certezza che la manipolazione della variabile indipendente è causa dei

cambiamenti di quella dipendente, e non viceversa. Se la manipolazione della variabile indipendente

precede il cambiamento di quella dipendente, allora si può ragionevolmente supporre che la prima

influisce sulla seconda.

L’esclusione di fattori di confusione, invece, comporta il controllo di tutte le variabili potenzialmente

in grado di influenzare la relazione causale. Il compito del ricercatore consiste nell’eliminare tutte le

possibili minacce alla validità.

Minacce alla validità interna:

Vari fattori possono minacciare la validità interna di un esperimento:

Variabile di disturbo: indica la storia attuale, i processi di maturazione, l’effetto delle prove, la

strumentazione, l’effetto della regressione statistica, la selezione, la mortalità, l’interazione tra selezione

e storia, selezione e maturazione.

a) Storia attuale: ogni evento che durante un esperimento, produce un effetto che si sovrappone a

quello della variabile indipendente. Gli effetti storia si verificano soprattutto negli esperimenti che

hanno 2 misurazioni: una prima del trattamento ed una dopo.

Possono essere causati da variabili interne all'ambiente sperimentale (un'epidemia nel gruppo studiato)

oppure da variabili esterne (mass media che influiscono sull'opinione di un soggetto)

b) Processi di maturazione: fanno parte di questa categoria quei cambiamenti sistematici, di ordine

biologico e psicologico, che avvengono col trascorrere del tempo. Biologici → L’età, la fame, la

coordinazione, la fatica. Psicologici → l’acquisizione di nuove conoscenze, la noia, la stanchezza, la

motivazione e l’interesse. La maturazione è un problema assai critico quando la ricerca riguarda i

bambini, a morivo della rapidità del loro sviluppo. L'effetto maturazione è sempre presente negli studi

longitudinali.

c)Effetto delle prove: l’aver partecipato a precedenti esperimenti può influire sulle successive

prestazioni, a causa dell’apprendimento e della pratica. Poiché il presupposto fondamentale del disegno

con un gruppo sperimentale ed uno di controllo è l'equivalenza dei gruppi, per verificarlo il ricercatore

molto spesso ricorre ai pre-test. Questo controllo alle volte costituisce una minaccia alla validità interna,

perché i risultati del post-test possono essere dovuti alla combinazione dell'effetto del trattamento e

dell'abilità acquisita nella prova preliminare.

d) Strumentazione: la fluttuazione degli strumenti psicologici è maggiore che nelle altre scienze, non

solo per la loro natura ma anche per la loro diretta dipendenza dal ricercatore. Questi può influire sulla

affidabilità delle misurazioni mediante numerose variabili: aumento di esperienza, stanchezza,

disattenzione.

e) Effetto della regressione statistica: una legge statistica prevede che nelle prove ripetute sugli stessi

oggetti e sulla stessa variabile, i punteggi estremi tendono a regredire verso la media. Cioè, gli individui

che hanno fornito prestazioni ai valori estremi (o altissimi o bassissimi), in quella successiva tenderanno

verso punteggi più vicini ai valori medi.

f) Selezione: in un disegno ben condotto, il gruppo sperimentale e quello di controllo devono essere

equivalenti rispetto a tutte le variabili. Ma numerosi fattori possono minacciare l’equivalenza iniziale

dei gruppi, come il livello di intelligenza, la motivazione ecc. Se i due gruppi non sono equivalenti in

partenza, a causa della non corretta selezione dei soggetti, ogni eventuale differenza nel post-test può

essere attribuita erroneamente al trattamento.

g) Mortalità – abbandono o perdita differenziale dei soggetti: nell’attività di ricerca capita spesso

che, dopo il pre-test, da uno dei gruppi si ritirino dei soggetti, tale perdita può influire sui risultati della


ACQUISTATO

1 volte

PAGINE

55

PESO

716.19 KB

PUBBLICATO

4 mesi fa


DESCRIZIONE APPUNTO

Riassunto per l'esame di metodologia della ricerca psicologica basato sullo studio autonomo del testo consigliato dal docente: Metodologia della ricerca psicologica di Pedon e Gnisci su: evoluzione del concetto di scienza, processo di ricerca, comunicazione dei risultato, strumenti di ricerca, esperimenti, quasi esperimenti ed esperimenti su singoli sogg, attendibilità e validità.


DETTAGLI
Corso di laurea: Corso di laurea in scienze e tecniche psicologiche
SSD:
A.A.: 2018-2019

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher lelesprint1993 di informazioni apprese con la frequenza delle lezioni di Metodologia della ricerca psicologica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Salento - Unisalento o del prof Mossi Piergiorgio.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in scienze e tecniche psicologiche

Lezioni, Psicologia delle organizzazioni
Appunto
Approccio sistemico alla complessità  autorganizzata
Dispensa
Riassunto esame Epistemologia e storia della scienza- Docente: Castellana, Libri consigliati L'epistemologia di Widmar e L'epistemologia genetica di Piaget
Appunto
Riassunto esame Psicologia dello sviluppo, docente: Lecciso, Libro consigliato: La teoria della mente di Lecciso, Sempio e Marchetti
Appunto