Che materia stai cercando?

Riassunto esame Metodologia, prof. Cuzzocrea, libro consigliato Misurare e valutare il cambiamento, Larcan Appunti scolastici Premium

Sunto per l'esame di Metodologia e psicometria, basato su rielaborazione di appunti personali e studio del testo consigliato dalla docente Cuzzocrea, Misurare e valutare il cambiamento, Larcan. Parla della misurazione e valutazione, della progettazione degli interventi, della pianificazione degli interventi, della rappresentazione grafica dei dati, dei tipi di grafici esistenti, dell'uso della statistica... Vedi di più

Esame di Metodologia e psicometria docente Prof. F. Cuzzocrea

Anteprima

ESTRATTO DOCUMENTO

baseline multiplo, che si può utilizzare quando lo stesso intervento viene applicato per

modificare comportamenti diversi nello stesso soggetto o quando lo stesso comportamento

è osservato su soggetti diversi, o sullo stesso soggetto, ma in contesti diversi. E' comunque

sempre preferibile il disegno classico A-B-A1, noto come disegno reversal o con

sospensione del trattamento, dove A si riferisce alle misurazioni effettuate prima di iniziare

l'intervento, definita "baseline" cioè misurazione di base e rappresenta la variabile osservata;

B rappresenta il trattamento, e la fase successiva, A1 rappresenta la fase in cui si verifica la

sospensione dell'intervento. E' utile inserire una o più fasi, dette di follw-up, analoghe alla

fase A1, a distanza di tempo prestabilite, per controllare il mantenimento dell'apprendimento.

Se possibile sarebbe preferibile cercare di mantenere costante la lunghezza delle fasi, per

cercare un giusto equilibrio tra le esigenze metodologiche e i motivi di opportunità.

CAPITOLO 3 RAPPRESENTAZIONE GRAFICA

Il passaggio successivo alla misurazione, è la valutazione, ovvero l'analisi, l'elaborazione e

interpretazione dei dati raccolti durante il processo di misurazione; se i processi di

misurazione e di valutazione sono stati effettuati in maniera corretta, diventa molto più

semplice comprendere il comportamento del paziente o dell'allievo, diventando naturale

individualizzare il progetto clinico o educativo che consentiranno di decidere su quali fattori

intervenire e se mantenere o modificare i metodi utilizzati. Misurare costantemente non

basta però, ed è necessario provvedere ad una descrizione sistematica delle condizioni e

valutare gli eventuali cambiamenti, anche se l'insieme dei dati raccolti , a volte, non

consentono di effettuare un'immediata lettura; si rende necessaria, perciò, una sintesi che

ne faciliti la descrizione e l'interpretazione: la costruzione di un grafico. Esistono numerosi

software come Excel, che con il corretto inserimento dei dati, è in grado di riprodurlo

graficamente in qualsiasi forma si desideri (istogramma, grafico lineare o a torta, ecc). La

sintesi grafica facilita notevolmente la valutazione dei risultati, in quanto consente di

individuare la relazione fra variabile dipendente e indipendente e soprattutto, rende più

attendibili le decisioni, le valutazioni e le conclusioni. Tra l'altro, i grafici non hanno solo il

grosso pregio di dare un senso ai numeri, ma possono essere considerati, come

espressione di un "linguaggio universale" e strumento che consente al soggetto di

visualizzare i suoi successi.

TIPI DI GRAFICO

La capacità comunicativa di un grafico è proporzionale alla chiarezza, semplicità e

accuratezza con cui fornisce le informazioni al lettore. La scelta tra i diversi tipi di grafici

esistenti (lineari, a barre, istogramma, ecc) è subordinata alla tipologia di dati di cui si

dispone, allo scopo che si intende raggiungere e alle persone alle quali si vuole comunicare.

Il grafico a barre e l'istogramma sono indicati per descrivere la distribuzione dei punteggi, in

particolare, indicano quali punteggi sono più frequenti e quali, invece, appaiono più

raramente. Il grafico a barre è solitamente utilizzato per rappresentare e per confrontare dati

raccolti in fasi differenti (es prima e dopo un intervento didattico) e ciascuna barra

rappresenta una variabile categoriale. Il grafico a barre multiple, invece, può essere

utilizzato per descrivere la frequenza media dei comportamenti diversi, monitorati

contemporaneamente in più condizioni. Simile al grafico a barre, ma più versatile e analitico,

è l'istogramma che serve a rappresentare categorie separate e senza rapporti di continuità,

ed è una rappresentazione grafica di una funzione nota solo per un certo numero di valori

della variabile prescelta. Mentre nel grafico a barre i rettangoli sono staccati, nell'istogramma

essi sono adiacenti e ognuno ha per base un certo intervallo della variabile e un'altezza tale

che la sua area rappresenti il relativo valore globale della funzione. Nel caso in cui i valori di

cui vogliamo rappresentare le frequenze siano molti e le frequenze per ciascun valore siano

basse, può essere utile raggrupparli in "classi" (range). Gli stessi dati possono essere

rappresentati anche attraverso il cosiddetto poligono e in questo caso però, nel grafico non

si visualizzeranno le classiche barrette, ma una linea. Per discriminare condizioni diverse in

un istogramma si utilizza una linea verticale ben marcata, mentre un cambiamento entro la

stessa condizione si indica con una linea verticale sottile o tratteggiata. I grafici lineari sono

quelli più conosciuti e più utilizzati, anche se non sempre consentono al lettore di

interpretare con facilità i cambiamenti di livello. Ciò nonostante, tale modalità grafica

presenta numerosi vantaggi: è semplice da costruire permette di valutare l'effetto di un

intervento sulla variabile osservata, facilitando così la sua decisione di mantenere o

modificare il tipo di attività intrapresa. Se nello stesso grafico vengono riportate diverse

distribuzioni di dati da mettere a confronto si possono utilizzare forme geometriche diverse

allo scopo di favorire la rapida individuazione di valori.

COSTRUZIONE DEL GRAFICO

Per costruire un grafico è bene ricordare che l'asse orizzontale si riferisce alla variabile

osservata, mentre i valori dell'asse verticale corrispondono a quelli ottenuti nelle singole

misurazioni. E' quindi opportuno fornire una chiara "legenda", specificando cosa rappresenta

ciascun asse e quale unità di misura è stata usata. E' molto importante non solo scegliere il

tipo di grafico, ma anche curarne attentamente le proporzioni e la leggibilità: il rapporto tra

l'asse delle ordinate (verticale delle y) e l'asse delle ascisse 8orizzontale delle x) è fissato

nella frazione 2/3 in modo da limitare la distorsione percepita. Anche il titolo, la legenda,

l'indicazione delle condizioni previste e delle fasi di rilevazione dovranno essere sintetiche,

ma al tempo stesso esplicative. Quando il numero delle rilevazioni è molto elevato per

ridurre il numero di punti da riportare sul grafico, è consigliabile operare una sintesi,

calcolando la media dei punteggi ottenuti in due o più sessioni entro fasi adiacenti.

INTERPRETAZIONE DEL GRAFICO

La valutazione dei dati richiede la capacità di interpretare il significato delle fluttuazioni dei

dati ottenuti, per verificare se i sono cambiamenti e se questi sono diversi da quelli che ci

sarebbero stati senza l'intervento. Questa valutazione può essere fatta o confrontando tra

loro le medie dei valori ottenuti o attraverso un'attenta letture dei grafici, verificando se ci

sono stati cambiamenti tra una fase e l'altra, osservando l'inclinazione della retta detta di

"regressione" per verificare l'eventuale presenza di un andamento (trend) nella fase di

trattamento o tra una fase e l'altra. La maggior parte degli studiosi del comportamento

afferma che quando si procede all'analisi visiva dei dati, gli elementi fondamentali sono:

- la lunghezza della condizione, cioè il numero dei punti segnati entro una condizione o fase,

che ne indica la lunghezza. E' sempre preferibile avere almeno tre sessioni di osservazione

distinte, consecutive, per assicurarsi il livello di stabilità e il trend dei dati. Per la stessa

ragione, sarebbe preferibile aumentare il numero delle fasi di osservazione e protrarne la

durata.

- Il livello di stabilità elemento rilevante soprattutto quando si analizzano i dati relativi al

baseline e alle fasi di controllo, mentre ovviamente ci si aspetta che nelle fasi di intervento i

dati esprimano un andamento (crescente o decrescente). La stabilità dei dati si verifica

controllando quale sia il range dei punteggi ottenuti (minimo-massimo): se il range dei valori

è ridotto (bassa variabilità), allora i dati possono essere considerati stabili.

- Il cambiamento di livello entro una condizione e si calcola identificando i valori del primo e

dell'ultimo punto lungo l'asse delle ordinate e sottraendo il valore più piccolo da quello più

grande; il risultato ottenuto darà la direzione del cambiamento, cioè indicherà, nella fase

base-line, se il soggetto ha già cominciato a modificare (in positivo o negativo) il suo

comportamento o rendimento prima che venga iniziato l'intervento; se nella fase B,

l'intervento modifica, positivamente o negativamente, il livello di prestazione; se, nelle fasi di

post-intervento, il rendimento si mantiene stabile oppure si modifica, registrando un calo

crescente o continuando a migliorare anche inassenza di intervento.

- La direzione del trend, cioè l'andamento dei dati nel corso delle sessioni di una fase, in

particolare si può verificare un trend crescente (aumento dei valori delle ordinate nel tempo),

o un trend decrescente (diminuzione dei valori). Generalmente per rappresentare

graficamente la linea di trend si utilizzano due semplici procedimenti: il metodo "freehand" e

il metodo "split-middle".Il primo prevede l'individuazione di tutti i punti di una condizione

riportati nel grafico, che andranno uniti da una linea retta che attraversa ogni valore

(Parsonson e Baer). Il secondo metodo consente di rappresentare il trend con maggiore

sicurezza e prevede 4 fasi successive:

* 1° fase: dividere i dati in due parti uguali, segnando una linea che divida la

distribuzione esattamente a metà;

* 2° fase: trovare la retta che divide perfettamente a metà le due sotto-distribuzioni.

Trovare, quindi, il valore mediano sia del tempo che del numero di problemi risolti e

tracciare l'intersezione.

* 3° fase: collegare tra loro i due punti di intersezione. Il tratto che ne risulta

rappresenta l'andamento delle prestazioni, ed è chiamato "linea di apprendimento di

intersezione dei quarti".

* 4° fase: contare il numero dei punti che si trovano sopra e sotto la linea di

intersezione, che dovrebbe essere uguale, ma se non si realizza questa condizione

bisogna spostare la linea (verso l'alto o verso il basso) mantenendola parallela alla

precedente, finchè i valori non risultino equamente distribuiti. Si otterrà così una retta

che visualizza l'andamento medio delle prestazioni.

- La stabilità del trend che si valuta individuando il numero di dati/punti, presenti in una

condizione, che ricadono vicino la linea del trend entro un range di valori prefissato.

Generalmente, se l'80-90% dei punti si colloca, lungo la linea, entro il 15% del range

predeterminato, il trend può essere considerato stabile.

Oltre ad effettuare l'analisi della stabilità e della direzione del trend entro ogni condizione,

sarebbe opportuni prevedere anche la valutazione delle differenze tra le diverse condizioni o

fasi. Mettendo a confronto le differenze tra le linee di trend di due condizioni adiacenti, è

possibile infatti farsi un'ida dell'effetto che ha avuto il passaggio da una condizione all'altra.

Un altro metodo per rappresentare i dati è il calcolo della retta di regressione che prevede

alcuni calcoli matematici con l'unico obiettivo di descrivere il trend. Questa procedura

matematica prende in considerazione il rapporto fra il numero delle osservazioni effettuate

(X) e il numero di risposte emesse dal soggetto durante le singole sessioni (Y).

ANALISI VISIVA VS. ANALISI STATISTICA

L'analisi visiva è un metodo di analisi dei dati adeguato quando gli effetti del trattamento

sono molto ampi e vistosi, mentre nel caso in cui non vi siano differenze evidenti, per

rilevare con maggiore precisione le caratteristiche della distribuzione può rilevarsi più

affidabile l'analisi statistica. L'analisi visiva rappresenta un primo passo per la comprensione

dell'andamento dei dati, ma non può sostituire le analisi statistiche, anche perchè implica

sempre un certo rischio di soggettività nell'interpretazione. L'analisi statistica, invece, oltre a

garantire una maggiore oggettività, consente di stabilire in maniera più affidabile in che

misura i cambiamenti rilevati siano ad attribuire al caso o ad altri fattori non controllati (H0),

oppure al trattamento (H1). Una valutazione più completa dei dati ottenuti dovrebbe derivare

dall'integrazione di entrambe le procedure.

CAPITOLO 4

L'USO DELLA STATISTICA PER LA VALUTAZIONE DEGLI INTERVENTI: PREMESSE

TEORICHE

Diversi autori hanno ribadito l'importanza di un'analisi statistica dei risultati, poichè esse

consente di verificare con sufficiente accuratezza le modificazioni nel comportamento o dei

livelli di competenza del soggetto, ma certamente non risolve il problema fondamentale che

è quello di ridurre l'errore sperimentale, ovvero quell'insieme di variabili incontrollate che,

possono influenzare i risultati, l'efficacia di una metodologia o l'andamento di una terapia.

Tra questi potrebbero verificarsi:

- effetti dovuti alla maturazione del soggetto: il soggetto potrebbe mostrare dei cambiamenti

spontanei, indipendentemente dal trattamento e sarebbe un errore quindi attribuirli ad esso;

- effetti del pre-test: può accadere, infatti che le prove o gli strumenti diagnostici utilizzati

nella fase di baseline influenzino in qualche modo le risposte fornite nella fase successiva e

che quindi i comportamenti osservati non siano dovuti esclusivamente al trattamento;

- effetto placebo: spesso, soprattutto in ambito clinico, accade che il soggetto, per il solo

fatto di sentirsi "in terapia", mostri dei miglioramenti che nulla hanno a che vedere con il

trattamento.

- effetto carry-over: gli effetti di trattamento, sia esso farmacologico o un training di

apprendimento, si protraggono spesso anche nella fase successiva, rendendo difficile

isolare gli effetti dovuti alla sospensione dell'intervento;

- effetti tetto/pavimento: se il soggetto raggiunge il criterio di apprendimento e la fase

prevede un numero più elevato di prove, potrebbe non emergere una significatività del trend,

poichè i dati sarebbero, in massima parte stazionari.

Ovviamente è compito del ricercatore curare in precedenza gli aspetti metodologici del

proprio lavoro in modo da limitare la variabilità dovuta a tali fattori. Quando si opera sui casi

singoli, bisogna tener presente che i dati che si esprimono serie temporali, che cioè

prevedono un assessment continuo (prima, durante e dopo), non dovrebbero essere trattati

con i comuni ed abituali metodi di analisi statistica, in quanto non richiedono soltanto un

confronto prima-dopo attraverso l'analisi delle differenze tra le medi dei valori ottenuti nelle

varie fasi, ma consentono anche l'analisi dell'andamento. Questo tipo di dati, detti time

series, rappresentano osservazioni di una certa variabile dipendente distribuita in intervalli

regolari (lag). I dati che esprimono serie temporali sono in successione continua e su di essi

è possibile eseguire l'analisi dell'andamento, anche nel caso in cui il piano delle osservazioni

non preveda alcuna fase di trattamento. Nei piani di ricerca a soggetto singolo i dati vengono

definiti serie temporali interrotte, perchè per controllare l'effetto della variabile indipendente

"trattamento", sono previste fasi nelle quali si continuano ad effettuare misurazioni mentre il

trattamento viene sospeso. Le serie temporali interrotte implicano la necessità di garantire

alcuni presupposti impliciti nel processo di inferenza e, in linea di massima, le statistiche

disponibili per analizzare i dati di questo tipo si basano su presupposti teorici e modelli

matematici complessi. Il modello per l'analisi delle serie temporali prevede componenti

"deterministiche" (effetti del trattamento) e componenti "stocastiche" cioè errori dovuti ad

elementi casuali e l'effetto dell'influenza delle osservazioni precedenti. Nel caso delle serie

temporali, infatti, ciascun dato subisce in qualche modo l'influenza dei dati che lo precedono

e non è quindi indipendenti da essi: questa particolare fonte di variabilità è definita

"dipendenza seriale". Nei dati che esprimono serie temporali, però, le possibili fonti "errore"

sono di due tipi: quelle presenti in qualsiasi altro tipo di ricerca, ovvero le cosiddette variabili

di disturbo, e la dipendenza seriale. Questa si valuta attraverso il calcolo del coefficiente

statistico di autocorrelazione, che serve ad indicare se, e a che livello, un dato contiene

elementi che possono influenzare un altro dato che occupa un posto successivo nella serie

temporale. Per autocorrelazione dei dati si intende la correlazione tra i punti successivi di

una serie, separati da differenti intervalli di tempo (lags): se la serie è autocorrelata il

punteggio di una osservazione è predittivo dei risultati ottenuti nei punti successivi della

serie.

L'INFERENZA STATISTICA

Il processo logico sottostante le operazioni statistiche è l'inferenza. Nell'ambito della ricerca

scientifica la statistica serve infatti a:

- stimare le caratteristiche di una popolazione a partire dalle rilevazioni fatte su un campione,

oppure stimare le caratteristiche di due campioni a confronto;

- Calcolare l'incidenza del caso sui risultati ottenuti;

- Verificare (o confutare) l'ipotesi H0, ovvero, se due o più campioni di soggetti o di

osservazione provengono dalla stessa popolazione.

I test statistici più comunemente utilizzati per valutare l'efficacia di un intervento sono:

* (tabella a pag 101)

CAPITOLO 5

STATISTICHE PER L'ANALISI DELLE DIFFERENZE PRIMA-DOPO

Un operatore generalmente si chiede se vi siano delle differenze tra i comportamenti del

soggetto osservati nella fase baseline e quelli rilevati nel post-trattamento: in casi del

genere, dal punto di vista metodologico, ci troviamo di fronte ad un piano di ricerca prima-

dopo, in quanto vengono messe a confronto le prestazioni dei soggetti in due diversi fasi di

rilevazione, distinte dal training e piuttosto distanti in termini temporali. Per la scelta della

statistica più adeguata si può fare riferimento sia a test per dati parametrici sia a test per dati

non parametrici; la scelta è condizionata, ovviamente, dalla sala di misura, ovvero dai

parametri utilizzati per la misurazione:

- i test per dati parametrici possono essere utilizzati solo nel caso in cui la variabili sono

misurate su scale a intervallo o a rapporti; i dati si distribuiscono in maniera "normale" (curva

di Gauss); le varianze delle distribuzioni messe a confronto sono omoscedastiche, cioè

statisticamente uguali.

- i test non parametrici sono usati nei restanti casi, cioè quando le scale di misura utilizzate

sono ordinali o nominali, oppure quando i dati non hanno le caratteristiche della distribuzione

normale (simmetria e mesocurtosi).

Un problema che può verificarsi nei confronti prima-dopo è legato all'attendibilità del test-

retest: utilizzare lo stesso strumento di rilevazione in due momenti successivi può in qualche

modo e per diverse ragioni alterare i risultati. Ciò sottolinea l'importanza di prestare

attenzione alla scelta dello strumento statistico da utilizzare e alle condizioni richieste. Per

l'analisi prima-dopo si può fare riferimento ad alcuni test statistici che sono diversi in

relazione al tipo di dati di cui si dispone, ovvero in base alle scale di misura utilizzate. In

particolare quelli più frequentemente utilizzati sono:

* Il test "t" per misure ripetute, che si può usare quando i dati sono parametrici in una

tipica situazione sperimentale in cui si voglia verificare se un determinato

trattamento, o un programma di apprendimento, dia effettivamente risultati

apprezzabili. Il test può essere applicato sia per analizzare le differenze media di

prestazioni di gruppi di soggetti, sia su singoli soggetti. Per l'analisi su un solo

soggetto è però necessario che i dati ottenuti in ciascuna delle fasi di pre e di post-

training non siano autocorrelati, cioè che non siano stati influenzati dalla dipendenza

seriale.

* Il test T dei segni per ranghi di Wilcoxon, che è invece un test per dati non

parametrici, è utile per confrontare due campioni dipendenti, e quando, per ogni

coppia di dati sia possibile valutare non solo il segno della differenza (miglioramento-

peggioramento), ma anche l'entità delle differenze, ordinandole in ranghi. Esso è

analogo al t test per misure ripetute, ma si applica quando non è rispettata la

condizione di normalità della distribuzione e/o i dati raccolti sono stati misurati con

una scala ordinale. L'impostazione classica del test dei segni per ranghi di Wilcoxon,

detto anche "test t di Wilcoxon", permette di verificare se la tendenza centrale di una

distribuzione si discosti in modo significativo da un valore prefissato di confronto.

* Il test di McNemar, che può essere utilizzato quando le variabili sono espresse su

una scala nominale e i dati, che rappresentano frequenze di risposte antitetiche

espresse in termini diversi, possono essere riportati su una tabella di contingenza 2

(riuscite-fallimenti) x2 (prima e dopo), oppure 2 x k, se le fasi di rilevazione da

analizzare sono più di due. Esso è noto anche come test per la significatività dei

cambiamenti (McNemar test for significance of changes) e serve per verificare

eventuali differenze tra due momenti diversi, oppure tra due situazioni diverse alle

quali è esposto un campione di soggetti.

* Il test di randomizzazione o casualizzazione (randomization test), a differenza degli

altri test fornisce direttamente un indice di significatività, senza ricorso a tavole dei

valori critici. Esso può essere utilizzato quando si vogliono confrontare le differenze

fra misure ripetute o dati appaiati. Non fa riferimento ad alcuna distribuzione e non

richiede una specifica scala di misura. Snedecor e Cochran lo attribuiscono a Fisher

denominandolo appunto "Fisher's randomization test", anche se su alcuni testi viene

chiamato "raw score test" o "Pitman test.

CAPITOLO 6 STATISTICHE PER L'ANALISI DEI TREND

Nei disegni in cui sono presenti serie temporali, l'operatore dispone di diverse serie di dati

rilevati a intervalli costanti, relativi a tutte le fasi del suo lavoro, compresa la fase

dell'intervento, e può quindi effettuare una maggiore quantità di analisi che gli consentiranno

di ricavare maggiori informazioni. I dati espressi in serie temporali consentono di verificare

non solo se un erto comportamento si è modificato per effetto di un trattamento, ma anche il

modo in cui si è modificato, ovvero la direzione e l'andamento assunto dai dati. A questa

informazione si può accedere attraverso l'analisi visiva, ovvero tramite un grafico su cui

riportare i dati, oppure per evitare qualsiasi tipo d'errore, si può ricorrere all'analisi statistica

dei trend. I più comuni test statistici che consentano di rilevare la presenza di un significativo

andamento (di incremento o decremento) sono il x2 per i trend (il chi quadrato per i trend),

quando la scala di misura utilizzata è quella nominale (dati espressi in frequenze o

percentili), e il p (Rho) per i trend, quando viene utilizzata una scala ordinale(dati espressi in

ranghi).

IL TEST X2 PER I TREND IN UNA TABELLA DI CONTINGENZA 2 x K

Il chi quadrato per i trend permette di verificare se le differenze tra i periodi di osservazione

si dispongono seguendo uno specifico andamento. Il metodo del x2 per i trend è stato

elaborato da Armitage (1971), ma ha avuto anche altre denominazioni: "test per un trend

lineare per proporzioni" (Snedecor e Cochran) o "test per la regressione lineare in una

tabella 2 x K" (steel e Torrie). Consiste nel sottrarre dal X2 generale il X2 per l'analisi della

tendenza lineare.

IL COEFFICIENTE DI CORRELAZIONE p (rho) DI SPEARMAN

Il coefficiente di correlazione di Spearman, indicato con il simbolo greco p (rho) è una

correlazione basata sui ranghi, che si basa sugli stessi principi della correlazione

parametrica r di Pearson. In questo caso, viene calcolata la correlazione, in ogni singola

fase, tra il numero d'ordine di ciascuna osservazione e il relativo dato osservato, espresso

però in ranghi. Perchè venga garantita una potenza sufficiente del test è necessario rilevare

almeno 8 osservazioni per ogni fase. Nel caso in cui però vi siano molti punti uguali,

all'interno delle singole fasi, il calcolo Rho è controindicato.

CAPITOLO 7

STATISTICHE PER L'ANALISI DELLE SERIE TEMPORALI

Una serie temporale definita anche serie storica è una sequenza di dati ordinati nel tempo in

modo che l'intervallo tra i valori consecutivi di una serie temporale sia sempre ostante. I test

statistici più noti e più frequentemente utilizzati per l'analisi di serie temporali successive

sono: il test t per serie temporali, i test ARIMA, i test di randomizzazione, l'analisi

sequenziale.

TEST T PER SERIE TEMPORALI

Caracciolo, Larcan, Cammà dimostrano l possibilità di applicare il test t, abitualmente

utilizzato per il confronto tra medie di dati indipendenti, anche al confronto tra medie di "time-

series" rilevate su un singolo soggetto. E' noto che il test t è applicabile solo se rispettate le

condizioni necessarie per l'applicazione dei test parametrici: i dati devono essere misurati su

scale a intervalli o a rapporti e devono assumere una distribuzione normale. Per poter

utilizzare il test t per confrontare le medie di due serie temporali, i dati non devono essere

autocorrelati.

TEST DI RANDOMIZZAZIONE PER SERIE TEMPORALI

Questa procedura, riportata da Siegel e Siegel e Castellan consente l'analisi di serie

temporali attraverso la randomizzazione dell'ordine delle fasi.

TEST DI RANDOMIZZAZIONE PER BASELINE MULTIPLI

Il test di randomizzazione, adattato da Edgington agli studi di psicologia applicata, può

essere utilizzato per l'analisi dei disegni a baseline multiplo. In questo caso, per verificare

l'efficacia di un trattamento, si possono fare rilevazioni di comportamenti diversi o in

situazioni diverse su uno stesso soggetto, oppure dello stesso comportamento in soggetti

diversi.

STATISTICA Rn DI REVUSKY

La statistica Rn di Revusky permette di analizzare i dati ottenuti nei disegni a baseline

multiplo e appare particolarmente utile in quanto consente di controllare la dipendenza

seriale. Wolery e Bilingsley propongono di integrare l'analisi visiva realizzata attraverso la

tecnica split-middle con questa analisi, per determinare le differenze statistiche dei

cambiamenti di livello e di trend. La statistica Rn parte dal presupposto che l'assegnazione

d'ordine dei soggetti, o dei comportamenti o delle situazioni da sottoporre al baseline sia

casuale. Secondo alcuni autori, però, le conclusioni cui si perviene attraverso il test Rn di

Revusky non sono sufficientemente attendibili, dal momento che fanno riferimento ad un

unico dato, il punteggio ottenuto nella prima sessione di trattamento. Per ovviare a questo

limite, è stata suggerita una valutazione più ampia, con riferimento alla media della

distribuzione dei dati della serie, invece che al singolo dato di inizio trattamento. Pur

risolvendo in parte il problema, questa nuova procedura comporta alcuni inconvenienti, non

sempre conciliabili con le esigenze operative. In questo caso, infatti, è necessario stabilire a

priori la durata del baseline e del trattamento; l'inizio del trattamento deve essere costante


PAGINE

18

PESO

38.13 KB

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Sunto per l'esame di Metodologia e psicometria, basato su rielaborazione di appunti personali e studio del testo consigliato dalla docente Cuzzocrea, Misurare e valutare il cambiamento, Larcan. Parla della misurazione e valutazione, della progettazione degli interventi, della pianificazione degli interventi, della rappresentazione grafica dei dati, dei tipi di grafici esistenti, dell'uso della statistica per la valutazione degli interventi e le relative premesse teoriche, delle statistiche per l'analisi delle differenze prima-dopo, delle statistiche per l'analisi dei trend e delle statistiche per l'analisi delle serie temporali.


DETTAGLI
Corso di laurea: Corso di laurea in Scienze e tecniche psicologiche
SSD:
Università: Messina - Unime
A.A.: 2012-2013

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher nicoletta.abramo di informazioni apprese con la frequenza delle lezioni di Metodologia e psicometria e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Messina - Unime o del prof Cuzzocrea Francesca.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Metodologia e psicometria

Riassunto esame Metodologia, prof. Cuzzocrea, libro consigliato Metodologia della ricerca psicologica, Gnisci
Appunto
Riassunto esame Psicometria, prof. Costa, libro consigliato Fondamenti di Psicometria, Chiorri
Appunto
Riassunto esame Pedagogia interculturale, prof. Panarello, testo consigliato L'educazione all'interculturalità e alla sostenibilità
Appunto
Riassunto esame Psicologia delle Relazioni Familiari, prof. Larcan, libro consigliato La Relazione Genitore Bambino, Riva Crugnola
Appunto