Anteprima
Vedrai una selezione di 5 pagine su 16
Domande tipiche esame Teorie e tecniche dei test Pag. 1 Domande tipiche esame Teorie e tecniche dei test Pag. 2
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Domande tipiche esame Teorie e tecniche dei test Pag. 6
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Domande tipiche esame Teorie e tecniche dei test Pag. 11
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Domande tipiche esame Teorie e tecniche dei test Pag. 16
1 su 16
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Con il test F verifichiamo se la varianza dei punteggi Y spiegata dalla

regressione è significativa, facendo una stima di beta:

- beta=0, la X non spiega Y;

- beta diverso da 0, la X spiega in qualche misura Y e con beta definiamo la

direzione e l’entità dell’effetto di X su Y;

- beta > 0 = all’aumentare di X aumenta Y

- beta = 1, ad ogni variazione di X corrisponde una uguale variazione in Y

(relazione perfetta, ma teorica);

- beta > 1, ad ogni variazione di X corrisponde una variazione maggiore in Y;

- 0 < beta < 1, ad ogni variazione di X corrisponde una variazione minore in Y;

- beta < 0 = all’aumentare di X diminuisce Y;

- beta = -1, ad ogni variazione di X corrisponde una uguale variazione in Y

(perfetta, ma teorica);

- beta < -1, ad ogni variazione di X corrisponde una variazione maggiore in Y

- -1< beta < 0, ad ogni variazione di X corrisponde una variazione minore in Y.

Nel caso del MoCa, facendo la regressione semplice gli autori dell’articolo,

riportano che l’età ha un effetto sul punteggio e la scolarità ha un effetto sul

punteggio e occorre quindi aggiustare il punteggio in base alla regressione per

controllare i due effetti.

Si riportano quindi la formula per correggere il punteggio derivata dalla

regressione e per calcolare il punteggio corretto usiamo la formula sostituendo

età, scolarità e punteggio del rispondente. Nella tabella di Correzione

vengono riportate le quantità che devono essere sommate o sottratte al

punteggio ottenuto al Moca per correggerlo in base a età e scolarità.

20. Sensibilità e specificità.

La definizione della soglia cut-off può avvenire applicando tecniche che

consentono di individuare: Sensibilità: il test identifica la presenza del disturbo

quando c’è.

Specificità: il test identifica l’assenza del disturbi qundo non c’è.

Il test quindi deve limitare i falsi positivi e il falsi negativi.

Per definire la soglia più efficace occorre somministrare il test a una campione

di persone senza il disturbo misurato dal test (definiti quindi come tali

indipendentemente dal test) e a un campione di persone con disturbo misurato

dal test, diagnosticati come tali indipendentemente dal test.

Si può quindi a questo punto classificare i rispondenti in base al test variando la

soglia e calcolare la sensibilità e specificità al variare della soglia.

Sn= veri positivi/veri positivi+omissioni

Sp= veri negativi/ veri negativi+falsi allarmi.

Ad esempio, per la misura del funzionamento cognitivo occorre far riferimento

alla teoria e al giudizio di esperti e definire così il costrutto: quali abilità e come

si manifestano e definizione di cosa si intende per funzionamento normale e

funzionamento deficitario e con questo costruire il test.

Per definire le soglie del test che misura il funzionamento cognitivo occorre

somministrare il test a una campione di persone con funzionamento normale

(sempre definito indipendentemente dal test) e a un campione di persone che

hanno qualche tipo di deficit cognitivo che sia distinto in gravità (anch’esse

definite tali indipendentemente dal test). Si valuta infine l’accuratezza del test

nel classificare i casi al variare del punteggio di soglia in base ai veri positivi e

quindi la sensibilità (il test identifica il deficit quando c’è) e ai veri negativi con

la specificità (il test identifica l’assenza del deficit quando non c’è) e limitare al

massimo falsi allarmi e omissioni. La soglia sarà a quel punteggio che

maggiormente risponde a questi criteri.

21. Calcolo e confronto di due QI.

Daniele e Anna hanno ottenuto 55 ad un test di intelligenza. I dati normativi per

le loro fasce d’età sono rispettivamente: M=53, s=4; M=49, s=6. Calcolare per

entrambi il QI e commentare.

Fare i QI di deviazione [domanda 16]: QI Daniele: Y= 100+15(0.50)=107.5; QI

Anna: Y=100+15(1.0)=115.

A parità di punteggio gresso (55), una volta fatta la standardizzazione Daniele

ha un’intelligenza nella media, mentre Anna medio-alta.

22. Quali sono gli errori non casuali nella

somministrazione dei test./Elencare gli errori commessi

da intervistatore, intervistato, strumento e situazione?

Le possibili fonti di errore sistematico (e non casuale, bias) nella

somministrazione del test possono avere a che fare con:

L’intervistatore: l’inesperienza può portare a dare istruzioni in modo scorretto,

risposte raccolte in modo sbagliato, eccessiva formalità o rigidità, suggerimenti

volontari o involontari. L’intervistatore può essere poco assertivo, avere

eccessivo zelo nella rassicurazione e sentirsi inadeguato e paura di indurre a

sbagliare. Inoltre può avere eccesso di rigidità nell’assegnare punti o al

contrario eccessiva benevolenza o peggio, eccessiva interpretazione. Infine può

avere troppa familiarità con l’intervistato.

L’intervistato: può avere caratteristiche che lo rendono inadatto al test come

usare farmaci che rallentano le funzioni cognitive, deficit fisici, lingua madre

diversa dall’italiano. Può avere eccessiva ansia o timore, può essere frettoloso,

supponente, distratto o logorroico.

Lo strumento: può essere troppo concentrato, e quindi avere poco spazio per

le prove o mostrare le prove successive, ma peggio avere le istruzioni per lo

scoring non esaustive.

La situazione: l’ambiente può essere non adatto, con presenza di rumori o

altre persone, il testo può essere somministrato tramite internet o con un

pubblico o altri distruttori casuali (squillo telefono, calendario, orologio nella

stanza).

23. Cos'è errore di misurazione e come si

calcola./Errore casuale.

La teoria classica dei test ci dice che ogni misurazione di un test: X= V + E,

dove x è il punteggio osservato in un test, uguale al punteggio vero più l’errore.

Per errore si intende l’errore casuale, che al contrario del sistematico (bias) non

può essere previsto e evitato, si presenta in modo imprevedibile e varia da

misurazione a misurazione.

Il test deve essere definito in modo da contenere l’entità dell’errore e per

comprendere quanto sia precisa una misurazione ottenuta attraverso un test

bisogna quantificare in qualche modo la componente casuale d’errore.

Per contenere l’errore casuale nel test si possono effettuare più misure della

stessa caratteristica ottenuta con la stessa persona, ovvero più item per

misurare lo stesso costrutto (e i suoi indicatori).

Per quantificare l’errore casuale del test servono più somministrazioni

dello stesso test a persone diverse e alle stesse persone più volte (misure

ripetute). La TCT ci dice inoltre attraverso tre assunzioni: la media degli errori di

misurazione è uguale a 0, i punteggi veri e gli errori di misurazione sono tra loro

indipendenti, gli errori di misurazione in somministrazioni indipendenti sono

indipendenti.

Analizzando la varianza dei punteggi ottenuti al test, possiamo quantificare

l’errore.

24. Cos’è l’attendibilità./ Perché la stabilità temporale

è indice di attendibilità./ Uso dei coefficienti di

attendibilità e punteggi standardizzati.

L’attendibilità (o fedeltà o affidabilità) è una proprietà di un test e riguarda la

precisione con cui un test misura un costrutto a fronte dell’errore di

misurazione.

Conoscendo i punteggi ottenuti al test (valori x) e analizzandone la varianza

possiamo quantificare l’errore E e quindi quanto il punteggio è una misura

attendibile del punteggio vero V.

La misura è attendibile se la varianza dei punteggi esprime al massimo la

componente legata alle reali differenze e non a differenze legate al caso.

A partire dalla varianza dei punteggi occorre capire quanta sia varianza vera e

quale parte rappresenta la varianza d’errore. La varianza vera non può essere

calcolata, ma sappiamo che i punteggi saranno correlati tra loro nella misura in

cui condividono la parte vera (assunzione 2 e 3); possiamo stimarla a partire

dalla varianza/correlazione osservata tra misure dello stesso costrutto. Per cui

per quantificare l’attendibilità si utilizzano misure di covarianza/correlazione.

Matematicamente si arriva al coefficiente di attendibilità che è un valore

inversamente proporzionale all’errore di misura, che esprime il grado di

impermeabilità all’errore di misurazione. Questo valore va da 0 a 1 e più l’errore

è piccolo e più tende a 1.

L’attendibilità dello strumento è misurata definendo il grado di accordo tra:

- più misurazioni dello stesso costrutto ottenute con più item dalla stessa scala

(coerenza interna),

- con forme parallele dello stesso strumento (split-half),

- con lo stesso strumento in tempi diversi (test-retest),

- da più somministratori (intersiglatore).

Per testare l’attendibilità serve un campione che abbia un’adeguata ampiezza e

che sia eterogeneo, così che aumentando il campione aumenti la varianza vera

della caratteristica misurata e l’errore rimane costante.

Per misurare la coerenza interna si pone l’attenzione sui singoli item che devono

essere misure ripetute del signolo costrutto e le risposte devono correlare tra

loro nella misura in cui condividono la parte vera. I coefficienti si basano su

intercorrelazioni tra item dello stesso costrutto ottenute in uno stesso momento.

L’attendibilità viene riportata attraverso la coerenza interna e/o test-retest (alfa

di Cronbach, KR-20) e correlazioni.

L’attendibilità viene calcolata sull’intera scala nel caso di un’unica dimensione e

per ogni dimensione se il test si compone di più scale.

25. Commento a una tabella con Alpha di

Cronbach/Commento output su Alpha.

Misurando la coerenza interna si pone l’attenzione sui singoli item misurando

ripetutamente lo stesso costrutto e in base al fatto che le risposte saranno

correlate tra loro nella misura in cui condividono la parte vera. I coefficienti per

misurare la coerenza interna si basano sulle intercorrelazioni tra item dello

stesso costrutto ottenute in uno stesso momento. Sono il Kuder-Richardson per

la scala dicotomica e l’Alfa di Cronbach per la scala metrica. I criteri per

l’interpretazione sono: <.70 insufficiente, tra .70 e .80 adeguata, tra .80 e .90

buona e > .90 eccellente. L’analisi si presenta con Indice di coerenza interna

(Alfa) & Statistiche se l’item è escluso, valutando nel caso di Correlazione item-

totale quan

Dettagli
A.A. 2017-2018
16 pagine
5 download
SSD Scienze storiche, filosofiche, pedagogiche e psicologiche M-PSI/01 Psicologia generale

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher JulieDeCorrencon di informazioni apprese con la frequenza delle lezioni di Teorie e tecniche dei test e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Firenze o del prof Chiesi Francesca.