vuoi
o PayPal
tutte le volte che vuoi
Con il test F verifichiamo se la varianza dei punteggi Y spiegata dalla
regressione è significativa, facendo una stima di beta:
- beta=0, la X non spiega Y;
- beta diverso da 0, la X spiega in qualche misura Y e con beta definiamo la
direzione e l’entità dell’effetto di X su Y;
- beta > 0 = all’aumentare di X aumenta Y
- beta = 1, ad ogni variazione di X corrisponde una uguale variazione in Y
(relazione perfetta, ma teorica);
- beta > 1, ad ogni variazione di X corrisponde una variazione maggiore in Y;
- 0 < beta < 1, ad ogni variazione di X corrisponde una variazione minore in Y;
- beta < 0 = all’aumentare di X diminuisce Y;
- beta = -1, ad ogni variazione di X corrisponde una uguale variazione in Y
(perfetta, ma teorica);
- beta < -1, ad ogni variazione di X corrisponde una variazione maggiore in Y
- -1< beta < 0, ad ogni variazione di X corrisponde una variazione minore in Y.
Nel caso del MoCa, facendo la regressione semplice gli autori dell’articolo,
riportano che l’età ha un effetto sul punteggio e la scolarità ha un effetto sul
punteggio e occorre quindi aggiustare il punteggio in base alla regressione per
controllare i due effetti.
Si riportano quindi la formula per correggere il punteggio derivata dalla
regressione e per calcolare il punteggio corretto usiamo la formula sostituendo
età, scolarità e punteggio del rispondente. Nella tabella di Correzione
vengono riportate le quantità che devono essere sommate o sottratte al
punteggio ottenuto al Moca per correggerlo in base a età e scolarità.
20. Sensibilità e specificità.
La definizione della soglia cut-off può avvenire applicando tecniche che
consentono di individuare: Sensibilità: il test identifica la presenza del disturbo
quando c’è.
Specificità: il test identifica l’assenza del disturbi qundo non c’è.
Il test quindi deve limitare i falsi positivi e il falsi negativi.
Per definire la soglia più efficace occorre somministrare il test a una campione
di persone senza il disturbo misurato dal test (definiti quindi come tali
indipendentemente dal test) e a un campione di persone con disturbo misurato
dal test, diagnosticati come tali indipendentemente dal test.
Si può quindi a questo punto classificare i rispondenti in base al test variando la
soglia e calcolare la sensibilità e specificità al variare della soglia.
Sn= veri positivi/veri positivi+omissioni
Sp= veri negativi/ veri negativi+falsi allarmi.
Ad esempio, per la misura del funzionamento cognitivo occorre far riferimento
alla teoria e al giudizio di esperti e definire così il costrutto: quali abilità e come
si manifestano e definizione di cosa si intende per funzionamento normale e
funzionamento deficitario e con questo costruire il test.
Per definire le soglie del test che misura il funzionamento cognitivo occorre
somministrare il test a una campione di persone con funzionamento normale
(sempre definito indipendentemente dal test) e a un campione di persone che
hanno qualche tipo di deficit cognitivo che sia distinto in gravità (anch’esse
definite tali indipendentemente dal test). Si valuta infine l’accuratezza del test
nel classificare i casi al variare del punteggio di soglia in base ai veri positivi e
quindi la sensibilità (il test identifica il deficit quando c’è) e ai veri negativi con
la specificità (il test identifica l’assenza del deficit quando non c’è) e limitare al
massimo falsi allarmi e omissioni. La soglia sarà a quel punteggio che
maggiormente risponde a questi criteri.
21. Calcolo e confronto di due QI.
Daniele e Anna hanno ottenuto 55 ad un test di intelligenza. I dati normativi per
le loro fasce d’età sono rispettivamente: M=53, s=4; M=49, s=6. Calcolare per
entrambi il QI e commentare.
Fare i QI di deviazione [domanda 16]: QI Daniele: Y= 100+15(0.50)=107.5; QI
Anna: Y=100+15(1.0)=115.
A parità di punteggio gresso (55), una volta fatta la standardizzazione Daniele
ha un’intelligenza nella media, mentre Anna medio-alta.
22. Quali sono gli errori non casuali nella
somministrazione dei test./Elencare gli errori commessi
da intervistatore, intervistato, strumento e situazione?
Le possibili fonti di errore sistematico (e non casuale, bias) nella
somministrazione del test possono avere a che fare con:
L’intervistatore: l’inesperienza può portare a dare istruzioni in modo scorretto,
risposte raccolte in modo sbagliato, eccessiva formalità o rigidità, suggerimenti
volontari o involontari. L’intervistatore può essere poco assertivo, avere
eccessivo zelo nella rassicurazione e sentirsi inadeguato e paura di indurre a
sbagliare. Inoltre può avere eccesso di rigidità nell’assegnare punti o al
contrario eccessiva benevolenza o peggio, eccessiva interpretazione. Infine può
avere troppa familiarità con l’intervistato.
L’intervistato: può avere caratteristiche che lo rendono inadatto al test come
usare farmaci che rallentano le funzioni cognitive, deficit fisici, lingua madre
diversa dall’italiano. Può avere eccessiva ansia o timore, può essere frettoloso,
supponente, distratto o logorroico.
Lo strumento: può essere troppo concentrato, e quindi avere poco spazio per
le prove o mostrare le prove successive, ma peggio avere le istruzioni per lo
scoring non esaustive.
La situazione: l’ambiente può essere non adatto, con presenza di rumori o
altre persone, il testo può essere somministrato tramite internet o con un
pubblico o altri distruttori casuali (squillo telefono, calendario, orologio nella
stanza).
23. Cos'è errore di misurazione e come si
calcola./Errore casuale.
La teoria classica dei test ci dice che ogni misurazione di un test: X= V + E,
dove x è il punteggio osservato in un test, uguale al punteggio vero più l’errore.
Per errore si intende l’errore casuale, che al contrario del sistematico (bias) non
può essere previsto e evitato, si presenta in modo imprevedibile e varia da
misurazione a misurazione.
Il test deve essere definito in modo da contenere l’entità dell’errore e per
comprendere quanto sia precisa una misurazione ottenuta attraverso un test
bisogna quantificare in qualche modo la componente casuale d’errore.
Per contenere l’errore casuale nel test si possono effettuare più misure della
stessa caratteristica ottenuta con la stessa persona, ovvero più item per
misurare lo stesso costrutto (e i suoi indicatori).
Per quantificare l’errore casuale del test servono più somministrazioni
dello stesso test a persone diverse e alle stesse persone più volte (misure
ripetute). La TCT ci dice inoltre attraverso tre assunzioni: la media degli errori di
misurazione è uguale a 0, i punteggi veri e gli errori di misurazione sono tra loro
indipendenti, gli errori di misurazione in somministrazioni indipendenti sono
indipendenti.
Analizzando la varianza dei punteggi ottenuti al test, possiamo quantificare
l’errore.
24. Cos’è l’attendibilità./ Perché la stabilità temporale
è indice di attendibilità./ Uso dei coefficienti di
attendibilità e punteggi standardizzati.
L’attendibilità (o fedeltà o affidabilità) è una proprietà di un test e riguarda la
precisione con cui un test misura un costrutto a fronte dell’errore di
misurazione.
Conoscendo i punteggi ottenuti al test (valori x) e analizzandone la varianza
possiamo quantificare l’errore E e quindi quanto il punteggio è una misura
attendibile del punteggio vero V.
La misura è attendibile se la varianza dei punteggi esprime al massimo la
componente legata alle reali differenze e non a differenze legate al caso.
A partire dalla varianza dei punteggi occorre capire quanta sia varianza vera e
quale parte rappresenta la varianza d’errore. La varianza vera non può essere
calcolata, ma sappiamo che i punteggi saranno correlati tra loro nella misura in
cui condividono la parte vera (assunzione 2 e 3); possiamo stimarla a partire
dalla varianza/correlazione osservata tra misure dello stesso costrutto. Per cui
per quantificare l’attendibilità si utilizzano misure di covarianza/correlazione.
Matematicamente si arriva al coefficiente di attendibilità che è un valore
inversamente proporzionale all’errore di misura, che esprime il grado di
impermeabilità all’errore di misurazione. Questo valore va da 0 a 1 e più l’errore
è piccolo e più tende a 1.
L’attendibilità dello strumento è misurata definendo il grado di accordo tra:
- più misurazioni dello stesso costrutto ottenute con più item dalla stessa scala
(coerenza interna),
- con forme parallele dello stesso strumento (split-half),
- con lo stesso strumento in tempi diversi (test-retest),
- da più somministratori (intersiglatore).
Per testare l’attendibilità serve un campione che abbia un’adeguata ampiezza e
che sia eterogeneo, così che aumentando il campione aumenti la varianza vera
della caratteristica misurata e l’errore rimane costante.
Per misurare la coerenza interna si pone l’attenzione sui singoli item che devono
essere misure ripetute del signolo costrutto e le risposte devono correlare tra
loro nella misura in cui condividono la parte vera. I coefficienti si basano su
intercorrelazioni tra item dello stesso costrutto ottenute in uno stesso momento.
L’attendibilità viene riportata attraverso la coerenza interna e/o test-retest (alfa
di Cronbach, KR-20) e correlazioni.
L’attendibilità viene calcolata sull’intera scala nel caso di un’unica dimensione e
per ogni dimensione se il test si compone di più scale.
25. Commento a una tabella con Alpha di
Cronbach/Commento output su Alpha.
Misurando la coerenza interna si pone l’attenzione sui singoli item misurando
ripetutamente lo stesso costrutto e in base al fatto che le risposte saranno
correlate tra loro nella misura in cui condividono la parte vera. I coefficienti per
misurare la coerenza interna si basano sulle intercorrelazioni tra item dello
stesso costrutto ottenute in uno stesso momento. Sono il Kuder-Richardson per
la scala dicotomica e l’Alfa di Cronbach per la scala metrica. I criteri per
l’interpretazione sono: <.70 insufficiente, tra .70 e .80 adeguata, tra .80 e .90
buona e > .90 eccellente. L’analisi si presenta con Indice di coerenza interna
(Alfa) & Statistiche se l’item è escluso, valutando nel caso di Correlazione item-
totale quan