Estratto del documento

M

Varianza 2 2 2

=σ /N

σ σ M

−¿

ΣX

¿

2 =¿

DS √

Deviazione standard σ 2 2

=

σ σ

DS= DS M M

• Forma

Ha approssimativamente forma stabile e normale:

- per qualsiasi N, se la popolazione ha già forma normale (simile a molte distribuzioni reali)

- quando la popolazione non è normale, ma N≥30 - grazie al Teorema del Limite Centrale:

all’aumentare dell’ampiezza N dei campioni, la distribuzione campionaria della media si

avvicinerà sempre più alla distribuzione normale, indipendentemente dalla forma della

distribuzione della variabile nella popolazione - cioè la variabilità della distribuzione

campionaria diminuisce (scostamenti della media campionaria da μ si fanno meno

probabili)

Quanto più la distribuzione nella popolazione si discosta dalla normale, tanto maggiore sarà

la dimensione campionaria richiesta affinché la distribuzione campionaria approssimi quella

normale

Anche per la media campionaria, così come per il singolo valore nella distribuzione normale, si

può applicare il punteggio Z come metodo per misurare quanto distante essa si trova dalla media

della sua distribuzione (in questo caso, quella delle medie campionarie), in unità di deviazione

standard (qui, di errore standard) −μ

M M

=

Z

Punteggio Z per una media campionaria (M): σ M

Con le tavole della distribuzione normale standard, determiniamo la probabilità di estrarre dalla

popolazione un campione con media uguale o più estrema di M (o di un determinato valore X):

a parità di dimensione N, campioni con M più lontana da μ sono meno probabili.

Ora possiamo applicare il Test Z, cioè la Verifica di Ipotesi vista prima, anche alla distribuzione

delle medie campionarie (seguiamo gli stessi passaggi ma utilizziamo queste ultime formule):

1) Stabiliamo H e H

0 1

2) Calcoliamo Z (con formule di media ed errore standard appena viste), standardizzando la

M

media campionaria

3) Individuiamo sulle tavole il valore critico Z e il valore di p-value associato a Z

c M

4) Prendiamo la decisione statistica

NB: le distribuzioni di riferimento sono

- per un campione composto da un singolo individuo (popolazione1)

--> distribuzione dei punteggi nella popolazione (popolazione2)

- per un campione di più individui , di cui si considera la media campionaria

(popolazione1)

--> distribuzione delle medie campionarie , ricavata a partire da media e ds

(popolazione2)

della distribuzione della popolazione generale e numerosità del campione

Stima dei parametri della popolazione (in base ai valori ottenuti nel campione)

Spesso non abbiamo accesso a tutti i dati della popolazione, bensì a un campione, per cui μ e σ

non sono note…

• Quando non conosciamo media della popolazione, la miglior stima è media campionaria --> μ

X́ 2

• Allo stesso modo, usiamo varianza e ds campionarie per stimare quelle della popolazione ( s

e s), per cui la formula diventa:

2 2

( − ( − )

X X́) X X́

2 i 2 i

= =

σ → s −1

N N √ 2

(per calcolare s, manteniamo N-1 al denominatore e facciamo )

s

Questa differenza tra le due formule è dovuta alla correzione di Bessel, per cui invece di N usiamo

N−1 per ottenere una stima più accurata della varianza della popolazione

(la miglior approssimazione possibile della sua variabilità, che tendiamo a sottostimare)

Ma quanto è accurata nello stimare μ - quanto ci stiamo sbagliando?

Ovvero, le medie campionarie quanto si discostano da μ?

Usiamo l’errore standard della media (σ ) come indicatore di variabilità delle medie campionarie,

M

per descrivere la quantità di variazione attesa fra le medie campionarie di una certa dimensione

provenienti dalla popolazione

Dato che spesso σ non è nota, σ viene quasi sempre stimato a partire da un campione - per cui

M

s

=

σ

la formula diventa: M √ n

Dato che molto spesso la media campionaria non coincide esattamente con quella della

popolazione, a partire dall’errore standard possiamo stimare un intervallo di confidenza (CI) di

possibili valori delle medie che, con una certa probabilità prescelta (95 : limite inferiore di

%

confidenza Z -1.96 / superiore Z 1.96), include il valore reale di μ

= = +

(in altre parole: se ripetessimo il campionamento molte volte, il 95% degli intervalli costruiti con lo stesso metodo

conterrebbero il vero valore della media)

Se volessimo avere ancora più probabilità di includerlo (99 ), IC dovrebbe essere più ampio

%

σ = −Z +

X́ ± Z X́ σ ≤ μ≤ X́ Z σ

Passaggi per calcolare CI: / /2 /

α 2 α M α 2 M

√ n

1) Scegliamo la percentuale di confidenza (es.: 90 CI, 95 CI, 99 CI)

% % %

2) Calcoliamo σ (con s al posto di σ al numeratore), che servirà per il punto 4)

M

3) Individuiamo i limiti [inferiore, superiore] dell’IC, in termini di punti Z (con α e direzione test)

4) Calcoliamo i punteggi grezzi X , X corrispondenti ai punti Z trovati (con la formula inversa)

1 2

ESEMPI DI DOMANDE D’ESAME

Cos’è la distribuzione delle medie campionarie? Quali caratteristiche ha?

Qual è la media di una distribuzione delle medie campionarie e come si calcola?

Qual è la deviazione standard di una distribuzione delle medie campionarie e come si calcola?

Quale forma assume una distribuzione campionaria delle medie?

Cos’è il Teorema del Limite Centrale?

Quali informazioni ci dà l’errore standard (deviazione standard delle medie campionarie)?

Come avviene il test di verifica d’ipotesi, quando abbiamo la media di un campione e conosciamo media e ds della

popolazione?

Errori decisionali, dimensione dell’effetto e potenza statistica del test

Errori decisionali: situazioni in cui, pur applicando correttamente una procedura, si arriva

comunque a decisioni statistiche sbagliate

L’intero processo di verifica di ipotesi, infatti, è basato sulla probabilità, in modo da rendere quella

degli errori decisionali quanto più bassa possibile - ma non può eliminarla completamente

• Errore del primo tipo (α): è vera l’ipotesi nulla, ma si accetta quella alternativa - perché estraiamo

un campione atipico

Conosciamo solo la distribuzione della popolazione sotto H ; potremmo decidere che, per

0

rifiutarla, consideriamo solo valori molto distanti dalla media H ... ma se ponessimo una soglia

0

così esageratamente alta non la rigetteremmo quasi mai, perché raramente i risultati cadono così

lontano dalla media, neanche qualora H fosse vera --> fissiamo quindi α (livello di significatività

1

prescelto), per cui nel 5 (o anche 1 ) circa dei casi rileviamo un risultato così estremo che ci

% %

porta ad accettare erroneamente H , perché in realtà H è vera - α corrisponde alla probabilità/al

1 0 %

rischio di accettare/commettere un errore di tipo I, rifiutando l’ipotesi vera (quella nulla)

• Errore del secondo tipo (β): si rifiuta l’ipotesi alternativa quando in realtà è vera (probabilità β),

cioè si accetta l’ipotesi nulla quando è falsa

Stabiliamo sempre una soglia oltre cui rifiutare H ; alcuni valori della distribuzione H cadono però

0 1

prima di questa soglia, nella zona di accettazione di H , portandoci erroneamente a non rifiutarla

0

Questi due errori sono legati: all’aumentare del primo diminuisce il secondo, e viceversa

DECISIONE STATISTICA IPOTESI VERA

dopo il test H0 H1

Accettazione (non rifiuto) di H0 Conclusione esatta Errore di II tipo

Probabilità = 1-α Probabilità = β

Rifiuto di H0 Errore di I tipo Conclusione esatta

Probabilità = α Probabilità = 1-β

NB: i valori di β non dipendono solo da α, ma sono influenzati anche da N e dall’ampiezza

dell’effetto osservato, cioè della differenza tra le due medie delle due distribuzioni considerate

Potenza statistica (1-β): probabilità che lo studio dia un risultato significativo, se H è vera

1

(rifiutiamo H ) capacità di un test di identificare un effetto reale (convenzione 0.80 min.)

=

0

È legata a 3 aspetti: errore di tipo I (α, criterio per il rifiuto di H - solitamente 0.5), numerosità del

0

campione (N) e ampiezza dell’effetto

Ampiezza o dimensione dell’effetto (effect size): misura quanto è forte la differenza tra H e H

0 1

(misura quantitativa dell’ampiezza di un fenomeno), in base alle loro medie

Talvolta, la vera ampiezza (degli effetti) del fenomeno indagato nella popolazione è facilmente

comprensibile nell’unità di misura originaria, ma spesso no: come capiamo quanto sono grandi?

Esprimiamo l’effetto con un’unità di misura standard: la deviazione standard della popolazione

(non l’errore standard!)

Una delle sue possibili misure è il valore d di Cohen (differenza tra due medie, in termini di ds):

−μ

μ

1 2

d= σ

Interpretazione (valori convenzionali):

- effetto piccolo: d 0.20

=

- medio: d 0.50

=

- grande: d 0.80

= −μ

M

d=

Nel contesto di un Test Z, la formula più comunemente utilizzata è σ

Con M media del campione, μ media della popolazione nota e σ ds della popolazione nota

Ma in diverse situazioni di verifica di ipotesi si possono usare anche altre misure:

- r di Pearson (correlazione tra due variabili)

effetto piccolo: r 0.1

medio: r 0.3

grande: r 0.5

2

- (eta quadrato - percentuale di varianza spiegata)

η 2

effetto piccolo: 0.01

η

2

medio: 0.06

η 2

grande: 0.14

η

Quindi: non è sufficiente dire che esiste un effetto, ma bisogna anche sapere quanto è grande

Come cambia la potenza statistica al variare di questi 3 aspetti:

1) se aumenta α (e β si riduce), aumenta anche la potenza del test; tuttavia, accettiamo un

rischio maggiore di errore del I tipo --> bisogna trovare un equilibrio

2) se aumenta N (campione più grande), è più facile rilevare effetti reali (stima più precisa)

poiché si riduce la variabilità della distribuzione campionaria delle medi

Anteprima
Vedrai una selezione di 10 pagine su 44
Riassunto esame Elementi di psicometria con laboratorio software 1, Prof. Petilli Marco Alessandro, libro consigliato Fondamenti di psicometria per la ricerca - VII edizione , A. Aron, E. Aron, E.J. Coups, E. Cooley  Pag. 1 Riassunto esame Elementi di psicometria con laboratorio software 1, Prof. Petilli Marco Alessandro, libro consigliato Fondamenti di psicometria per la ricerca - VII edizione , A. Aron, E. Aron, E.J. Coups, E. Cooley  Pag. 2
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Riassunto esame Elementi di psicometria con laboratorio software 1, Prof. Petilli Marco Alessandro, libro consigliato Fondamenti di psicometria per la ricerca - VII edizione , A. Aron, E. Aron, E.J. Coups, E. Cooley  Pag. 6
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Riassunto esame Elementi di psicometria con laboratorio software 1, Prof. Petilli Marco Alessandro, libro consigliato Fondamenti di psicometria per la ricerca - VII edizione , A. Aron, E. Aron, E.J. Coups, E. Cooley  Pag. 11
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Riassunto esame Elementi di psicometria con laboratorio software 1, Prof. Petilli Marco Alessandro, libro consigliato Fondamenti di psicometria per la ricerca - VII edizione , A. Aron, E. Aron, E.J. Coups, E. Cooley  Pag. 16
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Riassunto esame Elementi di psicometria con laboratorio software 1, Prof. Petilli Marco Alessandro, libro consigliato Fondamenti di psicometria per la ricerca - VII edizione , A. Aron, E. Aron, E.J. Coups, E. Cooley  Pag. 21
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Riassunto esame Elementi di psicometria con laboratorio software 1, Prof. Petilli Marco Alessandro, libro consigliato Fondamenti di psicometria per la ricerca - VII edizione , A. Aron, E. Aron, E.J. Coups, E. Cooley  Pag. 26
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Riassunto esame Elementi di psicometria con laboratorio software 1, Prof. Petilli Marco Alessandro, libro consigliato Fondamenti di psicometria per la ricerca - VII edizione , A. Aron, E. Aron, E.J. Coups, E. Cooley  Pag. 31
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Riassunto esame Elementi di psicometria con laboratorio software 1, Prof. Petilli Marco Alessandro, libro consigliato Fondamenti di psicometria per la ricerca - VII edizione , A. Aron, E. Aron, E.J. Coups, E. Cooley  Pag. 36
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Riassunto esame Elementi di psicometria con laboratorio software 1, Prof. Petilli Marco Alessandro, libro consigliato Fondamenti di psicometria per la ricerca - VII edizione , A. Aron, E. Aron, E.J. Coups, E. Cooley  Pag. 41
1 su 44
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Scienze storiche, filosofiche, pedagogiche e psicologiche M-PSI/03 Psicometria

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Carolinxs di informazioni apprese con la frequenza delle lezioni di Elementi di psicometria con laboratorio software 1 e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Milano - Bicocca o del prof Petilli Marco Alessandro.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community