M
Varianza 2 2 2
=σ /N
σ σ M
−¿
ΣX
¿
2 =¿
DS √
√
Deviazione standard σ 2 2
=
σ σ
DS= DS M M
• Forma
Ha approssimativamente forma stabile e normale:
- per qualsiasi N, se la popolazione ha già forma normale (simile a molte distribuzioni reali)
- quando la popolazione non è normale, ma N≥30 - grazie al Teorema del Limite Centrale:
all’aumentare dell’ampiezza N dei campioni, la distribuzione campionaria della media si
avvicinerà sempre più alla distribuzione normale, indipendentemente dalla forma della
distribuzione della variabile nella popolazione - cioè la variabilità della distribuzione
campionaria diminuisce (scostamenti della media campionaria da μ si fanno meno
probabili)
Quanto più la distribuzione nella popolazione si discosta dalla normale, tanto maggiore sarà
la dimensione campionaria richiesta affinché la distribuzione campionaria approssimi quella
normale
Anche per la media campionaria, così come per il singolo valore nella distribuzione normale, si
può applicare il punteggio Z come metodo per misurare quanto distante essa si trova dalla media
della sua distribuzione (in questo caso, quella delle medie campionarie), in unità di deviazione
standard (qui, di errore standard) −μ
M M
=
Z
Punteggio Z per una media campionaria (M): σ M
Con le tavole della distribuzione normale standard, determiniamo la probabilità di estrarre dalla
popolazione un campione con media uguale o più estrema di M (o di un determinato valore X):
a parità di dimensione N, campioni con M più lontana da μ sono meno probabili.
Ora possiamo applicare il Test Z, cioè la Verifica di Ipotesi vista prima, anche alla distribuzione
delle medie campionarie (seguiamo gli stessi passaggi ma utilizziamo queste ultime formule):
1) Stabiliamo H e H
0 1
2) Calcoliamo Z (con formule di media ed errore standard appena viste), standardizzando la
M
media campionaria
3) Individuiamo sulle tavole il valore critico Z e il valore di p-value associato a Z
c M
4) Prendiamo la decisione statistica
NB: le distribuzioni di riferimento sono
- per un campione composto da un singolo individuo (popolazione1)
--> distribuzione dei punteggi nella popolazione (popolazione2)
- per un campione di più individui , di cui si considera la media campionaria
(popolazione1)
--> distribuzione delle medie campionarie , ricavata a partire da media e ds
(popolazione2)
della distribuzione della popolazione generale e numerosità del campione
Stima dei parametri della popolazione (in base ai valori ottenuti nel campione)
Spesso non abbiamo accesso a tutti i dati della popolazione, bensì a un campione, per cui μ e σ
non sono note…
• Quando non conosciamo media della popolazione, la miglior stima è media campionaria --> μ
≈
X́ 2
• Allo stesso modo, usiamo varianza e ds campionarie per stimare quelle della popolazione ( s
e s), per cui la formula diventa:
2 2
( − ( − )
X X́) X X́
2 i 2 i
= =
σ → s −1
N N √ 2
(per calcolare s, manteniamo N-1 al denominatore e facciamo )
s
Questa differenza tra le due formule è dovuta alla correzione di Bessel, per cui invece di N usiamo
N−1 per ottenere una stima più accurata della varianza della popolazione
(la miglior approssimazione possibile della sua variabilità, che tendiamo a sottostimare)
Ma quanto è accurata nello stimare μ - quanto ci stiamo sbagliando?
X́
Ovvero, le medie campionarie quanto si discostano da μ?
Usiamo l’errore standard della media (σ ) come indicatore di variabilità delle medie campionarie,
M
per descrivere la quantità di variazione attesa fra le medie campionarie di una certa dimensione
provenienti dalla popolazione
Dato che spesso σ non è nota, σ viene quasi sempre stimato a partire da un campione - per cui
M
s
=
σ
la formula diventa: M √ n
Dato che molto spesso la media campionaria non coincide esattamente con quella della
popolazione, a partire dall’errore standard possiamo stimare un intervallo di confidenza (CI) di
possibili valori delle medie che, con una certa probabilità prescelta (95 : limite inferiore di
%
confidenza Z -1.96 / superiore Z 1.96), include il valore reale di μ
= = +
(in altre parole: se ripetessimo il campionamento molte volte, il 95% degli intervalli costruiti con lo stesso metodo
conterrebbero il vero valore della media)
Se volessimo avere ancora più probabilità di includerlo (99 ), IC dovrebbe essere più ampio
%
σ = −Z +
X́ ± Z X́ σ ≤ μ≤ X́ Z σ
Passaggi per calcolare CI: / /2 /
α 2 α M α 2 M
√ n
1) Scegliamo la percentuale di confidenza (es.: 90 CI, 95 CI, 99 CI)
% % %
2) Calcoliamo σ (con s al posto di σ al numeratore), che servirà per il punto 4)
M
3) Individuiamo i limiti [inferiore, superiore] dell’IC, in termini di punti Z (con α e direzione test)
4) Calcoliamo i punteggi grezzi X , X corrispondenti ai punti Z trovati (con la formula inversa)
1 2
ESEMPI DI DOMANDE D’ESAME
Cos’è la distribuzione delle medie campionarie? Quali caratteristiche ha?
Qual è la media di una distribuzione delle medie campionarie e come si calcola?
Qual è la deviazione standard di una distribuzione delle medie campionarie e come si calcola?
Quale forma assume una distribuzione campionaria delle medie?
Cos’è il Teorema del Limite Centrale?
Quali informazioni ci dà l’errore standard (deviazione standard delle medie campionarie)?
Come avviene il test di verifica d’ipotesi, quando abbiamo la media di un campione e conosciamo media e ds della
popolazione?
Errori decisionali, dimensione dell’effetto e potenza statistica del test
Errori decisionali: situazioni in cui, pur applicando correttamente una procedura, si arriva
comunque a decisioni statistiche sbagliate
L’intero processo di verifica di ipotesi, infatti, è basato sulla probabilità, in modo da rendere quella
degli errori decisionali quanto più bassa possibile - ma non può eliminarla completamente
• Errore del primo tipo (α): è vera l’ipotesi nulla, ma si accetta quella alternativa - perché estraiamo
un campione atipico
Conosciamo solo la distribuzione della popolazione sotto H ; potremmo decidere che, per
0
rifiutarla, consideriamo solo valori molto distanti dalla media H ... ma se ponessimo una soglia
0
così esageratamente alta non la rigetteremmo quasi mai, perché raramente i risultati cadono così
lontano dalla media, neanche qualora H fosse vera --> fissiamo quindi α (livello di significatività
1
prescelto), per cui nel 5 (o anche 1 ) circa dei casi rileviamo un risultato così estremo che ci
% %
porta ad accettare erroneamente H , perché in realtà H è vera - α corrisponde alla probabilità/al
1 0 %
rischio di accettare/commettere un errore di tipo I, rifiutando l’ipotesi vera (quella nulla)
• Errore del secondo tipo (β): si rifiuta l’ipotesi alternativa quando in realtà è vera (probabilità β),
cioè si accetta l’ipotesi nulla quando è falsa
Stabiliamo sempre una soglia oltre cui rifiutare H ; alcuni valori della distribuzione H cadono però
0 1
prima di questa soglia, nella zona di accettazione di H , portandoci erroneamente a non rifiutarla
0
Questi due errori sono legati: all’aumentare del primo diminuisce il secondo, e viceversa
DECISIONE STATISTICA IPOTESI VERA
dopo il test H0 H1
Accettazione (non rifiuto) di H0 Conclusione esatta Errore di II tipo
Probabilità = 1-α Probabilità = β
Rifiuto di H0 Errore di I tipo Conclusione esatta
Probabilità = α Probabilità = 1-β
NB: i valori di β non dipendono solo da α, ma sono influenzati anche da N e dall’ampiezza
dell’effetto osservato, cioè della differenza tra le due medie delle due distribuzioni considerate
Potenza statistica (1-β): probabilità che lo studio dia un risultato significativo, se H è vera
1
(rifiutiamo H ) capacità di un test di identificare un effetto reale (convenzione 0.80 min.)
=
0
È legata a 3 aspetti: errore di tipo I (α, criterio per il rifiuto di H - solitamente 0.5), numerosità del
0
campione (N) e ampiezza dell’effetto
Ampiezza o dimensione dell’effetto (effect size): misura quanto è forte la differenza tra H e H
0 1
(misura quantitativa dell’ampiezza di un fenomeno), in base alle loro medie
Talvolta, la vera ampiezza (degli effetti) del fenomeno indagato nella popolazione è facilmente
comprensibile nell’unità di misura originaria, ma spesso no: come capiamo quanto sono grandi?
Esprimiamo l’effetto con un’unità di misura standard: la deviazione standard della popolazione
(non l’errore standard!)
Una delle sue possibili misure è il valore d di Cohen (differenza tra due medie, in termini di ds):
−μ
μ
1 2
d= σ
Interpretazione (valori convenzionali):
- effetto piccolo: d 0.20
=
- medio: d 0.50
=
- grande: d 0.80
= −μ
M
d=
Nel contesto di un Test Z, la formula più comunemente utilizzata è σ
Con M media del campione, μ media della popolazione nota e σ ds della popolazione nota
Ma in diverse situazioni di verifica di ipotesi si possono usare anche altre misure:
- r di Pearson (correlazione tra due variabili)
effetto piccolo: r 0.1
≈
medio: r 0.3
≈
grande: r 0.5
≈
2
- (eta quadrato - percentuale di varianza spiegata)
η 2
effetto piccolo: 0.01
≈
η
2
medio: 0.06
≈
η 2
grande: 0.14
≈
η
Quindi: non è sufficiente dire che esiste un effetto, ma bisogna anche sapere quanto è grande
Come cambia la potenza statistica al variare di questi 3 aspetti:
1) se aumenta α (e β si riduce), aumenta anche la potenza del test; tuttavia, accettiamo un
rischio maggiore di errore del I tipo --> bisogna trovare un equilibrio
2) se aumenta N (campione più grande), è più facile rilevare effetti reali (stima più precisa)
poiché si riduce la variabilità della distribuzione campionaria delle medi
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
-
Riassunto esame Psicometria, prof. Costa, libro consigliato Fondamenti di Psicometria, Chiorri
-
Riassunto esame Psicometria , Prof. Cuturi Luigi Felice, libro consigliato Fondamenti di psicometria , Carlo Chiorr…
-
Riassunto esame Fondamenti di psicometria, prof. Faraci, libro consigliato introduzione alla psicometria, Primi, Ch…
-
Riassunto esame Psicometria, Prof. Cifaldi Gianmarco, libro consigliato Elementi di Psicometria, Michela Balsamo