Lorenzo Atti – lorenzo.atti2@studio.unibo.it
Schemi di Statistica Psicometrica (8 cfu) Prof. Bolzani Roberto
Introduzione Legge probabilistica e legge deterministica
Fino alla legge relativistica einsteiniana e alla fisica quantistica di Plank le scienze si dividevano fra scienze
esatte e scienze inesatte: le prime erano considerate le migliori in quanto nella fisica classica era possibile
dimostrare in modo deterministico le proprie ipotesi.
APPROCCIO DETERMINISTICO: partendo da un’ipotesi iniziale attraverso passaggi logici dimostro
una certa affermazione corretta.
Secondo la legge deterministica, quindi, vi è una relazione di causa ed effetto univoca fra due eventi.
Un’idea dimostrata sperimentalmente, ad esempio, nella fisica classica, è considerata vera.
A partire dalle nuove scoperte in fisica subatomica del comportamento delle particelle subatomiche nacque
un importante dibattito cu cosa fosse la scienza, dal momento che la fisica sembrava essere affetta dalla
stessa imprecisione che riguardava le scienze inesatte come la psicologia o la sociologia. K. Popper formulò
il principio di non falsificazione, oggi adottato dalla comunità scientifica, che afferma che non è possibile
dimostrare vero un assunto scientifico, ma che esso può essere solo falsificato.
Lo scopo della scienza è produrre leggi generali falsificabili.
APPROCCIO PROBABILISTICO: non posso dimostrare un assunto in modo deterministico, ma posso
dimostrare che cambiando un parametro cambio il risultato.
Nella fase sperimentale diventa importante valutare quindi l’incidenza degli errori di misurazione e la
variabilità casuale: per far ciò si ricorre alla statistica. Lo scopo della statistica è stimare l’incidenza della
variabilità casuale in modo coerente affinché tutti i ricercatori possano riprodurre in laboratorio lo stesso
esperimento. La legge probabilistica fa, infatti, corrispondere un evento a un insieme di possibili eventi
quindi implica che un risultato sperimentale debba essere anche interpretato.
Statistica descrittiva e statistica inferenziale
La statistica descrittiva tende a descrivere un fenomeno, studiando sinteticamente fenomeni troppo
complessi per essere descritti con precisione in dettaglio (calcolare la media delle altezze di una
popolazione evitando di analizzare ogni singolo dato).
La statistica inferenziale fornisce una prova sperimentale di un’idea, partendo dai parametri descrittivi e
valutando l’incidenza del caso, ovvero l’affidabilità dei parametri stimati e i limiti entro i quali è
ragionevole aspettarsi fluttuazioni casuali (valutare se l’altezza media è andata realmente crescendo
nell’ultimo decennio e la variazione è oltre ciò che ci si può aspettare da oscillazioni casuali).
La statistica descrittiva e la statistica inferenziale sono due momenti distinti ma complementari per
effettuare un test statistico. 1 Lorenzo Atti – lorenzo.atti2@studio.unibo.it
Le principali definizioni di probabilità
Definizione Classica: Dato un insieme di eventi equiprobabili, la probabilità di un evento è data dal
numero di eventi favorevoli diviso il numero di eventi possibili.
PRO: questa definizione fornisce la formula più utilizzata per il calcolo della probabilità;
CONTRO: la definizione di probabilità è TAUTOLOGICA, in quanto utilizza il termine “equiprobabili”
che per essere compreso necessita prima della definizioni di probabilità stessa.
Definizione assiomatica: Basata su tre assiomi:
1. Ad ogni evento di A corrisponde un valore p(A) maggiore o uguale a zero
2. La probabilità che avvenga uno qualsiasi dei possibili eventi è uno
3. La probabilità che avvenga o uno o l’altro di due possibili eventi è data dalla somma delle due
probabilità.
PRO: dà gli stessi risultati della formulazione classica, ma è LOGICAMENTE CORRETTA;
CONTRO: questa definizione ha un impatto reale molto modesto, nel senso che a livello pratico non
è utile a comprendere cosa sia la probabilità.
Definizione frequentista: La probabilità di un evento è la frequenza con cui esso si presenta in un
numero molto elevato di prove.
PRO: dà un’idea utile a livello pratico di cosa sia la probabilità;
CONTRO: deriva da una scorretta interpretazione della “Legge dei Grandi Numeri” la cui formula è:
Espressa a parole, dice che al crescere del numero di prove la probabilità (P)che la differenza fra
probabilità dell’evento ( ) e la sua frequenza ( ) diventi trascurabile (< significa “prossima a un
numero infinitesimamente piccolo”) tende a 1. Il problema è che:
1. La probabilità non diventa MAI certezza, essa tende a 1 ma non lo raggiunge mai;
2. non tende a 0 ma ad un numero infinitesimamente piccolo.
Definizione soggettivista: La probabilità è vista come la quota che un soggetto coerente è disposto
I
a scommettere, in base al suo grado di informazioni, sul verificarsi di un evento. (Bruno De Finetti)
due punti più importanti della definizione definettiana sono:
1. COERENZA: stabilita la probabilità di un evento A, si è disposti a scommettere allo stesso modo sul
verificarsi di (non A);
2. INFORMAZIONI: la probabilità di un evento dipende dal grado di informazioni che ha un soggetto
(non esiste la probabilità in assoluto); 2 Lorenzo Atti – lorenzo.atti2@studio.unibo.it
APPROCCIO BAYESIANO
La probabilità è definita come il grado di fiducia sul verificarsi di un evento. La coerenza è garantita dal
rispetto degli assiomi sulla probabilità; esistono due teorie bayesiane:
Soggettivista: la probabilità a priori viene stimata in base alla fiducia del soggetto sul verificarsi
dell’evento;
Oggettivista: la probabilità a priori viene stimata oggettivamente in base alle conoscenze note.
PRO: definizione assolutamente nuova che considera la valutazione probabilistica come una
scommessa sul verificarsi di un evento, e quindi come legata al grado di informazioni e alla
coerenza dell’individuo che valuta.
Proprietà della probabilità
1. La probabilità di un evento impossibile è zero.
Es. La probabilità di ottenere 7 nel lancio di un dado a sei facce è zero.
Non è vero il contrario!
Un evento che ha probabilità zero non sempre è un evento impossibile;
Es. La probabilità di non ottenere nessuna testa su infiniti lanci di una moneta è zero, perché è un evento
favorevole su infiniti eventi possibili, ma non è impossibile.
2. La probabilità di un evento certo è uno.
Es. La probabilità di ottenere un numero compreso fra uno e sei nel lancio di un dado è uno.
Non è vero il contrario!
Un evento che ha probabilità uno non sempre è un evento certo;
Es. La probabilità di ottenere almeno una testa su infiniti lanci di una moneta è uno, perché è la probabilità
complementare dell’evento “nessuna testa su infiniti lanci”, però non è un evento certo.
3. La probabilità condizionata è la probabilità che avvenga A sapendo che si è verificato B.
P(A|B) = Probabilità che si verifichi A sapendo che si è verificato B
Es. la probabilità che avendo due figli siano entrambi maschi si ottiene calcolando P(2 maschi | 2 figli)
Paradosso delle tre carte:
- Qual è la probabilità che, avendo estratto una carta con la faccia rossa, essa sia bianca dall’altro
lato? 3 Lorenzo Atti – lorenzo.atti2@studio.unibo.it
La risposta intuitiva che spesso viene data è ½, poiché si ragiona sul numero di carte, 3, di cui solo due
hanno una faccia rossa: di queste due solo una (quella bianca e rossa) ha una faccia bianca dietro a quella
rossa, perciò si risponde che la probabilità di avere una bianca dietro la rossa è del 50%.
La risposta corretta è 1/3, perché la probabilità che cerchiamo è la probabilità di un evento (faccia bianca)
condizionata ad un evento che si è verificato prima (faccia anteriore rossa). I casi possibili si contano in base
alle facce possibili, che sono 3 (faccia bianca della carta con facce miste, oppure le due facce rosse della
carta rossa) mentre il caso favorevole è che la faccia dietro sia bianca, per questo motivo la probabilità è
una su tre.
4. Eventi indipendenti: A e B sono indipendenti quando l’avverarsi di uno non influenza l’avverarsi
dell’altro. Cioè: P(A|B) = p(A)
5. Eventi disgiunti: A e B sono eventi disgiunti se il verificarsi dell'uno esclude il verificarsi dell'altro.
6. Evento prodotto: Evento in cui si verifica sia A che B
Se A e B sono indipendenti:
7. Evento somma: Evento in cui si verifica A o B o, se non sono disgiunti, entrambi.
8. Evento complementare: l’evento in cui non si verifica A. ( )
TEOREMA DI BAYES:
Serve per calcolare la probabilità condizionata di A dato B, partendo dalla probabilità condizionata opposta.
Questo teorema è di rinforzo e completamento della teoria fisheriana.
(LOGICA FISHERIANA E BAYESIANA)
Parametri statistici Parametri descrittivi
I parametri descrittivi sono i parametri utilizzati nella statistica descrittiva che servono per descrivere una
realtà complessa e per poter utilizzare un test statistico.
Le variabili su cui lavorano tutti i parametri descrittivi sono suddivise come nel grafico sottostante:
4 Lorenzo Atti – lorenzo.atti2@studio.unibo.it
I parametri descrittivi forniscono informazioni diverse a seconda del tipo di distribuzione su cui si deve
lavorare: in una curva normale la media rappresenta il valore più probabile e la varianza il grado di
dispersione attorno ad esso, ma in una curva bimodale, ad esempio, il parametro che ci fornisce più
informazioni è la moda.
Media e varianza hanno sostanzialmente due formule: una per variabili sperimentali (vedi MEDIA e
VARIANZA) necessariamente discrete, e una per distribuzioni di probabilità teoriche, sia discrete che
continue (vedi VALORE ATTESO e VARIANZA TEORICA).
FREQUENZA DI UN EVENTO: dà un’informazione indicativa che all’aumentare delle prove si
avvicina alla probabilità dell’evento, in formula:
MEDIA: dà un’informazione riassuntiva che mi dice attorno a quale valore di riferimento oscillano i
miei dati sperimentali, si chiama anche parametro di tendenza centrale, e in formula è:
Spiegazione – La media di un insieme di dati è uguale alla somma di tutti i valori di x divisa per il
numero di dati.
VARIANZA: dà un’informazione sulla variabilità dei valori dei nostri dati, e pertanto è una misura
dell’oscillazione attorno alla media. In formula è:
5 Lorenzo Atti – lorenzo.atti2@studio.unibo.it
Spiegazione – La varianza è uguale alla somma degli scarti di ogni valore dal valore medio, elevati
al quadro divisa per i suoi gradi di libertà.
DEVIAZIONE STANDARD: si utilizza spesso al posto della varianza, in quanto si ottiene facendo la
2
radice quadrata di s e quindi riportando la misura della variabilità originale.
Nel caso i valori siano delle medie, cioè se si tratta di varianze di medie, si parla di errore standard
della media ( ). Si preferisce fornire la deviazione standard e l’errore standard della media
perché è nella stessa unità di misura della variabile misurata (per es, i cm).
VALORE ATTESO ( ): definizione più generale del parametro media, non utilizzabile sul dato
sperimentale, ma individuato a partire da una distribuzione di probabilità teorica, la formula è (caso
discreto):
E(x) sta per expected value, cioè valore atteso. Essa è valida anche per eventi non equiprobabili,
poiché avendo tolto n al denominatore, non necessariamente tutti gli eventi hanno lo stesso peso
nel calcolo (caso continuo):
VARIANZA TEORICA ( ): è la definizione più generale della varianza, non utilizzabile
sperimentalmente. Essa rappresenta il valore atteso degli scarti al quadrato, dove al posto della
media sperimentale c’è il valore atteso:
PERCENTILE: dà informazioni riguardo la comparazione fra un singolo valore e il valore della
popolazione (globale); si utilizza nelle classificazioni. L’n-esimo percentile è il limite al di sotto del
quale si trova l’n% dei casi.
MEDIANA: è situata attorno al 50esimo percentile e rappresenta il valore al di sotto e al di sopra
del quale di trova il 50% della popolazione. Esso divide la popolazione in due percentuali uguali, ma
NON dà informazioni su quale valore sia più probabile.
MODA: dà informazioni sul valore che ha massima frequenza in una certa distribuzione, è molto
importante per giudicare il tipo di distribuzione a seconda di quanti picchi di frequenza presenta
(unimodale, bimodale, multimodale..). 6 Lorenzo Atti – lorenzo.atti2@studio.unibo.it
Distribuzioni di probabilità
La distribuzione di probabilità è la rappresentazione grafica, analitica o tabulare delle probabilità di un
insieme di valori che può assumere una variabile x.
La funzione delle distribuzioni di probabilità è quella di permettere di valutare alla fine di ogni test statistico
quali valori sono da attribuire al caso e quali considero significativi per dimostrare la mia ipotesi.
Nel caso di variabili continue, anziché la distribuzione di probabilità si preferisce utilizzare la FUNZIONE DI
DISTRIBUZIONE che è una funzione che dà, per ogni valore X della variabile, la probab
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
-
Lezioni, Statistica Psicometrica
-
Lezioni, Statistica Psicometrica
-
Introduzione Statistica psicometrica
-
Appunti completi di Statistica psicometrica