Anteprima
Vedrai una selezione di 7 pagine su 27
Statistica psicometrica - Appunti Pag. 1 Statistica psicometrica - Appunti Pag. 2
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Statistica psicometrica - Appunti Pag. 6
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Statistica psicometrica - Appunti Pag. 11
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Statistica psicometrica - Appunti Pag. 16
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Statistica psicometrica - Appunti Pag. 21
Anteprima di 7 pagg. su 27.
Scarica il documento per vederlo tutto.
Statistica psicometrica - Appunti Pag. 26
1 su 27
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

APPROCCIO BAYESIANO

La probabilità è definita come il grado di fiducia sul verificarsi di un evento. La coerenza è garantita dal

rispetto degli assiomi sulla probabilità; esistono due teorie bayesiane:

 Soggettivista: la probabilità a priori viene stimata in base alla fiducia del soggetto sul verificarsi

dell’evento;

 Oggettivista: la probabilità a priori viene stimata oggettivamente in base alle conoscenze note.

PRO: definizione assolutamente nuova che considera la valutazione probabilistica come una

scommessa sul verificarsi di un evento, e quindi come legata al grado di informazioni e alla

coerenza dell’individuo che valuta.

Proprietà della probabilità

1. La probabilità di un evento impossibile è zero.

Es. La probabilità di ottenere 7 nel lancio di un dado a sei facce è zero.

Non è vero il contrario!

Un evento che ha probabilità zero non sempre è un evento impossibile;

Es. La probabilità di non ottenere nessuna testa su infiniti lanci di una moneta è zero, perché è un evento

favorevole su infiniti eventi possibili, ma non è impossibile.

2. La probabilità di un evento certo è uno.

Es. La probabilità di ottenere un numero compreso fra uno e sei nel lancio di un dado è uno.

Non è vero il contrario!

Un evento che ha probabilità uno non sempre è un evento certo;

Es. La probabilità di ottenere almeno una testa su infiniti lanci di una moneta è uno, perché è la probabilità

complementare dell’evento “nessuna testa su infiniti lanci”, però non è un evento certo.

3. La probabilità condizionata è la probabilità che avvenga A sapendo che si è verificato B.

P(A|B) = Probabilità che si verifichi A sapendo che si è verificato B

Es. la probabilità che avendo due figli siano entrambi maschi si ottiene calcolando P(2 maschi | 2 figli)

Paradosso delle tre carte:

- Qual è la probabilità che, avendo estratto una carta con la faccia rossa, essa sia bianca dall’altro

lato? 3 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

La risposta intuitiva che spesso viene data è ½, poiché si ragiona sul numero di carte, 3, di cui solo due

hanno una faccia rossa: di queste due solo una (quella bianca e rossa) ha una faccia bianca dietro a quella

rossa, perciò si risponde che la probabilità di avere una bianca dietro la rossa è del 50%.

La risposta corretta è 1/3, perché la probabilità che cerchiamo è la probabilità di un evento (faccia bianca)

condizionata ad un evento che si è verificato prima (faccia anteriore rossa). I casi possibili si contano in base

alle facce possibili, che sono 3 (faccia bianca della carta con facce miste, oppure le due facce rosse della

carta rossa) mentre il caso favorevole è che la faccia dietro sia bianca, per questo motivo la probabilità è

una su tre.

4. Eventi indipendenti: A e B sono indipendenti quando l’avverarsi di uno non influenza l’avverarsi

dell’altro. Cioè: P(A|B) = p(A)

5. Eventi disgiunti: A e B sono eventi disgiunti se il verificarsi dell'uno esclude il verificarsi dell'altro.

6. Evento prodotto: Evento in cui si verifica sia A che B

Se A e B sono indipendenti:

7. Evento somma: Evento in cui si verifica A o B o, se non sono disgiunti, entrambi.

8. Evento complementare: l’evento in cui non si verifica A. ( )

TEOREMA DI BAYES:

Serve per calcolare la probabilità condizionata di A dato B, partendo dalla probabilità condizionata opposta.

Questo teorema è di rinforzo e completamento della teoria fisheriana.

(LOGICA FISHERIANA E BAYESIANA)

Parametri statistici Parametri descrittivi

I parametri descrittivi sono i parametri utilizzati nella statistica descrittiva che servono per descrivere una

realtà complessa e per poter utilizzare un test statistico.

Le variabili su cui lavorano tutti i parametri descrittivi sono suddivise come nel grafico sottostante:

4 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

I parametri descrittivi forniscono informazioni diverse a seconda del tipo di distribuzione su cui si deve

lavorare: in una curva normale la media rappresenta il valore più probabile e la varianza il grado di

dispersione attorno ad esso, ma in una curva bimodale, ad esempio, il parametro che ci fornisce più

informazioni è la moda.

Media e varianza hanno sostanzialmente due formule: una per variabili sperimentali (vedi MEDIA e

VARIANZA) necessariamente discrete, e una per distribuzioni di probabilità teoriche, sia discrete che

continue (vedi VALORE ATTESO e VARIANZA TEORICA).

 FREQUENZA DI UN EVENTO: dà un’informazione indicativa che all’aumentare delle prove si

avvicina alla probabilità dell’evento, in formula:

 MEDIA: dà un’informazione riassuntiva che mi dice attorno a quale valore di riferimento oscillano i

miei dati sperimentali, si chiama anche parametro di tendenza centrale, e in formula è:

Spiegazione – La media di un insieme di dati è uguale alla somma di tutti i valori di x divisa per il

numero di dati.

 VARIANZA: dà un’informazione sulla variabilità dei valori dei nostri dati, e pertanto è una misura

dell’oscillazione attorno alla media. In formula è:

5 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

Spiegazione – La varianza è uguale alla somma degli scarti di ogni valore dal valore medio, elevati

al quadro divisa per i suoi gradi di libertà.

 DEVIAZIONE STANDARD: si utilizza spesso al posto della varianza, in quanto si ottiene facendo la

2

radice quadrata di s e quindi riportando la misura della variabilità originale.

Nel caso i valori siano delle medie, cioè se si tratta di varianze di medie, si parla di errore standard

della media ( ). Si preferisce fornire la deviazione standard e l’errore standard della media

perché è nella stessa unità di misura della variabile misurata (per es, i cm).

 VALORE ATTESO ( ): definizione più generale del parametro media, non utilizzabile sul dato

sperimentale, ma individuato a partire da una distribuzione di probabilità teorica, la formula è (caso

discreto):

E(x) sta per expected value, cioè valore atteso. Essa è valida anche per eventi non equiprobabili,

poiché avendo tolto n al denominatore, non necessariamente tutti gli eventi hanno lo stesso peso

nel calcolo (caso continuo):

 VARIANZA TEORICA ( ): è la definizione più generale della varianza, non utilizzabile

sperimentalmente. Essa rappresenta il valore atteso degli scarti al quadrato, dove al posto della

media sperimentale c’è il valore atteso:

 PERCENTILE: dà informazioni riguardo la comparazione fra un singolo valore e il valore della

popolazione (globale); si utilizza nelle classificazioni. L’n-esimo percentile è il limite al di sotto del

quale si trova l’n% dei casi.

 MEDIANA: è situata attorno al 50esimo percentile e rappresenta il valore al di sotto e al di sopra

del quale di trova il 50% della popolazione. Esso divide la popolazione in due percentuali uguali, ma

NON dà informazioni su quale valore sia più probabile.

 MODA: dà informazioni sul valore che ha massima frequenza in una certa distribuzione, è molto

importante per giudicare il tipo di distribuzione a seconda di quanti picchi di frequenza presenta

(unimodale, bimodale, multimodale..). 6 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

Distribuzioni di probabilità

La distribuzione di probabilità è la rappresentazione grafica, analitica o tabulare delle probabilità di un

insieme di valori che può assumere una variabile x.

La funzione delle distribuzioni di probabilità è quella di permettere di valutare alla fine di ogni test statistico

quali valori sono da attribuire al caso e quali considero significativi per dimostrare la mia ipotesi.

Nel caso di variabili continue, anziché la distribuzione di probabilità si preferisce utilizzare la FUNZIONE DI

DISTRIBUZIONE che è una funzione che dà, per ogni valore X della variabile, la probabilità di ottenere un

valore uguale o inferiore ad X. Questa definizione vale sia per variabili discrete che continue. Si tratta di

distribuzioni di probabilità cumulative: è la probabilità di ottenere un certo valore all’interno di un

intervallo definito da meno infinito fino al valore X.

Essa viene chiamata anche distribuzione cumulativa ed è particolarmente utile per trovare l’intervallo di

significatività di un test statistico, in quanto quest’ultimo è costituito da valori che hanno probabilità uguale

o inferiore a quella del valore che ho ottenuto col parametro.

La densità di probabilità è l’unità di misura della probabilità nel caso delle distribuzioni con variabili

quantitative continue: non potendo conoscere la probabilità di ogni valore, dal momento che i valori sono

infiniti, si calcola il rapporto fra la probabilità di ottenere un risultato all’interno di un intervallo di valori e la

lunghezza dell’intervallo. 7 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

Le principali distribuzioni di probabilità

Distribuzione binomiale

La distribuzione binomiale è la distribuzione che fa riferimento ad una variabile dicotonica, ovvero ad una

variabile che può assumere due valori (testa/croce, vero/falso, sano/malato..)

Su n prove la distribuzione delle probabilità è data (nel caso p=q, cioè che la probabilità dei due eventi sia

uguale)da:

In questo caso la curva binomiale è simmetrica e, nel caso di n prove, verrà rappresentata con il grafico

sottostante:

La formula più generale della distribuzione binomiale, valida anche nel caso in cui i due valori in gioco non

siano equiprobabili è:

Questa formula dà una curva asimmetrica che, all’aumentare del numero delle prove però, tende a

ritornare simmetrica. Distribuzione gaussiana

La distribuzione più importante per i test statistici (soprattutto per i test parametrici) è la distribuzione

normale o gaussiana. Essa rappresenta a livello teorico la curva ideale a cui tendono tutte le curve di

probabilità all’aumentare delle prove: 8 Lorenzo Atti – lorenzo.atti2@studio.unibo.it

Caratteristiche principali:

 È una curva teorica continua;

 È simmetrica e ha la forma di una campana;

 Il valore per cui la probabilità è massima è rappresentato il valore atteso, mentre la varianza

teorica rappresenta quanto è schiacc

Dettagli
Publisher
A.A. 2012-2013
27 pagine
23 download
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Attolo di informazioni apprese con la frequenza delle lezioni di Statistica psicometrica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Bologna o del prof Bolzani Roberto.