Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
APPROCCIO BAYESIANO
La probabilità è definita come il grado di fiducia sul verificarsi di un evento. La coerenza è garantita dal
rispetto degli assiomi sulla probabilità; esistono due teorie bayesiane:
Soggettivista: la probabilità a priori viene stimata in base alla fiducia del soggetto sul verificarsi
dell’evento;
Oggettivista: la probabilità a priori viene stimata oggettivamente in base alle conoscenze note.
PRO: definizione assolutamente nuova che considera la valutazione probabilistica come una
scommessa sul verificarsi di un evento, e quindi come legata al grado di informazioni e alla
coerenza dell’individuo che valuta.
Proprietà della probabilità
1. La probabilità di un evento impossibile è zero.
Es. La probabilità di ottenere 7 nel lancio di un dado a sei facce è zero.
Non è vero il contrario!
Un evento che ha probabilità zero non sempre è un evento impossibile;
Es. La probabilità di non ottenere nessuna testa su infiniti lanci di una moneta è zero, perché è un evento
favorevole su infiniti eventi possibili, ma non è impossibile.
2. La probabilità di un evento certo è uno.
Es. La probabilità di ottenere un numero compreso fra uno e sei nel lancio di un dado è uno.
Non è vero il contrario!
Un evento che ha probabilità uno non sempre è un evento certo;
Es. La probabilità di ottenere almeno una testa su infiniti lanci di una moneta è uno, perché è la probabilità
complementare dell’evento “nessuna testa su infiniti lanci”, però non è un evento certo.
3. La probabilità condizionata è la probabilità che avvenga A sapendo che si è verificato B.
P(A|B) = Probabilità che si verifichi A sapendo che si è verificato B
Es. la probabilità che avendo due figli siano entrambi maschi si ottiene calcolando P(2 maschi | 2 figli)
Paradosso delle tre carte:
- Qual è la probabilità che, avendo estratto una carta con la faccia rossa, essa sia bianca dall’altro
lato? 3 Lorenzo Atti – lorenzo.atti2@studio.unibo.it
La risposta intuitiva che spesso viene data è ½, poiché si ragiona sul numero di carte, 3, di cui solo due
hanno una faccia rossa: di queste due solo una (quella bianca e rossa) ha una faccia bianca dietro a quella
rossa, perciò si risponde che la probabilità di avere una bianca dietro la rossa è del 50%.
La risposta corretta è 1/3, perché la probabilità che cerchiamo è la probabilità di un evento (faccia bianca)
condizionata ad un evento che si è verificato prima (faccia anteriore rossa). I casi possibili si contano in base
alle facce possibili, che sono 3 (faccia bianca della carta con facce miste, oppure le due facce rosse della
carta rossa) mentre il caso favorevole è che la faccia dietro sia bianca, per questo motivo la probabilità è
una su tre.
4. Eventi indipendenti: A e B sono indipendenti quando l’avverarsi di uno non influenza l’avverarsi
dell’altro. Cioè: P(A|B) = p(A)
5. Eventi disgiunti: A e B sono eventi disgiunti se il verificarsi dell'uno esclude il verificarsi dell'altro.
6. Evento prodotto: Evento in cui si verifica sia A che B
Se A e B sono indipendenti:
7. Evento somma: Evento in cui si verifica A o B o, se non sono disgiunti, entrambi.
8. Evento complementare: l’evento in cui non si verifica A. ( )
TEOREMA DI BAYES:
Serve per calcolare la probabilità condizionata di A dato B, partendo dalla probabilità condizionata opposta.
Questo teorema è di rinforzo e completamento della teoria fisheriana.
(LOGICA FISHERIANA E BAYESIANA)
Parametri statistici Parametri descrittivi
I parametri descrittivi sono i parametri utilizzati nella statistica descrittiva che servono per descrivere una
realtà complessa e per poter utilizzare un test statistico.
Le variabili su cui lavorano tutti i parametri descrittivi sono suddivise come nel grafico sottostante:
4 Lorenzo Atti – lorenzo.atti2@studio.unibo.it
I parametri descrittivi forniscono informazioni diverse a seconda del tipo di distribuzione su cui si deve
lavorare: in una curva normale la media rappresenta il valore più probabile e la varianza il grado di
dispersione attorno ad esso, ma in una curva bimodale, ad esempio, il parametro che ci fornisce più
informazioni è la moda.
Media e varianza hanno sostanzialmente due formule: una per variabili sperimentali (vedi MEDIA e
VARIANZA) necessariamente discrete, e una per distribuzioni di probabilità teoriche, sia discrete che
continue (vedi VALORE ATTESO e VARIANZA TEORICA).
FREQUENZA DI UN EVENTO: dà un’informazione indicativa che all’aumentare delle prove si
avvicina alla probabilità dell’evento, in formula:
MEDIA: dà un’informazione riassuntiva che mi dice attorno a quale valore di riferimento oscillano i
miei dati sperimentali, si chiama anche parametro di tendenza centrale, e in formula è:
Spiegazione – La media di un insieme di dati è uguale alla somma di tutti i valori di x divisa per il
numero di dati.
VARIANZA: dà un’informazione sulla variabilità dei valori dei nostri dati, e pertanto è una misura
dell’oscillazione attorno alla media. In formula è:
5 Lorenzo Atti – lorenzo.atti2@studio.unibo.it
Spiegazione – La varianza è uguale alla somma degli scarti di ogni valore dal valore medio, elevati
al quadro divisa per i suoi gradi di libertà.
DEVIAZIONE STANDARD: si utilizza spesso al posto della varianza, in quanto si ottiene facendo la
2
radice quadrata di s e quindi riportando la misura della variabilità originale.
Nel caso i valori siano delle medie, cioè se si tratta di varianze di medie, si parla di errore standard
della media ( ). Si preferisce fornire la deviazione standard e l’errore standard della media
perché è nella stessa unità di misura della variabile misurata (per es, i cm).
VALORE ATTESO ( ): definizione più generale del parametro media, non utilizzabile sul dato
sperimentale, ma individuato a partire da una distribuzione di probabilità teorica, la formula è (caso
discreto):
E(x) sta per expected value, cioè valore atteso. Essa è valida anche per eventi non equiprobabili,
poiché avendo tolto n al denominatore, non necessariamente tutti gli eventi hanno lo stesso peso
nel calcolo (caso continuo):
VARIANZA TEORICA ( ): è la definizione più generale della varianza, non utilizzabile
sperimentalmente. Essa rappresenta il valore atteso degli scarti al quadrato, dove al posto della
media sperimentale c’è il valore atteso:
PERCENTILE: dà informazioni riguardo la comparazione fra un singolo valore e il valore della
popolazione (globale); si utilizza nelle classificazioni. L’n-esimo percentile è il limite al di sotto del
quale si trova l’n% dei casi.
MEDIANA: è situata attorno al 50esimo percentile e rappresenta il valore al di sotto e al di sopra
del quale di trova il 50% della popolazione. Esso divide la popolazione in due percentuali uguali, ma
NON dà informazioni su quale valore sia più probabile.
MODA: dà informazioni sul valore che ha massima frequenza in una certa distribuzione, è molto
importante per giudicare il tipo di distribuzione a seconda di quanti picchi di frequenza presenta
(unimodale, bimodale, multimodale..). 6 Lorenzo Atti – lorenzo.atti2@studio.unibo.it
Distribuzioni di probabilità
La distribuzione di probabilità è la rappresentazione grafica, analitica o tabulare delle probabilità di un
insieme di valori che può assumere una variabile x.
La funzione delle distribuzioni di probabilità è quella di permettere di valutare alla fine di ogni test statistico
quali valori sono da attribuire al caso e quali considero significativi per dimostrare la mia ipotesi.
Nel caso di variabili continue, anziché la distribuzione di probabilità si preferisce utilizzare la FUNZIONE DI
DISTRIBUZIONE che è una funzione che dà, per ogni valore X della variabile, la probabilità di ottenere un
valore uguale o inferiore ad X. Questa definizione vale sia per variabili discrete che continue. Si tratta di
distribuzioni di probabilità cumulative: è la probabilità di ottenere un certo valore all’interno di un
intervallo definito da meno infinito fino al valore X.
Essa viene chiamata anche distribuzione cumulativa ed è particolarmente utile per trovare l’intervallo di
significatività di un test statistico, in quanto quest’ultimo è costituito da valori che hanno probabilità uguale
o inferiore a quella del valore che ho ottenuto col parametro.
La densità di probabilità è l’unità di misura della probabilità nel caso delle distribuzioni con variabili
quantitative continue: non potendo conoscere la probabilità di ogni valore, dal momento che i valori sono
infiniti, si calcola il rapporto fra la probabilità di ottenere un risultato all’interno di un intervallo di valori e la
lunghezza dell’intervallo. 7 Lorenzo Atti – lorenzo.atti2@studio.unibo.it
Le principali distribuzioni di probabilità
Distribuzione binomiale
La distribuzione binomiale è la distribuzione che fa riferimento ad una variabile dicotonica, ovvero ad una
variabile che può assumere due valori (testa/croce, vero/falso, sano/malato..)
Su n prove la distribuzione delle probabilità è data (nel caso p=q, cioè che la probabilità dei due eventi sia
uguale)da:
In questo caso la curva binomiale è simmetrica e, nel caso di n prove, verrà rappresentata con il grafico
sottostante:
La formula più generale della distribuzione binomiale, valida anche nel caso in cui i due valori in gioco non
siano equiprobabili è:
Questa formula dà una curva asimmetrica che, all’aumentare del numero delle prove però, tende a
ritornare simmetrica. Distribuzione gaussiana
La distribuzione più importante per i test statistici (soprattutto per i test parametrici) è la distribuzione
normale o gaussiana. Essa rappresenta a livello teorico la curva ideale a cui tendono tutte le curve di
probabilità all’aumentare delle prove: 8 Lorenzo Atti – lorenzo.atti2@studio.unibo.it
Caratteristiche principali:
È una curva teorica continua;
È simmetrica e ha la forma di una campana;
Il valore per cui la probabilità è massima è rappresentato il valore atteso, mentre la varianza
teorica rappresenta quanto è schiacc