Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
L’IMPOSTAZIONE ASSIOMATICA
DELLA PROBABILITA’
L'impostazione assiomatica della probabilità venne proposta
nel 1933 in “Concetti
da Kolmogorov fondamentali del
calcolo delle probabilità”, sviluppando la ricerca che era ormai
cristallizzata sul dibattito fra quanti consideravano la
probabilità come limiti di frequenze relative e quanti
cercavano un fondamento logico della stessa.
Va notato che la definizione assiomatica non è una
definizione operativa e non fornisce indicazioni su come
calcolare la probabilità. È quindi una definizione utilizzabile
sia nell'ambito di un approccio oggettivista che nell'ambito di
un approccio soggettivista.
Il nome deriva dal procedimento per "assiomatizzazione"
quindi nell'individuare i concetti primitivi, da questi
nell'individuare i postulati (o assiomi) da cui poi si passava a
definire i teoremi.
DEFINIZIONI
SPAZIO DEGLI EVENTI:
Per ogni esperimento si può costruire un insieme U
detto universo o spazio degli eventi, formato da tutti i
possibili esiti. Un evento casuale (o aleatorio) E si
identifica con un sottoinsieme di U.
Esempio:
Nel lancio di un dado, consideriamo l’evento E=“esce un
numero maggiore di 4”; in questo caso avremo che:
U 1
, 2
,
3
, 4
,
5
,
6
E 5
,
6
DEFINIZIONI
EVENTO COMPLEMENTARE (O CONTRARIO):
Dato un evento E, sottoinsieme di U, si dice evento
contrario l’insieme complementare di E rispetto ad U e si
E
indica con .
Esempio:
Nell’esempio precedente si avrà dunque:
U 1
, 2
,
3
, 4
,
5
,
6
E 5
,
6
E 1
, 2
,
3
, 4
DEFINIZIONI
SOMMA LOGICA (O EVENTO UNIONE):
Dati due eventi elementari E ed E , entrambi
1 2
sottoinsiemi di U, si dice somma logica l’insieme unione
E UE
1 2.
Esempio:
Nel lancio di un dado, si considerino gli eventi elementari
=“esce un numero pari” = {2,4,6}
E
1 =“esce un multiplo di 3” = {3,6}
ed E
2
La somma logica sarà l’evento:
=“esce un numero pari un multiplo di 3”=
E UE o
1 2
={2,3,4,6}.
Riconosciamo la somma logica quando nella descrizione
dell’evento compare il connettivo “o”.
DEFINIZIONI
PRODOTTO LOGICO (O EVENTO INTERSEZIONE):
Dati due eventi elementari E ed E , entrambi
1 2
sottoinsiemi di U, si dice prodotto logico l’insieme
∩E
intersezione E
1 2.
Esempio:
Nel lancio di un dado, si considerino gli eventi elementari
=“esce un numero pari” = {2,4,6}
E
1 =“esce un multiplo di 3” = {3,6}
ed E
2
Il prodotto logico sarà l’evento:
∩E =“esce un numero pari multiplo di 3”= {6}.
E e
1 2
Riconosciamo la somma logica quando nella descrizione
dell’evento compare il connettivo “e”.
DEFINIZIONI
EVENTI INCOMPATIBILI E EVENTI
COMPATIBILI:
Due eventi E ed E si dicono incompatibili se
1 2
non possono verificarsi contemporaneamente,
∩E ∩E ≠Ø allora
cioè se E =Ø. Viceversa, se E
1 2 1 2
sono compatibili.
Esempio:
Nell’estrazione di una carta da un mazzo di 40,
sono incompatibili gli eventi:
=“esce una figura”
E
1 =“esce un 7”
E
2
DEFINIZIONE DI PROBABILITA’
Definiamo probabilità p(E) di un evento E una
che ad ogni evento dell’universo U
funzione 1
associa un numero in modo che siano
verificati i seguenti 3 assiomi:
p(E)≥0
Per ogni evento si ha
1. L’universo U rappresenta l’evento certo: p(U)=1
2. , …, E
Dati n eventi E , E a due a due incompatibili,
3. 1 2 n
U…UE )+…+p(E
si ha: p(E UE )=p(E )+p(E ).
1 2 n 1 2 n
Nota 1: Tale numero, come conseguenza degli assiomi 1 e 2, sarà
necessariamente compreso tra 0 e 1.
TEOREMI SULLA PROBABILITA’
TEOREMA DELL’EVENTO COMPLEMENTARE:
Dato un evento E, la probabilità dell’evento
p ( E ) 1 p ( E )
complementare è:
PROBABILITA’ DELL’EVENTO IMPOSSIBILE:
L’evento impossibile ha probabilità 0.
TEOREMI SULLA PROBABILITA’
PROBABILITA’ TOTALE (SOMMA LOGICA):
Dati due eventi E ed E (compatibili o
1 2
incompatibili), vale la seguente relazione sulla
probabilità totale, cioè della somma logica:
– ∩E
p(E UE ) = p(E ) + p(E ) p(E ).
1 2 1 2 1 2
OSSERVAZIONE:
Se gli eventi sono incompatibili, il terzo termine sarà 0 e ciò è in
accordo con il terzo assioma.
ESEMPI
Lanciando un dado, qual è la probabilità che esca un 6 o
un numero dispari?
Svolgimento:
Il connettivo “o” ci fa pensare alla somma logica, quindi
all’operazione di unione di eventi. Inoltre i due eventi
sono incompatibili, dato che 6 è un numero pari. Quindi
la probabilità della somma logica degli eventi è data dalla
somma delle probabilità dei singoli eventi elementari,
cioè: 1 3 4 2
p ( E E ) p ( E ) p ( E )
1 2 1 2 6 6 6 3
ESEMPI
Estraendo una carta da un mazzo di 40, qual è la
probabilità che sia un re o una carta di fiori?
Svolgimento:
Il connettivo “o” ci fa pensare alla somma logica, quindi
all’operazione di unione di eventi. Ma in questo caso i
due eventi sono compatibili, giacché può uscire un re di
fiori. Quindi utilizziamo il teorema della probabilità totale:
4 10 1 13
p ( E E ) p ( E ) p ( E ) p ( E E )
1 2 1 2 1 2 40 40 40 40
ESEMPI
In un sacchetto ci sono palline rosse, bianche e blu. La
probabilità di estrarre una pallina rossa è 1/3 e quella di
estrarre una pallina blu è 1/5. Qual è la probabilità di
estrarre una pallina bianca?
Svolgimento:
La probabilità richiesta si calcola facilmente come
della probabilità di “estrarre una
probabilità contraria
blu”. Quest’ultima si calcola come
pallina rossa o
probabilità totale di due eventi incompatibili, giacchè una
pallina non può essere contemporaneamente rossa e
blu, quindi:
1 1 8 7
p 1 1
3 5 15 15
TEOREMI SULLA PROBABILITA’
PROBABILITA’ COMPOSTA (PRODOTTO
LOGICO)
Consideriamo ora due eventi E ed E e
1 2
∩E
vogliamo calcolare la probabilità p(E ) che si
1 2
verifichino entrambi. Possono presentarsi due
casi:
E ed E sono stocasticamente indipendenti
1 2
E ed E sono stocasticamente dipendenti
1 2
CURIOSITA’ STORICA…
Il concetto di indipendenza stocastica tra
eventi casuali fu definito per la prima volta
nel 1718 da Abraham de Moivre,
purtroppo noto al grosso pubblico solo per
aver correttamente predetto il giorno della
propria morte servendosi di una formula
matematica, nel suo libro “The Doctrine of
Chance”.
EVENTI DIPENDENTI E
INDIPENDENTI
Due eventi E ed E sono stocasticamente
1 2
indipendenti se non si influenzano a
vicenda, cioè se il verificarsi di uno dei due
non modifica la probabilità che si verifichi il
secondo.
Viceversa, due eventi E ed E sono
1 2
stocasticamente dipendenti se il
verificarsi di uno dei due modifica la
probabilità che si verifichi il secondo.
Esempio:
Si estrae una carta da un mazzo di 40. Qual è la
probabilità che sia una figura e che sia di cuori?
Svolgimento:
La presenza del connettivo “e” ci fa pensare alla
probabilità composta, quindi dobbiamo chiederci se i
due eventi sono dipendenti o indipendenti.
La probabilità del primo evento è 12/40, cioè 3/10. La
probabilità che la carta sia di cuori non è influenzata dal
verificarsi dell’evento che la carta sia una figura, quindi
vale 10/40 cioè ¼. La probabilità composta sarà allora
3/40.
Pertanto questo è un caso di eventi indipendenti. La
probabilità composta è data dal prodotto delle probabilità
∩E
dei singoli eventi: p(E ) = p(E )*p(E )
1 2 1 2
Esempio:
Si estrae una carta da un mazzo di 40 e, senza
reinserirla nel mazzo, se ne estrae una seconda. Qual è
la probabilità che siano due regine?
Svolgimento:
La probabilità del primo evento è 4/40, cioè 1/10. Ma
alla seconda estrazione le carte sono diventate 39 e, se
vogliamo che la prima sia già una regina, le regine
rimaste sono soltanto 3; quindi la probabilità che la
seconda carta sia ancora una regina sarà diventata
3/39 cioè 1/13. Pertanto la probabilità composta (o
prodotto logico) sarà data dal prodotto tra la probabilità
che la prima carta sia una regina per la probabilità che
la seconda sia ancora una regina, cioè 1/130.
Pertanto questo è un caso di eventi dipendenti. Cioè la
probabilità del secondo evento è condizionata al
verificarsi del primo evento. (Analogamente si
considerano dipendenti i due eventi se le due carte
vengono estratte simultaneamente, cioè quando non c’è
il reinserimento).
PROBABILITA’ CONDIZIONATA
Quando la probabilità di un evento E dipende
2
dal verificarsi dell’evento E , si parla di
1
probabilità condizionata e si indica con p(E |E )
2 1
e si legge “probabilità di E ”.
condizionata ad E
2 1
In questo caso, cioè quando i due eventi sono
stocasticamente dipendenti, la probabilità
composta è data da:
∩E
P(E ) = p(E )* p(E |E )
1 2 1 2 1
che equivale alla seguente:
p ( E E )
1 2
p ( E | E )
2 1 p ( E )
1
DIAGRAMMI AD ALBERO
Spesso si può usare un diagramma ad albero per
rappresentare i casi possibili.
Questo ci permette di avere un'elencazione grafica di
tutti gli elementi dello spazio campione. Se poi si scrive
su ciascun ramo la p