vuoi
o PayPal
tutte le volte che vuoi
:
8. Leggi di De Morgan
´ ´
= ;
∩
( ) Á B́ A ∩B= Á U B́
∪B
A
PROBABILITA’
1. Approccio frequentista: La probabilità è il limite a cui tende la frequenza relativa con cui un dato
( )
lim n A
evento si è manifestato in un certo numero di repliche dell’esperimento n→∞ ( )
=P A
n
2. Approccio soggettivista: La probabilità esprime il grado di fiducia che un soggetto ha nel verificarsi di
un evento A
3. Approccio assiomatico: La probabilità è una funzione che deve sottostare ad alcuni assiomi
a. 0 ≤ P(A) ≤ 1 per ogni evento A
b. P(S) = 1 ¿ i=1
∞ SIGMA-ADDITTIVITA’
Si ha : ∑ ( )
∞ A
¿ =
P P A
( )
i i
i=1
REGOLE DEL CALCOLO DELLE PROBABILITA’
1. P ( ) = 1 – P(A)
Á
∅
2. P( ) = 0
3. A c B = P(A) <= P(B)
4. P(A U B) = P(A) + P(B) – P(A B)
∩
P(A) = P(A B) + P(A )
∩ ∩ B́
da cui P(A U B) = P(A ) + P(B)
∩ B́
5. P(A U B U C) = P(A) + P(B) + P(C) - P(A B) – P(A C) - P(B C) + P( A B C)
∩ ∩ ∩ ∩ ∩
6. Principio di inclusione ed esclusione
k k κ
∑ ∑ ∑
( ) ( )
¿i=1 ¿ − +
P k A ≤ P A P A ∩ A
i i i j
=1
i=1 i=1 J ¿ i=1
k
Disuguaglianza di Boole:
7. ∑
k A ( )
¿ ≤ P A
( )
i i
i=1 ¿ i=1 κ
Disuguaglianza di Bonferroni:
8. ∑ ( )
k A
¿
P ≥ 1− P Á
( )
i i
i=1
ASSEGNAZIONE DI UNA MISURA DI PROBABILITA
{ }
⋯e
s= e ,
1 n
Assegniamo probabilità ad ogni evento in modo che:
{ }
( )
0< ρ e ≤ 1
1. i
n
∑ ( })
{ =1
2. e i
i= P
Assegniamo probabilità ad ogni evento A
∑ { }
( )
( )=
P A P e
i
MODELLO PROBABILISTICO UNIFORME
n esiti favorevoli di A
( )=
P A n esiti dell ' esperimento
PROBABILITA’ CONDIZIONATE
Dati due eventi A e B si definisce probabilità condizionata di A dato B il seguente rapporto
P( A ∩ B) =P( A∨B)
P( B)
Oss: P(A B) = P(A|B) • P(B)
∩
TEOREMA DELLE PROBABILITA’ CONDIZIONATE E DI BAYES
Teorema probabilità totali : P(A) = P(A|B) • P(B) + P(A| ) • P(B)
B́
Teorema delle probabilità totali generalizzato :
n n
∑ ∑ ( )
|
( ) ( )
( )= =
P A P A ∩ B P A B • P B
i i i
i=1 i=1 ( )
P( A∨B)• P B
Teorema di Bayes : P(B|A) =
( ) +
P( A∨B)• P B P( A∨ B́) • P( B) |
( ) ( )
P A B • P B
J J
)
P( A ∩ B J
∨ ¿
B A
Teorema di Bayes generalizzato: P( = = n
∑
J P( A) ( )
P A ∩ B i
i=1 B
(N.B. l’effetto si è già verificato, ovvero evento A, bisogna capire la probabilità che una causa, evento , lo abbia
J prodotto)
ODD RATIO (rapporto tra il fatto che si verifichi e il fatto che non si verifichi)
P( A∨B) P(B)
Odd ratio iniziale : •
P( A∨ B́) P( B́)
P( A∨B)
Odd ratio finale :
)
P( B́∨A
REGOLA DEL PRODOTTO PER PIU’ EVENTI A
¿
( ) n∨ A ∩ A ∩… ∩ A
=¿ )
P A ∩ A ∩… ∩ A P(¿
P 1 2 n−1
1 2 n ( )• ∨ )• ∨ )… ¿
A P( A A P( A A ∩ A
1 2 1 3 1 2
INDIPENDENZA TRA EVENTI ∩
Due eventi A e B si dicono indipendenti se P(A B) = P(A) • P(B)
Conseguenze : ( )
P A ∩ B ⊥
A B
i
1. P(A|B) = = P(A) (indipendenti)]
¿
P( B)
⊥
A B
2. ⇔ ⊥
A B́
⊥
A B ⇔ ⊥
Á B
⊥
A B ⇔ ⊥
Á B́
MUTUA INDIPENDENZA ∩
: P(A B) = P(A) • P(B)
Tre eventi si dicono mutuamente indipendenti se ∩
P(A C) = P(A) • P(C)
∩
P(B C) = P(B) • P(C)
∩ ∩C
P(A B ) = P(A) • P(B) • P(C)
N.B. devono valere tutte e quattro le condizioni
A , A , A , … , A
n
Dati eventi essi si dicono mutuamente indipendenti se ogni loro sottoinsieme è
1 2 3 n
costituito da eventi indipendenti
PROBABILITA’ CONDIZIONATA COME MISURA DI PROBABILITA’
P( • | E)
1. P(A|E) >= 0 per ogni evento A
2. P(S|E) = 1 =∅
A , A , A , … , A A ∩ A
3. tali che
1 2 3 n i j