vuoi
o PayPal
tutte le volte che vuoi
Formula di Bayes
Legge delle probabilità composte a più alternative
Mette in relazione un evento E (che possiamo identificare come un effetto), con altri eventi che possiamo considerare come le cause.
Ci chiediamo quanto uno dei vari eventi intervenga nel determinare E, e quindi quale cause partecipi maggiormente nel determinare un effetto.
Teorema
Dati un evento E ed un insieme finito o numerabile di eventi incompatibili Ar (r = 1, 2,…, n, se E ⊂ ∪ Ar e P(E) ≠ 0, si ha:
- P(Ar|E) = P(E|Ar)·P(Ar) / ∑r=1n P(Ai)·P(E|Ai)
Dimostrazione
Per la legge delle probabilità composte possiamo scrivere:
- P(A|E) = P(E ∩ Ar) / P(E) = P(E|Ar)·P(Ar) / P(E)
Inoltre E ⊂ (∪ Ar) e quindi
E = E ∩ (∪ Ar) = ∪ (E ∩ Ar)
Ora dobbiamo notare che le π di Ar sono incompatibili, allora E ∩ Ar sono incompatibili.
Per la legge delle probabilità totali, otteniamo
- P(E) = P(∪r=1n(E ∩ Ar)) = ∑r=1n P(E ∩ Ar) = ∑r=1n P(E|Ar)·P(Ar)
L.P.T.: P(A ∪ B) = P(A) + P(B) - P(A ∩ B) se A ∩ B = A ∩ B = 0
L.P.C.: P(A|B) = P(A ∩ B) / P(B) → P(A ∩ B) = P(A)·P(B) se A, B
∩ P(A ∩ B) = P(D)·P(B|A) se A ∉ B
Diss. Boole: Ai succ. di eventi P(∪r=1n Ar) ≤ ∑r=1n P(Ar)
- Se l'intersezione ≠ 0
- Se di eventi sono incompatibili
DISUGUAGLIANZA di BOOLE
TEOREMA:
Per una successione finita o numerabile di eventi \( \{A_r\}, r=1,2,...n \) si ha:
\[ P\left(\bigcup_{r=1}^{n} A_r\right) \leq \sum_{r=1}^{n} P(A_r) \]
DIMOSTRAZIONE:
Introduciamo una successione arbitraria di eventi
\( F_r = A_r \setminus \bigcup_{k=1}^{r-1} A_k, \qquad r=1,2,...n \) [sottrazione]
e procediamo per induzione nel dimostrare che
\( \bigcup_{r=1}^{n} A_r = \bigcup_{r=1}^{n} F_r. \)
N.B. Prima di proseguire ricordiamo il principio di induzione:
Sia \( A_k \) dipendente da un indice \( k \in \mathbb{N} \) una affermazione vera per \( k=1 \) e supponiamo che sia vera per un certo \( k=n \). Se è vera anche per \( k=n+1 \), allora \( A_k \) è vera per ogni \( k \in \mathbb{N} \).
Sarà utile ricordare la relazione \( A \setminus B = A \cap B^c \) dove \( B^c = \bar{0} \) è il complementare di \( B \).
Si vede subito che \( A_1 = F_1 \) per costruzione, supponiamo che \( \bigcup_{r=1}^{n} A_r = \bigcup_{r=1}^{n} F_r \) sia vera per \( n-1 \) e verifichiamo per \( n \).
Si ottiene:
\( \bigcup_{r=1}^{n} F_r = \left(\bigcup_{r=1}^{n-1} F_r\right) \cup F_n \)
[per \( nf \)] \( = \left(\bigcup_{r=1}^{n-1} A_r\right) \cup F_n \)
\( = \left(\bigcup_{r=1}^{n-1} A_r\right) \cup \left(A_n \setminus \bigcup_{k=1}^{n-1} A_k\right) \) [per definizione]
\( = \left(\bigcup_{r=1}^{n-1} A_r\right) \cup (A_n \cap \left(\bigcup_{k=1}^{n-1} A_k\right)^c) \)
\( = \left(\bigcup_{r=1}^{n-1} A_r\right) \cap \left(\bigcup_{r=1}^{n} A_n\right) \)
\( = \bigcup_{r=1}^{n} A_r \)
Abbiamo quindi dimostrato che \( \bigcup_{r=1}^{n} A_r = \bigcup_{r=1}^{n} F_r, \) la scelta delle successione \( F_r \) non è stata autonoma, gli insiemi di tale unione sono a due a due disgiunti.
Possiamo allora scrivere:
\[ P\left(\bigcup_{r=1}^{n} A_r\right) = P\left(\bigcup_{r=1}^{n} F_r\right) \] [appena dimostrato]
\[ = \sum_{r=1}^{n} P(F_r) \] [per la additività di P, in assioma di Kolmogorov]
\[ \leq \sum_{r=1}^{n} P(A_r) \]
dove si è utilizzato il fatto che \( P(F_r) \leq P(A_r) \) tenendo a termini. (segui dedx del dx di FR).
⊗ se l’intersezione ≠ 0
⊗ se ev. incompatibili
Metodo di stima per intervalli
Preso un campione x ∈ ℝn per ottenere una stima Θ di un parametro θ, posso costruire degli intervalli per Θ se conosco la legge di distribuzione dello stimatore f(Θ).
Dalla relazione
P(Θs ≤ Θ ≤ Θ1-α) = ∫ΘsΘ1-α f(θ^)(ω)dω = 1-α
Funzione dei dati campionari: Θ = d(x1,x2)
Standardizzando secondo una trasformazione G
P(G(Θs) ≤ G(Θ) ≤ G(Θ1-α)) = 1-α
dove IC(α) = d1-α/2 è l'intervallo di confidenza e d è un numero, un parametro
G(θ) = d1-α/2, G(Θ) = d1-α/2 sono i percentili della fG(Θ) che si possono individuare attraverso le tavole dei percentili.
Ricavo: P(G-1(dα/2) ≤ Θ ≤ G-1(d1-α/2)) = 1-α
Variabile Aleatorie Discrete
Una variabile aleatoria si dice discreta se assume valori discreti.
Se X dico va discreta, definiamo lo spettro di X, cioè l'insieme dei valori che una variabile aleatoria può assumere.
- X è discreto → Spett(X) ≠ numerabile (i non vuoti dietro lo spettro non può assumere valori non interi)
- X → Spett(X) ≠ numerabile, X={x1, x2, ...} tale che Spet(X) = {x1, x2, ... xk}, y ∈
- può esistere una succione che può rappresentare Spet(X) perché è numeribile.
- Una succ può rappresentare N ({2r=Pk, k ∈ I} insieme di indici che caratterizza X.con la quale si distribuiscono tali valori.In particolare pk = P(X=xk), k ∈ I → se X ha una successione di valori anche x unouna succione di probabilità.
N.B. le conosci {xk, pk} con k ∈ I anche conosco tutto di X, ovvero la succione delle coppie
- Le funzione dilpatczione è dei- finite.
Fx(x2)= P(X≤x2)= Σpk pk = {P(X=xk), xk ∈ Spett(x) 0 aial timenti}
CONDIZIONI: NECEsAm esuffieili &uiouso? pi^ aut ≠ dininto discreta
deto Tac succione pr('questo' pil^ ’li une delina di probabilità, ciocè pu^o‘ eeteuna succione di probabilità sotlno Sc ≠ lin Σpki 0
OSI sia X k ck successione di a Ber(p), p ∈ 0, c1 indipendenti →