Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Probabilità condizionata
P(E|F) = P(E∩F) / P(F), quindi P(E∩F) = P(F) ⋅ P(E|F)
Regola di moltiplicazione
P(E1 ∩ E2 ∩ En) = P(E1) ⋅ P(E2|E1) ⋅ P(E3|E1 ∩ E2) ⋅ P(E4|E1 ∩ E2 ∩ E3) ⋅ ... ⋅ P(En|E1 ∩ ... ∩ En-1)
Formula delle probabilità totali
Data una partizione F1, ..., Fn di Ω con P(Fi)>0 ∀i = 1, ..., n e E evento di Ω allora →
P(E) = P(E|F1) ⋅ P(F1) + P(E|F2) ⋅ P(F2) + ... + P(E|Fi) ⋅ P(Fi) = Σi = 1m P(E|Fi) ⋅ P(Fi)
DIMOSTRAZIONE →
E = (E ∩ F1) ∪ (E ∩ F2) ∪ (E ∩ F3) ∪ ... ∪ (E ∩ Fn)
P(E) = P(E ∩ F1) + P(E ∩ F2) + P(E ∩ Fn) =
= P(E|F1) ⋅ P(F1) + P(E|F2) ⋅ P(F2) + ... + P(E|Fn) ⋅ P(Fn)
Teorema di Bayes
Data una partizione F1, F2, ..., Fn di Ω con P(Fi)>0 ∀i, dato un evento E con P(E)>0 allora vale →
P(Fh|E) = P(E|Fh) ⋅ P(Fh) / P(E)
DIMOSTRAZIONE →
P(Fh|E) / P(E) = P(E ∩ Fh) / P(E) = P(E|Fh) ⋅ P(Fh) / P(E)
Statistica - Riassunti
1 / 25
28/02/13
Indipendenza
P(E ∩ F) = P(E) · P(F) se sono indipendenti.
Interpretazione → se sono indipendenti allora:
P(E|F) = P(E ∩ F)/P(F) = P(E)
Indipendenza condizionata
Definiamo un evento fisso F, allora PF(E) = P(E|F) ∀ E evento.
Eventi si dicono ind. condizionatamente se PF(E1 ∩ E2) = PF(E1) · PF(E2).
Prove Bernoulliane
Ho due possibilità
- P = successo
- 1-P = q = insuccesso
Dato n = {a1; a2;...; an} → ω = {ak: ak = 1 Ek} ∩ {ak: ak = 0 Ek} aof:
P(ω) = Παk = 1 P(Ek) · Παk = 0 P(Ek) = pa (1-p)b {a: n successi b: n insuccessi}
Spazio probabilità di Bernoulli → P(Bκ) = nCk pk (1-p)n-k.
Se si verificano k successi e n è il n delle prove.
Variabili aleatorie
Dato (Ω; J; P) e una VA x è una funzione x: Ω → Ω tale che {x ≤ x} ∈ J , ∀ x ∈ R. Con Ω finito e numerabile.
Disuguaglianza di Chebyshev
se Y è una v.a. con varianza finita allora P(|Y - E(Y)| > ε) ≤ var(Y)/ε²
Dimostrazione T.C.
Applichiamo la disuguaglianza alla v.a. Sn/n = X1 + ... + Xn/n
E( Sn/n ) = E( X1 + ... + Xn/n ) = 1/n E (X1 + ... + Xn) = 1/n Σi=1n E(Xi) = p.m. = m
var( Sn/n ) = var( X1 + ... + Xn/n ) = 1/n² var(X1 + ... + Xn) = = [ var(X1) + ... + var(Xn) ] . 1/n² = n . σ²/n² = σ²/n
P(|Sn/n - m|>ε) ≤ σ²/n . ε² ⟶ 0 per n ⟶ +∞ ∀ ε > 0
Discende direttamente da Chebyschev.
Ipergeometrica
N buone, M difettose, n con pari probabilità di ogni insieme di x insiemi possibili: v.a. che conti il n di oggetti del tipo N estratti.
P(x=k) =
x Iperg(N,M,n)
E(y) =
Var(y) =
Poisson
dove n e p , x di chiamate in un centralino.
P(x=k) =
E(x) =
Var(x) =
Parentele note tra densità
- Ipergeometrico ≈ Binomiale
N biglie, K di un tipo e N-K dell'altro
- Iper(N, K, n) k >> N N-K >> n
- Bin(n = n ; p = K/N)
- Binomiale ≈ Poisson
Bin(n, p) n > 100 0.1 ≤ np ≤ 10
Poi(μ = np)
- Binomiale ≈ Normale
Bin(n, p) n > 30 np > 5 nq > 5
Nor(μ = np ; σ2 = n·p·q)
Dimostrazione proprietà varianza
- var(X) ≥ 0 poiché è la media di una v.a. positiva: (X - E(X))2 ≥ 0. Sia P(X = c) = 1 var(X) = (c-c)2 PX(0) = 0 E(X) = c, var(X) = 0 E[(X - E(X))2] = 0
- var(αX + β) = E [(αX + β - E(αX + β))2] = = E [X( αX + β - αE(X) - β )2] = E [α2(X - E(X))2]= = α2 E ((X - E(X))2) = α2 var(X)
- Nvar(X) = E((X-E(X))2) = E [X2+E(X)2-2E(X) X]= = E(X2) + E(E(X)2) + E (-2E(X)X) = = E (X2+E(X)2 - 2E(X) E(X) = E[X2] - E[X]2