vuoi
o PayPal
tutte le volte che vuoi
σ-ALGEBRA
famiglia di tutti gli eventi di interesse
- B ⊆ P(Ω)
- ∅ ∈ B
- ∀ A ∈ B: Ā = {ω ∈ Ω, ω ∉ A} ∈ B
- ∀ Am ∈ B: ∪ Am = {ω ∈ Ω, ∃ m: ω ∈ Am} ∈ B
KOLMOGOROV
P: B → ℝ
- P(Ω) = 1
- ∀ A ∈ B, P(A) ≥ 0
- {Am}m∈ℕ ⊆ B famiglia di B discreta e disgiunta
- ∀ i, j ≠ j: Ai ∩ Aj = ∅
=> P(∪mAm) = Σm P(Am)
FORMULE
- A ∩ B = Ȧ ∩ B̅ e Ȧ ∪ Ḃ = Ȧ̅ ∩ Ḃ̅ Leggi di de Morgan
- P(A−B) = P(A)− P(A ∩ B) = P(A ∩ Ḃ)
- P(A ∪ B) = P(A) + P(B) − P(A ∩ B) ≤ P(A) + P(B)
- P(Ḃ) = 1 − P(B)
- P(A ∩ B) = P(A) − P(A−B) ≥ P(A) + P(B) − 1
Incompatibilità ⟺ A ∩ B = ∅ ➔ P(A ∩ B) = 0 [se P(A),P(B) > 0]
o l'una o l'altra
Indipendenza ⟺ P(A ∩ B) = P(A)P(B)
LEGGE PROBABILITÀ COMPOSTA:
P(A∩B) = P(A|B) ⋅ P(B) ➔ P(A|B) = P(A∩B) / P(B)
LEGGE DELLE ALTERNATIVE:
- Evento E ∈ B, {Cm} ⊆ B famiglia discreta e disgiunta
- P(Cm) > 0 e E ⊆ ∪m Cm effetto riescumche. ad almeno 1 delle m cause
=> P(E) = Σm P(E | Cm) P(Cm)
E = E ∩ (∪m Cm) = ∪ E ∩ Cm
P(∪m E ∩ Cm) = K3, LPC
TEOREMA DI BAYES:
Stesse ipotesi scritte sopra + P(E) > 0 x trovare la causa + probabile che ha generato quell' effetto
=> ∀ m P(Cm | E) = P(E | Cm) P(Cm) / Σm P(E | Cm) P(Cm)
Dimostro applicando LPC, L.A.
Variabili Casuali: Generale
FX(x) = P(X ≤ x)
- a → -∞ = 0
- a → +∞ = 1
crescente
continua solo da DX
P(a ≤ x ≤ b) = FX(b) - FX(a)
Quantile d'ordine α: P(X ≤ xα) ≤ α ≤ P(X ≤ xα)
Discrete
fx(x) = P(X = x)
- >0 x ∈ SX
- =0 x ∉ SX
SX finito
P(X) = 1 x ∈ SX
FX(x) = P(x ≤ X) = Σk ≤ x fY(k)
E(g(x)) = Σ∀x g(x) fX(x)
Continue
P(X = x) = 0 ∀ x ∈ R
fx(x) = F'x(x)
Fx(x) = P(X ≤ x) = ∫-∞x fx(t) dt
Sx = {x ∈ R, fx(x) > 0}
Quantile: P(X ≤ xα) = α = FX(xα)
E(g(x)) = ∫-∞+∞ g(x) fX(x) dx
Varianza in generale: Var (X) = E[(X - μX)2]
= E(X2) + E(X)2
Proprietà valore atteso/varianza:
E(aX + b) = aE(X) + b , Var (aX + b) = a2 Var (X)
2 Variabili: Varianza e Covarianza
Cov(X,Y) = E[(X - μX)(Y - μY)] = E(XY) - E(X)E(Y)
Bilinearità: Cov(aX + bY, Z) = a Cov(X, Z) + b Cov(Y, Z)
dimostrato con le proprietà del valore atteso
Var (aX + bY) = a2 Var (X) + 2ab Cov (X, Y) + b2 Var (Y)
X ⊥ Y → Cov(X,Y) = 0 incorrelazione
E(XY) = E(X)E(Y)
Var (aX + bY) = a2 Var (X) + b2 Var (Y)
ASSENZA DI MEMORIA
GEOMETRICA X ~ Geom(θ)
P(X > m + m | X > m) = P(X > m)
ESP NEGATIVA X ~ Expon(θ) ~ Gamma (1, θ)
P(X > t + u | X > t) = P(X > u)
FUNZIONE GENERATRICE
GX(t) = E[etx] ∀ t ∈ ] - δ, δ [ δ > 0
MOMENTO R-ESIMO: derivato n volte, t = 0 GrX(0) = E(Xr)
DISCRETE → GX(t) = ∑x ∈ eX etx fX(x)
CONTINUE → GX(t) = ∫-∞+∞ etx fX(x) dx
X ⊥⊥ Y GX+Y(t) = GX(t) GY(t)
Y = a + bX → Ga+bX(t) = eat GX(bt)
PROPRIETÀ RIPRODUTTIVE
- Bin(m, θ) + Bin(m, θ) ~ Bin(m + m, θ)
- Pois(λ) + Pois(μ) ~ Pois(λ + μ)
- SOMMA DI m POISSON Sm = ∑mi=1 Xi ~ Pois(∑i=1m λi)
- Gamma(α, θ) + Gamma(β, θ) ~ Gamma(α + β, θ)
- χ2g + χ2h ~ χ2g+h
- α·N(μ, σ2) + b·N(ν, ε2) ~ N(αμ + b, α2σ2 + b2ε2)
- SOMMA DI m V.C. NORMALI Sm = ∑mi=1 aiXi
- Sm ~ N(∑i=1m aiμi, ∑i=1m ai2σi2)
(α, b) ≠ (0, 0)