- Differenza tra 2 medie nella normale standardizzata
- Funzione generatrice di momenti: def + proprietà
- Probabilità condizionata
- Stima di una proporzione + ellisse di confidenza
- Funzione di ripartizione, proprietà + disegno (Bernoulli)
- Teorema del limite centrale (TLC) + dimostrazione
- Spazio di probabilità
- Regressione lineare
- Disuguaglianza di Cramer-Rao
- Legge di Poisson e come deriva dalla Bernoulliana
- Calcolare stimatore di massima verosimiglianza per distrib.
- Test del X2 (d'indipendenza e di adattamento)
- Test d'ipotesi
- Legge dei grandi numeri + dimostrazione
- Disuguaglianza di Chebyshev + dimostrazione
- Formula di Bayes
- V.A. continue bidimensionali, densità congiunte e marginali
- Teorema delle probabilità totali + dimostrazione
- Varianza, covarianza e coefficiente di correlazione
- Intervalli di confidenza per campioni gaussiani, definizioni, approssimazioni, derivazione dell'espressione
- Analisi della Varianza
Differenza tra due medie nella normale standardizzata
X, Y due popolazioni
- X ∼ N(μ₁, σ₁²)
- Y ∼ N(μ₂, σ₂²)
due campioni:
- (X₁, X₂, ..., Xₙ)
- (Y₁, Y₂, ..., Yₘ)
X̄ₙ = (X₁ + X₂ + ... + Xₙ) / n
Ȳₘ = (Y₁ + Y₂ + ... + Yₘ) / m
Stimatori di μ₁, μ₂ per MLE
μ̂₁ - μ̂₂ = X̄ₙ - Ȳₘ ∼ N(μ₁ - μ₂, σ₁²/n + σ₂²/m)
Z = (X̄ₙ - Ȳₘ - μ₁ + μ₂) / √(σ₁²/n + σ₂²/m) ∼ N(0, 1)
Per gli intervalli di confidenza
P(|Z| < Zα/2) = 1 - α
P(-Zα/2 < (X̄ₙ - Ȳₘ - μ₁ + μ₂) / √(σ₁²/n + σ₂²/m) < Zα/2) = 1 - α
P(X̄ₙ - Ȳₘ - Zα/2√(σ₁²/n + σ₂²/m) < μ₁ + μ₂ < X̄ₙ - Ȳₘ + Zα/2√(σ₁²/n + σ₂²/m))=[illegible]
σ₁², σ₂² non noti
Z = W = (X̄ₙ - Ȳₘ - (μ₁ - μ₂)) / √(S₁²/n + S₂²/m), S₁², S₂² varianze campionarie
W : molto complicata [illegible] σ = σ₁ - σ₂
- χ²ₙ₋₁ = (n-1) S₁² / σ₁²
- χ²ₘ₋₁ = (m-1) S₂² / σ₂²
=> χ²ₙ₊ₘ₋₂ = χ²ₙ₋₁ + χ²ₘ₋₁
tₙ = Z / √(χ²ₙ / n), tₘ₋₂ = Z / √(χ²ₘ / m)
tₙ₊ₘ₋₂ ∼ [illegible] √(n-1) S₁²/σ₁² + (m-1) S₂²/σ₂² √[illegible]
X̄ₙ - Ȳₘ - (μ₁ - μ₂) / √((n-1) S₁² + (m-1) S₂² / n₊ₘ₋₂ [illegible] √1/n + 1/m)
∼ tₙ₊ₘ₋₂
Stima di una proporzione + ellisse di confidenza
"Consideriamo un campione X1, X2, ..., Xn di somma n,
Per n grande per la legge dei grandi numeri, la
proporzione che vogliamo stimare coincide con la p
della variabile di Bernoulli."
Lo stimatore di MLE per la media è:
ς = X1 + X2 + ... + Xn/n
Sn = ςn - μ/σ/√n, μ = pσ2 = (1-p)
Sn = ςn - p/√(1-p)/n
P(|Sn| ≤ zα/2) = 1-α ⇒ P(|ςn - p|/√(1-p)/n ≤ zα/2) = 1-α
=⇒ P(ςn - zα/2√(1-p)/n ≤ p ≤ ςn + zα/2√(1-p)/n) = 1-α = 0
P[(ςn - p)2 - p(1-p)/n * zα/22 ≤ 0] = 1-α = 0
=⇒ P[(1 + zα/2/n)2p2 - 2(ςn + zα/2/2n)p + ςn2 ≤ 0] = 1-α = 0
eq ellisse = 0
(n + z2α/2)p2 - 2(ςn * n + z2α/2/2)p + ςn2 * n = 0 = ⇒
p1,2 = p1, p2 = 0 P ∈ [p1, p2] con p = 1-α
L'ampiezza dell'ellisse dipende direttamente da α e
indirettamente da n
Calcolo varianze
Cov(Ȳn, β̂) = Cov(1/nΔ∑ni=1Yi, 1/Δ∑ni=1(xi-x̄n)Yi) =
= 1/nΔ∑i,j=1n(xj-x̄n)Cov(Yi,Yj) = 1/nΔ∑i=1n(xi-x̄n) Var(Yi) =
= σ2/Δn∑(xi-x̄n) = 0 => scorrelati
Var(β̂) = Var(1/Δ∑i=1n(xi-x̄n)Yi) = 1/Δ2∑i=1n(xi-x̄n)2σ2 = σ2/Δ2
Var(α̂) = Var(Ȳn-x̄nβ̂) = Var(Ȳn) + x̄n2Var(β̂) = σ2/n + x̄n2/Δσ2 =
= σ2/nΔ(Δ + x̄n2n) = ∑x2/nΔσ2
Conclusione che
β̂ ∼ N(α, σ2/Δ) , α̂ ∼ N(β, ∑xi2/nΔ σ2)
Test del X2
"Il test del X2 è un test di verifica d'ipotesi che utilizza la distribuzione del X2 per decidere o meno se rifiutare l'ipotesi nulla".
- Indipendenza
- Il calcolo del X2 in un test statistico non parametrico, serve per verificare se la differenza tra frequenze osservate nij e frequenze attese Nij di due caratteri sia dovuto al caso o alla provenienza e al tipo del campione estratto. Il test consiste nel sottoporre a verifica H0 contro H1:
- H0 : i caratteri sono indipendenti (caso)
- H1 : i caratteri sono dipendenti
Aliamo una tabella che presenta le frequenze osservate nij e le frequenze marginali
Calcoliamo le frequenze attese con Nij = (ni . nj) / n
Calcoliamo i gradi di libertà v = (r - 1)(c - 1)
Calcoliamo il X2 = ∑i=1r ∑j=1c (nij - Nij)2 / Nij
Per accettare o rifiutare H0 :
- si calcola il p-value = P(Sn ≥ Sn | H0 vera)
- p > ½ - test non significativo => non rifiuto H0
- p ≤ ½ => test significativo => H0 rifiutata ½ può essere α
- rifiuto H0 se X2 > X2α
16) Formula di Bayes
- probabilità condizionata
P(B|A) = P(B ∩ A)/P(A) = P(A|B) P(B)/P(A)
spesso la formula di Bayes viene usata in combinazione con il teorema delle probabilità totali.
Data una partizione Bi, i = 1, 2, ..., n di A
P(Bi|A) = P(A|Bi) P(Bi)/P(A) = P(A|Bi) P(Bi)/∑i=1n P(A|Bi)P(Bi)
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.