Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Stima e Identificazione
27/02/24
Variabili Aleatorie
X = [x1, x2, ..., xn]T = [x1 xn] ∈ ℝn
- PDF (Probability Density Function)
fX(x) : ℝn → ℝ≥0
∫ℝn fX(x) dx = ∫ fX(x) dx = Prob(X ∈ ℝn) = 1
Data PDF fX(x) e dato un arbitrario sottoinsieme S ⊆ ℝn:
Prob (X∈S) = ∫S fX(x) dx
In alternativa, X può essere caratterizzata dalla:
- CDF (Cumulative Distribution Function)
FX(x) : ℝn → ℝ≥0
FX(x) = Prob (X ≤ x) = Prob (X1 ≤ x1, X2 ≤ x2, ..., Xn ≤ xn) =
= Prob (X1 ∈ (-∞, x1], X2 ∈ (-∞, x2], ..., Xn ∈ (-∞, xn]) =
= ∫-∞x1 ... ∫-∞xn fX(x1, x2, ..., xn) dx1 dx2 ... dxn
S ⊆ ℝn
Da PDF fX(x) ottengo CDF FX(x) = ∫ fX(x) dx
e da FX(x) → fX(x) = ∂FX(x) / ∂x1∂x2 ... ∂xn
Operatore di Media/attesa (Expectation)
E[g(X)] = ∫ g(x)fX(x) dx
(funzione di v.a.)
Momenti di una v.a.
- 1° ordine (Media di X ∈ ℝn):
mX = x̄ = E[X] = ∫ x fX(x) dx ∈ ℝn
mx = [m1, m2, ..., mn]T, mi = E[xi]
E[X - mx] = 0 = E[X]
- 2o ordine (Matrice di) covarianza
Σx = E[(X - mx)(X - mx)T] = E[χχT] =
Σx = [σ11 … σ1n] [… …] [σn1 … σnn] ∈ ℝnxn
σii = E[(Xi - mi)2] = var(xi)
σij = E[(Xi - mi)(Xj - mj)] = Cov(Xi, Xj) = Cov(Xj, Xi) = σji
→ Σx = ΣxT [È simmetrica]
Def
Matrice quadrata M dici
definita positiva / semidefinita positiva (o non negativa) se e solo se:
∀ u ∈ ℝn\{0} : uTMu > 0 / ∀ u ∈ ℝn : uTMu ≥ 0
Σx > 0 / Σx ≥ 0
Si può verificare che Σx ≥ Σx > 0
Infatti, si consideri la v.a. Y = yTX, y ∈ ℝn\{0} / y ∈ ℝ
Σy = E[(y - my)2] = E[(y - my)(y - my)T]
my = E[yTx] = yTE[X] = yTmx
Σy = E[(yT χT)] = ζx E[(yT χχTu)] = yTE[χχT]y = yTΣxy ≥ 0
var(Y) ∀ ω ∈ ℝn
- [E[Y]]
→ Σx ≥ 0
Riassumendo: Σx è una matrice simmetrica e semi-definita positiva
σii = var(Xi) ≥ 0 le componenti diagonali devono essere non negative
ρij = Cov(Xi, Xj) √var(xi) var(xj) = std-dev(Xi) σi = √var(Xi)
Coefficiente di correlazione fra Xi e Xj, i ≠ j
Si dimostra ρij ∈ [-1, 1]
Condizionamento di X dato Y
(stima di X sulla base di Y): prodotto della PDF a priori fX(x) per la verosimiglianza fY|X(y|x) normalizzato dalla costante:
∫fY|X(y|x)fX(x)dx
Def.
V.A. X e Y dicono indipendenti se fX,Y(x,y) = fX(x)fY(y)
X e Y indipendenti ↔ ∑XY = E[X - mX)(Y - mY)] ∈
∫∫(x - mX)(y - mY)fX,Y(x,y)dxdy = ∫∫(x - mX)fX|Y(x|y)dxdy = E[X](...) = 0 → X ⊥ Y
X e Y indipendenti ↔ X ⊥ Y (incorrelate)
X e Y indipendenti ⇒
- i) FX,Y(x,y) = FX(x)FY(y)
PDF di una funzione di V.A.
X ~ fX(·) → Y = g(X)(·) → fY(·)
- es. X = ⌊5/ξ⌋
- Y = √(ξ2 + η2)
g(X) = g(ξ,η)
Teo. 1
X ~ fX(·), Y = g(X)/∃g-1(·) : X = g-1(Y) → fY(y) = fX(g-1(y))
Jacobiano det |∂Y/∂X (g-1(y))|
Corollario 2
X ~ fX(·), Y = g(X), ∃g-1 X e Y scalari →
Corollario 3
- X1 = f1(·), X2 = f2(·), X1 e X2 indipendenti
- Y = X1 + X2
fY(·) = f1 * f2(·) con f1*f2(·) = ∫f2(x)f2(y-x)dx
APPENDICE E
Valori percentili (χ2) per la distribuzione chi-quadrato con ν gradi di libertà
ν 0,0 0,02 0,05 0,10 0,15 0,20 0,25 0,30 0,40 0,50 0,60 0,70 0,80 0,90 0,95 0,98 0,99 1,0 1 0,000 0,000 0,004 0,016 0,049 0,103 0,211 0,575 1,32 2,71 4,00 5,02 6,63 7,88 10,83 12,0 13,82 2 0,010 0,020 0,103 0,211 0,446 0,713 1,39 2,71 4,71 6,02 7,38 9,21 10,60 14,14 16,87 18,4 3 0,072 0,116 0,351 0,584 1,01 1,42 2,37 3,67 6,25 7,81 9,25 11,34 12,84 16,87 19,68 21,8 4 0,207 0,297 0,711 1,06 1,65 2,20 3,36 5,99 7,78 9,24 11,05 13,28 14,86 18,46 22,10 23,89 5 0,412 0,554 1,145 1,61 2,34 3,00 4,35 6,98 9,24 11,07 12,83 15,09 16,75 20,52 23,79 25,38 6 0,676 0,872 1,635 2,20 3,07 3,83 5,35 8,56 10,64 12,59 14,45 16,81 18,55 22,46 25,99 27,61 7 0,989 1,239 2,167 2,83 3,82 4,67 6,35 10,0 12,0 13,98 16,01 18,48 20,28 24,32 27,94 29,98 8 1,344 1,646 2,734 3,49 4,59 5,53 7,34 11,5 13,36 15,51 17,53 20,09 21,96 26,12 29,92 31,73 9 1,735 2,088 3,325 4,17 5,38 6,39 8,34 12,9 14,68 17,01 18,98 21,67 23,59 27,88 31,74 33,71 10 2,156 2,558 3,940 4,87 6,18 7,27 9,34 14,2 16,1 18,41 20,48 23,21 25,19 29,59 33,50 35,61 Pearson, E.K., Hartley, B.O., Biometrika Tables for Statisticians, vol. 1 (1966), tabella 2.