Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Vettori Aleatori
Vettore della Media
mx = E(X) =
- [E(x1)
- E(xn)]
Matrice di Correlazione
Rx = E(XXT) =
|E(x12) E(x1x2) ... E(x1xn)
... E(x22) ...
... ...
E(xnx1) ... E(xn2)|
è simmetrica e semidefinita positiva
Matrice di Covarianza
Σx = E[(X−mx)(X−mx)T] =
|var(x1) ... cov(x1xn)
... var(x2)
cov(xnx2) ... var(xn)
Se le componenti del vettore X sono indipendenti (=> scorrelate), la matrice è diagonale
Σx = Rx − mxmxT
se Σx non è invertibile → X è degenere
se le componenti del vettore sono v.a. indipendenti sono scorrelate → cov(Xi, Xj)=0 → Σx è diagonale
TRASFORMAZIONI AFFINI
(vedi pg 158) my = Aᐧmy + b
Σy = AΣxAT
Ry = Σy + mymyT
Funzioni scalari
Z = g(X,Y)
Sia (X,Y) un v.a. assolutamente continuo, di densità congiunta fx,y(x,y), g: ℝ2→ℝ una funzione misurabile.
E(Z) = ∫ℝ2 g(x,y)ᐧfx, y(x,y)ᐧdxdx
VALORE ATTESO
fZ(z) = d/dz ᐧ FZ(z)
DENSITÀ
FZ(z) = P[Z ≤ z] = P[g(x) ≤ z] = =∬DZ fx,y(x,y) dxdy
{(x,y) : g(x,y) ≤ z}
varianza condizionata
var(y) = var(E(y|x)) + E(var(y|x))
proprietà della varianza:
- Var(x⁄aX) = 1⁄a²Var(X)
CF MULTIVARIATA
è la CF estesa ai vettori aleatori.
Sia X un v.a.
( X = ... ) la CF multivariata di X è
φX(w) = E ( eiwTX )
φX: Rn → C
PROPRIETÀ ELEMENTARI
- φX(w1, ..., wn) = ∀w = (w1, ..., wn)
- φX(0, ..., 0) = 1
- ponendo wi = (...), ottengo φX(wi) = φX(wi)
- dato X := (X1, X2) bivariato, supponendo che X1, X2 ammettano momenti, φX(w1, w2) ammette le corrispondenti derivate parziali e valgono le formule:
FORMULE
- E(X1k) = 1/ik [_________|(k) φp(w1, 0)]w1=0
- E(X2k) = 1/ik [_________|(k) φX(0, w2)]w2=0
- E(X1kX2h) = 1/ih+k [_____|(h, k) φ(w1, w2)](w1, w2) = (0, 0)
- Se Xn P→ X allora Xn D→ X
PROBABILITA' DISTRIBUZIONE
- Se Xn ↕→ X allora Xn P→ X
PROBABILITA'
Solo in queste ipotesi: E(x) → E(X)
Teorema di continuità
Sia Xn una sequenza di v.a. aventi CF ƒn.
Supposto che
lim n→∞ ƒn = ƒ una qualunque CF
allora
Xn D→ F(x) che è FdD di una determinata v.a.
Significa che abbiamo convergenza (in distribuzione) ad una v.a. che ha proprio F(x) come FdD
PROCESSI DEL SECONDO ORDINE (GSGMPI)
WHITE GAUSSIAN NOISE
- media mW(n) = E(Wn) = 0 ∀n ∈ Z
- potenza statistica MW(n) = σ2
- varianza E(Wn2) = σ2
- autocorrelazione rW(n+k, n) = E(Wn+kWn) = σ2δ(k)
Wn è stazionario in senso lato in quanto ha media nulla e autocorrelazione che non dipende da n.
GAUSSIAN RANDOM WALK
[ Yn+1 = Yn + Wn ]
- media mY(n) = 0
- potenza statistica MY(n) = nσ2
- varianza E(yn2) = nσ2
- autocorrelazione rY(n1, n2) = min [n1, n2]σ2
Il processo non è debolmente stazionario in quanto l'autocorrelazione dipende da n1, n2.