Vettori Aleatori
Vettore della Media
mx = E(X) =
- [E(x1)
- E(xn)]
Matrice di Correlazione
Rx = E(XXT) =
|E(x12) E(x1x2) ... E(x1xn)
... E(x22) ...
... ...
E(xnx1) ... E(xn2)|
è simmetrica e semidefinita positiva
Matrice di Covarianza
Σx = E[(X−mx)(X−mx)T] =
|var(x1) ... cov(x1xn)
... var(x2)
cov(xnx2) ... var(xn)
Se le componenti del vettore X sono indipendenti (=> scorrelate), la matrice è diagonale
Σx = Rx − mxmxT
se Σx non è invertibile → X è degenere
se le componenti del vettore sono v.a. indipendenti sono scorrelate → cov(Xi, Xj)=0 → Σx è diagonale
TRASFORMAZIONI AFFINI
(vedi pg 158) my = Aᐧmy + b
Σy = AΣxAT
Ry = Σy + mymyT
Funzioni scalari
Z = g(X,Y)
Sia (X,Y) un v.a. assolutamente continuo, di densità congiunta fx,y(x,y), g: ℝ2→ℝ una funzione misurabile.
E(Z) = ∫ℝ2 g(x,y)ᐧfx, y(x,y)ᐧdxdx
VALORE ATTESO
fZ(z) = d/dz ᐧ FZ(z)
DENSITÀ
FZ(z) = P[Z ≤ z] = P[g(x) ≤ z] = =∬DZ fx,y(x,y) dxdy
{(x,y) : g(x,y) ≤ z}
varianza condizionata
var(y) = var(E(y|x)) + E(var(y|x))
proprietà della varianza:
- Var(x⁄aX) = 1⁄a²Var(X)
CF MULTIVARIATA
è la CF estesa ai vettori aleatori.
Sia X un v.a.
( X = ... ) la CF multivariata di X è
φX(w) = E ( eiwTX )
φX: Rn → C
PROPRIETÀ ELEMENTARI
- φX(w1, ..., wn) = ∀w = (w1, ..., wn)
- φX(0, ..., 0) = 1
- ponendo wi = (...), ottengo φX(wi) = φX(wi)
- dato X := (X1, X2) bivariato, supponendo che X1, X2 ammettano momenti, φX(w1, w2) ammette le corrispondenti derivate parziali e valgono le formule:
FORMULE
- E(X1k) = 1/ik [_________|(k) φp(w1, 0)]w1=0
- E(X2k) = 1/ik [_________|(k) φX(0, w2)]w2=0
- E(X1kX2h) = 1/ih+k [_____|(h, k) φ(w1, w2)](w1, w2) = (0, 0)
- Se Xn P→ X allora Xn D→ X
PROBABILITA' DISTRIBUZIONE
- Se Xn ↕→ X allora Xn P→ X
PROBABILITA'
Solo in queste ipotesi: E(x) → E(X)
Teorema di continuità
Sia Xn una sequenza di v.a. aventi CF ƒn.
Supposto che
lim n→∞ ƒn = ƒ una qualunque CF
allora
Xn D→ F(x) che è FdD di una determinata v.a.
Significa che abbiamo convergenza (in distribuzione) ad una v.a. che ha proprio F(x) come FdD
PROCESSI DEL SECONDO ORDINE (GSGMPI)
WHITE GAUSSIAN NOISE
- media mW(n) = E(Wn) = 0 ∀n ∈ Z
- potenza statistica MW(n) = σ2
- varianza E(Wn2) = σ2
- autocorrelazione rW(n+k, n) = E(Wn+kWn) = σ2δ(k)
Wn è stazionario in senso lato in quanto ha media nulla e autocorrelazione che non dipende da n.
GAUSSIAN RANDOM WALK
[ Yn+1 = Yn + Wn ]
- media mY(n) = 0
- potenza statistica MY(n) = nσ2
- varianza E(yn2) = nσ2
- autocorrelazione rY(n1, n2) = min [n1, n2]σ2
Il processo non è debolmente stazionario in quanto l'autocorrelazione dipende da n1, n2.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
-
Analisi dei Dati 1/2 - Appunti essenziali
-
Appunti Analisi statistica multivariata - 2 modulo
-
Analisi multivariata
-
Analisi sensoriale