Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
8) h(t,s) = ∑ ☐s(t) posso esprimere così
filtro tempor. ☐3(t) = h(t,s) dt = √2g ⌠s ψs(cs)
= ∑s √2s ☐s ψs(cs)
voglio capire di più sul significato fisico degli ortogonali
∑sds = ⌠⌠ |h(t,s)|2 dt ds = ⌠⌠ ∑s ∫ √2s ☐3(t) ☐3*(t) ☐*(s) ψs(s) θk(t) ψs(s) dt ds
= ∑s Σk √2g √2u [☐3*(t)+Θ(t)+dt] (ψ3*(s) ψk(s) ds
ortonomiali quindi ☐ per j≠k = 1 per k=0
Le sommatorie si trasformano in uniche
= ∑3 zs z·i
L'energia del filtro è la somma degli ortogonali zs si distribuisce su ogni zemo
8)
y(s) ▭ z(t)
scegli questi per massimizzare questi
Problema di trasmissione, dobbiamo quindi esprimere il vincolo e la funzione di merito
Vincolo di energia ⌠|y(s)|2 ds=1
y(s) = ∑ ψs(cs) + δy(s)
Vincolo
1 = ∫ | ∑j yj ψj(s) + Δy(s) |2 ds
∫ [ ∑3 Σ yj yk* ψ3(s) ψk(s) + | Δy(s) |2 + 2 ⟨ Σj ψj* (s) Δy(s) ⟩ ] ds
= ∑3 zj yj ψj* (s) ψk(s) ds ortonominali + ∫ | Δy(s) |2 ds + 2 ⟨ Σj ψj* (s) Δy(s) ⟩
= ∑3 | y3 |2 + ∫ | Δy(s) |2 ds = 1 non mi produca alcuna uscita
y(s) = ∑j yj ψj (s)
{ max ∫ | Σj √2j yj θj(t) |2 dt
s. t. - ∑3 |y3|2 = 1
∑j ∑u √2j √2u yj* yu* θj*(t) θu*(t) dt
θj* (t) θu* (t) dt
ortonominali 0 per j ≠ u 1 per j = u
= ∑3 z3 | y3 |2 dove minimizzare
0 = Σz = E [(X - mx) + i (y - my)][(X - mx) + i (y - my)]T] =
= E [(X - mx)(x - mx)T] + i E [(X - mx)(y - my)T] +
+ i E [(y - my)(x - mx)T] + E [(y - my)(y - my)T]
Kx - Ky + i (Kxy + KyxT) = 0
Parte reale
Parte immaginaria
Per avere = 0 deve annular o sia la parte reale quella immaginaria
Parte reale: 0 => Kx = Ky
Kxy = - KyxT
(Kxy)jk = E[(Xj - mxj)(yk - myk)]
opposta in segno
(KyxT)jk = E[(xm - mxm)(Yj - myj)]
N.B. Tutte le proprietà dei vettori Gaussiani reali possono essere estese ai vettori Gaussiani complessi o circolari complessi.
Proprietà
Ricordiamo
La covarianza elle è limitata tra ± le radici del prodotto delle varianze delle due variabili di cui sto stimando la covarianza , se è alta implica che sia molto facile predire una variabile dall'altra con uno stimatore affine mentre se le covarianze è bassa non esiste nessun predittore affine che mi dica x1 se gli do un valore misurato di x0.
• l'indipendenza invece implica di più, ovvero non esiste nessun predittore neppure affine X1 dato x0.
t
∀ a a x è gaussiano
Moltiplicando per che è un solo
W è
Consideriamo
2πi at x
E [e ]= =
E [e a
Posso calcolar
y = E [ y ] = at E [ x ] = at
2 = E [ ( y - mx | 2 ] = E [ (at x - at mx ) ( at x - at mx ) ]
= at E [ ( x - mx ) ( x - mx ) t ] a = a [ x ] a
Sostituendo tale risultato nell'eq. precedente ottengo
E [ e at x] = e -2π22 at Kx
2πi mt a
Questo è la funzione caratteristica di una gaussiano quindi è una funzione caratteristica di una gaussiano quindi
x è gaussiano. Tale ragionamento dove avere valido ∀ at x sia gaussiano.
Quindi ricapitolando, se ho un vettore deatoria gauss o lo linearmente se selez