Anteprima
Vedrai una selezione di 9 pagine su 40
Appunti Elaborazione Statistica dei Segnali M - Parte 2 Pag. 1 Appunti Elaborazione Statistica dei Segnali M - Parte 2 Pag. 2
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Appunti Elaborazione Statistica dei Segnali M - Parte 2 Pag. 6
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Appunti Elaborazione Statistica dei Segnali M - Parte 2 Pag. 11
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Appunti Elaborazione Statistica dei Segnali M - Parte 2 Pag. 16
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Appunti Elaborazione Statistica dei Segnali M - Parte 2 Pag. 21
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Appunti Elaborazione Statistica dei Segnali M - Parte 2 Pag. 26
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Appunti Elaborazione Statistica dei Segnali M - Parte 2 Pag. 31
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Appunti Elaborazione Statistica dei Segnali M - Parte 2 Pag. 36
1 su 40
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

8) h(t,s) = ∑ ☐s(t) posso esprimere così

filtro tempor. ☐3(t) = h(t,s) dt = √2gs ψs(cs)

= ∑s √2ss ψs(cs)

voglio capire di più sul significato fisico degli ortogonali

sds = ⌠⌠ |h(t,s)|2 dt ds = ⌠⌠ ∑s ∫ √2s3(t) ☐3*(t) ☐*(s) ψs(s) θk(t) ψs(s) dt ds

= ∑s Σk √2g √2u [☐3*(t)+Θ(t)+dt] (ψ3*(s) ψk(s) ds

ortonomiali quindi ☐ per j≠k = 1 per k=0

Le sommatorie si trasformano in uniche

= ∑3 zs z·i

L'energia del filtro è la somma degli ortogonali zs si distribuisce su ogni zemo

8)

y(s) ▭ z(t)

scegli questi per massimizzare questi

Problema di trasmissione, dobbiamo quindi esprimere il vincolo e la funzione di merito

Vincolo di energia ⌠|y(s)|2 ds=1

y(s) = ∑ ψs(cs) + δy(s)

Vincolo

1 = ∫ | ∑j yj ψj(s) + Δy(s) |2 ds

∫ [ ∑3 Σ yj yk* ψ3(s) ψk(s) + | Δy(s) |2 + 2 ⟨ Σj ψj* (s) Δy(s) ⟩ ] ds

= ∑3 zj yj ψj* (s) ψk(s) ds ortonominali + ∫ | Δy(s) |2 ds + 2 ⟨ Σj ψj* (s) Δy(s) ⟩

= ∑3 | y3 |2 + ∫ | Δy(s) |2 ds = 1 non mi produca alcuna uscita

y(s) = ∑j yj ψj (s)

{ max ∫ | Σj √2j yj θj(t) |2 dt

s. t. - ∑3 |y3|2 = 1

ju √2j √2u yj* yu* θj*(t) θu*(t) dt

θj* (t) θu* (t) dt

ortonominali 0 per j ≠ u 1 per j = u

= ∑3 z3 | y3 |2 dove minimizzare

0 = Σz = E [(X - mx) + i (y - my)][(X - mx) + i (y - my)]T] =

= E [(X - mx)(x - mx)T] + i E [(X - mx)(y - my)T] +

+ i E [(y - my)(x - mx)T] + E [(y - my)(y - my)T]

Kx - Ky + i (Kxy + KyxT) = 0

Parte reale

Parte immaginaria

Per avere = 0 deve annular o sia la parte reale quella immaginaria

Parte reale: 0 => Kx = Ky

Kxy = - KyxT

(Kxy)jk = E[(Xj - mxj)(yk - myk)]

opposta in segno

(KyxT)jk = E[(xm - mxm)(Yj - myj)]

N.B. Tutte le proprietà dei vettori Gaussiani reali possono essere estese ai vettori Gaussiani complessi o circolari complessi.

Proprietà

Ricordiamo

La covarianza elle è limitata tra ± le radici del prodotto delle varianze delle due variabili di cui sto stimando la covarianza , se è alta implica che sia molto facile predire una variabile dall'altra con uno stimatore affine mentre se le covarianze è bassa non esiste nessun predittore affine che mi dica x1 se gli do un valore misurato di x0.

• l'indipendenza invece implica di più, ovvero non esiste nessun predittore neppure affine X1 dato x0.

                                             t

     ∀ a                                                   a x è gaussiano

Moltiplicando per                                   che è un solo

                                                                                         W è

Consideriamo

                                2πi at x

        E [e                 ]=             =       

        E [e                         a

Posso calcolar

   y =        E [ y ] = at E [ x ] = at

     2   = E [ ( y - mx | 2 ] = E [ (at x - at mx ) ( at x - at mx ) ]

= at E [ ( x - mx ) ( x - mx ) t ] a = a [ x ] a

Sostituendo tale risultato nell'eq. precedente ottengo

E [ e                   at x] = e -2π22  at Kx  

                                   2πi mt a

Questo è la funzione caratteristica di una gaussiano quindi                                 è una funzione caratteristica di una gaussiano quindi

x è gaussiano. Tale ragionamento dove avere valido                         ∀ at x sia gaussiano.

Quindi ricapitolando, se ho un vettore deatoria gauss o lo                                                           linearmente se selez

Dettagli
A.A. 2022-2023
40 pagine
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher BlackThunder95 di informazioni apprese con la frequenza delle lezioni di Elaborazione statistica dei segnali m e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Bologna o del prof Rovatti Riccardo.