Anteprima
Vedrai una selezione di 9 pagine su 38
Sistemi embedded Pag. 1 Sistemi embedded Pag. 2
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Sistemi embedded Pag. 6
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Sistemi embedded Pag. 11
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Sistemi embedded Pag. 16
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Sistemi embedded Pag. 21
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Sistemi embedded Pag. 26
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Sistemi embedded Pag. 31
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Sistemi embedded Pag. 36
1 su 38
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

VARIANZA (wiki)

σX2 = E[(X - E[X])2] è il valore atteso del quadrato della var. aleatoria centrata X - E[X]

COVARIANZA (wiki)

Cov(X, Y) = E[(X - E[X])(Y - E[Y])] è il prodotto valore atteso dei prodotti delle loro distanze dalla media.

VALORE ATTESO (o v. medio)

  1. E{u(n)} = μu(n) N×1

  2. E{u(m,n)1,2} = μu(m,n) M×N

VARIANZA

σu2(n) = E{|u(n) - μ(n)|2} = diag[rz(n,n')]

COVARIANZA

  1. 1D Cov[u(n), u(n')] = E{[u(n) - μu(n)][u*(n') - μu(n')]T} =

    Ru = R = r(n,n') (matrice N×N)

  2. 2D Cov{u(m,n), u(m',n')} = E{(u(m,n) - μ(m,n)) (u*(m',n') - μu*(m',n'))} =

    r(m,n,m',n')

AUTOCORRELAZIONE

  1. 1D σ2(n) = r(n,n) = diag(R) vettore che rappresenta la varianza delle singole componenti del vettore

NB3 NON esiste un cerchio in 2D

covariamo con xi(t)dom

PROPRIETÀ

LA MATRICE DI COVARIANZA Ru È HERMITIANA

DIM: - Calcolo Ru*

= E{(u - μu)(u* - μu*)T} - calcolo del complesso coniugato

= E{(umn'' - μu)(u*(m',n') - μu*')T} = - cerchio: la trasposta

= E{(z - μ)(u* - μ*)T} Ru

Hermitiana → la sua matrice e sua trasposta coniugata (quindi) è reale e simmetrica

Prop fund: (R)* e def non negativa: ∑ ∑ x(n)*(n),(m,n')x*(n') ≥ 0

∇ lo auto. loro positivi λ1 ≳ . . . ≳ λN ≥ 0

Possiamo essere ordinati 123,... >

Stima della covarianza

Supponiamo che \( x^{(1)}, ..., x^{(N)} \) sia l'insieme di N realizzazioni (osservazioni) di un segnale random \( x \) aventi v. medio nullo \( \rightarrow E \{ x \} = 0 \)

Si può dimostrare che il v.m. di una funzione può venire stimato come segue:

\[ E \{ f(x) \} \approx \frac{1}{N} \sum_{k=1}^{N} f(x^{(k)}) \]

Dunque sapendo che la matr. cov. avrà (qui è identica a quello di autocorrelazione):

\[ R_x = E \{ x \cdot x^{T} \} \implies \]

\[ R_x \approx E \{ x \cdot x^{T} \} \approx \frac{1}{N} \sum_{k=1}^{N} x^{(k)} \cdot (x^{(k)})^{T} \]

dove \( f(x) = x \cdot x^{T} \)

Rendiamo la formula più completa introducendo la "data matrix" \( X \) una matrice \( N \times N \) che ha per colonne le osservazioni del segnale \( x^{(1)}, ..., x^{(N)} \); Quindi:

\[ R_x \approx \frac{1}{N} X \cdot X^{T} \]

Nota → PIÙ N → PIÙ G. stima di R_x sarà corretta

Stesso discorso se prendiamo in considerazione N realizzazioni di un'immagine u(m,n), ovvero u^(1), ..., u^(N).

Il tenore di covarianza si stima come:

\[ R_u \approx E \{u \cdot u^{T}\} \approx \frac{1}{N} \sum_{k=1}^{N} u^{(k)} \cdot (u^{(k)})^{T} \]

Non si usa il concetto di matr. matr.

L’errore quadratico medio tra u e $\hat{u}$ è da calcolare:

E = E[‖u - $\hat{u}$‖^2] = E[ (u - $\hat{u}$)^T (u - $\hat{u}$) ] = E[η^T · η] =

= E[ $\sum_{j=M+1}^{N} φ_{j}^T φ_{k}$^T ] = E[ $\sum_{j=M+1}^{N} ν(j) ν(j)$ ] =

= E[ $\sum_{j=M+1}^{N} ν(j) ν(j)$ ]

ma sappiamo che v(j) = φ_{j}^T · u, quindi:

E = $\sum_{j=M+1}^{N}$ E[ (φ_{j}^T · u) ╳ (u+^T φ_{j}) ] = $\sum_{j=M+1}^{N}$ φ_{j}^T E[ u · u^T ] φ_{j}

$\sum_{j=M+1}^{N}$ φ_{j}^T R_u · φ_{j} = E

Occorre ora trovare il minimo valore di E che soddisfi l’ortogonalità di vettori φ_{j}, ovvero il minimo di E vincolato a:

φ_{j}^T · φ_{j} = 1j = M+1, ..., N

→ PROBLEMA DI MINIMO VINCOLATO

φ_{j} = | min Eφ_{j}^T · φ_{j} = 1 J = M+1, ..., N

Usiamo i moltiplicatori di Lagrange:

ci dice che delta f(x) in punto di minimo x_0 tale per cui:

f_i (x_0) = ... f_\nu (x_0) = φ= VINCLO

e il valore che si ottiene imparando:

grad (f(x) )+ \sum_{j=1}^{1} \lambda_j f_j (x)| = \phi

Quindi nel nostro caso:

grad [ $\sum_{j=M+1}^{N}$ φ_{j}^T Ru · φ_{j} + $\sum_{j=M+1}^{N}$ λ_j · (1 - φ_{j}^T · φ_{j} ) ] = φ

N.B. → regola di derivazione | d/dα = (scalare)→ derivando rispetto a φ_{j}^T

DIM. Data A=[a1...an] una matrice M×N,

definisco la GRAM MATRIX

G=AT•A

ad essa associata, la quale è una matrice quadrata N×N, da cui posso ricavare gli autovalori in numero pari alla dimensione N.

Inoltre G è

  • Hermitiana (o Simmetrica se tale)
  • definita NON NEGATIVA

Prendo la colonna k-esima di G: gx = AT•ax

Supponendo k ≤ r = rank(A) = r ≤ k

Essendo G = AT[a1...an] = [ATa1...ATan] = [g1...gn]

Si ha che il rango di G è uguale a quello di A, cioè r ≤ N

rank(A) = rank(G) = rank(AT•A)

ma essendo questa posso definire gli autovalori

λi = σi2 i = 1...n

in corrispondenza degli autovalori ho degli autovettori

V4 = (V1...Vr) ⟺ V1...Vr autovettori relativi a G, σi2

V2 = (Vr+1...Vn) ⟺ Vr+1...Vn

Si può scrivere che G = V•V•∑⟹ oppure definisco la matrice Σ come la

Oλ⊂ autovalori, gli autovalori in modulo e coding → λ

matrice che hanno producendo matrice colonne O, sono multiplicato dentro o subito i valori a diagonale e trasporta sono dalla parte sinistra.

1. G•VV1 = V1 regola S2autov. non nuli

⟹ (AT•A)•vi = σi2•vi

2. G•V2 = V2 ⟹ (AT•A)•Vj = σj2 Vj = ∅

nota Σ é composto ai autovalori di g sotto dato e quelli i autovettori

Filtro Kalman - Single Stage

Considero il seguente vettore di misura

z = (z1, ..., zk)T ∈ ℝk

e supponiamo di voler stimare a partire da z, il vettore di stato x:

x = (x1, ..., xn) ∈ ℝn

  • In generale la misura non coincide con lo stato, perché è sotto-impasto un rumore → V = (v1, ..., vp) ∈ ℝp
  • Nel filtro, almeno x vede rumore (o separo V dallo stato) → si può dire che l'equazione misura/stato è:

z = g(x, v)

Dal teorema stima, sappiamo che: x̂: min E [‖x - x‖2]

Per trovare ciò mi occorre conoscere la PDF condizionata, ovvero f(x|z)

Nota: Non facile da risolvere, ma essendo g(x, v) lineare, applico il filtro di Kalman.

Ipotesi

  1. g(x, v) lineare
  2. x, v gaussiani indipendenti

f(x,v) = f(x) . f(v)

  • Considerando il set di misure z = g(x, v) = Hx + V
  • Dato le ipotesi fatte per x e v, si ha:

µz = Hµx + µ ← V. Medio di z

Cz = HCHT + C ← Mat Covarianza di Z

Ponendo

- µx = x̄

Cx = Po

- Cv = R

si ha :

µz = H . x̄

Cz = H . Po . HT + R

Dettagli
Publisher
A.A. 2021-2022
38 pagine
SSD Ingegneria industriale e dell'informazione ING-INF/01 Elettronica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher alexander88 di informazioni apprese con la frequenza delle lezioni di Sistemi embedded e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università Politecnica delle Marche - Ancona o del prof Turchetti Claudio.