Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Quantizzazione
Affinché una grandezza (fisica) sia trasmissibile e codificabile con un numero finito di bit (ovvero in forma numerica) è necessario che essa possa assumere solo un numero finito di valori di codominio discreti. Ciò avviene attraverso un processo detto quantizzazione.
Xints(nTs) Xq(nTs) Xq(nTs) = Q(Xints)
agisce in modo istantaneo, per sùl segnale
prende i valori del range e
e li mappa nello stesso valore costante Qi
→ questa è la quantizzazione
→ è distorcente, introduce rumore
Tutti i valori dell'asse reale sono mappati nel set di valori
Chiaramente conviene che Vj ≤ Qj ≤ Vj+1
Vqk ≤ Qik ≤ Vqk+2
ecc...
L = # livelli che conviene prendere pari ad una potenza di 2
L = 2b := numero di livelli
b = log2L := num. di bit che uso nel quantizzatore
QUANTIZZATORE (NORMALE)
000
001
010
011
100
111
SATURAZIONE
RAPPRESENTAZIONE BINARIA (BITMAP)
V0 = -∞
V1
V2
V3
V4
V5
V6 = +∞
SATURAZIONE
SCHEMA A BLOCCHI COMPLESSIVO (a lato della sorgente)
- X(t)
- Xa(nTs)
- Q
- BITMAP
segnale analogico
INVERTIBILE
NON INVERTIBILE
INVERTIBILE
- uscita bn
- rappresentazione dei livelli con una terna di bit
escono solo valori presi tra 8 (nel caso sopra) possibili
non perfetta per colpa del quantizzatore
Cosa comporta la quantizzazione?
Alcuni valori d'ingresso danno lo stesso valore d'uscita. Possibili casi di saturazione
un modo di rappresentare il tutto è questo:
a(nTs) → Q → aq(nTs)
→ a(nTs) →+
eq(nTs)
errore di quantizzazione
a(nTs) = aq(nTs) - eq(nTs)
Errore di quantizzazione nel quantizzatore uniforme mid-rise
[Vedi schema di rappresentazione di eq]
- Psm = 0
- Ieq = Δ/2 | suppongo di essere in queste condizioni:
Suppongo che:
- eq è una variabile aleatoria
- eq incorrelata con a
- I campioni di eq sono incorrelati tra loro (rumore bianco). Cioè:
E{ a(nTs) eq(nTs) } = 0 (2)
E{ eq(nTs) } = 0 - valore medio 0
E{ eq(nTs) eq(mTs) } = 0 (3) se n ≠ m
Non così distanti dalla realtà: basta cambiare di poco A ed eq cambia di molto
- eq ha distribuzione uniforme in [Δ/2, Δ/2]
Peq(x)
1/Δ
x
in realtà è un processo: stocastico a tempo discreto il valore per uno specifico tempo è una v.a
Peq = 1/Δ rect( X )/Δ
voglio ora capire se è più forte il mio segnale A o il mio rumore eq.
Se a(nTs) è una v.a. a media nulla ed eq(nTs) anche, confrontiamo le loro potenze statistiche Ma e Meq (siccome sono due v.a. a media nulla la potenza = varianza). Ma = σa2 caratteristica del segnale
Notare come se invece di 2 prendessi un'altra base del logaritmo avrei avuto il valore di quantificazione dell'informazione scalato di una certa grandezza.
Quindi se voglio misurare l'informazione usando un'altra base dei logaritmi, ho una misura identica cambiando unità di misura con fattore di scambio 1/log2b. Se mai capitasse di leggere l'informazione misurata in NAT invece che in bit vuol dire che è stata usata come base il numero e.
Normalmente associamo il bit al valore di una variabile binaria. Supponiamo di avere:
A := variabile binaria equiprobabile con A = {1, 2} P(a) = P(b) = 1/2
i(A = 1) = log2 (1/P(a)) = 1 bit = i(a = 2)
Esempio.
P(coppe) = P(bastoni) = ... = 1/4 -> i(coppe) = 2 bit Ma proprio con 2 bit posso descrivere tutti i semi: 00 coppe 01 bastoni 10 spade 11 denari
Può sorgere il dubbio: bit come unità di misura dell'informazione? oppure bit come simbolo binario?
- iY(a,b) = iX(a) => se sono == le probabilità sono uguali anche le informazioni)
E [iA(a,b)] = E [iX(a)] => anche i valori attesi
H (X,Y) = H (X)
- Se Y non è f (X) con prob. 1 significa che ∀ a,b con a ∈ AX e b ∈ AY
0 ≤ PY(a,b) ≤ PX(a)
∃ caso dove le disuguaglianze sono strette. In questi casi:
- iY(a,b) > iX(a) perché i è funzione decrescente della probabilità
In tutti gli altri casi:
- iY(a,b) ≥ iX(a) e quindi passo alle entropie
→ H (X,Y) > H (X)
SENSO FISICO:
Se ogni volta che conosco X conosco automaticamente Y => conoscere la X mi dà la stessa informazione (mediamente) di conoscere (X,Y)
Osservazione: X e Y si possono scambiare nel Teorema
SORGENTE
Caratterizzata da
Tasso di simbolo Fs = 1/Ts
può essere intesa come
- la frequenza con cui la mia sorgente emette simboli digitali; (perché è una sorgente digitale)
- la sorgente è analogica, ma io la campiono con T=Ts e questa mi genera un campione ogni Ts=Ts.
Se, la sorgente emettesse simboli indipendenti ed equiprobabili allora potrei dire che la sorgente emette un FLUSSO DI INFORMAZIONE [bit/s]
Ro = Fs · log2(M) NOMINALE
ma dato che generalmente Hs(x) = log2(M)
Rx = Fs · Hs(x) REALE
EFFICIENZA (DI UNA SORGENTE)
mx = Hs(x)/log2(M) valore vero/massimo valorediviso
RIDONDANZA (DI UNA SORGENTE)
È data da 1 - mx
In tutti i protocolli di comunicazione è necessario scambiarsi info di controllo.
Il controllo è ridondanza, una cosa in più nel senso che non è il messaggio.
È una cosa in più nel senso che meno ne ho e meglio sto usando il mio