Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Per il valore 1 trasmetto +V per il primo semi-intervallo e -V per il secondo, viceversa per lo 0.
Le transizioni si hanno a metà intervallo e ogni volta che si presentano bit uguali, f0 è sempre recuperabile, ma nell'origine non è presente una delta di Dirac, quindi per il recupero di f0 non è sufficiente un filtro a f0, ma servono soluzioni più sofisticate.
Ortogonalizzazione di Gram-Schmidt
Genero segnali ortonormali partendo da segnali generici:
- S1 e S2 ortogonali se ∫ s1(t)s2(t) dt = 0
- Sono anche ortonormali se Ei = ∫ si2(t) dt = 1
- Si hanno M forme d'onda Sm(t) con 1 ≤ m ≤ M e si costruisce un insieme di N≤M forme d'onda ortonormali, che costituiranno la base, per rappresentare le M precedenti.
- Il primo elemento della base sarà:
ψ1(t) = s1(t)_ √E1 (energy maintain)
- Il secondo elemento si calcola trovando la proiezione di s2(t) su ψ1:
C21 = ∫ s2(t)ψ1(t) dt
È la parte di s2(t) già rappresentata da ψ1(t)
- Si ottiene il segnale d2(t) = s2(t) - c21ψ1(t), che è ortogonale a ψ1, perciò la seconda forma d'onda ortonormale risulta:
ψ2(t) = d2(t)_ √E2
con E2 = ∫ d22(t) dt
E2 = ∫ d22(t)
(ψk(t), k = 1,2, ...)
Generalizzando la procedura:
La procedura va ripetuta per tutti i segnali sm(t).Il numero di N (elementi della base) sarà uguale a M se gli M segnali sm(t) sono linearmente indipendenti, cioè N = M se segnali ortogonali.
Rappresentazione geometrica
Una volta costruito il set di forme d'onda ortogonali (Ψk(t)),gli M segnali possono essere espressi come comb. lineare dellefunzioni della base:
- sm(t) = ∑k=1N smk Ψk(t)
dove smk = ∫ sm(t) Ψk(t) dt (proiezione di sm(t) su Ψk(t))
Em = ∫ sm2(t) dt = ∑k=1N smk2 → Ε= d2
Le proprietà del segnale possono essere ricavate, indifferentemente, dalla conoscenza diretta del segnale o dei parametri della sua rappresentazione.
In un sistema di trasmissione numerico, ciascun segnale sm(t) (detto simbolo) può essere associato alla trasmissione di k = log22M bits.Ciascun simbolo avrà quindi durata T = kTb.
Esempi di spazi N-dimensionali:
N = 1
- M-PAM (Pulse Amplitude Modulation)
Lo spazio è unidimensionale (N = 1), quindi si usa una fune di base:
Ψ1(t) = √1/Eg gT(t) 0 ≤ t ≤ T
dove g(t) funzione generica
(spesso impulso rettangolare) e Eg e gT(t) = √Eg/T
Una possibile distribuzione dei punti (costellazione) può essere:
d = √Ε
Quindi i segnali sm(t) avranno
energie diverse (ampiezze diverse).
Em = sm2 = Eg AM2 con m = ±1, ±3,..., ±M
M = 64
M = 32
MEGLIO TOGLIERE QUESTI PERCHÉ HANNO ENERGIA MAGGIORE.(SI USA NEL CASO DI K = 3 DISPARI (M = 2k))• LA 16 QAM È LA COMBINAZIONE DI 2 ASK, UNA LUNGO IL SENO, UNA LUNGO IL COSENO.• 4 QAM = 4 PSK
MODULATORE QAM:
• SEGNALI BIORTOGONALI E TRANSORTOGONALI
I SEGNALI S' SONO ORTOGONALI NEL TEMPO E SI DICONO SEGNALI PPM (PULSE POSITION MODULATION), IN QUESTO CASO 4-PPM.
HANNO TUTTI E = ATp CON DURATA DELL'IMPULSO = Tm.
s1 = (E,0,0,0) s2 = (0,E,0,0) ... s4= (0,0,0,E)
NEL CASO DI m SEGNALI, LE FUNZIONI DELLA BASE SONO:
dm,m = √(sm - sn)2 = √2E
M-FSK (FREQUENCY SHIFT KEYING)
SI POSSONO OTTENERE SEGNALI ORTOGONALI ANCHE IN FREQUENZA; PER M = 2:
u1(t) = √(2E/T) cos 2πf1t, 0 ≤ t ≤ T
u2(t) = √(2E/T) cos 2πf2t, 0 ≤ t ≤ T
2 FUNZIONI OSCILLANTI A FREQUENZA DIVERSA (f1, f2)
IL PROBLEMA È LA SCELTA DEL VALORE Δf = f2 - f1
SI PUÒ CALCOLARE IL COEFFICIENTE DI CROSS-CORRELAZIONE:
Tuu1(t)u2(t)dt = Eb
VALORE IDEALE = 1
- RAPPORTO S/N IN USCITA:
o
La |H(f)| attenua di piu' le frequenze gia' attenuate in |S(f)|, quindi e' una funzione che abbatte il rumore dove il segnale e' piu' debole.
DECISORE
Il decisore non conosce il segnale ricevuto, quindi sceglie il segnale che massimizza la probabilita' (P(sm)) a priori. In realta' il decisore riceve r, quindi trova la probabilita' condizionata a posteriori:
Maximizzare la Pr{sm|r} corrisponde a massimizzare f{r|sm}Pr{sm}
(whitenoise)
(criterio MAP (Max a posteriori probability))
- Se i simboli sono equiprobabili Pr{sm}=1, quindi bisogna massimizzare solo f(r|sm) → criterio ML (Maximum Likelihood):
Basta minimizzare D(r,sm) (Distanza Euclidea minima)
Il decisore trova il vettore sm che minimizza il termine verde; se i segnali hanno stessa energia considero solo il termine rosso.
RICEVITORE A CORRELATORE ASK-PAM
ϕ(t) generata localmente: il generatore di impulsi si attiva ogni T secondi (clock) e sceglie le finestre di coseno dell'oscillatore per formare ϕ(t)
PROBABILITÀ DI ERRORE M-PAM e M-ASK
sm = √Eg AmAm = (2m-1-M)Eb, m = sm2 = Eg Am2Eb, ave = Es, ave / log2 M
Es, ave = M - 1 / 3PM = 2(M - 1) / M erfc √(3 log2 M / (M2 - 1)) Pd, ave
PROBABILITÀ DI ERRORE - OOK
d12 = √EbPb = 1/2 erfc d122 / 4N0 = 1/2 erfc √Eb / 4N0
Eb, ave = Eb / 2Pb = 1/2 erfc √Eh, ave / 2N0
PROBABILITÀ DI ERRORE M-PSK
PM ≈ 2Q (2 log2 M ⋅ sin2 π / M ⋅ Pb)Pb = Eb / N0
dove p è la probabilità di transizione errata del singolo simbolo binario
Il complemento a 1 fornisce la probabilità d'errore, per cui si avrà:
Ciò che interessa determinare è il numero di bit di informazione che vengono ricevuti non correttamente dal destinatario (pur con la protezione del codice) rispetto al numero totale di bit inviati dalla sorgente
Sulla base della descrizione sin qui fornita, sembrerebbe che l’aggiunta del codice non possa che produrre benefici: mentre in assenza del codice sarebbero ricevute correttamente le sole sequenze prive di errori, in presenza del codice sono rivelabili correttamente anche sequenze contenenti un numero prefissato di errori.
Come si è detto, i simboli di ridondanza (in numero di r) vengono aggiunti a quelli significativi (in numero di k), e non possono modificare la quantità di informazione trasmessa per unità di tempo. Quest’ultima, peraltro, e in molti casi imposta dal teorema del campionamento che fa sì che quando un segnale numerico è ottenuto a partire da un segnale analogico, la frequenza di cifra Fc in assenza di codice non possa essere minore di 2B, essendo B la massima frequenza del segnale campionato. Di conseguenza, quando ai k simboli di informazione a frequenza Fc vengono aggiunti i simboli di ridondanza, non vi è alternativa a che la durata dei simboli sia ridotta o, il che è lo stesso, la frequenza di simbolo nella trasmissione del codice sia aumentata a:
Aumentando la frequenza di simbolo, la larghezza di banda del canale e dei dispositivi che in ricezione processano il segnale deve essere aumentata (dello stesso fattore di cui è incrementata la frequenza di cifra) e corrispondentemente aumentata sarà l’entità di tutti quei contributi di disturbo, primo fra tutti il rumore termico, la cui potenza è proporzionale alla banda. Se dunque, in assenza di
codifica, la potenza di rumore poteva essere stimata sulla base dell’espressione
in presenza di codifica si dovrà porre:
Il fattore n/k è un parametro caratteristico e prende il nome di espansione di banda dovuta al codice; al di là dell’effetto sulle prestazioni è evidente che occorre prevedere la disponibilità di una maggiore occupazione spettrale per la trasmissione e l’elaborazione del segnale.
Il suo inverso, k/n, prende il nome di "rate" del codice. A parità di capacità di correzione sono evidentemente preferibili i codici che presentano il massimo rate (minima espansione di banda). Per un dato rate, le capacità correttive aumentano al crescere di k e n; corrispondentemente, però, la “complessità” del codice aumenta a sua volta.
Quindi a parità di potenza S trasmessa, il rapporto segnale-rumore in presenza di codifica peggiora, passando da S/N a:
E’ opportuno osservare che la probabilità di transizione errata sul canale viene spesso espressa in funzione del rapporto tra l’energia del segnale utile e la densità spettrale di potenza (unilaterale) del rumore termico No = KT. È’ pertanto evidente che l’analisi sopra svolta non cambia: in conseguenza dell’applicazione della codifica, infatti, anche tale rapporto peggiora, passando da Eb/No (con Eb = energia media per bit) a Ec/No = (k/n)Eb/No (con Ec = energia media per cifra binaria nella sequenza codificata).
Si hanno dunque due effetti nettamente contrapposti: da una parte, la capacità del codice di correggere gli errori; dall’altra, l’aumento del livello di disturbo termico ai diversi stadi del sistema ricevente. L’esito di questa contrapposizione non è per nulla scontato e, al limite esistono situazioni per cui, per ogni codice, vi saranno situazioni per cui l’effetto positivo è almeno quello negativo, e situazioni in cui si verifica il contrario.