vuoi
o PayPal
tutte le volte che vuoi
BER (bit error rate)
BER = (numero bit errati) / (numero tot. di bit trasmessi)
SER = numero di simboli errati / (numero totale di bit trasmessi simboli)
La BER può essere definito anche come una funzione del rapporto segnali rumore: BER = f(S/N)
BER per un segnale affetto da AWGN
BER = Q((S01 − S02)2/4σ2)
- potenza del segnale
- potenza del rumore
N.B. Questa espressione vale solo se scegliamo una soglia delle ottima. La soglia ottima si trova a metà strada tra le medie delle passionne. (VT)ottimo = (S01 + S02) / 2
OSS: All'aumentare del rapporto potenza segnale-rumore, la BER diminuisce poichè Q(t) è una funzione esponenziale decrescente.
BER di sistemi con LPF (filtro passa basso)
BERLPF = Q((S01 − S02)2/σ2) = Q(2Ed/N0)
BERLPF = Q(√(2Ed/4N0))
BER di sistemi con Matched Filter
BERMF = Q(√(2Ed/4N0)) = Q(√(Ed/2N0))
Per trovare BER dei codici di linea, dobbiamo trovare la pot. associata rumore σ2 in B.B. e in B.P.
BANDA BASE
BANDA PASSANTE
PSD
N0/2
σv2 = N0/2 B = N0B
σv2 = 2N0B
N.B. Passando dalle bande base alle bande passante la pot. del rumore raddoppia.
BER dei codici di linea
Le formule su cui ci baseremo sono 2:
BERlpf = Q
(S(t) - S(t))/(4σv2); BERnf = Q(√Ed/2N0).
BER della unipolare e della polare un banda base
BER unipolare
BERlpf = Q(√NA2/4N0B)
BERlpf Q(√NA2/4N0B)
Oss. Dato che amplitude "A" sono diverse, per confrontare le due BER, dobbiamo esprimere un termine di Eb (Energia media di bit).
Calcolo Ed (Energia di differenza) 'unipolare'
Ed = ∫titf (A - 0)2 dt = A2T
Procedimento di Gram-Schmidt
Iterativo, ovvero le funzioni ortonormali φi(t) vanno calcolate in ordine cronologico; quindi partiamo dalla φ1(t):
φ1(t) = s1(t) / √E1
energia E1 = ∫ s2(t) dt
per semplicità → s12 = NE1
Per calcolare φ2(t) dobbiamo introdurre una funzione di passaggio g1(t)
φ2(t) = g2(t) / √∫Tg22(t) dt
con g2(t) = s2(t) - S21 φ1(t)
E proseguiamo fino all’ultima funzione; in generale per calcolare φi(t)
dove gi(t) = si(t) - ∑j=1i-1 Sij ∙ φj(t)
φi(t) = gi(t) / √∫gi2(t) dt
con φi(t) = Si(t) = [∑ Sij ∙ φj(t)]
"In reazione non so con esattezza cosa ho ricevuto, ma ho una certa probabilità avvero conosco la forma (filtro formatore). L'adatto quindi il ricevitore alla forma del segnale; Porto dunque da una famiglia di segnali si(t) e trovo rispettivi pi(t) utili alla ricezione ottima. Se adatto i φ(t) alla famiglia dei segnali che devo ricevere, riceverò di ricezione diretto (...)
Dimostriamo come la norma è l'energia del segnale: ["..." il segnale] si rappresento sul piano teorico come un vettore, per cui si possono applicare le regole dei vettori:
Ei = ||si∙ei||2 = (si)T ∙ si = ∑j=1N (sij)2
Energia del segnale
Ei = ∫ si2(t) dt =
[∑j=1N Sij(t) ∙ φi(t)]
"Def. di energia"
= ∑j=1N Sij ∙ Sik ∙ ∫T φj(t) ∙ φk(t) dt
= ∑j=1N (Sij)2
essendo basi ortonormali questo termine vale 1 quando j=k, altrimenti vale 0.
Quindi facendo la somma al quadrato ottengo l’energia del segnale.
All’aumento dell’energia del segnale, otteniamo una costellazione (...)
Codifica di Gray (Caso Migliore) (Lower Bound)
I simboli adiacenti si differenziano di un solo bit.
- Le ipotesi sono:
- simboli adiacenti differiscono di un solo bit;
- canale statico a basso tasso d'errore;
- il numero ha energia per scendere soltanto un bit.
Oss. La codifica di Gray risulta essere la migliore perché se sbagliamo un simbolo siamo certi di sbagliare solo un bit.
Assumendo la codifica di Gray risulta essere nel caso migliore di BER e nel lower bound della Prob. di errore.
f(Pe) ≤ BER.
Con Pe: Pe = P (⋃i=1log2 M {bit i-esimo sbagliato})
Ora essendo la Prob. di sbagliare un bit uguale per ogni simbolo possiamo riscrivere come:
- Pe ≤ ∑i=1log2 M P{bit i-esimo sbagliato}
Pe ≤ log2 M ⋅ BER
il volte le prob. di sbagliare un bit.
Pe / log2 M ≤ BER LOWER BOUND
H = 2l