Anteprima
Vedrai una selezione di 7 pagine su 26
Trasmissione Numerica – Test Pag. 1 Trasmissione Numerica – Test Pag. 2
Anteprima di 7 pagg. su 26.
Scarica il documento per vederlo tutto.
Trasmissione Numerica – Test Pag. 6
Anteprima di 7 pagg. su 26.
Scarica il documento per vederlo tutto.
Trasmissione Numerica – Test Pag. 11
Anteprima di 7 pagg. su 26.
Scarica il documento per vederlo tutto.
Trasmissione Numerica – Test Pag. 16
Anteprima di 7 pagg. su 26.
Scarica il documento per vederlo tutto.
Trasmissione Numerica – Test Pag. 21
Anteprima di 7 pagg. su 26.
Scarica il documento per vederlo tutto.
Trasmissione Numerica – Test Pag. 26
1 su 26
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

M

R |r

= f (r )[P (r > n )] dr

indipendenti con la stessa probabilità e pdf 1 1 2 1 1

−∞ r r

n |r −

|r |r − > ) = 1 Q( )

P (r > n ) = P (n < r ) = 1 P ( 1 1

2 con

Ma 1

1 2 1 2 1 1 σ σ σ

q

q 2

+∞ 2r

N −1

M

R −

σ = P (c|s ) = )] dr f (r )

f (r )[1 Q(

0 1

quindi la ma è la

1 1 1

1

−∞

2 N 0 √

q N

r E

0

densità della variabile , ed è una gaussiana a varianza e media

1 s

2

pertanto: √ )2

− s

Es

(r 1

+∞ 2

Z 2r

e N 0 −1

M

1

√ −

[1 Q( )] dr

P (c|s ) = 1

1 N

πN 0

−∞ 0 r 2Es 2

(x− )

N

0

+∞

r −1

e M

R 2 −

x = [1 Q(x)] dx

1 √

ottengo che

con un cambio di variabili N −∞

0 2π

2

Da qui abbiamo che la probabilità di errore è la stessa per ogni generico simbolo

e quindi r 2Es 2

(x− )

N 0

+∞ −

Z e 2 −1

M

√ −

− [1 Q(x)] dx

P (e) = 1 2π

−∞

Per questo sistema ssato il rapporto segnale rumore per simbolo all'aumentare

del numero di segnali la probabilità di errore per bit diminuisce. Ricaviamo la

P (e)

relazione tra P(e) per simbolo e la per bit.

b

P (e)

M

La se sbaglio M bit su k bit, ci saranno k su n bit dierenti che codicano

−1

M P (e) k

M

g(n) =

il simbolo su cui ho commesso errore. il numero medio di bit

−1

M n

sbagliati per simbolo si calcola come

k k k

k P (e) k!

P (e)

M M

X X

X ng(n) = n = n

− − −

M 1 n M 1 n!(n k)!

n=1 n=1 n=1

k k−1

− −

P (e) (k 1)! P (e) (k 1)!

M M

X X

k = k

− − − − − −

M 1 (n 1)!(n k)! M 1 p!(k 1 p)!

n=1 p=0

14

con p=n-1. Per la formula di Newton ottengo che

k−1 k−1

− −

k 1 (k 1)!

X X

k−1 k−1

(1 + 1) = = = 2

− −

n p!(k 1 p)!

n=0 p=0

Il numero medio di bit errati per simbolo è:

P (e)

M k−1

k2

P = (17)

M 1

P

La si può approssimare al rapporto n bit errati n bit trasmessi: dato N numero

b P (e)

NP 1 k−1

' M

P (e) = k2 =

totale di simboli, k numero di bit per simbolo. b −1

kN k M

k−1 P (e)

2 ⇒ ' M

P (e) P (e)

ma se M 1 vado con la stessa probabilità su uno

M b

k −1 2

2

qualsiasi degli altri poichè la distanza è la stessa se sbaglio.

12 Probabilità di errore per segnalazioni M-PSK

La P(e) è calcolata con il criterio ML, le regioni di decisione sono i due assi

passanti per il punto medio tra le distanze del punto considerato rispetto al

π

π

∈ , )

P (c|s ) = P (θ (− . Valuto la densità

precedente e il successivo. La 0 r M M

r

del vettore e calcolo la probabilità che la fase appartenga all'intervallo. La

1

f (v, θ) = f (v cos(θ), v sin(θ))

densità congiunta di modulo e fase è ma

V,Θ XY

1

| |

v

√ 2 2

1

−1 − E ) +r

[(r ]

1 s

1

e

f (r) = n , n

2 dove due variabili aleatorie gaussiane a

N 0 1 2

πN

0 N 0

media nulla e varianza .

2 √ √

2 2 2

1 1

−1 −1 −2v

E ) +(v sin(θ)) ] E cos(θ)+E ]

[(v cos(θ)− [v

v

v s s s

e = e

f (v, θ) = .

N N

0 0

V,Θ πN πN

0 0 √

2

1

+∞ +∞ −1 −2v

[v E cos(θ)+E ]

v

R R s s

e

f (θ) = dv

f (v, θ)dv =

Poichè voglio la densità della fase ottengo N 0

Θ V Θ πN

0 0 0

+∞ λ

−[ −λ

v 1 +ρ cos(θ) 2ρ ]

R

λ = λe dλ

considerando il cambio di variabili ho che s s

2

q 2π 0

N 0

2

ρ

con è il rapporto segnale rumore per simbolo.

s √ √

2

2 1

λ 2

2 2ρ = ρ sin (θ)+ 2ρ cos(θ)) ]

+ρ cos (θ)+ρ sin (θ)−λ cos(θ) [(λ− con

s s s

s s

2 2 √

sin2

−(ρs +∞

(θ)) 2

−[(λ−

e 2ρ cos(θ)) ]

R

f (θ) = λe dλ

queste considerazioni si ha che: s

Θ 2π 0

π

ma la fase è uniforme in (0,2 ).

π

Z M

P (c|s ) = f (θ)dθ

0 Θ

π

− M

P (e|s ) = 1 P (c|s )

con 0 0

(−π, π) ρ = 0

-La fase è uniforme tra quando .

s 1

'

ρ 0 s ) =

-Quando in quel caso la P(c| .

s 0 M

→ ∞ →

ρ P (c|s )

-Se la densità della fase tende ad addensarsi nell'origine, quindi

s 0

1P (e|s ) 0

.

0 π

Considero il caso M=2 la dierenza di fase è segnali antipodali in quel caso

q 2E b

Q( ).

N

0

Caso M=4 coppia di segnali antipodali in due componenti in quadratura in

q 2E

2 2

− ))

= (1 Q(

P (c) = (1 P (e)) b Ma P(e)=1-P(c)=1-1-

questo caso b N

0

q q q q q

2E 2E 2E 2E 2E

1

2 − '

Q ( ) + 2Q( ) = 2Q( )[1 Q( )] 2Q( )

b b b b b questo

N N N 2 N N

0 0 0 0 0

15 ·

quando il rapporto segnale rumore è sucientemente grande la Q( ) è picco-

q 2E

b )

2Q(

P (e) N

' '

P (e) 0

la. Con la codica di gray si ottiene che la b k k

Nel caso più generale che abbiamo più segnali si cerca con un calcolo approssi-

mato di trovare un bound per trovare limiti superiori e inferiori per prendere

s s

il generico . In questo caso considerando la P(e| ) sarà l'unione di due eventi

i i s , s

quello di trovarci al di sopra della retta passante per il punto medio tra i i+1

s , s

e al di sotto della retta passante per il punto medio tra quando è tra-

i i−1

s

smesso .

i ∪ ≤

P (e|s ) = P (E E ) P (e|s ) P (E ) +

questo coincide anche con la

i i,i+1 i,i−1 i i,i+1

P (E ) P (E ) P (e|s )

poichè non tocco l'intersezione ottengo che . Ot-

i,i−1 i,i+1 i

≤ ≤

P (E ) P (e|s ) 2P (E )

tengo che . Se aumenta il numero di segnali,

i,i+1 i i,i+1

l'intersezione diminuisce e ci avvicineremo al limite superiore. Vogliamo sapere

d )

P (E ) = Q( Il problema è ricavare la distanza d,

quanto vale tale limite: i,i+1 √ 2σ π

E

ma poichè la distanza dall'origine è e l'angolo è quindi la distanza con

s M

√ √ √

E π

d π π

≤ sin(

= E sin( ) P (e|s ) 2Q( ) = 2Q( 2ρ sin( ))

s

l'asse è quindi

s i s

N

2 M M M

0

2

13 Probabilità di errore per segnalazioni M-QAM

Questo modello di segnalazione è bidimensionale, tipicamente le forme d'onda

k

2

sono di tipo QAM rettangolare M= k pari. Ma il generico punto è visto come

√ √

M M

un -PAM, quindi ogni punto è visto come un 2 -PAM. Bisogna denire

due soglie sulle due componenti, che nel caso rettangolare non c'è dipendenza sul

confronto come nel caso non rettangolare. Decido correttamente se appartengo

alla regione. Ma questo è anche il prodotto delle probabilità essendo indipen-

2 2

√ √

−2P

P (c) = (1−P (e)) = 1+P P

denti quindi se è ragionevolmente

M

M M

M

2 √

√ ' −

P P 1 2P

P

piccolo si ha che pertanto si ottiene quindi che

c

M M

M √ s

√ −

( M 1) 6E k

b,av

−QAM −P

M M AM √

' ' Q(

P 2P 4 ) (18)

e e −

(M 1)(N )

M 0

Ma l'energia media per bit è legata con l'energia media per simbolo da ta-

E

E = av

le relazione pertanto si ha che la probabilità di errore diventa

b,av 2

√ q

−1)

M

( 3E

Q( )

4 av

√ .

−1)(N

(M )

M 0 −QAM

M ≤

P

Ma si ha che nel caso non rettangolare questo è il limite superiore e

q 3E

4Q( )

av .

−1)(N

(M )

0 P

Il legame che c'è tra per simbolo e per bit si ottiene che la con la codica di

e

Gray si ottiene come rapporto tra numero di bit errati su bit trasmessi:

P

N P (e) M

M =

P (e) =

b Nk k

14 Ecienza spettrale e probabilita di errore per

segnalazioni M-PAM s

Per la probabilità di errore trasmettiamo un segnale ricevuto r= +n. Con il

l

criterio ML denisco delle soglie di minima distanza, per identicare le zone di

16

corretta decisione di scelta di un determinato segnale. In totale dati M segna-

li denisco due soglie fondamentali: quelle dei segnali interni e quelle dei due

estremi. , S , S

S la soglia sarà la somma della

Nel primo caso presi tre segnali M M

M −1 +1

2 2 2 d

distanza media tra i due segnali: d, quindi la soglia sarà posta a . Nel secondo

2

caso è la distanza di decisione è con il punto medio del precedente o del

successivo. d

d ,

s . . . ]

La P(e| ) con i=(2, ,M-1) è la probabilità di trovarsi fuori all'intervallo [

i 2 2

N

d d

P (|n| > ) = 2P (n > ) 0

quindi n è una gaussiana con varianza e media

2 2 2

q N

σ = 0 ottengo una gaussiana standard

nulla pertanto ho che dividendo per 2 q 2E

nσ d d p g

2P ( > ) = 2Q( ) d = 2 E 2Q( )

quindi con si ha che .

g

2σ 2σ N

0

La probabilità di un estremo invece è questa considerando quello sinistro ot-

q 2E

d g

P (e|s ) = P (n > ) = Q( )

tengo che dell'estremo destro si ottiene che

1 2 N 0

q 2E

d d g

P (

Dettagli
Publisher
A.A. 2011-2012
26 pagine
SSD Ingegneria industriale e dell'informazione ING-INF/05 Sistemi di elaborazione delle informazioni

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher flaviael di informazioni apprese con la frequenza delle lezioni di Trasmissione Numerica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli studi di Napoli Federico II o del prof Mattera Davide.