Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
M
R |r
= f (r )[P (r > n )] dr
indipendenti con la stessa probabilità e pdf 1 1 2 1 1
−∞ r r
n |r −
|r |r − > ) = 1 Q( )
P (r > n ) = P (n < r ) = 1 P ( 1 1
2 con
Ma 1
1 2 1 2 1 1 σ σ σ
q
q 2
+∞ 2r
N −1
M
R −
σ = P (c|s ) = )] dr f (r )
f (r )[1 Q(
0 1
quindi la ma è la
1 1 1
1
−∞
2 N 0 √
q N
r E
0
densità della variabile , ed è una gaussiana a varianza e media
1 s
2
pertanto: √ )2
− s
Es
(r 1
−
+∞ 2
Z 2r
e N 0 −1
M
1
√ −
[1 Q( )] dr
P (c|s ) = 1
1 N
πN 0
−∞ 0 r 2Es 2
(x− )
N
0
−
+∞
r −1
e M
R 2 −
x = [1 Q(x)] dx
1 √
ottengo che
con un cambio di variabili N −∞
0 2π
2
Da qui abbiamo che la probabilità di errore è la stessa per ogni generico simbolo
e quindi r 2Es 2
(x− )
N 0
+∞ −
Z e 2 −1
M
√ −
− [1 Q(x)] dx
P (e) = 1 2π
−∞
Per questo sistema ssato il rapporto segnale rumore per simbolo all'aumentare
del numero di segnali la probabilità di errore per bit diminuisce. Ricaviamo la
P (e)
relazione tra P(e) per simbolo e la per bit.
b
P (e)
M
La se sbaglio M bit su k bit, ci saranno k su n bit dierenti che codicano
−1
M P (e) k
M
g(n) =
il simbolo su cui ho commesso errore. il numero medio di bit
−1
M n
sbagliati per simbolo si calcola come
k k k
k P (e) k!
P (e)
M M
X X
X ng(n) = n = n
− − −
M 1 n M 1 n!(n k)!
n=1 n=1 n=1
k k−1
− −
P (e) (k 1)! P (e) (k 1)!
M M
X X
k = k
− − − − − −
M 1 (n 1)!(n k)! M 1 p!(k 1 p)!
n=1 p=0
14
con p=n-1. Per la formula di Newton ottengo che
k−1 k−1
− −
k 1 (k 1)!
X X
k−1 k−1
(1 + 1) = = = 2
− −
n p!(k 1 p)!
n=0 p=0
Il numero medio di bit errati per simbolo è:
P (e)
M k−1
k2
P = (17)
−
M 1
P
La si può approssimare al rapporto n bit errati n bit trasmessi: dato N numero
b P (e)
NP 1 k−1
' M
P (e) = k2 =
totale di simboli, k numero di bit per simbolo. b −1
kN k M
k−1 P (e)
2 ⇒ ' M
P (e) P (e)
ma se M 1 vado con la stessa probabilità su uno
M b
k −1 2
2
qualsiasi degli altri poichè la distanza è la stessa se sbaglio.
12 Probabilità di errore per segnalazioni M-PSK
La P(e) è calcolata con il criterio ML, le regioni di decisione sono i due assi
passanti per il punto medio tra le distanze del punto considerato rispetto al
π
π
∈ , )
P (c|s ) = P (θ (− . Valuto la densità
precedente e il successivo. La 0 r M M
r
del vettore e calcolo la probabilità che la fase appartenga all'intervallo. La
1
f (v, θ) = f (v cos(θ), v sin(θ))
densità congiunta di modulo e fase è ma
V,Θ XY
1
| |
v
√ 2 2
1
−1 − E ) +r
[(r ]
1 s
1
e
f (r) = n , n
2 dove due variabili aleatorie gaussiane a
N 0 1 2
πN
0 N 0
media nulla e varianza .
2 √ √
2 2 2
1 1
−1 −1 −2v
E ) +(v sin(θ)) ] E cos(θ)+E ]
[(v cos(θ)− [v
v
v s s s
e = e
f (v, θ) = .
N N
0 0
V,Θ πN πN
0 0 √
2
1
+∞ +∞ −1 −2v
[v E cos(θ)+E ]
v
R R s s
e
f (θ) = dv
f (v, θ)dv =
Poichè voglio la densità della fase ottengo N 0
Θ V Θ πN
0 0 0
√
+∞ λ
−[ −λ
v 1 +ρ cos(θ) 2ρ ]
R
λ = λe dλ
considerando il cambio di variabili ho che s s
2
q 2π 0
N 0
2
ρ
con è il rapporto segnale rumore per simbolo.
s √ √
2
2 1
λ 2
2 2ρ = ρ sin (θ)+ 2ρ cos(θ)) ]
+ρ cos (θ)+ρ sin (θ)−λ cos(θ) [(λ− con
s s s
s s
2 2 √
sin2
−(ρs +∞
(θ)) 2
−[(λ−
e 2ρ cos(θ)) ]
R
f (θ) = λe dλ
queste considerazioni si ha che: s
Θ 2π 0
π
ma la fase è uniforme in (0,2 ).
π
Z M
P (c|s ) = f (θ)dθ
0 Θ
π
− M
−
P (e|s ) = 1 P (c|s )
con 0 0
(−π, π) ρ = 0
-La fase è uniforme tra quando .
s 1
'
ρ 0 s ) =
-Quando in quel caso la P(c| .
s 0 M
→ ∞ →
ρ P (c|s )
-Se la densità della fase tende ad addensarsi nell'origine, quindi
s 0
→
1P (e|s ) 0
.
0 π
Considero il caso M=2 la dierenza di fase è segnali antipodali in quel caso
q 2E b
Q( ).
N
0
Caso M=4 coppia di segnali antipodali in due componenti in quadratura in
q 2E
2 2
−
− ))
= (1 Q(
P (c) = (1 P (e)) b Ma P(e)=1-P(c)=1-1-
questo caso b N
0
q q q q q
2E 2E 2E 2E 2E
1
2 − '
Q ( ) + 2Q( ) = 2Q( )[1 Q( )] 2Q( )
b b b b b questo
N N N 2 N N
0 0 0 0 0
15 ·
quando il rapporto segnale rumore è sucientemente grande la Q( ) è picco-
q 2E
b )
2Q(
P (e) N
' '
P (e) 0
la. Con la codica di gray si ottiene che la b k k
Nel caso più generale che abbiamo più segnali si cerca con un calcolo approssi-
mato di trovare un bound per trovare limiti superiori e inferiori per prendere
s s
il generico . In questo caso considerando la P(e| ) sarà l'unione di due eventi
i i s , s
quello di trovarci al di sopra della retta passante per il punto medio tra i i+1
s , s
e al di sotto della retta passante per il punto medio tra quando è tra-
i i−1
s
smesso .
i ∪ ≤
P (e|s ) = P (E E ) P (e|s ) P (E ) +
questo coincide anche con la
i i,i+1 i,i−1 i i,i+1
≤
P (E ) P (E ) P (e|s )
poichè non tocco l'intersezione ottengo che . Ot-
i,i−1 i,i+1 i
≤ ≤
P (E ) P (e|s ) 2P (E )
tengo che . Se aumenta il numero di segnali,
i,i+1 i i,i+1
l'intersezione diminuisce e ci avvicineremo al limite superiore. Vogliamo sapere
d )
P (E ) = Q( Il problema è ricavare la distanza d,
quanto vale tale limite: i,i+1 √ 2σ π
E
ma poichè la distanza dall'origine è e l'angolo è quindi la distanza con
s M
√ √ √
E π
d π π
≤ sin(
= E sin( ) P (e|s ) 2Q( ) = 2Q( 2ρ sin( ))
s
l'asse è quindi
s i s
N
2 M M M
0
2
13 Probabilità di errore per segnalazioni M-QAM
Questo modello di segnalazione è bidimensionale, tipicamente le forme d'onda
k
2
sono di tipo QAM rettangolare M= k pari. Ma il generico punto è visto come
√ √
M M
un -PAM, quindi ogni punto è visto come un 2 -PAM. Bisogna denire
due soglie sulle due componenti, che nel caso rettangolare non c'è dipendenza sul
confronto come nel caso non rettangolare. Decido correttamente se appartengo
alla regione. Ma questo è anche il prodotto delle probabilità essendo indipen-
2 2
√ √
−2P
P (c) = (1−P (e)) = 1+P P
√
denti quindi se è ragionevolmente
M
M M
M
2 √
√ ' −
P P 1 2P
P
√
piccolo si ha che pertanto si ottiene quindi che
c
M M
M √ s
√ −
( M 1) 6E k
b,av
−QAM −P
M M AM √
' ' Q(
P 2P 4 ) (18)
e e −
(M 1)(N )
M 0
Ma l'energia media per bit è legata con l'energia media per simbolo da ta-
E
E = av
le relazione pertanto si ha che la probabilità di errore diventa
b,av 2
√ q
−1)
M
( 3E
Q( )
4 av
√ .
−1)(N
(M )
M 0 −QAM
M ≤
P
Ma si ha che nel caso non rettangolare questo è il limite superiore e
q 3E
4Q( )
av .
−1)(N
(M )
0 P
Il legame che c'è tra per simbolo e per bit si ottiene che la con la codica di
e
Gray si ottiene come rapporto tra numero di bit errati su bit trasmessi:
P
N P (e) M
M =
P (e) =
b Nk k
14 Ecienza spettrale e probabilita di errore per
segnalazioni M-PAM s
Per la probabilità di errore trasmettiamo un segnale ricevuto r= +n. Con il
l
criterio ML denisco delle soglie di minima distanza, per identicare le zone di
16
corretta decisione di scelta di un determinato segnale. In totale dati M segna-
li denisco due soglie fondamentali: quelle dei segnali interni e quelle dei due
estremi. , S , S
S la soglia sarà la somma della
Nel primo caso presi tre segnali M M
M −1 +1
2 2 2 d
distanza media tra i due segnali: d, quindi la soglia sarà posta a . Nel secondo
2
∞
caso è la distanza di decisione è con il punto medio del precedente o del
successivo. d
d ,
s . . . ]
La P(e| ) con i=(2, ,M-1) è la probabilità di trovarsi fuori all'intervallo [
i 2 2
N
d d
P (|n| > ) = 2P (n > ) 0
quindi n è una gaussiana con varianza e media
2 2 2
q N
σ = 0 ottengo una gaussiana standard
nulla pertanto ho che dividendo per 2 q 2E
nσ d d p g
2P ( > ) = 2Q( ) d = 2 E 2Q( )
quindi con si ha che .
g
2σ 2σ N
0
La probabilità di un estremo invece è questa considerando quello sinistro ot-
q 2E
d g
P (e|s ) = P (n > ) = Q( )
tengo che dell'estremo destro si ottiene che
1 2 N 0
q 2E
d d g
−
P (