Anteprima
Vedrai una selezione di 5 pagine su 18
Teoria dei Segnali parte 4: Conversione A/D e Teoria della Probabilità Pag. 1 Teoria dei Segnali parte 4: Conversione A/D e Teoria della Probabilità Pag. 2
Anteprima di 5 pagg. su 18.
Scarica il documento per vederlo tutto.
Teoria dei Segnali parte 4: Conversione A/D e Teoria della Probabilità Pag. 6
Anteprima di 5 pagg. su 18.
Scarica il documento per vederlo tutto.
Teoria dei Segnali parte 4: Conversione A/D e Teoria della Probabilità Pag. 11
Anteprima di 5 pagg. su 18.
Scarica il documento per vederlo tutto.
Teoria dei Segnali parte 4: Conversione A/D e Teoria della Probabilità Pag. 16
1 su 18
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

DIMOSTRAZIONE

Il pettine di δ è un segnale periodico di periodo T quindi suscettibile di sviluppo in serie di Fourier:

Allora pongo:

In cui si è applicato la dualità su δ(t) e la traslazione in frequenza. Non resta che X :

n

Questo per la parità del δ(t). Inoltre sempre per Dirac posso eliminare il coseno:

Per cui:

Quindi un pettine di impulsi nel tempo è un pettine di impulsi in frequenza:

Allora si ha:

Per la proprietà distributiva della convoluzione. Per le proprietà di Dirac:

Per cui in fine:

Per cui c’è un legame stretto tra S(f) e S (f). Supponendo per S(f) una forma d’onda qualitativa del tipo:

c

Un ipotetico ricevitore riceve dunque, in frequenza, una sequenza di spettri di s(t) tutti uguali traslati a

cavallo di multipli di 1/T. Si nota subito una proprietà fondamentale della conversione A/D. Per far si che un

ricevitore possa riconoscere un segnale s(t) trasmesso univocamente dalla sua F-trasformata S(f) è

necessario che in S (f) gli spettri siano distanziati abbastanza da impedire la sovrapposizione e sfalsare il

c

contenuto in frequenza di s(t). per permettere ciò è necessario che data w, banda del segnale s(t), o

larghezza spettrale della sua F-trasformata, come indicato nelle figure, la distanza 1/T tra gli spettri sia tale

che:

Condizione nota come criterio di Nyquist. Se questa non è rispettata non è possibile la ricostruzione del

segnale analogico. Partendo da ciò che giunge infatti al ricevitore:

Mi pongo l’intenzione di isolare lo spettro centrale di S (f) adoperando un filtro passa-basso in cascata al

c

ricevitore. La risposta armonica del filtro è la seguente:

Considero il segnale ricostruito s (t), con spettro S (f) ottenuto come:

r r

La risposta armonica del filtro è definibile come:

Per il teorema di dualità. Quindi:

Questa equazione identifica la ricostruzione del segnale analogico s(t) attraverso il segnale campionato

s (t).la sommatoria all’infinito indica che il risultato è puramente teorico e che nella realtà si è costretti a

c

venire in contro a delle approssimazioni. Il campionamento ideale descritto non è fisicamente realizzabile

con la circuitazione ma è possibile, nella pratica, registrare un segnale per un intervallo di durata molto

breve:

Parte di quanto esposto sono noti come teoremi di Nyquist-Shannon. Tratteremo in seguito la

quantizzazione.

Teoria della probabilità

Parallelamente allo studio dei segnali determinati è necessario studiare quei segnali di cui è certa la

presenza in un sistema di trasmissione e ricezione, ma di cui non si ha possibilità di avere una chiara

⊂interpretazione a priori dell’andamento del segnale, non disponendo di un preciso strumento

matematico, ma si ha solo una conoscenza generica dello stesso. Nei confronti di tali segnali, detti aleatori,

è necessario disporre di uno strumento matematico che tratti i processi aleatori, descrivibili come

avvenimenti riferiti ad esperimenti casuali, che prende il nome di teoria della probabilità.

Elementi di probabilità

Un esperimento casuale è una prova pratica che presenta molteplici risultati. Se i risultati sono noti è

possibile associare all’esperimento casuale il suo spazio dei campioni S, costituito dall’insieme di tutti i

possibili risultati. In base al tipo di esperimento il suo spazio S può classificarsi come:

Finito; (numero finito di risultati)

 Infinito numerabile; (risultati infiniti ma indicizzabili)

 Infinito non numerabile; (risultati con cardinalità su un insieme reale)

Un qualunque sottoinsieme di S si dice evento A, con A⊂S. Gli eventi (tutti i possibili sottoinsiemi di S) sono

tali da soddisfare le proprietà:

Se A è un evento, anche il suo complemento Â, è un evento di S;

 Se A e B sono eventi di S, anche A∪B è un evento di S;

 L’intersezione A∩B di due even arbitrari A e B, è un evento di S;

 Per l’evento A, l’evento A∪Â, coincide con S, e costituisce l’evento certo, mentre l’evento A∩ è

 ∅,

l’evento impossibile, rappresentato con dato che non contiene nessun risultato.

Una volta individuato con certezza l’esperimento, lo spazio S, e l’insieme dei suoi possibili sottoinsiemi, o

eventi, resta da associare ad ognuno di questi una legge di probabilità, p(), che associa ad ogni evento la

sua probabile presentazione. La probabilità si può definire dalla teoria assiomatica, che la indica coma una

corrispondenza tra un’evento di S e un numero reale che soddisfa i seguenti assiomi:

La probabilità di un evento arbitrario è non negativa: p(A)≥0;

 La probabilità di un evento certo è unitaria (assioma di normalizzazione): p(S)=1;

 Dati due eventi A e B, se questi sono disgiunti o incompatibili o mutuamente esclusivi (che non

 possono verificarsi in contemporanea), la probabilità dell’evento unione è la somma delle singole

probabilità: A∩B=∅ → p(A∪B)=p(A)+p(B);

Dagli assiomi appena elencati derivano ulteriori proprietà aggiuntive:

Dato un evento A, la probabilità dell’evento  è il complemento a 1 di p(A): p(Â)=1-p(A) ;

 ∅

L’insieme vuoto ha probabilità nulla di verificarsi;

 La probabilità di un evento A non può essere maggiore dell’unità: 0≤p(A)≤1 ;

 Dati due eventi A e B si definisce la probabilità p(A∪B) come: p(A∪B)=p(A)+p(B)-p(A∩B) ;

la probabilità p(A∩B) è anche definita come definita probabilità congiunta tra A e B e si adottano per

quest’ultimo le seguenti notazioni:

p(A∩B)=p(AB)=p(A,B) ;

se due eventi A e B sono indipendenti vale che:

p(A,B)=p(A)p(B);

un’altra probabilità importante è la probabilità condizionata definita come:

Indica la probabilità che l’evento A assume una volta che si è verificato l’evento B.

ESEMPIO

L’esperimento casuale per eccellenza è il lancio del dado non truccato. Lo spazio S è costituito da 6 risultati

6

cui è associata una classe σ degli eventi (collezione di tutti i sottoinsiemi di S) con un totale di 2 eventi

∅.

possibili compresi S e Allora è possibile associare all’esperimento casuale una legge di probabilità su tutti

gli eventi: la probabilità di un singolo evento A noto è definibile come rapporto tra i casi favorevoli di A e il

numero totale dei casi possibili.

La semplicità in questo approccio classico è dato dalla caratteristica simmetria dell’esperimento, ovvero

dall’equiprobabilità di tutti i suoi possibili risultati, infatti per il lancio del dado non truccato:

Teorema delle probabilità totali

Dispongo di un certo spazio S suddiviso in sottoinsiemi tali che:

Sia B un’evento di cui mi interessa p(B). Posso allora scrivere:

Ed essendo eventi evidentemente disgiunti:

Partendo dalla considerazione che:

Ottengo la formula di Bayes:

Teorema di Bernoulli (prove ripetute)

Prendiamo come esempio un esperimento casuale come il lancio di una moneta a due faccie: testa, croce.

Si ottiene lo spazio campionario S: S={T, C} ;

i due eventi sono evidentemente disgiunti. Pongo per semplicità p(T)=p , da cui:

Inoltre suppongo che le varie siano tra loro indipendenti. Siano n lanci di moneta e considero la probabilità

che in n lanci compaia n(T) volte il risultato {T}.

Considero tutte le possibili eventualità:

Per k > 1 subentrano le combinazioni semplici di n elementi a classe k, per cui:

Per il generico k allora:

ESEMPIO

La somma delle probabilità di tutti gli eventi di uno spazio S è sempre 1. Dall’ultimo teorema dimostriamo

che:

Se dal teorema binomiale ho che:

Allora:

Cenni sul canale di comunicazione binario

La trasmissione di valori digitali su canali particolari è formalizzabile con lo schema:

Dove i simboli stanno per:

0 : 0 trasmesso;

 T

1 : 1 trasmesso;

 T

0 : 0 ricevuto;

 R

1 : 1 ricevuto;

 R

i canali di trasmissione binaria ideali non esistono e lo schema sottolinea la possibilità di errore nella

trasmissione. Si progettano quindi sistemi che abbassino quanto più a 0 la probabilità che un bit trasmesso

sia complimentato e giunga tale al ricevitore. Ciò che si studia è quindi la probabilità condizionata di

ricevere un bit se considero la trasmissione di un certo bit. Definiamo l’evento errore E come:

E={bit ricevuto ≠ bit trasmesso} ;

si studia allora: p(E) = p({bit ricevuto ≠ bit trasmesso}) ;

possiamo scrivere:

Supponendo di adoperare un canale simmetrico:

Allora:

Abbiamo quindi identificato la probabilità di commettere errore su un generico bit con p. Ciò si evince

anche dallo schema iniziale. In base all’applicazione per il quale la trasmissione è progettata può accadere

che il valore di p sia troppo elevato. Si progettano dunque sistemi in cui far viaggiare con più sicurezza

l’informazione.

Il dispositivo codificatore di canale protegge le info contenute nel segnale in arrivo dalla sorgente inserendo

dei bit aggiuntivi che controllano l’informazione sulla base di un meccanismo stabilito (algoritmo).

ESEMPIO: CODICE A CONTROLLO DI PARITA’

La sorgente trasmette bit che vengono ricevuti da un codificatore di canale. Questo divide il messaggio

trasmesso in sequenze di n bit. Supponiamo n=3 :

Su ogni sequenza di 3 bit il codificatore esegue un controllo di parità sul bit a 1 (controlla se in ogni

sequenza c’è un numero pari di bit a 1) aggiungendo bit a 1 li dove necessitano:

Le aggiunte dei bit sono indipendenti dagli altri bit. Il decoder non sa cosa si trasmette ma sa solo che

arrivano sequenze con bit a 1 pari ed effettua un controllo in tal senso. Si calcolano allora le probabilità che

le info ricevute siano sbagliate. Si consideri la generica sorgente:

In cui il coder ha già aggiunto i bit di parità. Se l’info arriva al decoder come è trasmessa dal coder vuol dire

che è arrivata priva di errori. Ma supponiamo che il canale sia abbastanza rumoroso da indurre una

sequenza errata:

Ci sono 2 errori nella prima sequenza, 1 sulla terza, 4 sulla quarta. Il decoder con un controllo di parità

rileva i seguenti risultati:

1° sequenza: Corretto; perché i bit a 1 sono pari pur essendoci 2 errori. Si è verificato un errore di

 sistema (E.S.);

2° sequenza: Corretto; non c’è nessun errore;

 3° sequenza: Errore; la complementazione d

Dettagli
Publisher
A.A. 2017-2018
18 pagine
SSD Ingegneria industriale e dell'informazione ING-INF/03 Telecomunicazioni

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher samurai1991 di informazioni apprese con la frequenza delle lezioni di Comunicazioni elettriche e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Politecnico di Bari o del prof Camarda Pietro.