vuoi
o PayPal
tutte le volte che vuoi
DIMOSTRAZIONE
Il pettine di δ è un segnale periodico di periodo T quindi suscettibile di sviluppo in serie di Fourier:
Allora pongo:
In cui si è applicato la dualità su δ(t) e la traslazione in frequenza. Non resta che X :
n
Questo per la parità del δ(t). Inoltre sempre per Dirac posso eliminare il coseno:
Per cui:
Quindi un pettine di impulsi nel tempo è un pettine di impulsi in frequenza:
Allora si ha:
Per la proprietà distributiva della convoluzione. Per le proprietà di Dirac:
Per cui in fine:
Per cui c’è un legame stretto tra S(f) e S (f). Supponendo per S(f) una forma d’onda qualitativa del tipo:
c
Un ipotetico ricevitore riceve dunque, in frequenza, una sequenza di spettri di s(t) tutti uguali traslati a
cavallo di multipli di 1/T. Si nota subito una proprietà fondamentale della conversione A/D. Per far si che un
ricevitore possa riconoscere un segnale s(t) trasmesso univocamente dalla sua F-trasformata S(f) è
necessario che in S (f) gli spettri siano distanziati abbastanza da impedire la sovrapposizione e sfalsare il
c
contenuto in frequenza di s(t). per permettere ciò è necessario che data w, banda del segnale s(t), o
larghezza spettrale della sua F-trasformata, come indicato nelle figure, la distanza 1/T tra gli spettri sia tale
che:
Condizione nota come criterio di Nyquist. Se questa non è rispettata non è possibile la ricostruzione del
segnale analogico. Partendo da ciò che giunge infatti al ricevitore:
Mi pongo l’intenzione di isolare lo spettro centrale di S (f) adoperando un filtro passa-basso in cascata al
c
ricevitore. La risposta armonica del filtro è la seguente:
Considero il segnale ricostruito s (t), con spettro S (f) ottenuto come:
r r
La risposta armonica del filtro è definibile come:
Per il teorema di dualità. Quindi:
Questa equazione identifica la ricostruzione del segnale analogico s(t) attraverso il segnale campionato
s (t).la sommatoria all’infinito indica che il risultato è puramente teorico e che nella realtà si è costretti a
c
venire in contro a delle approssimazioni. Il campionamento ideale descritto non è fisicamente realizzabile
con la circuitazione ma è possibile, nella pratica, registrare un segnale per un intervallo di durata molto
breve:
Parte di quanto esposto sono noti come teoremi di Nyquist-Shannon. Tratteremo in seguito la
quantizzazione.
Teoria della probabilità
Parallelamente allo studio dei segnali determinati è necessario studiare quei segnali di cui è certa la
presenza in un sistema di trasmissione e ricezione, ma di cui non si ha possibilità di avere una chiara
⊂interpretazione a priori dell’andamento del segnale, non disponendo di un preciso strumento
matematico, ma si ha solo una conoscenza generica dello stesso. Nei confronti di tali segnali, detti aleatori,
è necessario disporre di uno strumento matematico che tratti i processi aleatori, descrivibili come
avvenimenti riferiti ad esperimenti casuali, che prende il nome di teoria della probabilità.
Elementi di probabilità
Un esperimento casuale è una prova pratica che presenta molteplici risultati. Se i risultati sono noti è
possibile associare all’esperimento casuale il suo spazio dei campioni S, costituito dall’insieme di tutti i
possibili risultati. In base al tipo di esperimento il suo spazio S può classificarsi come:
Finito; (numero finito di risultati)
Infinito numerabile; (risultati infiniti ma indicizzabili)
Infinito non numerabile; (risultati con cardinalità su un insieme reale)
Un qualunque sottoinsieme di S si dice evento A, con A⊂S. Gli eventi (tutti i possibili sottoinsiemi di S) sono
tali da soddisfare le proprietà:
Se A è un evento, anche il suo complemento Â, è un evento di S;
Se A e B sono eventi di S, anche A∪B è un evento di S;
L’intersezione A∩B di due even arbitrari A e B, è un evento di S;
Per l’evento A, l’evento A∪Â, coincide con S, e costituisce l’evento certo, mentre l’evento A∩ è
∅,
l’evento impossibile, rappresentato con dato che non contiene nessun risultato.
Una volta individuato con certezza l’esperimento, lo spazio S, e l’insieme dei suoi possibili sottoinsiemi, o
eventi, resta da associare ad ognuno di questi una legge di probabilità, p(), che associa ad ogni evento la
sua probabile presentazione. La probabilità si può definire dalla teoria assiomatica, che la indica coma una
corrispondenza tra un’evento di S e un numero reale che soddisfa i seguenti assiomi:
La probabilità di un evento arbitrario è non negativa: p(A)≥0;
La probabilità di un evento certo è unitaria (assioma di normalizzazione): p(S)=1;
Dati due eventi A e B, se questi sono disgiunti o incompatibili o mutuamente esclusivi (che non
possono verificarsi in contemporanea), la probabilità dell’evento unione è la somma delle singole
probabilità: A∩B=∅ → p(A∪B)=p(A)+p(B);
Dagli assiomi appena elencati derivano ulteriori proprietà aggiuntive:
Dato un evento A, la probabilità dell’evento  è il complemento a 1 di p(A): p(Â)=1-p(A) ;
∅
L’insieme vuoto ha probabilità nulla di verificarsi;
La probabilità di un evento A non può essere maggiore dell’unità: 0≤p(A)≤1 ;
Dati due eventi A e B si definisce la probabilità p(A∪B) come: p(A∪B)=p(A)+p(B)-p(A∩B) ;
la probabilità p(A∩B) è anche definita come definita probabilità congiunta tra A e B e si adottano per
quest’ultimo le seguenti notazioni:
p(A∩B)=p(AB)=p(A,B) ;
se due eventi A e B sono indipendenti vale che:
p(A,B)=p(A)p(B);
un’altra probabilità importante è la probabilità condizionata definita come:
Indica la probabilità che l’evento A assume una volta che si è verificato l’evento B.
ESEMPIO
L’esperimento casuale per eccellenza è il lancio del dado non truccato. Lo spazio S è costituito da 6 risultati
6
cui è associata una classe σ degli eventi (collezione di tutti i sottoinsiemi di S) con un totale di 2 eventi
∅.
possibili compresi S e Allora è possibile associare all’esperimento casuale una legge di probabilità su tutti
gli eventi: la probabilità di un singolo evento A noto è definibile come rapporto tra i casi favorevoli di A e il
numero totale dei casi possibili.
La semplicità in questo approccio classico è dato dalla caratteristica simmetria dell’esperimento, ovvero
dall’equiprobabilità di tutti i suoi possibili risultati, infatti per il lancio del dado non truccato:
Teorema delle probabilità totali
Dispongo di un certo spazio S suddiviso in sottoinsiemi tali che:
Sia B un’evento di cui mi interessa p(B). Posso allora scrivere:
Ed essendo eventi evidentemente disgiunti:
Partendo dalla considerazione che:
Ottengo la formula di Bayes:
Teorema di Bernoulli (prove ripetute)
Prendiamo come esempio un esperimento casuale come il lancio di una moneta a due faccie: testa, croce.
Si ottiene lo spazio campionario S: S={T, C} ;
i due eventi sono evidentemente disgiunti. Pongo per semplicità p(T)=p , da cui:
Inoltre suppongo che le varie siano tra loro indipendenti. Siano n lanci di moneta e considero la probabilità
che in n lanci compaia n(T) volte il risultato {T}.
Considero tutte le possibili eventualità:
Per k > 1 subentrano le combinazioni semplici di n elementi a classe k, per cui:
Per il generico k allora:
ESEMPIO
La somma delle probabilità di tutti gli eventi di uno spazio S è sempre 1. Dall’ultimo teorema dimostriamo
che:
Se dal teorema binomiale ho che:
Allora:
Cenni sul canale di comunicazione binario
La trasmissione di valori digitali su canali particolari è formalizzabile con lo schema:
Dove i simboli stanno per:
0 : 0 trasmesso;
T
1 : 1 trasmesso;
T
0 : 0 ricevuto;
R
1 : 1 ricevuto;
R
i canali di trasmissione binaria ideali non esistono e lo schema sottolinea la possibilità di errore nella
trasmissione. Si progettano quindi sistemi che abbassino quanto più a 0 la probabilità che un bit trasmesso
sia complimentato e giunga tale al ricevitore. Ciò che si studia è quindi la probabilità condizionata di
ricevere un bit se considero la trasmissione di un certo bit. Definiamo l’evento errore E come:
E={bit ricevuto ≠ bit trasmesso} ;
si studia allora: p(E) = p({bit ricevuto ≠ bit trasmesso}) ;
possiamo scrivere:
Supponendo di adoperare un canale simmetrico:
Allora:
Abbiamo quindi identificato la probabilità di commettere errore su un generico bit con p. Ciò si evince
anche dallo schema iniziale. In base all’applicazione per il quale la trasmissione è progettata può accadere
che il valore di p sia troppo elevato. Si progettano dunque sistemi in cui far viaggiare con più sicurezza
l’informazione.
Il dispositivo codificatore di canale protegge le info contenute nel segnale in arrivo dalla sorgente inserendo
dei bit aggiuntivi che controllano l’informazione sulla base di un meccanismo stabilito (algoritmo).
ESEMPIO: CODICE A CONTROLLO DI PARITA’
La sorgente trasmette bit che vengono ricevuti da un codificatore di canale. Questo divide il messaggio
trasmesso in sequenze di n bit. Supponiamo n=3 :
Su ogni sequenza di 3 bit il codificatore esegue un controllo di parità sul bit a 1 (controlla se in ogni
sequenza c’è un numero pari di bit a 1) aggiungendo bit a 1 li dove necessitano:
Le aggiunte dei bit sono indipendenti dagli altri bit. Il decoder non sa cosa si trasmette ma sa solo che
arrivano sequenze con bit a 1 pari ed effettua un controllo in tal senso. Si calcolano allora le probabilità che
le info ricevute siano sbagliate. Si consideri la generica sorgente:
In cui il coder ha già aggiunto i bit di parità. Se l’info arriva al decoder come è trasmessa dal coder vuol dire
che è arrivata priva di errori. Ma supponiamo che il canale sia abbastanza rumoroso da indurre una
sequenza errata:
Ci sono 2 errori nella prima sequenza, 1 sulla terza, 4 sulla quarta. Il decoder con un controllo di parità
rileva i seguenti risultati:
1° sequenza: Corretto; perché i bit a 1 sono pari pur essendoci 2 errori. Si è verificato un errore di
sistema (E.S.);
2° sequenza: Corretto; non c’è nessun errore;
3° sequenza: Errore; la complementazione d