Cos'è ElectroYou | Login Iscriviti

ElectroYou - la comunità dei professionisti del mondo elettrico

11
voti

Le onde elettromagnetiche come mezzo trasmissivo: PONTI RADIO TERRESTRI (5)

Indice

Il problema del rumore nelle comunicazioni numeriche (prima parte)

Lo studio degli effetti provocati in ricezione da segnali indesiderati, compendiabili nella definizione generale di rumore, risulta cruciale per quel che riguarda la progettazione e la messa a punto di un collegamento tramite ponte radio numerico. In particolare:

  1. la presenza di rumore rappresenta un limite per il dimensionamento del collegamento numerico, specialmente in presenza di una esigua disponibilità delle risorse quali: banda del canale di comunicazione, potenza del segnale trasmesso, guadagno delle antenne in TX ed in RX, distanza del collegamento, qualità dei dispositivi di sincronizzazione;
  2. la quantificazione e la valutazione qualitativa degli effetti dovuti al rumore sono basilari per la progettazione idonea delle risorse di cui al punto 1;
  3. gli effetti del rumore sono del tutto indipendenti dalla struttura del ricevitore, sicché lo studio di questi consente di estrapolare risultati generali, cioè validi qualsiasi sia il ricevitore implementato dal sistema di comunicazione.


1. Introduzione

Come anticipato, ricavare una valutazione qualitativa di una trasmissione numerica è fondamentale per scegliere e progettare correttamente un sistema di telecomunicazioni in generale. Nel caso di segnali analogici, è richiesto che il segnale in ricezione sia una copia esatta di quello trasmesso; nel caso di segnali numerici, tale richiesta perde totalmente di significato in quanto il vero problema consiste nella possibilità, per quanto riguarda il segnale inviato nel canale, di farsi riconoscere in ricezione con la minima probabilità di errore. Consideriamo a tal proposito la seguente figura:

E' rappresentato un segnale discreto a quattro livelli prima di essere inviato sul canale di trasmissione; consideriamo adesso quest'altra figura:

E' rappresentato lo stesso segnale rilevato in ricezione dopo il degradamento dovuto al rumore ed alle distorsioni introdotte dal canale; come si nota, è possibile riconoscere il segnale ricevuto mediante la verifica, negli opportuni istanti di temporizzazione, del superamento delle soglie prefissate tra un livello ed un altro.
Un altro punto fondamentale nella trasmissione di segnali discreti consiste nel fatto che, dopo il riconoscimento, è possibile ricostruire di nuovo il segnale elettrico e quindi riottenerlo esente da disturbi e distorsioni. Tale possibilità di rigenerare il segnale numerico consente, almeno da un punto di vista teorico, di effettuare dei collegamenti di trasmissione infinitamente lunghi senza che il segnale discreto possa considerarsi degradato, a meno di eventuali errori effettuati al momento del riconoscimento. Per comprendere quanto appena detto, consideriamo il processo di rigenerazione di un segnale numerico dopo l'attraversamento una tratta (in cavo, via etere) che introduce attenuazione, rumore e distorsione:

Da quanto detto ed illustrato, appare evidente che la valutazione della qualità di una trasmissione di segnali discreti non si baserà più sulle varie misure dei disturbi e delle distorsioni che possono degradare il segnale (caso analogico), ma unicamente sulla misura della possibilità che il segnale giunga errato in ricezione a causa di inesatti riconoscimenti nei vari punti di rigenerazione lungo il circuito di trasmissione. Tale misura viene espressa come il rapporto fra il numero di simboli che giungono errati in ricezione, in un determinato intervallo di tempo, ed il numero totale di simboli trasmessi nello stesso intervallo di tempo. Chiaramente ne esce fuori il più volte citato tasso d'errore T_{\varepsilon }, sempre minore dell'unità e tanto più piccolo quanto più il sistema di trasmissione è di buona qualità. Per esempio, se in un intervallo di misura di 5 minuti si riscontrano 3 simboli errati su 10000 trasmessi, si potrà dire che il T_{\varepsilon } è di 3 / 10000, ovvero T_{\varepsilon }=3\cdot 10^{-4} (che può andare bene per una trasmissione dati su cavo ma non per una su ponte radio, quindi per ogni tipologia trasmissiva è previsto uno specifico valore tollerabile di T_{\varepsilon }).
In Fig.4 è evidenziato il caso di un errato riconoscimento su un segnale a quattro livelli:

Nel punto di decisione il segnale si presenta non più attenuato, grazie all'azione dell'amplificatore-equalizzatore, ma ancora distorto ed inquinato da rumore. Osserviamo che il riconoscimento errato avviene soprattutto a causa dei picchi di rumore che fanno riconoscere, negli istanti prefissati, il livello sbagliato; appare allora evidente che il fattore determinante sulla qualità di una trasmissione di segnali discreti non è tanto la distorsione introdotta sulla forma del segnale in ricezione, quanto la potenza del rumore disturbante. In altri termini, più alta sarà la potenza media del rumore, maggiore sarà la probabilità che picchi di rumore provochino un errato riconoscimento. Di seguito è illustrata la relazione tra il tasso d'errore e il rapporto segnale/rumore (in funzione del numero m di livelli) che esplica quanto appena esposto:

Ad ogni modo, poiché il riconoscimento e la ricostruzione del segnale discreto vengono effettuati negli impianti reali prima che la potenza di rumore possa provocare apprezzabili valori di T_{\varepsilon }, è evidente come la trasmissione di tali segnali possa risultare di ottima qualità e come sia altrettanto valutabile mediante il solo tasso d'errore. Tale osservazione rafforza quanto discusso in apertura, ovvero che i segnali discreti presentano una notevole immunità ai disturbi ed alle distorsioni; finché questi disturbi non superano una prefissata soglia si può affermare che la trasmissione delle informazioni numeriche è praticamente insensibile alle degradazioni subite dal segnale elettrico corrispondente (cosiddetto cliff effect di cui ci occuperemo più avanti).


2. Cenni di teoria della probabilità

Nelle applicazioni reali si ha a che fare con segnali il cui andamento nel tempo è tutt'altro che ciclico e prevedibile; formalmente parlando, con l'espressione "tutt'altro che ciclico" ci riferiamo ai segnali aperiodici, ovvero segnali che soddisfano la relazione f(t)\neq f(t+T), dove T è il periodo del segnale. Con l'espressione "tutt'altro che prevedibile" ci riferiamo ai segnali aleatori, ovvero segnali non obbedenti ad alcuna legge matematica, dipendenti dal caso, mai noti a priori. Segnali siffatti vengono classificati nella più ampia categoria dei segnali di potenza, cioè in grado di fornire un valore efficace apprezzabile e sfruttabile, indipendentemente dalla loro evoluzione temporale. Un segnale che racchiude simultaneamente tutte queste caratteristiche è esattamente il rumore.
Dal punto di vista analitico, il rumore si può studiare in modo statistico, o meglio applicando alcuni risultati "presi in prestito" dalla teoria della probabilità che di per sé è davvero molto vasta; fortunatamente la nostra trattazione richiede soltanto alcuni concetti che sono di seguito discussi.

2.1 Gli assiomi della probabilità

Un esperimento casuale è un esperimento ripetuto, i risultati del quale possono essere di volta in volta diversi a causa dell'influenza di un fenomeno casuale sottostante; pensiamo, ad esempio, all'osservazione del lancio di una moneta non truccata o di un dado non truccato: non sapremo mai a priori se uscirà "testa" o "croce" oppure un "sei" o un "due". Alla luce di ciò, un esperimento casuale soddisfa due proprietà fondamentali:

  1. a ogni prova dell'esperimento il risultato è imprevedibile;
  2. per un gran numero di prove dell'esperimento, i risultati presentano una regolarità statistica, cioè, se si ripete l'esperimento un numero elevato di volte, si osserva un andamento medio dei risultati ben definito.

Spesso è conveniente pensare ad un esperimento e ai suoi possibili risultati definendo uno spazio e i suoi punti. A ogni possibile risultato dell'esperimento, si associa un punto chiamato campione, indicato con sk. L'insieme di tutti i punti campione, che corrisponde alla collezione di tutti i possibili risultati dell'esperimento, è chiamato spazio campione e indicato con \mathbb{S}. Un evento corrisponde o a un singolo campione o a un insieme di punti campione. In particolare, l'intero spazio campione \mathbb{S} è chiamato evento certo e l'insieme nullo \varnothing è chiamato evento nullo o impossibile; un singolo campione è chiamato evento elementare. Pensiamo all'esperimento del lancio di un dado. In esso ci sono sei possibili risultati: l'apparire di "uno", "due", "tre", "quattro", "cinque" o "sei" punti sulla faccia del dado rivolta in alto. Assegnando un campione a ciascuno di questi possibili risultati, si ha uno spazio campione composto da sei punti campioni, come di seguito mostrato:

L'evento elementare che descrive l'affermazione "sei" corrisponde al campione \left \{ 6 \right \}. D'altra parte, l'evento che descrive l'affermazione "un numero pari" corrisponde al sottoinsieme \left \{ 2,4,6 \right \} dello spazio campione. Ci rendiamo conto come il termine "evento" sia usato in maniera intercambiabile per descrivere il sottoinsieme o la sua definizione.
A questo punto siamo pronti per definire formalmente la probabilità basata su tre elementi:

  1. uno spazio campione \mathbb{S} di eventi elementari (risultati);
  2. una classe \mathfrak{E} di eventi che sono sottoinsiemi di \mathbb{S};
  3. una misura della probabilità \mathbf{P}[\mathbb{S}] assegnata a ciascun evento A della classe \mathfrak{E} che ha le seguenti proprietà:
(i) \mathbf{P}[\mathbb{S}]=1
(ii) 0\leq \mathbf{P}[A]\leq 1
(iii) se A\cup B è l'unione di due eventi della classe \mathfrak{E} che si escludono a vicenda, allora:
\mathbf{P}[A\cup B]=\mathbf{P}[A]+\mathbf{P}[B]\,\,\,\,\,\,\text{(I)}

Le proprietà (i), (ii) e (iii) sono note come assiomi fondamentali della probabilità. Entrando nel merito delle definizioni, l'assioma (i) afferma che la probabilità dell'evento certo è 1. L'assioma (ii) afferma che la probabilità di un evento è un numero non negativo minore o uguale a 1. L'assioma (iii) afferma che la probabilità dell'unione di due eventi che si escludono a vicenda è la somma delle probabilità dei singoli eventi.

2.2 Variabili casuali

Sebbene il significato di un esperimento casuale sia intuitivamente chiaro, spesso tali risultati non sono rappresentati nel modo più appropriato per poter sviluppare un modello matematico. Per esempio, "testa" o "croce" non è una rappresentazione matematica né conveniente né minimamente formale. Oppure, in un esperimento casuale dove si estraggono palline colorate da un'urna, il colore è un'attributo di certo disadatto per l'analisi matematica.
In questi casi, è conveniente assegnare un numero o un intervallo di valori ai risultati dell'esperimento; ad esempio, "testa" potrebbe corrispondere a 1 e "croce" a 0. Si usa l'espressione variabile casuale per descrivere l'assegnazione di un un numero al risultato di un esperimento casuale.
In generale, una funzione il cui dominio è lo spazio campione e il cui codominio è un insieme di numeri reali, è chiamata variabile casuale dell'esperimento. Cioè, per eventi in \mathfrak{E}, una variabile casuale assegna un sottoinsieme dell'asse reale \mathbb{R}. Quindi, se il risultato dell'esperimento è s, si indica la variabile casuale X(s) o direttamente X. Osserviamo che X è una funzione, anche se per ragioni storiche continua ad essere definita come variabile casuale (abbreviando v.c.). Indichiamo con x un particolare risultato dell'esperimento casuale; ovvero, X(sk) = x. E' evidente che possono esserci più variabili casuali associate allo stesso esperimento. Per comprendere quanto appena esposto, consideriamo la seguente figura:

In tale figura è esplicato il concetto di v.c. e sono mostrati i sottoinsiemi dello spazio campione corrispondenti ad un sottoinsieme dell'asse reale; la funzione che assegna le probabilità si applica a questa v.c. esattamente come si applica agli eventi di base.
Il vantaggio di usare le v.c. è che l'analisi della probabilità può essere sviluppata in termini di quantità reali, senza considerare la forma o l'andamento degli eventi dell'esperimento casuale. Le v.c. possono inoltre essere discrete ed assumere solo un numero finito di valori, come nell'esperimento del lancio della moneta. Altrimenti, le v.c. sono continue e assumono valori in un intervallo reale. Ad esempio, la v.c. che rappresenta la tensione in un collegamento a ponte radio numerico, in un particolare istante temporale, è un esempio di v.c. continua perché, in teoria, può assumere qualsivoglia valore compreso tra -\infty e \infty. Le v.c. possono assumere anche valori complessi, ma una v.c. che assume tali valori può sempre essere rivista come un vettore di due v.c. reali.
Per una v.c. discreta, la funzione densità di probabilità discreta (o massa di probabilità) rappresenta la probabilità che può assumere la v.c.. Per l'esperimento del lancio di una moneta non truccata, la funzione densità di probabilità discreta della v.c. associata può scriversi come segue:

\mathbf{P}[X=x]=\left\{\begin{matrix}\frac{1}{2},\,\,\,x=0\\ \frac{1}{2},\,\,\,x=1\\ 0,\,\,\,\text{altrimenti}\end{matrix}\right.\,\,\,\,\,\,\text{(II)}

Questa funzione è di seguito illustrata:

dove le delta di Dirac con peso 1 / 2 rispettivamente, sono usate per rappresentare la densità di ciascuno dei due punti, 0 ed 1.

2.3 Funzione della distribuzione

La funzione della distribuzione, o semplicemente distribuzione, è strettamente legata alla funzione densità di probabilità discreta. La funzione della distribuzione è la probabilità che la v.c. X assuma valori minori o uguali a x ed è scritta come:

F_{X}(x)=\mathbf{P}[X\leq x]\,\,\,\,\,\,\text{(III)}

Badiamo bene che FX(x) è una funzione di x e non della v.c. X. Tuttavia dipende dall'assegnazione della v.c. X, che giustifica comunque l'uso di X come prima descritto.
La funzione della distribuzione ha due proprietà di base, che seguono direttamente dalla (III):

  1. la distribuzione FX(x) è limitata tra zero ed uno;
  2. la distribuzione FX(x) è una funzione monotona non decrescente di x, cioè:
F_{X}(x_{1})\leq F_{X}(x_{2})\,\,\,\text{se}\,\,\,x_{1}\leq x_{2}

Se X è una v.c. continua ed FX(x) è differenziabile rispetto ad x, allora una terza funzione comunemente usata è la funzione della densità di probabilità, o semplicemente densità, così definita:

f_{X}(x):=\frac{\partial F_{X}(x)}{\partial x}\,\,\,\,\,\,\text{(IV)}

La funzione della densità di probabilità ha due proprietà basilari:

  1. dato che la funzione della distribuzione è monotona non decrescente, segue che la densità è non negativa per tutti i valori di x;
  2. integrando la densità è possibile ricavare la distribuzione:
F_{X}(x)=\int_{-\infty}^{x}f_{X}(s)\text{d}s\,\,\,\,\,\,\text{(V)}

La seconda proprietà implica che l'area totale sottesa dalla curva della funzione di densità è unitaria.

2.4 Probabilità condizionata

Supponiamo di studiare un esperimento casuale o un segnale caratterizzato da due v.c. X ed Y che non sono indipendenti. Allora il fatto di conoscere il valore di una v.c., X, potrebbe influenzare i valori osservati dall'altra v.c.. Per esempio, consideriamo il lancio di due dadi. Supponiamo che X rappresenti il numero del primo dado e Y la somma dei due dadi. Il fatto di conoscere che X = 3 chiaramente influenzerà il valore di Y.
Sia \mathbf{P}[Y|X] la densità di probabilità discreta di Y dato che si è verificato X. La probabilità \mathbf{P}[Y|X] è chiamata probabilità condizionata di Y dato X. Assumendo che X abbia una probabilità diversa da zero, la probabilità condizionata è definita come segue:

\mathbf{P}[Y|X]=\frac{\mathbf{P}[X,Y]}{\mathbf{P}[X]}\,\,\,\,\,\,\text{(VI)}

dove \mathbf{P}[X,Y] è la probabilità congiunta delle due v.c.. E' possibile riscrivere la (VI) esplicitando la probabilità congiunta:

\mathbf{P}[X,Y]=\mathbf{P}[Y|X]\mathbf{P}[X]\,\,\,\,\,\,\text{(VII)}

Se si considera la probabilità condizionata di X data Y, è possibile anche scrivere:

\mathbf{P}[X,Y]=\mathbf{P}[X|Y]\mathbf{P}[Y]\,\,\,\,\,\,\text{(VIII)}

Le relazioni (VII) e (VIII) affermano che la probabilità congiunta di due eventi può essere espressa come il prodotto della probabilità condizionata di un evento dato l'altro e la probabilità elementare dell'altro. Osserviamo che le probabilità condizionate \mathbf{P}[Y|X] e \mathbf{P}[X|Y] hanno le stesse proprietà delle probabilità precedentemente definite.
Possono esistere situazioni dove la probabilità condizionata \mathbf{P}[X|Y] e le probabilità \mathbf{P}[X] e \mathbf{P}[Y] si calcolano facilmente direttamente, ma si vuole determinare la probabilità condizionata \mathbf{P}[Y|X]. Dalle equazioni (VII) e (VIII) segue che, supposto \mathbf{P}[X]\neq 0, è possibile determinare \mathbf{P}[Y|X] usando la relazione:

\mathbf{P}[Y|X]=\frac{\mathbf{P}[X|Y]\mathbf{P}[Y]}{\mathbf{P}[X]}\,\,\,\,\,\,\text{(IX)}

Questa relazione è una forma particolare della regola di Bayes.
Supponiamo adesso che la probabilità condizionata \mathbf{P}[Y|X] sia semplicemente uguale alla probabilità che si verifichi Y; ovvero:

\mathbf{P}[Y|X]=\mathbf{P}[Y]\,\,\,\,\,\,\text{(X)}

Con tale ipotesi, la probabilità congiunta di X e di Y è uguale al prodotto delle singole probabilità:

\mathbf{P}[X,Y]=\mathbf{P}[X]\mathbf{P}[Y]\,\,\,\,\,\,\text{(XI)}

Allora dalla relazione (VIII) consegue che \mathbf{P}[Y|X]=\mathbf{P}[X]. In questo caso, la conoscenza del risultato di una v.c. non dice nulla in più riguardo la probabilità del risultato dell'altra v.c.. LE v.c. X e Y che soddisfano questa condizione si dicono statisticamente indipendenti.

2.5 Valori attesi

La funzione della distribuzione fornisce una descrizione completa della v.c. includendo più informazioni di quanto sia necessario (ridondanza). In questi casi, per descrivere la v.c. possiamo usare semplici medie statistiche come quelle di seguito elencate.

2.5.1 Media

La media o valore atteso di una funzione g(.) della v.c. X è indicata con \mathbf{E}[g(X)]. Nel caso del valore atteso di X, si indica la media usando comunemente l'abbreviazione μX. Se la v.c. X è discreta, la media è definita come somma pesata dei suoi possibili risultati x:

\mu _{X}=\mathbf{E}[X]=\sum_{X}x\mathbf{P}[X=x]\,\,\,\,\,\,\text{(XII)}

Se la v.c. X è continua con funzione di densità fX(x), la definizione analoga del valore atteso è:

\mathbf{E}[X]=\int_{-\infty}^{\infty}xf_{X}(x)\text{d}x\,\,\,\,\,\,\text{(XIII)}

Ad esempio, se X è una v.c. associata alle osservazioni di una tensione di rumore, allora il valor medio X rappresenta la tensione media, ovvero la componente continua del rumore.

2.5.2 Varianza

La varianza di una v.c. è una stima della dispersione della distribuzione di probabilità intorno alla media. Nel caso di v.c. discrete, la varianza \sigma _{X}^{2} è data dal valore atteso del quadrato della distanza di ciascun risultato dal valore medio della distribuzione:

\sigma _{X}^{2}=\text{Var}(X)=\mathbf{E}[(x-\mu _{X})^{2}]=\sum_{X}(x-\mu _{X})^{2}\mathbf{P}[X=x]\,\,\,\,\,\,\text{(XIV)}

Nel caso di v.c. continua con funzione densità fX(x), la definizione analoga di varianza è fornita dalla seguente relazione:

\sigma _{X}^{2}=\int_{-\infty}^{\infty}(x-\mu _{X})^{2}f_{X}(x)\text{d}x\,\,\,\,\,\,\text{(XV)}

Se X è rappresentativa delle osservazioni della tensione di rumore, allora la varianza è esattamente la potenza media del rumore; il momento di secondo ordine di X, \mathbf{E}[X^{2}] è anche chiamato valore quadratico medio e rappresenta fisicamente la potenza totale del rumore.

2.5.3 Covarianza

Nell'analisi dei sistemi di comunicazione sono importanti anche le medie statistiche tra due v.c.. La covarianza di due v.c. X ed Y è data dal valore atteso del prodotto delle due v.c.:

\text{Cov}(X,Y)=\mathbf{E}[(X-\mu _{X})(Y-\mu _{Y})]\,\,\,\,\,\,\text{(XVI)}

Si dimostra che la relazione (XVI) è espandibile per ottenere quest'altra forma della covarianza:

\text{Cov}(X,Y)=\mathbf{E}[XY]-\mu _{X}\mu _{Y}\,\,\,\,\,\,\text{(XVII)}

Se le due v.c. sono continue con densità congiunta fX,Y(x,y), allora il termine aspettazione della (XVII) è dato da:

\mathbf{E}[XY]=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}xyf_{X,Y}(x,y)\text{d}x\text{d}y\,\,\,\,\,\,\text{(XVIII)}

Se le due v.c. sono indipendenti, allora:

\mathbf{E}[XY]=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}xyf_{X}(x)f_{Y}(y)\text{d}x\text{d}y=
=\int_{-\infty}^{\infty}xf_{X}(x)\text{d}x\int_{-\infty}^{\infty}yf_{y}(y)\text{d}y=\mathbf{E}[X]\mathbf{E}[Y]\,\,\,\,\,\,\text{(XIX)}

risultato analogo a quello ottenuto nella (XI) e tipico delle v.c. indipendenti. Sostituendo questo risultato nella relazione (XVII), si trova che la covarianza di v.c. indipendenti è nulla. Comunque potremmo notare che il contrario non è sempre vero: la covarianza nulla in generale non implica l'indipendenza.

2.6 Variabili casuali gaussiane

La variabile casuale gaussiana (abbreviata v.c.g.) riveste un ruolo fondamentale in tante applicazioni ed è di gran lunga la v.c. che s'incontra con maggior frequenza nell'analisi statistica dei sistemi di comunicazione. Una v.c.g. è una v.c. continua con densità di probabilità data da:

f_{X}(x)=\frac{1}{\sqrt{2\pi }\sigma _{X}}e^{-\frac{(x-\mu _{X})^{2}}{2\sigma _{X}^{2}}}\,\,\,\,\,\,\text{(XX)}

dove la v.c.g. X ha media μX e varianza \sigma _{X}^{2}. Questa densità si estende su tutta la retta reale ed è simmetrica rispetto alla media μX. Una v.c.g. ha molte proprietà di seguito enunciate senza dimostrazione:

  1. è caratterizzata completamente dalla sua media e dalla sua varianza;
  2. sommata a una costante è ancora una v.c.g. con media aumentata della costante;
  3. moltiplicata per una costante è una v.c.g. dove sia la media che lavarianza sono influenzate dalla costante;
  4. la somma di due v.c.g. indipendenti è ancora una v.c.g.;
  5. la somma pesata di N v.c.g. indipendenti è una v.c.g.;
  6. se due v.c.g. hanno covarianza nulla (si definiscono in tal caso incorrelate), sono anche indipendenti.

Nel caso particolare di una v.c.g. a media nulla (μX = 0) e varianza unitaria (\sigma_{X}^{2}=1), la funzione densità è data da:

f_{X}(x)=\frac{1}{\sqrt{2\pi}}e^{-\frac{x^{2}}{2}}\,\,\,-\infty< x< \infty\,\,\,\,\,\,\text{(XXI)}

con il tipico andamento della campana di seguito mostrato:

La funzione della distribuzione della variabile casuale gaussiana normalizzata (abbreviata v.c.g.n.) o standard è data dall'integrale della funzione seguente:

F_{X}(x)=\int_{-\infty}^{x}f_{X}(s)\text{d}s=\frac{1}{\sqrt{2\pi }}\int_{-\infty}^{x}e^{-\frac{s^{2}}{2}}\text{d}s\,\,\,\,\,\,\text{(XXII)}

di seguito illustrata:

Non esiste la forma chiusa di questo integrale ma, dato che integrali di questo tipo si incontrano frequentemente, sono state definite e tabulate molte funzioni. Una di queste usata spesso nel contesto delle comunicazioni elettriche è la funzione Q(x) definita come:

Q(x)=\frac{1}{\sqrt{2\pi }}\int_{x}^{\infty}e^{-\frac{s^{2}}{2}}\text{d}s=1-F_{X}(x)\,\,\,\,\,\,\text{(XXIII)}

dove il secondo membro ci informa che la Q(x) è la funzione complementare della distribuzione gaussiana normalizzata. Di seguito è illustrato l'andamento della Q(x):


3. Cenni di teoria dell'informazione

In questo paragrafo tratteremo in maniera sintetica, alcuni concetti di teoria dell'informazione applicati al caso di un sistema di comunicazione discreto (come il ponte radio numerico), tralasciando conseguentemente tutta la trattazione sui sistemi continui (chi volesse comunque approfondire anche questo aspetto può fare riferimento alla Bibliografia).

3.1 Definizioni preliminari

Consideriamo per il momento un canale discreto non affetto da rumore. Sia S un insieme di n simboli Sk, con k\equiv (1\div n); questi simboli potranno essere le lettere dell'alfabeto o i simboli di un particolare codice o i valori quantizzati che può assumere una variabile continua dopo essere stata discretizzata. Si avrà pertanto:
\text{S}\equiv (S_{1},S_{2},...,S_{n})

Definiamo:

  • quantità di informazione portata da un solo simbolo:
i=f(n)=\log _{2}n\,\,\,\,\,\,\text{(XXIV)}
  • quantità di informazione complessiva:
I=\log _{2}N\,\,\,\text{bit/simbolo}\,\,\,\,\,\,\text{(XXV)}
dove N rappresenta il numero degli eventi equiprobabili verificabili;
  • informazione media per simbolo o entropia:
H=\sum_{k=1}^{n}p_{k}\cdot \log _{2}\frac{1}{p_{k}}=-\sum_{k=1}^{n}p_{k}\cdot \log _{2}p_{k}\,\,\,\text{bit/simbolo}\,\,\,\,\,\,\text{(XXVI)}
dove pk è la probabilità associata al generico simbolo Sk;
  • entropia della sorgente:
H_{S}=\lim_{m,\infty}\frac{I_{M}}{m}\,\,\,\text{bit/simbolo}\,\,\,\,\,\,\text{(XXVII)}
che computa la quantità di informazione media per simbolo in sequenze estremamente lunghe. La grandezza IM identifica la quantità di informazione media riferita al singolo messaggio m\in M;
  • ridondanza:
R=1-\frac{H_{S}}{H_{max}}\,\,\,\,\,\,\text{(XXVIII)}
dove Hmax è la massima entropia di una sorgente in assenza di correlazione intersimbolica 8cioè ogni simbolo non dipende da nessun altro) ed equiprobabilità. La ridondanza è un indicatore che ci informa di quanto diminuisce la capacità massima potenziale che la sorgente ha di inviare informazioni a causa delle correlazioni e delle diverse probabilità che hanno i suoi simboli ed i suoi messaggi;
  • capacità d'informazione del canale:
C=\lim_{T,\infty}\frac{\log _{2}N_{(T)}}{T}\,\,\,\text{bit/s}\,\,\,\,\,\,\text{(XXIX)}
dove N(T) è il numero di simboli trasmessi nell'intervallo di tempo T ed estratti dall'insieme S:
  • teorema del canale discreto non rumoroso: « Data una sorgente avente entropia H_{s}\,\,\,\text{bit/simbolo} e un canale avente una capacità d'informazione C\,\,\,\text{bit/s} e fissato un \varepsilon > 0 scelto piccolo arbitrariamente, è possibile codificare i messaggi della sorgente in modo tale che risulti:
V_{S}=\frac{C}{H_{S}}-\varepsilon \,\,\,\text{simboli/s}\,\,\,\,\,\,\text{(XXX)}
essendo Vs il numero dei simboli della sorgente che in media passano nel canale in un secondo. Non è invece possibile:
V_{S}>\frac{C}{H_{S}}
cioè trasmettere ad una velocità media superiore definita dalla (XXX).»

3.2 Effetti della distorsione e del rumore

Supponiamo adesso di introdurre il rumore del canale. Se un trasmettitore invia un segnale in un canale ed al ricevitore perviene un segnale modificato, si dice che nel canale si ha un disturbo.
Come detto più volte, quando la modificazione ha la stessa natura del segnale, in modo che la sua azione possa essere prevedibile, viene detta distorsione. Se, invece, il segnale subisce di volta in volta modificazioni diverse e casuali si è in presenza di rumore.
Entro certi limiti la distorsione non impedisce l'interpretazione del segnale; alquanto più complessa è invece la ricezione con il rumore data la variabilità della sua interferenza.
L'effetto del rumore, ad esempio per una trasmissione in codice binario come quella su ponte radio, consiste nel fatto che talora trasmettendo uno "0" si riceva un "1" o viceversa. In termini più strettamente fisici, si può dire che talora un picco di potenza del rumore può essere erroneamente scambiato per un segnale e talora non si riesce a rivelare un segnale riconoscendolo in mezzo al rumore.
Interessa quindi sapere quali alterazioni ciò possa produrre sull'incertezza, ovvero l'entropia del sistema. Per rispondere a tale quesito, Shannon suppose che una lunga serie di messaggi, per esempio costituiti da simboli "1" e "0", venisse registrata e successivamente trasmessa in un canale sotto l'azione del rumore e che i messaggi ricevuti fossero anch'essi registrati. Confrontando quindi i messaggi ricevuti con quelli trasmessi si possono determinare le probabilità (che non sono necessariamente uguali) dei due tipi di errori indicati sopra. Conoscendole, chi riceve un nuovo messaggio distorto (un messaggio cioè che non compare nella serie usata per misurare le probabilità), può calcolare la sua incertezza su ciò che è stato realmente trasmesso esprimendola in termini di entropia.
Al fine di ottenere la velocità totale di trasmissione, si deve sottrarre all'entropia della sorgente quella dovuta alla presenza del rumore, come risulterà più chiaro dall'esempio seguente.
Supponiamo che una sorgente binaria trasmetta i due simboli 0 ed 1 equiprobabili con una frequenza di 10000 simboli al secondo e che con misure precedenti si sia potuto stabilire che la probabilità di ambedue i tipi di errore sia uguale a 1 su 10; ne consegue che la probabilità qy(x) che uno 0 ricevuto possa essere stato un 1, è pari a 0,1 e la probabilità py(x) che sia effettivamente 0 è pari a 0,9; ciò vale parimenti per il simbolo 1:

Indicando con x tutti i simboli entranti nel canale e con y quelli in ingresso nel ricevitore, l'evento y dipende da x come schematizzato in Fig.12.
All'entropia della sorgente H(x) presente all'ingresso del canale (e pari ad 1\,\,\,\text{bit/s}) è necessario sottrarne una quantità Hy(x), rappresentante l'incertezza che sia veramente stato trasmesso un simbolo in x quando si riceve il simbolo stesso in y. In tal modo si ottiene l'entropia (e quindi la quantità di informazione in bit/simbolo) effettivamente trasferita dal sistema di trasmissione. Si definisce pertanto entropia trasferita Q la differenza:

Q=H(x)-H_{y}(x)\,\,\,\text{bit/simbolo}\,\,\,\,\,\,\text{(XXXI)}

La quantità di entropia Hy(x) prende il nome di equivocazione e sta ad indicare sostanzialmente l'incertezza media del destinatario riguardo a ciò che è stato effettivamente inviato dalla sorgente. Ovviamente quanto più elevata è la probabilità q, a causa di un disturbo più efficace, tanto più elevata sarà l'equivocazione e quindi tanto più bassa sarà l'entropia trasferita al destinatario; nel caso invece di canale non rumoroso, Hy(x) sarà nulla e Q = H(x).
L'equivocazione costituisce pertanto una misura della quantità d'informazione perduta (e chiaramente irrecuperabile) nella trasmissione a causa dei disturbi. Conseguentemente Hy(x) rappresenta anche l'incremento di informazione supplementare che si dovrebbe fornire al destinatario per correggere il messaggio ricevuto:

Q + Hy(x) = H(x)

Shannon dimostrò che l'entropia del messaggio di correzione deve essere esattamente uguale all'equivocazione, in modo tale da correggere il messaggio dagli errori del mezzo trasmissivo disturbato:

Riferendoci ancora alla Fig.12), poiché vi è la probabilità qy(x) = 0,1 che un simbolo (1 oppure 0) sia sbagliato e py(x) = 0,9 che sia corretto, l'entropia di equivocazione intuitivamente sarà:

H_{y}(x)=-(0,9\cdot \log _{2}0,9+0,1\cdot \log _{2}0,1)=0,47\,\,\,\text{bit/simbolo}

Poiché l'entropia H(x) della sorgente binaria è di 1\,\,\,\text{bit/simbolo}, l'entropia effettiva del sistema sorgente-canale vale in questo caso:

Q=1-0,47=0,53\,\,\,\text{bit/simbolo}

Tale risultato si interpreta dicendo: piuttosto che trasmettere 10000\,\,\,\text{bit/s} come succede in assenza di rumore, la sorgente ne trasmette soltanto 5300. Il rumore, in pratica, ha quasi dimezzato la velocità di trasmissione anche per una probabilità d'errore decisamente bassa!
Secondo Shannon, il controllo del risultato di questo calcolo si effettua come segue: se c'e' un rumore così alto, che uno zero ha esattamente la stessa probabilità di un uno e viceversa, il messaggio ricevuto non porta alcuna informazione, poiché chi lo riceve potrebbe costruirne uno altrettanto probabile semplicemente tirando a testa o croce con una moneta. Pertanto in questo caso Q deve essere identicamente pari a zero, infatti sarà:

H_{y}(x)=-(0,5\cdot \log _{2}0,5+0,5\cdot \log _{2}0,5)=1

e applicando la (XXXI):

Q=1-1=0\,\,\,\text{c.v.d.}

Si può dimostrare che la forma generale per esprimere l'entropia di equivocazione legata all'i-esimo simbolo è la seguente:

H_{y}(x)=\sum_{1}^{n}p_{yi}\cdot H_{y}(x)_{i}\,\,\,\,\,\,\text{(XXXII)}

Per comprendere bene quanto esposto finora, consideriamo il seguente esempio:

In pratica, una sorgente binaria ha diversa probabilità di simboli e ciascun simbolo ha una diversa probabilità di giungere correttamente al destinatario. Si ha quindi:

H_{y}(x)_{1}=-(0,7\cdot \log _{2}0,7+0,1\cdot \log _{2}0,1)=0,69
H_{y}(x)_{0}=-(0,9\cdot \log _{2}0,9+0,3\cdot \log _{2}0,3)=0,65
p_{y1}=p_{x1}\cdot p_{1}(1)+p_{x0}\cdot q_{1}(0)=0,46
p_{y0}=p_{x0}\cdot p_{0}(0)+p_{x1}\cdot q_{0}(1)=0,54

Applicando quindi la (XXXII) si ottiene l'equivocazione complessiva:

H_{y}(x)=p_{y1}\cdot H_{y}(x)_{1}+p_{y0}\cdot H_{y}(x)_{0}=
=0,46\cdot 0,69+0,54\cdot 0,65=0,67\,\,\,\text{bit/simbolo}

Pertanto l'effettivo trasferimento d'informazione dalla sorgente al destinatario si riduce, applicando la (XXXI), solamente a:

Q=H(x)-H_{y}(x)=0,97-0,67=0,3\,\,\,\text{bit/simbolo}

dove H(x) in questo caso vale, applicando la (XXVI):

H(x)=-(0,6\cdot \log _{2}0,6+0,4\cdot \log _{2}0,4)=0,97\,\,\,\text{bit/simbolo}

E' infine interessante renderci conto di come i simboli in y, con le loro probabilità di presentarsi py1 = 0,46 e py0 = 0,54, farebbero pensare ad un'entropia di 0,99\,\,\,\text{bit/simbolo} contro gli 0,3 dovuti agli errori di linea.

3.3 Capacità del canale discreto rumoroso e relativo teorema

Se, invece di considerare le entropie H(x) e Hy(x) precedenti espresse in bit/simbolo, queste vengano considerate in bit/s come H^{\prime}(x) e H^{\prime}_{y}(x), si può definire la capacità di un canale disturbato come la massima velocità di trasmissione possibile quando la sorgente è opportunamente adattata al canale. Si definisce pertanto:

C^{\prime}=\text{max}[H^{\prime}(x)-H^{\prime}_{y}(x)]\,\,\,\text{bit/s}\,\,\,\,\,\,\text{(XXXIII)}

E' intuitivo che C^{\prime} in effetti coincida con il parametro Q che rappresenta l'entropia trasferita.
Essendo la capacità un parametro caratteristico del canale è quindi funzione delle py(x) viste in precedenza, ovvero dell'equivocazione.
Ci chiediamo adesso cosa voglia dire "sorgente opportunamente adattata al canale". La risposta discende direttamente dalla formulazione del teorema per il canale discreto rumoroso enunciato da Shannon: « Dato un canale discreto di capacità C^{\prime}, come definita nella (XXXIII), se è H^{\prime}\leq C^{\prime}, esiste un sistema di codificazione tale che l'informazione prodotta dalla sorgente può essere trasmessa attraverso il canale con una frequenza d'errore per secondo minore di \varepsilon, con \varepsilon arbitrariamente piccolo »
Si può concludere pertanto che C^{\prime} è la massima velocità d'informazione che si può trasmettere in un canale discreto con probabilità d'errore inferiore a qualsiasi valore assegnato. Conosciuta infatti l'equivocazione in base alle py(x) dei vari simboli e la capacità del canale in assenza di rumore, si ricava la massima velocità possibile di trasmissione ottenibile utilizzando un metodo ideale di codificazione, basato sull'inserimento di ridondanza sistematica di valore pari all'equivocazione (il lavoro svolto dagli scrambler nel caso dei ponti radio).
I motivi per cui nella realtà non sia ancora possibile raggiungere il valore di C^{\prime} sono sinteticamente tre:

  1. la co-decodifica di canale per essere sempre più efficiente dovrebbe esaminare sequenze sempre più lunghe di simboli con ritardi eccessivi di elaborazione;
  2. nella realtà, codifiche su lunghezze finite di simboli non coprono interamente alcune rare combinazioni di errori che quindi diventano non correggibili;
  3. la complessità della co-decodifica non sempre potrebbe essere giustificata nella pratica per ovvie ragioni di costo/prestazioni.

3.4 Codifica di canale e confronto con la codifica di sorgente

Abbiamo a più riprese discusso sulla codifica di canale nel corso di questa trattazione. Nell'ambito della teoria dell'informazione, definiamo formalmente la codifica di canale quel processo con cui viene inserita, mediante opportuna elaborazione, la ridondanza sistematica sul flusso dei simboli provenienti dalla sorgente in modo da poter compensare l'equivocazione del canale rumoroso e poter rivelare e correggere gli errori giunti in ricezione.
E' bene chiarire che non c'è alcuna contraddizione tra codifica di sorgente e codifica di canale anche se, ad un esame superficiale, sembra illogico che la prima elimini ridondanza mentre la seconda ne reinserisca. Infatti, mentre la codifica di sorgente elimina ridondanza dalla sorgente al fine di utilizzare al massimo la capacità del canale, la codifica di canale è vero che aggiunge ridondanza, ma prima di tutto questa è sistematica e non legata alle informazioni della sorgente, ed in seconda battuta è di entità limitata, strettamente legata all'equivocazione del canale al fine di correggerne in ricezione gli errori dovuti al rumore.
Nella seguente figura sono schematizzati i concetti finora esposti, prendendo lo spunto da un canale reale di cui si ricerca la capacità teorica conoscendone le caratteristiche statistiche:

Nella Fig.15 a) è riportato il caso di adattamento della sorgente al canale senza rumore, mediante opportuna codifica di sorgente così che H(x) viene uguagliata a C^{\prime}; nella Fig.15 b) invece è riportato il caso dello stesso canale inquinato dal rumore e si suppone di conoscere anche l'equivocazione Hy(x).
Possiamo notare come, mediante opportuna codifica di canale, sia possibile effettuare la trasmissione senza errori purché si diminuisca l'entropia della sorgente e la si reintegri con ridondanza sistematica ΔH di valore pari all'equivocazione. Per ricavare l'equivocazione del canale è sufficiente, in prima ipotesi ma non troppo lontano dalla realtà, ricavare il tasso d'errore T_{\varepsilon } del canale con una misura su una sequenza nota e statisticamente simile alla sorgente reale. Considerando il caso del ponte radio numerico, dove l'informazione per essere trasmessa nell'etere è ridotta ad un segnale binario, si ipotizza lecitamente px1 = px0 = 0,5 e che gli errori di commissione siano equiprobabili agli errori di omissione (argomento approfondito a breve), ovvero q0(1) = q1(0) = q; dunque si ha q=(1/2)T_{\varepsilon }. Osservando adesso la seguente figura:

possiamo scrivere:

H_{y}(x)_{1}=H_{y}(x)_{0}=-\left [\left (1-\frac{1}{2}T_{\varepsilon }  \right )\cdot  \log _{2}\left (1-\frac{1}{2}T_{\varepsilon }  \right )+\frac{1}{2}T_{\varepsilon }\cdot \log _{2} \frac{1}{2}T_{\varepsilon }  \right ]

che si può approssimare a:

H_{y}(x)_{0}^{1}\approx -\frac{1}{2}T_{\varepsilon }\cdot \log _{2} T_{\varepsilon }\,\,\,\,\,\,\text{(XXXIV)}

per poco che T_{\varepsilon } sia \geq 10^{-2}.
Dalle ipotesi di partenza di px1 = px0 e q0(1) = q1(0) possiamo intuire che py1 = py0 e quindi applicare direttamente la (XXXI) dal momento che la (XXXIV) è già l'equivocazione Hy(x) cercata; ricordando poi che, per le ipotesi di partenza H(x) = 1, si ha infine:

Q=1+\frac{1}{2}T_{\varepsilon }\cdot \log _{2}\frac{1}{2}T_{\varepsilon }\,\,\,\text{bit/simbolo}\,\,\,\,\,\,\text{(XXXV)}

Tale relazione esprime l'entropia trasferita dal canale discreto affetto da tasso d'errore T_{\varepsilon }, mentre l'espressione:

C^{\prime}=V_{S}\cdot Q\,\,\,\text{bit/s}\,\,\,\,\,\,\text{(XXXVI)}

fornisce l'effettiva capacità del canale discreto e rumoroso ma senza errori,nel caso venga adottata l'opportuna codifica di canale.

3.5 Definizioni sintetiche sui tipi di velocità e relative unità di misura

  • velocità di segnalazione relativa ad una determinata sorgente di informazioni discrete nel tempo (cioè di tipo impulsivo): è definita come il numero di impulsi forniti nell'unità di tempo. L'unità di misura adottata è il baud (da Baudot, pioniere nel campo della telegrafia a divisione di tempo) equivalente a simboli nell'unità di tempo:
1\,\,\,\text{baud}\equiv 1\,\,\,\text{simbolo/s}
Data una sorgente di segnalazione VS pari a K\,\,\,\text{baud}, per trasmettere tali informazioni a distanza è sufficiente realizzare un canale di trasmissione di tipo passa basso ideale (come ampiamente esposto nelle precedenti parti della trattazione) o a coseno rialzato con frequenza di taglio pari a K/2\,\,\,\text{Hz}. Il valore in Hz della metà della velocità di segnalazione è la nota frequenza di Nyquist; quindi, in altre parole, si può dire che su un canale di trasmissione si possono trasmettere due baud per ogni hertz:
V_{S}=2B\,\,\,\text{baud}\,\,\,\,\,\,\text{(XXXVII)}
  • velocità di trasmissione relativa ad una sorgente di informazioni numeriche: è definita come la quantità di informazioni binarie (bit) che vengono fornite nell'unità di tempo. Pertanto l'unità di misura adottata è il bit/s. Intercorre una relazione generale tra velocità di segnalazione e velocità di trasmissione relativamente ad una determinata sorgente di informazioni, ovvero:
V_{T}=V_{S}\cdot \log_{2}m\,\,\,\text{bit/s}\,\,\,\,\,\,\text{(XXXVIII)}
dove m è il numero di livelli discreti. La velocità di trasmissione di informazione viene anche definita bitrate o velocità di modulazione.


4. Il rumore nella trasmissione numerica in banda base

Una volta visto come ricavare la velocità di trasmissione di una sorgente di informazioni numeriche, nasce il problema di come valutare se un determinato canale di trasmissione, con le sue caratteristiche elettriche e di rumore, sia in grado di poter trasmettere il flusso di informazioni prestabilito.
Si viene quindi a definire il concetto di capacità di informazione, relativa ad un determinato canale di trasmissione, intesa come la quantità massima di bit/s che il canale stesso riesce a fare giungere al destinatario alle prefissate condizioni di tasso d'errore.
Comprendiamo che i limiti della capacità d'informazione imposti ad un canale sono la larghezza di banda B e la presenza di rumore. Il valore di B determina la massima velocità di segnalazione, mentre il rumore viene a limitare il numero di livelli discreti in ampiezza che può avere il segnale; infatti il rumore incide, come anticipato, sull'esatto riconoscimento al destinatario, provocando valori di tasso d'errore via via maggiori quanto più piccolo è l'intervallo fra due livelli adiacenti del segnale.
Pertanto si può scrivere:

C=2B\cdot \log_{2}m\,\,\,\text{bit/s}\,\,\,\,\,\,\text{(XXXIX)}

dove B è nota e dove m equivale sempre al numero di livelli di discretizzazione che si intende dare al segnale elettrico. Evidentemente m deve essere scelto in modo che il tasso d'errore provocato dal rumore sia accettabile.
Nella realtà, il rumore presente all'uscita del canale di trasmissione può essere di diversa natura a seconda del tipo di mezzo trasmissivo e del tipo di sorgente disturbante e può essere caratterizzato, come illustrato nel paragrafo di teoria della probabilità, mediante considerazioni statistiche, o meglio mediante curve di distribuzione di probabilità delle ampiezze e di densità spettrale. Per esempio, il rumore presente nel feeder a cavo coassiale di un'antenna di medie dimensioni per ponte radio, è di tipo termico e quindi modellabile secondo la classica distribuzione gaussiana, infatti è definito rumore gaussiano (o bianco). Il rumore delle linee PCM su cavi a coppie simmetriche è invece sagomato, come lo spettro del segnale PCM filtrato dall'accoppiamento di paradiafonia, e dal punto di vista statistico è considerabile come gaussiano soltanto se i vari segnali disturbanti sono almeno una decina e scorrelati tra loro.
Inoltre sui sistemi di telecomunicazioni a volte si possono sommare al segnale anche disturbi impulsivi dovuti ad apparati ed organi elettromeccanici (relé, selettori, macchine utensili, elettrodotti nel caso di ponti radio numerici, ecc.). Tali disturbi sono in genere non caratterizzabili neppure statisticamente in quanto le sorgenti di disturbo sono le più disparate e non sono soggette a fenomeni statistici ripetitivi; pertanto, in pratica, se ne riduce l'effetto sulla trasmissione dati mantenendo, per quanto possibile, l'ampiezza del segnale più elevata del valore massimo presunto dei disturbi, mediante accorgimenti di progettazione e ricorrendo ad effettuare l'amplificazione o la rigenerazione (della quale discuteremo nella sesta parte) del segnale su tratte più brevi.
Dal punto di vista teorico, un determinato rumore non solo è caratterizzato dalla sua distribuzione di probabilità e dalla sua densità spettrale, ma anche da altri fattori molto utili anche dal punto di vista pratico, ovvero: valore medio, valore efficace, fattore di cresta.
A questo punto occorre approfondire il problema degli effetti del rumore per poter determinare a ragion veduta il valore di m. La condizione di partenza è che la sorgente d'informazione sia binaria con equiprobabilità delle cifre 1 e 0. La misura del rapporto tra segnale e rumore viene effettuata nel punto di riconoscimento (o decisione) ed esattamente tra l'elongazione della cifra 1 nell'istante caratteristico e il valore efficace del rumore.
Se si ipotizza un canale di trasmissione ideale e quindi tale da non ammettere interferenza intersimbolica in uscita e se si disturba questo canale mediante rumore con distribuzione gaussiana di probabilità, è possibile ricavare una funzione tra l'andamento del tasso d'errore T_{\varepsilon } nel punto di decisione ed il valore del rapporto tra segnale e rumore, ipotizzando che il segnale binario sia unipolare, come di seguito illustrato:

In Fig.18 viene schematizzato il processo di trasmissione numerica in presenza di rumore ed evidenziato il punto di decisione su cui agiscono sia la soglia Vs che il segnale di temporizzazione CK:

La Fig.19 mostra gli effetti del rumore sul punto di decisione evidenziando errori di commissione e di omissione:

Infine nella Fig.20 viene messa in evidenza la distribuzione gaussiana di probabilità del rumore ed il relativo valore efficace pari alla deviazione standard σ della curva stessa; inoltre possiamo notare le aree \Delta \varepsilon _{o} e \Delta \varepsilon _{c} relative alla probabilità che si verifichino errori di omissione o commissione:

Il valore ottimale Vs che, insieme all'istante di campionamento, permette di effettuare il riconoscimento, è (intuitivamente) pari a VP / 2 al fine di ottenere il migliore \varepsilon _{o} a parità di rumore; in tal modo viene individuato il "baricentro" dell'impulso di risposta, cioè il punto più immune al rumore. Ricordando poi che l'intera area sottesa dalla distribuzione di probabilità del rumore e pari all'unità, il valore di \Delta \varepsilon _{o} equivale a T_{\varepsilon } per errori di omissione, il valore di \Delta \varepsilon _{c} equivale a T_{\varepsilon } per errori di commissione, mentre il T_{\varepsilon } complessivo è dato da 2\Delta \varepsilon supponendo, teoricamente, che:

\Delta \varepsilon _{o}=\Delta \varepsilon _{c}=\Delta \varepsilon

Evidentemente, a parità di soglia Vs, l'aumento del valore efficace del rumore comporta un aumento proporzionale dell'area \Delta \varepsilon rispetto quella della curva complessiva, e quindi un incremento del tasso d'errore, come di seguito illustrato:

Si può pertanto ricavare una curva che rappresenti l'andamento del tasso d'errore in funzione del rapporto (espresso in decibel) fra VP (elongazione dell'impulso) ed il valore efficace del rumore; tale curva prende il nome di funzione di errore (error function).
Consideriamo adesso la seguente figura:

Confrontandola con la Fig.17, riscontriamo con chiarezza quanto anticipato nella parte introduttiva relativamente alla caratteristica della trasmissione numerica di avere un comportamento a soglia nei confronti del rumore (il "cliff effect"). Infatti si nota come fino ad un certo valore di margine di rumore, il tasso d'errore sia pressoché irrilevante; al decrescere del margine si ha un rapido peggioramento del tasso fintantoché si giunge ad una sua stabilizzazione su livelli intollerabili (10 − 2 o 10 − 1) per margini di rumore ulteriormente inferiori.
Per segnali non binari ma multilivello in ampiezza, come quelli che viaggiano su ponte radio numerico, il valore di soglia che compare nella determinazione del tasso d'errore è pari a 1 / 2 dell'intervallo di discretizzazione. Se quindi si vuole esprimere l'andamento del T_{\varepsilon } in funzione dell' S / N, dove S è il valore massimo del segnale multilivello ed N è ancora il valore efficace del rumore, occorre traslare la curva rappresentata in Fig.17 verso destra ogniqualvolta ci sia un incremento del numero m dei livelli di discretizzazione e volendo mantenere costante il tasso d'errore, ottenendo così la famiglia di curve di seguito illustrata:

Fig23.jpg

Fig23.jpg

In generale, VP equivale all'intervallo di discretizzazione ed è ampio Smax / (m − 1) mentre, come noto, Vs = VP / 2, pertanto Vs = Smax / 2(m − 1). Per esempio, riconsiderando la Fig.23, si può stilare la seguente tabella:

m = 2
VP = Smax
Vs = Smax / 2
m = 3
VP = Smax / 2
Vs = Smax / 4
m = 4
VP = Smax / 3
Vs = Smax / 6
m = 5
VP = Smax / 4
Vs = Smax / 8

Se si vogliono determinare i valori di Smax / Neff che comportano lo stesso T_{\varepsilon } per i vari valori di m, è evidente che deve rimanere costante, nei vari casi, il rapporto tra VP ed il valore efficace del rumore; in questo modo per ogni intervallo di discretizzazione ampio VP il livello di Vs viene a determinare le aree \Delta \varepsilon _{o} e \Delta \varepsilon _{c} viste in precedenza.
La Fig.23 rappresenta alcuni casi di segnali multilivello con m da 2 e 5 evidenziando che, a parità di Smax e di T_{\varepsilon }, il rumore deve via via diminuire e quindi corrispondentemente incrementarsi il rapporto Smax / Neff. Tale rapporto (in decibel) aumenta di 6\,\text{dB} per m che passa da 2 a 3 e di altri 6\,\text{dB} quando m raggiunge 5.
Da quanto sopra, è possibile tracciare una famiglia di curve che, sempre per le condizioni teoriche di partenza (canale senza interferenza d'intersimbolo, equiprobabilità dei vari livelli m della sorgente numerica, rumore gaussiano), mostrano il legame tra il T_{\varepsilon } sulla trasmissione numerica ed il rapporto Smax / Neff al punto di decisione (riferiamoci ancora alla Fig.22).
La Fig.22 mostra inoltre che in ricezione prima del riconoscimento, devono essere previste delle tensioni di soglia (da Vs a Vs(m − 1)) in modo da realizzare gli m − 1 punti di decisione per le m − 1 soglie; una rete logica elabora poi le risposte dei vari punti di decisione e fornisce l'informazione del livello (da 1 ad m) riconosciuto per ogni istante caratteristico.

4.1 Probabilità d'errore e margine di rumore equivalente

Come discusso più e più volte, nei sistemi digitali l'interesse primario è la qualità dell'informazione ricevuta. Poiché l'informazione è numerica e di solito ha una rappresentazione binaria, la qualità misurata è misurata in termini di probabilità d'errore sul bit (BER, Bit Error Rate). Un errore si verifica ogni volta che un bit trasmesso e il corrispondente bit ricevuto non corrispondono; questo è un evento casuale a tutti gli effetti. Chiamiamo n il numero di errori osservati in una sequenza di bit di lunghezza N; allora la definizione del BER, in termini di frequenza relativa, è data dalla seguente:

\text{BER}:=\lim_{N,\infty}\left ( \frac{n}{N} \right )\,\,\,\,\,\,\text{(XL)}

Nei ponti radio numerici di ultima generazione, così come in altri sistemi digitali in esercizio oggigiorno, sono spesso usate altre misure di qualità molto simili alla probabilità d'errore. Per esempio, nella trasmissione di informazioni a pacchetto, indipendentemente dal fatto che nel pacchetto ci sia un solo errore o un centinaio, l'intero pacchetto deve essere scartato. In questi sistemi, la misura di qualità usata è spesso la probabilità d'errore sul pacchetto (PER, Packet Error Rate), che può essere direttamente legata al BER se gli errori sono statisticamente indipendenti.
Un altro indicatore di qualità utilizzato molte volte in questa trattazione, è il rapporto segnale/rumore che consente, peraltro, di poter effettuare un confronto tra diverse tecniche di mo-demodulazione in termini di prestazioni. Concettualmente sarebbe utile una cifra di merito come quella impiegata nei sistemi analogici, da poter assegnare a ogni schema di trasmissione numerica. Sfortunatamente non è così facile per un sistema numerico, poiché di solito la qualità non è funzione lineare del margine di rumore (definito anche con la sigla SNR).
E' possibile comunque definire l'equivalente di un SNR di riferimento per i sistemi numerici. In particolare, l'SNR di riferimento è il rapporto tra l'energia per bit d'informazione e la densità spettrale di rumore unilatera, ovvero:

\text{SNR}^{\text{digital}}_{\text{ref}}:=\frac{E_{b}}{N_{0}}\,\,\,\,\,\,\text{(XLI)}

Occorre precisare che questa definizione differisce da quella data in ambito analogico per tre aspetti basilari:

  1. la definizione analogica è un rapporto tra potenze, mentre quella numerica è un rapporto tra energie, dal momento che l'unità di misura della densità spettrale di rumore è watt/Hz, equivalente ad un'energia. Di conseguenza, la definizione numerica è adimensionale come quella analogica;
  2. la definizione numerica usa la densità spettrale di energia unilatera; cioè, assume che tutto il rumore si trovi a frequenze positive. Questa ipotesi è semplicemente conveniente;
  3. l'SNR di riferimento è indipendente dalla velocità di trasmissione. Poiché è un rapporto tra energie, è stato normalizzato al ritmo di trasmissione del bit.

Fatta questa premessa, la probabilità d'errore e l'SNR sono legati tra loro attraverso il numero di livelli del segnale discreto e alla loro probabilità di verificarsi.
Con buona approssimazione si può ammettere che il rumore sia additivo e che abbia una distribuzione di probabilità delle ampiezze di tipo gaussiano e pertanto si considera noto il suo valore efficace Neff (cioè σN). Per quanto esposto in merito agli errori di omissione e commissione e alla discussione sulle aree \Delta \varepsilon _{o} e \Delta \varepsilon _{c} che rappresentano il tasso d'errore T_{\varepsilon }, si evidenzia come sia possibile dimostrare che le varie funzioni di errore, ricavabili per i vari tipi di segnali numerici (unipolari e bipolari) a 2,3,4,...,m livelli, siano sempre proporzionali ad una funzione base d'errore che è quella relativa all'i-esimo livello fra gli m di un segnale multilivello, distanziati dell'intervallo d, come di seguito illustrato:

Fig24.jpg

Fig24.jpg

La funzione base d'errore di Fig.24 non è altro che l'andamento delle aree (\Delta \varepsilon _{c} + \Delta \varepsilon _{o}) rapportate all'intera area unitaria della gaussiana al variare del valore efficace σN del rumore e cioè, avendo fissato le soglie \pm d/2, al variare del rapporto \frac{d}{2\sigma _{N}}; tale funzione d'errore è definita da (supponendo ragionevolmente \Delta \varepsilon _{c}=\Delta \varepsilon _{o}=\Delta \varepsilon):

P_{\varepsilon }=2\Delta \varepsilon =\frac{2}{\sqrt{2\pi }}\int_{d/2}^{\infty}e^{-\frac{x^{2}}{2}}\text{d}x=\text{ERFC}\left ( \frac{d}{2\sigma _{N}} \right )\,\,\,\,\,\,\text{(XLII)}

e risulta tabulata come segue:

Tab2_1.jpg

Tab2_1.jpg

Dalla tabella osserviamo chhe, al diminuire del margine di rumore a passi di 1\,\text{dB}, si ha una pendenza di una decade per dB nell'intervallo \Delta \varepsilon \in (10^{-4};10^{-8}) e la presenza dell'effetto cliff: ovvero si ha un ΔS / N di soli 4\div 5\,\text{dB} di passo da T_{\varepsilon }\approx 10^{-7} a T_{\varepsilon }\approx 10^{-3}; in altre parole, si passa da una trasmissione ottima ad una fortemente degradata.

4.2 Accumulo del tasso d'errore

Poiché i sistemi reali di trasmissione numerica non si riconducono sempre ad un solo canale di trasmissione ma, come nel caso dell'affasciamento di più canali radio nello stesso mezzo trasmissivo, ad una cascata di canali elementari, è necessario esaminare la possibilità di risalire dalla probabilità d'errore del singolo canale a quella relativa all'intero collegamento.
Ipotizzando ragionevolmente che ogni canale fornisca la stessa probabilità d'errore P_{\varepsilon }, la probabilità d'errore totale P_{\varepsilon T} alla fine della catena degli N canali elementari, equivale alla somma delle singole P_{\varepsilon }; per P_{\varepsilon }<<1, cioè per tutta la gamma di valori interessanti la qualità dei collegamenti numerici è infatti dimostrabile che:

P_{\varepsilon T}\approx N\cdot P_{\varepsilon }

Passando dalla probabilità d'errore al tasso d'errore T_{\varepsilon } quale parametro reale riscontrabile e misurabile nella pratica, è quindi possibile affermare che in una catena di canali di trasmissione la legge di accumulo del T_{\varepsilon } è lineare e che gli errori si sommano.
Questa legge risulta molto utile in fase di progettazione dei sistemi reali in quanto permette, una volta definito il T_{\varepsilon } globale richiesto ad un collegamento composto da N canali elementari, di definire il T_{\varepsilon } del singolo canale e quindi poter valutare correttamente i parametri del canale stesso (segnale, rumore, distorsione intersimbolica, ecc.).

4.3 Il problema dell'interferenza intersimbolica

Per comprendere bene questo problema, occorre effettuare una sintetica ma formale rivisitazione dello studio relativo alla trasmissione numerica in banda base (già sviluppata nella terza parte, seppure con un approccio non troppo rigoroso); consideriamo pertanto il seguente schema di principio di un sistema di trasmissione numerica:

Il messaggio inviato dalla sorgente è costituito da una sequenza ordinata di cifre:

...,d − 2,d − 1,d0,d1,d2,...

appartenenti all'alfabeto binario i cui elementi si denotano con 0 e 1. Nel caso (come il nostro) di trasmissione sincrona le cifre dn sono emesse dalla sorgente con cadenza regolare; detto allora T0 il periodo di cifra, la quantità:

r=\frac{1}{T_{0}}\,\,\,\,\,\,\text{(XLIII)}

costituisce il ritmo binario (bitrate) e rappresenta il numero di cifre che la sorgente emette nell'unità di tempo.
In Fig.25 si distinguono i seguenti blocchi:

a) un trasmettitore che associa alla sequenza di cifre binarie del messaggio una successione di forme d’onda, dette forme di segnalazione, appartenenti ad un insieme \mathbf{S_{M}}=\left \{ s_{n}(t) \right \}_{n=0}^{M-1} di M segnali distinti;
b) un mezzo trasmissivo la cui uscita r(t) è, in generale, una replica poco fedele del segnale in ingresso v(t) per effetto delle distorsioni, delle interferenze e dei disturbi prodotti dal canale;
c) un ricevitore il quale, a partire da r(t), fornisce in uscita il messaggio:
...,\widehat{d}_{-2},\widehat{d}_{-1},\widehat{d}_{0},\widehat{d}_{1},\widehat{d}_{2},...
in genere diverso da quello originario.

Nel caso di trasmissione in banda base, il segnale numerico v(t) in uscita dal modulatore è costituito da una sequenza di forme di segnalazione traslate nel tempo; esso quindi può essere espresso nella forma:

v(t)=\sum_{n=-\infty}^{\infty}s_{n}(t-nT)\,\,\,\,\,\,\text{(XLIV)}

dove sn(t) rappresenta un elemento dell’insieme delle forme di segnalazione \mathbf{S_{M}} che si suppone sia caratterizzato da una trasformata di Fourier concentrata attorno alla frequenza zero.
In quel che segue, si suppone che le segnalazioni sn(t) siano confinate nell'intervallo [0,T) e che pertanto costituiscono dei segnali ed energia finita. Nel caso di segnalazione binaria l’insieme \mathbf{S_{M}} contiene solo due elementi (M = 2) che sono associati ai simboli binari secondo la seguente regola:

\begin{matrix}d=0\Rightarrow s_{0}(t)\\ d=1\Rightarrow s_{1}(t)\end{matrix}\,\,\,\,\,\,\text{(XLV)}

schematizzata nella figura seguente:

Nel caso più generale di trasmissione M-aria, le forme di segnalazione sono poste in corrispondenza a gruppi di k simboli (parole). In altri termini, la sequenza dei dati emessa dalla sorgente è dapprima raggruppata in parole di k elementi e poi a ogni configurazione di k cifre si associa una forma di segnalazione sn(t). Naturalmente poiché esistono 2k distinte parole di lunghezza m si dovrà avere:

M=2^{k}\,\,\,\,\,\,\text{(XLVI)}

La quantità T, in genere diversa da T0, costituisce il periodo di simbolo. Il suo inverso:

R=\frac{1}{T}\,\,\,\,\,\,\text{(XLVII)}

è esattamente la velocità di trasmissione per simbolo precedentemente definita, detta anche velocità di modulazione, e individua il numero di simboli M-ari trasmessi nell'unità di tempo. Come mostrato nella sezione relativa alla teoria dell'informazione, la sua unità di misura è il baud o simboli/s.
Una particolare forma di segnalazione è data dalla:

s_{n}(t)=a_{n}p(t)\,\,\,\,\,\,\text{(XLVIII)}

dove an rappresenta un simbolo numerico appartenente ad un alfabeto di M elementi e p(t) il cosiddetto impulso di segnalazione, supposto confinato in [0,T) (nei sottoparagrafi relativi ai criteri di Nyquist, per semplificare i calcoli, supporremo p(t)=\delta (t)). Un segnale di questo tipo è denominato segnale PAM (Pulse Amplitude Modulation) multilivello o segnale PAM M-ario. L’espressione del segnale PAM è quindi:

v(t)=\sum_{n=-\infty}^{\infty}a_{n}p(t-nT)\,\,\,\,\,\,\text{(XLIX)}

Nella segnalazione PAM in genere i simboli sono distribuiti simmetricamente rispetto allo zero e si ha:

a_{n}=2n-(M+1)_{n=1,2,...,M}\,\,\,\,\,\,\text{(L)}

Quanto detto è mostrato nella seguente figura:

Nel caso di segnale PAM binario si ha la seguente corrispondenza:

\begin{matrix}d=0\Rightarrow a=-1\\ d=1\Rightarrow a=+1\end{matrix}\,\,\,\,\,\,\text{(LI)}

che è la nota codifica bipolare. Chi volesse approfondire gli altri tipi di codifica, può consultare la mia precedente trattazione svolta in merito alla tecnica di modulazione PCM.
Dunque, all'uscita del modulatore PAM il segnale e’ costituito da una sequenza di impulsi (approssimativamente ideali) cui si associa ad ognuno l’area an e trasmessi con cadenza R=\frac{1}{T}:

Osservando la catena di Fig.25, ci si rende facilmente conto che il segnale ricevuto è una versione distorta del segnale prodotto dal trasmettitore e corrotta da disturbi. Se in quel che segue il mezzo di trasmissione si schematizza come un sistema lineare e tempo invariante, caratterizzato cioè da una risposta impulsiva pari a ht(t), la sola causa di disturbo che è presa in considerazione è costituita da un rumore additivo che si suppone di tipo gaussiano, a valore medio nullo, ed indipendente dalla sequenza dei simboli trasmessi. In tale circostanza il segnale in arrivo al ricevitore è pertanto espresso dalla:

r(t)=\sum_{n=-\infty}^{\infty}\overline{s}_{n}(t-nT)+n(t)\,\,\,\,\,\,\text{(LII)}

dove:

\overline{s}_{n}(t)=s_{n}(t)\star h_{t}(t)\,\,\,\,\,\,\text{(LIII)}

rappresenta la forma di segnalazione in uscita dal canale quando al suo ingresso è presente il segnale sn(t). Trascurando momentaneamente il contributo del rumore, la forma d'onda in uscita dal filtro ricevitore è approssimativamente la seguente:

La decisione sul simbolo trasmesso può essere eseguita leggendo il segnale ricevuto all'istante tk = kT + τ, dove risulta \tau \in [0,T). Risulta pertanto:

r(t_{k})=\sum_{n=-\infty}^{\infty}\overline{s}_{n}[(k-n)T+\tau ]+n(t_{k})=
=\overline{s}_{k}(t)+\sum_{k\neq n=-\infty}^{\infty}\overline{s}_{n}[(k-n)T+\tau ]+n(t_{k})\,\,\,\,\,\,\text{(LIV)}

Nella (LIV) si distinguono tre termini:

  1. la quantità \overline{s}_{k}(t) che costituisce il segnale utile dato che è posta in corrispondenza con la segnalazione sk(t) trasmessa all'istante kT;
  2. la quantità \sum_{n\neq k}\overline{s}_{n}[(k-n)T+\tau ] che tiene conto della trasmissione di tutti i dati emessi dalla sorgente eccetto il k-esimo e che pertanto costituisce la cosiddetta interferenza d’intersimbolo (ISI InterSymbol Interference);
  3. la quantità n(tk) che costituisce il rumore prodotto dal mezzo di trasmissione.

Trascurando ancora una volta per semplicità il rumore, osserviamo dalla seguente figura l'effetto distorcente causato dall'ISI:

Possiamo notare che se le forme di segnalazione sono confinate nell'intervallo [0,T) ed il mezzo di trasmissione è schematizzato come un canale ideale di banda sufficientemente ampia da accomodare completamente il segnale numerico, si ha:

\overline{s}_{n}(t)=As_{n}(t-t_{d})\,\,\,\,\,\,\text{(LV)}

dove A denota l’attenuazione o il guadagno (a seconda se è A < 1 o A > 1) del mezzo di trasmissione e td il ritardo di propagazione. In tali condizioni l’interferenza di intersimbolo è nulla e la (LIV), tenendo conto della (LV), si riduce alla:

r=s(\tau )+n\,\,\,\,\,\,\text{(LVI)}

dove si è posto, per comodità di scrittura, r = r(tk), s(τ) = sk(τ), n = n(tk) e, per semplicità, A = 1 e td = 0. Quest'ultima posizione comporta che il ricevitore conosca esattamente il valore del ritardo di propagazione o, detto in altri termini, che esso sia in grado di produrre un perfetto sincronismo (situazione realistica per i ponti radio numerici).

Nei casi reali il canale di trasmissione ha una banda limitata, sicché introduce distorsioni ed il segnale è corrotto da disturbi ed interferenze provenienti da altre trasmissioni; cosicché, supponendo il canale lineare e tempo invariante e il rumore introdotto di tipo additivo, si può scrivere:

r(t)=\sum_{n=-\infty}^{\infty}a_{n}q(t-nT-t_{d})+n(t)\,\,\,\,\,\,\text{(LVII)}

in cui q(t) denota la risposta del canale all'impulso di segnalazione p(t) ed n(t) il rumore in uscita. Nella (LVII) td denota sempre il ritardo introdotto dal canale, \frac{1}{T} la velocità di modulazione e \left \{ a_{n} \right \} la sequenza numerica trasmessa in cui le cifre an appartengono ad un alfabeto ad M dimensioni. Supponendo che il ricevitore si avvalga di un perfetto sincronismo, il valore rk di r(t) all'istante tk = kT + td + τ si può porre nella forma:

r_{k}=a_{k}q(\tau )+\sum_{k\neq n=-\infty}^{\infty}a_{n}q[(k-n)T+\tau ]+n(t_{k})\,\,\,\,\,\,\text{(LVIII)}

Nella (LVIII) distinguiamo ancora tre termini:

  • la quantità akq(τ) che costituisce il segnale utile dato che essa è proporzionale al valore ak del simbolo che si vuole rivelare;
  • la quantità \sum_{n\neq k}a_{n}q[(k-n)T+\tau ] che tiene conto della presenza di tutti i simboli ak della sequenza trasmessa, eccetto il k-esimo, e che pertanto costituisce ancora il termine di interferenza intersimbolica:
i(t_{k})=\sum_{k\neq n=-\infty}^{\infty}a_{n}q[(k-n)T+\tau ]=\sum_{0\neq m=-\infty}^{\infty}a_{k-m}q(mT+\tau )\,\,\,\,\,\,\text{(LIX)}
  • la quantità n(tk) che tiene conto del rumore introdotto dal canale.

Se l’impulso di segnalazione p(t) si suppone nullo per t < 0, la condizione di causalità imposta al canale comporta che q(t) = 0 per t < 0 cosicché l’interferenza d’intersimbolo diventa \sum_{n=-\infty}^{k-1}a_{n}q[(k-n)T+\tau ] dato che tiene conto soltanto di tutti gli elementi della sequenza \left \{ a_{n} \right \} che precedono quello di posto k. Poiché il termine i(tk) può ritenersi indipendente dal rumore additivo n(tk), il segnale utile è allora corrotto da un disturbo equivalente i(tk) + n(tk) la cui potenza specifica risulta maggiore di quella del solo rumore n(tk); ciò comporta quindi un incremento della probabilità di errore!

4.4 Caratteristiche statiche dell'ISI

L’interferenza di intersimbolo, definita dalla (LIX), è una variabile aleatoria, dipendendo dalla sequenza dei dati \left \{ a_{n} \right \} che, in quel che segue, supponiamo costituita da elementi indipendenti ed equiprobabili. Essa pertanto può essere caratterizzata dal valore medio e dalla varianza. Nel calcolo di tali parametri è opportuno distinguere il caso di codifica binaria dal caso di codifica multilivello (ponti radio numerici).

4.4.1 Codifica binaria

In questo caso i dati appartengono all'alfabeto \left \{ -1,1 \right \} e si definiscono:

a) VALORE MEDIO
Si ha:
\mathbf{E}[i]=\mathbf{E}\left [ \sum_{0\neq m=-\infty}^{\infty}a_{k-m}q(mT+\tau ) \right ]=\sum_{0\neq m=-\infty}^{\infty}\mathbf{E}[a_{k-m}]q(mT+\tau )\,\,\,\,\,\,\text{(LX)}

per la linearità dell'operatore media e poiché \mathbf{E}[a_{n}]=0, supposta l'indipendenza e l'equiprobabilità, comporta \mathbf{E}[i]=0.


b) VARIANZA
Si ha:
\mathbf{E}[i^{2}]=\mathbf{E}\left \{ \left [ \sum_{0\neq m=-\infty}^{\infty}a_{k-m}q(mT+\tau ) \right ]^{2} \right \}=
=\mathbf{E}\left [ \sum_{0\neq m=-\infty}^{\infty}\sum_{0\neq n=-\infty}^{\infty}a_{k-m}a_{k-n}q(mT+\tau )q(nT+\tau ) \right ]=
=\sum_{0\neq m=-\infty}^{\infty}\sum_{0\neq n=-\infty}^{\infty}\mathbf{E}[a_{k-m}a_{k-n}]q(mT+\tau )q(nT+\tau )=\sum_{0\neq m=-\infty}^{\infty}q^{2}(nT+\tau )\,\,\,\,\,\,\text{(LXI)}

dal momento che risulta:
\mathbf{E}[a_{k-m}a_{k-n}]=\left\{\begin{matrix}0\,\,\,(m\neq n)\\ 1\,\,\,(m=n)\end{matrix}\right.\,\,\,\,\,\,\text{(LXII)}


nota come condizione di ortogonalità dei simboli, i quali risultano pertanto simultaneamente generatori di base e linearmente indipendenti.
c) VALORE MASSIMO
Una particolare caratteristica dell’interferenza di intersimbolo è costituita dal suo valore massimo. Si ha:
|i_{max}|=\left | \sum_{k\neq n=-\infty}^{\infty}a_{k-m}q(mT+\tau ) \right |\leq \sum_{0\neq m=-\infty}^{\infty}|a_{k-m}||q(mT+\tau )|=
=\sum_{0\neq m=-\infty}^{\infty}|q(mT+\tau )|\,\,\,\,\,\,\text{(LXIII)}


dove la maggiorazione effettuata è una conseguenza diretta della diseguaglianza di Schwarz.
4.4.2 Codifica multilivello

Nel caso di codifica multilivello, fondamentale per capire successivamente quali accorgimenti prendere in modo da evitare distorsioni da intersimbolo nel progetto del ponte radio numerico, i dati appartengono all'alfabeto \mathbf{A}\equiv \left \{ a_{n}=2n-M-1 \right \}_{m=1}^{M}, per cui ricordando le relazioni notevoli sulle serie geometriche:

\sum_{n=1}^{M}n=\frac{M(M+1)}{2}
\sum_{n=1}^{M}n^{2}=\frac{M(M+1)(2M+1)}{6}

si possono dedurre le espressioni del valore medio, della varianza e del valore massimo dell’interferenza di intersimbolo come segue:

a) VALORE MEDIO
Si ha:
\mathbf{E}[i]=\mathbf{E}\left [ \sum_{0\neq m=-\infty}^{\infty}a_{k-m}q(mT+\tau ) \right ]=\sum_{0\neq m=-\infty}^{\infty}\mathbf{E}[a_{k-m}]q(mT+\tau )\,\,\,\,\,\,\text{(LXIV)}

la quale, risultando:
\mathbf{E}[a_{n}]=\mathbf{E}[2n-M-1]=\frac{1}{M}\sum_{n=1}^{M}(2n-M-1)=
=\frac{1}{M}\left [ 2\frac{M(M+1)}{2}-M(M+1) \right ]=0\,\,\,\,\,\,\text{(LXV)}

riduce a zero il valore medio.


b) VARIANZA
Si ha:
\mathbf{E}[i^{2}]=\sum_{0\neq m=-\infty}^{\infty}\sum_{0\neq n=-\infty}^{\infty}\mathbf{E}[a_{k-m}a_{k-n}]q(mT+\tau )q(nT+\tau )\,\,\,\,\,\,\text{(LXVI)}

e poiché risulta:
\mathbf{E}[a_{n}a_{m}]=\left\{\begin{matrix}\mathbf{E}[a_{n}]\mathbf{E}[a_{m}]=0\,\,\,(m\neq n)\\ \mathbf{E}[a_{n}^{2}]\,\,\,(m=n)\end{matrix}\right.\,\,\,\,\,\,\text{(LXVII)}

con:
\mathbf{E}[a_{n}^{2}]=\frac{1}{M}\sum_{n=1}^{M}(2n-M-1)^{2}=\frac{1}{M}\left [ 4\sum_{n=1}^{M}n^{2}-4(M+1)\sum_{n=1}^{M}n+M(M+1)^{2} \right ]=

=\frac{1}{M}\left \{ 4\left [ \frac{M(M+1)(2M+1)}{6} \right ]-4(M+1)\frac{M(M+1)}{2}+M(M+1)^{2} \right \}=

=\frac{M(M+1)}{M}\left [ \frac{2}{3}(2M+1)-2(M+1)+(M+1) \right ]=(M+1)\left ( \frac{M}{3}-\frac{1}{3} \right )=

= \frac{M^{2}-1}{3}\,\,\,\,\,\,\text{(LXVIII)}


risulta dunque:
\mathbf{E}[i^{2}]=\frac{M^{2}-1}{3}\sum_{0\neq n=-\infty}^{\infty}q^{2}(nT+\tau )\,\,\,\,\,\,\text{(LXIX)}


c) VALORE MASSIMO
Si ha:
|i_{max}|\leq \sum_{0\neq m=-\infty}^{\infty}|a_{k-m}||q(mT+\tau )|=|a_{n}|_{m\,max}\sum_{0\neq m=-\infty}^{\infty}|q(mT+\tau )|\,\,\,\,\,\,\text{(LXX)}

ed essendo:
|a_{n}|_{m\,max}=M-1\,\,\,\,\,\,\text{(LXXI)}

la (LXX) diviene in definitiva:
|i_{max}|\leq (M-1)\sum_{0\neq m=-\infty}^{\infty}|q(mT+\tau )|\,\,\,\,\,\,\text{(LXXII)}


4.5 Criteri di Nyquist per la riduzione dell'interferenza intersimbolica

Come già accennato nei precedenti sottoparagrafi ed anche nella terza parte della trattazione, in merito alla trasmissione in BB, è possibile intervenire sulla f.d.t. globale del canale C(ω) (comunemente definita per brevità forma del canale) operando o sul filtro di trasmissione F(ω) (cioè in pratica dando una particolare forma agli impulsi di segnalazione tale da non introdurre ISI o comunque ridurla al minimo tollerabile) o sul filtro di ricezione R(ω) (quindi operando sull'equalizzazione). Ci proponiamo quindi di esaminare i criteri con i quali scegliere le forme migliori per il canale globale al fine di determinare condizioni idonee alla trasmissione di sequenze di simboli alla velocità di segnalazione VS. In altri termini, data VS, si tratta di definire:

  • la larghezza minima di banda da impiegare;
  • la forma del canale nella banda impiegata (intesa come ampiezza e fase).

Nel 1928, H. Nyquist formulò alcuni enunciati fondamentali per la risposta ai quesiti di cui sopra; tali enunciati hanno poi preso il suo nome avendo egli dato per primo un assetto rigorosamente matematico a tutto il problema della trasmissione in banda base.
Come prima cosa Nyquist dimostrò che non è possibile segnalare su di un canale di banda B ad una velocità VS superiore a 2B:

V_{S}=2B\,\,\,\text{baud}\,\,\,\,\,\,\text{(LXXIV)}

Come corollario deriva che, data una sorgente di informazioni discrete di velocità di segnalazione VS, per trasmettere a distanza i suoi simboli è sufficiente un canale di larghezza di banda B=f_{N}\,\text{Hz} (la nota frequenza di Nyquist) data da:

B=\frac{V_{S}}{2}\,\,\,\text{Hz}\,\,\,\,\,\,\text{(LXXV)}

Perché tale relazione risulti verificata è necessario che il canale di trasmissione (o canale di Nyquist) sia ideale e cioè non abbia distorsione di fase. Per quanto riguarda le "forme" del canale C(ω) che soddisfano la (LXXV), Nyquist identificò alcuni criteri (denominati per l'appunto criteri di Nyquist) che adottano differenti modalità con cui effettuare, in ricezione, la decisione sullo stato dei simboli. In base alla modalità adottata per il riconoscimento, varia il criterio che la forma d'onda ricevuta (corrispondente alla risposta impulsiva c(t) di tutto il canale) deve soddisfare per rendere la decisione insensibile alla presenza dell'interferenza intersimbolica.
I criteri di Nyquist sono tre e verranno di seguito esaminati singolarmente.

4.5.1 Primo criterio

Il primo criterio di Nyquist fa riferimento alla decisione effettuata, per campionamento, nell'istante centrale di un intervallo di segnalazione.
Pertanto la forma d'onda della risposta impulsiva, nell'istante di campionamento, è proporzionale all'ampiezza an dell'impulso δ di Dirac corrispondente al simbolo trasmesso, e quindi in tale istante l'interferenza intersimbolica deve essere nulla. Nyquist dimostrò che adottando una C(ω) con le seguenti caratteristiche:

\begin{matrix}
C(\omega )=1\,\,\,\text{per}\,\,\,|\omega |\leq 2\pi f_{N}\\ 
C(\omega )=0\,\,\,\text{per}\,\,\,|\omega |> 2\pi f_{N}
\end{matrix}\,\,\,\,\,\,\text{(LXXVI)}

è possibile trasmettere e riconoscere simboli con velocità di segnalazione V_{S}=2\cdot f_{N} e quindi distanziati di un periodo T_{0}=\frac{1}{2f_{N}}. Infatti la risposta impulsiva c(t) dovuta a C(ω) definita dalla (LXXVI) è del tipo seno cardinale, con passaggi per lo zero corrispondenti agli istanti \pm \frac{n}{2}f_{N}, realizzando quindi la condizione di ISI nulla.
E' facilmente intuibile però che questo canale proposto da Nyquist non è fisicamente realizzabile in quanto:

  • non è possibile costruire un filtro passa basso ideale senza distorsione di fase e con un fronte perpendicolare dove l'attenuazione sale all'infinito;
  • non è conveniente usare una risposta impulsiva di tipo sinc(x) in quanto, per porco che il campionatore sia affetto da jitter o da lieve sfasatura costante, si incorre in elevata distorsione intersimbolica.

Per superare tale inconveniente, Nyquist propose un corollario al primo criterio che può essere così espresso:
« Se alla caratteristica ideale passa basso C(ω) si aggiunge, rispetto alla frequenza di Nyquist fN, una f.d.t C1(ω) con simmetria dispari, si ottiene una risposta impulsiva di pari ampiezza ma con oscillazioni ridotte e passaggi per lo zero sempre negli istanti \pm \frac{n}{2}f_{N} ». In altre parole, C1(ω) deve essere del tipo:

C_{1}(2\pi f_{N}-h)=-C_{1}(2\pi f_{N}+h)\,\,\,\text{per}\,\,\,0<|h|<2\pi f_{N}\,\,\,\,\,\,\text{(LXXVII)}

Pertanto la nuova caratteristica globale C(ω) vale:

C(\omega )=\left\{\begin{matrix}
1+C_{1}(\omega )\,\,\,\text{per}\,\,\,|\omega |<2\pi f_{N}\\ 
C_{1}(\omega )\,\,\,\text{per}\,\,\,2\pi f_{N}<|\omega |<2\pi 2f_{N}
\end{matrix}\right.\,\,\,\,\,\,\text{(LXXVIII)}

Una funzione C(ω) che soddisfi il primo criterio ed il corollario precedente è quella a coseno rialzato:

C(\omega )=\frac{1}{2}\left ( 1+\cos\frac{\pi }{2}\frac{\omega }{2\pi f_{N}} \right )\,\,\,\text{per}\,\,\,0<|\omega |<2\pi 2f_{N}\,\,\,\,\,\,\text{(LXXIX)}

Infatti essa può essere scomposta nella somma di C0(ω) e C1(ω) dove:

C_{0}(\omega )=\left\{\begin{matrix}
1\,\,\,\text{per}\,\,\,0<|\omega |\leq 2\pi f_{N}\\ 
1\,\,\,\text{per}\,\,\,|\omega |> 2\pi f_{N}
\end{matrix}\right.

equivale alla (LXXVI) e corrisponde a un filtro ideale passa basso, mentre:

C_{1}(\omega )=C(\omega )-C_{0}(\omega )=\left\{\begin{matrix}
-\frac{1}{2}+\frac{1}{2}\cos\frac{\pi }{2}\frac{\omega }{2\pi f_{N}}\,\,\,\text{per}\,\,\,0<|\omega |<2\pi f_{N}\\ 
\frac{1}{2}+\frac{1}{2}\cos\frac{\pi }{2}\frac{\omega }{2\pi f_{N}}\,\,\,\text{per}\,\,\,2\pi f_{N}<|\omega |<2\pi 2f_{N}
\end{matrix}\right.\,\,\,\,\,\,\text{(LXXX)}

soddisfa le condizioni imposte dalla (LXXVII) osservando i valori di ω a sinistra e a destra di fN. La forma a coseno rialzato appartiene ad una classe più generale di funzioni che soddisfano il primo criterio ed il suo corollario; tali funzioni sono del tipo:

C(\omega )=\left\{\begin{matrix}
1\,\,\,\text{per}\,\,\,|\omega |<2\pi f_{N}-h\\ 
\frac{1}{2}\left ( 1-\sin\frac{\pi }{2}\frac{\omega -2\pi f_{N}}{h} \right )\,\,\,\text{per}\,\,\,\left\{\begin{matrix}
2\pi f_{N}-h<|\omega |\\ 
2\pi f_{N}+h>|\omega |
\end{matrix}\right.\\ 
0\,\,\,\text{per}\,\,\,|\omega |>2\pi f_{N}+h
\end{matrix}\right.

e sono dette a roll off sinusoidale dove in questo caso il parametro di roll off (ampiamente discusso nella terza parte) risulta R=\frac{h}{2\pi f_{N}}.
Il canale a coseno rialzato è in genere il modello di riferimeno, con R\in [0,7;1], per i sistemi reali; rimangono però le difficoltà pratiche dovute all'impossibilità di ottenere distorsione di fase nulla e attenuazione infinita dalla ω > 2πfN + h in poi.
Al fine di ridurre anche quest'ultima difficoltà è possibile dare a C(ω) una forma gaussiana come riportato di seguito:

Osserviamo che nella figura compare anche la risposta impulsiva che non presenta pendolamenti e interferenza intersimbolica praticamente nulla. Il canale con forma gaussiana è in pratica usato come alternativa a quello a coseno rialzato.

4.5.2 Secondo criterio

Il secondo criterio di Nyquist fa riferimento alla decisione effettuata per attraversamento di soglia e pertanto gli istanti di transizione in questo modo individuati devono risultare distanti tra loro esattamente di tempi multipli del tempo T0 di segnalazione.
La forma d'onda della risposta impulsiva che risponde a questo criterio ha l'andamento di seguito mostrato:

In tale figura notiamo che il valore della soglia yk = 0,78 è raggiunta negli istanti \pm T_{0}/2 detti appunto istanti di transizione; la forma d'onda attraversa inoltre lo zero negli istanti \pm n\frac{T_{0}}{2}=\pm \frac{1}{4}f_{N} con n = 3,5,7,... e quindi negli istanti di transizione di tutti gli altri simboli (fuorché quelli adiacenti) realizzando così la condizione di ISI nulla.
Negli istanti di transizione l'ampiezza della forma d'onda, quando non è più relativa ad un impulso isolato ma ad una sequenza di simboli anδ (non solo binari ma anche multilivello), è proporzionale alla media delle ampiezze dei simboli adiacenti ed in questo modo può essere riconosciuto il segnale trasmesso individuandone i tempi di transizione fra un simbolo e l'altro. Quanto appena esposto, è illustrato nella seguente figura per segnale binario:

Fig33.jpg

Fig33.jpg

e nella seguente, per sequenza multilivello:

Fig34.jpg

Fig34.jpg

Si può pertanto scrivere:

\begin{matrix}
(\text{al tempo}-T_{0}/2)\rightarrow y_{k}\equiv (a_{k-1}+a_{k})/2\\ 
(\text{al tempo}+T_{0}/2)\rightarrow y_{k}\equiv (a_{k}+a_{k+1})/2
\end{matrix}

dove ak è il generico simbolo della sequenza anδ al tempo tk della temporizzazione di segnalazione. Questa dipendenza nel riconoscimento di ciascun simbolo da quello precedente è tuttavia un grosso inconveniente a causa della propagazione d'errore in caso di errato riconoscimento di un simbolo.
Nyquist dimostrò che adottando una C(ω) con le caratteristiche seguenti, è possibile ottenere una risposta impulsiva che soddisfi il secondo criterio:

C(\omega )=\left\{\begin{matrix}
\cos\frac{\pi }{2}\frac{\omega }{2\pi f_{N}}\,\,\,\text{per}\,\,\,0\leq |\omega |\leq 2\pi f_{N}\\ 
0\,\,\,\text{per}\,\,\,|\omega |>2\pi f_{N}
\end{matrix}\right.\,\,\,\,\,\,\text{(LXXXI)}

Per quanto esposto, il secondo criterio di Nyquist viene denominato anche criterio di non distorsione (ereditando il termine dai tempi in cui si adoperava la telegrafia ordinaria, infatti il riconoscimento e la ricostruzione dei simboli binari doveva avvenire per semplice superamento di una soglia opportuna).
In realtà nemmeno la forma C(ω) della (LXXXI) non è fisicamente realizzabile; anche in questo caso Nyquist propose un corollario al secondo criterio che si può così esplicare:
« Se si somma alla caratteristica C(ω) precedente un'altra C1(ω) con simmetria pari rispetto fN, si ottengono i vantaggi già visti con il primo criterio (diminuzione delle ampiezze dei pendolamenti) e non si alterano le proprietà del secondo criterio, in quanto la risposta impulsiva della funzione C1(ω) aggiunta, ha gli attraversamenti per lo zero a tempi multipli dispari di T0 / 2 ». La f.d.t. aggiunta è pertanto del tipo:

C_{1}(2\pi f_{N}-h)=C_{1}(2\pi f_{N}+h)\,\,\,\,\,\,\text{(LXXXII)}

Pertanto la nuova caratteristica globale C(ω) risulta:

C(\omega )=\left\{\begin{matrix}
\cos\frac{\pi }{2}\frac{\omega }{2\pi f_{N}}+C_{1}(\omega )\,\,\,\text{per}\,\,\,0<|\omega |<2\pi f_{N}\\ 
C_{1}(\omega )\,\,\,\text{per}\,\,\,|\omega |>2\pi f_{N}
\end{matrix}\right.\,\,\,\,\,\,\text{(LXXXIII)}

Una funzione C(ω) che verifica il secondo criterio ed il suo corollario è ancora quella a coseno rialzato; infatti essa può essere scomposta, in questo caso, nella somma di C0(ω) e C1(ω), dove:

C_{0}(\omega )=\left\{\begin{matrix}
\cos\frac{\pi }{2}\frac{\omega }{2\pi f_{N}}\,\,\,\text{per}\,\,\,0<|\omega |<2\pi f_{N}\\ 
0\,\,\,\text{per}\,\,\,|\omega |>2\pi f_{N}
\end{matrix}\right.

equivale alla (LXXXI) e corrisponde al filtro ideale del secondo criterio, mentre:

C_{1}(\omega )=C(\omega )-C_{0}(\omega )=\left\{\begin{matrix}
\frac{1}{2}\left ( 1-\cos\frac{\pi }{2}\frac{\omega }{2\pi f_{N}} \right )\,\,\,\text{per}\,\,\,0<|\omega |<2\pi f_{N}\\ 
\frac{1}{2}\left ( 1+\cos\frac{\pi }{2}\frac{\omega }{2\pi f_{N}} \right )\,\,\,\text{per}\,\,\,2\pi f_{N}<|\omega |<2\pi 2f_{N}
\end{matrix}\right.\,\,\,\,\,\,\text{(LXXXIV)}

soddisfa alle condizioni imposte dalla (LXXXII) osservando come sempre i valori della pulsazione nell'intorno di fN. Il fatto di soddisfare sia il primo che il secondo criterio di Nyquist pone la forma del canale a coseno rialzato fra quelle più interessanti per qualsiasi tipologia di trasmissione numerica; infatti solamente questa C(ω) consente di ottenere interferenza intersimbolica nulla sia negli istanti di campionamento al centro degli impulsi, sia sulle loro transizioni. Per questi motivi la risposta impulsiva del canale a coseno rialzato prende anche il nome di impulso ottimo di Nyquist.
Il secondo criterio di Nyquist verrà ripreso nella sesta parte di questa trattazione a proposito del canale a risposta parziale, implementato su tutti i ponti radio numerici in esercizio.

4.5.3 Terzo criterio

Il terzo criterio di Nyquist fa riferimento alla decisione effettuata sull'area della forma d'onda ricevuta considerata entro gli intervalli T0 di segnalazione. L'area considerata deve essere proporzionale all'ampiezza an del corrispondente impulso di Dirac trasmesso, pertanto è necessario evitare l'interferenza d'intersimbolo (intesa come area) negli altri intervalli di segnalazione adiacenti. La forma d'onda della risposta impulsiva deve pertanto sottendere area media diversa da zero nel proprio intervallo di segnalazione, mentre in tutti gli altri intervalli adiacenti l'area media sottesa deve essere nulla.
Nyquist dimostrò che la funzione \frac{x}{\sin x} troncata, soddisfa a tale criterio:

C(\omega )=\left\{\begin{matrix}
\frac{\pi \omega }{2\pi 2f_{N}\cdot \sin \frac{\pi \omega }{2\pi 2f_{N}}}\,\,\,\text{per}\,\,\,0\leq |\omega |\leq 2\pi f_{N}\\ 
0\,\,\,\text{per}\,\,\,|\omega |>2\pi f_{N}
\end{matrix}\right.\,\,\,\,\,\,\text{(LXXXV)}

Questo tipo di decisione basato sull'area sottesa dell'impulso di risposta è comunque scarsamente usato (è stato esposto solo per dovere di cronaca).

4.5.4 Funzione equivalente di Nyquist (estensione del primo criterio)

Le condizioni imposte dal primo criterio sulla risposta impulsiva del canale, sono che le code precedenti e seguenti l'impulso ricevuto devono valere 0 ad intervalli di \pm nT_{0} con n = 1,2,3,.... E' possibile dimostrare che esiste una famiglia di funzioni C(ω) che soddisfano a questa esigenza purché il loro andamento sull'asse delle pulsazioni, precedentemente suddiviso in intervalli di larghezza fN e poi traslati entro la banda fN con "ripiegamenti" dei soli intervalli di ordine pari, dia luogo ad una funzione somma di ampiezza costante e fase lineare. La seguente figura illustra la costruzione grafica della funzione equivalente di Nyquist Ceq(ω):

Fig35.jpg

Fig35.jpg

Alla luce di questa generalizzazione si comprende come il canale passa basso ideale e il canale a coseno rialzato siano due casi particolari di una classe più generale di funzioni.
Questa estensione del primo criterio permette ai progettisti di sagomare il canale con funzioni di andamento più "dolce" e quindi meglio realizzabili pur tenendo conto che l'estensione della banda può creare problemi per l'andamento conseguente del rumore.

4.6 Misura dell'ISI mediante eye pattern

Fino a questo punto della trattazione si è discusso il problema dell'interferenza intersimbolica e di come attenuarla. In questo ultimo sottoparagrafo descriveremo uno strumento, denominato diagramma ad occhio (eye pattern) utile per la valutazione sperimentale dell'ISI.
Il diagramma ad occhio è ottenuto sovrapponendo in modo sincrono (tanti quanti possibile) intervalli di simbolo successivi della forma d'onda distorta che compare all'uscita del filtro di ricezione, prima del decisore. Come esempio, consideriamo la forma d'onda distorta, ma senza rumore, mostrata nella seguente figura:

La corrispondente sovrapposizione sincrona è di seguito illustrata:

In Fig.37 sono stati sovrapposti otto intervalli di simbolo binario. Il diagramma risultante è denominato appunto "occhio" per la sua somiglianza all'occhio umano. Per lo stesso motivo, la parte interna del diagramma ad occhio è chiamata apertura dell'occhio.
Finché il rumore additivo sul canale non è grande, il diagramma ad occhio rimane ben definito e può essere studiato sperimentalmente su un oscilloscopio. La forma d'onda in esame è applicata alle piastre di deflessione dell'oscilloscopio con la base dei tempi sincronizzata. Da un punto di vista sperimentale, il diagramma ad occhio offre due importanti vantaggi:

  1. la semplicità di realizzazione;
  2. la presenza di molte informazioni interessanti sulle caratteristiche del sistema di trasmissione dati, da qui il suo largo uso come indicatore visivo di quanto bene o male un sistema trasmissivo trasporti una sequenza dati attraverso il segnale fisico.

Ad onor del vero esiste un altro indicatore visivo delle prestazioni di un sistema di trasmissione dati, noto come diagramma di dispersione (scattering diagram), ottenuto tracciando la parte immaginaria in funzione della parte reale del segnale complesso uscente dal filtro di ricezione; per maggiori dettagli, si veda il libro di Jeruchim, Balabam e Shanmugan, pp.666-667, indicato in bibliografia.

4.6.1 Le caratteristiche di sincronizzazione

Nella seguente figura è rappresentato un diagramma ad occhio generico relativo a dati binari distorti, ma senza rumore:

L'asse orizzontale rappresenta la base dei tempi e ha una durata pari a un intervallo di simbolo da Tb / 2 a + Tb / 2, dove Tb è la durata di un bit.
Da questo diagramma, è possibile dedurre tre caratteristiche di sincronizzazione riguardanti un sistema di trasmissione dati binario, esemplificato dal sistema PAM precedentemente discusso. In particolare:

  1. Istante ottimale di campionamento. La larghezza dell'apertura dell'occhio definisce l'intervallo di tempo nel quale la forma d'onda binaria distorta che compare all'uscita del filtro di ricezione, può essere campionata uniformemente senza commettere errori di decisione. Chiaramente, l'istante ottimale di campionamento è l'istante in cui l'apertura dell'occhio è massima;
  2. Presenza di jitter (fluttuazione) nell'attraversamento dello zero. In pratica, il segnale di temporizzazione (per sincronizzare il ricevitore con il trasmettitore) è estratto dai passaggi per lo zero della forma d'onda che compare all'uscita del filtro di ricezione. In tale forma di sincronizzazione ci saranno sempre irregolarità nei passaggi per lo zero che, a loro volta, provocano jitter, e quindi degli istanti di campionamento non ottimali;
  3. Sensibilità di sincronizzazione. Un'altra caratteristica relativa alla sincronizzazione è la sensibilità del sistema agli errori di sincronizzazione. Tale sensibilità è determinata dalla velocità con cui si chiude il diagramma ad occhio al variare dell'istante di campionamento.

La Fig.38 è dunque esemplificativa di come queste tre caratteristiche di sincronizzazione del sistema siano misurabili mediante eye pattern.

4.6.2 La distorsione di picco dovuta all'ISI

Assumeremo adesso che l'ampiezza del segnale ideale sia scalata in modo tale da occupare l'intervallo \pm 1. Troviamo pertanto che in assenza di rumore nel canale, l'apertura dell'occhio assume due valori estremi:

  1. un'apertura dell'occhio pari a uno, corrispondente ad un'ISI nulla;
  2. un'apertura dell'occhio pari a zero, corrispondente ad un occhio totalmente chiuso e che si verifica quando l'effetto dell'ISI è abbastanza grave che alcune tracce superiori dell'eye pattern intersecano le relative tracce inferiori.

Nella seconda situazione, è possibile che il ricevitore commetta errori nella decisione anche in assenza di rumore nel canale. Tipicamente, si ritiene che un'apertura dell'occhio di 0,5 o maggiore, dia luogo a una trasmissione affidabile.
In ambiente rumoroso, l'ampiezza dell'apertura dell'occhio nell'istante ottimale di campionamento, fornisce una misura del margine operativo sul rumore additivo del canale. Tale misura, come illustrato sempre in Fig.38, è esattamente l'SNR precedentemente definito.
Da questa discussione, risulta evidente che l'apertura dell'occhio riveste un ruolo importante nella valutazione delle prestazioni del sistema, da cui consegue la necessità di definire in maniera formale l'apertura dell'occhio. A tal fine, è proposta la seguente definizione:

\text{apertura occhio}:=1-D_{picco}\,\,\,\,\,\,\text{(LXXXVI)}

dove Dpicco indica un nuovo criterio chiamato distorsione di picco. Occorre osservare che tale criterio effettua una valutazione quantitativa del caso peggiore dell'ISI sulle prestazioni (in primis, probabilità d'errore) del sistema di trasmissione dati. La relazione tra l'apertura dell'occhio e la distorsione di picco è di seguito illustrata:

Se l'apertura dell'occhio è adimensionale, allora anche la distorsione di picco è adimensionale; per enfatizzare tale affermazione, i due valori estremi di apertura dell'occhio appena definiti divengono:

  1. distorsione di picco nulla, si verifica quando l'apertura dell'occhio è unitaria;
  2. distorsione di picco unitaria, si verifica quando il diagramma ad occhio è totalmente chiuso.

Per tale ragione la distorsione di picco è definita formalmente come il valore massimo assunto dall'ISI in tutte le possibili sequenze trasmesse, diviso un fattore di normalizzazione pari al valore assoluto del corrispondente segnale ideale ottenuto per ISI nulla. Riscriviamo per comodità l'espressione completa dell'ISI fornita in precedenza (nel semplice caso binario, la durata di simbolo T coincide con il tempo di bit Tb):

r_{k}=a_{k}q(\tau )+\sum_{n\neq k=-\infty}^{\infty}a_{n}q[(k-n)T_{b}+\tau ]+n(t_{k})
  • la componente idealizzata del segnale all'uscita dal filtro di ricezione è il primo addendo, ovvero akq(τ), poiché non compendia la distorsione introdotta né dall'ISI né dal rumore additivo;
  • l'ISI è rappresentata, come sappiamo, dal secondo addendo \sum_{n\neq k=-\infty}^{\infty}a_{n}q[(k-n)T_{b}+\tau ] avente valore massimo (nel caso di segnalazione binaria) pari a \sum_{0\neq m=-\infty}^{\infty}|q(mT+\tau )|.

Quindi, richiamando la definizione di distorsione di picco, si ottiene la relazione desiderata, ovvero:

D_{picco}=\frac{\sum_{0\neq m=-\infty}^{\infty}|q(mT+\tau )|}{|a_{k}q(\tau )|}=\sum_{k\neq m=-\infty}^{\infty}|q[(k-m)T_{b}]|\,\,\,\,\,\,\text{(LXXXVII)}

Per sua natura, la distorsione di picco è il criterio che considera, come anticipato, il caso peggiore nella trasmissione dati in un canale rumoroso; l'apertura dell'occhio specifica il più piccolo margine di rumore possibile, imponendo un limite superiore alla probabilità d'errore sul simbolo, dovuta all'inevitabile presenza del rumore additivo nel canale. Questo aspetto sarà estesamente discusso nella settima parte della trattazione presente.

4.6.3 I diagrammi ad occhio per la trasmissione multilivello

In un sistema di trasmissione dati multilivello, come può essere un ponte radio numerico, vengono utilizzati M simboli codificati al trasmettitore ed M − 1 soglie al ricevitore. In corrispondenza, il diagramma ad occhio contiene M − 1 aperture dell'occhio impilate verticalmente una sopra l'altra. Le soglie sono definite dai livelli di transizione delle ampiezze quando si avanza dall'apertura di un occhio a quella dell'occhio adiacente. Quando i simboli codificati sono tutti equiprobabili, le soglie sono tra loro equidistanti.
In un sistema di trasmissione dati strettamente lineare con le sequenze di dati casuali trasmesse fedelmente, tutte le M − 1 aperture dell'occhio sono identiche. Nella pratica, spesso è possibile trovare comunque delle asimmetrie nel diagramma ad occhio di un sistema multilivello, causate dalle inevitabili non linearità introdotte dal canale di comunicazione.
In Fig.40 e Fig.41 sono mostrate delle simulazioni in ambiente Matlab dei diagrammi ad occhio per due sistemi di trasmissione PAM in banda base per M = 2 ed M = 4, rispettivamente:

Fig40.jpg

Fig40.jpg

Fig41.jpg

Fig41.jpg

Il canale (a coseno rialzato per entrambi i casi) non ha limiti di banda e i simboli della sorgente sono generati casualmente dal calcolatore; naturalmente la forma degli impulsi di segnalazione è quella a coseno rialzato. I parametri di sistema usati per generare i diagrammi sono:

  • frequenza di trasmissione pari a 1\,\text{Hz};
  • fattore di transizione α = 0,5.

Nel caso binario M = 2, la durata del simbolo T e la durata di bit Tb coincidono, con T_{b}=1\,\text{s}. Nel caso M = 4, si ha T = Tblog2M = 2Tb. In entrambi i casi si vede che gli occhi sono aperti, indicando un funzionamento perfetto del sistema, nel senso che l'interferenza intersimbolica è nulla.
Le Fig.42 e Fig.43 mostrano i diagrammi ad occhio di questi due sistemi di trasmissione in banda base utilizzanti gli stessi parametri, ma questa volta sotto l'ipotesi di banda limitata:

Fig42.jpg

Fig42.jpg

Fig43.jpg

Fig43.jpg

Nella fattispecie, il canale ora è modellato da un filtro di Butterworth passa basso, la cui risposta in frequenza è definita dalla relazione:

|H(f)|=\frac{1}{1+\left ( \frac{f}{f_{0}} \right )^{2N}}

dove N è l'ordine del filtro ed f0 la frequenza di taglio. I risultati mostrati sono stati ottenuti usando i seguenti parametri del filtro:

  1. N = 3, f_{0}=0,6\,\text{Hz} per PAM binario;
  2. N = 3, f_{0}=0,3\,\text{Hz} per 4-PAM.

Con un fattore di transizione α = 0,5 e banda di Nyquist B_{0}=0,6\,\text{Hz}, per il PAM binario, la banda richiesta in trasmissione dal sistema risulta pari a:

B_{T}=B_{0}(1+\alpha )=0,5(1+0,5)=0,75\,\text{Hz}

Anche se la frequenza di taglio della banda del canale è più grande di quanto sia necessario, il suo effetto nella banda passante è un decremento delle dimensioni dell'apertura dell'occhio. In sostituzione dei valori distinti all'istante t=1\,\text{s} (come mostrato nelle Fig.40 e Fig.41) ora c'è una regione sfocata. Se la banda del canale fosse ulteriormente ridotta, l'occhio si chiuderebbe ancora di più fino a non riconoscere più un'apertura distinta.

4.6.4 Alcuni video sull'eye pattern

Videolezione sulla valutazione degli errori causati da fenomeni di jitter e sfasamento, frequenti nelle comunicazioni elettriche digitali, mediante analisi del diagramma ad occhio:

Misura su oscilloscopio digitale della qualità di una trasmissione dati su standard ultra veloce USB 3.0, mediante analisi del diagramma ad occhio:

Simulazione dell'eye pattern su LTSpice (relativo ad una trasmissione dati su standard USB 2.0):

Simulazione dell'eye pattern su PSpice (relativo ad una trasmissione dati su standard USB 2.0):


Bibliografia

  1. Formazione specialistica e training on the job presso Telecom Italia S.p.A. (2007 - 2013);
  2. Appunti, dispense e materiale didattico messo a disposizione nel corso di Fondamenti Di Comunicazioni Elettriche tenuto presso la Facoltà di Ingegneria Elettronica dell'Università Degli Studi Di Palermo (201s - 2013);
  3. G. MAMOLA, G. GARBO: <<Lezioni di teoria dei segnali, vol.1 & 2>>, Dario Flaccovio, 2003;
  4. S. HAYKIN, M. MOHER: <<An Introduction to Analog and Digital Communications, 2nd Edition>>, Wiley, 2007;
  5. M.C. JERUCHIM, P. BALABAN, K.S. SHANMUGAN: <<Simulation of Communication Systems>>, 2nd Edition>>, New York: Plenum, 2000;
  6. F. VALDONI, F. VATALARO: <<Telecomunicazioni>>, Calderini, 1984;
  7. J.R. PIERCE: <<Simbols, signals and noise>>, J.Newman, 1961;
  8. F. CARASSA: <<Comunicazioni elettriche>>, Boringhieri, Torino 1977.
6

Commenti e note

Inserisci un commento

di ,

Ti ringrazio per l'apprezzamento Stefano :)

Rispondi

di ,

Grande Articolo jordan20!!!

Rispondi

di ,

Grazie carissimo mir, davvero troppo troppo buono. Il più bel riconoscimento che possa ricevere sono i vostri commenti di apprezzamento e la bellissima possibilità che EY ci dà di condividere il nostro sapere, ciascuno nelle sue competenze... Nonché il gusto e la soddisfazione di veder pubblicati su internet i propri articoli :P :P :P Grazie ancora :)

Rispondi

di ,

Complimenti,un solo voto è veramente poco per questo Eccezionale lavoro di stesura e contenuti, se poi consideriamo anche i precedenti, direi che più di un semplice voto, jordan20 meriterebbe un riconoscimento dall'alto... Bravo jordan20 di nuovo Complimenti.

Rispondi

di ,

Grazie caro Stefano... Si me lo chiedo anche io... E tutto questo nel 1928, agli albori delle telecomunicazioni, e pensare che tutt'oggi ancora quei corollari, specialmente il secondo, fa funzionare ponti radio, comunicazioni numeriche via cavo e in fibra... Genio! Grazie come sempre :)

Rispondi

di ,

Ok. Con questo articolo inizia la parte hard del discorso. Da telecomunicazionista prima e controllista ora mi chiedo che razza di mente avesse Nyquist. Ho espresso ovviamente il mio voto positivo con il rammarico di averne solo uno a disposizione. Complimenti.

Rispondi

Inserisci un commento

Per inserire commenti è necessario iscriversi ad ElectroYou. Se sei già iscritto, effettua il login.