Cos'è ElectroYou | Login Iscriviti

ElectroYou - la comunità dei professionisti del mondo elettrico

11
voti

Le onde elettromagnetiche come mezzo trasmissivo: PONTI RADIO TERRESTRI (7)

Indice

Il problema del rumore nelle comunicazioni numeriche (terza parte)

In questa settima parte della trattazione, entreremo nel cuore del ricevitore di un ponte radio numerico, con particolare attenzione rivolta al suo corretto dimensionamento (progettazione del ricevitore ottimo) al fine di estrarre in modo idoneo il segnale a contenuto informativo che, come abbiamo avuto modo di discutere fino a questo momento, è affetto sia da rumore che da interferenza intersimbolica.


1. Il concetto di probabilità d'errore

Per introdurre questo concetto, ritengo opportuno richiamare l'enunciato, in termini semplici e generali, del problema della trasmissione numerica:

dato un determinato portante fisico (nel nostro caso le onde elettromagnetiche) con una determinata caratteristica passa basso e disturbato da un rumore di una certa potenza e con una determinata distribuzione spettrale, ci si propone di determinare la forma degli impulsi più opportuna e la migliore equalizzazione ai fini della massima velocità di trasmissione di simbolo con la minima probabilità d'errore possibile.

Ricordiamo infatti che nel contesto della modulazione numerica, non interessa riottenere più o meno fedelmente la forma d'onda del segnale trasmesso (come accade nelle modulazioni analogiche), bensì riconoscere correttamente una sequenza di simboli (opportunamente codificati) contenente l'informazione, associando ad essa opportuni impulsi di segnalazione in fase di progettazione ed effettuando quindi in ricezione una scelta, o meglio una decisione rispetto ad una soglia di riferimento, che costituisce in buona sostanza un parametro discrezionale per valutare se stiamo ricevendo correttamente o meno.

Il ricevitore deve quindi contenere un black box che effettui la stima del simbolo emesso dalla sorgente presente nella stazione radio trasmittente, a partire dai campioni del segnale ricevuto che sarà mascherato da una certa aliquota di rumore additivo introdotto dal canale di trasmissione il quale, inevitabilmente, introdurrà un errore nell'operazione di stima. Essendo la natura del rumore intrinsecamente aleatoria, occorre allora discutere il processo di riconoscimento del simbolo in termini probabilistici, definendo formalmente la probabilità d'errore come segue:

P_{e}:=\mathbf{P}\left \{ \widehat{d_{k}} \neq d_{k}\right \}\,\,\,\,\,\,\text{(I)}

L'evento \left \{ \widehat{d_{k}} \neq d_{k}\right \} rappresenta la circostanza che il simbolo rilevato \widehat{d_{k}} sia diverso da quello trasmesso dk, ossia la situazione peggiore di errato riconoscimento a causa del rumore. Il nostro obiettivo è allora proprio quello di minimizzare la probabilità che si verifichi questa circostanza, quindi rendere minima \mathbf{P}\left \{ \widehat{d_{k}} \neq d_{k}\right \}. Come raggiungere questo risultato? Facendo innanzitutto (perlomeno in questo primo paragrafo) alcune ipotesi semplificative (che saranno successivamente "tolte" per sviluppare il caso reale):

  • si considera un segnale numerico PAM binario (cioè la sorgente di informazione discreta fornisce sequenzialmente simboli a due livelli sotto forma di impulsi cadenzati da un clock e variabili in ampiezza);
  • si considera ideale il mezzo di trasmissione al fine di avere in ricezione l'impulso di segnalazione p(t) tale e quale a come è stato trasmesso;
  • si considera nulla l’interferenza di intersimbolo.

Riutilizzando la simbologia adottata nel sottoparagrafo 4.3 della quinta parte, l'espressione del segnale letto all'istante generico di lettura vale quindi:

r=\alpha a+n\,\,\,\,\,\,\text{(II)}

dove, per rendere meno pesante la notazione, si è posto r: = r(tk), a: = ak, α = p(τ) e n: = n(tk).
Ipotizzando di effettuare una decisione simbolo per simbolo, la struttura base del ricevitore per trasmissione binaria PAM è di seguito illustrato:

In esso riconosciamo un blocco sommatore che schematizza il fenomeno del rumore additivo, un blocco che esegue il campionamento delle forme d'onda di segnalazione ricevute, con cadenza tk ed il blocco decisore che effettua la stima del simbolo rispetto ad una soglia prefissata λ; in particolare, il valore campionato all'istante tk è comparato con la soglia λ e, dipendentemente dal segno assunto dalla quantità r − λ, è presa una decisione sul dato d da rilevare.
A questo punto occorre richiamare ed applicare i concetti relativi alla teoria della probabilità per quel che specialmente riguarda le definizioni di probabilità condizionata e congiunta (e per questo rimando necessariamente ai primi paragrafi della quinta parte); definiamo quindi le seguenti densità di probabilità:

  • pr | 0(r | 0) che rappresenta la probabilità di ricevere un certo r, ammesso che la sorgente abbia trasmesso la cifra dk = 0;
  • pr | 1(r | 1) che rappresenta la probabilità di ricevere un certo r, ammesso che la sorgente abbia trasmesso la cifra dk = 1.

Le rispettive probabilità di errore condizionate sono quindi automaticamente definite dalle seguenti relazioni:

\begin{matrix}P_{e|0}(\lambda )=\mathbf{P}\left \{ r>\lambda |d_{k}=0 \right \}=\int_{\lambda }^{\infty }p_{r|0}(r|0)\text{d}r\\ P_{e|1}(\lambda )=\mathbf{P}\left \{ r<\lambda |d_{k}=1 \right \}=\int_{-\infty }^{\lambda }p_{r|1}(r|1)\text{d}r\end{matrix}\,\,\,\,\,\,\text{(III)}

dove \left \{ r>\lambda |d_{k}=0 \right \} rappresenta l'evento, la circostanza per cui quel valore di r ricevuto sia maggiore della soglia λ, ammesso che la sorgente abbia trasmesso il simbolo dk = 0 e \left \{ r>\lambda |d_{k}=0 \right \}, chiaramente, il suo caso complementare.
Poiché i singoli eventi \left \{ d_{k}=0 \right \} e \left \{ d_{k}=1 \right \} sono disgiunti, ovvero la loro intersezione è nulla (detto in altri termini, la sorgente trasmette 1 o 0 indipendentemente dal fatto se prima sia stato trasmesso uno 0 piuttosto che un 1 o viceversa), definendo le rispettive probabilità con P_{0}:=\mathbf{P}\left \{ d_{k}=0 \right \} e P_{1}:=\mathbf{P}\left \{ d_{k}=1 \right \}, la probabilità d'errore non condizionata è così espressa:

P_{e}=P_{0}P_{e|0}+P_{1}P_{e|1}\,\,\,\,\,\,\text{(IV)}

che diventa, sostituendo le (III):

P_{e}=P_{0}\int_{\lambda }^{\infty }p_{r|0}(r|0)\text{d}r+P_{1}\int_{-\infty }^{\lambda }p_{r|1}(r|1)\text{d}r\,\,\,\,\,\,\text{(V)}

Come vediamo, siamo arrivati a definire la probabilità di errore in modo dipendente dalla soglia λ (essa definisce infatti gli intervalli di integrazione che compaiono nella (V)); questo vuol dire che lungo la retta reale (da -\infty e +\infty, ammettendo chiaramente che gli integrali esistano finiti, grazie al teorema fondamentale della media) esisterà necessariamente un valore di soglia ottimo λ0 di λ che rende minima Pe. Il nostro obiettivo è dunque proprio quello di determinare questo valore ottimo imponendo alla (V) la seguente condizione:

\left [\frac{\partial P_{e}}{\partial \lambda }  \right ]_{\lambda =\lambda _{0}}=0\,\,\,\,\,\,\text{(VI)}

Per cui:

\frac{\partial }{\partial \lambda }\left [P_{0}\int_{\lambda }^{\infty }p_{r|0}(r|0)\text{d}r+P_{1}\int_{-\infty }^{\lambda }p_{r|1}(r|1)\text{d}r  \right ]_{\lambda =\lambda _{0}}=0

ovvero, per la linearità dell'operatore differenziale:

P_{0}\frac{\partial }{\partial \lambda }\int_{\lambda_{0} }^{\infty }p_{r|0}(r|0)\text{d}r+P_{1}\frac{\partial }{\partial \lambda}\int_{-\infty }^{\lambda_{0} }p_{r|1}(r|1)\text{d}r=0

da cui, per il teorema fondamentale del calcolo integrale:

P_{0}p_{r|0}(\lambda_{0}|0)=P_{1}p_{r|1}(\lambda_{1}|1)\,\,\,\,\,\,\text{(VII)}

che è la "traduzione" in termini matematici dell'obiettivo che ci siamo prefissati: la minimizzazione della probabilità d'errore.

1.1 Modello gaussiano del rumore additivo

Nella teoria della trasmissione numerica, il rumore additivo si modella analiticamente come una variabile aleatoria gaussiana standard o normalizzata, ovvero con valor medio nullo e varianza σ2. Se quindi indichiamo con n(t) la variabile casuale associata al fenomeno del rumore additivo, la sua funzione di distribuzione assume la seguente espressione:

p_{n}(n)=\frac{1}{\sqrt{2\pi \sigma ^{2}}}e^{-\frac{n^{2}}{2\sigma ^{2}}}\,\,\,\,\,\,\text{(VIII)}

Dalla (II) segue banalmente che:

n = r − αa

Possiamo quindi esprimere le probabilità congiunta di r in funzione della semplice probabilità associata al rumore n, ossia:

P_{r|d_{k}}=P_{n}(r-\alpha a_{k})

e quindi ridefinire le densità di probabilità associate ai simboli 1 e 0 come segue:

\begin{matrix}p_{r|0}(r|0)=p_{n}(r-\alpha a_{0})=\frac{1}{\sqrt{2\pi \sigma ^{2}}}e^{-\frac{(r-\alpha a_{0})^{2}}{2\sigma ^{2}}}\\ p_{r|1}(r|1)=p_{n}(r-\alpha a_{1})=\frac{1}{\sqrt{2\pi \sigma ^{2}}}e^{-\frac{(r-\alpha a_{1})^{2}}{2\sigma ^{2}}}\end{matrix}\,\,\,\,\,\,\text{(IX)}

Sicché, applicando la (VII), otteniamo quanto segue:

\frac{P_{0}}{\sqrt{2\pi \sigma ^{2}}}e^{-\frac{(r-\alpha a_{0})^{2}}{2\sigma ^{2}}}=\frac{P_{1}}{\sqrt{2\pi \sigma ^{2}}}e^{-\frac{(r-\alpha a_{1})^{2}}{2\sigma ^{2}}};


\frac{P_{1}}{P_{0}}=e^{\frac{(r-\alpha a_{1})^{2}-(r-\alpha a_{0})^{2}}{2\sigma ^{2}}}

Applicando il logaritmo neperiano ad ambo i membri e manipolando algebricamente in modo opportuno, si giunge alla seguente:

\lambda _{0}=\alpha \frac{a_{0}+a_{1}}{2}-\frac{\sigma ^{2}}{\alpha (a_{1}-a_{0})}\ln\left (\frac{P_{1}}{P_{0}}  \right )\,\,\,\,\,\,\text{(X)}

Un'ipotesi lecita che possiamo fare (in quanto rispondente ad un possibile caso reale) è quella di considerare equiprobabili i simboli, ovvero P0 = P1 = 1 / 2, ottenendo quindi:

\lambda _{0}=\alpha \frac{a_{0}+a_{1}}{2}\,\,\,\,\,\,\text{(XI)}

Abbiamo quindi ottenuto quel valore di soglia ottimo che minimizza la probabilità di errore, nel caso di simboli equiprobabili; possiamo allora ridefinire le probabilità d'errore condizionate:

\begin{matrix}P_{e|0}=\int_{\alpha \frac{a_{0}+a_{1}}{2}}^{\infty}\frac{1}{\sqrt{2\pi_{1} \sigma ^{2}}}e^{-\frac{(r-\alpha a_{0})^{2}}{2\sigma ^{2}}}\text{d}r\\ P_{e|1}=\int_{-\infty}^{\alpha \frac{a_{0}+a_{1}}{2}}\frac{1}{\sqrt{2\pi_{1} \sigma ^{2}}}e^{-\frac{(r-\alpha a_{1})^{2}}{2\sigma ^{2}}}\text{d}r\end{matrix}\,\,\,\,\,\,\text{(XII)}

Richiamando la funzione Q(x) definita nella quinta parte dalla seguente espressione:

Q(x)=\frac{1}{\sqrt{2\pi }}\int_{x}^{\infty}e^{-u^{2}/2}\text{d}u

e sostituendo in (XII) mediante opportuno cambio di variabile, si ottiene:

\begin{matrix}P_{e|0}=\frac{1}{\sqrt{2\pi }}\int_{\frac{\alpha }{\sigma }\frac{a_{1}-a_{0}}{2}}^{\infty}e^{-\frac{u^{2}}{2}}\text{d}u=Q\left (\frac{\alpha }{\sigma }\frac{a_{1}-a_{0}}{2}  \right )\\ P_{e|1}=\frac{1}{\sqrt{2\pi }}\int_{-\infty}^{-\frac{\alpha }{\sigma }\frac{a_{1}-a_{0}}{2}}e^{-\frac{u^{2}}{2}}\text{d}r=\frac{1}{\sqrt{2\pi }}\int_{\frac{\alpha }{\sigma }\frac{a_{1}-a_{0}}{2}}^{\infty}e^{-\frac{u^{2}}{2}}\text{d}u=Q\left (\frac{\alpha }{\sigma }\frac{a_{1}-a_{0}}{2}  \right )\end{matrix}\,\,\,\,\,\,\text{(XIII)}

La probabilità d'errore vale quindi:

P_{e}=Q\left (\frac{\alpha }{\sigma }\frac{a_{1}-a_{0}}{2}  \right )\,\,\,\,\,\,\text{(XIV)}

Nell'ipotesi (anch'essa verosimile) di non equiprobabilità dei simboli, si avrebbe la seguente espressione per la probabilità d'errore:

P_{e}(\lambda _{0})=P_{0}\cdot Q\left [ \frac{a_{1}-a_{0}}{2}\frac{\alpha }{\sigma }-\frac{\sigma }{\alpha (a_{1}-a_{0})}\ln\left (\frac{P_{1}}{P_{0}}  \right ) \right ]+
+P_{1}\cdot Q\left [ \frac{a_{1}-a_{0}}{2}\frac{\alpha }{\sigma }-\frac{\sigma }{\alpha (a_{1}-a_{0})}\ln\left (\frac{P_{1}}{P_{0}}  \right ) \right ]\,\,\,\,\,\,\text{(XV)}

avente l'andamento di seguito illustrato:

Nella maggior parte dei casi reali, è frequente la situazione nella quale non sono note a priori le probabilità P1 e P0 rispettivamente associate ai simboli 1 e 0 emessi dalla sorgente; questo si traduce nel fatto che la soglia ottima definita in (X) non può essere determinata. In questi casi si procede effettuando una "stima sulla stima", cioè una stima delle probabilità dei simboli emessi dalla sorgente (\widehat{P}_{1} e \widehat{P}_{0}) che conduce ad un valore stimato della soglia ottima:

\widehat{\lambda }_{0}=\alpha \frac{a_{1}+a_{0}}{2}-\frac{\sigma ^{2}}{\alpha (a_{1}-a_{0})}\ln\left (\frac{\widehat{P}_{1}}{\widehat{P}_{0}}  \right )\,\,\,\,\,\,\text{(XVI)}

Dette allora P0 e P1 le effettive probabilità associate alla sorgente, la probabilità di errore diventa:

P_{e}(\lambda _{0})=P_{0}\cdot Q\left \{\frac{\alpha (a_{1}-a_{0})}{2\sigma }-\frac{\sigma }{\alpha (a_{1}-a_{0})}\ln\left (\frac{\widehat{P}_{1}}{\widehat{P}_{0}}  \right )  \right \}+


+P_{1}\cdot Q\left \{\frac{\alpha (a_{1}-a_{0})}{2\sigma }-\frac{\sigma }{\alpha (a_{1}-a_{0})}\ln\left (\frac{\widehat{P}_{1}}{\widehat{P}_{0}}  \right )  \right \}\,\,\,\,\,\,\text{(XVII)}

relazione che, sul piano identificato da (P0,Pe) in Fig.2, è rappresentata da una retta la cui pendenza (positiva nel tratto d) o negativa nel tratto b)) è dipendente dalla circostanza che \widehat{P}_{0} <  \frac{1}{2} o piuttosto \widehat{P}_{0} > \frac{1}{2}.
Risulta evidente come una tale scelta potrebbe introdurre un degrado inaccettabile delle prestazioni del sistema in termini di probabilità di errore, specialmente quando P0 tende ai suoi valori limite; se la stima della probabilità è invece effettuata optando per l'equiprobabilità dell'emissione, ovvero per \widehat{P}_{0}=\widehat{P}_{0}=\frac{1}{2}, allora la probabilità d'errore assume l'espressione ricavata in (XIV), con il vantaggio di avere una sua totale indipendenza dal valore di P0 (curva c) in Fig.2). Diversamente dal primo caso, adesso si raggiungerebbe un accettabile compromesso in termini di qualità/degrado del collegamento, dal momento che non vengono pregiudicate sensibilmente le prestazioni del sistema.
Riepilogando, in un sistema di trasmissione binaria, quindi, il ricevitore posiziona la soglia al valore λ0 fornito dalla (X), indipendentemente dal valore delle probabilità singolarmente associate ai simboli emessi dalla sorgente; corrispondentemente a tale circostanza, la probabilità d'errore risulta quella fornita dalla (XIV), a sua volta (ovviamente) indipendente dai valori di P0 e P1.


2. Teoria della ricezione ottima

Riprendiamo le relazioni (XIV) e (XV) ricavate nel precedente paragrafo e riportiamole qui di seguito per effettuare un confronto:

P_{e}=Q\left (\frac{\alpha }{\sigma }\frac{a_{1}-a_{0}}{2}  \right );
P_{e}(\lambda _{0})=P_{0}\cdot Q\left [ \frac{a_{1}-a_{0}}{2}\frac{\alpha }{\sigma }-\frac{\sigma }{\alpha (a_{1}-a_{0})}\ln\left (\frac{P_{1}}{P_{0}}  \right ) \right ]+
+P_{1}\cdot Q\left [ \frac{a_{1}-a_{0}}{2}\frac{\alpha }{\sigma }-\frac{\sigma }{\alpha (a_{1}-a_{0})}\ln\left (\frac{P_{1}}{P_{0}}  \right ) \right ]

Di cosa ci accorgiamo? Del fatto che la probabilità d'errore, in entrambi i casi e a parità di forma di segnalazione adottata per il canale, dipende dalla quantità \frac{\alpha }{\sigma } attraverso la funzione errore Q(\cdot). Come illustrato nella quinta parte, l'andamento di questa funzione è strettamente decrescente all'aumentare del suo argomento, per cui si conclude che la massimizzazione di \frac{\alpha }{\sigma } conduce al dimensionamento di un ricevitore con le migliori prestazioni in termini di probabilità d'errore.
Consideriamo quindi la classe dei ricevitori generalmente schematizzabile come segue:

Osserviamo dalla Fig.3 che in ingresso al ricevitore è posto un particolare filtro, supposto lineare e tempo invariante, definito dalla sua risposta impulsiva h(t). Adesso, il problema del ricevitore ottimo consiste nel determinare la specifica risposta impulsiva ho(t) del filtro che renda minima la probabilità d'errore. Per fare questo, occorre ancore mantenere valide le ipotesi fatte nel primo paragrafo, specialmente quella che richiede di avere un segnale numerico in uscita dal filtro identificato dalla h(t) con ISI nulla; supponendo quindi di leggere tale segnale all'istante di campionamento t_{k}=kT+\tau ,\,\,\,\forall \tau \in[0,T), la condizione di minima probabilità d'errore si raggiunge quando è massima la quantità \frac{\overline{\alpha} }{\overline{\sigma} }, dove le grandezze in essa contenute risultano sovra barrate per indicare che sono valutate in uscita del filtro h(t).
Per il teorema della convoluzione applicabile ai sistemi LTI, si ha:

\overline{\alpha }=\int_{-\infty}^{\infty}p(\tau -\lambda )h(\lambda )\text{d}\lambda \,\,\,\,\,\,\text{(XVIII)}

Se il rumore n(t) additivo in ingresso al ricevitore è modellabile come v.c. gaussiana (a valor medio nullo e bianco, ovvero caratterizzato dall'assenza di periodicità nel tempo e da ampiezza costante su tutto lo spettro di frequenze), la sua varianza in uscita vale:

\overline{\sigma }^{2}=\mathbf{E}\left [ \int_{-\infty}^{\infty}\int_{-\infty}^{\infty}n(\tau -\lambda _{1})n(\tau -\lambda _{2})h(\lambda _{1})h(\lambda _{2})\text{d}\lambda _{1}\text{d}\lambda _{2} \right ]=
=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}\mathbf{E}[n(\tau -\lambda _{1})n(\tau -\lambda _{2})]h(\lambda _{1})h(\lambda _{2})\text{d}\lambda _{1}\text{d}\lambda _{2}=
=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}\frac{N_{0}}{2}\delta (\lambda _{2}-\lambda _{1})h(\lambda _{1})h(\lambda _{2})\text{d}\lambda _{1}\text{d}\lambda _{2}=\frac{N_{0}}{2}\int_{-\infty}^{\infty}h^{2}(\lambda )\text{d}\lambda \,\,\,\,\,\,\text{(XIX)}

avendo applicato la proprietà di linearità dell'operatore media, il teorema della correlazione (che discuteremo a breve), la proprietà della convoluzione temporale della trasformata di Fourier e avendo denotato con \frac{N_{0}}{2} la densità spettrale di potenza (anche questa a breve discussa) del rumore n(t). La quantità \frac{\overline{\alpha }}{\overline{\sigma }} diviene allora:

\gamma =\frac{\overline{\alpha }}{\overline{\sigma }}=\sqrt{\frac{2}{N_{0}}}\frac{\int_{-\infty}^{\infty}p(\tau -\lambda )h(\lambda )\text{d}\lambda}{\sqrt{\int_{-\infty}^{\infty}h^{2}(\lambda )\text{d}\lambda }}\,\,\,\,\,\,\text{(XX)}

A questo punto, per determinare il valore ottimo di h(t) occorre applicare la diseguaglianza di Schwarz; ponendo quindi nella (XX):

f(x)=p(\tau -t);\,\,\,g(x)=h(t)\,\,\,\,\,\,\text{(XXI)}

si ottiene:

\gamma \leq \sqrt{\frac{2}{N_{0}}\int_{-\infty}^{\infty}p^{2}(\tau -t)\text{d}t}=\sqrt{\frac{2}{N_{0}}\int_{-\infty}^{\infty}p^{2}(t)\text{d}t}=\sqrt{\frac{2E}{N_{0}}}:= \gamma _{o}\,\,\,\,\,\,\text{(XXII)}

avendo applicato nella seconda uguaglianza il teorema di Parseval nel dominio temporale ed indicato con E l'energia dell'impulso di segnalazione.
Come si interpreta quindi la (XXII)? Semplicemente affermando che al variare di h(t) la quantità γ non supera il limite γo che ne costituisce pertanto il suo massimo valore; questo massimo è raggiunto allorché risulta verificata la condizione:

g(x)=k\cdot f(x)

per cui si può applicare la precedente diseguaglianza di Schwarz. Tenendo allora conto delle posizioni effettuate, possiamo dedurre l'espressione caratteristica del filtro ottimo:

h_{o}(t)=kp(\tau -t)\,\,\,\,\,\,\text{(XXIII)}

dipendente dall'impulso di segnalazione che si sceglie di associare alla sequenza di simboli. Per tale ragione il filtro in questione prende il nome di filtro adattato. Possiamo ulteriormente renderci conto di come la costante k non influenzi minimamente il valore ottimo γo e, per tal motivo, può considerarsi unitaria nell'espressione (XXIII).
Osservazione importante! Non sempre il filtro, definito dalla (XXIII) risulta fisicamente realizzabile, giacché la funzione ho(t) può violare la condizione di causalità. Ad ogni modo, se l'impulso di segnalazione si sceglie in modo tale da avere una durata T, ho(t) risulta fisicamente realizzabile solo se τ = T, come mostrato nella seguente figura:

In tal caso ho(t) vale:

h_{o}(t)=kp(T -t)\,\,\,\,\,\,\text{(XXIV)}

Per capire meglio quanto finora esposto, supponiamo di impiegare, come segnalazione associata al segnale numerico, un impulso p(t) rettangolare unitario confinato nell'intervallo [0,T); risulta quindi (per k = 1):

h_{o}(t)=\text{rect}\left (\frac{t-\frac{T}{2}}{T}  \right )

sicché la risposta q(t) del filtro adattato quando al suo ingresso è presente p(t), risulta analiticamente:

q(t)=p(t)\star h_{o}(t)=\int_{-\infty}^{\infty}p(\tau )h_{o}(t-\tau )\text{d}\tau =\int_{0}^{T}\text{rect}\left (\frac{t-\tau -\frac{T}{2}}{T}  \right )\text{d}\tau =
=\left\{\begin{matrix}0,\,\,\,t\leq 0\\ t,\,\,\,0\leq t\leq T\\ T-t,\,\,\,T\leq t\leq 2T\\ 0,\,\,\,t\geq 2T\end{matrix}\right.

Graficamente:

Dalla Fig.5 è evidente che nell'istante di lettura T, il valore r(T) può essere ottenuto per integrazione di p(t). Un filtro siffatto può quindi essere implementato usando un integratore di Miller, il quale è azzerato negli istanti tk = (k + 1)T, provenienti dal clock presente al ricevitore, come illustrato di seguito:

Se in generale p(t) ha una forma diversa dalla rettangolare ma pur sempre confinata nell'intervallo [0,T), il segnale in uscita dal filtro adattato, quando al suo ingresso è applicato il segnale x(t) e valutato all'istante T, vale:

y(T)=\int_{-\infty}^{\infty}x(\lambda )h_{o}(T-\lambda )\text{d}\lambda =k\int_{0}^{T_{0}}x(\lambda )p(\lambda )\text{d}\lambda \,\,\,\,\,\,\text{(XXV)}

Da tale espressione si deduce che lo schema del ricevitore ottimo può assumere la struttura a correlatore di seguito riportata:

che, come possiamo osservare, comporta le operazioni di prodotto e successiva integrazione.
Rispetto alla struttura a filtro adattato, lo schema a correlatore è più flessibile quando occorre variare la forma dell’impulso di segnalazione; in tal caso basta infatti generare al ricevitore la sequenza \sum p(t-kT_{0}) senza dover sostituire il filtro come nel caso di ricevitore a filtro adattato.
Supposti i simboli equiprobabili, quindi, in presenza di filtro adattato, la probabilità di errore risulta definitivamente pari a:

P_{e}=Q\left (\sqrt{\frac{E}{N_{0}}}\frac{a_{1}-a_{0}}{\sqrt{2}}  \right )\,\,\,\,\,\,\text{(XXVI)}

Nel caso di segnalazione multilivello (quella adottata nei ponti radio numerici) vedremo come il fattore \frac{a_{1}-a_{0}}{\sqrt{2}} che compare nella (XXVI), sarà sostituito da un'espressione opportuna dipendente dagli M livelli impiegati per codificare i diversi simboli emessi dalla sorgente.


3. Analisi spettrale del segnale PAM

Come già discusso nella quinta parte, l'espressione analitica del segnale PAM è quella di seguito mostrata:

v(t)=\sum_{n=-\infty}^{\infty}a_{n}p(t-nT)

La densità spettrale di potenza, oltre che dalla forma dell’impulso di segnalazione p(t), è funzione delle proprietà statistiche della sequenza dei simboli an, a loro volta dipendenti dal tipo di codifica adottata.
Per quel che serve nella nostra trattazione sui ponti radio numerici, la sequenza di cifre \left \{ d_{n} \right \} viene supposta stazionaria (cioè non legata all'evoluzione temporale) e costituita da elementi scorrelati ed equiprobabili. D'altra parte i simboli an possono essere correlati, dipendentemente dalla struttura del codice adottato; la sequenza \left \{ a_{n} \right \} è comunque pur sempre stazionaria e pertanto caratterizzata dalla seguente funzione di autocorrelazione discreta:

R_{a}(k)=\mathbf{E}[a_{n},a_{n+k}]\,\,\,\,\,\,\text{(XXVII)}

Per il teorema di Wiener-Khinchin la densità spettrale può calcolarsi trasformando secondo Fourier la media temporale della funzione di autocorrelazione Rν(t,τ) del segnale numerico v(t), ovvero:

W_{\nu }(f)=\mathbf{F}[<R_{\nu }(t,\tau )>]\,\,\,\,\,\,\text{(XXVIII)}

Per prima cosa quindi, al fine di valutare la Wν(f) occorre determinare l’espressione della funzione d'autocorrelazione Rν(t,τ).

3.1 Autocorrelazione Rν(t,τ)

Considerando ancora una volta l'espressione temporale del segnale numerico PAM, la Rν(t,τ) è così calcolata:

R_{\nu }(t,\tau )=\mathbf{E}[\nu (t)\nu (t+\tau )]=\sum_{m=-\infty}^{\infty}\sum_{n=-\infty}^{\infty}\mathbf{E}[a_{m}a_{n}]p(t-mT)p(t+\tau -nT)\,\,\,\,\,\,\text{(XXIX)}

che, per la (XXVII), può scriversi come:

R_{\nu }(t,\tau )=\sum_{m=-\infty}^{\infty}\sum_{n=-\infty}^{\infty}R_{a}(n-m)p(t-mT)p(t+\tau -nT)\,\,\,\,\,\,\text{(XXX)}

Effettuiamo adesso la seguente trasformazione di indici: r = nm e s = m. La (XXX) si scrive quindi come segue:

R_{\nu }(t,\tau )=\sum_{r=-\infty}^{\infty}R_{a}(r)\sum_{s=-\infty}^{\infty}p(t-sT)p[t+\tau -(r+s)T)]\,\,\,\,\,\,\text{(XXXI)}

Analizziamo adesso i seguenti semplici passaggi matematici:

\sum_{s=-\infty}^{\infty}p(t+T-sT)p[t+T+\tau -(r+s)T)]=
=\sum_{s=-\infty}^{\infty}p[t-(s-1)T]p[t+\tau -(r+s-1)T)]
=\sum_{s=-\infty}^{\infty}p(t-sT)p[t+\tau -(r+s)T)]\,\,\,\,\,\,\text{(XXXII)}

Abbiamo dimostrato che la funzione Rν(t,τ) è periodica in t di periodo T: allora il segnale ν(t) si dice ciclostazionario.
Questo ha come conseguenza il fatto che la media temporale della funzione di autocorrelazione si riduca alla seguente:

<R_{\nu }(t,\tau )>=\sum_{r=-\infty}^{\infty}R_{a}(r)\sum_{s=-\infty}^{\infty}\frac{1}{T}\int_{-\frac{T}{2}}^{\frac{T}{2}}p(t-sT)p[t+\tau -(r+s)T)]\text{d}t
\,\,\,\,\,\,\text{(XXXIII)}

che possiamo riportare alla forma generale effettuando un'opportuna trasformazione di variabili:

<R_{\nu }(t,\tau )>=\frac{1}{T}\sum_{r=-\infty}^{\infty}R_{a}(r)\sum_{s=-\infty}^{\infty}\int_{-\frac{T}{2}-sT}^{\frac{T}{2}-sT}p(t)p(t+\tau -rT)\text{d}t=
=\frac{1}{T}\sum_{r=-\infty}^{\infty}R_{a}\int_{-\infty}^{\infty}p(t)p(t+\tau -rT)\text{d}t\,\,\,\,\,\,\text{(XXXIV)}

Denotando pertanto con γp(t) la funzione di autocorrelazione associata all'impulso di segnalazione, supposto ad energia finita:

\gamma _{p}(t)=\int_{-\infty}^{\infty}p(t)p(t+\tau )\text{d}t\,\,\,\,\,\,\text{(XXXV)}

la (XXXIV) diventa definitivamente:

<R_{\nu }(t,\tau )>=\frac{1}{T}\sum_{r=-\infty}^{\infty}R_{a}(r)\gamma _{p}(\tau -rT)\,\,\,\,\,\,\text{(XXXVI)}

3.2 Densità spettrale Wν(f)

Dalla relazione (XXVIII) possiamo scrivere:

W_{\nu }(f)=\frac{1}{T}\sum_{r=-\infty}^{\infty}R_{a}(r)\mathbf{F}[\gamma _{p}(\tau -rT)]\,\,\,\,\,\,\text{(XXXVII)}

dalla quale ricordando che, sempre per il teorema di Wiener:

\mathbf{F}[\gamma _{p}(\tau)]=|P(f)|^{2}\,\,\,\,\,\,\text{(XXXVIII)}

avendo denotato con P(f) la trasformata di Fourier dell’impulso di segnalazione p(t), discende finalmente quanto segue:

W_{\nu }(f)=\frac{|P(f)|^{2}}{T}\sum_{r=-\infty}^{\infty}R_{a}(r)e^{-j2\pi frT}\,\,\,\,\,\,\text{(XXXIX)}


4. Caratterizzazione stocastica della co-decodifica PAM multilivello per ponti radio numerici

Nel caso di codifica multilivello, i simboli an possono assumere valori appartenenti ad un alfabeto composto da M elementi distinti che, come descritto nella quinta parte, si suppongono distribuiti simmetricamente attorno allo zero.
Nella modulazione PAM multilivello le cifre dn del messaggio sono raggruppate in blocchi di m elementi e per ogni configurazione di cifre si fa corrispondere un valore scelto fra:

M=2^{m}\,\,\,\,\,\,\text{(XL)}

possibili secondo opportune regole stabilite all'occorrenza. Così, ad esempio, nel caso di codifica ad M = 4 livelli, adottando la seguente codifica:

dn − 1
dn
an
0 0 -3
0 1 -1
1 1 1
1 0 3

il segnale numerico assume la forma indicata di seguito:

ovvero non si è fatto altro che adottatare una codifica di Gray caratterizzata dal fatto che sequenze binarie corrispondenti a due livelli contigui differiscono solo per un bit.

4.1 Densità spettrale

Se le cifre dn emesse dalla sorgente possono ritenersi indipendenti ed equiprobabili, i livelli saranno anch’essi indipendenti ed equiprobabili e ad ognuno di essi può essere associata una probabilità pari a \frac{1}{M}. Di conseguenza la densità spettrale del segnale modulato PAM può essere calcolata come segue:

R_{a}(r)=\mathbf{E}[a_{n}a_{n+r}]=\left\{\begin{matrix}\mathbf{E}[a_{n}^{2}],\,\,\,r=0\\ \mathbf{E}[a_{n}]\cdot \mathbf{E}[a_{n+r}],\,\,\,r\neq 0\end{matrix}\right.\,\,\,\,\,\,\text{(XLI)}

Tenendo conto delle note relazioni sulle serie geometriche (che riportiamo per comodità):

\sum_{n=1}^{M}n=\frac{M(M+1)}{2};\,\,\,\sum_{n=1}^{M}n^{2}=\frac{M(M+1)(2M+1)}{6}

si ottiene:

\begin{matrix}R_{a}=\sum_{n=1}^{M}\frac{1}{M}[2n-(M+1)]^{2}=\frac{M^{2}-1}{3},\,\,\,r=0\\ R_{a}=\left \{ \sum_{n=1}^{M}\frac{1}{M}[2n-(M+1)] \right \}^{2},\,\,\,r\neq 0\end{matrix}\,\,\,\,\,\,\text{(XLII)}

Pertanto la densità spettrale assume l'espressione seguente:

W_{\nu }(f)=\frac{M^{2}-1}{3}\frac{|P(f)|^{2}}{T}\,\,\,\,\,\,\text{(XLIII)}

Di seguito è mostrata la densità spettrale del segnale PAM multilivello per diversi valori di M:

dalla quale si può rilevare che, all'aumentare di M, la banda occupata dal segnale diminuisce.

4.2 Probabilità d'errore

Per valutare la probabilità di errore basta ricordare che, nell'ipotesi che il canale di trasmissione sia ideale, il segnale in ingresso al demodulatore è r = αan + n con gli stessi significati introdotti per il caso binario. Seguendo quindi lo stesso criterio di decisione, il ricevitore decide sul simbolo a trasmesso secondo il valore assunto dal segnale ricevuto r = αan + n.
Se i livelli trasmessi sono equiprobabili la decisione sul livello an è presa se r cade nell'intervallo In: = [α(an − 1),α(an + 1)], per i livelli intermedi; per i livelli terminali, si decide a favore del livello a1 se r ricade nell'intervallo I_{1}:=[-\infty,\alpha (a_{n}+1)] e del livello aM laddove r è contenuto in I_{M}:=[\alpha (a_{n}-1),+\infty].
Denotando con P_{e|a_{n}} la probabilità di errore condizionata dalla trasmissione del simbolo an, la probabilità d'errore non condizionata può esprimersi come segue:

P_{e}=\frac{1}{M}\sum_{n=1}^{M}P_{e|a_{n}}\,\,\,\,\,\,\text{(XLIV)}

Dal momento che gli eventi \left \{ r< \alpha (a_{n}-1) \right \} e \left \{ r> \alpha (a_{n}+1) \right \} risultano disgiunti, si dimostra che:

\begin{matrix}P_{e|a_{n}}=\mathbf{P}[n<-\alpha ]+\mathbf{P}[n>\alpha ],\,\,\,2\leq n\leq M-1\\ P_{e|a_{1}}=\mathbf{P}[n>\alpha ]\\ P_{e|a_{M}}=\mathbf{P}[n<-\alpha ]\end{matrix}\,\,\,\,\,\,\text{(XLV)}

Sicché, modellando ancora una volta il rumore come un processo casuale gaussiano, si ha:

\mathbf{P}[n>\alpha ]=\mathbf{P}[n<-\alpha ]=\int_{\alpha }^{\infty}\frac{1}{\sqrt{2\pi \sigma ^{2}}}e^{-\frac{n^{2}}{2\sigma ^{2}}}\text{d}n=Q\left (\frac{\alpha }{\sigma }  \right )\,\,\,\,\,\,\text{(XLVI)}

Come nel caso binario la probabilità d'errore dipende dal rapporto \frac{\alpha }{\sigma } cosicché il minimo di tale quantità si ottiene in presenza di filtro adattato. Supponendo quindi che il rumore introdotto dal canale sia bianco e con densità spettrale pari ancora ad \frac{N_{0}}{2}, il minimo della Pe è dato dalla seguente relazione:

P_{e}=2\frac{M-1}{M}Q\left (\sqrt{\frac{2E}{N_{0}}}  \right )\,\,\,\,\,\,\text{(XLVII)}

Introducendo la definizione di energia media per simbolo EM come segue:

E_{M}=\frac{1}{M}\left [ \sum_{n=1}^{M}a_{n}^{2} \right ]E=\frac{M^{2}-1}{3}E\,\,\,\,\,\,\text{(XLVIII)}

la (XLVII) diventa:

P_{e}=2\frac{M-1}{M}Q\left (\sqrt{\frac{6}{M^{2}-1}\frac{E_{M}}{N_{0}}}  \right )\,\,\,\,\,\,\text{(XLIX)}

che risulta di seguito rappresentata in funzione del rapporto segnale rumore \frac{E_{M}}{N_{0}} e per diversi valori di M:

Fig.10.png

Fig.10.png


Bibliografia

  1. Formazione specialistica e training on the job presso Telecom Italia S.p.A. (2007 - 2013);
  2. Appunti, dispense e materiale didattico messo a disposizione nel corso di Fondamenti Di Comunicazioni Elettriche tenuto presso la Facoltà di Ingegneria Elettronica dell'Università Degli Studi Di Palermo (201s - 2013);
  3. G. MAMOLA, G. GARBO: <<Lezioni di teoria dei segnali, vol.1 & 2>>, Dario Flaccovio, 2003;
  4. S. HAYKIN, M. MOHER: <<An Introduction to Analog and Digital Communications, 2nd Edition>>, Wiley, 2007;
  5. M.C. JERUCHIM, P. BALABAN, K.S. SHANMUGAN: <<Simulation of Communication Systems>>, 2nd Edition>>, New York: Plenum, 2000;
  6. F. VALDONI, F. VATALARO: <<Telecomunicazioni>>, Calderini, 1984;
  7. J.R. PIERCE: <<Simbols, signals and noise>>, J.Newman, 1961;
  8. F. CARASSA: <<Comunicazioni elettriche>>, Boringhieri, Torino 1977.
12

Commenti e note

Inserisci un commento

di ,

Ahahahahah grazie dr Cox... Effettivamente capisco che sono troppi, ma prometto che alla tredicesima mi fermo, anche perché a marzo mi iniziano i corsi delle ultime due materie della triennale + tesi, e ci sarà una nuova eclissi almeno fino a luglio :p

Rispondi

di ,

Vuoi fermarti alla tredicesima parte? No, dai, scrivine ancor di più! :) Articoli di ottima qualità!

Rispondi

di ,

grazie eric :)

Rispondi

di ,

Ottimo lavoro!!!

Rispondi

di ,

Grazie DirtyDeeds! Onorato del tuo apprezzamento! Beh, in origine non era mia intenzione ma, strada facendo, non ho potuto fare a meno di accostare alla "semplice" teoria dei ponti radio, l'universo teorico che sta alla base della trasmissione numerica sui ponti stessi, peraltro argomenti che ho comunque studiato ed approfondito esattamente nel corso di comunic. elettriche e che mi sembrava davvero un peccato chiudere nel dimenticatoio :) Ancora grazie, grazie, grazie!

Rispondi

di ,

Veramente complimenti Claudio! Questi articoli formano un vero corso di comunicazioni elettriche: keep on writing!

Rispondi

di ,

Grazie Stefano, sono onorato, davvero! Beh, hai parlato di equalizzazione di canale... Io ti dico: arriverò alla tredicesima parte... Fai un po' due conti ehehheheh

Rispondi

di ,

Che nostalgia .... il ricevitore ottimo! Mi ricordo l'esame di comunicazioni elettriche .... ci manca solo il filtro ottimo per l'equalizzazione del canale e poi ..... snif....snif..... abbiamo praticamente concluso la saga. :) ... a meno che .... tu non abbia intenzione di fare l'upgrade verso radiotecnica! :) A parte gli scherzi complimenti per il gran bel lavoro che hai fatto. Sappi che li ho letti tutti con piacere. Bravo veramente.

Rispondi

di ,

Ahahahahah, versione Deluxe :p ihihihihi grazie Pietro :)

Rispondi

di ,

Complimenti Jordan20
Secondo me bisognerebbe fare delle raccolte di articoli: "I cofanetti di EY".

Rispondi

di ,

Grazie carissimo mir

Rispondi

di ,

... Complimenti rinnovati,Jordan.

Rispondi

Inserisci un commento

Per inserire commenti è necessario iscriversi ad ElectroYou. Se sei già iscritto, effettua il login.