Indice
|
Premessa
L’intento di questo EYBignami è divulgativo: vuole offrire una panoramica sulle telecomunicazioni senza entrare nei dettagli ma presentando una sintesi dei principali concetti e formule usati nella tecnica delle telecomunicazioni. I contenuti sono estratti dal libro on line “Trasmissione dei Segnali e Sistemi di Telecomunicazione” di Alessandro Falaschi, docente presso l’Università La Sapienza di Roma, che ne ha gentilmente autorizzato l’uso, disponibile integralmente per il download gratuito su http://www.teoriadeisegnali.it e che potrà essere usato per gli approfondimenti. Il prof. Falaschi infatti mette a disposizione il suo libro nel preciso intento di far circolare l'informazione anziché sottrarla al pubblico mettendola in vendita.
Introduzione
In questa terza parte viene completato, almeno nei suoi aspetti più di rilievo, lo studio dei segnali elettrici finalizzato alla trasmissione attraverso canali caratterizzati da comportamenti lineari, relativamente alle grandezze fisiche di interesse. La conversione in digitale dei segnali analogici, vista nella seconda parte, li rende omogenei ai segnali che trasportano dati numerici, quindi, dal punto di vista della trasmissione, la distinzione tra analogico e digitale tende a svanire anche se sono tuttora presenti molte trasmissioni analogiche, come quelle della radio FM e AM. Si dice allora trasmissione dati (anche se è una dizione ormai in disuso), sottintendendo che un dato è in pratica un numero, il cui significato originario non riguarda i sistemi di trasmissione.
Trasmissione in Banda Base
A seconda della finalità e del contesto, i dati vengono trasmessi con una certa velocità, o ritmo di emissione esprimibile genericamente in "dati al secondo". Ma questa velocità deve poi essere necessariamente specificata. Visto che un numero è rappresentato da una certa quantità di cifre (digit), se queste sono binarie la velocità è in bit/secondo. Nel caso più semplice ad ogni bit corrispondono due segnali, o un segnale a due stati, uno per lo "0" e l'altro per l'"1".
Non sempre però la corrispondenza è 1:1. Si hanno spesso casi in cui un segnale è a più stati e ogni stato, spesso chiamato "simbolo", rappresenta una certa quantità di bit e la velocità di trasmissione può essere espressa in simboli/secondo. Ciò significa che viene usata una codifica, ossia una corrispondenza tra numeri e segnali, in cui i segnali hanno forme di tipo impulsivo (segnali "di energia") ottenute con una codifica di linea. Quando i segnali hanno la stessa velocità dei dati e hanno la banda centrata sullo 0, si dice che la trasmissione è in banda base.
Si vuole dire con questo che la banda originale W non ha subìto traslazioni, ossia non stata modulata con una portante a frequenza maggiore di 2W. Si sottintende tradizionalmente anche che un segnale siffatto viene inviato in una linea metallica, anche se questa non è una condizione necessaria; un caso particolare è la scrittura su una memoria magnetica come un Hard Disk, oppure un DVD. In ogni caso qualsiasi canale numerico inizia con tratto analogico, descritto dalla funzione di trasferimento H(f)
Multilivello
Codici di linea
Se il canale H(f) ha una banda troppo limitata rispetto a quella che il rimo del segnale e la sua forma richiedono, un segnale (inteso come simbolo) invade l'intervallo temporale del simbolo successivo e, se l'invasione supera un certo valore si può avere interferenza intersimbolica e quindi errori.
Codici Unipolari
NRZ Non Return to Zero, RZ Return to Zero
Codoci Bipolari
NRZ, RZ, Manchester o Diphase NRZ (prescritto da IEEE802.x per LAN a contesa di accesso CDMA/CD Carrier Sense Multiple Access with Collision Detection), AMI, HDB3
Codici differenziali
La forma d'onda è legata anche alla relazione temporale dei bit, in modo da risolvere l'ambiguità temporale se si scambiano le polarità del collegamento NRZI (I=Inverted), Manchester differenziale
Errori in banda base
Impulsi di Trasmissione
I dati in banda base si trasmettono tramite un asuccessione di impulsi g(t) che devono ridurre la probabilità di errore proteggendo la trasmissione da due insidie: - rumore additivo - interferenza intersimbolica Delle due, la seconda è la più difficile da combattere quando il canale è costituito da una linea fisica a causa delle limitazioni di banda (la situazione si inverte per le trasmissioni radio). La difficoltà nasce dalla contraddizione tra limitazione in banda (che implica un durata infinita) e limitazione nel tempo (che implica una banda infinita). Un altro elemento di difficoltà è l'imprecisione del clock in ricezione. Per mimimizzare la contraddizione suddetta gli impulsi g(f) devono soddisfare le cosiddett condizioni di Nyquist: - nel tempo: g(t) deve passare per lo zero negli istanti multipli di Ts (durata del simbolo) e deve essere = 1 per t = 0 - in frequenza: G(f) deve manifestare simmetria dispari rispetto a fs/2 (frequenza di simbolo o "symbol rate"). Un filtro che soddisfa le suddette condizioni è il filtro a coseno rialzato.
Errori di trasmissione
Gestione degli errori
Tramite il calcolo è possibile valutare le probabilità di errore in varie condizioni, per il cui studio si rimanda al testo- Una volta valutata la probabilità di errore è necessario adottare delle strategie per la gestione degli errori.
Infatti, una volta che si sono prese tutte le precauzioni al livello del segnale da trasmettere, e cioè forma degli impulsi e energia per impulso (potenza del segnale complessivo), rimane solo da adottare delle codifiche a livello delle sequenze di bit finalizzare a gestire gli errori. Ciò significa che il flusso di bit viene suddiviso in blocchi di k bit consecutivi ciascuno e a ogni blocco vie aggiunta una sequenza di q bit di controllo (detti "di parità" nei casi semplici), il cui valore è calcolato con operazioni algebriche sui k bit precedenti.
I codici così predisposti si chiamano Codici a blocco (n,K) dove n = k + q. Essi possono rivelare oppure correggere gli errori di un blocco. Un tipo di codice a blocchi abbastanza usato è quello dei codici polinomiali a cui come controllo è associato il calcolo del CRC (Cyclic Redundancy Check).
Un altro tipo di codice largamante impiegato (ad esempio nella telefonia mobile) è quello dei Codici convoluzionali, in cui i bit di controllo vangono calcolati non sulo su un blocco, ma su tutta la storia dei blocchi precedenti, che viene continuamente aggiornata.
In ogni caso, le strategie di base sono due:
- FEC Forward Error Correction: provvede tramite operazioni algebriche alla correzione degli errori esaminando i blocchi ricevuti . Richiede l'aggiunta di vari bit di controllo ad ogni blocco e co/decodificatori sofisticati. Introduce sempre un ritardo non trascurabile ma costante. Adatta a situazioni in cui non si può chiedere la ritrasmissione del blocco, come ad esempio nello straming o nello storage dei dati e relativa lettura.
- ARQ Automatic Resend Request: chiede la ritrasmissione di un blocco errato. È conveniente quando è disponibile un canale nella direzione opposta (backward channel) e non ci sono limiti temporali stringenti- Richiede meno ridondanza della precedente (è sufficiente rivelare e non correggere gli errori). È la strategia tradizionale, adottata agli albori della trasmissione dati dei primi computer.
Sincronizzazione dei segnali numerici in ricezione
La trasmissione numerica si basa sulla regolarità del ritmo di emissione degli impulsi che rappresentano elettricamente i bit di un messaggio. Questa regolarità consiste soprattutto il fatto che la durata di un singolo impulso è sempre la stessa. Ciò permette al ricevitore di sincronizzarsi con i segnali ricevuti, individuando la durata dell'impulso. Certo, la deve sapere a priori, ma per leggerlo con la minima probabilità di errore, deve individuare anche gli istanti in cui l'impulso ha l'ampiezza massima, tipicamente situati al centro dell'impulso stesso.
Ma come si fa a indivisuare l'inizio di un messaggio? Una successione di bit cambia radicalmente di "significato" a seconda di dove poniamo il suo inizio. È vero che il sistema si disinteressa del significato, ma non può disinteressarsi del significato minimo, quello per il quale una successione di bit rappresenta un numero o un carattere. Quindi è importante individuare un inizio che faccia da riferimento a tutte le sequenze successive. Anzi, bisognerà ogni tanto "risfrescare" tale riferimento, perchè gli errori di linea potrebbero determinarne la perdita.
Trasmissione asincrona
Si dà questo nome alla trasmissione che avviene carattere per carattere, ossi byte per byte, in cui ogni byte è indipendente dal successivo: tipico è il caso della tastiera del computer. Ogni carattere inizia con un bit di Start ("0" o "Space" e termina con uno o due bit di Stop ("1" o "Mark"). Il livello "Idle" (riposo) può avere una durata illimitata, e così era ai tempi della telegrafia, ma ormai la sua durata è un multiplo intero del tempo di bit, per semplificare i circuiti. Quindi anche qui c'è, alla fine, un sincronismo. Questo può essere realizzato sul singolo byte o su un gruppo strutturato di byte (parola). L'efficienza di trasmissione è bassa, perchè in ogni caso non può superare 8/10 ossia 80%.
Il codice più conosciuto che associa numeri a caratteri alfanumerici è l'ASCII a 8 bit (inizialmente erano 7) nato per le lingue anglosassoni e latine. Ovviamente è insufficiente per rappresentare tutte le lingue del mondo per cui viene sostituito da UNICODE a 16 bit. Ma il progetto UNICODE è in evoluzione perchè vuole includere sempre più segni e al momento si prevede di utilizzare 21 bit per poter rappresentare più di 1 milione di segni diversi.
I caratteri possono essere raggruppati per comporre un messaggio (ad esempio un paragrafo di un testo) che, nel gergo dei dati, viene chiamato trama e viene delimitato da caratteri speciali come STX (Start of Text) e ETX (End of Text).
Trasmissione sincrona
Ormai è di gran lunga la più importante, perchè è in grado di unificare tutti i tipi di dati da trasmettere. I bit devono anche qui avere, a maggior ragione, tutti la stessa durata e il clock per ricostruirli in ricezione viene estratto dal flusso di bit ricevuti tramite un circuito PLL (Phase Locked Loop). Ma i bit devono essere organizzati in trame e quindi occorre definire una o più parole di sincronismo.
Le parole di sincronismo vengono emesse in numero sufficiente da ridurre adeguatamente la probabilità di falsi riconoscimenti.
Ricezione
Segnali modulati
Contesti applicativi
Multiplazione a divisione di frequenza FDM Si tratta della tecnica tradizionale per cui sono possibili più trasmissioni contemporanee che non interferiscono tra loro perché utilizzano bande di frequenza diverse centrate su frequenze diverse.
Si hanno quindi
Collegamenti punto - multipunto
Collegamenti punto - punto
Accesso multiplo
Canale telefonico
Modulazioni
Come si ottengono queste "traslazioni" di banda? Risposta: effettuando modulazioni di ampiezza o di frequenza di una "portante" sinusoidale.
Volendo valutare la potenza di un segnale traslato in banda (tramite un processo di moulazione) di arriva a conclusioni abbastanza semplici se il segnale di partenza è ergodico:
Tramite filtraggio può venire isolata la banda laterale superiore. La banda occupata e la potenza impegnate risultano così essere la metà ma la demodulazione è assaai più difficoltosa. La banda laterale ridotta supplisce in parte a queste difficoltà. Passiamo ora alle
modulazioni di fase e frequenza
dette angolari
Ricordiamo il parametro kf come legame tra frequenza istantanea fi(t)e messaggio da trasmettere m(t)
Le modulazioni angolari sono ad ampiezza costante (e quindi anche Potenza costante) ma sono altamente non lineari. Il calcolo preciso del loro spettro implica l'uso delle funzioni di Bessel dell'indice β definito sotto. Si considera una modulante sinusoidale
Si può usare la formula di Carson per valutare la banda occupata BC in funzione dell'indice di modulazione e della w modulante
Demodulazione AM
La demodulazione riporta in banda base il segnale modulato con portante f0
Omodina
Inviluppo
In fase e quadratura
Eterodina
Fa uso anche di una frequenza intermedia fM di servizio, detta Media frequenza
Si usa spesso anche lo schema
Supereterodina
Demodulazione FM
Vengono descritti due metodi: PLL (Phased Loocked Loop) e Discriminatore
Teoria dell'informazione
Finora abbiamo studiato le descrizioni dei segnali che rappresentano messaggi. Abbiamo sempre detto che i sistemi di telecomunicazione si disinteressano del contenuto dei messaggi, ossia del loro significato informativo. Ma per rendere efficiente la trasmissione dei segnali è opportuno sceglierne la forma in base alle esigenze della trasmissione che comprendono:
- Protezione dagli errori indotti dai disturbi
- Riduzione della mole di dati
- Minimizzazione del tempo di trasmissione
Queste esigenze vanno confrontate con i limiti propri sia della Sorgente che del Canale.
La Codifica di Sorgente studia la minima quantità di simboli con cui è possibile tramettere un messaggio, detta Entropia.
La Codifica di Canale studia la massima velocità con cui è possibile trasmettere un messaggio su un dato canale, detta Capacità di canale
In realtà il termine binit è assai poco usato. Si preferisce usare sempre bit. Personalmente trovo poco indovinato "bit" per la misura dell'informazione: sarebbe stato meglio usare "binit" lasciando "bit" per i numeri. Inoltre trovo fuorviante "Teoria dell'informazione" perché il termine "informazione" rimanda ai contenuti e alla conoscenza, mentre la teoria in oggetto riguarda l'efficienza tecnica delle trasmissioni.
In pratica, una codifica di sorgente ante litteram è l'alfabeto Morse: ai caratteri più frequenti (nella lingua inglese) lui attribuì parole di codice più brevi, così che in media i punti e le linee complessivi di un messaggio risultavano di meno. Un codice di sorgente largamente utilizzato, e "ottimo" se le probabilità dei simboli di sorgento sono conosciute a priori, è il Codice di Huffmann.
Esistono diversi altri metodi di codifica. Tali metodi sono usati ad esempio dalle applicazioni di compressione quali Zip, Rar, Flac, etc. compresi quelli con perdita come Jpeg e mp3.
Informazione nel canale
L'informazione mutua usa il concetto di probabilità condizionata, ossia la probabilità dell'evento B dato che sia accaduto l'evento A. Ad esempio, dato un mazzo di 52 carte da gioco, qual è la probabilità che, avendo estratto una carta di cuori (evento A), la carta sia un asso (evento B)? La probabilità condizionata si indica con p(B/A). L'evento congiunto "asso di cuori" ha probabilità p(a)p(B/A) che in questo caso è 1/4*1/13 = 1/52. Se l'evento B non dipende da A, i due eventi sono statisticamente indipendenti e p(B/A) = p(B) e la probabilità dell'evento congiunto p(A,B) = p(A)*p(B).
Capacità del canale
Per valutare la capacità di un canale continuo bisogna come al solito passare dalle somme agli integrali
Dopo qualche manipolazione:
L'ultima formula è spesso scritta come

dove si vede che la Capacità del canale AWGN si mantiene >0 anche con rapporto segnale/rumore molto sfavorevole, il cui il segnale ha una potenza molto inferiore a quella del rumore.
Codici di canale
Nonostante che i teoremi di Shannon garantiscano che esistono codici di canale in grado di rendere piccola a piacere la probabilità di errore, l'individuazione di tali codici non è affatto semplice.
E' stata compiuta molta ricerca in tal senso e, ormai da tempo, sono stati trovati codici che si avvicinano molto ai limiti teorici.
Come ho già scritto in precedenza, le due categorie principali sono:
- Codici lineari a blocchi (Codici sistematici, codici ciclici [codici BCH di cui noto è quello di Reed Solomon])
- Codici convoluzionali
La complessità dell'argomento non ci consente di approfondirlo.
Per gli stessi motivi non approfondiremo i temi dell'argomento che segue ma ci limiteremo a elencarli.
Codifica di sorgente multimediale
- - PCM (Pulse Code Modulation) è noto anche come ADC (Analog to Digital Conversion). Codifica i livelli campioni uno per uno in modo proporzionale o logaritmico. Si è evoluto in:
- - DPCM (Differential Pulse Code Modulation) che codifica la differenza di livello dal campione precedente, secondo un proncipio di "predizione" del segnale.
- - ADPCM (Adaptive Differential Pulse Code Modulation) che estende il principio di predittività modificando nel tempo la propria dinamica di azione.
Nel mondo della codifica video occorre tenere presente la distinzione tra Codec (Codificatori/decodificatori) che comprimono le immagini e Contenitori, che "pacchettizzano" i dati del codec e li rendono disponibili agli utilizzatori. Si presentano come file identificati dall'estensione, come .avi o .mp4
La codifica video è un mondo in continua evoluzione, un vero ginepraio impossibile da riassumere qui.
Conclusione della 3a parte
Con questa terza parte si conclude l'excursus sulla descrizione dei segnali e delle loro caratteristiche. Seguirà la descrizione degli aspetti tecnici legati alla trasmissione.

Elettrotecnica e non solo (admin)
Un gatto tra gli elettroni (IsidoroKZ)
Esperienza e simulazioni (g.schgor)
Moleskine di un idraulico (RenzoDF)
Il Blog di ElectroYou (webmaster)
Idee microcontrollate (TardoFreak)
PICcoli grandi PICMicro (Paolino)
Il blog elettrico di carloc (carloc)
DirtEYblooog (dirtydeeds)
Di tutto... un po' (jordan20)
AK47 (lillo)
Esperienze elettroniche (marco438)
Telecomunicazioni musicali (clavicordo)
Automazione ed Elettronica (gustavo)
Direttive per la sicurezza (ErnestoCappelletti)
EYnfo dall'Alaska (mir)
Apriamo il quadro! (attilio)
H7-25 (asdf)
Passione Elettrica (massimob)
Elettroni a spasso (guidob)
Bloguerra (guerra)