Indice |
Premessa
Un segnale elettrico (tensione, corrente, etc.) viene rappresentato con una funzione matematica della variabile tempo, per esempio x(t).
A sua volta questa funzione viene rappresentata assai più sinteticamente tramite la trasformata di Fourier X(f) che è un’altra funzione della variabile frequenza e che mostra il cosiddetto “spettro di frequenza” ossia la distribuzione dell’energia (o della potenza) frequenza per frequenza. Questa seconda funzione si ottiene dalla prima applicando la definizione matematica, che si traduce nel calcolo di quel certo integrale ben noto. Da X(f) si può anche tornare indietro a x(t).
A prima vista questi integrali possono lasciare un po’ perplessi.
La spiegazione dell’origine del primo di essi, quello che calcola la X(f), spesso parte dalla “serie di Fourier” e dal suo riferimento più o meno intuitivo alla fisica delle onde. Quindi si parte dal considerare una x(t) periodica: la periodicità fa sì che il secondo integrale diventi una somma (o una sommatoria, come alcuni amano dire) sempre di funzioni periodiche sinusoidali cosx e sinx, spesso espresse tramite l’esponenziale complesso ej2πft tramite la formula di Eulero ejx = cosx + jsinx
Si può dimostrare infatti che una funzione periodica, di periodo T, può essere espressa come somma pesata o combinazione lineare di un numero infinito di sinusoidi di frequenze multiple intere di F=1/T, detta frequenza fondamentale (o prima armonica), ossia sinusoidi del tipo ej2πnFt dette anche armoniche.
I “pesi” sono i coefficienti della serie e corrispondono alle ampiezze delle singole sinusoidi e ai loro sfasamenti rispetto a un riferimento di fase, in genere quello della fondamentale; se si scegli la rappresentazione esponenziale, i coefficienti suddetti sono numeri complessi, dato che un numero complesso riassume in sé ampiezza e fase.
Fisicamente, una funzione periodica del tempo può rappresentare un’onda, elettrica o meccanica. Nel caso dell’acustica le singole sinusoidi che compongono la somma corrispondono alle armoniche (o “armonici” come dicono i musicisti), cioè onde a frequenza multipla intera della fondamentale. Una forma d’onda complicata può essere quindi scomposta in tante onde semplici, ossia sinusoidali. Chi ha pratica di strumenti musicali sa bene cosa sono gli armonici e come si evidenziano; per inciso, sono i i maggiori responsabili delle differenze di timbro tra gli strumenti.
Se però la funzione x(t) non è periodica, la si considera di periodo infinito e, con un passaggio al limite, la somma infinita di cui sopra diventa un integrale (il primo integrale): la serie di Fourier diventa “trasformata di Fourier”. Introducendo poi il funzionale δ(t) è possibile esprimere anche la serie come trasformata, unificando quindi le rappresentazioni. Ma di questo non ci occupiamo qui, altrimenti addio semplicità!
Le trasformate, come quella di Fourier, che godono della proprietà di essere lineari si rivelano di grande utilità nella progettazione dei sistemi.
Tornando alla serie di Fourier, i “pesi” Xn delle armoniche risultano dal calcolo del primo integrale; se non ci si accontenta dei vari passaggi matematici, non è immediatamente chiaro perché i pesi si calcolano in questo modo, cioè svolgendo quell’integrale.
Cercando una spiegazione semplice
Cercherò invece di mostrare come sia possibile darne una spiegazione piuttosto semplice, almeno a mio parere. Sto parlando dell’associazione delle funzioni a uno spazio vettoriale a molte dimensioni. E’ vero che ne ho già parlato almeno in un altro articolo e quindi si può pensare che sia una mia fissazione: non è da escludere!
E’ già familiare per molti l’uso di vettori “rotanti” detti fasori, che descrivono in modo sintetico sinusoidi la cui ampiezza è proporzionale al modulo (graficamente = lunghezza) del vettore e la cui posizione angolare rispetto a un sistema di riferimento è lo sfasamento (o, un po’ impropriamente, “fase”). Modulo e fase vengono sintetizzati in un numero complesso, come dicevo. [In elettrotecnica, ad esempio, la forma d’onda prevalente “a regime” è la sinusoide la cui frequenza per lo più è fissa, mentre lo studio dei “transitori”, molto importante specie quando le potenze in gioco sono grandi, si avvale della trasformata di Laplace].
L’uso degli esponenziali al posto delle funzioni seno e coseno semplifica le cose per via del fatto che si possono usare le proprietà delle potenze, prima tra tutte quella che utilizza la somma degli esponenti quando se ne calcola il prodotto (è la stessa proprietà che porta a usare vantaggiosamente i logaritmi, e i dB loro derivati).
Poiché la x(t) è una funzione reale, deve risultare anche espressa da un numero reale. Essa corrisponderà quindi alla parte reale del numero complesso che la rappresenta. Ma questo modo di fare, anche se corretto, complicherebbe un po’ le cose. E’ più semplice indicare la parte reale come metà della somma di due numeri complessi coniugati, due numeri cioè che hanno parti reali uguali e parti immaginarie opposte, che quindi si annullano. Riporto un brano dell'ottimo libro di Alessandro Falaschi citato in bibliografiaCome si vede sorgono le frequenze negative che, a prima vista, lasciano sconcertati. La frequenza è infatti un concetto di densità di ripetizione, cioè “numero di eventi nell’unità di tempo” e non si fa collegare a positivo o negativo. Inoltre ha in sé qualcosa di “granulare”: che significato può avere una frequenza espressa da un numero non intero? Posso dire “3,7 eventi al secondo”? In un secondo ce ne sono o 3 o 4. Certo, posso dire “37 eventi in 10 secondi”… Ma se pensiamo a qualcosa che ruota, possiamo considerare la frequenza come il numero di giri al secondo e il giro può essere fatto in senso antiorario (positivo) o orario (negativo), secondo le convenzioni scelte, e di conseguenza, più che la frequenza, la velocità angolare è positiva o negativa. Inoltre il “giro” (angolo giro = 360°) può essere frazionato con continuità.
Non solo fasori
Lo sviluppo tecnologico degli ultimi decenni ha fatto diventare la conversione A/D un ovvio dell’interfaccia sistema – mondo fisico, così che i sistemi tlc sono da tempo quasi solo digitali. Tuttavia una parte analogica, quella che riguarda la propagazione attraverso un canale, è imprescindibile ed è qui che la rappresentazione in frequenza, cioè la trasformata di Fourier, viene in aiuto.
Ma la rappresentazione in frequenza (trasformata di Fourier) non è la sola tra quelle lineari e quindi la possibilità di inquadrarle tutte in un modo unico, quello appunto dell’uso dei vettori con significato più esteso rispetto a quello dei fasori, si può rivelare assai utile.
Cercherò di illustrare a grandi linee questo uso, naturalmente in modo poco più che intuitivo e senza rigore matematico, sperando di essere utile almeno a qualcuno.
Nella pratica ingegneristica l’infinito diventa un numero sufficientemente grande, in modo che una funzione possa approssimata da una somma finita di altre funzioni fino al grado di approssimazione voluto , in modo che il modello matematico astratto diventi utilizzabile.
Nelle tlc abbiamo segnali “a banda limitata” se l’energia contenuta nelle frequenze maggiori del limite superiore della banda è trascurabile rispetto alle esigenze funzionali del sistema. Inoltre si ha a che fare con segnali dalle forme d’onda temporali più diverse e l’uso dei fasori spesso non basta a districarsi nei calcoli. I segnali molto spesso si sovrappongono e tuttavia devono continuare a essere distinguibili in quanto portatori di messaggi diversi ma contemporanei.
Questa esigenza di distinguibilità, di indipendenza reciproca si traduce efficacemente nel concetto di ortogonalità. Esso deriva dal concetto geometrico di perpendicolarità (“perpendiculum” era chiamato nell’antichità il filo a piombo): ad esempio due rette sono perpendicolari se giacciono su uno stesso piano e lo dividono in 4 angoli uguali. Nel disegno tecnico le proiezioni ortogonali sono qualcosa di molto familiare. Le proiezioni ortogonali sono utili perchè permettono di scomporre un oggetto rappresentandolo nelle tre dimensioni spaziali con tre disegni tra loro indipendenti, ossia ciascuno indipendente dagli altri due. Se proiettiamo il "perpendiculum" su un piano orizzontale, diventa un punto, ossia passa da 1 dimensione a 0 dimensioni. La potenza dell'ortogonalità sta un questo salto indietro nelle dimensioni, che consente la scomposizione.
Il concetto di ortogonalità si applica anche nell’algebra lineare dei vettori: una volta definito uno “spazio vettoriale” e in esso il “prodotto scalare” di due vettori, è facile dimostrare che due vettori sono ortogonali se il loro prodotto scalare è = 0. Geometricamente ciò corrisponde al fatto che le rette su cui giacciono i due vettori formano un angolo di 90°. Rimanendo sullo stesso piano, un vettore può essere “proiettato” su un altro solo se l’angolo formato dai due è diverso da 90° e tale proiezione è reversibile, ossia, come succede in una buona codifica, si può tornare indietro al vettore di partenza. Se invece l’angolo è di 90° la proiezione “collassa” in un singolo punto e la reversibilità si perde.
Lo spazio vettoriale diventa meglio utilizzabile se in esso si definisce una “base”, ossia un insieme di vettori tra loro ortogonali e di modulo unitario, detti versori, ai quali riferire tutti gli altri dello stesso spazio come combinazione lineare. Essi definiscono anche un sistema di assi cartesiani su cui giacciono. La quantità di questi versori è uguale al numero delle dimensioni dello spazio vettoriale. Quindi saranno 2 nel piano, 3 nello spazio ordinario e così via. La loro ortogonalità assicura anche che siano “linearmente indipendenti”, cioè che nessuno di essi possa essere “ricavato” dagli altri come combinazione lineare. (Due vettori sono linearmente indipendenti se le rette su cui giacciono NON sono parallele).
La figura soprastante mostra vettori e loro somma rappresentati su una base di versori i, j, k.
Se nello spazio vettoriale la base è costituita dall’insieme di vettori B{b1, b2, …, bn} ne segue che un qualsiasi vettore v di quello spazio può essere espresso come somma vettoriale pesata:
v = v1b1 + v2b2 + … + vnbn = Σ ivibi
dove i pesi v1 … vn sono i coefficienti della somma, ossia della combinazione lineare, e sono detti “le componenti” e i singoli vettori vibi sono detti “i componenti”, rispetto alla base B.
Prodotto scalare e modulo
il prodotto scalare di due vettori v e w è definito a prescindere dal riferimento cartesiano e vale:
dove |v| e |w| sono i moduli di ciascun vettore e θ è l’angolo che formano tra loro. Il prodotto scalare corrisponde quindi al prodotto di |v| per la proiezione di w su v (cioè |w| cosθ ), o anche il viceversa, ossia il prodotto di |w| per la proiezione di v su w. Quindi se i due vettori sono ortogonali il loro prodotto scalare è = 0.
Nella figura soprastante si vede come eseguire il prodotto scalare dei vettori A e B = (Proiezione di A su B) x |B|
Se invece ci serviamo di un riferimento cartesiano e w = Σiwibi , il prodotto scalare di due vettori v e w è definito come
=
Σiviwi
Si dimostra facilmente che questa formula del prodotto scalare è del tutto equivalente a quella soprastante, ossia prodotto dei moduli e del coseno dell'angolo.
Inoltre, il modulo del vettore si calcola applicando il Teorema di Pitagora generalizzato per lo spazio a n dimensioni:
|v| =
Tutto questo discorso sui vettori è per dire che, sotto certe condizioni, è possibile rappresentare una funzione con un vettore, il che presenta notevoli vantaggi di maneggevolezza.
Le “certe condizioni” chiedono di utilizzare un apposito spazio vettoriale, detto spazio di Hilbert (matematico che l’ha definito), all’interno del quale valgono certe proprietà, genericamente riconducibili a quelle del consueto spazio euclideo a 3 dimensioni, quello in cui si costruiscono le case. In particolare è applicabile il concetto di “distanza” in cui di applica il teorema di Pitagora generalizzato. Un’altra proprietà saliente è che la funzione sia a energia finita o a potenza finita (funzioni periodiche) e cioè
oppure
E’ questo uno spazio delle funzioni “a quadrato sommabile” L2
Nello spazio di Hilbert si può definire una “base” di funzioni tra loro ortogonali, per esempio di funzioni del tempo. E’ opportuno che tale base sia anche “ortonormale”, ossia che i vettori che la costituiscono abbiano modulo unitario. L’insieme delle funzioni x1(t) … x5(t) costituisce una base di funzioni ortogonali, se si associa un vettore unitario (versore) ui a ciascuna funzione xi(t) e si pone ogni ui in una dimensione diversa dello spazio vettoriale. Per le funzioni xi(t) una “dimensione” è costituita dall’intervallo temporale T.
Nella figura è riportato un esempio di una semplice funzione x(t) con una base ortogonale xi(t) adeguata
In questo caso lo spazio vettoriale è a 5 dimensioni.
Possiamo esprimere la funzione x(t) della figura come
x(t) = 1 . x1(t) + 4 . x2(t) -1 . x3(t) +3 . x4(t) +2. x5(t)
cui in termini vettoriali, associando v a f(t), corrisponde
v = v1u1 + v2u2 + v3u3 + v4u4 + v5u5 = 1u1 + 4u2 -1u3 + 3u4 + 2u5
Naturalmente non è facile rappresentare graficamente questo vettore e, anche facendolo, sarebbe poco espressivo. Dopo le due dimensioni che si rappresentano nel piano con assi cartesiani, le altre dimensioni devono essere proiettate con un’assonometria; ma dopo la terza è sempre più difficile “vedere” lo spazio, che infatti è astratto.
Il prodotto scalare di due funzioni è definito in modo analogo a quello per due vettori.
Se le funzioni sono numeriche si possono meglio rappresentare come h(t) = h(mT) se scriviamo t = mT.
In questo caso al solito l'integrale diventa una somma
E‘ facile constatare ad esempio che la base x1…x5 definita sopra è ortogonale perché xi.xj = 0 per qualsiasi .
Si può pensare a funzioni simili alla f(t) della figura come a vettori a loro volta somma di n vettori “elementari” (nella figura n=5); il modulo del generico vettore m-esimo vale h(mT) o k(mT) mentre il suo versore è x(mT). Nella figura T = 1. I due vettori h e k si trovano quindi in uno spazio a n dimensioni.
Nella figura si calcola il prodotto scalare per le due funzioni riportate e tabellate.
Come si vede i loro vettori occupano uno spazio vettoriale a 13 dimensioni e sono quasi ortogonali, perché formano un angolo di 91 gradi e il loro prodotto scalare è vicino allo zero, essendo = -1.
Più due funzioni sono vicine all’ortogonalità reciproca più sono distinguibili l’una dall’altra. Se rappresentano messaggi, sarà più facile ricostruirli quanto più l’angolo tra i loro vettori sarà prossimo a 90 gradi.
Funzioni ortogonali
E’ anche facile vedere che l’esempio sopra si può riferire al campionamento di una funzione continua x(t) , a banda limitata, dove l’intervallo di campionamento T è <1/2B dove B è il valore in Hz dell’estremo superiore della Banda occupata. La x(t) viene così rappresentata da un vettore in uno spazio a n dimensioni, dove n è il numero di campioni. Tale numero può diventare anche molto alto, anche se non infinito, perché i campioni vengono raggruppati in blocchi. Per effettuare una trasmissione digitale ogni campione viene trasformato in un numero binario, composto in genere da 8, 16 o 24 bit. I blocchi, che vengono ripetutamente codificati secondo i protocolli scelti, arrivano a contenere centinaia o migliaia di bit, o anche di più.
Dunque a una funzione x(t) può essere associato un vettore i cui componenti (per definizione vettori ortogonali) sono ottenuti moltiplicando i versori per opportuni coefficienti) ricavati, come abbiamo detto, su una base di funzioni ortogonali di ampiezza unitaria. Qui parliamo della variabile "tempo" ma è chiaro che il discorso si applica a funzioni di qualsiasi variabile.
Tali funzioni ortogonali possono essere di qualsiasi tipo: le funzioni sinusoidali di un angolo temporale 2πft, danno vita alla serie di Fourier perché si rivelano a due a due ortogonali per qualsiasi valore dell’angolo "temporale" salvo quando il prodotto scalare è tra una funzione e se stessa. Nel caso in cui la x(t) sia periodica di periodo T, le funzioni sinusoidali avranno frequenze multiple intere di F= 1/T (detta “fondamentale” o “prima armonica”) e cioè F, 2F, 3F, … (dette “armoniche”). Il numero di tali funzioni sarà in generale infinito, ma di una “infinità numerabile”, data la presenza di multipli interi. La x(t) viene rappresentata tramite una somma (infinita) omeglio una combinazione lineare di funzioni sinusoidali detta “serie di Fourier”.
L’utilità consiste soprattutto nel fatto che una funzione continua nel tempo viene rappresentata da una serie (infinita numerabile) di numeri costituiti dai coefficienti della serie, cioè dalle componenti dei vettori ortogonali in cui il vettore “x(t)” è scomposto. In questo caso i vettori componenti non sono altro che fasori a frequenze armoniche.
Calcolare i suddetti coefficienti C(nF) corrisponde quindi a proiettare il vettore x(t) su ciascuno degli assi ortogonali della base, ossia calcolare i prodotti scalari
dove le funzioni sinusoidali sono rappresentate tramite un esponenziale complesso.
La "antitrasformazione", o l'espressione della x(t) come somma di armoniche, risulta così:
Come è noto, l’insieme dei coefficienti della serie costituisce il cosiddetto spettro armonico, rappresentato graficamente da una successione di righe verticali in corrispondenza delle frequenze armoniche, ossia multiple intere della frequenza fondamentale F= 1/T, dove T è il periodo (in sec) della funzione temporale, e in cui l’altezza delle righe è proporzionale al modulo dei relativi coefficienti.
La serie di Fourier può essere vista come una rappresentazione sintetica o “compressa” della x(t), espressa attraverso il suo spettro. Dato poi che si tratta di proiezioni ossia di prodotti scalari, è facile costruire l’antitrasformata: basta riproiettare i vettori sugli assi di partenza.
Si passa dalla serie alla trasformata di Fourier quando la funzione non è periodica, il che è come dire che il periodo T tende a infinito. Di conseguenza la distanza 1/T tra le righe tende a zero, le righe si infittiscono fino a disegnare una funzione continua. Il prodotto scalare di cui sopra dà luogo appunto a tale funzione, o X(f).
Un altro punto cui accennare è un "bonus" dell'uso degli spazi vettoriali. Se una funzione è (rappresentabile con) un vettore, questo vettore può essere scomposto in una qualsiasi base di funzioni ortogonali, dando luogo a una Trasformata legata alla particolare base scelta. Non solo. Si vede abbastanza bene che è facile passare da una trasformata ad un’altra: basta applicare le formule del cambiamento di base vettoriale, che sono trasformazioni lineari e che, nel caso di funzioni discrete e limitate nel tempo, sono esprimibili con matrici e relative operazioni matriciali.
Le operazioni implicate in tutto questo (compresi gli integrali...) sono per lo più somme di prodotti, che sembrano avere un uso veramente esteso in tanti campi della matematica, specialmente nell'algebra. Uno di questi è l'algebra dei polinomi. Già un polinomio è un'espressione composta di somme di prodotti, che sono poi monomi di potenze intere crescenti. In effetti anche i polinomi possono essere associati a vettori: esistono alcune classi di polinomi ortogonali tra loro in certi intervalli, come i polinomi di Legendre, quelli di Laguerre, di Cebishev, e molti altri.
Funzioni di Walsh
Una particolare classe di funzioni numeriche ortogonali è l’insieme delle funzioni di Walsh: esse possono costituire una base ortogonale su cui “proiettare” una funzione generica, ottenendone la Trasformata di Walsh.
Per inciso, queste funzioni costituiscono anche la base di alcuni codici identificativi nelle trasmissioni della telefonia cellulare.
Una Trasformata che passa inosservata
Per quanto abbiamo detto, una funzione continua a banda B limitata, campionata a istanti regolari minori di 1/2B, diventa una Trasformata nel dominio del tempo discretizzato.
Conclusione
Per finire, vorrei richiamare l'attenzione sul fatto che un’altra “Trasformata” di cui raramente si è consapevoli è la rappresentazione di un numero con il metodo posizionale, quello in uso in tutto il mondo da quando il bravo Fibonacci l’ha introdotto (1202) con il suo Liber Abacus, prendendola dagli Arabi, i quali a loro volta l'avevano presa dagli Indiani.
Il numero viene cioè rappresentato come un vettore in una base ortogonale. La base ortogonale è costituita dalle potenze intere (positive e negative) della base numerica, che nella vita ordinaria è 10 e nel cyberspazio è 2 o 16.
L'"antitrasformata" in questo caso che cos'è? Temo che sia la rappresentazione di un numero tramite la ripetizione do uno stesso simbolo, come le "astine" che si facevano fare ai bambini, per cui ad esempio il numero 13 antitrasformato diventa |||||||||||||. Sarebbe veramente difficile usare i numeri in questo modo... Fin dall'antichità ci si à resi conto che una simbolizzaione più strutturata era necessaria e in effetti ne sono state individuate moltissime. Noi conosciamo quella detta "Numeri Romani", che funziona come indicazione delle quantità ma che non è adatta a svolgere i calcoli.
Nelle Tlc sarebbe molto difficile maneggiare le funzioni del tempo senza la caratterizzazione sintetica che ne danno le Trasformate. L'essenza e l'utilità delle Trasformate sembra essere quella di tradurre una collezione di dati sequenziale in una struttura simbolica sintetica, che metta in evidenza certe caratteristiche di quella collezione, caratteristiche che formano la base per i vari usi "mirati" dei dati.
Bibliografia
A. B. Carlson "Communications Systems" McGraw Hill Editions
A. Falaschi "Trasmissione dei segnali e sistemi di telecomunicazioni" Web Edition
S. Benedetto, E Biglieri, V. Castellani "Teoria della trasmissione numerica" Jackson Editori