Cos'è ElectroYou | Login Iscriviti

ElectroYou - la comunità dei professionisti del mondo elettrico

11
voti

Numeri e comunicazione

Noi tutti usiamo i numeri con grande disinvoltura e non capita spesso di farsi domande sulla loro natura. Se ne studia qualcosa a scuola e, al di là del corso universitario di matematica, i numeri vengono usati secondo i criteri pratici suggeriti dalle necessità di turno. Gli informatici e anche gli elettronici hanno dimestichezza con il sistema binario e la maggior parte di loro sa anche perché i computer lo preferiscono a quello decimale. Lo stesso dicasi per la comunicazione. Nel nostro mondo sempre più digitale numeri e comunicazione sono sempre più correlati.

Indice

Numeri

Il discorso generale sui numeri è indubbiamente molto complesso, soprattutto guardandolo dal punto di vista storico e nella sua interazione con il linguaggio verbale.

Sigrid Agren - Numero Magazine Cover [France] (November 2012)

I numeri sono entità concettuali, intuitivamente associati al concetto astratto di quantità, che noi possediamo in modo intuitivo, fin da bambini. Quando impariamo a contare sappiamo indicare la quantità di oggetti con un nome, detto “numero”, che cambia proprio come cambia la quantità. Ciò significa che ogni volta che si aggiunge un oggetto all'insieme di partenza serve un nome diverso per indicarne la quantità (1, 2, 3,.. sono nomi che indicano quantità). In tempi antichi, quando nacque l’esigenza di dare un nome alle quantità, i nomi dei numeri erano pochi: da un certo punto in poi, bastava dire qualcosa di simile a “molti”.

Poi le necessità economiche imposero di diventare più precisi e, per non dover gestire troppi nomi diversi, si inventò la composizione dei nomi delle quantità a partire da pochi simboli. Questa “invenzione”, ossia il comporre, accostare pochi simboli lungo una linea ideale, orizzontale o verticale, per formare una “sequenza” (simile parola scritta) che a sua volta diventa un simbolo, con funzione di nome, costituisce un salto evolutivo notevolissimo nella direzione dell’astrazione logico-matematica, senza la quale nessun pensiero economico o scientifico è possibile. Il procedimento detto “composizione” permette di ottenere una grande quantità di nomi tutti diversi utilizzando pochi simboli “componenti”.

I Romani (e non solo loro) adottarono un criterio “additivo” nella composizione: la numerazione romana è proprio di questo tipo. Le bastano pochi simboli, presi a prestito dall'alfabeto, per rappresentare quantità fino alle migliaia e anche oltre, ma in modo sempre più scomodo. Il criterio era già per ordini di grandezza (su base 10): la posizione dei simboli era significativa, ma poco “lineare”. Inoltre questo sistema non consentiva operazioni matematiche ed era per questo necessario un aiuto esterno, l’abaco.
Numeri arabi e indiani

Numeri arabi e indiani

Nel medio evo il matematico Leonardo da Pisa (figlio di Guglielmo dei Bonacci, da cui Fibonacci) importò lo zero, appreso dagli arabi, che a loro volta l’avevano imparato dagli indiani. Si diffuse la rappresentazione “posizionale” indiana, che sostituì quella additiva: si usavano dieci simboli specifici (le cifre 0, 1, …, 9), attribuendo un significato di “potenza” alla posizione della cifra. Questo significato della posizione poteva funzionare solo con la presenza dello zero, che indicava l’assenza di quella certa potenza di 10. Il sistema posizionale era già noto a Cinesi, Babilonesi e Maya, però non era evoluto come quello indiano, tuttora in uso. Si scoprì poi, molto dopo, che il 10 era solo una delle possibili “basi”, scelta per il suo legame con le dita. Altri popoli avevano usato basi diverse, come 12 (associata alle falangi delle 4 dita opposte al pollice, che fa da cursore, o ai 12 mesi), 60 (usato in astronomia e associato ai 360 giorni annuali ossia 12 mesi lunari di 30 giorni), ma anche 5 (una sola mano) e 20 (mani e piedi). Nel 1913 da una statistica tra centinaia di tribù del Nord America emerse che il 31% faceva uso di una base 10, il 31% di una base quinaria-decimale, il 27% di una arcaica base 2, il 10% di una base vigesimale e l'1% di una base 3.

La base 10 trionfò in occidente per almeno due motivi.
1. E’ un compromesso efficace tra possibilità della memoria umana di ricordare simboli diversi e capacità di rappresentare grandi quantità: una base più grande, come la base 60, permette rappresentazioni sintetiche (“parole” di poche cifre) ma non è facile ricordare 60 simboli diversi; d’altra parte, la base 2 si ricorda bene, ma richiede parole molto lunghe e di nessuna immediatezza (qualcuno sa dire subito che quantità è 10011010110001  ? 9905).
2. L’imporsi degli indoeuropei nel mondo occidentale, perché essi fornivano una sola lingua madre (ma questa affermazione viene oggi contestata da alcuni), ciò che facilitava notevolmente la diffusione delle idee. Storicamente la scelta della base 10 si è definita in maniera quasi ufficiale e politica con le decisioni prese dalla Convenzione di Parigi dopo la Rivoluzione francese che disciplinò anche i sistemi di misurazione almeno per ciò che riguarda l'Europa continentale.

Geroglifici egiziani

Geroglifici egiziani

L’altra grande rappresentazione simbolica che l’uomo ha conquistato nella storia recente (qualche millennio) è la scrittura verbale. Dopo la scrittura pittografica (sequenze di immagini delle cose, come il disegno del sole) viene quella ideografica, in cui l’ideogramma rappresenta un’idea, come gli attuali cartelli stradali). Si passa poi alle scritture sillabico-alfabetiche, fondate sulla rappresentazione non più di cose o idee ma dei suoni della lingua parlata. Gli alfabeti sono raccolte di simboli (caratteri) con i quali si compongono sequenze che rappresentano le parole della lingua. La “base” del linguaggio verbale scritto è costituita da una quantità di simboli variabile, intorno a 20 - 30. In tal modo non è necessario ricordarsi centinaia o migliaia di simboli ideografici.
Quando noi diciamo “numero” intendiamo in realtà almeno tre cose: la quantità, il nome associato alla quantità e il simbolo che la rappresenta. Le tre cose sono concetti astratti. A volte invece il numero assume funzione di etichetta, di indicatore, di nome di un oggetto. Ma alla fine è necessario disporre di qualcosa di fisico per rendere il numero comunicabile in concreto. Questo qualcosa, detto “segnale”, è stato fino a non molto tempo fa una traccia fisica visiva (inchiostro su pelle o carta, incisioni su pietra) che è anche una memoria, o un evento acustico specifico (parole che pronunciano i nomi delle quantità, nella lingua in uso). Soltanto negli ultimi decenni hanno preso il sopravvento i segnali elettromagnetici.

Comunicazione

La comunicazione, la necessità di comunicare in modo preciso, razionale, inequivocabile, è la prima motivazione che ha stimolato l’umanità a sviluppare la scrittura verbale e i numeri. Poiché la comunicazione utilizza segnali fisici (che sono sempre fatti di energia) per trasportare informazione da un soggetto a un altro, se i segnali sono relativi a simboli (e non sono per esempio i tratti di un disegno), è indispensabile la presenza e l’utilizzo di un sistema di regole di associazione tra segnali (che fanno parte a loro volta dei “significanti”) e significati: tale sistema è detto “codice”, sul quale ritorneremo. Si tratta in realtà di insiemi di regole, a volte fatte di corrispondenze biunivoche, a volte di relazioni anche molto complicate. “Codice” è una parola dai molti impieghi, che infatti crea spesso confusione.

Anche se viene studiata da sempre, la comunicazione ha avuto una sistemazione scientifica solo a partire dagli studi di linguistica dello svizzero Ferdinand de Sassure (1857-1913), il quale, nel suo “Corso di linguistica generale”, introdusse i concetti di base della semiologia (o semiotica), tra cui quello di significante e significato. La semiotica, di cui la linguistica doveva essere solo una parte - quella, appunto che riguarda il linguaggio parlato e scritto - è la “Scienza generale dei segni, della loro produzione, trasmissione e interpretazione, o dei modi in cui si comunica e si significa qualcosa, o si produce un oggetto comunque simbolico” (Treccani). E che cos’è il segno? “il segno è in generale "qualcosa che rinvia a qualcos'altro" (per i filosofi medievali "aliquid stat pro aliquo")” e la semiotica studia i fenomeni della significazione. “Per significazione infatti si intende ogni relazione che lega qualcosa di materialmente presente a qualcos'altro di assente (la luce rossa del semaforo significa, o sta per, "stop"). Ogni volta che si mette in pratica o si usa una relazione di significazione si attiva un processo di comunicazione (il semaforo è rosso e quindi arresto l'auto). Le relazioni di significazione definiscono il sistema di segni che viene a essere presupposto dai concreti processi di comunicazione”. Mentre il significante è qualcosa di fisico che veicola energia, il significato è un concetto, o un'immagine mentale, o uno stato d'animo. Per esempio la parola \fiore\ è un significante che rimanda all'immagine mentale di un fiore qualsiasi, che ha come referente un fiore concreto, che noi abbiamo visto e vediamo da qualche parte.

Significante e significato sono naturalmente legati al "referente", ossia ciò che diviene oggetto della comunicazione, ciò che viene significato: il tutto viene tradizionalmente espresso con il "triangolo del segno".

Ad esempio, nel semaforo, la luce rossa è il significante, l'immagine mentale di "stop" è il significato e il comportamento da tenere in presenza del semaforo è il referente. Molti dei codici della comunicazione quotidiana sono impliciti o sono stati appresi in tenera età. L’associazione tra il segnale “luce rossa” e l’azione “stop” la impariamo da bambini, così come impariamo il codice della nostra lingua madre, prima parlato e poi scritto. Altri codici li impariamo successivamente a scuola e in generale tramite l’esperienza, a volte non piacevole. La famosa “età critica” dell’adolescenza deve questo attributo negativo in gran parte proprio alla difficoltà di apprendere i codici impliciti del comportamento nei rapporti interpersonali, specie quelli amorosi.

Capire qualcosa nella semiotica, che dovrebbe spiegare appunto la natura e l'uso dei segni, non è stato per niente facile, almeno per me. L'argomento ha tante facce, è piuttosto intricato e pieno di termini in apparenza astrusi. Cercherò di accennarne solo i tratti che mi sembrano salienti, ovviamente senza alcuna pretesa di completezza.

Codice

Come dicevo prima, la parola “codice” è fonte di confusione, perché si applica a molti contesti, sia diversi (e allora è più facile orientarsi) sia simili o apparentemente simili (e qui le cose si complicano): codice civile, penale, della strada, manoscritto, comunicativo, postale, etico, ASCII, di programmazione, QR, ...). I codici riguardano infatti molti aspetti della comunicazione. La maggiore fonte di ambiguità, spesso pericolosa, quando vogliamo comunicare, riguarda la distinzione tra un oggetto e la sua rappresentazione, o, in forma di metafora, tra “territorio” e “mappa del territorio”: sono due cose diverse, sembra ovvio. Eppure l’esperienza dimostra che tanto ovvio non è… Molte barzellette, tra l’altro, si fondano su questa confusione, come anche molti paradossi matematici e logici.

A me sembra che un po’ di luce sia venuta dal modello di Hjelmslev, un linguista danese (1899-1965), che riprende e sviluppa l’impostazione di De Saussure. Il modello nasce nella linguistica ma lo si può estendere a qualsiasi sistema di segni.

Per Hjelmslev ogni sistema linguistico ritaglia nella “materia” della comunicazione due piani: quello dell’espressione e quello del contenuto.

L’atto di questo “ritagliare” è chiamato funzione segnica, per la quale i segni vengono scelti e combinati secondo certe finalità comunicative, quelle che un soggetto ha verso altri soggetti (esseri umani, animali, macchine). La funzione segnica si realizza quando espressione e contenuto entrano in relazione, anzi in correlazione. Tale correlazione è di tipo convenzionale: è definita, esplicitamente o implicitamente, dal contesto sociale in cui viene usata. Ma la stessa espressione o lo stesso contenuto possono anche entrare in correlazione con altri elementi, dando così origine a un'altra funzione segnica. Basti pensare a una espressione come |piano|, per cui possiamo registrare una notevole serie di contenuti («livello», «progetto», «lentamente», «strumento musicale» ecc.): ecco che abbiamo identificato almeno quattro funzioni segniche, |piano|=W, |piano|=X, |piano|=Y, |piano|=Z.

La materia dell’espressione è, in linguistica, il puro suono che precede ogni linguaggio; in senso generale è qualsiasi configurazione della materia o dell'energia che possa essere decodificata da un ricevente.

La materia del contenuto non è altro che il magma indistinto dei nostri pensieri, delle nostre emozioni, delle nostre percezioni (e quindi della nostra esperienza del mondo esterno).

Ognuno dei due piani, espressione e contenuto, è a sua volta diviso in due parti: forma e sostanza.

  • Sostanza dell’espressione: è il livello fisico immediato del segno, la “materialità” con cui esso si presenta alla nostra percezione (Es.: la voce articolata, studiata dalla fonetica).
  • Forma dell’espressione: è l’ordinamento arbitrario, strutturato e formale degli elementi costitutivi col quale si presenta la sostanza dell’espressione (la fonologia, la morfologia di una lingua).
  • Forma del contenuto: è l’insieme di relazioni logiche che danno forma al mening (materia o senso) e corrisponde quindi alla sintassi.
  • Sostanza del contenuto: è il valore “semantico” (ossia legato al significato) delle unità così ritagliate (è quella porzione della “materia” ritagliata dalla forma del contenuto).


Questa quadripartizione è costitutiva di ogni funzione segnica.

Processo e sistema

In ogni linguaggio ci sono due “assi”: un asse del processo (detto anche sintagma), convenzionalmente rappresentato da una linea orizzontale, e un asse del sistema (detto anche paradigma ) , convenzionalmente rappresentato da una linea verticale perpendicolare alla prima.

Dovendo comporre una frase sceglierò alcuni termini - cioè alcuni segni verbali – che mi sono stati forniti dalla mia conoscenza linguistica (sistema) e li combinerò tra loro in base a una serie di regole di combinazione, logiche e di senso (processo).

Se, dunque, ritroviamo segni sia a livello di processo che a livello di sistema, diversa è la natura di questi segni, e diverse sono le relazioni che essi intrattengono tra di loro.

Quello che è immediatamente osservabile è il processo (asse orizzontale), che nel caso del linguaggio verbale Hjelmslev chiama testo. Il processo si svolge tramite un succedersi di funzioni segniche.

Il processo ha natura lineare, ha una progressione spazio-temporale. Ciò che conta non è la direzione, ma l’ordine posizionale (come nel semaforo). Esempio del numero di telefono: 00-39-011-9628730 in cui 00 = Chiamata internazionale 39 = Italia 11 = Distretto di Torino 962 = Centrale telefonica (al di fuori della rete urbana di Torino) 8730 = Utente.

Il processo utilizza dunque i segni del sistema e si svolge in generale sia sul piano dell’espressione che sul piano del contenuto.

La funzione segnica si serve cioè di un sistema di segni (asse verticale), detto “codice”, che stabilisce, come già accennato, le relazioni tra i segni.

Il codice contiene dunque le regole di associazione sia in senso “orizzontale” (associazione tra elementi dell’espressione, o tra elementi del contenuto) sia in senso “verticale” (associazione tra i due piani, ossia elementi dell’espressione ed elementi del contenuto). Se facciamo l’esempio dei segnali stradali, l’associazione orizzontale è costituita da alcune caratteristiche comuni di forma per le quali noi individuiamo un cartello come “segnale stradale”. L’associazione verticale è invece quella che lega la figura del segnale al comportamento previsto per l’automobilista.

Solo la presenza di codici “verticali” rende possibile la comunicazione, ossia lo scambio di segni (o meglio di funzioni segniche) che, per definizione contengono espressione (o “significante”) e contenuto (o “significato”) associati tra loro.

Un’altra condizione indispensabile per la comunicazione è che l’emittente e il ricevente condividano lo stesso codice (“parlino la stessa lingua”) durante lo scambio di messaggi (i messaggi sono insiemi di segni); anzi, sarebbe meglio dire “gli stessi codici”, perché i codici che realizzano la comunicazione sono spesso più di uno. Per esempio nel linguaggio verbale, oltre alla lingua, c’è un codice sul piano dell’espressione: parlato o scritto. Se uno sa la lingua ma è analfabeta e il linguaggio è solo scritto, non potrà avere luogo alcuna comunicazione.

Si usa suddividere la comunicazione in tre livelli:

  • Sintassi: relazioni formali tra segni (piano dell’espressione)
  • Semantica: significato dei segni (piano del contenuto)
  • Pragmatica: relazione dei segni con i comunicanti (effetti della comunicazione sui riceventi: comportamenti, emozioni, etc.)

Come appare chiaro (spero...) in questo articolo ho cercato di dare più rilievo ad alcuni aspetti della sintassi.

Modello di Hjelmslev applicato alle telecomunicazioni e all'informatica

Ora possiamo chiederci come si collocano le telecomunicazioni e l’informatica, spesso riunite nella cosiddetta Information and Communication Technology, rispetto al modello di Hjelmslev.

Le telecomunicazioni riguardano solo il piano dell’espressione. La sostanza dell’espressione è costituita dai segnali elettrici mentre la forma dell’espressione è costituita dall’organizzazione dei segnali stessi, dalla loro sintassi. Ci hanno sempre spiegato che le telecomunicazioni si disinteressano del contenuto informativo ma si occupano solo di farlo giungere a destinazione il più possibile integro. Alle centrali telefoniche, ai router, ai vari apparati sparsi per le reti non importa niente di quello che si dicono due innamorati o madre e figlia che parlano al telefono.

Nell’informatica le cose sono un po’ più articolate: le macchine hanno un loro linguaggio fondato sul sistema binario, che fa parte della forma dell’espressione. Ricordiamoci che Shannon ha dimostrato la possibilità pratica di realizzare i computer in logica binaria booleana (dopo che Turing aveva dimostrato la fattibilità logica) che utilizza gli stessi circuiti del calcolo aritmetico in base 2, per cui “vero” e “falso” diventano due numeri e i calcoli logici del tutto simili a quelli numerici.

Sia nelle telecomunicazioni che nell'informatica si pone il problema della rappresentazione dei messaggi, che si svolge sul piano dell’espressione. Dato che siamo nella tecnologia elettromagnetica, i messaggi vengono rappresentati con segnali elettromagnetici, che costituiscono la sostanza dell’espressione. Nel campo analogico, se i messaggi sono voce e musica, i segnali sono continui e il codice che lega forma e sostanza dell’espressione è molto semplice: forme d’onda elettriche uguali a quelle dei segnali acustici. Se i messaggi sono dati, i segnali di trasmissione sono ancora continui (almeno finora...) scelti in modo opportuno, cioè in modo da adattarsi al meglio al canale cui sono destinati (secondo le tecniche della codifica di canale). In ogni caso, i canali elettromagnetici di trasmissione in uso attualmente, che siano cavi elettrici, fibre ottiche, o lo spazio libero, sono da considerare continui e quindi “analogici”.

Nell'informatica, all'interno dei computer, è necessario rappresentare i numeri binari. Qui bisogna distinguere i piani del contenuto e quello dell’espressione.

Sul piano del contenuto, la rappresentazione (ossia la forma del contenuto) avviene con varie modalità e raggruppamenti ben conosciuti o, detto altrimenti, con varie “codifiche”. Tra le tante, la norma IEEE 754 definisce il modo di codificare un numero reale “in virgola mobile” e definisce tre componenti, che, in singola precisione (32 bit) sono: il segno (rappresentato da un solo bit, il bit di peso maggiore, quello più a sinistra), l'esponente (codificato sugli 8 bit consecutivi al segno, la mantissa (i bit posti dopo la virgola)sui 23 bit rimanenti.

Prima di parlare del piano dell’espressione in ambito informatico è bene fare qualche considerazione di tipo generale.

Quali sono le caratteristiche principali dell’espressione? Il discorso non è semplice e la Storia ci parla di momenti in cui le varie civiltà hanno compiuto salti evolutivi proprio quando sono riuscite a esprimere, rappresentare i propri contenuti in maniera socialmente rilevante, ossia rendendoli condivisibili e utilizzabili a vari gradi. La lingua nasce in una cultura in modo spontaneo, a partire dalle necessità comunicative più elementari e utilizza la voce come espressione, sia come sostanza fonatoria sia dando forma a vari suoni e rumori. L’arte è sicuramente una delle più alte espressioni che il genere umano è capace di realizzare, ma la sua utilità sociale è quasi sempre nascosta, indiretta, per quanto di estrema importanza (cosa che i nostri politici non capiscono). Inoltre l’arte è complessa, dotata di più livelli di contenuto e la sua fruizione completa richiede una formazione culturale particolare che, fino ai tempi moderni, era accessibile solo a gruppi ristretti di persone. Anche se spesso il livello più esteriore può essere, o deve essere, facile da decodificare (perché deve comunicare alla gente la grandezza del committente, o deve raccontare in immagini le storie della Bibbia nelle chiese cattoliche), l’arte è spesso caratterizzata da una notevole ambiguità nei livelli sottostanti, spesso difficili da decodificare, magari meno difficili da fruire, godere.

L’ambiguità è forse la caratteristica “negativa” principale che deve essere affrontata nel piano dell’espressione. Affinché l’espressione sia utile alla comunicazione l’ambiguità deve essere ridotta al minimo o, idealmente, eliminata. Più grande è l’ambiguità, minore è l’efficacia della comunicazione. Ciò non vale per l’arte, come ho detto, e non vale nemmeno sempre nei rapporti interumani profondi, dove la precisione della razionalità può rivelarsi perdente (come spesso accade nei rapporti uomo donna, dove l'uomo razionale tende a soccombere di fronte alla donna irrazionale e intuitiva). Ma questo discorso riguarda forse di più il piano del contenuto, sebbene anche l’espressione, soprattutto la forma dell’espressione, abbia il suo peso e l’interazione tra forma e contenuto possa diventare assai complessa.

La caratteristica “positiva”, contrapposta all'ambiguità, quella che rende efficace l’espressione ai fini comunicativi, è la distinguibilità dei messaggi. Tutta la teoria dell’informazione di Shannon, che ha reso possibili le trasmissioni dallo spazio e sui nostri cellulari, è basata su questo concetto di fondo: individuare le tecniche di riduzione dell’ambiguità dei messaggi. Parlo naturalmente dell’ambiguità che si crea sul piano dell’espressione. La teoria dell’informazione si disinteressa completamente del piano del contenuto e il termine "informazione" è, a pensarci bene, inadeguato e fonte di confusione, perché nel linguaggio ordinario “informazione” riguarda soprattutto i contenuti e non la forma mediale con cui essi vengono veicolati. Per inciso, anche la teoria della relatività einsteiniana soffre dello stesso problema, dato che contraddice proprio il principio di relatività galileiano. La teoria dell’informazione si basa sul concetto di probabilità nel definire le caratteristiche della comunicazione (le cose meno probabili sono più informative di quelle più probabili), e nel renderla efficiente (usare il minor numero di simboli possibile) ed efficace (ridurre al minimo la probabilità di errore in ricezione).

Messaggi simbolici

Ricordiamo che il segno è un’entità composta da due elementi: significante (che è descritto dal piano dell’espressione) e significato (che è descritto dal piano del contenuto). La classificazione dei segni proposta da Peirce comprende tre tipi:

  • Indice. Un segno è un indice se è naturale e non frutto di convenzione, né assomiglia a un concetto. Ad esempio il fumo è un indice perché è immediatamente associato al fuoco. Significante e significato sono come fusi insieme.

  • Icona. Un segno è un’icona quando il suo significante assomiglia al concetto rappresentato. Ad esempio il disegno di una faccia umana assomiglia alla faccia.

  • Simbolo. Un segno è un simbolo quando il suo significante è frutto di una convenzione e non assomiglia ad alcun concetto. Ad esempio sono simboli le bandiere e i caratteri alfanumerici.

Ci conviene adesso concentrarci sui messaggi composti da insiemi di simboli, lasciando fuori il discorso generale, che comprende anche i messaggi composti da indici e da icone. I simboli hanno una natura più vicina al digitale di quanto non lo siano le icone e gli indici, che sono più spesso espressi da significanti “continui”. Inoltre, tramite la conversione A/D, è possibile rappresentare anche le icone e gli indici tramite successioni di simboli (in particolare simboli numerici) e il famoso teorema del campionamento di Shannon ne stabilisce le condizioni e i limiti di attuabilità.

Consideriamo quindi i messaggi come stringhe (successioni unidimensionali) di simboli, i quali appartengono a un insieme detto “alfabeto”: la scrittura letterale è un tipico messaggio simbolico con un alfabeto (internazionale) di 26 simboli, la numerazione decimale ha un alfabeto di 10 simboli, mentre un quadro del Botticelli è un messaggio analogico.

Distinguere è necessario: il "terzo elemento"

Tornando al tema della distinguibilità, quando siamo in un contesto di comunicazione esso comprende due aspetti: distinguibilità alla sorgente dell’informazione, ossia disporre di un insieme di messaggi diversi tra loro (codifica di sorgente) e distinguibilità dopo la trasmissione sul canale, alla ricezione (codifica di canale). Se due messaggi sono rappresentati da due stringhe di simboli, come possiamo valutare la loro distinguibilità? Se le due stringhe sono costituite da simboli binari in uguale numero, il criterio più usato è la distanza di Hamming (DH(S1,S2)), che è il numero di posizioni nelle quali i simboli corrispondenti sono diversi. In altri termini, la distanza di Hamming misura il numero di sostituzioni necessarie per convertire una stringa nell'altra, o, vista in altro modo, il numero minimo di errori che possono aver portato alla trasformazione di una stringa nell'altra. Se i simboli sono bit la DH è la quantità di “1” risultante dall’XOR delle due stringhe. Ad esempio DH(10110, 10011)=2. E’ evidente che se i messaggi devono essere trasmessi, è meglio che già in partenza siano tutti il più possibile diversi (e quindi distinguibili) perché poi ci penserà l’inevitabile rumore del canale ad alterarli. Se la loro diversità è la massima possibile, l’alterazione non potrà che rendere due messaggi più simili di quanto lo erano in partenza. Il ricevitore quindi, nel decodificare i segnali, può adottare il criterio di massima verosimiglianza, se possiede in memoria lo stesso repertorio di messaggi della sorgente. Altrimenti potrà adottare il criterio di massima probabilità, ma di questo non parleremo.

Noi siamo abituati a scrivere numeri e lettere fin da bambini e non ci rendiamo conto della loro diversità, delle caratteristiche grafiche che ce li fanno distinguere bene. Nel mondo digitale tutto viene ridotto a stringhe di bit, i quali sono rappresentati per via elettromagnetica. Il modo più semplice è realizzato, si dice con due livelli di tensione (o di corrente), un per l’”1” e l’altro per lo “0”. Ma bastano davvero questi due livelli di tensione? Se in un filo c’è un solo bit, naturalmente sì. Ma dato che i bit da maneggiare diventano sempre di più, sarebbe generalmente poco pratico utilizzare un bit per ogni filo. Certo, nelle memorie “statiche” (anche non permanenti, come le RAM) occorre una cella per ogni bit e quindi milioni e miliardi di celle. Stiamo parlando adesso non solo della forma dell’espressione, ma anche della sua sostanza, cioè del tipo di materiale o di energia che usiamo per realizzarla.

Per trasmettere bit non possiamo usare miliardi di fili, però possiamo usare miliardi di Hertz! Possiamo cioè passare dallo spazio al tempo. Per farlo non bastano i due livelli di tensione, ma occorre introdurre un terzo elemento, un'unità di misura e cioè, in questo caso, la durata del bit. Senza questo elemento di durata non sarebbe possibile distinguere un bit da un altro; non potremmo distinguere la sequenza 1100 da 1010, o da 1000, o da 1111110, e così via.

Lo stesso accade nella memorizzazione spaziale. Se vogliamo memorizzare una sequenza di bit disegnando strisce bianche e nere non possiamo distinguere i bit se non assegniamo almeno una dimensione spaziale alla striscia "bit". Non solo, serve anche uno sfondo diverso, se vogliamo capire quando la sequenza inizia e quando termina. Non sempre ciò è necessario: spesso si può tollerare che la fine della sequenza sia una particolare sotto sequenza, ad esempio caratterizzata da 0000000… o da 111111…o da 1010101… o da 010101… e così via: basta escludere nella codifica che una parte definita della sotto sequenza non possa essere un messaggio; quello che si paga è il tempo di attesa. Un problema simile si ha quando si vuole individuare l'inizio di una successione di messaggi (in una trama) per mezzo di una particolare sequenza "di sincronismo".

Se si vuole l’immediatezza, invece, lo sfondo è indispensabile, ed è un quarto elemento. Se dipingiamo un affresco su un muro bianco, non è detto che non si possa usare il bianco dentro l’affresco. Quando il bianco comincia ad estendersi più di un tot in una porzione di spazio noi deduciamo che quella parte bianca non appartiene più al quadro ma lo delimita. Tuttavia, se il muro si estende molto in una direzione, non possiamo essere sicuri che il quadro termini: l’artista potrebbe voler provocare la nostra abitudine a interpretare solo sulla base dell’esperienza quotidiana. In generale, i simboli grafici hanno bisogno di uno sfondo da cui emergere, come il suono ha bisogno del silenzio, o almeno di un suono più debole, da cui emergere, poter essere riconosciuto. Come in tutto, c'è bisogno di un contesto. I caratteri alfabetici sono scritti in un colore diverso dal foglio. C’è bisogno di distinguere un simbolo non solo da un altro simbolo ma anche da ciò che non è simbolo.

Ortogonalità e dimensioni

Una garanzia di indipendenza, e quindi di distinguibilità assoluta, la si ha in matematica con il concetto di ortogonalità. Due vettori sono ortogonali se il loro prodotto scalare è nullo: essi sono anche linearmente indipendenti. All'ortogonalità è strettamente legato il concetto di dimensione, che naturalmente non è la misura dell’occupazione dello spazio. In geometria, diciamo che il punto ha zero dimensioni, la retta ha una dimensione e il piano ha due dimensioni. Lo spazio in cui viviamo ha tre dimensioni, chiamate lunghezza, altezza e profondità, rappresentate spesso da assi cartesiani x, y, z tra loro perpendicolari, ossia ortogonali. In cinematica le dimensioni corrispondono ai gradi di libertà. Nella rappresentazione cartesiana un punto su una retta è individuato da una coordinata (un numero), su un piano da due coordinate, e cosi via: una coordinata per ogni dimensione. Se due vettori sono ortogonali, il loro prodotto scalare, che è la somma dei prodotti delle componenti corrispondenti, è uguale a zero. Questa proprietà viene usata nella decodifica dei segnali.

In generale noi troviamo comodo rappresentare tutto in due dimensioni: su un piano, su una superficie, su un foglio (disegno e scrittura). Le dimensioni diventano così sinonimo di attributi tra loro indipendenti. Mentre in geometria non riusciamo a immaginare più di tre dimensioni, niente ci vieta di pensare un numero di attributi grande quanto si vuole. Per analogia con lo spazio ordinario, si parla di "spazio" come insieme di attributi o "dimensioni". Poiché un punto nello spazio può essere associato a un vettore che lo congiunge all'origine e ogni vettore ha una componente in ogni dimensione, è abbastanza facile pensare a un vettore in uno spazio a n dimensioni. Anche le comuni tabelle, o i fogli Excel, possono essere viste come insiemi di vettori (righe) che hanno tanti componenti quante sono le colonne, a patto che le colonne non siano "campi calcolati": i vettori n-dimensionali, cioè, vengono proiettati nello spazio a 2 dimensioni, quello del foglio.

In generale “ortogonalità” diventa sinonimo di indipendenza e si può collegare anche a un concetto di “riduzione dimensionale” tramite l’operazione detta “proiezione” in senso geometrico: le proiezioni ortogonali che ci insegnano a scuola. Ad esempio la proiezione ortogonale dell’asse y sull’asse x è un punto (l’origine): l’asse y passa da dimensione 1 (la retta) a dimensione 0. Un piano proiettato su un altro piano ortogonale diventa una retta e passa quindi da dimensione 2 a dimensione 1. Per analogia, quando individuiamo certe caratteristiche di un oggetto, possiamo chiamarle “(tra loro) ortogonali” se nessuna di esse può essere ricavata combinando le altre. Se ad esempio ho una serie di oggetti di cui conosco le caratteristiche “peso” e “prezzo”, l’ulteriore caratteristica “prezzo per kg” non è ortogonale alle altre due. Nelle prime trasmissioni telefoniche l’ortogonalità, ossia la non sovrapposizione di conversazioni contemporanee, era garantita dall’utilizzo di canali fisici diversi, costituiti da fili elettrici. I primi multiplatori hanno usato poi la stessa ortogonalità dei canali radio e cioè la modulazione di portanti distanziate in frequenza. Infatti due segnali sinusoidali di frequenza diversa sono sempre ortogonali e modulando si può riempire tutta la banda a disposizione. Nell’era digitale si affiancò la multiplazione nel tempo, in cui l’ortogonalità è garantita dallo sfasamento dei campionamenti dei vari segnali.

Funzioni come vettori

Una funzione (del tempo o dello spazio), ad esempio un segnale vocale, resa discontinua può essere rappresentata come un vettore. La cosa è più semplice di quanto possa sembrare a prima vista. La funzione viene resa discontinua tramite il campionamento e ogni campione può essere pensato come componente di un vettore nello “spazio” dei campioni (non quelli sportivi!). Se i campioni sono n, lo spazio è a n dimensioni. La misura di ogni campione corrisponde quindi al modulo del vettore in quella dimensione: per il campione temporale k-esimo la dimensione è il time slot Tk. Passando alla rappresentazione binaria, una sequenza lunga per esempio 1024 bit è pensabile come un vettore in uno spazio a 1024 dimensioni. Ma anche una funzione continua si può rappresentare in modo “vettoriale” utilizzando la serie di Fourier: le funzioni sinusoidali a frequenze multiple crescenti costituiscono l’equivalente di una base ortogonale di vettori e i coefficienti di Fourier sono i moduli dei vettori componenti. Una funzione continua si può considerare un vettore in uno spazio a dimensionalità che tende all’infinito e così il prodotto scalere di due funzioni diventa l’integrale da – a + infinito del prodotto delle due funzioni.

Questa impostazione vettoriale viene usata nella codifica dei messaggi, specialmente nella protezione verso il rumore. Non solo i codici possono essere scelti in modo da ottenere messaggi ortogonali tra loro in partenza, ma la codifica può proteggere i messaggi dall’inquinamento del rumore, anche quando questo è molto più forte del segnale. Consideriamo un numero finito di messaggi di lunghezza fissa, composti cioè dallo stesso numero di campioni. Un messaggio può essere pensato come un vettore. Il rumore è un vettore che si somma al vettore “segnale”. Il vettore “segnale” si trova in una ipersfera dello spazio n-dimensionale, collegando l’origine degli assi con un punto della superficie dell’ipersfera, il cui raggio è il modulo del vettore segnale (a sua volta proporzionale alla radice quadrata della potenza media del segnale). La “punta” del vettore “segnale”, al variare delle sue componenti, si muoverà comunque nella superficie dell’ipersfera. Se al vettore “segnale” si somma il vettore “rumore”, il vettore risultante darà luogo a una ipersfera di raggio maggiore o minore, a seconda del segno positivo o negativo del rumore. Il fatto notevole è che aumentando la dimensionalità dello spazio (in pratica aumentando il numero dei campioni del nostro messaggio), il volume dell’ipersfera tende a concentrarsi nella superficie dell’ipersfera, assomigliando più a una pallina da ping pong che a una bolla di gas. Ne consegue che il vettore somma (segnale + rumore) rimane sostanzialmente simile al solo vettore “segnale”, che quindi non risente del rumore. Se i messaggi sono in partenza ortogonali, lo rimarranno sostanzialmente anche quando alterati dall’aggiunta del rumore. Utilizzando questa proprietà degli spazi n-dimensionali Shannon dimostra genialmente che esiste un codice che realizzando tale ortogonalità, rende la probabilità di errore di ricezione piccola a piacere, a patto di non superare quella velocità massima di trasmissione, tipica di ogni canale e detta “capacità del canale”; ma non dice come si fa a trovarlo. A questo ha pensato però la ricerca successiva, che ha individuato codici sempre più efficienti.

La teoria dell’informazione di Shannon quindi pone le basi per garantire la distinguibilità dei messaggi digitale sul piano dell’espressione e lo fa utilizzando una codifica “orizzontale”, ossia aggiungendo ridondanza in modo controllato a blocchi di simboli, ossia aggiungendo simboli al messaggio di partenza. In questo modo si aggira l’”invadenza del rumore”: per riceverlo senza errori (o meglio con probabilità di errore bassa a piacere) un segnale deve essere codificato il modo che la sua statistica sia “molto diversa” da quella del rumore. Ciò corrisponde ad aumentare la dimensionalità dello spazio vettoriale di partenza. Un aumento simile avviene quando si modula un segnale aumentandone la banda, per esempio in FM. Il prezzo da pagare in tale codifica digitale è doppio. Da una parte si ha il ritardo dovuto alla codifica che deve esaminare un blocco per codificarlo: la dimensionalità dello spazio vettoriale è proporzionale alla lunghezza del blocco in bit. Dall’altra parte sorge un “effetto soglia” per il quale , sotto un certo rapporto segnale/rumore il segnale sparisce completamente. L’effetto soglia, che si ha anche nella modulazione FM, è spiegabile con un teorema della topologia (la branca delle matematica che studia gli spazi), secondo il quale mappando uno-a-uno una figura su uno spazio a dimensionalità diversa da quello di partenza comporta il formarsi di un fenomeno di discontinuità: due vettori adiacenti nello spazio dei messaggi non necessariamente rimangono adiacenti nel nuovo spazio dei segnali trasformati se il rumore li altera in modo significativo, quantitativamente previsto dalla teoria.

Bibliografia

  • Carlson – Communication Systems – MGHill 1975


  • Ferdinand de Saussure, Corso di linguistica generale, a cura di Tullio De Mauro, Roma-Bari, Laterza [1967], 2009


  • U. Eco – Le forme del contenuto- Bompiani 1971


  • Claude E. Shannon A Mathematical Theory of Communication, Bell System Technical Journal, vol. 27, luglio e ottobre 1948.
9

Commenti e note

Inserisci un commento

di ,

non so perchè ma leggendo sto aritcolo mi 'e venuto in mente il libro : "Il teorema del pappagallo" di Denis Guedj l'ho trovato superlativo...un thriller con un sottofondo di storia culturale della matematica dagli albori fin'ora!

Rispondi

di ,

Bell'articolo! :)

Rispondi

di ,

Come promesso, ho letto e riletto fino alla fine l'articolo. Ammetto che la parte centrale per me é metafisica; mi ha ricordato il prof di elettronica alle superiori che citava spesso il "significato del significato", con occhi sbarrati e lingua penzoloni da parte nostra. A partire invece dal capitolo "Modello di Hjelmslev" ho iniziato a riagganciarmi al terreno e rapportare i concetti esposti ad alcune nozioni acquisite quali atti di fede nel tempo. L'esempio piu' chiaro di questo é la QAM ('quadrature amplitude modulation') e, forse, l'algoritmo di Viterbi, che sinceramente dovrei andare a rivedermi. Grazie per avermi costretto a studiare ancora.

Rispondi

di ,

Sbaglio o è la prima volta che campaiono capezzoli su Electroyou?

Rispondi

di ,

Molto interessante soprattutto per l'approccio multidisciplinare adottato.

Rispondi

di ,

Mamma mia...che impresa!. Sono arrivato a leggere fino al capitolo Processo e Sistema, ora devo far raffreddare un po' i neuroni altrimenti bruciano. Con calma proseguirò fino alla fine, cercando per quanto mi é possibile di trattenere a sufficienza il contenuto. Tra l'altro, questa 'corposa' opera mi conferma che il testo cartaceo é per me sempre superiore a quello digitale. Poter scorrere le pagine di uno stampato invece che manovrare il mouse su una freccettina consente di associare visivamente l'immagine di una pagina al suo contenuto e quindi ritrovarla più' facilmente; a video devo azionare il mouse e contemporaneamente 'leggere' alcuni frammenti (di una pagina più piccola) per individuare il punto ricercato. Quindi, viva i libri. Per il momento posso solo anticipare i miei ringraziamenti per tutto quelle nuove informazioni che sono certo di trovare nell'articolo, in attesa di finirlo e dare quindi un giudizio complessivo. Grazie

Rispondi

di ,

Assolutamente nessuna "accusa"... ... anzi, ce ne fossero di più, in giro di persone con tale passione. Caso mai "invidia" da parte di un pigrone come il sottoscritto... :)

Rispondi

di ,

In qualche modo mi aspettavo un'accusa di "sfoggio di cultura", l'avevo messo in conto. Pazienza! Chiedo perdono. E' un mio pallino il fatto che riflettere (e condividere) ogni tanto su cose che diamo per scontate non possa fare poi un grande danno.

Rispondi

di ,

Cosa posso dire io misero mortale di fronte a cotale sfoggio di cultura superiore?? I miei complimenti, davvero, per l'approfondimento dell'argomento, io lo dovrò rileggere più e più volte per riuscire a comprenderlo a fondo. Max

Rispondi

Inserisci un commento

Per inserire commenti è necessario iscriversi ad ElectroYou. Se sei già iscritto, effettua il login.