Cos'è ElectroYou | Login Iscriviti

ElectroYou - la comunità dei professionisti del mondo elettrico

6
voti

Teoria della complessità (secondo T. Tinti)

Indice

Premessa

Sulla complessità come tematica, emersa negli ultimi decenni ma da sempre presente nel pensiero dei più illuminati, esiste ormai una letteratura piuttosto vasta e mi pare che valga la pena darle un po' di evidenza. Ho trovato su Internet una serie nutrita di slide (qualche centinaio) con cui il Prof. Tullio Tinti (http://www.tulliotinti.net) illustra le basi di quella che viene chiamata oggi, con termini forse non del tutto appropriati,“Teoria della Complessità”; per essa, a detta dello stesso Tinti, sarebbe più corretto parlare di "approcci diversi al tema della complessità". Comunque queste slide mi sono piaciute e ho pensato di riassumerne i tratti più salienti in questo articoletto: l'impostazione è solo qualitativa e i formalismi matematici (ovviamente inevitabili nella pratica) sono del tutto assenti. Naturalmente chi è interessato può facilmente accedere alle slide originali. Anche questa volta la “traduzione” non è letterale e ho messo tra [ ] quello che viene direttamente da me.

Ordine e disordine, sistemi complessi

La Teoria della Complessità è lo studio multidisciplinare dei sistemi complessi adattivi e dei fenomeni emergenti ad essi associati.

Distinguere complesso da complicato è il primo passo per dare uno sguardo a questa teoria.

Complicato viene da plica (piega) e significa “con molte pieghe” ma che può essere “s-piegato”, cioè reso comprensibile, togliendo appunto tutte le pieghe.

Complesso viene da plesso (intreccio) e significa “aggrovigliato”, pieno di intrecci. I quali in genere non possono essere districati: vale a dire che la Scienza tradizionale non è in grado di spiegarlo.

La mitologia e la filosofia (fino al ‘900) hanno prospettato da sempre le equivalenze Ordine = Bene e Disordine = non Bene, accettate e condivise anche dalla scienza classica. O meglio, le equivalenze, più o meno esplicite, sono molteplici

ORDINE DISORDINE
Bene Non bene
Causa Caso, caos
Necessità Contingenza
Determinismo Indeterminazione
Prevedibilità Imprevedibilità

Questo dualismo, che oggi ci appare un po’ semplicistico, è stato messo in crisi dalla fisica quantistica del ‘900, che per poter nascere e progredire ha dovuto rinunciare alla visione del mondo come ordine totale, chiamata "determinismo". Fino ad allora gli scienziati pensavano che, con la ricerca, tutto fosse spiegabile fino al minimo livello di dettaglio: pensavano cioè che il mondo fosse solo complicato. Il “principio di indeterminazione” di Heisenberg ha posto invece un limite invalicabile alla precisione della conoscenza [: se diminuiamo l'errore di misura della velocità di una particella, aumenterà l'errore sulla sua posizione e viceversa (il prodotto dei due errori è costante). Durante il ‘900 si è andato lentamente affermando quello che è stato chiamato “pensiero sistemico”, basato sul riconoscere che molti fenomeni che osserviamo o che ci coinvolgono, vanno ricondotti a un concetto di “sistema”, ossia a un insieme di parti in relazione reciproca, in modo che il risultato è diverso e generalmente più complesso della semplice somma delle parti (considerate tra loro indipendenti). Questo modo di pensare è indispensabile per affrontare quelli che sono stati chiamati sistemi complessi.]

Verso la fine degli anni ‘70 si è rafforzato l’approccio sistemico alla complessità, ciò che ha condotto a parlare sempre di più di “teoria della complessità”, anche se forse una visione così unitaria da essere chiamata “teoria” non pare sia stata (ancora?) formulata.

La base di tale teoria è comunque lo studio dei sistemi complessi.

Un sistema complesso è un sistema aperto che ha:

· Tante componenti, a loro volta più o meno complesse

· Moltissime interazioni locali e non lineari tra le componenti

Un sistema è aperto se interagisce con l’ambiente, con cui scambia qualcosa. Esempio di sistema aperto è la fabbrica, perché in essa entrano materie prime ed energia mentre escono prodotti finiti e scorie.


Componenti, Interazioni e Feedback

Una componente è tanto più complessa quanto maggiore è la quantità di parole e di simboli necessaria a descriverla. Poco complessa è l’acqua (ha solo molecole H2O); mediamente complessa è la scheda madre di un pc; molto complessa è una formica(componente di un formicaio).

Le interazioni tra le componenti sono dette “locali” quando avvengono tra componenti “vicine”.

L’interazione è “non lineare” se non vale il principio di proporzionalità (quindi non è descrivibile con una funzione lineare).


Esempi

sistema complessità
Mucchio di sabbia bassissima
termitaio MOLTO alta
satellite artificiale bassa (alta complicazione)
batterio alta
Controllo del traffico media (alta complicazione)
galassia bassa
manufatti bassa o media
essere vivente alta
essere vivente con sistema nervoso MOLTO alta
Società di esseri viventi ESTREMAMENTE alta

Ogni sistema complesso presenta processi di feedback, negativo (inibizione e stabilizzazione) e positivo (eccitazione e incremento). Il feedback negativo conduce un sistema verso un punto di equilibrio. Gli elettronici lo sanno benissimo. Sanno anche che in certe condizioni il feedback può passare da negativo a positivo, con conseguenze quasi sempre indesiderate. Un sistema elettronico molto conosciuto che si avvale del feedback positivo è l’oscillatore; che però necessita anche di feedback negativo per impedire alle oscillazioni di crescere troppo in ampiezza.

Si può dire che tutti i sistemi di regolazione si basano sul feedback negativo. [vedi “La cibernetica” di N. Wiener]

Al di là dell’elettronica, il feedback positivo è presente in varie situazioni e viene chiamato anche circolo vizioso o (secondo i casi) virtuoso, causalità circolare, effetto valanga. Un effetto valanga ben conosciuto, che però non appartiene solo ai sistemi complessi, è l’effetto farfalla: esso è legato all’alta sensibilità del sistema. Esempio di feedback positivo: in un locale “di tendenza” gli avventori aumentano, più aumentano più il locale è di tendenza… la stessa dinamica accade per un locale “sfigato”.

Un altro esempio di feedback positivo è l’escalation simmetrica: io ti attacco, tu contrattacchi, io rispondo con ancora più forza … se nessuno di due si ferma (feedback negativo) alla fine scoppia la guerra. Magari il primo attacco non era grave, poteva avere una risposta diversa o essere ignorato …

Ancora: il modello capitalistico. Chi ha risorse fa investimenti, che generano guadagni, con i quali si possono aumentare le risorse, con cui fare altri investimenti e così via. [senza contare a danno di chi…]

Rete

Nei sistemi complessi sono presenti intrecciati processi di feedback negativo e di feedback positivo. La loro interazione può produrre straordinari processi emergenti (vedi oltre), generalmente non prevedibili a priori. Tale intreccio individua una configurazione detta rete, molto ben conosciuta nelle telecomunicazioni, nell'elettrotecnica e nell’elettronica. Le reti hanno particolari proprietà che vengono studiate e sfruttate in vari campi. [Questa accezione del termine "rete" non è però quella generica, in cui spesso l'interazione tra nodi è assente]

Descrizione di un sistema

Un sistema può essere descritto attraverso le sue variabili di stato, ossia grandezze caratteristiche a cui associare un valore (per esempio numerico o alfanumerico).

Esempio: un Giornale può essere caratterizzato dalle seguenti variabili e rispettivi valori:

variabile valore
giornalisti mumero (dei giornalisti)
qualità numero (di rubriche)
costi euro
profitto euro
prezzo euro

Lo stato è definito dall’insieme dei valori delle variabili (in un certo istante).

La scelta delle variabili di stato di un sistema corrisponde a costruirne un modello.

Dal punto di vista matematico, ogni variabile individua una dimensione di uno spazio astratto che viene chiamato spazio delle fasi. Se le variabili sono N, lo spazio delle fasi, in cui è possibile rappresentarle visivamente, per esempio tramite assi cartesiani, è uno spazio a N dimensioni. Ogni n-pla di valori corrisponde a un punto nello spazio delle fasi e rappresenta uno dei possibili stati del sistema. In generale lo stato può variare nel tempo e noi possiamo individuare una linea detta traiettoria unendo tutte le n-ple successive.

spazio-stati.png

spazio-stati.png

Quando le variabili diventano tante la rappresentazione grafica tende a diventare inefficace e bisogna rinunciarvi.

Studiando in generale le traiettorie rappresentative dell’evoluzione dei sistemi è emerso che esistono tre sole possibilità di evoluzione o regimi:

  • Regime ordinato, equilibrio stabile. La traiettoria raggiunge un punto, o una piccola “regione” nello spazio delle fasi, e lì si stabilizza.
  • Regime caotico, equilibrio assente. La traiettoria si muove irregolarmente in tutto lo spazio delle fasi.
  • Regime detto margine del caos, equilibrio instabile. La traiettoria è “attratta” da alcune regioni particolari dello spazio degli stati; all’interno di queste regioni la traiettoria è più o meno irregolare.
terzo regime.png

terzo regime.png

Nella figura l’ellisse rossa mostra la regione di equilibrio instabile nello spazio delle fasi.

Tutti e tre i regimi, dato che la traiettoria è una linea unica, sono deterministici, qualunque sia il regime dell’evoluzione; ossia la loro evoluzione è completamente determinata dalle interazioni delle componenti del sistema, tra loro e con l’ambiente.

Tuttavia i sistemi complessi possono manifestare un’alta sensibilità a perturbazioni anche minime (il famoso“ effetto farfalla”) e in pratica l’evoluzione del sistema è imprevedibile. Ossia questi sistemi si collocano tra ordine prevedibile e disordine imprevedibile: l’evoluzione è deterministica ma imprevedibile.

Per i sistemi complessi, sia il regime ordinato sia quello caotico hanno una connotazione negativa. Pensando ai sistemi biologici e alle società, tutti sistemi assai complessi, il regime ordinato corrisponde a staticità e, in prospettiva, a paralisi o comunque degrado; anche il regime caotico indica criticità, che può facilmente evolvere in un “equilibrio distruttivo” improvviso, cioè una catastrofe, che in natura può essere la morte di un sistema [esiste anche una "teoria delle catastrofi"].

I sistemi complessi trovano la loro condizione migliore in regime margine del caos: si tratta di un equilibrio dinamico, vitale, creativo.

In questa condizione però i sistemi complessi sono inevitabilmente precari e instabili. Se una perturbazione riesce ad alterare l’equilibrio dinamico raggiunto, sono possibili due conseguenze:

  • Il sistema precipita nel caos
  • Il sistema trova un nuovo equilibrio dinamico,di solito molto diverso dal precedente

Alcune caratteristiche: Resilienza, Ridondanza, Adattamento, Auto-Organizzazione

Resilienza. E’ la capacità di un sistema di sopportare perturbazioni senza perdere il proprio equilibrio. E’ la caratteristica che più di tutte differenzia i sistemi complessi (molto resilienti) da quelli complicati (fragili, poco resilienti).

Esempio: il black out del 28settembre 2003 fu causato da un albero che cadendo interruppe una linea italo-svizzera, dimostrando che il sistema elettrico nazionale, molto complicato, è anche molto fragile.

Altro esempio: il DNA subisce ogni giorno, in ogni cellula, più di 500.000 lesioni, generalmente tutte riparate!

Ridondanza. E’ ciò che permette il formarsi della resilienza: consiste nella presenza di parti in più, replicate, in apparenza inutili. I sistemi complicati spesso non hanno ridondanza o ne hanno molto poca: quasi ogni componente è indispensabile al funzionamento di tutto il sistema.

Le conseguenze sono che, quando la perturbazione è maggiore della resilienza:

  • un sistema complicato smette di funzionare
  • un sistema complesso evolve cercando un nuovo equilibrio.

Adattamento. La capacità adattativa è la velocità con cui un sistema ritrova un equilibrio, dopo che ne ha perso uno.

I sistemi biologici hanno spesso una elevata capacità adattiva.

adattamento.png

adattamento.png


Secondo alcuni, l’evoluzione naturale dei sistemi complessi naturali procede “a salti”, da una regione di equilibrio instabile a un altra

evoluzione-a-salti.png

evoluzione-a-salti.png

Auto-Organizzazione. I sistemi complessi in regime margine del caos possiedono capacità di auto-organizzazione. Essa dipende solo dalle interazioni locali (modalità bottom-up). Un esempio valido si ha nella morfogenesi, in cui le cellule si moltiplicano e si specializzano a partire da un’unica cellula fecondata.

La Terza via: il determinismo debole

L’ordine prevedibile (determinismo) appartiene ai sistemi più semplici, descrivibili matematicamente tramite funzioni lineari.

L’indeterminazione è circoscritta ai fenomeni microscopici, descritti dalla meccanica quantistica [in termini probabilistici.]

Tra questi due estremi la terza via comprende il cosiddetto determinismo debole, ossia l’insieme di determinismo e imprevedibilità.

Questa visione del mondo sostituisce quella classica:

ordine ↔ bene ....... caos ↔ non bene

con la nuova:

ordine ↔ non bene ....... caos ↔ non bene ....... orlo del caos ↔ bene

Caos antico e moderno

Il concetto di caos assume aspetti diversi nel pensiero antico, nella teoria della complessità e nella teoria del caos:


caos-a-m.png

caos-a-m.png

Lavorare con la complessità

Sono necessari tre passi:

1. Costruire un modello del sistema reale che si intende studiare

2. Implementarne la simulazione al computer

3. Trarre inferenze applicabili alla realtà

Costruzione del Modello

In primo luogo è necessario scegliere un adeguato livello di analisi per individuare le componenti rilevanti e le loro interconnessioni. Il livello di analisi va scelto tra quelli di una lista di livelli crescenti in complessità, quale la seguente:

↑ Sistema (nell’ambiente)

↑ Sottosistemi funzionali

↑ Componenti dei sottosistemi

↑ Componenti delle componenti

↑ …..

↑ Atomi

↑ Particelle elementari


Le scelte estreme sono quella dell’Olismo (il livello più alto, cioè il sistema nel suo insieme) e quella del Riduzionismo (il livello più basso possibile, relativamente alle esigenze).

La Teoria della Complessità si pone tra i due estremi, adattandosi agli scopi del modello.

Per la costruzione del modello di un sistema complesso non esiste una tecnica unitaria. Occorre allenarsi a pensare in modo orientato alla complessità :

  • Pensare con rappresentazioni "a rete", con “nodi” e legami tra i nodi
  • Abituarsi a considerare normali i feedback, i ritardi, i conflitti e i processi in parallelo
  • Non trascurare le interazioni secondarie
  • Chiedersi sempre cosa può mancare nel modello mentale
  • Allenarsi a immaginare possibili evoluzioni nel tempo del sistema, con “scenari possibili”
  • Allenare il “pensiero laterale”, guardando le cose da molti punti di vista e non da uno solo

Tullio Tinti riporta poi una serie di esempi di come problemi reali, affrontati con modelli troppo semplici, hanno dato risultati disastrosi, traendone una “morale” concentrata su due punti:

  • I sistemi complessi non si possono “controllare” (governare)
  • Gli esseri umani (alcuni!) hanno grande potere (energia nucleare, tecnologie avanzate …) ma non possiedono la disciplina necessaria a gestire bene il proprio potere.

La simulazione

La simulazione al computer è un“laboratorio virtuale”. Per poterla attuare occorre:

  • Stabilire un criterio per assegnare un insieme di valori (per esempio alfanumerici) ad ogni elemento del modello
  • Formalizzare le regole di interazione tra gli elementi quantificati del modello
  • Creare il software di simulazione, o sceglierlo tra quelli esistenti

E’ chiaro che finora sono implicite due semplificazioni: quella che si compie inevitabilmente nella costruzione del modello e quella che si compie nella formalizzazione (anche quando questa è di tipo logico-matematico).

Reti neurali

Un tipo di simulazione diventato famoso e utilizzato in applicazioni diverse da quella di partenza è quello che, volendo simulare le reti neurobiologiche, ha portato alla costruzione del modello “Rete neurale”. Questo è composto di un numero K di nodi con relative linee di connessione unidirezionali tra nodi (solo ingresso o solo uscita), per cui un nodo può costituire uno stimolo per un altro nodo ad esso collegato.

Ad ogni nodo è assegnato un valore di “stato” e ad ogni connessione è assegnato un valore di “peso”,in modo che stimolo = stato x peso.

Le regole di interazione determinano l’interdipendenza tra gli stati. Lo stato di ciascun nodo dipende dagli altri stati e dal tempo generalmente in modo non lineare.

Nel caso delle reti di Hopfield lo stato può assumere solo valori 0,1 (reti neurali binarie). Si è scoperto che l’evoluzione di una rete di questo tipo dipende dal numero K di nodi.

1. K basso = rete stabile

2. K alto = rete caotica

3. K intermedio = rete su margine del caos

Nel terzo caso la rete esibisce proprietà notevoli, quali alta resilienza, alta flessibilità,e laborazione parallela, codifica delle informazioni, e altre.

Tinti riporta molti esempi interessanti di applicazione, come gli automi cellulari (Life, Boids), la Vita artificiale, le colonie di insetti. Tutto questo una volta faceva parte della cosiddetta “intelligenza artificiale”, una dizione caduta ormai (giustamente)in disuso.

Processi emergenti

Simulazioni impegnative sono utilizzate in campo biologico, socio-economico, meteorologico, … In tutte emerge che una rete di nodi “stupidi” può diventare un organismo "intelligente", come nel caso delle colonie di formiche: le relazioni tra le parti sono più importanti delle parti stesse.

Un fatto di grande rilievo è che le simulazioni possono evidenziare che i sistemi complessi manifestano proprietà sorprendenti, che trascendono anche i limiti del modello.

[Personalmente posso aggiungere che un discorso simile viene proposto per la mente umana. L’essere umano mostra un salto qualitativo rispetto a tutti gli altri animali: è in grado di “pensare se stesso”, di creare spontaneamente immagini e modelli del mondo esterno e trasformarlo di conseguenza. La “capacità di immaginare”, come la chiama M. Fagioli nella sua “Teoria della nascita”, è soprattutto inconscia, oltre che cosciente e non è presente negli altri animali, “condannati” a ripetere sempre gli stessi comportamenti per la sopravvivenza della specie. La capacità di immaginare, nel senso detto di produrre "meta-immaginazione" avrebbe origine dal grado di complessità del cervello umano che, anche se non di molto maggiore di quella del cervello di alcune scimmie, è tale da far “scattare” questa peculiare proprietà, l’intelligenza che, fuori da ogni logica, pensa se stessa (l’uso della logica porta inevitabilmente a una ricorsività paradossale, potendo pensare il sé che pensa se stesso, poi il sé che pensa il sé che pensa se stesso, ….)].

Cultura della complessità

La complessità emerge “spontaneamente” dall’interazione di molte unità relativamente semplici. La complessità è dappertutto intorno a noi e non possiamo sfuggirla: è come trovarsi in una grande ragnatela [viene in mente il web…] e possiamo decidere di essere “ragni” o “prede” [una metafora leggermente inquietante ma efficace].

Il “ragno” è colui che vede la complessità come opportunità e cerca di imparare come gestirla.

La “preda” è colui che non riconosce la complessità, o la nega, e ne rimane vittima.

Per riassumere:

Cultura della complessità NON Cultura della complessità
Umiltà Arroganza
"so di non sapere" (Socrate) Avere un sogno di onniscienza
Senso del limite: limitare sfruttamento e perturbazioni Praticare l'eccesso
Senso di responsabilità Delirio di onnipotenza
Scetticismo verso chi dice "è tutto sotto controllo" Illusione di poter controllare (governare) tutto
"ogni cosa va resa il più possibile semplice, ma non ANCORA più semplice (Einstein) Ragionare per slogan (pensiero banalizzante)
Diffidare delle spiegazioni lineari, guardare da molti punti di vista Causalità lineare
Ragionare per processi, "vedere la foresta e non solo l'albero" Ragionare per compartimenti stagni
Ricercare e rispettare i fragili equilibri sull'orlo del caos Ordine assoluto o caos
Cercare di gestire i fenomeni che emergono dal basso Imporre dall'alto
Valorizzare la diversità, la ridondanza, la multiculturalità [l'arte] Omologare e appiattire
5

Commenti e note

Inserisci un commento

di ,

Effettivamente, l'impressione che ho è che "intelligenza artificiale" sia principalmente l'etichetta della categoria, ma ormai (come anche tu hai detto) i diversi rami si sono specializzati abbastanza da non avere niente a che fare l'uno con l'altro, per cui raccoglierli sotto uno stesso nome non ha neanche molto senso. Però vedo che si tende a continuare a parlare di IA quando si trattano problemi di logica, risolti in maniera automatica. Grazie per la risposta!

Rispondi

di ,

Grazie! E invece i tuoi articoli, Isidoro, sono sempre di una chiarezza esemplare e dal contenuto imperdibile, altro che derivate!

Rispondi

di ,

I tuoi articoli sono sempre una ventata di aria buona, interessanti e informativi, e non sono pieni di derivate come i miei :)

Rispondi

di ,

Grazie della segnalazione, ho inserito adesso l'immagine giusta. Sull'intelligenza artificiale che dirti di più? Io ho lavorato nei primi anni '90 a fianco di esperti del settore, che la usavano per costruire un sistema esperto dedicato all'ottmizzazione del movimento dei treni (scambi, stazionamenti, ritardi, etc.) in una certa tratta e ricordo bene che già allora il termine veniva un po' criticato. E' un termine caduto di moda, come succede in molti casi: dopo un periodo iniziale di gloria arriva la decadenza (pensa a "Office automation"). Nel frattempo le tecniche dell'IA si sono frammentate e specializzate, applicate nei settori più vari. Però, come diceva lo stesso Tinti per la complessità ("sarebbe più corretto parlare di approcci diversi al tema della complessità") è raro ormai leggere l'espressione IA. Anche perchè definire l'intelligenza umana (da lì era nato il termin) si è rivelato, nel tempo, molto più problematico di quanto si pensava. Ma le tecniche che l'hanno fondata, ormai più di 50 anni fa, hanno dato e danno i loro abbondanti frutti, di cui spesso non ci accorgiamo. Per esempio tutto il settore della cosiddetta Business Intelligence se ne avvale molto, per non parlare della robotica, del Knowledge Managemnt, dei motori di ricerca semantici ...

Rispondi

di ,

Come sempre i tuoi articoli sono ben approfonditi e trattano argomenti estremamente interessanti! Voglio segnalare che vedo la seconda immagine uguale alla prima; il commento che la descrive lascia intuire che debba essere simile ad una delle due immagini successive (che contengono la rappresentazione di equilibri instabili). Nell'introduzione hai scritto che l'articolo è sostanzialmente un riassunto delle dispense del professor Tinti; dev'essere uno di quei professori che riescono a rendere le lezioni spettacolari e divertenti: me lo fanno credere gli esempi semplici ma brillanti che hai riportato. Durante la lettura, prima ancora di arrivare al paragrafo che le tratta, già pensavo alle reti neurali artificiali: l'estrema semplicità del "percettrone" o del neurone artificiale rende quasi incredibile il risultato che si può raggiungere "intrecciandoli" tra loro in una rete. Credo che sia uno degli esempi migliori, almeno per chi sa quanto sia semplice il modello del singolo percettrone/neurone. Mi resta solo una domanda: come mai sostieni che l'espressione "intelligenza artificiale" stia pian piano scomparendo? (mi sembra di capire che quelle righe le abbia scritte tu e non siano di Tinti) Una nota a tema: proprio pochi giorni fa se n'è andato il grande John McCarthy, che la usò per primo.

Rispondi

Inserisci un commento

Per inserire commenti è necessario iscriversi ad ElectroYou. Se sei già iscritto, effettua il login.