I sistemi complessi

pubblicato in: AltroBlog 0

I sistemi complessi

di: Oscar Bettelli per Ecplanet

I sistemi complessi sono un settore di ricerca straordinariamente affascinante: essi sono
universalmente diffusi, non solo in fisica e chimica, ma anche in biologia, in economia e nelle
scienze sociali. La scienza della complessità affronta anche domini che hanno a lungo frustrato i
tentativi di descrizione quantitativa rigorosa: ad esempio in economia sono in corso importanti
sviluppi legati alla possibilità di simulare l’interazione fra agenti che vengono modellati in
maniera tale da rinunciare alle irrealistiche ipotesi dell’economia classica, come ad esempio quella
di comportamento perfettamente razionale.

Le principali caratteristiche che sono state associate alla complessità riguardano la presenza di
numerosi elementi interagenti, la non linearità delle interazioni, la comparsa a livello globale di
proprietà emergenti prive di un analogo microscopico, e non ultima la capacità di
auto-organizzazione. Ognuno di questi aspetti meriterebbe di essere approfondito, ma è opportuno
sottolineare che una caratteristica comune ai sistemi che consideriamo complessi è la possibilità di
amplificare un piccolo fenomeno locale portando tutto il sistema in uno stato qualitativamente
nuovo.

Si pensi ad esempio ad una transizione di fase come quella da acqua a ghiaccio, che avviene (a
temperature inferiori al punto di congelamento) quando fluttuazioni locali danno origine ad una
regione solida abbastanza grande da far sì che il guadagno in energia libera, associato alla
formazione della fase solida, superi il costo energetico relativo alla formazione di una interfaccia
fra le due fasi: questa regione risulta quindi stabile e funge da nucleo di condensazione per
ulteriori accrescimenti, mentre una analoga regione solida, di dimensioni inferiori, sarebbe
condannata alla scomparsa.

La sorte macroscopica del sistema è comunque definita: abbassando la temperatura, prima o poi la
transazione acqua ® ghiaccio avrà luogo. Se non ci interessano i dettagli di questa transizione,
possiamo semplificare di molto la descrizione del sistema e trattarlo in maniera deterministica. In
altri casi il comportamento macroscopico può invece dipendere proprio dalle caratteristiche di una
fluttuazione locale che si manifesta nel momento in cui il sistema diventa instabile, e che finisce
per definirne il destino (almeno fra un insieme di scelte possibili). Lo stato finale può dipendere
dalle caratteristiche di piccole fluttuazioni locali che sono presenti nel momento in cui il sistema
diventa instabile, e che arrivano a dominarne le caratteristiche macroscopiche.

Naturalmente la descrizione del fenomeno contiene implicitamente una scelta particolare del livello
di descrizione, e quindi di quali siano le variabili “rilevanti” e quali siano quelle trattabili
come “fluttuazioni”; tale scelta corrisponde peraltro a quella naturale per un osservatore
macroscopico del fenomeno. Un esempio famoso di amplificazione di piccoli disturbi è il cosiddetto
effetto farfalla, la dipendenza sensibile dalle condizioni iniziali che si osserva in molti sistemi
dinamici non lineari. I sistemi caotici sono infatti considerati complessi, sebbene essi possano
anche avere pochi gradi di libertà: la nozione di complessità suggerita in questo caso comprende
anche sistemi di questo tipo, che non potrebbero essere inclusi in una definizione di complessità
che richiedesse la presenza di un gran numero di elementi interagenti.

È importante osservare che la complessità di un sistema non ne è una proprietà intrinseca, ma si
riferisce sempre ad una sua descrizione, e dipende quindi dalla scelta di un certo “punto di vista”
ovvero dal modello utilizzato nella descrizione e dalle variabili che si ritengono rilevanti. Lo
studio della dinamica dei sistemi complessi è reso oggi possibile dalla disponibilità di elevata
potenza di calcolo dei moderni computer. Naturalmente, si tratta di una condizione necessaria ma non
sufficiente: la pura forza computazionale non è sufficiente a risolvere alcun problema interessante,
e la scienza dei sistemi complessi è venuta a maturazione in questi anni grazie ai progressi dei
metodi sperimentali, che consentono di conoscere nei dettagli il comportamento di numerosi sistemi
fisici e biologici, e allo sviluppo di sofisticati strumenti concettuali, quali la dinamica non
lineare, la meccanica statistica dei materiali disordinati, la sinergetica. Questi progressi sono
stati potenziati dalla disponibilità di potenti calcolatori. Lo sviluppo scientifico è esso stesso
un fenomeno complesso, e la presenza di queste interazioni non deve sorprenderci.

In questo contesto il calcolatore parallelo non è solo uno strumento di simulazione, ma è esso
stesso un modello concettuale e una sorgente di interessanti sfide intellettuali. Esiste un legame
fra gli aspetti computazionali e gli aspetti teorici della scienza della complessità. Fin dalle
origini della civiltà gli esseri umani hanno cercato di definire dei modelli della realtà
circostante. La scienza e l’arte, fin dalle loro forme primitive, hanno sempre avuto insita in loro
l’attività del modellare. Una delle principali motivazioni che stanno alla base della nascita e
dello sviluppo dell’attività scientifica consiste nel trovare dei modelli semplici che possano
spiegare e riprodurre quello che avviene in natura. Per questo motivo fin dai tempi dei Greci, i
filosofi e gli scienziati hanno cercato di scoprire dei modelli matematici (teorie) che potessero
essere usati per studiare i fenomeni naturali. Ad esempio Pitagora sosteneva che “il linguaggio
segreto del creato sta tutto racchiuso nei numeri”.

Lo studio dei modelli ha portato, in tutti i campi della scienza e della tecnica, enormi progressi
con effetti di grandi miglioramenti in tutti i settori della società. La fisica di Galileo è stata
un grande passo di sintesi esplicativa dei fenomeni naturali in cui l’esperimento costituisce la
pietra miliare di verifica delle teorie che vengono utilizzate nella spiegazione dei fenomeni
studiati. Ultimamente suscita grande interesse lo studio di modelli per i sistemi complessi, sistemi
per i quali non è possibile utilizzare semplificazioni concettuali in grado di ricondurre il
fenomeno in esame ad un modello semplice. I sistemi complessi sono quei sistemi dinamici con
capacità di auto-organizzazione composti da un numero elevato di parti interagenti in modo non
lineare che danno luogo a comportamenti globali che non possono essere spiegati da una singola legge
fisica. Esempi di sistemi complessi possono essere il sistema immunitario, un bosco in fiamme, il
cervello umano, una comunità di persone che interagiscono tra loro, un flusso di veicoli su una rete
autostradale. Il campo della scienza che si occupa di studiare e modellare questi sistemi è detto
scienza della complessità.

L’informatica, fin dalle sue origini, è stato un potente strumento per lo studio e la descrizione di
sistemi complessi in tutti i settori della scienza e dell’ingegneria. La soluzione di problemi
scientifici è stata, storicamente, una delle motivazioni principali per la realizzazione dei
computer e rappresenta un settore applicativo di grande rilevanza che stimola la progettazione e la
realizzazione di nuovi calcolatori ad architettura parallela ad elevate prestazioni. La
realizzazione di modelli e la simulazione tramite calcolatore consente di fornire un laboratorio
virtuale in cui possono essere studiati e risolti problemi complessi attinenti vari campi della
scienza. Per molti anni è stato difficile studiare il comportamento dei fenomeni complessi perché i
modelli usati per descriverli erano così difficili che la principale modalità computazionale usata,
rappresentata dall’integrazione di equazioni differenziali, comportava tempi di calcolo estremamente
elevati.

Grazie ai calcolatori paralleli, i quali sono composti da più unità di elaborazione che in parallelo
possono eseguire più programmi per risolvere più problemi contemporaneamente o per risolvere un
singolo problema in un tempo minore, la potenza computazionale a disposizione si è accresciuta
notevolmente. Inoltre sono emersi nuovi modelli di calcolo come gli automi cellulari, le reti
neurali e gli algoritmi genetici, che rappresentano validi strumenti per la descrizione di fenomeni
complessi. Un calcolatore può essere usato come un ambiente di sperimentazione tramite il quale si
può studiare un fenomeno complesso, come l’evoluzione di alcune forme di vita o di un sistema
composto da milioni di particelle e si può verificare il suo comportamento in base ai valori assunti
dai parametri che lo caratterizzano.

Ovviamente la simulazione di un uragano non distrugge case e ponti, ma rappresenta un buon modello
del fenomeno reale consentendo la misura e la previsione dei valori delle variabili ritenute
significative. Un modello semplice ma molto potente che segue questo approccio è quello degli automi
cellulari (AC). Secondo questo modello, un sistema viene rappresentato come composto da tante
semplici parti ed ognuna di queste parti evolve conformemente ad una propria regola interna ed
interagisce solo con le parti ad essa vicine. L’evoluzione globale del sistema emerge dalle
evoluzioni di tutte le parti elementari.

Un automa cellulare è un sistema dinamico discreto.

Spazio, tempo e stati del sistema sono discreti.

Ogni elemento dell’automa in una griglia spaziale regolare è detto cella e può essere in uno degli
stati finiti che la cella può avere. Gli stati delle celle variano secondo una regola locale, cioè
lo stato di una cella ad un dato istante di tempo dipende dallo stato della cella stessa e dagli
stati delle celle vicine all’istante precedente.

Gli stati di tutte le celle sono aggiornati contemporaneamente in maniera sincrona.

L’insieme degli stati delle celle compongono lo stato dell’automa.

Lo stato globale dell’automa evolve in passi temporali discreti.

Grazie alla disponibilità dei sistemi di calcolo parallelo ad alte prestazioni è stato possibile
simulare fenomeni complessi basati sul modello degli automi cellulari, sistemi fisici complessi che
si prestano ad essere formulati in termini di un numero elevato di elementi interagenti solo
localmente, sfruttando il naturale parallelismo che è presente nel modello degli automi cellulari.
L’integrazione degli automi cellulari e del calcolo parallelo permette di ottenere un utile
strumento per la definizione di algoritmi cellulari e la loro esecuzione efficiente per la
simulazione di sistemi complessi.

La scienza è una delle imprese più grandi e mirabili dell’umanità.

I suoi enormi progressi sono stati resi possibili da importanti scuole di pensiero e di metodologia.
Sin dalle sue origini più remote, l’uomo si è trovato dinanzi a un ambiente altamente complesso. E
la natura stessa lo ha aiutato a tener testa a questo ambiente attraverso un cervello che può
trattare l’enorme quantità di informazione necessaria per sopravvivere. Possiamo dire che il nostro
cervello è riuscito a condensare l’informazione in entrata sotto forma di alcuni dati decisivi,
necessari per l’azione e la reazione. Ma in seguito l’uomo ha iniziato ad affrontare il suo ambiente
in maniera più consapevole, proprio attraverso lo sviluppo della scienza. In particolare, nella
fisica come in molti altri campi, ha potuto scoprire leggi di natura.

La fisica Galileiana ha scoperto le sue leggi grazie ad esperimenti, reali o di pensiero, in cui
vengono mutati soltanto pochi parametri: ad esempio l’altezza o il peso negli esperimenti sulla
caduta dei gravi. A questa metodologia è associata la tendenza di ricercare elementi semplici
attraverso la scomposizione dei sistemi nelle loro parti. È proprio questo il metodo grazie al quale
la mente occidentale è stata in grado di costruire quel solenne edificio monumentale chiamato
scienza. Oggi ci stiamo rendendo conto sempre di più delle limitazioni di questo approccio, e in
particolar modo quando abbiamo a che fare con sistemi complessi.

Si potrebbe dire che i sistemi complessi sono sistemi il cui comportamento non può essere compreso
in maniera semplice a partire dal comportamento dei loro elementi. In altre parole, la cooperazione
degli elementi determina il comportamento dei sistemi globali e fornisce ad essi delle proprietà che
possono essere completamente estranee agli elementi che costituiscono il sistema. La sinergetica non
soltanto ha come suo obiettivo lo studio di questi effetti cooperativi, ma si pone anche la domanda
se esistano dei principi generali che regolano il comportamento dei sistemi complessi nonostante il
fatto che i loro elementi possono essere di natura completamente differente, elettroni, atomi,
molecole, cellule o esseri umani. Questi principi generali che regolano il coordinamento tra gli
elementi possono essere rappresentati in maniera rigorosa a un livello matematico elevato in una
opportuna rappresentazione.

Molti sistemi naturali contengono un grandissimo numero di elementi.

Tra gli elementi individuali di questi sistemi esistono inoltre moltissime connessioni.

Per descrivere compiutamente sistemi di tal genere dobbiamo trattare una quantità di informazione
enorme.

Dobbiamo quindi escogitare dei metodi tendenti a condensare l’enorme quantità di informazione
contenuta in sistemi di tal genere in una quantità di informazione che possa venir trattata dalla
mente umana. Per far ciò di solito si distingue un livello microscopico caratterizzato da numerosi
elementi e un livello macroscopico nel quale ci troviamo dinanzi alle proprietà del sistema nel suo
complesso. Un metodo per studiare i sistemi complessi consiste (seguendo il paradigma più
consolidato) nella loro scomposizione negli elementi costitutivi. Questa scomposizione è
effettivamente possibile per molti sistemi, per i quali gli elementi sono definiti in maniera
dettagliata, ma a volte questo modo di procedere non riesce a raggiungere lo scopo desiderato.

In molti sistemi possono giocare un ruolo decisivo gli effetti cooperativi: in questo caso la
cooperazione fra le parti risulta molto più importante per il comportamento macroscopico del sistema
di quanto non lo siano le proprietà degli elementi presi separatamente. Quindi, anche se è molto
importante studiare le proprietà delle singole parti, per la comprensione del sistema nel suo
insieme si ha in genere bisogno di nuovi e ulteriori concetti e metodi di approccio. In un approccio
di questo genere viene studiata la relazione che intercorre fra il livello microscopico e il livello
macroscopico. Nel caso di molti sistemi naturali, ma anche in una serie di manufatti prodotti
dall’uomo, lo stato macroscopico viene ottenuto attraverso un processo di autorganizzazione degli
elementi microscopici: il sistema ottiene una specifica struttura spaziale, temporale o funzionale
senza uno specifico intervento dall’esterno.

La sinergetica si chiede se esistano dei principi generali che regolano il processo di
autorganizzazione e che siano indipendenti dalla natura dei sottosistemi. Possiamo trovare principi
di tal genere, a patto che il sistema intraprenda al livello macroscopico dei cambiamenti di ordine
qualitativo. Spesso questi elementi qualitativi sono accompagnati dall’emergenza di nuove qualità
del sistema macroscopico, anche se gli elementi microscopici rimangono inalterati.

In fisica semplici esempi di tali fenomeni sono dati dai fluidi e dal laser.

In un fluido si produce una struttura spaziale macroscopica allorché il sistema venga sottoposto a
un nuovo vincolo, che è dato da un riscaldamento omogeneo: il fluido acquista cioè uno specifico
stato macroscopico e ordinato che non viene imposto dall’esterno, ma che piuttosto viene innescato
indirettamente. In un laser gli atti incoerenti di emissione da parte dei singoli atomi vengono
coordinati e danno origine a una struttura temporale ordinata. Nella sinergetica le relazioni che
intercorrono fra il livello macroscopico e il livello microscopico vengono desunte e determinate
ricorrendo a due concetti, al concetto di parametri d’ordine e a quello del principio di
asservimento. I parametri di ordine sono gli osservabili macroscopici che descrivono il
comportamento macroscopico del sistema. Secondo il principio di asservimento il comportamento degli
elementi microscopici diventa determinato nel momento in cui si danno gli osservabili macroscopici.
Si ottiene in questo modo una enorme riduzione dei gradi di libertà.

In un laser è presente un numero enorme di gradi di libertà degli atomi ma un solo grado di libertà
del moto del campo. Una volta oltrepassata la soglia dell’effetto laser, l’intero sistema viene
regolato da un unico grado di libertà, e ciò dipende proprio dal principio di asservimento. In molti
casi, quando cambia un parametro di controllo, i sistemi studiati dalla sinergetica sono sottoposti
a una serie di cambiamenti qualitativi. In termini più generali, può darsi il caso che i medesimi
elementi mostrino (a livello macroscopico) modelli di comportamento completamente differenti.

Un esempio è fornito ancora una volta dal laser.

A bassa intensità della corrente di alimentazione, il laser può manifestare una emissione casuale.
Con l’aumento della corrente di alimentazione la struttura dell’emissione diventa coerente. A
energie di alimentazione ancora superiori si producono lampi regolari (moti quasi periodici). Se si
modifica un altro parametro, l’onda coerente può degradarsi in un caos deterministico. Anche in
questo caso si possono identificare diversi itinerari che portano dal moto coerente al moto teorico:
vi sono ad esempio fenomeni di intermittenza, nei quali periodi di emissione laser coerente si
alternano ad esplosioni caotiche.

Il laser potrebbe servire da paradigma per il comportamento delle reti neurali.

In particolare potrebbe essere un modello per spiegare i cambiamenti comportamentali che,
apparentemente senza nessuna causa, si verificano negli esseri viventi: il problema che deve
affrontare la natura consiste nell’armonizzare questi modelli comportamentali, in maniera tale che
il movimento dei muscoli possa procedere senza soluzioni di continuità. La sinergetica è in certa
misura complementare al riduzionismo o allo studio degli elementi microscopici. Essa tende a porre
l’accento sulle proprietà dei sistemi senza tenere conto della natura dei sottosistemi componenti.
In questo modo la sinergetica costruisce profonde analogie fra il comportamento macroscopico di
sistemi completamente differenti.

Oggi vediamo che le scienze biologiche e fisiche sono caratterizzate da una crisi della spiegazione
semplice. Di conseguenza quelli che sembravano essere i residui non scientifici delle scienze umane
(l’incertezza, il disordine, la contraddizione, la pluralità, la complicazione, ecc.) fanno oggi
parte della problematica di fondo della conoscenza scientifica. Dobbiamo constatare che il disordine
e il caso sono presenti nell’universo, e svolgono un ruolo attivo nella sua evoluzione. Non siamo in
grado di risolvere l’incertezza arrecata dalle nozioni di disordine e caso: lo stesso caso non è
sicuro di essere un caso. Questa incertezza rimane, e rimane anche l’incertezza sulla natura
dell’incertezza arrecataci dal caso.

La biologia contemporanea considera ogni specie vivente come una singolarità, che produce
singolarità. La vita stessa è una singolarità, all’interno dei vari tipi di organizzazioni
fisico-chimiche esistenti. Il cosmo stesso è un evento singolare, dotato di una storia singolare
nella quale si produrrà la nostra storia singolare, e la storia di ciascun essere vivente è una
storia singolare. Non possiamo più, consci della complessità del reale, eliminare il singolare ed il
locale ricorrendo all’universale nelle nostre teorie esplicative. I fenomeni biologici e sociali
presentano un numero incalcolabile di interazioni, di inter-retroazioni, uno straordinario groviglio
che non può essere computato nemmeno con il ricorso al computer più potente. Prigogine ha mostrato
che strutture coerenti a forma di vortice possono nascere da perturbazioni che apparentemente
avrebbero dovuto dare come risultato delle turbolenze. È in questo senso che alla nostra ragione si
presenta il problema di una misteriosa relazione fra ordine, disordine e organizzazione.

L’ordine generato dal disordine ci appare un fatto sorprendente!

È interessante che un sistema sia nel contempo qualcosa di più e qualcosa di meno di quella che
potrebbe venir definita come la somma delle sue parti. L’organizzazione impone dei vincoli che
inibiscono talune potenzialità che si trovano nelle varie parti, ma nel contempo il tutto
organizzato è qualcosa di più della somma delle parti, perché fa emergere qualità che senza una tale
organizzazione non esisterebbero. Sono qualità emergenti, nel senso che sono constatabili
empiricamente ma non sono deducibili logicamente. Nel campo della complessità vi è qualcosa di ancor
più sorprendente. È il principio dell’ologramma. L’ologramma è una immagine fisica le cui qualità
dipendono dal fatto che ogni suo punto contiene quasi tutta l’informazione dell’insieme che
l’immagine rappresenta. Gli organismi biologici possiedono una organizzazione di questo genere:
ognuna delle nostre cellule, anche la cellula più modesta come può essere una cellula
dell’epidermide, contiene l’informazione genetica di tutto l’organismo nel suo insieme. Naturalmente
solo una piccola parte di questa informazione è espressa in una singola cellula, mentre il resto è
inibito, ma comunque è presente. In questo senso possiamo dire non soltanto che la parte è nel
tutto, ma anche che il tutto è nella parte.

Nell’universo delle cose semplici è necessario che una “porta” sia aperta o chiusa, mentre
nell’universo complesso si constata che un sistema autonomo è nel contempo aperto e chiuso. Un
sistema che compie un lavoro per sopravvivere ha bisogno di energia fresca, e deve trarre questa
energia dal proprio ambiente. L’organismo, pur essendo autonomo, è radicato nel suo rapporto con
l’ambiente e risulta estremamente problematico studiarlo separatamente. La scienza si sviluppa non
soltanto basandosi sulla logica e il raziocinio ma anche (si tratta di un paradosso sconcertante)
grazie a ciò che in essa vi è di non scientifico. È proprio per ragioni logiche e sperimentali che
si è giunti a una assurdità logica: il tempo nasce dal non tempo, lo spazio dal non spazio, e
l’energia nasce dal nulla (teoria del Big Bang).

La complessità sembra negativa o regressiva perché costituisce la reintroduzione dell’incertezza in
una conoscenza che era partita trionfalmente verso la conquista della certezza assoluta. E su questo
assoluto bisogna davvero farci una croce sopra. Ma l’aspetto positivo, l’aspetto progressivo che può
derivare dalla risposta alla sfida della complessità consiste nel decollo verso un pensiero
multidimensionale. L’errore del pensiero formalizzante e quantificatore sta nel fatto che questo
pensiero è arrivato a credere che ciò che non fosse quantificabile e formalizzabile non esistesse.
Sogno delirante, niente è più folle del delirio della coerenza astratta!

La realtà è multidimensionale: comporta sempre una dimensione individuale, una dimensione sociale,
una dimensione biologica, una dimensione fisica, ecc. La sfida della complessità ci fa rinunciare al
mito della chiarificazione totale dell’universo, ma ci incoraggia a continuare l’avventura della
conoscenza, che è un dialogo con l’universo. La realtà oltrepassa le nostre strutture mentali da
ogni parte. Il fine della nostra conoscenza non è quello di chiudere, spiegando il tutto con una
unica formula, ma quello di aprire il dialogo con l’universo. Il che significa: non soltanto
strappare all’universo ciò che può essere determinato in maniera chiara, con precisione ed
esattezza, ma entrare anche in quel gioco fra chiarezza e oscurità che è appunto la complessità.

Condividi:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *