La rivoluzione della complessità
Questioni epistemologiche
di Alberto Strumia
Premessa
È ormai consuetudine, nell’ambito della storiografia delle scienze e dell’epistemologia, dopo T.S. Kuhn — per citare solo uno tra gli autori più noti — parlare di rivoluzioni scientifiche [1] per indicare i mutamenti più radicali avvenuti nell’ambito del metodo scientifico, e soprattutto delle concezioni che stanno alla base dell’elaborazione, della comprensione, e quindi dell’interpretazione delle teorie. Così, ad esempio, volgendo lo sguardo alle scienze fisiche, si è parlato frequentemente, e si parla tuttora, di una rivoluzione einsteiniana, di una rivoluzione quantistica, per riferirci solo a quelle che hanno interessato questo nostro secolo che sta per concludersi.
Il termine rivoluzione è impiegato allo scopo di sottolineare i fattori di discontinuità di concezione, rispetto al pensiero precedente, la cui conoscenza è richiesta, oltre ad una strumentazione matematica adeguata, per una corretta comprensione delle teorie stesse.
Questa categoria di rivoluzione scientifica, che ha certamente dei limiti oltre che dei pregi e non va come tale assolutizzata, può tuttavia, tornare utile in vista di uno sguardo attento e, per quanto possibile adeguato, alle problematiche teoretiche — non esiterei a dire filosofiche e addirittura metafisiche — legate alle scienze a noi contemporanee, per aiutarci ad evidenziare le nuove domande filosofiche, metafisiche che le scienze odierne pongono dal loro stesso interno, per garantire a se stesse dei fondamenti adeguati al loro stesso sviluppo.
Con questa introduzione, dunque, ho fatto già una scelta di campo: non intendo soffermarmi qui sugli aspetti sociologici legati allo sviluppo delle scienze, né su quelli inerenti le tecnologie che con le scienze convivono necessariamente e da esse si sviluppano, inevitabilmente, nella nostra società. Intendo soffermarmi, piuttosto, su quegli aspetti che sono più direttamente legati alla scienza odierna come teoria.
Partirei dunque dalla domanda seguente: «Possiamo dire che in questi ultimi trenta, quaranta anni, circa, stiamo assistendo ad una nuova rivoluzione scientifica, nel senso appena indicato di mutamento in atto del modo stesso di concepire il metodo scientifico, o almeno di qualche suo aspetto fondamentale?».
Forse, anzi quasi certamente, è ancora troppo presto per dare una risposta adeguata ad una domanda come questa, tuttavia mi pare una domanda molto importante, e quindi fondamentale è il non trascurare la ricerca di una risposta, anche se provvisoria, per non arrivare troppo tardi quando i giochi sono ormai fatti. Infatti là dove una rivoluzione scientifica è in atto essa si accompagna a domande filosofiche, ponendo le quali gli scienziati chiedono, in un certo senso aiuto ai filosofi, e alle quali, in mancanza di una risposta adeguata da parte loro, saranno loro stessi a dare una risposta, elaborando così, in qualche modo essi stessi una filosofia, una metafisica, una teoria della conoscenza.
Le scienze fisiche
Gli sviluppi della scienza normale
Concentrerei l’attenzione sulle scienze fisiche e matematiche, in quanto, dal punto di vista al quale ho accennato introducendo, è in queste scienze che si sta muovendo, a mio parere, qualcosa di veramente significativo: le altre scienze, come quelle biologiche ad esempio, sembrano poter beneficiare esse stesse di un nuovo spazio, conseguente a questo mutamento che, se fosse partito solo da loro non avrebbe quasi sicuramente gli stessi effetti, in quanto ancora oggi, a torto o a ragione, si tende a guardare alla fisica e alla matematica come alle scienze di riferimento, come al modello ideale di tutte le altre scienze.
Ciò che dirò, comunque, ha un valore esemplificativo e non certo esaustivo, non essendo possibile, in poco tempo, offrire una panoramica completa, quanto piuttosto offrire un’esemplificazione qualitativa dei problemi.
Incomincerei con un’operazione di discernimento e cioè con l’evidenziare alcuni aspetti che caratterizzano le scienze fisiche e matematiche recenti, che destano grande attenzione e meraviglia anche da parte dell’opinione pubblica più informata — e comprensibilmente — ma che, a mio parere, non costituiscono una rivoluzione nel metodo scientifico, una novità qualitativa, ma rappresentano piuttosto una novità quantitativa, uno sviluppo estensivo, in un certo senso estremo, di quella che Kuhn chiama, con una espressione pure famosa, la scienza normale.
La cosmologia
Il primo fatto al quale assistiamo da circa una trentina d’anni è il fortissimo sviluppo della cosmologia scientifica, fondata sulla teoria della relatività generale di Einstein. [2] La teoria del big-bang con tutte le sue varianti, soprattutto a partire dal modello inflazionario, sembra avere acquistato un credito notevole dal momento in cui si è avuto di essa quello che è ritenuto il riscontro sperimentale probante — in fondo l’unico — che è stato fornito dalla scoperta, pressoché incidentale, della radiazione cosmica di fondo da parte di Penzias e Wilson (1965). A partire da questo dato la cosmologia relativistica, ritenuta fino a quel momento poco più che un’elaborazione molto interessante, ma senza prove, fondata unicamente sulle equazioni di Einstein e su assunzioni ragionevoli ma arbitrarie — quali l’isotropia e l’omogeneità dello spazio-tempo — ha incominciato ad essere considerata una vera teoria scientifica, acquistando una fama, presso il pubblico, spesso anche eccessiva, dovuta al fascino intrinseco della domanda sulle origini e sul destino dell’universo. Una certa divulgazione e ha favorito attorno a questo sviluppo il consolidarsi di atteggiamenti scientisti ormai superati in altri settori della scienza: la cosmologia, da questo punto di vista, arrivando, in un certo senso, in ritardo sulle altre scienze, ha favorito una sorta di ritardo epistemologico in rapporto al mutamento della concezione della scienza fisica stessa anziché spingere nella direzione di una rivoluzione epistemologica.
La fisica delle particelle
Il secondo fatto che ha dominato la scena, più o meno contemporaneamente all’acquisizione di prestigio della cosmologia, è consistito nello sviluppo delle teorie del microcosmo, rispondente alla ricerca dei costituenti fondamentali della materia. Si tratta della famosa problematica inerente le particelle elementari, [3] approdata alla teoria quantistica dei campi. Questa ricerca, a dire il vero ha subìto, dopo i primi entusiasmi, una certa fase di arresto in quanto il numero di particelle scoperte era troppo elevato, e la parentela tra di esse troppo poco chiara, perché si potesse parlare di esse come costituenti fondamentali e i costi delle ricerche proibitivi. Ci si è, allora, rivolti al problema dell’unificazione dei campi elettromagnetico, debole, forte, gravitazionale in vista di una migliore comprensione. Il risultato ottenuto con la unificazione elettro-debole ad opera di Glashaw, Salam e Weinberg, [4] verificato con l’esperimento che è valso il premio Nobel a Rubbia, [5] ha rilanciato, anche se in tono un po’ mitigato, una ricerca sulla quale si è puntato per anni spendendo cifre ingenti.
Tuttavia, anche in questo caso non si può parlare di una rivoluzione scientifica, quanto piuttosto di un procedere, senza dubbio notevole, della scienza normale. Una teoria così poco intuitiva e interpretabile come la meccanica quantistica dimostra tutto il suo potere di strumento di calcolo e di descrizione di questo mondo microscopico, portando tuttavia con sé paradossi irrisolti e probabilmente insolubili nel quadro interpretativo attuale.
La fusione della cosmologia con le teorie di campo unificate
Un terzo fatto, che in un certo senso è il frutto dello sforzo comune delle due teorie precedenti, sembra guidato proprio dall’intento di ottenere il massimo possibile dalla scienza normale, ed è rappresentato dal tentativo di compiere una vera e propria estrapolazione per dire qualcosa sui cosiddetti primi istanti dell’universo: a questo scopo la cosmologia diviene teoria delle particelle e viceversa, in quanto il macrocosmo e il microcosmo si trovano a coincidere. Non sto qui a discutere il senso scientifico stesso di un tale sforzo e delle affermazioni che si cerca di fare in proposito. [6] Ammesso e non concesso, comunque, che si possa dire qualcosa in merito, scientificamente — al di là di un impiego ideologico che di questi discorsi si può fare e viene fatto di regola dai mezzi di divulgazione — anche in questo tentativo, certamente affascinante, perché spinge sempre più in avanti le frontiere della ricerca, si deve dire che di scienza normale si tratta.
Queste tre linee direttrici dello sviluppo recente della fisica hanno dato grande impulso ai rispettivi campi e fornito forti conferme delle proprie convinzioni metodologiche ed epistemologiche sia ai cosmologi e che ai fisici teorici non senza il rischio di chiusure nei confronti di altri campi di indagine. Non di rado gli stessi corsi di laurea in fisica tendono quasi sempre a formare negli studenti una conoscenza riduttiva della fisica contemporanea enfatizzando certi filoni di ricerca e talvolta addirittura tacendone altri. Tuttavia è naturale che la scienza normale dia tutto quello che può dare, ma è necessario che ci si renda conto che si tratta di novità prevalentemente quantitative e più che qualitative.
La rivoluzione del non lineare
Più di una volta questi tre aspetti delle attuali conquiste della ricerca nel campo della fisica vengono a trovarsi affiancati — quasi si trattasse di uno stesso livello di problemi — con un quarto tipo di problematiche che, invece, mi sembrano differire, questa volta, qualitativamente da quelle che ho precedentemente citato. E questo in quanto contengono, in se stesse delle implicazioni sul metodo scientifico stesso, sui fondamenti e sull’interpretazionedelle teorie, implicazioni che mutano, ad un livello assai significativo, la concezione stessa di ciò che è scienza e, costituiscono quindi, almeno in germe, l’inizio di una vera e propria rivoluzione scientifica. Vengono sollevate questioni che sono precedenti la stessa teoria della relatività e la meccanica quantistica e che queste ultime teorie non avevano lo scopo di risolvere, e hanno quindi ereditato, se così si può dire, senza accorgersene dalla fisica classica. Si approda a questioni metodologicamente più fondamentali di quelle poste dalla cosmologia e dalla teoria dei campi e che prima o poi anche queste ultime si troveranno a dover affrontare.
Sinteticamente possiamo dire che le cose che vengono poste in questione sono:
— la validità e i limiti intrinseci di una descrizione-spiegazione matematica del dato fisico;
— l’univocità del linguaggio matematico e la possibilità di un suo ampliamento in senso non strettamente univoco;
— la possibilità di spiegazioni scientifiche di una natura che fino a poco fa sarebbe stata qualificata come metafisica nel senso peggiorativo che il pensiero epistemologico attribuiva a questa parola, come ad esempio le spiegazioni di tipo finalistico;
— la stessa epistemologia che sta alla base dell’approccio riduzionistico, usuale nelle scienze, che consentiva, da un lato, di ricondurre problemi complessi a problemi più semplici e conosciuti, e dall’altro di ricondurre scienzepiù complesse, come ad esempio la biologia, e la chimica, a scienze più semplici e considerate più fondamentali, come la fisica. Anche in forza di questa visione riduzionistica per questo la fisica è rimasta la scienza fondamentale alla quale tutte le altre si rifanno.
Mi riferisco, in questa quarta considerazione, a quella che chiamerei, con una terminologia tipicamente fisico-matematica, la rivoluzione del non lineare. Più spesso si parla, con un linguaggio meno tecnico di quella sfera di problemi che sono legati alla complessità [7] dei sistemi studiati e alla caoticità, e quindi impredicibilità di certi loro comportamenti.
Va evidenziato il fatto che moltissime delle acquisizioni teoriche in questo campo erano già state ottenute tra la fine del secolo scorso e la prima parte di questo da Poincaré [8] e da Ljapunov, tuttavia questo campo di indagine è stato, poi, incredibilmente pressoché abbandonato con l’insorgere della meccanica quantistica che, se portava nuove conquiste al riguardo della fisica atomica e nucleare, faceva arretrare ancora la metodologia scientifica nella mondo del lineare (e delle piccole perturbazioni dal lineare) ben dominato dai matematici e dai fisici, evitando (volutamente?) di affrontare i nuovi problemi di fondo che, inevitabilmente il nuovo mondo del non lineare avrebbe posto loro.
In effetti le equazioni della fisica da sempre hanno coinvolto anche problemi non lineari, tuttavia questi non si sanno risolvere esattamente, e si riconducono, approssimandoli a problemi lineari. Ma queste approssimazioni sono corrette solo entro certi limiti e in certe situazioni non si possono fare.
Oggi queste problematiche sono state riprese, grazie all’impiego del calcolatore elettronico che rende possibili, con la sua rapidità di calcolo, l’indagine anche sui problemi non lineari con una precisione diversamente impensabile e in tempi cosiddetti reali, fornendo soluzioni numeriche, accurate finché si vuole, di quei problemi che non hanno una soluzione analitica.
Le scienze logico-matematiche
Vorrei accennare ora, molto brevemente, ad una seconda problematica che ha carattere di rivoluzione scientifica: quella dell’autoreferenzialità.
L’impiego del calcolatore elettronico — insieme alla possibilità di affrontare con le tecniche dell’analisi numerica i problemi non lineari, ridestando così l’interesse per i risultati di Poincaré sui sistemi non lineari — ha in un certo senso, costretto i matematici e i logici, oltre che i fisici-matematici, a riprendere in considerazione come problematiche con conseguenze applicative — e non appena come questioni speculative, riguardanti i fondamenti, come quelle legate ai teoremi di Gödel — tutte le problematiche legate all’autoreferenzialità. Il computer, infatti, fa largamente uso di processi iterativi: in questi il risultato di un ciclo di calcolo viene immesso come dato di partenza per un ciclo di calcolo successivo, identico al precedente. Non linearità e autoreferenzialità si trovano poi molto spesso combinate insieme. Chi si occupa di intelligenza artificiale ha a che fare quotidianamente con questi problemi.
A questi metodi si trovano connessi tutti quegli strani comportamenti che sono legati alla complessità, alle disposizioni ordinate che sono frutto di una dinamica cosiddetta caotica, ai sistemi in cui compare il feed-back, nei più svariati campi della scienza e della tecnica: dalla logica degli enunciati autoreferenziali già noti ai greci, alla geometria dei frattali, alla meccanica dei sistemi dinamici caotici, all’elettronica dei sistemi di controllo controreazionati, all’informatica e all’intelligenza artificiale.
Questioni filosofiche che rinascono dalla scienza
Dunque, ci troviamo in una situazione in cui i fondamenti stessi delle teorie scientifiche esigono che si dia una risposta a questioni che erano classiche nell’ambito della cosmologia filosofica greca, e in quella aristotelica in particolare; questioni che sembrano riaffiorare proponendo quello che — appropriandoci di uno schema interpretativo già utilizzato a proposito della scienza da Alexandre Koyré — uno spostamento della visione scientifica dal platonismo verso l’aristotelismo. E questo è un aspetto che non esiterei a chiamare rivoluzione epistemologica, in quanto coinvolge un cambiamento nel modo stesso di intendere il metodo scientifico, mettendo in discussione lo schema riduzionistico, in vista di un approccio più globale.
Per quanto possa apparire strano proprio i livelli più avanzati della scienza sembrano far rinascere antichissime questioni di logica e di metafisica, che la filosofia pare avere da tempo abbandonato, almeno nella loro veste classica: tutto questo è per lo meno interessante. Con un’immagine un po’ paradossale e azzardata, ma non del tutto infondata, sembra di poter ipotizzare un colloquio tra uno scienziato, che si occupa oggi di questi problemi, e un pensatore medioevale, che attinge dai suoi studi su Aristotele risposte alle questioni di logica e di metafisica, aiutando magari lo scienziato odierno a scoprire cose per lui nuove. Tra queste cose antiche che si ripropongono come nuove citerei ad esempio:
— la logica dei predicati analoghi che allo scienziato potrebbe servire per comprendere la non univocità e la gerarchia dei livelli della realtà e della loro rappresentazione formale. Non a caso tra quanti oggi si occupano di intelligenza artificiale il termine analogia è ricomparso a pieno di diritto [9]
— Il problema degli enunciati autoreferenziali e delle collezioni autoinclusive che si ricollega esso stesso al problema dell’esistenza di livelli gerarchizzati che si corrispondono fra loro: è possibile costruire una logica in cui l’autoreferenzialità sia ospitata senza contraddizioni? [10]
— Il problema del tutto e delle parti reintrodotto dalle teorie non lineari, nell’ambito delle quali il tutto non è ottenibile come somma delle sue parti, in quanto la somma di due o più soluzioni di un sistema non lineare non è una soluzione (come accade invece per i sistemi lineari); oppure in quelle strutture complesse come i frattali nelle quali il tutto si replica nella singola parte a qualunque scala (strutture autosimilari). E se questo è vero dal punto di vista del matematico e del fisico, quante più implicazioni sembra avere per il chimico, il biologo e per colui che si occupa di scienze umane! Problema che, solleva l’interrogativo sulla necessità di ipotizzare un principio unificante che qualifica il tutto come tutto. Un tale problema nell’antica teoria ilemorfica aveva una sua soluzione con il ricorso alla forma; non stupisce, allora, che vi siano studi di grandi matematici sul problema della forma.[11] Certo, bisogna bene intendersi sul significato delle parole per non fare di ogni erba un fascio, ma non mi sembra si possa negare che queste problematiche rivestano un interesse e meritino grande attenzione, tanto più che non erano nemmeno pensabili fino a non molti anni fa.
In sintesi si può parlare e si parla spesso di una crisi del riduzionismo: a volte tale crisi è presentata come un dato a se stante, più legato alla biologia e alle scienze dei sistemi complessi viventi, siano essi individui singoli o popolazioni, tuttavia va sottolineato che le radici ultime di questa crisi risiedono nelle discipline considerate da sempre paradigmatiche di tutte le altre scienze, la fisica e la matematica e ed è da imputarsi all’esplosione del non lineare e delle tecniche autoreferenziali.
Questa situazione pone, dunque, la questione della messa a punto di un nuovo metodo scientifico che consenta:
— un approccio non riduzionistico, quindi non univoco alle strutture complesse, che consegue alla questione del non lineare è di capitale importanza per esempio per la biologia.
—l’edificazione di una teoria delle scienze non riduzionistica (problema epistemologico), quindi di una visione organica delle scienze nella quale esse non sono riconducibili necessariamente alla fisica o alla matematica.
Le scienze pongono oggi queste domande in prima istanza e con una certa urgenza. Vi sono poi altre questioni, che qui accenno solo, concludendo, in quanto mi sembrano porsi più in seconda istanza e con meno evidenza e forse con minore urgenza, ma sono tuttavia presenti in attesa di esplodere, quali:
— la questione della possibilità di una spiegazione di tipo finalistico nell’ambito delle scienze;
— il problema dell’apprendimento in ordine all’intelligenza artificiale e in rapporto a quella umana. È il classico problema della conoscenza mediante astrazione.
Certamente vi sono molti altri problemi connessi con quelli esaminati, tuttavia, mi sembra di avere accennato almeno a quelli fondamentali e di immediato interesse in vista di una collaborazione tra scienziati e filosofi.
[1] Questa dizione è introdotta da T.S. Kuhn nel suo saggio più noto, La struttura delle rivoluzioni scientifiche, Einaudi, Torino 1969.
[2] Un piacevole lettura a proposito dell’avanzamento della cosmologia è offerta in M. Hack, L'universo alle soglie del duemila. Dalle particelle elementari alle galassie, Rizzoli, Milano 1992
[3] Si può vedere intorno alla tematica delle particelle elementari G.Cohen-Tannoudji, M. Spiro, La materia-spazio-tempo. La logica delle particelle elementari, Jaca Book, Milano 1988.
[4] Si veda A. Salam, L’unificazione delle forze fondamentali. Lo sviluppo e gli obiettivi della fisica moderna, Rizzoli, Milano 1990.
[5] Sull’argomento degli esperimenti oltre che della teoria si può vedere AAA.VV., Campi, forze e particelle, Le Scienze editore, Milano 1991.
[6] Alcune considerazioni critiche, dal punto di vista metodologico sono sviluppate in N. Dallaporta Xydias, Scienza e metafisica. Uno pseudo contrasto tra due domini complementari, Cedam, Padova 1997, cap.XV, testo molto interessante anche per il quadro complessivo che offre delle problematiche scientifico-filosofiche attuali e antiche.
[7] Oggi si trovano innumerevoli studi su questi argomenti, di differente grado di difficoltà. Una panoramica semplice e gradevole è offerta in J. Gleick, Caos, Rizzoli, 1992; altre letture consigliabili sono M. Cini, Un paradiso perduto. Dall’universo delle leggi naturali al mondo dei processi evolutivi, Feltrinelli, Milano 1994; una lettura più tecnica si trova in G. Nicolis, I. Prigogine, La complessità. Esplorazioni nei nuovi campi della scienza, Einaudi, Torino 1991.
[8] Una selezione di scritti scientifici di Poincaré è stata pubblicata in H. Poincaré, Geometria e caso. Scritti di matematica e fisica, Bollati Boringhieri, Torino 1995.
[9] Si può vedere a questo proposito l’opera di H. Hofstadter, Concetti fluidi e analogie creative, Adelphi, Milano 1996, uno studio interamente incentrato sull’analogia nel funzionamento della mente e sul modo di imitarla artificialmente.
[10] Questo problema è stato studiato da E. De Giorgi e dal suo gruppo che ha proposto una teoria assiomatica ampliata: cfr. E. De Giorgi, M. Forti e G. Lenzi, Una proposta di teorie di base dei Fondamenti della Matematica,Rend. Mat. Acc. Lincei, ser.9, 5 (1994) 11-22; 5 (1994) 117-128; 6 (1995) 79-92; E. De Giorgi e G. Lenzi, La Teoria ’95, una proposta di teoria aperta e non riduzionista dei Fondamenti della Matematica, memoria presentata da E. De Giorgi il 13 novembre 1995. Un’esposizione più didattica, rivolta anche ai filosofi e cultori di scienze umane, in vista di una collaborazione sul piano epistemologico, è presentata in E. De Giorgi, «Dal superamento del riduzionismo insiemistico alla ricerca di una più ampia e profonda comprensione tra matematici e studiosi di altre discipline scientifiche ed umanistiche», memoria presentata da E. De Giorgi, Pisa, 25-3-1996.
[11] cfr. R. Thom, Stabilità strutturale e morfogenesi. Saggio di una teoria generale dei modelli, Einaudi, Torino 1980.