Falsificabilità e complessità: cosa resta del metodo scientifico?
L’avvento della complessità come paradigma scientifico ha sollevato interrogativi sulla validità e l’applicabilità dei criteri classici del metodo scientifico, primo fra tutti quello di falsificabilità di una teoria (reso celebre da Karl Popper). In campi come la fisica o la chimica, un esperimento controllato può spesso confermare o confutare con chiarezza una previsione teorica. Ma nei sistemi complessi – si pensi all’economia, all’ecologia, alle scienze sociali – le cose sono meno nitide: le teorie abbracciano tanti fattori interagenti che le loro previsioni sono per lo più probabilistiche o qualitative; inoltre gli “esperimenti” nel mondo reale sono difficili se non impossibili da eseguire in condizioni controllate. Di conseguenza, alcuni studiosi hanno messo in dubbio che la falsificabilità, intesa in senso rigido, sia un criterio operativo in questi campi, arrivando persino a parlare di crisi del metodo scientifico tradizionale. È dunque lecito chiedersi: cosa resta del metodo scientifico nello studio della complessità? Dobbiamo abbandonare l’ideale popperiano oppure reinterpretarlo?
In primo luogo, occorre riconoscere la differenza di contesto sperimentale. Nei sistemi complessi, spesso non è possibile isolare una singola variabile e testare l’effetto di un cambiamento mantenendo tutto il resto costante. Quando osserviamo un risultato nel mondo reale (ad esempio un aumento dell’inflazione dopo una certa politica monetaria), quel “dato” è intrecciato con molti altri fattori concomitanti. Questo significa che una previsione teorica smentita dai dati non “falsifica” automaticamente la teoria in senso stretto, perché l’evidenza sperimentale non è mai pura. Come notano i filosofi della scienza contemporanei, un esito empirico discordante segnala solo un conflitto tra il complesso delle teorie e assunzioni coinvolte nell’esperimento e l’osservazione. Magari la teoria principale è corretta, e a essere sbagliata è un’ipotesi ausiliaria su come è stato condotto l’esperimento o una misura. Ad esempio, se un modello climatico prevede una certa temperatura e la rilevazione risulta diversa, non sappiamo subito se è il modello ad essere falsificato o se vi erano errori nei dati o nei modelli sub-componenti (o ancora, se è accaduto un evento eccezionale non incluso). Questa situazione, nota come teorema di Duhem-Quine1 in filosofia, vale ancor di più nei sistemi complessi per via delle molteplici teorie di supporto implicate in qualsiasi previsione.
Ciò ha portato alcuni a dire provocatoriamente che la falsificabilità è un “mito” e che nella pratica gli scienziati non abbandonano una teoria alla prima anomalia. Anzi, la storia della scienza mostra che teorie di grande successo (come la gravità newtoniana) sono state mantenute per decenni nonostante presentassero note discrepanze con i dati (l’anomalia dell’orbita di Mercurio, risolta solo più tardi da Einstein). Invece di scartare subito la teoria, gli scienziati spesso cercano di spiegare l’anomalia aggiungendo ipotesi o raffinando il modello. Questo accade anche nello studio di sistemi complessi: di fronte a previsioni economiche mancate, si tende a perfezionare il modello (aggiungendo ad esempio aspettative più realistiche) piuttosto che rigettare interamente la teoria sottostante. Thomas Kuhn osservò che il metodo scientifico reale tollera un certo “periodo di crisi” in cui una teoria accumula anomalie, finché non emerge un miglior paradigma.
Allora, è ancora utile il concetto di falsificabilità? In senso stretto, popperiano, può sembrare di no: raramente in ecologia o nelle scienze sociali abbiamo un esperimento cruciale che, da solo, affonda una teoria. Tuttavia, lo spirito del metodo scientifico resta valido, adattato alle circostanze. In particolare, permangono alcuni cardini: formulare ipotesi chiare, confrontarle il più rigorosamente possibile con i dati, e rimanere disposti a rivedere le proprie convinzioni alla luce dell’evidenza. Nel contesto della complessità, questo approccio assume forme diverse. Ad esempio, le previsioni di un modello complesso possono essere testate non necessariamente con un singolo dato puntuale, ma con l’insieme dei pattern che producono. Un modello climatico, come detto, non è falsificato da uno scostamento annuale, ma se costantemente sottostima una certa classe di fenomeni (ad es. intensità degli uragani) e altri modelli alternativi spiegano meglio quei pattern, allora col tempo esso verrà abbandonato. In economia, non si può rifare la storia per vedere cosa sarebbe successo senza una certa politica, ma si possono cercare evidenze controfattuali o analogie storiche: se la teoria dice che una liberalizzazione X aumenta sempre la crescita e troviamo parecchi casi comparabili in cui ciò non è avvenuto, la teoria perde credibilità ed è pressata a incorporare nuovi fattori.
Un aspetto del metodo scientifico che resta certamente nella complessità è la replicabilità e robustezza dei risultati. Ad esempio, nelle simulazioni al computer di sistemi complessi, un risultato ha valore se è replicabile da diversi ricercatori e se non dipende criticamente da dettagli arbitrari del modello. Aumentando la dimensione e complessità dei modelli, cresce il potenziale di errore e di overfitting (adattare il modello ai dati passati ma senza potere predittivo). Per questo, la comunità scientifica insiste su pratiche come la validazione incrociata, la condivisione di codici e dati, e il confronto di modelli multipli. Un modello epidemiologico sarà considerato affidabile se diverse equipe, con metodi diversi, giungono a proiezioni simili. Qui il metodo scientifico evolve: invece di un singolo esperimento decisivo, abbiamo un processo di convergenza intersoggettiva attraverso molti studi. Ciò può sembrare meno netto della falsificazione istantanea, ma in realtà è un raffinamento del metodo per adeguarsi alla complessità.
Inoltre, il concetto di predizione va inteso in modo più flessibile. Nei sistemi complessi spesso l’obiettivo non è una previsione esatta, bensì l’identificazione di scenari possibili e delle condizioni in cui essi si verificano. Questo è ancora scienza, ma diversa dalla predizione deterministica. Per esempio, un modello ecologico potrebbe non dire “nel 2030 ci saranno esattamente 512 lupi in questa regione”, ma può dire “se la temperatura aumenta di 2°C e la frammentazione forestale continua, la popolazione di lupi ha un’alta probabilità di estinguersi entro 50 anni”. Tali affermazioni probabilistiche sono falsificabili in senso lato: se per decenni la temperatura sale e la frammentazione continua, ma i lupi prosperano numerosi, allora il modello era sbagliato. Occorre tempo e pazienza per verificarle, ma rimangono testabili e migliorabili.
In definitiva, della macchina del metodo scientifico restano intatti i principi fondamentali: onestà intellettuale nel confronto teoria-evidenza, trasparenza sul grado di incertezza, apertura alla revisione delle teorie. La falsificabilità come ideale regolativo sopravvive, pur se applicata con flessibilità: invece di cercare falsificazioni draconiane, gli scienziati della complessità accumulano gradualmente evidenze pro o contro determinati modelli teorici, finché emerge consenso su quale descrive meglio la realtà. Potremmo dire che il metodo scientifico si adatta esso stesso in modo complesso: non più un semplice schema lineare ipotesi -> esperimento -> esito, ma un processo iterativo, multi-modello, fatto di aggiustamenti successivi. Lungi dall’essere un abbandono della scienza, questo è un suo raffinamento necessario. Anche Popper riconosceva che nella pratica molte congetture resistono alle confutazioni minori e vengono modificate invece di essere scartate subito: l’importante è che rimanga viva la possibilità di critica e di miglioramento. Quindi, cosa resta del metodo scientifico è l’essenziale: la scienza dei sistemi complessi continua ad avanzare grazie alla combinazione di formulazione chiara dei modelli, confronto rigoroso con i dati (per quanto complicato), e correzione o rimpiazzo delle teorie che sistematicamente falliscono nel confronto con la realtà. La ricerca della verità oggettiva rimane l’orizzonte, anche se sappiamo che nei sistemi complessi la verità verrà colta solo approssimativamente e con margini di incertezza. In questo senso, il metodo scientifico non è sconfitto dalla complessità: al contrario, è più che mai indispensabile per orientarsi in essa, purché lo applichiamo con la dovuta consapevolezza dei suoi limiti e adattandolo creativamente alle sfide poste dai nuovi oggetti di studio.
Il teorema di Duhem-Quine afferma che una teoria scientifica non può mai essere testata in isolamento, poiché ogni verifica empirica dipende anche da ipotesi ausiliarie implicite, strumenti di misura e condizioni sperimentali. Se una previsione teorica risulta falsificata dall’esperimento, non è possibile stabilire con certezza se a essere smentita sia la teoria principale o una delle sue premesse secondarie. Questo implica che il confronto tra teoria e osservazione non è mai diretto, ma mediato da un insieme complesso di assunzioni, rendendo la falsificazione sempre rivedibile. Il teorema solleva quindi limiti epistemologici importanti alla demarcazione netta tra teorie vere e false.