L’errore come condizione della conoscenza
La conoscenza scientifica, nella sua tradizione più consolidata, è stata spesso rappresentata come un processo cumulativo e progressivo, in cui l’osservazione, l’esperimento e la verifica conducono a una maggiore aderenza della teoria alla realtà. Tuttavia, nel corso del Novecento, questa immagine si è progressivamente incrinata, lasciando spazio a visioni più articolate, fondate sull’incertezza, sulla fallibilità e sulla struttura aperta delle teorie. Tra i contributi che hanno maggiormente inciso su questa trasformazione epistemologica, quello di Karl Popper assume un rilievo centrale. Al cuore del suo pensiero vi è un assunto tanto semplice quanto radicale: non si conosce per conferma, ma per errore. La scienza non progredisce attraverso la verifica, bensì attraverso la confutazione. E questa logica dell’errore, applicata ai sistemi sociali e politici, consente di costruire un modello di razionalità che si fonda sulla capacità di apprendere dall’imprevisto.
Nella prospettiva di Popper, ogni teoria è un’ipotesi provvisoria, destinata a essere sottoposta a controllo critico e a falsificazione. Nessuna affermazione può mai essere dimostrata in modo definitivo, ma solo sottoposta a tentativi di smentita. Questo principio metodologico, pensato originariamente per distinguere le teorie scientifiche dalle pseudo-teorie non falsificabili, ha un impatto diretto anche sulla comprensione dei fenomeni sociali. Le società, come i sistemi scientifici, non sono ambienti stabili, chiusi o perfettamente prevedibili. Sono sistemi aperti, in cui le azioni umane producono effetti che sfuggono spesso al controllo degli attori e delle istituzioni. L’errore, in questo contesto, non è una deviazione occasionale, ma una condizione strutturale dell’agire.
La nozione di “conseguenza non intenzionale” è il punto di contatto più evidente tra l’epistemologia di Popper e l’intelligenza sistemica. In un sistema complesso, ogni decisione – anche la più razionale e fondata – può produrre esiti imprevisti. Ciò non dipende necessariamente da carenze di informazione o da errori di calcolo, ma dalla natura stessa del contesto: le variabili in gioco non sono isolate, ma interdipendenti; le retroazioni sono frequenti; l’ambiente reagisce. Popper ha insistito su questo punto: in una società aperta, le istituzioni devono essere costruite in modo da poter apprendere dalle proprie conseguenze, non da difendere i propri presupposti. La riforma sociale, per essere razionale, deve essere frammentaria, sperimentale, reversibile, e continuamente sottoposta a valutazione critica.
Un esempio efficace di questa impostazione si può osservare nelle politiche economiche orientate alla stabilizzazione. L’introduzione di un controllo dei prezzi, pensato per calmierare l’inflazione e proteggere il potere d’acquisto, può generare penuria di beni, mercato nero e disincentivi alla produzione. L’intenzione era contenere un fenomeno dannoso; il risultato è un sistema ancora più fragile. Questo scarto tra previsione e conseguenza non è imputabile a una cattiva esecuzione, ma al fatto che l’intervento è avvenuto in un sistema caratterizzato da interazioni molteplici, da adattamenti strategici e da dinamiche cumulative. Come direbbe Popper, ciò che si apprende da questo errore non è che il controllo dei prezzi sia sempre sbagliato, ma che la sua efficacia dipende dalle condizioni sistemiche, e che ogni intervento deve essere pensato come ipotesi falsificabile.
In questo quadro, l’intelligenza sistemica diventa uno strumento analitico necessario per costruire istituzioni e politiche capaci di apprendere. Essa assume che le decisioni pubbliche debbano essere accompagnate da meccanismi di feedback, da criteri di revisione, da strumenti di valutazione non meramente ex post ma in grado di orientare l’agire futuro. In altre parole, la razionalità politica, nella visione popperiana, non è la capacità di prevedere tutto, ma la disponibilità a correggere sulla base degli effetti osservati. L’errore non è un fallimento, ma una fonte di informazione. Il problema non è evitare gli imprevisti, ma costruire sistemi che siano in grado di reagire in modo riflessivo e non automatico.
Un’ulteriore implicazione di questa impostazione riguarda la relazione tra teoria e pratica. Se l’agire è inevitabilmente esposto all’errore, allora anche il sapere che lo guida deve essere progettato come fallibile. Questo vale per l’economia, per la sociologia, per le scienze della politica. Le teorie che pretendono di fornire modelli definitivi o predittivi rischiano di irrigidire la comprensione e di alimentare illusioni di controllo. L’intelligenza sistemica, ispirata alla filosofia della scienza di Popper, propone invece una conoscenza aperta, che lavora su ipotesi, che si adatta agli scenari, che è disposta a mettere in discussione le proprie assunzioni.
Questo approccio non ha solo una valenza metodologica, ma anche etica e istituzionale. Una società capace di riconoscere l’errore come condizione della conoscenza è una società che non sacralizza le proprie ideologie, che non teme il dissenso, che non si irrigidisce nella difesa di modelli falliti. È una società aperta nel senso più profondo del termine: aperta alla critica, al cambiamento, alla revisione. Ed è questa apertura, più che la perfezione dei progetti iniziali, che permette di affrontare la complessità del presente.
In sintesi, Popper ci insegna che la razionalità autentica non consiste nel disegnare sistemi perfetti, ma nel costruire condizioni in cui l’errore non sia distruttivo, bensì fonte di apprendimento. L’intelligenza sistemica fa propria questa lezione e la applica ai fenomeni economici, politici e sociali. In un mondo in cui la realtà non reagisce come previsto, l’unica forma sostenibile di conoscenza è quella che si nutre del confronto continuo con l’imprevisto.