Stroncature Digest #65
Complexity-as-a-service
Stroncature è una piattaforma editoriale che produce approfondimenti che hanno come metodo l’analisi delle conseguenze non intenzionali e promuove la diffusione della conoscenza scientifica prodotta dalle università. Nasce per offrire un’alternativa alla semplificazione che domina il discorso pubblico, proponendo contenuti pensati per ricostruire le connessioni, analizzare le interdipendenze e comprendere gli effetti non visibili dei fenomeni contemporanei. Ogni testo pubblicato è frutto di un lavoro redazionale che privilegia la lentezza, la profondità e il rigore metodologico. Accanto alla produzione di articoli, saggi e report, Stroncature collabora con il mondo accademico per valorizzare i risultati della Ricerca scientifica da loro condotta, contribuendo alla Terza Missione delle università (publica engagement, valorizzazione della ricerca, disseminazione, trasferimento tecnologico…). L’obiettivo è rendere accessibili concetti complessi senza rinunciare alla precisione analitica, facilitando l’incontro tra sapere scientifico, società e sistema produttivo. La piattaforma si rivolge a chi cerca strumenti di comprensione affidabili, capaci di superare le logiche dell’immediatezza e del clickbait. In un ecosistema informativo dominato dalla ripetizione e dalla superficialità e dalla peste dell’Infotainment, Stroncature propone un modello alternativo: contenuti lenti per pensare prima di reagire, analizzare prima di semplificare, comprendere prima di giudicare.
Tutti i contenuti prodotti da Stroncature (seminari, presentazioni, podcast, analisi, rubriche…) a partire dal 2020 sono tutti consultabili sul sito
Analisi & Ricerche
Nuove metriche per la valutazione della disinformazione algoritmica
Con l’aumentare della consapevolezza riguardo al ruolo degli algoritmi nella diffusione di notizie false o fuorvianti, emerge l’esigenza di nuove metriche per valutare e quantificare la disinformazione algoritmica. Tradizionalmente, il fenomeno della disinformazione veniva analizzato in termini di volume di contenuti falsi prodotti o condivisi, oppure attraverso l’impatto sul pubblico misurato tramite sondaggi (percentuale di persone che crede a una certa falsità). Tuttavia, nell’era dei feed personalizzati e dei suggerimenti automatici, è fondamentale capire quanto e come gli algoritmi stessi incidano nell’amplificare o attenuare la circolazione di fake news. Si parla di misurare l’amplificazione algoritmica: ad esempio, se un post contenente disinformazione viene mostrato dall’algoritmo di una piattaforma a un pubblico dieci volte più ampio rispetto a quello che l’avrebbe visto in un flusso puramente cronologico, quell’algoritmo sta conferendo un fattore di amplificazione specifico alla disinformazione. Viceversa, se un meccanismo di ranking penalizza i contenuti valutati come inaffidabili, riducendone la visibilità, si potrebbe parlare di un indice di contenimento algoritmico. Tali metriche quantitative aiuterebbero a oggettivare il dibattito sugli “algoritmi che diffondono bufale”, fornendo dati concreti su quanto una piattaforma stia incidentalmente promuovendo contenuti fallaci.
Intelligenza sistemica
Il mondo non segue una linea retta: capire come funziona davvero la complessità
La teoria della complessità rappresenta un cambio di paradigma epistemologico nelle scienze contemporanee. Il fisico Stephen Hawking predisse che il XXI secolo sarebbe stato “il secolo della complessità”, riconoscendo l’emergere di un nuovo approccio scientifico trasversale. La scienza della complessità studia sistemi composti da un gran numero di elementi interagenti, i quali danno luogo a sorprendenti fenomeni emergenti su più scale. Questa prospettiva transdisciplinare segna una deviazione dal precedente paradigma riduzionista, abbracciando l’incertezza e la necessità di integrare competenze diverse per affrontare sistemi altamente interconnessi. La visione scientifica tradizionale, di impronta cartesiano-newtoniana, ricercava infatti leggi fondamentali semplici e considerava i fenomeni complessi come sommatoria prevedibile delle parti. La teoria della complessità mette in discussione tale impostazione: il comportamento di un sistema complesso non può essere ricondotto linearmente alle proprietà dei singoli componenti, ma emerge dalle loro interazioni non lineari. In altre parole, la capacità di ridurre ogni fenomeno a leggi elementari non implica la capacità di risalire da quelle leggi al funzionamento dell’insieme. Questa consapevolezza ha spinto, a partire dalla fine del XX secolo, allo sviluppo di nuovi quadri teorici e metodologici per studiare i sistemi complessi sia nelle scienze naturali sia in quelle sociali. L’intuizione chiave è che la realtà vada compresa in termini di processi dinamici e interdipendenti, anziché tramite modelli lineari statici incapaci di cogliere comportamenti emergenti e auto-organizzati. Si è aperta così una nuova direzione di ricerca che costituisce il nucleo della svolta epistemologica della complessità.
Seminari & Presentazioni
"Scienza chiara, scienza oscura" di Gianfranco Pacchioni
Lo scorso 30 maggio, Stroncature ha ospitato la presentazione del libro "Scienza chiara, scienza oscura" di Gianfranco Pacchioni (il Mulino, 2025).
Palinsesto
"Autodafé di un esule" di Diego Zandel
Il prossimo 2 luglio alle 16:00, Stroncature ospiterà la presentazione del libro "Autodafé di un esule" di Diego Zandel (Rubettino, 2025). L'opera è una riflessione personale e politica che prende le mosse dal processo – avviato nel 1997 e conclusosi nel 2004 – contro Oskar Piškulić, capo della polizia politica a Fiume nel 1945, accusato di omicidio continuato e aggravato. Figlio di esuli fiumani, Zandel scoprì l’esistenza del processo solo per caso, molti anni dopo, attraverso un amico giudice che gli inviò la sentenza. Quella scoperta dà origine a un viaggio a ritroso nella memoria e nella coscienza dell’autore, che si interroga sul perché di quell’ignoranza: per conformismo? Per opportunismo? Per aver militato in una sinistra che, all’epoca, tendeva a giustificare le foibe e a screditare gli esuli come nostalgici del fascismo? Il libro è il tentativo di colmare quel vuoto, di espiare – come in un autodafé – il silenzio e la distanza tenuta su una pagina oscura della storia italiana e jugoslava. Con una prefazione di Andrea Di Consoli, Zandel offre un’opera intensa e autocritica, che mette in discussione le narrazioni ideologiche e invita a una più onesta rielaborazione del passato. Con l'autore dialogheranno Dario Fertilio e Davide Giacalone. Per partecipare è necessario registrarsi.
Schumpeter è la rubrica di Stroncature dedicata all’osservazione e all’analisi dei principali trend tecnologici e delle tecnologie emergenti. L’obiettivo è comprendere in che modo queste innovazioni possano essere utilizzate per affrontare problemi concreti in ambiti scientifici, produttivi e istituzionali. Le tecnologie analizzate includono, tra le altre, l’intelligenza artificiale, il quantum computing, i sistemi distribuiti, i modelli multimodali e le soluzioni di machine learning avanzato.
Microsistemi intelligenti: principi, applicazioni e reti di sensori distribuiti
I microsistemi intelligenti integrano in un unico dispositivo funzioni elettriche e meccaniche su scala micrometrica o nanometrica. Tali dispositivi, noti come MEMS (sistemi micro-elettro-meccanici) e NEMS (a scala nanometrica), vengono realizzati con processi di microfabbricazione similari a quelli dei semiconduttori. Essi sono in grado di rilevare e attuare fenomeni fisici su scala microscopica producendo effetti percepibili a scala macroscopica, come il controllo di moti meccanici o la misura di grandezze ambientali. Grazie ai progressi nella miniaturizzazione e nell’integrazione, è oggi possibile dispiegare grandi reti di sensori mobili e wireless basati su MEMS, spesso denominate “smart dust”: migliaia di nodi sensoriali autonomi, di dimensioni da qualche millimetro fino a livelli nanometrici, che collaborano per monitorare aree estese. In questo contesto di Internet delle cose esteso, i microsistemi intelligenti diventano componenti fondamentali per il monitoraggio ambientale, urbano e industriale, dove l’unione di sensori miniaturizzati e comunicazione distribuita apre nuovi scenari tecnologici e sociali.