“Superagency: What Could Possibly Go Right with Our AI Future” Reid Hoffman; Greg Beato (Authors Equity, 2025)
In Superagency. What Could Possibly Go Right with Our AI Future (Authors Equity, 2025), Reid Hoffman e Greg Beato propongono di spostare l’asse del dibattito sull’intelligenza artificiale dal lessico dell’allarme a quello dell’orientamento. Il punto di partenza non è la negazione dei rischi, ma l’idea che la posta in gioco reale consista nel modo in cui una società decide di abitare una trasformazione tecnologica che appare già in corso e difficilmente arrestabile. Per gli autori, la domanda decisiva non è “quanto sarà potente l’AI”, ma “che cosa farà alla nostra capacità di scegliere, agire, costruire”: in altri termini, che cosa accadrà all’agenzia umana. La storia delle tecnologie moderne, ricordano, è costellata di paure ricorrenti — dalla stampa ai telai meccanici, dall’automobile ai computer — che spesso hanno sottovalutato la capacità delle società di adattarsi e di incorporare le novità trasformandole in strumenti di vita quotidiana. L’AI, tuttavia, rende questo nodo più esplicito, perché non riguarda solo nuovi mezzi di comunicazione o di produzione, ma l’accesso diffuso a una forma di “intelligenza sintetica” capace di assistere, suggerire, organizzare e, in parte, agire. Da qui l’esigenza di una bussola: un criterio di direzione che non prometta controllo totale del futuro, ma indichi un orientamento praticabile, rivedibile, e soprattutto centrato su ciò che rende desiderabile la tecnologia: la possibilità che aumenti, e non riduca, la libertà concreta delle persone.
Il cuore teorico della proposta è la nozione di “agenzia umana”, intesa come capacità di fissare intenzioni, scegliere fini, e trasformare scelte e fini in azioni efficaci. Gli autori insistono su un punto: molte paure contemporanee sull’AI — perdita di lavoro, disinformazione, erosione della privacy, concentrazione del potere — sono, in ultima analisi, paure sull’agenzia. Se l’automazione riduce le opportunità economiche, si riduce la possibilità di governare la propria vita; se l’informazione diventa inaffidabile o manipolabile, diventa più difficile decidere; se la sorveglianza cresce, si restringe lo spazio dell’autodeterminazione. L’AI introduce inoltre una novità concettuale: non è soltanto uno strumento che “contiene conoscenza”, come un libro o un motore di ricerca, ma può presentarsi come un “agente” che compie sequenze di operazioni per conto di qualcuno, con gradi crescenti di autonomia. Questo fa emergere la questione del rapporto tra agenzia umana e agenzia della macchina: fino a che punto delegare? quando la delega diventa dipendenza? e, soprattutto, chi definisce gli obiettivi, i vincoli, le priorità? La risposta che attraversa il libro è che la tecnologia non va letta come antagonista dell’umanesimo, bensì come una forza che può integrarsi con esso: l’essere umano è descritto come Homo techne, una specie che si definisce anche attraverso i propri strumenti, e che viene a sua volta trasformata da essi. Per questa ragione, il problema non è scegliere tra “umanità” e “tecnica”, ma scegliere quali architetture sociali e quali regole d’uso rendano l’AI un’estensione della volontà individuale, anziché una forza che opera “sugli” individui.
Per chiarire il terreno, gli autori ricostruiscono la dinamica che ha portato l’AI generativa al centro della scena pubblica con il caso ChatGPT, presentato come svolta di accessibilità e di immaginario. Alla fine del 2022, spiegano, il panorama tecnologico era attraversato da crisi e disillusioni (licenziamenti nelle Big Tech, fallimenti nel mondo cripto), e proprio in quel contesto un prodotto rilasciato senza clamore ha prodotto un salto di attenzione: un’interfaccia linguistica che consente a milioni di persone di “parlare con il computer” e ottenere risposte e contenuti su una gamma vastissima di compiti. Gli autori dedicano ampio spazio a spiegare, in modo divulgativo, che cosa sia un grande modello linguistico: una rete neurale addestrata su enormi quantità di testi per prevedere, token dopo token, le sequenze linguistiche più probabili in un contesto dato. Da qui derivano sia la sua versatilità sia i suoi limiti: il modello non “conosce” i fatti come un umano, non ha esperienza del mondo, non possiede un senso comune nel significato ordinario del termine; può produrre risposte convincenti ma false (le “allucinazioni”), può incorporare distorsioni presenti nei dati di addestramento, e può risultare opaco nelle ragioni che lo conducono a una certa conclusione (il problema della “scatola nera”). Questo quadro tecnico non serve agli autori per ridimensionare l’AI, ma per mettere a fuoco la posta politica e culturale: se una tecnologia così imperfetta può già esercitare un impatto di massa, allora la questione è come integrarla in modo responsabile senza pretendere l’impossibile (perfezione e certezza assolute) e senza farsi paralizzare dal rischio. In altre parole, comprendere la natura statistica e probabilistica dei modelli è una condizione per usarli come strumenti di ampliamento dell’azione, e non come oracoli a cui consegnare il giudizio.
Dentro questo scenario nasce una tassonomia che gli autori utilizzano per descrivere il conflitto contemporaneo intorno all’AI: “Doomers”, “Gloomers”, “Zoomers” e “Bloomers”. Non è un esercizio di etichettatura superficiale, ma un modo per distinguere logiche di governo differenti. I Doomers temono che l’evoluzione conduca a sistemi superintelligenti non allineati, fino a rischi esistenziali; i Gloomers contestano sia l’allarmismo “apocalittico” sia l’industria che lo alimenta, e chiedono un controllo forte, top-down, con pause e licenze; gli Zoomers puntano sull’accelerazione e diffidano delle regolazioni preventive, assumendo che l’innovazione produrrà benefici superiori ai costi; i Bloomers, posizione in cui Hoffman si colloca esplicitamente, cercano un equilibrio tra innovazione e responsabilità, ma lo fondano su una premessa specifica: l’accesso diffuso e l’uso reale sono parte della sicurezza, perché generano apprendimento collettivo e adattamento sociale. Questa tassonomia permette agli autori di sviluppare una tesi che ritorna più volte: proibire o congelare la tecnologia non è una strategia stabile, perché la competizione tra attori (aziende, Stati, gruppi) rende difficile una moratoria globale e, soprattutto, perché “rifiutarsi di plasmare il futuro” significa lasciarlo ad altri. Da qui il concetto di “bussola tecno-umanista”: non un piano rigido, ma un criterio dinamico di orientamento che privilegia, tra i possibili sviluppi, quelli che aumentano l’agenzia individuale e collettiva. In questa prospettiva, la domanda politica non diventa “bloccare l’AI”, ma creare condizioni affinché l’AI sia sviluppata e diffusa in modo che le persone possano sperimentarla, valutarla, contestarla e indirizzarla, anziché subirla come infrastruttura imposta.
Il meccanismo operativo con cui gli autori pensano di tradurre la bussola in pratica è l’“iterative deployment”, cioè un rilascio incrementale che combina sperimentazione pubblica, feedback degli utenti, aggiustamenti rapidi e progressiva costruzione di fiducia. L’idea è presentata come alternativa sia all’approccio puramente precauzionale (che chiede garanzie “prima” dell’uso, fino a sospensioni) sia all’approccio libertario dell’innovazione senza vincoli. Nella loro lettura, l’iterazione è tecnologica, perché consente di identificare bug, errori e fallimenti in contesti reali; è regolatoria, perché permette interventi graduali e mirati, invece di norme rigide pensate per un oggetto che cambia di continuo; ed è sociologica, perché lascia tempo a individui e istituzioni per adattarsi, sviluppare competenze, costruire norme condivise. Un punto importante è la distinzione tra tecnologie che agiscono “su” di noi e strumenti che scegliamo di usare “con” e “per” noi: la diffusione dei modelli conversazionali è interpretata come un passaggio in cui l’utente torna al centro, perché deve attivare l’interazione e può definire obiettivi, preferenze, modalità d’uso. In questa cornice, la fiducia non è presentata come atto di fede: è un esito che si costruisce con esposizione, uso, coerenza nel tempo. Ma gli autori aggiungono un livello ulteriore: non basta fidarsi dello strumento, bisogna anche fidarsi degli sviluppatori, dei regolatori e degli altri utenti. Per questo l’iterazione non è solo un metodo di sviluppo software, ma una forma di “apprendimento pubblico” che amplia la conversazione oltre gli esperti e porta nella discussione le esperienze concrete di chi sperimenta l’AI sul lavoro, nello studio, nelle pratiche quotidiane. Il punto, qui, è tipicamente “superagency”: una società in cui l’intelligenza assistita diventa una risorsa diffusa che accresce la capacità media di agire, e non un privilegio concentrato.
Un’ulteriore articolazione del discorso riguarda i limiti strutturali e i rischi dell’AI, non per ribadire allarmi, ma per mostrare che l’orientamento proposto non è ingenuo. Gli autori riconoscono che i modelli possono produrre falsità, che l’addestramento su grandi corpora incorpora bias e scelte umane, e che l’opacità dei processi interni rende difficile spiegare “perché” una risposta emerga in un certo modo. Tuttavia contestano l’idea che questi limiti conducano inevitabilmente a un esito distopico, o che l’unica risposta razionale sia sospendere lo sviluppo. Qui entra un argomento cruciale: la “minaccia esistenziale dello status quo”. Concentrarsi solo sui rischi dell’innovazione può far dimenticare i danni già presenti nei sistemi esistenti — carenze strutturali nell’accesso ai servizi, inefficienze, disuguaglianze, sofferenze che oggi vengono normalizzate perché abituali. In questa logica, la domanda “che cosa potrebbe andare storto?” è incompleta se non si affianca a “che cosa potrebbe andare meglio, e per chi?”. Questo spostamento permette agli autori di sostenere che l’innovazione non è solo produzione di novità, ma anche una strategia di sicurezza: migliorare sistemi, ridurre errori, creare strumenti di verifica e correzione, sviluppare pratiche d’uso e standard che, nel tempo, diminuiscano i rischi e aumentino l’affidabilità. Il punto non è negare l’incertezza, ma trattarla come terreno di lavoro: l’AI è potente proprio perché è plastica e generalista, e per la stessa ragione richiede un’ecologia di controlli, test, incentivi e regole che si evolvano con l’oggetto. La prima parte del libro, così, mette in campo i concetti-chiave che reggeranno l’argomentazione: agenzia umana come criterio di valutazione; accesso diffuso come condizione di apprendimento; iterazione come metodo di governo; e attenzione ai costi del non-fare, cioè alle perdite di possibilità che derivano da un rifiuto meramente difensivo della trasformazione.
Nel capitolo dedicato all’“Informational GPS” gli autori costruiscono una delle analogie più operative dell’intero libro: così come il GPS ha reso praticabile la navigazione in un mondo fisico complesso, l’AI può diventare un dispositivo di orientamento in un mondo informativo diventato, per dimensione e velocità, sostanzialmente inabitabile con gli strumenti tradizionali. La tesi non è che l’AI “sappia tutto”, ma che possa agire come un’interfaccia capace di tradurre la sovrabbondanza di dati in scelte pratiche: filtri, percorsi, priorità, ipotesi, scenari. Il problema che si intende risolvere è la sproporzione crescente tra l’offerta di informazione e la capacità umana di assorbirla, valutarla e collegarla; una sproporzione che produce un paradosso: più informazione disponibile, meno comprensione effettiva e meno controllo sulle decisioni quotidiane. In questa cornice, l’AI viene presentata come strumento di “mappatura” e “instradamento” in ambienti cognitivi: può sintetizzare documenti, confrontare opzioni, individuare contraddizioni, ricostruire catene causali, trasformare una domanda confusa in una sequenza di domande più precise. Ma l’analogia con il GPS è usata anche per far emergere un punto delicato: affidarsi a un sistema di orientamento è comodo e spesso liberatorio, ma comporta dipendenza e rischio di errore. Come il navigatore può portare fuori strada se la mappa è incompleta o l’algoritmo privilegia criteri sbagliati, così un “GPS informazionale” può amplificare distorsioni, guidare verso fonti inaffidabili, consolidare abitudini cognitive pigre. Per questo gli autori insistono su una dimensione educativa e istituzionale: l’AI non deve sostituire il giudizio, deve sostenere il giudizio; non deve trasformarsi in un’autorità, deve diventare un ausilio che rende più accessibile l’esercizio dell’agenzia. L’obiettivo, in definitiva, è spostare la discussione dalla paura di “essere manipolati dalle informazioni” alla costruzione di strumenti che consentano alle persone di navigare attivamente nel rumore, distinguendo tra utilità e distrazione, tra contenuti e propaganda, tra evidenza e semplice plausibilità.
Il capitolo “Law Is Code” amplia l’orizzonte e affronta il tema della governabilità di un ambiente tecnologico in cui il codice non è più confinato allo schermo del computer, ma permea infrastrutture materiali e servizi essenziali. Gli autori riprendono l’idea, resa celebre da Lawrence Lessig, che il comportamento umano sia regolato da un insieme di vincoli che includono leggi, norme sociali, mercati e architetture; e mostrano come, in contesti digitali, l’architettura del sistema possa diventare il vincolo più immediato e potente. Se l’architettura è “codice”, allora il codice non è solo implementazione tecnica: è un dispositivo di governo che abilita e impedisce, incentiva e disincentiva, rende possibili certe scelte e ne rende onerose altre. La riflessione sull’AI si innesta qui: quando sistemi sempre più “agentici” prendono decisioni e compiono azioni che incidono su persone e obblighi, la domanda regolatoria non può essere trattata come un’aggiunta esterna, successiva e burocratica. Deve diventare progettazione: definizione di ruoli, responsabilità, verifiche, audit, criteri di sicurezza, livelli di autonomia consentiti, tracciabilità delle decisioni. Gli autori mostrano come l’evoluzione di internet abbia già trasformato un ambiente inizialmente percepito come anarchico e non governabile in uno spazio in cui identità, autenticazione, centralizzazione e controllo sono cresciuti per ragioni economiche e organizzative; e usano questo percorso per sostenere che anche l’AI può essere governata, ma a patto di riconoscere che “governare” non significa soltanto vietare o permettere, bensì costruire sistemi in cui regole e garanzie siano incorporabili in modo adattivo. Il punto centrale è pragmatico: in un mondo in cui la tecnologia cambia rapidamente, la legge che pretende di definire tutto una volta per tutte rischia di inseguire; la legge che invece stabilisce principi, standard verificabili, obblighi di trasparenza e responsabilità, e incentiva la sperimentazione controllata, può orientare lo sviluppo senza soffocarlo. In questa prospettiva, la questione non è se l’AI debba essere regolata, ma quale forma di regolazione aumenti davvero l’agenzia: una regolazione che distribuisce fiducia e capacità di controllo agli utenti e alle istituzioni democratiche, o una regolazione che, per paura, finisce per consegnare il campo a pochi attori in grado di sostenere costi e complessità.
Con “Networked Autonomy” gli autori tornano a una lezione storica che considerano decisiva: molte libertà moderne non sono nate dall’assenza di vincoli, ma da vincoli condivisi che hanno reso possibile la scalabilità di una tecnologia. L’automobile è l’esempio guida: la mobilità individuale si è affermata come ampliamento radicale dell’agenzia solo quando si sono costruite infrastrutture e regole (patenti, segnaletica, standard stradali, limiti, controlli) che hanno ridotto l’imprevedibilità e reso più sicura la circolazione. In altre parole, la libertà di muoversi “come si vuole” non coincide con il caos; al contrario, un minimo comune denominatore di regole rende la libertà praticabile per molti, non solo per i più forti o i più abili. Applicata all’AI, questa idea diventa una tesi controintuitiva: alcune restrizioni possono essere liberanti, perché rendono l’uso diffuso sostenibile. Se l’AI deve diventare un’infrastruttura cognitiva accessibile a miliardi di persone, allora deve essere affidabile a sufficienza, deve ridurre i danni sistemici, deve rendere comprensibili gli errori, deve offrire rimedi. Gli autori discutono così la tensione tra autonomia individuale e ottimizzazione di sistema: in un futuro fatto di reti di agenti, assistenti personali e servizi automatizzati, molte scelte saranno “incanalate” da logiche di sicurezza, efficienza e coordinamento. Ciò potrebbe apparire come perdita di libertà, ma può anche significare aumento di libertà reale se riduce costi cognitivi, tempi morti, frizioni e rischi. Il punto è chi decide gli obiettivi dell’ottimizzazione e con quali garanzie: un sistema che limita la scelta per proteggere la sicurezza collettiva può essere accettabile, mentre un sistema che limita la scelta per estrarre rendita o manipolare preferenze erode la superagency. Da qui l’importanza, sottolineata dagli autori, di costruire un’ecologia di controlli che includa non solo norme pubbliche, ma anche concorrenza, possibilità di uscita (cambiare servizio), interoperabilità, e strumenti che permettano alle persone di comprendere e modulare la delega agli agenti. La “networked autonomy” non è dunque autonomia isolata: è autonomia dentro reti, resa possibile da regole che impediscano alle reti di trasformarsi in gabbie.
Nel capitolo “The United States of A(I)merica” l’argomentazione si sposta sul piano politico-culturale e usa episodi storici per descrivere due atteggiamenti opposti verso il cambiamento tecnologico: la paura che difende lo status quo e la spinta esplorativa che accetta rischio e incertezza per ottenere nuove possibilità. La storia dei Luddisti, citata come paradigma di reazione distruttiva di fronte a trasformazioni economiche e produttive, serve a mostrare che la tecnofobia può essere compresa nelle sue ragioni sociali (insicurezza, perdita di reddito, squilibri di potere), ma raramente produce esiti desiderabili: spesso ritarda l’inevitabile senza costruire alternative e finisce per essere repressa o assorbita. La vicenda del Donner Party, richiamata come immagine ambivalente dell’esplorazione americana, introduce l’idea che la spinta a “andare oltre” porta con sé rischi reali e talvolta tragedie, ma ha anche alimentato capacità di adattamento e di reinvenzione. Gli autori utilizzano questi riferimenti per sostenere che la sfida dell’AI non sarà vinta da una società che si limita a vietare e temere, ma da una società capace di sperimentare e correggere, distribuendo i benefici e riducendo i costi. Dentro questa cornice emerge un tema di competizione e leadership: chi sviluppa e diffonde per primo le tecnologie stabilisce standard, infrastrutture, dipendenze, e quindi influenza la forma concreta dell’agenzia altrui. La preoccupazione, implicitamente, è che un eccesso di paralisi regolatoria o culturale produca un esito paradossale: nel tentativo di “proteggersi”, una società rinuncia a plasmare la tecnologia e finisce per importarne modelli, piattaforme e regole da altrove. Il messaggio, coerente con l’impostazione “bloomers”, non è un invito all’accelerazione indiscriminata, ma a un pragmatismo pro-innovazione con controllo democratico: investire, adottare, imparare, creare competenze diffuse, costruire regole adattive. In questo passaggio del libro la “superagency” assume anche un significato collettivo: non soltanto empowerment individuale tramite strumenti, ma capacità di una comunità politica di non subire un cambiamento che altri definiscono, e di trasformarlo invece in un bene pubblico, o almeno in un bene ampiamente accessibile.
“You Can Get There from Here” riprende i principi emersi e li ricompone in una sorta di programma di marcia: progettare per l’agenzia umana; considerare dati e conoscenza condivisi come catalizzatori di empowerment e non come dispositivi di controllo; concepire innovazione e sicurezza come forze sinergiche; puntare su un’adozione diffusa che produca effetti cumulativi, come accadde con automobile e smartphone. Gli autori insistono su una sensazione storica: l’AI riapre territori “non mappati” e, proprio per questo, induce ansia e desiderio di certezze; ma le certezze complete non sono disponibili, e attendere una teoria definitiva del futuro significa rinunciare alla possibilità di orientarlo. Da qui la difesa di un approccio esplorativo e adattivo: provare, misurare, correggere, e soprattutto permettere a molti di partecipare all’apprendimento, anziché confinare l’AI a laboratori, grandi aziende o élite tecniche. Un passaggio importante riguarda l’idea di “portafoglio” di rischi: gli autori invitano a non isolare l’AI come rischio unico e assoluto, ma a considerarla anche come risorsa strategica per affrontare rischi esistenziali già presenti (conflitti, clima, pandemie, scarsità). In questo modo la prudenza non coincide con immobilismo: gestire il rischio significa anche sviluppare capacità di risposta. L’iterative deployment, qui, viene presentato non come giustificazione per rilasci irresponsabili, ma come condizione per costruire strumenti più robusti e inclusivi: senza uso reale non c’è evidenza sufficiente, e senza evidenza la regolazione rischia di essere simbolica o mal calibrata. Il capitolo, inoltre, rafforza l’idea che mercati e regolatori possano cooperare in un quadro democratico: i mercati diffondono soluzioni e creano competizione, i regolatori fissano cornici, standard e responsabilità, la società civile e gli utenti producono feedback e pressione. La promessa, in ultima istanza, è che la superagency non sia un evento improvviso, ma un processo: una sequenza di aggiustamenti tecnologici, istituzionali e culturali che rende l’AI un’infrastruttura di opportunità, anziché un acceleratore di disuguaglianze o un amplificatore di vulnerabilità.
Ricomponendo l’intero quadro, Superagency propone una visione in cui l’AI non è né salvezza né rovina, ma un moltiplicatore di capacità la cui direzione dipende da scelte progettuali e politiche. La tesi centrale è che la domanda corretta non sia “se l’AI sarà buona o cattiva”, ma “quali condizioni rendono probabile un aumento dell’agenzia umana”. Questa impostazione consente agli autori di tenere insieme, senza contraddizione, due idee: l’AI porta rischi seri e va governata; e la governance efficace non coincide con il congelamento, bensì con una combinazione di accesso diffuso, standard verificabili, responsabilità chiare, e correzioni iterative. La metafora del GPS chiarisce l’ambizione: rendere la complessità navigabile, cioè trasformare un ambiente di informazioni e possibilità eccessive in un campo di scelte pratiche e comprensibili. La riflessione su legge e codice chiarisce il metodo: incorporare garanzie nelle architetture, perché le architetture regolano già il comportamento, e ignorarlo significa lasciare che il governo della tecnologia avvenga per default, secondo incentivi non discussi. La lezione sulla “networked autonomy” chiarisce il punto politico: la libertà che conta, su scala sociale, richiede infrastrutture e regole condivise; senza, vince la forza, non l’agenzia. E la digressione sul carattere esplorativo di certe culture politiche chiarisce l’urgenza: se non si partecipa alla costruzione, si finisce per adottare soluzioni costruite da altri, con altre priorità. Le implicazioni future, nella visione degli autori, sono quindi doppie. Sul piano pratico, l’AI può diventare un amplificatore di competenze e opportunità quotidiane, riducendo barriere d’accesso a conoscenza, strumenti e creatività; ma ciò richiede attenzione sistematica a bias, affidabilità, trasparenza, e a un’allocazione non oligarchica dei benefici. Sul piano teorico, il libro suggerisce che la modernità tecnologica sta entrando in una fase in cui “intelligenza” e “azione” diventano sempre più distribuibili: per questo serve un nuovo lessico dell’agenzia, capace di distinguere tra delega che libera e delega che imprigiona, tra automazione che riduce fatica e automazione che riduce possibilità di scelta. La superagency, così, non è un ottimismo generico: è un criterio di direzione che misura il progresso non in potenza computazionale, ma in capacità umana effettiva di decidere e vivere meglio.
Sintesi finale
Il libro sostiene che l’intelligenza artificiale vada compresa anzitutto come un moltiplicatore di capacità, e non come un destino già scritto che inevitabilmente ci travolgerà in una direzione unica. Per Hoffman e Beato il punto decisivo non è stabilire se l’AI sarà “buona” o “cattiva” in astratto, ma capire se, nelle forme concrete che assumerà, accrescerà oppure ridurrà l’agenzia umana, cioè la possibilità effettiva di scegliere, decidere e trasformare le intenzioni in azioni. Da qui la proposta di una bussola tecno-umanista: valutare tecnologie, politiche e modelli di governance in base a quanto rendano le persone più autonome, competenti e capaci di orientarsi in contesti complessi. In questa prospettiva l’accesso diffuso all’AI non è una concessione secondaria, ma una componente della sicurezza stessa, perché permette un apprendimento collettivo, fa emergere difetti e abusi in condizioni reali e produce evidenze utili a correggere, normare e migliorare. Il principio operativo che ne deriva è l’iterative deployment: rilasci graduali, osservazione degli effetti, feedback degli utenti, correzioni rapide e standard che evolvono insieme alla tecnologia. Una delle metafore centrali, quella del “GPS informazionale”, chiarisce l’ambizione: rendere navigabile la sovrabbondanza di dati traducendola in percorsi decisionali pratici, senza trasformare l’assistente in un’autorità sostitutiva del giudizio, perché errori, distorsioni e falsità plausibili restano possibili e vanno gestiti con competenze e controlli. Il libro insiste inoltre sul fatto che l’architettura tecnica regola il comportamento: quando il codice diventa una forma di legge, la governance non può limitarsi a proibire o autorizzare dall’esterno, ma deve entrare nella progettazione attraverso responsabilità chiare, audit, tracciabilità e limiti di autonomia che rendano sostenibile l’uso di massa. La lezione storica dell’automobile viene usata per mostrare che alcune restrizioni condivise possono essere liberanti, perché rendono la libertà scalabile e più sicura: applicata all’AI, questa idea aiuta a distinguere tra delega che amplia le possibilità e delega che crea dipendenza o controllo. Sul piano politico gli autori criticano la paralisi precauzionale: rinunciare a plasmare la tecnologia significa spesso lasciarla definire da altri attori, con priorità non negoziate pubblicamente. L’innovazione, inoltre, è trattata anche come strumento di sicurezza, perché può contribuire ad affrontare minacce già presenti — dal clima alle pandemie ai conflitti — e perciò i rischi dell’AI vanno letti dentro un portafoglio di rischi in cui l’AI può essere anche risorsa di mitigazione. La “superagency” viene descritta come un processo cumulativo, simile a quanto avvenuto con smartphone e reti digitali: uso diffuso, adattamento, sviluppo di nuove norme e infrastrutture. Perché questo processo produca benefici, servono condizioni di contesto: concorrenza, interoperabilità, possibilità di scelta e controllo democratico sulle infrastrutture. Il libro rifiuta tanto l’accelerazione irresponsabile quanto il congelamento, proponendo un pragmatismo che combina sperimentazione e vincoli verificabili. La tesi conclusiva è che l’AI potrà diventare un bene ampiamente condiviso oppure un privilegio concentrato a seconda di incentivi, regole e architetture; il criterio per decidere non è la potenza del modello, ma l’impatto sulle opportunità di vita e sulla capacità di autodeterminazione. In questa prospettiva il futuro dell’AI dipende da scelte collettive che la trasformino in un’infrastruttura di libertà concreta: un ampliamento dell’azione umana, non una forza che agisce al posto nostro.
Scheda metadati
Autore: Reid Hoffman; Greg Beato
Titolo in originale: “Superagency: What Could Possibly Go Right with Our AI Future”
Casa editrice: Authors Equity
Anno di pubblicazione: 2025
Categoria: Società, politica e comunicazione


