“Agents in the Long Game of AI” di McShane, Nirenburg, English (The MIT Press, 2024)
“In Agents in the Long Game of AI. Computational Cognitive Modeling for Trustworthy, Hybrid AI” (The MIT Press, 2024), Marjorie McShane, Sergei Nirenburg e Jesse English mettono a fuoco una questione che attraversa ormai ogni discussione pubblica e professionale sull’intelligenza artificiale: che cosa significa, oggi, poter “fidarsi” di un sistema che prende decisioni, formula raccomandazioni, interpreta linguaggio e segnali, e interagisce con le persone in contesti dove l’errore non è un semplice inconveniente ma un rischio. Il libro nasce dentro questa tensione: da un lato, la potenza dei metodi data-driven e l’impressione, spesso alimentata dalla qualità superficiale delle risposte, che alcuni problemi siano “risolti”; dall’altro, la difficoltà di trasformare prestazioni statistiche in competenza funzionale, e soprattutto in condotte verificabili, spiegabili, correggibili. La prospettiva proposta non consiste nel rigettare l’apprendimento automatico, ma nel chiedere quali componenti manchino perché un agente artificiale possa operare come partner affidabile, capace di rendere trasparenti i passaggi che lo portano a una scelta, di dichiarare quando sta andando oltre le proprie certezze e di apprendere in modo cumulativo. È in questo spazio—tra promessa tecnologica e responsabilità operativa—che gli autori collocano la loro scommessa: trattare l’IA come un “gioco lungo”, dove la fiducia non è un’etichetta ma un esito che deriva da architettura, rappresentazioni, conoscenza e metodi di sviluppo.


