“From Deep Learning to Rational Machines: What the History of Philosophy Can Teach Us about the Future of Artificial Intelligence” Cameron J. Buckner (Oxford University Press, 2024)
Nel dibattito contemporaneo sull’intelligenza artificiale, il successo del deep learning ha prodotto una curiosa distorsione: più la tecnologia appare potente, più le interpretazioni oscillano tra estremi incompatibili. Da un lato, la narrazione dell’“ascesa inevitabile” verso sistemi onniscienti; dall’altro, la liquidazione dell’intero fenomeno come mera statistica su scala industriale, priva di qualunque parentela con l’intelligenza. Cameron J. Buckner prova a sottrarre la discussione a questa polarizzazione proponendo una via diversa: rilegge le ambizioni e i limiti del deep learning alla luce di un’antica controversia filosofica, quella tra empirismo e razionalismo-nativismo, ma lo fa con l’obiettivo di chiarire che cosa, davvero, stiamo misurando quando parliamo di “progressi” in AI. Il libro, pubblicato da Oxford University Press nel 2024, prende sul serio l’idea che i grandi cambiamenti tecnici non siano mai neutrali sul piano concettuale: cambiano il modo in cui descriviamo la mente, ridefiniscono le analogie disponibili, spostano le domande rilevanti. Il punto di partenza, quindi, non è un inventario di risultati, ma un interrogativo più profondo: che cosa insegna la storia delle idee quando una tecnica sembra replicare, almeno in parte, abilità che avevamo considerato distintive della razionalità umana?


