Giovanni Perazzoli
Ho chiesto all’intelligenza artificiale ChatGPT di scrivermi un articolo da intellettuali sull’intelligenza artificiale.
GPT ha subito attinto alla retorica del futuro apocalittico. Ha sparso il breve testo di parole trigger in grado di innescare quella certa reazione emotiva, che nel nostro caso è generata da sentimenti di appartenenza politica e valoriale. In breve, mi ha messo in guardia dai pericoli della “tecnica”, dal “controllo delle volontà” da parte del “potere” e degli “interessi commerciali”, prospettandomi una versione estrema della “mercificazione” delle menti in un futuro nel quale saranno “i pochi a controllare i molti”; ha quindi concluso profetizzando un mondo di “alienazione” perché, cito, “le connessioni reali e significative rischiano di essere sostituite da relazioni superficiali e virtuali”. In pochi secondi ha redatto quello che, in modo fumoso, ritrovo nei saggi di tanti intellettuali “in carne ed ossa”.
Se avessi posto la mia domanda in modo leggermente diverso, avrebbe dato una risposta diversa. La macchina riesce dunque a profilare un certo genere letterario politico (perché di questo si tratta) partendo dalla relazione semantica tra le parole e da una certa ricorrenza statistica. Al “pensiero critico” non piace l’intelligenza artificiale, ma di fatto la lotta contro l’Algoritmo è riprodotta fedelmente dall’Algoritmo.
È interessante notare almeno due punti.
Il primo è che la riproduzione di un genere letterario non è solo un’attività meccanica per la macchina, è un’attività meccanica anche per molti autori. Del resto, qualora non vi fosse una componente meccanica alla base, la macchina non potrebbe riprodurre questi discorsi.
Il secondo punto, è che le proposizioni prodotte meccanicamente dalla macchina o da tanti autori sono fortemente autoreferenziali. Nel caso visto sopra non individuano pericoli reali (o irreali) ai quali ci esporrebbe l’intelligenza artificiale. Infatti, il testo non si basa su una qualche premessa scientifica, ma riflette un genere letterario, una visione identitaria.
Per capire meglio chiedo a GPT che cosa scriverebbero del consumismo un intellettuale di sinistra e uno di destra. GPT risponde che l’intellettuale di sinistra sosterrebbe che “il consumismo, nella sua forma attuale, rappresenta una trappola che ci imprigiona nell'alienazione individuale, nell'ingiustizia sociale e nell'esaurimento delle risorse”. L’intellettuale di destra, invece, direbbe che “il consumismo, nella sua essenza, rappresenta una perversione dell'individualismo e una minaccia alla nostra cultura, da cui ci si salva solo attraverso un ritorno ai valori tradizionali. Dobbiamo sradicare l'egualitarismo consumista e abbracciare la diversità e la gerarchia naturale che sono i pilastri di una società equilibrata e sana”.
Anche qui la profilazione ideologica è riuscita molto bene. Lo stesso accade con questioni più difficili. Chiedo a GPT che cosa potrebbe dire della scienza un intellettuale fedele a qualche culto religioso. GPT risponde: dirà che “lo scientismo, o la fede incondizionata nella scienza come unica fonte di conoscenza, è una tendenza preoccupante che nega la complessità e la ricchezza della condizione umana”. Effettivamente, è l’argomento centrale di molte opere di un certo genere filosofico letterario (e, come già detto, la questione non riguarda la più o meno fondatezza o l’infondatezza di queste e altre tesi, la simpatia o l’antipatia che esse generano).
A questo punto però si capisce che la domanda sulla sostituibilità dell’intelletto da parte della macchina è stata posta male. L’ipotesi inverte la conclusione più logica. La questione, infatti, non è il “pericolo” che l’intelligenza artificiale possa sostituirsi all’originalità e all’autonomia del “pensiero”, ma se in generale originalità e autonomia ci siano.
E sì, originalità e autonomia ci sono, ma non sempre. L’intelligenza artificiale non minaccia affatto il pensiero libero, ma mostra che per scrivere dei testi in linea con qualche genere letterario, basta addestrarsi un po’. Il telefono cellulare non è più creativo di tanti autori, spesso, però, scrive meglio.
L’automatismo narrativo del “genere letterario di massa” procede in modo autoreferenziale, arrivando alla validazione dei propri asserti attraverso il riconoscimento identitario del pubblico a cui è rivolto. Ingloba idee morali, valori e soprattutto molti alibi. La relazione semantica tra le parole può dar vita a discorsi del tutto meccanici, ma cionondimeno profondamente sentiti.
Siamo in un altro mondo rispetto all’indagine scientifica. Un’indagine scientifica, infatti, deve mettere insieme dati e criteri – a loro volta rivedibili nel tempo – per valutare i fenomeni. Non prevede, in linea di principio, la costruzione di un’ideologia o una difesa ideologica, o la corrispondenza con i propri valori e con la propria costruzione ideale del mondo.
L’intelligenza artificiale non può creare il pensiero del futuro, il nuovo Spinoza, il nuovo Proust. Ma sono riproducibili gli argomenti, lo stile di scrittura e le finalità degli abitanti delle isole ideologiche della cultura di massa. Qualcuno potrebbe dire che questo fenomeno sia comunque “cultura”, ma non lo direbbe nel senso di Jacob Burckhardt, per il quale la cultura è la sola difesa dalle grandi potenze autoritarie della storia. Del resto, la ripetitività di queste narrazioni è in sé stessa una forma di autoritarismo, che poggia, alla fine, anche su una qualche auctoritas.
L’intelligenza artificiale ci dice dunque qualcosa sulla cultura di massa, che riguarda anche quello stesso “pensiero critico” che vorrebbe trovarsi fuori dall’Algoritmo. In effetti, la “critica”, nel senso pieno del termine, è effettivamente un’altra cosa. Implica la capacità di valutazione dell’individuale, ovvero dei documenti, dei fenomeni sociali e storici.
Ho chiesto a GPT che cosa ne pensasse. Mi ha risposto che “gli intellettuali, invece di promuovere idee rivoluzionarie e sfidare il pensiero convenzionale, hanno preferito cercare soluzioni che confermassero le loro credenze e i loro pregiudizi preesistenti. Ciò ha portato allo sviluppo di algoritmi e modelli di intelligenza artificiale che riflettono gli stessi limiti e le stesse prospettive degli intellettuali che li hanno creati”.
Ho chiesto allora a GPT di dirmi di più su come riesca a riprodurre le proposizioni e le tesi di intellettuali di vari orientamenti. La risposta è stata: l’addestramento. In modo più dettagliato: “la ragione per cui le risposte possono sembrare simili a quelle degli intellettuali è che GPT è stato addestrato su una vasta gamma di testi scritti da autori umani, tra cui articoli accademici, libri, articoli di notizie e altro ancora”.
Dunque, la statistica sulla quale ti basi – le chiedo – non funzionerebbe senza presupporre che sia possibile ridurre la massa degli articoli e dei libri a un materiale standardizzato. GPT risponde: “L'addestramento di modelli di linguaggio AI come il mio si basa su questo principio. Durante l'addestramento, vengono utilizzati testi scritti da esseri umani per insegnare al modello i modelli linguistici, le strutture grammaticali e le relazioni semantiche tra le parole. Questo consente al modello di generare risposte coerenti e appropriate alle domande in base alle informazioni che ha appreso dai dati di addestramento”.
Ma appunto, il fatto che alcune narrazioni ripetute siano dotate di un certo “senso” e, soprattutto, di un certo con-senso, non significa affatto che siano descrizioni che resisterebbero a una critica minimamente seria.
In ultima analisi, la macchina informatica ha fatto emergere una realtà che è sempre esistita. Abbiamo continuamente a che fare, per così dire, con forme di “intelligenza artificiale”, anche senza la macchina. Testi standardizzati presuppongono autori addestrati. Il punto interessante è che noi stessi produciamo (spesso, molto spesso, qualche volta, in contesti di scrittura professionale, in parte grande o piccola) dei discorsi che hanno un significato ma che, ad un’analisi disincantata, posso rivelarsi inconsistenti: una combinazione di stringhe e di frammenti di narrative identitarie, teorie alla moda, assunti ideologici ecc. Il problema di queste ideologie o mezze filosofie o punti di vista è che non accettano quasi mai di mettersi in discussione con dei criteri di verifica di carattere scientifico.
Alcuni programmatori burloni hanno dato vita a un dibattito filosofico di tutto rispetto tra Werner Herzog e Slavoj Žižek che è stato generato per intero dalla Intelligenza artificiale. Il dibattito dura da anni senza sosta: la produzione di “titoli” più imponente che la storia ricordi.