L’intelligenza artificiale non è un robot: è un potere dentro i processi
Perché l’AI Act parla di rischi, dati e controllo umano più che di “tecnologia”, e cosa cambia davvero per persone e organizzazioni
Lo scorso 18 novembre Stroncature, insieme all’Università di Milano-Bicocca, ha ospitato il seminario “AI ACT – normativa e compliance”, articolato in tre sessioni. La prima, “L’AI Act: nuovo regolamento europeo sull’Intelligenza Artificiale”, è stata introdotta dalla prof.ssa Camilla Buzzacchi, direttrice del Dipartimento di Scienze Economico-Aziendali e Diritto per l’Economia (Di.SEA.DE) e dell’Osservatorio DIPAB. L’avv. Giuseppe Massimo Cannella ha poi ricostruito l’impianto del nuovo regolamento: le novità principali, gli obblighi per gli operatori economici, e le ricadute organizzative che enti e imprese si troveranno a gestire. L’iniziativa si inserisce nella partnership per la terza missione tra Stroncature e il Dipartimento Di.SEA.DE dell’Università di Milano-Bicocca.
Per capire perché l’Europa intervenga con un regolamento, l’avv. Giuseppe Massimo Cannella propone di partire da un’immagine semplice. Fino a pochi anni fa una fotografia era, quasi per definizione, una prova: fissava un fatto e lo rendeva difficile da contestare. Oggi quella sicurezza si incrina, perché la verosimiglianza non è più garanzia di verità: un’immagine può essere costruita in modo impeccabile e risultare persino più persuasiva del reale. Viene usato questo passaggio come spia di qualcosa di più grande: cambia la percezione, cambiano le relazioni, cambia il modo in cui diamo credito a ciò che vediamo, dentro e fuori un tribunale. Non è solo tecnica: è fiducia, responsabilità, potere. Ed è in questo spazio che il diritto europeo sceglie di entrare.
C’è poi un punto che spesso sfugge, e che il relatore ha rimesso al centro: l’intelligenza artificiale non va cercata in un oggetto fantascientifico, ma nei processi ordinari. Molti sistemi predittivi e di supporto decisionale sono già dentro servizi e organizzazioni, dalla diagnostica alla gestione di prodotti e servizi, fino alle scelte aziendali che puntano a comprimere tempi e passaggi “umani”. L’algoritmo fa questo: accelera, in pochi secondi, operazioni che per noi richiederebbero ore. È un vantaggio evidente, ma proprio perché entra nel funzionamento delle cose pone subito una domanda di limite: dove finisce l’efficienza e dove cominciano diritti, dignità, libertà.
L’Europa ha scelto di partire da una definizione larga. Cannella richiama l’articolo 3: un sistema automatizzato, con autonomia variabile, capace di adattarsi anche dopo la messa in circolazione, che trasforma input in output — previsioni, contenuti, raccomandazioni, decisioni — con effetti su ambienti fisici e virtuali. È una formula volutamente generale, perché il diritto, se si lega troppo a una tecnologia specifica, invecchia in fretta. Qui l’obiettivo non è “descrivere la macchina”, ma fissare un perimetro e governare gli effetti.
Dentro questo perimetro, la distinzione più utile resta quella tra due famiglie. Da una parte l’IA generativa, che produce testi e immagini “nuovi” e porta con sé un problema classico: la risposta può essere sbagliata, o addirittura inventata, pur suonando plausibile. Nel seminario viene ricordato, con un certo senso del limite, che anche in ambito legale sono circolati atti con errori gravi fino a riferimenti giurisprudenziali inesistenti. Dall’altra l’IA predittiva, che stima e suggerisce: la troviamo nei sistemi di raccomandazione e in applicazioni che supportano refertazioni e diagnosi. Cambia la forma dell’output, non la domanda di fondo: chi risponde, quando l’output pesa su decisioni reali?
Il punto più delicato, però, non è l’errore in quanto tale. Il rischio più alto è la capacità di spostare la percezione. Nei social, per esempio, sistemi predittivi e generativi possono combinare dati su relazioni, contesto, preferenze e restituire una realtà “su misura”, fino a incidere sul modo in cui ciascuno si vede e vede il mondo. Se quelle dinamiche diventano opache — o peggio, intenzionalmente manipolative — la conseguenza non è solo individuale: può toccare i meccanismi stessi della deliberazione pubblica. È per questo che, quando entra in gioco la compressione di diritti fondamentali, l’intervento normativo non è un capriccio ma una necessità.
A rendere la materia ancora più sensibile c’è la benzina dell’IA: i dati. Da un lato esistono regole che proteggono riservatezza e anche interessi economici (proprietà intellettuale e industriale); dall’altro, senza dati che circolano, si connettono e si “parlano”, i sistemi perdono efficacia. Il seminario ricorre a un esempio volutamente quotidiano: molti servizi percepiti come gratuiti — la messaggistica in testa — in realtà si pagano cedendo informazioni. È qui che la tecnologia smette di essere soltanto tecnica e diventa politica dell’economia: scambio di valore, asimmetria informativa, potere di profilazione.
Il fascicolo sanitario rende questa tensione più facile da vedere. L’interconnessione europea dei dati può essere un vantaggio immediato: se ti trovi all’estero, un ospedale potrebbe accedere a informazioni utili per curarti meglio e più rapidamente. Ma proprio perché quei dati “servono per tante cose” emerge l’uso secondario: non solo cura, anche policy pubbliche, governance, scelte di allocazione e bilancio. Nel confronto istituzionale richiamato durante l’incontro, la domanda resta semplice e un po’ scomoda: quanto siamo disposti ad accettare che dati altamente personali — anche genetici — diventino materia di elaborazione? Strumenti come anonimizzazione, pseudonimizzazione e perfino il “dato sintetico” vengono evocati come tentativi di tenere insieme utilità e tutela, senza far saltare l’una o l’altra.
Questa frizione alimenta un ecosistema normativo a strati. Nel racconto del seminario, il Data Act si lega all’idea di portabilità e trasferibilità dei dati come leva di concorrenza: evitare rendite di posizione e rendere contendibile un mercato in cui i dati sono ormai un asset patrimoniale, pesato anche nelle due diligence. Il GDPR, al contrario, viene richiamato come presidio: un dato conferito per una finalità non si riusa automaticamente per altre, salvo condizioni e consensi. Sopra, e di lato, si innestano le regole di sicurezza e resilienza: obblighi onerosi, per pubblico e privato, di difendere i sistemi e ripristinarli rapidamente dopo un attacco, ragionando in termini di continuità operativa.
È in questo scenario che si colloca l’AI Act con la sua scelta più riconoscibile: l’approccio basato sul rischio. Cannella descrive una scala che va dalle pratiche ritenute inaccettabili (e quindi vietate) a quelle ad alto rischio (ammesse, ma con vincoli stringenti), fino ai casi in cui prevale la trasparenza — sapere quando si interagisce con un sistema di IA e che tipo di output si sta ricevendo — e agli usi a rischio basso, dove l’intervento è più leggero. Nel seminario vengono richiamati esempi netti di inaccettabilità: tecniche subliminali, identificazione biometrica remota, rilevamento delle emozioni sul luogo di lavoro. Ma il passaggio più operativo è un altro: l’IA è già dentro strumenti e processi, e spesso le organizzazioni non hanno nemmeno fatto il censimento di ciò che stanno usando.
Quando il rischio è alto, cambia il modo di stare sul tema. Gli obblighi elencati nel seminario non sono un elenco burocratico, ma un impianto: sorveglianza umana effettiva, monitoraggio continuo, obblighi informativi verso gli utenti e anche verso le rappresentanze, documentazione e istruzioni, gestione della qualità, registrazioni e dichiarazioni di conformità. Al centro compare la FRIA, la valutazione d’impatto sui diritti fondamentali: un lavoro tecnico che mette in fila rischi e contromisure fino a un livello ritenuto accettabile; se non lo è, si interviene ancora, anche ridimensionando output e funzionalità. La logica richiama, per struttura, le valutazioni d’impatto note in materia di privacy.
A quel punto la parola “compliance” smette di essere un’etichetta e diventa pratica. Cannella insiste su un equivoco ricorrente: non basta comprare un documento, timbrare, archiviare. Bisogna dimostrare che valutazione e mitigazione riducono davvero il rischio. E bisogna accettare una verità scomoda: nel digitale il rischio non si azzera; al massimo si governa, e un rischio residuo resta, perché l’avversario evolve, aggira le misure, sfrutta nuove vulnerabilità. Per questo la domanda non è soltanto “quale sanzione rischio”, ma “quale rischio sto accettando”, con un capitolo che pesa quanto le multe: la reputazione. Perdere fiducia può significare perdere commesse, relazioni, accesso a fornitori — e, nel peggiore dei casi, ritrovarsi schiacciati da dinamiche informative
Resta infine una dimensione che nel seminario viene trattata come politica in senso pieno: l’accesso. L’inclusione oggi passa anche dalla possibilità concreta di utilizzare sistemi di intelligenza artificiale; e per farlo, banalmente, serve una rete che regga. Il digital divide, allora, non è un concetto astratto: è distanza tra territori, tra aree urbane e non urbane, tra chi può investire in capacità tecnologiche e chi resta indietro. La competitività di un luogo — e la libertà stessa di scegliere dove lavorare e investire — dipendono da infrastrutture e accompagnamento, non da proclami.
Il filo che tiene insieme tutto è una forma di alfabetizzazione più alta della semplice familiarità con gli strumenti. Se l’IA accelera, accelera anche errori, disuguaglianze e manipolazioni quando i processi sono fragili o opachi. Ma può accelerare anche cura, diagnosi, organizzazione, se è governata con consapevolezza dei limiti e dei condizionamenti. La chiusura del seminario va in questa direzione: serve pensiero critico, responsabilità, capacità di distinguere il convincente dal vero. Perché l’IA non cancella la responsabilità: la sposta, la distribuisce, e la rende — inevitabilmente — una questione di governo dei processi.


