Credit scoring e algoritmi sotto la lente della Corte UE
Il testo è tratto dall’articolo scientifico “La Corte di giustizia europea, algoritmi e credit scoring. L’apertura del vaso di Pandora delle società che si ‘limitano’ a elaborare gli scoring” della prof.ssa Francesca Mattassoglio, Professore Associato di Diritto dell’Economia presso il Dipartimento di Scienze Economico-Aziendali e Diritto per l’Economia (Di.SEA.DE) dell’Università di Milano-Bicocca, rielaborato in forma divulgativa per favorirne la diffusione e la comprensione al di fuori dei contesti accademici.
Realizzato nell’ambito della partnership per la Terza Missione tra Stroncature e il Di.SEA.DE dell’Università di Milano-Bicocca, questo contributo si propone di rendere accessibile al pubblico non specialista un tema di crescente attualità: le implicazioni giuridiche dell’uso di algoritmi e sistemi automatizzati nel calcolo dell’affidabilità creditizia, alla luce delle più recenti pronunce della Corte di Giustizia dell’Unione Europea.
La rielaborazione divulgativa dell’articolo si inserisce tra le attività promosse da Stroncature per la Terza Missione, che comprendono anche video, podcast, infografiche e altri contenuti ispirati alla ricerca accademica.
Riferimento originale:
Mattassoglio, F. (2025). La Corte di giustizia europea, algoritmi e credit scoring. L’apertura del vaso di Pandora delle società che si “limitano” a elaborare gli scoring. Dialoghi di Diritto dell’Economia, n. 1, gennaio 2025, pp. 1–16.
Negli ultimi anni, le valutazioni automatizzate dell’affidabilità creditizia – il cosiddetto credit scoring – sono diventate uno strumento centrale per banche, società di servizi e operatori digitali. Tuttavia, fino a tempi recenti, chi elaborava questi punteggi non era sempre sottoposto a vincoli normativi stringenti, soprattutto se si presentava come semplice fornitore di dati per soggetti terzi. Le pronunce della Corte di Giustizia dell’Unione Europea analizzate dalla professoressa Francesca Mattassoglio, dell’Università di Milano-Bicocca, segnano un’importante svolta in questa direzione.
Lo studio si concentra in particolare sulla sentenza resa nella causa contro la società Schufa – un’agenzia tedesca che produce punteggi di affidabilità creditizia – e sulle conclusioni dell’avvocato generale nella causa parallela riguardante un’azienda austriaca simile. In entrambi i casi, cittadini si erano visti negare l’accesso a un prestito o a un servizio essenziale sulla base di valutazioni automatizzate di cui non avevano potuto conoscere i criteri o contestare i risultati. La questione giuridica centrale riguardava l’applicabilità dell’articolo 22 del GDPR, che tutela i cittadini dalle decisioni completamente automatizzate con effetti significativi sulla loro vita.
Secondo la Corte, anche il solo calcolo di un punteggio di rischio creditizio può costituire una “decisione” automatizzata ai sensi del GDPR, soprattutto se incide in modo determinante sull’accesso a un credito o a un servizio. Di conseguenza, anche le società che si “limitano” a elaborare gli scoring sono tenute a rispettare le tutele previste dal regolamento, come il diritto a ricevere spiegazioni comprensibili e il diritto a un intervento umano in caso di contestazione.
Il commento giuridico della professoressa Mattassoglio evidenzia come questa lettura della Corte allarghi in modo significativo il campo di applicazione delle garanzie previste dal GDPR. Non è più soltanto la decisione finale – come il rifiuto di un prestito – a essere rilevante, ma anche il momento in cui viene calcolato il punteggio di affidabilità creditizia, se questo incide sull’esito. Si afferma così il principio per cui anche le società che generano questi punteggi – e non solo chi decide in ultima istanza – devono rispondere in termini di trasparenza e rispetto dei diritti della persona.
Lo studio si sofferma anche sull’interazione tra questa giurisprudenza e il nuovo regolamento europeo sull’intelligenza artificiale (AI Act), che considera il credit scoring una pratica ad “alto rischio” e prevede requisiti più severi. Viene inoltre esaminata la nuova direttiva sul credito al consumo (2023/2225/UE), che rafforza il diritto dei consumatori ad accedere a informazioni chiare, a chiedere un riesame umano delle valutazioni automatizzate e a ottenere spiegazioni comprensibili sul procedimento.
La conclusione dello studio è netta: si è aperta una nuova stagione di attenzione normativa e giurisprudenziale verso le decisioni automatizzate, in particolare quelle che, pur costruite su modelli complessi, hanno effetti concreti e immediati sulla vita quotidiana dei cittadini. Il tema centrale diventa quello della trasparenza degli algoritmi e della possibilità, per gli interessati, di comprenderne il funzionamento. Come sottolinea l’autrice, escludere l’algoritmo dai doveri informativi rischia di svuotare di senso il diritto all’informazione: proprio per questo, la partita più delicata si giocherà sull’estensione effettiva di tale diritto.