C’è un aspetto, in fondo anche ironico, che pervade il dibattito sull’intelligenza artificiale nel credito che raramente viene citato. A farlo sul Corriere della Sera è Yann LeCun — uno dei tre scienziati che hanno reso possibile il deep learning, premio Turing 2018, padre intellettuale delle architetture su cui si regge ogni chatbot finanziario oggi in produzione — che ha appena lasciato Meta per fondare una nuova impresa, Advanced Machine Intelligence, con un miliardo di dollari di seed capital. Il motivo dichiarato: i Large Language Model non sono adeguati a interagire con il mondo reale. Non ora, forse mai.

Le sue parole sono inequivoche: «I sistemi di intelligenza artificiale funzionano bene solo con dati che possono essere rappresentati come sequenze di elementi separati — parole, simboli del codice, formule matematiche. Il mondo reale non funziona così.» E ancora: «Non abbiamo robot intelligenti quanto un gatto domestico, perché gli LLM non gestiscono bene il mondo reale.»

Nel medesimo periodo in cui LeCun pronuncia queste parole e alloca il proprio capitale intellettuale e finanziario su un paradigma radicalmente diverso, banche, intermediari creditizi e piattaforme fintech di mezza Europa stanno costruendo la loro trasformazione digitale esattamente su quella tecnologia. Non sull’architettura che LeCun sta sviluppando — JEPA, Joint Embedding Predictive Architecture, pensata per modellare realtà continue e multidimensionali. Sui medesimi LLM che il loro inventore considera strutturalmente inadatti per applicazioni sul mondo fisico e reale.

Ma il credito è un’operazione sul mondo reale per eccellenza.

Il disallineamento che non si vuole calcolare

Valutare un’operazione di credito significa trattare dati continui: redditi variabili nel tempo, patrimoni eterogenei, comportamenti finanziari, scenari macroeconomici, profili di rischio soggetti a shock non lineari. È esattamente la tipologia di dato che LeCun identifica come il limite strutturale degli LLM: «Nel mondo reale ricevi dati dai sensori: dati visivi da una telecamera, misurazioni di sensori in un processo industriale, dati finanziari o biologici. E questi dati sono continui. Non sono simboli, sono numeri. Inoltre sono ad alta dimensionalità.»

A questo si aggiunge il problema della predizione autoregressiva — il meccanismo con cui i modelli linguistici generano output. «C’è sempre una probabilità che il sistema devii e produca una parola che non ha nulla a che vedere con la risposta. È ciò che oggi viene chiamato allucinazione. E se il sistema deve compiere azioni, non ha alcun modo di prevederne le conseguenze

Un sistema che non può prevedere le conseguenze delle proprie azioni è, per definizione, uno strumento ad alto rischio operativo se inserito nella catena di formazione del giudizio creditizio. Non nella fase di erogazione — quella resta presidiata da processi formali — ma in quella precedente e più opaca: la fase in cui il cliente costruisce la propria rappresentazione del problema, formula la domanda, valuta le opzioni, decide se e come procedere.

È lì che i modelli linguistici sono già entrati.
Silenziosi, non regolamentati, percepiti come neutri.

Analisi comparativa

Fonte: elaborazione su dichiarazioni Y. LeCun (Corriere della Sera, 2025) e letteratura tecnica LLM.
Tipo di datoFormatoTrattamento LLMRilevanza nel credito
Testo, linguaggioSequenziale, discretoAdeguatoBassa (interfaccia utente)
Reddito, patrimonioContinuo, multivariatoInadeguatoAlta (valutazione merito)
Comportamento finanziarioTemporale, ad alta dimensionalitàInadeguatoAlta (scoring, PD)
Scenari macroeconomiciContinuo, causaleInadeguatoAlta (stress test, LGD)
Formazione della domanda utenteSequenziale, linguisticoEfficace ma non neutroCritica (orientamento pre-contrattuale)

Intermediari cognitivi senza licenza

La narrativa dominante descrive i chatbot finanziari come nuovi canali di accesso: uno sportello che si sposta online, un comparatore più sofisticato, un assistente che semplifica la ricerca. È una lettura che rassicura perché non modifica le categorie esistenti.

La realtà strutturale è diversa.

Quando un utente formula in linguaggio naturale una richiesta su un mutuo, un finanziamento o una ristrutturazione del debito, non sta semplicemente cercando un prodotto. Sta delegando a un sistema la fase preliminare del proprio processo decisionale: la costruzione delle variabili rilevanti, la selezione dei criteri di valutazione, la gerarchizzazione delle priorità. Il sistema non risponde a una domanda già formata — contribuisce a formarla.

Tutto ciò è intermediazione. Non distributiva, ma cognitiva. E si svolge prima di qualsiasi contatto con un soggetto regolamentato, prima di qualsiasi obbligo di trasparenza, fuori da qualsiasi perimetro di supervisione.

La distinzione non è accademica. Se cambia il modo in cui le domande vengono formulate, cambia la distribuzione delle risposte possibili. E se cambia sistematicamente la distribuzione delle risposte — su scala di milioni di utenti, attraverso sistemi addestrati su dataset strutturalmente simili — cambia il mercato. Non per effetto di una decisione consapevole di alcun attore, ma per effetto di una convergenza cognitiva silenziosa che nessuno ha autorizzato e nessuno monitora.

L’intermediario finanziario tradizionale aveva una licenza, un obbligo di adeguatezza, una responsabilità tracciabile. L’intermediario cognitivo che oggi precede l’accesso al credito non ha nulla di tutto questo. È invisibile per definizione: non si presenta come consulente, non dichiara conflitti di interesse, non è soggetto a MiFID né a nessun equivalente nel credito al consumo.

Infrastruttura regolamentare de facto

C’è un terzo livello, più profondo.

I modelli linguistici di larga scala non sono strumenti neutrali di informazione: sono sistemi che producono output probabilistici addestrati su corpus finiti. Quando milioni di utenti interrogano gli stessi modelli su temi finanziari, ottengono risposte strutturate secondo le stesse distribuzioni di probabilità, le stesse gerarchie implicite di variabili, le stesse euristiche incorporate nell’addestramento.

Il risultato non è una maggiore autonomia decisionale dei consumatori. È una progressiva omogeneizzazione dei comportamenti finanziari, prodotta da un’architettura privata, non supervisionata, non trasparente nei propri parametri.

In un mercato del credito, comportamenti omogenei significano reazioni sincrone. Reazioni sincrone a variazioni di tasso, a shock macroeconomici, a revisioni normative producono amplificazione dei cicli, non attenuazione. È l’opposto di ciò che una politica macroprudenziale dovrebbe perseguire.

Questo è lo scenario che le autorità di vigilanza — Banca d’Italia, BCE, EBA — non hanno ancora inquadrato con la necessaria precisione. L’AI Act europeo introduce obblighi di trasparenza e requisiti di conformità per sistemi ad alto rischio, inclusi quelli nel credito al consumo e nel credit scoring. Ma la sua applicazione è calibrata sulla fase di decisione formale, non sulla fase di formazione della domanda. Regola il momento in cui una banca usa l’AI per valutare un cliente; non regola il momento — precedente, più influente — in cui un sistema conversazionale ha già orientato quel cliente verso una certa rappresentazione del problema.

È un gap regolamentare che ha la forma di un’ipotesi non verificata: l’ipotesi che la fase pre-contrattuale sia ancora dominata da agenti umani consapevoli. Non lo è più.

Intelligenza artificiale nel credito: il paradosso del primo ciclo

C’è infine una considerazione di economia dei cicli tecnologici che raramente viene esplicitata.

Il settore finanziario adotta sempre le tecnologie con un ritardo strutturale rispetto al loro sviluppo: compliance, legacy system, inerzia istituzionale rallentano l’adozione. Quando un’adozione avviene, tende però a consolidarsi rapidamente, perché i costi di transizione e i rischi operativi del cambiamento diventano un deterrente potente.

Il risultato è che il sistema finanziario rischia di consolidare infrastrutture basate su LLM nel momento esatto in cui il settore della ricerca le sta superando. Non si tratta di una critica all’innovazione, ma di un’osservazione sul disallineamento temporale tra cicli tecnologici e cicli istituzionali.

LeCun non sta costruendo AMI per migliorare i ChatGPT esistenti. Sta costruendo un paradigma alternativo — world models, architetture predittive non autoreggressive, sistemi capaci di ragionare su variabili continue — perché ritiene che il paradigma attuale abbia limiti strutturali insuperabili per applicazioni che richiedono comprensione causale del mondo fisico.

Se ha ragione, e i suoi argomenti tecnici sono solidi, il settore finanziario si troverà tra cinque anni a gestire una doppia migrazione: dalla tecnologia di prima generazione a quella di seconda, con tutti i costi e i rischi istituzionali che questo comporta — e con un’infrastruttura cognitiva nel frattempo già consolidata, già incorporata nelle abitudini degli utenti, già diventata parte del paesaggio atteso.

Cosa dovrebbe accadere e non sta accadendo

Non c’è catastrofismo in questa analisi. Gli LLM sono strumenti con applicazioni reali e valore operativo documentabile. Il problema non è la tecnologia in sé, ma la mancanza di consapevolezza istituzionale sui suoi limiti specifici in contesti specifici.

Tre cose dovrebbero accadere, e non stanno accadendo a velocità sufficiente.

La prima: le autorità di vigilanza dovrebbero estendere il perimetro di attenzione dalla fase di decisione formale alla fase di formazione della domanda. Non necessariamente con nuova regolamentazione immediata — che rischierebbe di irrigidire un campo ancora in evoluzione — ma con una funzione di monitoraggio e analisi del fenomeno. Capire come i sistemi conversazionali orientano le scelte finanziarie è una precondizione per qualsiasi intervento successivo.

La seconda: gli intermediari creditizi — banche, agenti in attività finanziaria, mediatori creditizi iscritti OAM — dovrebbero smettere di leggere l’AI conversazionale esclusivamente come opportunità di canale. La domanda strategica rilevante non è “come apparire nelle risposte dei chatbot”, ma “come la formazione della domanda del cliente sta cambiando, e cosa questo implica per il valore differenziale della consulenza professionale”.

La terza: il dibattito pubblico dovrebbe incorporare la distinzione che LeCun rende esplicita tra generazioni tecnologiche. Non tutta l’AI è uguale. I limiti che lui identifica negli LLM non sono limiti dell’intelligenza artificiale in generale: sono limiti di un paradigma specifico, già in fase di superamento nei laboratori di ricerca avanzata. Ragionare come se il panorama tecnologico fosse statico produce analisi di rischio e strategie di adozione cronicamente in ritardo.

Gap regolamentare

Elaborazione Calvi & Partners su AI Act (Reg. UE 2024/1689), EBA Guidelines on Internal Governance, Direttiva CCD II.
SoggettoPerimetro attualeGap identificatoUrgenza
Banca d’Italia / BCEDecisione formale di creditoFase pre-contrattuale di orientamento utente non monitorataAlta
EBACredit scoring, LGD, modelli interniLLM come strumenti di intermediazione cognitiva esclusi dal perimetroAlta
AI Act (Reg. UE 2024/1689)Sistemi ad alto rischio in credit scoringChatbot di orientamento pre-contrattuale non classificati ad alto rischioMedia
OAM / IntermediariAdeguatezza, obblighi informativi agenteNessun obbligo su AI conversazionale usata prima del contatto con l’agenteAlta
Provider LLM (OpenAI, Meta, Google)Trasparenza uso AI (AI Act Art. 50)Nessun obbligo di disclosure su orientamento sistematico in ambito finanziarioIn discussione

Il paradosso è visibile a chi vuole vederlo: uno dei padri del deep learning sta silenziosamente spostando il proprio capitale intellettuale e finanziario fuori dal paradigma che il sistema finanziario sta appena iniziando ad adottare.

Non è un segnale da ignorare.
È, letteralmente, il segnale più qualificato disponibile sul mercato.

Domande frequenti
I modelli linguistici di larga scala (LLM) non sono progettati per trattare dati continui e multivariati come redditi, patrimoni e comportamenti finanziari. Operano prima della fase contrattuale, orientando la domanda dell’utente senza obblighi di trasparenza né supervisione regolamentare. Se milioni di utenti si affidano agli stessi sistemi, il risultato è una convergenza cognitiva che amplifica i cicli di credito invece di attenuarli.
LeCun, uno dei padri del deep learning, ha dichiarato che i LLM funzionano bene solo con dati sequenziali e discreti come il linguaggio, ma non gestiscono adeguatamente il mondo reale fatto di variabili continue e ad alta dimensionalità — esattamente il tipo di dato rilevante nel credito. Ha fondato Advanced Machine Intelligence su un’architettura radicalmente diversa: una scelta che segnala un limite strutturale, non congiunturale, del paradigma attuale.
L’AI Act (Reg. UE 2024/1689) classifica come ad alto rischio i sistemi usati nel credit scoring e nelle decisioni di credito formali. Tuttavia non copre la fase pre-contrattuale: i chatbot che orientano l’utente prima di qualsiasi contatto con un intermediario regolamentato restano fuori dal perimetro. Questo gap è identificato come priorità di intervento per EBA, Banca d’Italia e regolatori OAM.
L’intermediazione cognitiva è la fase in cui un sistema AI interviene nella costruzione della domanda dell’utente, prima ancora che questi contatti una banca o un intermediario. Il sistema non si limita a fornire informazioni: seleziona variabili, propone gerarchie di priorità, orienta verso certi prodotti. Svolge una funzione analoga a quella di un consulente, ma senza licenza, senza obblighi di adeguatezza e senza responsabilità tracciabile.
Related Posts