C’è un aspetto, in fondo anche ironico, che pervade il dibattito sull’intelligenza artificiale nel credito che raramente viene citato. A farlo sul Corriere della Sera è Yann LeCun — uno dei tre scienziati che hanno reso possibile il deep learning, premio Turing 2018, padre intellettuale delle architetture su cui si regge ogni chatbot finanziario oggi in produzione — che ha appena lasciato Meta per fondare una nuova impresa, Advanced Machine Intelligence, con un miliardo di dollari di seed capital. Il motivo dichiarato: i Large Language Model non sono adeguati a interagire con il mondo reale. Non ora, forse mai.
Le sue parole sono inequivoche: «I sistemi di intelligenza artificiale funzionano bene solo con dati che possono essere rappresentati come sequenze di elementi separati — parole, simboli del codice, formule matematiche. Il mondo reale non funziona così.» E ancora: «Non abbiamo robot intelligenti quanto un gatto domestico, perché gli LLM non gestiscono bene il mondo reale.»
Nel medesimo periodo in cui LeCun pronuncia queste parole e alloca il proprio capitale intellettuale e finanziario su un paradigma radicalmente diverso, banche, intermediari creditizi e piattaforme fintech di mezza Europa stanno costruendo la loro trasformazione digitale esattamente su quella tecnologia. Non sull’architettura che LeCun sta sviluppando — JEPA, Joint Embedding Predictive Architecture, pensata per modellare realtà continue e multidimensionali. Sui medesimi LLM che il loro inventore considera strutturalmente inadatti per applicazioni sul mondo fisico e reale.
Ma il credito è un’operazione sul mondo reale per eccellenza.
Il disallineamento che non si vuole calcolare
Valutare un’operazione di credito significa trattare dati continui: redditi variabili nel tempo, patrimoni eterogenei, comportamenti finanziari, scenari macroeconomici, profili di rischio soggetti a shock non lineari. È esattamente la tipologia di dato che LeCun identifica come il limite strutturale degli LLM: «Nel mondo reale ricevi dati dai sensori: dati visivi da una telecamera, misurazioni di sensori in un processo industriale, dati finanziari o biologici. E questi dati sono continui. Non sono simboli, sono numeri. Inoltre sono ad alta dimensionalità.»
A questo si aggiunge il problema della predizione autoregressiva — il meccanismo con cui i modelli linguistici generano output. «C’è sempre una probabilità che il sistema devii e produca una parola che non ha nulla a che vedere con la risposta. È ciò che oggi viene chiamato allucinazione. E se il sistema deve compiere azioni, non ha alcun modo di prevederne le conseguenze.»
Un sistema che non può prevedere le conseguenze delle proprie azioni è, per definizione, uno strumento ad alto rischio operativo se inserito nella catena di formazione del giudizio creditizio. Non nella fase di erogazione — quella resta presidiata da processi formali — ma in quella precedente e più opaca: la fase in cui il cliente costruisce la propria rappresentazione del problema, formula la domanda, valuta le opzioni, decide se e come procedere.
È lì che i modelli linguistici sono già entrati.
Silenziosi, non regolamentati, percepiti come neutri.
Analisi comparativa
| Tipo di dato | Formato | Trattamento LLM | Rilevanza nel credito |
|---|---|---|---|
| Testo, linguaggio | Sequenziale, discreto | Adeguato | Bassa (interfaccia utente) |
| Reddito, patrimonio | Continuo, multivariato | Inadeguato | Alta (valutazione merito) |
| Comportamento finanziario | Temporale, ad alta dimensionalità | Inadeguato | Alta (scoring, PD) |
| Scenari macroeconomici | Continuo, causale | Inadeguato | Alta (stress test, LGD) |
| Formazione della domanda utente | Sequenziale, linguistico | Efficace ma non neutro | Critica (orientamento pre-contrattuale) |
Intermediari cognitivi senza licenza
La narrativa dominante descrive i chatbot finanziari come nuovi canali di accesso: uno sportello che si sposta online, un comparatore più sofisticato, un assistente che semplifica la ricerca. È una lettura che rassicura perché non modifica le categorie esistenti.
La realtà strutturale è diversa.
Quando un utente formula in linguaggio naturale una richiesta su un mutuo, un finanziamento o una ristrutturazione del debito, non sta semplicemente cercando un prodotto. Sta delegando a un sistema la fase preliminare del proprio processo decisionale: la costruzione delle variabili rilevanti, la selezione dei criteri di valutazione, la gerarchizzazione delle priorità. Il sistema non risponde a una domanda già formata — contribuisce a formarla.
Tutto ciò è intermediazione. Non distributiva, ma cognitiva. E si svolge prima di qualsiasi contatto con un soggetto regolamentato, prima di qualsiasi obbligo di trasparenza, fuori da qualsiasi perimetro di supervisione.
La distinzione non è accademica. Se cambia il modo in cui le domande vengono formulate, cambia la distribuzione delle risposte possibili. E se cambia sistematicamente la distribuzione delle risposte — su scala di milioni di utenti, attraverso sistemi addestrati su dataset strutturalmente simili — cambia il mercato. Non per effetto di una decisione consapevole di alcun attore, ma per effetto di una convergenza cognitiva silenziosa che nessuno ha autorizzato e nessuno monitora.
L’intermediario finanziario tradizionale aveva una licenza, un obbligo di adeguatezza, una responsabilità tracciabile. L’intermediario cognitivo che oggi precede l’accesso al credito non ha nulla di tutto questo. È invisibile per definizione: non si presenta come consulente, non dichiara conflitti di interesse, non è soggetto a MiFID né a nessun equivalente nel credito al consumo.
Infrastruttura regolamentare de facto
C’è un terzo livello, più profondo.
I modelli linguistici di larga scala non sono strumenti neutrali di informazione: sono sistemi che producono output probabilistici addestrati su corpus finiti. Quando milioni di utenti interrogano gli stessi modelli su temi finanziari, ottengono risposte strutturate secondo le stesse distribuzioni di probabilità, le stesse gerarchie implicite di variabili, le stesse euristiche incorporate nell’addestramento.
Il risultato non è una maggiore autonomia decisionale dei consumatori. È una progressiva omogeneizzazione dei comportamenti finanziari, prodotta da un’architettura privata, non supervisionata, non trasparente nei propri parametri.
In un mercato del credito, comportamenti omogenei significano reazioni sincrone. Reazioni sincrone a variazioni di tasso, a shock macroeconomici, a revisioni normative producono amplificazione dei cicli, non attenuazione. È l’opposto di ciò che una politica macroprudenziale dovrebbe perseguire.
Questo è lo scenario che le autorità di vigilanza — Banca d’Italia, BCE, EBA — non hanno ancora inquadrato con la necessaria precisione. L’AI Act europeo introduce obblighi di trasparenza e requisiti di conformità per sistemi ad alto rischio, inclusi quelli nel credito al consumo e nel credit scoring. Ma la sua applicazione è calibrata sulla fase di decisione formale, non sulla fase di formazione della domanda. Regola il momento in cui una banca usa l’AI per valutare un cliente; non regola il momento — precedente, più influente — in cui un sistema conversazionale ha già orientato quel cliente verso una certa rappresentazione del problema.
È un gap regolamentare che ha la forma di un’ipotesi non verificata: l’ipotesi che la fase pre-contrattuale sia ancora dominata da agenti umani consapevoli. Non lo è più.
Intelligenza artificiale nel credito: il paradosso del primo ciclo
C’è infine una considerazione di economia dei cicli tecnologici che raramente viene esplicitata.
Il settore finanziario adotta sempre le tecnologie con un ritardo strutturale rispetto al loro sviluppo: compliance, legacy system, inerzia istituzionale rallentano l’adozione. Quando un’adozione avviene, tende però a consolidarsi rapidamente, perché i costi di transizione e i rischi operativi del cambiamento diventano un deterrente potente.
Il risultato è che il sistema finanziario rischia di consolidare infrastrutture basate su LLM nel momento esatto in cui il settore della ricerca le sta superando. Non si tratta di una critica all’innovazione, ma di un’osservazione sul disallineamento temporale tra cicli tecnologici e cicli istituzionali.
LeCun non sta costruendo AMI per migliorare i ChatGPT esistenti. Sta costruendo un paradigma alternativo — world models, architetture predittive non autoreggressive, sistemi capaci di ragionare su variabili continue — perché ritiene che il paradigma attuale abbia limiti strutturali insuperabili per applicazioni che richiedono comprensione causale del mondo fisico.
Se ha ragione, e i suoi argomenti tecnici sono solidi, il settore finanziario si troverà tra cinque anni a gestire una doppia migrazione: dalla tecnologia di prima generazione a quella di seconda, con tutti i costi e i rischi istituzionali che questo comporta — e con un’infrastruttura cognitiva nel frattempo già consolidata, già incorporata nelle abitudini degli utenti, già diventata parte del paesaggio atteso.
Cosa dovrebbe accadere e non sta accadendo
Non c’è catastrofismo in questa analisi. Gli LLM sono strumenti con applicazioni reali e valore operativo documentabile. Il problema non è la tecnologia in sé, ma la mancanza di consapevolezza istituzionale sui suoi limiti specifici in contesti specifici.
Tre cose dovrebbero accadere, e non stanno accadendo a velocità sufficiente.
La prima: le autorità di vigilanza dovrebbero estendere il perimetro di attenzione dalla fase di decisione formale alla fase di formazione della domanda. Non necessariamente con nuova regolamentazione immediata — che rischierebbe di irrigidire un campo ancora in evoluzione — ma con una funzione di monitoraggio e analisi del fenomeno. Capire come i sistemi conversazionali orientano le scelte finanziarie è una precondizione per qualsiasi intervento successivo.
La seconda: gli intermediari creditizi — banche, agenti in attività finanziaria, mediatori creditizi iscritti OAM — dovrebbero smettere di leggere l’AI conversazionale esclusivamente come opportunità di canale. La domanda strategica rilevante non è “come apparire nelle risposte dei chatbot”, ma “come la formazione della domanda del cliente sta cambiando, e cosa questo implica per il valore differenziale della consulenza professionale”.
La terza: il dibattito pubblico dovrebbe incorporare la distinzione che LeCun rende esplicita tra generazioni tecnologiche. Non tutta l’AI è uguale. I limiti che lui identifica negli LLM non sono limiti dell’intelligenza artificiale in generale: sono limiti di un paradigma specifico, già in fase di superamento nei laboratori di ricerca avanzata. Ragionare come se il panorama tecnologico fosse statico produce analisi di rischio e strategie di adozione cronicamente in ritardo.
Gap regolamentare
| Soggetto | Perimetro attuale | Gap identificato | Urgenza |
|---|---|---|---|
| Banca d’Italia / BCE | Decisione formale di credito | Fase pre-contrattuale di orientamento utente non monitorata | Alta |
| EBA | Credit scoring, LGD, modelli interni | LLM come strumenti di intermediazione cognitiva esclusi dal perimetro | Alta |
| AI Act (Reg. UE 2024/1689) | Sistemi ad alto rischio in credit scoring | Chatbot di orientamento pre-contrattuale non classificati ad alto rischio | Media |
| OAM / Intermediari | Adeguatezza, obblighi informativi agente | Nessun obbligo su AI conversazionale usata prima del contatto con l’agente | Alta |
| Provider LLM (OpenAI, Meta, Google) | Trasparenza uso AI (AI Act Art. 50) | Nessun obbligo di disclosure su orientamento sistematico in ambito finanziario | In discussione |
Il paradosso è visibile a chi vuole vederlo: uno dei padri del deep learning sta silenziosamente spostando il proprio capitale intellettuale e finanziario fuori dal paradigma che il sistema finanziario sta appena iniziando ad adottare.
Non è un segnale da ignorare.
È, letteralmente, il segnale più qualificato disponibile sul mercato.
Related Posts
1 Aprile 2026
Keynes? Non parlava del ‘lungo periodo’
I modelli di credito algoritmico trattano l'incertezza come rischio misurabile.…
26 Febbraio 2026
Grok, Gemini, Claude, ChatGPT… non sono ciò che pensi
I chatbot AI non sono solo modelli linguistici: sono sistemi a strati composti…
15 Novembre 2025
La bolla dell’AI non è più l’elefante nella stanza
La Bolla dell'AI sta entrando in una fase critica: crescita dei costi,…




