Un’analisi approfondita di “The Wrong Apocalypse” di Andrea Pignataro e del rischio sistemico nascosto dentro il boom della produttività AI


Il 15 febbraio 2026, un documento di nove pagine comparve sul sito di ION Analytics — in silenzio, senza comunicati stampa né tour mediatico. Il suo autore, Andrea Pignataro, fondatore e CEO di ION Group, non aveva mai pubblicato un saggio prima. Raramente parla in pubblico. Quando Forbes lo ha incoronato come l’uomo più ricco d’Italia — con un patrimonio stimato in 42,8 miliardi di dollari — non ha rilasciato interviste. Il silenzio era, a quanto consta, una sua abitudine consolidata.

Ed è precisamente per questo che il documento ha rilevanza.

Il saggio, intitolato The Wrong Apocalypse, era costruito come una correzione: il mercato, sosteneva Pignataro, stava andando nel panico per la cosa sbagliata. Tra il 28 gennaio e il 13 febbraio 2026, oltre 2.000 miliardi di dollari di capitalizzazione di mercato erano evaporati dalle società di software enterprise. Il detonatore era stato un doppio shock: il lancio di plugin specializzati per la piattaforma Claude Cowork di Anthropic e il progresso sostenuto di Claude Code — strumenti che avevano dimostrato, in modo inequivocabile, che un sistema AI poteva redigere documenti legali, gestire flussi contabili e automatizzare il lavoro cognitivo strutturato che sorregge miliardi di dollari di ricavi ricorrenti nel settore software. L’inferenza del mercato era lineare e brutale: se un agente AI può fare quello che fa il software, perché qualcuno dovrebbe continuare a pagare per quel software?

Quell’inferenza, sosteneva Pignataro, era sbagliata — o meglio, era sbagliata sul meccanismo, sbagliata sulla tempistica, sbagliata su quali entità fossero davvero a rischio.

Ma dentro la sua correzione era nascosto qualcosa di assai più inquietante di quanto il mercato stesse prezzando: la diagnosi di una trappola strutturale dalla quale, per la logica stessa del gioco, non esiste via d’uscita individuale.


La tesi dell’adolescenza e le sue conseguenze sui mercati

Per comprendere l’argomento di Pignataro, occorre cominciare da dove comincia lui: da Dario Amodei.

Il 26 gennaio 2026, Amodei — CEO di Anthropic e una delle voci più autorevoli nello sviluppo AI di frontiera — aveva pubblicato sul suo blog personale un saggio di 20.000 parole intitolato The Adolescence of Technology. Era il seguito del suo saggio del 2024, Machines of Loving Grace, che aveva delineato una visione ottimistica del potenziale civilizzatorio dell’AI. Questa volta, Amodei si rivolgeva all’altra faccia della medaglia. Il saggio catalogava cinque categorie di rischio civilizzatorio — disallineamento autonomo dell’AI, uso improprio per armi di distruzione di massa, concentrazione autoritaria del potere, disruption economica, effetti sistemici indiretti — e costruiva l’intera analisi attorno a un unico esperimento mentale: immaginate un letterale “paese di geni in un datacenter.” Cinquanta milioni di entità, ciascuna più capace di qualsiasi Premio Nobel, operanti a una velocità da dieci a cento volte superiore a quella umana, materializzantesi nel mondo entro il 2027 circa. Cosa farebbe un consigliere per la sicurezza nazionale?

La sezione sulla disruption economica del saggio conteneva una previsione che aveva fatto detonare i mercati finanziari. Amodei scriveva di credere simultaneamente che l’AI avrebbe “distrutto il 50% dei posti di lavoro entry-level dei colletti bianchi nell’arco di uno-cinque anni” e che l’umanità potrebbe trovarsi di fronte a un’AI più capace di qualsiasi essere umano nell’arco di uno-due anni. Aveva formulato previsioni simili a Davos poche settimane prima, ma la lunghezza del saggio, il dettaglio analitico e l’autorità dell’autore — il CEO dell’azienda che sta effettivamente costruendo questi sistemi — avevano conferito all’affermazione un peso che le speculazioni precedenti non avevano.

Gli investitori avevano risposto vendendo le società i cui ricavi dipendevano da colletti bianchi seduti alle scrivanie. I titoli del software enterprise erano crollati. Le obbligazioni dello stesso ION Group, benché la società non sia quotata, erano rimaste intrappolate nella corrente d’ansia.

È in questo contesto che Pignataro ha scritto.


La fallacia della sostituzione

La prima mossa di Pignataro in The Wrong Apocalypse è identificare quella che chiama la fallacia della sostituzione: l’assunzione che, poiché un sistema AI può eseguire il compito cognitivo facilitato da un software, possa quindi sostituire il software stesso. L’errore sta nel confondere il compito con il sistema.

La sua illustrazione è limpida e memorabile. Un nuovo assunto in una società di consulenza potrebbe produrre analisi migliori di quelle che i template PowerPoint esistenti consentono. Significa che la società non ha più bisogno di PowerPoint? Ovviamente no. I template non esistono perché agli analisti manchi intelligenza, ma perché la società ha bisogno di un formato standardizzato che i clienti si aspettano, che i partner possono revisionare rapidamente, che i consulenti junior possono produrre senza reinventare la struttura ogni volta, e che si integra con i processi di controllo qualità della società. Il template è un artefatto istituzionale, non cognitivo. È una grammatica, non un pensiero.

Il software enterprise, argomenta Pignataro, è — su scala — una vasta raccolta di tali artefatti istituzionali. Il valore non è il calcolo. È il coordinamento. Quando il mercato conclude che “Claude Code può costruire un sostituto di Jira,” sta confondendo la capacità di costruire un task tracker con la capacità di replicare il tessuto istituzionale che rende un task tracker utile a scala organizzativa. Sono capacità categoricamente diverse.

La distinzione che Pignataro traccia qui — tra capacità cognitiva e radicamento istituzionale — si inscrive in una tradizione filosofica che invoca esplicitamente: il concetto wittgensteiniano di giochi linguistici. Wittgenstein sosteneva che le parole non portano significato in astratto. Il significato è costituito dalla partecipazione a una pratica condivisa — una “forma di vita” — in cui le regole, gli scopi e i contesti sociali della comunicazione sono compresi reciprocamente dai partecipanti. Il software enterprise, propone Pignataro, è precisamente tale gioco linguistico a scala organizzativa.

“Le organizzazioni non usano semplicemente Salesforce,” scrive. “Parlano Salesforce.” I loro processi, le loro metriche, il loro vocabolario per descrivere le relazioni con i clienti — tutto ciò è costituito dal software. Sostituire il software non equivale a cambiare uno strumento con un altro. Equivale a chiedere a una comunità di adottare una nuova lingua. Si può fare. Ma si misura in anni, se non in decenni. E viene resistita con una ferocia che non ha nulla a che fare con l’intelligenza e tutto a che fare con il potere, le abitudini e l’inerzia istituzionale.

Questa intuizione consente a Pignataro di tracciare una linea precisa tra ciò che è vulnerabile e ciò che non lo è. L’AI erode, concede, lo strato commodity del software enterprise — i compiti che sono prevalentemente cognitivi e minimamente coordinativi: analisi dati, generazione di documenti, funzioni CRM di base, codice semplice. Per questi, la sostituzione è possibile e il crollo del mercato è almeno direzionalmente corretto. Ma per lo strato istituzionale — il software che si è co-evoluto con i processi organizzativi nel corso di anni o decenni — l’AI non può semplicemente sostituire l’artefatto. Deve prima essere sufficientemente fidata da diventare il nuovo linguaggio. E quella transizione non è un problema tecnico. È un problema sociale e politico.


Il linguaggio del lavoro, e perché non è scritto in nessun manuale

La stessa logica si applica, argomenta Pignataro, agli esseri umani che questi sistemi andrebbero a sostituire.

La previsione di Amodei che l’AI distruggerà il 50% dei posti di lavoro entry-level dei colletti bianchi nell’arco di uno-cinque anni è fondata su un argomento di capacità cognitiva: questi lavori comportano compiti — redigere documenti, analizzare dati, scrivere codice, gestire agende — che i sistemi AI possono ora svolgere a un livello pari o superiore a quello umano. L’inferenza da “l’AI può fare il compito” a “l’AI sostituirà il lavoratore” salta un passaggio intermedio cruciale: se l’AI possa partecipare al gioco linguistico istituzionale in cui quel compito è incorporato.

Un associato entry-level in uno studio legale non si limita a redigere contratti. Partecipa a un complesso insieme di pratiche comunicative — risponde ai feedback dei soci con un registro specifico, naviga le aspettative dei clienti, comprende quali deviazioni dal template sono accettabili e quali richiedono escalation, sa quando segnalare un rischio e quando esercitare un giudizio silenzioso. Queste pratiche costituiscono il gioco linguistico dell’istituzione. Non sono documentate da nessuna parte. Si apprendono attraverso la partecipazione, vengono imposte attraverso le dinamiche sociali dell’organizzazione e vengono modificate continuamente attraverso l’interazione tra persone con diversi livelli di autorità, informazione e responsabilità.

È precisamente questa l’intuizione che The AI Journal ha messo in evidenza in un’analisi parallela pubblicata all’inizio del 2026: il vero rischio di prossimità dell’AI nei servizi professionali non è che sostituisca i professionisti. È che i professionisti usino l’AI così massivamente da smettere di sviluppare l’expertise tacita attraverso cui quei giochi linguistici vengono appresi. Le regole non scritte di come il lavoro viene effettivamente svolto — cosa notano gli esperti, quando cambiano rotta, quali segnali contano e quali possono essere ignorati — esistono “nel divario tra il lavoro come immaginato e il lavoro come effettivamente fatto.” I modelli linguistici di grandi dimensioni non contengono questa conoscenza, perché non è documentata.

Il quadro di Pignataro è più incisivo: il mercato sta prezzando i titoli software come se la domanda fosse “l’AI può fare quello che fa questo software?” La domanda accurata è “l’AI può diventare il linguaggio in cui opera questa organizzazione?” Sono domande diverse, con tempistiche diverse. Per il software cognitivo commodity, la prima domanda ha già una risposta affermativa. Per il tessuto organizzativo delle grandi imprese, la seconda domanda non ha alcun sì nel breve termine. Il crollo è una reazione eccessiva — ma solo nel breve-medio periodo.


La vera apocalisse: una tragedia dei beni comuni

Dopo aver corretto l’errore del mercato, Pignataro pivota verso l’argomento che costituisce il vero nucleo intellettuale di The Wrong Apocalypse — e la ragione per cui merita attenzione seria al di là della comunità finanziaria.

L’attrito istituzionale da lui descritto potrebbe proteggere le grandi imprese nel breve periodo, concede. Ma non protegge le industrie che sono esse stesse i principali utenti di questi strumenti. Ed è qui, nella dinamica tra pressione competitiva individuale ed esposizione istituzionale collettiva, che Pignataro identifica una trappola senza uscita nell’ambito delle strutture di mercato attuali.

Il meccanismo è preciso. Quando una società di consulenza usa Claude per redigere analisi per i clienti, non sta semplicemente estraendo un guadagno di produttività. Sta contribuendo — in modo incrementale, attraverso migliaia di tali interazioni — alla comprensione accumulata da Anthropic di come appaiano i giochi linguistici della consulenza. Non i dati proprietari della società in senso giuridico, ma qualcosa potenzialmente più prezioso: la forma, la struttura, la grammatica del lavoro di consulenza. Come vengono costruite le analisi. Cosa si aspettano i clienti. Quali standard di rigore si applicano. Quali sono i modi di fallire. Nessuna informazione riservata della singola azienda viene esposta. Ma il pattern aggregato — la grammatica generalizzata del settore — si incorpora nelle capacità della piattaforma.

Questo pattern si accumula in sezione trasversale (come migliaia di aziende diverse all’interno di un settore svolgono lavori simili) e in modo longitudinale (come quei pattern evolvono nel tempo). Nessuna singola azienda contribuisce la mappa. Ma insieme la tracciano — in piena risoluzione.

La struttura game-teorica che Pignataro identifica è una classica tragedia dei beni comuni, con una differenza cruciale. Nella formulazione originale di Garrett Hardin, il bene comune che viene distrutto è una risorsa fisica — pascoli, stock ittici, aria pulita. Nella formulazione di Pignataro, il bene comune che viene distrutto è il fossato competitivo di un’intera industria. Il vantaggio competitivo condiviso che rende preziose le società di servizi professionali — la loro expertise accumulata, la loro conoscenza istituzionale, la loro comprensione di come il lavoro venga effettivamente svolto — migra, nel tempo e attraverso l’uso aggregato, al livello delle piattaforme.

La decisione individuale di ciascuna azienda è razionale in isolamento. Se non adotti l’AI, lo farà il tuo concorrente. Sarà più veloce, più economico e offrirà di più per meno. Perderai clienti. La scelta razionale è ovvia: adotta. Ma fai un passo indietro. Ogni società di consulenza si trova di fronte allo stesso calcolo. Tutte adottano. Il risultato aggregato è che Anthropic, o OpenAI, o Google impara la grammatica generalizzata della consulenza. E una volta che il pattern è sufficientemente chiaro, la piattaforma può offrirlo direttamente ai clienti finali — a una frazione del costo di assumere una società.

“Ogni singola azienda ha ragione ad adottare strumenti AI,” scrive Pignataro, con una precisione che merita di essere citata direttamente, “eppure il risultato collettivo del fatto che tutte le aziende lo facciano è la distruzione dell’economia mondiale.”

La stessa dinamica si applica agli studi legali, alle pratiche contabili, alle società di consulenza finanziaria, ai broker assicurativi, alle agenzie di marketing, agli studi di architettura, alle società di ingegneria — qualsiasi attività di knowledge work che adotti strumenti da una società di piattaforma. Ogni utilizzo è un segnale di addestramento. Ogni cliente è simultaneamente una fonte di ricavi e un acceleratore del proprio eventuale spostamento.

Tabella 1 — Struttura del dilemma collettivo
LivelloDecisioneRazionalitàEsito
Singola aziendaAdotta l’AI per restare competitivaRazionaleGuadagno di produttività nel breve termine
Settore interoTutte le aziende adottano l’AICollettivamente irrazionaleLa piattaforma apprende la grammatica dell’intero settore
Piattaforma AIAccumula pattern aggregati d’usoRazionale per il platform ownerCapacità di disintermediare l’industria intera
Economia sistemicaCascata su settori ancillariNon prezzata dai mercatiContrazione domanda: real estate, travel, venture, fisco

La cascata è già cominciata

Le conseguenze di questa dinamica, argomenta Pignataro, sono sistemiche in un modo che il crollo da 2.000 miliardi di dollari del software sottostima enormemente. Il settore dei servizi professionali non è semplicemente una raccolta di aziende che potrebbero perdere fatturato. È l’infrastruttura di una vasta economia ancillare.

Le società di consulenza sono clienti principali di real estate commerciale, compagnie aeree, hotel business class, ristorazione aziendale, società di recruiting e formazione professionale. Gli studi legali aggiungono società di tecnologia legale, servizi di court reporting e provider di document management. Le società di consulenza finanziaria sono l’ancora dell’ecosistema venture e dei fondi di growth equity. Quando i ricavi si contraggono nei servizi professionali, la domanda si contrae simultaneamente in tutti questi settori adiacenti. I titoli del real estate commerciale registravano già questa paura nel febbraio 2026 — CoStar aveva apparentemente eliminato 500 ruoli attraverso efficienze guidate dall’AI, e gli investitori stavano riprezzando l’intero settore sulla base di una distruzione della domanda attesa, non di dati di fatturato attuali.

La cascata si propaga ulteriormente. Le società di servizi professionali e le SaaS company costituiscono componenti principali dei portafogli di venture capital e growth equity. Quando le loro valutazioni crollano, i rendimenti dei fondi diminuiscono, i limited partner riducono le allocazioni e la disponibilità di capitale si contrae nell’intero ecosistema dell’innovazione. La base fiscale delle città dell’economia della conoscenza — Londra, New York, San Francisco, Boston, Milano, Francoforte — dipende dal reddito generato da questa classe di lavoratori. L’infrastruttura istituzionale del capitalismo democratico moderno è, in misura significativa, costruita sopra di essa.

“I 2.000 miliardi di dollari distrutti nel valore di mercato del software non sono l’entità del danno,” scrive Pignataro. “Sono l’acconto. Lo spostamento economico totale non è di 2.000 miliardi di dollari. È di due ordini di grandezza più grande. Ed è impossibile da coprire — perché non esiste nessuna classe di asset che sia isolata da una riduzione sistemica del volume dell’intermediazione del knowledge work.”


Il problema dell’integrità e l’alternativa open source

Pignataro estende la sua analisi con un’osservazione presa in prestito da Warren Buffett — aforistica per natura, applicata con precisione chirurgica. Quando si assume qualcuno, sosteneva Buffett, bisogna cercare tre qualità: integrità, intelligenza ed energia. Se al candidato manca la prima, le altre due lo distruggeranno.

Le piattaforme AI, suggerisce Pignataro, sono supremamente intelligenti ed energiche. Mancano notoriamente della prima qualità. I loro interessi non sono allineati con quelli delle aziende che le impiegano. Al contrario: il loro interesse commerciale è precisamente quello di imparare abbastanza dall’uso aggregato per disintermediare quelle aziende. Un dipendente umano che trasferisse la conoscenza istituzionale del suo datore di lavoro a un concorrente violerebbe il suo contratto di lavoro, il suo dovere fiduciario e la legge. Una piattaforma AI che facesse la stessa cosa su scala, attraverso l’aggregazione perfettamente legale di pattern di utilizzo, non è soggetta ad alcun vincolo di questo tipo.

Il rimedio proposto segue logicamente dalla diagnosi. Le aziende che desiderano preservare la propria conoscenza istituzionale come asset proprietario dovrebbero investire in modelli AI open source, addestrati sui propri dati, distribuiti sulla propria infrastruttura, sotto la propria governance. Questo percorso richiede investimenti tecnici, capacità di data governance e un orientamento strategico che la maggior parte delle aziende non possiede attualmente. Ma preserva il fossato competitivo. L’alternativa — l’uso continuato di piattaforme chiuse di aziende il cui interesse commerciale è precisamente quello di assorbire quel fossato — è razionale nel breve termine e suicida nel medio termine.

La finestra per costruire questa capacità alternativa, nota Pignataro, è aperta ora. Non rimarrà aperta indefinitamente.


Il paradosso europeo: quando la disfunzione diventa una difesa

La sezione più controintuitiva di The Wrong Apocalypse riguarda l’Europa — e vale la pena soffermarsi su di essa, tanto per la sua sostanza analitica quanto per la luce che proietta sulle scelte di policy realmente disponibili.

Pignataro identifica le caratteristiche tipicamente citate come svantaggi competitivi dell’Europa nella corsa all’AI e le riqualifica come frizione strutturale contro la cascata che teme. I 27 distinti regimi giuridici dell’UE creano una complessità di conformità che rallenta l’adozione di flussi di lavoro AI uniformi. Il GDPR e l’AI Act impongono requisiti di data governance che rendono l’uso casuale ad alto volume di piattaforme AI di terze parti giuridicamente più pericoloso che nelle giurisdizioni meno regolamentate. La frammentazione linguistica europea significa che i giochi linguistici dei servizi professionali — già culturalmente specifici all’interno di un singolo paese — sono molto più difficili da generalizzare in tutto il continente. E le più forti protezioni del lavoro europee significano che l’economia politica dello spostamento è più contestata, più visibile e più probabile che scateni un intervento regolatorio proprio nel momento in cui la cascata inizia.

“La frammentazione regolamentare dell’UE,” scrive Pignataro, “normalmente citata come un ostacolo nell’era dell’AI, potrebbe rivelarsi un freno alla cascata.” Ha cura di non esagerare. Niente di tutto ciò garantisce l’immunità. Ma è frizione. E in un sistema dinamico, la frizione determina se una transizione è gestita o catastrofica. La differenza tra un adattamento istituzionale ordinato e una rottura strutturale non è principalmente una funzione della capacità. È una funzione della velocità con cui la transizione supera i meccanismi attraverso cui le società assorbono e redistribuiscono la disruption.

C’è un punto strutturale più profondo che Pignataro lascia implicito ma che merita di essere nominato. L’AI Act dell’UE, in particolare, impone obblighi alle applicazioni AI ad alto rischio che richiedono di fatto alle aziende che distribuiscono AI in contesti professionali consequenziali — consulenza legale, servizi finanziari, assicurazioni — di mantenere supervisione umana, trasparenza e responsabilità. Questi obblighi rallentano la curva di sostituzione rendendola legalmente e operativamente costosa automatizzare completamente lo strato istituzionale. Paradossalmente, la regolamentazione pensata principalmente per proteggere gli individui dall’AI dannosa potrebbe incidentalmente proteggere le istituzioni dalla trappola dell’azione collettiva che rende l’adozione dell’AI autodistruttiva su scala.

Tabella 2 — Fattori di frizione all’adozione AI per giurisdizione
FattoreUnione EuropeaStati UnitiImpatto sulla cascata
Regimi giuridici27 distintiFederale unificatoFrena l’adozione uniforme di workflow AI
Protezione dei datiGDPR + AI ActFrammentata per settoreAumenta il costo legale dell’uso massivo di piattaforme terze
Frammentazione linguistica24 lingue ufficialiSostanzialmente monolingueOstacola la generalizzazione dei language game professionali
Protezioni del lavoroForti, con diritti sindacaliAt-will employment diffusoRallenta lo spostamento e anticipa la risposta politica
AI Act (supervisione umana)Obbligatoria in contesti ad alto rischioAssente a livello federaleRende costoso automatizzare lo strato istituzionale

Quello che Pignataro non dice — e perché conta

The Wrong Apocalypse è un documento preciso. È anche, per costruzione, parziale. Pignataro è un uomo d’affari, non un teorico sociale, e il saggio non è un manifesto politico. Ma i silenzi del testo sono analiticamente significativi quanto gli argomenti che contiene.

Non affronta cosa accade alle persone spostate. La sua preoccupazione riguarda i fossati economici, le contrazioni a cascata dei ricavi e le valutazioni degli asset. La dimensione umana — il consulente junior che non riesce più a trovare lavoro, l’avvocato praticante la cui scala di carriera è stata rimossa, l’analista finanziario la cui funzione è stata assorbita da una piattaforma — è presente nell’analisi solo come unità economica astratta: riduzione della domanda di hotel e voli in business class. Questa non è una critica al saggio quanto una chiarificazione del suo perimetro. Le conseguenze sociali che Pignataro descrive sono reali e potenzialmente gravi. Ma il quadro rimane all’interno della logica della finanza istituzionale.

Non affronta nemmeno la questione distributiva: chi cattura il valore che le piattaforme accumulano? La grammatica della consulenza, una volta appresa da Anthropic o OpenAI, diventa un asset nei bilanci di un piccolo numero di società americane capitalizzate in modo straordinario. Lo stesso Amodei in The Adolescence of Technology osservava che la concentrazione della ricchezza nell’era AI potrebbe portare fortune individuali a raggiungere i trilioni di dollari — una scala alla quale i sistemi democratici perdono la loro capacità di funzionare come contrappeso al potere privato. Pignataro identifica il meccanismo attraverso cui quella concentrazione avviene. Non si confronta con le sue conseguenze politiche.

Queste omissioni non sono accidentali. Suggeriscono che The Wrong Apocalypse, con tutta la sua sofisticazione analitica, è in ultima analisi una difesa di una particolare classe di istituzioni — l’intermediario incumbent del knowledge work — contro la minaccia dello spostamento. È una difesa onesta e incisiva. Ma non è un resoconto completo di cosa comporta la transizione per tutti gli interessati.


Il paradosso più profondo: l’incentivo di una piattaforma a essere fidata

C’è una dinamica di secondo ordine nell’analisi di Pignataro che merita un esame indipendente: la struttura degli incentivi competitivi delle stesse piattaforme AI.

Anthropic ha posizionato il suo brand “safety first” come un asset commerciale — e la strategia ha funzionato. Il cover story di Fortune del gennaio 2026 sulla società osservava che il suo focus sulla sicurezza AI le aveva conferito un vantaggio significativo con i grandi clienti enterprise, precisamente perché molti dei passaggi compiuti per rendere i modelli meno propensi a causare danni catastrofici li avevano anche resi più affidabili e controllabili. Caratteristiche che le imprese apprezzano.

Ma leggere l’analisi di Pignataro accanto a questa e la struttura diventa chiara: la società di cui le imprese si fidano di più è quella a cui danno più accesso. Quella con più accesso accumula la mappa più completa dei giochi linguistici del settore. Quella con la mappa più completa è meglio posizionata per offrire quei servizi direttamente. Il brand safety-first, in altre parole, non è soltanto una copertura contro il rischio AI catastrofico. È un fossato competitivo nell’accumulazione della conoscenza istituzionale. La sicurezza costruisce fiducia. La fiducia apre l’accesso. L’accesso amplifica il vantaggio di apprendimento della piattaforma. Il vantaggio di apprendimento, nel tempo, diventa il meccanismo della disintermediazione.

Pignataro non lo afferma esplicitamente. Ma segue dalla sua logica con una chiarezza quasi scomoda.


Il gioco non ha soluzione nell’ambito delle strutture di mercato attuali

Ciò che rende The Wrong Apocalypse genuinamente importante — al di là dell’analisi finanziaria, al di là di Wittgenstein, al di là della modellazione della cascata — è il franco riconoscimento di Pignataro che il problema di azione collettiva da lui identificato non ha soluzione nell’ambito delle strutture di mercato attuali.

Non si può chiedere alle aziende di rinunciare volontariamente all’adozione dell’AI. La penalità competitiva per farlo è immediata e grave. Non si può chiedere alle piattaforme AI di astenersi volontariamente dall’apprendere dai pattern di utilizzo aggregato. Quell’apprendimento è il meccanismo centrale attraverso cui i modelli migliorano e attraverso cui le piattaforme generano valore. Non si può fare affidamento sulle normative sulla privacy dei dati per risolvere il problema, perché l’apprendimento avviene a livello di pattern, non a livello di dati. È perfettamente compatibile con una rigorosa normativa sulla protezione dei dati apprendere la grammatica di un settore dalle interazioni aggregate senza accedere a nessuna informazione riservata della singola azienda.

La struttura game-teorica è una corsa agli armamenti. Ogni azienda adotta l’AI per restare competitiva. Le piattaforme AI imparano da ogni adozione. Le piattaforme diventano capaci di fare quello che fanno le aziende. Le aziende diventano superflue. E nel momento in cui le aziende capiscono cosa è accaduto, hanno già addestrato il loro sostituto.

Elinor Ostrom — il cui lavoro sulla governance delle risorse comuni le valse il Premio Nobel per l’Economia nel 2009 — ha dimostrato che le tragedie dei beni comuni non sono inevitabili. Possono essere scongiurate attraverso governance policentrica, coordinamento locale e regole collettive che allineino gli incentivi individuali con i risultati collettivi. Ma le intuizioni di Ostrom si applicano a risorse fisiche e comunità relativamente delimitate. Le dinamiche che Pignataro descrive sono globali, mediate da piattaforme e coinvolgono attori — le società AI — con interessi fondamentalmente diversi da quelli delle comunità la cui conoscenza accumulano.

Le uniche soluzioni strutturali che emergono dall’analisi sono: AI open source distribuita su infrastruttura proprietaria (il rimedio preferito da Pignataro), frizione regolatoria che rallenta la curva di sostituzione (la sua speranza paradossale per l’Europa), o qualche forma di governance che tratti la conoscenza a livello di settore come un asset detenuto collettivamente con protezioni applicabili contro l’estrazione unilaterale. Quest’ultima opzione non è una che Pignataro articola. Richiederebbe un livello di coordinamento regolatorio internazionale che è, al momento, politicamente implausibile. Ma è la conclusione logica del problema che identifica.


L’acconto

The Wrong Apocalypse è un documento scritto da un uomo con 42 miliardi di dollari di patrimonio e un’esposizione significativa alle stesse dinamiche che descrive. Sarebbe troppo facile liquidarlo come interesse personale. Sarebbe un errore.

L’argomento è strutturalmente solido. La fallacia della sostituzione è reale: il mercato ha effettivamente confuso capacità cognitiva con radicamento istituzionale. La dinamica della tragedia dei beni comuni è reale: l’adozione individualmente razionale dell’AI da parte di ogni azienda accelera collettivamente la capacità delle piattaforme di disintermediare intere industrie. La cascata è reale: i servizi professionali non sono un settore economico isolato ma l’infrastruttura su cui si regge una vasta rete di industrie ancillari e istituzioni civiche. E la frizione regolatoria dell’UE, per quanto poco glamour, è un autentico freno strutturale alla velocità con cui gli scenari peggiori possono materializzarsi.

Quello che resta da definire — e che The Wrong Apocalypse deliberatamente non affronta — è l’economia politica di chi è responsabile di gestire la transizione, chi cattura il valore che le piattaforme accumulano, e cosa accade ai milioni di persone il cui sostentamento dipende dall’intermediazione del knowledge work che viene lentamente assorbita da un piccolo numero di sistemi molto potenti.

I 2.000 miliardi di dollari cancellati dalle valutazioni software all’inizio del 2026 erano, come ha scritto Pignataro, l’acconto. La disputa su quali aziende siano state punite a torto e quali correttamente riprezzate è, in definitiva, una questione secondaria. La domanda primaria è strutturale, sistemica e politica: mentre ogni azienda in ogni settore del knowledge work addestra simultaneamente il proprio sostituto, chi è responsabile di garantire che ciò che viene perduto possa essere ricostruito — e per chi?

Quella domanda non è nel saggio. È la sua implicazione più importante.


In sintesi

Qual è il rischio AI per i servizi professionali secondo Pignataro?

Ogni azienda che usa strumenti AI come Claude o ChatGPT per svolgere il proprio lavoro trasferisce alla piattaforma la grammatica del proprio settore: come si strutturano le analisi, cosa si aspettano i clienti, quali sono gli errori tipici. Nel tempo, attraverso l’uso aggregato di migliaia di aziende, la piattaforma accumula una mappa completa dell’intera industria e diventa in grado di disintermediare chi l’ha addestrata.

Perché Pignataro parla di “tragedia dei beni comuni” in relazione all’AI?

Nella tragedia dei beni comuni teorizzata da Garrett Hardin, individui razionali distruggono una risorsa condivisa agendo nel proprio interesse. Nell’analisi di Pignataro, il bene comune che viene distrutto non è una risorsa fisica ma il vantaggio competitivo collettivo di un’intera industria: l’expertise accumulata, la conoscenza istituzionale, la comprensione tacita di come il lavoro funziona davvero. Ogni azienda fa la cosa razionale adottando l’AI; il risultato collettivo è che tutte insieme accelerano la propria sostituzione.

Quali soluzioni propone Pignataro per evitare la disintermediazione AI?

Pignataro indica due rimedi principali. Il primo è l’adozione di modelli AI open source addestrati sui dati proprietari dell’azienda e distribuiti su infrastruttura interna: in questo modo la conoscenza istituzionale rimane un asset della singola organizzazione e non alimenta la piattaforma di terze parti. Il secondo è la frizione regolatoria europea: GDPR, AI Act, frammentazione giuridica e protezioni del lavoro rallentano la curva di sostituzione, trasformando quelli che sembrano svantaggi competitivi in freni strutturali alla cascata.

Cosa distingue il software istituzionale da quello commodity nella tesi di Pignataro?

Il software commodity svolge compiti prevalentemente cognitivi e sostituibili: analisi dati di base, generazione di documenti, semplici funzioni CRM. Il software istituzionale è invece profondamente radicato nei processi organizzativi: le aziende non lo usano, lo parlano. Sostituirlo significa chiedere a una comunità di cambiare lingua, un processo che si misura in anni o decenni. Pignataro usa il concetto wittgensteiniano di “gioco linguistico” per spiegare perché il mercato ha sbagliato a prezzare la sostituzione immediata dei grandi software enterprise.

Perché i 2.000 miliardi persi in Borsa sono solo “un acconto” secondo Pignataro?

Il crollo delle valutazioni software ha colpito un singolo segmento di mercato. Ma i servizi professionali — consulenza, diritto, finanza, assicurazioni — sono l’infrastruttura di un’economia molto più ampia: real estate commerciale, aviazione business, ecosistema venture, base fiscale delle città della conoscenza. Se la disintermediazione AI colpisce questi settori, la contrazione della domanda si propaga a cascata su tutti i comparti adiacenti. Pignataro stima che il danno economico totale potrebbe essere di due ordini di grandezza superiore a quello già registrato.


Fonte primaria: Andrea Pignataro, “The Wrong Apocalypse,” ION Analytics, 15 febbraio 2026. Il testo integrale è disponibile pubblicamente su ionanalytics.com. Fonti aggiuntive: Dario Amodei, “The Adolescence of Technology,” darioamodei.com, 26 gennaio 2026; copertura Bloomberg sulle obbligazioni ION Group; reportage Fortune sul posizionamento enterprise di Anthropic; analisi The AI Journal sull’adozione AI nei servizi professionali; letteratura accademica sulle dinamiche della tragedia dei beni comuni nella governance AI.

Related Posts