Il passaggio dai bot rudimentali agli sciami di agenti AI segna una discontinuità strutturale nella storia della manipolazione politica. Non si tratta più di fake news: è l’architettura stessa del dibattito pubblico a essere colonizzata da entità sintetiche indistinguibili dagli esseri umani. Un’analisi delle evidenze scientifiche, dei casi documentati e delle implicazioni per le democrazie occidentali.

C’è un numero che dovrebbe togliere il sonno a chiunque si occupi di democrazia: secondo un’analisi peer-reviewed del 2025, circa un account su cinque coinvolto nelle conversazioni online attorno a eventi di rilevanza pubblica è automatizzato. Non un profilo palesemente falso, non un bot che ripete meccanicamente lo stesso link. Un’entità sintetica che discute di sport con il tifoso, di cronaca nera con il giornalista, di tassi d’interesse con il risparmiatore — calibrando lessico, tono e tempistica con una precisione che nessun team di propaganda umano potrebbe eguagliare.

Il fenomeno ha un nome tecnico che ne cattura la portata distruttiva: synthetic consensus, consenso sintetico. Non la diffusione di informazioni false, ma la fabbricazione industriale dell’illusione che “tutti la pensano così”. È la differenza tra avvelenare un pozzo e sostituire l’intero acquedotto con uno che eroga acqua contaminata: nel primo caso il danno è circoscritto, nel secondo il sistema stesso è compromesso.

L’anatomia dello sciame

A gennaio 2026, la rivista Science ha pubblicato un articolo firmato da Daniel Thilo Schroeder del SINTEF, Jonas R. Kunst della BI Norwegian Business School e altri diciotto ricercatori di otto paesi, tra cui la premio Nobel per la pace Maria Ressa. Il titolo non lascia margini all’ambiguità: “How malicious AI swarms can threaten democracy”. La tesi centrale è che siamo transitati dall’era dei singoli bot a quella degli sciami di agenti AI malevoli — sistemi multiagente che fondono il ragionamento dei grandi modelli linguistici con architetture di coordinamento autonomo.

Un singolo bot, per quanto sofisticato, resta un attore isolato. Uno sciame è un organismo. Come lo descrive Jonas R. Kunst: il pericolo non è più soltanto la disinformazione, ma il collasso della condizione fondamentale del dibattito democratico — l’indipendenza delle voci. Quando un unico operatore può parlare attraverso migliaia di maschere, questa indipendenza si dissolve.

Ciò che rende gli sciami qualitativamente diversi dai bot tradizionali è un insieme di capacità convergenti: mantengono identità persistenti e memoria nel tempo; si coordinano verso obiettivi condivisi variando autonomamente tono e contenuto; si adattano in tempo reale alle reazioni umane; operano con supervisione minima; si dispiegano simultaneamente su piattaforme diverse. Non più l’equivalente digitale del volantinaggio: piuttosto un’infiltrazione capillare che mimetizza il linguaggio locale, costruisce credibilità gradualmente e poi, solo quando il terreno è pronto, sposta la conversazione nella direzione voluta.

CaratteristicaBot tradizionaliSciami di agenti AI
CoordinamentoCentralizzato, singolo operatoreAutonomo, multi-agente distribuito
ContenutiDuplicati o semi-duplicatiUnici per ogni interazione
IdentitàProfili generici e temporaneiPersistenti con memoria e biografia
AdattamentoStatico, basato su scriptIn tempo reale, basato su feedback
RilevamentoPattern ripetitivi individuabiliComportamento quasi-umano
PiattaformeSingola piattaformaCross-platform simultaneo
Costo marginale per agenteBassoProssimo allo zero

Il laboratorio e il campo di battaglia

Le evidenze non sono teoriche. Filippo Menczer, Distinguished Professor di Informatica alla Indiana University e direttore dell’Observatory on Social Media, ha documentato con il suo gruppo di ricerca l’evoluzione in tempo reale di queste operazioni. Nel 2023, prima che Elon Musk eliminasse l’accesso accademico ai dati di X, il team di Menczer identificò una rete di oltre mille bot — battezzata “fox8” — coinvolta in truffe crittografiche. Fu possibile individuarla solo per un errore degli sviluppatori: alcuni post contenevano i messaggi di rifiuto generati da ChatGPT quando gli venivano sottoposte richieste contrarie alle policy di OpenAI.

Quell’episodio, in retrospettiva, rappresenta l’ultimo momento in cui la goffaggine degli operatori rendeva possibile il rilevamento. I modelli linguistici open-source disponibili oggi non hanno quelle limitazioni. Le piattaforme social hanno nel frattempo allentato o eliminato gli sforzi di moderazione. Alcune — come documentato da Menczer — offrono addirittura incentivi economici per i contenuti che generano engagement, indipendentemente dalla loro autenticità.

Sul fronte delle operazioni statali, il caso più eclatante è il sequestro operato dal Dipartimento di Giustizia americano nel luglio 2024: due domini internet e 968 account su X, parte di una bot farm gestita da un alto dirigente di RT (Russia Today) con il software AI denominato Meliorator. Gli account, creati tra giugno 2022 e marzo 2024, impersonavano cittadini americani e diffondevano narrative pro-Kremlin sulla guerra in Ucraina. L’operazione — condotta con FBI, autorità canadesi e olandesi — fu la prima disruption pubblica di una bot farm potenziata dall’intelligenza artificiale generativa.

Ma Meliorator, per quanto sofisticato, era ancora un sistema di prima generazione. I bot generavano contenuti individuali; non operavano come sciame coordinato. La differenza è quella tra un gruppo di tiratori scelti e un esercito dotato di comando unificato, intelligence condivisa e capacità di adattamento tattico in tempo reale.

L’economia della manipolazione: costi tendenti a zero, asimmetria totale

La variabile decisiva è economica. Come sintetizza Gary Marcus nel suo Substack, il costo per coordinare una folla artificiale si misura ormai in centesimi e il tempo per contraffare un’identità umana in secondi. L’asimmetria tra attaccante e difensore è strutturale: creare uno sciame di migliaia di agenti richiede risorse marginali; individuarlo, disattivarlo e mitigare i danni richiede infrastrutture, competenze e soprattutto accesso ai dati delle piattaforme — che è stato progressivamente revocato.

Questa asimmetria ridefinisce la geopolitica dell’informazione. Non servono più le risorse di uno Stato-nazione per condurre operazioni di influenza su larga scala. Un attore privato con accesso a modelli open-source e budget contenuto può generare quello che Meeyoung Cha del Max Planck Institute for Security and Privacy definisce un livello di minaccia mai sperimentato prima dalla sfera pubblica — la capacità di fabbricare consenso sintetico su scala planetaria e adattarlo a ogni contromisura.

I numeri di contesto amplificano l’allarme: secondo un’analisi di Ahrefs su quasi un milione di pagine web pubblicate nell’aprile 2025, il 74,2% conteneva contenuti generati dall’AI in misura rilevabile. I bot automatizzati e alimentati dall’AI hanno rappresentato il 51% di tutto il traffico web nel 2024, superando per la prima volta gli utenti umani. L’infosfera non è più un ambiente dove gli umani producono contenuti e i bot li amplificano: è un ecosistema dove la maggioranza delle interazioni è già sintetica.

La tattica dell’infiltrazione: perché funziona

Lo studio condotto dal gruppo di Menczer con simulazioni su modelli di social media ha identificato una tattica nettamente superiore alle altre: l’infiltrazione. Gli agenti non si limitano a pubblicare contenuti; entrano nelle comunità online, ne apprendono il lessico e le norme sociali, costruiscono credibilità attraverso interazioni genuine e poi, progressivamente, introducono le narrative per cui sono programmati.

Il meccanismo sfrutta un bias cognitivo noto come social proof: la tendenza umana a credere qualcosa se la percezione è che “tutti lo dicono”. Quando le voci che dicono una certa cosa sono indipendenti, il meccanismo è un utile euristica sociale. Quando sono coordinate da un unico operatore ma appaiono indipendenti, diventa una trappola epistemica.

Come osservano gli autori dello studio su Science, gli sciami non dormono mai. A differenza di una campagna propagandistica tradizionale, che ha un inizio e una fine, gli sciami restano incorporati nelle comunità online per periodi prolungati, modificando lentamente e sottilmente il linguaggio, i simboli e l’identità del gruppo ospite. È un’operazione di terraforming culturale: non cambiare cosa pensa una comunità su un singolo tema, ma alterare progressivamente il terreno cognitivo su cui tutte le opinioni future si formeranno.

Il paradosso della rilevazione

Il problema del rilevamento è al centro della sfida. I metodi tradizionali — ricerca di contenuti duplicati, analisi di pattern ripetitivi — sono obsoleti. Gli sciami AI generano contenuti unici per ogni interazione. Come documenta il team di Menczer, i loro obiettivi sottostanti tuttavia rivelano pattern nel timing, nel movimento attraverso le reti e nelle traiettorie narrative che è improbabile si producano naturalmente.

Ma emerge un paradosso ulteriore, che gli stessi ricercatori riconoscono: il processo di smascheramento può essere altrettanto destabilizzante della manipolazione stessa. Alcuni attori potrebbero persino accogliere con favore che le loro operazioni vengano scoperte, ragionando che l’esposizione della manipolazione può seminare tanta confusione quanto l’inganno stesso. A questo si aggiunge il rischio che utenti reali vengano erroneamente identificati come bot — un’arma potenziale per screditare individui scomodi.

Il risultato è quello che gli autori definiscono epistemic vertigo: una vertigine epistemica in cui nessuno può più essere sicuro se una voce sia autentica o sintetica, e la stessa distinzione perde significato operativo. Combinato con il diluvio di contenuti AI a basso costo che satura i feed dei social media, questo potrebbe spingere verso un disimpegno dalla sfera pubblica che la democrazia non può permettersi.

Le contromisure: dalla difesa reattiva alla guerra economica

Il consenso tra i ricercatori è che le soluzioni puramente tecniche — filtri algoritmici, sistemi di detection — sono necessarie ma insufficienti. Schroeder, Kunst e colleghi propongono un approccio su più livelli che attacca l’economia della manipolazione piuttosto che i suoi prodotti.

Primo: simulare gli attacchi prima che si verifichino. Costruire reti sociali sintetiche popolate da agenti AI e rilasciare sciami di test in ambienti isolati, come un’esercitazione antincendio digitale. Secondo: rendere costoso essere una persona falsa, attraverso attestazioni crittografiche e standard reputazionali che rafforzino la provenienza dei contenuti — senza imporre un’identificazione centralizzata che metterebbe a rischio whistleblower e dissidenti. Terzo: istituire una rete distribuita di osservatori indipendenti — accademici e ONG — il cui mandato non sia decidere cosa è vero, ma rilevare quando il “pubblico” è in realtà uno sciame coordinato.

L’obiettivo, come sintetizzano Marcus e gli autori di Science, è invertire la fisica della manipolazione: rendere il costo di un falso consenso proibitivo per l’attaccante, la sua rete vulnerabile al collasso appena un singolo bot viene individuato, e tecnicamente impossibile far crescere una folla artificiale abbastanza grande da ingannare quella reale senza essere scoperti.

InterventoMeccanismoFonte / Proponente
Stress-test proattiviSimulazione di sciami in reti sociali sintetiche per identificare vulnerabilità prima degli attacchi realiSchroeder, Kunst et al. — Science, 2026
Attestazione crittograficaStandard di provenienza e meccanismi proof-of-human senza identificazione centralizzataMarcus — Substack, 2026; Schroeder et al.
Monitoraggio coordinatoAnalisi comportamentale di rete per rilevare correlazioni statisticamente improbabili tra accountMenczer — Indiana University, Observatory on Social Media
Osservatorio indipendenteRete distribuita di accademici e ONG per standardizzare le evidenze di manipolazione coordinataSchroeder, Kunst et al. — Science, 2026
Disincentivo economicoEliminazione della monetizzazione dell’engagement inautentico e aumento dei costi operativi per gli attaccantiMenczer — The Conversation, 2026; Marcus

La posta in gioco: non la verità, ma lo spazio del pensiero

Paolo Benanti, scienziato cognitivo e tra le voci più autorevoli dell’etica digitale italiana, inquadra la questione in una cornice che va oltre il perimetro tecnologico: la sfida non è limitare il danno delle macchine, ma preservare lo spazio della parola e del pensiero come luogo esclusivo della cittadinanza. È una distinzione cruciale. Il problema degli sciami di bot non è che producono bugie — le bugie sono vecchie quanto la politica. Il problema è che rendono impossibile distinguere il segnale dal rumore, l’opinione genuina dalla simulazione, il cittadino dall’algoritmo.

La democrazia può sopravvivere alle menzogne; ne ha gestite di enormi nel corso della storia. Ciò a cui non può sopravvivere è la perdita della condizione minima di funzionamento del suo meccanismo deliberativo: che le voci nel dibattito appartengano a esseri umani che parlano per sé stessi. Quando questa condizione viene meno, il voto, il sondaggio, la petizione, la manifestazione, il commento online — ogni strumento attraverso cui la volontà popolare si esprime e si misura — perde il suo fondamento epistemico.

I prossimi anni, come avverte Schroeder, saranno decisivi per stabilire se le democrazie riusciranno a contrastare questa nuova generazione di operazioni di influenza. La finestra per agire si sta restringendo. La domanda non è se gli sciami di AI verranno impiegati sistematicamente per manipolare le elezioni e il dibattito pubblico: è se, quando accadrà su scala piena, le democrazie avranno costruito le difese necessarie per sopravvivere.


Domande frequenti

Cosa sono gli sciami di bot AI?+

Gli sciami di bot AI sono reti di agenti artificiali autonomi che, a differenza dei bot tradizionali, si coordinano tra loro come un organismo unico. Mantengono identità persistenti, adattano linguaggio e tono in tempo reale e operano simultaneamente su più piattaforme. Secondo uno studio pubblicato su Science nel 2026, rappresentano una nuova frontiera nella guerra informativa.

Come funziona il consenso sintetico prodotto dagli sciami di bot?+

Il consenso sintetico è l’illusione di un accordo diffuso fabbricata da migliaia di agenti AI che appaiono indipendenti ma sono controllati da un unico operatore. Sfruttando il bias cognitivo della riprova sociale (social proof), gli sciami fanno percepire come maggioritarie opinioni che non hanno alcun radicamento reale nella popolazione.

Perché gli sciami di bot AI sono una minaccia per la democrazia?+

La democrazia presuppone che le voci nel dibattito pubblico appartengano a individui indipendenti. Gli sciami di bot AI dissolvono questa condizione: un singolo attore può simulare migliaia di cittadini, rendendo impossibile distinguere l’opinione genuina dalla manipolazione algoritmica. Secondo i ricercatori, questo mina alla radice il meccanismo deliberativo democratico.

Quanti account automatizzati ci sono sui social media?+

Secondo un’analisi peer-reviewed del 2025, circa un account su cinque nelle conversazioni online attorno a eventi di rilevanza pubblica risulta automatizzato. Nel 2024, i bot hanno inoltre superato per la prima volta gli utenti umani nel traffico web globale, rappresentando il 51% delle interazioni complessive.

Quali contromisure esistono contro gli sciami di bot AI?+

I ricercatori propongono un approccio su più livelli: stress-test proattivi con simulazioni di attacco, attestazioni crittografiche per certificare l’identità umana, monitoraggio comportamentale di rete per individuare coordinamenti anomali, osservatori indipendenti distribuiti e disincentivi economici che rendano la manipolazione troppo costosa per gli attaccanti.

Esistono casi documentati di sciami di bot AI usati per la disinformazione?+

Sì. Nel luglio 2024 il Dipartimento di Giustizia americano ha sequestrato due domini e 968 account su X collegati a una bot farm russa gestita con il software AI Meliorator. Gli account impersonavano cittadini americani e diffondevano narrative pro-Cremlino. È stata la prima disruption pubblica di una bot farm potenziata dall’intelligenza artificiale generativa.


Fonti principali:

  • D.T. Schroeder, J.R. Kunst et al., “How malicious AI swarms can threaten democracy”, Science, vol. 391, pp. 354-357, gennaio 2026
  • F. Menczer, “Swarms of AI bots can sway people’s beliefs — threatening democracy”, The Conversation, febbraio 2026
  • G. Marcus, “AI bot swarms threaten to undermine democracy”, Substack, gennaio 2026
  • U.S. Department of Justice, “Justice Department Leads Efforts to Disrupt Covert Russian Government-Operated Social Media Bot Farm”, luglio 2024
  • M. Cha, Max Planck Institute for Security and Privacy, dichiarazioni in MPG Research Report, gennaio 2026
  • H.Y. Yan, K.C. Yang, F. Menczer, “Exposure to social bots amplifies perceptual biases”, Scientific Reports, 2023
Related Posts