Wikipedia perde traffico “umano”: davvero è colpa dell’IA?
Wikipedia perde traffico umano? Negli ultimi giorni è rimbalzata ovunque la notizia: Wikipedia ha meno contatti perché la gente “chiede a ChatGPT” o legge i riassunti AI di Google senza aprire i siti. Dietro il titolo c’è un fatto reale — un calo delle pageview umane intorno all’8% rispetto agli stessi mesi del 2024 — ma anche diversi strati di complessità che vale la pena analizzare con calma, dati alla mano.
Cosa è successo davvero (e cosa significa “traffico umano”)
Il punto di partenza è un post ufficiale del Wikimedia Foundation: dopo un miglioramento degli algoritmi che distinguono esseri umani e bot (necessario perché in primavera 2025 si era visto un picco anomalo dovuto a bot “mimetizzati”), la fondazione osserva che le pageview umane sono scese di circa l’8% rispetto agli stessi mesi del 2024. Il dato, depurato dal rumore dei crawler, è dunque più affidabile rispetto al recente passato. La fondazione collega questa flessione a due grandi forze: generative AI (che fornisce risposte direttamente nella SERP o in chat) e social video (abitudini informative più “chiuse” dentro piattaforme).
Perché la distinzione conta
Quando si “ripulisce” il traffico dai bot, spesso si scopre che il volume apparente era gonfiato. Rivedere i filtri può far scendere il numero assoluto ma aumenta la qualità dell’indicatore per il futuro. In parallelo, la stessa Wikimedia ha segnalato un forte incremento di bandwidth consumata da scraper e dataset builder per addestrare IA: sintomo che Wikipedia resta una miniera di dati, anche quando l’utente finale non atterra più sulla pagina.
Il ruolo dei riassunti AI nelle ricerche (e perché abbassano i click)
Esistono ormai studi indipendenti sul comportamento in SERP quando compaiono i riassunti AI: la propensione al click cala. Una rilevazione del Pew Research Center (primavera 2025) e analisi sul campo riportate da Digital Content Next e da Search Engine Journal convergono: in presenza di riassunti generati dall’IA gli utenti cliccano meno, con stime di riduzioni dei CTR che oscillano — a seconda di query e vertical — tra ~34% e 46%. In altre parole: più risposta on-SERP, meno traffico ai siti sorgente.
Sul fronte regolatorio, il tema è già finito sui tavoli antitrust in UE e in tribunali statunitensi: editori e piattaforme educative lamentano che i riassunti di Google drenano traffico e valore economico; Google ribatte che le IA “portano comunque miliardi di click” e che l’impatto varia per categoria e stagione. La disputa è aperta.

È “colpa” di ChatGPT & co.? Sì… ma non solo
Che l’IA generativa stia sostituendo parte delle visite dirette è plausibile e documentato anche su Wikipedia: studi accademici e analisi di mercato mostrano che gli articoli più “ChatGPT-like” (facili da riassumere in modo affidabile) subiscono più perdita di traffico. Ma c’è altro: spostamento d’uso verso social video (YouTube/TikTok per “how-to”, storia, scienza divulgativa), più consumo di snippet e zero-click search in generale. Il fenomeno riguarda l’intero web, non solo Wikipedia.
Effetti collaterali da considerare
- Sostenibilità dell’ecosistema: meno visite può significare meno donazioni e minore ingaggio dei volontari, linfa vitale per la qualità e l’aggiornamento di Wikipedia
- Dipendenza circolare: i modelli generativi si alimentano anche con dati e strutture di Wikipedia; se l’enciclopedia si impoverisce, nel medio periodo ne risente anche la qualità delle risposte AI. È il classico problema del “common good” sfruttato ma poco rifinanziato.
Quanto è grande il problema?
Un –8% non è una “catastrofe” ma è statisticamente solido e, soprattutto, coerente con le curve che vediamo per molti editori informativi. Va letto dentro tre caveat:
- Metodologia rivista: il confronto y/y è più pulito perché oggi i bot vengono filtrati meglio — quindi, paradossalmente, una parte del “calo” è buona notizia metodologica.
- Stagionalità/tematiche: alcune aree (cronaca, sport, cultura pop) risentono di cicli; i mesi considerati e gli eventi dell’anno contano
- Ricomposizione del traffico: una quota di consumo informativo indiretto (via AI o social) non appare nelle pageview ma continua a dipendere dal contenuto di Wikipedia; il valore sociale resta elevato anche se non “misurato” dal click.
Che cosa può fare Wikipedia (e, più in generale, i produttori di conoscenza)
a) Attribuzione, licenze e canali enterprise. Wikimedia sta spingendo su Wikimedia Enterprise e su strumenti di accesso responsabile alle API/dataset: l’idea è allineare grandi utilizzatori (motori, modelli AI) a schemi di attribuzione corretta, rate-limiting e, dove appropriato, riconoscimento economico. Non “una paywallizzazione”, ma una forma di fair use strutturata.
b) Dati migliori > decisioni migliori. Continuare a raffinare il bot detection e distinguere le fonti di domanda (search, direct, social, AI referer quando esiste) permette di capire dove e come intervenire (es. migliorare snippet, grafi di navigazione, contenuti multimediali).
c) Esperienze “nativamente riassunte” ma human-in-the-loop. La community è storicamente prudente sull’uso generativo (spesso a ragione), ma si può esplorare summary layer verificato in cima alle voci ad alta domanda, con chiara attribuzione a fonti interne, versionamento e controlli editoriali — per competere con la sintesi “esterna” senza sacrificare qualità e trasparenza. (Il dibattito su questo tema è vivo e non privo di attriti interni).
d) Partnership e standard aperti. Spingere su standard di citazione/attribuzione machine-readable (schema.org/CreativeWork + provenance), così che i riassunti AI debbano mostrare il percorso delle fonti, con link espliciti e magari segnali di qualità (data di aggiornamento, numero di revisioni, ecc.). Questo aiuta anche gli LLM a scegliere versioni più aggiornate.
Wikipedia perde traffico umano? lezioni generali
- La battaglia è per l’“on-SERP value”: se la risposta sta in SERP/Chat, spostiamo valore lì: snippet arricchiti, dati strutturati, grafi, FAQ aggiornate — tutto con controllo semantico e misure anti-allucinazione.
- Misurare il “consumo invisibile”: modelli di media mix che includano indirect consumption (es. brand search lift, navigazione di ritorno, donation lift) quando l’utente non clicca ma è comunque “nutrito” dai nostri contenuti.
- Regole e incentivi: la discussione antitrust su AI Overviews non è solo “difesa di rendita” degli editori; tocca l’equilibrio tra innovazione e sostenibilità di chi produce conoscenza. Servono regole chiare di attribuzione e incentivi all’uso responsabile dei dati.
Meno click non significa meno valore, ma il valore va protetto
Wikipedia resta infrastruttura pubblica del web della conoscenza. Che una parte crescente di informazione venga consumata “a monte” (SERP/LLM/social) non toglie importanza al bene comune che alimenta tutto il resto. Il rischio vero non è il voto trimestrale sui click, ma un effetto erosivo sulla manutenzione di lungo periodo: meno volontari motivati, meno donazioni, meno cura dei dettagli che fanno la differenza tra un’enciclopedia affidabile e un mare di slop sintetico. Qui si gioca la partita: difendere provenienza, attribuzione e sostenibilità senza soffocare l’innovazione.
