ChatGPT entra nell’intimità. Con molta calma e poche regole
All’inizio sembrava una voce come tante. Una di quelle notizie che circolano, fanno sorridere per un istante e subito scompaiono. Poi è arrivata la conferma ufficiale: OpenAI consentirà l’accesso a contenuti “maturi” su ChatGPT per utenti adulti verificati. Nessuna svolta improvvisa, nessuna provocazione plateale. Solo una frase, pronunciata con apparente tranquillità dal CEO Sam Altman: «Vogliamo trattare gli adulti come adulti».
Detta così, suona persino ragionevole. Ma dietro quella normalità si nasconde un passaggio tutt’altro che secondario: l’intelligenza artificiale entra esplicitamente nello spazio dell’intimità personale.
Un confine che si sposta, senza fare rumore
Il percorso, a ben vedere, è coerente. Abbiamo affidato all’AI le nostre ricerche, poi le abitudini di consumo, quindi i documenti di lavoro, le email, i pensieri scritti di notte. Era inevitabile che prima o poi arrivasse anche il turno delle emozioni e del desiderio.
Non si parla di pornografia esplicita, né di chatbot erotici nel senso più grossolano del termine. Si parla piuttosto di una maggiore libertà nel trattare temi legati alla sessualità adulta, all’intimità, al linguaggio emotivo, superando rigidità e automatismi che finora hanno governato questi ambiti — spesso con risultati più grotteschi che prudenti.
Che Big Tech arrivasse fin lì era prevedibile. Meno scontato che a farlo fosse proprio OpenAI, finora percepita come l’attore più cauto e istituzionale del settore. Ma quando è in corso una competizione globale per il controllo dell’ecosistema dell’intelligenza artificiale, nessun ambito dell’esperienza umana resta davvero escluso.
Riepilogo: cosa cambia e perché conta
Accesso, verifica dell’età, privacy e responsabilità in sintesi.
| Tema | In pratica | Perché conta |
|---|---|---|
| Accesso | Contenuti “maturi” riservati a utenti adulti verificati | Riduce l’esposizione involontaria, ma non elimina i rischi |
| Verifica età | Documento, pagamento o stima automatica (approccio ibrido) | Coinvolge dati sensibili e possibili collegamenti con le chat |
| Privacy | Le conversazioni non sono coperte da segreto professionale | In casi specifici possono essere acquisite legalmente |
| Minori | Controlli presenti, ma identità dell’utente non verificabile | Per la tutela conta l’accesso, non l’intenzione |
| Dati intimi | Desideri ed emozioni diventano informazione | Profilazione e rischio di esposizione in caso di violazioni |
Nota editoriale: la tabella riassume lo stato attuale delle dichiarazioni di OpenAI. Modalità operative e limiti potranno evolvere con il rilascio ufficiale delle funzionalità.
Il punto non è il sesso, ma i dati
La questione non è morale, né scandalistica. Il nodo vero è un altro: l’intimità digitale è fatta di dati, e i dati non sono mai neutrali.
Lo dimostrano fatti recenti. Decine di milioni di messaggi intimi, immagini e video provenienti da applicazioni progettate per simulare relazioni personali tramite intelligenza artificiale sono stati esposti online a causa di gravi falle di sicurezza. Non si trattava di contenuti marginali, ma di confessioni, fantasie, fragilità emotive. Materiale profondamente umano.
Quando informazioni di questo tipo finiscono fuori controllo, il rischio non è teorico: ricatti, frodi, estorsioni sono conseguenze concrete, già viste.
Una privacy più fragile di quanto sembri
OpenAI dispone di infrastrutture di sicurezza molto più avanzate rispetto a molte applicazioni minori. Questo è indubbio. Ma resta un dato fondamentale, spesso ignorato: le conversazioni con ChatGPT non sono coperte da alcuna forma di segreto professionale. In caso di richiesta giudiziaria, possono essere acquisite.
A questo si aggiunge il tema della verifica dell’età. Per consentire l’accesso ai contenuti “maturi”, OpenAI dovrà identificare gli utenti adulti, ricorrendo a documenti, strumenti di pagamento o sistemi di stima automatica. Tutte soluzioni che implicano la gestione di informazioni sensibili.
Il rischio non sta tanto nella procedura in sé, quanto nella possibilità — anche remota — di collegare identità verificate a cronologie di conversazioni intime. È qui che la percezione di sicurezza comincia a incrinarsi.
Chi c’è davvero dietro la tastiera?
Esiste poi un problema più sottile, ma non meno serio: l’identità dell’utente effettivo. Un account resta aperto. Un’altra persona scrive. Una frase ambigua viene interpretata in modo errato. Il sistema risponde.
L’intelligenza artificiale non è in grado di sapere chi stia usando la tastiera in quel momento. E le norme sulla tutela dei minori non si basano sulle intenzioni, ma sull’accesso. Questo crea una zona di responsabilità poco chiara, in cui tecnologia, diritto e buon senso faticano a incontrarsi.

Desideri come informazione
Quando una persona parla delle proprie fantasie con un’AI, non sta solo comunicando: sta fornendo informazioni estremamente preziose.
Dal punto di vista tecnologico è apprendimento. Da quello commerciale è profilazione. Da quello etico è un terreno delicato. La normativa europea sull’intelligenza artificiale tenta di classificare i sistemi in base al rischio, ma non vieta i contenuti in quanto tali. L’erotismo resta così in una zona giuridica ambigua, soprattutto quando entra in gioco la dimensione emotiva.
Il problema si amplifica su scala globale: ciò che è consentito in un Paese è vietato in un altro. L’AI, però, non conosce confini nazionali.
Cosa dice la legge (e cosa non dice)
Le norme parlano di trasparenza, diritti, tutela dall’abuso. Ma spesso producono più rassicurazione che protezione effettiva.
I diritti, per essere tali, devono poter essere esercitati. E nella relazione tra singoli utenti e grandi piattaforme tecnologiche, l’asimmetria resta evidente.
Ancora una domanda, tutt’altro che teorica
Un chatbot non è solo uno strumento: è una memoria. E quando quella memoria inizia a riconoscere schemi emotivi, a prevedere bisogni, a rendere le interazioni sempre più coinvolgenti, la domanda diventa inevitabile: chi possiede quelle informazioni?
L’apertura “per adulti” di ChatGPT non riguarda davvero il sesso. Riguarda il potere di definire i confini dell’intelligenza artificiale, mentre le regole cercano di rincorrerla. Per ora la tecnologia avanza con passo sicuro.
Il diritto segue, più lentamente. E gli utenti, come sempre, accettano le condizioni. Questa volta, però, non si tratta solo di comodità. Si tratta di intimità.
