Legge intelligenza artificiale. professionisti: cosa cambia davvero dal 10 ottobre 2025

Legge 132/2025: obbligo di trasparenza per professionisti sull’uso dell’IA. Scopri le ambiguità normative e cosa fare subito per essere in regola.

Il 10 ottobre 2025 segna una data che molti professionisti italiani ricorderanno. Non per qualche rivoluzione digitale improvvisa, ma per l’entrata in vigore della Legge 132/2025 sull’intelligenza artificiale. Una norma che, sulla carta, promette chiarezza. Nella pratica, solleva più domande di quante ne risolva.

Prendiamo l’articolo 13, quello dedicato alle professioni intellettuali. Dice una cosa semplice: se usi l’IA nel tuo lavoro, devi dirlo al cliente. Suona ragionevole, no? Peccato che il diavolo, come sempre, si nasconda nei dettagli. E di dettagli, qui, ne mancano parecchi.

L’obbligo di trasparenza: tra teoria e realtà operativa

La legge impone ai professionisti di comunicare ai clienti l’uso di sistemi di intelligenza artificiale “con linguaggio chiaro, semplice ed esaustivo”. Bene. Ma esaustivo fino a che punto? Devo elencare ChatGPT, Claude, Perplexity uno per uno? O basta dire “utilizziamo strumenti di IA generativa per attività di supporto”?

Il testo normativo non lo specifica. E questo silenzio crea un vuoto interpretativo che molti studi professionali stanno già vivendo sulla propria pelle. C’è chi ha redatto informative di tre pagine, chi si è limitato a una clausola di due righe nel mandato. Entrambi potrebbero avere ragione. O entrambi torto.

Va detto che l’IA, negli studi, c’è già da tempo. I commercialisti la usano per l’elaborazione di calcoli fiscali complessi, gli avvocati per l’analisi di precedenti giurisprudenziali, i consulenti del lavoro per gestire scadenze contributive. Strumenti che fanno risparmiare ore di lavoro ripetitivo. Ma ora serve formalizzare, dichiarare, documentare.

I sistemi GPAI: il grande assente della normativa

Qui la questione si fa interessante. La Legge 132/2025 parla di “sistemi di intelligenza artificiale”, ma non menziona esplicitamente i modelli GPAI (General Purpose AI), quelli che usiamo tutti i giorni: i vari ChatGPT, Claude, Gemini. L’AI Act europeo li definisce chiaramente, ma la legge italiana no.

E allora? Un avvocato che usa Claude per una prima bozza di un contratto deve comunicarlo? Tecnicamente sì, se consideriamo i GPAI come “sistemi di IA”. Ma se la norma non li cita espressamente, qualcuno potrebbe sostenere che non ricadano nell’obbligo. Siamo nel regno dell’incertezza giuridica pura.

Questa ambiguità non è un dettaglio tecnico. È una questione che tocca migliaia di professionisti che ogni giorno si trovano a decidere se e come informare i clienti. Alcuni hanno scelto la via prudente: dichiarare tutto. Altri aspettano chiarimenti ufficiali. Altri ancora fanno finta di niente.

Il cliente può dire no?

Altra domanda senza risposta: se informo il cliente che userò l’IA, lui può opporsi? E se lo fa, cosa succede? Devo rifiutare l’incarico? Posso applicare un sovrapprezzo per il lavoro manuale aggiuntivo?

La legge tace. Eppure sono questioni pratiche, quotidiane. Immaginate un cliente che, dopo aver letto l’informativa, dice: “No, voglio che tutto sia fatto da lei, personalmente, senza computer”. Tecnicamente ne ha diritto. Ma poi come si quantifica il lavoro? Come si gestisce la relazione?

In altri ordinamenti, come quello francese, l’obbligo informativo si accompagna a precise indicazioni sul consenso del cliente. In Italia no. Forse perché si dà per scontato che l’IA resti “strumentale”, come dice la norma. Ma chiunque abbia usato ChatGPT per scrivere una relazione complessa sa che il confine tra “strumentale” e “sostanziale” è spesso una linea sottile, quasi invisibile.

Prevalenza del lavoro intellettuale: un principio difficile da misurare

La legge dice che l’IA deve essere utilizzata solo per “attività strumentali e di supporto”, mantenendo “la prevalenza del lavoro intellettuale” del professionista. Concetto nobile, ma nella pratica?

Se un commercialista usa un software IA per elaborare un bilancio consolidato di 200 società, ma poi ci mette sopra 10 ore di revisione critica, chi ha fatto il lavoro principale? L’algoritmo o il professionista? La prevalenza si misura in ore? In valore aggiunto? In responsabilità finale?

Forse l’aspetto più delicato è proprio questo: la legge cerca di proteggere il cuore della professione intellettuale, quel nucleo di giudizio critico che nessuna macchina può replicare. Ma nel farlo usa categorie vaghe, che nelle aule dei tribunali potrebbero diventare terreno di contenzioso.

Le sanzioni che non ci sono (per ora)

Curiosamente, la Legge 132/2025 non prevede sanzioni specifiche per chi non informa il cliente sull’uso dell’IA. Niente multe, niente sospensioni dall’albo. Almeno per ora. La norma delega al Governo l’emanazione di decreti attuativi entro 12 mesi, ed è lì che potrebbero arrivare le previsioni sanzionatorie.

Nel frattempo, cosa rischia un professionista inadempiente? In teoria, responsabilità disciplinare davanti al proprio Ordine, più eventuali profili di responsabilità civile se il cliente dimostra un danno. Ma in assenza di giurisprudenza, siamo nel campo delle ipotesi.

Va ricordato che gli Ordini professionali hanno già iniziato a muoversi. Alcuni hanno pubblicato linee guida operative, altri stanno organizzando corsi di formazione. Ma il quadro resta frammentato, con approcci diversi tra categorie e territori.

Diritto d’autore: un capitolo a parte

La Legge 132/2025 tocca anche il diritto d’autore, stabilendo che i contenuti generati “completamente in modo autonomo” dall’IA non godono di tutela. Questo significa che se un professionista produce un documento usando solo l’IA, senza apporto umano significativo, quel testo non è protetto.

Implicazione pratica: se un concorrente copia integralmente una relazione generata da ChatGPT, il professionista che l’ha commissionata potrebbe non avere strumenti legali per opporsi. Servirebbe dimostrare un intervento umano “creativo” sul testo finale. Altro tema nebuloso, destinato a finire prima o poi sui tavoli dei giudici.

Cosa fare subito: indicazioni operative

In attesa dei decreti attuativi e di chiarimenti ufficiali, i professionisti possono adottare alcune misure prudenziali:

Aggiornare i mandati professionali inserendo una clausola chiara sull’uso di strumenti IA, specificando che restano strumentali all’attività principale e che la responsabilità finale rimane del professionista.

Documentare l’uso dell’IA tenendo traccia di quali strumenti vengono utilizzati, per quali finalità e con quale livello di intervento umano successivo.

Formarsi sulla normativa partecipando agli incontri organizzati dagli Ordini professionali e seguendo l’evoluzione interpretativa della legge.

Adottare policy interne negli studi associati, definendo quali strumenti possono essere usati, da chi e per quali attività, garantendo uniformità di comportamento.

Valutare l’impatto sul pricing considerando che la trasparenza sull’uso dell’IA potrebbe influenzare le aspettative dei clienti su tempi e costi delle prestazioni.

L’alfabetizzazione digitale che manca

La Legge 132/2025 dedica ampio spazio all’alfabetizzazione digitale, prevedendo programmi formativi per cittadini, lavoratori e professionisti. È un passaggio necessario, perché molti clienti non sanno nemmeno cosa sia un modello linguistico generativo.

Informare il cliente sull’uso di ChatGPT ha senso solo se quel cliente capisce di cosa stiamo parlando. Altrimenti rischiamo di produrre informative tecnicamente corrette ma incomprensibili, vanificando lo spirito della norma.

Gli Ordini professionali potrebbero svolgere qui un ruolo chiave, non solo formando i propri iscritti ma anche contribuendo a educare il pubblico. Perché la trasparenza funziona solo quando c’è conoscenza condivisa.

Coordinamento con l’AI Act europeo: un equilibrio instabile

La Legge 132/2025 si inserisce nel quadro del Regolamento UE 2024/1689 (AI Act), che classifica i sistemi di IA in base al rischio e impone obblighi differenziati. L’AI Act è direttamente applicabile, la legge italiana lo integra su aspetti specifici.

Ma le due norme non sempre dialogano bene. L’AI Act parla di fornitori e deployer, la legge italiana di professionisti e clienti. L’AI Act distingue rischi inaccettabili, alti, limitati e minimi. La legge italiana introduce obblighi trasversali senza riferimento a questa classificazione.

Il risultato è un sistema normativo a due livelli, dove bisogna verificare di volta in volta quale norma si applica, con quale prevalenza e con quali effetti pratici. Una complessità che non aiuta chi deve lavorare, fatturare, rispettare scadenze.

FAQ

Devo informare il cliente anche se uso l’IA solo per attività interne, come la redazione di promemoria o ricerche preliminari?

La norma non distingue tra attività rivolte al cliente e uso interno. Per prudenza, molti studi stanno adottando un approccio inclusivo: se l’IA tocca anche indirettamente la prestazione professionale, viene dichiarata. In attesa di chiarimenti ufficiali, meglio abbondare.

Se il cliente si oppone all’uso dell’IA, posso rifiutare l’incarico o aumentare il compenso?

La legge non prevede espressamente il diritto di opposizione del cliente, ma in base ai principi generali del mandato professionale il cliente potrebbe rifiutare modalità operative non concordate. Sul fronte economico, nulla vieta di differenziare i compensi in base alle metodologie utilizzate, purché in modo trasparente e concordato.


Fonti e approfondimenti

Articoli simili

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.