Sicurezza

I rischi dell'AI nella pratica legale: cosa succede ai tuoi dati

10 min di lettura Aggiornato: Marzo 2026

La tentazione è comprensibile. Un cliente ti manda una clausola contrattuale da analizzare, apri ChatGPT, la incolli, scrivi “analizza questa clausola e dimmi se è valida secondo il diritto italiano”, e in dieci secondi hai una risposta strutturata. Sembra efficienza pura. Sembra il futuro della professione.

Ma fermati un momento. Quella clausola contiene i nomi delle parti, importi, condizioni riservate, magari dati sensibili. Dove sono finiti quei dati? Chi li sta leggendo? Per quanto tempo verranno conservati? E soprattutto: hai appena violato il segreto professionale?

1. La tentazione del prompt veloce

Immagina la scena. È venerdì pomeriggio, il cliente ha bisogno di un parere entro lunedì. Hai una clausola di earn-out particolarmente complessa e vuoi verificare rapidamente la giurisprudenza sulla determinabilità del prezzo. Apri il browser, vai su ChatGPT, incolli l'intera clausola — nomi delle parti, importi, condizioni sospensive, tutto — e chiedi un'analisi.

Il gesto sembra innocuo. Non stai pubblicando nulla, non stai condividendo con terzi. Stai solo “chiedendo a un computer”. Ma le implicazioni di quel semplice copia-incolla sono profonde, e riguardano tre dimensioni distinte: la riservatezza dei dati del cliente, la conformità al GDPR e l'obbligo deontologico di segreto professionale.

Il problema fondamentale è questo: gli strumenti di AI consumer — ChatGPT nella versione gratuita o Plus, Google Gemini, Microsoft Copilot — non sono progettati per gestire dati riservati. Non offrono isolamento dei dati tra utenti diversi, non garantiscono che i contenuti non vengano utilizzati per l'addestramento del modello, non forniscono un audit trail, non includono un DPA (Data Processing Agreement) conforme all'art. 28 del GDPR.

In altre parole: sono strumenti eccellenti per uso personale, ma strutturalmente inadeguati per la pratica professionale forense.

2. Cosa succede ai tuoi dati

Quando incolli del testo in un chatbot AI consumer, quel testo viene trasmesso ai server del provider, elaborato dal modello e — nella maggior parte dei casi — conservato. Vediamo nel dettaglio cosa accade con i principali strumenti.

Data retention

OpenAI, nella versione consumer di ChatGPT, conserva le conversazioni per impostazione predefinita. Anche quando l'utente disattiva la cronologia, i dati vengono comunque conservati per 30 giorni “per finalità di sicurezza” prima di essere cancellati. Google Gemini dichiara esplicitamente che le conversazioni possono essere esaminate da revisori umani per migliorare il servizio. Microsoft Copilot nella versione consumer segue pattern analoghi.

Trenta giorni possono sembrare pochi, ma per un atto riservato contenente dati personali e informazioni coperte da segreto professionale, anche trenta secondi sono troppi se i dati risiedono su server di terzi senza le garanzie previste dalla normativa.

Training data

Il rischio più insidioso riguarda l'utilizzo dei dati per l'addestramento del modello. I Terms of Use di OpenAI (aggiornati a marzo 2024) prevedono che, nella versione consumer, i contenuti delle conversazioni possano essere utilizzati per migliorare i modelli, salvo opt-out esplicito da parte dell'utente. Questo significa che la clausola contrattuale che hai incollato potrebbe — in forma aggregata e rielaborata — contribuire all'addestramento di future versioni del modello.

Il caso Samsung del 2023 ha reso concreto questo rischio. In tre incidenti separati, ingegneri di Samsung Electronics hanno incollato codice sorgente proprietario e verbali di riunioni riservate in ChatGPT. I dati sono stati trasmessi ai server di OpenAI e potenzialmente incorporati nei dati di addestramento. Samsung ha successivamente vietato l'uso di ChatGPT a tutta l'azienda.

Server location

I server di OpenAI, Google e Microsoft sono prevalentemente negli Stati Uniti. Ogni volta che incolli del testo in ChatGPT, stai effettuando un trasferimento di dati personali verso un paese terzo ai sensi degli artt. 44-49 del GDPR. Dopo la sentenza Schrems II della Corte di Giustizia UE (C-311/18, 16 luglio 2020), che ha invalidato il Privacy Shield, i trasferimenti di dati verso gli USA richiedono garanzie supplementari che un semplice account ChatGPT non fornisce.

Nessun isolamento

Nelle versioni consumer, non esiste isolamento tra le conversazioni di utenti diversi. I dati del tuo cliente e quelli di milioni di altri utenti transitano sulla stessa infrastruttura senza segregazione logica. Non esiste la possibilità di imporre data residency in UE, né di ottenere certificazioni sulla cancellazione effettiva dei dati.

Nota legale

Il semplice atto di incollare una clausola contrattuale in un chatbot generico costituisce un trasferimento di dati personali a un soggetto terzo, con tutte le implicazioni previste dal GDPR. Se la clausola contiene dati riferibili a persone fisiche identificate o identificabili, l'avvocato sta effettuando un trattamento di dati che richiede una base giuridica, un'informativa e un DPA con il provider.

3. I precedenti: quando l'AI in tribunale va male

I rischi non sono teorici. Negli ultimi due anni si è accumulata una casistica significativa di incidenti legati all'uso improprio dell'AI nella pratica professionale. Ogni caso offre una lezione specifica.

Garante Privacy vs OpenAI (2023)

Il 30 marzo 2023 il Garante per la protezione dei dati personali italiano ha emesso un provvedimento d'urgenza che ha portato al blocco temporaneo di ChatGPT in Italia — il primo provvedimento di questo tipo al mondo. Le contestazioni riguardavano l'assenza di una base giuridica per il trattamento dei dati personali degli utenti, la mancanza di un sistema di verifica dell'età, l'assenza di un'informativa adeguata e l'impossibilità per gli interessati di esercitare i propri diritti.

OpenAI è stata sanzionata per 15 milioni di euro. Al di là dell'importo, il precedente ha stabilito un principio importante: anche i grandi operatori tecnologici sono soggetti alla normativa europea sulla protezione dei dati, e l'innovazione non è un'esimente.

Mata v. Avianca (2023)

Nel giugno 2023, il caso Mata v. Avianca ha scosso la comunità legale internazionale. L'avvocato Steven Schwartz, dello studio Levidow, Levidow & Oberman di New York, ha presentato una memoria contenente sei precedenti giurisprudenziali a supporto della propria tesi. Il problema: nessuno di quei precedenti esisteva. Erano stati interamente generati da ChatGPT — nomi di parti, riferimenti di causa, citazioni di massime — tutti inventati dal modello con quella che in gergo tecnico si chiama “allucinazione”.

Il giudice P. Kevin Castel ha sanzionato entrambi gli avvocati per 5.000 dollari ciascuno, definendo il loro comportamento “un atto senza precedenti”. La sanzione è stata relativamente mite, ma il danno reputazionale incalcolabile. La lezione: l'AI può generare contenuti giuridici perfettamente plausibili nella forma ma completamente falsi nella sostanza. Senza verifica umana, il rischio è catastrofico.

Samsung Electronics (2023)

In tre incidenti distinti, ingegneri di Samsung hanno incollato in ChatGPT: codice sorgente di semiconduttori proprietari, appunti di riunioni interne strategiche e dati di performance riservati. In tutti i casi, i dipendenti stavano cercando di usare l'AI per velocizzare il proprio lavoro — esattamente la stessa motivazione che spinge un avvocato ad incollare una clausola.

Samsung ha risposto con un ban aziendale totale di ChatGPT e di tutti gli strumenti di AI consumer. Numerosi studi legali internazionali hanno seguito l'esempio con policy analoghe, riconoscendo che il rischio non risiede nella tecnologia in sé, ma nell'uso di strumenti consumer per dati professionali.

Tribunale di Firenze (2024)

Con un'ordinanza dell'aprile 2024, il Tribunale di Firenze (Sezione Lavoro) si è pronunciato per la prima volta in Italia sull'uso di contenuti generati dall'AI nei procedimenti giudiziari. Il provvedimento ha enfatizzato il dovere di verifica e di supervisione umana: il professionista legale che utilizza strumenti di intelligenza artificiale resta pienamente responsabile della veridicità e dell'accuratezza dei contenuti presentati al giudice. L'AI è uno strumento, non un sostituto del giudizio professionale.

Tribunale di Torino (2024)

Nello stesso anno, il Tribunale di Torino (Sezione Civile) ha fornito ulteriori indicazioni sull'uso accettabile dell'AI nella pratica legale, ribadendo che la responsabilità professionale non è delegabile a uno strumento tecnologico e che l'avvocato deve essere in grado di giustificare autonomamente ogni affermazione contenuta nei propri atti, indipendentemente dalla fonte che l'ha generata.

Denominatore comune

In tutti questi casi, il denominatore comune è lo stesso: dati riservati inseriti in strumenti non progettati per la riservatezza professionale, oppure contenuti generati dall'AI accettati senza verifica. Il rischio non è l'AI in sé — è l'uso di strumenti inadeguati al contesto professionale.

4. Il quadro normativo: tre obblighi sovrapposti

L'avvocato italiano che utilizza strumenti di intelligenza artificiale è soggetto a tre livelli normativi distinti e cumulativi. Ignorarne anche solo uno espone a sanzioni concrete.

Codice Deontologico Forense (Art. 28)

L'art. 28 del Codice Deontologico Forense impone il dovere di riservatezza su tutto ciò che l'avvocato apprende nell'esercizio della professione. Non si tratta di una raccomandazione: la violazione del segreto professionale può comportare la sospensione dall'esercizio della professione da due a sei mesi. Il dovere di riservatezza si estende a qualsiasi forma di comunicazione e a qualsiasi destinatario — inclusi i server di un provider di AI.

Il Consiglio Nazionale Forense non ha ancora emanato linee guida specifiche sull'uso dell'AI, ma il principio è chiaro: il segreto professionale non ammette eccezioni tecnologiche. Se incolli dati del cliente in uno strumento che non offre garanzie di riservatezza adeguate, stai violando l'art. 28.

GDPR (Reg. UE 2016/679)

Il GDPR impone obblighi specifici che si applicano direttamente all'uso di strumenti AI:

Le sanzioni per violazione del GDPR arrivano fino a 20 milioni di euro o al 4% del fatturato annuo globale — quale dei due importi sia superiore.

L. 132/2025 (Recepimento AI Act)

La Legge 132/2025, che ha recepito l'AI Act europeo nell'ordinamento italiano, introduce obblighi specifici per i professionisti che utilizzano sistemi di intelligenza artificiale:

Questi tre livelli normativi si sovrappongono. Un singolo atto — incollare una clausola riservata in ChatGPT — può simultaneamente violare il segreto professionale (sanzione deontologica), il GDPR (sanzione amministrativa) e la L. 132/2025 (ulteriore sanzione amministrativa). Le conseguenze non sono alternative: sono cumulative.

5. L'alternativa: strumenti dedicati GDPR-compliant

Il punto di questo articolo non è scoraggiare l'uso dell'AI. Al contrario: l'intelligenza artificiale è uno strumento straordinario per la professione legale, e chi non lo adotta rischia di perdere competitività. Il punto è scegliere lo strumento giusto.

Uno strumento AI progettato per la pratica legale dovrebbe offrire, come minimo:

edit.legal è stato progettato fin dal primo giorno per soddisfare ciascuno di questi requisiti. Non come funzionalità aggiuntive, ma come fondamenta dell'architettura. I dati non lasciano l'infrastruttura europea. Non vengono mai utilizzati per l'addestramento. Ogni organizzazione opera in un ambiente isolato. Il DPA è incluso per tutti i piani, non solo per l'enterprise.

Questo non significa che edit.legal sia immune da errori — nessun sistema AI lo è. Ma significa che gli errori sono circoscritti all'accuratezza della risposta (verificabile dal professionista), non alla sicurezza dei dati (fuori dal controllo dell'utente negli strumenti consumer).

Non chiediamo di fidarti. Chiediamo di verificare.

6. Fonti e riferimenti

  1. OpenAI Terms of Use (updated March 2024) — Data Usage Policy
  2. Garante per la protezione dei dati personali, Provvedimento del 30 marzo 2023 [9870832]
  3. Mata v. Avianca, Inc., No. 22-cv-1461 (S.D.N.Y. June 22, 2023)
  4. Samsung Electronics, Internal Memo — ChatGPT Usage Ban (May 2023)
  5. Codice Deontologico Forense, Art. 28 — Riservatezza
  6. Regolamento UE 2016/679 (GDPR), Artt. 28, 32, 44-49
  7. L. 132/2025 — Disposizioni per l'adeguamento della normativa nazionale all'AI Act
  8. Tribunale di Firenze, Sez. Lav., Ord. 4 aprile 2024
  9. Tribunale di Torino, Sez. Civ., Provvedimento 2024
  10. CCBE — Council of Bars and Law Societies of Europe, Guidance on AI (2024)
  11. Corte di Giustizia UE, Schrems II (C-311/18), 16 luglio 2020

Lavora con l'AI senza compromettere i dati

edit.legal è progettato per il segreto professionale. Prova gratuita di 7 giorni.

Inizia ora →