IA generativa e Avvocati: le linee guida CCBE – IA e Avvocati (22)
1. IA generativa: perché le linee guida del CCBE contano per gli studi legali italiani
Il Consiglio degli ordini forensi d’Europa (CCBE) rappresenta gli Ordini e le associazioni forensi degli Stati membri dell’UE ed è il principale punto di riferimento etico‑professionale europeo.
La Guida del CCBE sull’uso dell’intelligenza artificiale generativa da parte degli avvocati del 2 ottobre 2025 non ha valore vincolante, ma interpreta e declina i principi della professione legale nell’era della GenAI.
La Guida si inserisce in un contesto in cui:
- il Regolamento (UE) 2024/1689 – AI Act è in vigore e impone obblighi anche agli utilizzatori di IA, categoria che comprende anche gli studi legali;
- gli Ordini forensi iniziano a pubblicare raccomandazioni sull’uso dell’IA nella pratica forense;
- numerosi studi legali sperimentano strumenti di GenAI per atti, ricerche e gestione documentale, spesso senza un quadro organizzato.
Questo articolo fornisce linee operative concrete per studi legali italiani che intendano adottare la GenAI (cloud o locale) in modo:
- conforme ai principi etico‑deontologici richiamati dal CCBE;
- allineato a GDPR e AI Act;
- sostenibile sotto il profilo organizzativo.
2. I riferimenti della Guida CCBE per l’IA generativa: etica prima della tecnologia
La Guida si fonda su tre documenti cardine:
- la Carta dei principi fondamentali della professione legale europea;
- il Modello di Codice deontologico europeo;
- il Regolamento (UE) 2024/1689 – AI Act.
Da questi discendono i principi che devono orientare l’avvocato nell’uso dell’IA generativa: riservatezza, competenza, indipendenza, controllo umano, trasparenza verso il cliente, corretta gestione dei dati e dei potenziali conflitti.
2.1 Riservatezza e segreto professionale
Il CCBE ribadisce che l’obbligo di riservatezza si applica integralmente anche nell’uso dell’IA generativa. L’avvocato deve evitare che informazioni confidenziali diventino accessibili in modo improprio.
Indicazioni operative per lo studio:
- evitare l’inserimento in piattaforme cloud generiche di dati che identifichino direttamente il cliente, salvo adeguate tutele contrattuali e tecniche;
- privilegiare soluzioni che consentano un maggiore controllo su dati, log e sicurezza (cloud con garanzie adeguate o sistemi locali);
- verificare contratti, privacy policy e condizioni dei fornitori, specie in tema di riuso degli input, trasferimenti extra‑UE e sub‑fornitori;
- adottare una policy interna che specifichi quali dati possono o non possono essere trattati tramite GenAI.
2.2 Competenza tecnologica e aggiornamento
L’uso dell’IA generativa è strettamente connesso al dovere di competenza professionale. L’avvocato deve comprendere limiti, rischi, contesto normativo e impatti sugli incarichi.
Per lo studio questo significa:
- formazione periodica documentata su GenAI, GDPR, AI Act e deontologia (utile anche ai fini dell’“AI literacy” dell’art. 4 AI Act);
- linee guida interne che chiariscano che la GenAI produce bozze, mai contenuti definitivi;
- designazione di uno o più referenti interni per il coordinamento sull’uso dell’IA.
2.3 Indipendenza e giudizio professionale
Il CCBE è chiaro: la GenAI assiste, non sostituisce l’avvocato.
Misure operative:
- ogni output dell’IA deve essere letto, verificato e corretto da un avvocato;
- non è ammissibile delegare a sistemi IA decisioni che producono effetti significativi sul cliente;
- adottare flussi strutturati: bozza IA → controllo giuridico → revisione → versione finale.
2.4 Trasparenza verso il cliente
Quando un cliente, se informato, potrebbe opporsi o porre condizioni all’uso della GenAI, l’avvocato deve informarlo.
Possibili applicazioni:
- informativa sull’uso della GenAI nella lettera di incarico o nell’informativa privacy;
- possibilità per il cliente di richiedere strumenti specifici o di limitare l’uso della GenAI;
- descrizione chiara del ruolo dell’IA: supporto e bozza, sempre con supervisione legale.
2.5 Conflitti di interesse e uso di dati di terzi
Alcuni modelli di GenAI possono essere addestrati su grandi corpora che includono contenuti legali. Questo può comportare rischi di conflitti e di riutilizzo improprio.
Lo studio può:
- scegliere strumenti che garantiscano la separazione dei dati di studio rispetto ad altri utenti;
- evitare soluzioni che prevedano il riuso dei dati per l’addestramento del modello;
- adottare modelli locali o sistemi RAG basati su materiale interno autorizzato.
3. IA generativa: rischi tipici secondo il CCBE e contromisure operative
I rischi evidenziati dalla Guida includono: protezione dei dati, errori o allucinazioni, bias, opacità dei modelli, problemi di copyright, cybersecurity e abusi (es. deepfake).
3.1 Rischio di allucinazioni e accuratezza
La GenAI può produrre testi convincenti ma errati.
Contromisure:
- evitare l’uso della GenAI per ottenere citazioni di norme o sentenze senza verifica;
- verificare sistematicamente le fonti suggerite dal modello;
- procedere in due fasi: ricerca su banche dati affidabili → sintesi tramite IA.
3.2 Bias, compiacenza e qualità del parere
La GenAI può incorporare bias o confermare le ipotesi dell’utente.
Misure utili:
- richiedere più scenari argomentativi (pro/contro);
- chiedere esplicitazione di limiti e incertezze;
- tracciare le interazioni significative per una futura revisione.
4. L’intreccio con l’AI Act: “AI literacy” e governance interna
Il CCBE collega esplicitamente l’uso della GenAI agli obblighi dell’AI Act.
L’art. 4 impone agli utilizzatori di assicurare adeguata alfabetizzazione sull’IA a chi opera con tali strumenti.
In pratica serve una governance interna che includa:
- mappatura dei casi d’uso della GenAI;
- scelta consapevole degli strumenti basata su valutazione dei rischi;
- regole d’uso chiare e documentate;
- formazione periodica dimostrabile.
5. Verso una policy interna di studio: applicazione operativa dei principi CCBE
La Guida non fornisce un modello precostituito, ma indica i principi a cui una policy di studio deve ispirarsi.
5.1 Ambito di applicazione
La policy può indicare:
- gli strumenti autorizzati (cloud selezionati, modelli locali, sistemi RAG);
- attività consentite (bozze, sintesi, classificazione documentale, traduzioni);
- attività vietate (caricare fascicoli completi, usare account personali, chiedere pareri “chiavi in mano” senza revisione).
5.2 Regole sui dati
- anonimizzazione/pseudonimizzazione per dati trattati in cloud non controllato;
- divieto di inserire provvedimenti non pubblici o informazioni coperte da segreto senza garanzie adeguate;
- definizione dei ruoli di chi può caricare contenuti nei sistemi locali/RAG.
5.3 Verifica degli output
- ogni contenuto generato deve essere identificato come bozza;
- l’avvocato responsabile deve verificare il documento prima dell’uso esterno;
- le citazioni normative e giurisprudenziali devono essere convalidate.
5.4 Logging, tracciabilità e revisione periodica
- conservazione controllata dei log delle interazioni principali;
- revisione annuale della policy IA per adeguarla a normative e nuove linee guida.
5.5 Valutazione dei rischi e documentazione interna
Una corretta applicazione delle linee guida CCBE richiede anche che lo studio documenti le proprie scelte tecniche e organizzative. Questo elemento, sebbene non imposto in modo prescrittivo dal CCBE, è del tutto coerente con l’approccio europeo alla governance dell’IA.
Lo studio dovrebbe quindi:
- registrare le valutazioni dei rischi relative ai vari strumenti utilizzati;
- documentare le ragioni delle scelte (ad es. perché preferire un modello locale a uno cloud);
- mantenere traccia degli aggiornamenti della policy IA.
5.6 Applicazione caso per caso
Il CCBE chiarisce che ogni studio deve valutare la proporzionalità e l’adeguatezza dell’uso della GenAI caso per caso. Non esistono soluzioni standard valide per ogni cliente o per ogni pratica.
Ciò implica che:
- alcune attività potranno essere svolte con il supporto della GenAI;
- altre richiederanno invece approcci più tradizionali, specie in presenza di dati estremamente sensibili o casi complessi.
5.7 Principio di non‑sfruttamento e rispetto dello Stato di diritto
La Guida collega l’uso dell’IA ai valori fondamentali della professione, tra cui il rispetto dello Stato di diritto e la tutela dei soggetti vulnerabili.
Lo studio legale dovrebbe quindi assicurare che l’IA non venga utilizzata in modi che possano:
- manipolare il cliente o influenzarne indebitamente le decisioni;
- generare pressioni indebite;
- creare squilibri nelle relazioni professionali.
6. Conclusioni: usare la GenAI restando nei principi CCBE
La Guida CCBE riconosce i vantaggi della GenAI — efficienza, analisi, gestione delle informazioni — ma ribadisce che l’uso deve rimanere ancorato ai principi della professione forense: riservatezza, indipendenza, competenza, lealtà verso il cliente e rispetto dello Stato di diritto.
Per uno studio legale italiano, applicare queste linee guida significa passare da un uso sporadico della GenAI a un uso professionale, governato e documentato: scelta consapevole degli strumenti, policy interna, formazione continua e controllo umano qualificato su ogni output.
Per un aiuto e per approfondire
Per un aiuto e per approfondire i temi dell’intelligenza artificiale nello studio legale, del legal tech e del legal design è online il GPT Iusreporter.tech (link esterno, richiede ChatGPT)
Per gli altri articoli pubblicati su questo blog sul tema:
Intelligenza artificiale e Avvocati
Scritto con l’aiuto di Iusreporter, il tuo assistente per la ricerca giuridica online
Studio legale Avvocato Giuseppe Briganti
Pesaro – Urbino
Post aggiornato alla data di pubblicazione

