Intelligenza artificiale e conformità all’AI Act europeo: consulenza e assistenza legale
Lo Studio legale
Lo Studio legale dell’Avv. Giuseppe Briganti offre servizi di consulenza e assistenza legale in materia di intelligenza artificiale (IA), con un focus sulla conformità al Regolamento europeo sull’IA (AI Act).
L’Avv. Giuseppe Briganti ha frequentato corsi di formazione in materia di intelligenza artificiale e legal tech, conseguendo, in particolare, attestato di frequenza e profitto in corso universitario per “specialista in sistemi di intelligenza artificiale”, con formazione specifica per le figure di:
- AI Compliance Manager
- AI Risk Manager
- AI Ethics Officer
- AI User Protection Advisor
- Deployer
E’ autore della guida “SPERIMENTARE L’INTELLIGENZA ARTIFICIALE NELLO STUDIO LEGALE“.
Lo Studio legale assiste i Clienti nell’adozione responsabile dell’IA, nella gestione delle tecnologie ad alto rischio e nella redazione di policy conformi all’AI Act.
Per contattare lo Studio legale clicca qui
AI Act: il regolamento europeo sull’intelligenza artificiale
Il Regolamento (UE) 2024/1689 (AI Act), approvato il 13 marzo 2024 ed entrato in vigore il 1° agosto 2024, è il primo quadro normativo globale sull’intelligenza artificiale.
Introduce un approccio basato sul rischio e impone obblighi differenziati a seconda del tipo e dell’utilizzo del sistema AI.
Ecco i punti essenziali:
- Classificazione basata sul rischio:
- Rischio inaccettabile: sono vietati i sistemi che presentano minacce evidenti ai diritti fondamentali (es. manipolazione subliminale, social scoring, riconoscimento facciale in tempo reale in spazi pubblici se non autorizzato).
- Alto rischio: sistemi utilizzati in ambiti come istruzione, giustizia, lavoro, sicurezza, sanità, devono rispettare requisiti stringenti (artt. 6-51), inclusi valutazione d’impatto, gestione del rischio, trasparenza, documentazione tecnica e sorveglianza post-market.
- Rischio limitato: sono previsti obblighi di trasparenza (es. chatbot che devono dichiararsi come tali).
- Rischio minimo: sono ammessi senza requisiti specifici, ma incoraggiati al rispetto dei codici di condotta.
- Modelli di intelligenza artificiale a uso generale (GPAI):
- Sono soggetti a specifici obblighi di documentazione, trasparenza e auditing. Tali obblighi sono ulteriormente rafforzati per i modelli di intelligenza artificiale a uso generale che presentano rischio sistemico (ossia dotati di elevate capacità di impatto), come ad esempio i modelli linguistici di grandi dimensioni (LLM) impiegati per la generazione di contenuti generalisti.
- Obblighi di conformità per i sistemi di IA ad alto rischio:
- Sono previsti requisiti stringenti di valutazione del rischio e gestione della sicurezza, sorveglianza post-market, marcatura CE, registrazione nel database europeo dedicato, tracciabilità delle operazioni e supervisione umana efficace.
- Per le altre categorie di rischio si applicano obblighi proporzionati: ad esempio, per i sistemi a rischio limitato (come i chatbot) è richiesta trasparenza verso l’utente, mentre per i sistemi a rischio minimo non sono previsti obblighi specifici.
- AI Literacy:
- Dal 2 febbraio 2025 scatta l’obbligo per provider e deployer di acquisire competenze adeguate sull’uso responsabile e conforme dell’intelligenza artificiale.
Sanzioni
Il Regolamento europeo stabilisce un sistema sanzionatorio articolato e severo per garantire il rispetto delle nuove regole da parte di tutti gli attori coinvolti.
Le sanzioni possono arrivare fino a 35 milioni di euro o fino al 7% del fatturato mondiale annuo dell’azienda, scegliendo il valore più alto nei casi più gravi (ad esempio per la vendita o l’uso di sistemi di IA vietati a rischio inaccettabile).
Multe inferiori (ma comunque rilevanti: fino a 15 milioni di euro/3% del fatturato) sono previste per la violazione degli obblighi sulle valutazioni di rischio, la documentazione tecnica, la registrazione o la trasparenza.
Anche la mancata collaborazione con le autorità di vigilanza può determinare sanzioni.
Il Regolamento prevede inoltre strumenti di ispezione preventiva, correttivi a tutela dei diritti degli interessati, e richiama gli Stati membri a garantire che le sanzioni siano effettive, proporzionate e dissuasive.
Esempi pratici:
- Una banca che utilizza sistemi AI per valutare il merito creditizio deve effettuare una valutazione d’impatto e garantire supervisione umana.
- Un ospedale che adotta un sistema AI per la diagnosi automatica è soggetto a requisiti di tracciabilità, sicurezza e gestione del rischio.
- Un’azienda che impiega chatbot per il servizio clienti deve informare chiaramente gli utenti che stanno interagendo con una macchina.
Servizi legali su misura per l’intelligenza artificiale
- Compliance normativa AI
- Analisi legale dei sistemi AI, anche pre-market
- Redazione di policy e procedure conformi all’AI Act
- Classificazione del rischio AI, motivazioni di esclusione/inclusione
- Strategia di implementazione compliance e supporto per registrazione nel database europeo dei sistemi ad alto rischio
- Gestione del rischio e valutazioni di impatto
- Analisi dei rischi derivanti dall’uso di IA
- Redazione di valutazioni d’impatto
- Definizione di strategie per mitigare bias, rischi etici e discriminazioni
- Supporto nella predisposizione di policy di governance dei dati e misure di cybersecurity
- Documentazione tecnica, audit legale
- Assistenza nella redazione e manutenzione di registri, log e fascicoli tecnici obbligatori
- Supporto e accompagnamento durante audit, ispezioni ufficiali e richieste d’informazioni da parte delle autorità di vigilanza
- Formazione e aggiornamento professionale (AI Literacy)
- Programmi formativi e workshop per dirigenti, legali, tecnici, operatori e utenti finali
- Percorsi personalizzati e soluzioni e-learning interattive sulla compliance AI
- Contrattualistica AI e modelli di responsabilità
- Redazione e revisione di contratti per progetti IA
- Assistenza nella gestione della compliance contrattuale e dei rischi legati alla filiera
- Supporto nella predisposizione di clausole su auditing, cybersecurity e obblighi di cooperazione
- Monitoraggio post-market e aggiornamento normativo
- Sorveglianza legale sull’utilizzo continuativo dell’IA (monitoraggio post-market)
- Report periodici su novità normative, linee guida e casi giurisprudenziali rilevanti
- Assistenza nelle comunicazioni con autorità di vigilanza, nei processi di adeguamento e in eventuali procedimenti ispettivi o sanzionatori.
Studio legale Avvocato Giuseppe Briganti
Fermignano (Pesaro – Urbino) e Pesaro
Ultimo aggiornamento: luglio 2025


