E-Mail: [email protected]
- Nuovo reato: diffusione illecita di IA, pena da 1 a 5 anni.
- Aggravante: aumento pena fino a un terzo se IA ingannevole.
- Pene fino a 7 anni e 6 milioni di euro per reati finanziari.
L’irruzione dell’intelligenza artificiale (IA) ha rappresentato un punto di inflessione nell’evoluzione tecnologica e sociale, aprendo scenari ricchi di opportunità, ma contestualmente generando sfide etiche e giuridiche del tutto nuove. Il legislatore italiano, avvertendo l’urgenza di disciplinare questo settore in rapidissima evoluzione, ha introdotto modifiche normative significative, con ripercussioni sia sul codice penale, sia sul mondo del lavoro e delle professioni.
L’IA entra nel codice penale: un nuovo reato
Il 10 ottobre 2025 segna l’inizio dell’efficacia della legge n. 132/2025, che introduce nel codice penale l’articolo 612-quater, denominato “diffusione illecita di contenuti generati o alterati mediante sistemi di intelligenza artificiale”. Questa inedita normativa stabilisce pene detentive da uno a cinque anni per chiunque divulghi, ceda o renda pubblici, senza il consenso della persona interessata, immagini, video o registrazioni vocali artefatte o modificate con l’ausilio di IA, tali da ingannare sull’autenticità e causare un pregiudizio ingiusto. La definizione di “sistema di intelligenza artificiale” si basa sul Regolamento UE 2024/1689 (AI Act), divenuto operativo a metà dell’anno precedente, il quale identifica i sistemi capaci di produrre contenuti e decisioni con la facoltà di incidere su contesti fisici o virtuali.
La ragione sottesa a tale disposizione è la protezione dell’identità e dell’autodeterminazione individuale, inserendo questa nuova fattispecie di reato accanto a stalking e revenge porn, all’interno della categoria dei crimini contro la libertà di autodeterminazione della persona, l’onore, il decoro, la reputazione e la privacy. Tale reato è procedibile su querela, ma si procede d’ufficio qualora l’azione sia stata compiuta a danno di persona incapace o di un pubblico ufficiale, oppure quando sia collegato, in concorso, a un altro delitto procedibile d’ufficio.
Questo nuovo crimine supplisce a una chiara lacuna di protezione, estendendo la salvaguardia anche a contenuti digitali che, pur non essendo di natura strettamente sessuale, possono comunque ledere la reputazione o la dignità dell’individuo.

Oltre al nuovo illecito, la legge 132 introduce una circostanza aggravante comune, come stabilito dall’art. 61, n. 11-decies c.p., che comporta un incremento della sanzione fino a un terzo quando l’offesa sia perpetrata attraverso l’impiego di sistemi di intelligenza artificiale che abbiano agito come strumento ingannevole, abbiano ostacolato la difesa, sia pubblica che privata, oppure abbiano acuito le conseguenze dannose del crimine. L’aggravante possiede un vasto ambito di applicazione: essa comprende sia le modalità di esecuzione (qualora l’uso dell’IA induca la vittima in errore circa la veridicità dei contenuti) sia gli effetti (quando l’intelligenza artificiale amplifica la diffusione e l’impatto lesivo dell’azione illecita).
Per specifiche tipologie di reati, il legislatore ha previsto aggravanti autonome, corredate da pene notevolmente più severe. È il caso dell’art. 294 c.p. (“attentati contro i diritti politici del cittadino”), dell’art. 2637 c.c. (aggiotaggio) e dell’art. 185 del d.lgs. 58/1998 (TUF) (manipolazione del mercato). Qualora un reato di questo tipo sia compiuto avvalendosi di sistemi di intelligenza artificiale, si verifica un inasprimento del regime sanzionatorio, con pene detentive che possono toccare i sette anni e sanzioni pecuniarie fino a sei milioni di euro.
- Finalmente una legge che tutela i cittadini dall'IA! 👍 Ma......
- Troppi obblighi e poca chiarezza, l'IA rischia di... 👎...
- L'IA nel legale: assistiamo ad una rivoluzione o ad una... 🤖...
Obblighi di informativa per datori di lavoro e professionisti
La legge 132/2025 introduce anche obblighi di informativa per datori di lavoro e professionisti in merito all’utilizzo dell’intelligenza artificiale.
Per i datori di lavoro, l’art. 11, comma 2, della legge impone di informare per iscritto i lavoratori e le rappresentanze sindacali sull’utilizzo dell’IA nei casi e con le modalità di cui all’articolo 1-bis del decreto legislativo 26 maggio 1997, n. 152. Questa disposizione trae origine dal diritto dei lavoratori a essere informati sulle condizioni di lavoro, sugli aspetti fondamentali del rapporto e sulle tutele pertinenti in caso di adozione di sistemi decisionali o di monitoraggio automatizzati.
In particolare, il datore di lavoro è tenuto a fornire in modo organizzato le seguenti informazioni:
Gli elementi del rapporto di impiego sui quali l’uso dei sistemi ha un’influenza.
Gli scopi e le finalità dei sistemi;
La logica di funzionamento dei sistemi;
Le tipologie di dati e i principali parametri impiegati per la programmazione o l’addestramento dei sistemi, inclusi i meccanismi di valutazione delle prestazioni.
Le strategie di controllo adottate per le decisioni automatizzate, gli eventuali procedimenti di correzione e il responsabile di tali processi.
Il grado di accuratezza, solidità e sicurezza informatica dei sistemi, nonché le metriche adoperate per la misurazione di tali parametri e le potenziali implicazioni discriminatorie delle stesse.
La garanzia delle modalità di sorveglianza automatizzata, deve essere indicata con chiarezza, precisando le eventuali azioni correttive previste e le figure preposte a gestirle.
Soprattutto quando i sistemi IA sono impiegati anche per valutare o ottimizzare la condotta e le performance dei dipendenti, agendo come strumenti di sorveglianza a distanza, è plausibile che si rendano applicabili gli obblighi previsti dall’art. 4 dello Statuto dei Lavoratori, con possibilità di utilizzo circoscritte alle finalità stabilite e previo accordo collettivo con le RSA/RSU o, in assenza di accordo, previa specifica autorizzazione della sede territoriale dell’Ispettorato Nazionale del Lavoro. Qualora si utilizzino strumenti di IA che monitorano a distanza, valutano la condotta o le performance dei dipendenti, le modalità di utilizzo saranno possibili solo se circoscritte agli scopi previsti dalla legge, e previo accordo sindacale o, in sua mancanza, con l’autorizzazione dell’Ispettorato del Lavoro.
Anche per i professionisti, l’art. 13 della legge 132/2025 prevede obblighi di informativa. Nelle attività professionali, sia quelle regolamentate da ordini che quelle non, l’IA è confinata esclusivamente a compiti strumentali e di supporto, senza che siano previste sanzioni specifiche per coloro che non rispettano il principio della prevalenza del lavoro intellettuale. Sarà pertanto compito degli ordini professionali, attraverso modifiche ai propri codici deontologici, definire le possibili conseguenze per chi non osserverà la normativa.
In un’ottica di trasparenza è poi responsabilità del professionista informare i propri clienti in merito all’utilizzo di sistemi di intelligenza artificiale, mediante la consegna di un’informativa semplice, comprensibile ed esaustiva, al momento del conferimento dell’incarico.
L’IA nel mondo legale: opportunità e sfide
L’intelligenza artificiale sta trasformando anche il mondo legale, offrendo nuove opportunità ma anche ponendo nuove sfide. Durante il Forum Legale 2025, è emerso come l’AI sia ormai parte integrante del modo di lavorare dei professionisti legali, ma anche come il mercato professionale sia vittima della shadow AI economy, ovvero l’utilizzo di tool di AI da parte di professionisti e dipendenti senza una policy o guida condivisa all’interno delle organizzazioni o degli studi legali.
L’utilizzo dell’IA nel mondo legale spazia dalla ricerca giuridica mirata all’analisi di consulenze tecniche d’ufficio complesse, dall’elaborazione di quesiti giuridici alla verifica di trascrizioni. Tuttavia, per la redazione di atti si è ancora lontani da standard accettabili.
Alcuni studi legali stanno già sperimentando l’AI in tutte le aree, concentrandosi in particolare sul contenzioso civile, con tecnologia di OpenAI, e una library di prompt preimpostati, dopo una policy stringente per la cybersecurity.
È emerso anche come i clienti strutturati diano già per scontato che lo studio legale utilizzi sistemi di AI e come la negoziazione della lettera di incarico includa ormai l’accordo sul tipo di tool utilizzato, con quali prompt e responsabilità.
Tuttavia, l’utilizzo dell’IA nel mondo legale pone anche interrogativi etici e deontologici. È in corso un procedimento disciplinare nei riguardi di un giudice che in primo grado aveva assunto una decisione citando precedenti inesistenti, a causa di un uso improprio dell’IA.
Inoltre, è necessario garantire che l’utilizzo dei tool di AI da parte dei giuristi avvenga nel rispetto dei costrutti semantici anche giuridici, del regime della responsabilità civile e del bias implicito della cosiddetta sycophancy (adulazione).
Verso un futuro legale potenziato dall’IA: tra etica, trasparenza e responsabilità
L’introduzione dell’intelligenza artificiale nel panorama legale italiano rappresenta una svolta epocale, un crocevia tra innovazione tecnologica e tutela dei diritti fondamentali. La legge 132/2025, con le sue nuove disposizioni penali e gli obblighi di informativa, delinea un quadro normativo che mira a bilanciare le potenzialità dell’IA con la necessità di prevenire abusi e garantire la trasparenza.
È fondamentale che i professionisti legali, i datori di lavoro e i cittadini comprendano appieno le implicazioni di questa trasformazione, abbracciando un approccio etico e responsabile all’utilizzo dell’IA. La formazione continua, la definizione di linee guida chiare e la promozione di una cultura della trasparenza sono elementi imprescindibili per navigare in questo nuovo scenario.
Nozioni legali di base: Il principio di “responsabilità professionale” implica che i professionisti, inclusi gli avvocati, sono responsabili delle conseguenze delle loro azioni e omissioni, anche quando utilizzano strumenti di intelligenza artificiale. Questo significa che non possono delegare completamente all’IA la responsabilità delle loro decisioni, ma devono sempre esercitare un controllo critico e una supervisione adeguata.
Nozioni legali avanzate*: Il concetto di “algoritmic accountability” si riferisce alla responsabilità di chi sviluppa, implementa e utilizza sistemi di intelligenza artificiale per garantire che tali sistemi siano equi, trasparenti e non discriminatori. Questo implica la necessità di audit regolari, di meccanismi di controllo e di rimedi efficaci per affrontare eventuali violazioni dei diritti fondamentali.
In definitiva, l’IA rappresenta uno strumento potente che può migliorare l’efficienza e la qualità del lavoro legale, ma è essenziale che il suo utilizzo sia guidato da principi etici, dalla trasparenza e dalla responsabilità, al fine di proteggere i diritti e le libertà dei cittadini. La sfida è quella di costruire un futuro legale in cui l’IA sia al servizio dell’umanità, e non viceversa.