E-Mail: [email protected]
- Nato nel 2017, il deepfake fonde "fake" e "deep learning".
- La legge 69/2019 punisce la diffusione illecita di contenuti sessuali.
- Il Digital Services Act (DSA) mira a rendere l'online più sicuro.
Deepfake: la genesi di una sfida legale
L’avvento dei deepfake, sofisticate manipolazioni digitali rese possibili dall’intelligenza artificiale, ha inaugurato una nuova era di sfide legali nel panorama della protezione dell’immagine e della reputazione individuale. Queste creazioni sintetiche, capaci di sovrapporre volti e alterare espressioni con un realismo sorprendente, possono essere impiegate in un ventaglio di scenari, dal più innocuo al più lesivo. La parola “deepfake” stessa, nata nel 2017 dalla fusione di “fake” (falso) e “deep learning”, la tecnica di apprendimento automatico alla base di questa tecnologia, testimonia la natura intrinsecamente ingannevole di questo fenomeno. La facilità con cui è possibile produrre e diffondere deepfake ha generato una crescente preoccupazione per le potenziali conseguenze negative sulla vita privata, sulla credibilità professionale e sulla sfera politica delle persone.
Le implicazioni legali dei deepfake sono molteplici e complesse. La creazione e la diffusione di un deepfake possono violare diversi diritti fondamentali, tra cui il diritto all’immagine, il diritto alla reputazione e il diritto all’identità personale. In particolare, la diffusione di deepfake a contenuto pornografico o diffamatorio può configurare reati gravi come la diffamazione aggravata, la sostituzione di persona e, nei casi più estremi, la violenza sessuale. La difficoltà di tracciare l’origine e la diffusione dei deepfake rende particolarmente ardua la lotta contro questo fenomeno, richiedendo un approccio multidisciplinare che coinvolga esperti legali, tecnici informatici e responsabili delle piattaforme online.
Il diritto all’oblio, inteso come il diritto di una persona a non vedere più associate al proprio nome informazioni che la riguardano e che non sono più attuali o rilevanti, si presenta come uno strumento potenzialmente utile per le vittime di deepfake. Tuttavia, l’applicazione del diritto all’oblio nel contesto dei deepfake solleva delicate questioni di bilanciamento tra la protezione della vita privata e la libertà di espressione. Da un lato, le vittime di deepfake hanno il diritto di vedere rimossi dal web contenuti falsi e lesivi che possono compromettere la loro reputazione e la loro vita sociale. Dall’altro lato, la rimozione indiscriminata di deepfake potrebbe limitare la libertà di espressione e il diritto all’informazione, soprattutto nei casi in cui i deepfake abbiano un rilevante interesse pubblico o politico.
La questione della responsabilità delle piattaforme online nella diffusione dei deepfake è un tema centrale nel dibattito legale. Le piattaforme online, in quanto intermediari tra i creatori e i fruitori di deepfake, hanno un ruolo cruciale nel prevenire e contrastare questo fenomeno. Tuttavia, la definizione precisa dei loro obblighi e delle loro responsabilità è ancora oggetto di discussione. Da un lato, si sostiene che le piattaforme online debbano adottare misure più rigorose per monitorare e rimuovere i deepfake, anche attraverso l’utilizzo di tecnologie di intelligenza artificiale. Dall’altro lato, si teme che un eccessivo controllo da parte delle piattaforme online possa limitare la libertà di espressione e portare a forme di censura. La direttiva europea sull’e-commerce e il Digital Services Act (DSA) rappresentano importanti passi avanti nella regolamentazione della responsabilità delle piattaforme online, ma la loro applicazione concreta nel contesto dei deepfake è ancora da definire.
[IMMAGINE=”A stylized and iconic representation of legal challenges related to deepfakes and the right to be forgotten. The image should evoke neoplastics and constructivism, emphasizing geometric forms and rational concepts. It should feature clean vertical and horizontal lines, using a cool and desaturated color palette. Include three main entities:
1. A faceless silhouette (representing a victim of deepfake), rendered in a light gray, composed of simple geometric shapes. The silhouette should appear distressed or obscured, as if fading away.
2. A stylized digital screen (representing social media or the internet), made of intersecting lines forming a grid pattern in a dark gray. The grid should subtly distort the silhouette’s reflection.
3. A gavel striking a surface (representing the legal system), depicted as a minimalist geometric shape (e.g., a triangle for the gavel head and a rectangle for the handle), colored in a desaturated blue.
The composition should emphasize the tension and conflict between these elements. No text should be included. The overall feeling should be technological and legal, without being literal or overly detailed.”]
Strumenti legali a tutela delle vittime di deepfake
L’arsenale legale a disposizione delle vittime di deepfake è composto da diverse armi, ognuna con la sua specificità e la sua efficacia. La prima linea di difesa è rappresentata dalla possibilità di sporgere denuncia-querela alle autorità competenti. La denuncia-querela è un atto formale con cui la vittima di un reato informa le autorità giudiziarie dell’accaduto e chiede che vengano avviate le indagini per individuare i responsabili e punirli. Nel caso dei deepfake, la denuncia-querela può essere presentata per diversi reati, a seconda della natura del deepfake e delle modalità della sua diffusione. Tra i reati più frequentemente contestati vi sono la diffamazione aggravata, la sostituzione di persona, la frode informatica e, nei casi di deepfake a contenuto sessuale, il revenge porn. La legge 19 luglio 2019, n. 69, ha introdotto nel codice penale l’articolo 612-ter, che punisce con la reclusione fino a sei anni la diffusione illecita di immagini o video a contenuto sessualmente esplicito senza il consenso delle persone rappresentate, il cosiddetto revenge porn. Questa norma può essere applicata anche ai casi di deepfake a contenuto sessuale, a condizione che la vittima non abbia acconsentito alla creazione e alla diffusione del deepfake.
Oltre alla denuncia-querela, le vittime di deepfake possono rivolgersi direttamente ai gestori dei siti web e delle piattaforme online su cui sono stati pubblicati i deepfake, chiedendone la rimozione. Questa procedura, nota come “notice and take down”, si basa sul principio della responsabilità degli intermediari online per i contenuti illeciti pubblicati dagli utenti. In base alla direttiva europea sull’e-commerce e al Digital Services Act (DSA), le piattaforme online sono tenute a rimuovere i contenuti illeciti una volta che ne vengono a conoscenza. Tuttavia, la procedura di “notice and take down” può essere lenta e complessa, richiedendo alle vittime un notevole sforzo per far valere i propri diritti. In molti casi, le piattaforme online richiedono alla vittima di fornire prove della falsità del deepfake e della sua natura lesiva, il che può comportare costi e difficoltà aggiuntive.
Un’altra arma a disposizione delle vittime di deepfake è rappresentata dal diritto al risarcimento dei danni. Le vittime di deepfake possono chiedere ai responsabili della creazione e della diffusione del deepfake il risarcimento dei danni patrimoniali e non patrimoniali subiti a causa della violazione dei loro diritti fondamentali. I danni patrimoniali sono quelli che possono essere quantificati economicamente, come ad esempio le spese mediche, le spese legali e la perdita di guadagno. I danni non patrimoniali sono quelli che non possono essere quantificati economicamente, come ad esempio il dolore, la sofferenza, l’angoscia e il pregiudizio alla reputazione. La quantificazione dei danni non patrimoniali è spesso difficile e controversa, e dipende dalle circostanze specifiche del caso. Tuttavia, i giudici italiani hanno riconosciuto in diverse occasioni il diritto al risarcimento dei danni non patrimoniali subiti dalle vittime di violazioni della privacy e della reputazione online.
Per ottenere un risarcimento dei danni, le vittime di deepfake devono dimostrare di aver subito un danno effettivo a causa del deepfake. La prova del danno può essere fornita attraverso diversi mezzi, come ad esempio testimonianze, documenti, perizie mediche e psicologiche. Inoltre, le vittime devono dimostrare il nesso di causalità tra il deepfake e il danno subito. In altre parole, devono dimostrare che il danno è stato causato direttamente dal deepfake e non da altre circostanze. La prova del nesso di causalità può essere particolarmente difficile da fornire nei casi in cui il deepfake sia stato diffuso su larga scala e abbia avuto un impatto significativo sulla reputazione della vittima.
L’importanza della prevenzione e della sensibilizzazione
La lotta contro i deepfake non può limitarsi alla repressione dei reati e al risarcimento dei danni. È fondamentale agire a livello di prevenzione e di sensibilizzazione, per educare i cittadini sui rischi e le potenzialità di questa tecnologia e per promuovere un uso responsabile e consapevole dei media digitali. Le scuole, le università, i media e le istituzioni pubbliche hanno un ruolo cruciale da svolgere in questo ambito. È necessario promuovere l’alfabetizzazione digitale e mediatica, per insegnare ai cittadini a riconoscere i deepfake e a valutarne criticamente i contenuti. È necessario sensibilizzare i cittadini sui rischi per la privacy e la reputazione derivanti dalla diffusione di deepfake, e promuovere un uso responsabile e consapevole dei social media e delle piattaforme online. È necessario, infine, promuovere la ricerca e lo sviluppo di tecnologie per contrastare la creazione e la diffusione dei deepfake, come ad esempio sistemi di autenticazione dei contenuti digitali e strumenti di rilevamento automatico dei deepfake.
Le tecnologie per contrastare la creazione e la diffusione dei deepfake sono in rapido sviluppo. Alcune di queste tecnologie si basano sull’analisi delle caratteristiche intrinseche dei deepfake, come ad esempio le anomalie nei movimenti degli occhi, le incongruenze nell’illuminazione e le imperfezioni nella texture della pelle. Altre tecnologie si basano sull’utilizzo di firme digitali e di watermarks per autenticare i contenuti digitali e per tracciare la loro origine. Alcune piattaforme online stanno sperimentando sistemi di “crowdsourcing” per segnalare i deepfake e per verificarne l’autenticità. Tuttavia, queste tecnologie non sono ancora perfette e possono essere facilmente aggirate dai creatori di deepfake più esperti. La lotta contro i deepfake è una vera e propria corsa agli armamenti tra i creatori di deepfake e i difensori della verità e dell’autenticità.
Un ruolo importante nella lotta contro i deepfake può essere svolto anche dai provider di servizi di intelligenza artificiale. Questi provider, che offrono servizi di creazione e manipolazione di immagini e video basati sull’intelligenza artificiale, dovrebbero adottare misure per prevenire l’utilizzo dei loro servizi per scopi illeciti. Ad esempio, potrebbero limitare l’accesso ai loro servizi a utenti verificati e autorizzati, oppure potrebbero implementare sistemi di monitoraggio e di controllo per rilevare l’utilizzo dei loro servizi per la creazione di deepfake a contenuto pornografico o diffamatorio. Inoltre, i provider di servizi di intelligenza artificiale potrebbero collaborare con le autorità giudiziarie per individuare e perseguire i creatori di deepfake a contenuto illecito.
La collaborazione tra i diversi attori coinvolti nella lotta contro i deepfake – autorità giudiziarie, piattaforme online, provider di servizi di intelligenza artificiale, esperti legali, tecnici informatici e cittadini – è fondamentale per arginare questo fenomeno e per proteggere i diritti fondamentali delle persone nell’era digitale. Solo attraverso un impegno congiunto e coordinato sarà possibile contrastare la minaccia dei deepfake e garantire un futuro digitale più sicuro e affidabile.
Il ruolo delle piattaforme social e il digital services act
Le piattaforme social, con la loro capacità di amplificare la diffusione dei contenuti, si trovano in una posizione cruciale nella battaglia contro i deepfake. La loro responsabilità non si limita alla mera rimozione dei contenuti segnalati, ma si estende alla implementazione di misure proattive per individuare e contrastare la diffusione di deepfake dannosi. Il Digital Services Act (DSA), entrato in vigore il 17 febbraio 2024, rappresenta un punto di svolta in questo senso. Il DSA impone alle piattaforme online obblighi più stringenti in termini di moderazione dei contenuti, trasparenza e responsabilità, con l’obiettivo di creare un ambiente online più sicuro e affidabile per gli utenti. In particolare, il DSA prevede l’obbligo per le piattaforme di predisporre meccanismi interni per la segnalazione e la rimozione dei contenuti illegali, nonché di fornire agli utenti informazioni chiare e accessibili sulle proprie politiche di moderazione. Le piattaforme sono inoltre tenute a collaborare con le autorità giudiziarie per individuare e perseguire i creatori di deepfake a contenuto illecito.
L’implementazione del DSA rappresenta una sfida complessa per le piattaforme social, che dovranno investire in risorse umane e tecnologiche per adeguarsi ai nuovi obblighi. Le piattaforme dovranno sviluppare sistemi di intelligenza artificiale capaci di individuare i deepfake con un elevato grado di accuratezza, evitando il rischio di rimuovere contenuti legittimi. Dovranno inoltre garantire la trasparenza delle proprie decisioni di moderazione, fornendo agli utenti motivazioni chiare e accessibili per la rimozione dei contenuti segnalati. La collaborazione con le autorità giudiziarie sarà fondamentale per individuare e perseguire i creatori di deepfake a contenuto illecito, garantendo che vengano puniti per i loro crimini.
Oltre agli obblighi imposti dal DSA, le piattaforme social possono adottare ulteriori misure per contrastare la diffusione dei deepfake. Ad esempio, potrebbero promuovere campagne di sensibilizzazione per educare gli utenti sui rischi e le potenzialità dei deepfake, e per insegnare loro a riconoscere i contenuti falsi e ingannevoli. Potrebbero inoltre implementare sistemi di verifica dell’identità degli utenti, per prevenire la creazione di account falsi utilizzati per diffondere deepfake. La lotta contro i deepfake richiede un impegno costante e coordinato da parte di tutti gli attori coinvolti, dalle autorità giudiziarie alle piattaforme social, dagli esperti legali ai tecnici informatici, fino ai singoli cittadini.
La sfida dei deepfake mette in luce la necessità di ripensare il concetto di autenticità nell’era digitale. In un mondo in cui è sempre più difficile distinguere tra il vero e il falso, è fondamentale sviluppare un pensiero critico e una capacità di valutazione dei contenuti che ci vengono proposti. L’alfabetizzazione digitale e mediatica diventa quindi una competenza essenziale per tutti i cittadini, per poter navigare in modo sicuro e consapevole nel mare magnum dell’informazione online. Solo attraverso un approccio critico e responsabile sarà possibile contrastare la diffusione dei deepfake e proteggere i nostri diritti fondamentali nell’era digitale.
Navigare le acque insidiose dell’era digitale: un approccio umano al diritto all’oblio
In questo scenario complesso e in continua evoluzione, il diritto all’oblio emerge come un faro nella nebbia, una bussola per orientarsi nel labirinto delle informazioni digitali. Ma come possiamo tradurre questo diritto in una realtà concreta e accessibile a tutti, soprattutto alle vittime di deepfake? La risposta risiede in un approccio umano e personalizzato, che tenga conto delle specificità di ogni singolo caso e che valorizzi la dignità e la vulnerabilità delle persone coinvolte.
Dal punto di vista legale, è fondamentale conoscere le basi del diritto all’oblio. In termini semplici, si tratta del diritto di una persona a chiedere che determinate informazioni che la riguardano vengano cancellate dal web, soprattutto se sono obsolete, inaccurate o lesive della sua reputazione. Questo diritto è sancito dal Regolamento Generale sulla Protezione dei Dati (GDPR) e dalla giurisprudenza della Corte di Giustizia dell’Unione Europea. Tuttavia, l’esercizio di questo diritto può essere complesso e richiedere l’assistenza di un avvocato specializzato in diritto dell’immagine.
Ad un livello più avanzato, è importante comprendere come il diritto all’oblio si interseca con altri diritti fondamentali, come la libertà di espressione e il diritto all’informazione. La rimozione di un deepfake dal web può essere ostacolata da considerazioni di interesse pubblico o dalla necessità di preservare la memoria storica di un evento. In questi casi, è necessario un bilanciamento tra i diversi interessi in gioco, che tenga conto delle circostanze specifiche del caso e che valorizzi la dignità e la vulnerabilità della vittima.
In definitiva, la lotta contro i deepfake e la tutela del diritto all’oblio richiedono un cambiamento di mentalità e un approccio più umano al diritto. Dobbiamo smetterla di considerare le vittime di deepfake come semplici “casi” legali e iniziare a vederle come persone che hanno subito un danno profondo e che hanno bisogno di sostegno e di giustizia. Dobbiamo promuovere una cultura del rispetto e della responsabilità online, in cui la diffusione di deepfake sia considerata un atto grave e inaccettabile. Solo così potremo costruire un futuro digitale più sicuro e più umano per tutti.