E-Mail: [email protected]
- Diffamazione online: l'art. 595 del Codice Penale prevede aggravanti per i social.
- Nel 2017 la Cassazione ha condannato per diffamazione su Facebook.
- Il Digital Services Act si applica dal 17 febbraio 2024.
- Il DSA si applica a piattaforme con oltre 45 milioni utenti.
- Agcom è il Coordinatore dei Servizi Digitali (DSC) in Italia.
L’avvento e la pervasività dei social media hanno trasformato radicalmente il panorama della comunicazione e dell’interazione sociale. Tuttavia, questa rivoluzione digitale ha portato con sé nuove sfide legali, in particolare riguardo alla responsabilità delle piattaforme per i contenuti generati dagli utenti. La questione centrale è: quando un social media può essere considerato complice nella diffusione di diffamazione, incitamento all’odio e disinformazione?
Il ruolo ambiguo delle piattaforme digitali
I social media spesso si presentano come meri intermediari, fornitori di spazio virtuale dove gli utenti possono esprimersi liberamente. Questo approccio, noto come “hosting provider”, implica che la responsabilità per i contenuti ricada esclusivamente sugli autori. Tuttavia, la realtà è ben più complessa. Gli algoritmi che governano la diffusione delle informazioni, la capacità di moderare i contenuti e l’influenza esercitata sulle opinioni pubbliche pongono le piattaforme in una posizione di ambiguità. Se, da un lato, la libertà di espressione è un pilastro fondamentale delle società democratiche, dall’altro, la mancata moderazione può trasformare i social media in amplificatori di contenuti illegali e dannosi.
La linea di demarcazione tra la promozione della libertà di parola e la prevenzione della diffusione di contenuti nocivi è sottile e complessa. Le piattaforme si trovano a dover bilanciare questi due imperativi, spesso in assenza di linee guida chiare e con il rischio di essere accusate di censura o, al contrario, di negligenza. La questione è ulteriormente complicata dalla natura globale dei social media, che operano in contesti legali e culturali diversi, rendendo difficile l’applicazione di standard uniformi.
L’esigenza di tutelare la libertà di espressione non deve tradursi in un’assoluzione per la diffusione di contenuti illeciti. La sfida è individuare meccanismi efficaci per garantire la responsabilità delle piattaforme senza compromettere i diritti fondamentali degli utenti. Questo richiede un approccio multidimensionale che coinvolga legislatori, piattaforme digitali, esperti legali e la società civile nel suo complesso.
Un approccio innovativo potrebbe consistere nello sviluppo di sistemi di intelligenza artificiale in grado di identificare e segnalare automaticamente contenuti potenzialmente illeciti, lasciando poi a un team di moderatori umani la decisione finale. Questo consentirebbe di velocizzare il processo di moderazione e di ridurre il rischio di errori. Al contempo, è fondamentale investire in programmi di alfabetizzazione mediatica per educare gli utenti a riconoscere le fake news e a utilizzare i social media in modo responsabile. Solo attraverso un approccio combinato è possibile creare un ambiente online più sicuro e informativo.

- Finalmente un articolo che fa chiarezza sui rischi dei social... 👍...
- Trovo l'articolo eccessivamente allarmista e poco realistico... 👎...
- E se il problema fosse l'eccessiva fiducia negli algoritmi...? 🤔...
Il trilemma giuridico: diffamazione, incitamento all’odio e fake news
La diffamazione online, l’incitamento all’odio e la diffusione di notizie false rappresentano sfide legali complesse per i social media. La diffamazione, definita dall’articolo 595 del Codice Penale, vede un’aggravante quando viene perpetrata attraverso mezzi di comunicazione di massa, come appunto i social media, data la loro capacità di raggiungere un vastissimo pubblico in tempi estremamente rapidi. Questo significa che un commento o un post diffamatorio può arrecare danni significativi alla reputazione di una persona o di un’azienda in modo esponenziale rispetto ai mezzi di comunicazione tradizionali.
L’incitamento all’odio, spesso legato a forme di discriminazione basate su razza, etnia, religione o orientamento sessuale, solleva interrogativi sul delicato equilibrio tra la libertà di espressione e la necessità di tutelare la dignità umana. Dove si colloca il confine tra un’opinione controversa e un’espressione che incita alla violenza o alla discriminazione? La risposta non è semplice e richiede una valutazione attenta del contesto e dell’intenzione dell’autore.
Le fake news, infine, rappresentano una minaccia per la corretta informazione e possono avere conseguenze concrete sulla vita delle persone e sulla stabilità delle istituzioni. La diffusione di notizie false può influenzare le decisioni politiche, alimentare la paura e la sfiducia, e persino mettere a rischio la salute pubblica. Contrastare le fake news richiede un impegno congiunto da parte delle piattaforme, dei media, delle istituzioni e dei cittadini.
Nel 2017, la Corte di Cassazione ha stabilito che postare un commento denigratorio sulla bacheca Facebook può configurare il reato di diffamazione, data la capacità del mezzo utilizzato di determinare la circolazione del commento tra un numero considerevole di persone. Questo principio è stato ribadito in diverse sentenze successive, confermando che i social media non sono esenti dalle leggi che regolano la diffamazione. Analogamente, nel 2020, diverse pronunce hanno evidenziato la responsabilità delle piattaforme nella rimozione di contenuti che incitano all’odio, sottolineando l’importanza di un intervento tempestivo per prevenire la diffusione di messaggi discriminatori.
La sfida principale consiste nell’individuare criteri oggettivi e condivisi per definire ciò che costituisce diffamazione, incitamento all’odio e fake news. Questo richiede un dialogo costante tra le parti interessate e un aggiornamento continuo delle normative per tenere conto dell’evoluzione tecnologica e dei nuovi fenomeni sociali. Inoltre, è fondamentale garantire che le misure adottate per contrastare questi fenomeni siano proporzionate e rispettose dei diritti fondamentali degli utenti.
Digital services act: una risposta europea
L’Unione Europea ha cercato di rispondere a queste sfide con il Digital Services Act (DSA), una normativa ambiziosa che mira a creare un ambiente online più sicuro e trasparente. Il DSA impone obblighi più stringenti alle piattaforme digitali, tra cui la trasparenza degli algoritmi, la valutazione e la mitigazione dei rischi sistemici legati alla disinformazione, la collaborazione con le autorità competenti e la creazione di meccanismi efficaci per la segnalazione e la rimozione dei contenuti illeciti.
Il DSA prevede che le piattaforme di dimensioni molto grandi e i motori di ricerca online di dimensioni molto grandi (con oltre 45 milioni di utenti attivi nell’UE) siano soggetti a norme più stringenti a partire dal 25 agosto 2023. Queste norme includono l’obbligo di effettuare valutazioni del rischio sistemico e di mitigarne i rischi derivanti dalla manipolazione intenzionale delle loro piattaforme da parte degli utenti.
Queste regolamentazioni includono il vincolo di compiere stime dei pericoli sistemici, e di attenuare le possibili conseguenze derivanti dalla strumentalizzazione volontaria delle loro infrastrutture da parte degli utilizzatori.
Le disposizioni del DSA entrano in vigore per tutti i fornitori di servizi intermediari dal 17 febbraio 2024.
La legislazione sui servizi digitali si estenderà a un’ampia gamma di fornitori di servizi digitali intermediari, qualora tali servizi siano offerti a utenti, siano essi persone fisiche o giuridiche, residenti o ubicati nell’UE. Concretamente, la normativa interesserà numerose categorie di aziende, inclusi i provider di servizi Internet, servizi di cloud computing, piattaforme di web hosting, social media, motori di ricerca online, servizi di messaggistica e e-mail, registri di nomi di dominio, servizi di voice over IP, nonché piattaforme online come app store e marketplace che ospitano o veicolano contenuti di terze parti.
Ogni nazione membro dell’UE nominerà un “coordinatore dei servizi digitali” (DSC) incaricato di vigilare sull’applicazione della legge sui servizi digitali. Questo incarico comprende anche la gestione delle sanzioni pecuniarie. I paesi membri hanno inoltre la facoltà di nominare ulteriori autorità competenti con specifici mandati. Il DSA istituisce un sistema di “sportello unico” per la gestione delle violazioni transfrontaliere e introduce una struttura di supervisione analoga a quella del GDPR, istituendo il “Comitato europeo per i servizi digitali (EBDS)”, composto dai DSC nazionali. A differenza del Comitato europeo per la protezione dei dati (GDPR), l’EBDS sarà presieduto dalla Commissione Europea.
Contrariamente al comitato europeo incaricato della protezione dei dati personali (GDPR), il comitato EBDS sarà guidato dalla commissione europea.
Tra le altre misure introdotte dal DSA, spicca la figura del “segnalatore attendibile”, un’entità riconosciuta ufficialmente da uno Stato membro dell’UE per la sua competenza specifica nel rilevare contenuti illegali online. Le segnalazioni effettuate dai segnalatori attendibili devono essere trattate con priorità dalle piattaforme digitali, che devono adottare misure rapide ed efficaci per rimuovere o disabilitare l’accesso ai contenuti segnalati.
Resta da vedere se il DSA sarà sufficiente a bilanciare la libertà di espressione con la necessità di proteggere i cittadini dai danni causati dai contenuti online. La sua efficacia dipenderà dalla capacità delle autorità nazionali e delle piattaforme digitali di collaborare e di applicare le nuove regole in modo coerente e trasparente.
Agcom e l’applicazione del dsa in italia
In Italia, l’Autorità per le Garanzie nelle Comunicazioni (AGCOM) ricopre un ruolo chiave nell’attuazione del Digital Services Act (DSA), fungendo da Coordinatore dei Servizi Digitali (DSC). Questa designazione conferisce ad AGCOM la responsabilità primaria di sorvegliare e garantire il rispetto del regolamento da parte delle piattaforme operanti sul territorio nazionale.
AGCOM non opera isolatamente. La sua attività è strettamente interconnessa con quella della Commissione Europea e delle altre autorità nazionali competenti. Questa collaborazione sinergica è essenziale per assicurare un’applicazione uniforme del DSA in tutta l’Unione Europea e per affrontare efficacemente le violazioni che travalicano i confini nazionali.
Un passo significativo in questa direzione è stato compiuto con la firma di un accordo amministrativo tra AGCOM e la Commissione Europea. Questo accordo sancisce un impegno reciproco a sostenere l’implementazione del DSA in Italia, concentrando l’attenzione sui rischi più pressanti: la proliferazione di contenuti illegali, la disinformazione e la protezione dei minori dai pericoli del web.
Il ruolo di AGCOM si estende anche alla promozione di una maggiore consapevolezza tra i cittadini riguardo ai loro diritti e alle opportunità offerte dal DSA. Attraverso campagne di informazione e iniziative educative, l’autorità mira a responsabilizzare gli utenti e a incoraggiarli a segnalare contenuti potenzialmente illegali o dannosi.
AGCOM, in qualità di DSC, si trova ad affrontare sfide complesse e in continua evoluzione. La rapidità con cui le tecnologie digitali si trasformano richiede un approccio dinamico e adattabile. L’autorità deve essere in grado di anticipare le nuove minacce e di sviluppare strategie innovative per contrastarle efficacemente.
In questo contesto, la collaborazione con le piattaforme digitali è fondamentale. AGCOM deve instaurare un dialogo costruttivo con le imprese del settore, incoraggiandole ad adottare politiche di moderazione dei contenuti trasparenti e responsabili. Allo stesso tempo, l’autorità deve essere pronta a intervenire con fermezza in caso di violazioni del DSA, applicando sanzioni proporzionate e dissuasive.
L’impegno di AGCOM nell’applicazione del DSA rappresenta un tassello fondamentale nella costruzione di un ambiente digitale più sicuro, equo e rispettoso dei diritti fondamentali di tutti i cittadini. La strada è ancora lunga e costellata di ostacoli, ma la determinazione dell’autorità e la collaborazione con gli altri attori coinvolti fanno ben sperare per il futuro.
Verso un futuro digitale responsabile: la sfida dell’equilibrio
La questione della responsabilità legale dei social media è un tema complesso e in costante evoluzione. Trovare un equilibrio tra la libertà di espressione e la tutela dei diritti individuali rappresenta una sfida cruciale per il futuro del dibattito pubblico online. Se da un lato è essenziale preservare la possibilità per tutti di esprimere liberamente le proprie opinioni, dall’altro è altrettanto importante proteggere i cittadini dai danni causati da diffamazione, incitamento all’odio e disinformazione.
Il Digital Services Act rappresenta un passo avanti significativo in questa direzione, ma non è certo la soluzione definitiva. La sua efficacia dipenderà dalla capacità delle piattaforme digitali di attuare le nuove regole in modo trasparente e responsabile, dalla prontezza delle autorità nazionali nel farle rispettare e dalla consapevolezza dei cittadini nell’utilizzare i social media in modo critico e informato.
È necessario un impegno costante da parte di tutti gli attori coinvolti: i legislatori, che devono aggiornare continuamente le normative per tenere conto dell’evoluzione tecnologica; le piattaforme digitali, che devono investire in sistemi di moderazione dei contenuti efficaci e trasparenti; la società civile, che deve promuovere l’alfabetizzazione mediatica e il pensiero critico.
La sfida è ambiziosa, ma non impossibile. Solo attraverso un approccio collaborativo e multidimensionale possiamo costruire un futuro digitale in cui la libertà di espressione sia garantita, ma non a scapito della dignità umana e della corretta informazione.
In un panorama normativo sempre più complesso, è fondamentale comprendere le basi del diritto alla reputazione, un diritto costituzionalmente garantito che tutela l’immagine e l’onore di ogni individuo. Approfondire la conoscenza di questo diritto, così come delle leggi che regolano la diffamazione online, è il primo passo per navigare in modo consapevole nel mondo digitale e per difendersi da eventuali attacchi.
Sul piano più avanzato, l’istituto della “responsabilità oggettiva” delle piattaforme, pur escludendo il dolo o la colpa, potrebbe essere riconsiderato in determinate circostanze, soprattutto quando la piattaforma trae un beneficio economico diretto dalla diffusione di contenuti illeciti. Questa riflessione, pur delicata, potrebbe portare a un’allocazione più equa dei rischi e a un incentivo maggiore per le piattaforme a investire in sistemi di moderazione più efficaci. L’articolo 2043 del codice civile, che disciplina il risarcimento per fatto illecito, potrebbe trovare una nuova interpretazione alla luce delle sfide poste dall’era digitale.
La rete è un’estensione della nostra società, e come tale porta con sé il potenziale per il bene e per il male. La vera sfida è trasformare questo spazio virtuale in un luogo di incontro e di crescita, dove le idee possano confrontarsi liberamente, ma nel rispetto dei diritti e della dignità di tutti.