Page 27 - Rassegna 2024-4_1-inserto
P. 27
HATE SPEECH E REATI DI OPINIONE NELL’ERA DI INTERNET
proprietario della piattaforma, del contenuto considerato offensivo o che
contiene espressioni d’odio.
Tale tasto usualmente è collocato di fianco al contenuto, sia esso foto,
commento o video e può essere utilizzato per segnalare ciò che si ritiene lesivo
della dignità o della reputazione della persona. La piattaforma, ricevuta la
segnalazione analizza poi i contenuti presenti sulla pagina o nel commento,
rimuovendo quelli che non rispettano gli standard della propria comunità.
D’altronde, laddove il gestore del sito o della piattaforma non dovessero
attivarsi per eliminare tempestivamente i contenuti d’odio o diffamatori o anco-
ra integranti la condotta di cyberbullismo, la Suprema Corte di Cassazione , pro-
25
nunciandosi sulla diffamazione a mezzo internet, ha ritenuto il gestore del sito
responsabile in concorso con l’autore dei contenuti lesivi del bene giuridico
tutelato. La responsabilità del gestore, tuttavia, si configura solamente nel caso
in cui egli, nell’attività di hosting, venuto a conoscenza della pubblicazione da
parte di terzi di contenuti diffamatori o di odio non si sia attivato tempestiva-
mente per la loro rimozione e, l’omissione perpetrata, diventa veicolo di ulte-
riore diffusione del contenuto.
La Corte, all’uopo, ha chiarito che non esiste una responsabilità preventiva
del gestore - con ciò riprendendo l’orientamento già delineato al riguardo dalla
CEDU - e dunque non vi è alcun obbligo di sorvegliare in chiave preventiva i
post pubblicati, ma viceversa, un obbligo di intervento a fronte delle segnala-
zioni ricevute.
Ancora irrisolto è il problema legato ai cosiddetti gruppi chiusi, nei quali
gli utenti possono prendere cognizione dei contenuti solo se accettati dall’am-
ministratore della pagina. Anche in tali casi, a volte, le pagine non accessibili a
tutti, sono però frequentate da un grande numero si persone che ben possono
entrare a contatto con contenuti di odio o discriminatori. In tali casi, i titolari
delle piattaforme dovrebbero adottare un sistema di controllo interno, che ben
potrebbe permettere di arrivare ad eliminare o chiudere gruppi nei quali tali
contenuti riescono ad essere inseriti. Tale soluzione, incontra il limite dell’assen-
za di un obbligo per i gestori delle piattaforme di porre in essere dei controlli
preventivi dei contenuti.
Ancora, il social network Facebook possiede un centro di sicurezza, al quale è
possibile accedere anche se non si è iscritti e dove sono descritte e suddivise
26
per argomenti tutte le iniziative e le attività che l’azienda informatica realizza
per la tutela di tutte le categorie vulnerabili.
25 Cassazione penale, sezione V, sentenza n. 12546 del 20 marzo 2019.
26 Accessibile dal link https://about.meta.com/actions/safety.
25