Page 27 - Rassegna 2024-4_1-inserto
P. 27

HATE SPEECH E REATI DI OPINIONE NELL’ERA DI INTERNET




               proprietario  della  piattaforma,  del  contenuto  considerato  offensivo  o  che
               contiene espressioni d’odio.
                    Tale tasto usualmente è collocato di fianco al contenuto, sia esso foto,
               commento o video e può essere utilizzato per segnalare ciò che si ritiene lesivo
               della  dignità  o  della  reputazione  della  persona.  La  piattaforma,  ricevuta  la
               segnalazione  analizza  poi  i  contenuti  presenti  sulla  pagina  o  nel  commento,
               rimuovendo quelli che non rispettano gli standard della propria comunità.
                    D’altronde, laddove il gestore del sito o della piattaforma non dovessero
               attivarsi per eliminare tempestivamente i contenuti d’odio o diffamatori o anco-
               ra integranti la condotta di cyberbullismo, la Suprema Corte di Cassazione , pro-
                                                                                     25
               nunciandosi sulla diffamazione a mezzo internet, ha ritenuto il gestore del sito
               responsabile in concorso con l’autore dei contenuti lesivi del bene giuridico
               tutelato. La responsabilità del gestore, tuttavia, si configura solamente nel caso
               in cui egli, nell’attività di hosting, venuto a conoscenza della pubblicazione da
               parte di terzi di contenuti diffamatori o di odio non si sia attivato tempestiva-
               mente per la loro rimozione e, l’omissione perpetrata, diventa veicolo di ulte-
               riore diffusione del contenuto.
                    La Corte, all’uopo, ha chiarito che non esiste una responsabilità preventiva
               del gestore - con ciò riprendendo l’orientamento già delineato al riguardo dalla
               CEDU - e dunque non vi è alcun obbligo di sorvegliare in chiave preventiva i
               post pubblicati, ma viceversa, un obbligo di intervento a fronte delle segnala-
               zioni ricevute.
                    Ancora irrisolto è il problema legato ai cosiddetti gruppi chiusi, nei quali
               gli utenti possono prendere cognizione dei contenuti solo se accettati dall’am-
               ministratore della pagina. Anche in tali casi, a volte, le pagine non accessibili a
               tutti, sono però frequentate da un grande numero si persone che ben possono
               entrare a contatto con contenuti di odio o discriminatori. In tali casi, i titolari
               delle piattaforme dovrebbero adottare un sistema di controllo interno, che ben
               potrebbe permettere di arrivare ad eliminare o chiudere gruppi nei quali tali
               contenuti riescono ad essere inseriti. Tale soluzione, incontra il limite dell’assen-
               za di un obbligo per i gestori delle piattaforme di porre in essere dei controlli
               preventivi dei contenuti.
                    Ancora, il social network Facebook possiede un centro di sicurezza, al quale è
               possibile accedere anche se non si è iscritti  e dove sono descritte e suddivise
                                                         26
               per argomenti tutte le iniziative e le attività che l’azienda informatica realizza
               per la tutela di tutte le categorie vulnerabili.

               25   Cassazione penale, sezione V, sentenza n. 12546 del 20 marzo 2019.
               26   Accessibile dal link https://about.meta.com/actions/safety.

                                                                                         25
   22   23   24   25   26   27   28   29   30   31   32