Page 100 - Rassegna 2022-3
P. 100
DOTTRINA
4. Rilevare automaticamente l’hate speech nei testi
Molti paesi hanno sviluppato normative specifiche per prevenire l’hate
speech online che influiscono sulla responsabilità delle società riguardo la gestio-
ne dei social media. Queste hanno l’impegno di rimuovere i messaggi d’odio
entro un tempo stabilito dalla legge. Tale rimozione avviene di norma dopo
un’attenta analisi manuale, eseguita spesso da operatori umani. Questo approc-
cio ha, tuttavia, conseguenze dannose negli operatori umani che analizzano i
messaggi. Di fatto si è rilevato che analizzare nell’arco di una giornata lavora-
tiva numerosi messaggi negativi ha conseguenze dannose per il benessere psi-
cofisico degli operatori. La svolta è avvenuta, però, nel 2019 quando il noto
social network Facebook, per facilitare la gestione, l’analisi e il controllo dei mes-
saggi d’odio, ha annunciato l’uso dell’Intelligenza Artificiale (IA) per svolge-
(13)
re questa attività.
Questa scelta operativa è stata dettata dall’enorme quantità di dati che
giornalmente veniva analizzata dagli operatori e dagli ingenti costi in termini di
tempo impiegato nell’analisi di quei testi .
(14)
Per tale motivo negli ultimi decenni nel campo dell’IA e in particolare in quel-
lo dell’elaborazione del linguaggio naturale (Natural Language Processing - NLP),
sono state perfezionate diverse tecniche per la realizzazione di sistemi di
Sentiment Analysis (SA) e, al contempo, per l’identificazione di discorsi d’odio
(15)
nei testi. Per SA si intende “il processo automatizzato di analisi e di interpreta-
zione dei sentimenti che si celano dietro un testo”. Tali tecniche sono tipica-
mente motivate da un crescente interesse verso le questioni sociali ed etiche,
come la lotta contro l’estremismo, la violenza, le fake news, ecc. Unitamente a tali
questioni sociali i ricercatori si sono occupati di affrontare anche quella relativa
all’hate speech.
Il problema principale legato all’hate speech riguarda la difficoltà di stabilire
se un testo sia dotato o meno di un messaggio d’odio. Operazione non sempli-
ce, neppure per gli esseri umani stessi. Ne consegue che l’operazione di rileva-
mento automatico di hate speech nei testi risulta essere impegnativa. Tuttavia, per
affrontare tale problematica, si utilizzano approcci basati su metodi matematici
avanzati e specifici modelli di classificazione del testo.
(13) P. H. WINSTON, Artificial Intelligence, Addison-Wesley Publishing Company, 1992.
(14) B. PERRIGO, Facebook Says It’s Removing More Hate Speech Than Ever Before. But There’s a Catch,
Time, Nov. 26, 2019, in https://time.com/5739688/facebook-hate-speech-languages/,
(consultato il 24 febbraio 2022).
(15) G. G. CHOWDHURY, Natural language processing, Annu. rev. inf. sci. technol., vol. 37, no. 1, pagg. 51-89,
Jan. 2005; W. MEDHAT, A. HASSAN, H. KORASHY, Sentiment analysis algorithms and applications:
A survey, Ain Shams Eng. J., vol. 5, no. 4, pagg. 1093-1113, Dec. 2014.
98