Page 96 - Rassegna 2024-3
P. 96
DOTTRINA
11
Alcune tecniche di tutela della privacy differenziale creano confusione nei
datasets poiché devono impedire la divulgazione involontaria di dati sensibili.
Questa confusione creerebbe errori nei dati e potrebbe per tal motivo, essere
interpretata come violazione dell’Articolo 10, comma 3, dell’AI Act. Sebbene
queste tecniche siano necessarie per garantire un’adeguata protezione dei dati
sensibili impedendone la divulgazione involontaria, allo stesso modo sono uno
strumento critico durante lo sviluppo di un sistema di IA per evitare violazione
in materia di protezione della privacy. A tal proposito, includere nell’articolo 10
un’esplicita eccezione per l’uso di alcune tecniche di protezione della privacy in
determinate tecnologie consentirebbe di utilizzare le tecniche di privacy differen-
ziale sia per preservare la privacy dell’utente e la protezione dei dati sensibili sia
per lo sviluppo di sistemi di IA.
Il terzo tema è inerente al precisare alcune disposizioni per fornire certezze legali
nell’ambito di applicazione e della protezione della privacy. All’interno dell’AI Act sono
stati previsti un numero di termini e disposizioni che beneficerebbero di ulte-
riori chiarimenti per garantire che i fornitori di sistemi di AI siano in grado di
applicare i requisiti dell’AI Act ai loro prodotti in modo chiaro e definito, esenti
da eventuali interpretazioni poco precise delle norme.
Per esempio, le definizioni di ‘componenti sicuri’ e ‘modifiche significati-
ve’ descritte nell’articolo 5 dell’AI Act, potrebbero essere ulteriormente chiarite
per fornire garanzie legali relativamente alle tecnologie che rientrano nell’ambi-
to dei requisiti dei sistemi di IA ad alto rischio, specificando come dovrebbero
essere impiegate in particolari situazioni. Nello specifico, l’articolo 5 dell’AI Act
fa riferimento alle pratiche vietate di intelligenza artificiale. Al capo a) del
comma 1, proibisce “l’immissione sul mercato, la messa in servizio o l’uso di
un sistema di IA che utilizza tecniche subliminali che agiscono senza che una per-
sona ne sia consapevole al fine di distorcerne materialmente il comportamento in un
modo che provochi o possa provocare a tale persona o a un’altra persona un
danno fisico o psicologico”.
Nella lettura del testo di tale comma non è ben specificato cosa venga
inteso per ‘tecniche subliminali’ o quali siano i comportamenti in grado di
‘distorcerne materialmente il comportamento di una persona’ ma viene lasciata
ad un’interpretazione che potrebbe risultare particolarmente lata e vaga.
11 La privacy differenziale è uno standard per i calcoli sui dati che limita le informazioni perso-
nali rilevate da un output, ossia da un apparato tecnologico che si sta utilizzando. La privacy
differenziale viene comunemente utilizzata per condividere i dati e per consentire inferenze
su gruppi di persone, impedendo al contempo a qualcuno di apprendere informazioni su un
individuo. I casi in cui si utilizzano maggiormente queste tecniche sono: in caso di rischio di
reidentificazione o quantificare il compromesso tra rischio e utilità analitica.
94