Page 96 - Rassegna 2024-3
P. 96

DOTTRINA




                                                                 11
                  Alcune tecniche di tutela della privacy differenziale  creano confusione nei
             datasets poiché devono impedire la divulgazione involontaria di dati sensibili.
             Questa confusione creerebbe errori nei dati e potrebbe per tal motivo, essere
             interpretata come violazione dell’Articolo 10, comma 3, dell’AI Act. Sebbene
             queste tecniche siano necessarie per garantire un’adeguata protezione dei dati
             sensibili impedendone la divulgazione involontaria, allo stesso modo sono uno
             strumento critico durante lo sviluppo di un sistema di IA per evitare violazione
             in materia di protezione della privacy. A tal proposito, includere nell’articolo 10
             un’esplicita eccezione per l’uso di alcune tecniche di protezione della privacy in
             determinate tecnologie consentirebbe di utilizzare le tecniche di privacy differen-
             ziale sia per preservare la privacy dell’utente e la protezione dei dati sensibili sia
             per lo sviluppo di sistemi di IA.
                  Il terzo tema è inerente al precisare alcune disposizioni per fornire certezze legali
             nell’ambito di applicazione e della protezione della privacy. All’interno dell’AI Act sono
             stati previsti un numero di termini e disposizioni che beneficerebbero di ulte-
             riori chiarimenti per garantire che i fornitori di sistemi di AI siano in grado di
             applicare i requisiti dell’AI Act ai loro prodotti in modo chiaro e definito, esenti
             da eventuali interpretazioni poco precise delle norme.
                  Per esempio, le definizioni di ‘componenti sicuri’ e ‘modifiche significati-
             ve’ descritte nell’articolo 5 dell’AI Act, potrebbero essere ulteriormente chiarite
             per fornire garanzie legali relativamente alle tecnologie che rientrano nell’ambi-
             to dei requisiti dei sistemi di IA ad alto rischio, specificando come dovrebbero
             essere impiegate in particolari situazioni. Nello specifico, l’articolo 5 dell’AI Act
             fa  riferimento  alle  pratiche  vietate  di  intelligenza  artificiale.  Al  capo  a)  del
             comma 1, proibisce “l’immissione sul mercato, la messa in servizio o l’uso di
             un sistema di IA che utilizza tecniche subliminali che agiscono senza che una per-
             sona ne sia consapevole al fine di distorcerne materialmente il comportamento in un
             modo che provochi o possa provocare a tale persona o a un’altra persona un
             danno fisico o psicologico”.
                  Nella lettura del testo di tale comma non è ben specificato cosa venga
             inteso  per  ‘tecniche  subliminali’  o  quali  siano  i  comportamenti  in  grado  di
             ‘distorcerne materialmente il comportamento di una persona’ ma viene lasciata
             ad un’interpretazione che potrebbe risultare particolarmente lata e vaga.

             11   La privacy differenziale è uno standard per i calcoli sui dati che limita le informazioni perso-
                  nali rilevate da un output, ossia da un apparato tecnologico che si sta utilizzando. La privacy
                  differenziale viene comunemente utilizzata per condividere i dati e per consentire inferenze
                  su gruppi di persone, impedendo al contempo a qualcuno di apprendere informazioni su un
                  individuo. I casi in cui si utilizzano maggiormente queste tecniche sono: in caso di rischio di
                  reidentificazione o quantificare il compromesso tra rischio e utilità analitica.

             94
   91   92   93   94   95   96   97   98   99   100   101