Page 84 - Rassegna 2024-2
P. 84
DOTTRINA
In merito ai rischi, il 19 novembre 2015 è stato diffuso il comunicato stampa
sul parere Meeting the Challenges of Big Data del Garante Europeo della Protezione
dei Dati (GEPD) Giovanni Buttarelli, il quale ha sottolineato che: «L’uso dei Big
Data richiede una maggiore protezione dei dati; sarà quindi indispensabile un
maggiore controllo sugli utilizzatori di questi dati per garantirne un impiego
responsabile in futuro. Norme sulla privacy sono state definite proprio a tutela dei
nostri diritti e valori fondamentali. La domanda che l’industria e gli enti pubblici
devono porsi non è se applicare o meno tali norme al trattamento dei Big Data
bensì come applicarle più efficacemente. Siamo intenzionati a collaborare con
tutti gli interlocutori chiave, al di fuori e all’interno dell’UE, al fine di individuare
soluzioni creative e orientate al futuro per preservare al meglio i nostri valori,
senza con ciò rinunciare ai benefici sociali nell’interesse pubblico».
Il protagonista involontario di questo traguardo rivoluzionario è la privacy
perché i dispositivi possono utilizzare i dati personali come ritengono più utile,
con cinque problemi principali :
8
il primo sta nell’identificare i titolari del trattamento e i responsabili del
trattamento, con le loro rispettive responsabilità. Un’utile riflessione viene forni-
ta nel Manuale sul diritto europeo in materia di protezione dei dati del 2018: “La
questione della responsabilità sarà più complessa quando l’intelligenza artificiale
prenderà decisioni basate sul trattamento di dati da essa stessa sviluppato. Il
regolamento generale sulla protezione dei dati fornisce un quadro giuridico per
la responsabilità del titolare del trattamento e del responsabile del trattamento. Il
trattamento illecito dei dati personali comporta la responsabilità del titolare del
trattamento e del responsabile del trattamento. L’intelligenza artificiale e il pro-
cesso decisionale automatizzato sollevano interrogativi su chi sia responsabile
per le violazioni della vita privata degli interessati, quando la complessità e la
quantità di dati trattati non possono essere attribuite con certezza. Se l’IA e gli
algoritmi sono considerati prodotti, sorgono problematiche tra la responsabilità
personale, che è disciplinata dal regolamento generale sulla protezione dei dati e
la responsabilità per i danni da prodotti, che non lo è. Ciò richiederebbe norme
in materia di responsabilità, per colmare la lacuna tra responsabilità personale e
responsabilità per il prodotto con riferimento alla robotica e all’intelligenza arti-
ficiale compreso, ad esempio, il processo decisionale automatizzato”;
i principi fondamentali del diritto europeo in materia di protezione dei dati
fungono da ulteriore punto di partenza: il principio di limitazione delle finalità,
interconnesso con le prospettive di trasparenza, prevedibilità e controllo dell’utente,
8 https://www.consulprivacy.it/privacy-il-lato-oscuro-dellintelligenza-artificiale/. Consultato
il 6 gennaio 2024.
82