Page 89 - Rassegna 2024-2
P. 89
L’ARTIFICIAL INTELLIGENCE ACT DELL’UNIONE EUROPEA
3. Modalità di monitoraggio e valutazione, lotta al cambiamento clima-
tico, piani attuativi
L’IA Act, quindi, offre una visione prospettica di un’intelligenza artificiale
etica e responsabile, che si interfacci con i principi di sicurezza, liceità, traspa-
renza, correttezza e rispetto dei diritti umani. Il focus tematico delle criticità
comprende la riservatezza, la non discriminazione, la sicurezza dei dati e la tra-
sparenza delle decisioni algoritmiche: la controrisposta legislativa vuole stabilire
misure tecniche-organizzative di controllo per garantire che le operazioni
dell’IA siano conformi ai valori etici e sociali comunitari, oltre che efficaci ed
efficienti.
La proposta stabilisce un elenco classificatorio dell’IA secondo quattro
categorie di rischio: basso o minimo, alto, inaccettabile e specifico di trasparen-
za, ciascuna con proprie implicazioni e requisiti:
rischio basso o minimo, ove si collocano la maggior parte dei sistemi di IA.
I produttori possono conformarsi a codici di condotta dei settori industriali per
dimostrare la loro conformità con il diritto dell’UE e come mezzo per raffor-
zare la loro immagine pubblica, sebbene siano formalmente esentati da obblighi
giuridici aggiuntivi ;
14
rischio alto. Implica un potenziale pericolo per la salute e la sicurezza o
per i diritti fondamentali delle persone fisiche, come i sistemi di IA per i servizi
di intelligence. Di conseguenza sono richieste una serie di rigorose misure di
sicurezza, come sistemi di mitigazione del rischio, la trasparenza e la chiarezza
delle informazioni, oppure la supervisione umana. I fornitori eseguono obbli-
gatoriamente valutazioni di conformità e sottoscrivono la trasparenza delle loro
operazioni ;
15
rischio inaccettabile. Ci sono sistemi che sono contrari ai valori dell’Unione,
perché violano i diritti fondamentali. I divieti riguardano comportamenti che
presentano un elevato potenziale in termini di manipolazione per eludere la
libera volontà degli individui, sfruttamento delle vulnerabilità di specifici gruppi
di persone con l’utilizzo di tecniche subliminali, categorizzazione biometrica,
polizia predittiva su singoli, oppure riconoscimento delle emozioni sul luogo di
lavoro e negli istituti di istruzione ;
16
rischio specifico per la trasparenza. Gli obblighi si applicheranno ai sistemi,
come le chatbot, che: interagiscono con gli esseri umani; sono utilizzati per rile-
vare emozioni o stabilire un’associazione con categorie sociali sulla base di dati
14 Commissione europea, ivi, 21 aprile 2021.
15 Commissione europea, ivi, 21 aprile 2021.
16 Commissione europea, ivi, 21 aprile 2021.
87