Page 89 - Rassegna 2024-2
P. 89

L’ARTIFICIAL INTELLIGENCE ACT DELL’UNIONE EUROPEA




               3.  Modalità di monitoraggio e valutazione, lotta al cambiamento clima-
                  tico, piani attuativi
                    L’IA Act, quindi, offre una visione prospettica di un’intelligenza artificiale
               etica e responsabile, che si interfacci con i principi di sicurezza, liceità, traspa-
               renza, correttezza e rispetto dei diritti umani. Il focus tematico delle criticità
               comprende la riservatezza, la non discriminazione, la sicurezza dei dati e la tra-
               sparenza delle decisioni algoritmiche: la controrisposta legislativa vuole stabilire
               misure  tecniche-organizzative  di  controllo  per  garantire  che  le  operazioni
               dell’IA siano conformi ai valori etici e sociali comunitari, oltre che efficaci ed
               efficienti.
                    La proposta stabilisce un elenco classificatorio dell’IA secondo quattro
               categorie di rischio: basso o minimo, alto, inaccettabile e specifico di trasparen-
               za, ciascuna con proprie implicazioni e requisiti:
                      rischio basso o minimo, ove si collocano la maggior parte dei sistemi di IA.
               I produttori possono conformarsi a codici di condotta dei settori industriali per
               dimostrare la loro conformità con il diritto dell’UE e come mezzo per raffor-
               zare la loro immagine pubblica, sebbene siano formalmente esentati da obblighi
               giuridici aggiuntivi ;
                                 14
                      rischio alto. Implica un potenziale pericolo per la salute e la sicurezza o
               per i diritti fondamentali delle persone fisiche, come i sistemi di IA per i servizi
               di intelligence. Di conseguenza sono richieste una serie di rigorose misure di
               sicurezza, come sistemi di mitigazione del rischio, la trasparenza e la chiarezza
               delle informazioni, oppure la supervisione umana. I fornitori eseguono obbli-
               gatoriamente valutazioni di conformità e sottoscrivono la trasparenza delle loro
               operazioni ;
                          15
                      rischio inaccettabile. Ci sono sistemi che sono contrari ai valori dell’Unione,
               perché violano i diritti fondamentali. I divieti riguardano comportamenti che
               presentano un elevato potenziale in termini di manipolazione per eludere la
               libera volontà degli individui, sfruttamento delle vulnerabilità di specifici gruppi
               di persone con l’utilizzo di tecniche subliminali, categorizzazione biometrica,
               polizia predittiva su singoli, oppure riconoscimento delle emozioni sul luogo di
               lavoro e negli istituti di istruzione ;
                                                16
                      rischio specifico per la trasparenza. Gli obblighi si applicheranno ai sistemi,
               come le chatbot, che: interagiscono con gli esseri umani; sono utilizzati per rile-
               vare emozioni o stabilire un’associazione con categorie sociali sulla base di dati

               14   Commissione europea, ivi, 21 aprile 2021.
               15   Commissione europea, ivi, 21 aprile 2021.
               16   Commissione europea, ivi, 21 aprile 2021.

                                                                                         87
   84   85   86   87   88   89   90   91   92   93   94