Page 87 - Rassegna 2024-3
P. 87

IL LEGAL FRAMEWORK EUROPEO E I PROGETTI A SUPPORTO DELL’UTILIZZO
                                       DELL’INTELLIGENZA ARTIFICIALE




                    Al netto di eventuali modifiche che verranno effettuato durante l’iter di
               approvazione  del  testo  normativo,  l’impostazione  presentata,  come  detto,  si
               basa su una scala di rischio per regolamentare le applicazioni di intelligenza arti-
               ficiale suddivida in quattro livelli.
                    Il  primo  livello  sarà  quello  del  rischio  minimo,  il  secondo  livello  sarà
               rischio limitato, il terzo livello sarà invece rischio alto e l’ultimo livello sarà il
               rischio considerato inaccettabile. Tutte le tecnologie, applicazioni e macchine
               che metteranno a rischio la sicurezza, i mezzi di sussistenza, i diritti delle per-
               sone, nonché i sistemi che utilizzeranno tecniche subliminali o manipolative
               intenzionali, sfruttando le vulnerabilità delle persone o utilizzati per il social sco-
               ring ossia tutto ciò che rappresenterà una chiara minaccia per la società, saranno
               integralmente vietati.
                    La classificazione con un livello di rischio minimo invece, non sarà sog-
               getto ad interventi e ulteriori controlli. L’attenzione sulla tutela dei diritti degli
               utenti  che  usano  l’intelligenza  artificiale  pertanto,  è  obiettivo  primario
               dell’Unione Europea che, nonostante l’emanazione della legislazione in parola,
               ha  come  focus  migliorare  il  livello  di  sicurezza  attraverso  l’introduzione  di
               norme aggiuntive ad hoc atte a definire dei paletti rigidi da rispettare quali: creare
               un elenco di app ad altro rischio, definire dei requisiti chiari da rispettare, stabi-
               lire dei specifici obblighi per utenti e fornitori, effettuare la valutazione della
               conformità prima dell’immissione sul mercato, creare una struttura di gover-
               nance a livello europeo e nazionale.
                    L’ultimo ostacolo all’approvazione definitiva dell’AI Act è stato rimosso lo
               scorso gennaio con il voto unanime degli ambasciatori dei ventisette paesi euro-
               pei. Per la prima volta nel mondo è stata legiferata una normativa che detta le
               regole per lo sviluppo, l’immissione sul mercato e sull’uso dei sistemi di IA in
               Europa. Viste le difficoltà e le perplessità della comunità europea e internazio-
               nale l’esito non era affatto scontato ma l’approvazione di tale legge ha aperto
               uno spaccato importante in materia giuridica sulle future tecnologie che, quasi
               sicuramente,  saranno  sviluppate  e  gestite  esclusivamente  attraverso  l’uso
               dell’IA. In Unione Europea, già all’indomani dell’accordo sulla stesura dell’AI
               Act, si era aperto un fronte di Stati scontenti guidati dalla Francia.
                    L’obiettivo primario per la Francia è che l’Europa non resti indietro sulla
               corsa  allo  sviluppo  delle  nuove  tecnologie,  come  avvenuto  in  passato  con
               Internet  e  i  social  network.  Nello  specifico,  la  Francia,  sostenuta  da  Italia  e
               Germania,  ha  avanzato  richieste  di  un  regime  normativo  più  leggero  per  i
               modelli generativi di intelligenza artificiale - come ChatGpt - introducendo piut-
               tosto dei codici di condotta.


                                                                                         85
   82   83   84   85   86   87   88   89   90   91   92