Page 95 - Rassegna 2021-1
P. 95

SALUTE, PRIVACY E DATI PERSONALI ALLE PRESE CON L’INTELLIGENZA ARTIFICIALE



               summenzionati principi, la realizzazione dei quali dovrebbe intervenire nell’in-
               tera vita di un sistema d’intelligenza artificiale.
                     Complessivamente, «si raccomanda sia la “necessità di sistemi di intelli-
               genza artificiale affidabili”, sia “l’affidamento generato negli utenti”, ritenen-
               do  che  più  l’intelligenza  artificiale  risulterà  affidabile,  più  rapidamente  gli
               utenti  ne  comprenderanno  i  benefici  e  si  fideranno  di  tale  tecnologia.
               L’approccio europeo è che l’affidabilità e l’affidamento dell’intelligenza artifi-
               ciale dipendono da un requisito etico preliminare: il rispetto dei diritti fonda-
               mentali e dei valori sociali. L’obiettivo di questi documenti è dunque per la
               UE quello di assicurare la ‘fiducia’ nell’intelligenza artificiale, che è primordia-
               le per beneficiare del suo utilizzo e del suo controllo». D’altronde, «secondo
               alcune voci critiche questi regolamenti servono a poco perché la guerra per il
               dominio dell’intelligenza artificiale tra Usa e Cina è combattuta su ben altri
               fronti e a colpi di innovazione tecnologica» .
                                                          (28)
                     Nel settore sanitario, nello specifico, si rilevano ulteriori e diversi rischi,
               quali, a titolo esemplificativo, le implicazioni derivanti dal rapporto tra pazienti,
               operatori sanitari e robot e dagli eventuali consequenziali mutamenti compor-
               tamentali e psicologici e le questioni concernenti la sicurezza e la libertà per-
               sonale.
                     Quanto prima si paleserà l’urgenza di decidere in concreto quali attività
               sono delegabili alle macchine e di porre riparo all’eventualità di un rifiuto di
               massa alle cure o di una depersonalizzazione della cura .
                                                                     (29)
                     Il duplice riferimento alla centralità dell’uomo e all’eticità degli algoritmi
               evidenzia come l’etica non possa restare ai margini o essere interpellata a poste-
               riori  a  valutare  gli  effetti  di  determinati  sviluppi,  ma  debba  essere  coinvolta
               quale elemento essenziale della regolazione delle pratiche d’intelligenza artifi-
               ciale nel rispetto dell’ordinamento giuridico e dei principi di riferimento .
                                                                                     (30)
               (28)  L. D’AVACK, La rivoluzione tecnologica e la nuova era digitale: problemi etici, in U. RUFFOLO (a cura
                     di), Intelligenza artificiale. Il diritto, i diritti, l’etica, cit., pag. 20 ed ibidem, sub nota n. 35. Cfr., G.
                     TAMBURRINI,  Etica  delle  macchine.  Dilemmi  morali  per  robotica  e  intelligenza  artificiale,  Carocci,
                     Roma, 2020, pag. 13: «È opportuno sottolineare che ogni pretesa di compilare un catalogo
                     completo di concetti o principi normativi per l’etica applicata deve fare i conti con la pluralità
                     di punti di vista su ciò che è bene o giusto fare, con le interpretazioni dei principi morali che
                     possono variare in funzione dei contesti applicativi, con l’evoluzione culturale delle sensibi-
                     lità morali. Sul piano di una regolazione ideale, si può distinguere un’etica dei doveri che si
                     interroga su quali siano gli obblighi morali da adottare per guidare l’azione o giudicare il valo-
                     re morale di azioni già compiute e un’etica delle conseguenze che si focalizza, invece, sui cri-
                     teri per distinguere tra conseguenze moralmente buone e conseguenze moralmente cattive
                     di un’azione, prescrivendo inoltre di giudicare il valore morale di un’azione solo in base a un
                     bilancio delle sue conseguenze reali oppure attese».
               (29)  F. LAGIOIA, L’intelligenza artificiale in sanità: un’analisi giuridica, cit., pagg. 11-12.
               (30)  S. AMATO, Biodiritto 4.0. Intelligenza artificiale e nuove tecnologie, cit., pagg. 101-105.

                                                                                         93
   90   91   92   93   94   95   96   97   98   99   100