Page 94 - Rassegna 2021-1
P. 94
DOTTRINA
Ad ogni modo, per osteggiare tali pericoli, evitando limitazioni alla ricer-
ca tecnologica e all’uso benefico dell’intelligenza artificiale, senza limitare la
ricerca e gli usi benefici dell’intelligenza artificiale, sono state adottate nume-
rose ulteriori iniziative, per delineare un quadro etico e normativo all’insegna
di un’intelligenza artificiale “incentrata sull’uomo”. Così è andata affermandosi
l’idea che l’intelligenza artificiale si concentri su interessi sia individuali sia col-
lettivi, non venga sottoutilizzata pagandone i costi, né sfruttata o usata in
modo poco funzionale producendo altri pericoli . E proprio su iniziativa
(25)
dell’Unione Europea, un gruppo di esperti ha stilato un sintetico quadro etico
per l’intelligenza artificiale , indicando opportunità e rischi e dichiarando la
(26)
necessità che l’intelligenza artificiale migliori l’azione umana, lasci operativa la
responsabilità, consenta l’autorealizzazione dell’uomo e coltivi la coesione
sociale. Un’intelligenza artificiale conforme al diritto ed etica dovrebbe pog-
giare su diritti fondamentali e diversi principi etici (autonomia umana, preven-
zione del danno, equità e spiegabilità delle decisioni algoritmiche). Per un’in-
telligenza artificiale affidabile, gli esperti indicano sette requisiti , basati sui
(27)
modelli politici ed economici che ne derivano, a fronte dell’impossibilità riscontrata dal siste-
ma tradizionale di Stato di esercitare la propria sovranità su un territorio e su un popolo circa
il fenomeno globalizzato della produzione, della circolazione e dell’elaborazione dei dati ad
opera dei svariati sistemi di intelligenza artificiale che non conosce limiti e confini - si pone,
ex multis, un quesito cruciale: «i nostri regimi democratici, basati su un costituzionalismo libe-
rale e sociale, stanno definitivamente perdendo la guerra contro i giganti del web per il man-
tenimento e il perfezionamento di una democrazia matura e funzionante? Siamo inevitabil-
mente obbligati a scegliere tra regimi e democrazie apparenti in realtà nelle mani dei grandi
soggetti che controllano la rete e i meccanismi di intelligenza artificiale? In altre parole, i regi-
mi democratici sono in grado di controllare e contrastare i fenomeni degenerativi prodotti
dalla produzione, circolazione, elaborazione dei dati?». Dal che, rifiuta le soluzioni poste, quali
«improbabili formule autarchiche di chiusura nazionalistica, robusti tentativi di modelli auto-
ritari, improbabili suggestioni di ricostruzione di leadership (vetero-)imperiali», osservando che
nessuno di tali modelli fa al caso dell’Europa, contraddistintasi per le libertà di circolazione e
la proposizione di modelli democratici dal dopoguerra in poi (ivi, pag. 458). All’opposto -
nonostante la diffusa auspicabilità di una governance globale al riguardo, per lui non pratica-
bile né perseguibile per la diversità dei sistemi politici, economici e militari in ballo -, la sua
soluzione ricade su una necessaria dimensione se non regionale strictu sensu della regolazione
della materia de qua (sarebbe impensabile l’instaurazione e la regolazione di rapporti tra sin-
goli realtà territoriali locali e i grandi colossi delle nuove tecnologie che operano a livello glo-
bale), quantomeno a livello sovraregionale e nel caso europeo, dunque, ad opera dell’UE, nel
senso del bilanciamento tra principi in chiave europeista e in nome dell’eteroregolazione.
(25) F. LAGIOIA, L’intelligenza artificiale in sanità: un’analisi giuridica, cit., pagg. 10-11.
(26) L. FLORIDI, J. COWLS, M. BELTRAMETTI, ET AL., AI4People-An Ethical Framework for a Good AI
Society: Opportunities, Risks, Principles, and Recommendations. Minds & Machines, 28, 2018,
https://doi.org/10.1007/s11023-018-9482-5, pagg. 689-707.
(27) Iniziativa e controllo umano; robustezza tecnica e sicurezza dei sistemi; rispetto della privacy
e della governance dei dati; trasparenza, inclusa la tracciabilità, la spiegabilità e la comunica-
zione; diversità, non discriminazione ed equità; benessere sociale e ambientale; responsabilità,
comprese verificabilità, minimizzazione e comunicazione di impatti negativi, compromissioni
e mezzi di risarcimento.
92

