Page 144 - Rassegna 2024-2
P. 144
OSSERVATORIO INTERNAZIONALE
Il Defense Advanced Research Projects Agency (DARPA) statunitense descrive
l’evoluzione dei sistemi di IA in “ondate”. La “prima ondata” comprende i
“sistemi esperti”, ovvero capaci di replicare le conoscenze di esperti tramite
rigide catene consequenziali if...then in compiti estremamente limitati.
Attualmente ci troviamo nella “seconda ondata”, caratterizzata da reti neurali
artificiali e apprendimento profondo basate su machine learning statistico che da
modo alle macchine di apprendere e agire con crescente autonomia dalle basi
di dati loro fornite. La prossima “terza ondata” si prevede che produrrà invece
sistemi di IA in grado di gestire ambienti complessi attraverso l’apprendimento
5
contestuale basato in grado di affrontare una vasta gamma di fenomeni reali .
Siamo dunque ben lontani da quella che è invece l’IA “generale” (AGI), sistemi
di IA in grado di comprendere, apprendere, e generalizzare la conoscenza per
eseguire un’ampia gamma di compiti intellettuali, simili o superiori alle capacità
umane. Al momento nessuna AGI è stata sviluppata nonostante gli sforzi per
realizzarla.
È bene sottolineare che gli odierni sistemi di IA basati sull’apprendimen-
to statistico sono “IA ristrette” o “IA deboli”, la cui progettazione permette
loro solo di operare nel contesto di compiti e domini ben specifici. Le attuali
IA della seconda ondata sono ancora caratterizzate da grande fragilità, ovvero
soggette a fallimenti e cali significativi nelle prestazioni quando vengono loro
presentati dati o circostanze inaspettate o insolite rispetto al set di dati su cui
i loro algoritmi sono stati “allenati”, compromettendone significativamente
affidabilità ed efficacia specialmente in situazioni non previste durante lo svi-
luppo e il testing. Inoltre, non si può essere certi che l’IA agisca con perfetta
prevedibilità e ciò significa che può produrre output incoerenti o disallineati
rispetto al suo addestramento non solo in situazioni impreviste anomale, ren-
dendo difficile affidarsi completamente all’IA soprattutto in contesti sensibili
e ad alto rischio.
Inoltre, sia l’IA che gli operatori umani possono essere influenzati da
distorsioni cognitive (bias), sia dovuti ai dati e al training dell’IA che al bias di
eccessivo affidamento degli operatori sull’IA (automation bias). Queste distorsio-
ni cognitive possono influenzare l’output dell’IA e le azioni degli operatori
umani, portando a risultati non ottimali o persino dannosi, come testimoniato
dai fratricidi dei sistemi Patriot o l’increscioso incidente causato dal sistema
AEGIS della USS Vincennes .
6
5 John Launchbury, A DARPA Perspective on Artificial Intelligence, February 2017.
6 Paul Scharre, Army of None: Autonomous Weapons and the Future of War (WW Norton &
Company, 2018).
142