Page 144 - Rassegna 2024-2
P. 144

OSSERVATORIO INTERNAZIONALE




                  Il Defense Advanced Research Projects Agency (DARPA) statunitense descrive
             l’evoluzione dei sistemi di IA in “ondate”. La “prima ondata” comprende i
             “sistemi esperti”, ovvero capaci di replicare le conoscenze di esperti tramite
             rigide  catene  consequenziali  if...then in compiti estremamente limitati.
             Attualmente ci troviamo nella “seconda ondata”, caratterizzata da reti neurali
             artificiali e apprendimento profondo basate su machine learning statistico che da
             modo alle macchine di apprendere e agire con crescente autonomia dalle basi
             di dati loro fornite. La prossima “terza ondata” si prevede che produrrà invece
             sistemi di IA in grado di gestire ambienti complessi attraverso l’apprendimento
                                                                                       5
             contestuale basato in grado di affrontare una vasta gamma di fenomeni reali .
             Siamo dunque ben lontani da quella che è invece l’IA “generale” (AGI), sistemi
             di IA in grado di comprendere, apprendere, e generalizzare la conoscenza per
             eseguire un’ampia gamma di compiti intellettuali, simili o superiori alle capacità
             umane. Al momento nessuna AGI è stata sviluppata nonostante gli sforzi per
             realizzarla.
                  È bene sottolineare che gli odierni sistemi di IA basati sull’apprendimen-
             to statistico sono “IA ristrette” o “IA deboli”, la cui progettazione permette
             loro solo di operare nel contesto di compiti e domini ben specifici. Le attuali
             IA della seconda ondata sono ancora caratterizzate da grande fragilità, ovvero
             soggette a fallimenti e cali significativi nelle prestazioni quando vengono loro
             presentati dati o circostanze inaspettate o insolite rispetto al set di dati su cui
             i  loro  algoritmi  sono  stati  “allenati”,  compromettendone  significativamente
             affidabilità ed efficacia specialmente in situazioni non previste durante lo svi-
             luppo e il testing. Inoltre, non si può essere certi che l’IA agisca con perfetta
             prevedibilità e ciò significa che può produrre output incoerenti o disallineati
             rispetto al suo addestramento non solo in situazioni impreviste anomale, ren-
             dendo difficile affidarsi completamente all’IA soprattutto in contesti sensibili
             e ad alto rischio.
                  Inoltre,  sia  l’IA  che  gli  operatori  umani  possono  essere  influenzati  da
             distorsioni cognitive (bias), sia dovuti ai dati e al training dell’IA che al bias di
             eccessivo affidamento degli operatori sull’IA (automation bias). Queste distorsio-
             ni  cognitive  possono  influenzare  l’output  dell’IA  e  le  azioni  degli  operatori
             umani, portando a risultati non ottimali o persino dannosi, come testimoniato
             dai  fratricidi  dei  sistemi  Patriot  o  l’increscioso  incidente  causato  dal  sistema
             AEGIS della USS Vincennes .
                                       6
             5    John Launchbury, A DARPA Perspective on Artificial Intelligence, February 2017.
             6    Paul  Scharre,  Army  of   None:  Autonomous  Weapons  and  the  Future  of   War  (WW  Norton  &
                  Company, 2018).

             142
   139   140   141   142   143   144   145   146   147   148   149