Page 121 - Rassegna 2025-3
P. 121

IN gIro per Le “reTI” frA DeNSITà gLobALe e feNoMeNoLogIA ArTIfIcIALe QuALI opporTuNITà?




                    In realtà se viene considerata la tesi di altri autori (Piantadosi, Hill, 2022) - che
               prendendo spunto da Wittgenstein, non considerano i LLM dei pappagalli stocasti-
               ci poiché le operazioni sequenziali sono dovute al modo in cui i concetti nell’uso del
               linguaggio si relazionano tra loro il significato non può essere determinato dall’archi-
               tettura di un modello, dai dati di addestramento o dalla funzione obiettivo, ma solo
               dall’esame di come i suoi stati interni si relazionano tra loro - la questione viene supe-
               rata poiché il core della disamina è la relazione fra i concetti e non l’architettura che
               ne rende tale il funzionamento.
                    Un tale atteggiamento consente anche di stabilire che l’importanza del model-
               lo assume una centralità solo in relazione ai dati immessi nella “rete”. Questa rif es-
               sione  conduce  direttamente  alla  questione  sull’autentica  possibilità  che  i  LLM
               hanno molti vantaggi da of rirci, e che i veri limiti sono altri.
                    I LLM sono certamente incapaci di generare obiettivi in maniera automatica:
               essi lavorano su dati immessi e su comandi direttamente stabiliti dal suo utilizzato-
               re, pertanto non possono generare obiettivi poiché mancano di una motivazione
               intrinseca (o autonoma, come direbbe Sartori, 2024). In buona pace delle conside-
               razioni di diritto che potrebbero provenire da altri dibattiti (Fasan, 2022), stabilire
               che  il  limite  della  carenza  di  motivazione  interna  sia  davvero  un  limite,  risiede
               nel’ambito di applicazione dei sistemi di intelligenza stessi poiché da un lato potreb-
               bero alleviare lo scetticismo sulla paura dei LLM, dall’altro, non potrebbero essere
               considerati come emulatori della cognizione umana .
                                                               14
                    Un altro limite dei LLM consiste nella produzione di errori inaspettati (allu-
               cinazioni),  generando  così  risposte  mai  sbagliate  ma  verosimili.  Interessante  è
               notare  che  queste  confabulazioni  si  osservano  soprattutto  nei  LLM  di  piccole
               dimensioni e, in ultima analisi, sebbene rappresentino un grosso problema per i
               ricercatori di I.A., i LLM riportano meno errori rispetto a quelli prodotti dall’uo-
               mo (Pu et al., 2023).
                    In  relazione  alle  f nalità  che  potrebbero  ausiliare  gli  operatori  di  P.G.,  si
               potrebbe creare una task force per implementare:
                    ➣ Sistemi  capaci  di  generare  quesiti  o  modalità  operative  da  formalizzare
               durante la ricezione di denuncie o escussione a sommarie informazioni testimonia-
               li. In un articolo precedente facevo riferimento ad alcune tecniche psicologiche
               ripensate sotto il prof lo psicologico e, alla luce delle conoscenze acquisite in seno ai
               LLM, un tale modello opportunamente addestrato potrebbe riproporre all’opera-
               tore di P.G. in sede di denuncia informatizzata, un set di domande (Vrij et al., 2017)

               14  Solo al f ne di circoscrivere “chirurgicamente” il limite di applicazione dei LLM, in questa sede basti solo
                  dire che questa disquisizione, è uno dei fondamentali criteri di applicazione allo studio dei modelli artif -
                  ciali come rappresentati fedeli alla cognition umana, pertanto al momento, il dibattito è a livello teorico.

                                                                                        119
   116   117   118   119   120   121   122   123   124   125   126