Page 121 - Rassegna 2025-3
P. 121
IN gIro per Le “reTI” frA DeNSITà gLobALe e feNoMeNoLogIA ArTIfIcIALe QuALI opporTuNITà?
In realtà se viene considerata la tesi di altri autori (Piantadosi, Hill, 2022) - che
prendendo spunto da Wittgenstein, non considerano i LLM dei pappagalli stocasti-
ci poiché le operazioni sequenziali sono dovute al modo in cui i concetti nell’uso del
linguaggio si relazionano tra loro il significato non può essere determinato dall’archi-
tettura di un modello, dai dati di addestramento o dalla funzione obiettivo, ma solo
dall’esame di come i suoi stati interni si relazionano tra loro - la questione viene supe-
rata poiché il core della disamina è la relazione fra i concetti e non l’architettura che
ne rende tale il funzionamento.
Un tale atteggiamento consente anche di stabilire che l’importanza del model-
lo assume una centralità solo in relazione ai dati immessi nella “rete”. Questa rif es-
sione conduce direttamente alla questione sull’autentica possibilità che i LLM
hanno molti vantaggi da of rirci, e che i veri limiti sono altri.
I LLM sono certamente incapaci di generare obiettivi in maniera automatica:
essi lavorano su dati immessi e su comandi direttamente stabiliti dal suo utilizzato-
re, pertanto non possono generare obiettivi poiché mancano di una motivazione
intrinseca (o autonoma, come direbbe Sartori, 2024). In buona pace delle conside-
razioni di diritto che potrebbero provenire da altri dibattiti (Fasan, 2022), stabilire
che il limite della carenza di motivazione interna sia davvero un limite, risiede
nel’ambito di applicazione dei sistemi di intelligenza stessi poiché da un lato potreb-
bero alleviare lo scetticismo sulla paura dei LLM, dall’altro, non potrebbero essere
considerati come emulatori della cognizione umana .
14
Un altro limite dei LLM consiste nella produzione di errori inaspettati (allu-
cinazioni), generando così risposte mai sbagliate ma verosimili. Interessante è
notare che queste confabulazioni si osservano soprattutto nei LLM di piccole
dimensioni e, in ultima analisi, sebbene rappresentino un grosso problema per i
ricercatori di I.A., i LLM riportano meno errori rispetto a quelli prodotti dall’uo-
mo (Pu et al., 2023).
In relazione alle f nalità che potrebbero ausiliare gli operatori di P.G., si
potrebbe creare una task force per implementare:
➣ Sistemi capaci di generare quesiti o modalità operative da formalizzare
durante la ricezione di denuncie o escussione a sommarie informazioni testimonia-
li. In un articolo precedente facevo riferimento ad alcune tecniche psicologiche
ripensate sotto il prof lo psicologico e, alla luce delle conoscenze acquisite in seno ai
LLM, un tale modello opportunamente addestrato potrebbe riproporre all’opera-
tore di P.G. in sede di denuncia informatizzata, un set di domande (Vrij et al., 2017)
14 Solo al f ne di circoscrivere “chirurgicamente” il limite di applicazione dei LLM, in questa sede basti solo
dire che questa disquisizione, è uno dei fondamentali criteri di applicazione allo studio dei modelli artif -
ciali come rappresentati fedeli alla cognition umana, pertanto al momento, il dibattito è a livello teorico.
119

