Page 117 - Rassegna 2025-3
P. 117
IN gIro per Le “reTI” frA DeNSITà gLobALe e feNoMeNoLogIA ArTIfIcIALe QuALI opporTuNITà?
Come si evince dall’immagine, la rete neurale consiste in tre strati:
➣ strato di input: dove avviene la ricezione delle informazioni e le trasferisce
agli altri nodi del prossimo strato, gli ridde nodes (nodi nascosti);
➣ strati dei nodi nascosti: in questo stadio avvengono tutti i calcoli;
➣ strato dei nodi di output: in questa parte si trovano gli output computazio-
nali, cioè, rende possibile il risultato dell’elaborazione ef ettuata al computer.
L’addestramento di un modello neurale è profondo (deep learning) se utilizza
molti strati intermedi: il vantaggio di questi modelli consiste nell’automatismo del-
l’apprendimento, caratteristica questa che i modelli tradizionali di machine learning
non sono in grado di fare; invero, nei grandi modelli linguistici, l’apprendimento
profondo si basa su architetture di reti neurali profonde e questa peculiarità basa:
a) sull’addestramento di grandi quantità di dati (per questo sono modelli
allargati);
b) sul’inf uenza dalla frequenza con cui una parola viene utilizzata in un con-
7
testo di riferimento (McCoy, 2023).
Tuttavia, la caratteristica tecnica che ha reso i LLM molto promettenti si basa
su alcune innovazioni, quali:
➣ la rappresentazione numerica delle parole in vettori (embedding) in modo
tale da consentire a quest’ultimi di posizionarsi nello spazio semantico in posizioni
ravvicinate, Lo spazio vettoriale rappresenta l’ef cienza dei LLM poiché singole
parole o frasi possono essere localizzate sulla base della loro similarità (Goyal,
Ferrara, 2018);
➣ stabilita la vicinanza semantica far due vettori, un meccanismo attentivo
nella rete profonda, permette l’associazione di parole fra loro lontane, ad es. nella
frase “il bambino che insegue il cavallo è grasso” alla domanda “chi è grasso?” il
meccanismo dell’attenzione associa la parola “grasso” alla parola “bambino”
(Sartori, orrù, 2024, p. 530) ;
8
➣ l’apprendimento è una proprietà dei LLM che consente non solo di auto
apprendere ma anche di addestrare modelli utilizzando linguaggi nativi e cross cul-
turali (Radford et al. 2018; Lample, Conneau, 2019).
7 Questa fase viene normalmente indicata come fase di fine tuning e coinvolge l’addestramento del
modello su set di dati annotati per specif ci compiti, come traduzione, generazione di testi ect. La
qualità dei dati (dataset) immessi nel modello, per l’addestramento, è di fondamentale importanza
non solo per la precisione e accuratezza della risposta ma anche per non generare errori (bias) che
altererebbero le prestazioni del modello e produrre dati sbagliati o non coerenti.
8 Il meccanismo di attenzione è composto da “trasformatori” (trasformers) che a loro volta si dividono
in encoder (che analizzano il testo in entrata ed estraggono le informazioni rilevanti) e decoder (gene-
rano il testo sulla base dell’analisi degli encoder). Questi meccanismi son importanti perché permet-
tono il collegamento di parole anche abbastanza lontane fra loro.
115

