Page 117 - Rassegna 2025-3
P. 117

IN gIro per Le “reTI” frA DeNSITà gLobALe e feNoMeNoLogIA ArTIfIcIALe QuALI opporTuNITà?




                    Come si evince dall’immagine, la rete neurale consiste in tre strati:
                    ➣ strato di input: dove avviene la ricezione delle informazioni e le trasferisce
               agli altri nodi del prossimo strato, gli ridde nodes (nodi nascosti);
                    ➣ strati dei nodi nascosti: in questo stadio avvengono tutti i calcoli;
                    ➣ strato dei nodi di output: in questa parte si trovano gli output computazio-
               nali, cioè, rende possibile il risultato dell’elaborazione ef ettuata al computer.
                    L’addestramento di un modello neurale è profondo (deep learning) se utilizza
               molti strati intermedi: il vantaggio di questi modelli consiste nell’automatismo del-
               l’apprendimento, caratteristica questa che i modelli tradizionali di machine learning
               non sono in grado di fare; invero, nei grandi modelli linguistici, l’apprendimento
               profondo si basa su architetture di reti neurali profonde e questa peculiarità basa:
                    a)  sull’addestramento  di  grandi  quantità  di  dati  (per  questo  sono  modelli
               allargati);
                    b) sul’inf uenza dalla frequenza con cui una parola viene utilizzata in un con-
                                 7
               testo di riferimento  (McCoy, 2023).
                    Tuttavia, la caratteristica tecnica che ha reso i LLM molto promettenti si basa
               su alcune innovazioni, quali:
                    ➣ la rappresentazione numerica delle parole in vettori (embedding) in modo
               tale da consentire a quest’ultimi di posizionarsi nello spazio semantico in posizioni
               ravvicinate, Lo spazio vettoriale rappresenta l’ef  cienza dei LLM poiché singole
               parole  o  frasi  possono  essere  localizzate  sulla  base  della  loro  similarità  (Goyal,
               Ferrara, 2018);
                    ➣ stabilita la vicinanza semantica far due vettori, un meccanismo attentivo
               nella rete profonda, permette l’associazione di parole fra loro lontane, ad es. nella
               frase “il bambino che insegue il cavallo è grasso” alla domanda “chi è grasso?” il
               meccanismo  dell’attenzione  associa  la  parola  “grasso”  alla  parola  “bambino”
               (Sartori, orrù, 2024, p. 530) ;
                                          8
                    ➣ l’apprendimento è una proprietà dei LLM che consente non solo di auto
               apprendere ma anche di addestrare modelli utilizzando linguaggi nativi e cross cul-
               turali (Radford et al. 2018; Lample, Conneau, 2019).



               7  Questa fase viene normalmente indicata come fase di fine tuning e coinvolge l’addestramento del
                  modello su set di dati annotati per specif ci compiti, come traduzione, generazione di testi ect. La
                  qualità dei dati (dataset) immessi nel modello, per l’addestramento, è di fondamentale importanza
                  non solo per la precisione e accuratezza della risposta ma anche per non generare errori (bias) che
                  altererebbero le prestazioni del modello e produrre dati sbagliati o non coerenti.
               8  Il meccanismo di attenzione è composto da “trasformatori” (trasformers) che a loro volta si dividono
                  in encoder (che analizzano il testo in entrata ed estraggono le informazioni rilevanti) e decoder (gene-
                  rano il testo sulla base dell’analisi degli encoder). Questi meccanismi son importanti perché permet-
                  tono il collegamento di parole anche abbastanza lontane fra loro.

                                                                                        115
   112   113   114   115   116   117   118   119   120   121   122