Page 116 - Rassegna 2025-3
P. 116

SCIENTIAE




             2.  I modelli linguistici allargati, cosa sono e perché
                  Sono  trascorsi  più  di  sessant’anni  dal  lavoro  pioneristico  di  Rosemblatt
                                                                                        6
             (1960) ma sembra che solo negli ultimi trenta l’applicazione di questi sistemi intel-
             ligenti ha palesato un salto qualitativo (Helman, 1991): negli anni ottanta l’intro-
             duzione dell’algoritmo error backpropagation (Rumelhart, Mc Clelland, 1986) ha
             suscitato  un’ondata  di  entusiasmo,  favorendo  un  f orilegio  di  dati  sperimentali
             destinati, però, solo a pochi e con scarsa partecipazione di altre discipline.
                  Negli ultimi anni, le reti neuronali profonde (Deep Neural Network) hanno
             apportato notevoli variazioni ai modelli preesistenti, favorendo, in tal guisa, la par-
             tecipazione di discipline come la psicologia il cui contributo è quello di emulare il
             comportamento umano, contestualizzato non solo in una cornice culturale di rife-
             rimento, ma di studiare il comportamento umano in dif erenti contesti.
                  Il progresso delle reti neurali profonde, negli ultimi, è dato dai modelli di gran-
             di  dimensioni  (LLM),  cioè  modelli  appositamente  addestrati  per  prevedere  una
             parola partendo da una sequenza di parole precedenti. Per spiegare meglio il concet-
             to, è utile osservare un’architettura della rete neurale (Ahamed, Akthar, 2016).



























                                                Figura 1
                                       (fonte: Ahamed, Akthar, 2016)

             6  Dal Perceptron di Rosemblatt, si è fatto strada il connessionismo. Successivi sviluppi da parte di
               Elmann (1991), si è sviluppata una nuova corrente di pensiero le cui applicazioni pratiche condus-
               sero alla nascita delle reti neurali ricorrenti (recurrentneural network). Sebbene il modello non con-
               sentiva di catturare le associazioni di parole lontane dalla stringa da decodif care. Con la nascita delle
               reti neurali profonde (deep neural network) si è avuto un salto qualitativo, dapprima applicate al
               riconoscimento visivo e successivamente al linguaggio.

             114
   111   112   113   114   115   116   117   118   119   120   121