La Long Short-Term Memory (LSTM) è una tecnica che permette di allenare le reti neurali e con­ser­va­re a lungo termine le in­for­ma­zio­ni rilevanti. Questa tec­no­lo­gia utilizza sia una memoria a breve termine che una a lungo termine e sta alla base degli ultimi progressi nel campo dell’in­tel­li­gen­za ar­ti­fi­cia­le.

Che cos’è la memoria a breve-lungo termine (LSTM)?

La Long Short-Term Memory (LSTM) è una tec­no­lo­gia in­for­ma­ti­ca che memorizza dati per un periodo di tempo pro­lun­ga­to all’interno di una rete neurale. Questa tecnica è par­ti­co­lar­men­te utile per l’ela­bo­ra­zio­ne di dati se­quen­zia­li, poiché permette alla rete di accedere a eventi passati e uti­liz­zar­li nei calcoli suc­ces­si­vi. A dif­fe­ren­za delle reti neurali ri­cor­ren­ti (RNN), le reti LSTM non ge­sti­sco­no solo una “memoria a breve termine”, ma di­spon­go­no anche di una “memoria a lungo termine”.

Questa capacità permette di con­ser­va­re se­let­ti­va­men­te in­for­ma­zio­ni rilevanti per periodi estesi, ren­den­do­le par­ti­co­lar­men­te adatte a ri­co­no­sce­re di­pen­den­ze a lungo termine e a me­mo­riz­za­re dati per periodi pro­lun­ga­ti. Tale aspetto è im­por­tan­te so­prat­tut­to nel contesto del deep learning e dell’in­tel­li­gen­za ar­ti­fi­cia­le. Alla base del fun­zio­na­men­to delle reti LSTM ci sono le co­sid­det­te porte o gate, il cui ruolo verrà spiegato più avanti nell’articolo. Le reti LSTM creano modelli par­ti­co­lar­men­te efficaci per la pre­vi­sio­ne e l’ela­bo­ra­zio­ne di dati temporali.

I software IA di IONOS
Scopri la potenza del­l'in­tel­li­gen­za ar­ti­fi­cia­le
  • Siti web in tempo record
  • Soluzioni IA per il tuo business
  • Risparmio di tempo e risultati ec­cel­len­ti

Quali sono gli elementi di una cella LSTM?

Una cella dotata di Long Short-Term Memory (LSTM) è co­sti­tui­ta da diversi elementi che for­ni­sco­no alla rete varie pos­si­bi­li­tà operative. La cella deve essere in grado di con­ser­va­re dati per periodi pro­lun­ga­ti e, quando ne­ces­sa­rio, col­le­gar­li a nuove in­for­ma­zio­ni. Al­tret­tan­to im­por­tan­te è che essa possa eliminare au­to­no­ma­men­te dalla sua “memoria” i dati non più rilevanti o superflui. Per svolgere queste funzioni, la cella LSTM è composta da quattro diversi com­po­nen­ti:

  • Gate di input: sta­bi­li­sce quali in­for­ma­zio­ni in ingresso con­ser­va­re e in che modo in­te­grar­le nella memoria a lungo termine.
  • Forget gate: il “gate di can­cel­la­zio­ne” decide quali in­for­ma­zio­ni nella memoria a lungo termine possono essere rimosse, eli­mi­nan­do i dati non più necessari o ir­ri­le­van­ti.
  • Gate di output: controlla quali in­for­ma­zio­ni devono essere uti­liz­za­te per l’output, basandosi sia sull’input corrente che sullo stato interno della cella.

Il quarto com­po­nen­te è lo stato della cella. Memorizza le in­for­ma­zio­ni se­le­zio­na­te e regola il modo in cui gli altri com­po­nen­ti in­te­ra­gi­sco­no, in­fluen­zan­do i flussi di dati e la gestione della memoria.

Come funziona la Long Short-Term Memory?

Ana­lo­ga­men­te alla rete neurale ri­cor­ren­te (RNN) e alla più semplice rete neurale feed-forward (FNN), anche le celle con memoria a breve-lungo termine (LSTM) operano su diversi strati. Tuttavia, a dif­fe­ren­za di altre reti, le LSTM possono me­mo­riz­za­re in­for­ma­zio­ni per periodi di tempo più lunghi e uti­liz­zar­le suc­ces­si­va­men­te. Ogni cella LSTM sfrutta i tre gate già descritti, insieme a una memoria a breve e a lungo termine.

  • La memoria a breve termine, co­no­sciu­ta come Hidden State, memorizza tem­po­ra­nea­men­te le in­for­ma­zio­ni pro­ve­nien­ti dai passaggi di calcolo pre­ce­den­ti, una ca­rat­te­ri­sti­ca comune anche ad altre reti. La memoria a lungo termine, chiamata Cell State o stato della cella, consente invece di con­ser­va­re i dati per periodi estesi, una capacità di­stin­ti­va delle LSTM rispetto ad altre reti. Le nuove in­for­ma­zio­ni passano ora at­tra­ver­so i tre gate.

  • Nel gate di input, l’input corrente viene mol­ti­pli­ca­to per l’Hidden State e la pon­de­ra­zio­ne dell’ultimo passaggio. Questo gate decide quali in­for­ma­zio­ni del nuovo input sono rilevanti e quindi devono essere aggiunte allo stato della cella pre­ce­den­te, ag­gior­nan­do così il nuovo Cell State.

  • Il forget gate sta­bi­li­sce quali in­for­ma­zio­ni mantenere e quali eliminare. Considera sia l’ultimo Hidden State che l’input corrente. At­tra­ver­so una funzione sigmoidea, che re­sti­tui­sce valori tra 0 e 1, il gate decide cosa “di­men­ti­ca­re” (0) e cosa “con­ser­va­re” (1). Il risultato si mol­ti­pli­ca per lo stato attuale della cella, scartando le in­for­ma­zio­ni con un valore vicino allo 0.

  • Infine, il gate di output determina quali in­for­ma­zio­ni devono essere uti­liz­za­te per l’output. L’Hidden State e la funzione sigmoidea sono usati per elaborare il risultato, mentre lo stato della cella viene attivato e mol­ti­pli­ca­to con una funzione tanh (tangente iper­bo­li­ca) per decidere quali dati pas­se­ran­no at­tra­ver­so il gate di uscita.

Quali diverse ar­chi­tet­tu­re esistono?

Sebbene il fun­zio­na­men­to di base sia simile in tutte le reti con Long Short-Term Memory, esistono dif­fe­ren­ze so­stan­zia­li fra le varie ar­chi­tet­tu­re delle varianti LSTM. Molto diffuse sono le Peephole LSTM, chiamate così perché i gate hanno accesso diretto allo stato della cella, come se “sbir­cias­se­ro” al suo interno. In italiano, il termine “peephole” significa “spioncino”. Un’altra variante sono le peephole con­vo­lu­tio­nal LSTM, che combinano la con­vo­lu­zio­ne discreta con la mol­ti­pli­ca­zio­ne di matrici per calcolare l’attività di un neurone.

Quali sono i prin­ci­pa­li ambiti di ap­pli­ca­zio­ne della Long Short-Term Memory?

Oggi, le reti neurali con memoria a breve-lungo termine vengono usate in mol­tis­si­mi modi diversi e in un gran numero di settori diversi. Gli ambiti di utilizzo prin­ci­pa­li sono:

  • Ge­ne­ra­zio­ne au­to­ma­ti­ca di testi
  • Analisi di sequenze di dati temporali
  • Ri­co­no­sci­men­to vocale
  • Pre­vi­sio­ne dell’andamento del mercato azionario
  • Com­po­si­zio­ne musicale

Inoltre, la Long Short-Term Memory è fon­da­men­ta­le per iden­ti­fi­ca­re anomalie, ad esempio tentativi di frode o attacchi in­for­ma­ti­ci. Questo tipo di tec­no­lo­gia si usa anche per rac­co­man­da­re contenuti come film, serie TV, musica o libri, basandosi sui dati degli utenti, o ana­liz­za­re video, immagini e canzoni. Oltre a mi­glio­ra­re la sicurezza, consente di ridurre si­gni­fi­ca­ti­va­men­te i costi operativi.

Le grandi aziende come Google, Apple e Amazon uti­liz­za­no reti LSTM per vari prodotti e servizi, tra cui as­si­sten­ti vocali (Siri e Alexa), il programma di tra­du­zio­ne Google Tra­dut­to­re, il software AlphaGo e il ri­co­no­sci­men­to vocale sugli smart­pho­ne. Anche il com­ple­ta­men­to au­to­ma­ti­co della tastiera di Apple si basa su questa tec­no­lo­gia.

Vai al menu prin­ci­pa­le