L'oblio catastrofico, noto anche come interferenza catastrofica, è un fenomeno che si verifica quando una rete neurale o un modello di apprendimento automatico "dimentica" o riduce drasticamente le sue prestazioni su attività apprese in precedenza dopo aver appreso una nuova attività. Ciò può verificarsi quando si addestra un modello su un flusso di attività, anziché su tutte le attività contemporaneamente.
Esistono diversi modi in cui può verificarsi un dimenticatoio catastrofico. Un modo è attraverso il processo di "overfitting" 1, in cui il modello è così focalizzato sull'adattamento dei dati di addestramento per la nuova attività che dimentica le informazioni delle attività precedenti. Un altro modo è attraverso il processo di "interferenza", in cui la nuova attività è in qualche modo correlata alle attività precedenti e l'apprendimento del modello sulla nuova attività "interferisce" con la sua conoscenza delle attività precedenti. Un modo comune in cui si verifica l'oblio catastrofico è quando si addestra un modello utilizzando l'approccio "Apprendimento online" 2, in cui il modello viene continuamente aggiornato con nuovi esempi man mano che arrivano, invece di essere addestrati su una serie fissa di esempi tutti in una volta. In questo scenario, al modello possono essere presentati nuovi esempi che sono significativamente diversi dagli esempi su cui è stato precedentemente addestrato e questo può far sì che "dimentichi" o riduca significativamente le sue prestazioni nell'attività precedente.
Esistono diversi modi per mitigare l’oblio catastrofico:
-
Un approccio consiste nell'utilizzare tecniche come la "regolarizzazione del peso" 3, che può aiutare a prevenire il modello dal cambiare drasticamente i suoi valori di peso e perdere la conoscenza acquisita dalle attività precedenti.
-
"Consolidamento elastico del peso" 4, che prevede l'aggiunta di una piccola quantità di rumore ai pesi della rete durante l'allenamento, può anche aiutare a prevenire l'oblio catastrofico. Questo rumore aiuta a "stabilizzare" i pesi, rendendo meno probabile che il modello dimentichi la conoscenza delle attività precedenti.
-
Un altro approccio consiste nell'utilizzare metodi come "Prova" 5, in cui il modello viene continuamente presentato con esempi di attività apprese in precedenza per aiutarlo a conservare tale conoscenza.
-
Un altro metodo popolare per affrontare l'oblio catastrofico è utilizzare il "Transfer Learning" 6, in cui un modello addestrato su un compito è ottimizzato su un compito correlato. Ad esempio, un modello addestrato a riconoscere immagini di cani potrebbe essere ottimizzato per riconoscere immagini di gatti. In questo caso, il modello ha già appreso molte funzionalità utili per riconoscere le immagini degli animali in generale, quindi può utilizzare questa conoscenza per imparare rapidamente a riconoscere le immagini dei gatti.
-
"Metodi Ensemble" 7, in cui più modelli vengono addestrati per risolvere compiti diversi e i loro risultati vengono combinati per fare una previsione finale, sono utili anche in prevenire l’oblio catastrofico. Ad esempio, un modello di insieme potrebbe essere costituito da un modello addestrato a riconoscere immagini di cani, un altro modello addestrato a riconoscere immagini di gatti e così via. Quando viene presentato un nuovo esempio, il modello d'insieme può utilizzare l'output di ciascuno dei suoi modelli costituenti per fare una previsione più informata.
L'oblio catastrofico è una considerazione importante quando si addestrano modelli di machine learning, soprattutto quando tali modelli vengono addestrati per apprendere più attività nel tempo. Utilizzando tecniche come la regolarizzazione del peso, il consolidamento del peso elastico, la prova, l'apprendimento di trasferimento e i metodi d'insieme, è possibile mitigare gli effetti dell'oblio catastrofico e migliorare le prestazioni dei modelli di apprendimento automatico.
[1] L'iceberg dell'overfitting (2020)
[2] Metodi online nell'apprendimento automatico: teoria e applicazioni (consultato nel gennaio 2023)
[3] Tecniche di regolarizzazione nel deep learning (2019)
[4] Superare l'oblio catastrofico nelle reti neurali (2017)
[5] Dimenticanza catastrofica, prove generali e pseudo-prove ripetute (1995)
[6] Un'indagine sull'apprendimento trasferito (2016)
[7] Ensemble Learning - Wikipedia (Consultato nel gennaio 2023)