Katastrofalno pozabljanje, znano tudi kot katastrofalna interferenca, je pojav, ki se pojavi, ko nevronska mreža ali model strojnega učenja "pozabi" ali dramatično zmanjša svojo zmogljivost pri predhodno naučenih nalogah, potem ko se nauči nove naloge. To se lahko zgodi pri usposabljanju modela za tok nalog, namesto da bi ga usposabljali za vse naloge hkrati.
Obstaja nekaj različnih načinov, kako lahko pride do katastrofalne pozabe. Eden od načinov je skozi proces "overfitting" 1, kjer je model tako osredotočen na prilagajanje podatkov o usposabljanju za nova naloga, da pozabi informacije iz prejšnjih nalog. Drugi način je skozi proces "vmešavanja", kjer je nova naloga na nek način povezana s prejšnjimi nalogami in učenje modela o novi nalogi "moti" njegovo znanje o prejšnjih nalogah. Eden pogostih načinov, kako pride do katastrofalnega pozabljanja, je pri usposabljanju modela z uporabo pristopa »spletnega učenja« 2, pri katerem se model nenehno posodablja z novimi primeri. ko pridejo, namesto da bi bili urjeni na določenem nizu primerov naenkrat. V tem scenariju se lahko model predstavi z novimi primeri, ki se bistveno razlikujejo od primerov, na katerih je bil predhodno uren, kar lahko povzroči, da "pozabi" ali bistveno poslabša svojo zmogljivost pri prejšnji nalogi.
Obstaja več načinov za ublažitev katastrofalne pozabe:
-
Eden od pristopov je uporaba tehnik, kot je »uravnavanje teže« 3, ki lahko pomagajo preprečiti model zaradi drastičnega spreminjanja vrednosti teže in izgube znanja, ki ga je pridobil s prejšnjimi nalogami.
-
"Elastično utrjevanje teže" 4, ki vključuje dodajanje majhne količine hrupa uteži mreže med treningom, lahko prav tako pomaga preprečiti katastrofalno pozabljanje. Ta hrup pomaga "stabilizirati" uteži, zaradi česar je manj verjetno, da bo model pozabil svoje znanje o prejšnjih nalogah.
-
Drugi pristop je uporaba metod, kot je »Vaja« 5, v katerem je model nenehno predstavljen s primeri iz predhodno naučenih nalog, da mu pomaga ohraniti to znanje.
-
Druga priljubljena metoda za obravnavanje katastrofalnega pozabljanja je uporaba "Transfer Learning" 6, v katerem je model usposobljen za eno nalogo, se natančno prilagodi za sorodno nalogo. Na primer, model, ki je bil usposobljen za prepoznavanje slik psov, je lahko natančno nastavljen za prepoznavanje slik mačk. V tem primeru se je model že naučil veliko funkcij, ki so uporabne za prepoznavanje slik živali na splošno, tako da lahko to znanje uporabi za hitro učenje prepoznavanja slik mačk.
-
»Ensemble Methods« 7, pri katerih se več modelov usposobi za reševanje različnih nalog, njihovi rezultati pa se združijo v končno napoved, so prav tako v pomoč pri preprečevanje katastrofalne pozabe. Na primer, model ansambla je lahko sestavljen iz enega modela, ki je usposobljen za prepoznavanje slik psov, drugega modela, ki je usposobljen za prepoznavanje slik mačk itd. Ko je predstavljen z novim primerom, lahko model ansambla uporabi izhod vsakega od svojih sestavnih modelov, da naredi bolj utemeljeno napoved.
Katastrofalno pozabljanje je pomemben dejavnik pri usposabljanju modelov strojnega učenja, zlasti ko se ti modeli usposabljajo za učenje več nalog skozi čas. Z uporabo tehnik, kot so uravnavanje teže, elastična konsolidacija teže, vaja, prenosno učenje in ansambelske metode, je mogoče ublažiti učinke katastrofalnega pozabljanja in izboljšati učinkovitost modelov strojnega učenja.
[1] The Overfitting Iceberg (2020)
[2] Spletne metode v strojnem učenju – teorija in aplikacije (Preverjeno januarja 2023)
[3] Tehnike regulacije pri globokem učenju (2019)
[4] Premagovanje katastrofalnega pozabljanja v nevronskih mrežah (2017)
[5] Katastrofalno pozabljanje, vaja in pseudorehearsal (1995)
[6] A Survey of Transfer Learning (2016)
[7] Ensemble Learning – Wikipedia (Preverjeno januarja 2023)