Uitarea catastrofală, cunoscută și sub denumirea de interferență catastrofală, este un fenomen care apare atunci când o rețea neuronală sau un model de învățare automată „uită” sau își reduce dramatic performanța la sarcinile învățate anterior după ce a învățat o sarcină nouă. Acest lucru se poate întâmpla atunci când antrenați un model pe un flux de sarcini, mai degrabă decât atunci când îl antrenați pe toate sarcinile simultan.
Există câteva moduri diferite în care poate apărea uitarea catastrofală. O modalitate este prin procesul de „suprafitting” 1, în care modelul este atât de concentrat pe adaptarea datelor de antrenament pentru noua sarcină că uită informațiile din sarcinile anterioare. O altă cale este prin procesul de „interferență”, în care noua sarcină este legată într-un fel de sarcinile anterioare, iar învățarea modelului despre noua sarcină „interferează” cu cunoștințele sale despre sarcinile anterioare. O modalitate obișnuită în care apare uitarea catastrofică este atunci când antrenați un model folosind abordarea „Învățare online” 2, în care modelul este actualizat continuu cu exemple noi pe măsură ce intră, mai degrabă decât să fie instruiți pe un set fix de exemple dintr-o dată. În acest scenariu, modelul poate fi prezentat cu exemple noi care sunt semnificativ diferite de exemplele pe care a fost antrenat anterior, iar acest lucru îl poate determina să „uite” sau să-și degradeze semnificativ performanța la sarcina anterioară.
Există mai multe modalități de a atenua uitarea catastrofală:
-
O abordare este utilizarea unor tehnici precum „Regularizarea greutății” 3, care pot ajuta la prevenirea modelului de la schimbarea drastică a valorilor de greutate și pierderea cunoștințelor pe care le-a dobândit din sarcinile anterioare.
-
„Consolidarea greutății elastice” 4, care implică adăugarea unei cantități mici de zgomot la greutățile rețelei în timpul antrenamentului, poate ajuta și la prevenirea uitării catastrofale. Acest zgomot ajută la „stabilizarea” greutăților, ceea ce face mai puțin probabil ca modelul să-și uite cunoștințele despre sarcinile anterioare.
-
O altă abordare este folosirea unor metode precum „Repetiția” 5, în care modelul este prezentat continuu cu exemple din sarcinile învățate anterior pentru a-l ajuta să rețină acele cunoștințe.
-
O altă metodă populară de abordare a uitării catastrofice este utilizarea „Transfer Learning” 6, în care un model instruit pe o sarcină este reglat fin pe o sarcină conexă. De exemplu, un model care a fost antrenat să recunoască imagini cu câini ar putea fi ajustat pentru a recunoaște imagini cu pisici. În acest caz, modelul a învățat deja multe caracteristici care sunt utile pentru recunoașterea imaginilor animalelor în general, așa că poate folosi aceste cunoștințe pentru a învăța rapid să recunoască imaginile pisicilor.
-
„Metode de ansamblu” 7, în care mai multe modele sunt antrenate pentru a rezolva diferite sarcini, iar rezultatele lor sunt combinate pentru a face o predicție finală, sunt de asemenea utile în prevenirea Uitării Catastrofale. De exemplu, un model de ansamblu poate consta dintr-un model care este antrenat să recunoască imaginile câinilor, un alt model care este antrenat să recunoască imaginile pisicilor și așa mai departe. Atunci când este prezentat cu un nou exemplu, modelul de ansamblu poate utiliza rezultatul fiecăruia dintre modelele sale constitutive pentru a face o predicție mai informată.
Uitarea catastrofală este o considerație importantă atunci când antrenați modele de învățare automată, mai ales atunci când acele modele sunt antrenate pentru a învăța mai multe sarcini de-a lungul timpului. Prin utilizarea tehnicilor precum regularizarea greutății, consolidarea greutății elastice, repetiția, învățarea prin transfer și metodele de ansamblu, este posibil să se atenueze efectele uitării catastrofale și să se îmbunătățească performanța modelelor de învățare automată.
Transformați datele complexe în informații utile – alăturați-vă Code Labs Academy Data Science & AI Bootcamp pentru a accesa întregul potențial al învățării automate și al inteligenței artificiale.
[1] The Overfitting Iceberg (2020)
[2] Metode online în învățarea automată - Teorie și aplicații (Consultat în ianuarie 2023)
[3] Tehnici de regularizare în învățarea profundă (2019)
[4] Depășirea uitării catastrofice în rețelele neuronale (2017)
[5] Uitare catastrofală, repetiție și pseudorehearsal (1995)
[6] A Survey of Transfer Learning (2016)
[7] Ensemble Learning - Wikipedia (Consultat în ianuarie 2023)