Katastrofal glemsel i maskinlæring

ML
Datavidenskab
Katastrofal glemsel i maskinlæring cover image

Catastrophic Forgetting, også kendt som Catastrophic Interference, er et fænomen, der opstår, når et neuralt netværk eller en maskinlæringsmodel "glemmer" eller dramatisk reducerer sin ydeevne på tidligere lærte opgaver efter at have lært en ny opgave. Dette kan forekomme, når man træner en model på en strøm af opgaver, i stedet for at træne den på alle opgaver på én gang.

Der er et par forskellige måder, hvorpå katastrofal glemsel kan opstå. En måde er gennem processen med "overfitting" 1, hvor modellen er så fokuseret på at tilpasse træningsdataene til den nye opgave, at den glemmer oplysningerne fra de tidligere opgaver. En anden måde er gennem processen med "interferens", hvor den nye opgave på en eller anden måde er relateret til de tidligere opgaver, og modellens læring om den nye opgave "blander" dens viden om de tidligere opgaver. En almindelig måde, hvorpå Catastrophic Forgetting opstår, er, når man træner en model ved hjælp af "Online Learning" 2 tilgangen, hvor modellen løbende opdateres med nye eksempler efterhånden som de kommer ind, frem for at blive trænet i et fast sæt eksempler på én gang. I dette scenarie kan modellen præsenteres med nye eksempler, der er væsentligt forskellige fra de eksempler, den tidligere blev trænet i, og det kan få den til at "glemme" eller væsentligt forringe dens ydeevne på den tidligere opgave.

Der er flere måder at afbøde katastrofal glemsel på:

  • En tilgang er at bruge teknikker såsom "Weight Regularization" 3, som kan hjælpe med at forhindre modellen fra drastisk at ændre sine vægtværdier og miste den viden, den har fået fra tidligere opgaver.

  • "Elastic Weight Consolidation" 4, som involverer tilføjelse af en lille mængde støj til netværkets vægte under træning, kan også hjælpe med at forhindre katastrofal forglemmelse. Denne støj hjælper med at "stabilisere" vægtene, hvilket gør det mindre sandsynligt, at modellen glemmer sin viden om tidligere opgaver.

  • En anden tilgang er at bruge metoder såsom "Rehearsal" 5, hvor modellen løbende præsenteres med eksempler fra tidligere lærte opgaver for at hjælpe den med at bevare den viden.

  • En anden populær metode til at håndtere katastrofal glemsel er at bruge "Transfer Learning" 6, hvor en model trænet på én opgave er finjusteret på en relateret opgave. For eksempel kan en model, der er blevet trænet til at genkende billeder af hunde, være finjusteret til at genkende billeder af katte. I dette tilfælde har modellen allerede lært mange funktioner, der er nyttige til at genkende billeder af dyr generelt, så den kan bruge denne viden til hurtigt at lære at genkende billeder af katte.

  • "Ensemble Methods" 7, hvor flere modeller trænes til at løse forskellige opgaver, og deres output kombineres for at lave en endelig forudsigelse, er også nyttige i forhindre katastrofal glemsel. For eksempel kan en ensemblemodel bestå af en model, der er trænet til at genkende billeder af hunde, en anden model, der er trænet til at genkende billeder af katte, og så videre. Når den præsenteres for et nyt eksempel, kan ensemblemodellen bruge outputtet fra hver af dens konstituerende modeller til at lave en mere informeret forudsigelse.

Catastrophic Forgetting er en vigtig overvejelse, når man træner maskinlæringsmodeller, især når disse modeller trænes til at lære flere opgaver over tid. Ved at bruge teknikker såsom vægtregulering, elastisk vægtkonsolidering, genhør, overførselslæring og ensemblemetoder er det muligt at afbøde virkningerne af katastrofal glemsel og forbedre ydeevnen af ​​maskinlæringsmodeller.

[1] The Overfitting Iceberg (2020)

[2] Online Methods in Machine Learning - Theory and Applications (Konsulteret i januar 2023)

[3] Regularization Techniques in Deep Learning (2019)

[4] Overcoming Catastrophic Forgetting in Neurale Networks (2017)

[5] Catastrophic Forgetting, Repetition, and Pseudorehearsal (1995)

[6] A Survey of Transfer Learning (2016)

[7] Ensemble Learning - Wikipedia (Konsulteret i januar 2023)


Career Services background pattern

Karriereservice

Contact Section background image

Lad os holde kontakten

Code Labs Academy © 2024 Alle rettigheder forbeholdes.