Katastrofal glömska i maskininlärning

ML
datavetenskap
Katastrofal glömska i maskininlärning cover image

Catastrophic Forgetting, även känd som Catastrophic Interference, är ett fenomen som uppstår när ett neuralt nätverk eller maskininlärningsmodell "glömmer" eller dramatiskt minskar sin prestanda på tidigare inlärda uppgifter efter att ha lärt sig en ny uppgift. Detta kan inträffa när man tränar en modell på en ström av uppgifter, snarare än att träna den på alla uppgifter samtidigt.

Det finns några olika sätt som katastrofal glömning kan inträffa. Ett sätt är genom processen med "overfitting" 1, där modellen är så fokuserad på att anpassa träningsdata för den nya uppgiften att den glömmer informationen från de tidigare uppgifterna. Ett annat sätt är genom processen med "interferens", där den nya uppgiften på något sätt relateras till de tidigare uppgifterna, och modellens lärande om den nya uppgiften "stör" dess kunskap om de tidigare uppgifterna. Ett vanligt sätt som Catastrophic Forgetting inträffar är när man tränar en modell med hjälp av tillvägagångssättet "Online Learning" 2, där modellen kontinuerligt uppdateras med nya exempel när de kommer in, snarare än att tränas på en fast uppsättning exempel på en gång. I det här scenariot kan modellen presenteras med nya exempel som skiljer sig väsentligt från exemplen den tidigare tränats på, och detta kan göra att den "glömmer" eller avsevärt försämrar sin prestation på den tidigare uppgiften.

Det finns flera sätt att lindra katastrofal glömska:

  • Ett tillvägagångssätt är att använda tekniker som "Weight Regularization" 3, vilket kan hjälpa till att förhindra modellen från att drastiskt ändrat sina viktvärden och förlora kunskapen den har fått från tidigare uppgifter.

  • "Elastic Weight Consolidation" 4, som innebär att lägga till en liten mängd brus till nätverkets vikter under träning, kan också hjälpa till att förhindra katastrofal glömska. Detta ljud hjälper till att "stabilisera" vikterna, vilket gör det mindre troligt att modellen glömmer sin kunskap om tidigare uppgifter.

  • Ett annat tillvägagångssätt är att använda metoder som "Rehearsal" 5, där modellen kontinuerligt presenteras med exempel från tidigare inlärda uppgifter för att hjälpa den att behålla den kunskapen.

– En annan populär metod för att ta itu med Catastrophic Forgetting är att använda "Transfer Learning" 6, där en modell tränad på en uppgift är finjusterad på en relaterad uppgift. Till exempel kan en modell som har tränats att känna igen bilder av hundar vara finjusterad för att känna igen bilder av katter. I det här fallet har modellen redan lärt sig många funktioner som är användbara för att känna igen bilder av djur i allmänhet, så den kan använda denna kunskap för att snabbt lära sig att känna igen bilder av katter.

  • "Ensemble Methods" 7, där flera modeller tränas för att lösa olika uppgifter, och deras resultat kombineras för att göra en slutgiltig förutsägelse, är också användbara i förhindra katastrofal glömska. Till exempel kan en ensemblemodell bestå av en modell som är tränad att känna igen bilder av hundar, en annan modell som är tränad att känna igen bilder av katter och så vidare. När den presenteras med ett nytt exempel kan ensemblemodellen använda utdata från var och en av dess ingående modeller för att göra en mer välgrundad förutsägelse.

Catastrophic forgetting är en viktig faktor när man tränar maskininlärningsmodeller, särskilt när dessa modeller tränas för att lära sig flera uppgifter över tid. Genom att använda tekniker som viktreglering, elastisk viktkonsolidering, repetition, överföringsinlärning och ensemblemetoder är det möjligt att mildra effekterna av katastrofal glömska och förbättra prestandan för maskininlärningsmodeller.

[1] The Overfitting Iceberg (2020)

[2] Online Methods in Machine Learning - Theory and Applications (Konsulterad i januari 2023)

[3] Regularization Techniques in Deep Learning (2019)

[4] Att övervinna katastrofal glömska i neurala nätverk (2017)

[5] Catastrophic forgetting, repetition och pseudorehearsal (1995)

[6] A Survey of Transfer Learning (2016)

[7] Ensemble Learning - Wikipedia (Konsulterad i januari 2023)


Career Services background pattern

Karriärtjänster

Contact Section background image

Låt oss hålla kontakten

Code Labs Academy © 2024 Alla rättigheter förbehållna.