Catastrofaal vergeten bij machinaal leren

ML
Datawetenschap
Catastrofaal vergeten bij machinaal leren cover image

Catastrofaal vergeten, ook bekend als catastrofale interferentie, is een fenomeen dat optreedt wanneer een neuraal netwerk of machine learning-model de prestaties op eerder aangeleerde taken "vergeet" of dramatisch vermindert na het leren van een nieuwe taak. Dit kan gebeuren wanneer een model wordt getraind op een reeks taken, in plaats van het te trainen op alle taken tegelijk.

Er zijn een paar verschillende manieren waarop catastrofaal vergeten kan optreden. Eén manier is via het proces van ‘overfitting’ 1, waarbij het model zo gericht is op het aanpassen van de trainingsgegevens voor de nieuwe taak dat het de informatie van de vorige taken vergeet. Een andere manier is via het proces van "interferentie", waarbij de nieuwe taak op de een of andere manier verband houdt met de voorgaande taken, en het leren van het model over de nieuwe taak "interfereert" met zijn kennis over de voorgaande taken. Een veel voorkomende manier waarop Catastrofaal Vergeten optreedt, is wanneer een model wordt getraind met behulp van de "Online Learning" 2 aanpak, waarbij het model voortdurend wordt bijgewerkt met nieuwe voorbeelden zodra ze binnenkomen, in plaats van dat ze in één keer worden getraind op basis van een vaste reeks voorbeelden. In dit scenario kan het model nieuwe voorbeelden krijgen die aanzienlijk verschillen van de voorbeelden waarop het eerder is getraind, en dit kan ervoor zorgen dat het de prestaties van de vorige taak "vergeet" of aanzienlijk verslechtert.

Er zijn verschillende manieren om catastrofaal vergeten te verminderen:

  • Eén benadering is het gebruik van technieken zoals ‘Weight Regularization’ 3, die kunnen helpen het model te voorkomen van het drastisch veranderen van de gewichtswaarden en het verliezen van de kennis die het heeft opgedaan bij eerdere taken.

  • "Elastic Weight Consolidation" 4, waarbij tijdens de training een kleine hoeveelheid ruis aan de gewichten van het netwerk wordt toegevoegd, kan ook catastrofaal vergeten helpen voorkomen. Dit geluid helpt de gewichten te "stabiliseren", waardoor het minder waarschijnlijk is dat het model zijn kennis over eerdere taken zal vergeten.

  • Een andere benadering is het gebruik van methoden zoals “Rehearsal” 5, waarin het model voortdurend wordt gepresenteerd met voorbeelden van eerder geleerde taken om het model te helpen die kennis vast te houden.

  • Een andere populaire methode om catastrofaal vergeten aan te pakken is het gebruik van ‘Transfer Learning’ 6, waarin een model getraind op één taak wordt verfijnd op een gerelateerde taak. Een model dat is getraind om afbeeldingen van honden te herkennen, kan bijvoorbeeld worden verfijnd om afbeeldingen van katten te herkennen. In dit geval heeft het model al veel eigenschappen geleerd die nuttig zijn voor het herkennen van afbeeldingen van dieren in het algemeen, zodat het deze kennis kan gebruiken om snel afbeeldingen van katten te leren herkennen.

  • "Ensemble Methods" 7, waarbij meerdere modellen worden getraind om verschillende taken op te lossen, en hun resultaten worden gecombineerd om een ​​definitieve voorspelling te doen, zijn ook nuttig bij het voorkomen van catastrofaal vergeten. Een ensemblemodel kan bijvoorbeeld bestaan ​​uit één model dat is getraind om afbeeldingen van honden te herkennen, een ander model dat is getraind om afbeeldingen van katten te herkennen, enzovoort. Wanneer het ensemblemodel een nieuw voorbeeld krijgt, kan het de output van elk van zijn samenstellende modellen gebruiken om een ​​beter geïnformeerde voorspelling te doen.

Catastrofaal vergeten is een belangrijke overweging bij het trainen van machine learning-modellen, vooral wanneer die modellen worden getraind om in de loop van de tijd meerdere taken te leren. Door technieken als gewichtsregularisatie, elastische gewichtsconsolidatie, repetitie, transferleren en ensemblemethoden te gebruiken, is het mogelijk de effecten van catastrofaal vergeten te verzachten en de prestaties van machine learning-modellen te verbeteren.

[1] De overfitting-ijsberg (2020)

[2] Online Methods in Machine Learning - Theory and Applications (geraadpleegd in januari 2023)

[3] Regularisatietechnieken in diep leren (2019)

[4] Catastrofaal vergeten in neurale netwerken overwinnen (2017)

[5] Catastrofaal vergeten, repetitie en pseudorepetitie (1995)

[6] Een onderzoek naar transferleren (2016)

[7] Ensemble Learning - Wikipedia (geraadpleegd in januari 2023)


Career Services background pattern

Carrièrediensten

Contact Section background image

Laten we in contact blijven

Code Labs Academy © 2024 Alle rechten voorbehouden.