Oubli catastrophique dans l’apprentissage automatique

ML
science des données

Mis à jour sur November 15, 20245 MINUTES LIRE

Oubli catastrophique dans l’apprentissage automatique cover image

L'oubli catastrophique, également connu sous le nom d'interférence catastrophique, est un phénomène qui se produit lorsqu'un réseau neuronal ou un modèle d'apprentissage automatique « oublie » ou réduit considérablement ses performances sur des tâches précédemment apprises après avoir appris une nouvelle tâche. Cela peut se produire lors de l'entraînement d'un modèle sur un flux de tâches, plutôt que de l'entraîner sur toutes les tâches en même temps.

Un oubli catastrophique peut se produire de différentes manières. Une solution consiste à utiliser le processus de « surajustement » 1, où le modèle est tellement axé sur l'ajustement des données d'entraînement pour la nouvelle tâche qu'il oublie les informations des tâches précédentes. Une autre façon est le processus d'« interférence », dans lequel la nouvelle tâche est liée d'une manière ou d'une autre aux tâches précédentes, et l'apprentissage du modèle sur la nouvelle tâche « interfère » avec sa connaissance des tâches précédentes. L'oubli catastrophique se produit fréquemment lors de la formation d'un modèle à l'aide de l'approche « apprentissage en ligne » 2, dans laquelle le modèle est continuellement mis à jour avec de nouveaux exemples. au fur et à mesure qu'ils arrivent, plutôt que d'être formés sur un ensemble fixe d'exemples d'un seul coup. Dans ce scénario, le modèle peut être présenté avec de nouveaux exemples très différents des exemples sur lesquels il a été précédemment formé, ce qui peut l'amener à « oublier » ou à dégrader considérablement ses performances sur la tâche précédente.

Il existe plusieurs façons d’atténuer l’oubli catastrophique :

  • Une approche consiste à utiliser des techniques telles que la « régularisation du poids » 3, qui peuvent aider à empêcher le modèle de modifier radicalement ses valeurs de poids et de perdre les connaissances acquises lors de tâches précédentes.

  • "Elastic Weight Consolidation" 4, qui consiste à ajouter une petite quantité de bruit aux poids du réseau pendant l'entraînement, peut également aider à prévenir l'oubli catastrophique. Ce bruit aide à « stabiliser » les poids, ce qui rend moins probable que le modèle oublie ses connaissances sur les tâches précédentes.

  • Une autre approche consiste à utiliser des méthodes telles que « Répétition » 5, dans lequel le modèle est continuellement présenté avec des exemples de tâches précédemment apprises pour l'aider à conserver ces connaissances.

  • Une autre méthode populaire pour lutter contre l'oubli catastrophique consiste à utiliser « l'apprentissage par transfert » 6, dans lequel un modèle formés sur une tâche sont affinés sur une tâche connexe. Par exemple, un modèle qui a été formé pour reconnaître des images de chiens pourrait être affiné pour reconnaître des images de chats. Dans ce cas, le modèle a déjà appris de nombreuses fonctionnalités utiles pour reconnaître les images d'animaux en général, il peut donc utiliser ces connaissances pour apprendre rapidement à reconnaître les images de chats.

  • Les « méthodes d'ensemble » 7, dans lesquelles plusieurs modèles sont formés pour résoudre différentes tâches, et leurs résultats sont combinés pour faire une prédiction finale, sont également utiles dans prévenir l’oubli catastrophique. Par exemple, un modèle d'ensemble peut être constitué d'un modèle entraîné à reconnaître des images de chiens, d'un autre modèle entraîné à reconnaître des images de chats, etc. Lorsqu'on lui présente un nouvel exemple, le modèle d'ensemble peut utiliser les résultats de chacun de ses modèles constitutifs pour faire une prédiction plus éclairée.

L’oubli catastrophique est une considération importante lors de la formation de modèles d’apprentissage automatique, en particulier lorsque ces modèles sont formés pour apprendre plusieurs tâches au fil du temps. En utilisant des techniques telles que la régularisation du poids, la consolidation élastique du poids, la répétition, l'apprentissage par transfert et les méthodes d'ensemble, il est possible d'atténuer les effets de l'oubli catastrophique et d'améliorer les performances des modèles d'apprentissage automatique.


Transformez des données complexes en informations exploitables : rejoignez le [Bootcamp Data Science & AI] de Code Labs Academy(/courses/data-science-and-ai) pour accéder à tout le potentiel de l'apprentissage automatique et de l'intelligence artificielle.


[1] L'iceberg du surajustement (2020)

[2] Méthodes en ligne d'apprentissage automatique - Théorie et applications (Consulté en janvier 2023)

[3] Techniques de régularisation en Deep Learning (2019)

[4] Surmonter l'oubli catastrophique dans les réseaux de neurones (2017)

[5] Oubli catastrophique, répétition et pseudo-répétition (1995)

[6] Une enquête sur l'apprentissage par transfert (2016)

[7] Ensemble Learning - Wikipédia (Consulté en janvier 2023)

Considérez une carrière technologique - en savoir plus sur les bootcamps en ligne de CLA

Career Services background pattern

Services de carrière

Contact Section background image

Restons en contact

Code Labs Academy © 2025 Tous droits réservés.