Das katastrophale Vergessen, auch bekannt als katastrophale Interferenz, ist ein Phänomen, das auftritt, wenn ein neuronales Netz oder ein Modell für maschinelles Lernen nach dem Erlernen einer neuen Aufgabe seine Leistung bei zuvor gelernten Aufgaben "vergisst" oder dramatisch reduziert. Dies kann vorkommen, wenn ein Modell auf einen Strom von Aufgaben trainiert wird, anstatt es auf alle Aufgaben gleichzeitig zu trainieren.
Es gibt verschiedene Möglichkeiten, wie ein katastrophales Vergessen auftreten kann. Eine Möglichkeit ist der Prozess der "Überanpassung" 1, bei dem das Modell so sehr auf die Anpassung der Trainingsdaten für die neue Aufgabe konzentriert ist, dass es die Informationen der vorherigen Aufgaben vergisst. Eine andere Möglichkeit ist der Prozess der "Interferenz", bei dem die neue Aufgabe in irgendeiner Weise mit den vorherigen Aufgaben zusammenhängt und das Lernen des Modells über die neue Aufgabe mit seinem Wissen über die vorherigen Aufgaben "interferiert". Eine häufige Art des katastrophalen Vergessens ist das Trainieren eines Modells mit dem Ansatz des "Online-Lernens" 2, bei dem das Modell kontinuierlich mit neuen Beispielen aktualisiert wird, sobald diese eintreffen, anstatt mit einem festen Satz von Beispielen auf einmal trainiert zu werden. In diesem Szenario kann das Modell mit neuen Beispielen konfrontiert werden, die sich erheblich von den Beispielen unterscheiden, mit denen es zuvor trainiert wurde, was dazu führen kann, dass es die vorherige Aufgabe "vergisst" oder seine Leistung erheblich verschlechtert.
Es gibt mehrere Möglichkeiten, das katastrophale Vergessen abzuschwächen:
-
Ein Ansatz ist der Einsatz von Techniken wie der "Gewichtsregulierung" 3, die verhindern kann, dass das Modell seine Gewichtswerte drastisch ändert und das Wissen aus früheren Aufgaben verliert.
-
Die "elastische Gewichtskonsolidierung" 4, bei der den Gewichten des Netzes während des Trainings eine kleine Menge Rauschen hinzugefügt wird, kann ebenfalls dazu beitragen, katastrophales Vergessen zu verhindern. Dieses Rauschen trägt zur "Stabilisierung" der Gewichte bei, so dass es weniger wahrscheinlich ist, dass das Modell sein Wissen über frühere Aufgaben vergisst.
-
Ein anderer Ansatz ist die Verwendung von Methoden wie "Rehearsal" 5, bei der dem Modell immer wieder Beispiele von zuvor gelernten Aufgaben präsentiert werden, um ihm zu helfen, dieses Wissen zu behalten.
-
Eine weitere beliebte Methode zur Bewältigung des katastrophalen Vergessens ist das "Transfer-Lernen" 6, bei dem ein für eine Aufgabe trainiertes Modell für eine verwandte Aufgabe feinabgestimmt wird. So könnte beispielsweise ein Modell, das für die Erkennung von Hundebildern trainiert wurde, auf die Erkennung von Katzenbildern feinabgestimmt werden. In diesem Fall hat das Modell bereits viele Merkmale gelernt, die für die Erkennung von Bildern von Tieren im Allgemeinen nützlich sind, so dass es dieses Wissen nutzen kann, um schnell zu lernen, Bilder von Katzen zu erkennen.
-
"Ensemble-Methoden" 7, bei denen mehrere Modelle für die Lösung verschiedener Aufgaben trainiert werden und deren Ergebnisse zu einer endgültigen Vorhersage kombiniert werden, sind ebenfalls hilfreich, um katastrophales Vergessen zu verhindern. Ein Ensemble-Modell könnte beispielsweise aus einem Modell bestehen, das für die Erkennung von Bildern von Hunden trainiert wurde, einem anderen Modell, das für die Erkennung von Bildern von Katzen trainiert wurde, und so weiter. Wenn ein neues Beispiel präsentiert wird, kann das Ensemble-Modell die Ergebnisse der einzelnen Modelle nutzen, um eine fundiertere Vorhersage zu treffen.
Das katastrophale Vergessen ist ein wichtiger Aspekt beim Training von Modellen für maschinelles Lernen, insbesondere wenn diese Modelle darauf trainiert werden, im Laufe der Zeit mehrere Aufgaben zu lernen. Durch den Einsatz von Techniken wie Weight Regularization, Elastic Weight Consolidation, Rehearsal, Transfer Learning und Ensemble-Methoden ist es möglich, die Auswirkungen des katastrophalen Vergessens abzuschwächen und die Leistung von maschinellen Lernmodellen zu verbessern.
[1] Der Overfitting-Eisberg (2020)
[2] Online Methods in Machine Learning - Theory and Applications (Abgerufen im Januar 2023)
[3] Regularization Techniques in Deep Learning (2019)
[4] Overcoming Catastrophic Forgetting in Neural Networks (2017)
[5] Katastrophisches Vergessen, Rehearsal und Pseudorehearsal (1995)
[6] A Survey of Transfer Learning (2016)
[7] Ensemble Learning - Wikipedia (Abgerufen im Januar 2023)