재앙적 망각(Catastrophic Interference)이라고도 알려진 재앙적 망각(Catastrophic Forgetting)은 신경망이나 기계 학습 모델이 새로운 작업을 학습한 후 이전에 학습한 작업에 대한 성능을 "잊거나" 극적으로 감소시킬 때 발생하는 현상입니다. 이는 한 번에 모든 작업에 대해 모델을 훈련하는 것이 아니라 일련의 작업에 대해 모델을 훈련할 때 발생할 수 있습니다.
치명적인 망각이 발생할 수 있는 방법에는 몇 가지가 있습니다. 한 가지 방법은 "과적합"1 프로세스를 이용하는 것입니다. 여기서 모델은 훈련 데이터를 적합화하는 데 중점을 둡니다. 이전 작업의 정보를 잊어버리는 새 작업입니다. 또 다른 방법은 "간섭" 프로세스를 통하는 것입니다. 여기서 새 작업은 어떤 방식으로든 이전 작업과 관련되며, 새 작업에 대한 모델의 학습은 이전 작업에 대한 지식을 "간섭"합니다. 치명적인 망각이 발생하는 일반적인 방법 중 하나는 모델이 새로운 예제로 지속적으로 업데이트되는 "온라인 학습"2 접근 방식을 사용하여 모델을 훈련할 때입니다. 한 번에 고정된 예시 세트에 대해 교육을 받는 것이 아니라, 들어오는 대로 교육을 받는 것입니다. 이 시나리오에서 모델은 이전에 학습한 예제와 크게 다른 새로운 예제로 제시될 수 있으며 이로 인해 이전 작업에 대한 성능을 "잊거나" 크게 저하시킬 수 있습니다.
치명적인 망각을 완화하는 방법에는 여러 가지가 있습니다.
-
한 가지 접근 방식은 "가중치 정규화"3와 같은 기술을 사용하는 것입니다. 무게 값을 대폭 변경하고 이전 작업에서 얻은 지식을 잃어버리는 것입니다.
-
훈련 중에 네트워크 가중치에 소량의 노이즈를 추가하는 "탄력적 가중치 통합"4도 치명적인 망각을 방지하는 데 도움이 될 수 있습니다. 이 노이즈는 가중치를 "안정화"하는 데 도움이 되므로 모델이 이전 작업에 대한 지식을 잊어버릴 가능성이 줄어듭니다.
-
또 다른 접근 방식은 "리허설"5과 같은 방법을 사용하는 것입니다. pdfs/Robins95.pdf), 모델이 이전에 학습한 작업의 예를 지속적으로 제시하여 해당 지식을 유지하는 데 도움을 줍니다.
-
치명적인 망각을 해결하는 또 다른 인기 있는 방법은 "전이 학습"6을 사용하는 것입니다. 하나의 작업에 대해 훈련을 받은 후 관련 작업에 대해 미세 조정됩니다. 예를 들어, 개 이미지를 인식하도록 훈련된 모델은 고양이 이미지를 인식하도록 미세 조정될 수 있습니다. 이 경우 모델은 일반적인 동물 이미지를 인식하는 데 유용한 많은 기능을 이미 학습했기 때문에 이 지식을 활용하여 고양이 이미지를 인식하는 방법을 빠르게 학습할 수 있습니다.
-
다양한 작업을 해결하기 위해 여러 모델을 훈련하고 해당 출력을 결합하여 최종 예측을 하는 "앙상블 방법"7도 다음 작업에 도움이 됩니다. 치명적인 망각을 예방합니다. 예를 들어 앙상블 모델은 개 이미지를 인식하도록 훈련된 모델 하나와 고양이 이미지를 인식하도록 훈련된 다른 모델 등으로 구성될 수 있습니다. 새로운 예가 제시되면 앙상블 모델은 각 구성 모델의 출력을 사용하여 보다 정확한 예측을 할 수 있습니다.
Catastrophic Forgetting은 기계 학습 모델을 훈련할 때, 특히 해당 모델이 시간이 지남에 따라 여러 작업을 학습하도록 훈련될 때 중요한 고려 사항입니다. Weight Regularization, Elastic Weight Consolidation, Rehearsal, Transfer Learning, Ensemble Methods와 같은 기술을 사용하면 치명적인 망각의 영향을 완화하고 기계 학습 모델의 성능을 향상시킬 수 있습니다.
[1] 과적합 빙산 (2020)
[2] 머신러닝의 온라인 방법 - 이론 및 응용(2023년 1월 참조)
[3] 딥 러닝의 정규화 기법 (2019)
[4] 신경망의 치명적인 망각 극복 (2017)
[5] 치명적인 망각, 리허설 및 유사 리허설 (1995)
[6] 전이 학습에 대한 조사 (2016)
[7] 앙상블 학습 - 위키피디아(2023년 1월 참조)