#ML
#Ciência_de_dados

Esquecimento catastrófico na aprendizagem automática

8/11/2023

Esquecimento catastrófico na aprendizagem automática cover image

O Esquecimento Catastrófico, também conhecido como Interferência Catastrófica, é um fenómeno que ocorre quando uma rede neuronal ou um modelo de aprendizagem automática "esquece" ou reduz drasticamente o seu desempenho em tarefas previamente aprendidas após a aprendizagem de uma nova tarefa. Isto pode ocorrer quando se treina um modelo num fluxo de tarefas, em vez de o treinar em todas as tarefas de uma só vez.

Existem algumas formas diferentes de ocorrer o esquecimento catastrófico. Uma delas é através do processo de "sobreajuste" [1], em que o modelo está tão concentrado em ajustar os dados de treino para a nova tarefa que se esquece da informação das tarefas anteriores. Outra forma é através do processo de "interferência", em que a nova tarefa está relacionada com as tarefas anteriores de alguma forma, e a aprendizagem do modelo sobre a nova tarefa "interfere" com o seu conhecimento sobre as tarefas anteriores. Uma forma comum de ocorrer o Esquecimento Catastrófico é quando se treina um modelo utilizando a abordagem "Aprendizagem em linha" [2], em que o modelo é continuamente atualizado com novos exemplos à medida que estes chegam, em vez de ser treinado num conjunto fixo de exemplos de uma só vez. Neste cenário, podem ser apresentados ao modelo novos exemplos que são significativamente diferentes dos exemplos com que foi treinado anteriormente, o que pode fazer com que o modelo se "esqueça" ou diminua significativamente o seu desempenho na tarefa anterior.

Existem várias formas de atenuar o esquecimento catastrófico:

  • Uma abordagem consiste em utilizar técnicas como a "Regularização do peso" [3], que pode ajudar a evitar que o modelo altere drasticamente os seus valores de peso e perca o conhecimento que adquiriu em tarefas anteriores.

  • A "Consolidação Elástica de Pesos" [4], que envolve a adição de uma pequena quantidade de ruído aos pesos da rede durante o treinamento, também pode ajudar a evitar o Esquecimento Catastrófico. Este ruído ajuda a "estabilizar" os pesos, tornando menos provável que o modelo esqueça o seu conhecimento sobre tarefas anteriores.

  • Outra abordagem consiste em utilizar métodos como o "Rehearsal" [5], em que o modelo é continuamente apresentado com exemplos de tarefas previamente aprendidas para o ajudar a reter esse conhecimento.

  • Outro método popular para lidar com o Esquecimento Catastrófico é utilizar a "Aprendizagem por Transferência" [6], em que um modelo treinado numa tarefa é aperfeiçoado numa tarefa relacionada. Por exemplo, um modelo que tenha sido treinado para reconhecer imagens de cães pode ser aperfeiçoado para reconhecer imagens de gatos. Neste caso, o modelo já aprendeu muitas características que são úteis para reconhecer imagens de animais em geral, pelo que pode utilizar este conhecimento para aprender rapidamente a reconhecer imagens de gatos.

  • Os "métodos de conjunto" [7], em que vários modelos são treinados para resolver tarefas diferentes e os seus resultados são combinados para fazer uma previsão final, também são úteis para evitar o esquecimento catastrófico. Por exemplo, um modelo de conjunto pode consistir num modelo que é treinado para reconhecer imagens de cães, outro modelo que é treinado para reconhecer imagens de gatos, e assim por diante. Quando lhe é apresentado um novo exemplo, o modelo de conjunto pode utilizar o resultado de cada um dos seus modelos constituintes para efetuar uma previsão mais informada.

O esquecimento catastrófico é uma consideração importante quando se treinam modelos de aprendizagem automática, especialmente quando esses modelos estão a ser treinados para aprender várias tarefas ao longo do tempo. Utilizando técnicas como a regularização de pesos, a consolidação elástica de pesos, o ensaio, a aprendizagem por transferência e os métodos de conjunto, é possível atenuar os efeitos do esquecimento catastrófico e melhorar o desempenho dos modelos de aprendizagem automática.

[1] O Icebergue do Sobreajuste (2020)

[2] Métodos Online em Aprendizagem Automática - Teoria e Aplicações (Consultado em janeiro de 2023)

[3] Técnicas de regularização em aprendizagem profunda (2019)

[4] Ultrapassar o esquecimento catastrófico em redes neuronais (2017)

[5] Esquecimento catastrófico, ensaio e pseudo-ensaio (1995)

[6] Um estudo sobre a aprendizagem por transferência (2016)

[7] Ensemble Learning - Wikipedia (Consultado em janeiro de 2023)


Career Services background pattern

Serviços de carreira

Contact Section background image

Vamos manter-nos em contacto

Code Labs Academy © 2024 Todos os direitos reservados.