Регуляризация — это набор методов, используемых для предотвращения переобучения и улучшения обобщения модели. Переобучение происходит, когда модель слишком хорошо изучает обучающие данные, улавливая шум и конкретные детали, которые не применимы к новым, невидимым данным. Регуляризация помогает контролировать это, добавляя «штрафной член» к целевой функции модели, препятствуя созданию слишком сложных моделей.
Двумя распространенными типами регуляризации являются регуляризация L1 и L2:
Регуляризация L1 (лассо-регрессия):
-
Регуляризация L1 добавляет к функции стоимости штрафной член, равный абсолютным значениям коэффициентов модели.
-
Он стимулирует разреженность модели, сжимая некоторые коэффициенты ровно до нуля, эффективно выполняя выбор признаков.
– Полученную модель проще и легче интерпретировать, поскольку она выбирает только самые важные функции, отбрасывая менее важные.
Регуляризация L2 (гребневая регрессия):
-
Регуляризация L2 добавляет к функции стоимости штрафной член, равный квадрату величин коэффициентов модели.
-
Он имеет тенденцию сжимать коэффициенты менее важных функций к нулю, но редко устанавливает их точно до нуля.
-
Регуляризация L2 эффективна для предотвращения переобучения за счет штрафа за большие веса и, следовательно, снижения сложности модели.
Методы регуляризации L1 и L2 помогают уменьшить переобучение и улучшить способность модели обобщать невидимые данные. Выбор между регуляризацией L1 и L2 часто зависит от конкретной проблемы, характера функций и желаемого результата. Регуляризация Лассо (L1) с ее свойством выбора признаков предпочтительна, когда необходимо определить наиболее релевантные признаки. Ридж-регуляризация (L2) подходит, когда все функции потенциально важны и предпочтительно уменьшить их влияние, не устраняя их полностью. Кроме того, можно использовать комбинацию обоих методов, известную как Регуляризация Elastic Net, чтобы одновременно воспользоваться преимуществами регуляризации L1 и L2.