Зачем нужны методы регуляризации? Ответ: Если модель линейной регрессии приводит к переобучению, мы применяем методы регуляризации, чтобы избежать проблемы переобучения.

Прежде чем перейти к методам регуляризации, мы можем понять, что такое переоснащение и недостаточное оснащение.

Смещение и дисперсия - компромисс:

Смещение - ошибка между средними прогнозами модели и истинностью.

Дисперсия - средняя изменчивость прогноза модели для данного набора данных.

Переоснащение

  • Переобучение означает, что модель дает хороший результат для обучающей выборки, но плохой результат для тестовой выборки.
  • Переобучение происходит, когда мы вводим в модель больше предикторов, линия наилучшего соответствия будет пытаться пройти через каждую точку в данных Train. У него низкий уровень смещения и высокая дисперсия.

.

.

.

.

.

Идеально:

  • Идеальная модель - это та, у которой линия наилучшего соответствия означает оптимизированный наклон (m) и значение пересечения (x).
  • Он имеет низкую систематическую ошибку и низкую дисперсию.

.

.

.

.

.

.

Недостаточное оснащение

  • Недообучение означает, что модель дает плохой результат для набора обучающих и тестовых данных.
  • Поскольку у нас низкий показатель показателей в наборе данных поезда, мы не будем использовать эту модель для прогнозирования набора тестовых данных. У него высокая систематическая ошибка и большая дисперсия.

.

.

.

.

Регуляризация:

  • Если наклон более крутой, небольшое изменение x приведет к большим изменениям y.
  • Это может привести к переобучению.
  • Чем выше наклон, тем выше коэффициент, и это приведет к переобучению.

.

.

.

.

  • Чтобы штрафовать более высокий наклон, мы добавляем в модель смещение, то есть метод регуляризации.
  • Если наклон небольшой, изменение единицы измерения x приведет к уменьшению единицы y.

.

.

.

  • Регуляризация - это процесс, при котором добавление смещения к обучающим данным дает лучший результат для тестовых данных.

Регуляризация хребта (L2):

  • Добавьте штрафной коэффициент к функции затрат, который представляет собой квадрат значения.

  • Как мы все знаем, Градиентный спуск является сердцем модели регрессии для нахождения оптимизированного значения наклона и точки пересечения, добавляя штрафной коэффициент к функции стоимости, она будет пытаться сформировать более обобщенную модель.
  • По мере увеличения значения лямбда коэффициент будет пытаться сжаться до нуля, что означает уменьшение значения коэффициента, но не до нуля.

Регуляризация лассо (L1):

  • Рабочий метод регуляризации лассо также имеет отношение к регуляризации хребта, но вместо возведения в квадрат угла наклона мы бы взяли абсолютное значение наклона.

  • Поскольку мы берем абсолютное значение наклона, существует вероятность обнуления значения наклона.
  • Нулевой коэффициент означает, что между переменной и целью нет связи, поэтому он обнуляется.
  • Регуляризация лассо помогает в выборе функций.

Эластичная регуляризация сети:

  • Комбинация регуляризации гребня и лассо, которая приводит к исключению элементов из лассо и обеспечивает снижение коэффициента из гребня.

  • Таким образом, основная цель метода регуляризации - сделать так, чтобы ошибка поезда и теста попадала в один и тот же диапазон за счет уменьшения наклона (коэффициента) для получения минимальной ошибки.

Ссылка:

  • Обратитесь к этому файлу, чтобы понять, как я решил проблему переобучения в модели линейной регрессии, применив метод регуляризации.

Https://github.com/Rishikumar04/Data-Science-Training/blob/main/Linear_Regression/05_Big%20city%20Health%20Inventory.ipynb