Этот пост является наполнителем для следующей статьи:



Здесь мы обсудим математику, стоящую за мастер-алгоритмом SVM.
Давайте тарзанку!

Мы обсуждали функцию потерь SVM, и для этого нам нужна математика, которая работает внутри модели. Начну с самого начала.

Отказ от ответственности. Пожалуйста, ознакомьтесь со статьей выше, прежде чем читать эту. Дун, жалуйся, если что-то пойдет не так.

СХЕМА —

  • Уравнение гиперплоскостей
  • Расстояние между опорными векторами
  • Функция потерь SVM
  • Регуляризация и потеря петель
  • Функция стоимости для SVM
  • Функция жесткой маржинальной стоимости
  • Мягкая функция маржинальной стоимости

1. Уравнение гиперплоскости

Гиперплоскости в SVM выглядят так:

Есть положительный и отрицательный. Итак, теперь наша цель — максимизировать запас гиперплоскости. Для этого нам нужны некоторые единицы, которые мы можем настроить (увеличить/уменьшить), чтобы гиперплоскость увеличилась в поле.

Итак, давайте предположим, что синий опорный вектор, ближайший к положительной гиперплоскости, называется A. Теперь минимальное расстояние между наблюдением A и гиперплоскостью максимального поля можно измерить вдоль линии, ортогональной плоскости и проходящей через A. Мы называем эту ортогональную линию w.