Регрессия опорных векторов (SVR):
Машины опорных векторов (SVM) также можно использовать для задач регрессии, и в этом случае метод называется регрессией опорных векторов (SVR). Цель SVR состоит в том, чтобы подобрать гиперплоскость, которая максимизирует запас вокруг заданного набора точек. В отличие от традиционных регрессионных моделей, SVR стремится свести к минимуму ошибку, допуская некоторую погрешность вокруг прогнозируемых значений.
Математически цель SVR состоит в том, чтобы найти функцию f(x), которая предсказывает выход y на основе входных данных x, так что:
=> y = f(x) + e
где e — ошибка между прогнозируемым и фактическим значениями y.
Функция f(x) представляет собой гиперплоскость, определяемую:
=> f(x) = w^T x + b
где w — весовой вектор, а b — член смещения.
Задачу оптимизации в SVR можно сформулировать так:
минимизировать: 1/2 ||w||² + C * сумма (e_i + epsilon_i + e_i*)
при условии:
y_i — f(x_i) ‹= epsilon_i
f(x_i) — y_i ‹= epsilon_i*
где C — гиперпараметр, управляющий компромиссом между ошибкой и запасом, а epsilon_i и epsilon_i* — верхняя и нижняя границы ошибки. Сумма epsilon_i + epsilon_i* является размером поля.
=› Наилучший случай для SVR — это когда точки данных хорошо разделены и гиперплоскость может быть легко подобрана без особых ошибок. В этом случае запас велик, а ошибка мала, что приводит к высококачественной модели с хорошими характеристиками обобщения.
=› Худший случай для SVR — это когда точки данных расположены близко друг к другу, и трудно найти гиперплоскость, которая соответствует им без значительной ошибки. В этом случае запас невелик, а ошибка велика, что приводит к плохой производительности обобщения модели.
В целом, SVR — это мощный инструмент для задач регрессии, который может работать с нелинейными отношениями между входными и выходными переменными. Однако для достижения оптимальной производительности требуется тщательная настройка гиперпараметров, а качество результатов сильно зависит от характеристик данных.