Машина опорных векторов — это контролируемый алгоритм машинного обучения, который можно использовать как для задач классификации, так и для регрессии; однако он в основном используется для задач классификации. В этом алгоритме мы отображаем каждый элемент данных как точку в n-мерном пространстве, где n — это количество имеющихся у нас признаков, причем значение каждого признака является значением конкретной координаты. Затем мы выполняем классификацию, находя гиперплоскость, которая очень хорошо различает два или более классов.

Гиперплоскость — это плоское аффинное подпространство размерности p-1 в p-мерной плоскости. Следовательно, в двумерной плоскости гиперплоскость представляет собой плоское одномерное подпространство или линию. В трехмерном пространстве это будет двухмерная плоскость и т. д. и т. д., обычно задаваемая формулой

И, следовательно, классификация происходит через концепцию разделяющей гиперплоскости. Теперь нетрудно представить (посмотрев на рисунок выше), что для одного и того же набора данных может существовать конечное число гиперплоскостей. Но для того, чтобы классификатор был устойчивым и выводился из концепции разделяющей гиперплоскости, мы должны выбрать наиболее подходящую гиперплоскость. Следовательно, оптимальной разделяющей гиперплоскостью должна быть гиперплоскость, наиболее удаленная от тренировочных наблюдений. Мы предполагаем, что классификатор, который имеет большой запас по обучающим данным, также будет иметь большой запас по тестовым данным и, таким образом, сможет правильно классифицировать. Хотя этот подход часто бывает успешным; однако, когда набор данных большой, это может привести к переоснащению.

Как показано на рисунке выше, есть 2 наблюдения, которые равноудалены от гиперплоскости максимального поля и лежат на пунктирной линии, обозначающей ширину поля. Эти 2 точки известны как опорные векторы. Следует отметить, что гиперплоскость максимального поля напрямую зависит от опорных векторов, а не от других наблюдений, что означает, что любое изменение в других наблюдениях не изменит гиперплоскость, но любое движение опорных векторов изменит.

В классификаторах опорных векторов, также известных как классификатор мягких полей, основное внимание уделяется не правильной классификации каждой точки — мы согласны с некоторыми неправильными классификациями — будь то неправильная сторона поля или неправильная сторона гиперплоскости — но основное внимание остается включенным

1. Большая устойчивость к отдельным наблюдениям

2. Улучшенная классификация большинства тренировочных наблюдений.

отсюда и название soft margin.

Некоторые из мест, где мы используем SVM

Ø Классификация спама

Ø Текстовая классификация

Ø Распознавание рукописного ввода

Ø Классификация изображений

Ø Распознавание лиц

Ø Диагностика рака молочной железы

Шаг, связанный с вычислением SVM

1. Разделите данные на обучающие и тестовые наборы данных

2. Настройка SVM на обучающий набор данных

3. Прогнозирование набора тестов

4. Оценка модели

5. Настройка модели

На основе изменения различных параметров модели мы можем создавать все более и более совершенную модель.

В R — для SVM нужно использовать библиотеку e1071. Эта функция имеет встроенную функцию tune() для выполнения перекрестной проверки. По умолчанию tune() выполняет 10-кратную перекрестную проверку набора интересующих моделей.

Ядро: rdf и ploy полезны для нелинейной гиперплоскости.

Гамма. Чем выше значение гаммы, тем больше модель будет пытаться точно подобрать в соответствии с набором обучающих данных, т. е. ошибкой обобщения, что вызовет проблему переобучения.

Аргумент cost позволяет указать стоимость нарушения маржи. Когда аргумент стоимости невелик, поле будет широким, и многие векторы поддержки будут находиться в пределах поля или нарушать его. Когда аргумент стоимости велик, маржа будет узкой, и на марже будут находиться векторы поддержки росы или нарушающие маржу. К сожалению, функция svm() не выводит явно коэффициенты границы линейного решения, полученные, когда классификатор опорных векторов подходит. Он также не выводит ширину поля.

Недостатки SVM

· Он не работает хорошо, когда у нас есть большой набор данных, потому что требуемое время обучения довольно велико.

· Трудно понять и интерпретировать окончательную модель

· Он также не очень хорошо работает, когда в наборе данных больше шума, например перекрывающихся классов.

· Поскольку окончательную модель не так легко увидеть, мы не можем выполнить небольшую калибровку модели, и, следовательно, сложно включить бизнес-логику.

Преимущества SVM

Ø Это работает очень хорошо с четким запасом разделения

Ø Эффективен в многомерном пространстве

Ø эффективен в случаях, когда количество измерений больше, чем количество отсчетов

Ø Он использует подмножество тренировочных точек в функции принятия решений (называемой поддержкой), поэтому эффективно использует память

Ø Не распространяется на данные

Ø SVM устойчив к аутлайнерам

В двух словах ;

SVM — это контролируемый алгоритм, используемый для задачи классификации; SVM пытается провести 2 линии между точками данных с наибольшим расстоянием между ними. Для этого мы наносим элементы в виде n точек в n-мерном пространстве, где n — количество входных признаков. Основываясь на этом, SVM находит оптимальную границу, называемую гиперплоскостью, которая лучше всего разделяет [возможный вывод по их метке класса. Расстояние между гиперплоскостью и ближайшей точкой класса называется запасом; оптимальная гиперплоскость имеет наибольший запас, который классифицирует точку, чтобы максимизировать расстояние между ближайшей точкой данных и обоими классами. SVM — это классификация, также используемая для отнесения данных к различным классам. Они включали обнаружение гиперплоскости, которая разделяет данные на классы. SVM очень универсальны и также способны выполнять линейную и нелинейную классификацию, регрессию и обнаружение контуров. Как только идеальная гиперплоскость обнаружена, можно легко классифицировать новые точки данных. Цель оптимизации состоит в том, чтобы найти «гиперплоскость с максимальным запасом», наиболее удаленную от ближайших точек двух классов.

Присоединяйтесь к FAUN: Сайт💻|Подкаст🎙️|Twitter🐦|Facebook👥 |Instagram📷|Группа Facebook🗣️|Группа Linkedin💬| Slack 📱|Cloud Native Новости📰|Дополнительно.

Если этот пост был полезен, пожалуйста, несколько раз нажмите кнопку аплодисментов 👏 ниже, чтобы выразить свою поддержку автору 👇