Машина опорных векторов (SVM):

Машина опорных векторов (SVM) относится к алгоритму контролируемого обучения, который можно использовать как для регрессии, так и для классификации в машинном обучении. Машина опорных векторов также может использоваться для обнаружения выбросов. Приложения, которые широко используют машину опорных векторов, предназначены для обнаружения лиц, классификации изображений, категоризации текста и т. Д.

Чтобы полностью понять SVM, мы должны знать, что категории разделены гиперплоскостью вместе с двумя полями. Эти поля рисуются параллельно гиперплоскости по отношению к ближайшим значениям присутствующих категорий. Прямая линия представляет собой гиперплоскость, а пунктирные линии также являются гиперплоскостями, которые представляют собой линии полей.

Модель, которая содержит наибольшую маржу, будет считаться лучшей SVM для работы. Точки, проходящие через маргинальную гиперплоскость, называются опорными векторами. Линейный Seperable может обрабатываться гиперплоскостями svm, но нелинейный Seperable должен использовать ядро ​​svm. Ядра svm помогают нам преобразовывать низкоразмерные изображения в высокоразмерные, чтобы можно было создавать гиперплоскости (например, 2-мерное изображение может быть преобразовано в 3-мерное или 1-мерное может быть преобразовано в 2-мерное).

SVM в основном можно использовать для выборочных наборов данных или небольших наборов данных, поскольку он плохо работает с большими наборами данных. SVM может обрабатывать как линейные, так и нелинейные наборы данных, изменяя свою размерность на более высокую размерность. По мере увеличения количества функций производительность SVM снижается.

Трюк с ядром помогает нам анализировать и находить закономерности в нелинейно разделяемом наборе данных, ядро ​​​​помогает добавить измерение к нелинейному набору данных (от 2d до 3d) и создать гиперплоскость для нового измерения набора данных. SVM также помогает очень быстро и с хорошей точностью прогнозировать выходные данные. SVM также пытается уменьшить расстояние между полями (расстояние между опорными векторами).

K ближайший сосед (KNN):

K Ближайший сосед (KNN) — это контролируемый алгоритм, который можно использовать как для регрессии, так и для классификации в машинном обучении. Алгоритм KNN применяется для обнаружения звука и обнаружения видео. Вменение KNN активно используется при предварительной обработке данных или для обработки пропущенных значений в данных. Поскольку данные не допускают каких-либо нулей или отсутствующих значений перед использованием машинного обучения, многие функции можно заменить с помощью вменения KNN. На приведенной ниже диаграмме мы можем наблюдать алгоритм KNN, реализованный на данных, которые содержат две категории данных. Значение K используется для определения настройки производительности и для определения наилучшей точности. Проще говоря, количество рассматриваемых нами соседей — это значение K. Расстояние можно рассчитать, используя параметры эвклида и манхэттена.

От заданной ключевой точки до других ключей будет рассчитано расстояние, и его можно сохранить как низкие значения K с низким смещением и высокой дисперсией переобучения, высокие значения K с высоким смещением и низкой дисперсией недообучения. Принимая во внимание, что хорошее значение K имеет баланс между переоснащением и недообучением.

При реализации алгоритма KNN необходимо рассчитать значение K, а затем вычислить среднее значение всех ближайших соседей r=t, чтобы найти регрессию KNN. При реализации классификатора KNN необходимо рассчитать значение K и учесть количество соседних точек, ближайших к данной точке, в качестве данной точки будет рассматриваться категория, имеющая максимальное количество ближайших соседей.

Алгоритмы SVM и KNN играют важную роль в контролируемом обучении, оба алгоритма эффективно работают с небольшими наборами данных по сравнению с большими наборами данных. Но они дают эффективные результаты для небольших наборов данных.