Все это язык

В предыдущем блоге этой серии мы видели 2 алгоритма контролируемой классификации, который использует математику начальной школы для классификации набора данных по различным категориям переменных класса.

В этом блоге мы увидим еще 3 алгоритма контролируемой классификации. Эти алгоритмы используют математику средней школы для классификации данного набора данных. Как я уже упоминал ранее, цель этой серии блогов — предоставить обзор (поверхностный взгляд) ML. Читатели, которые хотят углубиться в ML, могут заглянуть в другие замечательные ресурсы, написанные очень талантливыми профессионалами.

Логистическая регрессия

Логистическая регрессия — это двоичный классификатор (пожалуйста, не используйте название), в котором переменная класса может принимать только два значения, то есть 1 или 0. В LR мы находим плоскость (аналогичную линейной регрессии), которая вместо предсказания реального числа как output, дает нам двоичное значение (1/0), представляющее один из классов.

На рис. 1 мы использовали плоскость (пунктирная линия) для классификации данного набора данных на красный и синий классы. Для заданной точки запроса эта плоскость классифицирует ее либо как красный (1/положительное направление), либо как синий (0/отрицательное направление) класс.

Алгоритм:-

  1. Найдите уравнение плоскости путем минимизации функции стоимости J (тета) (рис. 2), которая классифицирует данный набор данных.
  2. Используйте уравнение для классификации точки запроса.

Плоскость LR может классифицировать только переменную бинарного класса. Для многоклассовой классификации мы должны использовать ovr (один остаток v/s). Если переменная класса может иметь m классов, нам нужно m плоскостей для классификации данной точки запроса на m классов, например. В Наборе данных MNIST у нас есть 10 классов (класс может принимать любое значение от 0 до 9). Для классификации этого набора данных с использованием LR мы должны найти плоскость для каждой переменной класса (10 плоскостей для 10 переменных класса) путем минимизации функции стоимости J (тета) (рис. 5). Каждая плоскость в этой модели будет классифицировать определенную цифру, т. е. плоскость i классифицирует точку данных в класс i (1/положительный) или класс остальных (0/отрицательный). Для данной точки запроса LR вычисляет переменную класса Y для каждой плоскости, и в зависимости от того, какая плоскость возвращает положительный класс (1), она назначает эту метку плоскости данной точке запроса.

Машины опорных векторов (SVM)

SVM также используется для бинарной классификации. В отличие от LR, который возвращает плоскость, классифицирующую данный набор данных, SVM возвращает оптимальную плоскость, которая проходит через медиану максимального поля.

На рис. 3 w — вектор, ортогональный оптимальной плоскости, x соответствует точке данных, а b — константа. Точки, лежащие на w^Tx+b = 1, w^Tx+b=-1 (X1, X2 и т. д.), и неправильно классифицированные точки называются опорными векторами. SVM использует эти опорные векторы, чтобы найти уравнение плоскости.

SVM выглядит (интуитивно) очень похоже на логистическую регрессию, чем то, почему в этом связанном мире я изучаю избыточный алгоритм, который использует тот же (интуитивно) метод для классификации данного набора данных. Ответ на этот вопрос содержится в следующем абзаце.

SVM популярен благодаря своему уравнению двойственности (рис. 5), в котором мы можем использовать матрицу подобия (ядро, (x^(i), x^(j)) на рис. 5) различных выборок для классификации новой точки запроса. . SVM — лучший алгоритм с учителем, если вычислить сходство между разными выборками проще, чем определить векторы признаков для данной выборки.

Алгоритм

  1. Найдите уравнение плоскости, используя Primal или Dual SVM (рис. 4 или рис. 5).
  2. Используйте уравнение для классификации новой точки запроса.

Дерева решений

Дерево решений — это простая комбинация операторов if-else. Для каждой функции мы напишем оператор if-else, чтобы он классифицировал данный набор данных по разным категориям переменных класса Y. Мы вычислим взвешенную энтропию каждой функции для выбора конкретной функции на каждом уровне. Функция с наименьшей взвешенной энтропией для классификации данного набора данных на уровне i будет использоваться для классификации на уровне i.

Алгоритм

  1. Постройте дерево решений, используя заданный набор данных.
  2. Используйте дерево решений для классификации заданной точки запроса.

В этом блоге мы видели математические уравнения средней школы. Пипсам может быть интересно, что реализация этих уравнений займет много времени. Самое лучшее в ML то, что вся тяжелая работа (реализация алгоритма) уже была проделана высокопрофессиональными спасителями и упакована в разные библиотеки (sklearn для python, octave, R, matlab). Нам просто нужно импортировать эти библиотеки для решения нашей задачи по определенному алгоритму.

В этой серии мы увидели лишь верхушку айсберга (Машинное обучение). Каждый из этих алгоритмов преподается как предмет в высших учебных заведениях. Цель машинного обучения — учиться день за днем ​​и делать этот мир более счастливым местом для жизни.

В начале этого блога я написал, что «Все есть язык». Пожалуйста, дайте нам знать о языке людей?

Быть в курсе.

Приятного чтения.