Если вы читали мои предыдущие блоги, я рассмотрел два самых популярных алгоритма классификации Линейный дискриминантный анализ и K-ближайшие соседи.

Другой очень популярный алгоритм контролируемой классификации - это наивный байесовский алгоритм.

Прежде чем погрузиться в глубокое погружение, давайте разберемся, что означают наивный и байесовский.

Этот алгоритм называется «Наивным», потому что он делает наивное предположение, что каждая функция не зависит от других функций, что неверно в реальной жизни.

Что касается «байесовской» части, она относится к статистику и философу Томасу Байесу и названной в его честь теореме Байеса, которая является основой наивного байесовского алгоритма.

Что такое наивный байесовский алгоритм?

Обобщая вышеупомянутые моменты, наивный байесовский алгоритм можно определить как контролируемый алгоритм классификации, который основан на теореме Байеса с предположением о независимости между функциями.

Краткий обзор теоремы Байеса:

Теорема Байеса помогает нам найти вероятность гипотезы с учетом наших предварительных знаний.

Согласно Википедии, в теории вероятностей и статистике также написано теорема Байеса (альтернативно закон Байеса или правило Байеса. как теорема Байеса) описывает вероятность события, основанную на предварительном знании условий, которые могут быть связаны с событием.

Давайте посмотрим на уравнение для теоремы Байеса,

Где,

  • P (A | B) - это вероятность гипотезы A с учетом данных B. Это называется апостериорной вероятностью.
  • P (B | A) - это вероятность данных B при условии, что гипотеза A верна.
  • P (A) - вероятность того, что гипотеза A верна (независимо от данных). Это называется априорной вероятностью A.
  • P (B) - вероятность данных (независимо от гипотезы).

Если вы думаете, что такое P (A | B) или P (B | A)? Это условные вероятности, имеющие формулу:

Если у вас все еще есть путаница, это изображение резюмирует теорему Байеса:

Как работает наивный байесовский алгоритм?

Давайте рассмотрим пример, чтобы понять, как работает наивный байесовский алгоритм.

Предположим, у нас есть обучающий набор данных из 1025 фруктов. В наборе данных есть следующие функции: Yellow_color, Big_Size, Sweet_Taste. Есть три разных класса: яблоко, банан и другие.

Шаг 1. Создайте частотную таблицу для всех функций по всем классам.

Что мы можем сделать из приведенной выше таблицы?

  • Из 1025 фруктов 400 - яблоки, 525 - бананы и 100 - прочие.
  • 175 из 400 яблок желтые, остальные нет и так далее.
  • Из 600 плодов 400 желтых, 425 крупных и 200 сладких.

Шаг 2. Нарисуйте таблицу правдоподобия для функций по классам.

В нашей таблице правдоподобия Total_Probability банана максимальна (0,1544), когда плод желтого цвета, большой по размеру и сладкий на вкус. Следовательно, согласно наивному байесовскому алгоритму, фрукт желтого цвета, большого размера и сладкого вкуса называется банан. .

Вкратце, мы говорим, что новый элемент будет принадлежать к классу, который будет иметь максимальную условную вероятность, описанную выше.

Плюсы и минусы наивного байесовского алгоритма:

Плюсы:

  1. Это легко понять.
  2. Его также можно обучить на небольшом наборе данных.

Минусы:

  1. В нем есть «проблема условной вероятности Z ero», для объектов, имеющих нулевую частоту, общая вероятность также становится равной нулю. Существует несколько методов выборочной коррекции для решения этой проблемы, например, «лапласовская коррекция».
  • Другой недостаток - это очень сильное допущение о функциях класса независимости, которые он делает. Найти такие наборы данных в реальной жизни практически невозможно.

Применение наивного байесовского алгоритма:

  1. Наивный байесовский метод широко используется для классификации текста.
  2. Еще один пример классификации текста, в котором в основном используется наивный байесовский метод, - это фильтрация спама в электронных письмах.
  3. Другие примеры включают анализ настроений, рекомендательные системы и т. Д.

Надеюсь, вам нравятся мои блоги. Не стесняйтесь обращаться ко мне, если у вас есть какие-либо сомнения.

Удачного обучения !!!