Здравствуйте, читатели! В этом блоге рассказывается об алгоритме машинного обучения под названием Naive Byes. Мы углубимся в основные концепции Naive byes и поймем, как это работает. Этот алгоритм машинного обучения учитывает некоторые из основных принципов вероятности для прогнозирования.

Основные термины

Прежде чем перейти к алгоритму наивного прощания, давайте сначала разберемся в некоторых терминах, связанных с вероятностью. Для этого рассмотрим пример колоды карт, в которой 52 карты.

1) Независимые события

Предположим, у нас есть два события —

  1. Вытягивание карты Королевы из колоды из 52 карт .
  2. Вытяните карту короля из колоды из 52 карт.

Теперь попробуем найти вероятность этих двух событий —

Эти два события не зависят друг от друга, поэтому они не коррелированы и поэтому называются независимыми событиями.

2) Зависимые события

Теперь давайте рассмотрим еще 2 события следующим образом:

  1. Вытягивание карты Королевы из колоды из 52 карт.
  2. Вытягивание еще одной карты Королевы из оставшейся колоды из 51 карты.

Теперь попробуем найти вероятность этих двух событий —

Мы видим, что в двух приведенных выше случаях второе событие зависит от первого события. Итак, второе событие известно как зависимое событие.

3) Условная вероятность

Теперь, если мы рассмотрим вышеупомянутое зависимое событие 2, мы можем представить его в форме —

››››››››››››› P (событие2 | событие1) = 3/51 ‹‹‹‹‹‹‹‹‹‹‹‹‹‹‹‹‹

Это говорит о том, что вероятность события 2 при условии, что событие 1 уже произошло, составляет 3/51. Это известно как условная вероятность. Давайте посмотрим на формулу условной вероятности —

4) Теорема Байя

Это теорема, которая используется в алгоритме наивного Байя для обучения и прогнозирования.

Наивный алгоритм Байя

Наивный Байе — это контролируемый алгоритм машинного обучения, который работает по принципу теоремы Байе и используется для обучения и прогнозирования на основе классификации. Наиболее важным предположением для Наивного Байея является то, что любой признак в наборе данных совершенно не связан ни с каким другим признаком в этом наборе данных.

Давайте попробуем понять работу наивной теоремы Байя на примере математически.

Давайте рассмотрим набор данных, в котором у нас есть 2 независимых признака Xa и Xb и один зависимый признак Y . Этот Y является выходом нашей модели и имеет только двоичный выход «Да» или «Нет». Набор данных имеет записи «p» во всех файлах .

Вероятность «Да» или «Нет» в Y называется «априорной».

P (Да) = (количество Да) / p

P (No) = (no. of No) / p

Теорему Байеса для этого набора данных можно сказать так:

Это теорема Байе, которая будет использоваться в этом наборе данных для его обучения на данных и прогнозирования.

Теперь, поскольку для Y есть два выхода, то есть «Да» и «Нет», следовательно, алгоритм Наивного Байя находит вероятность для обоих типов выхода следующим образом:

Теперь, чтобы найти Выход, абсолютная Вероятность «Да» и «Нет» рассчитывается следующим образом:

Теперь, если значения Pa(Yes) выше, то на выходе будет «Да», в противном случае «Нет». Вот как работает Наивный Байе в прогнозировании.

Это все об этом блоге. Спасибо за чтение !!!