Условная вероятность:вероятность возникновения любого события A, когда другое событие B по отношению к A уже произошло, называется условной вероятностью. Он изображается P (A | B).

Независимые события. Независимые события — это события, возникновение которых не зависит ни от каких других событий. Например, если мы подбрасываем монету в воздухе и получаем результат «Орел», то снова, если мы подбрасываем монету, но на этот раз мы получаем результат «Решка». В обоих случаях возникновение обоих событий не зависит друг от друга. поэтому здесь P(A/B)=P(A) или P(B\A)=P(B)

Теорема Байеса: описывает вероятность возникновения события, связанного с любым условием.

Наивный байесовский метод. Наивный байесовский метод — это вероятностная модель машинного обучения, использующая теорему Байеса.

Работает

Предположим, у меня есть набор данных с n функциями (f1, f2, f3, f4……, fn), а метка класса — Ck.

Для каждого из k возможных исходов или классов Ck мы должны найти P(Ck\X), где X=(x1,x2,x3…..xn)

Использование цепного правила для расчета вероятности

Поэтому для каждой функции и метки класса мы должны проверить это. теперь подумайте, что характеристики — это цвет волос, рост, возраст, пол, а метка класса — это вес. теперь в нашей модели мы должны найти вес человека, используя функции. предположим, мы ищем вес 90 кг, где цвет волос = черный, рост = 140 см, возраст = 19 и пол = женский. поэтому мы должны проверить каждую функцию, поскольку мы считаем, что все функции зависимы. и очень сложно проверить каждую функцию. Для этого наивный байесовский подход основан на допущении условной независимости.

Сначала мы рассматриваем P(X) (см. рис. 1) как константу, поэтому теперь мы добавляем P(X) в приведенное выше уравнение.

Теперь для каждого класса или метки мы проверим вероятность, используя приведенное выше уравнение. и самый высокий класс вероятности будет ответом.

В следующих блогах мы углубимся в другие концепции, которые, наконец, разработают для нас наивный байесовский классификатор.