В последних двух статьях мы говорили о теореме Байеса и ее применении. Сегодня мы узнаем больше о наивном байесовском классификаторе.
Предыдущее, апостериорное, правдоподобие и доказательства
Чтобы узнать больше о Байесе, я думаю, будет лучше, если мы поймем правило Байеса более техническим способом. Так что у нас не было никаких проблем, когда мы попытались узнать больше.
Мы знали правило Байеса, не понимая роли каждой переменной. Упрощенное правило Байеса цитируется ниже.
Приор - Пр (А)
Ключевым моментом Prior являются данные, которые у нас есть до (до) нашего наблюдения. Скажем, из нашего предыдущего случая о спаме, тогда априорной является вероятность того, что определенная точка данных является спамом или нет.
Задний - Pr (A | X)
Posterior - это противоположность Prior, то есть данных, которые мы публикуем после (после) нашего наблюдения. Предположим, что в случае со спамом, апостериорная вероятность того, что определенное электронное письмо является спамом, основана на словах (X).
Доказательства - Pr (X)
Главное в доказательствах - это то, что нам известны некоторые электронные письма, которые являются спамом, а не спамом. Таким образом, теперь мы можем получить вероятность спамерских писем по сравнению с определенным набором рассылки. Эта вероятность того, что что-то произошло, называется доказательством.
Вероятность - Pr (X | A)
Значение вероятности - это вероятность того, что что-то произойдет. Некоторые люди считают этот термин взаимозаменяемым с вероятностью, что неверно. Таким образом, в случае спама это будет вероятность того, что определенные слова, которые, как мы предполагаем, относятся к спаму, будут обнаружены в определенном электронном письме.
Наивный байесовский
Если честно, а что вообще наивный Байес? Это метод классификации, при котором функции независимы друг от друга. Это означает, что каждая функция не связана с другой функцией того же класса. Например, если мы создадим наивную байесовскую классификацию для классификации фруктов. Яблоко будет красного цвета, круглой формы и радиусом около 3 см. Хотя для нас это выглядит коррелированным, наивный байесовский метод игнорирует эту корреляцию и предполагает, что все функции независимы.
Как это работает
Допустим, у нас есть данные о том, проводится ли футбольный матч или нет, в зависимости от погоды. Преобразуйте набор данных в таблицу частот и таблицу правдоподобия.
Предположим, мы хотим знать вероятность того, будет ли игра играть или нет, если мы знаем, что в этот день солнечный.
Если преобразовать задачу в уравнение,
P (Да | Солнечно) = (P (Солнечно | Да) * P (Да)) / P (Солнечно)
У нас есть,
P (Солнечно | Да) = 3/9 = 0,33
P (Да) = 9/14 = 0,64
P (солнечно) = 5/14 = 0,36
Так что насчет P (Да | Солнечно)?
P (Да | Солнечно) = (0,33 * 0,64) / 0,36 = 0,60
Тогда это означает, что, скорее всего, игра будет проходить в солнечную погоду.
Пример Scikit-Learn
Scikit-Learn уже предоставляет функцию Наивного Байеса. Давайте посмотрим на пример из документации Scikit-Learn.
В Scikit-Learn доступны различные типы Наивного Байеса. В этом примере мы используем гауссовский, который подходит для набора данных с функциями, которые следуют нормальному распределению.
Заключительные слова
Сегодня мы обсудили Naive Bayes и его реализацию с помощью Scikit-Learn. Чтобы повысить качество историй, следующий рассказ об обучении науке о данных будет доступен позже 30 января из-за более трудных для понимания материалов, которые я могу изучать каждый день. Спасибо за чтение и хороших выходных!