Публикации по теме 'probability'


Наивная теорема Байеса
Наивная байесовская классификация - это метод машинного обучения с учителем. Это простой, но один из самых эффективных методов классификации. Есть некоторые предположения, сделанные в наивном байесе. Даже если эти предположения немного нарушаются, он все равно работает достаточно хорошо. Предположения, сделанные в Наивном Байесе: Все выборки являются i.i.d, т.е. все случайные величины не зависят друг от друга и взяты из аналогичного распределения. Все функции условно независимы...

Почему вероятность важна для машинного обучения?
Наука о данных, вероятность, статистика, машинное обучение Почему вероятность важна для машинного обучения? Мы можем наблюдать за неопределенностью, используя инструменты вероятности. Машинное обучение связано с созданием прогнозных моделей на основе неопределенных данных. Неопределенность подразумевает работу с несовершенной или фрагментированной информацией. Основными источниками неопределенности в машинном обучении являются зашумленные данные, недостаточный охват проблемной..

Математика в основе контролируемого обучения для чайников: теория простыми словами (Часть II)
Краткий обзор алгебры и геометрии, лежащих в основе контролируемого обучения для всех. «В своей предыдущей статье я написал первую часть этой серии: Математика обучения с учителем для чайников: теория простыми словами, где мы увидели обзор того, как геометрия и алгебра являются основой обучения с учителем. . Во второй части этой серии я расскажу об измерении Вапника-Червоненкиса, о вероятном приблизительно правильном обучении, о том, как расширить наш двоичный классификатор на..

Часть 1: Оценка максимального правдоподобия простыми словами
Часть 1: Оценка максимального правдоподобия простыми словами Я потратил часы и часы, чтобы понять концепцию MLE, и вот самое простое объяснение, которое я могу дать. Предположим, у нас есть 5 стран с населением 100, 200, 300, 150 и 450 человек. Допустим, из 100 человек в стране1 у нас 50 мужчин и 50 женщин. Допустим, в стране 2 у нас 30 женщин и 170 мужчин. Допустим, в стране 3 у нас 120 женщин и 180 мужчин. Допустим, в стране 4 у нас 40 мужчин и 110 женщин, а в стране 5,..

Модели языка N-Gram
Предсказывать сложно - особенно в отношении будущего, но как насчет предсказания, как следующих нескольких слов в предложении? Мы рассмотрим статистический алгоритм, который был предшественником многих продвинутых алгоритмов в области обработки естественного языка. В следующих разделах мы рассмотрим возможность присвоения вероятностной оценки следующему слову в предложении. Например: какое слово может следовать за: Переверните блокнот… скорее всего, слово 'over' , но не..

Вероятностные и графовые сети
В моем предыдущем посте я представил мотивацию графовых сетей , описанную в статье DeepMind, которую я читал [1]. Мы рассмотрели идеи реляционной индуктивной предвзятости и комбинаторного обобщения, которые описывают то, как мы, люди, думаем. В документе DeepMind утверждается, что использование графовых сетей для мышления, как люди, может помочь нам решить некоторые ключевые проблемы, такие как (1) сложное понимание языка/сцены, (2) рассуждения о структурированных данных, (3) перенос..

Вероятность против правдоподобия
Вероятность против правдоподобия Когда я впервые наткнулся на термин «вероятность » в том же предложении со словом «вероятность» , я был очень сбит с толку и не мог понять это утверждение! На самом деле это произошло, когда я изучал оценку максимального правдоподобия для логистической регрессии . Причиной этой путаницы было мое обычное понимание того, что вероятность чего-либо относится к вероятности чего-то и часто неправильного использования этих терминов как синонимов. Затем..