Публикации по теме 'probability'


Введение в максимизацию ожиданий
Я написал несколько постов по оценке параметров. Первый пост был посвящен оценке максимального правдоподобия (MLE), где мы хотим найти значение некоторого параметра θ, который наиболее вероятно отображает данные обучения, это также может быть известно как параметр, который, скорее всего, соответствует данным обучения. Байесовская оценка параметров (BPE) расширяет MLE, поскольку априорная информация о θ либо дана, либо предполагается. Что делать, если данные не полные? Что делать, если..

Как продавцы Shopify могут измерить удержание
В Shopify наш бизнес зависит от понимания бизнеса более 500000 продавцов, которые полагаются на нашу платформу. В основе любого бизнеса лежат клиенты, и понимание их поведения помогает предпринимателям эффективно распределять свое время и деньги. Чтобы помочь нашим продавцам, мы взялись за решение нетривиальной проблемы - помочь нашим продавцам определить удержание клиентов. Когда клиент перестает покупать у компании, мы называем это оттоком. В контрактном бизнесе (например, программное..

MLE и MAP - простым языком
Если у нас есть шестигранная игральная кость, и у нас нет предварительной информации о ней ( то есть, это необъективная игральная кость? ), тогда мы можем просто бросать кости столько раз, сколько захотим ( чем больше мы проводим эксперимент, тем больше вероятность получить лучшую оценку ) а затем оцените вероятность того, что мы получим каждое лицо, просто посчитав количество раз, когда мы получили это лицо, и разделив это число на количество раз, когда мы провели эксперимент. Мы делаем..

«Некоторые фундаментальные факты о байесовском подходе»
В области статистики есть два основных подхода к вероятности - - (1) Классический подход (2) Байесовский подход До сих пор мы видели, что параметр совокупности неизвестен, и мы используем классический подход, такой как метод максимального правдоподобия , чтобы найти оценку параметра. Принципиальное различие между байесовским и классическим методами заключается в том, что в байесовском подходе параметр считается случайной величиной . В классической статистике параметр..

Распределения вероятностей в машинном обучении
Распределения являются неотъемлемой частью машинного обучения, поскольку помогают анализировать данные. Вероятность предоставляет теоретическую концепцию, лежащую в основе этого, тогда как распределение помогает нам визуализировать данные. Предварительные требования : Есть два типа переменных: Дискретная переменная: поскольку дискретная относится к каждому отдельному значению, например, количество учеников в классе, ответы на вопросы теста даны правильно. Непрерывная переменная:..

Глубокое обучение Глава 3: Теория вероятностей и информации
Во время нашей третьей встречи, которая состоялась 15 мая, мы рассмотрели Главу 3: Теория вероятностей и информации . (Книга доступна онлайн бесплатно: http://www.deeplearningbook.org/ ) У нас была прекрасная презентация Пьера Дука , которая вызвала много дискуссий! Посмотреть его можно здесь: Полное раскрытие: мы не смогли поговорить о теории информации. Мы надеемся исправить это в ближайшее время, см. Ниже. Также мы поговорили со специальным гостем Александром Тошевым ...

Логистическая регрессия — вероятностная интерпретация
Логистическая регрессия — вероятностная интерпретация Начнем с предположений, которые нам необходимо сделать Метка класса Y принимает только два результата +1, 0, как подбрасывание монеты, и, следовательно, может рассматриваться как случайная величина Бенулли. Первое большое предположение состоит в том, что метка класса Y имеет распределение Бернулли. У нас есть признаки X= {x1,x2,x3,…xn), где каждый xi является непрерывной переменной. Следующее предположение состоит в том, что..