Публикации по теме 'bayesian-statistics'


p-значения: наследие «научного расизма»
Наследие статистики и ИИ p-значения: наследие «научного расизма» Более глубокий взгляд на нерассказанную историю p-значений и ее наследие Отказ от ответственности: я буду заключать в кавычки некоторые слова, такие как раса, расовые измерения и т. д., потому что эти термины не только нагружены исторической дискриминацией, но и само понятие "раса" не является научным. «Раса» людей — это ненаучный термин. Кроме того, читатель должен иметь некоторое представление о p-значениях,..

6 приложений байесовских методов, которые вы должны знать
Как специалист в области анализа данных, вы, вероятно, часто слышите слово байесовский . Будь то байесовский вывод, байесовская статистика или другие байесовские методы, знание того, как использовать и применять эти методы, почти необходимо для любого практикующего профессионала. Существует множество различных приложений, которые можно использовать в самых разных отраслях. Таким образом, вот несколько примеров того, когда вы можете использовать байесовские методы. Бизнес и..

Обучение науке о данных: день 19 - Наивный Байес
В последних двух статьях мы говорили о теореме Байеса и ее применении. Сегодня мы узнаем больше о наивном байесовском классификаторе. Предыдущее, апостериорное, правдоподобие и доказательства Чтобы узнать больше о Байесе, я думаю, будет лучше, если мы поймем правило Байеса более техническим способом. Так что у нас не было никаких проблем, когда мы попытались узнать больше. Мы знали правило Байеса, не понимая роли каждой переменной. Упрощенное правило Байеса цитируется ниже...

Освоение байесовской линейной регрессии с нуля: реализация Metropolis-Hastings на Python
Пару месяцев назад, перед началом курса байесовских вычислений, который я сейчас изучаю, я хотел получить более глубокое представление о моделировании цепей Маркова Монте-Карло (MCMC). В то время я запускал свой блокнот Jupyter, импортировал PyMC3 и строил модель, заканчивая все это вызовом оптимизатора Metropolis , не совсем понимая, что происходит. Внутренняя красота и элегантность метода кроются за несколькими десятками понятий и определений, что превращает все исследование в тяжелое..

Введение в байесовский вывод - математическое предприятие - часть 2
В последней статье этого предприятия мы исследовали байесовскую линейную регрессионную модель. В этой статье мы исследуем математику, лежащую в основе байесовского наивного байеса для задачи классификации. Прежде чем мы начнем, я хотел бы повторить наиболее важное предположение, сделанное при выводе решения Наивного Байеса, что функции независимы друг от друга . Сначала мы поставим задачу, а затем шаг за шагом рассмотрим математику. Цель задачи классификации - вычислить p (y | x,..

Добавление неопределенности в глубокое обучение
Добавление неопределенности в глубокое обучение Как построить интервалы прогнозирования для моделей глубокого обучения с помощью Edward и TensorFlow Разница между статистическим моделированием и машинным обучением стирается с каждым днем. Они оба учатся на данных и предсказывают результат. Основное различие, по-видимому, связано с существованием оценок неопределенности. Оценки неопределенности позволяют проверять гипотезы, хотя обычно за счет масштабируемости. Машинное обучение..

Условия теоремы Байеса
Описание различных терминов теоремы Байеса. Что такое теорема Байеса? Теорема Байеса определяет вероятность возникновения события на основе априорного знания о возникновении этого события или знания условий, которые могут привести к возникновению события. Теорема Байеса представлена ​​следующим уравнением: # Bayes Theorem P( y=1 | x = x⁰) = P( x=x⁰ | y=1) P(y=1) --------------------- P(x=x⁰) Вот изображение того же в более простом..