Публикации по теме 'bayesian-machine-learning'


Приоритетные функции: гауссовский процесс
В этом посте мы обсуждаем работу гауссовского процесса. Гауссовские процессы подпадают под ядерные методы и свободны от моделей. Гауссовский процесс особенно полезен для режима с низким объемом данных, чтобы изучить сложные функции. Мы рассмотрим очень практичное приложение из реального мира (не связанное с глубоким обучением или нейронными сетями). Обсуждение следует из бесед профильных экспертов Проф Нил Лоуренс и Профессор Ричард Тюнер . Справочная информация: Многомерное..

Как сделать так, чтобы ваша нейронная сеть предсказывала собственную ошибку
Типичная нейронная сеть, которая прогнозирует одно или несколько непрерывных значений, таких как завтрашняя температура или потребление алкоголя человеком на следующей неделе, использует среднеквадратичную ошибку (MSE) как функцию потерь. Итак, если мы обозначим прогноз модели с помощью z_i, а истинное значение с помощью y_i для образца i, функция потерь будет примерно такой: Это кажется приятным и интуитивно понятным, но имеет два серьезных недостатка: во-первых, подгонка такой модели..

Сегодня будет дождь?
Время от времени я пытаюсь угадать, будет ли сегодня дождь или нет… почти каждый раз это неверно. У моей бабушки есть такая сверхспособность, а она даже не знает о теореме Байеса. В науке о данных это одно из самых полезных правил статистики, которое мы можем использовать при прогнозировании чего-либо. Так как же условная вероятность помогает нам делать наши прогнозы лучше? Теорема Байеса дает нам способ обновить нашу предсказательную способность по мере того, как мы узнаем новую..

Частотный и байесовский подходы в машинном обучении
Сравнение линейной регрессии и байесовской линейной регрессии Между байесовскими и частотными статистическими выводами всегда велись споры. В течение 20 века в статистической практике доминировали частотники. Многие распространенные алгоритмы машинного обучения, такие как линейная регрессия и логистическая регрессия, используют частотные методы для выполнения статистических выводов. Хотя байесовские методы доминировали в статистической практике до 20 века, в последние годы многие..

Глава 1: Обучение с учителем и наивная байесовская классификация - Часть 1 (Теория)
Добро пожаловать на ступеньку контролируемого обучения. Сначала мы обсудим небольшой сценарий, который ляжет в основу будущего обсуждения. Далее мы обсудим математику апостериорной вероятности, также известной как теорема Байеса. Это основная часть наивного байесовского классификатора. Наконец, мы исследуем библиотеку sklearn для python и напишем небольшой код на наивном байесовском классификаторе на Python для проблемы, которую мы обсуждаем в начале. Эта глава разделена на две..

Ответственная разработка искусственного интеллекта с помощью LifeChain™ от YawLife для использования в робототехнике и…
В YawLife мы стремимся сократить количество фейковых новостей и нарушений авторских прав, одновременно предоставляя правдивую человеческую информацию. Наша разработка искусственного интеллекта может использовать эту основу фундаментальных истин через байесовскую вероятность , придерживаясь основного, лежащего в основе морального компаса. Это должно помочь в ответственном развитии А.И. пересечь границу. Будущая интеграция с роботами может позволить LifeChain™ гарантировать, что..