Публикации по теме 'probability'


Проблемы с DS и алгоритмами — ML Coding
Во многих раундах собеседований по ML кандидатов просят продемонстрировать свои навыки кодирования. некоторые из распространенных и основных проблем машинного обучения. Такие раунды помогают определить как навыки кодирования, так и навыки машинного обучения, необходимые для того, чтобы стать первоклассным инженером машинного обучения в некоторых ведущих компаниях. Давайте рассмотрим некоторые из распространенных проблем кодирования ML, которые задают в таких интервью: Проблема 1:..

Анализ тональности твита с наивным байесовским методом
Каждую секунду публикуются миллионы твитов. Это помогает нам узнать, как публика реагирует на конкретное событие. Чтобы понять настроения твитов, мы можем использовать алгоритм классификации наивного Байеса, который представляет собой просто применение правила Байеса. Правило Байеса Правило Байеса просто описывает вероятность события при наличии предварительной информации о наступлении другого события, связанного с ним. Тогда вероятность наступления события A при условии, что..

Кластеризация для эффективного расчета вероятностей победы в конкурсах
Вот соревнование с тремя «быстрыми» лошадьми и несколькими медленными. Как нам быстро оценить вероятность выигрыша? Можем ли мы сделать это эффективно, используя размер решетки, например, 151 вместо 301, как показано? Это суть функции Python, которую вы можете найти здесь , которая используется для расчета государственных цен на скачки с использованием метода кластерных смещений, который имеет дело с ограничениями решетки. Идея: Создайте «размытую» гонку, чтобы получить..

Аксиомы вероятности
Что такое Аксиомы вероятности? Аксиомы вероятности составляют основу теории вероятностей. Есть 3 аксиомы вероятности. Аксиома 1: Неотрицательность Эта аксиома гласит, что вероятность любого события всегда больше или равна нулю. Каждое событие, принадлежащее выборочному Пространству (Ω), имеет вероятность возникновения больше или равную нулю. Оно никогда не бывает отрицательным! Пусть «А» — событие из выборочного Пространства (Ω). • P( A ) ›= 0 , ∀ A ∈ F Вероятность..

Оценка максимального правдоподобия, вероятно, к лучшему (соответствие).
Оценка максимального правдоподобия, вероятно, к лучшему (соответствие). Представьте, что мы наблюдаем сто подбрасываний монеты, двадцать раз выпадаем орлом и восемьдесят раз решкой. Если монета каким-либо образом не изменена, можно предположить, что вероятность выпадения решки по-прежнему равна 0,5. Это может быть неразумно, потому что если бы это было так, мы бы пятьдесят раз видели орла и пятьдесят раз решку. Этого не произошло. Возможно,…

Серия книг по глубокому обучению 3.1–3.3 Функции вероятности массы и плотности
Этот контент является частью серии о главе 3 о вероятности из Книги глубокого обучения Гудфеллоу И., Бенжио Ю. и Курвилля А. (2016). Он направлен на обеспечение интуиции / рисунков / кода на Python по математическим теориям и построен на моем понимании этих концепций. Github : соответствующую записную книжку Python можно найти здесь . Я рад представить здесь следующую из моей серии книг по глубокому обучению Гудфеллоу и др. Это первый пост / блокнот, сделанный из главы 3 о..

Глубокие авторегрессионные модели: краткое введение
В этом блоге мы углубимся в глубокие авторегрессионные генеративные модели (AGM). Авторегрессионные модели возникли из литературы по экономике и социальным наукам для данных временных рядов, где наблюдения на предыдущих шагах используются для прогнозирования значения на текущем и будущих временных шагах [SS05]. Модели авторегрессии могут быть выражены как: