Этот блог, вдохновленный курсом теории вероятностей, который я изучаю, представляет собой попытку объяснить основы математической теории вероятности на интуитивном уровне. Как следует из названия, этот пост в значительной степени предназначен для всех, независимо от математического уровня или способностей. Будет немного математики, но вы можете пропустить эти разделы. Важные вещи находятся между математикой.

Если вы читаете этот пост, значит, в какой-то момент вы натолкнулись на случай. Случайность переплетается с природой, точно так же, как планеты вращаются вокруг Солнца или когда наш генетический код раскручивается и трансформируется от одного поколения к другому. Но, в отличие от законов движения Вселенной, случайность сомнительна. Каждый раз, когда вы играете в игру с броском кубиков, или забываете проверить погоду перед тем, как выйти на улицу, или нажимая кнопку «Далее» в сервисе потоковой передачи музыки, вы делаете ставку на случай. И все это без уверенности в том, какую руку сыграет вселенная.

Как мы знаем, вероятность того, что что-то произойдет, - скажем, вы выбросите 6 или что по дороге домой будет светить солнце *. Вероятность - это мера вероятности того, что что-то произойдет, то есть вероятность того, что вы выбросите 6, равна 1 из 6 (при условии, конечно, что игра в кости такая, как вы ожидали).

Говоря обыденным языком, вероятность - это наше лучшее предположение при попытке предсказать, что такое природа, и давайте посмотрим правде в глаза, что человечество припасло. Например, вам может быть интересно, какова вероятность того, что сегодня у вас будет три восхитительно выглядящих пончика, покрытых посыпкой (например, выше).

Теория вероятностей - это наша попытка измерить неопределенность во Вселенной.

* Это прекрасный пример того, как вселенная играет на руку. Когда я начал этот пост сегодня утром, солнце светило настолько ярко, насколько это возможно. Так прошел весь день, за исключением того, что я возвращался домой, когда вот и выпало бегущее облако. Непредвиденный!

Математические исследования случайностей и вероятностей восходят к Италии и Франции 16 века. В то время математики эпохи Возрождения Гераламо Кардано, Пьер де Ферма и Блез Паскаль в основном занимались вычислением своих шансов на победу в играх в кости. Однако современная теория вероятности в том виде, в каком мы ее знаем, была развита в 20 веке после развития теории меры.

Целью теории меры было создание систематического метода для сравнения относительных размеров множеств в математике. Поскольку вероятность наступления события - это как раз мера вероятности его наступления, теория меры стала естественной основой для изучения вероятности.

Проблема с теорией меры (для наших целей) в том, что она очень быстро становится великолепно абстрактной. Тем не менее, я попытаюсь ввести математическую основу, в рамках которой изучается вероятность, не углубляясь в теорию меры. Посмотрим, как далеко мы сможем зайти.

Мотивирующий пример

Представьте себе игру в бросание двух честных кубиков. Мы хотели бы измерить вероятность того, что любой бросок кости даст в сумме заданное число. Например, если мы выбрасываем 3 и 6, мы получаем 9. Математически мы можем представить это как функцию X, переводящую пару (3,6) в 9:

X(3,6) → 9

Мы хотели бы рассмотреть совокупность всех таких возможных комбинаций бросков кости. Мы называем это множество Ω (заглавная омега), и мы можем компактно перечислить его как

Ω = {(i,j): 1 ≤ i,j ≤ 6}

Тогда пара (3,6) является членом Ω , что мы записываем: (3,6) ∈ Ω .

Однако, если мы рассмотрим случай, когда сумма данного броска костей равна 9, тогда существует более одной возможной комбинации, то есть пары:

A = {(3,6), (4,5), (5,4), (6,3) }

Оценка X (выборка) на любой из пар в вышеупомянутом наборе даст нам 9. Обратите внимание, что набор A не является элементом (членом) Ω, но он явно содержит элементы Ω! Так что нам нужно что-то на основе Ω, только более обширное.

Это мотивирует концепцию семейства событий *, ℱ, которое содержит все возможные комбинации элементов из Ω, включая всю саму Ω и пустое множество, обозначенное ∅. По сути, ℱ - это набор наборов, так что для единообразия один рулон принимает форму: {(3,6)}.

Тогда множество A является элементом, то есть A ∈ ℱ.

Теперь, когда у нас есть набор событий, мы можем приступить к нашей цели - измерению вероятности этих событий. Математически точный способ, которым мы это делаем, довольно сложен, но интуитивно (и, возможно, даже реалистично) мы можем думать о вероятности события как о вероятности этого события, относительной к общей возможности что-то происходит. С этой целью, если F ℱ - любое событие, то один из способов вычисления его вероятности:

ℙ (F) = размер (F) / размер (Омега)

Разумеется, неоднозначность заключается в том, что мы подразумеваем именно под размером F или Ω, но это обсуждение на другой день! В нашем простом примере это довольно просто:

В случае одного кубика есть 6 исходов броска, назовем их ϴ = {1,2,3,4,5,6}. Есть только один способ выбросить 1, поэтому

ℙ (1) = размер ({1}) / размер (ϴ) = 1/6

На Ω_1 примером элемента семейства событий является {1, 2}, который мы можем интерпретировать как вращающийся 1 или 2, который имеет вероятность

ℙ ({1, 2}) = размер ({1,2}) / размер (Ω_1) = 2/6 = 1/3

В случае двух игральных костей существует 6² = 36 возможных исходов, при этом Ω компактно определяется, как указано выше. потом

ℙ ((1,2)) = размер ({(1,2)}) / размер (Ω) = 1/36

и взяв A, как указано выше:

ℙ (A) = размер (A) / размер (Ω) = 4/36 = 1/9

Оснащенный набором результатов Ω, семейством событий ℱ и мерой вероятности ℙ, у нас есть почти все, что нам нужно, чтобы изложить фундаментальные идеи теории вероятностей. Недостающий ингредиент - это функция, которую мы определили в начале этого раздела: X. Эта функция - сложный объект, и обращение с ней требует некоторой осторожности. Другими словами, немного больше математики, о которой мы вскоре поговорим. А пока я утверждаю, что мы можем использовать X для кодирования случайности в примере игры.

* Технически ℱ - это то, что мы называем 𝝈-алгеброй на Ω.

Настройки

Этот мотивирующий пример дал нам достаточно материала для более общей картины.

Тройка (Ω, ℱ, ℙ) известна как вероятностное пространство, если ℙ (Ω) = 1. В этом случае карта, которая переводит элементы ℱ в числа в интервале [0,1] ,

ℙ:ℱ →[0,1]

называется вероятностной мерой.

Требование( Ω ) = 1 отражает логику, которая в мире ( Ω ,,) что-то должно произойти из Ω .

Элементы A ∈ ℱ известны как события, а элементы 𝛚 (нижний регистр omega) ∈ Ω (эквивалентно {𝛚} ∈ ℱ) называются элементарными событиями (или реализации).

События всостоят из элементарных событий (или их отсутствия, например, события, когда вы не бросили две шестерки).

Следующим шагом является определение понятия случайной величины. Наша интуиция подсказывает, что это должна быть какая-то переменная, принимающая значения случайным образом. С математической точки зрения это не так очевидно для определения. Формальное определение будет следовать нашей интуиции следующим образом:

Когда мы измеряем вероятность события, мы начинаем с измерения вероятности наблюдения события.

В случае примера с игральными костями мы можем наблюдать, как сумма двух игральных костей равна 9 четырьмя способами, перечисленными в элементах набора A. Мы сделаем то же самое в целом, начав с набора результатов и измерив размер. набора возможностей, которые могут привести к такому исходу.

Мы формализуем это следующим образом: пусть X: Ω → ℝ будет функцией, которая отправляет элементарные события из Ω в вещественную линию (т.е. все обычные числа, с которыми мы знакомы). Тогда функция X будет случайной величиной, если прообраз любого подмножества B ⊂ ℝ (символ ⊂ используется, чтобы указать, что B является подмножеством ℝ) содержится в ℱ.

обратный образ функции заданного набора B - это набор элементов, которые она отправляет в B. Для X: Ω → ℝ , это определяется (здесь) как:

X⁻¹(B) = {𝛚 Ω : X(𝛚) B}

где B ⊂ ℝ .

Например, если мы вернемся к функции X из нашего рабочего примера игры в два кубика. Тогда прообраз 9 (взяв {9} в качестве подмножества ℝ) равен

X⁻ ¹({9}) = {(i,j) ∈ Ω : X((i,j)) = 9}

= {(i,j) ∈ Ω : i + j = 9}

= {(3,6), (4,5), (5,4), (6,3)}

= A

Мы знаем, что A ∈ ℱ. Все идет нормально. Фактически, поскольку мы включаем пустое множество, ∅ как часть ℱ, оказывается, что прообраз any подмножества ℝ находится в ℱ. Итак, X удовлетворяет условию * того, что это случайная величина.

* На самом деле это условие является техническим требованием, о котором нам не нужно беспокоиться в большинстве (вычислительных) настроек. Скорее, мы будем больше беспокоиться о том, имеет ли смысл настройки, которые мы в конечном итоге используем.

Случайные переменные и случайность

Возвращаясь к математике с нашей интуицией, как мы интерпретируем формальное условие, что X: Ω → ℝ является случайной величиной, если X⁻ ¹ (B) ∈ ℱ для любого подмножество B ⊂ ℝ действительных чисел? Мы можем думать об этом следующим образом:

Если мы сделаем некоторое наблюдение, B, которое поддается количественной оценке в, то X⁻¹ (B) - это набор возможных событий, через которые случайная величина X приводит к B. Другими словами, относительный размер X⁻¹ (B) - это вероятность того, что B произойдет, что регулируется механизмом случайного генерирования X.

Фактически, это именно то, что мы делаем, когда измеряем вероятность B с помощью вероятностной меры:

ℙ(X⁻ ¹(B)) = ℙ({𝛚 ∈ Ω : X(𝛚) ⊂ B})

Мотивированные этой эквивалентностью, а также стремлением к интуитивной согласованности (обычно мы не думаем о событиях в терминах обратных образов!), Мы можем просто написать

ℙ (X ⊂ B) вместо ℙ (X ^ {- 1} (B))

Мы можем интерпретировать это представление как вероятность того, что случайная величина X попадет в B.

Однако символ сдерживания набора выглядит немного громоздким и предназначен только для технической полноты. Мы можем упростить чтение, написав

ℙ (X = B) вместо ℙ (X ⊂ B)

Мы читаем это как вероятность того, что X равно B, что просто означает вероятность того, что случайная величина X примет значение B .

Возвращаясь к нашему примеру, если мы возьмем B = {9}, а затем просто напишем 9 вместо {9}, мы сможем восстановить обычную запись для вероятности выпадения двух чисел в игре в кости, сумма которых равна 9:

ℙ(X = 9) = 1/9

Наконец, мы можем применить более прямой подход к измерению вероятности, начав с интересующего события, скажем, некоторого A ∈ ℱ, которое генерирует некоторое наблюдение. Чтобы измерить его вероятность, мы начнем с оценки случайной величины этого события:

B = X(A) = {X(𝛚): 𝛚 ∈ A}

Затем рассчитываем:

ℙ(A) = ℙ(X(A) = B) = ℙ(X = B) = ℙ(B)

выбор более четкого обозначения в зависимости от контекста.

Бонус

Для любого множества 𝕌 мы говорим, что происходит почти наверняка (п.в.), если ℙ (𝕌) = 1. Это объясняет заголовок.

Фото Патрика Форе на Unsplash

Первоначально опубликовано на сайте jontysinai.github.io 23 ноября 2017 г.