Случайные переменные не имеют специального цвета. Но случайные переменные имеют особую геометрию, как и ее ожидания. Эта статья углубляется в мир геометрии случайных переменных, где мы исследуем визуальный секрет, лежащий в основе ковариации и дисперсии, а также геометрии условных ожиданий.

Вы можете перейти к разделу резюме и получить спойлеры или прочитать эту историю в потоке. Выбор остается за вами.

Случайные переменные являются основными строительными блоками моделирования реальных событий в рамках теории вероятностей. Как они определены?

Случайная переменная с действительным значением - это функция, скажем,

X: набор результатов → Действительные числа

Например

Предположим, что в азартных играх вы получаете 100 рупий за получение простых чисел при броске кости, а в противном случае вас оштрафуют на 130 рупий. Поэтому, естественно, вы будете заинтригованы, узнав, сколько вы выигрываете в среднем, потому что на основе этого вы решите играть в эту игру или нет. Чтобы понять и смоделировать сценарий, нам понадобятся следующие случайные величины.

X = Выигрышная функция: {1,2,3,4,5,6} → Действительные числа, где

X(1)= X(4) = X(6) = -130

X(2)= X(3) = X(5) = 100

Теперь проанализируйте X, чтобы решить, будем мы играть или нет.

Визуальный секрет 1

Случайные переменные выглядят просто как векторы. Вы имеете в виду отрезок прямой с направлением и величиной? да. Но на самом деле это предназначено для детей.

Вы должны смотреть на это с точки зрения векторных / линейных пространств.

Что такое Векторное / линейное пространство?

Это набор объектов (называемых векторами), которые при увеличении и добавлении к другому вектору уже находятся внутри этого пространства. Кроме того, нам нужно иметь начало координат для определения системы координат (системы отсчета).

Примеры

  1. Вещественные числа
  2. Евклидова плоскость (2D-плоскость)
  3. Трехмерное пространство

Случайные переменные образуют векторное / линейное пространство.

Это легко увидеть. Почему?

Возьмите любую случайную величину с действительным знаком. Умножьте на него константу, это все равно случайная величина. Добавьте его к другой случайной величине с действительным знаком, это все равно случайная величина. Нулевая случайная величина является источником.

Набор вещественных случайных величин с конечной дисперсией образует векторное пространство. Каждая такая случайная переменная является вектором.

Теперь вы можете думать о случайной переменной как о линии, выходящей из начала координат, с высоко поднятой головой и изображенной этим.

Упражнение 1. Постоянные случайные величины образуют одномерное подпространство всего линейного пространства случайных величин.

Мы свяжем это пространство с математическим ожиданием случайной величины.

Визуальный секрет 2

Набор Ожиданий действительных случайных величин такой же, как набор R реальных чисел.

Следовательно, мы можем представить ожидание случайной величины с действительным знаком как точку на Строка вещественного числа.

Примечание. Для реальных двух векторных случайных величин ожидаемый набор будет таким же, как и для 2D-плоскости. Это можно обобщить.

У ожидания есть прекрасные линейные свойства.

E(aX+bY) = aE(X) + bE(Y)

E - это линейная карта из линейного пространства случайных величин в линию действительных чисел, которая имеет взаимно однозначную связь с подпространством постоянных случайных величин, верно?

Это означает, что мы можем написать, что

Ожидание (E) - это линейная карта из линейного пространства случайных величин в себя. Более того, ожидание - это карта-проекция.

Почему проекция?

E (E (X)) = E (X). Карта ожиданий, примененная дважды, аналогична применению один раз.

Визуальный секрет 3

Какая геометрия стоит за ковариацией Cov (X, Y)?

Обратите внимание, что Var (X) = Cov (X, X). Таким образом, геометрия Cov (X, Y) откроет геометрию Var (X).

Отметим следующие свойства ковариантности.

  1. Cov (aX, Y) = aCov (X, Y)
  2. Cov (X + Z, Y) = Cov (X, Y) + Cov (Z, Y)
  3. Cov (X, X) = Var (X) всегда неотрицательно.

Вы знаете, почему эти свойства особенные?

Это те же самые свойства, за которыми следует скалярное произведение двух векторов. Обычно они называются внутренним продуктом.

Итак, что измеряет внутренний продукт?

Внутренний продукт помогает нам измерить угол между двумя векторами и длину вектора. Итак, Ковариация. Как?

Думайте о ковариации как о скалярном произведении двух векторов.

Давайте посмотрим больше на его свойства.

  1. Cov (X, Y) = 0 тогда и только тогда, когда X и Y линейно некоррелированы. Это означает, что линейно нулевая корреляция - это то же самое, что и ортогональность двух случайных величин.
  2. Var (X) = Cov (X, X) = Квадрат длины X (как вектор).
  3. Cor (X, Y) измеряет степень линейной связи между X и Y. Cor (X, Y) = cos (θ), где θ - угол между X и Y.
    Таким образом, -1 ≤Cor (X, Y) ≤ +1
  4. Cor (X, Y) = ± 1 тогда и только тогда, когда cos (θ) = ± 1, если и только если угол между X и Y равен 0 или 180 °. Таким образом, X и Y линейно зависимы.

Визуальный секрет 4

Мы не обнаружим геометрию E (Y | X).

Интуитивно, что это значит? Это означает количество Y, объясненное X. Почему?

Мы уже видели, что Expectation - это проекционная линейная карта. Но как насчет условного ожидания? Это тоже проекция?

Геометрия

Мы знаем это

E(E(Y|X)) = E(Y)

Ковариация будет равна 0 тогда и только тогда, когда E (E (Y | X)) = E (Y).

Следовательно, E (Y | X) i - это проекция Y на подпространство, порожденное X из-за сглаживающего свойства математического ожидания.

Y = [Y — E(Y|X)] +[E(Y|X)]

Упражнение: Докажите, что E (Y | X) - это линейное проекционное отображение линейного пространства случайных величин на случайные величины, натянутые на X.

Это потому, что X и Y - E (Y | X) перпендикулярны друг другу. Это означает,

Cov (X, Y) = Cov (X, E (Y | X))

Упражнение: Докажите, что Cov (E (Y | X), Y - E (Y | X)) = 0

Резюме

  1. Пространство случайных величин с конечной дисперсией - это линейное пространство.
  2. E [X] - это линейная карта проекции.
  3. Cov (X, Y) - внутренний продукт линейного пространства случайных величин.
  4. Cor (X, Y) = cos (θ), где θ - угол между X и Y
  5. X и Y ортогональны, что означает, что они линейно независимы.
  6. E [. | X] - это линейная проекция карты на пространство случайных величин, натянутое на X.
  7. E [Y | X] - это проекция Y на подпространство, охватываемое X.
  8. X и Y - E (Y | X) ортогональны друг другу. Это эквивалентно свойству сглаживания E (E (Y | X)) = E (Y).
  9. Y = [Y - E (Y | X)] + [E (Y | X)]
    -
    Ортогональное разложение Y относительно X.
  10. Cov (X, Y) = Cov (X, E (Y | X)). Это интуитивно означает, что часть Y, объясняемая X, является проекцией Y на X, то есть E (Y | X).

Примечание. Это только поможет вам объяснить все, что связано с линейным характером случайных переменных. Например, Cov (X, Y) = 0 не означает, что X и Y независимы.

Я надеюсь, что этот пост дал вам новое понимание пространства случайности и хаоса.

Если вам это нравится, пожалуйста, похлопайте в ладоши и поделитесь этим с коллегами-энтузиастами.

© Сриджит Мукерджи 2020.