Определение:

Теорема Байеса дает возможность пересмотреть наши существующие предсказания или убеждения с учетом новых данных или дополнительной информации. Другими словами, теорема Байеса помогает нам рассчитать апостериорную вероятность события с учетом априорных знаний или вероятности.

Одним из многих приложений теоремы Байеса является байесовский вывод, особый подход к статистическому выводу. Теорема выражает, как степень уверенности, выраженная как вероятность, должна рационально измениться, чтобы учесть наличие соответствующих доказательств.

Это слишком много терминологии и трудно понять любому человеку в первый раз. Не волнуйтесь, давайте попробуем подробно понять теорему Байеса на примере. Я хотел бы объяснить некоторые важные понятия, которые необходимы для понимания теоремы Байеса, когда мы сталкиваемся с ними на нашем пути к пониманию теоремы, чем предоставить эти понятия в начале.

Математический расчет теоремы Байеса:

Теорема Байеса математически выражается следующим уравнением:

Где A и B — события, а P(B) не равно 0.

  • P(A | B) — условная вероятность: вероятность того, что событие A произойдет при условии, что B истинно.
  • P(B | A) — условная вероятность: вероятность того, что событие B произойдет при условии, что A истинно.
  • P(A) и P(B) — вероятности наблюдения событий A и B, где A и B не являются независимыми.

Событие:

Исход — это результат случайного эксперимента, например, бросок игральной кости дает шесть возможных исходов (1, 2, 3, 4, 5 и 6). Однако «событие» — это подмножество результатов, которым присваивается вероятность.

Например, одним из возможных событий является «выпадение единицы на шестигранной кости». Вероятность этого события при одном броске игральной кости равна 1/6.

Вероятность рассчитывается путем подсчета количества способов, которыми может произойти событие, и деления этого числа на общее количество возможных исходов.

Условная вероятность:

Условная вероятность — это мера вероятности события при условии, что другое событие уже произошло, и выражается, как показано ниже.

Вероятность события В при заданной вероятности события А.

Например:

Какова вероятность того, что сумма двух игральных костей, брошенных вместе, будет больше 8, если на первом кубике выпало 6?

Теперь мы знаем, что на одном кубике выпадает 6, когда мы бросаем сразу два кубика и рассматриваем это как событие А. Таким образом, все возможности этого события должны быть ((6,1),(6,2),(6, 3),(6.4),(6,5) и (6,6)) всего 6 возможностей, так как мы не знаем точное число, которое выпадет на втором кубике.

Рассмотрим вероятность увидеть, что общее значение двух игральных костей больше 8, как наше событие B.

Количество способов, которыми это событие B может произойти, учитывая условие, что первый кубик равен 6, равно ((6,3),(6,4) и (6,5)), что составляет всего 3 возможности.

Таким образом, вероятность увидеть общее значение на двух костях больше 8 при условии, что первая кость равна 6.

= P(B | A)

= Р(А и В)/Р(А)

= 3/6.

Примечание. События A и B не являются независимыми событиями, и P(A) больше нуля.

Я надеюсь, что с приведенными выше примерами мы теперь знаем, что такое событие и что такое условная вероятность?

Теорема Байеса:

Давайте начнем понимать теорему Байеса и ее полезность в реальном времени, рассмотрев пример.

Предположим, что мы проверяем набор студентов на болезнь под названием Рамботидис.

  • Из прошлых данных у нас есть статистика, что 20% учащихся будут болеть болезнью Рамботидиса в этот момент времени, что является нашей априорной вероятностью, что означает, что существует 20% вероятность или шанс (20 из 100 студентов), что студенты будут обнаружены с Рамботидисом.
  • Мы проверяем наличие рамботидиса с помощью изменяющего цвет депрессора языка, который обычно становится красным, если у студента есть рамботидис.
  • Тест (Доказательства) правильно определяет заболевание в 90% случаев, когда учащийся действительно болен, т. е. истинно положительный результат. Тест неправильно определяет болезнь в 30 % случаев, когда у учащегося нет болезни, т. е. ложноположительный результат.

Давайте теперь попробуем понять термины True Positive и False Positive.

Помните, что любой тест, который вы проводите в любой области, не является точным на 100%. Всегда будет уровень точности, связанный с тестом. Обычно это достигается путем многократного повторения одного и того же эксперимента.

Ошибка типа I (ложное срабатывание):

Ложное срабатывание также называют ошибкой I типа в контексте статистики. Ошибка типа I состоит в том, чтобы сделать ложный вывод о существовании чего-то, чего на самом деле нет, ложноположительный результат. Если тест правильно определяет наличие болезни, когда она действительно существует, это называетсяИстинно положительный результат.

Например :

Если учащегося проверяют на заболевание, результаты теста оказываются положительными, даже если он / она не болеет, т. е. ложно прогнозируют заболевание.

Есть два других термина, ложноотрицательный и истинно отрицательный, которые являются просто противоположностями истинно положительному и ложноположительному.

Ошибка типа II (ложноотрицательный результат):

Ошибка типа II заключается в ложном выводе об отсутствии того, что действительно присутствует, ложноотрицательный результат. Если тест правильно определяет отсутствие болезни, когда ее на самом деле нет, это называется True Negative.

Например :

Если учащегося проверяют на наличие болезни, результаты теста получаются как Отрицательные, даже если он/она действительно болен, т. е. ложно не предсказывают болезнь.

Ошибка типа I и ошибка типа II также называются статистическими ошибками.

Теперь вернемся к примеру тестирования Рамботидиса.

  • Среди пациентов с Rambotidis у 90% депрессор языка окрашивается в красный цвет.
  • Однако депрессор языка не идеален, а также краснеет в 30% случаев у здоровых студентов.

Теперь входит один из студентов, проходит тест, и его/ее язык окрашивает депрессор языка в красный цвет. Какова вероятность того, что у студента Рамботидис?

Во-первых, мы представим популяцию из 100 студентов, из которых 20 имеют Rambotidis в соответствии с нашей априорной вероятностью.

У 90% больных студентов краснеет депрессор языка, а у 30% здоровых студентов краснеет депрессор языка.

Итак, депрессоры красного языка мы видим у 90% * 20 = 18 больных студентов, и

30% * 80 = 24 здоровых студента.

Какова вероятность того, что у студента с депрессором красного языка есть Rambotidis?

На диаграмме 18 больных студентов с красными депрессорами языка.

Всего 18 + 24 = 42 студента покраснели депрессоры языка.

Представьте себе, что вы залезли в сумку со всеми учениками с красными депрессорами языка и вытащили одного из этих учеников наугад; какова вероятность того, что выбранный вами ученик болен?

Окончательный ответ заключается в том, что учащийся с депрессором красного языка имеет 18/42 = 3/7 = 43% апостериорную вероятность заболеть.

Окончательная апостериорная вероятность может показаться нелогичной:

Тест правильно выявляет рамботидис в 90% случаев, но если тест дает положительный результат, почему вероятность того, что у пациента есть рамботидис, по-прежнему составляет менее 50%?

Ну, это потому, что тест также неправильно «обнаруживает» Рамботидиса в 30% случаев у здорового ученика, и мы начинаем с гораздо большим количеством здоровых учеников, чем больных учеников.

Теперь мы фактически применим тот же принцип, используя математическую формулу теоремы Байеса.

Прежде чем применить теорему Байеса к случаю Рамботидиса, давайте рассмотрим другой пример.

Пример :

Вы планируете пикник сегодня, но утро облачно

  • О, нет! 50% всех дождливых дней начинаются с облачности!
  • Но пасмурное утро – обычное дело (около 40% дней начинаются пасмурно).
  • И это, как правило, сухой месяц (только 3 из 30 дней, как правило, дождливые, или 10%).

Какова вероятность дождя в течение дня?

Для простоты давайте использовать Дождь для обозначения того, что днем ​​идет дождь, а Облако для обозначения облачного утра.

Вероятность дождя с учетом облака записывается как P(Дождь|Облако).

Итак, подставим это в формулу:

  • P (дождь) - вероятность дождя = 10%
  • P(Облако|Дождь) — это Вероятность Облаков, учитывая, что Дождь будет = 50%
  • P(Облако) - Вероятность Облака = 40%

Или вероятность дождя 12,5%.

Возвращаясь к нашему примеру, чтобы найти вероятность того, что у студента есть Rambotidis, когда результаты теста окажутся положительными,

P(Болезнь) = 20% = 0,2

P(Да|Болезнь) = 90% = 0,9

P(Yes) — это вероятность того, что тест ответит "да" всем.

Мы не знаем, какова общая вероятность того, что тест скажет «да»…

— — но мы можем рассчитать его, сложив тех, у кого есть аллергия, и тех, у кого ее нет.

У 20 % есть заболевание, тест говорит "Да" в 90 % случаев

80 % не болеют, тест говорит "Да" в 30 % случаев

Давайте добавим это:

Р(Да) = 20% * 90% + 80% * 30%

= 42%

Это означает, что около 42% населения получат ответ «Да».

Итак, теперь мы можем завершить нашу формулу:

= 42.857

Примерно 43%

Это тот же результат, который мы получили с ложными положительными и ложными отрицательными результатами.

На самом деле мы можем написать специальную версию формулы Байеса только для таких случаев, как показано выше.

Приложения:

1) Примером реального приложения будет прогноз погоды. Наивный байесовский алгоритм — это мощный алгоритм, используемый для построения прогностических моделей для прогнозирования погоды. Температура места зависит от давления в этом месте, процента влажности, скорости и направления ветра, предыдущих рекордов температуры, турбулентности в разных слоях атмосферы и многого другого. Итак, когда у нас есть данные определенного типа, необходимые для прогнозирования значения целевой переменной, мы обрабатываем эти данные с использованием определенных алгоритмов и прогнозируем целевую переменную.

Используемые алгоритмы в значительной степени полагаются на байесовскую сеть и теорему.

2) Это помогает повысить эффективность решения реальных проблем. Когда в 2009 году рейс Air France исчез в Атлантическом океане, ученые разработали байесовскую модель для предсказания местоположения самолета. Модель учитывала такие факторы, как ожидаемый план полета, погода, океанские течения и другие внешние факторы. Затем модель сопоставила вероятность с радиусом 50 миль вокруг ожидаемой зоны крушения. Каждой точке в пределах 50-мильного круга была присвоена вероятность нахождения там самолета. В модели использовался большой набор данных, в котором информация постоянно обновлялась поисковой группой после поиска в определенном месте. Через несколько дней после реализации этой модели самолет был найден. Это показывает, как статистические модели и теория могут помочь повысить эффективность решения реальных проблем.

3) Применение байесовского вывода, которое оказалось очень практичным, — это байесовская фильтрация спама, когда программа может «угадать», является ли данная часть полученного сообщения электронной почты спамом или нет, на основе характеристик ранее полученного спама и электронные письма без спама. Эти характеристики обычно отражают наличие определенных слов в сообщении. Например, наличие слова «Сиалис» в сообщении может быть тесно связано с тем, что сообщение является спамом, в то время как присутствие слова «Nightwish» может быть тесно связано с тем, что сообщение не является спамом.

Чтобы использовать байесовский спам-фильтр, его необходимо «обучить» на большой выборке полученной электронной почты, чтобы определить, какие части электронной почты являются спамом, а какие нет. Затем фильтр позволяет делать выводы, например: «Учитывая, что 75 из 100 сообщений, которые были идентифицированы как спам, имеют эти конкретные характеристики, существует 75%-ная вероятность того, что другое электронное письмо с такими характеристиками будет также
Формулы вероятности, используемые байесовским спам-фильтром: прямо вытекает из теоремы Байеса.

4) Алан Тьюринг в своей работе по взлому кодов Kriegesmarine Enigma.

  • Заново открыл расширение теоремы Байеса Лапласа, чтобы помочь учесть «шпаргалки» для угадывания ключа шифротекста.
  • Тьюринг изобрел теорию информации в рамках тех же усилий. Из-за ограничений он не мог опубликовать его, и Клод Шеннон, работая независимо, сделал то же открытие и получил заслуженные похвалы и признание.

    В основном мы слышим о работе Тьюринга над компьютерами для взлома кода Enigma, но Макгрейн показал, что байесовский анализ Тьюринга имел не меньшее значение для его успеха.

    Вы следует знать, что в 1940-х годах байесовская статистика не имела такого большого значения, как сейчас, и в то время она пользовалась дурной славой у статистиков, предпочитавших выборочную и частотную статистику.

Прочтите эту книгу «Теория, которая не умрет» Шэрон Макгрейн. Вы узнаете не только о Тьюринге, но и о десятках приложений байесовской статистики к проблемам, возникшим во время Второй мировой войны и после нее, вплоть до настоящего времени.

5) Есть много других применений, особенно в медицине, таких как предсказание конкретного заболевания на основе симптомов и физического состояния пациента.

Пожалуйста, оставьте свой отзыв и предложите какие-либо улучшения.

Ссылки: