Публикации по теме 'probability'


Объяснение концепций нейронных сетей —  Что такое логиты
Базовая нейронная сеть выглядит так, как показано ниже. Можете ли вы догадаться, что такое логиты? # Define model class ClassificationNetwork(nn.Module): def __init__(self): super().__init__() self.flatten = nn.Flatten() self.linear_relu_stack = nn.Sequential( nn.Linear(28*28, 512), nn.ReLU(), nn.Linear(512, 512), nn.ReLU(), nn.Linear(512, 10) ) def forward(self, x): x =..

Теория вероятностей: объяснение предсказания неопределенности
Наше будущее, как мы все знаем, неопределенно. Используя методы, доступные прямо сейчас, почти невозможно предсказать будущее. Но мы все равно строим планы на будущее, предполагая, что все пойдет определенным образом. Но как мы можем сделать такое предположение? Люди имеют ограниченные знания о многих вещах, происходящих вокруг нас. Предсказать исход действия без полного знания о предмете невозможно. Но мы все же можем сделать некоторые предположения, исходя из доступного объема знаний...

5-минутное руководство о том, почему важна теорема Байеса
На первый взгляд теорема Байеса кажется чрезвычайно простой. Доказательство можно записать в несколько строк: Используя свойство условной вероятности, Разделите на P(B) и получите теорему Байеса. Почему важна теорема Байеса Важность теоремы Байеса заключается в ее интерпретации. Аналогия есть в физике. Эйнштейну приписывают открытие специальной теории относительности, но преобразование между различными системами отсчета называется преобразованием Лоренца. Сама формула..

Ресурсы онлайн-обучения
Я получил этот список в Telegram и подумал, что им нужно поделиться с как можно большим количеством людей. Вот весь список, и я считаю, что это окажется полезным. Линейная алгебра — 1.) Академия Хана: https://www.khanacademy.org/math/linear-алгебра 2.) Автор AAIC: https://youtube.com/playlist?list=PLupD_xFct8mEYg5q8itrFDuDaWKDtjSj_ 3.) По MIT Open Course-Ware: https://www.youtube.com/playlist?list=PL221E2BBF13BECF6C 4.) Имперский колледж Лондона:..

Перспектива новичка  — «Изучение науки о данных, машинного обучения и искусственного интеллекта с нуля». часть 6
Конечные выборочные пространства Предположим, что S конечно и S = ​​{s1,s2,s4,s4,...,sn-1,sn}. Конечные выборочные пространства позволяют нам эффективно вычислять вероятности определенных событий. Теперь предположим, что A является подмножеством S, тогда вероятность P(A) представляет собой сумму всех вероятностей при условии, что они принадлежат множеству A. Пример: скажите, что вам дарят 4 игрушечных мяча, 2 красных, 1 зеленый, 1 синий. Каковы шансы, что вы возьмете синий..

np.случайный? Генерация случайных чисел с помощью NumPy (просто!)
Генерация случайных чисел может быть очень полезна во многих отношениях. Например, вы можете создать случайный набор данных для тестирования вашей модели машинного обучения или использовать случайный набор данных для практики визуализации. Однако генерировать случайный набор чисел путем ввода каждого числа очень обременительно. Вместо этого вы можете легко сгенерировать случайный набор чисел в Python с библиотекой Numpy. В этой статье мы рассмотрим некоторые способы генерации случайных..

От теоремы Байеса к машинному обучению: раскрытие возможностей вероятностного вывода
Теорема Байеса — это статистическая формула, которая веками использовалась для предсказаний и принятия решений на основе неполной или недостоверной информации. Он нашел широкое применение в таких областях, как медицина, инженерия и финансы. В последние годы теорема Байеса стала важным инструментом в области машинного обучения, позволяющим делать более точные прогнозы и усложнять процессы принятия решений. В основе теоремы Байеса лежит идея вероятностного вывода. Вероятностный вывод — это..