Публикации по теме 'bayesian-machine-learning'


Можете ли вы сделать лучшую мышеловку?
В процессе обучения и улучшения навыков кодирования мне поручили сделать немыслимое… создать алгоритм прогнозного моделирования, имитирующий наивный байесовский классификатор. Формула байесовской вероятности не сложна, она требует только 3 значения. Я не буду вдаваться в подробности, но каждый раз, когда вы видите большую букву «П», это вероятность. Вероятность, которую вы хотите, находится слева от знака равенства, а все остальное — это то, что вам нужно, чтобы предоставить формулу...

Как настроить XGBRanker с перекрестной проверкой, используя BayesSearchCV
Если вы когда-либо имели дело с классическими моделями, такими как XGBClassifier и LGBMClassifier, вы знаете, что их так же легко настроить с помощью перекрестной проверки, как и круговую диаграмму. функция, то пусть тюнер творит чудеса! Но когда дело доходит до тонкой настройки XGBRanker (или любой модели ранжирования, если на то пошло) с перекрестной проверкой, это совсем другая игра. Итак, пристегнитесь и давайте погрузимся в это захватывающее приключение! С вашими старыми добрыми..

Пост 2 из серии «Вероятностное машинное обучение»: Сравнение моделей
Пост 2 из серии «Вероятностное машинное обучение»: Сравнение моделей Чтобы преобразовать необработанные данные в модель машинного обучения, необходимо выполнить множество шагов. Эти шаги могут быть трудными для неспециалистов, и объем данных продолжает расти . Предлагаемое решение кризиса навыков искусственного интеллекта - использовать автоматизированное машинное обучение (AutoML). Некоторые известные проекты - это Google Cloud AutoML и Microsoft AutoML . Задача..

Пришло время узнать о байесовской оптимизации
НОВЫЙ МЕАП Пришло время узнать о байесовской оптимизации Отрывок из книги Куан Нгуен Байесовская оптимизация в действии Что такое байесовская оптимизация? Какую проблему (проблемы) он предлагает решить? Если вы имеете дело с машинным обучением в своей работе и сталкиваетесь с такими проблемами, как оптимизация черного ящика и настройка гиперпараметров, то байесовская оптимизация — это то, о чем вам следует узнать больше. Читайте дальше, если хотите узнать больше. Байесовская..

«Auger превосходит конкурентов по выбранным ими наборам данных»: Google Update
Вскоре после того, как несколько месяцев назад Microsoft выпустила продукт AutoML, мы опубликовали сравнение точности Auger.AI и Azure на выбранных Microsoft наборах данных. Конкретно в своей статье, лежащей в основе подхода AutoML , Microsoft выбрала 89 наборов данных OpenML. Затем, как и в случае с Azure, мы сравнили эту точность с H20 и TPOT. Результаты показали, что Auger на 4,5% лучше, чем у Azure, каждый из которых проводил эксперименты (оценивая множество комбинаций алгоритма /..

Как начать работу с оптимизацией гиперпараметров
Любой сквозной проект машинного обучения можно разделить на несколько этапов: Получить данные Исследовательский анализ данных и визуализация Предварительная обработка и очистка данных Выбрать и обучить модель Оптимизация гиперпараметров (HPO) Представьте свое решение Запускайте, контролируйте и обслуживайте свою систему. В этом посте я подробно расскажу вам о следующих подходах к оптимизации гиперпараметров: Введение Предположим, вы хорошо поняли свои данные,..

Демистификация байесовских моделей: раскрытие объяснимости через значения SHAP
Изучение идей PyMC с помощью SHAP Framework на примере увлекательной игрушки Разрыв между байесовскими моделями и объяснимостью Значения SHAP (Shapley Additive exPlanations) — это основанный на теории игр метод, используемый для повышения прозрачности и интерпретируемости моделей машинного обучения. Однако этот метод, наряду с другими структурами объяснимости машинного обучения, редко применялся к байесовским моделям, которые обеспечивают апостериорное распределение, отражающее..