Публикации по теме 'lightgbm'


XGBoost и LightGBM: совершенные алгоритмы усиленного градиента для исключительной производительности
XGBoost и LightGBM — два самых популярных и мощных алгоритма повышения, используемых в машинном обучении. Эти алгоритмы предназначены для повышения производительности моделей за счет объединения прогнозов нескольких слабых моделей. Алгоритмы повышения работают путем итеративного обучения слабых моделей на остатках предыдущих моделей до тех пор, пока не будет достигнут желаемый уровень точности. XGBoost и LightGBM — это алгоритмы повышения градиента, что означает, что они используют..

Обработка тенденций в прогнозировании временных рядов на основе дерева
Правда в том, что тренда нет Введение Как правило, когда вы видите статьи или руководства по использованию таких моделей, как Xgboost или LightGBM, для решения проблемы временных рядов, автор обращается к неспособности древовидной модели улавливать тренд и прогнозировать за пределами данных. Это рассматривается как проблема, которую необходимо преодолеть. Но на самом деле это фича, а не баг. Функция, которую следует отключать только в том случае, если мы считаем, что наш прогноз..

Предсказать пропущенные значения с оценкой прогноза
Функция, которая возвращает предсказанные пропущенные значения с оценкой предсказания. Если вы занимаетесь традиционным машинным обучением, вы, вероятно, сталкиваетесь с продолжающейся битвой с пропущенными значениями (NaN) в ваших данных. Это имеет место практически в каждом соревновании Kaggle, а также в большинстве наборов табличных данных. там. Здесь я рассмотрю некоторые жизнеспособные подходы. Затем я попытаюсь коснуться аспектов, которые я разработал и которые я вижу..

Линейные деревья в LightGBM
Для этого необходимо использовать базовый API LightGBM вместо API scikit-learn. По-видимому, это было недоступно в более старых версиях — быстрая онлайн-проверка предполагает , что это было доступно для версий выше 3.2.0. Согласно документации , использование линейных деревьев значительно увеличивает использование памяти LightGBM. Выполнение import lightgbm as lgb import numpy as np import matplotlib.pyplot as plt import pandas as pd from sklearn.model_selection import..

Как закодировать модель машинного обучения с использованием Python для обнаружения зависания походки на Kaggle.
Введение Цель этого конкурса — использовать методы машинного обучения для выявления эпизодов тумана посредством анализа данных, собранных с носимого 3D-датчика для поясницы. Это соревнование было опубликовано на Kaggle ( https://www.kaggle.com/competitions/tlvmc-parkinsons-freezing-gait-prediction/overview ). II- Понимание проблемы Что такое замирание походки (FOG)? Замирание походки (FOG) — изнурительный симптом, часто связанный с болезнью Паркинсона. Туман может серьезно..

Легко настраивайте LGBM с помощью optuna
Легко настраивайте LGBM с помощью optuna Привилегии: LGBM == lightgbm (пакет python): реализация Microsoft машин с градиентным усилением optuna (пакет python): автоматизированная среда оптимизации гиперпараметров, которую предпочитают гроссмейстеры Kaggle. Будучи независимым от алгоритма, он может помочь найти оптимальные гиперпараметры для любой модели. Помимо gridsearch, в нем есть инструменты для сокращения бесперспективных следов для более быстрого получения..

Машинное обучение, часть 4 (Random Forest-GBM-XGBoost-LightGBM-CatBoost)
Случайный лес Случайный лес  – это алгоритм машинного обучения. Этот алгоритм объединяет множество деревьев решений и выполняет классификацию , регрессию и другие операции прогнозирования сложных наборов данных. Алгоритм случайного леса основан на создании нескольких деревьев решений и взаимодействии этих деревьев друг с другом. Каждое дерево обучается путем случайного выбора признаков и использования случайной подвыборки (бутстрапной) части набора данных. Таким образом,..