Публикации по теме 'xgboost'


Урок 23 — Алгоритмы повышения: AdaBoost, повышение градиента и XGBoost (интуиция)
В этом уроке мы углубимся в бустинг, метод ансамблевого обучения, который последовательно объединяет несколько моделей для повышения точности. Мы сосредоточимся на построении интуиции вокруг трех популярных алгоритмов повышения: AdaBoost, Gradient Boosting и XGBoost. AdaBoost (адаптивное повышение). AdaBoost — один из первых разработанных алгоритмов повышения. Он обучает последовательность слабых моделей (обычно неглубокие деревья решений) на обучающих данных. Каждая модель..

Повышение градиента
Краткий обзор Gradient Boosting — это популярный ансамблевый метод машинного обучения, похожий на Random Forest. Он основан на идее объединения нескольких слабых моделей или «базовых учащихся» для формирования более сильной модели. В отличие от Random Forest, который выращивает деревья независимо, Gradient Boosting строит деревья поэтапно, где каждое дерево строится поверх предыдущего. Одним из ключевых преимуществ Gradient Boosting является то, что он может работать с различными..

Используйте это, чтобы делать более точные прогнозы акций
В этой статье вы узнаете, как делать более точные прогнозы акций. Тестирование на исторических данных — это общий метод проверки того, насколько хорошо стратегия или модель работали бы постфактум. Тестирование на истории оценивает жизнеспособность торговой стратегии, обнаруживая, как она будет работать, используя исторические данные. Если ретроспективное тестирование сработает, трейдеры и аналитики могут с уверенностью использовать его в будущем. Общие сведения об обратном тестировании..

Подробный обзор XGBoost, часть I
XGBoost — одна из самых популярных и высокоточных моделей, которую с готовностью используют специалисты по данным. XGBoost — это модель, основанная на повышении градиента, с дополнительными функциями, которые делают модель более эффективной и быстрой. Одна из причин популярности связана с Масштабируемостью . Его можно использовать в различных задачах, начиная от простой регрессии/классификации и заканчивая обнаружением движения и классификацией текста. В этом посте я подробно расскажу о..

Использование сохраненных моделей XGBoost в Java
Несколько недель назад я опубликовал статью , описывающую, как можно сохранить модель XGBoost, созданную в Python, в виде файла. Python отлично подходит для создания моделей машинного обучения, но установка тяжелых библиотек машинного обучения в системах с ограниченными ресурсами может оказаться невозможной. Вам также может понадобиться работать с существующими стеками и средами, в которых модель может быть загружена на другом языке. Онлайн-документация XGBoost содержит инструкции..

Супер простое прогнозирование цен на акции Python (с использованием XGBoost) Машинное обучение
Машинное обучение для прогнозирования роста и падения цен на акции на следующий день с использованием XGBoost в Python 1. установка инструмента $ pip install install scikit-learn xgboost pandas-datareader 2. создание файла 3. исполнение $ python pred.py Это очень просто! 4. результат В результате расчета с одинаковыми данными и признаками MLP оказались лучшими среди XGBoost , DNN , LSTM , GRU , RNN , LogisticRegression , k-ближайшего соседа , RandomForest..

XGBoosting против повышения градиента
В чем отличия и какой алгоритм лучше? Машинное обучение и искусственный интеллект оказывают глубокое влияние на мир, а Gradient Boosting и XGBoosting — это лишь два из многих алгоритмов машинного обучения, используемых сегодня. Однако в чем разница между этими двумя алгоритмами? Что такое алгоритмы машинного обучения? Алгоритмы машинного обучения — это математические модели, которые позволяют компьютерам учиться на данных без необходимости явного программирования человеком. Эти..