Публикации по теме 'boosting'


Повышение градиента в действии — Бумеранг аналитики
В наши дни модели повышения градиента (GBM) стали популярным инструментом для многих специалистов по данным. Его эффективность для превращения относительно плохой гипотезы в хорошую сделала его незаменимым инструментом в наборе инструментов каждого аналитика. Контур В этой статье рассматриваются следующие разделы в рекомендуемом порядке, однако вы можете свободно переключаться между разделами. Представляем GBM как метод повышения и сравниваем его с ванильным методом повышения,..

Как создавать ансамблевые модели с помощью Rapid Miner
Что такое ансамблевые модели? На этапе обучения мы можем использовать определенный алгоритм и получить модель из имеющихся данных. Но это будет не самая оптимизированная модель, которую вы получите для конкретного набора данных, поскольку это всего лишь один алгоритм, и этот алгоритм будет слабым алгоритмом. Затем вам, возможно, придется попробовать разные алгоритмы, чтобы получить оптимизированную модель. Вместо этого вы можете попробовать объединить несколько возможных слабых..

Помощник по нейронной сети
Идея этой статьи состоит в том, чтобы обучить вспомогательную нейронную сеть специально на данных, с которыми наша основная сеть борется. Встроенная иерархия между сетями, аналогичная Бэтмену и Робину, поможет модели работать лучше. Ансамблевое обучение - очень захватывающая концепция, несмотря на вычислительные сложности. Существует два доминирующих класса ансамблевых методов обучения: бэггинг и бустинг. При упаковке случайные выборки из обучающих данных используются для построения..

Понимание AdaBoost
Что такое AdaBoost Любой, кто начинает изучать технику Boosting, должен сначала начать с AdaBoost или Adaptive Boosting. Здесь я попытаюсь концептуально объяснить это. Когда ничего не работает, работает Boosting. В настоящее время многие люди используют XGBoost, LightGBM или CatBoost, чтобы выигрывать соревнования на Kaggle или Hackathons. AdaBoost - это первая ступенька в мире Boosting. AdaBoost - один из первых алгоритмов бустинга, который можно адаптировать в практике..

Методы ансамбля: бустинг
Как работает бустинг? Идея повышения Используйте много слабых учеников (предикторов), которые хорошо справляются с классификацией по-разному. Слабые ученики Предиктор, который лишь немного коррелирует с фактическим прогнозом. В общем… много «хороших» предикторов, которые объединяются в один хороший предиктор. Что такое продвижение? Метод взвешенного ансамбля. В отличие от бэггинга, бустинг использует разные веса для получения разных предикторов. Увеличьте веса для..

Краткое руководство по библиотеке LightGBM
LightGBM (LGBM) - это библиотека для повышения градиента с открытым исходным кодом, которая приобрела огромную популярность и любовь среди практиков машинного обучения. Он также стал одной из популярных библиотек в соревнованиях Kaggle. Его можно использовать для обучения моделей на табличных данных с невероятной скоростью и точностью. Такая производительность является результатом того, как LightGBM выполняет выборку данных ( GOSS - односторонняя выборка на основе градиента) и..

Градиентный спуск — оптимизация черного ящика
Английское определение слова «оптимизация» — это «действие по наилучшему или наиболее эффективному использованию ситуации или ресурса». Точно так же в машинном обучении (ML) и искусственном интеллекте (AI) идея повышения производительности модели одна и та же. Но как проверить производительность модели? Ответом на этот вопрос являются Функции стоимости . В ML функции стоимости оценивают, насколько плохо работает модель. Он количественно определяет ошибку между желаемым значением и..