Как работает бустинг?
Идея повышения
Используйте много слабых учеников (предикторов), которые хорошо справляются с классификацией по-разному.
Слабые ученики
- Предиктор, который лишь немного коррелирует с фактическим прогнозом.
В общем… много «хороших» предикторов, которые объединяются в один хороший предиктор.
Что такое продвижение?
Метод взвешенного ансамбля.
- В отличие от бэггинга, бустинг использует разные веса для получения разных предикторов.
- Увеличьте веса для примеров, в которых более ранние предикторы могли ошибаться.
- Тренируйте последовательное обновление на основе ошибок.
Процесс повышения
Первый шаг:
- Используйте подмножества исходных данных для создания серии среднеэффективных моделей.
Второй шаг:
- Повысьте производительность этих моделей, используя определенную функцию стоимости для объединения предикторов для минимизации ошибок.
- Эта функция стоимости варьируется в зависимости от функции повышения
- Например: Gradient Tree Boosting использует градиентный спуск.
Методология загрузки
Усиление в ядре
- Методы бустинга в основном связаны с уменьшением систематической ошибки.
- Хочет более точно предсказать каждую точку данных.
- Процесс итеративного уточнения оценочных функций регрессии и классификации с целью улучшения предсказательной способности
- Он делает это путем повторного взвешивания данных примера
Процесс повторного взвешивания
- Придавайте больше значения неправильно классифицированным примерам
- Заставляет этих слабых учеников тратить большую часть своего «внимания» на самые сложные примеры.
- Это, однако, игнорирует слабых учеников с лучшими прогнозами на раннем этапе.
Проблемы с прокачкой
- Сложнее настроить модель из-за всех параметров
- Потеря интерпретируемости
- Как все разные слабые ученики взаимодействуют друг с другом
- Вычислительно дорого
- Тенденция как метод черного ящика