Введение

В этой статье рассказывается о подходе к машинному обучению для начинающих с примерами, ориентированными на человека, которые помогают лучше понять.

Эта статья посвящена основам ансамблевого обучения, общим терминам, используемым в ансамблевом обучении, и их алгоритмам. В этой статье предполагается, что читатели являются новичками.

Давайте поговорим об ансамблевом обучении в машинном обучении. Ансамблевое обучение — это мощный метод улучшения уровней прогнозирования модели, он объединяет прогнозы из нескольких моделей для формирования точного и лучшего прогноза. Это также метод, с помощью которого мы можем сказать, что две головы лучше, чем одна, мудрость толпы или множество предсказаний лучше, чем одна.

Было бы лучше объяснить, что такое модель. Модель представляет явление, которому научился алгоритм машинного обучения. (Это просто означает, что модель представляет то, чему научили алгоритм, то есть модель представляет собой представление того, что знает алгоритм)

Машинное обучение с учителем применяет ансамблевое обучение там, где применяется классификация и регрессия.

Задача классификации: когда ансамблевая модель использует наиболее частое предсказание. (Делает наиболее частый прогноз, и используется наиболее частый прогноз.)

Задача регрессии: когда ансамблевая модель использует совокупность или среднее значение прогнозов.

Мы не можем говорить об обучении ансамблем, не говоря о методах и их алгоритмах.

Давайте будем принимать их постепенно и переваривать.

1. Классификатор голосования:обучение многих моделей машинного обучения и обучение различным алгоритмам, а также объединение этих различных моделей и алгоритмов для выполнения прогноза. Ориентированный на человека пример поможет лучше понять это. ( Группа из 12 футболистов тренируется тренером, а другая группа из 12 футболистов тренируется тем же тренером. Две команды объединяются, чтобы выбрать совокупность точных игроков из команды 24 игроков, выбрав точных 12 игроков. Лучшие 12 игроков, выбранные из команд, состоящих из 24 игроков, являются классом, набравшим наибольшее количество голосов из прогноза ансамбля (взяв игроков в качестве модели машинного обучения и приняв тренера в качестве тренера модели машинного обучения).

2. Упаковка и вставка: вместо обучения разных моделей и разных алгоритмов для получения разных прогнозов. Одна обучающая модель используется с прогнозом, но обучается с помощью разных обучающих наборов. Используя аналогию игроков и тренера. Это означает, что вместо использования разных команд игроков используется один и тот же набор игроков, но тренер меняется, чтобы получить прогнозы игроков. Алгоритмы бэггинга:

(i) Дерево решений в пакетах

(ii) Случайный лес

(iii) Дополнительные деревья

Бэггинг. Бэггинг использует тот же обучающий набор для прогнозирования с заменой подмножества. (Аналогия командного игрока, предоставленного в аренду другой команде, лучше всего описывает здесь модели Бэггинга)

Вставка. Вставка — это когда одну и ту же модель обучения нельзя использовать для прогнозирования, при этом модель обучения не может появляться в наборе данных более одного раза. (Аналогия с командным игроком на свободном трансфере лучше всего описывает здесь модель склеивания.)

Вот объяснения алгоритмов Бэгинга: т.е.

(i) Случайный лес:случайный лес — это метод формирования пакетов, который состоит из деревьев решений, которые обучаются на различных подмножествах данных, чтобы делать прогнозы (т. е. каждое дерево учится только на подмножестве признаков).

(ii) Дерева решений. Дерево решений использует контролируемое машинное обучение, чтобы делать прогнозы относительно того, как был задан предыдущий набор вопросов и на него были даны ответы. (Дерево решений не дает прямого ответа, но дает путь к ответу, по которому прямой ответ может быть выведен или определен. (Примером применения деревьев решений является механизм рекомендаций клиентов?).

3. Увеличение: алгоритмы повышения создают последовательность моделей, используя модель, которая использовалась ранее, но вместо выборки разновидностей различных подмножеств данных; предикация осуществляется моделями, пытающимися исправить модель перед ними в последовательности. Бустирующие классификаторы также можно назвать последовательным обучением моделей. Результаты объединяются, чтобы делать прогнозы. (Использование аналогии с командным игроком подразумевает, что в команде используется тот же набор игроков, но вместо того, чтобы использовать другого тренера, тот же тренер исправляет ошибки игроков, чтобы предсказать способность команды выиграть матч.)

Алгоритмы повышения:

(i) AdaBoost: когда модель машинного обучения обучается в ансамбле, в котором неправильно классифицированные модели получают больше внимания. (Используя аналогию с командными игроками, подразумевается, что над плохим футболистом будут работать или обучать, чтобы он стал хорошим игроком. Чем выше производительность игрока, тем выше его участие в командных футбольных матчах.

(ii) Повышение градиента: повышение градиента обучается с использованием итерации в качестве AdaBoost, каждая модель исправляет своего предшественника, подстраиваясь под свои ошибки. (Использование аналогии с футболистом подразумевает, что футболист исправляет ошибку другого командного игрока, делая то, что он должен делать.)

4. Стекирование. Сложение можно лучше всего объяснить, используя одни и те же данные, но разные алгоритмы, такие как K-INN, ДЕРЕВО РЕШЕНИЙ и SVM (Машины опорных векторов), в котором различные алгоритмы обеспечивают алгоритмы окончательных решений. Модели обучаются, и их прогнозы используются в качестве входных данных блендера. Ожидается, что по окончании обучения модели блендер возьмет выходные данные ансамбля и смешает их, чтобы получить максимальную точность общей модели. (Используя аналогию с футболистом, это означает, что вместо того, чтобы покупать другого игрока из других команд, мы можем научить наших игроков играть так же, как игрок, которого мы хотели купить). Его также можно назвать модельным сравнением.

Ансамблевое обучение можно применять везде, где также могут применяться методы машинного обучения.

В заключение, читатели смогли узнать об обучении ансамбля самым простым способом, а также смогли узнать об алгоритмах обучения ансамбля.

Я уверен, что эта статья заложит надежную и прочную основу для понимания ансамблевого обучения. С нетерпением жду моей следующей статьи, основанной на аспекте кода ансамблевого обучения, где модель машинного обучения будет обучаться с использованием Python. Спасибо.