Один шаг к тому, чтобы стать экспертом в области машинного обучения.

Интуиция, лежащая в основе этого алгоритма, основана на идее мудрости толпы, т.е. когда дело доходит до решения проблем и принятия решений, коллективный разум многих часто превосходит интеллект людей. единственный эксперт.

В большинстве случаев средний показатель - посредственность. В принятии решений часто бывает превосходство. - Джеймс Суровецки

Например: предположим, вы решили купить iPhone. Однако вы не уверены, какую модель выбрать. Итак, вы спрашиваете кучу людей

  • Мобильный лавочник, мнение которого о модели в 60% раз похоже на ваше.
  • Технический обозреватель YouTube, который в 80% раз похож на ваше мнение о модели.
  • Ваш близкий друг, который в 70% раз похож на ваше мнение.

Хотя по отдельности каждый из них будет иметь некоторую предвзятость, если взять их вместе, вероятность того, что они ошибаются одновременно, равна-
P = (1–0,6) x (1–0,8) x (1–0,7)
P = 0,024
Это означает, что существует 97,6% (100–2,4) шанс, что их мнение будет хорошим (учитывая, что их мнения независимы друг от друга). На что довольно большая вероятность решиться. Ансамбль работает по схожим убеждениям.

Во-первых, давайте разберемся, Зачем нам ансамблевое моделирование?

В реальных ситуациях обобщение набора данных с помощью одной модели может быть сложной задачей. Некоторые модели смогут хорошо уловить один аспект данных, в то время как другие преуспеют в захвате чего-то другого.
Помогает моделирование ансамбля уменьшает количество ошибок и делает прогнозы там, где окончательные показатели оценки (например, точность / точность) лучше чем они есть для каждой отдельной модели.

Комбинированная сила моделей компенсирует отклонения и смещения отдельных моделей.

Одна веточка ломается, но пучок веток крепок.

Итак, мы можем определить ансамблевое моделирование как метод машинного обучения для объединения нескольких моделей машинного обучения для создания одной оптимальной модели.

Ансамблевое моделирование (методы) можно разделить на:

  1. Последовательные ансамблевые методы.
  • Повышение.
  1. Параллельные ансамблевые методы.
  • Упаковка и оклейка.
  • Укладка.

В последовательных ансамблевых методах базовые учащиеся или отдельные модели создаются последовательно для повышения производительности модели. а в методах параллельного ансамбля базовые учащиеся генерируются независимо или одновременно с данными обучения.

Повышение:

По сути, это объединение нескольких слабых учеников в одного сильного ученика. Он обучает модели последовательно, каждая пытается исправить своего предшественника.

  1. AdaBoost - здесь новый предсказатель уделяет немного больше внимания неверно классифицированным обучающим экземплярам или экземплярам, ​​которые не соответствовали предыдущей модели.
  2. GradientBoosting - здесь новый предсказатель подбирается с учетом остаточных ошибок, сделанных предыдущим предсказателем. Преимущество структуры повышения градиента заключается в том, что не нужно выводить новый алгоритм повышения для каждой функции потерь, которую можно использовать, вместо этого это достаточно общая структура, так что любая дифференцируемая функция потерь можно использовать.

Упаковка и вставка:

Пакетирование, которое обычно называется B ootstrap AGG regat ING, представляет собой подход к ансамблевому обучению, при котором задан обучающий набор, несколько различных обучающих образцов (так называемый bootstrap образцы) создаются путем выборки с заменой из исходного набора данных. Затем для каждого образца начальной загрузки строится модель. Затем отдельные прогнозы объединяются для формирования окончательного прогноза.

Когда выборка выполняется без замены, это называется вставкой.

RandomForest - представляет собой набор деревьев решений, обычно обучаемых с помощью метода упаковки. Случайные леса приводят к большему разнообразию деревьев, в результате чего более высокая систематическая ошибка (из-за разбиения функций на подмножества) обменивается на более низкую дисперсию, что в целом дает лучшую в целом модель .

Укладка:

Стекинг - это метод ансамблевого обучения, позволяющий комбинировать несколько моделей классификации с помощью метаклассификатора или блендера. Он обучает новую модель выполнять агрегирование вместо использования каких-либо конкурирующих функций.

Таким образом, ансамблевое обучение часто повышает эффективность прогнозирования, но оно также связано с высокой вычислительной сложностью, а полученные выходные данные также могут быть трудными для анализа.

Итак, мы должны опробовать различные алгоритмы, включая ансамблевые методы, чтобы получить лучший прогноз для конкретного набора данных.

Если у вас есть предложения или отзывы, напишите мне по электронной почте [email protected].