Публикации по теме 'ensemble-learning'


Укладка сверточных нейронных сетей
Интуиция и реализация Введение "Привет мир!" Меня зовут Мэтью, и это моя первая запись в мире Medium. Я специалист по данным, который строит вещи с помощью чисел и компьютеров. Не нужно заморачиваться историей моей жизни; Никто из вас не пришел сюда за этим. Эта статья направлена ​​на то, чтобы затронуть два основных момента: Развиваем интуитивное представление моделей стекирования. Я видел так много хороших объяснений для пятилетних детей по бэггингу и бустеру, но редко по..

Случайный мозг
Случайный мозг — это алгоритм машинного обучения, основанный на голосовании, смоделированный по образцу случайного леса. Пользователь указывает модели для добавления в мозг, и мозг делает прогноз на основе обученных моделей. Справочная информация о случайных лесах Случайный лес — это метод ансамбля, полностью состоящий из деревьев решений. Я добавлю ссылку внизу этого раздела для обзора того, как работает дерево решений для тех из вас, кто заинтересован. Случайный лес работает,..

Бэггинг и случайные леса: уменьшение смещения и дисперсии с помощью случайности
В этой статье будет представлен обзор известного метода ансамбля и даже затронута тема случайных лесов. Краткие темы, которые мы рассмотрим: Введение в ансамблевое обучение Бэгинг и его псевдокод Условия использования мешков Плюсы и минусы мешков Случайный лес и его псевдокод Гиперпараметры в случайных лесах Примеры из жизни Построение мешковатых деревьев и классификатора случайных лесов с использованием scikitlearn Итак, приступим! Обучение ансамблем: Изучение..

Случайный лес: пример бэггинга
Обучение ансамблю В предыдущих статьях мы определили бэггинг, рассказали, как бэггинг уменьшает общую ошибку и когда следует рассмотреть возможность использования бэггинга. Теперь пришло время приступить к изучению примеров метода бэггинга. Итак, одним из основных алгоритмов, основанных на бэггинге, является случайный лес. В этой статье мы определим случайный лес как метод ансамблевого обучения, а затем рассмотрим, как он обучает и тестирует данные. Звучит интересно? Тогда давайте..

Классификация машинного обучения с использованием независимых моделей для каждого класса
Классификация машинного обучения с использованием независимых моделей для каждого класса Имеет ли это смысл? Сравнение с голосующими ансамблями Рассмотрим ситуацию бинарной классификации, когда одна модель лучше предсказывает первый класс, а другая модель лучше предсказывает второй класс. Для начала создадим синтетический набор данных : В этот раз ради простоты реализации мы не будем использовать кросс-валидацию, а обойдемся простым сплит обучение/тестирование : Теперь..

Концепция системы рекомендаций по ансамблевому обучению
«Этот блог предназначен для начинающих в глубоком обучении» С тех пор, как люди научились читать и писать, они не нашли простого способа понять контекст чего-либо, кроме текстовых данных. Графические или графические представления не всегда являются плюсом, в то время как текст может упростить задачу для всех, кто умеет читать. Строки, слова, предложения, буквы, символы, абзацы и многие другие формы текстовых данных существуют и используются сегодня. Люди могут естественным образом..

ML25: 7 % лучших в рейтинге Give-Me-Some-Credit на Kaggle
Использование LR, RF, XGBoost с двухуровневым стеком Эта статья очень упрощена . Проверьте репозиторий на GitHub для получения полной информации . После тщательной разработки функций я использовал LR, RF и XGBoost, а затем выполнил двухуровневое стекирование. Наконец, я получил 14,83% (17/924) в общедоступной таблице лидеров и 6,82% (63/924) в частной таблице лидеров , что эквивалентно получению бронзовой медали в этом длительном закрытом соревновании. Обзор (1)..