Этот пост предназначен для того, чтобы быстро освежить (таким образом, предполагается, что вы уже знакомы с материалом) регрессии случайного леса (с использованием Python). Вы также можете рассматривать это как FAQ.

Что такое ансамблевое обучение (работа с регрессией случайного леса)? Почему оно считается таким же стабильным по сравнению с деревом решений?

Проще говоря, он строит множество деревьев решений, и для прогнозирования значения мы прогнозируем, используя все построенные деревья решений, и берем среднее значение прогнозов каждого дерева и называем его «Прогнозом».

Он считается более стабильным, потому что, когда мы добавляем больше точек данных, это минимизирует отклонение, поскольку мы берем среднее значение для многих деревьев решений.

***********************************************

Пример кода для реализации регрессии случайного леса?

from sklearn.ensemble import RandomForestRegressor
var_regressor = RandomForestRegressor (n_estimators = 10, criterion = 'mse', random_state = 0)
var_regressor.fit (var_X, var_y) #var_X - массив независимых переменных и var_y это массив зависимой переменной

***********************************************

В чем разница между регрессией дерева решений и регрессией случайного леса с точки зрения разделения, которое происходит при построении модели?

В регрессии случайного леса, поскольку она содержит множество деревьев решений внутри, разделение ч / б интервалов больше (проще говоря, это похоже на комбинацию из более чем одного дерева решений для разделения и, следовательно, гораздо лучшее разделение). Это также означает, что визуально на лестнице будет больше ступенек.

Далее: - Наука о данных (Python) :: R в квадрате

Предыдущая: - Наука о данных (Python) :: Регрессия дерева решений

Если вам понравилась эта статья, нажмите значок ❤ ниже