Алгоритмы и объяснения с кодом

Обучение с учителем — это тип машинного обучения, используемый для «обучения моделей на основе размеченных обучающих данных». Это позволяет использовать для прогнозирования вывода будущих или невидимых данных.

В этом случае следует использовать кабину обучения с учителем, так как все данные являются «помеченными данными».

Использование контролируемого обучения

Погода Инфографика

Фильтрация электронной почты

Рекомендация Нетфликс

Поток контролируемого обучения (понимание алгоритмов)

Данные обучения состоят из входных данных, также известных как «Функции», и выходных данных, также известных как «Метка».

Обучающие данные (вход (x) + вывод (y)) → Обучить алгоритм (обратно спроектировать связь между входом (x) и выходом (y)) → y (выход) - это некоторая функция относительно x (вход) [ y = f (x) ] → Предсказать 'y' для использования нового экземпляра. у = е (х)

Тестирование, Тестирование, Прогноз

Мы делим «Данные» на две части:

Данные для обучения. Мы передаем примерно 70% данных из нашего файла необработанных данных алгоритму машинного обучения, на котором машина обучается.

Тестовые данные. Мы передаем примерно 30% данных из нашего файла необработанных данных алгоритму машинного обучения, на котором машина тестирует себя.

Общие данные прогноза случайным образом распределяются между различными выборками, и выборка выбирается случайным образом.

Прогноз

Новые данные → Модель прогнозирования (используйте алгоритм обучения y + f (x) для прогнозирования производственных данных) → Результат прогнозирования

Предсказание алгоритма можно улучшить, предоставив больше обучающих данных и возможностей или изменив алгоритм.

Типы контролируемого обучения

Существует два типа контролируемого обучения:

Классификация

Регрессия

Когда использовать

Классификация включает в себя предсказание категориальных меток классов. Если целевая переменная является категориальной (классом), используйте алгоритм классификации. Он применяется, когда выход имеет конечные и дискретные значения.

Логистическая регрессия. Логистическая регрессия используется для оценки дискретных значений (двоичных значений, таких как 0/1, да/нет, правда/ложь) на основе заданного набора независимых переменных.

Код для импорта и подгонки модели

из sklearn.linear_model импортировать LogisticRegression

имя_переменной = логистическая регрессия ( random_state = 0 )

имя_переменной.fit(independent_data_train, depend_data_train)

Дерево решений. Дерево решений принимает последовательные иерархические решения о переменной результата на основе предикторов.

Корневой узел: вся совокупность или выборка, которая затем делится.

Разделение: разделение узлов на два или более. подузлы.

Узел принятия решения: подузел разделяется на другие подузлы.

Листовой/конечный узел: узел, который не разделяется.

Ветвь/поддеревья: часть всего дерева.

Родительский узел: узел, который разделен на подузлы, является дочерним узлом.

Код для импорта и подгонки модели

из sklearn.tree импортировать DecisionTreeRegressor

variable_name = DecisionTreeRegressor (random_state = 0)

имя_переменной.fit(independent_data_train, depend_data_train)

Случайный лес: случайный лес – это совокупность деревьев решений, обеспечивающая лучший прогноз и точность, чем дерево решений.

Код для импорта и подгонки модели

из sklearn.ensemble импортировать RandomForestRegressor

имя_переменной = RandomForestRegressor (n_estimator = 300, random_state = 0)

имя_переменной.fit(independent_data_train, depend_data_train)

примечание - n_estimator = количество наборов деревьев.

Наивный байесовский метод. Наивный байесовский метод основан на теореме Байе и работает с предположением о том, что признаки независимы.

Код для импорта и подгонки модели

из sklearn.naive_bayes импортировать GaussianNB

имя_переменной = GaussianNB

имя_переменной.fit(independent_data_train, depend_data_train)

Машины опорных векторов: Машины опорных векторов рисуют гиперплоскость в пространстве признаков, которое разделяет экземпляры на разные категории с полями между ними как можно дальше друг от друга.

Код для импорта и подгонки модели

из sklearn.svm импортировать SVC

имя_переменной = SVC (kernel = ‘ваш выбор зависит от модели’,

случайное_состояние = 0)

имя_переменной.fit(independent_data_train, depend_data_train)

Примечание — ядро ​​может быть «линейным», «rbf» или любым другим в зависимости от вашей модели.