Линейная регрессия | Машинное обучение

Алгоритм линейной регрессии применяется к задаче контролируемого обучения. Контролируемое обучение - это обучение модели на помеченном наборе данных. Помеченный набор данных - это набор, который имеет как входные, так и выходные параметры.

Модели регрессии определяют значение прогноза на основе независимых переменных. Модель регрессии исследует взаимосвязь между зависимой переменной (выход) и независимыми переменными (входные данные). Различные модели регрессии различаются в зависимости от количества используемых независимых переменных.

Мы обсудим следующие моменты:

Функция гипотезы

Функция затрат (J)

Градиентный спуск

В этом примере выше мы предоставили набор данных переменных, независимую переменную (X) и зависимую переменную (Y). Линейная регрессия выполняет задачу прогнозирования a (y) на основе заданного (x). Итак, этот метод регрессии обнаруживает линейную зависимость между x (входом) и y (выходом). Следовательно, название - линейная регрессия.

Функция гипотезы для линейной регрессии:

Гипотеза - это определенная функция, которая, по нашему мнению (или надеемся), аналогична истинной функции, целевой функции что мы хотим моделировать.

Чтобы получить наилучшую линию регрессии, мы должны найти наилучшие значения θ1 и θ2. При обучении модели она лучше всего подходит для предсказания значения y для данного значения x.

Обновите значения θ1 и θ2, чтобы получить наиболее подходящую линию

Функция затрат (J):

Функция стоимости (J) линейной регрессии - это среднеквадратичная ошибка (RMSE) между прогнозируемым значением y и истинным значением y. Цель функции стоимости - минимизировать разницу ошибок между прогнозируемым значением и истинным значением.

Градиентный спуск:

Значение скорости обучения не должно быть слишком большим.

Мы берем производную (наклон) функции стоимости (j) и, таким образом, обновляем θ1 и θ2 и достигаем минимизации.

Сначала используются случайные значения θ1 и θ2, после чего функция градиента будет обновлять их шаг за шагом. Чтобы обновить θ1 и θ2 одновременно, чтобы минимизировать функцию стоимости. Итак, чтобы мы могли добиться наилучшего соответствия линии, регрессионная модель использует градиентный спуск.

Это образовательный пост, составленный путем компиляции материалов (например, курс профессора Эндрю Нг).