Линейная регрессия | Машинное обучение
Алгоритм линейной регрессии применяется к задаче контролируемого обучения. Контролируемое обучение - это обучение модели на помеченном наборе данных. Помеченный набор данных - это набор, который имеет как входные, так и выходные параметры.
Модели регрессии определяют значение прогноза на основе независимых переменных. Модель регрессии исследует взаимосвязь между зависимой переменной (выход) и независимыми переменными (входные данные). Различные модели регрессии различаются в зависимости от количества используемых независимых переменных.
Мы обсудим следующие моменты:
Функция гипотезы
Функция затрат (J)
Градиентный спуск
В этом примере выше мы предоставили набор данных переменных, независимую переменную (X) и зависимую переменную (Y). Линейная регрессия выполняет задачу прогнозирования a (y) на основе заданного (x). Итак, этот метод регрессии обнаруживает линейную зависимость между x (входом) и y (выходом). Следовательно, название - линейная регрессия.
Функция гипотезы для линейной регрессии:
Гипотеза - это определенная функция, которая, по нашему мнению (или надеемся), аналогична истинной функции, целевой функции что мы хотим моделировать.
Чтобы получить наилучшую линию регрессии, мы должны найти наилучшие значения θ1 и θ2. При обучении модели она лучше всего подходит для предсказания значения y для данного значения x.
Обновите значения θ1 и θ2, чтобы получить наиболее подходящую линию
Функция затрат (J):
Функция стоимости (J) линейной регрессии - это среднеквадратичная ошибка (RMSE) между прогнозируемым значением y и истинным значением y. Цель функции стоимости - минимизировать разницу ошибок между прогнозируемым значением и истинным значением.
Градиентный спуск:
Значение скорости обучения не должно быть слишком большим.
Мы берем производную (наклон) функции стоимости (j) и, таким образом, обновляем θ1 и θ2 и достигаем минимизации.
Сначала используются случайные значения θ1 и θ2, после чего функция градиента будет обновлять их шаг за шагом. Чтобы обновить θ1 и θ2 одновременно, чтобы минимизировать функцию стоимости. Итак, чтобы мы могли добиться наилучшего соответствия линии, регрессионная модель использует градиентный спуск.
Это образовательный пост, составленный путем компиляции материалов (например, курс профессора Эндрю Нг).