Путь к мечте редко бывает линейным. Путь к счастью должен идти зигзагами.

В этой статье мы узнаем о линейной регрессии и типах линейной регрессии.

ЛИНЕЙНАЯ РЕГРЕССИЯ

- ›Идея регрессии состоит в том, чтобы взять непрерывные данные и найти наиболее подходящую линию для этих данных.

1. ПРЕДСТАВЛЕНИЕ ГИПОТЕЗЫ

  • y = b + m x
  • его также можно записать как: - h (x) = theta (0) + theta (1) x
  • в основном цель регрессии - найти, что такое m & b.

Что лучше всего подходит?

Он может иметь любую форму в зависимости от количества параметров (точка на оси, линия в двух измерениях, плоскость в трех измерениях или гиперплоскость в более высоком измерении).

2. ФУНКЦИЯ РАСХОДОВ

Это позволит выяснить, как подобрать наилучшую возможную прямую линию к нашим данным или, проще говоря: функция стоимости выполняется путем проверки того, что сумма всех расстояний между формой и фактическими наблюдениями в каждой точке является как можно более одинаковой.

ПРИМЕЧАНИЕ. Я показал этот метод только для простой линейной регрессии. вы можете расширить его для множественной линейной регрессии. если вы не знаете, что такое простая и множественная регрессия? тогда не волнуйтесь, продолжайте читать.

Типы линейной регрессии

а). Простая линейная регрессия

Этот метод использует одну независимую переменную для прогнозирования зависимой переменной путем подбора наилучшей линейной зависимости.

б). Множественная линейная регрессия

Этот метод использует более одной независимой переменной для прогнозирования зависимой переменной путем подбора наилучшей линейной зависимости.

В случае множественной регрессии параметры можно найти так же, как и в случае простой линейной регрессии, путем минимизации функции стоимости, используя:

3. Градиентный спуск:

Учитывая функцию, заданную обучающим набором параметров, градиентный спуск начинается со значений начального обучающего набора и перемещается к набору значений, которые минимизируют функцию. эта минимизация выполняется с помощью исчисления с шагом в отрицательном направлении градиента функции.

ПРИМЕЧАНИЕ. Альфа определяет, насколько большой шаг мы делаем при спуске

Некоторые важные свойства градиентного спуска:

  1. Если вы немного измените свой набор где-то, то вы достигнете другого локального минимума.
  2. Если theta (0) и theta (1) инициализированы на локальном минимуме, то одна итерация не изменит их значения.
  3. Различные функции принимают одинаковый диапазон значений, тогда градиентный спуск может сходиться быстрее.

Заключение

В этой статье мы успешно узнали о гипотезе линейной регрессии, функции затрат линейной регрессии, типах линейной регрессии и градиентном спуске линейной регрессии. следите за обновлениями. если вам понравилась эта статья и вы узнали что-то из нее тогда оставьте аплодисменты.

Спасибо, что прочитали :)