Математика линейной регрессии

Это первая статья из серии «ЗА МАТЕМАТИКОЙ». Давайте сначала обсудим линейную регрессию, тип алгоритма контролируемого обучения, часто используемый в науке о данных и других моделях прогнозирования, связанных с машинным обучением, а также математику, стоящую за ним. Этот алгоритм строит линейную зависимость между функциями (x) и целью (y). Значения данных объектов также называются независимыми переменными, потому что на них ничего не влияет, они являются просто свойством этого конкретного набора данных. Точно так же целевые значения данных также называются зависимыми переменными, поскольку они каким-то образом связаны с функцией или зависимыми переменными. Чтобы лучше понять это, рассмотрим следующее уравнение:

Мы знаем, что не все наши данные будут связаны одинаковым линейным образом. Исходя из этого, наша задача в линейной регрессии состоит в том, чтобы найти наилучшее возможное отношение, для которого ошибка или отклонение фактической цели от цели, которую мы получаем из нашего отношения, будет как можно меньше. Среднеквадратическая ошибка (MSE) отражает отклонение фактической цели от цели, которую мы получили из соотношения для каждой точки данных. Ошибка для всего набора данных рассчитывается с использованием MSE, которая берет среднее значение всех квадратных значений отклонения фактической цели от цели, которую мы получили из нашего отношения.

Теперь, чтобы найти оптимальное решение, нам нужно минимизировать значение MSE, что можно сделать, частично продифференцировав приведенное выше уравнение по переменной пересечения и переменной наклона по отдельности и приравняв их к 0. Ниже приведены дифференцированные уравнения.

Решая их дальше,

Эти уравнения намного проще и понятнее, чем предыдущие. Слишком много математики, не волнуйтесь, наша работа почти закончена, просто подождите еще немного.

Все, теперь у нас есть и наклон, и точка пересечения. Но мы сделали это только для набора данных, который имеет только один признак. Подобную процедуру можно также использовать для набора данных, который имеет более одного признака, поскольку у нас больше признаков, у нас будет больше коэффициентов зависимых переменных, но это трудоемкая и трудоемкая задача. Вот почему мы используем машинное обучение.

В следующей статье я расскажу о градиентном спуске, следите за обновлениями… :-)

Спасибо, что прочитали…!!