Линейная регрессия — это метод прогнозирования зависимой переменной на основе значений независимой переменной. Его можно использовать в случаях, когда мы хотим предсказать некоторую непрерывную величину. Критерии выбора для использования линейной регрессии следующие:

  1. Возможности классификации и регрессии
  2. Качество данных
  3. Вычислительная сложность
  4. Понятно и прозрачно

Различное использование линейной регрессии выглядит следующим образом:

  1. Оценка тенденций и продаж
  2. Анализ влияния изменения цен
  3. Оценка рисков в сфере финансовых услуг и страхования

Рассмотрение примера из практики, когда при проведении опроса среди студентов в колледже выясняется, будет ли студент с высоким CGPA иметь высокий балл GRE. После сбора данных мы получаем визуализацию данных, которая имеет положительную линейную зависимость между CGPA и оценкой GRE. Здесь в игру вступает регрессионный анализ.

Связь между двумя или более переменными путем создания прогностической модели известна как регрессионный анализ. Математически говоря,

Y=f(X) , где Y представляет собой зависимую переменную, которая является оценкой GRE, а X представляет независимую переменную, которая является CGPA.

Откуда мы знаем, что линия, нарисованная на графике, подходит лучше всего или нет. Мы можем увидеть это, взяв случайным образом несколько точек, а затем увидев разницу между прогнозируемым и фактическим значением.

Наилучшей подходящей линией является та, которая имеет минимум:

МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ:

В этом у нас есть одна зависимая и более чем одна независимая переменная.

например У нас есть набор данных автомобиля с расходом на галлон, весом, мощностью, цилиндром и шестерней автомобиля. Мы хотим понять, как миль на галлон зависит от всех других переменных. Мы можем рассмотреть уравнение гиперплоскости следующим образом:

Следовательно, резюмируя линейную регрессию, мы можем сказать, что две основные цели:

  1. Чтобы установить, есть ли связь между двумя переменными:

(а) Более конкретно, установить, существует ли статистически значимая взаимосвязь между ними.

(b) Примеры: доходы и расходы, рост учащихся и результаты экзаменов.

2. Прогноз новых наблюдений:

(a) Можем ли мы использовать то, что мы знаем о взаимосвязи, для прогнозирования ненаблюдаемых значений.

Регрессия дерева решений

На рисунке x1 и x2 — две независимые переменные, которые являются разбросанными точками y (фактически рассматриваемой как выходная переменная). Эти разбросанные точки затем делятся на различные сегменты, и будет алгоритм, который разделит эти сегменты. В этом алгоритме будет использоваться концепция математической энтропии, которая говорит о том, что каждое разделение кратко отображает более ценную информацию о точках, нанесенных на диаграмму рассеяния.

Каждый из разделов разделения известен как лист, и в них может храниться только определенное количество точек. Каждый раздел имеет определенное среднее значение или, можно сказать, диапазон, в котором мы определяем значения дерева решений.

Если какое-либо значение падает ниже среднего значения сплита, то это значение или очко должно быть присвоено этому сплиту. Дерево решений можно представить, как показано ниже, и, следовательно, оно помогает нам определить, находится ли точка в определенной области или нет:

Регрессия опорных векторов

Это тип нелинейной регрессии, в котором используются кривые. В простой регрессии мы пытаемся минимизировать частоту ошибок, тогда как в регрессии опорных векторов мы пытаемся подогнать ошибку к определенному порогу. Основными четырьмя параметрами этого типа регрессии являются:

1) Ядро: функция, используемая для преобразования данных более низкого измерения в данные более высокого измерения.

2) Гиперплоскость: плоскость, которая поможет нам предсказать непрерывные значения и целевые значения.

3) Граничные линии: он создает поля, разделяющие два класса.

4) Опорные векторы: это точки данных, которые находятся ближе всего к границе.

Это практическое использование регрессии опорных векторов через график. Также прогнозируемое значение может быть рассчитано, как показано.