Регрессия - это метод, используемый для моделирования и анализа взаимосвязей между переменными, а зачастую и того, как они вносят свой вклад и связаны с получением определенного результата вместе. Здесь мы обсудим два типа регрессии.

1. Линейная регрессия: -

Линейная регрессия относится к регрессионной модели, полностью состоящей из линейных переменных. Начиная с простого случая, линейная регрессия с одной переменной - это метод, используемый для моделирования взаимосвязи между отдельной входной независимой переменной (характеристической переменной) и выходной зависимой переменной с использованием линейной модели, то есть линии.

Линейная Регрессия Уравнение.

Линия линейной регрессии имеет уравнение вида

Y = a + bX

где X - независимая переменная, Y - зависимая переменная, «b» - наклон линии, а «a» - точка пересечения.

Несколько ключевых моментов о линейной регрессии:

  • Быстро и легко моделируется и особенно полезно, когда моделируемые отношения не являются чрезвычайно сложными и если у вас мало данных.
  • Очень интуитивно понятный для понимания и интерпретации.
  • Линейная регрессия очень чувствительна к выбросам.

Вот некоторые известные применения линейной регрессии:

  • Финансовое прогнозирование
  • Прогноз стоимости программного обеспечения
  • Прогнозирование усилий по программному обеспечению
  • Гарантия качества программного обеспечения
  • Реструктуризация бюджета

2. Полиномиальная регрессия: -

Когда мы хотим создать модель, подходящую для обработки нелинейно разделяемых данных, нам потребуется использовать полиномиальную регрессию. В этом методе регрессии наиболее подходящая линия - это не прямая линия. Это скорее кривая, которая укладывается в точки данных. Для полиномиальной регрессии мощность некоторых независимых переменных больше 1. Например, у нас может быть что-то вроде:

Y = a_1*X_1 + (a_2)²*X_2 + (a_3)⁴*X_3 ……. a_n*X_n + b

Мы можем иметь некоторые переменные с показателями степени, а другие - без них, а также выбрать точный показатель степени, который мы хотим для каждой переменной. Однако выбор точного показателя степени каждой переменной, естественно, требует некоторых знаний о том, как данные соотносятся с выходными данными.

Несколько ключевых моментов о полиномиальной регрессии:

  • Возможность моделирования нелинейно разделимых данных; линейная регрессия не может этого сделать. В целом он гораздо более гибкий и может моделировать некоторые довольно сложные отношения.
  • Полный контроль над моделированием переменных признаков (какой показатель установить).
  • Требует тщательного проектирования. Требуется некоторое знание данных, чтобы выбрать лучшие показатели.
  • Склонен к чрезмерной подгонке, если показатели степени выбраны неправильно.

На иллюстрации ниже представлено визуальное сравнение линейной регрессии с полиномиальной.