Линейные модели делают прогноз, используя линейную функцию входных признаков.

Они могут помочь вам понять и предсказать поведение сложных систем или проанализировать экспериментальные, финансовые и биологические данные.

Линейные модели регрессии

Для регрессии общая формула прогноза для линейной модели выглядит так:

y = w[0]*x[0] + w[1]*x[1] + . . . + w[q]*x[q] + b

Здесь от x[0] до x[q] обозначаются признаки (в данном случае число признаков равно q) одной точки данных, «w» и «b» — параметры модели, которые изучены, а y — прогноз, который делает модель.

Модели линейной регрессии

  • Линейная регрессия
  • Регрессия хребта
  • Лассо регрессия

Линейные модели для классификации

Линейные модели также широко используются для классификации. Два наиболее распространенных алгоритма линейной классификации:

  • Логистическая регрессия
  • Опорные векторные машины

Примечание. Логистическая регрессия — это алгоритм классификации, а не алгоритм регрессии, и его не следует путать с линейной регрессией.

Сравнительное исследование моделей KNN и Linear

Если вы сравните прогнозы, сделанные прямой линией, с прогнозами, сделанными KNeighborsRegressor, использование прямой линии для прогнозирования выглядит так, как будто все мелкие детали данных потеряны. Это сильное предположение, что наша цель «y» представляет собой линейную комбинацию функций. Но взгляд на одномерные данные дает нам искаженную перспективу. Для набора данных большого размера линейные модели могут быть очень мощными. В частности, если у вас больше функций, чем точек обучающих данных, любая цель «y» может быть идеально смоделирована на обучающем наборе как линейная функция.

Сильные стороны

  • Быстро тренироваться
  • Быстро прогнозировать
  • Они масштабируются до очень больших наборов данных и хорошо работают с разреженными данными.
  • Легко понять, как делается прогноз.

Недостатки

  • Плохо работает при наличии нелинейных отношений.
  • Недостаточно гибкий, чтобы фиксировать более сложные шаблоны.