Эта статья о машинном обучении, и это вторая сессия курса машинного обучения в Стэнфордском университете, которую профессор Эндрю Нг загружает бесплатно. Речь идет о линейной регрессии, градиентном спуске и нормальных уравнениях.

В обучении с учителем мы сообщаем наиболее близкий ответ на основе некоторых примеров (обучающий набор) и пробуем его на других. Он представил Alvin, автономную систему вождения, использующую нейронную сеть для вождения. Сначала его обучили, записывая видео и сохраняя действия водителя, а затем он начал управлять самостоятельно. Он повысил точность вождения за счет сбора большего количества данных из большего количества видео. Это был пример проблемы регрессии.

Обучение с учителем можно представить следующим образом:

Где x представляет входные переменные (функции), а y используется для отображения выходной переменной (цели), а h является гипотезой.

На этапе обучения мы пытаемся минимизировать квадратичные различия между предсказаниями алгоритма и реальными целями. Одним из алгоритмов для достижения этой цели является градиентный спуск. Градиентный спуск выглядит как процесс спуска с холма маленькими шажками. Если мы используем несколько обучающих наборов, то мы называем это пакетным градиентным спуском, а в случае очень большого количества обучающих наборов он называется стохастическим градиентным спуском или пошаговым градиентным спуском, который выполняет вычисления до сходимости.

Существует также другой алгоритм, который использует матричные операции без необходимости итерационных операций.