Когда вы начинаете путь к машинному обучению, одним из наиболее важных аспектов вашего обучения будет градиентный спуск, который является основой всех алгоритмов машинного обучения.
Градиентный спуск - это алгоритм оптимизации для поиска минимального значения функции. Мы начинаем со случайной точки на функции и движемся в отрицательном направлении градиента функции, чтобы достичь локальных / глобальных минимумов.
Часто эта функция обычно является функцией потерь. Функция потерь измеряет, насколько плохо наша модель работает по сравнению с реальными случаями. Нам нужно уменьшить эти потери. Таким образом, градиентный приличный становится очевидным, это эффективный алгоритм для этого.
Шаг 1: мы инициализируем значение x, а затем находим градиент функции f (x).
Шаг 2: мы движемся в направлении отрицательного градиента с определенной скоростью, известной как скорость обучения, обычно обозначаемая α.
Шаг 3. Давайте реализуем градиентный спуск:
x1 = x0- (скорость обучения) * dy / dx
x2 = x1- (скорость обучения) * dy / dx
Шаг 4: Мы видим, что значение x уменьшается и приближается к локальным минимумам. Количество итераций, которые необходимо выполнить, определяется точностью, которую мы даем.