Публикации по теме 'learning-rate'


Основные этапы машинного обучения
В своей влиятельной статье [1] пионер машинного обучения Артур Сэмюэл дал следующее описание «обучающейся» машины, которое мы объясним позже: «Предположим, мы организуем некоторые автоматические средства проверки эффективности любого текущего присвоения веса с точки зрения фактической производительности и обеспечиваем механизм для изменения назначения веса так, чтобы максимизировать производительность . Нам не нужно вдаваться в подробности такой процедуры, чтобы увидеть, что ее..

Понимание оптимизаторов и скорости обучения в TensorFlow
В мире глубокого обучения и TensorFlow процесс обучения модели зависит от итеративной корректировки весов модели для минимизации заранее определенных потерь. Эту корректировку определяют два основных элемента: оптимизатор и скорость обучения . Давайте углубимся в их роли и проведем различие между ними в контексте функции compile модели TensorFlow. Оптимизатор: Оптимизатор определяет механизм обновления весов модели. TensorFlow предлагает множество оптимизаторов, каждый из..

Важность настройки гиперпараметров | Глубокое обучение
Когда дело доходит до обучения модели глубокого обучения, одним из наиболее важных факторов является диагностика и понимание модели. Крайне важно понять логику, лежащую в основе производительности модели. Этот процесс диагностики модели известен как настройка гиперпараметров, когда мы настраиваем гиперпараметры для повышения производительности модели. Гиперпараметры — это, по сути, переменные, которые напрямую влияют на реализацию модели, и их точная настройка может значительно повысить..

Математика линейной регрессии
Итак, до сих пор мы изучали основы алгебры и методы оптимизации. Теперь мы можем приступить к нашему первому алгоритму машинного обучения. Итак, давайте посмотрим, как мы можем написать наш собственный код линейной регрессии. Эта статья является применением предыдущих статей. Если вы не читали его, пожалуйста, сначала прочтите его для лучшего понимания. Алгоритм градиентного спуска | Сходимость, производительность, поведение Давайте сделаем еще один шаг и..

Преодолейте пределы точности при обучении глубокому обучению с помощью Cyclical Learning Rate и Snapshot…
1. Причина W = W + скорость обучения * dJ/dW Давайте зададим простой вопрос: когда нейронная сеть прекращает обучение? Это когда член (скорость обучения * dJ/dW) равен 0. Действительно, при использовании обратного распространения веса перестают обновляться, и сеть перестает настраиваться на лучшая точность. Помимо технических причин, таких как исчезающий градиент (т. е. потому что определенные функции активации отображают их в небольшой диапазон, поэтому градиент ошибок не может течь..

Линейная регрессия: ключевые понятия
Поскольку я уже поделился основным определением линейной регрессии в своей первой статье Часть 1 , а теперь добавляю некоторые важные концепции линейной регрессии. Кроме того, эти темы часто задают в интервью. Давайте начнем с этих понятий в форме анкеты, чтобы вы могли добавить их при подготовке к интервью. Здесь самая первая тема — Функция стоимости . Вопрос 1 : Как получить наиболее подходящую линию регрессии? Решение . В линейной регрессии основной целью этой модели..

Руководство для новичков по стохастическому градиентному спуску с перезапусками
Простое определение скорости обучения для градиентного спуска поможет минимизировать потери нейронной сети. Однако есть дополнительные методы, которые могут сделать этот процесс более плавным, быстрым и точным. Первый метод - это стохастический градиентный спуск с перезапусками (SGDR), вариант отжига скорости обучения, который постепенно снижает скорость обучения в процессе обучения. Существуют разные методы отжига, разные способы уменьшения размера шага. Один из популярных способов..