Публикации по теме 'reinforcement-learning'


Глубокие детерминированные градиенты политики с помощью SONY's NNabla
Привет, я аспирант, изучаю глубокое обучение с подкреплением. Я написал предыдущий пост в блоге о реализации Deep Q-Network с NNabla. Внедрение Deep Q-Network с помощью SONY NNabla ЧТО ТАКОЕ NNABLA? todatascience.com Здесь я познакомлю вас с глубинными детерминированными градиентами политики (DDPG) с NNabla. Полная реализация находится здесь . DDPG DDPG - это метод градиента политики для задач непрерывного контроля...

Используйте обучение с подкреплением, чтобы научить летучую птицу НИКОГДА не умирать
История устранения неполадок и настройки производительности до совершенства Недавно я начал изучать алгоритм обучения с подкреплением. Flappy Bird - популярная игра, используемая в обучении с подкреплением, особенно для начинающих. Сарвагья Вайш подробно объяснил теорию Q-обучения и то, как работает игра, в своем посте . Свою идею он реализовал в javascript. Я предпочитаю искать ссылочный код на Python. Спасибо Джихану Джейхану за хороший пример на Python для начала...

Сети Double Deep Q
Семья DQN Сети Double Deep Q Устранение предвзятости максимизации в Deep Q-Learning Введение В этом посте мы рассмотрим мотивацию сетей двойного Q-обучения и рассмотрим три различных способа, которыми это было сделано: Оригинальный алгоритм в « Двойное Q-обучение (Hasselt, 2010) » Обновленный алгоритм от того же автора в статье « Глубокое обучение с подкреплением с двойным Q-обучением (Hasselt et al., 2015) », Самый последний метод, Clipped Double Q-Learning, в статье..

Обучение с подкреплением
Обучение с подкреплением — это своего рода машинное обучение, при котором оператор узнает, как и когда реагировать в данной среде, выполняя определенные действия и наблюдая за их результатами. Мы даже можем увидеть большой прогресс в этой замечательной области исследований в последние десятилетия. DeepMind и обучающая архитектура Deep Q в 2014 году, AlphaGo, победившая мастера игры в го в 2016 году, OpenAI и PPO в 2017 году и другие — это лишь несколько примеров. Обучение с..

Уроки, извлеченные из крестиков-ноликов: практические советы по обучению с подкреплением
Оглядываясь назад на все, что я сделал неправильно при разработке своего первого агента обучения с подкреплением, чтобы вы могли понять это правильно Совсем недавно я опубликовал вводный пост по обучению с подкреплением и сетям Deep Q . Но, как все мы знаем, существует огромная разница между пониманием теории и ее практическим применением в реальном мире. Мне потребовалось время, чтобы найти достойный первый вызов для DQN. В большинстве учебных пособий, которые я видел, реализованы..

Научите свой ИИ ходить | Решение BipedalWalker | OpenAIGym
В этом блоге мы собираемся научить простой ИИ ходить с помощью обучения с подкреплением. Давайте сначала вкратце разберемся, что такое обучение с подкреплением и что это за ИИ, который мы собираемся обучать. Обучение с подкреплением, краткое введение Обучение с подкреплением - это ветвь машинного обучения. Идея в том, что у вас есть агент и среда . Агент предпринимает действия, и среда выдает вознаграждение на основе этих действий. Цель состоит в том, чтобы научить агента..

Обучение с подкреплением для реальной жизни: контекстные бандиты
RL на самом деле не является решаемой областью, и в частности есть очень простые проблемы, которые могут ее сломать. Чтобы обойти текущее ограничение RL, используются различные приемы экспертного уровня. Уловка № 4 в таксономии Джона Лэнгфорда позволяет использовать RL на практике — существенный шаг помимо обучения с учителем, который мы можем регулярно применять так же, как мы можем регулярно применять к обучению с учителем. /эм> Джон придумал термин..