Публикации по теме 'rnn'


GSOC-Intorduction
Всем привет! В этом году мне посчастливилось быть отобранным для участия в GSOC 2019. Я буду работать с цепочкой, и мой проект называется «Построение рекуррентных нейронных сетей для ChainerX». Я впервые начал вносить свой вклад в базу кода ChainerX в марте. Я начал работать над созданием различных процедур, таких как сигмовидная диаграмма, возведение в степень. Члены библиотеки очень полезны и готовы помочь. Они помогли мне глубже понять постановку проблемы и их требования. Это,..

Используйте Keras для создания переводчика с английского на французский с различной архитектурой модели RNN.
Эта статья написана для краткого изложения моего собственного мини-проекта. Код приведен в конце для справки. Мои основные цели — продемонстрировать результаты и кратко обобщить концептуальный поток, чтобы закрепить мое обучение. Я не буду вдаваться в подробности о КАЖДОМ методе, который я использовал, потому что существует слишком МНОГО хорошо документированных руководств. Я не хочу создавать еще одно руководство, перефразируя и резюмируя. Это второй проект моей наностепени udacity..

Объекты ценообразования в Mercari - перспективы машинного обучения и глубокого обучения
Дополнительная попытка решить основанную на NLP регрессию набора данных Mercari Kaggle в рамках новаторского самостоятельного исследования - Курс прикладного искусственного интеллекта Это мой первый блог, и я очень рад поделиться своим опытом машинного обучения и глубокого обучения при расшифровке решения для конкурса Kaggle. Хотя это была поздняя отправка в Kaggle, мое познавательное путешествие по анализу также было очень интуитивным, интересным и сложным. Надеюсь, этот блог в конечном..

Создавайте истории, используя RNN | чистая математика с кодом |:
Создавайте истории, используя RNN | чистая математика с кодом |: Привет, читатель! На заметку читателю: В этой статье предполагается, что вы необоснованно увлечены математическим миром глубокого обучения. Вы хотите глубоко погрузиться в математику глубокого обучения, чтобы знать, что на самом деле происходит под капотом. Некоторая информация об этой статье: В этой статье мы обсудим и реализуем RNN с нуля. Затем мы будем использовать их для создания текста (например,..

День 3
Методы прогнозирования временных рядов Сегодня я хочу продолжить тему машинного обучения и сделать краткий обзор современных методов машинного обучения, подходящих для прогнозирования временных рядов. Давайте разделим эти методы на две группы: управляемые моделью и управляемые данными. Вы можете рассматривать первый как методы, которые работают только в подпространстве ввода, например, повышение деревьев, обычно эти методы требуют большой работы по созданию функций. Последняя группа..

От последовательности к модели последовательности: введение и концепции
Если мы возьмем высокоуровневое представление, модель seq2seq имеет кодировщик, декодер и промежуточный этап в качестве основных компонентов: Мы используем встраивание, поэтому сначала мы должны составить «словарный» список, содержащий все слова, которые мы хотим, чтобы наша модель могла использовать или читать. Входные данные модели должны быть тензорами, содержащими идентификаторы слов в последовательности. Однако есть четыре символа, которые нам нужно включить в свой словарный..

Составные RNN в НЛП
Рекуррентные нейронные сети (RNN) — это тип архитектуры нейронной сети, который хорошо подходит для обработки последовательных данных, таких как текст. В обработке естественного языка (NLP) RNN часто используются для таких задач, как моделирование языка, генерация текста и машинный перевод. Один из способов улучшить производительность RNN при выполнении этих задач — наложить несколько слоев RNN друг на друга. Это известно как составная RNN. В этой статье мы обсудим концепцию составных..