Публикации по теме 'gated-recurrent-unit'


Применение трансформаторов для оценки потенциально успешных стартапов
Экспериментальное исследование, продвигающее использование мелкозернистых многомерных временных рядов. Поскольку инвестиционные фирмы стремятся инвестировать в перспективные компании, они постоянно сталкиваются с критической задачей оценки шансов на успех для них. В венчурном капитале эту задачу часто называют прогнозированием успеха стартапа (SSP). «Поиск наиболее многообещающих стартапов с вероятностью успеха для инвестиций на ранней стадии — это святой Грааль венчурного капитала,..

Урок 39 — Машинное обучение: сети с долговременной кратковременной памятью (LSTM) (интуиция)
Интуиция и мотивация сетей LSTM Сети с долговременной кратковременной памятью (LSTM) представляют собой тип рекуррентной нейронной сети, предназначенной для преодоления проблемы исчезающего градиента, с которой сталкиваются стандартные RNN. Ключевая идея LSTM состоит в том, чтобы позволить сети узнать, какую информацию необходимо запомнить, а какую можно безопасно отбросить, что позволяет модели более эффективно фиксировать долгосрочные зависимости. Архитектура LSTM и ее компоненты..

Вопросы по теме 'gated-recurrent-unit'

Размер ввода Tensorflow RNN
Я пытаюсь использовать тензорный поток для создания рекуррентной нейронной сети. Мой код выглядит примерно так: import tensorflow as tf rnn_cell = tf.nn.rnn_cell.GRUCell(3) inputs = [tf.constant([[0, 1]], dtype=tf.float32), tf.constant([[2,...
1215 просмотров

Обслуживание Tensorflow - LSTM с отслеживанием состояния
Есть ли канонический способ поддерживать LSTM с отслеживанием состояния и т. Д. С помощью Tensorflow Serving? Используя напрямую Tensorflow API, это просто, но я не уверен, как лучше всего добиться сохранения состояния LSTM между вызовами после...
1021 просмотров

Поиск эквивалента функции Pytorch GRU в TensorFlow
Я не понимаю, как восстановить следующий код Pytorch в TensorFlow. Он использует как входной размер x , так и скрытый размер h для создания слоя GRU. import torch torch.nn.GRU(64, 64*2, batch_first=True, return_state=True) Инстинктивно я...
139 просмотров

Tensorflow - декодер для машинного перевода
Я просматриваю руководство Tensorflow по нейронному машинному переводу с использованием механизма внимания. Он имеет следующий код для декодера: class Decoder(tf.keras.Model): def __init__(self, vocab_size, embedding_dim, dec_units,...
74 просмотров