Интерпретация файлов декодирования текстовой суммы (больше вывода, чем ввода?)

Я запускаю декодирование текстовой суммы на небольшом тестовом наборе (5 примеров), но и эталонный файл, и файл декодирования уже имеют длину в тысячи строк. Есть ли причина, по которой декодирование работает бесконечно? Обрабатывает ли он один и тот же набор примеров повторно? Должны ли более поздние результаты быть лучше предыдущих?

Хотелось бы немного интуиции по этому поводу; Четкого объяснения не нашел.


person hate5six    schedule 14.04.2017    source источник
comment
Эта проблема может оказаться полезной (посмотрите на последний ответ): github.com/tensorflow/models/ вопросы/468   -  person Blue482    schedule 03.07.2017


Ответы (1)


Да, вы правы в своей мысли, один и тот же ввод многократно используется для генерации вывода. Однако вы можете ограничить вывод только одним. Я сделал это некоторое время назад, изменив seq2seq_attention_decode.py, где вывод записывается в файл. Я давал только один ввод, поэтому после всего одного вывода я хотел, чтобы он остановился.

Есть ли причина, по которой декодирование выполняется, по-видимому, бесконечно?: Это просто моя интуиция, что ожидается, что в разных прогонах будет даваться разная сводка. Когда декодирование выполняется на машине, отличной от той, на которой оно обучалось, оно должно использовать создание новых моделей и, следовательно, давать другой результат. Вероятно, это был бы способ отслеживать изменение результатов по мере продолжения тренировочного процесса.

person Ayushya    schedule 02.07.2017