# Что такое предварительная подготовка?

Это хороший способ сказать нейронной сети, чтобы она начала с некоторых предварительно обученных данных вместо случайных данных.

Вот говорит, что это больше не нужно? https://stats.stackexchange.com/questions/232616/is-greedy-layer-wise-training-of-deep-networks-necessary-for-successfully-traini?utm_medium=organic&utm_source=google_rich_qa&utm_campaign=google_rich_qa

# Используется настройка из WGAN (https://arxiv.org/abs/1704.00028)

Their proposed alternative, named Wasserstein GAN (WGAN) [2], leverages the Wasserstein distance to produce a value function which has better theoretical properties than the original. WGAN requires that the discriminator (called the critic in that work) must lie within the space of 1-Lipschitz functions, which the authors enforce through weight clipping.

# Оценка с использованием %-IN-TEST-n, что это такое?

# Три ключевых алгоритма

  • Curriculum Training: постепенно увеличивайте максимальную продолжительность, почему это помогает?
  • Переменная длина
  • Помощь учителя: передать результат от i-1 для обучения генерации длины с i