Привет, Джулиано,

Спасибо за прекрасное объяснение. Но эта часть, которую я цитировал в вашей статье, неверна. В статье «Внимание - это все, что вам нужно» они специально заявили, что не используют никакие CNN или RNN («Мы предлагаем новую простую сетевую архитектуру, Transformer, основанную исключительно на механизмах внимания, полностью избавляющуюся от повторения и сверток»). . Пожалуйста, поправьте меня, если я ошибаюсь. Заранее спасибо!