У меня есть пара вопросов о том, как кодировать алгоритм обратного распространения нейронных сетей:
Топология моих сетей - это входной слой, скрытый слой и выходной слой. И скрытый слой, и выходной слой имеют сигмовидные функции.
- Прежде всего, следует ли использовать предвзятость? Куда мне подключить предвзятость в моей сети? Должен ли я помещать по одной единице смещения на слой как в скрытом, так и в выходном слое? А как насчет входного слоя?
- В этой ссылке последняя дельта определяется как ввод-вывод, и они распространяют дельты в обратном направлении, как видно на рисунке. Они содержат таблицу, в которой помещаются все дельты перед фактическим распространением ошибок в режиме прямой связи. Это отход от стандартного алгоритма обратного распространения ошибки?
- Следует ли со временем снижать коэффициент обучения?
- На случай, если кто-нибудь знает, является ли Resilient Propagation онлайн-методом или методом пакетного обучения?
Спасибо
edit: Еще кое-что. На следующем рисунке d f1 (e) / de, если я использую сигмовидную функцию, равно f1 (e) * [1- f1 (e)], верно?