В других местах есть много подробных объяснений по этому поводу, здесь я хотел бы поделиться некоторыми примерами вопросов в условиях интервью.
Почему полезна функция активации сигмовидной диаграммы? В чем главный недостаток сигмовидной функции активации?
Если ты такой пустой…
Вот несколько примеров ответов для ознакомления читателей:
Сигмовидная функция активации обычно используется для задач классификации, поскольку она преобразует число от минус бесконечности до плюс бесконечности в интервал 0, 1, который можно интерпретировать как вероятность.
"Смотри!"
Самая большая проблема с сигмовидной активацией — это проблема исчезающего градиента.
Если у вас высокая активация (z), высокие z или низкие z, ваш градиент будет очень близок к 0. Проблема с низкими градиентами заключается в том, что при выполнении обратного распространения, если кэшированное значение z велико, градиент будет очень маленьким, и будет очень сложно обновить параметры, которые находятся в начале сети, потому что градиенты исчезнут.
"Смотри!"
Удачной практики!
Спасибо, что читаете мою рассылку. Вы можете подписаться на меня в Linkedin или Twitter @Angelina_Magr!
Возможно, есть разные точки зрения, чтобы ответить на вопросы интервью. Автор этого информационного бюллетеня не пытается найти ссылку, исчерпывающе отвечающую на вопрос. Скорее, автор хотел бы поделиться некоторыми быстрыми выводами и помочь читателю подумать, попрактиковаться и провести дальнейшие исследования по мере необходимости.
Источник видео: Stanford CS229, Лекция 12 (осень 2018 г.) — Backprop & Improving Neural Networks, доктор Kian Katanforoosh
Отличное чтение: Нежное введение в сигмовидную функцию доктора Мехрин Саид