.......и вот опять…… 😊😄😆

Это наша пятая суббота из 16. Мы вставляем камни в золото. Слава Богу.
Gen pix
Мы узнали о логистической регрессии с помощью мышления нейронной сети, чтобы отточить наши интуитивные представления о глубоком обучении.

По сути, мы построили общую архитектуру частотного логарифма. Мы также знаем, как инициализировать параметры, начиная с нулевой инициализации (однако это не рекомендуется), вычисляя функцию потерь и функцию стоимости на заданной частоте.

Мы выполнили градиентный спуск, используя алгоритм оптимизации, который итеративно обновлял наши веса (w) и смещение, я чуть не потерял его из-за своих ошибок, 😅 они были серьезно вредными, большинство из них исходят из подходящих размеров матрицы/вектора. Боже!!!!!!😒.
Функция активации Relu использовалась для всех наших скрытых слоев, потому что она была более стабильной и без вариантов выбора, в отличие от сигмоида, который мы использовали на выходном слое.
В конце,
Наша точность частоты была близка к 100 %, а точность теста составила 70 %, что на самом деле неплохо для простой модели (например, логистической регрессии, это была хорошая проверка.
Вот некоторые вещи, которые я получил в своем кончик ручки в конце занятия:
*Разные скорости обучения дают разные затраты, а затем и разные прогнозы.
**Если скорость обучения слишком велика, стоимость может колебаться вверх и вниз, она может даже изменить.
***Более низкая стоимость не означает буферную модель, по крайней мере, я так думал.
О, нет, мы должны протестировать наше изображение и увидеть результат модели. .
Должен признаться, это был одновременно и стресс, и прекрасный опыт. Ну, это всего лишь часть учебного процесса.