Публикации по теме 'backpropagation'


Обучение начальному МЛП в родной Юле (да, на МНИСТ).
Джулия собирается убить Питона? Кто знает; возможно нет. Но это, безусловно, забавный, современный и интересный язык, и он особенно привлекателен для ученых с опытом работы с MATLAB, таких как я. У него уникальное сочетание функций: он индексирован 1, динамически типизирован, но (точно вовремя) скомпилирован, имеет прекрасный встроенный менеджер пакетов и прост в использовании в интерактивном режиме (одновременное использование сценариев и REPL ощущается как очень похоже на..

Нейронные сети = Черный ящик?
Как вы знаете, я энтузиаст машинного обучения. В частности, нейросетевой (NN). В последние месяцы я прочитал много статей о НС. Я пришел к выводу: Ни один из них на самом деле не позволяет увидеть, как учатся NN. Пример # 1 Forbes , Разъяснение: нейронные сети В этой статье автор говорит: «Обучающие данные поступают на нижний уровень - входной уровень - и проходят через последующие уровни, умножаются и складываются сложным образом, пока, наконец, не попадают, радикально..

Обратное проектирование обратного распространения ошибки
Иногда начало с примеров может быть более быстрым способом узнать что-то, чем сначала изучать теорию, прежде чем переходить к подробным примерам. Это то, что я попытаюсь сделать здесь, используя пример из официального учебника PyTorch, который реализует обратное распространение и обратный инжиниринг математики, а затем и концепцию, лежащую в основе этого. Вот снимок учебника ( https://pytorch.org/tutorials/beginner/pytorch_with_examples.html#warm-up-numpy ), где numpy использовался для..

Часть 4: Обзор построения нейронной сети
Уже В Часть 1 , Часть 2 и Часть 3 мы построили, обучили и предсказали нейронную сеть с обратным распространением с использованием Keras и Tensorflow. Хотя я включил фрагменты кода во все три части, читатели по-прежнему должны копировать фрагменты кода в свою среду Python, чтобы поиграть с кодом. В этой статье я познакомлю вас с отличным инструментом для обучения и документирования под названием Jupyter Notebook . Ради преемственности я буду работать с примером, который мы..

Глубокое погружение в обратное распространение (III)
Это Часть III Глубокого погружения в обратное распространение . Чтобы продолжить чтение, я предлагаю ознакомиться с Частью I и Частью II, если вы ее еще не читали. Ссылку на Часть I и Часть II можно найти здесь и здесь . Теперь, когда мы понимаем правило цепочки, мы можем продолжить наш пример обратного распространения ошибки , где мы вычислим градиент. В нашем примере у нас есть только один скрытый слой, поэтому наш процесс обратного распространения ошибки будет состоять из..

Реализация шлюза XOR с использованием обратного распространения в нейронных сетях
Реализация логических вентилей с использованием нейронных сетей помогает понять математические вычисления, с помощью которых нейронная сеть обрабатывает свои входные данные для получения определенного выхода. Эта нейронная сеть будет решать логическую проблему XOR. XOR (исключающее ИЛИ) - это цифровой логический вентиль, который дает истинный выход только тогда, когда оба его входа отличаются друг от друга. Таблица истинности для логического элемента XOR показана ниже: Цель нейронной..

Only Numpy: понимание обратного распространения для транспонированной свертки в многослойной CNN с…
Итак, последние два дня мне было трудно понять операцию Transpose Convolution. Но я наконец понял это, и сегодня мы собираемся обучить простую CNN с двумя сверточными слоями, как показано ниже. Забавная история о том, где я получил ответ. Вчера меня пригласили на обед по случаю собрания. Причина в том, что одна из очень хорошо осведомленных магистрантов успешно завершила защиту, так что мы праздновали. Однако в течение последних двух дней я не мог полностью понять весь..