Публикации по теме 'rnn'


Сенсорное изображение и приложения глубокого обучения
Абстрактный Восприятие изображения, способность извлекать полезную информацию из визуальных данных, имеет решающее значение во многих приложениях искусственного интеллекта и машинного обучения. Недавнее появление глубокого понимания, особенно сверточных нейронных сетей (CNN), произвело революцию в сенсорике изображений, предоставив высокоэффективные инструменты выделения и классификации признаков. В этой статье представлен обзор сенсорных изображений и приложений для глубокого обучения,..

Глубокое погружение в последовательности: открытие рекуррентных нейронных сетей (RNN) и долговременной кратковременной памяти…
В наших предыдущих статьях мы рассмотрели начальные этапы обработки естественного языка (NLP), от токенизации до создания последовательностей. Заложив основы, давайте переключим передачу и перейдем к более интригующему компоненту НЛП: обработке последовательных данных с помощью рекуррентных нейронных сетей (RNN) и долговременной кратковременной памяти (LSTM). Эта статья направлена ​​на то, чтобы демистифицировать эти увлекательные техники, чтобы вы могли понять и эффективно применять их в..

Обнаружение аномалий с использованием рекуррентных автоэнкодеров нейронных сетей
Благодаря науке о данных и, в частности, машинному обучению, предприятия могут лучше понимать и проводить профилактическое и своевременное обслуживание процессов, которые могут привести к большим потерям, если они не работают должным образом. Обнаружение аномалий, также известное как обнаружение выбросов, представляет собой идентификацию элементов, событий или наблюдений, которые значительно отклоняются от большинства данных и не соответствуют четко определенному понятию нормального..

Рекуррентная нейронная сеть
Также проверьте LSTM Это чистая реализация генерации слов с использованием RNN Мы собираемся научить нашу сеть предсказывать следующие слова в данном абзаце. Это потребует повторяющейся архитектуры, поскольку сеть должна будет запоминать последовательность символов. Порядок имеет значение. 1000 итераций, и у нас будет произносимый английский. Чем больше время тренировки, тем лучше. Вы можете кормить его любой текстовой последовательностью (слова, Python, HTML и т. Д.) Что..

[TensorFlow 2.0] Классификация текста с помощью RNN в TensorFlow
Для тех из вас, кто не видит этот пост, используйте нашу Ссылку друга !! Продолжая предыдущий пост, который был в основном о том, как работает RNN и его реализация в среде keras, в этом я сосредоточусь на TensorFlow с некоторыми улучшениями . Затем, как и было обещано, я думаю, нам пора вернуться и посмотреть, как предварительно обработать необработанные текстовые данные. Когда все это будет сделано, я планирую погрузиться в продвинутую RNN до начала лунных новогодних праздников...

Руководство по LSTM (сети с долгосрочной краткосрочной памятью)
Руководство по LSTM (сети с долгосрочной краткосрочной памятью) Это моя первая статья о нейронных сетях, и я очень рад поделиться своими знаниями. Давай погрузимся в Рекуррентные нейронные сети (RNN) Допустим, у нас есть предложение «Кот, который уже ел, был сытым», ясно, что «был» в предложении зависит от того, является ли «кот» единственным или множественным числом. Если бы это было во множественном числе, то предложение выглядело бы как «кошки, которые уже поели, насытились»...

Only Numpy: обычная рекуррентная нейронная сеть с активацией, вызывающей обратное распространение во времени ...
Итак, сегодня мы сделаем то же самое, но добавим еще один компонент - функцию активации. А пока давайте сохраним простоту и воспользуемся логистической функцией. (Обратите внимание, что мы будем использовать нотацию log (), и когда она будет реализована на Python, она может выглядеть примерно так, как показано ниже.) import numpy as np function log(x): return 1 / ( 1 + np.exp(-1 *x)) function d_log(x): return log(x) * (1 - log(x)) В любом случае, это отправная точка, обучающие..