Публикации по теме 'fastai'


Концепции глубокого обучения (Fast.ai, часть 1, версия 2)
Это пошаговое руководство по концепциям и процессу, связанным с классификацией Кошки против собак с использованием глубокого обучения (библиотека fastai поверх PyTorch). Основная цель этого поста — служить моими личными заметками к лекциям Fast.ai таким образом, чтобы я мог ссылаться на них, а не искать в видеолекциях). Я также добавил выдержки и ссылки на связанные сообщения, которые я нашел полезными. Я публикую это, надеясь, что это может быть полезно и другим. Получение набора..

Воспроизведение статей Лесли Н. Смита с использованием фастая
Охвачены следующие статьи Лесли Н. Смит Дисциплинированный подход к гиперпараметрам нейронной сети: часть 1 — скорость обучения, размер пакета, импульс и уменьшение веса. "бумага" Супер-конвергенция: очень быстрое обучение нейронных сетей с использованием скорости обучения. "бумага" Изучение топологии функции потерь с циклическими скоростями обучения. "бумага" Циклические скорости обучения для обучения нейронных сетей. "бумага" Хотя основная цель состоит в том, чтобы..

Анализ настроений в обзоре фильма с RNN
По данным IMDb, в нем более полумиллиона названий фильмов и почти 5,5 миллионов обзоров пользователей, каждый из которых имеет рейтинг от 1 до 10 и текстовый обзор; Я хочу использовать эти обзоры для обучения модели, которая может угадывать настроения будущих обзоров. Тип обработки естественного языка называется текстовой классификацией. Большая часть работы здесь взята из Урока 8 курса FastAI, который я не могу рекомендовать всем, кто интересуется глубоким обучением. Следуйте вместе..

Разумные испытания машинного обучения в условиях ограниченного виртуального пространства (3/3)
Юзабилити: эффективность, результативность и удовлетворение. TL;DR и за то, что вы можете не увидеть в этом посте. Знать (что такое) себя и других ( часть-1 ); Управление состояниями PRNG , а не только их начальными номерами ( часть-2 ); Раскройте побочные эффекты, например: — Смешанная точность , обратите внимание на разрыв шкалы динамических потерь [ 1 ][ 2 ]; — cuDNN, избегайте использования его встроенного исключения; — Недетерминированность/нестабильность использования..

Мой путь к AlphaHub
2020 год - поворотный момент в моей карьере. Все началось с того, что я оставил удобную техническую работу в Лондоне, где я работал инженером по машинному обучению. Я совершил решительный шаг вперед и в январе полетел в Канаду по туристической визе. Чтобы начать свое первое индивидуальное предпринимательское приключение. Несколько лет назад, работая над несколькими аналитическими проектами в банке и пытаясь найти цель, я проводил часы вне офиса, создавая чат-ботов и умные системы...

Сбор изображений для машинного обучения
Чтобы приступить к созданию классификатора, я сразу же наткнулся на проблему: у меня нет фотографий моего набора данных. Создать набор данных может быть сложно, особенно если у вас мало свободного времени. К счастью, обычно вам может сойти с рук сбор ресурсов с помощью Интернета. Прежде чем вы начнете, важно помнить, что Google всегда ваш друг и набрав: «база данных монет», вероятно, может дать вам набор данных, который может сэкономить вам часы работы. В моем случае, к сожалению,..

Преодолейте пределы точности при обучении глубокому обучению с помощью Cyclical Learning Rate и Snapshot…
1. Причина W = W + скорость обучения * dJ/dW Давайте зададим простой вопрос: когда нейронная сеть прекращает обучение? Это когда член (скорость обучения * dJ/dW) равен 0. Действительно, при использовании обратного распространения веса перестают обновляться, и сеть перестает настраиваться на лучшая точность. Помимо технических причин, таких как исчезающий градиент (т. е. потому что определенные функции активации отображают их в небольшой диапазон, поэтому градиент ошибок не может течь..