Публикации по теме 'geoffrey-hinton'


Джордж Буль и глубокое обучение
Мы живем в цифровом мире нулей и единиц. Булева логика приписывается великому британскому математику Джорджу Булю (родился 2 ноября 1815, Линкольн , Линкольншир , Англия — умер 8 декабря 1864, Баллинтемпл, графство Корк , Ирландия), который помог установить современную символическую систему. логика и чья алгебра логики, называемая теперь булевой алгеброй , лежит в основе проектирования схем цифрового компьютера . Очевидная связь между Джорджем Булем и компьютерами, работающими..

Капсульные сети: критика
Капсульные сети: критика 1. Введение Сверточные нейронные сети очень популярны в области компьютерного зрения. Они продемонстрировали невероятную производительность в таких областях, как обнаружение объектов, сегментация и т. Д. CNN используют совместное использование параметров и локальную связь, чтобы поддерживать небольшое количество параметров, что делает обучение и логический вывод с использованием CNN управляемым. . Первоначально предназначенные для изображений, теперь они..

Раскрытие скрытой информации об отсеянном слое
О чем следует помнить при обучении Deep Neural Networks с помощью Dropout Проблема, возникающая при обучении глубоких нейронных сетей Глубокие нейронные сети с большим количеством параметров страдают от переобучения, а также медленны в использовании. Что такое Dropout, вкратце? По мнению авторов, ключевая идея отсева основана на случайном отбрасывании единиц (вместе с их связями) из нейронной сети во время обучения. Это останавливает юниты от «слишком совместной адаптации». Во время..

Понимание t-SNE по реализации
Как работает t-SNE и как его можно реализовать В этом сообщении блога мы рассмотрим внутреннюю работу алгоритма t-SNE, чтобы четко понять, как он работает, для чего его можно использовать и каковы его ограничения. Я воспользуюсь подходом сверху вниз, сначала объясню, как алгоритм работает на более высоком уровне, а затем углублюсь в математику, стоящую за ним. Статья содержит блоки кода в большинстве мест, где есть уравнения или расчеты, поскольку некоторым людям проще понять..

Неконтролируемые капсульные сети Джеффри Хинтона достигли результатов SOTA на SVHN
В 2017 году «Крестный отец глубокого обучения» Джеффри Хинтон и его ученики Сара Сабур и Николас Фросст предложили дискриминирующую многослойную капсульную систему CapsNet в своей статье Динамическая маршрутизация между капсулами . производительность при распознавании перекрывающихся цифр в наборе данных MNIST, чем в сверточных сетях, и продолжает привлекать внимание как многообещающее направление исследований в области компьютерного зрения, глубокого обучения и не только. Хинтон и..

Понимание капсульных сетей Хинтона. Часть III: Динамическая маршрутизация между капсулами.
Часть серии статей о капсульных сетях Хинтона: Часть I: Интуиция Часть II: Как работают капсулы Часть III: Динамическая маршрутизация между капсулами (вы ее сейчас читаете) Часть IV: Архитектура CapsNet Быстрое объявление о нашем новом издании AI³ . Мы собираем лучших писателей, чтобы они рассказали о теории, практике и бизнесе искусственного интеллекта и машинного обучения. Следите за ним, чтобы быть в курсе последних тенденций. Вступление Это третий пост в серии о..

Что не так со сверточными нейронными сетями?
Вступление Конечно, сверточные нейронные сети (CNN) - увлекательный и мощный инструмент, возможно, это одна из причин, почему глубокое обучение так популярно в наши дни, поскольку Алекс Крижевский, Илья Суцкевер и Джеффри Хинтон опубликовали в 2012 году «Классификацию ImageNet с глубокими сверточными сетями». CNN были выигрышной картой в компьютерном зрении, достигнув сверхчеловеческой производительности во многих задачах, но безупречны ли CNN? это лучшее, что мы можем сделать? Я..