Тассило Кляйн, Шахар Клайман, Конрад Шенк, Мариус Лене и Стивен Джагер

Шестой год подряд Международная конференция по обучающим представлениям (ICLR), одна из главных конференций в области глубокого обучения, проходила в Конференц-центре Ванкувера, Канада, с 30 апреля. - 3 мая 2018 г.

ICLR позволяет специалистам в этой области ознакомиться с новейшими технологиями и тенденциями в образовании и обращается к международному сообществу исследователей, студентов и партнеров по отрасли. Как и индустрия искусственного интеллекта в целом, ICLR переживает экспоненциальный рост. В этом году на конференцию было подано 935 заявок по сравнению с 430 в 2017 году, из которых 23 (2%) были приняты для устных и 314 (34%) для стендовых семинаров. Точно так же посещаемость ICLR почти удвоилась с примерно 1100 посетителей до примерно 2000 по сравнению с предыдущим годом.

В качестве официального спонсора ICLR’18 команда SAP Leonardo Machine Learning представила наши новейшие исследовательские проекты и приняла участие в большом спектре бесед и семинаров, предлагаемых на конференции. В этом сообщении блога мы суммируем общие тенденции и основные моменты, которые мы обнаружили, и которые стоит пересмотреть.

Для получения дополнительных сведений см. полный отчет о конференции нашей команды.

Основные темы и тенденции

- Генеративные состязательные сети (GAN)

Благодаря участию более 40 конференций в этой области, генеративные состязательные сети (GAN) остаются одной из самых горячих тем в текущих исследованиях машинного обучения; тенденция, которую можно наблюдать и на других конференциях. Было внесено множество вкладов, направленных на то, чтобы сделать процедуру обучения более стабильной за счет улучшения функций потерь и архитектуры. Кроме того, продолжаются исследования по более фундаментальным и теоретическим вопросам.

Были внесены улучшения в применение GAN, например, в участие в конференции, в котором GAN использовались для неконтролируемого взлома шифров. Также в области видения были внесены улучшения, так что теперь GAN могут генерировать реалистичные изображения с высоким разрешением.

- Состязательные атаки и защиты

Глубокие нейронные сети можно манипулировать для предсказания неправильных классов с помощью вредоносных входных данных. Эти состязательные примеры характеризуются применением минимальных изменений к исходным данным, так что ранее правильная классификация с высокой достоверностью приводит к произвольному результату классификации.

Состязательные атаки представляют серьезный риск для безопасности различных типов систем, использующих самые современные методы машинного обучения. Например, злоумышленник может обмануть автономную систему вождения, манипулируя дорожным знаком. В зависимости от намерения злоумышленника это может привести к катастрофическим результатам. Таким образом, повышение устойчивости к атакам противника является активным предметом исследований. Тема была представлена ​​в различных докладах и стендовых презентациях. Постоянно ведутся исследования по поиску и совершенствованию методов создания примеров противоборства, по стратегиям защиты от таких атак, а также по получению более глубокого понимания состязательных атак в целом.

- Сжатие нейронных сетей / Глубокое обучение на периферии / Архитектура ресурсоэффективной DNN

Все больше внимания привлекает понятие моделей, эффективных с точки зрения памяти, а также моделей, позволяющих быстро делать выводы. Это можно объяснить тем фактом, что в настоящее время основное внимание уделяется повышению точности за счет разработки более глубоких архитектур с большим объемом памяти и медленными процессами. Следовательно, использование этих архитектур экономичным способом или на портативных устройствах вряд ли возможно. Чтобы облегчить проблему без ущерба для точности, сообщество работает над рядом подходов. Среди наиболее заметных из них - квантование или бинаризация весов сети, выборочное удаление нейронов для уменьшения избыточной пропускной способности сетей и извлечение знаний, то есть имитация глубокой сети с помощью мелкой сети и интеллектуальных архитектур, которые позволяют пропускать вычисления, например для простых точек данных.

- Глубокое обучение с подкреплением

Хотя первые идеи обучения с подкреплением (RL) появились несколько десятилетий назад, большой прогресс был достигнут с появлением глубокого обучения. Основная концепция RL-системы состоит в том, чтобы агент изучает политику изменения состояния системы в сторону целевого состояния посредством действий. Агент изначально не знает, какое действие наиболее выполнимо для текущего состояния, но время от времени получает вознаграждение за оптимизацию политики агента.

Первоначальные идеи использования возможностей глубокого обучения для RL заключались в оценке Q-значений, представляющих общую ожидаемую награду для агента после выполнения определенного действия с помощью нейронных сетей. Вскоре сети глубокого обучения стали использоваться для замены других частей обычных политик, таких как RL, или даже для расширения структуры RL, например. с актерско-критическими сетями.

Несмотря на то, что RL все еще плохо обобщает и демонстрирует трудности с воспроизводимостью, как было сказано в одном из приглашенных докладов, на ICLR’2018 было опубликовано более 70 связанных статей. Диапазон варьируется от применения Deep RL для решения различных задач до использования RL в методах глубокого обучения. Теоретические работы сосредоточены на обобщении усвоенных политик или на улучшении RL с помощью новых подходов.

Подборка интересных статей

Ниже приведены наши любимые статьи и причины, по которым мы считаем, что их стоит прочитать. Чтобы узнать больше об основных моментах и ​​подробностях статьи, ознакомьтесь с полным отчетом ICLR.

  • Обучение и запоминание: Эта статья показывает, что сеть простых справочных таблиц способна решать задачу MNIST с удивительно хорошей точностью тестирования. Это показывает, что запоминание может привести к обобщению.
  • Учимся представлять программы графами: авторы показывают, как можно представить программу в нейронной сети. Они замечают, что языки программирования навязывают структуру графов и, следовательно, напрямую используют архитектуры нейронных сетей на основе графов. Эта работа демонстрирует некоторые интересные приложения, которые могут улучшить качество кода и выявить ранее необнаруженные ошибки в исходном коде на реальных наборах данных.
  • О важности отдельных направлений для обобщения: В статье показано, что классовая селективность нейронов является плохим предиктором важности задачи. Он также показывает, что сети, которые хорошо обобщаются и показывают хорошую производительность, мало зависят от отдельных устройств, что в целом снижает избирательность. Еще одно интересное открытие заключается в том, что обычно используемая пакетная нормализация, по-видимому, неявно препятствует использованию единичной нейронной селективности. Кроме того, хотя известно, что выпадение является эффективным регуляризатором для предотвращения запоминания рандомизированных меток, авторы отмечают, что он не может предотвратить чрезмерную зависимость от единичных активаций за пределами отсева. Это может быть связано с отключением, приводящим к неявному созданию избыточных копий представления в сети, чтобы компенсировать потерю единиц.

В целом, ICLR был меньшим аналогом других ведущих конференций по машинному обучению, таких как NIPS или CVPR. В течение пяти дней конференции был затронут широкий круг тем, и мы познакомились с несколькими новыми исследовательскими подходами, а также с практическими приложениями для промышленности. Помимо обучения с подкреплением, особое внимание уделялось генеративным моделям. Ввиду огромного прогресса в области компьютерного зрения, относительно медленное развитие здравоохранения стало основой для обсуждения наряду с различными причинами, лежащими в основе, такими как конфиденциальность данных. Наконец, на конференции была подчеркнута проблема воспроизводимости машинного обучения, что выявило острую потребность в улучшении в этой области.