Тридцатая ежегодная конференция по системам обработки нейронной информации (NIPS) представляла собой многопрофильную конференцию по машинному обучению и вычислительной нейробиологии, которая включала доклады, демонстрации, симпозиумы, а также устные и стендовые презентации рецензируемых статей в Center Convencions Internacional Barcelona, ​​Барселона, ИСПАНИЯ, с понедельника, 05 декабря. — Суббота, 10 декабря 2016 г. Все было о генеративно-состязательных сетях (GAN) — недавнем прогрессе в обучении и использовании GAN, улучшениях в подкреплении и глубоком обучении, а также о более широко используемых методах машинного обучения и их приложениях. Плакат говорит сам за себя, насколько это было удивительно, с более чем 6000 исследователей на NIPS-2016 с потрясающими докладами и докладами.

Генеративно-состязательные сети
Минимаксные игровые сети к настоящему времени завоевали расположение многих светил в этой области. Янн ЛеКун называет их самой захватывающей разработкой в ​​машинном обучении за последние годы. GAN — это нейронные сети, которые позволяют генерировать данные с помощью состязательного обучения, первоначально предложенного в 2014 году Goodfellow et. аль . GAN одновременно обучают две модели: генеративную модель G, которая фиксирует распределение данных, и дискриминативную модель D, которая оценивает вероятность того, что выборка была получена из обучающих данных, а не из G. Процедура обучения для G заключается в том, чтобы максимизировать вероятность D сделать ошибку. Эта структура соответствует минимаксной игре двух игроков. В пространстве произвольных функций G и D существует единственное решение, где G восстанавливает распределение обучающих данных, а D везде равно 1/2. В случае, когда G и D определяются многослойными персептронами, всю систему можно обучить с помощью обратного распространения ошибки.

Читать далее(…)