Счастливых праздников и счастливого нового года от Women in EECS (WiEECS)! Прошлый год был захватывающим для WiEECS по многим причинам: наши комитеты по рекламе, общественным мероприятиям, наставничеству и профессиональному развитию проделали потрясающую работу по созданию потрясающих материалов, расширению нашей базы наставничества и организации учебных перерывов для всего сообщества.

Одной из новых инициатив, которые мы также начали в прошлом году (2018), была программа конференции WiEECS, щедро финансируемая Департаментом EECS и IEEE. Программа конференции была направлена ​​на то, чтобы познакомить студентов с новаторскими исследовательскими проектами со всего мира. В этом году наша команда организовала гранты на NeurIPS, конференцию Neural Information Processing Systems. Вот что некоторые из наших участников рассказали о своем опыте участия в конференции!

Почему вы захотели посетить NeurIPS?

Привет! Меня зовут Баула, в настоящее время я учусь на старшем курсе Массачусетского технологического института, изучаю электротехнику и компьютерные науки. В настоящее время я являюсь директором комитета по наставничеству WiEECS, а также принимаю активное участие в MIT SWE. Я люблю посещать конференции, потому что это дает мне возможность узнать о новых исследованиях и технологиях, познакомиться с интересными людьми и выбраться из пузыря MIT. Количество профессоров Массачусетского технологического института, выступающих с докладами и выступающих на NeurIPS, также напомнило мне о том, как мне повезло учиться в университете, где проводится так много новаторских исследований. NeurIPS был особенно интересен для меня, потому что за семестр до этого я посещал Human Intelligence Enterprise, где мы прочитали ряд статей, касающихся искусственного интеллекта. Некоторые из идей и методов, о которых мы читали, были безумными для своего времени, и NeurIPS предоставил прекрасную возможность удовлетворить мое любопытство к новым достижениям в исследованиях искусственного интеллекта.

Меня зовут Цзинвэй. Я учусь на младших курсах информатики и работаю над исследовательским проектом по компьютерному зрению. Я хотел посетить NeurIPS по нескольким причинам: посмотреть, как выглядит конференция, узнать имена важных людей, ознакомиться с новейшими исследованиями в различных подобластях машинного обучения и надеяться немного лучше понять, как работает машинное обучение. конференция по машинному обучению.

Последние две причины, пожалуй, важнее. Вторая последняя причина, я считаю, что для того, чтобы провести хорошее исследование и приблизиться к решению исследовательской проблемы, нужно продолжать изучать новейшие методы и получать доступ к областям, выходящим за рамки их собственной исследовательской проблемы. И последняя причина, когда я проводил исследования, мне было очень сложно отладить модель или объяснить, почему она не работает в определенных случаях. В NeurIPS я хотел увидеть, как люди работают над пониманием черного ящика машинного обучения.

Привет, меня зовут Роза! Я учусь в Массачусетском технологическом институте, изучаю информатику и математику. В настоящее время я работаю над многоагентным проектом обучения с подкреплением, предполагающим ограниченное общение в совместной обстановке. Учитывая растущую популярность обучения с подкреплением, NeurIPS казалась отличной платформой для прямого общения с исследователями, работающими в той же области, и вопросов о потенциально общих проблемах. Я также хотел ознакомиться с формулировками проблем из других областей.

Вступая, что вы надеялись узнать на конференции? Чему вы научились на конференции?

Перед конференцией я составил список докладов, которые показались мне интересными, несмотря на то, что они были из разных семинаров. Я также пытался посещать лекции преподавателей Массачусетского технологического института после того, как понял, как мало я знаю даже об исследованиях моих собственных профессоров. Хотя я многое узнал о новых методах машинного обучения и их применении, одно из выступлений, которое мне особенно запомнилось, было посвящено «социотехнической безопасности», сделанному Даной Бойд. В этом выступлении мы подробно рассмотрели, как наши нынешние методы машинного обучения могут привести к непредвиденным последствиям. Например, поисковые системы полагаются на высококачественные данные для достижения хороших результатов. Когда поисковой системе нечему учиться, кроме таких сайтов, как Reddit и Twitter, где факты теряются и путаются очень быстро, злоумышленники научились заранее создавать среду данных для поисковых терминов, которые передают неверную информацию. С постоянными изменениями в обществе, которые происходят все быстрее с каждым днем, термины быстро меняются. Эти термины, которые больше не популярны, известны как «оставленные термины». Однако противники могут повторно присвоить себе эти «оставленные термины», и мы ничуть не мудрее. В исследованиях мы обычно предполагаем, что люди действуют из лучших побуждений и готовы помочь. Однако это не обязательно так. Важно задуматься о последствиях технологий, которые мы создаем, и о том, как мы можем адаптироваться в эпоху медиа, а не просто надеяться, что проблемы исчезнут.

Заходя, я подумал, что более ценно сосредоточиться на одной теме, лучше на чем-то совершенно новом для меня. Я выбрал метаобучение, потому что в описании говорилось, что методы метаобучения могут «создавать новые методы обучения с нуля». Вся концепция «учиться учиться» казалась мне абстрактной, но интересной, поэтому я решил изучить ее подробнее.

Здесь я хочу упомянуть некоторые другие доклады, которые мне очень понравились.

Хорошие и плохие предположения в разработке моделей и их интерпретации, авторДжейсон Йосински. Йосински рассказал о своем исследовании по визуализации классификации изображений. Инструмент визуализации назывался набором инструментов deepvis. Он выделяет части изображения, которые помогли сети провести классификацию. Он также рассказал о своем исследовании обучающих сетей с изображениями в формате jpeg вместо изображений в пикселях.

Уроки перехода к нейронному машинному переводу в Google, автор Майк Шустер. Разговор был о том, как Google перешел от фразового перевода (модель последовательности к последовательности, модель внимания) к переводу на основе нейронных сетей (от конца к концу). Они называют нейронную систему GNMT (Google Neural Machine Translation). Больше всего улучшилось качество перевода на азиатские языки. Статья GNMT достойна прочтения.

Обучение вождению за один день от wayve.ai. Они обучили модель движения по полосе с нуля, используя глубокое обучение с подкреплением. В машине есть водитель безопасности, корректирующий рулем, если машина уходит с полосы движения. Наградой является расстояние, пройденное транспортным средством без управления водителем безопасности. Буквально через 15–20 минут машина научилась двигаться по полосе. Сама задача была не слишком впечатляющей, но подход RL работал так хорошо, а входные данные, состоявшие только из обратной связи с водителем и монокулярных изображений, были очень впечатляющими. Бумага, пост в блоге

Конференция предоставила мне возможность ознакомиться с ветвями обучения с подкреплением (RL), начиная от теории и заканчивая практикой. Поскольку в Массачусетском технологическом институте (пока) не предлагается курс, ориентированный на RL, я подумал, что получу больше пользы от семплирования различных треков, которые знакомят с другой стороной большей области.

Следующие два доклада показались мне очень интересными:

Многоагентная система Waymo для моделирования, восприятия и планирования: сосредоточена на компромиссе между предубеждениями в компонентах системы. В контексте проблемы DAgger (С. Росс) и автономного вождения, как мы можем создать систему, способную обобщать поведение, а не просто имитировать его? Waymo недавно опубликовала эту статью на ChauffeurNet, которая охватывает большинство моментов, упомянутых в докладе. Я нашел это выступление особенно интересным из-за участия других (гетерогенных) агентов, влияющих на поведение и планирование решений агента в контексте высоких ставок.

MetaGradient Reinforcement Learning от Deepmind: онлайн-адаптивные изменения «природы отдачи» — учебный подход к характеристике функции извлеченной ценности. Несколько мета-взгляд на то, как агенты изучают поведенчески правильную политику. Дэвид Сильвер рассказал об этой работе и обсудил сравнение DQN с метаградиентным DQN и упомянул, что последний работал намного лучше. Это выступление заставило меня больше задуматься о том, что мы считаем само собой разумеющимся в этих алгоритмах обучения: настройка параметров и различные наборы представлений параметров, которые могут быть вызваны.

Какой мастер-класс вам понравился больше всего и почему?

Мой любимый семинар был посвящен машинному обучению для творчества и дизайна. В этом семестре я посещала занятия по театральному дизайну, и мне нравится узнавать о способах сочетания технологий и искусства. Темы этого семинара варьировались от создания украшений до исполнения музыки и создания китайской оперы. Одно выступление на семинаре, которое мне особенно понравилось, было выступлением Эллисон Пэрриш. Эллисон является создателем компьютерной поэзии и публикует книги своих произведений. В своем выступлении Эллисон объяснила, как она попытается воспроизвести работу, похожую на работу Луи Зуковского 80 Flowers. Однако большая проблема с искусством заключается в том, что трудно сказать, хорошо что-то или нет. Она обнаружила, что при перечислении свойств «хороших» стихов немногие известные стихи могут быть классифицированы как «хорошие» по тем же стандартам. Вместо этого она попыталась сосредоточиться на том, чтобы запечатлеть чувства стихов Жуковского, красивых и гладких для чтения. Многие стихи Жуковского содержат выдуманные слова для достижения определенного звучания при чтении вслух. Эллисон попытался воспроизвести это, сжимая слова в список векторов и смешивая эти так называемые «векторы слов». В результате она смогла найти слова между другими, что позволило сделать плавный переход от одного слова к другому. Например, между «w» и «x» могут быть слова «приемлемый», «восхитительный», «расширяемый» и «адаптивный». Когда слова читаются вслух, переход звучит приятно для слуха.

Мета-обучение было моим любимым семинаром. В этой теме было несколько очень интересных идей: использование сети для оптимизации другой сети (обучение оптимизатора), обучение на нескольких примерах (обучение с несколькими выстрелами, большая часть работы по классификации изображений) и обучение одной модели выполнению нескольких задач (универсальность). .

Вот некоторые ключевые выводы из переговоров, на которых я присутствовал:

Что не так с метаобучением, автор Сергей Левайн.

При классификации изображений с помощью обучения с учителем на вход подается изображение, а на выходе — метка. Учитывая большой набор данных с множеством классов и множеством примеров для каждого класса, модель может предсказать класс для тестового изображения.

При использовании метаобучения под наблюдением на вход подается набор данных из нескольких снимков (n снимков, k путей) и тестовое изображение, а на выходе — метка этого изображения. Учитывая множество примеров того, как классифицировать изображение по k категориям (n примеров для каждой категории), во время тестирования модель может выполнить аналогичную классификацию с невидимыми данными. Чтобы прочитать набор данных из нескольких снимков и изображение, мы можем использовать RNN. Он как бы сходится, но мы не знаем, к чему он сходится и достаточно ли он хорош.

MAML (независимое от модели метаобучение) дает хорошую инициализацию модели, так что обучение занимает несколько шагов градиентного спуска, и модель не переопределяется. Лучший способ понять это — просмотреть алгоритм и функцию потерь в документе MAML.

Эффективность методов метаобучения зависит от задач, доступных для обучения. Если мы можем предлагать задачи автоматически, метод метаобучения автоматизирован. Чтобы узнать больше о предложении случайных задач, очень полезна эта статья. А для неконтролируемого мета-обучения это — хороший документ.

Их следующее исследование: вероятностное мета-обучение, глубокое онлайн-обучение посредством мета-обучения, мета-обучение, ориентированное на язык, политическое обучение, одноразовое имитационное мета-обучение.

Инструменты для обучения, автор Нандо де Фрейтас.

Учитесь экспериментировать:

В смоделированной среде агент должен экспериментировать, чтобы найти самый тяжелый блок. [ссылка на статью]

Научитесь оптимизировать:

Замените разработанное вручную правило обновления градиентного спуска на заученное правило обновления. [ссылка на статью]

Автоматически проектировать архитектуру нейронной сети. [ссылка на статью]

Научитесь программировать:

Нейронные программисты-интерпретаторы могут использовать набор программ низкого уровня для сборки программы более высокого уровня, которая решает проблему. Например, он может предложить последовательность команд (выбранную из заданного набора, например {ADD, CARRY, LSHIFT}) для сложения больших чисел. Ядром является модель LSTM, которая вводит встраивание программы, аргументы для этой программы, представление функций для среды и выводит следующую программу и аргументы для следующей программы. [ссылка на статью]

Научитесь подражать:

Преобразование текста в речь с небольшим количеством снимков: WaveNet и WaveRNN с несколькими шагами достигают того же качества выборки (за 5 минут), что и модель, обученная с нуля с данными за 4 часа. [ссылка на статью]

Однократное имитационное обучение. После одной демонстрации (складывания блоков) робот может научиться выполнять ту же задачу с произвольной начальной настройкой. [ссылка на статью]

На случай, если вы захотите ознакомиться с другими материалами конференции, команда организаторов конференции выложила этот замечательный ресурс с видео и слайдами выступлений.

Если вы хотите принять участие в программе Женщины в EECS, свяжитесь с нами по адресу wiecs-president[at]mit[dot]edu.