Алгоритм метаобучения, вероятно, изменится в будущем

Мета-обучение: учимся учиться

Обширные инновации в машинном обучении

Чтобы успешно понять и изучить новые концепции или взгляды, люди обычно используют один пример в своем обычном месте.

Они осваивают новые навыки намного быстрее и продуктивнее, чем машины; действие, воображение и объяснение.

Например, дети, которые несколько раз видели бабочек и муравьев, могут быстро их узнать. Точно так же подростки, которые понимают, как управлять велосипедом, скорее всего, узнают, как ездить на мотоцикле, с ограниченной демонстрацией. Однако алгоритмы машинного обучения требуют, чтобы сотни моделей для маркировки и обучения обеспечивали аналогичную точность.

Вступление

В информатике метаобучение является частью машинного обучения, которое можно определить как обучение обучению. Это автоматический алгоритм, который применяется к метаданным, чтобы распознать, как обучение может стать гибким в интерпретации трудностей, тем самым повышая производительность существующего алгоритма или изучая сам алгоритм (Thrun & Pratt, 1998¹; Andrychowicz et al., 2016²)

Это исследование изучает использование эволюционных алгоритмов и нейронных сетей с точки зрения процесса метаобучения. Начните с объяснения процесса эволюционного алгоритма, чтобы избежать переобучения, а затем рассмотрите концепцию нейронных сетей. Наконец, вывод о взаимосвязи между эволюционными алгоритмами и нейронными сетями благодаря метаобучению.

Алгоритмы метаобучения обычно заставляют системы искусственного интеллекта (ИИ) эффективно учиться, более надежно адаптироваться к изменениям условий и обобщать их для решения большего числа задач. Их можно использовать для оптимизации архитектуры модели, параметров и некоторой их комбинации. Это исследование фокусируется на особом методе метаобучения, называемом нейроэволюция, а также на эволюционном алгоритме для изучения нейронных архитектур.

Теория эволюции

Чарльз Дарвин, биолог-эволюционист, посетил Галапагосские острова несколько десятилетий назад и заметил, что некоторые птицы, похоже, произошли от одной генетической стаи. У них были общие стандартные черты, характеризующиеся четкими фигурами клюва, которые возникли из их уникальной ДНК (Steinheimer, 2004³), как показано на рисунке 1.

Steinheimer (2004) утверждает, что ДНК - это план, который контролирует репликацию клеток. Гипотеза заключалась в обращении каждого вида в популярную теорию естественного отбора. Этот процесс является алгоритмическим и может быть смоделирован путем создания эволюционных алгоритмов.

Кроме того, эволюционные алгоритмы случайным образом видоизменяют некоторых членов, чтобы попытаться найти еще более квалифицированных кандидатов. При необходимости этот процесс повторяется бесчисленное количество раз. Собственно в этом контексте их можно представить как поколения. Все эти шаги стимулируются дарвиновской теорией естественного отбора. Все они являются частью более широкого класса алгоритмов, называемого эволюционными вычислениями.

Стратегии развития

В настоящее время нейронные сети могут выполнять задачи, которые, вероятно, являются сложными для человека, если они представляют большие объемы обучающих данных. Оптимальные архитектуры для этих сетей нетривиальны и требуют большого количества проб и ошибок. Фактически, исследователи много работали над улучшением архитектур, которые с годами постепенно переходят на новый уровень.

Исследователи обнаружили, что подходы нейроэволюции используются известной технологической компанией Uber, которая начала применять Evolution Strategies (ES), чтобы повысить производительность своих услуг за счет объединения с играми Atari.

«Даже самая базовая стратегия эволюции, которой уже несколько десятилетий, дает сопоставимые результаты; таким образом, более современные стратегии эволюции следует рассматривать как потенциально конкурентный подход к современным алгоритмам глубокого обучения с подкреплением (RL) »(Сихал и др., 2017⁴; Chrabaszcz, Loshchilov & Hutter, 2018⁵ ).

На рис. 2 Uber AI Labs провел тест с несколькими играми Atari. На этой линейной диаграмме показано сравнение стандартных стратегий эволюции с расширенным исследованием алгоритмов. Кажется, что различные настройки гиперпараметров дают значительное вознаграждение. Количество вознаграждений значительно возрастает - от 0 до более 30.

В первых 200 числах поколений величина вознаграждений в обеих стратегиях возрастает до 5 и стабильно держится на уровне более 300 поколений. Затем он резко увеличивается с 320 номеров поколений до максимальных 800 номеров поколений.

Увеличение данных

В современной работе появление моделей глубокого обучения в основном связано с количеством и разнообразием собранных данных. С практической точки зрения, расширение данных распознает значительно повышенную уникальность доступных данных для обучения моделей, за исключением обнаружения самых последних данных. Для увеличения данных используется несколько процедур: обрезка, заполнение и горизонтальное отражение (рис. 3).

Эти методы часто применяются для обучения глубоких нейронных сетей (Shorten & Khoshgoftaar, 2019⁶). Действительно, большая часть стратегии обучения нейронных сетей использует базовые типы увеличения данных.

«Наивысшая точность классификации, полученная с помощью наших моделей, не входит в топ-10 подходов, использующих набор данных CIFAR-10. Это делает предлагаемую архитектуру идеальной для встраиваемых систем в отличие от наиболее эффективных подходов »(alik & Demirci, 2018⁷).

Несмотря на это, Канадский институт перспективных исследований (CIFAR-10) успешно применил проблемы классификации изображений с помощью сверточных нейронных сетей (CNN). Кроме того, Кубук, Зоф, Мане, Васудеван и Ле (2019) ⁸ объясняют, что самая последняя точность наборов данных, таких как CIFAR-10 с AutoAugment, представляет собой инновационный метод автоматического увеличения данных.

Ли, Чжоу, Чен и Ли (2017) ⁹ исследовали, что исследования в области метаобучения обычно концентрируются на данных и проектах моделей, за исключением таких случаев, как оптимизаторы метаобучения, Стохастический градиентный спуск. (SGD), например, который, похоже, все еще подпадает под оптимизацию модели. Увеличение данных легче всего распознать в контексте данных изображения. Эти увеличения изображения обычно включают в себя горизонтальные переворачивания и небольшие повороты или перемещения.

Обсуждение

Существует комбинированное взаимодействие в двух взаимосвязанных процессах: внутрижизненном обучении и внутрижизненном обучении. Думайте о межжизненном обучении как о процессе эволюции посредством естественного отбора. Напротив, внутрижизненное обучение связано с тем, как животное учится на протяжении всего своего существования, например, распознавание объекта, обучение общению и ходьба.

Более того, эволюционные алгоритмы можно отразить как обучение в жизни, а нейронные сети - как обучение в жизни. Эволюционные алгоритмы и нейронные сети, вероятно, являются основным фактором для достижения оптимизированного алгоритма в методах глубокого обучения с подкреплением.

Эволюционные алгоритмы

Bingham, Macke, and Miikkulainen (2020) ¹⁰ подчеркивают, что с эволюционными алгоритмами связаны четыре основных особенности, а именно: количество сетевых уровней, количество нейронов в каждом слое, функция активации и алгоритм оптимизации.

Они начинаются с инициализации нескольких нейронных сетей со случайными весами для генерации популяции. Затем необходимо обучить веса каждой сети с помощью набора данных изображения, а затем оценить, насколько хорошо она работает при классификации тестовых данных. Более того, еще одна функция - это применение точности классификации к набору тестов и реализация функции пригодности, чтобы решить, будут ли сети с наивысшими оценками быть членами следующего поколения.

С другой стороны, эволюционные алгоритмы отфильтровывают самые низкоэффективные сети и устраняют их. Наконец, они позволяют выбрать несколько сетей с более низкими показателями, которые могут оказаться полезными в локальном максимуме при оптимизации сетей. Эти методы представляют собой эволюционный способ предотвращения переобучения.

Нейронные сети

Нейронные сети - это попытка смоделировать возможности обработки информации биологической нервной схемы, отраженной на рисунке 4. Человеческое тело состоит из триллионов клеточных тел, а клетки нервной системы, называемые ядрами, обучены передавать сообщения или информацию с помощью электрохимических средств. .

Проще говоря, нейронные сети представляют собой совокупность подключенных модулей ввода и вывода, в которых каждое соединение имеет соответствующий вес (рисунок 5). Нейронные сети создают новую сеть, смешивая случайный набор параметров из своих родительских сетей. Экземпляр может иметь такое же количество слоев, что и один источник, а остальные его параметры - от другого родителя. Этот процесс отражает, как биология работает в реальной жизни, и помогает алгоритмам объединяться в оптимизированную сеть.

По мере увеличения сложности параметров сети эволюционные алгоритмы производят экспоненциальное ускорение. Крижевский, Суцкевер и Хинтон (2017) ¹¹ упомянули, что для этого процесса требуются стеки данных и вычислительная мощность, а также используются сотни графических процессоров и TPU в течение нескольких дней. Он инициализируется как 1000 идентичных сверточных нейронных сетей без скрытых слоев. Затем в процессе эволюции сети с более высокой точностью выбираются в качестве родителей, копируются и видоизменяются для создания потомков, а остальные исключаются.

Позднее в нейронных сетях использовался фиксированный стек повторяющихся модулей, называемых ячейками. Количество ячеек осталось прежним, но архитектура каждой ячейки со временем видоизменилась. Они также решили использовать определенную форму регуляризации для повышения точности сети.

Вместо того, чтобы исключать сети с самыми низкими показателями, они исключают самые старые, независимо от того, насколько хорошо они набрали, что в конечном итоге привело к повышению точности и обучению с нуля. Этот метод выбирает нейронные сети, которые остаются точными при повторном обучении вместе с алгоритмами эволюции.

Заключение

Мета-обучение - это процесс обучения, чтобы учиться. Более того, искусственный интеллект (ИИ) оптимизирует один или несколько других ИИ.

Это исследование пришло к выводу, что эволюционные алгоритмы используют понятия эволюционных средств и имитируют гипотезу Чарльза Дарвина, например, мутации и естественный отбор, для интерпретации сложных головоломок.

Напротив, метод метаобучения, называемый нейроэволюцией, может использовать эволюционные алгоритмы для индивидуальной оптимизации нейронных сетей. Хотя метаобучение в настоящее время чрезвычайно модно, использование этих алгоритмов для решения реальных задач остается особенно сложной задачей.

Однако с постоянно растущей вычислительной мощностью, специализированным оборудованием для машинного обучения и достижениями в алгоритмах метаобучения они, вероятно, станут более надежными и заслуживающими доверия.

References
#1 Learning to Learn
#2 Learning to learn by gradient descent by gradient descent
#3 Charles Darwin’s bird collection and ornithological knowledge during the voyage of H.M.S. “Beagle”, 1831–1836
#4 Deep Neuroevolution: Genetic Algorithms Are a Competitive Alternative for Training Deep Neural Networks for Reinforcement Learning
#5 Back to Basics: Benchmarking Canonical Evolution Strategies for Playing Atari
#6 A survey on Image Data Augmentation for Deep Learning
#7 Cifar-10 Image Classification with Convolutional Neural Networks for Embedded Systems
#8 AutoAugment: Learning Augmentation Strategies From Data
#9 Meta-SGD: Learning to Learn Quickly for Few-Shot Learning
#10 Evolutionary Optimization of Deep Learning Activation Functions
#11 ImageNet classification with deep convolutional neural networks