Введение

За прошедшие годы на машинное обучение произошли существенные изменения. В основе машинного обучения и принципов глубокого обучения данные всегда занимают приоритетное место. Но иногда адекватный сбор данных не дает более точных моделей. В этой ситуации обучение по принципу «несколько выстрелов» может дать некоторые преимущества для повышения точности моделей и помочь предприятиям. Основная идея обучения за несколько шагов - делать прогнозы на минималистичных наборах данных с помощью надежных алгоритмов. Как упоминалось ранее, это облегчает решение проблем с объемом данных и сокращает расходы. Он направлен на то, чтобы избежать переобучения и недообучения. Переобучение - это случай, когда модель «слишком много учится» на обучающем наборе данных, поэтому обобщение модели становится ненадежным. Недообучение - это случай, когда модель «недостаточно усвоила» обучающие данные, она может даже не собрать доминирующую тенденцию.

Для любой формы низкоуровневого обучения есть некоторые требования, по которым мы должны выполнить хотя бы одно из них. Это предварительно обученные фильтры и заранее заданная архитектура, правильное предположение о распределении данных, конкретная классификация информации.

Быстрое обучение - один из самых эффективных методов экспериментов с малым объемом данных. Такие методы, как регуляризация, могут предотвратить переоснащение, но не могут найти решения основной проблемы, вызванной меньшим количеством обучающих примеров. Тем не менее, это вызывает некоторые трудности, такие как сбор и маркировка данных, аппаратные ограничения, анализ результатов и т. Д. В повседневной жизни есть несколько важных областей использования обучения по нескольким кадрам. Например, когда есть ограниченный объем данных; в медицине мы можем использовать кратковременное обучение, работая с редкими заболеваниями. Это также может помочь облегчить бремя сбора крупномасштабных контролируемых данных для промышленного использования.

Простые подходы к обучению

Есть два основных типа простых подходов к обучению. Это подходы «на уровне параметров» и «на уровне данных».

1. Подход на уровне параметров

Подход на уровне параметров ограничивает параметрическое пространство для предотвращения переобучения. Обучение осуществляется с помощью алгоритма адаптации параметров математической или статистической модели с учетом данных обучения. Это может быть логистическая регрессия, нейронные сети и т. Д. Поучительный алгоритм можно обучить с использованием большого количества данных о том, как минимизировать пространство параметров. После этого, если настоящий классификатор обучен, инструктивный алгоритм приводит студента к общему параметру, чтобы применить на практике лучшие результаты обучения.

Непараметрический метод: обучение осуществляется путем сохранения обучающих данных (запоминание) и выполнения некоторых отображений уменьшения размерности, например, k-ближайшего соседа (kNN) * и деревьев решений.

Классификатор kNN - это непараметрический классификатор, который просто хранит обучающие данные, D, и классификация выполняется большинством голосов его соседям, вычисляемым с использованием новых точек данных на основе показателей сходства (например, функция расстояния ). Для kNN нам нужно выбрать функцию расстояния d и количество соседей k:

Удержание. В случае большого количества наборов данных лучше всего использовать параметрический подход. Таким образом, непараметрический подход более совместим с обучением за несколько шагов, потому что он обычно требует хранения данных и их обработки для каждого запроса. Таким образом, непараметрические методы более функциональны в плане обобщения и обучения.

2. Подход на уровне данных

Чтобы избежать переобучения и неполного подбора, подходы на уровне данных используют простой способ добавления дополнительных данных. Но это не означает, что решение собирает больше данных, оно направлено на обширный сбор внешних источников данных. Другой метод увеличения данных - создание новых данных, его можно использовать для добавления случайного шума к целевой модели обучения. Альтернативный метод под названием Generative Adversarial Networks (GAN) предлагает генеративные модели, которые учатся генерировать новые экземпляры данных с той же статистикой, что и обучающий набор.

Мета-обучение

К метаданным применяются алгоритмы автоматического обучения. После нескольких примеров модель учится «как учиться». Как утверждали Thrun & Pratt в 1998 году, алгоритм учится учиться, если «его производительность в каждой задаче улучшается с опытом и с увеличением количества задач».

На рисунке выше средство извлечения функций отличается для изображений набора поддержки (слева) и изображений запроса (внизу). Matching Networks - это первый алгоритм изучения показателей с использованием метаобучения. В этом методе сеть находит наиболее подходящее вложение не только в соответствии с изображением, которое нужно встроить, но также и всеми другими изображениями в наборе поддержки. Есть много других алгоритмов, использующих метаобучение.

Безупречное обучение

В обучении с нулевым выстрелом есть процедура, которая выполняет обучение с использованием характеристик объекта, а не с прямым использованием данных. Таким образом, он распознает объекты на изображении без каких-либо помеченных обучающих данных, чтобы помочь в классификации.

Ссылки

Https://medium.com/quick-code/understanding-few-shot-learning-in-machine-learning-bede251a0f67, август 2018 г.

  • О'Ши, Тим. «Генеративная состязательная модель MNIST в Керасе».

Https://www.kdnuggets.com/2016/07/mnist-generative-adversarial-model-keras.html, июль 2016 г.

  • Виньялс, Ориол. Бланделл, Чарльз. Лилликрап, Тимоти. Кавукчуоглу, Корай. Виерстра, Даан. «Соответствующие сети для обучения одним выстрелом». Труды по системам обработки нейронной информации, июнь 2016 г.