Как энтузиаст компьютерного зрения, одним из основных препятствий для меня было получение достаточного количества данных для обучения моих моделей, но мне кажется, что крупные кооперативы в конечном итоге берут верх благодаря доступу к огромному количеству наборов данных.

В чем проблема?

Хранилище

Допустим, вам повезло иметь большой набор данных с машиной или облачным хранилищем для всех ваших данных, что может быть проблемой. Я приведу пример набора данных Imagenet, содержащего более 14 миллионов изображений [статистика]

Доступность

Перемещение терабайта данных определенно будет обременительным процессом и, несомненно, помешает людям получить к ним доступ. На днях я наткнулся на прекрасный набор данных размером 20 ГБ, и мое сердце упало, поскольку у меня не было достаточно быстрой полосы пропускания, чтобы получить его, когда мне пришлось его использовать.

Скорость обучения

Хорошо, вам удалось создать огромный набор данных или получить доступ к одному… да.

Теперь осталось потратить значительную часть своей жизни на обучение огромному массиву данных.

Прекрасный доцент Fei-fei li и его коллеги предложили нам решение ONE SHOT LEARNING, есть статья из Stanford Vision Lab .

Они ударили меня большим огненным шаром, когда я просмотрел документ после этой строки:

«Ключевой вывод заключается в том, что вместо того, чтобы учиться с нуля»

И я был таким… Трансферное обучение да, серьезно?

Самое странное в чтении таких документов для меня - это абзац, который, кажется, резюмирует всю статью, и, как мне кажется, тот, что ниже, является им.

Одноразовое обучение использует генеративную модель категорий объектов и вариационную байесовскую структуру для представления и изучения категорий визуальных объектов на нескольких обучающих примерах.

Так что да, здесь задействовано трансферное обучение, и оно составляет большую часть, и это позволяет модели, которую вы строите, учиться на нескольких примерах. Википедия углубилась в мелкие детали (если любите статистику).

Основное различие между переносом обучения и однократным обучением: вам нужно будет выполнять другие действия с вашими данными после слоя Flatten либо с помощью другого алгоритма на одномерном (1D) тензоре, например Support Vector Machine или другая нейронная сеть для тестирования (сравнения) вашей сверточной нейронной сети на недавно обученных данных.

Я полагаю, что последняя часть была немного запутанной, поэтому отсылаю вас к хорошо объясненному видео одаренного Танмая Бакши.