Термин трансферное обучение говорит сам за себя. Это метод, который повторно использует предварительно обученные веса для обучения новой модели. Это очень эффективный метод, поскольку он включает веса предварительно обученной модели для достижения хорошей точности в нашей новой модели.

Этот метод чрезвычайно полезен, если у вас есть небольшой набор наборов данных. Поскольку небольшой набор данных приводит к низкой точности, мы можем преодолеть это, передав предварительно обученный вес нашей модели и добившись хорошей точности на нашей модели, содержащей небольшой набор данных.

Как работает трансферное обучение?

Трансферное обучение применимо в глубоком обучении, CNN и НЛП. Чтобы применить трансферное обучение в алгоритмах. Во-первых, оцените, какой именно алгоритм вы используете. Например, алгоритмы глубокого обучения, CNN или машинного обучения. Основываясь на характеристиках алгоритма, вам нужно будет передать этот предварительно обученный вес и встроить его в свою модель.

Чтобы проиллюстрировать и лучше понять, давайте предположим, что мы имеем дело с изображениями, а значит, с проблемой CNN. Подводя итог методологии CNN, это метод, который использует слои для обучения модели. Каждый слой состоит из своей собственной функции, такой как сверточный слой, слой максимального объединения или плоский слой. Чтобы использовать трансферное обучение в CNN, нам придется передавать предварительно обученные веса от слоя к слою. Вы можете передавать предварительно обученные веса в соответствии с вашими требованиями. Вы можете обучать слои, на которые не влияет трансферное обучение, и опускать слои, состоящие из обученных весов. Это приводит к достижению высокой точности в вашем обучающем наборе данных, что приводит к хорошей точности разделения тестов. Это помогает специалистам по данным, работающим в сфере здравоохранения, поскольку им приходится иметь дело с небольшими данными из-за государственной и частной политики.

ВГГ16

VGG16 — это самая большая в мире предварительно обученная модель, которая прошла обучение на более чем 1 миллионе изображений. Многие исследователи данных переносят предварительно обученные веса из VGG 16 в свои модели.

На рис. 1 мы объявили VGG 16 с 1000 классами.

На рис. 2 выше. Во-первых, мы объявили входные формы наших слоев. Более того, мы передали параметр «weights=’imagenet’», чтобы сообщить компиляторам, что веса передаются из imagenet из VGG16. Наконец, в последних нескольких строках мы сообщили нашей модели, что 4 слоя не будут обучаться, потому что мы использовали трансферное обучение в этих слоях. Когда модель будет выполнена, она исключит эти 4 слоя и обучит другие слои. Разница в точности колоссальная. В этой конкретной модели я получил точность 40% без трансфертного обучения. Однако с трансферным обучением он вырос до 65%.

Хорошие ресурсы: -

Разница между ИИ, машинным обучением и глубоким обучением -› https://youtu.be/4fGx08QKymQ