«Давайте нажмем играть с ML»

AWS Deep Composer. Это одна из тех услуг, предлагаемых AWS, которая помогает разработчикам освоить машинное обучение для звуковых дорожек. Таким образом, чтобы начать работу с Deep Composer, разработчик должен получить устройство Deep Composer, о котором я упомяну ниже.

AWS Deep Composer использует генеративный ИИ или, в частности, генеративно-состязательные сети (GAN) для создания музыки. В GAN две сети, генератор и дискриминатор, противопоставляются друг другу для создания нового контента.

Лучший из найденных нами способов объяснить это — использовать метафору оркестра и дирижера. В этом контексте генератор подобен оркестру, а дискриминатор подобен дирижеру. Оркестр играет и создает музыку. Дирижер оценивает музыку, созданную оркестром, и тренирует оркестр, чтобы улучшить ее для будущих итераций. Таким образом, оркестр тренируется, практикуется и пытается создавать музыку, а затем дирижер учит их создавать более совершенную музыку.

Поскольку Deep Composr использует GAN, важно понимать роль этих сетей.
Оценивает качество вывода: Дискриминатор
Создание нового вывода. : Генератор
Предоставление отзыва: Дискриминатор

Таким образом, для использования данного сервиса, очевидно, потребуется учетная запись AWS, и разработчик может заказать устройство, предлагаемое Amazon, или использовать виртуальную клавиатуру, предлагаемую сервисом, и в конце обработки, когда пользователь закончит или хочет опубликовать трек, он / она может опубликовать трек в soundcloud одним щелчком мыши.

Рабочий процесс AWS Deep Composer

  1. Используйте клавиатуру AWS Deep Composer или играйте на виртуальной клавиатуре в консоли AWS Deep Composer, чтобы ввести мелодию.
  2. Используйте модель в консоли AWS DeepComposer для создания оригинальной музыкальной композиции. Вы можете выбрать предварительно обученные модели джаза, рока, поп-музыки, симфонии или Джонатана Коултона или создать собственную модель жанра в Amazon SageMaker.
  3. Публикуйте свои треки в SoundCloud или экспортируйте MIDI-файлы на вашу любимую цифровую звуковую рабочую станцию ​​и получайте еще больше творчества.

По сути, разработчик загружает музыкальную дорожку по своему выбору, а затем выбирает жанр для ее преобразования, а затем модель машинного обучения гармонизирует данную дорожку на основе выбранного жанра.

Взгляните на GIF ниже, чтобы получить общее представление о том, как создать свой собственный трек с помощью Deep Composer.

Каждая итерация цикла обучения называется эпохой. Модель обучается на тысячи эпох. В машинном обучении цель повторения и завершения эпох состоит в том, чтобы улучшить выходные данные или прогноз модели. Любой вывод, который отклоняется от истинного положения, называется ошибкой. Мера ошибки, заданная набором весов, называется функцией потерь. Веса показывают, насколько важна связанная функция для определения точности прогноза, а функции потерь используются для обновления весов после каждой итерации. В идеале, по мере обновления весов модель улучшается, делая все меньше и меньше ошибок. Схождение происходит, когда функции потерь стабилизируются.

Мы используем функции потерь, чтобы измерить, насколько точно выходные данные моделей GAN соответствуют желаемому результату. Или, в случае Deep Composer, насколько хорошо выходная музыка Deep Composer соответствует обучающей музыке. Как только функции потерь от Генератора и Дискриминатора сходятся, это указывает на то, что модель GAN больше не обучается, и мы можем остановить ее обучение.

Общий обзор базовой архитектуры приведен ниже:

Таким образом, каждый раз, когда мы загружаем аудиофайл в консоль Deep Composer, он использует API-вызов к Deep Composer API, который затем сохраняется в DynamoDB (которая является базой данных AWS NoSQL), что дополнительно запускает лямбда-функцию, которая обращается к AWS SageMaker, который содержит предварительно обученная модель для данной архитектуры.

Это все на сегодня. Спасибо за чтение. Продолжай учиться.

Ваше здоровье.