Выполнение API-вызова модуля машинного обучения на IoT Edge

Мне удалось установить модуль машинного обучения на периферийное устройство IoT в соответствии с приведенным ниже руководством Microsoft. Я также могу получать прогнозы машинного обучения из данных маршрутизации из модуля имитированных данных tempSensor в модуль машинного обучения, и это здорово.

https://docs.microsoft.com/en-gb/azure/iot-edge/tutorial-deploy-machine-learning

Я бы хотел использовать модуль машинного обучения в качестве веб-службы на устройстве IoT Edge - есть ли способ настроить таргетинг на этот модуль с помощью REST и т. Д.? Что-то похожее на приведенное ниже, хотя я продвигаю модель машинного обучения как модуль к периферийному устройству Интернета вещей, а не как веб-службу.

https://docs.microsoft.com/en-gb/azure/machine-learning/preview/model-management-service-deploy.

РЕДАКТИРОВАТЬ: я не собираюсь развертывать образ ML в качестве веб-службы, например, по следующей ссылке, используя «az ml service create» и т. Д. Я хотел бы развернуть образ ML в качестве модуля через управление IoT Edge и по-прежнему получать к нему доступ через REST API. https://docs.microsoft.com/en-gb/azure/machine-learning/preview/model-management-service-deploy.

Привет, Com


person Commio    schedule 05.02.2018    source источник
comment
Все модели машинного обучения Azure, контейнеризованные как веб-службы на основе Docker, также могут работать на устройствах Azure IoT Edge. Вы можете обратиться к Развертывание модели машинного обучения как веб-службы?   -  person Michael Xu - MSFT    schedule 06.02.2018
comment
Спасибо за ответ. Да, у меня есть. Вместо этого рабочий процесс здесь использует это: az ml service run realtime -i ‹идентификатор службы› -d и т. Д. Я могу использовать это на устройстве Edge (я полагаю?) После того, как я настрою его как локальную среду. Это приведет к прямому извлечению образа докера из репозитория. Обратной стороной этого, я считаю, является то, что вы не можете использовать его при маршрутизации между модулями, которая находится в архитектуре IoT Edge. Если я использую рабочий процесс для опускания модуля через управление IoT Edge (docs.microsoft.com/en-gb/azure/iot-edge/), могу ли я получить доступ к службе REST?   -  person Commio    schedule 06.02.2018


Ответы (1)


Да, REST API для оценки ваших данных в контейнере Docker на устройстве Azure IOT Edge можно вызвать напрямую. Дополнительная информация об использовании веб-службы: https://docs.microsoft.com/en-gb/azure/machine-learning/preview/model-management-consuming.

Если вы заинтересованы в создании собственных пользовательских моделей AI / ML, я бы порекомендовал пройти обучение по Azure ML Iris: https://docs.microsoft.com/en-gb/azure/machine-learning/preview/tutorial-classifying-iris-part-1

Это проведет вас через обучение модели и ее внедрение в контейнер Docker. Вы можете сделать вывод, вызвав REST API с вашими данными, независимо от того, развернут ли контейнер в облаке или на периферии.

person Ted W. Way    schedule 06.02.2018
comment
Привет, Тед, что, если вы развернете его как модуль IoT Edge, как эта ссылка? docs.microsoft.com/en-gb/ лазурный / iot-edge /. Для контекста я прошел через эти уроки. В учебных пособиях показано, как развернуть веб-службу с использованием az ml service run realtime, а не в качестве модуля IoT, который затем можно интегрировать с функцией маршрутизации IoT Edge. - person Commio; 06.02.2018