Давний наблюдатель, первый постер на Medium.com. Итак, привет, мир!

На этой неделе более 50 000 посетителей собрались в Лас-Вегасе для анонсов AWS, семинаров, демонстраций, сетевых мероприятий и множества сессий.

Команда Convergent и Servian является частью путешествующей толпы, собравшейся в Вегасе на AWS re:Invent 2018.

Подводя итоги дня, ознакомьтесь с новыми публикациями моих коллег: Марата Левита и Ксавьера Клементса. Вы найдете множество материалов, включая новые функции и выпуски AWS, общие обновления по аналитике данных, GraphDB, бессерверным конвейерам данных, безопасности и многому другому!

На 2-й день… Мне так надоело видеть этих двух нарушителей спокойствия (:P), что я решил посетить отдельную сессию. Машинное обучение на периферии.

Машинное обучение на периферии

ML на периферии — не совсем новая концепция, и она обсуждалась ранее в прошлогоднем выпуске re:Invent.

Но на этот раз есть реальный кейс клиента. Стоит посмотреть этот сеанс на YouTube.

Представители Toyota Connected (и AWS) рассказали, как они используют инструменты на основе видео для выполнения расширенной аналитики на периферии.

Примеры использования? Если бы каждое (или большинство) транспортных средств было оснащено видеоустройством, было бы много полезных вариантов использования!

например. Сведите к минимуму отвлекающие факторы/опасное поведение при вождении (разговоры, текстовые сообщения и т. д.), обнаружение видео при посадке/высадке, повысьте безопасность в автомобиле, оптимизируйте общественный транспорт и т. д. и т. д.

Проблема: мда… Почему мы не можем просто обучить полноценную модель в облаке?

Теперь... Каждый автомобиль может легко иметь сотни тысяч датчиков и точек данных. Для краткости предположим:

  • У каждого автомобиля ровно 1 камера
  • Одна минута HD-видео с каждой камеры (в день)
  • Миллион автомобилей там

Даже с учетом приведенных выше консервативных оценок общая стоимость загрузки HD-видео с каждого устройства будет слишком высокой для поддержки услуг компьютерного зрения в реальном времени!

Так что… не всегда будет практично, экономично или даже возможно отправлять эти объемные данные в облако для обработки.

Решение: хорошо… что дальше?

Вот обзор архитектуры:

  • AWS DeepLens захватывает изображения и загружает их — он может содержать модели Lambda и Sagemaker для прогнозирования видеопотоков. Он также может запускать TensorFlow, Caffe, MXNet.

  • AWS Lambda используется для сбора и предварительной обработки данных
  • Обучайте и настраивайте свои модели в Amazon SageMaker. Бьюсь об заклад, недавно выпущенные SageMaker Neo и SageMaker RL еще больше оживят ситуацию.
  • AWS Greengrass выполняет развертывание и обновления обратно на пограничное устройство/AWS DeepLens. Просто добавьте модель Sagemaker и Lambda в качестве ресурсов в группу Greengrass.
  • Устройства должны быть подготовлены в AWS IoT Core.

Другие важные выводы и уроки

  • Toyota Connected использовала трансферное обучение, использует модель ResNet-152 с MXNet в фоновом режиме. SageMaker обеспечивает настройку гиперпараметров. Также — важна предварительная обработка изображения, вырезайте ненужную часть.
  • Из-за ограниченных вычислительных ресурсов для оптимальной производительности периферийных устройств требуются модели меньшего размера и более быстрые. Некоторые методы для достижения этого: обрезка, квантование, сжатие.
  • Если локальный вывод невозможен?

TLDR: машинное обучение + Интернет вещей. Обучение моделей машинного обучения с помощью Amazon SageMaker и развертывание их на периферийном устройстве с помощью AWS Greengrass, что позволяет быстро обрабатывать данные на периферии.