Получение прогнозов на основе данных из Rest API с помощью модели, размещенной с использованием TensorFlow Serving.

Итак, у вас есть красивая модель, которая очаровательно работает с данными. Теперь вы хотите запустить эту модель в производство и получить прогноз на основе новых данных.

Позвольте представить вам систему обслуживания TensorFlow, предназначенную для обслуживания обученной модели в производственной среде. По умолчанию он поставляется с бесшовной интеграцией с моделями TensorFlow, но возможности могут быть расширены и на другие модели.

Сохранение модели

Итак, предположим, что после выполнения действий, описанных в этой статье, у вас есть обученная модель и вы используете Google Colab.

Модель для обслуживания TensorFlow должна быть сохранена с версиями и переменными, что вы можете сделать с помощью следующего кода:

Изучение модели, которую мы только что сохранили

Это полезно, если в службе TF имеется несколько моделей, и мы не знаем их специфики. Этот фрагмент кода становится бесценным в этом случае, он раскроет содержимое сохраненной модели.

Обслуживание модели и получение прогнозов

Обслуживание позволяет нам управлять версиями моделей и расставлять приоритеты, какую версию использовать. Это особенно полезно либо для переобучения модели, либо для облегчения передачи обучения без ущерба для целостности архитектуры платформы.

Теперь давайте воспользуемся REST API TensorFlow Serving, чтобы делать прогнозы:

На этом мы завершаем тему, которая охватывает непрерывный процесс построения модели, как описано в ранее упомянутой статье, а затем размещает модель для получения прогнозов на основе новых данных с помощью Rest API.

Существуют различные способы использования обслуживания, и эта тема расширяется и связана с обслуживанием моделей с помощью Google Cloud.