Это всегда вопрос для решения головоломки создания масштабируемых продуктов с учетом данных. Что я имею в виду под продуктами с поддержкой данных? Я имею в виду программное / аппаратное обеспечение продукта, которое имеет возможность вычислять и принимать решения на основе его взаимодействия с внешней средой, которая может быть входными данными в любой форме, например, алфавитами, числами, датами, словами, изображениями, аудио, видео и т. Д. через некоторое время.

Я годами искал способы создавать эти продукты. Для этого одним из наиболее важных ингредиентов является выбор программного стека машинного обучения для написания своего интеллектуального механизма. Мне нужно что-то, с чем я могу легко поэкспериментировать и что поможет мне быстро перейти в производство, чтобы использовать его где-нибудь еще.

После множества положительных и отрицательных результатов я предположил, что TensorFlow, по-видимому, является ответом на мой вопрос. Теперь возникает большой вопрос, почему именно TensorFlow, а почему нет других библиотек. Поэтому я поискал его в Интернете и блогах, чтобы проверить свой мыслительный процесс, но мне не удалось найти обобщенную версию этого вопроса. Дело не в хороших или плохих библиотеках для машинного обучения. Это вопрос выбора, основанный на ваших требованиях.

Ниже приведены размеры, на которые следует обратить внимание: -

  1. Сообщество / поддержка с открытым исходным кодом
  2. Коммерческая поддержка / Управляемое обслуживание
  3. Вопросы Активность на платформах вопросов и ответов, таких как Stackoverflow, Quora, Reddit и т. Д.
  4. Совместимость с другими популярными платформами / средами, такими как Python, C ++, Java
  5. Важнее всего то, насколько простой и беспроблемный переход от исследования к производству благодаря сервисной структуре TensorFlow.
  6. Примеры кодов на GitHub или аналогичных платформах
  7. Стиль документации, последовательность и детализация
  8. Проблемы масштабируемости, такие как облачные вычисления, возможности распределенной и параллельной обработки
  9. Мощные визуализации для удобного мониторинга и производительности
  10. Отказоустойчивость
  11. Портативность
  12. Возможность моделировать контрольные точки для экономии вычислительных ресурсов и затрат
  13. Возможности предварительной обработки данных либо напрямую, либо с поддержкой интеграции ETL, что намного лучше, чем у версии TF 1.4 с DataSet API.
  14. Гибкость структуры для обеспечения уровня настройки от написания стандартного кода (лучше для новичков) до среднего и продвинутого низкого уровня сложности (продвинутые пользователи)
  15. Примеры компаний, уже использующих фреймворк в производстве, такие как Uber, Google, DeepMind, Intel, Qualcomm, Snapchat, Twitter, NASA, использующие TensorFlow и т. Д.

Выше перечислены пункты, которые я нашел достаточно актуальными, чтобы сделать вывод об использовании TensorFlow. Ждем ваших комментариев, чтобы добавить больше размеров!