Это всегда вопрос для решения головоломки создания масштабируемых продуктов с учетом данных. Что я имею в виду под продуктами с поддержкой данных? Я имею в виду программное / аппаратное обеспечение продукта, которое имеет возможность вычислять и принимать решения на основе его взаимодействия с внешней средой, которая может быть входными данными в любой форме, например, алфавитами, числами, датами, словами, изображениями, аудио, видео и т. Д. через некоторое время.
Я годами искал способы создавать эти продукты. Для этого одним из наиболее важных ингредиентов является выбор программного стека машинного обучения для написания своего интеллектуального механизма. Мне нужно что-то, с чем я могу легко поэкспериментировать и что поможет мне быстро перейти в производство, чтобы использовать его где-нибудь еще.
После множества положительных и отрицательных результатов я предположил, что TensorFlow, по-видимому, является ответом на мой вопрос. Теперь возникает большой вопрос, почему именно TensorFlow, а почему нет других библиотек. Поэтому я поискал его в Интернете и блогах, чтобы проверить свой мыслительный процесс, но мне не удалось найти обобщенную версию этого вопроса. Дело не в хороших или плохих библиотеках для машинного обучения. Это вопрос выбора, основанный на ваших требованиях.
Ниже приведены размеры, на которые следует обратить внимание: -
- Сообщество / поддержка с открытым исходным кодом
- Коммерческая поддержка / Управляемое обслуживание
- Вопросы Активность на платформах вопросов и ответов, таких как Stackoverflow, Quora, Reddit и т. Д.
- Совместимость с другими популярными платформами / средами, такими как Python, C ++, Java
- Важнее всего то, насколько простой и беспроблемный переход от исследования к производству благодаря сервисной структуре TensorFlow.
- Примеры кодов на GitHub или аналогичных платформах
- Стиль документации, последовательность и детализация
- Проблемы масштабируемости, такие как облачные вычисления, возможности распределенной и параллельной обработки
- Мощные визуализации для удобного мониторинга и производительности
- Отказоустойчивость
- Портативность
- Возможность моделировать контрольные точки для экономии вычислительных ресурсов и затрат
- Возможности предварительной обработки данных либо напрямую, либо с поддержкой интеграции ETL, что намного лучше, чем у версии TF 1.4 с DataSet API.
- Гибкость структуры для обеспечения уровня настройки от написания стандартного кода (лучше для новичков) до среднего и продвинутого низкого уровня сложности (продвинутые пользователи)
- Примеры компаний, уже использующих фреймворк в производстве, такие как Uber, Google, DeepMind, Intel, Qualcomm, Snapchat, Twitter, NASA, использующие TensorFlow и т. Д.
Выше перечислены пункты, которые я нашел достаточно актуальными, чтобы сделать вывод об использовании TensorFlow. Ждем ваших комментариев, чтобы добавить больше размеров!