Я слышал и видел, как много людей публикуют и рассказывают о встречах или хакатонах, организованных рядом технологических компаний, наиболее известными из которых являются Google, Facebook, PayTM и т. Д.
Это была моя первая встреча, на которой я встретил множество людей, работающих с различными технологиями и компаниями, в основном это была небольшая встреча, на которой я узнал о новых API машинного обучения, запущенных Google. Также это мой первый средний рассказ! Приносим извинения за то, что вас спрятали, но теперь вы нашли жемчужину. :П
У меня были мурашки по коже!
В тот момент, когда инструктор попросил нас кратко рассказать о себе, я просто погрузился в свой мир страха, я продолжал составлять предложения, чтобы сказать, когда подошла моя очередь, и, наконец, я придумал совершенно другую речь, которая была смесью о многих других, которые уже сказали! Ах да, у меня есть страх сцены, вы все правильно поняли. Я работаю над этим.
Итак, достаточно разговоров, давайте перейдем к событию. Это мероприятие в основном было посвящено Vision API и Speech API и небольшому вступлению в Kubernetes. Я покажу здесь рабочую демонстрацию обоих API, а также поделюсь кодами. Мы будем работать над python и терминалом без впечатляющего графического интерфейса. Кроме того, это не будет долгой процедурой, я добавлю только необходимые вещи и результаты.
API Google Vision
Здесь, используя этот API, мы будем анализировать изображения и получать соответствующие ярлыки для входного изображения, такие как улыбка, цвет, настроение, тип фотографии, освещение и т. Д.
Что вам понадобится: Python 2.7.14 или выше, OpenCV, google-cloud и файлы с общим кодом ниже.
Команда для получения Google Cloud:
sudo pip install google-cloud
Команда для получения open-cv:
sudo pip install opencv-python
Основной код:
Улыбка XML:
https://gist.github.com/krnblni/62499bd87e6a1f13c07e8dcb165fde8f
Фронтальное лицо XML:
https://gist.github.com/krnblni/62499bd87e6a1f13c07e8dcb165fde8f
Процедура: просто создайте новый ключ API для Vision API из GCP и загрузите файл JSON с учетными данными, после чего измените пути к файлу улыбки, лица, изображения и json с учетными данными в папке opencv-gcp.py, как показано на изображении ниже (см. подпись к изображению):
РЕЗУЛЬТАТЫ:
Google Speech API
Теперь мы будем использовать Speech API, чтобы определять, что мы говорим, и преобразовывать в текст.
Требования: Python 2.7.14 или выше, google-cloud, PyAudio, PortAudio (для PyAudio), SpeechRecognition, Pocketsphinx и приведенный ниже код Python.
Команды:
Google Cloud: "sudo pip install google-cloud" PyAudio: "sudo pip install pyaudio" PortAudio: "brew install portaudio" SpeechRecognition: "sudo pip install SpeechRecognition" Pocketsphinx: "sudo pip install pocketsphinx"
Основной код:
РЕЗУЛЬТАТЫ:
Спасибо, что проехали!
Что ж, это все о том, как приступить к работе с новыми API Google ML. Все эти коды и файлы также загружаются на Github в репозитории организатора / хоста. ССЫЛКА НА VISION REPO и SPEECH REPO.
Так что это был отличный опыт, и я просто не могу удержаться от того, чтобы поделиться групповой фотографией и подарками…
Если вам это нравится, нажмите кнопку хлопка и дайте мне знать, как я могу улучшить в комментариях.
До следующего раза, пока! Спасибо, что прочитали, и поздравляю, что сделали здесь. :)