Я слышал и видел, как много людей публикуют и рассказывают о встречах или хакатонах, организованных рядом технологических компаний, наиболее известными из которых являются Google, Facebook, PayTM и т. Д.

Это была моя первая встреча, на которой я встретил множество людей, работающих с различными технологиями и компаниями, в основном это была небольшая встреча, на которой я узнал о новых API машинного обучения, запущенных Google. Также это мой первый средний рассказ! Приносим извинения за то, что вас спрятали, но теперь вы нашли жемчужину. :П

У меня были мурашки по коже!

В тот момент, когда инструктор попросил нас кратко рассказать о себе, я просто погрузился в свой мир страха, я продолжал составлять предложения, чтобы сказать, когда подошла моя очередь, и, наконец, я придумал совершенно другую речь, которая была смесью о многих других, которые уже сказали! Ах да, у меня есть страх сцены, вы все правильно поняли. Я работаю над этим.

Итак, достаточно разговоров, давайте перейдем к событию. Это мероприятие в основном было посвящено Vision API и Speech API и небольшому вступлению в Kubernetes. Я покажу здесь рабочую демонстрацию обоих API, а также поделюсь кодами. Мы будем работать над python и терминалом без впечатляющего графического интерфейса. Кроме того, это не будет долгой процедурой, я добавлю только необходимые вещи и результаты.

API Google Vision

Здесь, используя этот API, мы будем анализировать изображения и получать соответствующие ярлыки для входного изображения, такие как улыбка, цвет, настроение, тип фотографии, освещение и т. Д.

Что вам понадобится: Python 2.7.14 или выше, OpenCV, google-cloud и файлы с общим кодом ниже.

Команда для получения Google Cloud:

sudo pip install google-cloud

Команда для получения open-cv:

sudo pip install opencv-python

Основной код:

Улыбка XML:

https://gist.github.com/krnblni/62499bd87e6a1f13c07e8dcb165fde8f

Фронтальное лицо XML:

https://gist.github.com/krnblni/62499bd87e6a1f13c07e8dcb165fde8f

Процедура: просто создайте новый ключ API для Vision API из GCP и загрузите файл JSON с учетными данными, после чего измените пути к файлу улыбки, лица, изображения и json с учетными данными в папке opencv-gcp.py, как показано на изображении ниже (см. подпись к изображению):

РЕЗУЛЬТАТЫ:

Google Speech API

Теперь мы будем использовать Speech API, чтобы определять, что мы говорим, и преобразовывать в текст.

Требования: Python 2.7.14 или выше, google-cloud, PyAudio, PortAudio (для PyAudio), SpeechRecognition, Pocketsphinx и приведенный ниже код Python.

Команды:

Google Cloud: "sudo pip install google-cloud"
PyAudio: "sudo pip install pyaudio"
PortAudio: "brew install portaudio"
SpeechRecognition: "sudo pip install SpeechRecognition"
Pocketsphinx: "sudo pip install pocketsphinx"

Основной код:

РЕЗУЛЬТАТЫ:

Спасибо, что проехали!

Что ж, это все о том, как приступить к работе с новыми API Google ML. Все эти коды и файлы также загружаются на Github в репозитории организатора / хоста. ССЫЛКА НА VISION REPO и SPEECH REPO.

Так что это был отличный опыт, и я просто не могу удержаться от того, чтобы поделиться групповой фотографией и подарками…

Если вам это нравится, нажмите кнопку хлопка и дайте мне знать, как я могу улучшить в комментариях.

До следующего раза, пока! Спасибо, что прочитали, и поздравляю, что сделали здесь. :)