Допустим, вы хотите ввести слово для ELMo и хотите, чтобы это слово было вставлено обратно. Сначала зайдем на tfhub.dev и найдем ELMo hub. Вы прокручиваете вниз и смотрите на возможные результаты, которые ELMo может дать вам:

Мы видим, что в выходном словаре есть word_emb, что, кажется, нам и нужно.

После этого переменная embedding представляет собой (1, 1, 512) вложение слова «собака». Если я хочу запустить несколько слов, я могу просто передать список

embedding variable теперь представляет собой массив встраивания (3, 1, 512) numpy, а форма переменной - (length_of_list, max_words_in_each_item, 512) в соответствии с документацией по скриншоту выше.

Если я не укажу as_dict, будет отображаться default вместо word_emb.

Теперь переменная embedding - это (3, 1024), которая, согласно снимку экрана документации выше, является фиксированным средним объединением всех контекстуализированных представлений слов с формой _8 _ [1] и может быть более актуальной для некоторые.

На TFHub есть много других моделей встраивания текста, и даже в ELMo есть много других функций, таких как токенизация. Я рекомендую вам просмотреть документацию, если вы хотите узнать больше.