Публикации по теме 'transformers'


Измерьте схожесть предложений с помощью предварительно обученной модели BERT.
BERT - это модель преобразователя, и я не буду вдаваться в подробности теории. Здесь я покажу вам, как вычислить сходство между предложениями, взяв 2 предложения как фиксированные, а третье предложение выбрано пользователем. Модель подскажет, на какое третье предложение больше похоже. Сначала мы импортируем модель BERT и токенизатор из huggingface. Токенизатор преобразует наше предложение в векторы, а модель извлечет из этого вектора вложения признаков. Huggingface основан на PyTorch..

Модели-трансформеры… С чего все началось?
Модели-трансформеры произвели революцию в области обработки естественного языка, но с чего все это началось? Чтобы понять современные архитектуры и по-настоящему оценить, почему эти модели стали прорывом в этой области, мы должны пойти еще дальше во времени, когда НЛП, как мы его знаем, началось: когда мы впервые представили нейронные сети в НЛП. Внедрение нейронных моделей в НЛП позволило найти способы преодолеть проблемы, которые традиционные методы не могли решить. Одним из самых..

Основное позиционное кодирование: часть II
Мы обновляемся до относительного положения, представляем двунаправленное относительное кодирование и обсуждаем плюсы и минусы того, чтобы модель научилась всему этому за вас. Это часть II из двух частей серии Мастер позиционного кодирования . Если вы хотите узнать больше об интуиции и основах позиционного кодирования, прочтите мою первую статью . В то время как в первой статье обсуждалось значение фиксированных синусоидальных абсолютных позиционных кодировок, в этой статье мы..

Развертывание модели распознавания именованных сущностей в производственной среде с помощью TorchServe
Вступление TorchServe - это новый крутой фреймворк для обслуживания моделей пторчей в производстве. Это упрощает масштабное развертывание моделей PyTorch в производственных средах и обеспечивает легкое обслуживание с низкой задержкой, то есть с высокой производительностью. Он имеет несколько мощных функций, таких как обслуживание нескольких моделей, управление версиями моделей для A / B-тестирования, метрики для мониторинга и конечные точки RESTful для интеграции приложений, вы..

Включение немецкого нейронного поиска: анонсирование GermanQuAD и GermanDPR
Два новых набора данных, три модели и документ для продвижения немецкого НЛП Модель хороша ровно настолько, насколько она хороша. Это знает любой специалист в области машинного обучения. Отличные наборы данных, такие как SQuAD и Natural Questions, являются прямыми катализаторами достижений, которые сделали нейронный поиск таким же мощным и гибким, как сегодня. Вдохновленные их успехами, мы приступили к работе над созданием наших собственных аннотированных наборов данных QA и Passage..

Как я могу сделать простой вывод для моих точно настроенных моделей трансформаторов NER?
«НЭР, НЕР, на НЕР, НИР !!» - Понимание NER в «Трансформерах» какое-то время насмехалось надо мной. Я был потерян. Пришло время мне посмеяться в последний раз. Я знал, что хочу делать. Я хотел создать NER в биомедицинской сфере. Я сделал это в замечательном пакете scispaCy и даже в Transformers через удивительные Simple Transformers , но я хотел сделать это в необработанном пакете HuggingFace Transformers . Почему? У меня он работал в scispaCy прямо из коробки с их..

Что такое модели трансформеров - часть 3
В предыдущих рассказах мы обсуждали модели трансформеров и их применение, а также подробно обсуждали архитектуру блоков кодировщика . В этой статье мы подробнее рассмотрим блоки декодера, еще один основной строительный блок трансформаторов. Блоки декодера Архитектура декодера аналогична модели кодировщика, которую мы обсуждали ранее. Он состоит из стека идентичных по структуре декодеров. Выходные данные кодировщика передадут его декодеру в качестве входных данных в виде..