Публикации по теме 'transformers'


Простая настройка трансформаторов для распознавания именованных сущностей
Как легко настроить любой преобразователь обработки естественного языка для распознавания именованных сущностей на любом языке. В этой статье мы рассмотрим, как легко настроить любой предварительно обученный преобразователь обработки естественного языка (= NLP) для распознавания именованных сущностей (= NER) на любом языке. Почему тебе должно быть до этого дело? Что ж, NER - это мощная задача НЛП со множеством приложений, как было подробно описано в «На пути к науке о данных»...

Глава 16: Обработка естественного языка с помощью RNN и внимания
Обзор практического машинного обучения с помощью Scikit-Learn, Keras и Tensorflow Орельена Жерона Резюме В этой главе мы взяли то, что мы узнали о RNN в предыдущей главе, и построили на этом, чтобы поговорить о том, как мы конкретно имеем дело с обработкой естественного языка. В нем Жерон рассказал об основных методах, прогнозирующем тексте, анализе настроений и нейронном машинном переводе. В отличие от многих предыдущих глав, эта глава посвящена одной конкретной теме и посвящена..

Машинное обучение, создание генератора виджетов пользовательского интерфейса Flutter
Преобразуя естественные английские предложения в код виджетов Flutter с помощью Transformers и PyTorch Можем ли мы преобразовать наши простые английские предложения в некоторый код пользовательского интерфейса? действительно ли мы можем получить рабочий код, не зная его? В этом блоге мы проведем простой эксперимент. Мы будем использовать PyTorch и архитектуру Transformers для создания модели от последовательности к последовательности, которая принимает английское предложение в..

Трансформатор Галеркина: однократный эксперимент на NeurIPS 2021
Мысли и теория Трансформатор Галеркина: однократный эксперимент на NeurIPS 2021 Путешествие любителя вычислительной математики по математической теории и приложениям механизма внимания. Пролог Недавно я написал свою первую статью о машинном обучении¹ как забавном, но сложном побочном проекте вместе с репозиторием с открытым исходным кодом, содержащим коды: https://github.com/scaomath/fourier-transformer . Будучи полным новичком и независимым исследователем в этой области, я..

Юмористическое предсказание испанских предложений с помощью Tensorflow 2.0 и Transformers
В этом посте мы опишем структуру, похожую на трансформатор, которую мы реализовали в Umayux Labs ( @UmayuxLabs ), чтобы предсказать, было ли предложение юмористическим или нет, используя испанский корпус из HAHA @ IberLEF2019 набор данных. Мы основали нашу реализацию на этом руководстве по преобразованию Tensorflow 2.0. Набор данных Набор данных, используемый для обучения и тестирования модели, состоит в общей сложности из 24000 аннотированных твитов, полученных из набора данных..