Публикации по теме 'transformers'
Простая настройка трансформаторов для распознавания именованных сущностей
Как легко настроить любой преобразователь обработки естественного языка для распознавания именованных сущностей на любом языке.
В этой статье мы рассмотрим, как легко настроить любой предварительно обученный преобразователь обработки естественного языка (= NLP) для распознавания именованных сущностей (= NER) на любом языке.
Почему тебе должно быть до этого дело? Что ж, NER - это мощная задача НЛП со множеством приложений, как было подробно описано в «На пути к науке о данных»...
Глава 16: Обработка естественного языка с помощью RNN и внимания
Обзор практического машинного обучения с помощью Scikit-Learn, Keras и Tensorflow Орельена Жерона
Резюме
В этой главе мы взяли то, что мы узнали о RNN в предыдущей главе, и построили на этом, чтобы поговорить о том, как мы конкретно имеем дело с обработкой естественного языка. В нем Жерон рассказал об основных методах, прогнозирующем тексте, анализе настроений и нейронном машинном переводе. В отличие от многих предыдущих глав, эта глава посвящена одной конкретной теме и посвящена..
Машинное обучение, создание генератора виджетов пользовательского интерфейса Flutter
Преобразуя естественные английские предложения в код виджетов Flutter с помощью Transformers и PyTorch
Можем ли мы преобразовать наши простые английские предложения в некоторый код пользовательского интерфейса? действительно ли мы можем получить рабочий код, не зная его?
В этом блоге мы проведем простой эксперимент. Мы будем использовать PyTorch и архитектуру Transformers для создания модели от последовательности к последовательности, которая принимает английское предложение в..
Трансформатор Галеркина: однократный эксперимент на NeurIPS 2021
Мысли и теория
Трансформатор Галеркина: однократный эксперимент на NeurIPS 2021
Путешествие любителя вычислительной математики по математической теории и приложениям механизма внимания.
Пролог
Недавно я написал свою первую статью о машинном обучении¹ как забавном, но сложном побочном проекте вместе с репозиторием с открытым исходным кодом, содержащим коды: https://github.com/scaomath/fourier-transformer .
Будучи полным новичком и независимым исследователем в этой области, я..
Юмористическое предсказание испанских предложений с помощью Tensorflow 2.0 и Transformers
В этом посте мы опишем структуру, похожую на трансформатор, которую мы реализовали в Umayux Labs ( @UmayuxLabs ), чтобы предсказать, было ли предложение юмористическим или нет, используя испанский корпус из HAHA @ IberLEF2019 набор данных. Мы основали нашу реализацию на этом руководстве по преобразованию Tensorflow 2.0.
Набор данных
Набор данных, используемый для обучения и тестирования модели, состоит в общей сложности из 24000 аннотированных твитов, полученных из набора данных..