Публикации по теме 'transformers'
Объяснение документов 23: Структурный LM
Используя преимущества существующих предварительно обученных языковых моделей и адаптируясь к задачам понимания изображений документов, Structural LM использует архитектуру BERT в качестве основы.
Основываясь на архитектуре, мы предлагаем использовать информацию о макете на уровне ячеек из изображений документов и включать их в кодировщик преобразователя.
Во-первых, учитывая набор токенов из разных ячеек и информацию о расположении ячеек, входные вложения на уровне ячеек вычисляются..
Основы работы трансформаторов
Transformers — это революционная архитектура в области нейронных сетей. Это началось с статьи, опубликованной Google «Внимание — это все, что вам нужно». Это было опубликовано для статей по НЛП, но оно также широко применяется в изображениях, аудио и видео. Генерация музыки также возможна с помощью Transformers.
Языковой перевод намного лучше, используя архитектуру трансформатора. ChatGPT, Берт, все эти модели используют преобразователь в качестве своей базовой архитектуры.
import..
Тонкая настройка модели преобразователя для распознавания счетов-фактур
Пошаговое руководство от аннотации к обучению
Вступление
Основываясь на моем недавнем руководстве о том, как добавлять примечания к PDF-файлам и отсканированным изображениям для приложений NLP , мы попытаемся настроить недавно выпущенную Microsoft Layout LM model на аннотированный пользовательский набор данных, который включает счета-фактуры на французском и английском языках. В то время как в предыдущих руководствах основное внимание уделялось использованию общедоступного набора..
Реализация трансформатора с нуля
7 удивительных вещей, которые вы могли не знать о Трансформере
Введение
Чтобы ближе познакомиться с гайками и болтами трансформеров, я решил с нуля реализовать оригинальную архитектуру статьи Внимание — это все, что вам нужно . Я думал, что знаю все, что нужно было знать, но, к моему собственному удивлению, я столкнулся с несколькими неожиданными деталями реализации, которые помогли мне лучше понять, как все работает под капотом.
Цель этого поста не в том, чтобы обсудить всю..
Расшифровка социальных сообщений с помощью машинного обучения: базовый уровень
Этот пост является частью серии, посвященной преобразованию скриншотов из Reddit в более доступный формат. Он стоит сам по себе, но если вы хотите узнать больше о наборе данных, см. предыдущий пост здесь .
Набор данных
Набор данных подробно описан в моем предыдущем сообщении в блоге . Подводя итог, у нас есть набор данных от r/TranscribersOfReddit , объединяющий изображения с расшифровками, предоставленными людьми-добровольцами. Эти добровольцы следуют шаблонам со следующими..
Генератор текстов песен на основе исполнителей с использованием машинного обучения
В этой статье я покажу вам, как вы можете точно настроить и обучить своего Трансформера с помощью HuggingFace .
В продолжение моей предыдущей статьи о создании музыки с использованием рекуррентных нейронных сетей мы будем использовать преобразователи HuggingFace для создания текстов песен на основе исполнителя, на котором мы их обучаем. В этой статье мы будем использовать лирику Диомедеса Диаса, чтобы создать новую песню с его стилем написания. Я выбрал Диомеда из-за его наследия и..
Перевод французских статей с последующим обобщением
Делайте крутые вещи с данными!
Введение
В этом блоге обсуждается перевод статьи по французской истории на английский язык с последующим кратким изложением этой статьи на английском языке. Мы покажем, как можно использовать предварительно обученные модели, чтобы сделать это очень быстро. В рамках этого блога мы также оцениваем несколько моделей перевода и реферирования и делимся нашей субъективной оценкой качества их вывода.
Используемая статья представляет собой французскую статью..