Публикации по теме 'hugging-face'
Автоматизация загрузки модели из HuggingFace в Kaggle с помощью Python API
Создайте TrainerCallback, чтобы легко загружать модели HuggingFace на Kaggle
Если вы когда-либо работали с большими моделями HuggingFace, такими как Whisper-Large на Kaggle, вы знаете, что сочетание доступности графического процессора (30 часов в неделю) и ограниченности ресурсов (16 ГБ видеопамяти) может усложнить обучение. В разгар конкурса Kaggle, посвященного транскрипции аудио, я экспериментировал с моделью HuggingFace Whisper-Large на своем локальном компьютере. Как только я..
«Связывание» задач НЛП с помощью Wav2Vec2 и трансформаторов
Переход прямо от аудио к ряду текстовых задач НЛП, таких как перевод, обобщение и анализ тональности
Добавление модели Wav2Vec2 в библиотеку трансформеров Hugging Face стало одним из самых захватывающих событий в НЛП за последние месяцы. До этого было непросто выполнять такие задачи, как машинный перевод или анализ тональности, если у вас был только длинный аудиоклип.
Но теперь вы можете объединить интересную комбинацию задач НЛП за один раз: расшифровать аудиоклип с помощью..
HuggingFace — Netflix машинного обучения
В этой записи блога мы рассмотрим одну из самых важных платформ в машинном обучении сегодня и в будущем. Мы начнем с обзора основания компании и того, как она развивалась на протяжении многих лет. После этого мы рассмотрим платформу и функции , которые она предоставляет, на нескольких примерах, чтобы лучше понять.
Преобразователи Huggingface в машинном обучении Azure
как использовать модель обнимающего лица
Предпосылка
Учетная запись Azure Хранилище Azure Служба машинного обучения Azure Аккаунт и репозиторий Github Учетная запись участника службы Azure Предоставление участникам-участникам доступа к ресурсу машинного обучения Azure Keyvault для хранения секретов Обновите хранилище ключей с помощью секретов субъекта-службы. Это автоматизирует обучающий код и регистрирует модель.
Шаги
Войдите на сайт ml.azure.com Запустите свой..
Разблокируйте новейшие модели трансформеров с помощью Amazon SageMaker
Краткое руководство по расширению и настройке контейнеров глубокого обучения AWS
О чем это?
Контейнеры глубокого обучения AWS (DLC) стали популярным выбором для обучения и развертывания моделей обработки естественного языка (NLP) в Amazon SageMaker (SM) благодаря их удобству и простоте использования. Однако иногда последние версии библиотеки Transformers недоступны в готовых DLC. В этой записи блога мы расширим эти DLC для обучения и развертывания последних моделей Hugging Face на..
Развертывание приложения Gradio в пространствах с помощью DagsHub: руководство для начинающих
В учебном пособии на основе проекта представлены интеграции MLOps, такие как DVC, DagsHub, веб-фреймворк Gradio и Hugging Face Spaces.
Спрос на инструменты MLOps высок, поскольку компании ищут простые в развертывании решения для своих сложных моделей машинного обучения (ML) — AIM . Чтобы все было просто и эффективно, мы будем интегрировать DVC, DagsHub, Gradio и Hugging Face Spaces в наш совместный проект машинного обучения.
В этом руководстве мы узнаем о сквозных интеграциях..
Как — Генерация вопросов с помощью трансформеров 🤗
Введение
Генерация вопросов — это задача автоматического создания вопросов из текстового абзаца .
В этом уроке вы узнаете, как использовать Библиотеку Huggingface и Модель трансформеров Сураджа Патила для реализации ваших собственных приложений для генерации вопросов.
Установить зависимости
pip install transformers==3.0.0
pip install nltk
python -m nltk.downloader punkt
Затем клонируйте репозиторий от Suraj Patil и перейдите в него.
git clone..