Публикации по теме 'hugging-face'


Автоматизация загрузки модели из HuggingFace в Kaggle с помощью Python API
Создайте TrainerCallback, чтобы легко загружать модели HuggingFace на Kaggle Если вы когда-либо работали с большими моделями HuggingFace, такими как Whisper-Large на Kaggle, вы знаете, что сочетание доступности графического процессора (30 часов в неделю) и ограниченности ресурсов (16 ГБ видеопамяти) может усложнить обучение. В разгар конкурса Kaggle, посвященного транскрипции аудио, я экспериментировал с моделью HuggingFace Whisper-Large на своем локальном компьютере. Как только я..

«Связывание» задач НЛП с помощью Wav2Vec2 и трансформаторов
Переход прямо от аудио к ряду текстовых задач НЛП, таких как перевод, обобщение и анализ тональности Добавление модели Wav2Vec2 в библиотеку трансформеров Hugging Face стало одним из самых захватывающих событий в НЛП за последние месяцы. До этого было непросто выполнять такие задачи, как машинный перевод или анализ тональности, если у вас был только длинный аудиоклип. Но теперь вы можете объединить интересную комбинацию задач НЛП за один раз: расшифровать аудиоклип с помощью..

HuggingFace  — Netflix машинного обучения
В этой записи блога мы рассмотрим одну из самых важных платформ в машинном обучении сегодня и в будущем. Мы начнем с обзора основания компании и того, как она развивалась на протяжении многих лет. После этого мы рассмотрим платформу и функции , которые она предоставляет, на нескольких примерах, чтобы лучше понять.

Преобразователи Huggingface в машинном обучении Azure
как использовать модель обнимающего лица Предпосылка Учетная запись Azure Хранилище Azure Служба машинного обучения Azure Аккаунт и репозиторий Github Учетная запись участника службы Azure Предоставление участникам-участникам доступа к ресурсу машинного обучения Azure Keyvault для хранения секретов Обновите хранилище ключей с помощью секретов субъекта-службы. Это автоматизирует обучающий код и регистрирует модель. Шаги Войдите на сайт ml.azure.com Запустите свой..

Разблокируйте новейшие модели трансформеров с помощью Amazon SageMaker
Краткое руководство по расширению и настройке контейнеров глубокого обучения AWS О чем это? Контейнеры глубокого обучения AWS (DLC) стали популярным выбором для обучения и развертывания моделей обработки естественного языка (NLP) в Amazon SageMaker (SM) благодаря их удобству и простоте использования. Однако иногда последние версии библиотеки Transformers недоступны в готовых DLC. В этой записи блога мы расширим эти DLC для обучения и развертывания последних моделей Hugging Face на..

Развертывание приложения Gradio в пространствах с помощью DagsHub: руководство для начинающих
В учебном пособии на основе проекта представлены интеграции MLOps, такие как DVC, DagsHub, веб-фреймворк Gradio и Hugging Face Spaces. Спрос на инструменты MLOps высок, поскольку компании ищут простые в развертывании решения для своих сложных моделей машинного обучения (ML) — AIM . Чтобы все было просто и эффективно, мы будем интегрировать DVC, DagsHub, Gradio и Hugging Face Spaces в наш совместный проект машинного обучения. В этом руководстве мы узнаем о сквозных интеграциях..

Как — Генерация вопросов с помощью трансформеров 🤗
Введение Генерация вопросов — это задача автоматического создания вопросов из текстового абзаца . В этом уроке вы узнаете, как использовать Библиотеку Huggingface и Модель трансформеров Сураджа Патила для реализации ваших собственных приложений для генерации вопросов. Установить зависимости pip install transformers==3.0.0 pip install nltk python -m nltk.downloader punkt Затем клонируйте репозиторий от Suraj Patil и перейдите в него. git clone..