Появление ChatGPT дало представление о заре общего искусственного интеллекта. Тем временем технологические компании одну за другой создают свои собственные большие языковые модели с открытым исходным кодом.

Однако высокие затраты на оборудование, связанные с большими моделями, часто представляют собой серьезный барьер для многих исследователей.

Чтобы демократизировать доступ к этим мощным моделям и расширить возможности различных отраслей, Шанхайская лаборатория искусственного интеллекта разработала XTuner, недорогой набор инструментов для обучения больших моделей. С XTuner 8 ГБ памяти графического процессора — это все, что вам нужно для создания собственного помощника с искусственным интеллектом.

https://github.com/InternLM/xtuner

XTuner предлагает множество функций, которые можно свободно комбинировать и сочетать. В дополнение к автономным функциям XTuner представляет три революционные технологии, позволяющие разработчикам работать по-настоящему «ориентированно на данные»:

  1. Эффективный механизм обработки данных: XTuner поддерживает несколько популярных форматов наборов данных с открытым исходным кодом и допускает смешанное использование:

Формат Альпака

МОСС-формат

Формат Гунакао

формат OpenAI

…и многое другое постоянно добавляется

pip install xtuner

# To train data in a mixture of Alpaca and Gunacao datasets
xtuner train internlm_7b_qlora_alpaca_enzh_oasst1_e3

Кроме того, XTuner предлагает полную развязку различных форматов наборов данных на основе характеристик данных LLM-обучения. Это позволяет выполнять точную настройку, не нарушая шаблоны диалогов моделей чата.

2. Несколько механизмов обучения: XTuner является пионером в интеграции HuggingFace и OpenMMLab, сочетая удобство использования и настраиваемость. Он поддерживает как MMEngine Runner, так и HuggingFace Trainer. Таким образом, разработчики с глубокими потребностями в настройке могут гибко настраивать в соответствии со своими привычками.

pip install xtuner

# To use MMEngine Runner for training
xtuner train internlm_7b_qlora_oasst1_e3

# To use HuggingFace Trainer for training
xtuner train internlm_7b_qlora_oasst1_e3_hf

3. Начало обучения в один клик: XTuner объединяет стандартные процедуры для поэтапного предварительного обучения, одно- и многоэтапной настройки диалоговых инструкций. Разработчикам нужно сосредоточиться только на данных. Кроме того, XTuner включает в себя такие технологии, как QLoRA, DeepSpeed ​​и FSDP, предлагая решения для моделей разных размеров с разными характеристиками оборудования. Всего 8 ГБ памяти графического процессора позволяют точно настроить модель 7B.

pip install 'xtuner[deepspeed]'

# Fine-tuning a Llama2-7B model with only 8GB GPU memory
xtuner train llama2_7b_qlora_oasst1_512_e3 --deepspeed deepspeed_zero2

Разработчики могут сосредоточиться на данных и оставить все остальное XTuner, высвобождая больше энергии для исследования огромной вселенной больших моделей!

С помощью XTuner разработчики могут добавлять плагины к большим моделям, чтобы расширить их возможности, или даже получить некоторые навыки, эксклюзивные для ChatGPT. XTuner предоставляет богатый выбор плагинов для больших моделей в HuggingFace Hub. Не стесняйтесь скачать и попробовать их!

https://huggingface.co/xtuner

Логотип XTuner, вдохновленный Pac-Man, отражает игривый дух. Команда разработчиков и сообщество открытого исходного кода стремятся весело провести время, исследуя большие модели и разрабатывая разнообразные развлекательные приложения. Ваши идеи всегда приветствуются в обсуждениях XTuner, где вы сможете найти единомышленников. Команда XTuner продолжит копировать популярные общественные проекты по низкой цене, приглашая больше людей оседлать волну больших моделей.

https://github.com/InternLM/xtuner/discussions