Делать крутые вещи с данными

Введение

В эпоху больших данных и передового искусственного интеллекта языковые модели превратились в мощные инструменты, способные обрабатывать и генерировать человекоподобный текст. Большие языковые модели, такие как ChatGPT, — это боты общего назначения, способные вести беседы на многие темы. Тем не менее, LLM также можно точно настроить на предметно-ориентированные данные, что сделает их более точными и точечными для предметно-ориентированных корпоративных вопросов.

Многие отрасли и приложения потребуют точно настроенных LLM. Причины включают:

  • Более высокая производительность чат-бота, обученного на определенных данных
  • Модели OpenAI, такие как chatgpt, являются «черным ящиком», и компании могут не решаться делиться своими конфиденциальными данными через API.
  • Стоимость API ChatGPT может быть непомерно высокой для крупных приложений.

Проблема точной настройки LLM заключается в том, что процесс неизвестен, а вычислительные ресурсы, необходимые для обучения модели с миллиардом параметров без оптимизации, могут быть непомерно высокими.

К счастью, было проведено много исследований методов обучения, которые теперь позволяют нам точно настраивать LLM на небольших графических процессорах.

В этом блоге мы рассмотрим некоторые методы, используемые для тонкой настройки LLM. Мы будем обучать модель Falcon 7B на финансовых данных на графическом процессоре Colab! Используемые здесь методы являются общими и могут быть применены к другим более крупным моделям, таким как MPT-7B и MPT-30B.

В Deep Learning Analytics последние 6 лет мы строим собственные модели машинного обучения. Свяжитесь с нами, если вы заинтересованы в тонкой настройке LLM для вашего приложения.

QLoRA

QLoRA, что означает «Quantized Low-Rank Adaptation», представляет собой подход, который сочетает в себе квантование и низкоранговую адаптацию для достижения эффективной точной настройки моделей AI. Оба эти термина объясняются более подробно ниже.

QLoRA уменьшает объем памяти, необходимый для тонкой настройки LLM, без какого-либо снижения производительности по сравнению со стандартной 16-битной моделью с тонкой настройкой. Этот метод позволяет точно настроить модель с 7 миллиардами параметров на 16-гигабайтном графическом процессоре, модель с 33 миллиардами параметров на одном графическом процессоре на 24 ГБ и 65…