Для B2B Space данные от каждого клиента, вероятно, будут небольшими, а данные между каждой компанией будут иметь заметное сходство, но у каждого клиента будет свой собственный вкус.

Базовой линией для функции B2B ML будет модель без параметров, скажем, K-Nearest-Neighbours. В частности, для nlp берутся лучшие k результатов эластичного поиска, косинусного сходства универсального кодировщика предложений или преобразователя предложений. В K ближайших соседей не предпринимается никаких усилий по построению модели, кроме поиска оптимального k для данной задачи. Для тех же случаев это лучший выбор

Уровень 1 — всегда создавать разные модели для каждого клиента. Это определенно сработает. Но мы пропускаем обучение от другого клиента.

Некоторые проблемы не зависят от клиента. Пример. SA — лучший пример. Детализация модели Ulmfit или Bert для всех клиентов приведет к лучшему улучшению, чем использование одного источника данных. Перед этим важно получить одобрение от заказчика.

Для таких задач, как CRS или FC, это невозможно, поскольку у каждой компании будет свой набор классов. В этом случае будет полезно построить обучение языковой модели на основе данных всех компаний, а затем обучить классификатор для каждой модели.

Это относится ко всем проблемам, таким как текст, изображение, аудио, которые может решить Bert/Ulmfit Architecture.

Табличные данные, такие как CCR, не могут быть решены с помощью Bert. Некоторые способы решения есть.

  • Добавьте категориальную переменную (тип клиента) и постройте модель из всех данных о клиентах.
  • Создайте внедрение для категориальных переменных из всех данных клиентов и используйте функции внедрения и числовые функции для обучения одного клиента.
  • FT-Transformer — новейший преобразователь табличных данных. В документе утверждается, что FT-Transformer не может превзойти Xgboost по набору данных. Дальнейшие исследования еще впереди :).

В следующей статье пойдет речь об улучшении модели в производстве. Пожалуйста, нажмите здесь для следующей статьи

Пожалуйста, нажмите здесь, чтобы перейти к первой статье