В моем последнем посте Персональные данные в больших языковых моделях: процесс удаления и его влияние я упомянул о потенциальном влиянии модели в случае удаления данных. С такими законами, как GDPR, это право на забвение может действовать в определенных случаях.

Что на самом деле меняется с точки зрения обучения модели? Как я уже говорил в своем предыдущем посте, я считаю, что эффект бабочки находится в полном действии.

Когда данные удаляются из большой языковой модели, это влияет на математическую структуру модели и процесс обучения. Чтобы объяснить математическое обоснование этого, давайте сначала разберемся, как работают большие языковые модели, такие как GPT-4.

Большие языковые модели основаны на нейронных сетях, в частности на архитектуре Transformer. Они состоят из миллионов или миллиардов параметров, которые используются для изучения и предсказания взаимосвязей между словами в последовательности. Процесс обучения обычно выполняется с помощью метода, называемого градиентным спуском, который минимизирует функцию потерь, которая количественно определяет разницу между прогнозами модели и фактическими целевыми данными.

Градиентный спуск — это алгоритм оптимизации, используемый для нахождения минимального значения функции.

Понимая, как работает модель в очень упрощенной форме, давайте обсудим математическое влияние удаления данных на большую языковую модель.

Сокращенный набор обучающих данных

Когда данные удаляются из обучающего набора, у модели остается меньше примеров для обучения. Это может привести к двум возможным последствиям:

  1. Недообучение: если удаленные данные значительны, модель может быть не в состоянии уловить истинные базовые отношения в данных, что приведет к плохому обобщению новых, невидимых примеров.
  2. Переобучение: если оставшиеся данные недостаточно разнообразны или не репрезентативны для всего распределения, модель может запомнить конкретные примеры вместо того, чтобы учиться обобщать. Это может привести к снижению производительности при работе с новыми, невидимыми данными.

Изменения в параметрах модели

При удалении данных это повлияет на градиенты, рассчитанные в процессе обучения, так как они зависят от обучающих примеров. Как следствие, обновленные параметры модели будут отличаться от тех, которыми они были бы, если бы присутствовали исходные данные. Это может привести к изменению производительности модели и ее способности понимать и генерировать текст.

Сдвиг в выученных паттернах:

Модель учится предсказывать слова в последовательности, фиксируя шаблоны, отношения и корреляции в обучающих данных. Когда данные удаляются, модель может не изучить некоторые шаблоны, которые присутствовали в удаленных данных. Это может изменить типы корреляций, которые изучает модель, что может повлиять на ее общую производительность и понимание языка.

Изменения в ландшафте функций потерь

Функция потерь количественно определяет разницу между прогнозами модели и фактическими целевыми данными. Когда данные удаляются, ландшафт функции потерь меняется, что влияет на процесс оптимизации (например, градиентный спуск). Это может привести к сходимости модели к другому локальному минимуму, что повлияет на ее общую производительность.

Будет ли это иметь значение?

Это настоящий вопрос, поскольку большие языковые модели по своей природе большие. Будет ли удаление страниц веб-сайта или статьи иметь какое-либо реальное значение? Лично я так не думаю, когда у вас есть 17 миллиардов параметров, удаление нескольких сотен слов не окажет существенного влияния на модель.

Право на забвение важно в определенных ситуациях, и законы некоторых стран означают, что его необходимо соблюдать и действовать в соответствии с ним.

В итоге

Удаление данных из большой языковой модели влияет на ее математическую структуру и процесс обучения, что может привести к недообучению или переоснащению, изменениям параметров модели, сдвигам в изученных шаблонах и изменениям ландшафта функции потерь. Все эти факторы могут влиять на производительность модели и ее способность понимать и генерировать текст.