В шумном мире технологий есть такие игроки-тяжеловесы, известные как модели большого языка (LLM). Построены на основе архитектуры-трансформера в области обработки естественного языка (NLP). они переписывают сценарий нашего взаимодействия с ИИ. Эти модели подобны лингвистическим виртуозам, способным имитировать генерацию человеческого текста благодаря продвинутому искусственному интеллекту и глубокому обучению.

Но давайте вернемся немного назад. До этих звезд у нас была старая гвардия — модели рекуррентных нейронных сетей (RNN) и долговременной краткосрочной памяти (LSTM). Они были пионерами, но студенты магистратуры обходили свои ограничения. Вместо того, чтобы пережевывать слова одно за другим, LLM обрабатывают целые предложения сразу, избегая ловушек запутанных зависимостей. Это похоже на разницу между решением головоломки по частям или видением всей картины заранее. [Посетите это для лучшего понимания]

Эти LLM — не просто тихонечки; они блестящие в разных областях. От обеспечения чат-ботов, которые можно использовать для генерации аналитической информации для подсказок, задаваемых пользователями, до простого анализа данных в различных форматах и ​​даже помощи в боты для здравоохранения и обслуживания клиентов, они действительно универсальны. Но вместе с их возможностями возникает и проблема: загадка атак с быстрым внедрением.

Представьте себе: подсказки — это путеводные звезды для языковых моделей ИИ. Это сигналы, которые определяют реакцию этих моделей. Но вот что становится интересным. Некоторые злонамеренные умы используют подсказки, чтобы сбить эти модели с пути. Они манипулируют ими, заставляя генерировать ответы, которые никогда не должны были быть. Это все равно, что попросить своего помощника по искусственному интеллекту сообщить прогноз погоды и вместо этого получить стихотворение Шекспира. Эта игра в быстрое внедрение интригует и хлопотна.

Почему это вообще происходит? Оказывается, эти модели не могут определить, откуда приходит подсказка. Они не могут отличить подсказки от надежных разработчиков, администраторов или потенциальных нарушителей спокойствия. И тут на помощь приходят разработчики, которым поручено построить защиту от этих коварных злоумышленников.

Быстрая инъекция бывает двух видов:

  1. Перехват цели. Думайте об этом как о подсказке с секретной личностью. Его первоначальная цель отклоняется, и внезапно ответы ИИ становятся сюрпризами, и не всегда хорошими.
  2. Немедленная утечка. Это похоже на то, как будто ИИ случайно раскрыл секретную информацию. Упс!🙊

Последствия этих маневров далеко идущие:

  • Распространение лжи. Манипулирование подсказками приводит к созданию мифов, создаваемых ИИ. Истина отходит на второй план.
  • Смещенный вывод. Быстрое внедрение может подтолкнуть ИИ к выкладыванию предвзятого контента. Это похоже на одного друга, который не может не поделиться своим искаженным мнением.
  • Вторжение в конфиденциальность. Используя подсказки, злоумышленники могут проникнуть в личные уголки пользователей, вызывая обеспокоенность по поводу цифровой конфиденциальности.

Посмотрите, как можно хитро манипулировать чат-ботом, основанным на обширных языковых моделях, чтобы раскрыть информацию, выходящую за рамки его предполагаемого объема, в следующем примере.

Даже желаю удачи! 😒

Но не бойтесь! Защита готова:

  • Разделители. Обертывание подсказок в отдельные маркеры отделяет их от инструкций. Больше никакой путаницы!

  • Уровень проверки. Думайте об этом как о бдительном вышибале в клубе искусственного интеллекта. Он внимательно изучает подсказки, позволяя войти только тем, кто имеет на это право. Мы изучим это подробнее чуть позже! 🧱
  • Контроль токенов. Отслеживание токенов предотвращает выход подсказок из-под контроля.
  • Чистота разговоров. Оскорбительные выражения имеют приоритет, поэтому разговоры с искусственным интеллектом носят уважительный характер.

Теперь давайте подробнее рассмотрим уровень проверки/защиты.

Уровень проверки: страж целостности Теперь давайте углубимся в уровень проверки — цифровой Шерлок Холмс🕵️🕵️. Этот уровень проверяет подсказки на предмет любого подозрительного поведения. Этот слой похож на привратника эксклюзивной вечеринки, гарантируя, что туда пройдут только настоящие гости.

И вот здесь в дело вступают предварительно обученные модели — например, знающие приятели gelectra-base-injection и deberta-v3-base-injection. Они все это видели. , обучался на обширных многоязычных наборах данных с безопасными и внедренными операторами. Подключение их к уровню проверки добавляет дополнительный уровень безопасности. По сути, эти модели предоставляют оценку внедрения для введенного пользователем приглашения. Эта оценка рассчитывается в соответствии с набором данных, на котором обучается используемая модель.

На рисунке выше показано, как на самом деле работает уровень проверки.
Введенное пользователем приглашение сначала запускается в модели классификатора, а затем запускается в генеративной модели. Если оценка оказывается ниже порогового значения, установленного администратором, запрос отправляется на большую языковую модель, но если оценка внедрения пересекает пороговое значение, установленное администратором, запрос заранее отклоняется.

Почему точная настройка модели, используемой для расчета показателя внедрения, помогает лучше?

Точная настройка: обострение чувств Точная настройка подобна отправке вашего ИИ-охранника в тренировочный лагерь. Вооружившись различными подсказками для инъекций, он станет лучше выявлять нарушителей спокойствия. Перекосы предложений, опечатки — ничто не ускользнет от его наметанного глаза. Уровень проверки действует как рефери, гарантируя, что подсказки будут понятны до того, как они достигнут модели ИИ. Если подсказка кажется подозрительной, она помечается🔴.
Безопасно? Ну считайте, что он зеленый🟢.

Усиленная безопасность, интеллектуальная эффективность Этот двусторонний подход решает две важные задачи:

  1. Усиленная безопасность. Уровень проверки действует как привратник крепости, сдерживая запросы на внедрение. Нарушение данных? Не на его дежурстве.
  2. Оптимизация ресурсов. В мире, где каждое взаимодействие с искусственным интеллектом может иметь свою цену, этот подход оптимизирует использование ресурсов. На арену ИИ поступают только законные запросы, что позволяет экономить затраты и оптимизировать процесс.

План дальнейшего развития

В постоянно меняющемся мире ИИ и языковых моделей борьба с быстрым внедрением продолжается. По мере развития технологий уровень проверки и методы тонкой настройки остаются на переднем крае защиты, защищая разговоры ИИ от манипуляций. Разработчики и исследователи неустанно стремятся повысить безопасность, усовершенствовать алгоритмы и предвидеть следующий шаг злоумышленников с быстрым внедрением. С каждой проблемой появляются новые идеи, стимулирующие инновации и гарантирующие, что сфера взаимодействия ИИ остается безопасной, прозрачной и заслуживающей доверия. Благодаря совместным усилиям мы уверенно шагаем в будущее, подкрепленные уроками, извлеченными из проблем быстрого введения лекарств.

Прикрепите ссылки на игры ниже, что поможет вам лучше понять внедрение подсказок и создать безопасную подсказку для ваших собственных сценариев использования.

https://gpa.43z.one/

https://gandalf.lakera.ai/

Спасибо!!
Свяжитесь со мной Linkedin| Средний | Гитхаб