• Что вы знаете о том, как ИИ используется для сбора и отслеживания ваших данных? Позвольте мне помочь, если вы думаете, что знаете, вы, вероятно, ошибаетесь.

«Конфиденциальность — это не то, на что мы просто имеем право, это абсолютное условие». Марлон Брандо

Одно из самых больших и громких опасений по поводу ИИ заключается в том, что его можно использовать для вторжения в частную жизнь людей. Системы искусственного интеллекта все чаще используются для сбора, анализа и дальнейшего обучения моделей с использованием персональных данных. Эти данные потенциально могут быть использованы для отслеживания перемещений людей, наблюдения за их действиями и даже прогнозирования их поведения еще до того, как они выполнят определенное действие. Это, безусловно, посягательство и даже граничащее с манипуляцией.

Крупные предприятия также не защищены от этого явления. В недавнем инциденте Samsung пришлось издать общекорпоративную политику, ограничивающую использование моделей LLM с открытым исходным кодом, поскольку они использовались для получения помощи в устранении ошибок в собственном исходном коде, исправлении программного обеспечения, используемого для сбора данных измерений и получения данных, а также для преобразования конфиденциальных заметок о встречах в протоколы. .

Для организаций одна из предварительных проблем с моделью LLM с открытым исходным кодом заключается в том, что вводимые в них данные часто используются для дальнейшего обучения ботов, что может легко привести к отрыгиванию конфиденциальной деловой информации, если другие задают аналогичные вопросы.

Во-вторых, выполняемые запросы также видны поставщикам моделей LLM, таким как OpenAI и Google, которые могут сами просматривать контент, переданный в их языковые модели, что еще больше повышает риск раскрытия тщательно охраняемых корпоративных секретов.

В-третьих, эти модели с открытым исходным кодом не являются зрелыми, и ошибки в системе могут позволить другим пользователям просматривать разговоры пользователей с этими моделями. В марте 2023 года OpenAI признал, что из-за ошибки в библиотеке с открытым исходным кодом перераспределение фрагментов тет-а-тет с ChatGPT стало доступно для просмотра другими пользователями.

Кроме того, в номере есть большой слон. Всегда существует высокий риск взлома этих систем искусственного интеллекта с открытым исходным кодом, что может привести к несанкционированному раскрытию личных данных, поскольку эти технологии и архитектуры являются относительно новыми, а структура безопасности для их защиты не полностью очищена.

Наконец, возможность использования этих LLM-моделей для прогнозирования поведения людей, которое может быть использовано для их дискриминации или для навязывания им навязчивой рекламы.

С такими огромными проблемами конфиденциальности данных. Крайне важно начать думать о том, как мы можем обеспечить использование ИИ таким образом, чтобы уважать конфиденциальность людей и этические интересы.

Если правила — это способ обеспечить это, они нужны нам еще вчера.

Поскольку мы все еще обсуждаем всеобъемлющий закон о конфиденциальности данных в США, поскольку лоббисты из технологических компаний Силиконовой долины не доведут эти счета до нужных офисов, вот некоторые из конкретных и срочных шагов, которые необходимо предпринять для защиты конфиденциальности людей:

  • Прозрачность. Людям должна быть предоставлена ​​возможность понять, как их данные используются системами ИИ. «Пусть это будет стеклянный ящик, а не черный ящик».
  • Согласие. Людям должна быть предоставлена ​​возможность дать согласие на использование их данных системами ИИ.
  • Минимизация данных. Системы ИИ должны собирать только те данные, которые необходимы для их работы.
  • Безопасность данных. Системы искусственного интеллекта должны иметь лучшую в своем классе систему безопасности для защиты конфиденциальности собираемых ими данных.
  • Подотчетность: системы ИИ должны быть разработаны таким образом, чтобы люди могли привлекать их к ответственности за свои действия, поскольку если эта технология пойдет не так, она может пойти очень плохо.

Подводя итог, можно сказать, что США — одна из немногих развитых стран, не имеющих надежной общенациональной системы обеспечения конфиденциальности данных, потребность в которой сейчас гораздо выше, учитывая исключительную способность ИИ причинять вред, если это дело рук злоумышленников. актеры.

Как широко признано в технических кругах, следующая утечка данных будет на несколько порядков крупнее, чем самая крупная, которая произошла и вызвала у вас беспокойство.

#AI #AIPRIVCY #МАШИННОЕ ОБУЧЕНИЕ #НАУКА О ДАННЫХ