Ольга Гринина

Новые правила ЕС о конфиденциальности данных, Общий регламент по защите данных (GDPR), окажут негативное влияние на развитие и использование искусственного интеллекта (AI) в Европе, поставив компании ЕС в невыгодное конкурентное положение по сравнению с их конкурентами в Северной Америке и Северной Америке. Азия. Положения GDPR об ограничении ИИ мало что делают для защиты потребителей, а в некоторых случаях могут даже навредить им. ЕС должен реформировать GDPR, чтобы эти правила не связывали его цифровую экономику в ближайшие годы.

Многое было сказано о потенциальном влиянии Общего регламента ЕС по защите данных (GDPR) на программы по науке о данных. Но, возможно, нет более важного или неопределенного вопроса, чем то, как регулирование повлияет, в частности, на машинное обучение. С учетом последних достижений в области машинного обучения и увеличения инвестиций в эту область со стороны глобальных организаций машинное обучение быстро становится будущим корпоративной науки о данных.

Значит ли это, что машинное обучение встретит непосильные препятствия? Не совсем. Это точно не будет запрещено в ЕС после вступления в силу GDPR. Однако это повлечет за собой значительную нагрузку на соблюдение нормативных требований, о которой я скоро расскажу. Однако технически и ошибочно, ответ на этот вопрос на самом деле кажется утвердительным, по крайней мере, на первый взгляд. GDPR с точки зрения закона содержит полный запрет на использование автоматизированного принятия решений, если это принятие решений происходит без вмешательства человека и оказывает существенное влияние на субъектов данных. Важно отметить, что сам GDPR применяется ко всем видам использования данных ЕС, которые потенциально могут идентифицировать субъект данных - что в любой программе по науке о данных, использующей большие объемы данных, означает, что GDPR будет применяться практически ко всем видам деятельности (как показано в исследовании за исследованием. возможность идентифицировать людей при наличии достаточного количества данных).

Хотя значительная часть использования ИИ не связана с личными данными, многие другие, которые используют ИИ, будут подпадать под действие GDPR. Потребители, которые регулярно взаимодействуют с услугами на базе ИИ, такими как личные помощники, которые отвечают на голосовые запросы, роботы-консультанты, которые предоставляют автоматические финансовые консультации и рекомендации фильмов по потоковым сервисам, будут значительно затронуты, как и практически каждая европейская компания, обрабатывающая личные данные. например, расчет заработной платы - и могут использовать ИИ для повышения эффективности своей деятельности. Таким образом, как косвенно ограничивая использование персональных данных европейцев, так и повышая правовые риски для компаний, работающих в сфере ИИ, GDPR отрицательно повлияет на разработку и использование ИИ европейскими компаниями. Несмотря на то, что разные юрисдикции преследуют разные цели, когда дело доходит до конфиденциальности, политики и граждане в ЕС должны понимать, что GDPR потребует значительных затрат с точки зрения инноваций и производительности. В то время как две крупные мировые державы, США и Китай, соперничают за глобальное лидерство в области ИИ, директивным органам ЕС необходимо признать, что неспособность внести поправки в GDPR, чтобы уменьшить его влияние на ИИ, практически отнесет Европу к второму уровню. статус в развивающейся экономике искусственного интеллекта.

Последствия новых правил в основном коснутся тех инновационных протоколов, которые используют ИИ в своих алгоритмах, используя личные данные пользователей для машинного обучения. Интернет-обзоры могут быть здесь хорошим примером. Представьте себе зарождающийся стартап, который создает движок ИИ для анализа отзывов пользователей, собирая существующие оценки и комментарии Yelp, которые подходят под определение личные данные пользователя. Мы поговорили с представителем Revain о том, видят ли они возможные препятствия: Без сомнения, GDPR - это еще одна проблема, которую необходимо рассмотреть, однако мы готовы выделить ресурсы на соблюдение правовых норм. Однако возникает вопрос, действительно ли у стартапов, находящихся на ранних стадиях развития, есть бюджет, позволяющий покрыть большие суммы судебных издержек? Вряд ли.

Когда в GDPR используется термин «автоматизированное принятие решений», регулирование относится к любой модели, которая принимает решение без непосредственного участия человека в принятии решения. Это может включать в себя все, что угодно, от автоматического «профилирования» субъекта данных, например, разделение его на определенные группы, такие как «потенциальный клиент» или «мужчины в возрасте 40–50 лет», до определения того, имеет ли соискатель ссуды прямое право на получение ссуды. В результате одно из первых важных различий, которое GDPR делает в отношении моделей машинного обучения, заключается в том, развертываются ли они автономно, без непосредственного участия человека в цикле принятия решений. Если ответ положительный - как на практике будет иметь место в огромном количестве моделей машинного обучения - то такое использование, вероятно, по умолчанию запрещено.

Так почему же толкование GDPR как запрета на машинное обучение вводит в заблуждение? Потому что есть существенные исключения из запрета на автономное использование машинного обучения - это означает, что «запрет» - слишком сильное слово. После того, как GDPR вступит в силу, специалисты по обработке данных должны ожидать, что большинство приложений машинного обучения станет достижимым - только с бременем соответствия, которое они не смогут игнорировать.

Могут ли субъекты данных требовать переобучения моделей без их данных? Это, пожалуй, один из самых сложных вопросов о влиянии GDPR на машинное обучение. Другими словами: если специалист по обработке данных использует данные субъекта данных для обучения модели, а затем развертывает эту модель в соответствии с новыми данными, имеет ли субъект данных какое-либо право на модель, которую его данные помогли обучить изначально? Однако на данный момент ясно по крайней мере одно: благодаря GDPR юристы и инженеры по конфиденциальности станут центральным компонентом крупномасштабных программ по науке о данных в будущем.