Является ли Trustworthy AI следующим GDPR?

Когда GDPR вот-вот должен был вступить в силу в 2018 году, большие и малые компании спровоцировали безумную борьбу за соблюдение требований. Это также создало много путаницы в отношении того, что компании могут и должны делать, а что они не могут и не должны делать. В частности, небольшие компании, у которых не было ресурсов для найма экспертов в этой области, остались в дураках, угадывая свой путь к соблюдению требований путем проб и ошибок, знаний из СМИ и друзей.

Однако примерно через год стало ясно, что GDPR имеет влияние далеко за пределами Европейского Союза. Компании, работающие по всему миру, часто улучшали свои системы защиты данных и конфиденциальности для всех клиентов, а не только для клиентов из Европейского Союза. И регулирующие органы по всему миру последовали этому примеру, введя правила защиты данных, основанные на GDPR и адаптированные к их регионам, такие как CCPA в Калифорнии.

В то время как сам GDPR должен будет продолжать развиваться, чтобы сделать его более эффективным, практичным и простым в реализации, особенно для малых предприятий, Европейская комиссия работает над рядом новых правил и в других областях, которые могут иметь столь же широкое влияние. Одним из них является разрабатываемая нормативная база для технологий искусственного интеллекта.

Подобно большим данным и защите данных, искусственный интеллект все больше становится ключевым фактором цифровой экономики и общества. По мере того, как объем обрабатываемых данных продолжает расти, потребность в автоматизации обработки данных и принятии решений на их основе также возрастает.

Помимо разработки политических предложений по развитию возможностей ИИ на рынках ЕС, направление работы Европейской комиссии по этичному ИИ (называемое «Группа экспертов высокого уровня по ИИ» или «AI HLEG») до сих пор было сосредоточено на разработке рекомендаций для того, что они называют «надежным ИИ». », ИИ, которому люди могут доверять, который работает в их интересах, поддерживая их и расширяя их возможности, минимизируя при этом негативные побочные эффекты и риски. На данный момент руководящие принципы включают 7 принципов такого этически надежного ИИ:

  • Человеческая деятельность и надзор: такие меры, как участие человека в цикле, участие человека в цикле или управление человеком, чтобы гарантировать, что система ИИ остается под контролем человека.
  • Техническая надежность и безопасность: требования для обеспечения безопасной и надежной работы системы искусственного интеллекта, многие из которых знакомы тем, кто работает с GDPR.
  • Конфиденциальность и управление данными: требования к защите и точности данных, а также к доступу к ним знакомы из GDPR, но применимы конкретно к системам искусственного интеллекта.
  • Прозрачность. Особой проблемой многих технологий искусственного интеллекта является их непрозрачность («эффект черного ящика»), сложность, непредсказуемость и частично автономное поведение, из-за которых трудно понять, почему система приняла определенные решения или действия. Чтобы справиться с этим, потребуются прослеживаемость, объяснимость и прозрачность в отношении возможностей и ограничений.
  • Разнообразие, недискриминация и справедливость. Еще одна ключевая проблема многих технологий искусственного интеллекта, которая уже привлекла большое внимание средств массовой информации, — это их потенциальная предвзятость из-за того, как построены их модели или используются обучающие данные. , что приводит к дискриминационному принятию решений, например, в автоматизированных рекрутинговых платформах или приложениях финансовых услуг.
  • Общественное и экологическое благополучие: обеспечение того, чтобы технологии ИИ разрабатывались с учетом устойчивости и их экологического и социального воздействия.
  • Подотчетность: убедитесь, что ответственность и подотчетность систем ИИ и их результатов четко определены, например, в случаях, когда компания А запускает облачную службу на основе ИИ, которую использует компания Б для ведения своего бизнеса.

Учитывая, насколько рано и быстро развивается применение технологий ИИ во многих компаниях, становится ясно, что эти руководящие принципы, как только они будут преобразованы в правила и вступят в силу, окажут огромное влияние на многие команды машинного обучения, которым внезапно понадобится рассмотреть такие вопросы, как прозрачность и предвзятость, которые сегодня часто не играют ключевой роли. Им потребуется разработать инструменты, процессы и структуры, обеспечивающие достижение этих целей.

Однако одно очень существенное отличие от GDPR заключается в том, что, по крайней мере, в текущем официальном документе по ИИ подход заключается в том, чтобы сфокусировать требования надежного ИИ на предприятиях, которые работают или используют то, что называется «ИИ с высоким риском», который до сих пор определяется как Технология искусственного интеллекта, которая используется в таких секторах с высоким уровнем воздействия, как здравоохранение или общественные услуги, И используется «таким образом, что могут возникнуть значительные риски». Это может привлечь гораздо более узкое внимание к предприятиям, которым необходимо соблюдать требования и проводить аудит их соответствия, избегая перегрузки как предприятий, так и регулирующих органов, наблюдаемой при развертывании GDPR.

Итак, может ли Trustworthy AI стать следующим GDPR? Может быть. Процесс консультаций по руководящим принципам все еще продолжается, и может потребоваться некоторое время, чтобы они вступили в силу, и требования могут значительно измениться в процессе. Но ясно, что однажды эти требования затронут предприятия, работающие в ЕС или обслуживающие граждан ЕС с помощью систем, использующих технологии искусственного интеллекта. И это, конечно же, может снова спровоцировать глобальную модернизацию систем ИИ до более высоких стандартов.