Каковы существующие рекомендации по развитию ИИ, если таковые имеются? Каким будет будущее регулирование?

Фон

Популярность искусственного интеллекта (AI) в последние годы резко возросла благодаря его поразительной способности выполнять задачи, которые в противном случае потребовали бы человеческого интеллекта. Внедрение ИИ в приложения, которые, казалось бы, затрагивают все аспекты нормальной жизни, не должно вызывать удивления. Подобно идеальному шторму, ИИ, подпитываемый появлением огромных вычислительных мощностей и обширных хранилищ данных, несомненно, нашел свое применение в вашем любимом магазине электронной коммерции, социальных сетях и даже в определенной платформе цифровых публикаций, используя данные для создания более информированные рекомендации и стратегии таргетинга для простоты использования и получения лучшего конечного продукта.

Неплохая сделка, правда? Что ж, не так быстро: разработка ИИ не обходится без изрядных сбоев и упущений, особенно с учетом последствий для исторически маргинализированных групп¹²³. И хотя заманчиво просто не обращать внимания на такие проблемы, как расовая дискриминация, на проблемы технологического роста, изучение широко распространенных вариантов использования и масштаб этих деклараций, основанных на данных, указывает на явную обязанность быть особенно скептичным и критичным по отношению к этим блестящим системам. Более того, как и в случае с любой другой блестящей новой игрушкой, именно ведущие в отрасли компании монополизируют ресурсы и вычисления для исследований и разработок указанных систем - и, не имея реального стимула для замедления постоянно растущего производства этих моделей, основанных на данных, они потенциально могут уничтожить конкурентов вместе с предметным обсуждением того, каким должен быть ИИ.

В результате общество по понятным причинам отходит от общественного взгляда на ИИ как на волшебное лекарство от всех болезней и вместо этого принимает более прагматичный взгляд на системы ИИ, который оставляет желать лучшего как с точки зрения объяснимости, так и с точки зрения надежности. Несмотря на хорошо задокументированные варианты использования и рассказы о точности, соперничающие с их человеческими аналогами, системы ИИ и их внутреннее устройство довольно сложно объяснить, и в основном они рассматриваются как системы черного ящика даже для тех, кто играет важную роль в их создании.

Для аргументации предположим, что существуют (и есть) альтруистические организации, которые стремятся выявить потенциальные ловушки систем ИИ - какие препятствия могут помешать их прогрессу?

В настоящее время регулирование ИИ в США находится в зачаточном состоянии. Существующее обсуждение просто предложило руководящие принципы высокого уровня и рекомендации для будущей работы. Ему еще предстоит разработать практические ответные меры и протоколы для руководства этой быстро развивающейся областью, что оказалось трудным по двум причинам:

  1. Неуклюжий ответ политики на постоянно меняющуюся сферу технологий.
  2. Загадочные модели черного ящика, которые трудно понять даже разработчикам ИИ.

Мы находимся в состоянии противостояния, в котором достижения ИИ становятся все более эффективными и скрываются от пользователей и затронутых групп. Это требует надлежащего вдумчивого рассмотрения того, как следует направлять разработку ИИ, чтобы обеспечить справедливость и целостность существующих систем. Более того, эта фундаментальная основа может быть затем построена для решения дальнейших этических вопросов, касающихся ИИ и его будущего использования.

Механизмы проверки претензий

Чтобы лучше обсуждать заслуживающий доверия ИИ в рамках политики и отрасли, необходимо инвестировать в разработку механизмов распознавания, с которыми должны быть опровергнуты заявления об ИИ-системах, что позволит технологам и разработчикам политики конструктивно обсудить неудачи, которые в настоящее время преследуют Системы искусственного интеллекта. Эта работа, подробно описанная в разделе На пути к надежной разработке ИИ: механизмы поддержки проверяемых заявлений и написанная Майлзом Брандейджем и др., является детищем исследователей ИИ, представителей отрасли и в равной степени эксперты в области политики - предлагающие идеи новаторских институтов управления ИИ, таких как OpenAI, Google Brain, Future of Humanity Institute и т. д.

Брандейдж стремится наладить подотчетность ИИ, чтобы лучше проверять утверждения, сделанные дизайнерами и разработчиками ИИ, для конкретной демонстрации регулирующим органам, общественности и друг другу. Предлагается трехступенчатый «набор инструментов» механизмов - для исчерпывающего описания всех предлагаемых концепций мы отсылаем читателя к самому документу.

Институциональные механизмы

  • Сторонний аудит. Идея, заимствованная из других отраслей (например, банковского дела), может быть организована сторонними организациями, чтобы предоставить альтернативу самоотчетным претензиям. Это позволяет решить многие вопросы реализации, например, что подвергается аудиту (данные, алгоритмы обучения, результаты, целевые функции) и в какой степени (как проводить, готовность кодовых баз к аудиту, аудит аудиторов).
  • Упражнения Red Teaming: саморазвертывающиеся атаки на разрабатываемые системы для разработчиков, чтобы продемонстрировать и повысить осведомленность о способах неправомерного использования их собственных систем.
  • Предвзятость и награды за безопасность. Стимулируйте массовую критику систем ИИ за предвзятость и несправедливость со стороны знающих членов сообщества ИИ - уже хорошо зарекомендовавших себя для других аспектов программного обеспечения и приложений кибербезопасности. Этот процесс может ввести более широкий корпус данных тестирования, на котором можно будет оценивать уязвимые системы ИИ.
  • Совместное использование инцидентов ИИ: отказ от традиционных взглядов на владение ИИ и развитие сотрудничества между организациями ИИ путем обмена информацией и создания архива задокументированных инцидентов (например, Чикагская конвенция требовала, чтобы все авиалайнеры обменивались данными о катастрофах, что значительно сокращало количество будущих инцидентов).

Программные механизмы

  • Журнал аудита. Стандартизируйте содержание записей аудита, которое окажется полезным для определения надежности и справедливости систем. Еще предстоит проделать работу по преобразованию больших журналов аудита в значимые и актуальные исторические данные.
  • Интерпретируемость: Мотивируйте согласованный толчок к интерпретируемым системам ИИ, однако все еще существует врожденная субъективность указанной объяснимости для интерпретатора. Необходимо найти баланс, чтобы гарантировать, что сложные модели не сводятся к просто интерпретируемым, и чтобы непрофессионалы могли понять, как более сложные модели генерируют прогнозные решения.
  • Машинное обучение с сохранением конфиденциальности: Стремление к разработке стандартных процедур и инструментов при работе с конфиденциальными данными / моделями - примеры включают федеративное обучение (парадигма машинного обучения, в которой ресурсы данных децентрализованы и скрыты, а обновления моделей - агрегированные), шифрование и т. д.

Аппаратные механизмы

  • Функции безопасности оборудования. Специализация оборудования искусственного интеллекта требует специализации защищенных анклавов для обеспечения безопасности в контексте машинного обучения.
  • Высокоточное измерение вычислений: необходимость стандартизации отчетов об измерении вычислений для эффективной проверки заявлений об использовании ресурсов.
  • Финансирование компьютерных ресурсов в академических кругах: Призвать руководящие органы усилить поддержку увеличения вычислительной мощности для академических исследователей, чтобы привлечь к ответственности лидеров отрасли и провести свои собственные исследования.

Заключительные замечания

Поскольку ИИ продолжает терраформировать ландшафт настоящего и будущего современного общества, становится все более важным установить стандарты, на которых будут базироваться усилия по управлению ИИ в форме конкретных механизмов. Тем не менее, при установлении жестких руководящих принципов есть возможность сузить сферу безопасности ИИ в целом до простого контрольного перечня узких препятствий, через которые можно прыгнуть, которые могут даже не материализоваться в практических приложениях. В то время как Брандейдж предлагает основу для обсуждения и оценки справедливости модели, предстоит еще многое сделать, чтобы воспрепятствовать превращению разработки политики ИИ в кричащий матч между законодателями и техническими экспертами, каждый из своих башен из слоновой кости. Необходимо постепенно улучшать состояние развития ИИ, признавая асимметрию власти и существующей социальной инфраструктуры, которая препятствует прогрессу в обеспечении надежного ИИ. В документе также признается упущенная выгода, которая могла бы возникнуть в результате увеличения разнообразия среди участников, и это лишь некоторые из них: гендерное, расовое и социально-экономическое разнообразие.

Если вы нашли этот контент интересным (или касающимся), пожалуйста, поищите дополнительные ресурсы, некоторые из которых можно найти ниже, чтобы участвовать в текущих исследованиях и обсуждениях AI Governance - и следите за публикациями через ACM в UCLA Рука социального воздействия.

Ссылки и дополнительная литература

[1] http://gendershades.org/index.html

[2] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[3] https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm

[4] https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB-Memo-on-Regulation-of-AI-1-7-19.pdf

[5] https://towardsdatascience.com/federal-government-regulation-of-ai-4fa08b7bd99a

[6] https://arxiv.org/pdf/2004.07213.pdf

[7] «https://www.fhi.ox.ac.uk/wp-content/uploads/GovAI-Agenda.pd Анаф

[8] https://fairmlbook.org/index.html

[9] https://www.partnershiponai.org/resources/

[10] https://ai.google/responsibility/responsible-ai-practices/

[11] https://www.fhi.ox.ac.uk/govai/

[12] https://futureoflife.org/ai-news/