Одна из самых странных вещей в нынешних дебатах об искусственном интеллекте (ИИ) и управлении им — это то, как многие люди, кажется, предполагают, что алгоритмические и роботизированные системы развиваются в политическом вакууме или даже в состоянии, близком к анархии. Эта точка зрения смехотворно неверна, как я указал в своем недавнем отчете R Street Institute Гибкие, ориентированные на инновации стратегии управления для искусственного интеллекта. В конце этого исследования я представил краткий обзор некоторых из многих существующих инструментов и методов, которые уже существуют для решения проблем ИИ и роботизированных технологий, а также потенциальных рисков, связанных с ними.

Напомню, правительство в Соединенных Штатах абсолютно массивно. Только в федеральном правительстве США насчитывается более 2,1 миллиона гражданских служащих, работающих в 15 агентствах Кабинета министров, 50 независимых федеральных комиссиях и более 430 федеральных департаментов. Поэтому представление о том, что у нас нет государственного потенциала для решения проблем ИИ, нелепо. Огромное количество агентств и чиновников активно изучают эти вопросы, и многие из них уже приняли меры для решения проблем, связанных с ИИ и роботами.

Чтобы лучше понять лишь некоторые из способов, которыми правительство может (или уже делает) бороться с рисками ИИ, вот выдержка из моего нового исследования R Street Institute, которое опубликовано между страницами 33–36 отчета. Пожалуйста, ознакомьтесь с полным отчетом для получения более подробной информации и контекста.

______________

Например, в Соединенных Штатах нет Федеральной компьютерной комиссии или Бюро бытовой электроники, но когда что-то идет не так, существует множество средств правовой защиты для решения проблем в этих областях. В этих и многих других отраслях новаторы, как правило, могут свободно разрабатывать новые продукты. При возникновении повреждений они устраняются корректирующим образом. Аналогичным образом существующие средства правовой защиты могут помочь устранить риски, связанные с алгоритмическими и роботизированными системами. Некоторые из этих решений включают в себя:

Законы и агентства по защите прав потребителей на федеральном уровне и уровне штатов:Федеральная торговая комиссия США (FTC) обладает широкими полномочиями по защите прав потребителей для пресечения недобросовестных или вводящих в заблуждение действий или практики в торговле или влияющих на нее.[3] За последнее десятилетие агентство использовало эти полномочия для решения многих вопросов безопасности данных и в 2022 году выпустило крупный отчет, в котором подчеркивается его обеспокоенность различными рисками ИИ. [4] Таким образом, когда дефектные или обманчивые алгоритмические технологии наносят существенный вред потребителям, FTC может вмешаться». [5] Юрист из отдела рекламной практики Федеральной торговой комиссии еще более жестко высказался по этому поводу в своем блоге в феврале 2023 года, заявив: продукт поддерживает ИИ, подумайте еще раз […] В ходе расследования технологи FTC и другие могут заглянуть под капот и проанализировать другие материалы, чтобы увидеть, соответствует ли то, что внутри, вашим утверждениям». [6] Между тем, генеральный прокурор штата и государственные органы по защите прав потребителей также регулярно борются с недобросовестной практикой и продолжают продвигать свои собственные политики конфиденциальности и безопасности данных, некоторые из которых являются более строгими, чем федеральный закон.

Полномочия на отзыв продукции. Несколько регулирующих органов в США обладают полномочиями на отзыв, которые позволяют им удалять продукты с рынка при возникновении определенных непредвиденных проблем. Например, Национальная администрация безопасности дорожного движения (NHTSA), FDA и Комиссия по безопасности потребительских товаров (CPSC) обладают широкими полномочиями по отзыву, которые могут устранять риски, связанные с алгоритмическими или роботизированными системами. [7] Например, в феврале 2023 года. , NHTSA санкционировал отзыв полностью автономной системы вождения Tesla, а агентство потребовало беспроводного обновления программного обеспечения для более чем 300 000 автомобилей, на которых был установлен программный пакет. [8] больше нацелен на транспортные средства и медицинские технологии, соответственно, CPSC может отозвать любой потребительский товар, содержащий дефект, если он представляет существенный риск нанесения вреда населению, чтобы оправдать такие меры по исправлению положения. [9] Опрос, июль 2022 г. по заказу CPSC показало, что 80 процентов потребителей делают все, что побуждает их делать уведомление об отзыве, чтобы устранить нарушение безопасности. [10]. Несмотря на обнадеживающий результат, этот результат можно было бы еще больше улучшить с помощью усилий по обучению и повышению осведомленности. CPSC уже выпустила отчеты сотрудников, в которых подчеркивается, что у агентства есть много инструментов политики для устранения возникающих технологических рисков. [11]

Общие средства правовой защиты. Существуют различные средства правовой защиты, применяемые в судебном порядке, которые могут устранить риски, связанные с ИИ. К ним относятся ответственность за качество продукции; небрежность; закон о дефектах конструкции; отсутствие предупреждения; нарушение гарантии; право собственности и договорное право; и другие правонарушения. [12] Общее право развивается, чтобы отвечать новым технологическим проблемам и побуждает новаторов делать свою продукцию более безопасной с течением времени, чтобы избежать судебных исков и негативной огласки. [13] Оно также развивается, чтобы включать новые социальные и этические нормы. [С]талкиваясь с новыми, часто сложными вопросами, связанными с ответственностью за качество продукции, суды, как правило, решали все правильно, — отмечает ученый Брукингского института. Далее он объясняет, что закон об ответственности за продукцию был в высокой степени адаптирован ко многим новым технологиям, появившимся в последние десятилетия, и, в более широком смысле, он будет адаптироваться к другим технологиям и разработкам по мере рассмотрения дел и разногласий в судах. .[14] Это также создает мощные стимулы для разработчиков повышать надежность и безопасность своих систем и избегать ответственности, нежелательного внимания прессы и потери клиентов. Вопрос не в том, будет ли ответственность по общему праву распространяться на ИИ и робототехнику; вопрос в том, не будет ли это слишком большим бременем, потому что правовая система Соединенных Штатов, как правило, очень спорна». [15]»

Законы о собственности и договорах. Федеральные законы и законы штатов, регулирующие договорные права и права собственности, могут устранять многие предполагаемые виды вреда, связанные с алгоритмическими технологиями. Например, закон о собственности уже регулирует иски о нарушении владения собственностью, что пригодится по мере распространения дронов и других автономных роботизированных систем. Договорное право также может помочь разработчикам выполнить обещания, которые они дают общественности, в том числе другим бизнес-клиентам. Следует отметить, что групповые иски станут более распространенными, если фирмы не будут соблюдать свои договорные условия.

Страхование и другие механизмы компенсации несчастных случаев: многие организации улучшили свои методы цифровой кибербезопасности, движимые требованиями страховых компаний и лучшим пониманием рисков программ-вымогателей после громких атак.[16 ]» Рынок специализированных алгоритмических страховых инструментов растет — и не только для решения рисков кибербезопасности.[17] Новые страховые инструменты, вероятно, будут охватывать еще более широкие, аморфные алгоритмические проблемы, начиная от рисков физической безопасности и заканчивая различными другими рисками. . Хотя широкомасштабное алгоритмическое регулирование в краткосрочной перспективе маловероятно, судебные иски о вреде алгоритмов, вероятно, будут расти в будущем. Когда это произойдет, страховые рынки будут продолжать развиваться и реагировать, особенно на промышленную робототехнику. [18]

Существующие законодательные акты и агентства.Существует множество давно действующих законодательных актов и ведомственных правил, которые могут решать проблемы, связанные с алгоритмической предвзятостью, конфиденциальностью или безопасностью. Что касается обвинений в потенциальной алгоритмической предвзятости и дискриминации, в Соединенных Штатах действует широкий спектр широкомасштабных законов о гражданских правах, включая Закон о гражданских правах, Закон о дискриминации по возрасту при приеме на работу и Закон об американцах-инвалидах.[19] Целевые финансовые законы могут бороться с дискриминацией при распределении кредита, включая Закон о справедливой кредитной отчетности и Закон о равных кредитных возможностях. Закон о справедливом жилищном обеспечении уже устраняет дискриминацию в отношении недвижимости. [20] Что касается конфиденциальности, такие законы, как Закон о переносимости и подотчетности медицинского страхования, Закон Грэмма-Лича-Блайли и Закон о защите конфиденциальности детей в Интернете, уже регулируют потоки данных. .[21] Более того, в Соединенных Штатах уже есть настоящий алфавитный суп регулирующих органов, которые наблюдают за технологическими разработками в различных секторах, затронутых разработками в области алгоритмов и робототехники. Эти законы, постановления и агентства могут обеспечить поддержку, когда разработчики ИИ не смогут оправдать любые заявления, которые они делают о безопасных, эффективных и справедливых алгоритмических системах. [22] развиваются постоянные проблемы. Во многих штатах также есть законы, которые могут применяться к алгоритмическим или роботизированным системам. Например, существуют законы о подглядывании и законы о борьбе с домогательствами, которые запрещают шпионаж в домах и других частных помещениях. [23] Прежде чем принимать новые законы, политики должны рассмотреть, как такие существующие политики могут уже охватывать новые технологические разработки.

концевые сноски:

[1] Джон Вилласенор, Мягкое право как дополнение к регулированию ИИ, Brookings, 31 июля 2020 г. https://www.brookings.edu/research/soft-law-as-a-complement-to -ай-регулирование.

[2] Уолтер Г. Джонсон, Инструменты управления для второй квантовой революции, Юриметрия 59:4 (27 апреля 2019 г.), с. 511. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3350830.

[3] 15 U.S.C. § 45(a).

[4] Отчет FTC предупреждает об использовании искусственного интеллекта для борьбы с онлайн-проблемами, Федеральная торговая комиссия, 16 июня 2022 г. https://www.ftc.gov/news-events/news/press-releases/2022 /06/ftc-report-предупреждает-об-использовании-искусственного-разведки-боевых-онлайн-проблемах.

[5] Иниолува Дебора Раджи и др., Заблуждение функциональности ИИ, Корнельский университет, 20 июня 2022 г. https://arxiv.org/abs/2206.09511.

[6] Майкл Атлесон, Держите под контролем заявления об ИИ, Федеральная торговая комиссия, 27 февраля 2023 г. www.ftc.gov/business-guidance/blog/2023/02/keep-your-ai- претензии-проверка.

[7] Отзывы, исправления и удаления (устройства), Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США, 29 сентября 2020 г. https://www.fda.gov/medical-devices/postmarket-requirements-devices/recalls -корректирующие-удаления-устройства.

[8] Дэвид Шепардсон, Tesla отзывает 362 000 автомобилей в США из-за программного обеспечения для полного самостоятельного вождения, Reuters, 16 февраля 2023 г. https://www.reuters.com/business/ autos-transport/tesla-recalls-362000-us-cars-over-full-self-driven-software-2023-02-16.

[9] Комиссия по безопасности потребительских товаров США, Справочник по отзывам (март 2012 г.), стр. 2, 12.

[10] Заключительный отчет Qualtrics об отношении и поведении потребителей в отношении безопасности продукции, Комиссия по безопасности потребительских товаров США, 26 июля 2022 г. https://www.cpsc.gov/content/Qualtrics-Final-Report- об отношении потребителей и их поведении в отношении безопасности продукции.

[11] Искусственный интеллект и машинное обучение в потребительских товарах, Комиссия по безопасности потребительских товаров США, 19 мая 2021 г. https://www.cpsc.gov/About-CPSC/artificial-intelligence-and-machine -обучение в потребительских продуктах; Потенциальные опасности, связанные с новыми и будущими технологиями, Комиссия по безопасности потребительских товаров США, 18 января 2017 г. https://www.cpsc.gov/content/Potential-Hazards-Associated-with-Emerging-and-Future -Технологии.

[12] Правонарушения будущего II: устранение ответственности и нормативные последствия новых технологий, Палатный институт правовой реформы США, апрель 2018 г. https://instituteforlegalreform.com/wp-content/uploads/2020/ 10/tortsofthefuturepaperweb.pdf; Ричард А. Эпштейн, Правила ответственности в Интернете вещей: почему традиционные правовые отношения поощряют современные технологические инновации, Институт Гувера, 8 января 2019 г. https://www.hoover.org/research/liability-rules- интернет-вещи-почему-традиционные-правоотношения-поощряют-современные.

[13] Дональд Г. Гиффорд, Технологические триггеры деликтных революций: паровозы, автономные транспортные средства и компенсация несчастных случаев, Journal of Tort Law 11:1 (5 сентября 2018 г.), стр. 71–143. https://doi.org/10.1515/jtl-2017-0029.

[14] Джон Вилласенор, Кто виноват, когда беспилотный автомобиль попадает в аварию?, UCLA Newsroom, 2 мая 2014 г. https://newsroom.ucla.edu/stories/who-is-at -вина-при-попадании-автомата без водителя.

[15] Адам Тиерер, Когда судебные юристы приходят за роботизированными автомобилями, Slate, 10 июня 2016 г. https://slate.com/technology/2016/06/if -a-автомобильные аварии-кто-несет-ответственность.html.

[16] Роберт Макмиллан и др., Хакеры вымогают меньше денег, их увольняют, поскольку новая тактика препятствует большему количеству атак программ-вымогателей, The Wall Street Journal, 22 февраля 2023 г. https: //www.wsj.com/articles/ransomware-attacks-decline-as-new-defenses-countermeasures-thwart-hackers-23b918a3.

[17] Джефф Цю, Улучшение кибербезопасности США путем решения проблем на рынке киберстрахования, часть первая: текущее состояние и проблемы, Институт R Street, 8 августа 2022 г. https://www.rstreet.org/ комментарий/улучшение-кибербезопасности-нас-путем-решения-вопросов-на-рынке-кибер-страхования-часть-1-текущее-состояние-и-проблемы; Жозефина Вольф, Краткая история киберстрахования, Slate, 30 августа 2022 г. https://slate.com/technology/2022/08/cyberinsurance-history-regulation.html.

[18] Андреа Бертолини и др., О роботах и ​​страховании, International Journal of Social Robotics 8 (3 марта 2016 г.), стр. 381–391. https://link.springer.com/article/10.1007/s12369-016-0345-z.

[19] Закон о гражданских правах (1964 г.), Национальный архив, последний доступ 3 марта 2023 г. https://www.archives.gov/milestone-documents/civil-rights-act; Кит Э. Сондерлинг и др., Обещание и опасность: искусственный интеллект и дискриминация при приеме на работу, Юридический обзор Университета Майами 77:1 (2022), с. 6. https://repository.law.miami.edu/umlr/vol77/iss1/3; Закон об американцах-инвалидах (ADA) защищает людей с инвалидностью от дискриминации, — Министерство юстиции США, последний доступ 3 марта 2023 г. https://www.ada.gov.

[20] Закон о справедливом жилищном обеспечении, Министерство юстиции США, последний доступ 3 марта 2023 г. https://www.justice.gov/crt/fair-housing-act-1.

[21] Закон о переносимости и подотчетности медицинского страхования 1996 г. (HIPAA), Центры по контролю и профилактике заболеваний, последний доступ 3 марта 2023 г. https://www.cdc.gov/phlp/publications/topic/ хипаа.html; Закон Грэмма-Лича-Блайли, Федеральная торговая комиссия, последний доступ 3 марта 2023 г. https://www.ftc.gov/business-guidance/privacy-security/gramm-leach-bliley-act; Правила защиты конфиденциальности детей в Интернете (COPPA), Федеральная торговая комиссия, последний доступ 3 марта 2023 г. https://www.ftc.gov/legal-library/browse/rules/childrens-online-privacy-protection -правило-коппа.

[22] Джошуа Нью и Даниэль Кастро, Как политики могут способствовать алгоритмической подотчетности, Центр инноваций в области данных, 21 мая 2018 г. https://datainnovation.org/2018/05/how-policymakers-can-foster -алгоритмическая-подотчетность.

[23] См., например, Va. Code Ann. § 18.2–130 Подглядывание или шпионаж в жилище или ограждении.

_________________

Дополнительная литература: