новая точка обзора

«Добро пожаловать в город мира и справедливости». На Земле мало мест, которые могли бы соперничать с Гаагой по этому титулу, поскольку в этой части Нидерландов находятся Международный уголовный суд, Международный суд и другие организации, занимающиеся правами человека.

В этом месяце я посетил краткий курс по искусственному интеллекту и международному праву. Большинство моих однокурсников работали в области права, политики или юридических исследований, а я программист, интересующийся AI/ML. Знакомство с классом, общение с экспертами в различных областях права (до этого я не отличал право прав человека от гуманитарного права) и поднятие вопросов на нашем маленьком форуме изменило наше сознание. Я обнаружил, что подвергаю сомнению свои убеждения и свое понимание технологий.

Я ломал голову над тем, как это структурировать. Я определился с несколькими подразделами и правилом Chatham House (без раскрытия того, кто что сказал).

Что я знаю об этике?

Любой, кто занимается технологиями, должен проявлять здоровый интерес к сфере этики, не ожидая твитов с извинениями генерального директора, а через социологов, которые придают исторический контекст и высказывают опасения. Если бы я мог быстро порекомендовать только одну ссылку людям с разным стилем обучения, я бы выбрал:

Что я знаю о международных отношениях?

Я работал с One Laptop Per Child, а затем с Фондом Азии и продолжаю появляться на мероприятиях для беженцев и открытых правительственных мероприятиях, посвященных политике в области технологий с открытым исходным кодом. побудил меня искать события, связанные с ОЗХО (разоружение от химического оружия), и именно так я нашел этот курс в Институте Ассера поблизости.

Что могут сделать юристы еще до появления ИИ?

Прочитав темы исследований спикеров, я отправил озадаченное сообщение другу по экологическому праву:

Я:поскольку вы провели юридическое исследование… [полностью автономное оружие]звучит интересно, но как кто-то может полностью исследовать то, чего еще не было пока что?

Настоящий юрист. Многие юридические исследования довольно гипотетичны — как действующий закон будет применяться в конкретных обстоятельствах. На самом деле мы изучаем право, используя гипотетические сценарии, к которым затем применяем известные результаты, поэтому в более широком масштабе это не сильно отличается.

Это позволяет нам проверять законы и тестировать фактические сценарии, которые затем можно применить, если и когда что-то действительно произойдет.

Мудрое объяснение!

Итак, вы посещали занятия по роботам-убийцам?

Мы рассмотрели множество тем, в том числе объяснимый искусственный интеллект, антидискриминационный закон в ЕС, иммиграционный контроль, разнообразие в технологической индустрии, национальную политику, массовую безработицу, манипулирование социальными сетями… и да, полностью автономному оружию было уделено немало времени. .

Хорошо, когда мы увидим «полностью автономное оружие»?

Ради этого момента я не буду считать современные технологии, включая беспилотники и автоматизированное противорадиолокационное оружие, полностью автономными. Определения являются предметом ожесточенных споров в законодательстве и международной политике, и соответствующая группа ООН — Конвенция о конкретных видах обычного оружия (КОО) — еще не определилась с определением. CCW действует по единодушному согласию (еще одна проблема), но он успешно запретил наземные мины и ослепляющее лазерное оружие (которые, согласно моим заметкам, до сих пор не имеют четкого определения).

Эксперты по международному гуманитарному праву (МГП) описали ситуации, когда люди-солдаты выносят суждения, а оружие ИИ может легко ошибаться: раненые и сдающиеся солдаты, гражданские лица с оружием и без него, ИИ, обученный в одной стране, идентифицирующий объекты и оценивающий ущерб зданиям в другая страна.

Их рекомендация № 1 заключается в том, что люди должны не просто быть «в курсе» с «значительным контролем», но и конкретно выбирать цели и стрелять, или иметь возможность часто пересматривать и отвергать ИИ в отношении этих решений. Существует прецедент, когда (A) системы ИИ и люди, кажется, совершенствуются в сотрудничестве, и (B) ожидается, что командиры будут тестировать и развертывать оружие с пониманием их воздействия.

Когда спикеры были ближе к промышленности или вооруженным силам, они не так много останавливались на этой теме. Я чувствовал, что «практики» испытывают много проблем с современными технологиями, и остается открытым вопрос, есть ли у нас общий искусственный интеллект (AGI) в нашей жизни, поэтому «робот-убийца» кажется чем-то далеким.

Кто несет ответственность за роботов-убийц?

Итак, робот совершает злодеяния. Что произойдет дальше?

Стандартная практика заключается в том, чтобы проследить ответственность от отдельного солдата до командира (который отвечает за выбор оружия и тактики) до их нации. Поскольку ИИ нельзя осмысленно/удовлетворительно наказать, исследователи изучают идею о том, что нация несет прямую ответственность за свой военный ИИ, а также за любой ИИ, созданный корпорациями, базирующимися в их стране.

(В рамках демонстрации того, что только человек или человеческая организация могут быть преданы суду, мы слышали о многовековой одержимости Европы судами над животными)

Что касается других форм ущерба, причиняемого ИИ, то, если Facebook представляет опасность для страны, где у них нет офисов, их единственным выходом будет оспорить их в суде США или в каком-либо будущем органе Международной киберполиции.

Значит, международные суды могут найти виновных людей?

Давайте будем более общими и включим ИИ от компаний и полиции. Вне военного времени мы учитываем Международное право прав человека (МППЧ) и антидискриминационные правила ЕС.

Есть опасения по поводу того, как можно расследовать решение и действия ИИ. Один спикер выложил диаграмму с дизайнерами, программистами, тестированием и развертыванием, а также отслеживание ошибок до их происхождения.
Я предложил две ситуации, когда это было бы сложно:

  • Спецификация полицейского дизайна говорит программистам «сосредоточиться на людях из этого списка». Это пишут программисты. Список реализуется злым путем.
  • (не ИИ) автомобиль попадает в аварию из-за неисправной детали, в которой автомобильная компания винит рядового рабочего, которого в первый день плохо обучил его начальник, у которого болел зуб… насколько глубоко мы это прослеживаем?

Ошибка в этих случаях показалась эксперту по правовым вопросам простой (плохая спецификация или плохая полиция; ответственность несет компания), но я не уверен?
Я считаю, что программисты должны искать этические знания, чтобы создать злобный ИИ или взорваться на Звезде Смерти.
Я также опасаюсь, что с юридической точки зрения ответственность может быть аккуратно решена с помощью бумажной волокиты. Если линейный рабочий когда-либо подписывал документ о том, что он полностью обучен, это подрывает его защиту. Просматривали ли вы когда-нибудь на своем рабочем месте слайд-шоу о конфликтах интересов и других правонарушениях, которые могут привести к пожару? Они были созданы, чтобы информировать вас?

У меня также смешанные чувства по поводу «международного права» в целом. Об этом…

Международный суд: это вещь?

Чтобы международные суды сотрудничали со странами, они соглашаются рассматривать только дела, когда принимающие страны не могут провести надлежащее судебное разбирательство. После предъявления обвинения страна пребывания должна их выдать. Это приводит к спорам о том, кому следует предъявить обвинение, а затем к годам несоблюдения (хотя легче согласовать санкции и ограничения на поездки после предъявления обвинения).

Из-за этого политического расчета и отчасти из-за своего недавнего основания Международный уголовный суд (МУС) вынес обвинения только африканцам.

  • Недавнее дело Мьянмы находится в Международном суде (ICJ).
  • Милошевич был одним из 161 обвиняемого отдельным Международным уголовным трибуналом по бывшей Югославии, который завершил свою деятельность в конце 2017 года.

В недавнем деле Мьянмы, которое было подано представителем из Гамбии, юристы Мьянмы сослались на единственное предыдущее дело Международного суда о геноциде, в котором они не смогли найти Сербию виновной или причастной, и постановили, что этническая чистка может в некоторых случаях дела не являются геноцидом.
Я стесняюсь писать об этом со своими любительскими знаниями, когда моя родная страна склонна игнорировать международные суды. Я могу только поднять эти вопросы:

  • Почему Бангладеш, Австралия и другие страны, непосредственно связанные с беженцами рохинджа, не обратились в международные суды?
  • Готов ли какой-либо международный суд провести заочное расследование и предъявить обвинение любому преступнику из западного мира, а именно из США или Великобритании? Единственная попытка, которую я видел, это недолговечная Комиссия по военным преступлениям Куала-Лумпура.
  • Будет ли Китай подвергнут сомнению на любом уровне за слежку и задержание уйгуров?

Подпункт: почему международные суды так трудно добиться справедливости?

В наше время у нас есть доступ к звездным отчетам, записям граждан и отличному пониманию геополитики по всему миру. Должно быть легче указать, кто, что и когда сделал.
Я упомянул некоторые предыдущие вопросы о суверенитете, но если вы уменьшите масштаб: МГП зависит от системы этики, которая может наказывать военные преступления и пытки, но не войны и убийства. сам. Это трудно распаковать.

По крайней мере, один спикер оценил беспилотные летательные аппараты в контексте кантовской этики. Кант основывает этику на человеческом достоинстве или достоинстве как конечной цели. Достоинство, конечно, звучит хорошо, но оно также было выбрано, чтобы хорошо сочетаться с верой Канта в справедливую войну и смертную казнь, а не как элемент ненасилия.
Я читал или слышал две связи между этим и роботами. :

  • полностью автономные и современные дроны не достойны боя лицом к лицу: учитывая, кто становится целью дронов, я не понимаю, что означает бой «лицом к лицу» против пилотируемого F- 35 или снайпер? Неужели достоинство снова искажается, чтобы соответствовать разнице между ракетой, нацеленной на человека, и ракетой, нацеленной на ИИ? Сладости и приличия est?
  • полностью автономные и современные дроны воздействуют на цель одинаково, но атакующий ставит свое достоинство выше достоинства цели —не может ли это относиться практически к любому случаю, когда у программиста есть выбор и безопасность? которые запрещены субъекту алгоритма?
    Войны дронов и нынешняя система уголовного правосудия имеют свои собственные проблемы, поэтому я переформулировал это: как программист, могу ли я написать алгоритм, который контролирует социальные пособия, или распределяет детей по школам, когда я сама не получаю пособия и не имею детей? (Если у вас есть дети, представьте, что вы отправляете их в частную школу).
    Эта проблема вовсе не надуманная: см. эту часть Теневого отчета Нью-Йоркских алгоритмических систем принятия решений AI Now:

Неизбежность исследования

В дискуссии об иммиграции мы услышали, как внутренняя политика ЕС привела к спорному исследовательскому проекту в области глубокого обучения и автоматических интервью для потенциальных иммигрантов. Исследование продвигают приграничные страны ЕС, которые являются более правыми, но по закону должны принимать и размещать мигрантов, пока рассматриваются их дела.

С практической точки зрения ясно, что ЕС создаст общую базу данных всех мигрантов, беженцев, просителей убежища, туристов и жителей. Также всем было бы полезно ускорить процесс и проводить собеседования с людьми до того, как они прибудут в переполненную недружелюбную пограничную зону.
Есть два вопроса, на которые я пока не могу полностью ответить:

  • Насколько должно быть задействовано машинное обучение? Кажется странным разрабатывать базу данных и не пытаться ее автоматизировать, но потенциально несправедливо создавать систему с алгоритмом черного ящика.
    Эта исследовательская программа инвестировала практически во все псевдонауки ИИ: микровыражения в виртуальных интервью, парсинг в социальных сетях. , отсутствие изучения усвоенных предубеждений (вероятно, из-за правдоподобного отрицания) и отсутствие обучения на результатах. Это не вина техники, а переоценка ее возможностей.
  • Насколько комфортно мне будет работать над исследованием? Если я работаю в Ethical_University, и мы решим не вмешиваться, программа все равно исследуется и разрабатывается, и, возможно, менее чуткими и менее компетентными разработчиками. Неправильно ли пытаться направить это дело на критическое исследование и устранение наиболее вопиющих проблем дизайна?

Чем наши собственные нейронные сети являются «черными ящиками»?

Один из моих одноклассников спросил, как нейронные сети — созданные руками человека или «математикой» — могут быть «черным ящиком». Я понял, что это было то, что я принял как должное, не чувствуя, что могу уверенно объяснить это из первых принципов.

Вот как я бы объяснил это сегодня:
Существуют подходы к тестированию отдельных решений, например, в инструменте "собака или жираф" мы изменяем пиксели изображения, чтобы определить, какое влияние оказывает это решение. и уверенность. Есть некоторые исследования по обману этих тестов, поэтому я не уверен, как это будет развиваться.

Но почему у нас не может быть глобального объяснения сети? Для меня объяснение означало бы, что вы можете указать на любой узел на любом слое и описать его как ищущий что-то одно или объяснить его оси как противоположности. (например, глаза открыты или закрыты, как в StyleGAN2).

Поскольку входными данными сети распознавания изображений являются каждая часть наших данных, например, каждое значение пикселя RGB, наш первый шаг — сжать их до меньшего числа узлов. Исследования показывают, что (подобно алгоритмам с ручным кодированием) эти начальные узлы идентифицируют края изображений или части речи предложений. Когда мы собираем и обобщаем такое количество данных, узел в сети, скорее всего, выполняет разные задания в разных ситуациях.

Ограничение ИИ: случай GPT-2

Один человек затронул несколько моих тем в одном выступлении в последний день: OpenAI, GPT-2 и фейковые новости, а также решение не выпускать полную модель GPT-2. Спикер (и OpenAI) использует это как пример консервативного, взвешенного, контролируемого сообществом подхода к опасному ИИ.

Внимательно посмотрите на временную шкалу GPT-2. В феврале 2019 года OpenAI анонсировала модель, объяснила свои опасения, что внезапный релиз может быть слишком мощным для создания фейковых новостей и профилей, и выпустила первоначальную модель. В марте они реорганизовались из некоммерческой организации. В мае AllenAI выпустила GROVER для обнаружения статей, созданных ИИ. В ноябре OpenAI выпустила полную модель.
Дискуссия в мире технологий вращалась вокруг того, делает ли OpenAI это на самом деле или для рекламы? Что случилось с тем, что OpenAI стал… открытым? Когда вскоре после этого они объявили о реструктуризации, это укрепило опасения людей по поводу ажиотажа и непрозрачности. Многие люди следили за исследованиями, чтобы сделать небрендовый полнопараметрический GPT-2, за которым последовали преобразователи текста других лабораторий (BERT). В конечном счете, сегодня мы живем в мире после GPT-2, не контролируя разум и не запуская GROVER в каждом посте в блоге.

Поэтому, хотя мы включили GPT-2 в качестве примера успеха в тщательной публикации опасного ИИ вместо его цензуры, и я хочу верить в лучшие намерения каждого, он также мог бы занять видное место в сообщении о безопасности ИИ. фальшивая проблема, и я не могу смириться с этим.

Раскадровка против новостей

Возьмем распознавание лиц как еще один пример общественного восприятия. ЕС собирается запретить распознавание лиц на 2-5 лет? Или вообще нет? Вы можете найти авторитетные источники, распространяющие это:



Многие спикеры поднимали эту новость, даже когда в ходе дальнейшего обсуждения они признавали, что она, вероятно, не серьезно рассматривалась.
Это не проблема курса или научных кругов, но и технологическая индустрия с ее готовностью распространять, ретвитить и повторять шумиху.

Мы все виновны в том, что попались на кликбейт, подтверждающий наши предубеждения. Но как только мы узнаем больше, мы должны перестать помогать этим историям. Иногда истории с ИИ всплывают на поверхность в зависимости от их интенсивности или соответствия общей раскадровке.

Я также официально устал от того, что это изображение из 2015 года используется для представления проблем восприятия ИИ:

В 2020 году у нас есть множество примеров состязательного ИИ, некоторые из которых работают даже без прямого доступа к системе. Есть атаки на объяснимый ИИ. В 2018 году у нас появилась физическая наклейка, которая заставляет вашу камеру думать, что любой объект — это тостер, и я понимаю, почему.

Дипфейки — еще одна область, где каждое новое видео все больше и все больше невероятно. Всегда используйте последнюю версию.

Шансы и концы

  • Обещаю, что я не абсолютный профан в этике и философии. Мне нравилось изучать все тонкости естественных прав в ЕС и узнавать, может ли свобода мысли стать аргументом в защиту прав человека против микротаргетинга.
  • Британцы, говорящие о том, что ИИ отнимает у нас работу и что его невозможно понять и контролировать, заставили меня подумать, что я попал в Годы и годы монтажа.
  • Блокчейн появился редко. Я слышал, что международный суд принял доказательство блокчейн-хэша, но нашел только эту статью из судебной системы Китая.
  • НЛП тоже не сыграло здесь огромной роли, но я еще подумаю об этом.
  • Изучая схему нейронной сети, одноклассник предложил регламентировать минимальное количество слоев для сетей, в частности, чувствительных полей. Другим предложением был стандартный тестовый набор (конкурс Kaggle?).
  • В целом было меньше теоретизирования о регулировании. Ближе к концу я пришел к выводу, что этот класс не столько посвящен предотвращению плохого ИИ, сколько спаррингу друг с другом в подготовке к тому, чтобы когда-нибудь вскоре подать в суд и защитить дела о предвзятости ИИ и правах человека.
  • Каждое обсуждение продолжалось в течение долгого времени и вне класса; наш организатор начал говорить каждому выступающему, что мы «разговорчивы» или «интерактивны».
    Есть также много одноклассников, с которыми я хочу общаться в будущем, основываясь на их глубоком опыте… Даже в тех местах, где Я был не согласен или не имел опыта, это были отправные точки, о которых я хочу узнать больше в будущем. В целом отличный опыт обучения для технических или юридических специалистов.