Ниже приведен список интересных статей о пересечениях между инструментами искусственного интеллекта (компьютерное зрение, машинное обучение, обработка естественного языка и т. д.) и международными правами человека, которые я собрал.

Статьи были в основном опубликованы в ноябре 2018 года. Не стесняйтесь поделиться ими и/или связаться со мной в Твиттере @ImaneBello

Обзор ноября 2018 года.

  • Наблюдение и конфиденциальность

Ангус Бервик, Как ZTE помогает Венесуэле установить общественный контроль в китайском стиле, 14 ноября 2018 г.

Ангус Бервик, корреспондент Reuters в Венесуэле, объясняет, как Мадуро использует «карту Отечества» — смарт-карту, все чаще связанную с субсидируемыми продовольственными, медицинскими и другими социальными программами, для мониторинга и контроля поведения граждан. Китайский телекоммуникационный гигант ZTE Corp. находится в центре создания этой системы мониторинга, созданной по образцу китайской системы социального кредита.

  • Здоровье

Кадия Ферриман, Роберт А. Винн, Искусственный интеллект может усугубить неравенство — вот что мы должны сделать, 16 ноября 2018 г.

Принимая во внимание ожидаемые улучшения в диагностике и лечении рака благодаря большим данным и машинному обучению, Кадия Ферриман и Роберт А. Винн размышляют о том, как мы можем решить проблемы справедливости, не допуская при этом дальнейшего неравенства в отношении здоровья. Два автора предлагают дорожную карту для достижения этих целей.

Зейнеп Туфекчи, Медицина, основанная на данных, поможет людям — но сможет ли она сделать это в равной степени?, 15 ноября 2018 г.

В этой статье Зейнеп Туфекчи устраняет пробел в знаниях, который существует в области методов диагностики и вмешательства, основанных на данных, в здравоохранении. Автор исследует, в какой степени они могут усугубить неравенство в отношении здоровья, дискриминацию и ограничить справедливый доступ к медицинским услугам и их распределение.

Демис Хассабис, Мустафа Сулейман, Доминик Кинг, Масштабирование потоков с помощью Google, 13 ноября 2018 г.

DeepMind Health объявляет, что его команда Streams присоединится к Google, чтобы расширить свою работу по поддержке медицинских работников в оказании более быстрой и качественной помощи пациентам. Streams — это мобильное приложение, разработанное DeepMind для облегчения диагностики и своевременного лечения пациентов.

  • Предубеждения, дискриминация и разнообразие

Кэтрин Пауэлл, Эбигейл ван Бюрен, GGender Bias Inside the Digital Revolution: Digital Human Rights, ноябрь 2018 г.

Кэтрин Пауэлл и Эбигейл ван Бюрен рассказывают о работе доктора Сафии Ноубл, посвященной предубеждениям в отношении женщин и цветных людей, которые появляются в результатах поисковых систем. В статье рассматривается взаимодополняющая связь между общественными предубеждениями и контентом поисковых систем, при этом вопросы рассматриваются в более широком контексте курирования онлайн-контента и права на формирование мнения.

Джейк Сверинген, Невозможно избежать предвзятости, Gmail прекращает использовать пол в своих автоматических ответах, 27 ноября 2018 г.

Команда Gmail, работающая над функцией Smart Compose, уловила встроенную предвзятость: функция, предлагающая пользователям варианты того, что они могут напечатать дальше, строго предлагала гендерные местоимения, подкрепляя предположения о том, что люди, работающие в определенных областях, таких как финансы или инженерия, являются мужчинами.
Далее автор обращает внимание на тревожную регулярность таких (гендерных) предубеждений, когда разнообразные задачи передаются приложениям машинного обучения.

Ава Кофман, Опасная мусорная наука об оценке риска речи, 25 ноября 2018 г.

Ава Кофман, автор Intercept, пишет об автоматизированных системах проверки, известных как удаленная оценка рисков. Последние рекламируются как способные точно оценить, в какой степени кто-то представляет «риск» или насколько он (не)правдив, анализируя изменения в голосе, позе или жестах лица. Такое программное обеспечение уже было протестировано для сканирования беженцев/заявителей на визу, и такие компании, как AC Global Risk, стремятся расширить сотрудничество с государственными органами.

  • Уголовное правосудие

Лорел Эккауз, Кристиан Лам, Синтия Конти-Кук и Джули Чикколини, Уровни смещения: единый подход к пониманию проблем с оценкой рисков, 23 ноября 2018 г.

Эта статья, написанная Лорел Эккауз, Кристианом Ламом, Синтией Конти-Кук и Джули Чикколини, предлагает основу для понимания споров о справедливости количественных оценок риска. Авторы ставят под сомнение справедливость самих моделей оценки риска, исследуют предвзятость, заложенную в данных, и ставят под сомнение концептуальные проблемы с моделями риска — должны ли решения уголовного правосудия в отношении отдельных лиц основываться на группах?

Мишель Александер, The Newest Jim Crow, 8 ноября 2018 г.

Мишель Александер анализирует последние реформы уголовного правосудия в Соединенных Штатах Америки. Автор подчеркивает риски, связанные с появляющейся системой электронного заключения, формой цифрового заключения, при которой свобода людей контролируется цифровыми механизмами и системами.

  • Особенности из мира прав человека и международного публичного права

Эшли Дикс, Ноам Любелл и Дараг Мюррей, Машинное обучение, искусственный интеллект и применение силы государствами, 16 ноября 2018 г.

Эшли Дикс, Ноам Любелл и Дараг Мюррей анализируют, как машинное обучение может повлиять на решения о ведении войны с точки зрения международного права, в частности, связанные с автоматизацией определенных ответных мер самообороны, уважением к рекомендациям, выработанным машинным обучением, и объяснимостью таких процессы.

Доступ сейчас: три отчета о европейских стратегиях регулирования ИИ и более общие последствия ИИ для прав человека

Направление ИИ

Лучано Флориди, Джош Коулз, Моника Белтраметти, Раджа Чатила, Патрис Чазеранд, Вирджиния Дигнум, Кристоф Люэтге, Роберт Мадлен, Уго Пагалло, Франческа Росси, Буркхард Шафер, Пегги Вальке, Эффи Вайена, AI4People — этическая основа для Хорошее общество искусственного интеллекта: возможности, риски, принципы и рекомендации, 26 ноября 2018 г.

Для оценки, развития, стимулирования и поддержки «хорошего ИИ» авторы представляют пять этических принципов и 20 конкретных рекомендаций, которые могут помочь создать прочную основу для «хорошего общества ИИ».

AI Now Institute, Пол, раса и власть — определение новой программы исследований в области ИИ, 15 ноября 2018 г.

После недавней забастовки в технологической отрасли в ответ на выявленные случаи домогательств и дискриминации Институт AI Now излагает новую программу исследований в области ИИ, в частности, на пересечении способностей, расы, пола, класса, сексуальности и структур власти внутри. поле ИИ.

  • Запрос предложений

Джефф Дин, Жаклин Фуллер, Искусственный интеллект для общественного блага — Call by Google, 29 октября 2018 г.

В рамках «ИИ на благо общества» Google запускает глобальный призыв к некоммерческим организациям, ученым и социальным предприятиям представить предложения о том, как они могут использовать ИИ для решения социальных, гуманитарных и экологических проблем.

  • Прошедшее мероприятие на видео

Редиет Абебе, Могут ли алгоритмы сократить неравенство?, TEDxLosGatos, 29 октября 2018 г.

Редиет Абебе рассматривает образовательное неравенство чернокожих и малообеспеченных учащихся, а также роль, которую играют алгоритмы при распределении учащихся в рамках управления школьной системой. Автор, ученый-компьютерщик, спрашивает (и предлагает), как можно использовать алгоритмы для продвижения равенства и справедливости, представляя работу «Черный в ИИ» и «Разработка механизмов для общественного блага».