Наборы этических инструментов могут помочь сделать приложения и системы, управляемые данными, более справедливыми, надежными и прозрачными. Ниже приведены некоторые наборы инструментов, которые могут помочь в реализации «этичного ИИ»:

Содержание:

  1. Audit-AI (тестирование смещения для обобщенных приложений машинного обучения)
  2. Игра с искусственным интеллектом (новый инструмент диагностики машинного обучения Google позволяет пользователям опробовать пять различных типов справедливости)
  3. Набор инструментов по этике и алгоритмам (структура управления рисками для правительств)
  4. AI Explainability 360 (IBM)
  5. Ответственный ИИ PwC
  6. InterpretML (Microsoft)
  7. Инструментарий разнообразия: руководство по обсуждению идентичности, власти и привилегий (USC)
  8. WEF Empowering AI Leadership - набор инструментов для надзора за советами директоров (Всемирный экономический форум)
  9. Ответственные инновации: набор передовых методов (Microsoft)
  10. Инструментарий аудита предвзятости и справедливости (Aequitas - Центр науки о данных и государственной политики - Чикагский университет)
  11. Этический инструментарий для инженерной / дизайнерской практики (Центр прикладной этики Марккула - Университет Санта-Клары)
  12. Fairlearn (Microsoft)
  13. TOOLBOX: Динамика принципов искусственного интеллекта (AI ETHICS LAB)
  14. Инструментарий алгоритмической политики подотчетности (Институт AI Now)
  15. От принципов к практике - междисциплинарная основа для введения в действие этики ИИ (Группа AIEI)
  16. Набор этических ОС

1. Audit-AI (тестирование смещения для обобщенных приложений машинного обучения)

audit-AI - это инструмент для измерения и смягчения последствий дискриминационных шаблонов в обучающих данных и прогнозов, сделанных алгоритмами машинного обучения, обученными для целей социально чувствительных процессов принятия решений.

Общая цель этого исследования - найти разумный способ подумать о том, как сделать алгоритмы машинного обучения более справедливыми. Хотя выявления потенциальной предвзятости в наборах обучающих данных и, как следствие, алгоритмов машинного обучения, обученных на них, недостаточно для решения проблемы дискриминации, в мире, где все больше и больше решений автоматизируется с помощью искусственного интеллекта, наша способность понимать и определять степень к которому алгоритм справедлив или предвзят, - шаг в правильном направлении.

Подробнее: https://github.com/pymetrics/audit-ai

2. Игра с искусственным интеллектом (новый инструмент диагностики машинного обучения Google позволяет пользователям опробовать пять различных типов справедливости)

Исследователи и дизайнеры из инициативы Google PAIR (Исследования людей и искусственного интеллекта) создали инструмент визуализации What-If в качестве практического ресурса для разработчиков систем машинного обучения. Однако использование инструмента «Что, если» открывает один из самых сложных, сложных и в высшей степени человеческих вопросов, поднятых системами искусственного интеллекта: что пользователи хотят считать справедливым?

Подробнее: https://pair-code.github.io/what-if-tool/ai-fairness.html

3. Набор инструментов по этике и алгоритмам (структура управления рисками для правительств)

Государственные руководители и сотрудники, использующие алгоритмы, сталкиваются с растущим давлением со стороны общественности, средств массовой информации и академических институтов, требующих большей прозрачности и подотчетности в их использовании. Каждый день появляются истории, описывающие непредвиденные или нежелательные последствия работы алгоритмов. У правительств не было инструментов, необходимых для понимания и управления этим новым классом рисков.

Подробнее: https://ethicstoolkit.ai/

4. AI Explainability 360 (IBM)

Этот расширяемый набор инструментов с открытым исходным кодом может помочь вам понять, как модели машинного обучения предсказывают метки различными способами на протяжении жизненного цикла приложения ИИ. Мы приглашаем вас использовать его и улучшать.

Подробнее: http://aix360.mybluemix.net/

5. Ответственный ИИ PwC

PwC Responsible AI Toolkit - это набор настраиваемых фреймворков, инструментов и процессов, призванных помочь вам использовать возможности ИИ этичным и ответственным образом - от стратегии до реализации.

Подробнее: https://www.pwc.com/gx/en/issues/data-and-analytics/artificial-intelligence/what-is-responsible-ai.html

6. InterpretML (Microsoft)

InterpretML - это пакет с открытым исходным кодом, который объединяет под одной крышей самые современные методы интерпретируемости машинного обучения. С помощью этого пакета вы можете обучать интерпретируемые модели стеклянных ящиков и объяснять системы черного ящика. InterpretML помогает вам понять глобальное поведение вашей модели или понять причины, лежащие в основе индивидуальных прогнозов.

Интерпретируемость важна для:

· Отладка модели - Почему моя модель сделала эту ошибку?

· Выявление проблем со справедливостью. Различает ли моя модель?

· Сотрудничество человека и ИИ - как я могу понять решения модели и доверять им?

· Соответствие нормативным требованиям. Удовлетворяет ли моя модель требованиям законодательства?

· Приложения с высоким уровнем риска - здравоохранение, финансы, судебная

Подробнее: https://github.com/interpretml/interpret

7. Diversity Toolkit: Руководство по обсуждению идентичности, власти и привилегий (USC)

Этот инструментарий предназначен для всех, кто считает, что не хватает продуктивного дискурса по вопросам разнообразия и роли идентичности в социальных отношениях, как на микро (индивидуальном), так и на макро (общинном) уровне. Возможно, вы учитель, фасилитатор молодежной группы, специалист по работе со студентами или управляете командой, которая работает с малообеспеченным населением. Подобное обучение может предоставить исторический контекст о политике идентичности и динамике власти и привилегий или помочь повысить самосознание.

Подробнее: https://msw.usc.edu/mswusc-blog/diversity-workshop-guide-to-discussing-identity-power-and-privilege/#intro

8. WEF Empowering AI Leadership - набор инструментов для надзора за советами директоров (Всемирный экономический форум)

Этот ресурс для советов директоров состоит из: введения; 13 модулей предназначены для согласования с традиционными комитетами совета директоров, рабочими группами и надзорными проблемами; и глоссарий терминов, связанных с искусственным интеллектом (ИИ).

Восемь модулей посвящены надзору за стратегией и связанным с ними обязанностям. Они охватывают: бренд, конкуренцию, клиентов, операционную модель, людей и культуру, технологии, кибербезопасность и устойчивое развитие. Пять других модулей охватывают дополнительные темы, связанные с надзором совета директоров: этика, корпоративное управление, риски, аудит и обязанности совета директоров.

Перейдите по ссылкам в описаниях ниже, чтобы выбрать модуль. Продолжайте прокручивать вниз, чтобы прочитать введение, которое включает описание ИИ.

Каждый модуль содержит: описание темы, обязанности правления, относящиеся к этой теме модуля, инструменты надзора, предложения по составлению повестки дня обсуждений в правлении и ресурсы для более подробного изучения темы.

Подробнее: https://adobe.ly/2WTBOmI

9. Ответственные инновации: набор передовых методов (Microsoft)

Этот инструментарий предоставляет разработчикам набор практик в разработке для прогнозирования и устранения потенциального негативного воздействия технологий на людей. Мы делимся этим как ранняя практика для обратной связи и обучения.

Подробнее: https://docs.microsoft.com/en-us/azure/architecture/guide/responsible-innovation/

10. Инструментарий аудита предвзятости и справедливости (Aequitas - Центр науки о данных и государственной политики - Чикагский университет)

Отчет о предвзятости основан на Aequitas, инструментарии аудита предвзятости с открытым исходным кодом для разработчиков машинного обучения, аналитиков и политиков для проверки моделей машинного обучения на предмет дискриминации и предвзятости, а также принятия обоснованных и справедливых решений по разработке и развертыванию инструментов прогнозной оценки рисков.

Подробнее: http://aequitas.dssg.io/

11. Этический инструментарий для инженерной / дизайнерской практики (Центр прикладной этики Марккула - Университет Санта-Клары)

Приведенные ниже инструменты представляют собой конкретные способы внедрения этического анализа, обсуждения и суждения в рабочие процессы проектирования и проектирования в технологической отрасли.

При правильном использовании они помогут развить этические инженерные / дизайнерские методы, которые:

· Хорошо интегрирован в профессиональную техническую среду и рассматривается как естественная часть работы хорошего инженера и дизайна (не являющаяся внешним по отношению к ней или лишним)

· Сделано ясно, чтобы этическая практика не была «невысказанной» нормой, которую можно пропустить или забыть

· Упорядочен, так что с повторением и привычкой инженеры / дизайнеры / технологи могут постепенно укреплять свои навыки этического анализа и суждений

· Введен в действие так, чтобы инженеры / дизайнеры получали четкое руководство относительно того, как этические практики выглядят в их рабочих условиях, вместо того, чтобы быть вынужденными прибегать к своим личным и различным интерпретациям этики

Подробнее: https://www.scu.edu/ethics-in-technology-practice/ethical-toolkit/

12. Fairlearn (Microsoft)

Fairlearn - это пакет Python, который позволяет разработчикам систем искусственного интеллекта (ИИ) оценивать справедливость своей системы и смягчать любые наблюдаемые проблемы несправедливости. Fairlearn содержит алгоритмы смягчения последствий, а также виджет Jupyter для оценки модели. Помимо исходного кода, этот репозиторий также содержит записные книжки Jupyter с примерами использования Fairlearn.

Подробнее: https://github.com/fairlearn/fairlearn

13. TOOLBOX: Dynamics of AI Principles (AI ETHICS LAB).

Вы можете использовать его, чтобы продумать этические последствия использования технологий.

что вы оцениваете или создаете.

Коробка - это упрощенный инструмент, который

· Перечисляет важные этические принципы и проблемы,

· Ставит инструментальные этические принципы в соответствие с основными принципами,

· Помогает визуализировать этические сильные и слабые стороны технологий, а также

· Дает возможность визуального сравнения технологий.

Подробнее: https://aiethicslab.com/big-picture/

14. Инструментарий алгоритмической политики подотчетности (Институт AI Now)

Следующий набор инструментов предназначен для предоставления правовым и политическим защитникам базового понимания использования алгоритмов правительством, включая разбивку ключевых понятий и вопросов, которые могут возникнуть при рассмотрении этой проблемы, обзор существующих исследований и резюме алгоритмических систем. в настоящее время используется в правительстве. Этот инструментарий также включает ресурсы для адвокатов, заинтересованных или в настоящее время занятых в работе, чтобы выявить, где используются алгоритмы, и создать механизмы прозрачности и подотчетности.

Подробнее: https://ainowinstitute.org/aap-toolkit.pdf

15. От принципов к практике - междисциплинарная основа для введения в действие этики ИИ (Группа AIEI)

Группа воздействия на этику AI - это междисциплинарный консорциум, возглавляемый Ассоциацией VDE по электрическим, электронным и информационным технологиям и Bertelsmann Stiftung. Мы собрались вместе в 2019 году, чтобы воплотить этику ИИ из принципов в практику.

С помощью наших рамок маркировки и спецификаций мы стремимся поддерживать соблюдение европейских ценностей и защиту граждан в Европе, обеспечивать качественную прозрачность и сопоставимость на рынке, а также предотвращать ненужную бюрократическую волокиту для компаний с простой реализацией только там, где это необходимо.

Мы также хотим, чтобы этика ИИ стала понятной и понятной для организаций и граждан по всей Европе и за ее пределами.

Мы представляем здесь наши выводы и надеемся на широкую дискуссию, ориентированную на реализацию.

Подробнее: https://www.ai-ethics-impact.org/en

16 Набор этических инструментов для ОС

Что есть в наборе инструментов:

· Контрольный список из 8 зон риска, который поможет вам определить возникающие области риска и социального вреда, наиболее важные для вашей команды, чтобы начать их рассмотрение прямо сейчас.

· 14 сценариев, которые помогут зажечь разговор и расширить ваше воображение о долгосрочном влиянии технологий, которые вы создаете сегодня.

· 7 ориентированных на будущее стратегий, которые помогут вам принять этичные меры уже сегодня.

Подробнее: https://ethicalos.org/

Это тоже может быть интересно (моя последняя книга о «Внимательном» ИИ):

Ссылка (Amazon): КНИГА МЫСЛИ ИИ: Вдохновляющие мысли и цитаты об искусственном интеллекте