Наборы этических инструментов могут помочь сделать приложения и системы, управляемые данными, более справедливыми, надежными и прозрачными. Ниже приведены некоторые наборы инструментов, которые могут помочь в реализации «этичного ИИ»:
Содержание:
- Audit-AI (тестирование смещения для обобщенных приложений машинного обучения)
- Игра с искусственным интеллектом (новый инструмент диагностики машинного обучения Google позволяет пользователям опробовать пять различных типов справедливости)
- Набор инструментов по этике и алгоритмам (структура управления рисками для правительств)
- AI Explainability 360 (IBM)
- Ответственный ИИ PwC
- InterpretML (Microsoft)
- Инструментарий разнообразия: руководство по обсуждению идентичности, власти и привилегий (USC)
- WEF Empowering AI Leadership - набор инструментов для надзора за советами директоров (Всемирный экономический форум)
- Ответственные инновации: набор передовых методов (Microsoft)
- Инструментарий аудита предвзятости и справедливости (Aequitas - Центр науки о данных и государственной политики - Чикагский университет)
- Этический инструментарий для инженерной / дизайнерской практики (Центр прикладной этики Марккула - Университет Санта-Клары)
- Fairlearn (Microsoft)
- TOOLBOX: Динамика принципов искусственного интеллекта (AI ETHICS LAB)
- Инструментарий алгоритмической политики подотчетности (Институт AI Now)
- От принципов к практике - междисциплинарная основа для введения в действие этики ИИ (Группа AIEI)
- Набор этических ОС
1. Audit-AI (тестирование смещения для обобщенных приложений машинного обучения)
audit-AI - это инструмент для измерения и смягчения последствий дискриминационных шаблонов в обучающих данных и прогнозов, сделанных алгоритмами машинного обучения, обученными для целей социально чувствительных процессов принятия решений.
Общая цель этого исследования - найти разумный способ подумать о том, как сделать алгоритмы машинного обучения более справедливыми. Хотя выявления потенциальной предвзятости в наборах обучающих данных и, как следствие, алгоритмов машинного обучения, обученных на них, недостаточно для решения проблемы дискриминации, в мире, где все больше и больше решений автоматизируется с помощью искусственного интеллекта, наша способность понимать и определять степень к которому алгоритм справедлив или предвзят, - шаг в правильном направлении.
Подробнее: https://github.com/pymetrics/audit-ai
2. Игра с искусственным интеллектом (новый инструмент диагностики машинного обучения Google позволяет пользователям опробовать пять различных типов справедливости)
Исследователи и дизайнеры из инициативы Google PAIR (Исследования людей и искусственного интеллекта) создали инструмент визуализации What-If в качестве практического ресурса для разработчиков систем машинного обучения. Однако использование инструмента «Что, если» открывает один из самых сложных, сложных и в высшей степени человеческих вопросов, поднятых системами искусственного интеллекта: что пользователи хотят считать справедливым?
Подробнее: https://pair-code.github.io/what-if-tool/ai-fairness.html
3. Набор инструментов по этике и алгоритмам (структура управления рисками для правительств)
Государственные руководители и сотрудники, использующие алгоритмы, сталкиваются с растущим давлением со стороны общественности, средств массовой информации и академических институтов, требующих большей прозрачности и подотчетности в их использовании. Каждый день появляются истории, описывающие непредвиденные или нежелательные последствия работы алгоритмов. У правительств не было инструментов, необходимых для понимания и управления этим новым классом рисков.
Подробнее: https://ethicstoolkit.ai/
4. AI Explainability 360 (IBM)
Этот расширяемый набор инструментов с открытым исходным кодом может помочь вам понять, как модели машинного обучения предсказывают метки различными способами на протяжении жизненного цикла приложения ИИ. Мы приглашаем вас использовать его и улучшать.
Подробнее: http://aix360.mybluemix.net/
5. Ответственный ИИ PwC
PwC Responsible AI Toolkit - это набор настраиваемых фреймворков, инструментов и процессов, призванных помочь вам использовать возможности ИИ этичным и ответственным образом - от стратегии до реализации.
6. InterpretML (Microsoft)
InterpretML - это пакет с открытым исходным кодом, который объединяет под одной крышей самые современные методы интерпретируемости машинного обучения. С помощью этого пакета вы можете обучать интерпретируемые модели стеклянных ящиков и объяснять системы черного ящика. InterpretML помогает вам понять глобальное поведение вашей модели или понять причины, лежащие в основе индивидуальных прогнозов.
Интерпретируемость важна для:
· Отладка модели - Почему моя модель сделала эту ошибку?
· Выявление проблем со справедливостью. Различает ли моя модель?
· Сотрудничество человека и ИИ - как я могу понять решения модели и доверять им?
· Соответствие нормативным требованиям. Удовлетворяет ли моя модель требованиям законодательства?
· Приложения с высоким уровнем риска - здравоохранение, финансы, судебная
Подробнее: https://github.com/interpretml/interpret
7. Diversity Toolkit: Руководство по обсуждению идентичности, власти и привилегий (USC)
Этот инструментарий предназначен для всех, кто считает, что не хватает продуктивного дискурса по вопросам разнообразия и роли идентичности в социальных отношениях, как на микро (индивидуальном), так и на макро (общинном) уровне. Возможно, вы учитель, фасилитатор молодежной группы, специалист по работе со студентами или управляете командой, которая работает с малообеспеченным населением. Подобное обучение может предоставить исторический контекст о политике идентичности и динамике власти и привилегий или помочь повысить самосознание.
8. WEF Empowering AI Leadership - набор инструментов для надзора за советами директоров (Всемирный экономический форум)
Этот ресурс для советов директоров состоит из: введения; 13 модулей предназначены для согласования с традиционными комитетами совета директоров, рабочими группами и надзорными проблемами; и глоссарий терминов, связанных с искусственным интеллектом (ИИ).
Восемь модулей посвящены надзору за стратегией и связанным с ними обязанностям. Они охватывают: бренд, конкуренцию, клиентов, операционную модель, людей и культуру, технологии, кибербезопасность и устойчивое развитие. Пять других модулей охватывают дополнительные темы, связанные с надзором совета директоров: этика, корпоративное управление, риски, аудит и обязанности совета директоров.
Перейдите по ссылкам в описаниях ниже, чтобы выбрать модуль. Продолжайте прокручивать вниз, чтобы прочитать введение, которое включает описание ИИ.
Каждый модуль содержит: описание темы, обязанности правления, относящиеся к этой теме модуля, инструменты надзора, предложения по составлению повестки дня обсуждений в правлении и ресурсы для более подробного изучения темы.
Подробнее: https://adobe.ly/2WTBOmI
9. Ответственные инновации: набор передовых методов (Microsoft)
Этот инструментарий предоставляет разработчикам набор практик в разработке для прогнозирования и устранения потенциального негативного воздействия технологий на людей. Мы делимся этим как ранняя практика для обратной связи и обучения.
Подробнее: https://docs.microsoft.com/en-us/azure/architecture/guide/responsible-innovation/
10. Инструментарий аудита предвзятости и справедливости (Aequitas - Центр науки о данных и государственной политики - Чикагский университет)
Отчет о предвзятости основан на Aequitas, инструментарии аудита предвзятости с открытым исходным кодом для разработчиков машинного обучения, аналитиков и политиков для проверки моделей машинного обучения на предмет дискриминации и предвзятости, а также принятия обоснованных и справедливых решений по разработке и развертыванию инструментов прогнозной оценки рисков.
Подробнее: http://aequitas.dssg.io/
11. Этический инструментарий для инженерной / дизайнерской практики (Центр прикладной этики Марккула - Университет Санта-Клары)
Приведенные ниже инструменты представляют собой конкретные способы внедрения этического анализа, обсуждения и суждения в рабочие процессы проектирования и проектирования в технологической отрасли.
При правильном использовании они помогут развить этические инженерные / дизайнерские методы, которые:
· Хорошо интегрирован в профессиональную техническую среду и рассматривается как естественная часть работы хорошего инженера и дизайна (не являющаяся внешним по отношению к ней или лишним)
· Сделано ясно, чтобы этическая практика не была «невысказанной» нормой, которую можно пропустить или забыть
· Упорядочен, так что с повторением и привычкой инженеры / дизайнеры / технологи могут постепенно укреплять свои навыки этического анализа и суждений
· Введен в действие так, чтобы инженеры / дизайнеры получали четкое руководство относительно того, как этические практики выглядят в их рабочих условиях, вместо того, чтобы быть вынужденными прибегать к своим личным и различным интерпретациям этики
Подробнее: https://www.scu.edu/ethics-in-technology-practice/ethical-toolkit/
12. Fairlearn (Microsoft)
Fairlearn - это пакет Python, который позволяет разработчикам систем искусственного интеллекта (ИИ) оценивать справедливость своей системы и смягчать любые наблюдаемые проблемы несправедливости. Fairlearn содержит алгоритмы смягчения последствий, а также виджет Jupyter для оценки модели. Помимо исходного кода, этот репозиторий также содержит записные книжки Jupyter с примерами использования Fairlearn.
Подробнее: https://github.com/fairlearn/fairlearn
13. TOOLBOX: Dynamics of AI Principles (AI ETHICS LAB).
Вы можете использовать его, чтобы продумать этические последствия использования технологий.
что вы оцениваете или создаете.
Коробка - это упрощенный инструмент, который
· Перечисляет важные этические принципы и проблемы,
· Ставит инструментальные этические принципы в соответствие с основными принципами,
· Помогает визуализировать этические сильные и слабые стороны технологий, а также
· Дает возможность визуального сравнения технологий.
Подробнее: https://aiethicslab.com/big-picture/
14. Инструментарий алгоритмической политики подотчетности (Институт AI Now)
Следующий набор инструментов предназначен для предоставления правовым и политическим защитникам базового понимания использования алгоритмов правительством, включая разбивку ключевых понятий и вопросов, которые могут возникнуть при рассмотрении этой проблемы, обзор существующих исследований и резюме алгоритмических систем. в настоящее время используется в правительстве. Этот инструментарий также включает ресурсы для адвокатов, заинтересованных или в настоящее время занятых в работе, чтобы выявить, где используются алгоритмы, и создать механизмы прозрачности и подотчетности.
Подробнее: https://ainowinstitute.org/aap-toolkit.pdf
15. От принципов к практике - междисциплинарная основа для введения в действие этики ИИ (Группа AIEI)
Группа воздействия на этику AI - это междисциплинарный консорциум, возглавляемый Ассоциацией VDE по электрическим, электронным и информационным технологиям и Bertelsmann Stiftung. Мы собрались вместе в 2019 году, чтобы воплотить этику ИИ из принципов в практику.
С помощью наших рамок маркировки и спецификаций мы стремимся поддерживать соблюдение европейских ценностей и защиту граждан в Европе, обеспечивать качественную прозрачность и сопоставимость на рынке, а также предотвращать ненужную бюрократическую волокиту для компаний с простой реализацией только там, где это необходимо.
Мы также хотим, чтобы этика ИИ стала понятной и понятной для организаций и граждан по всей Европе и за ее пределами.
Мы представляем здесь наши выводы и надеемся на широкую дискуссию, ориентированную на реализацию.
Подробнее: https://www.ai-ethics-impact.org/en
16 Набор этических инструментов для ОС
Что есть в наборе инструментов:
· Контрольный список из 8 зон риска, который поможет вам определить возникающие области риска и социального вреда, наиболее важные для вашей команды, чтобы начать их рассмотрение прямо сейчас.
· 14 сценариев, которые помогут зажечь разговор и расширить ваше воображение о долгосрочном влиянии технологий, которые вы создаете сегодня.
· 7 ориентированных на будущее стратегий, которые помогут вам принять этичные меры уже сегодня.
Подробнее: https://ethicalos.org/
Это тоже может быть интересно (моя последняя книга о «Внимательном» ИИ):
Ссылка (Amazon): КНИГА МЫСЛИ ИИ: Вдохновляющие мысли и цитаты об искусственном интеллекте