На этой неделе я имел большое удовольствие встретить DJ Патил, главного научного сотрудника администрации Обамы и бывшего главного научного сотрудника LinkedIn. Ниже приводится краткое изложение и легкий анализ его выступления (слайды на ppt здесь), в котором широко освещалась наука о данных (хотя я обнаружил, что она имеет прямое отношение к этике ИИ).

Для получения дополнительной информации я настоятельно рекомендую DJ и его соавторов (Хилари Мейсон и Майк Лукидес) отличную и бесплатную электронную книгу Этика и наука о данных, доступную здесь. Большое спасибо Центру прикладной этики Марккула при университете Санта-Клары и другим организаторам за помощь в организации этого обсуждения в рамках их серии AI for Social Impact Speaker Series.

Ключевые вопросы этики ИИ / этики данных

  • Какие стандарты и практики следует внедрять в сфере искусственного интеллекта и науки о данных, поскольку они становятся все более важными как области?
  • Какие существуют механизмы для распространения этих стандартов и практик через призму страны / регулирующего органа, учреждения (например, крупной коммерческой организации или университета) или отдельных лиц?
  • NB: Я считаю, что вопросы о правительствах и учреждениях довольно интересны и заслуживают внимания. Поскольку отдельный вопрос, возможно, встречается реже и к тому же требует прямого действия, я добавлю к нему дополнительный цвет ниже.

Рамки для понимания и управления возможностями и проблемами ИИ / науки о данных

«5 C» ди-джеев - «структура для реализации золотого правила данных» (относитесь к данным других так, как вы хотите, чтобы относились к вашим собственным данным; какие измерения важны для людей, когда они делятся своими личные данные?)

  1. Согласие - информированное соглашение о том, какие данные должны быть собраны и с какой целью; Понятия согласия и его пределы могут варьироваться в зависимости от географического положения (например, ЕС и GDPR).
  2. Ясность - даже если согласие есть, насколько мы уверены, что конечные пользователи понимают условия? На это может повлиять техническая сложность использования и юридические документы, такие как Условия использования формы.
  3. Последовательность (и доверие) - обеспечение того, чтобы системы работали должным образом и были надежными, чтобы у пользователей были точные мысленные модели того, как будут использоваться их данные, и обязанности держателя данных.
  4. Контроль (и прозрачность) - понимание того, какие данные хранятся, по каким измерениям и для чего используются, на постоянной основе.
  5. Последствия - Предвидение того, как данные могут быть использованы не по назначению или злоупотреблены либо злоумышленниками, либо действующими из лучших побуждений участниками при непредвиденных обстоятельствах.

Контрольный список проекта по анализу данных от ди-джея. Какие вопросы следует задать команде специалистов по анализу данных перед тем, как приступить к проекту или запустить его, аналогично другим вопросам, связанным с обзором продукта, которые могут возникнуть перед командой (например, будет ли этот новый запуск каннибализован) наши существующие продукты)

1. Перечислили ли мы, как можно атаковать или использовать эту технологию?

2. Проверяли ли мы наши данные по обучению, чтобы убедиться, что они справедливы и репрезентативны?

3. Изучили ли мы и поняли ли мы возможные источники систематической ошибки в наших данных?

4. Отражает ли наша команда разнообразие мнений, жизненного опыта и взглядов?

5. Какое согласие пользователя необходимо получить для использования данных?

6. Есть ли у нас механизм для получения согласия пользователей?

7. Четко ли мы объяснили, на что соглашаются пользователи?

8. Есть ли у нас механизм возмещения вреда, если люди пострадали от результатов?

9. Можем ли мы закрыть это программное обеспечение в производственной среде, если оно плохо себя ведет?

10. Проверяли ли мы на справедливость по отношению к разным группам пользователей?

11. Проверили ли мы разную частоту ошибок среди разных групп пользователей?

12. Проверяем ли мы и отслеживаем ли дрейф модели, чтобы гарантировать, что наше программное обеспечение остается безупречным с течением времени?

13. Есть ли у нас план защиты и защиты пользовательских данных?

Я также должен отметить здесь, что хотя кибербезопасность напрямую присутствует в некоторых из вышеперечисленных вопросов (например, в вопросах 8, 9 и 13), это также было центральным предметом выступления ди-джея, например, при описании красного -team '»подходы как к проникновению в системы данных, так и к тому, как системы могут быть использованы не по назначению.

Предложения ди-джеев для частных лиц

Учитывая точку зрения Диджея и его работу в экосистеме науки о данных, что можно начать делать сегодня, что могло бы оказать влияние?

  • Если вы работаете над проектом в области науки о данных, обратите внимание на контрольный список, приведенный выше. Может ли ваша команда использовать это? Если нет, то какие вопросы нужно добавить или вычесть, чтобы сделать его более логичным?
  • Спросите себя: если в ходе проекта вы столкнетесь с проблемой из 5 C или вопросом из контрольного списка, знаете ли вы механизм решения? Если нет, можете ли вы поговорить со своим менеджером или командой о формализации процесса (включая, возможно, нейтрального стороннего посредника / омбудсмена)?
  • Во время собеседования с кандидатами на вступление в вашу команду можете ли вы определить, сколько мыслей вы уделяете этическим компромиссам, и убедиться, что кандидаты согласны с видением, которое вы хотите, чтобы ваша команда воплощала в жизнь? (Каким образом ИИ и этика данных вписываются в представления вашей команды о культурной совместимости?)
  • Во время собеседования в качестве кандидата в компании, можете ли вы спросить их, как они решают проблемы этики данных внутри компании и как они гарантируют, что их продукты используются с хорошими целями? (Диджей поднял здесь хороший аргумент: если бы этот вопрос стал обычной практикой, вы бы наверняка увидели большую активность в этой области - это связано с восходящей стороной экономического уравнения, направленной на спрос со стороны рабочих, о которой я упоминаю ниже.)
  • Когда что-то идет не так (или почти удается избежать ошибок) в проекте, есть ли у вашей команды уже посмертный процесс для анализа? Если нет, можете ли вы предложить один, ориентированный на контрольный список выше? (Как ваша команда может обеспечить надлежащее установление фактов в краткосрочной перспективе и надлежащую подотчетность в долгосрочной перспективе, чтобы помочь информировать эти методы?)

Еще одна основа для изменения этики ИИ / науки о данных

Экономическая линза - хотя эта структура не была названа напрямую, я рассматриваю ее как важную тему в выступлениях ди-джеев и в своих беседах с другими участниками - как изменить динамику рынка (как спроса, так и предложения). сторону), так что строгая этика данных становится нормой.

Конечно, такая точка зрения является чрезмерным упрощением реалий институциональной жизни и процесса принятия решений. В то же время я думаю, что это полезное упрощение для размышлений о том, как могут произойти изменения и где могут помочь коллективные действия.

В качестве отправной точки я считаю, что почти все ученые, занимающиеся ИИ, и смежные заинтересованные стороны очень сильно хотят поступать «правильно» - как развертывать технологии для достижения наилучших целей, так и избегать злоупотреблений на этом пути.

Несмотря на эти склонности, люди в учреждениях могут иногда отклоняться от идеального поведения, частично из-за отсутствия основных инструментов для решительного ответа на этические вопросы, а частично из-за их собственных экономических проблем и сложных структур стимулирования.

Таким образом, чтобы внести системные изменения, мы можем добиться большего успеха, если сформулируем практические решения в рамках экономических реалий людей и институтов и обеспечим совместимость этических норм и рыночного давления.

Рассмотрим гипотетического сотрудника компании, который оценивается, главным образом, на основе кода или характеристик продукта, которые они поставляют, без учета этической оценки; у этого человека будут веские причины не обращать внимания на серые зоны, которые могут задержать его действия, особенно если отметка этих проблем может даже не привести к четкому разрешению.

Дергать за шнур производственной линии и останавливать продвижение проекта может не цениться компанией (и, в свою очередь, отдельным лицом), если эти черты не находят положительного отражения в отзывах. Люди должны чувствовать себя уполномоченными и активно поощряться к таким действиям, а не только к тому, что эти действия допустимы. (Я чувствовал, что мой бывший работодатель, McKinsey & Company, действительно преуспел в этом вопросе, подчеркивая обязанность выражать несогласие на всех уровнях и пытаясь реализовать неиерархическое принятие решений.)

Я подозреваю, что на институциональном уровне требования рынка могут побудить компании продолжать запуск сценариев использования ИИ / науки о данных, даже если остаются нерешенными вопросы об использовании данных, пока компании продолжают получать вознаграждение. (Страх перед плохим общественным мнением, конечно, является мощным сдерживающим фактором для поспешных запусков.)

Однако на практике политика компании не так проста, как решение априори, что будет максимизировать прибыль, а затем волшебное желание этого; здесь присутствует дополнительная рыночная динамика. Внутри компаний хорошо позиционированные и идеологически ориентированные люди могут иметь возможность влиять на траекторию запуска, особенно если они обладают уникальными навыками или большим влиянием в организации. Эти механизмы влияния включают индивидуальный отказ от работы над определенными проектами или помощь в разговоре с определенными проектами. В этом смысле влиятельные работники с сильным пониманием этических ограничений могут иметь значение, по крайней мере, в определенных компаниях.

В то время как отдельные лица в компаниях могут предпринимать попытки управлять кораблем и действительно часто преуспевают, остается реальностью то, что многие американские компании действительно работают с акцентом на акционерную стоимость во многих сферах своей деятельности. Структура этики ИИ / науки о данных, по крайней мере в краткосрочной перспективе, вероятно, предполагает работу в рамках этой структуры или, по крайней мере, признание ее практических аспектов (например, формулирование возражений в связи с трудностями при найме, удержании или осуществимости реализации, если некоторые ученые не одобрят Миссия).

Ни одно из этих решений или фреймворков не является панацеей; в некоторых случаях они оставляют определение того, какие именно этические люди должны воплощать в жизнь (какое видение движется к вашей команде в использовании ИИ / науки о данных и откуда это взялось), а в других - они меньшее инкрементное изменение, а не нисходящие директивы, которые в конечном итоге могут достичь большего масштаба. (Хотя в совокупности многие изменения меньшего масштаба могут привести к более широким изменениям или могут помочь подтолкнуть более крупных участников.)

Тем не менее, я нашел как вдохновляющим, так и вдохновляющим оставить выступление ди-джеев с конкретным набором действий, которые можно предпринять, чтобы «жить своей этикой» в искусственном интеллекте и науке о данных в целом. Я очень благодарен за эту возможность и надеюсь, что мои обобщения и мысли будут полезны другим, пытающимся решить эти вопросы.

Стивен Адлер - бывший консультант по стратегии, специализирующийся на искусственном интеллекте, технологиях и этике.

Если вы хотите следить за проектами и произведениями Стивена, обязательно подпишитесь на этот средний аккаунт. Узнайте больше на LinkedIn.