Этика в ИИ

Технологии должны быть этичными, или, говоря более понятным языком, они должны использоваться этично. И этика может означать много разных вещей — это может означать прозрачность того, как она используется для решения проблем клиента, способность объяснять и интерпретировать результаты и решения, принимаемые с помощью этой технологии, быть честным и беспристрастным в этих решениях, а также ответственность за использование указанной технологии.

Почему для большинства организаций соблюдение нормативных требований является чем-то вроде слона в комнате

В целом это зависит от контекста — проблемы, которую вы пытаетесь решить, а также от того, как вы решаете эту проблему.

Где будет использоваться ИИ? используемый (контекст/отрасль/проблема) и то, как он будет использоваться (решение/вариант использования), важны для определения того, какое соответствие нормативным требованиям и проверка необходимы вашему продукту/услуге.

Вы по-прежнему должны следовать принципам надлежащего управления в отношении прозрачности и согласия на использование данных во всех сценариях, однако уровень соблюдения нормативных требований постепенно меняется в зависимости от интенсивности воздействия проблемы, которую вы пытаетесь решить, поэтому сфера финансов и здравоохранения, как правило, жестко регулируется. из-за самой природы проблем своих клиентов.

Регулирующие органы хотят знать о ваших —

инфраструктура данных и системная архитектура —насколько надежны внутренние системы для обработки данных, интеграции и надежности; где будут храниться данные — в помещении или в облаке, где будут работать модели ИИ — внутренние или сторонние API-интеграции и т. д., как устаревшие системы взаимодействуют друг с другом.

методы сбора и распространения данных, каковы источники данных, достоверность этого набора данных, какие точки данных извлекаются или запрашиваются, как они будут использоваться, где они будут использоваться.

Конфиденциальность и согласие пользователей — проводятся ли проверки согласия, уведомляются ли пользователи в явном виде об использовании их данных, можно ли усваивать эти согласия/условия и положения; в основном вы следуете конфиденциальности по замыслу?

модели и алгоритмы машинного обучения — как мы можем проверить правильность и точность решения, принятого этими моделями ИИ? Способны ли мы точно объяснить и интерпретировать принятые решения? Есть ли человек, перепроверяющий эти результаты? участвуют ли эксперты в предметной области при обработке и маркировке данных, а также при разработке моделей ИИ? Является ли алгоритм или данные, поступающие в ИИ, честными и беспристрастными? Является ли набор данных обширным и всеобъемлющим? какие методы моделирования использовались?

управление рисками — снижение рисков в случае неточных или плохих результатов; каковы последствия и соответствующий план действий из-за неточности данных и результатов?

Организациям приходится преодолевать серьезные нормативные препятствия (особенно в финансовой сфере и сфере здравоохранения) для создания безопасных и надежных систем на основе ИИ, поэтому чаще всего эти сдержки и противовесы могут казаться препятствием для инноваций.

Однако вместо того, чтобы рассматривать регулирование как препятствие на пути к успеху в бизнесе, мы должны рассматривать его как способ развития нашей деловой практики, чтобы она становилась все более этичной и гуманной.

Барьеры (внутренние и внешние), мешающие компаниям предоставлять возможности, связанные с объяснимостью ИИ

ИИ все еще находится в зачаточном состоянии; эти алгоритмы так же хороши, как и данные, которые мы им передаем для обучения, и дизайн моделей ИИ. И эти модели все еще находятся в стадии разработки, мы учимся на каждой неудаче и непоследовательном результате.

Таким образом, ИИ — это черный ящик, но я верю, что он постепенно начнет разрушаться по мере того, как мы будем совершенствоваться и совершенствоваться. уточнение этих моделей.

По моему опыту, основным препятствием для объяснимости является отсутствие осведомленности в организационной среде.Мысль о том, что нам даже нужно объяснять решения, принимаемые моделью ИИ, нашим регулирующие органы и заказчики не продуманы в начале проекта. Следовательно, минимальные усилия прилагаются для создания практик объяснимости для каждой возможности или продукта.

Во-вторых, прелесть алгоритма ИИ заключается в его способности учиться самостоятельно, находить выводы. и скрытые шаблоны из наборов данных, которые человеческий разум не сможет легко извлечь. Следовательно, объяснимость является реальной проблемой и будет оставаться проблемой в течение некоторого времени, пока мы не дойдем до продвинутой стадии экосистемы ИИ.

При этом во всем мире есть компании, которые создают алгоритмы. который сможет реконструировать результат алгоритма ИИ и получить подробную информацию о том, как и почему было принято определенное решение, какие предположения были сделаны, какие комбинации данных привели к указанному результату.

Как компании могут бороться с предвзятостью в своих алгоритмах?

  • Начните с вопросов. Есть ли у моей модели всеобъемлющий набор данных, на котором я могу ее обучить? Представляет ли он разные возрастные группы, пол, этническую принадлежность, происхождение, обстоятельства, проблемы?
  • Подготовить инклюзивный и разнообразный набор сотрудников — есть ли предвзятость в моем собственном суждении как специалиста по данным при разработке этих моделей? Убедитесь, что ваша команда по анализу данных разнообразна и инклюзивна, потому что предвзятость в моделях исходит от людей, которые эти модели разрабатывают. Человек, который разрабатывает модель, и данные, которые он вводит в модель, являются двумя наиболее важными факторами, определяющими результат/выход модели ИИ.
  • Расширяйте пограничные варианты. Убедитесь, что модель постоянно учится на различных вариантах использования и проблемах, возможно, даже на самых незначительных пограничных случаях.
  • Шаблон управления — используйте ИИ и управление данными в качестве практики/календаря в организации, независимо от проекта или бизнеса.
  • Привлекайте регуляторов к разработке инноваций – вместо того, чтобы превращать регулирование в экстренную задачу, привлекайте регуляторов к процессу разработки инноваций с самого начала, чтобы они понимали задачу, которую вы пытаетесь решить, и вашу конечную цель.
  • Конфиденциальность/Добросовестность/Объяснимость по замыслу — создавайте инфраструктуру проектирования «правильно» с самого начала проекта, в план продукта.
  • Прозрачность на макроуровне в процессе построения модели. Как и в предыдущем случае, добавьте прозрачность в свои модели ИИ с помощью документации и диалогов.
  • Измерение: попытайтесь определить показатели, с помощью которых вы измеряете справедливостьили (не)предвзятость в своих моделях и результатах. Это сложно взломать, однако не все продукты склонны к предвзятости; действительно, некоторые продукты могут быть частичными для определенного сегмента, поскольку это сама природа их бизнес-модели.
  • сотрудничество с заинтересованными сторонами в предметной области и академическими учреждениями — это отличный способ использовать коллективный разум экспертов в вашем продукте/услуге для выявления предвзятости в данных или моделях ИИ.
  • Управление моделями и управление — нормализуйте это в своей организации, чтобы управление ИИ стало обязательным пунктом в вашем контрольном списке «определения готовности».

Доверие прямо пропорционально прозрачности

Если организации смогут быть прозрачными, справедливыми, этичными и подотчетными в своей деловой и технологической практике, это приведет к определенному уровню доверия со стороны ваших конечных клиентов, что, в свою очередь, проложит путь к дополнительным возможностям для обеих сторон уравнения.