Что такое предвзятость в ИИ?

Беспристрастная система представляет процесс или совокупность, которую она пытается моделировать. Справедливо предположить, что такая система или создатели таких систем не заинтересованы в принуждении системы к определенному поведению. Ожидается, что такие системы будут недискриминационными, справедливыми и соответствующими этическим устоям общества в целом. Система, которая не соответствует этим конструкциям, называется предвзятой.

Ажиотаж и стремление большинства предприятий и компаний-производителей запрыгнуть на подножку ИИ приводят к экспоненциальному темпу внедрения ИИ. Учитывая, что такие системы ИИ в конечном итоге заменят человеческое суждение или существенно повлияют на человеческое суждение, они должны быть свободны от какой-либо предвзятости, как и ожидается от этичного поведения человека. К сожалению, по мере того как ИИ внедряется во многие системы и процессы, затрагивающие нашу повседневную жизнь, не существует строгости или регулирования в проверке этического соответствия таких развертываний ИИ.

Такая предвзятость в системе ИИ обычно возникает из-за способа сбора данных для обучения системы или из-за недостаточной строгости исследователя при когнитивной обработке исходных данных. Типичные типы предвзятости включают стереотипы, эффект побеждающей стороны, предвзятость подтверждения и выборочное прайминг. Систематическая ошибка также может быть введена из-за отсутствия действительно случайных данных или полных данных. Приложения ИИ обычно создаются с самыми лучшими и благородными намерениями, но во многих случаях в результаты вносятся непреднамеренные искажения по некоторым из вышеупомянутых причин.

Каковы последствия предвзятости?

По мере того, как ИИ все больше проникает в нашу повседневную жизнь, последствия таких предубеждений нельзя сводить к минимуму. Хотя мы слышим об использовании ИИ в таких областях, как уголовное правосудие, зачисление и оценка образования, наблюдение, трудоустройство и финансы, любое неверное суждение в этих сценариях из-за предвзятого алгоритма может иметь далеко идущие последствия для жизни и карьерных возможностей людей.

Были статьи о том, сколько алгоритмов в производстве, как было доказано, исключают маргинализированные группы. Аллен Блю однажды обнаружил проблему с LinkedIn, когда рекрутеры используют LinkedIn для отбора подходящих профилей. Проблема заключалась в том, что женщины не появлялись достаточно высоко в этих списках, причина этого была определена как предвзятость в основном алгоритме. LinkedIn, возможно, в конечном итоге исправила эту предвзятость, но она выявляет общее последствие предвзятости.

Есть достаточно других примеров того, как более ранние системы распознавания лиц были предвзяты к определенному полу и расе или как встраивание слов показывает предвзятые ассоциации между определенным полом и профессиями. Теперь, если результаты таких моделей станут частью системы управления принятием решений, сам процесс окажется изначально предвзятым, хотя никто никогда не собирался привносить такую ​​предвзятость. Когда эти предубеждения выходят на первый план, это подрывает доверие не только к ИИ, но и ко всей системе.

Насколько серьезно организации относятся к предвзятости? Кто ключевые игроки?

Исследователи и организации, работающие над продуктами и услугами ИИ, все больше осознают важность обеспечения этичности и справедливости алгоритмов ИИ. Большинство ключевых игроков уже начали принимать меры, чтобы гарантировать, что они создают системы ИИ, которые являются этичными и свободными от предубеждений. Такое восприятие имеет решающее значение для поддержания доверия к их брендам, если они собираются сделать ставку на ИИ.

Партнерство в области ИИ было публично объявлено 28 сентября 2016 года его основателями Amazon, Facebook, Google, DeepMind, Microsoft и IBM с целью внедрения передового опыта в области ИИ и просвещения общественности в области ИИ. Одним из ключевых тематических направлений работы PAI является поиск возможностей для разработки передового опыта в области разработки и внедрения справедливых, объяснимых и подотчетных систем искусственного интеллекта.

IBM Research сосредоточила внимание на предвзятости ИИ в некоторых своих инициативах в исследовательских лабораториях MIT-IBM.

Основанный в 2017 году Кейт Кроуфорд и Мередит Уиттакер, Институт искусственного интеллекта сейчас при Нью-Йоркском университете занимается четырьмя ключевыми областями: права и свободы, труд и автоматизация, предвзятость и инклюзивность, а также безопасность и критическая инфраструктура.

В Принципах искусственного интеллекта для разработки продуктов в Google генерального директора Google Судара Пичаи также делается упор на недопущение создания или усиления несправедливой предвзятости в алгоритмах и наборах данных искусственного интеллекта, особенно когда речь идет о влиянии на те, которые связаны с чувствительными характеристиками, такими как раса, этническая принадлежность, пол, национальность. , доход, сексуальная ориентация, способности и политические или религиозные убеждения.

Не только корпорации, но и такие страны, как США, Великобритания, Франция, Австралия и другие, активно пытаются разработать или принять закон, который побудит изобретателей и ученых создавать ответственный ИИ, где одним из ключевых требований будет устранение предвзятости в ИИ. В США новый законопроект под названием Акт об алгоритмической ответственности требует от крупных компаний проверять свои системы машинного обучения на предвзятость и дискриминацию и своевременно принимать корректирующие меры, если такие проблемы будут выявлены.

Какие наборы инструментов доступны для оценки предвзятости ИИ?

AI Fairness 360 Open Source Toolkit — это расширяемый набор инструментов с открытым исходным кодом, который может помочь вам исследовать, сообщать и смягчать дискриминацию и предвзятость в моделях машинного обучения на протяжении всего жизненного цикла приложений ИИ. Содержащий более 70 показателей справедливости и 10 современных алгоритмов снижения предвзятости, разработанных исследовательским сообществом, он предназначен для перевода алгоритмических исследований из лаборатории в реальную практику в таких широких областях, как финансы, управление человеческим капиталом, здравоохранение и образование.

XAI Framework (eXplainable AI) от Института этического ИИ и машинного обучения позволяет вам ввести объяснимость и выполнить оценку смещения в системах ИИ, выйдя за рамки алгоритмов, используя подход инструмент + процесс.

Мнения, выраженные в статье, являются сугубо личными и не представляют какую-либо организацию или корпорацию