Что такое предвзятость в ИИ?
Беспристрастная система представляет процесс или совокупность, которую она пытается моделировать. Справедливо предположить, что такая система или создатели таких систем не заинтересованы в принуждении системы к определенному поведению. Ожидается, что такие системы будут недискриминационными, справедливыми и соответствующими этическим устоям общества в целом. Система, которая не соответствует этим конструкциям, называется предвзятой.
Ажиотаж и стремление большинства предприятий и компаний-производителей запрыгнуть на подножку ИИ приводят к экспоненциальному темпу внедрения ИИ. Учитывая, что такие системы ИИ в конечном итоге заменят человеческое суждение или существенно повлияют на человеческое суждение, они должны быть свободны от какой-либо предвзятости, как и ожидается от этичного поведения человека. К сожалению, по мере того как ИИ внедряется во многие системы и процессы, затрагивающие нашу повседневную жизнь, не существует строгости или регулирования в проверке этического соответствия таких развертываний ИИ.
Такая предвзятость в системе ИИ обычно возникает из-за способа сбора данных для обучения системы или из-за недостаточной строгости исследователя при когнитивной обработке исходных данных. Типичные типы предвзятости включают стереотипы, эффект побеждающей стороны, предвзятость подтверждения и выборочное прайминг. Систематическая ошибка также может быть введена из-за отсутствия действительно случайных данных или полных данных. Приложения ИИ обычно создаются с самыми лучшими и благородными намерениями, но во многих случаях в результаты вносятся непреднамеренные искажения по некоторым из вышеупомянутых причин.
Каковы последствия предвзятости?
По мере того, как ИИ все больше проникает в нашу повседневную жизнь, последствия таких предубеждений нельзя сводить к минимуму. Хотя мы слышим об использовании ИИ в таких областях, как уголовное правосудие, зачисление и оценка образования, наблюдение, трудоустройство и финансы, любое неверное суждение в этих сценариях из-за предвзятого алгоритма может иметь далеко идущие последствия для жизни и карьерных возможностей людей.
Были статьи о том, сколько алгоритмов в производстве, как было доказано, исключают маргинализированные группы. Аллен Блю однажды обнаружил проблему с LinkedIn, когда рекрутеры используют LinkedIn для отбора подходящих профилей. Проблема заключалась в том, что женщины не появлялись достаточно высоко в этих списках, причина этого была определена как предвзятость в основном алгоритме. LinkedIn, возможно, в конечном итоге исправила эту предвзятость, но она выявляет общее последствие предвзятости.
Есть достаточно других примеров того, как более ранние системы распознавания лиц были предвзяты к определенному полу и расе или как встраивание слов показывает предвзятые ассоциации между определенным полом и профессиями. Теперь, если результаты таких моделей станут частью системы управления принятием решений, сам процесс окажется изначально предвзятым, хотя никто никогда не собирался привносить такую предвзятость. Когда эти предубеждения выходят на первый план, это подрывает доверие не только к ИИ, но и ко всей системе.
Насколько серьезно организации относятся к предвзятости? Кто ключевые игроки?
Исследователи и организации, работающие над продуктами и услугами ИИ, все больше осознают важность обеспечения этичности и справедливости алгоритмов ИИ. Большинство ключевых игроков уже начали принимать меры, чтобы гарантировать, что они создают системы ИИ, которые являются этичными и свободными от предубеждений. Такое восприятие имеет решающее значение для поддержания доверия к их брендам, если они собираются сделать ставку на ИИ.
Партнерство в области ИИ было публично объявлено 28 сентября 2016 года его основателями Amazon, Facebook, Google, DeepMind, Microsoft и IBM с целью внедрения передового опыта в области ИИ и просвещения общественности в области ИИ. Одним из ключевых тематических направлений работы PAI является поиск возможностей для разработки передового опыта в области разработки и внедрения справедливых, объяснимых и подотчетных систем искусственного интеллекта.
IBM Research сосредоточила внимание на предвзятости ИИ в некоторых своих инициативах в исследовательских лабораториях MIT-IBM.
Основанный в 2017 году Кейт Кроуфорд и Мередит Уиттакер, Институт искусственного интеллекта сейчас при Нью-Йоркском университете занимается четырьмя ключевыми областями: права и свободы, труд и автоматизация, предвзятость и инклюзивность, а также безопасность и критическая инфраструктура.
В Принципах искусственного интеллекта для разработки продуктов в Google генерального директора Google Судара Пичаи также делается упор на недопущение создания или усиления несправедливой предвзятости в алгоритмах и наборах данных искусственного интеллекта, особенно когда речь идет о влиянии на те, которые связаны с чувствительными характеристиками, такими как раса, этническая принадлежность, пол, национальность. , доход, сексуальная ориентация, способности и политические или религиозные убеждения.
Не только корпорации, но и такие страны, как США, Великобритания, Франция, Австралия и другие, активно пытаются разработать или принять закон, который побудит изобретателей и ученых создавать ответственный ИИ, где одним из ключевых требований будет устранение предвзятости в ИИ. В США новый законопроект под названием Акт об алгоритмической ответственности требует от крупных компаний проверять свои системы машинного обучения на предвзятость и дискриминацию и своевременно принимать корректирующие меры, если такие проблемы будут выявлены.
Какие наборы инструментов доступны для оценки предвзятости ИИ?
AI Fairness 360 Open Source Toolkit — это расширяемый набор инструментов с открытым исходным кодом, который может помочь вам исследовать, сообщать и смягчать дискриминацию и предвзятость в моделях машинного обучения на протяжении всего жизненного цикла приложений ИИ. Содержащий более 70 показателей справедливости и 10 современных алгоритмов снижения предвзятости, разработанных исследовательским сообществом, он предназначен для перевода алгоритмических исследований из лаборатории в реальную практику в таких широких областях, как финансы, управление человеческим капиталом, здравоохранение и образование.
XAI Framework (eXplainable AI) от Института этического ИИ и машинного обучения позволяет вам ввести объяснимость и выполнить оценку смещения в системах ИИ, выйдя за рамки алгоритмов, используя подход инструмент + процесс.
Мнения, выраженные в статье, являются сугубо личными и не представляют какую-либо организацию или корпорацию