От здравоохранения до финансов ИИ быстро внедряется в самых разных отраслях. Это связано с большим количеством недавних прорывов и открытий в области ИИ, которые сделали его более эффективным и простым в реализации. Однако с этими инновациями связаны как риски, так и непредвиденные обстоятельства, которые необходимо признать и принять во внимание. В этой серии из трех частей я буду исследовать три опасности ИИ, которые, по моему мнению, представляют наибольшую угрозу: дискриминация, эксплуатация и автоматизация. В этом посте я сосредоточусь на дискриминации.

Совсем недавно Amazon пришлось закрыть свой инструмент для проверки резюме на основе искусственного интеллекта. Почему? Потому что у алгоритма был один существенный недостаток: он не нанимал женщин. Общепринятой причиной такого типа проблем являются данные, используемые для обучения алгоритма. В случае с Amazon систематическая ошибка в обучающих данных возникла из-за того, что в технологических отраслях, базирующихся в Силиконовой долине, преобладают мужчины. Это, вероятно, привело к тому, что ИИ вознаградил мужские черты над женскими из-за «неверных» данных, на которых он обучался. Необходимо признать, что противоречивая история приведет к противоречивым данным, а противоречивые данные приведут к противоречивому ИИ.

В таких ситуациях, как в случае с Amazon, вопрос мотива вызывает беспокойство. Несмотря на то, что Amazon, похоже, не преднамеренно дискриминировал (поскольку они немедленно закрыли проект после обнаружения предвзятости), что может помешать злонамеренному использованию этих алгоритмов? Фашистские страны используют ИИ для распознавания лиц, чтобы отслеживать меньшинства и даже преследовать их. Компании могут использовать инструменты проверки приложений, такие как Amazon, для преднамеренной проверки приложений для определенных религий или этнических групп. Чтобы предотвратить подобные потенциальные ситуации, необходимо внимательно следить за использованием ИИ для избирательности.

Если обнаружена предвзятость, трудно определить, являются ли предвзятые результаты преднамеренными или непреднамеренными последствиями? Если предполагается, кто является ответственной стороной — компанией, программистом или обоими? И как найти, а затем наказать виновных? Может ли компания нести ответственность за дискриминационную практику, даже если доказано, что предвзятость была непреднамеренной? Поскольку законодательство имеет тенденцию отставать от инноваций в области технологий, эти вопросы попадут в зал суда, точно так же, как такие вопросы, как шифрование и нежелательное наблюдение, до сих пор являются предметом горячих дебатов.

Общая тема, которую вы увидите в этой серии, — это ответственность. Преднамеренно или нет, но компании должны нести ответственность за свои действия. В конце концов, ИИ — это всего лишь инструмент. Компании могут использовать этот инструмент для проверки кандидатов на работу, но если конечным результатом является дискриминация, компания должна исправить ошибку. Ведь компаниями управляет не ИИ, а люди.

Перечисленные выше примеры относятся к использованию ИИ для прямой дискриминации определенной группы людей. Эта прямая дискриминация имеет преимущество в том, что ее можно обнаружить. Если алгоритм показывает предпочтение или неприязнь к группе, это будет выявлено через статистику вывода или использования указанного алгоритма. К сожалению, есть способы косвенной дискриминации с помощью ИИ, о которых я расскажу ниже.

Джерримандеринг — мощный инструмент сохранения власти в США. Исторически правящая политическая партия использовала эту возможность для перераспределения законодательных округов в свою пользу. Однако в прошлом это перераспределение округов производилось человеком с использованием широких статистических данных. Если ИИ будет использоваться для перераспределения избирательных округов, он сможет получить доступ к данным голосования каждого зарегистрированного избирателя в штате, чтобы создать статистически наилучшие шансы на переизбрание. Даже если данные недоступны для законодателей, они могут получить свои собственные данные о голосовании с помощью отдельного ИИ, который оценивает политическую принадлежность на основе общедоступной информации, такой как сообщения в социальных сетях. Такая власть не только заставила бы замолчать голоса оппозиционных избирателей, но и повредила бы ткань демократии.

Распознавание лиц — еще одна проблема, с которой сталкивается ИИ. Эта технология использует фотографии и энергию, чтобы почти мгновенно узнавать ключевую личную информацию о людях. Например, Китай и его мусульмане-уйгуры демонстрируют использование ИИ для облав и преследования определенных групп людей. На другом уровне правоохранительные органы могут использовать «доказательства», предоставленные ИИ, для нацеливания на «подозреваемых». Это может дать этим агентствам возможность отказаться от правовой системы, вместо этого используя прогнозы ИИ в качестве «ордеров».

Без реализации какой-либо формы ответственности ущерб от нерегулируемого ИИ может быть катастрофическим и длительным. Я бы сравнил ИИ с ядерными технологиями. Хотя ядерную энергию можно использовать как источник чистой энергии, ее также можно использовать в военных целях. Однако есть некоторое утешение, связанное с риском гарантированного взаимного уничтожения, если ядерное оружие когда-либо будет запущено. ИИ отличаются от ядерного оружия одним основным моментом; это чрезвычайно доступно. Еще более пугающим является то, что концепция гарантированного взаимного уничтожения, вероятно, все еще применима к оружию на основе ИИ. У ИИ есть потенциал стать одним из величайших творений человечества, но без надзора он может стать его гибелью.

Адам Глюк является студенческим послом в программе Inspirit AI Student Ambassadors. Inspirit AI — это довузовская программа повышения квалификации, которая знакомит любознательных старшеклассников со всего мира с ИИ через живые онлайн-классы. Узнайте больше на https://www.inspiritai.com/.