Эта статья изначально появилась в Блоге Workato.

Ни для кого не секрет, что искусственный интеллект (ИИ) — одна из самых горячих тенденций в области корпоративных технологий. Хотя исследование Adobe показывает, что только 15% предприятий в настоящее время используют ИИ, 31% говорят, что это будет в их повестке дня в течение следующих 12 месяцев. И еще более высокий процент компаний, достигших цифровой зрелости (47%, если быть точным), говорят, что у них есть определенная стратегия ИИ.

Этот растущий уровень инвестиций в когнитивные технологии вызвал шквал опасений, начиная от практических и заканчивая теоретическими. Многие аналитики сразу же отмечают, что, несмотря на весь ажиотаж, искусственный интеллект все еще далек от того, чтобы полностью заменить людей или захватить мир.

Таким образом, предприятиям есть над чем подумать при внедрении и внедрении инструментов ИИ. Однако из этих опасений одним из самых насущных является простой вопрос: может ли искусственный интеллект быть справедливым?

Откуда мы знаем, что ИИ предвзят? Насколько это важно?

Хотя нам нравится думать, что машины не подвержены влиянию предубеждений, реальность такова, что они удивительно восприимчивы к предубеждениям. В конце концов, они созданы людьми, чья история предвзятого мышления обширна и хорошо задокументирована.

Есть бесчисленное множество примеров неправильного использования искусственного интеллекта. Часто мы отвергаем их как неизбежные сбои в еще только зарождающейся технологии или безропотно принимаем эти инциденты как точное отражение того, кто мы есть как люди. Когда, например, бот Microsoft Twitter научился быть расистом всего за один день, многие люди пожали плечами и сказали: «Это всего лишь бот. И в любом случае Твиттер полон оскорбительного контента. Что вы ожидали?"

Хотя эти примеры могут показаться несущественными, в реальной жизни также есть случаи, когда ИИ проявляет предрассудки, которые могут нанести непоправимый вред.

Ранее в этом году было обнаружено, что компьютерная программа, используемая судами США, ошибочно маркирует чернокожих ответчиков как вероятных рецидивистов — по данным ProPublica, почти в два раза чаще, чем белых ответчиков. И, как мы теперь знаем, внутренний инструмент найма Amazon в подавляющем большинстве предпочитал белых кандидатов-мужчин, несмотря на годы возни.

В свете подобных инцидентов Всемирный экономический форум недавно назвал предвзятость в ИИ ключевой проблемой — по тем же причинам, что и человеческая предвзятость. В конце концов, многие организации надеются использовать ИИ для усиления (а в некоторых случаях и замены) процесса принятия решений человеком. Эти решения — не просто повседневные бизнес-задачи. К ним также относятся решения, которые могут серьезно повлиять на жизнь людей, например:

  • Найм и продвижение
  • Медицинские решения и оценка страховых случаев
  • Вынесение приговора по уголовным делам
  • Кредитоспособность и оценка заявки

Эти приложения ИИ обычно не привлекают внимание общественности, но они, безусловно, являются наиболее важными. Поэтому крайне важно понять, как предвзятость ИИ может повлиять на результаты этих решений.

Существуют не только веские этические доводы в пользу того, чтобы сделать искусственный интеллект как можно более беспристрастным, но и практическая причина: предвзятость может стать препятствием на пути к успеху технологии. Построение доверия между машинами и людьми необходимо для широкого внедрения когнитивных технологий, и невозможно по-настоящему доверять тому, что, по вашему мнению, может быть беспристрастным или этичным.

Разнообразные команды создают более справедливые алгоритмы

Да, ИИ может быть предвзятым, и об этом должен знать каждый. Но это не значит, что вы никогда не должны его использовать. Вполне возможно гарантировать, что искусственный интеллект, который мы внедряем, будет справедливым и беспристрастным. Для экспертов по искусственному интеллекту первый шаг к созданию более справедливой технологии — это человек.

«Когда мы говорим о предвзятости, нас в первую очередь беспокоит внимание людей, создающих алгоритмы», — говорит Кей Ферт-Баттерфилд, руководитель отдела искусственного интеллекта и машинного обучения WEC. «Нам нужно сделать индустрию намного более разнообразной на Западе».

Исторически сложилось так, что профессии, связанные с наукой о данных и технологиями, изо всех сил пытались быть более привлекательными для женщин и групп меньшинств. Согласно недавней статье в Bloomberg, только 18% степеней бакалавра компьютерных наук (CS) получают американки. В дополнение к этой проблеме конвейера технологические компании могут быть заведомо недружелюбными местами для работы этих групп.

Однако есть основания полагать, что климат меняется. В Массачусетском технологическом институте, например, 42% специалистов по компьютерным наукам составляют женщины, что на 8% больше, чем пять лет назад. Аналогичное соотношение наблюдается и в Университете Карнеги-Меллона, где в 1990-х годах доля женщин была самой низкой — всего 7%.

Этот прогресс в академических кругах указывает путь к изменениям в технологической отрасли в целом, и особенно в когнитивных технологиях. «Если мы можем это сделать, это сможет сделать любой», — говорит Ленор Блум, выдающийся профессор компьютерных наук в Карнеги-Меллон. «Теперь люди обращают внимание».

Лучшие данные = лучшие результаты

Еще одна область для улучшения — это данные, которые мы передаем когнитивным машинам. После создания алгоритмы должны быть обучены с использованием предварительно выбранных наборов данных. Например, если вы хотите, чтобы ваша машина диагностировала рак кожи, вы можете передать ей изображения меланомы и доброкачественных родинок. Со временем алгоритм научится определять, что есть что.

Но эти данные, по словам экспертов, могут быть неполными или содержать внутренние погрешности.

Джоанна Брайсон, исследователь из Университета Бата, изучила программу, созданную для понимания отношений между словами. Обученная на тексте, взятом из Интернета, программа быстро научилась ассоциировать женские имена с такими профессиями, как «медсестра» и «секретарь».

«Люди ожидали, что ИИ будет беспристрастным; это просто неправильно», — говорит Брайсон. «Если исходные данные отражают стереотипы или если вы обучаете ИИ человеческой культуре, вы обнаружите эти вещи».

Как и любая другая технология, ИИ работает по принципу «мусор на входе, мусор на выходе». Если данные, которые вы предоставляете алгоритму, предвзяты, результаты также будут предвзятыми. Убедиться, что вы предоставили надежный исходный набор данных, имеет решающее значение для получения хороших результатов от ИИ, а также для сведения к минимуму возможности смещения.

Когда дело доходит до предприятий, применяющих этот принцип, самым большим препятствием являются хранилища данных, возникающие при быстром внедрении облачных технологий. У них слишком много разрозненных источников данных и недостаточно ресурсов для перемещения, очистки и согласования данных вручную.

Но это не непреодолимая проблема; такие технологии, как интеллектуальная автоматизация и интеграция обещают помочь, облегчают это бремя. Подключая приложения к единым рабочим процессам, предприятия могут не только поддерживать чистоту и безошибочность своих данных, но и беспрепятственно внедрять инструменты искусственного интеллекта в свои автоматизированные бизнес-процессы.

Искоренение предубеждений, по одной машине за раз

Не существует простого решения проблемы предвзятости в ИИ. Вместо этого те, кто работает над технологией (и с) должны сохранять бдительность и осознавать, как предвзятость может повлиять на их работу. Как и в других областях внедрения технологий, самоанализ является ключевым. Даже такой простой вопрос, как «Кто работает над нашей реализацией ИИ?» может иметь большое значение для уменьшения предрассудков.

Работа над тем, чтобы сделать ИИ более справедливым, также может иметь долгосрочные преимущества, выходящие за рамки бизнеса. Как отмечает исследователь IBM Франческа Росси, устранение предвзятости в ИИ может в конечном итоге помочь искоренить его в более широком масштабе.

«Поскольку системы ИИ находят, понимают и указывают на человеческие непоследовательности в принятии решений, они также могут выявить наши пристрастные, ограниченные и когнитивные предубеждения, заставляя нас принимать более беспристрастные или эгалитарные взгляды», — пишет она. «В процессе признания наших предубеждений и обучения машин нашим общим ценностям мы можем улучшить больше, чем ИИ. Мы могли бы просто улучшить себя».

Итак, как вы должны использовать искусственный интеллект? Ознакомьтесь с четырьмя способами оптимизации ваших бизнес-процессов уже сегодня ›