Джон Джаннандреа, руководитель отдела искусственного интеллекта в Google, обеспокоен тем, что интеллектуальные системы изучают человеческие предубеждения.

Глава Google по искусственному интеллекту не беспокоится о сверхинтеллектуальных роботах-убийцах. Вместо этого Джона Джаннандреа беспокоит опасность, которая может скрываться внутри алгоритмов машинного обучения, используемых для принятия миллионов решений каждую минуту.

«Настоящий вопрос безопасности, если вы хотите его так назвать, заключается в том, что если мы предоставим этим системам предвзятые данные, они будут предвзятыми», — сказал Джаннандреа перед недавней конференцией Google, посвященной отношениям между людьми и системами ИИ.

Проблема предвзятости в машинном обучении, вероятно, станет более серьезной по мере того, как технология распространяется на такие важные области, как медицина и юриспруденция, а также по мере того, как все больше людей, не имеющих глубоких технических знаний, получают задание по ее развертыванию. Некоторые эксперты предупреждают, что алгоритмическая предвзятость уже широко распространена во многих отраслях и почти никто не предпринимает усилий для ее выявления или исправления.

«Важно, чтобы мы были прозрачны в отношении обучающих данных, которые мы используем, и искали в них скрытые предубеждения, иначе мы строим предвзятые системы», — добавил Джаннандреа. «Если кто-то пытается продать вам систему «черный ящик» для поддержки принятия медицинских решений, а вы не знаете, как она работает или какие данные использовались для ее обучения, я бы не стал ей доверять».

Модели машинного обучения черный ящик уже оказывают большое влияние на жизнь некоторых людей. Система под названием COMPAS, созданная компанией Northpointe, позволяет прогнозировать вероятность повторного совершения обвиняемыми преступлений и используется некоторыми судьями для определения того, предоставляется ли заключенному условно-досрочное освобождение. Работа COMPAS держится в секрете, но расследование ProPublica обнаружило доказательства того, что модель может быть предвзятой в отношении меньшинств.

Однако это не всегда может быть так просто, как публикация сведений о данных или используемом алгоритме. Многие из самых мощных новых методов машинного обучения настолько сложны и непрозрачны в своей работе, что не поддаются тщательному изучению. Чтобы решить эту проблему, исследователи изучают способы заставить эти системы давать инженерам и конечным пользователям приблизительное представление о своей работе.

У Джаннандреа есть веские причины подчеркивать возможность предвзятости, которая может проникнуть в ИИ. Google входит в число нескольких крупных компаний, рекламирующих возможности искусственного интеллекта своих платформ облачных вычислений для всех видов бизнеса. Эти облачные системы машинного обучения спроектированы так, чтобы их было намного проще использовать, чем лежащие в их основе алгоритмы. Это поможет сделать технологию более доступной, но также упростит проникновение предвзятости. Будет важно также предлагать учебные пособия и инструменты, которые помогут менее опытным специалистам по данным и инженерам выявлять и устранять предвзятость в их обучающих данных.

Несколько спикеров, приглашенных на конференцию, организованную Google, также затронули проблему предвзятости. Исследователь Google Майя Гупта описала свои усилия по созданию менее непрозрачных алгоритмов в составе команды, известной внутри компании как GlassBox. А Кэрри Карахалиос, профессор компьютерных наук в Университете Иллинойса, представила исследование, в котором подчеркивается, насколько сложно обнаружить предвзятость даже в самых обычных алгоритмах. Карахалиос показал, что пользователи обычно не понимают, как Facebook фильтрует сообщения, отображаемые в их новостной ленте. Хотя это может показаться безобидным, это прекрасная иллюстрация того, как сложно исследовать алгоритм.

Алгоритм новостной ленты Facebook, безусловно, может формировать общественное восприятие социальных взаимодействий и даже крупных новостных событий. Другие алгоритмы уже могут слегка искажать виды медицинской помощи, которую получает человек, или то, как с ним обращаются в системе уголовного правосудия. Это, безусловно, намного важнее, чем роботы-убийцы, по крайней мере, на данный момент.

Джаннандреа, безусловно, был голосом разума в последние годы среди некоторых более причудливых предупреждений о рисках, связанных с ИИ. Илон Маск, в частности, вызвал бесчисленное количество заголовков, недавно предупредив, что ИИ представляет собой большую угрозу, чем Северная Корея, и может привести к Мировому Миру III.

«Против чего я возражаю, так это предположения, что мы перескочим к какой-то сверхразумной системе, которая затем сделает людей устаревшими», — сказал Джаннандреа. «Я понимаю, почему люди обеспокоены этим, но я думаю, что он получил слишком много эфирного времени. Я просто не вижу технологической основы, почему это вообще неизбежно».

Первоначально опубликовано на www.technologyreview.com.