Паула Боддингтон, исследователь из Оксфордского университета и автор книги На пути к этическому кодексу искусственного интеллекта, знакомит нас с некоторыми сложными этическими проблемами, возникающими в связи с растущим присутствием ИИ в нашей жизни, его влиянием на нашу систему ценностей и почему нам нужно хорошо подумать о том, что может пойти не так, прежде чем принимать его оптом.

С ускорением развития искусственного интеллекта мир ИИ вплетается — временами почти незаметно — в ткань нашей жизни, влияя на то, как мы двигаемся, живем и общаемся.

Но по мере того, как ИИ расширяет человеческую свободу действий, интеллект и действия в мире — иногда полностью заменяя людей для определенных задач — он поднимает все более сложные вопросы этики и ответственности.

Паула Боддингтон, старший научный сотрудник факультета компьютерных наук Оксфордского университета, прямо взялась за эту тему, выступая перед переполненной аудиторией на Mobile World Congress в Барселоне в прошлом месяце. Для темы, которая дает гораздо больше вопросов, чем ответов, она предложила взглянуть на то, как технологии сталкиваются с философией.

«Сила ИИ подталкивает нас к вопросам о самих границах и основах наших человеческих ценностей», — говорит Боддингтон. Хотя это потенциально может принести огромную пользу, «расширяет ли это наши возможности за пределы того, с чем мы действительно можем справиться. Выталкивает ли это нас за пределы того, чего мы действительно хотим достичь? Можем ли мы действительно нести ответственность за все аспекты такого развития событий?»

Вопрос ответственности лежит в основе этического вопроса. ИИ потенциально может стать серьезным разрушителем представлений об ответственности. По словам Боддингтона, один из ключевых аспектов ответственности — по сути, предварительное условие — это контроль. «ИИ ставит перед нами… возможно неразрешимые вопросы об управлении. Если ИИ автономен, всегда ли у нас есть полный контроль и всегда ли мы знаем, что происходит?»



По ее словам, технологии «черного ящика» и машинное обучение — два элемента ИИ — объяснить сложно, если не невозможно. «Если ИИ действует автономно без прямого контроля — и особенно если людям-создателям и пользователям не совсем ясно, как принимаются решения и действия — как мы, люди, можем оставаться подотчетными другим?»

Некоторые ученые-компьютерщики призывают к открытой проверке алгоритмов как одному из решений этой дилеммы.

В любом случае, в эпоху ИИ отделить причину от следствия намного сложнее, и тем не менее они являются ключом к определению ответственности.

На другом конце прорыва ИИ есть вероятность того, что его присутствие может полностью уменьшить нашу ответственность. «Если мы не будем осторожны, это может начать подрывать человеческую автономию», — говорит Боддингтон. «Мы могли бы позволить ему заменить человеческие мысли и решения в тех местах, где мы не должны этого делать».

Руководствуясь именно такими опасениями, в прошлом году Институт будущего жизни (девиз которого: Технологии дают жизни возможность процветать, как никогда раньше… или саморазрушаться. Давайте изменим ситуацию) 23 принципа полезного ИИ.

Принцип №9 гласит: Разработчики и создатели передовых систем ИИ заинтересованы в моральных последствиях их использования, неправильного использования и действий, а также несут ответственность и возможность формировать эти последствия.

Хотя большое внимание уделяется размыванию границ ответственности, одним из примеров потенциально проясняющей роли ИИ, по словам Боддингтона, является использование алгоритмов при вынесении приговоров в судах, несмотря на споры вокруг этой практики. Поскольку общественность имеет право знать, как принимается решение в правовой сфере, алгоритм может точно определить причину приговора, в то время как судья может сделать это в меньшей степени. Предупреждение, конечно, заключается в том, что алгоритм генерирует ответ на основе изучения данных, и если данные имеют какую-либо историю предвзятости, это отразится на приговоре. (Аналогичные предупреждения звучали о непреднамеренном воспроизведении сексизма в ИИ через предвзятые данные.)



Итак, какова ответственность компании, которая покупает компоненты черного ящика у другой компании? — спрашивает Боддингтон.

Вопрос висит, потому что попытка определить ответственность, когда мы не контролируем технологию и не можем предсказать результат, выходит за рамки того, как мы понимаем человеческую ответственность.

Последствия этой загадки значительны. Адаптация к ИИ, по словам Боддингтона, может оказать «очень глубокое влияние на нашу систему ценностей».

Еще одно влияние — скорость, с которой мы адаптируемся к ИИ. «Наша привычка к технологиям может изменить то, что мы считаем нормальным или ожидаемым, а это, в свою очередь, может изменить то, как мы понимаем и приписываем ответственность».

По ее словам, новая норма заключается в том, что мы быстро адаптируемся даже к вещам, которые в конечном итоге не приносят нам пользы, и наши суждения меняются соответственно.

«Нам нужно тщательно подумать о силе ИИ, которая, возможно, ошеломит и заманит нас в ловушку, ИИ часто приукрашивают таким образом, чтобы очаровать нас и заставить делать то, что мы иначе не могли бы сделать. Возможно ли, что мы в принципе сохраним человеческий контроль, но на самом деле соблазнимся делать то, что предлагает ИИ?»

Она приводит пример использования ИИ в рекламе, чтобы сделать его более эффективным в манипулировании поведением людей. Знаменитые обучающие эксперименты Стэнли Милгрэма 1960-х годов показали, насколько легко на людей можно было повлиять, вплоть до жестокости. Добровольцев попросили бить испытуемых электрическим током, когда они давали неправильный ответ, постепенно увеличивая мощность до тех пор, пока удары током (если бы они были настоящими) не стали бы смертельными.

Боддингтон спрашивает: «Это то, как мы привыкаем к технологиям и искусственному интеллекту, который захватывает нашу жизнь?»

По ее словам, она не против технологий, но решительно выступает за размышления о том, что может пойти не так.

По ее словам, эксперименты Милгрэма выявили уязвимость, о которой стоит упомянуть. Когда добровольцы выражали сомнение, экспериментатор просто спокойно повторял: «Эксперимент должен продолжаться».

«Этой крошечной вежливой подсказки было достаточно, — говорит Боддингтон.

Позже Милгрэм пришла к выводу, что «научно-технической среды было достаточно, чтобы убедить совершенно обычных людей действовать вне своей совести», — говорит она.

«Являются ли люди особенно жертвами падений перед технологическими мастерами?» — спрашивает она несколько зловеще. Голливуд ответил бы утвердительно.

Но помимо фильмов, поскольку ИИ все глубже внедряется в наши социальные и культурные структуры, он имеет разветвления даже для тех, кто не использует эту технологию напрямую.

Подпишитесь на нашу рассылку новостей, чтобы получать последние новости Cities of the Future. Вы также можете подписаться на нас в Twitter и Facebook.