Случайно просматривая Интернет, я наткнулся на выступление Себастьяна Труна на TED, который рассказал о своем опыте потери лучшего друга в автокатастрофе, что побудило его посвятить свою жизнь разработке беспилотных автомобилей. Размышляя над его историей, я рассказал ему, как потерял дедушку в автокатастрофе. Мысли о дедушке подпитывали мой энтузиазм в изучении технологии беспилотных автомобилей и о том, как «более безопасные» технологии могли бы спасти его. Изучая беспилотные автомобили, я понял, что этика в беспилотных автомобилях - большая проблема. Размышляя об этом, я понял, что трудно представить сценарий, в котором мы учим машины моральному кодексу и этике. Это вызвало у меня вопрос о взгляде на этику в искусственном интеллекте и, в частности, в беспилотных автомобилях. Заглянув глубже, я понял, насколько серьезной стала этика дебатов в области искусственного интеллекта. Таким образом, мне стало совершенно ясно, что я проведу небольшое исследование этики в области ИИ. Мое исследовательское путешествие вызвало один фундаментальный вопрос:

Должна ли машина ехать сама по себе?

Десять лет назад этот вопрос был бы явным «нет», но теперь это «может быть». Судя по текущей траектории, в ближайшие несколько лет будет явное «да». Трудно представить, сколько технологических достижений произошло всего за 10 лет. Во многом это связано с разработками в области искусственного интеллекта, которые привели к росту числа беспилотных автомобилей. Прогресс виден в том факте, что компания Google Waymo запустила в Аризоне публичные испытания своих беспилотных автомобилей. Но сделав шаг, нужно понять, почему идет разговор об беспилотных автомобилях и почему это актуально.

«Беспилотные автомобили - естественное продолжение активной безопасности, и мы, очевидно, должны этим заниматься» - Илон Маск

Идея беспилотных автомобилей приобретает решающее значение в контексте того, чтобы сделать вождение более безопасным, надежным, удобным, многоразовым и дружелюбным. Идея сделать машину «безопасной» поднимает вопрос о принятии важных решений на дороге. Когда мы думаем о решениях, всегда есть такие, в которых приходится идти на компромиссы. Например, будет ли машина убивать пешеходов, чтобы спасти пассажира, или все будет наоборот? Эти этические вопросы находятся за пределами понимания машины, и именно здесь возникает вопрос этики в ИИ. В этой статье исследуется этика ИИ, в частности проблема тележки.

Задача о троллейбусе - это мысленный эксперимент в области этики, который представляет ситуацию, когда поезд, сбежавший с пути, разделяется на две части. На одной дорожке 5 человек, на другой - 1 человек. У вас как у человека есть выбор: потянуть за рычаг и изменить направление движения поезда. Теперь вопрос в том, потянете ли вы за рычаг и убьете одного человека или не сделаете шаг и позволите поезду убить 5 человек. Существуют различные аргументы относительно того, какой вариант можно выбрать, но это социальная дилемма, на которую нет однозначного ответа. Проблема тележки становится еще более сложной, когда в уравнение вводится больше переменных, таких как возраст, этническая принадлежность и родство. Например, что, если бы этот человек на трассе был вашим родственником, вы бы спасли одного родственника и убили бы пять человек? Проблема тележки применяется к беспилотным автомобилям и задает вопрос, какие компромиссы можно сделать в ситуации, когда беспилотный автомобиль теряет контроль, но все еще может контролировать некоторые операции автомобиля. Конкретный сценарий - это когда тормоза перестают работать, но у автомобиля все еще есть элементы управления. Что делать в случае, если он должен либо врезаться в пешеходов, либо создать опасность для пассажира?

Чтобы полностью понять, почему этика в искусственном интеллекте / беспилотных автомобилях является сложной концепцией, необходимо понять, какие технологии используются в беспилотных автомобилях, как они работают и почему с этим трудно интегрировать элемент этики. Говоря о технологиях, лежащих в основе беспилотных автомобилей, есть различные датчики, которые действуют как входные данные. Эти датчики представляют собой камеры, LiDAR (обнаружение света и дальность). Обработка осуществляется с помощью алгоритма искусственного интеллекта, называемого глубоким обучением. Глубокое обучение составляет основу мощного «разума» самоуправляемых автомобилей.

«Глубокое обучение - это новое электричество» - Эндрю Нг

Благодаря глубокому обучению беспилотный автомобиль способен понимать и обрабатывать местоположения других транспортных средств, путь, который нужно выбрать, и куда автомобиль должен идти и как он должен туда добраться. В алгоритмах искусственного интеллекта и глубоком обучении задействовано много математики, поскольку это скрытый способ вычисления вероятностей. Следовательно, внедрение морального кодекса и этических практик в машине может быть чрезвычайно трудным, поскольку они не поддаются количественной оценке. Следовательно, вопрос о добавлении этики к беспилотным автомобилям и искусственному интеллекту становится серьезной проблемой.

Большой исследовательский проект под названием «Моральная машина», созданный преподавателями Массачусетского технологического института во главе с Ия Рахваном, посвящен именно проблеме троллейбусов. В своем выступлении на TED он красноречиво рассказывает о том, как возглавил эксперимент «Моральная машина» в Массачусетском технологическом институте, и это была важная тема для беспилотных автомобилей. В рамках эксперимента команда Moral Machine создала онлайн-опрос, в котором они спрашивали участников, кто предпочел бы сэкономить в ситуации, напоминающей проблему тележки для беспилотных автомобилей. Они меняли возраст и даже вид пешеходов, чтобы найти то, что действительно волнует людей в разных странах и культурах. Он говорит о том, что некоторые участники опроса предпочли спасти собаку, а не ребенка в коляске. Он продолжает говорить о том, что люди хотят делать добро для всего человечества, спасая максимальное количество людей, но не хотят причинять себе вред, и это усложняет все уравнение, поскольку они противоречат друг другу. В нынешней ситуации, чтобы спасти пешеходов, нужно объединить себя (как пассажира). Хотя люди голосовали за этот вариант больше всего, они продолжали говорить, что никогда не купят машину, которая навредила бы им как пассажирам.

Эти наблюдения в ходе эксперимента «Моральная машина» приводят к двум основным этическим теориям, предложенным двумя философами. Эти две теории вдохновлены двумя философами: Джереми Бентам и Иммануилом Кантом. Бентам следовал утилитарному подходу и заявил, что автомобиль должен минимизировать общий вред, даже если это означает, что он подвергает опасности пассажира или прохожего. Кант заявил, что автомобиль должен следовать «принципам, связанным с обязанностями», что означает, что автомобиль не должен явно делать движение, которое пытается убить человека, поэтому он должен следовать своим курсом. Когда в рамках эксперимента «Моральная машина» людей спрашивали, с кем они согласны, большинство людей соглашалось с аргументом Бентама. Но те же люди, о которых говорилось ранее, сказали, что они не будут покупать такие автомобили, поскольку они хотели бы защитить себя любой ценой, поскольку весь аргумент в пользу наличия беспилотных автомобилей - это «безопасность».

Чтобы лучше понять, как этика, возможно, применима к машинам, нужно еще раз взглянуть на то, как были изложены правила поведения машин. Айзек Азимов, которого считают одним из отцов робототехники, изложил свои три закона робототехники, которые говорят о том, как должны выглядеть три основных правила поведения роботов / машин. Его три закона включают:

  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  • Робот должен подчиняться приказам людей, за исключением случаев, когда такие приказы противоречат Первому закону.
  • Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму закону.

Спустя несколько десятилетий, видя все этические дилеммы, Азимов добавил нулевой закон: робот не может причинить вред человечеству или своим бездействием позволить человечеству причинить вред. Судя по заявлению, спасение человечества, возможно, действительно подразумевает утилитарный подход, но трудно представить, что он на самом деле имел в виду под своим нулевым законом и как он будет применяться к сегодняшним беспилотным автомобилям. Хотя Азимов, возможно, не оставил определенного объяснения своим законам, его изменение в законах действительно намекает на тот факт, что этика становится неотъемлемой частью машин и того, как они должны функционировать.

В основе этики лежит взвешивание рисков и минимизация элемента риска. Хотя «Моральная машина» может иметь некоторые ранние репрезентации общественного мнения, споры еще далеко не окончены. Глядя на то, что, вероятно, следует делать, утилитарный подход может быть универсальным подходом для многих законов в обществе, однако в этом случае он может оказаться нежизнеспособным. При утилитарном подходе люди не примут на вооружение технологию, которая бросает вызов цели создания беспилотных автомобилей. Эти автомобили созданы для масс и предназначены для их поддержки. С утилитаризмом возникнет большая проблема в виде принятия более безопасных технологий, что очень важно. Хотя вопрос этики в искусственном интеллекте - продолжающийся спор, возможно, ответ заключается в подходе Иммануила Канта, но не полностью. Построение точки зрения этической дилеммы может быть чрезвычайно трудным, но сначала нужно рассмотреть заинтересованные стороны. Важным моментом здесь является то, что все заинтересованные стороны, производитель автомобилей, общество в целом и пассажир должны иметь равное право голоса во всем уравнении. Следует отметить, что пассажир может быть частью общества, однако, когда человек находится в машине в качестве пассажира, все измерение изменяется, и у него может быть другой взгляд на вещи, и их следует рассматривать независимо. Помня об этом, необходимо разработать алгоритм, который принимает во внимание отдельные заинтересованные стороны и принимает решение. Следовательно, лучшим вариантом может быть измененная форма подхода Канта, что означает позволить автомобилю в конечном итоге сделать то, что происходит в ситуации, однако настроить его таким образом, чтобы каждая заинтересованная сторона могла сказать свое мнение конкретно при принятии решения о вероятности того, кого спасать. .

В заключение, мы перестали называть машины «он» на «они». Мы добились огромных успехов в «гуманизации» машин, но включение этики / морали - это то, что машинам еще предстоит пройти долгий путь. Несмотря на то, что предстоит пройти долгий путь, этика в беспилотных автомобилях является важной темой, поскольку машина решает между жизнью и смертью за доли секунды. Чтобы, возможно, начать решать эту проблему, нам всем нужно объединиться как общество и внести свой вклад в обсуждение этики беспилотных автомобилей, поскольку политика и правительственные постановления являются лишь отражением социальных ценностей.

Первоначально написано в виде исследовательской работы в декабре 2018 г. (Источник).