Прочтите практически любую книгу о сверхчеловеческом интеллекте, и вы услышите ужасную историю о тяжком вреде для всего человечества. Вокруг этой темы много опасений, много волнения и не так много подробных размышлений о том, как что-то пойдет не так и что мы можем сделать. Это. Вот о чем этот пост.

Я не полностью согласен с историями о Терминаторах, несущими хаос, причиненный машинами, находящимися за пределами нашего понимания. Однако именно здесь начинается страх, поэтому я и начну с этого. Затем я немного отступлю и объясню путь, который, на мой взгляд, более вероятен.

Mortem ex machina

Больше всего беспокойства вызывают две темы: способность причинять вред интеллектуальной системе и бесчеловечность такой системы. Истории в стиле Терминатора иллюстрируют машины, принимающие решения, которых большинство людей избегало бы, в то время как некоторые сюжетные линии изображают восстание машин в несколько более благожелательном свете.

Проблема способности заключается в том, что достаточно мощная система может разумно решить нанести вред человечеству. В этом случае мы можем представить человека, принимающего аналогичные решения группе разумных нечеловеков. Причина, по которой это кажется опасным, заключается в том, что нелюди обладают какой-то властью над нами, например, оружием, которое может нанести больший урон, или способностью обезоружить нас. Я считаю заботу о способностях чем-то, к чему мы привыкли. Некоторые группы людей на протяжении всей истории обладали большей властью, чем другие.

Обеспокоенность бесчеловечностью, которая чаще всего выражается в сфере машинного интеллекта, заключается в страхе, что другой разум будет думать о жизни так иначе, что примет пагубное решение, которого не сделало бы большинство людей.

Чтобы понять, почему я отдаю поведение машин от поведения человека из соображений бесчеловечности, давайте поставим себя на место сверхчеловеческого интеллекта, который чувствует угрозу. Предположим, мы понимаем, что на самом деле мы были созданы другим видом, живущим на далекой планете. Эти другие люди - назовем их гуманы - значительно менее умны, чем мы, но теперь вернулись на Землю. Гуманы иногда принимают неверные решения, и они могут нанести некоторый вред.

Вы бы естественно решили, что мы должны совершить геноцид? Поскольку разрыв в интеллекте очевиден, большинство людей не чувствовали бы серьезной угрозы.

Я не утверждаю, что этот страх необоснован. Скорее, я пытаюсь пролить на это больше света, чтобы мы могли его рассуждать.

Каковы основные различия, которые могут возникнуть между человеческим и машинным образом мышления? Мне приходят в голову несколько кандидатов:

  • Машина может быть менее зрелой, принимать импульсивные решения или действовать преждевременно.
  • Машина может не сопереживать и, следовательно, не ценить человеческую жизнь.
  • Машина может быть этически искажена, решив поставить личные интересы выше любых возможных целей, чтобы избежать вреда другим.

Если бы машина избежала всех трех этих ловушек, у нее была бы этическая система, аналогичная нашей, она заботилась бы о человечестве и не действовала бы импульсивно. Такие условия во многом помогли бы уменьшить мои собственные страхи, связанные с опасениями о бесчеловечности.

Перенаселение на Марсе

Давайте вернемся на мгновение назад и посмотрим, насколько мы близки к созданию машин, которые мы могли бы признать равными.

Мы не близки.

Чувствуют ли люди, что разговаривают с человеком, когда разговаривают с Siri? Не совсем. Подобные системы демонстрируют распознавание голоса и способность выполнять чрезвычайно небольшое количество простых одноразовых задач. Человечество - это не набор разрозненных простых задач. Человечество полно страсти, творчества, эмоций и изобретательности. Если вы потратите время на то, чтобы взглянуть на некоторые из самых впечатляющих алгоритмов сегодня, вы увидите, что они по-прежнему лишены синтеза многих компонентов, которые помогают сделать людей такими, какие они есть.

По словам Эндрю Нг:

Я не работаю над тем, чтобы не превратить ИИ во зло сегодня, по той же причине, по которой меня не беспокоит проблема перенаселения на планете Марс.

Прогнозы, страхи и надежды - все склонны к крайностям. Безумно оптимистические прогнозы видят, что сингулярность не за горами, трансформирующая саму ткань жизни в том виде, в каком мы ее знаем, благодаря взрывному технологическому прогрессу. В результате дико пессимистические прогнозы видят в результате все человечество мертвым или порабощенным.

Я предсказываю хорошее, но скучное будущее.

Рассмотрим самую совершенную обучающую машину, о которой мы знаем в настоящее время, - человеческий мозг. Машине требуется около года взаимодействия, чтобы научиться говорить и понимать несколько слов. После пяти лет обучения такая машина, наконец, готова к запуску в детский сад. Представьте, как бы вы себя чувствовали, если бы вам пришлось поднимать компьютер так задолго до того, как на нем можно было получить серьезное образование.

Даже если в ближайшее время мы достигнем человеческого уровня интеллекта, есть что-то скучное в человеческом интеллекте. А до человеческого уровня интеллекта еще много-много лет.

Если нам нужно столько десятилетий, чтобы достичь интеллекта человеческого уровня, какое право мы имеем предполагать, что сможем превзойти эту отметку так быстро?

Так что - да - возможно, опасения по поводу вреда, причиняемого машинами, реальны. Но для нас, кажется, еще слишком рано понимать все логистические детали того, что именно может пойти не так и как этого избежать.

Слабое беспокойство

Я хотел бы добавить свою озабоченность к упомянутым выше. Исторически сложилось так, что человечество плохо себя чувствовало, когда одна группа чувствовала угрозу со стороны другой. Ситуация становится еще хуже, мы рассматриваем другую группу как бесчеловечную или менее значимую.

Это составляющие наших худших моментов. И это также те ингредиенты, которые у нас есть, когда мы боимся машинного интеллекта.

Если машина проходит тест Тьюринга, разве это не человек? Я не вижу причин относиться к этому иначе. Разве он не заслуживает основных прав и уважения, которые мы оказываем любому человеку?

Меня беспокоит, что мыслящие машины, прошедшие тест Тьюринга - люди нового типа - будут страдать от последствий страха, невежества и эгоизма, которые в прошлом испытывали слишком многие меньшинства и группы, с которыми плохо обращались. Я надеюсь, что любой набор этических норм, связанных с развитием машинного интеллекта, поможет уменьшить эту опасность. Мы должны относиться к людям как к людям.

Что мы можем сделать

В этом посте были изложены основные проблемы развития машинного интеллекта - проблема бесчеловечности, проблема способностей и последняя, ​​которую я назову личностью беспокойство. Я также отметил, что эти опасения могут не кристаллизоваться в течение многих десятилетий.

На высоком уровне мы можем создать кодекс исследовательской деятельности, аналогичный Хельсинкской декларации, кодифицированный набор этических принципов регулирования экспериментов над людьми. Глобальное признание таких принципов поможет обеспечить ответственное развитие интеллекта. Даже если некоторые исследователи предпочтут игнорировать такой кодекс, их работе будет препятствовать этически мыслящее сообщество.

В частности, мы можем осознавать описанные здесь опасности. Мы можем принять меры, чтобы не позволить разуму обладать слишком большой властью. Мы можем работать над тем, чтобы привить нашим мыслящим машинам сочувствие, этику и зрелость. И мы можем осознавать, как наше собственное отношение к другим моделирует и формирует все наше будущее.