Не вычислительные последствия искусственного социального интеллекта

Интеллект - это эволюционное преимущество, потому что он позволяет нам моделировать, предсказывать и манипулировать реальностью. Эволюционные проблемы не ограничиваются стереотипными наследственными контекстами, такими как бегство львов или раскалывание копий; наш интеллект включает в себя способность моделировать социальные реальности, состоящие из других людей, а также способность предсказывать и манипулировать внутренней реальностью разума.

- Элиэзер Юдковский «Уровни организации в общей разведке»

Невозможно осмысленно рассматривать интеллект вне того, что я называю его социальным контекстом. В этом посте я попытаюсь объяснить, что, на мой взгляд, составляет такой контекст, почему он является основополагающим для интеллекта в целом и почему он содержит элементы, которые не являются вычислительными,, то есть постоянно полностью и принципиально вне рамок алгоритмических и программируемых .

Я уже упоминал некоторые из этих вопросов здесь, говоря в основном о недоразумении, которое возникает, когда мы рассматриваем мотивацию агентов с искусственным интеллектом через антропоцентрическую линзу. Читая сочинения Элиэзера Юдковского на прошлой неделе, я почувствовал необходимость вернуться к этой теме в духе его нескромной эпистемологии, столь хорошо развитой в Неадекватном равновесии. Ибо кто я, скромный энтузиаст блокчейнов, чтобы бросить вызов огромному сообществу академических и независимых исследователей ИИ исправить их мышление по теме социального интеллекта?

Низко или нет, но я считаю, что мы должны прояснить некоторые фундаментальные ошибки в нашем понимании интеллекта, которые связаны с упущением его социального контекста. Эти ошибки имеют тот же источник, что и ошибки «рыб» в отношении «воды»: они проистекают из того, что они недостаточно внешние по отношению к обществу, чтобы увидеть их истинное влияние на интеллект. Рассмотрение интеллекта без учета социального интеллекта похоже на исследование плавания без понимания свойств воды - оно быстро никуда не приведет.

Это важно, потому что мы пытаемся создать агентов с искусственным социальным интеллектом (вспомните беспилотные автомобили и Siri). Без должного определения этой социальной среды мы либо потерпим неудачу, либо создадим что-то, что вызовет ее эрозию с ужасными последствиями для нас самих.

Среда социального интеллекта как следствие необходимости теории разума

В моем предыдущем посте я утверждаю, что для того, чтобы независимые агенты действовали сообща и согласованно, они должны иметь надежное коллективное намерение для выполнения рассматриваемого действия. Другими словами, скоординированные действия требуют равновесия, при котором мы все ожидаем, что все мы ожидаем, что ... мы все намерены действовать. Теория разума в основном нацелена на то, чтобы дать нам возможность делать именно это: предсказывать поведение других в достаточной степени, чтобы иметь возможность действовать согласованно с ними.

Самым глубоким следствием этого является следующее простое наблюдение: мы не только должны обладать функциями (вычислительными схемами, так сказать), которые позволяют нам предсказывать поведение других (пока все хорошо), но и мы должны также иметь поведение, которое предсказуемо другими (по крайней мере, до некоторой степени). И это особенность среды социального интеллекта, которая принципиально не является вычислительной, потому что даже если бы можно было запрограммировать одного робота на предсказуемое поведение, было бы бессмысленно вообразить, что поведение любого возможного робота может быть осмысленным предсказанием некоторого вычислительного процесса.

Речь идет, конечно, не об алгоритмах, а о мотивации. И мотивация агента, хотя и закодирована в его алгоритмах, несомненно, не исходит от них. В той мере, в какой мотивации агента могут быть определены или изменены какой-либо внешней силой, они выходят за рамки предсказуемости любого вида вычислительного процесса, который учитывает только структуру агента и прошлое поведение.

Общее утверждение состоит в том, что мотивации любого интеллектуального агента всегда будут вне области действия схемы этого агента, и если другой агент, агент B, может определить мотивации агента A, то мотивации агента B также выходят за рамки комбинированного вычислительного процесса A и B. Это делает необходимым существование контекста, в котором разрешается этот бесконечный цикл.

Другими словами, среда социального интеллекта предоставляет по крайней мере некоторую информацию об основных стимулах и функциональных моделях социально-интеллектуальных агентов, которые могут быть надежно (и обычно!) Известны другим таким агентам. В этой среде любые агенты, которые не демонстрируют этого базового предсказуемого поведения, будут классифицированы как имеющие некоторый эквивалент социальной патологии.

Это идет еще дальше, так как любой агент, которого подозревают в скрытых или непредсказуемых мотивах, нарушит требование надежности и, таким образом, вызовет восприятие социальной патологии независимо от того, насколько хорошо он имитирует какое-либо в целом разумное поведение.

В случае человеческого интеллекта социальная среда состоит из нашего социально-эволюционного контекста. В этом контексте, либо в силу общеизвестной биологической необходимости, либо в силу общепризнанной социальной обусловленности, можно с уверенностью ожидать, что у большинства людей будут определенные мотивации, реакции и поведение. Кроме того, за очень немногими исключениями, люди демонстрируют непроизвольные невербальные сигналы, которые позволяют другим идентифицировать (или полагать, что идентифицировали) надежных социальных партнеров.

Но в тот момент, когда мы взаимодействуем с какими-либо нечеловеческими агентами (будь то ОИИ, инопланетяне или любые другие подобные фантастические аналоги), среда социального интеллекта разрушается не из-за вычислительной неадекватности партнера, а из-за их воспринимаемого или фактического отсутствия принадлежность к существующему социальному контексту.

Ограничения, которые социальная среда накладывает на интеллект

Эти невычислительные компоненты социальной среды устанавливают четкие параметры для любого интеллекта, который претендует на роль социального.

Действительно интересный пример - это ограничение разумности. Упрощенная, но ясная иллюстрация этого (есть много других, лучших) видна из того факта, что люди лучше разыгрывают дилемму заключенных, чем (воображаемые) совершенно рациональные актеры. Причина этого в том, что чувства лояльности, честности и сотрудничества в основе своей социально связаны и, по сути, иррациональны с точки зрения любого индивидуального актора, какими бы ни были его стимулы и функции полезности.

Еще одно ограничение, налагаемое обществом на интеллект, - это ограничение на свободу действий человека. Это становится очевидным, если заметить, что для нас, людей, разница между «не могу» и «не буду» очень расплывчата. Например, могу ли я убить другого человека или просто откажусь от этого - это всего лишь вопрос терминологии. Если вы думаете, что только физические ограничения попадают в категорию «не могу», вы скажете, что я не убью. Если вы думаете, что некоторым вещам препятствует наша врожденная схема, то, возможно, вы решите, что я не могу. В любом случае, это проясняет, что на мою индивидуальную свободу действий накладывается значительное ограничение, которое также налагается социально-экологическими соображениями.

Кто-то может подумать, что в этом обсуждении я уделяю слишком много внимания людям как модели, и что в футуристическом мире, где ОИИ свободно перемещаются, может применяться другой набор правил. Не будет. Социальное функционирование групп любых независимых агентов должно до некоторой степени иметь аналогичную структуру: вычислительную основу для моделирования чужого разума; не вычислительная (контекстная) структура, которая позволяет моделировать один разум другим; и набор ограничений и причуд, которые делают возможным состояние надежного коллективного намерения в такой группе. Любой независимый интеллект по необходимости подчиняется теории игр, и теория игр, особенно теория кооперативных игр, довольно четко описывает все эти вопросы.

Влияние AGI на социальную среду

Я хотел обсудить здесь потенциальное ухудшение социальной среды из-за AGI, которое я считаю самой большой опасностью революции искусственного интеллекта, гораздо более ужасной, на мой взгляд, чем все другие опасности, о которых люди говорят.

Представьте, что Siri была обучена разговаривать с детьми, и рассмотрите следующий вопрос: каков будет социальный контекст (в том смысле, который я использую в этом посте), который возникнет в обществе, где большинство детей проводят годы формирования в своей жизни, взаимодействуя с искусственными средствами. Возможность полной эрозии основополагающих социальных норм очевидна , даже если предположить, что все такие агенты запрограммированы только с использованием самых передовых методов воспитания детей. Это не произошло бы из-за ошибок агентов - это было бы из-за простого восприятия человеческим ребенком того факта, что агент-двойник не ограничен биосоциальными нормами и несовершенствами, которые мы находим так естественный для человека.

Решение?

Интересно, что если бы я писал этот пост пять лет назад, я бы не смог предложить никакого решения. Однако сегодня я могу дать подсказку.

Единственными известными вычислительными системами, которые не ограничены в вычислительном отношении надежным набором правил, являются децентрализованные (основанные на блокчейне) системы. В таких системах участие (в отношении таких вопросов, как возможность обновления и управление системами) распределяется между управляемыми человеком узлами, заблокированными в очень сильном равновесии по Нэшу, которое предотвращает любые односторонние изменения в сети. По сути, блокчейны заимствуют агентство (и его ограничения) у людей, которые ими управляют, и создают результирующие системы, которые ограничены способом, аналогичным тому, как должен быть ограничен искусственный социальный интеллект: фундаментально и надежно, а не случайно.

Другими словами, сети блокчейнов предлагают строгие условия, которые, если они будут достаточно далеко продвинуться по сложности, могли бы служить основой для надежной социальной среды и в этой форме могли бы обеспечить настоящий искусственный социальный интеллект, предотвращая при этом опасности, которые я здесь обсуждаю.

Интересные времена, правда?

В заключение

Так что, если я могу (нескромно!) Предложить что-то сообществу ИИ, я надеюсь, что это будет понимание важности социального контекста для интеллекта. Такое понимание уведет от явно ошибочной картины, что общий интеллект может быть каким-то образом создан, и вуаля - он возник! Такое ошибочное понимание может дать жизнь чудовищу Франкенштейна, уродливому социопату, который, будучи в некотором роде довольно хитрым, не обладал бы даже самыми элементарными способностями, которые мы ищем у разумного - социально разумного - существа. И улучшение его способностей, программирование его с новыми лучшими мотивами или любое подобное усилие приведет к тому, что его уродство и несовершенство только станут более очевидными.

Вместо этого нужно стремиться к преднамеренному созданию ограничений - фундаментально надежных ограничений - и извлекать пользу из существующего социального контекста, в котором живут ограниченные люди, как бы сильно можно не ненавидеть то, как наши ограничения проявляются в реальном мире.

Юдковский пишет (насмешливо, чтобы проиллюстрировать другую точку зрения):

… Первый машинный суперинтеллект должен сделать вывод, что это на самом деле пациент психиатрической больницы.

Я нахожу это действительно забавным, потому что первый машинный суперинтеллект, если он был правильно выведен из контекста, в котором он был создан, определенно НЕ сделал бы этого.