Сериал Westworld, созданный HBO, рассказывает футуристическую историю тематического парка, который имитирует вестерн и населен роботами, почти идентичными людям.

Посетители дорого платят за билеты с целью пережить приключения среди этого роботизированного населения, доступного для любого рода взаимодействия: секса, убийства, пыток или всего, что пожелает воображение посетителей.

Роботы верят, что все реально, и их память сбрасывается каждый день, поэтому они всегда снова играют одну и ту же роль, согласно взаимосвязанным сценариям, написанным командой писателей.

Среди возможных последствий сериала есть некоторые размышления морального характера:

  • Если робот физически идентичен человеку и действует как человек, оправдано ли с моральной точки зрения обращаться с ним (с ним?) с применением насилия?
  • Если наше взаимодействие с роботом вызывает у него те же реакции, что и у человека, пусть даже смоделированного, то пытать его и убивать остается допустимым?
  • В какой степени быть сознательным отличается от имитации сознания?

Мы все еще далеки от того, чтобы роботы развивались так же, как в сериале, но не так далеки от взаимодействия, достаточно реалистичного, чтобы вызвать у агрессора ощущение, что он делает что-то не так. На самом деле, по мере приближения этих взаимодействий к реальным, мозг пользователя начинает скрывать искусственные аспекты своего собеседника.

Хотя мы знаем, что это не человек, мы персонализируем «слушателя», чтобы понять смысл диалога, возможно, потому, что менее странно придать роботу человеческую форму, чем поставить себя на место того, кто разговаривает с кучей кода.

Подумайте, например, о доставке еды чат-бот. Не имеет особого смысла говорить «привет» этому боту, верно? «Привет, я хотел бы якисобу». Тот же результат, вероятно, можно было бы получить, если бы вы просто набрали «якисоба». И бот не стал бы обижаться, так как хамство и обида — понятия, лишенные смысла вне социального контекста.

Тем не менее, может случиться так, что вы решите общаться таким образом. И если чат-бот отвечает тем же тоном, то естественно, что языковые коды, используемые в этом взаимодействии, продолжают отражать коды, используемые в разговорах между людьми, используя ресурсы, целью которых является радушие и желание угодить, даже если бот не может быть доволен или недоволен.

Еще один показательный факт о взаимодействии с чат-ботами: какой бы ни была их природа, большинство сообщений, которые они получают, не соответствуют цели их создания. Боты часто оскорбляются, получают «личные» вопросы об их возрасте, месте рождения, именах родителей или необычные вопросы, такие как «Какой рост у Тома Круза», или странные просьбы, такие как «Спой мне песню» или «Расскажи мне анекдот».

При этом пользователь испытывает пределы способности чат-бота к моделированию в надежде найти край, окружающий его вселенную, или с целью удивиться размеру этой вселенной, а не только из-за объема информации, но в основном из-за умения понимать контексты.

Фактически, неофициальные опросы показывают, что неудача, материализованная, например, в пробелах в информации, больше сближает пользователя с ботом, чем отделяет его, возможно, потому, что усиливает его сходство с людьми.

Если я спрошу чат-бота по доставке еды, сколько звезд у Млечного Пути, и он даст мне точный ответ, я могу удивиться, но это только подчеркнет его роботизированный вид. В конце концов, у скольких людей эта информация вертится на кончике языка?

Но если я скажу этому же боту, что мне грустно, и он попытается утешить меня с дружеской легкостью, границы этой роботизированной вселенной начнут растворяться.

Что же произойдет в тот день, когда эти границы будут достаточно далеки, чтобы совпасть с нашими собственными пределами?