Я допоздна поглощен философией, этикой и моралью лжи. Из моего собственного человеческого опыта в повседневных отношениях, а также с точки зрения машинного творчества. Будет ли искусственный интеллект лгать? Должен ли он лгать?

Ложь – это неправдивое утверждение, направленное на введение в заблуждение или обман в различной степени окраски (белая ложь к черному). Анатомия лжи, эволюционная цель и даже пагубное воздействие простой лжи, которая вызывает трещины в восприятии честности лжеца, очень сложны.

Математические конструкции, объясняющие, почему люди лгут, и предполагаемая выгода, которую, по их мнению, они получают, если им это сойдет с рук, и последующая паутина лжи, которую нужно рассказать, чтобы скрыть первую ложь, отрицание, оскорбление, которое они совершают и обращают в свою пользу. против вас (газлайтинг), повествования, драмы, эмоциональный шантаж и истории, которые они придумывают, и т. д. — все это ошеломляет и креативно.

Теоретико-игровые эволюционные модели подразумевают простое правило: никто не хочет, чтобы ему лгали, но каждый имеет склонность лгать и верить, что может сойти с рук за предполагаемую выгоду. Должна ли быть запрограммированная конструкция и ограждения для ИИ, или ИИ будет развивать свои собственные модели?

Кроме того, представление о том, что немногие верят, что все друг другу лгут (в любой форме отношений, личных, деловых или иных), кажется самосбывающимся пророчеством. Связано ли это представление с предубеждениями в наших разговорах, лингвистике и последующем повествовании, на котором обучается ИИ, и, следовательно, человеческие повествования по своей природе токсичны для систем ИИ?

Моя собственная система ценностей, которая ненавидит людей, которые лгут по самым простым причинам, заставляет меня задаться вопросом, как люди эволюционировали от сильного к слабому выносливости ко лжи в своем мировоззрении. Кроме того, спектр людей, которые продолжают терпеть, заключается в их отношениях, давая больше шансов, надеясь, что другой человек отвернется, по сравнению с теми, кто противостоит и просто идет дальше в момент, когда система ценностей нарушается с минимальными случаями, заставляет меня задуматься. о неоднородности толерантности как целевой функции. Разовьет ли искусственный интеллект такие разнородные личности вокруг эмоции лжи?

Вероятно, солгать в качестве первого инстинкта относительно легко по сравнению с предполагаемым вознаграждением за правду. Ложь кажется функцией системы-1, а говорить правду, возможно, нет? (система-1 и система-2 из книги Даниэля Канемана «Думай быстро и медленно»).

Говорить правду так сложно? Что такое правда? Чья правда? Это ценность? привычка? практика? Существуют ли одинаково хорошие функции вознаграждения за культивирование правды и честности в качестве системы ценностей? Каковы этические последствия неправильного понимания истины в области искусственного интеллекта?

Это такая запутанная, сложная, красивая и интригующая область исследований, которая все еще ждет своей работы. Я знаю, что это предварительные мысли, и я не углублялся в то, чтобы дать какие-либо идеи, но, надеюсь, они будут полезны для будущих размышлений и самоанализа.

Меня бесконечно интересует тема лжи и тема юмора, когда речь идет о машинном творчестве. Присылайте мне (или добавляйте в комментарии) любые исследовательские работы, книги или эссе, которые, по вашему мнению, интересны.

Пусть правда освободит вас.