Утилитаризм — «Выбор результата, который принесет наибольшее благо для наибольшего числа».

Как хозяин,

(i) Вы бы приготовили только одно блюдо, которое нравится большинству людей, в то время как немногие гости не любят его? или (ii) Вы бы приготовили больше разнообразных блюд, чтобы все гости были довольны, хотя это может означать больше усилий и затрат для вас как хозяина?

Если бы ваш робот-шеф был утилитаристом и отвечал за планирование меню вечеринки, он бы выбрал вариант (i).

Мир, в котором мы живем, основан на долларовых сбережениях, а утилитаризм — одна из популярных причин принятия деловых решений.

Постоянно ведутся исследования и высказываются мысли о том, как ИИ решит классическую проблему тележки или дилемму донора органов (https://www.youtube.com/watch?v=yg16u_bzjPE). Однако эти дискуссии в основном ограничивались академическими кругами. Внедрение ИИ в малые и большие системы, взаимодействующие с нами, происходит быстрее, чем можно сказать суперкалифрагилистический экспиалидотический. С удивительной скоростью извлекается невероятное количество данных и генерируются идеи. Возникает вопрос, чувствительны ли алгоритмы, генерирующие эти инсайты, к происходящему вокруг и принимающие решения на основе хорошего и инклюзивности.

Как мы или алгоритм решаем, что является «хорошим», тема, над которой размышляли величайшие философы с самого начала человеческой цивилизации.

В случае с роботом-присяжным, который достаточно когнитивен, чтобы выносить суждения по относительно простым делам, будет ли алгоритм отражать философию/мысли/убеждения специалиста по данным, написавшего код, или бизнес-менеджера, который выдвигал требования, или быть некой общей философией «хорошего» или правовыми рамками, четко определяющими ожидания?

Давайте посмотрим еще на несколько примеров утилитаризма.

Алгоритм Hiring-Robo обучен нанимать людей. Цель-1 — проверить навыки с помощью онлайн-экзамена, регулируя жесткость и вес вопросов в соответствии с ответами кандидата, чтобы найти человека, наиболее подходящего для работы. Он также обучен второй цели — максимизировать выполнение, чтобы с помощью этого программного обеспечения для найма, управляемого ИИ, можно было заполнить как можно больше вакансий. Если вес Цели-2 отрегулирован неправильно, алгоритм может стать утилитарным, адаптировав вопросы онлайн-теста к более простым вопросам. Это максимизирует сопоставление кандидата с работой, удовлетворяющей Цели 2, однако приведет к низкому качеству рабочей силы.

Моцарт-робо, если его обучить только месячным данным о композициях, сыгранных на концертах и ​​о продаже билетов, может научиться предлагать и играть только ограниченное количество мелодий. Он не сможет оценить красоту разнообразия и то, как музыканту нужно экспериментировать с новыми мелодиями и композициями, чтобы поддерживать творческий потенциал, а также интерес публики.

Разнообразие наборов данных имеет решающее значение для того, чтобы сделать ваш ИИ по-настоящему когнитивным. Быть человеком — значит пробовать что-то новое, рискуя временными трудностями или потерями. Утилитарное мышление может привести к тому, что жизнь станет обыденной при условии получения прибыли в краткосрочной перспективе.

Согласно данным, этичные и инновационные компании в долгосрочной перспективе более прибыльны. Необходимость поговорить об «этике» и «человеческих ценностях» с командами по науке о данных возникла сейчас.