Это четвертая часть серии из пяти статей об этичном искусственном интеллекте. Если вы пропустили часть 1 — Этические стандарты ИИ: процессный подход, нажмите здесь.

Подотчетность может быть действительно обеспечена только через прозрачность. Хотя приятно верить, что люди хорошие и хотят творить добро, простая реальность такова: то, что скрыто, не может быть выговорено, а то, что не выговорено всегда можно выполнить.

Итак, легко увидеть, что прозрачность устраняет возможность скрытой деятельности и, таким образом, открывает возможность наказания и, таким образом, сдерживает правонарушения. Аналогом этой концепции прозрачности является все предприятие аудита. Здесь применяется та же концепция: аудиторы просеивают финансовые отчеты и пытаются собрать воедино финансовую картину компании и таким образом определить, что должно быть оплачено. Хотя сделать деятельность компании более прозрачной — это здорово в этическом, аудиторском смысле, есть и другой смысл, в котором прозрачный ИИ может помочь пользователям принимать решения; следовательно, это вторичное значение прозрачности помогает с эпистемологическими и рациональными проблемами принятия решений.

Отчеты о действиях

Взаимодействие человека с ИИ действительно является сутью этического ИИ. Рассмотрим механизм скрининга nugget. Это ИИ, настроенный на оптимизацию правильных вариантов найма с учетом производительности и навыков потенциальных кандидатов. В руках отделов кадров на реальные, подлинные события могли повлиять результаты, полученные от ИИ. А именно, выбор нанять человека А вместо Б может произойти только при наличии отчета, который предполагает, что человек А подходит для этой работы. Итак, мы видим, что ИИ имеет глубокое физическое значение при использовании, даже если сам он не имеет физической силы. Поэтому нам необходимо развивать правильные отношения между людьми и ИИ, обеспечивающие сохранение подотчетности.

Отчеты об активности, пожалуй, самое важное дополнение, которое можно сделать для использования ИИ. Система отчетности позволяет получить четкое представление о том, как ИИ используется для принятия решений. Скажем, пользователь решает, что предложение ИИ плохое, возможно, пользователь знает, что ИИ не учитывает определенные переменные, или просто подозревает, что обучающие данные плохие. Регистрация этого решения дает множество преимуществ: она позволяет просматривать действия пользователя, в идеале в дополнение к журналам пользователь может добавлять свои собственные данные, чтобы они могли обосновать свои решения до любого расследования. Затем такая информация может быть передана разработчикам ИИ, чтобы они могли определить, можно ли улучшить ИИ, чтобы устранить необходимость вмешательства человека в аналогичных обстоятельствах.

Вот упрощенное представление о том, как может работать журнал (возможны дальнейшие разработки, в том числе идея приватизированных журналов для предотвращения вмешательства между сотрудниками, различные схемы обработки информации в зависимости от роли ИИ и т. д.):

Обоснование ИИ стало ясным

В обычном человеческом общении мы можем спросить людей, как они пришли к своим выводам. Ученые могут производить лабораторные результаты с соответствующими данными и доказательствами. Математики могут производить дедуктивные доказательства. Спидеры могут придумать оправдание своему чрезмерному вождению в здании суда. В любой ситуации люди могут придумывать причины — хорошие или плохие — для своих действий и мнений. Возможно, вам знаком термин «черный ящик», обозначающий некий неизвестный процесс (т. е. функцию), который принимает входные данные и производит выходные данные. Действующий механизм, который преобразует входные данные в соответствующие выходные, скрыт, и, таким образом, «черный ящик» — это функция, которая неизвестна.

Термин «белый ящик» относится к коду, в котором можно можно увидеть функции в действии, но функции настолько сложны, что человек не может их расшифровать. Это в значительной степени относится к сложным нейронным сетям и программам, основанным на эвристике. Итак, мы можем сказать, что обоснование затемнено: мы не можем понять его (представьте себе ученого, пытающегося представить вам свои открытия, но говорящего на таком чужом и сложном для вас языке, что вы даже не можете попытаться его перевести).

К счастью, ИИ можно настроить так, чтобы он легко усваивал причины, факты и цифры. То есть, в то время как ИИ может упростить обработку суждений (например, оценка самородков), ИИ также может предоставить обоснование таких оценок (например, контрольные показатели и соответствующие показатели каждого участника и т. д.). Обоснование само по себе не обязательно должно представлять собой всю функцию системы оценки — для информирования пользователей достаточно просто очевидных фактов (это делается для того, чтобы компании могли поддерживать свою интеллектуальную собственность в том, как они решили оценивать необработанные данные — это защищает коммерческую тайну компании) .

Преимущество здесь заключается в том, что рассуждения полезны для пользователей при принятии решения, потому что они сами по себе являются фактором, над которым пользователь может подумать. Это можно проиллюстрировать так:

Агент рассматривает варианты 1 и 2. У него есть причины выбрать оба варианта, и поэтому он отдает предпочтение ИИ. ИИ выбирает вариант 2. Агент может продолжить этот вариант или изучить его глубже. Агент просматривает некоторые из соответствующих рассуждений, предоставленных ИИ, выложенных для просмотра Агентом. При этом агент может приблизительно понять, к чему стремится ИИ, и затем может согласиться с этим, если агент не видит явной проблемы. Если агент увидит вопиющий недостаток в одной из причин, он может соответствующим образом переоценить ее.

Заключение

Подводя итог, можно сказать, что прозрачность обеспечивает ответственное использование ИИ. Мы видим, что пользователи могут получать постоянный поток информации, которая помогает им в их обсуждениях, а способность обосновывать свои обсуждения всегда важна. чистая выгода. Там, где ИИ дает сбой, люди смогут обнаружить его везде, где это возможно, и применить исправления. Из этого мы можем видеть, что этический путь вперед известен через прозрачность.

Оставайтесь с нами, чтобы не пропустить заключительную статью из нашей серии «Этический ИИ», посвященную автономии человека.