Автономные агенты ИИ начали брать на себя целые задачи от начала до конца. И это только начало. Мы ожидаем увидеть множество таких агентов в ближайшие полвека, и они будут выполнять все виды задач, которые люди в настоящее время выполняют, если не к счастью.

Во многих отношениях машины будут лучше справляться с этими задачами, чем мы. Самоуправляемые автомобили имеют сверхчеловеческие датчики, время реакции и настоящую многозадачность, и они всегда будут уделять все свое внимание поставленной задаче, вождению! Наш помощник по планированию с искусственным интеллектом Эми Ингрэм обладает столь же сильным сенсорным входом и, очевидно, будет обладать полной памятью (способностью помнить каждого человека, с которым вы встречались, и то, как это было согласовано), а также способностью читать со скоростью, недосягаемой для вас и меня.

Иногда эти системы могут кажется всезнающими. Помощник-человек работает только на одного человека и поэтому слеп к календарю и предпочтениям всех остальных; Эми (и ее брат Эндрю) могут работать на всех. Если она назначает встречу для двух клиентов x.ai, она знает предпочтения обеих сторон и может оптимизировать их для обеих (мы называем это планирование нирваной, потому что мы гики!).

И все же наличие этих сверхспособностей не означает, что эти системы являются или когда-либо будут безошибочными. Помощники-люди постоянно ошибаются. Люди-водители совершают их слишком часто, что приводит к катастрофическим последствиям. Можем ли мы ожидать, что наши машины будут выполнять эти задачи безупречно? Можем ли мы? Как узнать, кого винить, если что-то пойдет не так? Как превратить ошибки в продуктивное обучение?

Неизбежность машинных ошибок

Допустимость ошибок будет зависеть от функции любого данного автономного агента. Для беспилотных автомобилей у нас будет очень ограниченная терпимость к ошибкам, поскольку любая конкретная ошибка может поставить под угрозу человеческие жизни. На самом деле, Google рекламирует свои беспилотные автомобили как благо безопасности, поскольку человеческий фактор составляет 94% всех аварий; однако компания не прогнозирует безошибочного будущего. В некоторых очень искусных сообщениях Google сообщает обо всех авариях с беспилотными автомобилями по месяцам с анализом того, что пошло не так в каждой из них. Это формирует ожидания потребителей задолго до того, как кто-либо сможет приобрести такой автомобиль.

Эндрю и Эми должны планировать ваши встречи практически безукоризненно, чтобы вы не ждали в одиночестве в Starbucks, в то время как ваш собеседник ждет в другом квартале через два квартала. Но Эми может время от времени доставлять вам неудобства, пытаясь сбалансировать конкурирующие цели. (Например, чтобы назначить встречу в вашем календаре на четверг, в соответствии с вашим запросом, ей, возможно, придется запланировать ее на 30 минут вне ваших предпочтений). ошибка."

Игра в вину

Как возложить вину, в некотором смысле, более интересный вопрос. Когда люди близки к тому, чтобы совершить ошибку, мы склонны давать им презумпцию невиновности или, по крайней мере, пытаемся это сделать. Если это первая ошибка или незначительная (ответ «всем», когда вы хотели ответить отправителю), мы думаем, что мы тоже могли сделать то же самое (или сделать что-то подобное в прошлом). Поскольку мы сопереживаем, мы не так быстро обвиняем или осуждаем эти человеческие слабости. Мы даже можем защищать того, кто совершил ошибку, представляя, что он прав, а ошиблась другая сторона.

Мы видим другую картину с нашим личным помощником ИИ. Если что-то пойдет не так, клиенты часто предполагают, что виновата машина. Но когда мы изучаем большинство «ошибок», оказывается, что большинство из них были допущены боссом Эми, гостем или вообще не являются ошибкой.

Недавнее исследование, проведенное исследователями из Университета Висконсина, подтверждает наши анекдотические выводы. Их данные показали, что люди увольняют автоматизированного советника после одной ошибки, но позволяют своим коллегам-людям совершать еще много ошибок, прежде чем разорвать отношения. Это вопиющий двойной стандарт — никто не уволит человека-помощника или советника после единственной ошибки — это на самом деле только вредит нам, поскольку даже у интеллектуальных агентов нет чувств.

Нам гораздо лучше послужит любопытство к корню ошибки. Эти системы могут учиться только тогда, когда ошибка правильно идентифицирована и ее причины поняты. Предположение, что машина всегда ошибается, не более полезно, чем предположение, что она всегда права.

прощение

Если мы представим агентов ИИ больше похожими на сотрудников или товарищей по команде, чем на приложения, наши отношения с ними должны быть такими же динамичными и двусторонними. В этом контексте установка предпочтений знаменует собой начало отношений, которые потребуют от нас сообщения, когда что-то изменится или пойдет не так, с ожиданием ответа от системы. Вы можете думать об этом как о предоставлении этим автономным агентам своего рода рудиментарного самосознания; это, в свою очередь, должно позволить нам, людям, проявлять сочувствие к агентам ИИ и иногда принимать выбор агента, даже если он не соответствует нашему собственному мировоззрению. Мы проектируем Эми таким образом, и другие делают то же самое.

Как выразился Александр Поуп: «Человеку свойственно ошибаться; прощать, божественное». Если мы надеемся получить максимальную отдачу от наших агентов ИИ, нам нужно научиться прощать и их.

Это сообщение первоначально появилось на LinkedIn Pulse, здесь.