И почему люди должны оставаться в петле автоматизации? Как мы можем создать лучшее будущее для взаимоотношений между человеком и машиной?

«Люди непостижимы. Бесконечно непредсказуемо. Вот что делает их опасными », - Дэниел Х. Уилсон.

Раньше я говорил о том, как ИИ может изменить отношения человека и машины. Я разместил следующие вопросы:

Кто должен принимать решения в автономном автомобиле? Всегда ли люди должны иметь возможность отменять решения роботов? Что, если у вас есть только доля секунды, чтобы среагировать? И изменится ли ответ, если в машине будут твои близкие?

А как насчет этого сценария? Если вы собираетесь в суд завтра, выберете ли вы алгоритм, лишенный сочувствия, или человека-судью, склонного к предвзятости и ошибкам, чтобы вынести приговор?

«Даже зная, что человек-судья может сделать больше ошибок, преступники все равно предпочитают человека алгоритму. Они хотят этого человеческого прикосновения », - сказал Мандип Дхами, профессор психологии принятия решений.

Кажется, мы не доверяем машинам. Есть и другие примеры: хотя исследования показывают, что автономные транспортные средства безопаснее, почти половина американцев предпочитают не использовать беспилотные автомобили.

Мы активно ищем способы решить проблемы прозрачности и справедливости с помощью ИИ. Но, похоже, нас меньше беспокоит тот факт, что человеческий мозг также действует как черный ящик, о котором мы мало знаем. Почему так?

Почему мы не доверяем машинам, когда, очевидно, должны?

Картик Хосанагар, профессор Wharton, предполагает, что одной из причин является эффект выше среднего. Другими словами, мы знаем, что автономные автомобили безопаснее, чем люди-водители в целом, но мы думаем, что мы водители лучше, чем другие.

В исследовании, в котором участников просили выбирать среди предсказаний самих себя, других людей и алгоритмов, исследователи обнаружили, что люди действительно доверяют алгоритмам, особенно по сравнению с кем-то другим. Мы также кажемся более снисходительными к нашим собственным ошибкам, чем к ошибкам алгоритма. И мы с меньшей вероятностью позволим машинам принимать решения за нас, когда ставки высоки.

Машины действительно ошибаются. И они, вероятно, никогда не будут безупречными. Всегда будут крайние случаи, независимо от того, сколько миль проехали беспилотные автомобили. Но правильно ли мы задаем здесь вопросы?

Почему мы должны выбирать между людьми и машинами? Машины делают ошибки, мы тоже. Почему мы не можем работать вместе, чтобы коллективные решения были более точными и менее предвзятыми? Можем ли мы помочь выявить слабые места в алгоритмах или наоборот? Может ли гибридная команда людей и машин генерировать более разнообразные решения и делать мир лучше?

Лучшее машинное обучение: ИИ, ориентированный на человека

Подобно тому, как дизайн, ориентированный на пользователя, может помочь повысить удобство использования продуктов, если мы хотим быть уверены, что ИИ делает нашу жизнь лучше, а не хуже, мы действительно должны ставить людей на первое место!

Интегрируйте людей в процесс разработки продуктов машинного обучения. Этот подход называется «искусственный интеллект, ориентированный на человека». Вместо того, чтобы разрабатывать самые крутые технологии, которые только могут придумать ученые, сосредоточьтесь на удобстве использования для людей и обеспечьте эффективное и полноценное взаимодействие человека с машиной.

Практическое правило - оценить, можно ли использовать ИИ для автоматизации скучных или опасных задач или для дополнения задач, которые людям нравится делать.

Лекс Фридман, научный сотрудник Массачусетского технологического института, предлагает глубоко интегрировать людей в обучение модели машинного обучения и реальные операции. Включая человеческий контроль, мы можем лучше гарантировать безопасность, справедливость и объяснимость ИИ.

Стюарт Рассел, профессор компьютерных наук Калифорнийского университета в Беркли, считает, что мы должны «вкладывать цели в машины». Вместо того чтобы предполагать, что машина полностью знает цель, он предложил предположить, что «модель имеет несовершенное знание цели».

Это подводит нас к следующему пункту: нам нужно лучше определить целевые функции машин и, что более важно, нашего общества!

Улучшение объективных функций для машин и нашего общества

Модели машинного обучения руководствуются функциями вознаграждения (также называемыми целевыми функциями или функциями потерь). Целевые функции определяют проблемы. Это математические формулы, определяющие правильность прогнозов моделей машинного обучения.

Другими словами, они определяют механизмы стимулирования, успех или неудачу. Мы хотим использовать целевые функции для оптимизации или усиления желаемого поведения наших систем, например максимальное удержание или минимизация ошибок.

Однако определение целевых функций - непростая задача. Как я упоминал в другой статье, точность модели сама по себе обычно не является хорошим показателем. Нам нужно будет рассмотреть вопрос о точности и вспомнить компромиссы. Кроме того, нам необходимо убедиться, что функции вознаграждения создают положительный опыт для пользователей, не только для основных клиентов, но и для всех наших пользователей.

Возьмем, к примеру, компании, занимающиеся каршерингом, хотя удовлетворенность пассажиров важна, удержание водителей также имеет решающее значение для роста двусторонней платформы. Определение функции вознаграждения, которая создает приятные впечатления для всех пользователей, может быть сложной задачей, особенно при конфликте интересов, но это определенно важно.



Функции вознаграждения могут вызвать неожиданные последствия для других, а не для предполагаемых пользователей. Как мы принимаем во внимание потенциальное негативное влияние моделей машинного обучения и пытаемся его смягчить? Как мы можем предвидеть и отслеживать влияние наших функций вознаграждения с течением времени?

Более фундаментальный вопрос: как мы можем гарантировать, что компании всегда будут помнить о пользе своих пользователей, заинтересованных сторон и всего общества при разработке своих продуктов машинного обучения? Будут ли компании стимулированы к разработке правильной системы машинного обучения при нынешних функциях вознаграждения на рынке капитала?

Если удержание пользователей может увеличить прибыль компаний, будут ли они заботиться о негативных последствиях того, что пользователи проводят слишком много времени в Интернете? Выделяют ли они достаточно ресурсов, чтобы помочь своим сотрудникам перейти к их следующим ролям по мере автоматизации большего количества задач? Если единственная цель компаний - максимизировать свои акционерные ценности, будут ли они по-прежнему пытаться смягчить любое потенциальное негативное влияние своих моделей машинного обучения на своих сотрудников и общество?

Резюме

Проигрыш от Deep Blue не поверг Гарри Каспарова в отчаяние. Вместо этого он начал охватывать идею «шахмат Кентавра». Благодаря объединению человека и машины в шахматы играют на более высоком уровне, чем раньше.

Кен Голдберг, профессор из Беркли, также использовал пример лучших игроков в го, соревнующихся вместе с программой Alphago Deepmind, чтобы отстаивать альянс роботов и людей.

Вместо того, чтобы думать об отношениях человека и машины как об игре с нулевой суммой, мы должны изменить свое мышление и подумать о способах работы с машинами и вместе сделать пирог больше! Это отличная возможность для нас глубоко задуматься о том, в чем мы хороши, что мы действительно хотим делать и как мы можем лучше использовать машины!

C щелкните здесь, если хотите увидеть больше подобных статей!







Бастиан Хуанг (Bastiane Huang) - менеджер по продукту OSARO, стартапа из Сан-Франциско, создающего программно-определяемую робототехнику. Она работала в Amazon в группе Alexa и в Harvard Business Review, а также в университетской программе Future of Work Initiative. Она пишет о машинном обучении, робототехнике и управлении продуктами. Следуйте за ней здесь .