Сегодня искусственный интеллект (ИИ) и, в частности, машинное обучение прочно вошли в нашу повседневную жизнь. От рекламы в Facebook до рекомендаций на YouTube; с Siri на Google Assistant; и от автоматического перевода уведомлений об устройствах до инструментов персонализации маркетинга; ИИ сейчас глубоко проникает как в нашу работу, так и в личную жизнь.

Эта статья является первой в серии из трех статей (см. вторую часть здесь и третью здесь), которые выступают за возобновление исследований UX в приложениях машинного обучения.

Поскольку с ML сталкивается так много пользователей, есть смысл подойти к концепции и дизайну приложений на основе ML с точки зрения исследования UX.

Это кроется в трех основных причинах:

  1. Ментальные модели пользователей не соответствуют тому, как на самом деле работают машинное обучение и искусственный интеллект.
  • UXR может раскрыть существующие ментальные менталитеты и помочь разработать новые, более подходящие для этой новой технологии.

2. Машинное обучение и искусственный интеллект могут оказать коварное и глубокое влияние на жизнь всех пользователей.

  • UXR раскрывает множество преднамеренных и непреднамеренных влияний приложений на жизнь людей и помогает создать более этичный ИИ.

3. ОД и ИИ могут оказывать несоизмеримое воздействие на людей в зависимости от их этнической принадлежности, религии, пола, сексуальной ориентации:

  • UXR также может помочь устранить некоторые источники предвзятости.

В этом эпизоде ​​мы сосредоточимся на первой причине: как UXR может помочь укрепить доверие к системам ИИ и повысить вовлеченность пользователей?

Машинное обучение и реальные пользователи

Отношение пользователей к приложениям на основе машинного обучения сложное. Отвращение к алгоритму хорошо изучено и задокументировано:

В самых разных областях прогнозирования эксперты и неспециалисты по-прежнему сопротивляются использованию алгоритмов, часто предпочитая использовать прогнозы, сделанные низшим человеком, а не прогнозы, сделанные более совершенным алгоритмом. Действительно, исследования показывают, что люди часто предпочитают прогнозы людей прогнозам алгоритмов (Diab, Pui, Yankelevich, & Highhouse, 2011; Eastwood, Snook, & Luther, 2012), больше взвешивают человеческий вклад, чем алгоритмический (Önkal, Goodwin, Thomson, Gönül, & Pollock, 2009; Promberger & Baron, 2006), и более строго судить специалистов, которые обращаются за советом к алгоритму, а не к человеку (Shaffer, Probst, Merkle, Arkes, & Medow, 2013).

Диетворст, Б.Дж., Симмонс, Дж.П., и Мэсси, К. (2015). Неприятие алгоритмов: люди ошибочно избегают алгоритмов, увидев их ошибки. Журнал экспериментальной психологии: Общие сведения, 144 (1), 114–126. https://doi.org/10.1037/xge0000033

Однако их исследование показывает, что это явление неприязни к алгоритму проявляется только тогда, когда люди становятся свидетелями или узнают об ошибках прогнозирования. В 2019 году Логг Дж. М., Минсон Дж. А., Мур Д. А. продемонстрировали обратное, что люди изначально ценят советы алгоритмов по сравнению с другими людьми:

Наши участники больше полагались на одинаковые советы, когда думали, что они исходят от алгоритма, чем от других людей. Они продемонстрировали оценку этого алгоритма при визуальных оценках и при прогнозировании: геополитических и деловых событий, популярности песен и романтического влечения. Кроме того, они предпочли алгоритмическое суждение человеческому суждению, когда у них был выбор. Они даже продемонстрировали готовность предпочесть алгоритмический совет собственному суждению.

Логг Дж. М., Минсон Дж. А., Мур Д. А. (2019). Оценка алгоритма: люди предпочитают алгоритмы человеческим суждениям. Организационное поведение и процессы принятия решений человеком, том. 151, март 2019 г., стр. 90–103. https://doi.org/10.1016/j.obhdp.2018.12.005

Машинное обучение и теория машин

Одно из возможных объяснений, которое все еще исследуется, — это «теория машин» (эквивалент «теории разума» для людей), с которой люди работают. Теория машин, или, проще говоря, ментальные модели, как ее называют дизайнеры, представляет собой серию предположений, которые люди делают о том, как приложение работает внутри.

Одним из таких предположений является идея фиксированного мышления. Наличие фиксированного мышления в психологии означает, что вы верите, что люди обладают определенным уровнем интеллекта или навыков, и они ничего не могут сделать, чтобы увеличить этот уровень. Применительно к теории машин это означает, что люди верят, что вывод компьютерной программы полностью определяется исходным вводом и не способен к обучению или развитию.

Фиксированное мышление, применяемое к традиционному программному обеспечению, было уместным в течение долгого времени. Ваше обычное программное обеспечение, текстовый процессор или электронная таблица не способны улучшаться сами по себе и учиться на своих ошибках. Пользователь может ожидать изменений после обновления, но в противном случае он ожидает, что программа будет вести себя последовательно с течением времени.

Столкнувшись с приложениями на основе машинного обучения, пользователи продолжают применять классическую ментальную модель фиксированного мышления. Таким образом, как только они столкнутся с тем, что они воспринимают как ошибку приложения, они полностью потеряют доверие к способности системы давать точные результаты. Возможно, это то, что вызывает переход к неприятию алгоритма после первоначальной оценки.

Многочисленные приложения машинного обучения выступают в роли помощников. Они опираются на ментальную модель отношений с человеком, надеясь изменить предположения пользователей о том, как работает программа.

Этот выбор ментальной модели сопряжен с рядом проблем:

  • ИИ (пока) недостаточно мощен, чтобы сойти за человека: ожидания пользователей формируются в зависимости от того, как они ожидают, что человек отреагирует, и пользователи, как правило, крайне разочарованы, если не возмущены поведением ИИ.
  • Даже для своих собратьев люди склонны применять фиксированное мышление и редко допускают возможность роста и изменения способностей, по крайней мере, в короткие сроки.
  • Если у пользователей действительно есть мышление роста по отношению к людям, что означает, что они верят, что люди могут стать лучше, если им будут предоставлены возможности учиться или их учат, что делать, это мышление плохо переносится на помощников ИИ, потому что методы обучения людей и ИИ такие разные.

Ментальная модель и взаимодействие пользователей с приложениями машинного обучения

Какую ментальную модель следует использовать? На этот вопрос нет универсального ответа. Вот где требуется исследование пользовательского опыта:

  • раскрыть существующие ментальные модели, связанные с конкретными задачами,
  • поэкспериментировать с несколькими метафорами пользовательского интерфейса помимо помощника и
  • чтобы помочь пользователям адаптировать свои существующие ментальные модели и ожидания к реальности приложений на основе машинного обучения.

Продолжение следует здесь