Аарон Пауэрс, старший менеджер по измерению опыта, и Дженнифер Карделло, исполнительный директор DesignOps

Аналитика данных - горячая тема, и нет ничего более популярного в ней, чем машинное обучение. Но как исследователи пользовательского опыта могут опираться на машинное обучение, чтобы проверять гипотезы и предположения и лучше понимать пользователей? Хотя есть тысячи статей о машинном обучении, большинство из них посвящено тому, как машинное обучение может автоматизировать работу. Эта статья отвечает на очень конкретный вопрос: какие методы машинного обучения можно использовать для ответа на конкретные вопросы исследования пользователей.

Среди десятков распространенных методов машинного обучения мы сосредоточили внимание на 6 ключевых алгоритмах, которые исследователи UX могут применять для достижения значительных результатов. Эти алгоритмы машинного обучения:

  1. Регресс
  2. Деревья решений
  3. Кластеризация
  4. Правила ассоциации
  5. Технологический майнинг
  6. Уменьшение размерности

У этих алгоритмов есть 3 общих черты для определения ценности пользовательских исследований:

  1. Успешно используется для ответов на вопросы о пользователях
  2. Создает понятный человеку результат
  3. Подходит для больших наборов данных

Эта статья не научит вас всему, что вам нужно знать для технической реализации этих алгоритмов - вместо этого используйте ее, чтобы понять, что происходит на земле, и выбрать, какие алгоритмы могут работать для вашей проблемы. У исследователей UX есть вопросы, на которые могут помочь данные, - они делятся на три стадии проблем UX:

  1. Откройте для себя: когда ваш проект находится на ранней стадии, вы не знаете, чего не знаете, и открыты для всего - именно тогда методы «обучения без учителя» помогут вам больше всего. Эти методы помогут вам изучить данные, когда у вас нет правильного ответа, вы хотите узнать больше о своих клиентах, а затем использовать их для определения своих будущих целей.
  2. Проверка гипотез. Когда у вашей команды есть конкретные идеи, и вы собрали конкретные данные по этим идеям, вы находитесь на этапе проверки своих теорий. У вас может быть несколько конкурирующих идей, и вы хотите выяснить, какая из них наиболее разумна. Вы могли бы использовать эти методы, когда сузили круг вопросов. Эти алгоритмы машинного обучения называются «обучением с учителем».
  3. Упростите проблемы. Возможно, ваши результаты слишком сложны для понимания людьми или проблема кажется слишком большой, чтобы ее можно было объединить. Эти методы поддерживают первые две категории машинного обучения. Хотя эти методы не позволяют напрямую получить ответы на вопросы, они являются ключевыми инструментами при применении машинного обучения для ответа на вопросы исследования пользователей.

1. Откройте для себя: вопросы и алгоритмы

Алгоритмы, используемые при обнаружении, имеют одну общую черту: в данных нет «цели». Вместо этого цель состоит в том, чтобы взглянуть на кучу существующих данных и извлечь полезную информацию по восходящей схеме - узнать о клиентах, сгруппировать их вместе и понять, как они уже работают.

Хотя эти методы лучше всего известны при применении к «большим» наборам данных, которые содержат данные журналов от миллионов пользователей, они также успешно применялись и к небольшим наборам данных - каждый из них должен казаться пугающе похожим на качественные методы, извлекающие аналогичные выводы из качественные методы исследования.

Откройте для себя алгоритм №1: кластеризация

Также известен как: анализ сегментации.
Качественные методы, дающие схожую информацию: лица, роли и цели, аффинитизация
Использовать, когда: У вас есть набор данных о людях (из журналов или вручную, например, в опросах), вы не хотите вручную просматривать каждую отдельную строку клиентов и хотите извлекать темы или группы, чтобы сформировать более широкую картину. например если вы хотите описать своих клиентов в 4 группы. Вы также можете сегментировать своих клиентов, чтобы использовать эти сегменты для разделения других данных, например чтобы описать, как модели поведения различаются между 4 группами пользователей. Это может быть использовано в качественных методах, таких как персонажи или роли и цели.
Рекомендации по данным: ›100 строк данных, где каждая строка представляет человека или вещь, 2 или более описательных столбца

Кластерный анализ чаще всего используется для сегментации и группировки пользователей в меньший набор групп - вместо того, чтобы работать со 100 пользователями, которые кажутся уникальными, вы можете использовать кластеризацию для сортировки их по меньшему количеству групп (обычно от 3 до 8 групп). так что легко представить). Если вашей целью является создание персонажей и вы хотите дополнить свое качественное исследование, кластеризация - лучший метод, который поможет вам использовать восходящие данные: начните с набора данных с характеристиками пользователей и объедините их вместе, а затем пометьте группы и создавать из них персонажей.

Кластеризацию можно использовать для многих других наборов данных, однако их использование для сегментации людей на несколько групп является наиболее распространенным обучающим примером - легко понять, почему маркетолог или дизайнер хотел бы разделить ваших пользователей на набор групп, которые ведут себя одинаково. , мало чем отличаясь от групп в старшей школе.

Очень часто кластеризацию используют для набора данных с большим количеством информации о поведении пользователей, а затем используют ее, чтобы выбрать несколько групп и изучить их характеристики. Вы можете просматривать группы и создавать образы на основе групп, указанных в данных, например, «Сандра, светская львица» (потому что люди в этой группе используют множество функций социальных сетей), «Иван-интроверт» (если пользователи в этой группе не используйте много социальных сетей) и так далее.

Типы кластеризации. Существует два основных типа кластерного анализа, которые могут быть полезны для исследования UX:

  1. k-означает
  2. иерархическая кластеризация

Эти два работают в разных направлениях - с k-средствами вы начинаете с того, что сообщаете ему, сколько групп вы хотите создать (это «k» в «k-средних»). Для иерархической кластеризации вы запускаете кластерный анализ, а затем смотрите на характеристики групп, чтобы решить, сколько групп выбрать.

Дополнительная информация: Как сделать персонажи более научными

Откройте для себя алгоритм № 2: правила ассоциации

Также известен как: анализ рыночной корзины, анализ корзины покупок.
Качественные методы, дающие аналогичные результаты: аффинитизация
Использовать, когда: У вас есть набор данных о поведении.
Рекомендации по данным: ›100 строк данных, которые могут быть организованы в матрицу совместной встречаемости или в длинный список из 2 или более элементов. которые появились вместе в данных

Если вы когда-либо совершали покупки на Amazon или Netflix, вы сталкивались с правилами ассоциации в действии - настолько, что правила ассоциации часто называют «анализом корзины покупок». Хотя кластеризация часто используется для группирования пользователей вместе, и пользователи могут быть только в одной группе за раз, если вы хотите посмотреть, какие действия пользователи делают вместе, даже если пользователи делают много вещей, правила ассоциации были бы более подходящими. Если у вашего продукта много разных функций, которые используются разными людьми, вы можете использовать правила ассоциации, чтобы посмотреть, скажем, какие два действия пользователи с наибольшей вероятностью будут выполнять одно за другим, или во время одного сеанса, или даже для одного пользователя. когда-либо использовать их вместе.

Типы правил связывания. Пользователи, впервые использующие правила связывания, часто начинают с априорного алгоритма - существует множество различных реализаций правил связывания, и априори его относительно легко понять и начать с него. Когда вы используете это, на выходе получается отсортированный список пар - «если это, то то», например используя приведенную выше рекомендацию Netflix: «Если кто-то смотрел Inside Job, он, скорее всего, также смотрел The Big Short, а второй по вероятности также смотрел Silicon Cowboys».

Дополнительная литература: Правила ассоциации и априорный алгоритм: Учебное пособие, Что такое матрица совместной встречаемости?

Откройте для себя алгоритм № 3: Process Mining

Качественные методы, дающие аналогичные результаты: анализ рабочего процесса, отображение пути
Использование, когда: у вас есть беспорядок в данных журнала, показывающих последовательность событий, выполненных пользователями, и вы хотите извлечь рабочие процессы.
Рекомендации по данным: ›100 строк данных из журнала событий. Один столбец часто используется для идентификации отдельных пользователей, потому что у одного пользователя будет несколько событий.

Интеллектуальный анализ процессов занимает особое место в области UX-аналитики, поскольку это единственный алгоритм машинного обучения, который работает непосредственно с непреобразованными журналами событий и напрямую анализирует рабочие процессы. Рабочие процессы - большая часть UX - существует множество качественных подходов к проектированию рабочих процессов. Интеллектуальный анализ процессов присоединяется к этому набору методов с противоположной стороны - возьмите набор журналов событий и выясните, что на самом деле делают пользователи рабочего процесса.

Это может быть использовано, чтобы ответить на многие вопросы о рабочем процессе, в том числе:

  • Что на самом деле делают люди?
  • Какой набор шагов пользователи делают чаще всего?
  • Какие шаги наиболее распространены?
  • Какая последовательность шагов наиболее распространена?
  • Какие шаги повторяют пользователи?
  • Что делают пользователи до действия X или после действия X?
  • Где самая медленная часть рабочего процесса?

Если вы анализировали веб-журналы, возможно, вы использовали некоторые версии такого рода аналитики - область интеллектуального анализа процессов выходит далеко за рамки возможностей, которые мы видели встроенными в инструменты аналитики, такие как Adobe Analytics.

Один из способов позволяет использовать ползунок, чтобы сосредоточиться только на наиболее распространенных действиях, а затем перетаскивать ползунок, чтобы увеличить количество отображаемых действий для анализа более сложных частей рабочего процесса. Этот единственный инструмент очень мощный, он позволяет вам выбрать нужный уровень глубины рабочего процесса, чтобы его можно было визуализировать и представить, при этом настраивая его так, чтобы не пропустить ключевые действия.

Среди алгоритмов машинного обучения интеллектуальный анализ процессов немного отличается - это более новая область, и у нее гораздо больше поклонников в Европе, чем в Соединенных Штатах, ее только начинают включать в списки и курсы по машинному обучению.

Инструменты для анализа процессов: инструмент с открытым исходным кодом ProM содержит более 600 различных алгоритмов, которые вы можете использовать для анализа этих процессов. осветите те журналы событий, которые было так сложно пройти. Для UX'еров мы должны особо упомянуть Disco как коммерческого лидера - у нее очень упрощенный пользовательский интерфейс, который UX'ерам будет удобно и легко изучить.

Дополнительная литература: Process Mining для юзабилити-тестов, Agile Development With Software Process Mining, Метод анализа процессов для измерения того, как пользователи взаимодействуют с программным обеспечением

2. Проверка гипотез

Все эти алгоритмы используются, когда у вас есть цель: ключевая переменная, которую вы хотите оптимизировать или понять. У вас могут быть ключевые бизнес-метрики, такие как истощение, или рост числа рефералов, или повторяющиеся посещения, которые вы хотите понять и разбить на факторы влияния, например чтобы вы могли обсудить наиболее важный рычаг для улучшения вашего пользовательского опыта.

Некоторые гипотезы носят очень общий характер и могут быть проверены с использованием любого типа алгоритма - может оказаться, что тот, который имеет наибольший смысл или дает лучший прогноз, может быть тем, который вы используете.

Лично мы находим эти инструменты особенно полезными при моделировании влияния UX на бизнес-метрики - мы хотим изменить UX или дизайн, и мы хотим увидеть, как эти различия приносят пользу или вредят бизнесу.

Алгоритм проверки гипотез # 1: регрессия

Качественные методы, дающие аналогичные выводы: логические рассуждения относительно того, что является причиной, например Анализ первопричин
Использовать, когда: у вас есть целевые показатели, и вы хотите понять, что может на них повлиять. Это особенно полезно, когда у вас есть много различных факторов, которые могут влиять на целевой показатель.
Рекомендации по данным: ›10 строк данных из эксперимента или› 50 строк из естественных наблюдений, начиная с одной столбец, который вы хотите понять, и на него может повлиять любое количество предполагаемых столбцов.

Многие UX-специалисты с удивлением узнают, что регрессия считается одним из видов машинного обучения - в конце концов, мы используем регрессию ›20 лет, а термин« машинное обучение »стал популярным лишь недавно.

Регрессия чаще всего используется для проверки гипотезы о наличии причинно-следственной связи между переменными - например, допустим, у вас есть группа пользователей, и для каждого пользователя у вас есть эти две переменные:

  • Количество обнаруженных ошибок
  • Совершил ли пользователь покупку

Если ваша гипотеза состоит в том, что большее количество обнаруженных ошибок снижает шансы пользователей на совершение покупки, вы можете использовать логистическую регрессию для проверки своей гипотезы. Регрессионный анализ либо подтвердит, либо опровергнет гипотезу.

Типы регрессии. Существует три основных категории регрессионного анализа и два анализа более высокого уровня:

  1. Логистическая регрессия
  2. Линейная регрессия
  3. Нелинейная регрессия
  4. Посредничество (анализ более высокого уровня с использованием регрессии)
  5. Наиболее влиятельные переменные, известные как анализ ключевых факторов (анализ более высокого уровня с использованием регрессии)

Вы можете выбрать один из трех основных типов (логистическая, линейная и нелинейная регрессия) в зависимости от переменной, которую вы пытаетесь предсказать, и сложности отношений между другими переменными. В приведенном выше примере (соотнесение количества ошибок с тем, конвертировали ли пользователи) логистическая регрессия - хороший выбор, потому что есть только две возможности: конвертированные или нет.

Регрессия часто используется как швейцарский армейский нож для пользовательских исследований - она ​​может ответить на многие вопросы о взаимосвязи между переменными, разделить эффекты смешанных переменных или выявить тенденции и закономерности в данных журнала / отслеживания пользователей. Когда данных много, и вы пытаетесь понять взаимосвязь между несколькими переменными, регрессия - отличное место для начала.

Иногда все становится сложнее - у вас много переменных, и вы думаете, что между ними существует сложный набор взаимосвязей. Например, предположим, что ваша теория состоит в том, что возраст ваших участников приводит к тому, что у них меньше доступа к мобильным устройствам (например, теоретически и самые молодые, и самые старые пользователи будут использовать свои мобильные устройства меньше, чем средние возрастные группы). Чтобы проверить эту гипотезу о взаимосвязи, используйте анализ посредничества, например:

Лучшие учителя - ›Более умные ученики -› Лучшие оценки - ›Более высокие показатели выпуска

В этом примере выпускаются не учителя, поэтому модели, завершающие цепочку между причинами и следствиями, с большей вероятностью будут лучше объяснять данные, чем простая двухточечная модель.

Посредничество - это дополнительный анализ к регрессии, расширяющий возможности построения и моделирования более сложных отношений. Это помогает уменьшить шум и особенно полезно, когда у вас есть много переменных, которые, по вашему мнению, имеют причинно-следственную связь.

Пример исследовательского вопроса:

«Что имеет больше смысла: простота использования влияет на удовлетворение, которое, в свою очередь, влияет на лояльность, или было бы разумнее связать простоту использования напрямую с лояльностью?»

Чтобы ответить на этот вопрос, вы будете использовать 3 отдельные регрессионные модели, сравнивая, как переменные влияют друг на друга и как эти влияния сравниваются между моделями. Базовые методы моделирования посредничества можно изучить за несколько часов, используя некоторые из приведенных ниже ресурсов.

Дополнительная литература: Регрессионный анализ в Википедии, Посредничество (статистика) в Википедии, Как определить наиболее влиятельные переменные на minitab.com, Анализ ключевых факторов, сделанный Джеффом Сауро

Алгоритм проверки гипотез № 2: деревья решений

Качественные методы, дающие аналогичные выводы. Логические рассуждения о том, что является причиной того, что
Использовать, когда: у вас есть целевые показатели, и вы хотите понять, что может на них повлиять. Это особенно полезно, когда у вас есть много различных факторов, которые могут влиять на целевой показатель.
Рекомендации по данным: ›10 строк данных из эксперимента или› 50 строк из естественных наблюдений, начиная с одной столбец, который вы хотите понять, и на него может повлиять любое количество предполагаемых столбцов.

Деревья решений - это следующий шаг после регрессии, и многие курсы машинного обучения учат его следующим. Иногда его можно применить к аналогичным типам проблем - вы даже можете использовать деревья решений для некоторых из тех же наборов данных, что и регрессия, чтобы ответить на одни и те же вопросы, иногда получая те же результаты.

В то время как регрессия является отличным представлением линейных отношений, деревья решений более полезны, когда есть более острые критические точки в процессе принятия решений человеком - вот почему его называют «деревом решений», потому что они работают лучше, когда есть поворотные точки, которые меняют отношения. между переменными.

В классическом обучающем примере деревьев решений используется набор данных о выживших на «Титанике» - первая точка принятия решения - пол. Следующее дерево решений показывает, что 73% женщин пережили гибель Титаника, но для мужчин все было намного сложнее (в таблице ниже «sibsp» - это количество братьев, сестер и супругов у этого человека).

Деревья решений часто являются хорошим выбором, когда у вас есть большое количество переменных, и вы не уверены, какие из них являются ключевыми или как они связаны - решение наверху модели всегда является переменной, которая больше всего влияет на результат. Один из способов подумать о том, когда применять деревья решений вместо регрессионной модели, - это когда у вас есть большой объем данных (например, данные журнала, собранные за месяцы или годы), и вы не знаете, какие факторы имеют значение - это может быть полезно, чтобы помочь обнаружить отношения, в которых регрессия лучше подходит для проверки гипотез. Однако есть много проблем, таких как решение Titanic выше, которые можно относительно хорошо смоделировать либо в деревьях регрессии, либо в деревьях решений - эту модель проще моделировать и понимать как дерево решений.

В UX деревья решений могут быть особенно полезны при моделировании пользователей, которые значительно меняют свое поведение по демографическим или групповым признакам - например, если студенты колледжа используют ваше программное обеспечение иначе, чем пенсионеры, или если модели использования различаются в зависимости от роли, например, если у вас есть как пользователи, которые являются инженерами, так и пользователи, которые являются учителями начальной школы и имеют переменную, которая отслеживает их возраст или роль.

Типы деревьев решений. Два основных типа деревьев решений:

  1. Деревья классификации - когда переменная, которую вы хотите смоделировать, является классовой или категориальной переменной (например, мужчина против женщины или выжившие против умерших).
  2. Деревья регрессии - когда переменная, которую вы хотите смоделировать, является числовой переменной. Это объединяет решения и отношения регрессии. Он может моделировать отношения аналогично регрессионной модели, использующей взаимодействия.

При использовании деревьев решений следует учитывать несколько предупреждений; Как и в других моделях, может возникнуть соблазн составить дерево решений с сотней переменных и получить отличное соответствие, но иметь не поддающуюся расшифровке модель. Если вы пытаетесь понять пользователей, возможно, имеет смысл начать с нескольких ключевых переменных и позволить модели развиваться только по мере того, как вы понимаете отношения между ними. Легко и заманчиво «переосмыслить» дерево решений и получить что-то, что слишком сложно понять или объяснить.

Дополнительная информация: Изучение дерева принятия решений в Википедии

3. Упростите проблемы

Эти алгоритмы часто используются для предварительной обработки данных перед применением вышеуказанных алгоритмов машинного обучения - строго говоря, большинство из них не являются методами машинного обучения, а скорее методами, которые позволяют использовать машинное обучение, когда данные беспорядочные.

Алгоритм упрощения задач №1: уменьшение размерности

Качественные методы, дающие аналогичные выводы: логическое обоснование того, что является причиной того, что
Использовать, когда: у вас есть данные, и их слишком много переменных, чтобы люди могли их понять, или множество переменных для включения в алгоритм машинного обучения. Например, если у вас есть 10 переменных, которые могут означать почти одно и то же (например, в такой шкале опроса, как SUS, в которой 10 вопросов, но вы хотите сообщить об этом как о едином показателе).
Рекомендации по данным: любой набор данных с большим количеством столбцов, который можно свернуть.

Уменьшение размерности может быть полезно, когда у вас много разных переменных, но вы хотите объяснить данные, используя меньшее число. Обычно вы применяете уменьшение размерности перед применением другого алгоритма или визуализации - например, уменьшение размерности - это скорее метод предварительной обработки данных, но он редко отвечает на вопросы самостоятельно.

Мы слышали о двух способах успешного использования уменьшения размерности в исследованиях пользователей.

Во-первых, если вы хотите визуализировать данные, которые имеют много измерений, например группы пользователей, вы можете уменьшить количество измерений до двух измерений. Затем, например, вы можете запустить кластерный анализ, используя эти два измерения, и визуализировать результат кластерного анализа в виде 2D-визуализации, раскрашивая каждую группу.

Второй способ - это если вы хотите упорядочить группу, например, упорядочить функции, используемые в продукте или сообщениях об ошибках, но у вас есть много переменных, которые состоят из аналогичной области. Если у вас есть много разных переменных, которые показывают, как люди используют функцию или реагируют на сообщение об ошибке, и нет очевидного единственного победителя, вы можете использовать уменьшение размерности, чтобы превратить эти функции в одну переменную, а затем упорядочить эту переменную и отсортировать их - поэтому пользователям показывается только 10 самых популярных товаров.

Типы уменьшения размерности. Хотя существует множество различных видов уменьшения размерности, алгоритмы, которые, как мы слышали, успешно используются в проектах UX в этой области, включают:

  1. t-sme (t-распределенное стохастическое вложение соседей).
  2. PCA (анализ главных компонентов)
  3. Альфа Кронбаха (чтобы решить, можно ли объединить шкалы опроса путем усреднения)
  4. Преобразовать в z-оценку или процентиль, а затем в среднее значение
  5. Факторный анализ

Первые три метода представляют собой законченные методы машинного обучения - последние три не являются методами машинного обучения, но часто используются экспертами по опросам для достижения того же результата с меньшим количеством измерений. Альфа Кронбаха чаще всего используется людьми, проводящими опросы для объединения нескольких вопросов в единую шкалу. Преобразование в Z-баллы или процентили также может быть полезно при объединении показателей различных форм - когда все ваши показатели используют очень разные шкалы, как z-баллы, так и процентильные ранги могут объединить их в единую шкалу, измеряя их с точки зрения количества стандартных отклонения от среднего. Оба работают хорошо, когда у вас есть все данные, но обратите внимание, что если у вас есть потоковая передача данных, эти оценки будут меняться со временем (например, вы запускаете одно исследование, и среднее значение равно 5, затем вы запускаете другое исследование, и среднее значение будет 6 - общий процентиль изменится, что может запутать заинтересованных лиц, когда вы сообщаете о результатах).

Если вы знакомы с факторным анализом, который иногда использовали UX'еры, вы можете найти знакомые алгоритмы машинного обучения, которые сокращают размерность, решая аналогичную проблему другим способом - Сунил Рэй даже утверждал, что факторный анализ - это метод тип уменьшения размерности.

Дополнительная литература: Статья в Википедии о снижении размерности Как рассчитать z-оценку Джеффа Сауро

Упростите проблемы # 2: подготовка данных

Также известно как: предварительная обработка данных, изменение данных, обработка данных, очистка данных, подготовка данных.
Качественные методы, дающие аналогичные выводы: организация заметок перед встречей или любая другая подготовка, которую вы делаете, чтобы очистить вещи перед применением другого метода
Использовать, когда: ваши данные сложны, беспорядочны или не организованы таким образом, чтобы их можно было просто подключить к машинному обучению алгоритм.
Рекомендации по данным: любой набор данных.

Часто говорят, что специалисты по данным тратят большую часть своего времени на подготовку данных. В мире «больших» данных, где данные часто собираются в огромных количествах, а затем повторно используются для других целей, многие аналитики могут найти данные, но они не организованы так, как нам хотелось бы. Реорганизация данных в формат, готовый к анализу, может занять от нескольких часов до месяцев.

Этот метод включает в себя множество подтехник, таких как подключение к базам данных, импорт данных, фильтрация данных, удаление отсутствующих значений, группировка и агрегация, объединение, объединение / конкатенация, импорт и экспорт в и из источников данных, таких как базы данных, и многое другое. Существуют целые категории должностей, которые связаны только с темами подготовки данных, в том числе ETL (извлечение, преобразование, загрузка), хранилище данных и разработка данных.

Инструменты для подготовки данных. Хотя для этого существует множество инструментов, которые существуют ›30 лет, и можно использовать языки программирования общего назначения, такие как MATLAB, R и Python, пользователи UX с большей вероятностью перейдут к новому поколению инструментов, которые разработаны с учетом простоты их использования. Их часто считают инструментами самообслуживания для подготовки данных, поскольку они предназначены для более широкой аудитории. Лидерами на этом рынке являются Trifacta, KNIME, Alteryx и Tableau’s Maestro, однако в этой области есть десятки дополнительных продуктов и много венчурных инвестиций. Мы надеемся, что в ближайшие несколько лет инструменты в этой области станут значительно проще в использовании.

Дополнительная литература: Gartner о самостоятельной подготовке данных, Bloor Data Preparation (самообслуживание)

Машинное обучение для UX - развивающееся пространство

Хотя мы обнаружили 6 алгоритмов машинного обучения, которые успешно используются исследователями UX, мы полагаем, что их будет гораздо больше. Этим 6 обычно обучают за пределами области UX, и количество практиков, использующих эти методы, быстро растет на фоне ажиотажа, связанного с машинным обучением.

Особая благодарность Sam Zaiss за предложение Process Mining, Clayton Stanley за предложение уменьшения размерности, Yiran Buckley за помощь с визуальным дизайном, а также Kendall Eskine, Will Benson и Jen Cardello за вопрос сложные вопросы, на которые нельзя было ответить за 30 секунд или меньше.

Если вы считаете, что существует 8-й алгоритм машинного обучения или его должно быть только 5, мы хотели бы получить известие от вас - свяжитесь со мной напрямую или оставьте комментарии или вопросы.

Для получения дополнительной информации о возможностях athenahealth посетите нас по адресу https://www.athenahealth.com/careers/design