Как найти синергию между ИИ и человеком?

Это одна из ключевых тем Международной конференции по машинному обучению (ICML 2020). В то время как машинное обучение (ML) основано на идее, что машины должны иметь возможность обучаться и адаптироваться на основе опыта, ИИ strong> относится к более широкой идее, согласно которой машины могут выполнять задачи «умно». Искусственный интеллект применяет машинное обучение и другие методы для решения актуальных проблем.

Меня особенно интересует применение ИИ в секторе здравоохранения, поэтому я сосредоточился на основных докладах, панелях, семинарах и социальных мероприятиях, связанных с здравоохранением во время ICML 2020, и подытожил свои выводы и размышления ( с точки зрения дизайна) ниже.

Ключевые категории приложений ИИ в здравоохранении включают рекомендации по диагностике и лечению, вовлечение и приверженность пациентов, а также административную деятельность.

Михаэла ван дер Шаар рассказала о факторах (по мнению ее исследовательской группы), которые могут превратить модели машинного обучения в действенный ИИ:

Кроме того, Михаэла предлагает стремиться к интерпретируемости, объяснимости и достоверности при разработке машинного обучения для развития экосистемы, обеспечивающей беспрепятственное сотрудничество с врачами. Интерпретируемость — это то, почему модель делает прогноз. Объяснимость — это то, что мы можем узнать из модели, а достоверность — насколько достоверно предсказание модели. Затем она представила методы, которые она использовала в своей лаборатории для этих трех тем.

Для интерпретируемости лаборатория Михаэлы придумала идею метамодели, которая означает модель модели. Поскольку модель машинного обучения часто называют черным ящиком, метамодель дает результат прозрачной функции, описывающей прогнозы, сделанные моделью машинного обучения.

Концепция метамодели открывает новые возможности для улучшения объяснимости и надежности машинного обучения. Раньше интерпретируемость в первую очередь касалась того, какие признаки имеют глобальное значение, т. е. для всего населения? какие признаки являются локально важными, т.е. для данного больного? особенности взаимодействия и нелинейность модели.

Тем не менее, по словам Михаэлы, разные группы пользователей ищут разные формы «понимания» для достижения своих целей. Клиницисты, исследователи и пациенты (иногда менеджеры, политики) имеют свои собственные цели, и достаточно хорошая объяснимость основана на настройке интерпретируемости путем введения модулей объяснения.

Прямое и обратное использование метамоделей позволяет создавать модули пояснений для разных групп пользователей.

Затем Михаэла привела четыре примера того, как модель машинного обучения можно адаптировать для исследователей, клиницистов, политиков и пациентов.

Что касается надежности, метамодели могут поддерживать надежное обнаружение. Поскольку метамодели всегда являются символическими выражениями модели машинного обучения, формат многих различных типов моделей машинного обучения может быть унифицирован для идентификации общих открытий путем сравнения их метамоделей.

Кроме того, серьезное беспокойство пользователей вызывает неопределенность прогнозов, сделанных моделями машинного обучения. Модель машинного обучения не одинаково уверена в каждом прогнозе, который она делает, и пользователи хотят знать то, чего они не знают. Это приводит к необходимости срочной количественной оценки неопределенностей. Михаэла предлагает учитывать как охват, так и дискриминацию при количественной оценке неопределенности, и поделилась интуитивным визуальным представлением этих двух критериев для пользователей.

Выступление Михаэлы информативно и вдохновляюще, однако меня беспокоит прозрачность.Я считаю, что не все пользователи хотели бы знать, как работает модель даже в медицинских учреждениях. Например, я наблюдал, как некоторые больные астмой не хотят знать устройство своих ингаляторов, так как они могут бояться сломать устройство или начать находить устройства сложными в использовании. Иногда удобно скрыть детали, которые не имеют отношения к задаче, которую выполняют пользователи. Действительно, понимание того, как модель делает прогнозы, имеет решающее значение для клиницистов и исследователей. Поэтому я бы предложил настроить прозрачность для каждой группы пользователей, а еще лучше, если есть несколько вариантов прозрачности, которые пользователи могут выбирать.

Вопрос: мне непонятна взаимосвязь между прозрачностью и интерпретируемостью в контексте взаимодействия человека и ИИ; после прочтения статей в Интернете они кажутся синонимами описания метода, направленного на то, чтобы модели машинного обучения понимались людьми, правильно ли это?

Все изображения взяты из слайдов презентации Михаэлы ван дер Шаар на ICML 2020.