Когда-нибудь в ближайшем будущем врач-терапевт сядет перед компьютером, чтобы просмотреть всю медицинскую информацию о пациенте, который только что вошел в ее кабинет. Информация не будет просто выводиться на экран в виде большой таблицы чисел. Он будет тщательно обработан и представлен искусственным интеллектом, чтобы помочь врачу выбрать лучший диагноз и лечение для своего пациента.

Один из способов заставить A.I. более приемлемым является использование систем, которые могут объяснить, почему они делают тот или иной прогноз. Идея состоит в том, что врач может принять во внимание рассуждения. Она с большей вероятностью будет следовать рекомендованному лечению, если доказательства, используемые алгоритмом, будут получены из недавно опубликованного систематического обзора, чем если бы они были получены из гороскопа. В этом есть смысл.

Но ограничение технологий теми, которые легко объяснимы, может поставить наши алгоритмы в наручники. Биология человека невероятно сложна, и вполне вероятно, что для ее понимания потребуются сложные алгоритмы. Если это правда, то врач может в конечном итоге проигнорировать все рекомендации объяснимого ИИ. потому что это просто не работает.

Это видение А.И. персонализированная медицина весьма привлекательна. Пациенты получают более качественную помощь при меньших затратах. Врачи заботятся о пациентах вместо того, чтобы просматривать карты. Все выигрывают - если только они не проигрывают.

Системы машинного обучения делают ошибки. Они переносят любые предубеждения из данных, которым их обучали, на проблемы, к которым они применяются. Неизбежно, что А. системы будут делать ошибки в сфере здравоохранения, и эти ошибки будут иметь реальные - потенциально опасные для жизни - затраты. В результате многие люди обеспокоены той ролью, которую модели машинного обучения «черный ящик» будут играть в будущем медицины.

Неопределенность - это альтернатива объяснимости, которая не накладывает ограничений на сложность базового алгоритма. То есть алгоритмы должны предоставлять больше, чем просто прогноз - они должны описывать, насколько они уверены в этом прогнозе. В конце концов, разве это не все, что мы хотели в первую очередь? Чтобы врач знал, насколько он должен доверять алгоритму?

А.И. и машинное обучение сыграют важную роль в будущем медицины. К счастью, у нас уже есть инструменты для создания моделей, которые могут описать степень их уверенности, даже если они не могут объяснить, почему.