Алгоритмы искусственного интеллекта в здравоохранении часто имеют тенденцию непреднамеренно принимать нежелательные ошибки, что приводит к неправильной диагностике и рекомендациям. Объяснимый ИИ может стать ключом к решению этой проблемы.

Появление искусственного интеллекта (ИИ) привело к использованию агрегированных данных в здравоохранении для разработки сложных моделей для автоматизации диагностики. Это расширило возможности практикующего врача, адаптировав лечение и эффективно сосредоточив внимание на пациентах. Ожидается, что ИИ в здравоохранении достигнет 36,15 млрд долларов к 2025 году с темпами роста 50,2%. Больницы строятся исходя из того, что за системами ИИ будущее, а стартапы, использующие ИИ для здравоохранения, привлекли более 5 миллиардов долларов венчурного капитала.

Большинство улучшений в системах ИИ сделано с учетом достижений в области машинного обучения и глубокого обучения. В отличие от традиционных систем, где правила разрабатываются вручную, системы ИИ разрабатываются на основе прошлых данных и примеров. Например, инженеры создали алгоритм, помогающий диагностировать рак молочной железы, и использовали его для маммографии для выявления раковых клеток. Алгоритмы обработали модели и обнаружили общий шаблон, соответствующий более чем 60 000 пациентов, чтобы отличить раковые клетки от нераковых с точностью 31% по сравнению с 18% без него, и риск рака можно было предсказать до 5 лет вперед . Системы искусственного интеллекта также показали лучшие результаты, чем люди, в таких областях, как радиология и медицинская визуализация.

Однако одна из фундаментальных проблем алгоритмов обучения заключается в том, что они имеют тенденцию принимать нежелательные смещения, основанные на данных, используемых для обучения. В здравоохранении это может привести к неправильной диагностике и рекомендациям по уходу. В последнее время появилось несколько историй, связанных с предвзятостью алгоритмов ИИ, когда ИИ имеет тенденцию отдавать предпочтение определенным группам в зависимости от пола, возраста и расы. Алгоритмическая предвзятость ИИ в области медицины может оказаться фатальной.

Предвзятые наборы данных для алгоритмов ИИ:

Данные играют важную роль в том, что касается предубеждений, вкрадывающихся в процесс. Например, канадская компания разработала алгоритм слуховых тестов на неврологические заболевания. Он регистрирует то, как человек говорит, и анализирует данные, чтобы определить раннюю стадию болезни Альцгеймера. Тест имел точность >90%; однако данные состояли только из выборок носителей английского языка. Следовательно, когда тест проходили люди, не говорящие по-английски, он определял паузы и неправильное произношение как индикаторы заболевания.

В том же ключе был разработан алгоритм для диагностики злокачественных новообразований кожи по изображениям. Люди с белой кожей чаще страдают раком кожи, поэтому для этого конкретного типа кожи было доступно больше данных. Система была на 11%-19% более точной в диагностике людей со светлой кожей, но была на 34% менее точной для людей с более темной кожей. Алгоритм был обучен на наборе данных пациентов, содержащем очень маленькую выборку пациентов определенного типа, и не подходит для клинического использования в больнице с популяцией пациентов, состоящей из самых разных типов кожи.

Приведенные выше примеры подчеркивают предвзятость, возникающую из-за искажения данных о популяции пациентов при обучении алгоритма. Следовательно, при разработке крайне важно учитывать все известные факторы, связанные с популяцией пациентов.

Отсутствие прозрачности

В то время как большинство исследований алгоритмической предвзятости сосредоточено на определении известных факторов, таких как пол, раса, возраст и т. д., недавние исследования показывают, что алгоритмы могут собирать скрытые предубеждения, которые часто трудно идентифицировать. Поэтому это часто бывает сложно, и у разработчиков очень мало возможностей для выявления и устранения проблем.

В некоторых случаях предубеждения, как правило, возникают из-за корреляции между рассматриваемыми факторами, такими как данные обучения для алгоритма, предназначенного для определения пребывания в больнице/госпитализации человека. Модель присваивала низкие баллы риска пациентам с астмой и высокие баллы пациентам с пневмонией. Было бы рекомендовано госпитализировать пациентов с пневмонией в менее критическом состоянии, а не пациентов с тяжелой астмой. Таким образом, объем производства сильно зависел от определенных факторов, при этом критические факторы не учитывались.

Можно ли исправить ошибки ИИ?

Либо из-за того, что не учитываются правильные предметы для наборов данных, либо неправильные факторы для обучения, во многих ситуациях на важные решения может влиять предвзятость. Очевидно, что предвзятость является проблемой, но ее можно преодолеть.

Чтобы устранить предубеждения, первым шагом является понимание и принятие того факта, что данные могут быть проблемой. Во-вторых, определите, как и почему алгоритмы склонны принимать определенные решения. Объяснимый и интерпретируемый ИИ позволит разработчикам, бизнес-пользователям и конечным пользователям понять, почему принимаются те или иные решения. Впоследствии может быть инициирована необходимая коррекция курса. Модели машинного обучения часто представляют собой черные ящики, которые дают очень мало информации об их внутренней работе. Вот тут-то и появляется объяснимость. Она обеспечивает обоснование результатов интерпретируемым способом.

Объяснимый ИИ поможет укрепить доверие к алгоритму ИИ, который имеет решающее значение в системе здравоохранения. Это обеспечивает справедливость, инклюзивность, надежность и прозрачность при разработке и поддержании конфиденциальности и подотчетности. Это включает в себя мониторинг данных на предмет неравенства, а также общение с поставщиками медицинских услуг и пациентами, чтобы определить, видят ли они какие-либо проблемы со справедливостью. Это может позволить организациям не только выявлять возможную дискриминацию, но и заранее исправлять алгоритмы.

Существующие модели ИИ ограничены предсказаниями, но по мере их совершенствования модели могут эволюционировать в сторону объяснимости в сочетании с медицинским обоснованием и результатами ИИ, что приведет к справедливому принятию решений для расширения внедрения и обеспечения доверия к системам ИИ в здравоохранении.

Первоначально опубликовано наhttps://www.wipro.com/holmes/the-pitfalls-of-ai-bias-in-healthcare/