В Elder Research мы являемся офисом типа белая доска на каждой стене. Вдохновение приходит спонтанно, и любой разговор, каким бы случайным он ни был, может легко перерасти в затяжную дискуссию, раскрывающую скрытый путь продвижения проекта вперед. Недавно одно из таких обсуждений на доске состоялось между нашим ведущим специалистом по данным Майком Тербером и основателем Dr. Иоанн Старший IV. Разговор между Майком и Джоном начался достаточно невинно за ланчем, но потом затянулся на следующие несколько часов. Хотя тон никогда не поднимался выше ропота, это явно была оживленная дискуссия. Что было предметом этого философствования на доске? Это была еще одна глава в привычном балансировании между точностью и интерпретируемостью в прогнозном моделировании.

Противоречие между интерпретируемостью и точностью является фундаментальным компромиссом при использовании алгоритмов машинного обучения для прогнозирования. Более простые алгоритмы прогнозирования, которые легче интерпретируются людьми, как правило, менее точны, чем более сложные методы, которые не так легко объяснить. (Обратите внимание, что под точностью я имею в виду не то, насколько хорошо модель справляется с обучением, а гораздо более важную меру того, насколько хорошо она справляется с оценкой, обобщающей на новые случаи.) Интерпретируемость, как правило, является субъективной оценкой модели. Все сводится к тому, насколько легко можно объяснить модель человеку? В отличие от модели, точность — это любой количественный показатель, который объясняет, насколько хорошо модель предсказывает интересующий результат. Например, сколько из всех известных результатов модель предсказала правильно?

Будучи такой количественной областью, субъективная важность интерпретируемости в прогнозной аналитике остается спорной темой для специалистов по данным. По мере того, как все больше и больше компаний изучают возможности использования расширенной аналитики для обеспечения будущего роста, это противоречие становится все более актуальным для успеха аналитики. Как мы, консультанты по науке о данных, укрепляем доверие к нашим методам, если наши клиенты не очень хорошо понимают эти методы? Кроме того, как мы продолжаем оправдывать ценностное предложение аналитики, если мы должны препятствовать нашим моделям, чтобы сделать их интерпретируемыми?

Нигде это не является более уместным, чем в жестко регулируемых отраслях (например, банковское дело, страхование и здравоохранение), где понимание информации, используемой аналитической моделью, является не просто предпочтением, а часто вопросом юридического характера. согласие. Чем дороже последствия ошибки, нарушения неприкосновенности частной жизни или возможности дискриминации, тем выше спрос на интерпретируемое (и точное) решение.

Дело о точности

Легко привести доводы в пользу того, что точность модели важнее интерпретируемости. Точность можно объективно и легко оценить, что позволяет легко сравнивать альтернативные методы друг с другом. Если прогностическая модель работает лучше с точки зрения выбранной оценки, то это должно иметь большое значение в ее пользу. Когда цена ошибки высока, стимул для более высокой производительности, следовательно, больше. Кроме того, даже так называемые «интерпретируемые» модели, такие как деревья решений или линейная регрессия, могут быстро стать не интерпретируемыми. Например, после первых нескольких уровней дерева решений людям становится трудно проанализировать причины выбора одной переменной по сравнению с другой.

Даже страстные сторонники точности по-прежнему признают, что интерпретируемость играет важную роль в выборе модели. Интерпретируемость хороша, если она убивает модель. Интерпретируемость — это плохо, если она подтверждает модель, — сказал доктор Элдер в недавней дискуссии. Его обоснование основано на тяжелом опыте: если человек может понять, почему модель неверна, то это хорошее применение интерпретируемости. Однако он считает, что люди слишком склонны к предвзятости подтверждения [1], основанной на предыдущем опыте, чтобы быть в состоянии объективно интерпретировать результаты модели. Мы отчаянно нуждаемся в объяснении и можем легко привести ложные аргументы, основанные на результатах, которые нам представляют из данных (или даже вообще без данных).

Относительная важность точности резко возрастает по мере увеличения стоимости ошибки. Например, технология IBM Watson все чаще используется для поддержки медицинских диагнозов. Недавно Уотсон успешно диагностировал [2] редкую форму лейкемии, которую онкологи диагностировали неправильно. Это фантастический пример того, как точные и проверенные алгоритмы машинного обучения могут дополнить существующие рабочие процессы. Болезнь была обнаружена, и жизнь была спасена.

Но представьте на секунду, что Ватсон был неправ. Пациенту был бы назначен дорогостоящий и трудоемкий курс лечения, который в конечном итоге практически не приносит пользы (и потенциально вреден). Watson, как и все другие алгоритмы машинного обучения, «знает» только ту информацию, которую ему предоставили; он не может знать о случаях или альтернативных гипотезах, внешних по отношению к данным, на которых он обучался. Среда здравоохранения — это среда, в которой точность имеет первостепенное значение, но эта точность зависит от данных, на которых была обучена модель. Когда Watson (или подобная Watson система) ставит диагноз, важно, чтобы логика, стоящая за диагнозом, также была очевидна. Цена ошибки слишком велика, чтобы полагаться на ответ «черного ящика». В совершенно другом мире финансовых услуг ипотечный кредит или страховка не могут быть отклонены на основании расы. Если бы раса каким-то образом была включена в прогностическую модель, это нарушило бы правила, запрещающие дискриминацию. Это начинает отклонять стрелку от точности к интерпретируемости.

Упростите, затем добавьте интерпретируемость

Требуемая интерпретируемость сильно зависит от потребителя результатов модели. Если результат модели — это просто оценка, которую нужно передать автоматизированному процессу, то может потребоваться очень немногое. Когда человек (например, врач, медсестра) является конечным пользователем результата модели, и этот результат требует действия, следует добавить больше интерпретируемости, чтобы помочь понять, почему необходимо предпринять действие. Кроме того, в регулируемых средах всегда должна быть возможность объяснить, какие факторы были важны при расчете данной оценки модели, независимо от конечного пользователя. Поскольку точность модели часто имеет первостепенное значение в жестко регулируемых средах, от чего нужно отказаться, чтобы достичь такого уровня интерпретируемости?

Удивительная параллель противоречия между интерпретируемостью и точностью существует в строго регулируемом мире автоспорта. Основная цель автоспорта проста: быть самым быстрым на трассе. Скорость требует производительности, и эта производительность может быть достигнута за счет другого компромисса: мощности и веса. Автомобиль можно сделать быстрее, установив на него более мощный двигатель. Точно так же его можно сделать быстрее, сделав его легче. Эти две вещи, как правило, противоречат друг другу. Более мощные двигатели обычно больше и тяжелее, что влияет на производительность на поворотах. Уменьшение веса улучшает производительность везде на трассе, но часто воспринимается негативно, потому что труднее достичь необходимого компромисса (т. Е. Что нужно исключить?).

Тем не менее, акцент на снижение веса не обязательно должен быть ориентирован на потери. Колин Чепмен, основатель

Компания Lotus Motorsports придумала гениальную инверсию проблемы: «Упростите, затем добавьте легкости». Хотя это может показаться странным, эта концепция «добавления легкости» полностью переосмысливает внутреннее напряжение. Теперь речь идет не столько о компромиссах («что мы упускаем из виду?»), сколько об инновациях и творчестве («как мы можем это сделать?»).

Аналогичным образом можно переосмыслить интерпретируемость модели. Вместо того, чтобы сосредотачиваться на потере точности во имя интерпретируемости, необходимой в регулируемых или дорогостоящих средах, что, если вместо этого аналитические модели были построены с упором на добавление интерпретируемости там, где это необходимо? Доступны методы [3], такие как суррогатные модели, небольшие ансамбли, переменные меры важности или перестановочные тесты, которые могут улучшить интерпретируемость более сложных алгоритмов. Добавляя интерпретируемость, эти более точные и продвинутые алгоритмы (при необходимости) можно использовать для повышения производительности модели при принятии важных решений. Использование дополнительной парадигмы интерпретируемости также избавляет от соблазна выбирать модели, основанные только на интерпретируемости. Вместо этого модели можно создавать и оценивать, как обычно, с добавлением интерпретируемости по мере необходимости для объяснения (а не подтверждения) окончательного выбора.

Имейте в виду, что акцент на интерпретируемость необходим только тогда, когда абсолютно необходима повышенная производительность более сложного алгоритма. Это требование сильно зависит от реальной стоимости ошибки при использовании более простого алгоритма. Иногда не очень [4,5]. Если более простой алгоритм дает достаточно точные результаты с удовлетворительной интерпретируемостью, то работа выполнена. В общем, начните с простого, а затем усложняйте и добавляйте интерпретируемость по мере необходимости.

Резюме

Преобразование компромисса между интерпретируемостью и точностью прогностической модели в компромисс, в котором интерпретируемость добавляется к моделям, снижает напряженность в отношении того, чем жертвуют, и больше в отношении применения инноваций и творчества для достижения часто противоречащих друг другу целей. достижения высокой производительности и понимания в строго регулируемых средах. Добавление интерпретируемости, когда это необходимо, освобождает исследователя данных для применения всего арсенала алгоритмов машинного обучения, находящихся в его или ее распоряжении, и объяснения оценки постфактум. Это также устраняет искушение выбирать модели на основе интерпретируемости. Наоборот, модели могут подтвердить свою эффективность, а не субъективную человеческую интерпретацию. Даже если споры вокруг интерпретируемости и точности никогда не разрешатся навсегда, по крайней мере, в этих длинных обсуждениях на доске есть о чем поговорить.

Запросить консультацию, чтобы поговорить с опытным консультантом по анализу данных и обсудить, как Elder Research может превратить ваши данные в полезную информацию.

[1] К. Грейвс, Почему развенчание мифов о вакцинах не убедило сомневающихся родителей, Harvard Business Review (онлайн), 20 февраля 2015 г.

[2] Дж. Фингас, «Искусственный интеллект Watson от IBM спас женщину от лейкемии,» Engadget, 7 августа 2016 г.

[3] П. Холл, Прогнозное моделирование: поиск баланса между интерпретируемостью и точностью, O’Reilly: On Our Radar Blog, 11 февраля 2016 г.

[4] У. Йоханссон и др., Компромисс между интерпретируемостью и точностью для прогнозного моделирования in silico, Future Medicinal Chemistry, апрель 2011 г., Vol. 3(6), с. 647–663 Доступ через PubMed, 3 апреля 2011 г.

[5] Н. Филлипс, Принятие быстрых и правильных решений с помощью пакета FFTrees R, nathanieldphillips.com, 17 августа 2016 г.

Первоначально опубликовано на www.elderresearch.com.