МОДЕЛЬНАЯ ИНТЕРПРЕТируемость

Как измерить интерпретируемость?

Сегодня почти каждый сознательно или бессознательно использует алгоритмы искусственного интеллекта. И все больше и больше людей начинают сомневаться в том, как они работают. В сентябре 2020 года Твиттер извинился за« расистский алгоритм обрезки изображений». Эта аномалия кадрирования изображения была обнаружена Колином Мэдландом, кандидатом наук, который хотел опубликовать в Твиттере аналогичную аномалию из программного обеспечения Zoom. Конечно, это второстепенная проблема, но предложение типа Алгоритм сказал повернуть налево по какой-то причине, но мы не знаем, в чем причина не может быть ответом после самоубийства. автомобильная авария. Тогда возникает вопрос об интерпретируемости.

Если вы работаете в области науки о данных, машинного обучения или искусственного интеллекта, вы, вероятно, слышали об интерпретируемости (если нет, я рекомендую прочитать книгу [5]). Я не являюсь исключением из правил, и передо мной стояла задача разработать интерпретируемый алгоритм прогнозирования для управления финансовыми активами. Итак, я начал небольшое исследование. После нескольких чтений я нашел несколько алгоритмов, представленных как интерпретируемые, но я также понял, что все согласны с тем, что еще нет определения интерпретируемости и что это понятие трудно определить. Итак, без каких-либо количественных измерений, как быть уверенным, что один алгоритм более интерпретируемый, чем другой? Чтобы ответить на этот вопрос, я решил создать меру интерпретируемости на основе триптиха предсказуемости, стабильности и простоты, как предложено в [6 ] .

Вступление

Обычно можно выделить два основных способа создания интерпретируемых прогностических моделей.

Первый основан на использовании так называемой интерпретируемой апостериорной модели. В этом случае один использует неинтерпретируемый алгоритм машинного обучения для создания прогнозных моделей, а затем пытается интерпретировать сгенерированную модель.

Другой способ - использовать внутренне интерпретируемый алгоритм для непосредственного создания интерпретируемой модели. Обычно, когда кто-то хочет разработать внутренне интерпретируемый алгоритм, он основывается на правилах. Правило - это утверждение «Если… Тогда…», легко понятное человеку. Существует два семейства внутренне интерпретируемых алгоритмов: древовидные алгоритмы, генерирующие деревья, и основанные на правилах алгоритмы, генерирующие наборы правил. Но любое дерево можно представить в виде набора правил.

В этой статье я сосредоточусь на интерпретируемости алгоритмов, основанных на правилах. Я описываю, как оценивать предсказуемость, стабильность и простоту набора алгоритмов, а затем как их комбинировать для получения меры интерпретируемости и определения наиболее интерпретируемых.

Как оценить предсказуемость?

Прогнозируемость - это положительное число от 0 до 1, которое оценивает точность прогнозной модели. Точность гарантирует надежность созданной модели. Мера точности - это хорошо изученное понятие в машинном обучении.

Функцию точности следует выбирать в соответствии с типом настроек. Например, для задачи регрессии используется среднеквадратическая ошибка, а для настройки двоичной классификации - функция ошибок 0–1. Использование члена ошибки в функции предсказуемости порождает два ограничения: а) этот член должен быть нормализован, чтобы он не зависел от диапазона прогнозируемой переменной, и б) он должен принимать значения от 0 до 1, где 1 является наивысшим уровнем. точности.

Как оценить стабильность?

Стабильность количественно определяет шумовую чувствительность алгоритма. Это позволяет оценить робастность алгоритма. Чтобы измерить стабильность древовидного алгоритма или алгоритма, основанного на правилах, в [1] Бенар и др. утверждать, что

«Алгоритм обучения правил является стабильным, если две независимые оценки, основанные на двух независимых выборках, приводят к двум аналогичным спискам правил».

К сожалению, для непрерывных переменных существует нулевая вероятность того, что разрез дерева покажет точно такое же значение для данного правила, оцененное на двух независимых выборках. По этой причине чистая стабильность в данном случае кажется слишком неприятной.

Чтобы избежать этой предвзятости, я перевожу правила в дискретную версию пространства функций. Я дискретизирую каждую функцию по q ячейкам, рассматривая диапазоны q-квантилей. Затем для каждого правила границы условий заменяются соответствующими ячейками. Обычно q = 10 - хороший выбор.

Наконец, используя так называемый коэффициент Соренсена – Дайса для двух наборов правил, сгенерированных одними и теми же алгоритмами на двух независимых выборках, я получаю значение стабильности, где 1 означает, что два набора правил идентичны.

Как оценить простоту?

Простота может быть сконструирована как способность легко проверять прогноз. Простая модель гарантирует, что легко проверить некоторые качественные критерии, такие как этика и мораль. Чтобы измерить простоту модели, созданной с помощью древовидного алгоритма или алгоритма, основанного на правилах, я использую индекс интерпретируемости, определенный в [2]. Индекс интерпретируемости определяется как сумма длин правил сгенерированной модели. Его не следует путать с интерпретируемостью, которую я определяю в этой статье.

Чтобы иметь меру от 0 до 1, я оцениваю простоту алгоритма среди набора алгоритмов, и я определяю ее простоту как отношение между минимумом индексов интерпретируемости рассматриваемых алгоритмов, деленным на индекс интерпретируемости этого алгоритма. Таким образом, лучше иметь небольшой набор правил с небольшой длиной, чем наоборот.

Как оценить интерпретируемость?

Наконец, рассматривая набор древовидных алгоритмов и алгоритмов, основанных на правилах, я могу указать на наиболее интерпретируемый из них, используя выпуклую комбинацию предсказуемости, стабильности и простоты. Коэффициенты комбинации могут быть выбраны в соответствии с вашими желаниями. Например, если вы пытаетесь описать явление, простота и стабильность более важны, чем предсказуемость (при условии, что она остается приемлемой).

В [2] авторы определяют интерпретируемость следующим образом:

«В контексте систем машинного обучения мы определяем интерпретируемость как способность объяснять или представлять в понятных терминах человеку».

Я утверждаю, что алгоритм с высокой предсказуемостью, стабильностью и простотой интерпретируем в смысле предыдущего определения. Действительно, высокая предсказуемость гарантирует доверие, высокий показатель стабильности гарантирует надежность, а высокая простота гарантирует, что сгенерированная модель может быть легко понятна людям, поскольку она основана на ограниченном количестве правил небольшой длины.

Выводы

В этой статье я представляю количественный критерий для сравнения интерпретируемости древовидных алгоритмов и алгоритмов, основанных на правилах. Эта мера основана на предсказуемости, стабильности и простоте триптиха. Эта концепция интерпретируемости считается справедливой и строгой. Его можно адаптировать к различным пожеланиям статистика, выбрав соответствующие коэффициенты в выпуклой комбинации.

Описанная методология обеспечивает точную оценку интерпретируемости набора алгоритмов. Фактически, это позволяет объединить основные цели интерпретируемости. Алгоритм, который должен быть точным, стабильным или простым, должен сохранять это свойство независимо от набора данных.

Однако, согласно определению простоты, 100 правил длины 1 имеют такую ​​же простоту, что и одно-единственное правило длины 100, что является спорным вопросом. Более того, мера устойчивости носит чисто синтаксический характер и довольно ограничительна. В самом деле, если некоторые функции дублируются, два правила могут иметь два разных синтаксических условия, но не во всех остальных отношениях идентичными в зависимости от их активации. Один из способов ослабить этот критерий стабильности может заключаться в сравнении правил на основе их наборов активации (т. Е. Путем просмотра наблюдений, в которых условия выполняются одновременно).

Если вам нужна более точная оценка этой меры интерпретируемости, я отсылаю вас к чтению рабочего документа [4].

Спасибо Ygor Rebouças Serpa за его замечания и комментарии.

R рекомендации

[1] К. Бенар, Дж. Биау, С.да Вейга и Э. Скорнет, СИРУС: стабильный и интерпретируемый набор правил (2020), ArXiv

[2] Ф. Доши-Велес и Б. Ким, На пути к строгой науке интерпретируемого машинного обучения (2017), ArXiv

[3] В. Марго, Дж. П. Бодри, Ф. Гийу и О. Винтенбергер, Согласованная регрессия с использованием зависящих от данных покрытий (2020), ArXiv

[4] В. Марго и Г. Лута, Строгий метод сравнения интерпретируемости (2020), ArXiv

[5] К.Мольнар, Интерпретируемое машинное обучение (2020), Lulu.com

[6] Б.Ю и К. Кумбиер, Veridical data science (2020), Proceedings of the National Academy of Sciences.

О нас

Advestis - компания, занимающаяся разработкой инвестиционных технологий, с глубоким пониманием и практикой интерпретируемого искусственного интеллекта и методов машинного обучения.
LinkedIn: https: // www. linkedin.com/company/advestis/