Недавно мои коллеги (Патрик Холл, Вен Фан и Шри) из H2O.ai написали замечательную статью Идеи по интерпретации машинного обучения, в которой подробно рассказывается о том, что лучше всего доступно и что может сделать, чтобы улучшить понимание моделей и их прогнозов.

Оригинальная статья: https://www.oreilly.com/ideas/ideas-on-interpreting-machine-learning

Я изучаю их очень длинную статью и, изучая ее, делаю свои заметки, и эти заметки здесь в качестве синопсиса, чтобы читатели могли понять суть их статьи и сделать краткий обзор. Это 1-я часть статьи, а для 2-й части посетите здесь.

В чем главный вопрос:

  • Понимаю ли я модель и ответы, которые дает мне алгоритм машинного обучения? И доверяю ли я этим ответам?

И в чем главная проблема:

  • Результаты, модели -› трудно понять и, возможно, даже трудно доверять
  • Взаимосвязь переменных и модели/результатов/прогнозов объяснить сложнее.

Наконец, что является важным поиском, который каждый ищет:

  • Интерпретируемость модели является серьезным юридическим требованием в регулируемых вертикалях банковского дела, страхования, здравоохранения, обнаружения мошенничества и других отраслей.
  • Бизнес-аналитики, врачи и отраслевые исследователи просто обязаны понимать свои модели и результаты моделирования и доверять им.

Начнем со сложности функции отклика.

  • Линейные монотонные функции. Простая или сложная линейная зависимость между независимыми переменными для определения результата. Например, если кредитор отклоняет вашу заявку на кредитную карту, он может сказать вам, почему, потому что их модель вероятности дефолта часто предполагает, что ваш кредитный рейтинг, остатки на вашем счете и длина вашей кредитной истории монотонно связаны с вашими способностями. для оплаты счета кредитной карты.
  • Нелинейные монотонные функции. Большинство функций отклика машинного обучения являются нелинейными, однако монотонными по отношению к данной независимой переменной. Нелинейные и монотонные функции всегда изменяются в одном направлении при изменении одной входной переменной, поэтому имейте возможность понять
  • Нелинейные немонотонные функции: очень трудно интерпретировать, потому что изменяется в положительном и отрицательном направлениях. Вы можете рассматривать эти модели как чрезвычайно сложные модели

Объем интерпретируемости

  • Глобальная интерпретируемость: это помогает нам понять все условное распределение, смоделированное обученной функцией отклика, однако может быть приблизительным или основанным на средних значениях.
  • Локальная интерпретируемость: это способствует пониманию небольших областей условного распределения, в основном линейного, монотонного, с хорошим поведением, поэтому локальное объяснение может быть более точным, чем глобальное.

Понимание и доверие:

  • Знайте свои алгоритмы, как они работают, их ограничения и интерпретацию данных,
  • Понимание процесса с помощью представления, не зависящего от модели, и представления, зависящего от модели.

Часть 1. Просмотр ваших данных

Часть 2: Использование машинного обучения в регулируемой отрасли

  • Новые типы линейных моделей или моделей, использующие машинное обучение для расширения традиционных методов линейного моделирования, создавая линейные монотонные функции отклика (или, по крайней мере, монотонные) с интерпретируемыми в глобальном масштабе результатами с повышением точности прогнозирования. Общие типы:
  • Альтернативы регрессии методом наименьших квадратов (OLS):
  • Штрафованная регрессия, обобщенные аддитивные модели (GAM), квантильная регрессия
  • Что может сделать регрессия этих альтернатив:
  • Часто создают глобально интерпретируемые линейные монотонные функции, которые можно интерпретировать с использованием значений коэффициентов или других традиционных показателей регрессии и статистики.
  • Обычно линейные монотонные функции. Однако подходы GAM могут создавать довольно сложные нелинейные функции
  • Эти методы являются надежными линейными моделями, и доверие может быть повышено, если эти методы приведут к более точным результатам для вашего приложения.
  • С осторожностью, тестированием и сдержанностью переход к эталонным показателям машинного обучения может сохранить линейность и монотонность традиционных линейных моделей.
  • Однако добавление множества взаимодействий или кусочных компонентов приведет к чрезвычайно сложным функциям отклика.
  • Как можно дополнить процесс аналитики машинным обучением:
  • Внедрение сложных предикторов в традиционные линейные модели
  • Используйте несколько моделей гильз
  • Прогнозирование деградации линейной модели
  • Небольшие интерпретируемые ансамбли:
  • Обеспечивает повышенную точность, но может снизить общую глобальную интерпретируемость, результирующую ансамблевую модель может быть трудно интерпретировать, может создать сложную функцию отклика
  • Повысьте точность традиционных надежных моделей, не жертвуя при этом интерпретируемостью. Повышенная точность указывает на то, что соответствующие явления в данных были смоделированы более надежным и надежным способом.
  • Ограничения монотонности:
  • Создает глобально интерпретируемые нелинейные и монотонные функции отклика
  • Может преобразовывать сложные для интерпретации нелинейные немонотонные модели в хорошо интерпретируемые и, возможно, одобренные регулирующими органами нелинейные монотонные модели. Импорт по двум причинам: [1] Ожидается регулирующими органами [2] Обеспечивает согласованное создание кода причины , который считается золотым стандартом интерпретируемости моделей
  • Доверие повышается, когда монотонные отношения, коды причин и обнаруженные взаимодействия не отличаются знанием предметной области или разумными ожиданиями

Перейдите к части 2, где мы увидим, как понимать эти сложные модели машинного обучения…..

URL-адрес части 2: https://medium.com/@avkash_6547/synopsis-of-model-interpretability-part-2-understanding-complex-ml-models-a1bc6f802269