Публикации по теме 'shap'


SHAP, часть 1: Введение в SHAP
Зачем нам нужна интерпретируемость модели? Прежде чем мы перейдем к части вопроса «почему», давайте разберемся, что имеется в виду под «интерпретируемостью». Хотя математического определения интерпретируемости нет, эвристическое определение, подобное приведенному здесь: « Интерпретируемость - это степень, в которой человек может понять причину решения³ », или здесь: « Интерпретируемость степень, в которой человек может последовательно предсказать результат модели⁴ »можно найти в..

Урок 48 — Машинное обучение: введение в интерпретируемость моделей (интуиция)
Важность интерпретируемости модели Модели машинного обучения, особенно сложные, такие как глубокое обучение, часто называют «черными ящиками», потому что может быть трудно понять, почему они делают определенные прогнозы. Однако во многих приложениях важно не только, чтобы модель делала точные прогнозы, но и чтобы мы понимали, почему она делает эти прогнозы. Это понимание известно как интерпретируемость модели. Это повышает доверие к модели, помогает в устранении неполадок и может..

Машинное обучение, иллюстрированное: открытие моделей черного ящика с помощью SHAP
Как интерпретировать и объяснить любую модель машинного обучения с помощью SHAP Ценность Шепли — это концепция, полученная из теории кооперативных игр в экономике, которая присваивает ценность каждому игроку в совместной игре на основе их вклада в игру. В области машинного обучения эта концепция была адаптирована в рамках SHAP (Shapley Additive ExPlanations), которая представляет собой эффективный метод интерпретации работы модели. Если вам интересно узнать больше о ценностях Шепли, я..

Ансамблевое обучение: тематическое исследование из базы данных переписи населения США 1994 г.
Прежде чем мы начнем понимать, что такое ансамблевое обучение и как оно работает, нам нужно знать набор данных, используемый в этом тематическом исследовании. Используемый набор данных является подмножеством базы данных переписи населения США за 1994 год , предоставленной Барри Беккером и доступной в Репозитории машинного обучения UCI . Задача прогнозирования этого репозитория - определить, человек зарабатывает более 50 тыс. В год , для этого предусмотрены следующие атрибуты и..

Распаковка моделей машинного обучения с помощью SHAP для лучшей интерпретации
В мире машинного обучения , с увеличением сложности модели возникает еще один извечный вопрос об интерпретации результатов и прогнозов модели. Простые модели легко интерпретировать, и поэтому их часто предпочитают, даже если они могут быть менее точными, чем сложные. Не было ни одного случая, когда наши клиенты не обращались к нам за обоснованием и интерпретацией результатов модели, что приводило к компромиссу между точностью и интерпретацией. Чтобы решить эту проблему, вводится SHAP..

Объяснимый ИИ (XAI) с SHAP - задача классификации нескольких классов
Практическое руководство по XAI-анализу с помощью SHAP для задачи мультиклассовой классификации Объясняемость модели становится основной частью конвейера машинного обучения. Сохранение модели машинного обучения в виде черного ящика больше не вариант. К счастью, существуют аналитические инструменты, такие как (Lime, ExplainerDashboard, Shapash, Dalex и другие), которые быстро развиваются и становятся все более популярными. В предыдущем посте мы объяснили, как использовать SHAP для..

Как избежать черного ящика машинного обучения с помощью SHAP
Как избежать черного ящика машинного обучения с помощью SHAP Я считаю, что все мы согласны с идеей о том, что машинное обучение значительно улучшило технические продукты и, как следствие, повысило благосостояние всех нас. Однако компании и исследователи, работающие над машинным обучением, сталкиваются с одной огромной проблемой: «алгоритмами черного ящика» . Алгоритмы черного ящика можно в общих чертах определить как алгоритмы, выходные данные которых трудно интерпретировать или..