Публикации по теме 'model-interpretability'


Использование интерпретации модели с помощью SHAP для понимания того, что произошло на Титанике
Примечание . Это вторая часть из двух частей, посвященных анализу и пониманию набора данных Titanic. Часть 1 Вы найдете здесь . Вступление В прошлом посте я провел статистический анализ набора данных Титаника, чтобы ответить на вопрос, влияет ли социально-экономический класс пассажиров на их вероятность выживания. Тест статистической значимости показал, что переменная Pclass , которая представляет собой класс каждого человека, который я использовал в качестве показателя..

Интерпретируемость машинного обучения: раскрытие черного ящика
Введение: Модели машинного обучения произвели революцию в различных отраслях, позволив нам делать прогнозы, получать информацию и автоматизировать сложные задачи. Однако одной из основных проблем со многими алгоритмами машинного обучения является присущее им отсутствие интерпретируемости. Такие модели, как глубокие нейронные сети, часто называют «черными ящиками», потому что понимание их процесса принятия решений может быть неуловимым. Это отсутствие интерпретируемости вызывает..

Методы XAI - Введение
Понимание методов XAI Методы XAI - Введение Что такое методы XAI? Интерпретируемость против объяснимости. Таксономия интерпретируемости модели. Какие существуют методы атрибуции? Объяснимый искусственный интеллект Объяснимый искусственный интеллект (XAI) - одна из самых молодых и быстро развивающихся отраслей в этой области. Цель метода XAI - дать объяснение модели глубокого обучения, понятной людям. Это особенно важно в областях, критичных к безопасности, таких как..

Забудьте о глубоком обучении: почему простые модели до сих пор правят миром науки о данных
Раскрытие непреходящей силы простых моделей в эпоху развитого ИИ "Все должно быть сделано как можно проще, но не проще". Очарование простоты В эпоху глубокого обучения и искусственного интеллекта легко увлечься шумихой вокруг сложных моделей и их, казалось бы, волшебных способностей. Однако иногда в…

Искусство Sprezzatura для машинного обучения
Интерпретируемость модели Искусство Sprezzatura для машинного обучения Обзор создания интерпретируемых моделей Спреццатура — это искусство придания естественности и блеска чему-либо. На картинке выше Каран заботится о том, чтобы круассан выглядел естественно. Точно так же требуется тяжелая работа, чтобы превратить модель машинного обучения в несколько правил. Вместо этого специалисты по данным создают сложные ансамбли из 107 моделей, чтобы получить рекомендательный контент..

Интерпретируемость модели машинного обучения с помощью Python.
Подробное практическое руководство Вступление: Потенциал машинного обучения для улучшения любого бизнеса больше не является секретом. Однако модели, которые мы строим, в большинстве случаев не объясняют, почему они сделали определенные прогнозы для данной выборки, что для некоторых предприятий является препятствием для принятия стратегии, основанной на искусственном интеллекте. В моей предыдущей статье мы обсудили 15 вещей, которые вы должны знать перед построением модели в..

Интерпретируемость модели ML - LIME
Введение В своей предыдущей статье я описал, почему существует большая потребность в понимании моделей машинного обучения и каковы некоторые из методов. Я также подробно объяснил ELI5 , как его можно использовать для более глубокого понимания модели. В этой статье я подробно расскажу о другой технике - ЛАЙМ . LIME (местные интерпретируемые независимые от модели объяснения) LIME был предложен как часть статьи «Почему я должен вам доверять?»: Объяснение прогнозов любого..