Публикации по теме 'what-if-analysis'


Объяснение деревьев с помощью FastTreeShap и инструмента «что если» (часть 1)
Для многих специалистов по машинному обучению типичный рабочий процесс выглядит следующим образом. На самом деле это лишь малая часть разработки надежного решения для машинного обучения. Просто получить хорошую оценку производительности никогда не бывает достаточно! Особенно в таких областях, как финансы или здравоохранение, важно объяснять прогнозы моделей машинного обучения. Допустим, вы разрабатываете глубокую нейронную сеть для обнаружения меланомы, которая является..

Объяснение деревьев с помощью FastTreeShap и инструмента «Что, если» (часть 2)
Читать часть 1 здесь ! Для объяснения моделей машинного обучения существует множество методов. Наиболее часто используются GradCam, SHAP, Lime, интегрированные градиенты и т. д. В этой статье мы сосредоточимся только на SHAP. кооперативной теории игр и используется для повышения прозрачности и интерпретируемости моделей машинного обучения. Значения SHAP представляют ответственность функции за изменение выходных данных модели. Мы можем понять, как отдельная функция влияет на..