Публикации по теме 'model-interpretability'


Разгадка черного ящика: повышение интерпретируемости модели в сложном машинном обучении
Введение . Модели машинного обучения произвели революцию в различных отраслях, позволив делать точные прогнозы и принимать решения. Однако по мере того, как эти модели становятся все более сложными, понимание и интерпретация их решений и прогнозов становится сложной задачей. Исследователи и практики признают важность интерпретируемости модели для получения информации, укрепления доверия и соблюдения нормативных или этических требований. В этой статье мы углубимся в область..

Методы XAI — Заметность
ПОНИМАНИЕ МЕТОДОВ XAI Методы XAI — заметность Знакомство с одним из первых методов атрибуции XAI Что такое Saliency и почему это сбивает с толку? Saliency [1] — один из первых методов атрибуции, предназначенный для визуализации входной атрибуции сверточной сети. Поскольку слово saliency часто связано со всем подходом к отображению входной атрибуции, который называется Saliency Map , этот метод также известен как Vanilla Gradient . Идея метода Saliency начинается с..

UCI Adult Income — Очистка данных, выбор признаков, моделирование и интерпретация
1. Набор данных: Набор данных содержит 32 561 запись с 15 столбцами, представляющими различные атрибуты людей. Вот список — Возраст: Дискретный (от 17 до 90) Рабочий класс (частный, федеральный и т. д.): Номинальный (9 категорий) Окончательный вес (количество людей, которое, по мнению переписи, представляет запись): Дискретный Образование (высший уровень полученного образования): Порядковое (16 разрядов) Education Number (количество лет обучения): Дискретный (от 1 до 16)..

SHAP, часть 1: Введение в SHAP
Зачем нам нужна интерпретируемость модели? Прежде чем мы перейдем к части вопроса «почему», давайте разберемся, что имеется в виду под «интерпретируемостью». Хотя математического определения интерпретируемости нет, эвристическое определение, подобное приведенному здесь: « Интерпретируемость - это степень, в которой человек может понять причину решения³ », или здесь: « Интерпретируемость степень, в которой человек может последовательно предсказать результат модели⁴ »можно найти в..

Урок 48 — Машинное обучение: введение в интерпретируемость моделей (интуиция)
Важность интерпретируемости модели Модели машинного обучения, особенно сложные, такие как глубокое обучение, часто называют «черными ящиками», потому что может быть трудно понять, почему они делают определенные прогнозы. Однако во многих приложениях важно не только, чтобы модель делала точные прогнозы, но и чтобы мы понимали, почему она делает эти прогнозы. Это понимание известно как интерпретируемость модели. Это повышает доверие к модели, помогает в устранении неполадок и может..

XAI — Объяснение одиночных прогнозов с помощью локального компонента представления объяснения
ТЕОРИЯ НАУКИ О ДАННЫХ | ОБЪЯСНИМОСТЬ МОДЕЛИ | KNIME АНАЛИТИЧЕСКАЯ ПЛАТФОРМА XAI — Объясните одиночные прогнозы с помощью локального компонента представления объяснения Объясните, как важный прогноз был рассчитан вашей моделью черного ящика. Соавторы: Паоло Таманьини и Кори Вайзингер Представьте себе: ваша модель машинного обучения обучается и развертывается через REST API. Он делает прогнозы в рекордно короткие сроки, и все, кто участвует в его применении, благодарны за..

Думайте за пределами «черного» ящика
Как модели из стеклянных боксов могут обеспечить X-AI без ущерба для результатов Введение Искусственный интеллект играет большую роль в нашей повседневной жизни. ИИ используется повсюду, от наших поисковых запросов в Google до беспилотных автомобилей, таких как Tesla. С использованием глубокого обучения модели, используемые в этих приложениях, стали еще более сложными. На самом деле они настолько сложны, что во многих случаях мы понятия не имеем, как эти модели ИИ принимают свои..