Публикации по теме 'explainability'


Что Объясняемый ИИ не может объяснить (и как это исправить)
Нейронные сети точны, но не поддаются интерпретации. Деревья решений интерпретируемы, но неточны с точки зрения компьютерного зрения. У нас есть решение. Не бери это у меня. Возьмите это у сотрудника IEEE Cuntai Guan, который признает, что многие машинные решения все еще плохо изучены . Большинство работ даже предлагают жесткую дихотомию между точностью и интерпретируемостью . Объяснимый ИИ (XAI) пытается преодолеть этот разрыв, но, как мы объясним ниже, XAI оправдывает..

Точность модели машинного обучения против объяснимости/интерпретируемости.
Модели машинного обучения стали неотъемлемой частью многих отраслей, включая здравоохранение, финансы и транспорт. Эти модели предназначены для прогнозирования результатов на основе исторических данных, и их успех часто измеряется с точки зрения их точности. Однако точность — не единственная метрика, которая имеет значение, когда речь идет о моделях машинного обучения. Объяснимость и интерпретируемость также являются критическими факторами, которые могут повлиять на успех и принятие..

Проблемы объяснения объяснимого ИИ
Объяснимый ИИ Проблемы объяснимого ИИ Искусственный интеллект (ИИ) повсюду, и его применение варьируется от медицинской диагностики до автономного вождения. По мере того, как использование ИИ и машинного обучения (МО) становится все более распространенным явлением в различных отраслях и функциях, междисциплинарные заинтересованные стороны ищут способы понять системы, которые они используют, чтобы доверять решениям, принимаемым такими системами. Это усилие иногда называют..

LIME: локальные интерпретируемые объяснения, не зависящие от модели (часть 4)
В предыдущих частях этой серии мы представили LIME (локальные интерпретируемые модельно-независимые объяснения) и обсудили стоящую за ним методологию, включая процесс создания интерпретируемых представлений с использованием субмодульных функций. В этой заключительной части серии мы рассмотрим, как LIME можно оценить с помощью людей. Важность оценки человека в XAI Человеческая оценка — важный шаг в понимании эффективности моделей машинного обучения и их объяснений. Оценивая объяснения с..

ОБЪЯСНЕНИЕ МОДЕЛЕЙ МАШИННОГО ОБУЧЕНИЯ ЧЕРЕЗ SHAP
Модели машинного обучения обычно рассматриваются как черные ящики в том смысле, что они могут делать хорошие прогнозы, но не обосновывают их логику. Но постоянно делать только прогнозы недостаточно. Инженеры по машинному обучению также должны быть в состоянии объяснить, почему прогноз плохой или хороший на основе подобранных функций. Это понимание и объяснимость позволяют получить действенную информацию для лучшего принятия решений и повышения общей производительности. Для этого..

Корреляция - это не причинная связь
Корреляция - это не причинная связь Почему смешение этих понятий имеет серьезные последствия - от здравоохранения до управления бизнесом Вступление В коррелированных данных пара переменных связаны между собой: одна вещь может измениться, когда изменится другая. Эти отношения могут привести нас к предположению, что изменение одной вещи вызывает изменение другой. В этой статье проясняется этот вид ошибочного мышления, объясняя корреляцию, причинно-следственную связь и предвзятость,..

Методы XAI — Интегрированные градиенты
ПОНИМАНИЕ МЕТОДОВ XAI Методы XAI — интегрированные градиенты Погрузитесь в метод интегрированных градиентов. Как рассчитываются значения? Каковы различные базовые уровни? Что такое метод интегрированных градиентов? Интегрированные градиенты ( IG ) [1] — это метод, предложенный Sundararajan et al. который основан на двух аксиомах: Чувствительность и Инвариантность реализации . Авторы утверждают, что этим двум аксиомам должны удовлетворять все методы атрибуции. Определение..