Публикации по теме 'explainability'
Что Объясняемый ИИ не может объяснить (и как это исправить)
Нейронные сети точны, но не поддаются интерпретации. Деревья решений интерпретируемы, но неточны с точки зрения компьютерного зрения. У нас есть решение.
Не бери это у меня. Возьмите это у сотрудника IEEE Cuntai Guan, который признает, что многие машинные решения все еще плохо изучены . Большинство работ даже предлагают жесткую дихотомию между точностью и интерпретируемостью .
Объяснимый ИИ (XAI) пытается преодолеть этот разрыв, но, как мы объясним ниже, XAI оправдывает..
Точность модели машинного обучения против объяснимости/интерпретируемости.
Модели машинного обучения стали неотъемлемой частью многих отраслей, включая здравоохранение, финансы и транспорт. Эти модели предназначены для прогнозирования результатов на основе исторических данных, и их успех часто измеряется с точки зрения их точности. Однако точность — не единственная метрика, которая имеет значение, когда речь идет о моделях машинного обучения. Объяснимость и интерпретируемость также являются критическими факторами, которые могут повлиять на успех и принятие..
Проблемы объяснения объяснимого ИИ
Объяснимый ИИ
Проблемы объяснимого ИИ
Искусственный интеллект (ИИ) повсюду, и его применение варьируется от медицинской диагностики до автономного вождения. По мере того, как использование ИИ и машинного обучения (МО) становится все более распространенным явлением в различных отраслях и функциях, междисциплинарные заинтересованные стороны ищут способы понять системы, которые они используют, чтобы доверять решениям, принимаемым такими системами. Это усилие иногда называют..
LIME: локальные интерпретируемые объяснения, не зависящие от модели (часть 4)
В предыдущих частях этой серии мы представили LIME (локальные интерпретируемые модельно-независимые объяснения) и обсудили стоящую за ним методологию, включая процесс создания интерпретируемых представлений с использованием субмодульных функций. В этой заключительной части серии мы рассмотрим, как LIME можно оценить с помощью людей.
Важность оценки человека в XAI
Человеческая оценка — важный шаг в понимании эффективности моделей машинного обучения и их объяснений. Оценивая объяснения с..
ОБЪЯСНЕНИЕ МОДЕЛЕЙ МАШИННОГО ОБУЧЕНИЯ ЧЕРЕЗ SHAP
Модели машинного обучения обычно рассматриваются как черные ящики в том смысле, что они могут делать хорошие прогнозы, но не обосновывают их логику.
Но постоянно делать только прогнозы недостаточно. Инженеры по машинному обучению также должны быть в состоянии объяснить, почему прогноз плохой или хороший на основе подобранных функций. Это понимание и объяснимость позволяют получить действенную информацию для лучшего принятия решений и повышения общей производительности. Для этого..
Корреляция - это не причинная связь
Корреляция - это не причинная связь
Почему смешение этих понятий имеет серьезные последствия - от здравоохранения до управления бизнесом
Вступление
В коррелированных данных пара переменных связаны между собой: одна вещь может измениться, когда изменится другая. Эти отношения могут привести нас к предположению, что изменение одной вещи вызывает изменение другой. В этой статье проясняется этот вид ошибочного мышления, объясняя корреляцию, причинно-следственную связь и предвзятость,..
Методы XAI — Интегрированные градиенты
ПОНИМАНИЕ МЕТОДОВ XAI
Методы XAI — интегрированные градиенты
Погрузитесь в метод интегрированных градиентов. Как рассчитываются значения? Каковы различные базовые уровни?
Что такое метод интегрированных градиентов?
Интегрированные градиенты ( IG ) [1] — это метод, предложенный Sundararajan et al. который основан на двух аксиомах: Чувствительность и Инвариантность реализации . Авторы утверждают, что этим двум аксиомам должны удовлетворять все методы атрибуции. Определение..