Публикации по теме 'explainable-ai'


SHAP Happens: раскрытие секретов интерпретируемости моделей
1. Введение: магия модели декодирования Представьте, что вы играете в видеоигру с тремя другими друзьями. Каждый из вас обладает уникальным набором навыков и по-своему вносит свой вклад в успех команды. После победы в матче ваша команда получает приз в размере 100 очков. Вопрос в том, как вы справедливо распределяете эти очки между вами четырьмя в зависимости от вклада каждого игрока? Значения SHAP помогают решить эту проблему в контексте моделей машинного обучения. Они измеряют,..

Визуальное объяснение НЛП @ Lifen
Сегодня в Lifen наши модели машинного обучения (в основном НЛП) ежедневно предоставляют нашим пользователям более 1 миллиона прогнозов. Этот том неизбежно генерирует запросы в службу поддержки, когда наш ИИ ошибается или делает нелогичное предсказание. Нашей целью было разработать инструмент, который: упростить процесс поддержки, сделав наши понятные инструменты искусственного интеллекта легко доступными для авторизованных пользователей прост в обслуживании и всегда актуален благодаря..

Искусство Sprezzatura для машинного обучения
Интерпретируемость модели Искусство Sprezzatura для машинного обучения Обзор создания интерпретируемых моделей Спреццатура — это искусство придания естественности и блеска чему-либо. На картинке выше Каран заботится о том, чтобы круассан выглядел естественно. Точно так же требуется тяжелая работа, чтобы превратить модель машинного обучения в несколько правил. Вместо этого специалисты по данным создают сложные ансамбли из 107 моделей, чтобы получить рекомендательный контент..

Проблемы объяснения объяснимого ИИ
Объяснимый ИИ Проблемы объяснимого ИИ Искусственный интеллект (ИИ) повсюду, и его применение варьируется от медицинской диагностики до автономного вождения. По мере того, как использование ИИ и машинного обучения (МО) становится все более распространенным явлением в различных отраслях и функциях, междисциплинарные заинтересованные стороны ищут способы понять системы, которые они используют, чтобы доверять решениям, принимаемым такими системами. Это усилие иногда называют..

Объяснимый ИИ: понимание, внедрение и доверие к искусственному…
Искусственный интеллект (ИИ) становится все более распространенным в нашей повседневной жизни, от персонализированных рекомендаций на потоковых платформах до обнаружения мошеннических действий в финансах. Хотя ИИ может сделать нашу жизнь проще и эффективнее, существуют также обоснованные опасения по поводу прозрачности и надежности этих систем. Объяснимый ИИ, также известный как XAI, направлен на решение этих проблем, предоставляя понятные человеку объяснения прогнозов, решений и действий..

Переобучение и концептуальная обоснованность в моделях нейронных сетей
Как использование функций влияет на наше понимание переобучения в глубоких сетях Переобучение — это центральная проблема машинного обучения, которая тесно связана с надежностью изученной модели, когда она развертывается на невидимых данных. Переоснащение часто измеряется или даже определяется разницей в точности, полученной моделью на ее обучающих данных, по сравнению с ранее невидимыми проверочными данными. Хотя это полезная метрика, которая в целом отражает степень, в которой модель..

LIME: локальные интерпретируемые объяснения, не зависящие от модели (часть 4)
В предыдущих частях этой серии мы представили LIME (локальные интерпретируемые модельно-независимые объяснения) и обсудили стоящую за ним методологию, включая процесс создания интерпретируемых представлений с использованием субмодульных функций. В этой заключительной части серии мы рассмотрим, как LIME можно оценить с помощью людей. Важность оценки человека в XAI Человеческая оценка — важный шаг в понимании эффективности моделей машинного обучения и их объяснений. Оценивая объяснения с..