Публикации по теме 'interpretability'


Что Объясняемый ИИ не может объяснить (и как это исправить)
Нейронные сети точны, но не поддаются интерпретации. Деревья решений интерпретируемы, но неточны с точки зрения компьютерного зрения. У нас есть решение. Не бери это у меня. Возьмите это у сотрудника IEEE Cuntai Guan, который признает, что многие машинные решения все еще плохо изучены . Большинство работ даже предлагают жесткую дихотомию между точностью и интерпретируемостью . Объяснимый ИИ (XAI) пытается преодолеть этот разрыв, но, как мы объясним ниже, XAI оправдывает..

Аддитивные методы атрибуции функций — Погружение в объяснимость машинного обучения
Адаптивность моделей ИИ и машинного обучения экспоненциально выросла за последнее десятилетие или около того, что привело к принятию некоторых важных решений в различных областях отрасли. Несмотря на то, что модели машинного обучения решают широкий круг проблем, бизнес по-прежнему испытывает определенные трудности, когда дело доходит до доверия результатам моделей машинного обучения/глубокого обучения при принятии различных решений. Это привело к тому, что специалисты по данным..

Резюме: Анализ сети: количественная оценка интерпретации глубоких визуальных представлений (CVPR…
Рассечение сети: количественная оценка интерпретируемости глубинных визуальных представлений Мы предлагаем общую структуру под названием «Рассечение сети для количественной оценки интерпретируемости скрытых представлений… arxiv.org» Авторы: Дэвид Бау, Болей Чжоу, Адитья Хосла, Од Олива, Антонио Торральба Вклад в эту статью двоякий: во-первых, это разработка набора данных BRODEN (широкая и плотная маркировка) и механизма для..

Полное руководство по интерпретации машинного обучения.
В машинном обучении были достигнуты успехи, распространяющиеся от классического машинного обучения, классификации изображений и т. д. до таких популярных в настоящее время областей, как текстовая аналитика, понимание естественного языка (NLU) и обработка естественного языка (NLP). Даже после стольких разработок и исследований машинное обучение по-прежнему рассматривается как черный ящик, где меньше всего известно о том, почему обученная модель ведет себя именно так, а не иначе. На..

Ответственный AI: интерпретация текста с классическим объяснителем текста
Чтобы следовать руководству, установите Anaconda с Python 3.7 и откройте Anaconda Prompt. Это можно сделать на локальном компьютере или на виртуальной машине. Получите репозиторий, чтобы начать работу, и перейдите в созданную папку. git clone https://github.com/interpretml/interpret-text.git cd interpret-text Следующим шагом является подготовка среды для включения всех необходимых пакетов. For CPU: python tools/generate_conda_files.py conda env create -n interpret_cpu..

Интерпретируемое машинное обучение с Сергом Масисом
Вышла серия с Serg Masís . Мы говорили об одном из самых актуальных вопросов интерпретируемости и объяснимости в линейных и нелинейных алгоритмах и ситуациях высокого риска. (полная ссылка в комментариях) От самолетов до уголовного рецидива разговор был наполнен как политическими, так и техническими перспективами. Окупаемость инвестиций в использование SHAP и LIME и будущее XAI. Надежды, ограничения и опасения. Я получил такое удовольствие, делая это. Вот обзор тем: Временные..

Методы XAI - Введение
Понимание методов XAI Методы XAI - Введение Что такое методы XAI? Интерпретируемость против объяснимости. Таксономия интерпретируемости модели. Какие существуют методы атрибуции? Объяснимый искусственный интеллект Объяснимый искусственный интеллект (XAI) - одна из самых молодых и быстро развивающихся отраслей в этой области. Цель метода XAI - дать объяснение модели глубокого обучения, понятной людям. Это особенно важно в областях, критичных к безопасности, таких как..