Публикации по теме 'interpretability'
Что Объясняемый ИИ не может объяснить (и как это исправить)
Нейронные сети точны, но не поддаются интерпретации. Деревья решений интерпретируемы, но неточны с точки зрения компьютерного зрения. У нас есть решение.
Не бери это у меня. Возьмите это у сотрудника IEEE Cuntai Guan, который признает, что многие машинные решения все еще плохо изучены . Большинство работ даже предлагают жесткую дихотомию между точностью и интерпретируемостью .
Объяснимый ИИ (XAI) пытается преодолеть этот разрыв, но, как мы объясним ниже, XAI оправдывает..
Аддитивные методы атрибуции функций — Погружение в объяснимость машинного обучения
Адаптивность моделей ИИ и машинного обучения экспоненциально выросла за последнее десятилетие или около того, что привело к принятию некоторых важных решений в различных областях отрасли. Несмотря на то, что модели машинного обучения решают широкий круг проблем, бизнес по-прежнему испытывает определенные трудности, когда дело доходит до доверия результатам моделей машинного обучения/глубокого обучения при принятии различных решений. Это привело к тому, что специалисты по данным..
Резюме: Анализ сети: количественная оценка интерпретации глубоких визуальных представлений (CVPR…
Рассечение сети: количественная оценка интерпретируемости глубинных визуальных представлений Мы предлагаем общую структуру под названием «Рассечение сети для количественной оценки интерпретируемости скрытых представлений… arxiv.org»
Авторы: Дэвид Бау, Болей Чжоу, Адитья Хосла, Од Олива, Антонио Торральба
Вклад в эту статью двоякий: во-первых, это разработка набора данных BRODEN (широкая и плотная маркировка) и механизма для..
Полное руководство по интерпретации машинного обучения.
В машинном обучении были достигнуты успехи, распространяющиеся от классического машинного обучения, классификации изображений и т. д. до таких популярных в настоящее время областей, как текстовая аналитика, понимание естественного языка (NLU) и обработка естественного языка (NLP).
Даже после стольких разработок и исследований машинное обучение по-прежнему рассматривается как черный ящик, где меньше всего известно о том, почему обученная модель ведет себя именно так, а не иначе. На..
Ответственный AI: интерпретация текста с классическим объяснителем текста
Чтобы следовать руководству, установите Anaconda с Python 3.7 и откройте Anaconda Prompt. Это можно сделать на локальном компьютере или на виртуальной машине. Получите репозиторий, чтобы начать работу, и перейдите в созданную папку.
git clone https://github.com/interpretml/interpret-text.git
cd interpret-text
Следующим шагом является подготовка среды для включения всех необходимых пакетов.
For CPU:
python tools/generate_conda_files.py
conda env create -n interpret_cpu..
Интерпретируемое машинное обучение с Сергом Масисом
Вышла серия с Serg Masís . Мы говорили об одном из самых актуальных вопросов интерпретируемости и объяснимости в линейных и нелинейных алгоритмах и ситуациях высокого риска. (полная ссылка в комментариях) От самолетов до уголовного рецидива разговор был наполнен как политическими, так и техническими перспективами. Окупаемость инвестиций в использование SHAP и LIME и будущее XAI. Надежды, ограничения и опасения. Я получил такое удовольствие, делая это. Вот обзор тем: Временные..
Методы XAI - Введение
Понимание методов XAI
Методы XAI - Введение
Что такое методы XAI? Интерпретируемость против объяснимости. Таксономия интерпретируемости модели. Какие существуют методы атрибуции?
Объяснимый искусственный интеллект
Объяснимый искусственный интеллект (XAI) - одна из самых молодых и быстро развивающихся отраслей в этой области. Цель метода XAI - дать объяснение модели глубокого обучения, понятной людям. Это особенно важно в областях, критичных к безопасности, таких как..