Публикации по теме 'explainable-ai'


Предвзятость и справедливость систем на основе ИИ в рамках финансовых преступлений
В то время как системы на основе ИИ в основном использовались для повышения операционной эффективности финансовых преступлений, справедливость модели и предвзятость данных возникают, когда система склоняется в пользу или против определенных групп или категорий в данных. Как правило, это происходит из-за того, что в модель машинного обучения загружаются ошибочные или нерепрезентативные данные. Предвзятые системы искусственного интеллекта представляют серьезную угрозу, особенно когда..

tenorflow + dalex = :)
Я продемонстрирую, насколько просто и удобно объяснить прогнозную модель t ensorflow с помощью пакета dalex Python. Введение в эту тему можно найти в Анализ объяснительной модели: изучение, объяснение и изучение прогнозных моделей . По любым вопросам обращайтесь ко мне через LinkedIn или GitHub . В этом примере мы будем использовать данные из отчета о мировом счастье и спрогнозировать уровень счастья, оцененный в соответствии с экономическим производством,..

Объяснимое сравнение AI Framework
Часть 3: Использование LIME в приложении React Автор Тигран Аветисян Это ЧАСТЬ 3 нашей серии из 3 ЧАСТЕЙ «Сравнение объяснимых платформ ИИ». См. ЧАСТЬ 1 здесь и ЧАСТЬ 2 здесь . В ЧАСТИ 2 мы исследовали возможности LIME для классификации изображений. Мы обнаружили, что хотя LIME сложнее в использовании, чем SHAP, он лучше поддерживает TensorFlow 2 и обеспечивает большую гибкость. В ЧАСТИ 3 мы собираемся использовать LIME в приложении React.js, подобно нашим приложениям..

Методы XAI - Введение
Понимание методов XAI Методы XAI - Введение Что такое методы XAI? Интерпретируемость против объяснимости. Таксономия интерпретируемости модели. Какие существуют методы атрибуции? Объяснимый искусственный интеллект Объяснимый искусственный интеллект (XAI) - одна из самых молодых и быстро развивающихся отраслей в этой области. Цель метода XAI - дать объяснение модели глубокого обучения, понятной людям. Это особенно важно в областях, критичных к безопасности, таких как..

Интерпретируемый и объяснимый NER с LIME
Пошаговое руководство, чтобы узнать, как работает ваша модель NER Несмотря на то, что был достигнут значительный прогресс в разработке новейших величайших, современных моделей глубокого обучения с огромным количеством параметров, было приложено очень мало усилий для объяснения результатов этих моделей. Во время семинара в декабре 2020 года Абубакар Абид, генеральный директор Градио , изучил, как GPT-3 генерирует текст о религиях с помощью подсказки Два ___ идут в __ . Изучив первые..

Объяснимый ИИ: разверните черный ящик
Укрепите доверие к машинному обучению с помощью XAI, Guide to SHAP & SHapley Values С появлением ИИ, который становится все более продвинутым и становится важной частью нашей жизни, опасность возникает, когда мы не понимаем эффектов и побочных эффектов ИИ. Важно понимать, как различать факты и фантазии в процессе принятия решений ИИ, сохраняя при этом эффективность ИИ и обеспечивая максимальную прозрачность результатов. Всего этого можно достичь с помощью объяснимого ИИ (XAI). Что..

Деревья решений не так интерпретируемы, как вы думаете
Деревья решений не так интерпретируемы, как вы думаете Деревья решений считаются легко интерпретируемыми, но всегда ли интерпретация точна? Деревья решений часто называют одним из наиболее интерпретируемых алгоритмов машинного обучения. Такие пионеры, как Брейман, описывали деревья решений как воплощение интерпретируемости (хотя изобретатель C&RT мог быть предвзятым), а в последнее время деревья решений стали использоваться как метод интерпретации других моделей. Однако может..