Публикации по теме 'explainable-ai'


Демистификация ИИ: глубокое погружение в объяснимый искусственный интеллект (XAI)
Аббревиатура «XAI» означает «Объяснимый искусственный интеллект». Это относится к идее и методам, призванным сделать системы искусственного интеллекта (ИИ), особенно модели машинного обучения, более простыми для понимания и анализа людьми. Цель XAI — устранить разрыв между требованием, чтобы люди понимали суждения и логику, лежащие в основе этих алгоритмов, и присущей системам ИИ сложностью. Нейронные сети и другие сложные модели часто функционируют как «черные ящики» в традиционном..

Распутывание представлений нейронов с помощью концептуальных векторов — Ключевые выводы
В этом посте мы представляем основные выводы из нашего документа семинара XAI4CV CVPR 2023 (публикация скоро) под названием Распутывание представлений нейронов с помощью концептуальных векторов (препринт arXiv). Код доступен на GitHub . Разбивка модели на интерпретируемые единицы позволяет нам лучше понять, как модели хранят представления. Однако появление полисемантичных нейронов, или нейронов, которые реагируют на несколько несвязанных признаков [2], затрудняет интерпретацию..

Прогнозирование риска рака шейки матки с помощью H2O AutoML и LIME
Введение Рак шейки матки – это заболевание, при котором в тканях шейки матки (входа в матку из влагалища) образуются злокачественные клетки. Наряду с раком молочной железы и щитовидной железы рак шейки матки является одним из наиболее распространенных видов рака среди женщин. По данным Lancet ( 2019 ): Ежегодно более чем у полумиллиона женщин диагностируется рак шейки матки, что приводит к более чем 300 000 смертей во всем мире. Приблизительно 90% случаев рака шейки матки..

Этический ИИ: его значение для сценариев использования и управления корпоративным ИИ
Объяснимость, предвзятость, воспроизводимость и подотчетность Аннотация . С ростом внедрения систем AI / ML с открытым исходным кодом на предприятиях необходимо обеспечить ответственное обучение и развертывание приложений AI / ML. Эти усилия осложняются тем, что различные правительственные организации и регулирующие органы выпускают свои собственные руководящие принципы и политики, практически не согласовывая определения терминов, например существует более 20 определений..

Введение в обобщенные интегрированные градиенты (GIG)
Практический метод объяснения разнообразных ансамблевых моделей машинного обучения Ансамблевые модели машинного обучения обеспечивают более высокую точность прогнозов и стабильность, чем отдельные модели машинного обучения, но ансамблевые модели сложно объяснить и доверять им с использованием общих методов объяснимости. Zest AI разработал новый метод объяснения сложных ансамблевых моделей под названием Обобщенные интегрированные градиенты , который делает их безопасными для..


Использование POTATO для извлечения интерпретируемой информации
О Эта статья представляет собой введение в библиотеку POTATO . POTATO — это независимая от языка среда XAI (объяснимый искусственный интеллект) для извлечения и оценки интерпретируемых функций графа для любой задачи классификации в обработке естественного языка (NLP). Статья включает в себя: Краткое введение в основанные на правилах методы классификации текста Введение в определение шаблонов графов в POTATO Автоматическое изучение шаблонов Структура «человек в контуре» (HITL)..