Публикации по теме 'explainable-ai'


Включение причинно-следственной связи в объяснимый ИИ
Локальные объяснения с учетом причинно-следственных связей на основе LIME Зачем нам причинность? За последние несколько лет методы eXplainable Artificial Intelligence (XAI) переживают волну популярности из-за их способности давать понятные человеку объяснения, которые выражают обоснование моделей черного ящика, используемых системами принятия решений. Несмотря на широкое распространение этих процедур, существенным недостатком методов XAI является предположение о независимости..

Связь между интерпретируемостью и справедливостью
3 причины, по которым интерпретируемые модели с большей вероятностью будут справедливыми Интерпретируемость и справедливость, кажется, идут рука об руку. Интерпретируемость включает в себя понимание того, как модели делают прогнозы. Справедливость включает в себя понимание того, предвзяты ли прогнозы в отношении определенных групп. Эти характеристики постоянно упоминаются вместе в ответственных рамках ИИ и конференциях по машинному обучению. Однако интерпретируемость не..

6 типов «важности функции», о которых должен знать каждый специалист по данным
Полное руководство по «важности функций», одному из самых полезных (и все же скользких) понятий в ML. Важность функций — фундаментальная концепция для специалистов по машинному обучению. Благодаря своей простоте и интуитивности этот индикатор не только постоянно отслеживается специалистами по обработке и анализу данных, но и часто сообщается нетехническим специалистам по модели прогнозирования . Но, несмотря на интуитивность, идея «важности функции» также несколько расплывчата. На..

Две минуты НЛП — Частичная зависимость и графики ICE
Объяснимый ИИ с sklearn.inspection Здравствуйте, любители НЛП! Написав о способах объяснения прогнозов с помощью LIME и SHAP , сегодня я углублюсь в другие темы Объяснимого ИИ , то есть графики частичной зависимости и отдельные графики условного ожидания. Их имена могут показаться запутанными, но уверяю вас, что их легко понять. Наслаждаться! 😄 Графики частичной зависимости Графики Частичная зависимость (PDP) и Индивидуальное условное ожидание (ICE) могут..

Объяснимый искусственный интеллект (XAI): преодоление проблем с помощью evoML — TurinTech AI
«Инвестор подает в суд после того, как автоматизированные сделки с искусственным интеллектом обошлись ему в 20 миллионов долларов». Заголовок, потрясший финансовый сектор в 2017 году. Торговая деятельность между Tyndaris Investments (компания, запустившая хедж-фонд роботов) и гонконгским инвестором в недвижимость вызвала всплеск споров и законодательства. Начали возникать тревожные вопросы: Какое решение принял ИИ и почему он принял такое решение? Кто несет ответственность за..

Объяснимость и справедливость искусственного интеллекта (потребительский кредит) — Аналитика Стэнфорда и FinRegLab
Глубокая исследовательская работа от FinRegLab и Стэнфорда. Белая книга и панельные доклады семинара доступны здесь . Технический документ составляет ~120 страниц, мои заметки — ~20 страниц, а этот блог, вероятно, состоит из 4–5 страниц. Так что это очень-очень сжато — рекомендую прочитать статью полностью — но, конечно же, после прочтения моего блога! Для привлечения внимания я аннотировал рекомендации таким образом, чтобы вы могли отсканировать и выбрать 13 рекомендаций, игнорируя..

Полное руководство по интерпретации машинного обучения.
В машинном обучении были достигнуты успехи, распространяющиеся от классического машинного обучения, классификации изображений и т. д. до таких популярных в настоящее время областей, как текстовая аналитика, понимание естественного языка (NLU) и обработка естественного языка (NLP). Даже после стольких разработок и исследований машинное обучение по-прежнему рассматривается как черный ящик, где меньше всего известно о том, почему обученная модель ведет себя именно так, а не иначе. На..