Публикации по теме 'explainable-ai'
Включение причинно-следственной связи в объяснимый ИИ
Локальные объяснения с учетом причинно-следственных связей на основе LIME
Зачем нам причинность?
За последние несколько лет методы eXplainable Artificial Intelligence (XAI) переживают волну популярности из-за их способности давать понятные человеку объяснения, которые выражают обоснование моделей черного ящика, используемых системами принятия решений.
Несмотря на широкое распространение этих процедур, существенным недостатком методов XAI является предположение о независимости..
Связь между интерпретируемостью и справедливостью
3 причины, по которым интерпретируемые модели с большей вероятностью будут справедливыми
Интерпретируемость и справедливость, кажется, идут рука об руку. Интерпретируемость включает в себя понимание того, как модели делают прогнозы. Справедливость включает в себя понимание того, предвзяты ли прогнозы в отношении определенных групп. Эти характеристики постоянно упоминаются вместе в ответственных рамках ИИ и конференциях по машинному обучению. Однако интерпретируемость не..
6 типов «важности функции», о которых должен знать каждый специалист по данным
Полное руководство по «важности функций», одному из самых полезных (и все же скользких) понятий в ML.
Важность функций — фундаментальная концепция для специалистов по машинному обучению.
Благодаря своей простоте и интуитивности этот индикатор не только постоянно отслеживается специалистами по обработке и анализу данных, но и часто сообщается нетехническим специалистам по модели прогнозирования .
Но, несмотря на интуитивность, идея «важности функции» также несколько расплывчата. На..
Две минуты НЛП — Частичная зависимость и графики ICE
Объяснимый ИИ с sklearn.inspection
Здравствуйте, любители НЛП! Написав о способах объяснения прогнозов с помощью LIME и SHAP , сегодня я углублюсь в другие темы Объяснимого ИИ , то есть графики частичной зависимости и отдельные графики условного ожидания. Их имена могут показаться запутанными, но уверяю вас, что их легко понять. Наслаждаться! 😄
Графики частичной зависимости
Графики Частичная зависимость (PDP) и Индивидуальное условное ожидание (ICE) могут..
Объяснимый искусственный интеллект (XAI): преодоление проблем с помощью evoML — TurinTech AI
«Инвестор подает в суд после того, как автоматизированные сделки с искусственным интеллектом обошлись ему в 20 миллионов долларов». Заголовок, потрясший финансовый сектор в 2017 году.
Торговая деятельность между Tyndaris Investments (компания, запустившая хедж-фонд роботов) и гонконгским инвестором в недвижимость вызвала всплеск споров и законодательства. Начали возникать тревожные вопросы:
Какое решение принял ИИ и почему он принял такое решение? Кто несет ответственность за..
Объяснимость и справедливость искусственного интеллекта (потребительский кредит) — Аналитика Стэнфорда и FinRegLab
Глубокая исследовательская работа от FinRegLab и Стэнфорда. Белая книга и панельные доклады семинара доступны здесь .
Технический документ составляет ~120 страниц, мои заметки — ~20 страниц, а этот блог, вероятно, состоит из 4–5 страниц. Так что это очень-очень сжато — рекомендую прочитать статью полностью — но, конечно же, после прочтения моего блога!
Для привлечения внимания я аннотировал рекомендации таким образом, чтобы вы могли отсканировать и выбрать 13 рекомендаций, игнорируя..
Полное руководство по интерпретации машинного обучения.
В машинном обучении были достигнуты успехи, распространяющиеся от классического машинного обучения, классификации изображений и т. д. до таких популярных в настоящее время областей, как текстовая аналитика, понимание естественного языка (NLU) и обработка естественного языка (NLP).
Даже после стольких разработок и исследований машинное обучение по-прежнему рассматривается как черный ящик, где меньше всего известно о том, почему обученная модель ведет себя именно так, а не иначе. На..