Искусственный интеллект значительно продвинулся в последнее время, и теперь проблема заключается не в развитии, а в неопределенном поведении модели. Каждый сектор быстро адаптирует ИИ для своих вариантов использования, но боится их использовать.

Чтобы доверять ИИ, он должен быть интерпретируемым, что в основном состоит из 3 концепций — F.A.T.

  • Справедливость. Принимаются ли решения без заметной предвзятости?
  • Подотчетность. Можем ли мы отследить решение до кого-то или чего-то?
  • Прозрачность. Можем ли мы объяснить, как и почему принимаются решения?

Зачем нам нужна объяснимость??

Каждый раз, когда мы переходим к моделям глубокого и машинного обучения, мы получаем модель черного ящика 😩. Модель, которая не может объяснить простой ход предсказания, считается моделью черного ящика.

Часть объяснения того, почему модель достигла определенного решения, пропущена, и, таким образом, мы ни к чему не пришли.

Но что, если мы действительно хотим понять это?
Что, если конечный пользователь хочет знать, почему модель вела себя так, а не иначе?
Что, если разработчик не может исправить ложное поведение модели? ?

XAI привносит в модель угол достоверности процесса прогнозирования модели и объясняет причину принятия решения, которое обеспечивает T прозрачность и предоставляет информацию заинтересованным сторонам.
Он позволяет понять каждую функцию. и его важность и помогает Foster Trust в AI.

Решение проблемы

Хотя модели машинного/глубокого обучения считаются моделями черного ящика, они не являются полностью черным ящиком. Чтобы решить растущую проблему, мы подключаем объяснимые фреймворки ИИ, которые я объясню в этой серии постов.

Это не только дает нам прогноз экземпляра данных, но и аспект рассуждений о том, как модель пришла к определенному выводу.
Что, в свою очередь, позволяет пользователям доверять прогнозу. В конце концов, доверие приводит к более широкому внедрению ИИ.

Например: Модель, классифицирующая изображения кошек и собак с использованием XAI Frameworks, может привести нас к областям изображения, которые не удалось правильно классифицировать.

Вот что пытается дать нам объяснимый искусственный интеллект (XAI). Он изучает модель машинного обучения и пытается внести как можно больше ясности, которая доступна поверх нее.

Таксономия XAI

Принципиально XAI подразделяется на два вида:

  • Конкретная модель
  • Модельный агностик

Под конкретной моделью мы подразумеваем интерпретации, характерные для одной модели или группы моделей, в основном они привязаны к тому, как мы обучаем модели. Такая важность функций является аспектом обучения на основе дерева, а веса функций - это то, что мы видим в линейных моделях, и они являются примерами модели, не зависящей от модели.

Модельный агностик будет независимо от модели, в которую мы его помещаем, мы можем объяснить причину этого. И в идеале они гораздо более надежны и компетентны, чем то, что специфические для модели функции дали бы нам на стороне объяснения.

Доступные фреймворки

  • SHAP — аддитивные пояснения Шепли
  • Lime — объяснение, не зависящее от локальной интерпретируемой модели
  • DALEX — язык, не зависящий от модели
  • Якоря — правила с ограниченной областью действия

ШАП

SHAP (Shapley Additive exPlanations) — это теоретико-игровой подход к объяснению результатов любой модели машинного обучения. Он присваивает каждой функции важное значение для конкретного прогноза. Этот подход уникален в нескольких отношениях: во-первых, он не зависит от модели, а это означает, что его можно использовать для объяснения результатов любой модели машинного обучения, независимо от того, как она была создана. Во-вторых, он является локальным, что означает, что он учитывает только те признаки, которые использовались в прогнозе, а не весь набор данных. Наконец, он непротиворечив, что означает, что важные значения, которые он присваивает функциям, будут одинаковыми независимо от используемых данных.

ИЗВЕСТЬ

LIME — отличный инструмент для создания объяснимых моделей. Его можно использовать, чтобы понять, как работает модель, и определить, какие функции наиболее важны для модели. Кроме того, LIME можно использовать для создания пользовательских пояснений к модели. Это особенно полезно при создании моделей для систем поддержки принятия решений.

ДАЛЕКС

DALEX — это мощный инструмент для создания объяснимых моделей машинного обучения. Он разработан, чтобы помочь вам понять, как ваша модель машинного обучения делает прогнозы, и определить потенциальные области для улучшения. С помощью DALEX вы можете создать визуальное объяснение прогнозов вашей модели и определить, какие функции наиболее важны для вашей модели. Вы также можете использовать DALEX для сравнения различных моделей машинного обучения и поиска модели, которая лучше всего соответствует вашим потребностям.

ЯКОРЯ

Якоря — это тип объяснимого ИИ (XAI), который позволяет понять прогнозы, сделанные моделью машинного обучения. Они генерируются путем нахождения наиболее важных входных данных для модели, которые способствуют ее предсказаниям. Например, если модель предсказывает, не выполнит ли человек дефолт по кредиту, якорями для этой модели могут быть кредитный рейтинг человека, история занятости и доход.

Якоря позволяют понять каждую функцию отдельно для прогноза, а также помогут вам сравнить другие функции по отношению к ней.

Он также предоставит экземпляры с выбранной вами функцией, которая поможет получить показанный прогноз.

Ссылки на блокноты:

Репозиторий:
https://github.com/leetanshaj/XAI

Якоря: https://colab.research.google.com/drive/18z9cJAAeHNAmwLfpn3XmejUhFQ3aZUHD#scrollTo=1AGvCC0SyYg3

LIME, SHAP, DALEX: https://colab.research.google.com/drive/1Zw468k1qKIgVcynkz6TD-Rej1iHIARXX

Товарищи по команде: Яш Сатвани, Аюш Гупта

Заключение

В целом, объяснимый ИИ все еще находится на ранней стадии. Однако потенциальные преимущества этой технологии значительны. Предоставляя более прозрачное и интерпретируемое представление о том, как системы ИИ принимают решения, объяснимый ИИ может повысить удобство использования и справедливость систем ИИ. Кроме того, объяснимый ИИ может помочь укрепить доверие между людьми и системами ИИ, что необходимо для успешного внедрения технологий ИИ.