Введение в концепцию объяснимости ИИ, включая его роль в управлении, его ограничения и современные методы открытия пресловутого черного ящика.

Фраза «открыть черный ящик» стала повсеместной наряду с призывами к повышению прозрачности и регулированию в использовании и развитии технологии машинного обучения (ML). Идея состоит в том, что подотчетность может быть достигнута, если процесс принятия решений системой ОД можно - хотя бы частично - объяснить. Но это часто предполагает, что технологическое решение возможно для того, что по своей сути может быть социальной проблемой, и не менее важно понимать, как определение объяснимости может меняться в зависимости от пользователя и контекста.

Список литературы разделен на две части, в первой из которых обсуждается, что на самом деле означает объяснимость, и ту роль, которую она может - и не может - играть в подотчетности и повышении доверия к машинному обучению. Второй дает неполный взгляд на различные технические методы, которые исследователи использовали для достижения объяснимости.

Объяснение машинного обучения в контексте

Обеспокоенность объяснимостью неразрывно связана с вопросами контроля, власти и ответственности за системы машинного обучения. Кто может решать, что является «адекватным» объяснением - суды, правительство, общественность, разработчики? Кто принимает решение о приемлемом компромиссе между сложностью и точностью модели и ее способностью объяснять? Внутри самой дисциплины ученые-информатики продолжают дискутировать о важности выявления причинно-следственной связи в своих исследованиях, наряду с философами, социологами и экспертами в области права, и это лишь некоторые из них. Следующие чтения дают обзор проблем и противоречий, связанных с объяснимостью машинного обучения.

Технические статьи

Способность объяснять результаты решений систем машинного обучения контекстно зависит от множества факторов, включая задачу машинного обучения, реализованную модель и данные, а также сам вариант использования. Кроме того, техническое решение не всегда может быть адекватным и имеет свой собственный набор ограничений. В области здравоохранения, например, ML предлагает потенциально революционные достижения, но непрозрачность модели может иметь серьезные последствия для ответственности и диагностических разногласий между системой и практикующими врачами. В следующих статьях рассматриваются потенциальные технические решения для объяснимости, а также их применимость в различных условиях.

Best Practice AI - это лондонская специализированная консалтинговая компания, которая помогает корпорациям, малым и средним предприятиям, государственному сектору и частному капиталу реализовать свои планы в области ИИ. Их миссия - демистифицировать ИИ и ускорить его внедрение. Библиотека Best Practice AI - это бесплатный ресурс, содержащий самую большую в мире коллекцию бизнес-примеров использования (600+) и тематических исследований (1000+), организованных в 40+ отраслях, 60+ функциях и 60+ странах. Библиотека разработана, чтобы помочь руководителям ответить на вопросы о том, что такое ИИ, как он применяется сегодня и как его можно развернуть в вашей организации.