Публикации по теме 'explainability'


X-AI, черные ящики и хрустальные шары
Внутри ИИ X-AI, черные ящики и хрустальные шары Дорога к надежному ИИ На нашем пути к надежному ИИ я обсуждал в своем предыдущем блоге вопрос о предвзятости, о том, как она передается от людей к машинам, как ее усиливают приложениями ИИ, о последствиях в реальном мире для отдельных лиц и предприятий и важность проактивного решения этой проблемы. Сегодня я затрону вопрос объяснимости и прозрачности так называемых моделей черного ящика . Выбор между объяснимостью и точностью?..

Интерпретируемое машинное обучение
Почему и как сделать ваши модели машинного обучения интерпретируемыми Критики машинного обучения говорят, что оно создает модели «черного ящика»: системы, которые могут производить ценный результат, но которые люди могут не понять. Это заблуждение. Машинное обучение можно интерпретировать, а это значит, что мы можем создавать модели, понятные людям и которым они доверяют. Тщательно построенные модели машинного обучения можно проверить и понять. Вот почему мы можем использовать их в..

Объяснение модельных конвейеров с помощью InterpretML
Предисловие Статистика и машинное обучение Интерпретация моделей (или объяснимость) недавно привлекла внимание в области машинного обучения, потому что модели машинного обучения очень точны, но часто важно также знать, что происходит за кулисами, когда модель делает прогнозы. Эта тема на самом деле включает в себя как статистику, так и машинное обучение, поэтому давайте начнем с теоретического обсуждения, а затем перейдем к практическому применению. Классическую статистику можно..