Публикации по теме 'explainability'
X-AI, черные ящики и хрустальные шары
Внутри ИИ
X-AI, черные ящики и хрустальные шары
Дорога к надежному ИИ
На нашем пути к надежному ИИ я обсуждал в своем предыдущем блоге вопрос о предвзятости, о том, как она передается от людей к машинам, как ее усиливают приложениями ИИ, о последствиях в реальном мире для отдельных лиц и предприятий и важность проактивного решения этой проблемы. Сегодня я затрону вопрос объяснимости и прозрачности так называемых моделей черного ящика .
Выбор между объяснимостью и точностью?..
Интерпретируемое машинное обучение
Почему и как сделать ваши модели машинного обучения интерпретируемыми
Критики машинного обучения говорят, что оно создает модели «черного ящика»: системы, которые могут производить ценный результат, но которые люди могут не понять.
Это заблуждение. Машинное обучение можно интерпретировать, а это значит, что мы можем создавать модели, понятные людям и которым они доверяют. Тщательно построенные модели машинного обучения можно проверить и понять. Вот почему мы можем использовать их в..
Объяснение модельных конвейеров с помощью InterpretML
Предисловие
Статистика и машинное обучение
Интерпретация моделей (или объяснимость) недавно привлекла внимание в области машинного обучения, потому что модели машинного обучения очень точны, но часто важно также знать, что происходит за кулисами, когда модель делает прогнозы. Эта тема на самом деле включает в себя как статистику, так и машинное обучение, поэтому давайте начнем с теоретического обсуждения, а затем перейдем к практическому применению.
Классическую статистику можно..