Публикации по теме 'interpretability'


Как что?
Дэвид Вайнбергер, постоянный писатель, Google PAIR AI Outside In - это серия колонок постоянного писателя PAIR Дэвида Вайнбергера, который предлагает свой посторонний взгляд на ключевые идеи машинного обучения. Его мнение является его собственным и не обязательно отражает точку зрения Google. Как бы вы сказали, что эти два изображения похожи? Они оба кажутся старыми или, по крайней мере, не новыми. Оба они могут представлять европейский исторический интерес. Оба они..

Что делает великое вино ... великим?
Использование машинного обучения и графика частичной зависимости в поисках хорошего вина Не знаю, как вы, но я уверен, что сейчас в настроении выпить вина. Но не просто вино, а хорошее вино. Вино с сбалансированным, сложным и долгим вкусом. Трудно сказать, что каждый из этих элементов на самом деле означает, и этим ребятам из Buzzfeed, конечно, трудно описать хорошее вино словами. Конечно, концепции сложности и глубины вина неуловимы. Но что, если мы сможем точно..

Интерпретируемость модели
Машинное обучение и глубокое обучение больше не следует рассматривать как черный ящик! В этой серии статей мы покажем, что можно использовать, интерпретировать и принимать правильные решения, используя достижения науки о данных. Наш подход будет основан на конкретных случаях и нескольких фреймворках Python. Какую профессию Гарвард назвал самой сексуальной работой 21 века? Правильно ... специалист по данным. Наука о данных - это постоянно развивающаяся профессия, в которой..

Разберитесь в своей модели черного ящика с помощью анализа чувствительности - Практическое руководство
Как каждая функция влияет на прогнозы моей модели Интерпретируемость моделей стала чрезвычайно популярной темой в последние годы , и в этой области ведется много исследований. Сегодня специалисты по данным обязаны не только создавать модель с отличными характеристиками, но и объяснять определенные аспекты модели. Понимание модели имеет решающее значение для проверки ее правильности, обнаружения смещений или утечек и даже изучения новых закономерностей в данных. Эта задача иногда может..

Что всем нужно знать об интерпретируемости в машинном обучении
Примечание: этот пост был написан для широкой аудитории и предполагает лишь частичное знакомство с машинным обучением. Для любого, кто обращал на это внимание, должно быть очевидно, что в наши дни системы статистического машинного обучения широко используются для автоматизированного принятия решений во всех областях, включая уголовное правосудие, медицину, образование, занятость, правоохранительные органы и т. Д. (Подробный обзор опасностей применения машинного обучения в этих областях..

Что «объяснимого» в объяснимом ИИ (XAI)?
И почему даже модели регрессии не «объяснимы» Объясняемый AI, объяснимый ML и интерпретируемый ML стали популярными терминами во многих дискуссиях, посвященных юридической и этической науке о данных. Обычно они вызываются в контексте алгоритмов прогнозирования «черного ящика». Многие специалисты по данным различают алгоритмы, которые можно интерпретировать / объяснить (примерный дочерний элемент является моделями статистической регрессии), и алгоритмы, которые не поддаются..

Интерпретация моделей машинного обучения черного ящика с помощью LIME
Интерпретируемость модели Интерпретация моделей машинного обучения черного ящика с помощью LIME Визуальное понимание LIME путем моделирования данных о раке молочной железы На данный момент почти банально признавать потенциал машинного обучения в медицине. Существует множество примеров, подтверждающих это утверждение. Один из них - это использование Microsoft данных медицинских изображений, чтобы помочь клиницистам и радиологам поставить точный диагноз рака . Одновременно с этим..