Публикации по теме 'explainable-ai'


Почему программному обеспечению для анализа изображений на основе ИИ нужен объяснимый ИИ
Это сообщение в блоге является частью серии сообщений в блоге Объяснимый ИИ с участием многих заинтересованных сторон , в которых мы углубимся в тайну таких вопросов, как Почему модель принимает решения именно так? Как все заинтересованные стороны в одной организации могут понять поведение модели, не вдаваясь в технические подробности с помощью различных методов объяснимого ИИ. Оставайтесь с нами для предстоящей записи в блоге. Если вы хотите узнать больше о нашем инструменте..

Fiddler Labs и будущее искусственного интеллекта
Машинное обучение (ML) и искусственный интеллект (AI) уже стали огромной частью нашей повседневной жизни. Они диктуют, что вы видите, что покупаете, одобрены ли вы для приема на работу или можете получить ипотечный кредит на свой дом. И это только начало, поскольку модели машинного обучения становятся все лучше, их легче создавать и внедрять, и мы увидим, как машинное обучение влияет на все типы решений, влияющих на нашу жизнь, и диктует их. Организации получат стимул заменить или..

X по дизайну
Мнение X по дизайну От конфиденциальности к объяснимости, доверию и надежности В процессе разработки любой системы конфиденциальность по умолчанию означает, что конфиденциальность — это то, что вы принимаете во внимание с самого начала, а не в последнюю очередь. Это означает, что производительность системы в отношении конфиденциальности считается компонентом общих критериев производительности. Какую часть данных пользователей вы можете предоставить посторонним, поставщику услуг..

Объяснимость и интерпретируемость с помощью SHAP и LIT для языковых моделей
В этой статье объясняется, как использовать SHAP и LIT , чтобы лучше понимать предсказания языковых моделей, тем самым получая ценную информацию для их дальнейшего улучшения. Аддитивные объяснения Шепли (SHAP): Способность правильно интерпретировать выходные данные модели прогнозирования чрезвычайно важна. Он вызывает соответствующее доверие пользователей, дает представление о том, как можно улучшить модель, и поддерживает понимание моделируемого процесса. В некоторых приложениях..

AI выводит вас из зоны комфорта, смирись с этим
Так много в нашей жизни движут вещи, которые мы не можем объяснить, почему ИИ должен быть другим? Математик Джон фон Нейман, как известно, сказал: «В математике вы ничего не понимаете. Просто привыкните к ним ». Если у вас когда-либо была возможность изучать математику, вы точно знаете, что он имел в виду. Так много математики неточны и не до конца объяснены. Просто работает. Набор мнимых чисел, понятие бесконечности, действительная система счисления и набор иррациональных чисел -..

Думайте за пределами «черного» ящика
Как модели из стеклянных боксов могут обеспечить X-AI без ущерба для результатов Введение Искусственный интеллект играет большую роль в нашей повседневной жизни. ИИ используется повсюду, от наших поисковых запросов в Google до беспилотных автомобилей, таких как Tesla. С использованием глубокого обучения модели, используемые в этих приложениях, стали еще более сложными. На самом деле они настолько сложны, что во многих случаях мы понятия не имеем, как эти модели ИИ принимают свои..

Уважаемый агент по обучению с подкреплением, объясните, пожалуйста, свои действия.
Объяснимое обучение с подкреплением для продольного контроля В следующей статье представлены исследования, которые я провел вместе с Яном Доменом и Марко Вирингом. TL; DR: Обучение с подкреплением обещает достичь оптимальной производительности во многих приложениях. Однако, пока изученные действия остаются непрозрачными, их использование в приложениях, связанных с безопасностью, маловероятно. Представленная здесь новая диаграмма RL-SHAP открывает черный ящик и дает новый взгляд..