Публикации по теме 'uncertainty'


Неопределенность в глубоком обучении: эксперименты с байесовской CNN
Как KL-Weight влияет на модель? Написание байесовской CNN для рентгеновских изображений грудной клетки. Это пятая часть серии Неопределенность в глубоком обучении . Часть 1 — Краткое введение Часть 2 — Алеаторическая неопределенность и оценка максимального правдоподобия Часть 3 — Эпистемическая неопределенность и байесовский метод Backprop Часть 4 — Реализация полностью вероятностной байесовской CNN Часть 5. Эксперименты с байесовской CNN Часть 6 — Байесовский..

Чего ожидать от методов количественной оценки неопределенности
Чего ожидать от методов количественной оценки неопределенности Нерассказанная история оценки машинного обучения Если выполнение тестов для оценки машинного обучения может показаться само собой разумеющимся, это скрывает, насколько важно и сложно их создавать. Как мы можем обеспечить достаточное разнообразие в выбранных наборах данных? Какие исходные данные следует включить для справедливого сравнения? Какие показатели следует сообщать? В этой статье мы рассказываем о нашем опыте..

Знание известных неизвестных с помощью глубоких нейронных сетей
Определение и количественная оценка случайной и эпистемической неопределенности в глубоких нейронных сетях Глубокие нейронные сети (DNN) - это простые в реализации универсальные модели машинного обучения, которые могут обеспечить высочайшую производительность во многих областях (например, компьютерное зрение , обработка естественного языка , речь признание , рекомендательные системы ). Однако DNN не идеальны. Вы можете прочитать любое количество статей , сообщений в блогах и..

Быстрая и масштабируемая оценка неопределенности с использованием байесовского глубокого обучения
Выступление доктора Эмтияза Хана в IISc Недавно я посетил часовую презентацию доктора Эмтияза Хана, руководителя группы по приблизительному байесовскому выводу (ABI) в Центре RIKEN Center for Advanced Intelligence Project (Токио). Его доклад вращался вокруг изучения дисперсии с помощью естественных градиентов. Он систематически объяснял, почему сложно вычислить неопределенность, и как они черпали вдохновение в оптимизаторе Adam в своей последней публикации на ICML’18 (которая..

Сегментация глубокого обучения с неопределенностью с помощью трехмерных байесовских сверточных нейронных сетей
Как нейронные сети могут изучать распределения вероятностей для количественной оценки неопределенности в своих прогнозах? ДОКУМЕНТ: https://arxiv.org/abs/1910.10793 КОД: https://github.com/sandialabs/bcnn Основные выводы: · Измерение неопределенности невозможно в обычной глубокой нейронной сети, но это чрезвычайно важно для интерпретируемости и проверки. · Байесовские нейронные сети изучают распределения вероятностей, а не точечные оценки, что позволяет им измерять..

Наука о данных, решения и риски
Мне нравится любимая поговорка Карла Спецлера: «Рецепт без диагноза - это злоупотребление служебным положением». Я думаю, что многие проекты Data Science терпят неудачу, потому что машинное обучение применяется там, где оно не нужно. Неудача либо в «данных», либо в «науке», либо в том и другом. ML помогает, когда «завтра такое же, как вчера» и когда цена неудачи невысока. Когда эксперименты обходятся дорого (цена отказа высока), машинное обучение помогает очень мало - сколько бы данных вы..

Измерение неопределенности моделей с помощью конформного прогноза
Для разработки моделей машинного обучения (ML), а также для их мониторинга в процессе производства оценка неопределенности прогнозов является критически важным активом. Это помогает выявлять подозрительные образцы во время обучения модели в дополнение к обнаружению образцов вне распределения во время вывода. В этом сообщении блога мы представляем структуру конформного прогнозирования. Он предоставляет специалистам по машинному обучению простую и не зависящую от модели меру..