Публикации по теме 'gaussian-process'
Регрессия гауссовского процесса с использованием GPyTorch
Построение масштабируемой и гибкой модели GP с помощью GPyTorch
Гауссовский процесс или сокращенно GP - недооцененный, но мощный алгоритм для задач машинного обучения. Это непараметрический байесовский подход к машинному обучению, который можно применить к задачам контролируемого обучения, таким как регрессия и классификация. По сравнению с другими алгоритмами обучения с учителем, GP имеет несколько практических преимуществ: он может хорошо работать с небольшими наборами данных и..
Основы байесовской оптимизации (1)
В этой статье мы поговорим о нескольких основных концепциях, основанных на статье «Практическая байесовская оптимизация алгоритмов машинного обучения», опубликованной в NIPS 2012.
Содержание включает в себя следующее:
Суррогатные функции и гауссовские процессы. Функции приобретения. Возможные ограничения байесовской оптимизации.
Суррогатные функции и гауссовские процессы.
Что такое суррогатная функция? Суррогат означает тот, кто служит заменой . В нашем случае, поскольку..
Байесовская оптимизация
Интуитивно понятное введение без математики
Оптимизация лежит в основе современного машинного обучения . Почему? Линейная регрессия, минимизирующая сумму квадратов ошибок. Логистическая регрессия, сводящая к минимуму отрицательную вероятность. Машины опорных векторов, минимизирующие отрицательное расстояние между двумя опорными векторами.
Вместо объяснения, перегруженного математическими определениями и уравнениями, давайте разберемся с оптимизацией в более простых терминах...
Глубокие ядра и гауссовские процессы для быстрого обучения
В этой статье мы разберем ключевые концепции статьи Глубокая передача ядра в гауссовских процессах для быстрого обучения , написанная Патаккиолой и др. и продемонстрируйте простой пример на задаче регрессии изображения, состоящей из нескольких снимков. Эта статья предполагает наличие некоторых базовых знаний о гауссовских процессах и о том, как они используются в контролируемом обучении (например, получение апостериорного распределения и выбор функций ядра). Мы обсудим..
Глубокие нейронные сети против гауссовских процессов: сходства, различия и компромиссы
Мысли и теория
Глубокие нейронные сети и гауссовские процессы: сходства, различия и компромиссы
Мотивация: сравнение современного состояния
Глубокие нейронные сети (DNN) и Гауссовские процессы (GP) * - два очень выразительных класса алгоритмов контролируемого обучения. При рассмотрении применения этих методологий возникает естественный вопрос: «Когда и почему имеет смысл использовать один алгоритм вместо другого?»
В этой статье мы будем работать над..
Что такое гауссовский процесс в контексте машинного обучения: объяснение через аналогию машинного обучения
Объяснение студента машинного обучения (ML) для людей, занимающихся машинным обучением, с помощью аналогии с машинным обучением
Эпистемический статус: я начал изучать гауссовский процесс менее чем за 50 часов до того, как начал писать это. Так что, когда я пишу это, очевидно, что я недостаточно квалифицирован и самоуверен. Это скорее для меня примечание, чем что-либо еще.
TL; DR : генератор функций генерирует бесконечно много функций. Генератор функций генерирует бесконечно много..
Автоматическое описание временных рядов с использованием гауссовских процессов
Что, если бы мы могли использовать гауссовские процессы для автоматического описания временных рядов понятным для человека способом?
Что такое гауссовские процессы?
(Многомерные) гауссовские процессы — это распределения по ансамблю функций. Они полностью описываются их средним вектором:
и их ковариационные функции:
Роль ковариационной функции заключается в описании корреляции между точками. Существует несколько ковариационных функций. Обычно они описывают предварительные..