Публикации по теме 'gaussian-process'


Регрессия гауссовского процесса с использованием GPyTorch
Построение масштабируемой и гибкой модели GP с помощью GPyTorch Гауссовский процесс или сокращенно GP - недооцененный, но мощный алгоритм для задач машинного обучения. Это непараметрический байесовский подход к машинному обучению, который можно применить к задачам контролируемого обучения, таким как регрессия и классификация. По сравнению с другими алгоритмами обучения с учителем, GP имеет несколько практических преимуществ: он может хорошо работать с небольшими наборами данных и..

Основы байесовской оптимизации (1)
В этой статье мы поговорим о нескольких основных концепциях, основанных на статье «Практическая байесовская оптимизация алгоритмов машинного обучения», опубликованной в NIPS 2012. Содержание включает в себя следующее: Суррогатные функции и гауссовские процессы. Функции приобретения. Возможные ограничения байесовской оптимизации. Суррогатные функции и гауссовские процессы. Что такое суррогатная функция? Суррогат означает тот, кто служит заменой . В нашем случае, поскольку..

Байесовская оптимизация
Интуитивно понятное введение без математики Оптимизация лежит в основе современного машинного обучения . Почему? Линейная регрессия, минимизирующая сумму квадратов ошибок. Логистическая регрессия, сводящая к минимуму отрицательную вероятность. Машины опорных векторов, минимизирующие отрицательное расстояние между двумя опорными векторами. Вместо объяснения, перегруженного математическими определениями и уравнениями, давайте разберемся с оптимизацией в более простых терминах...

Глубокие ядра и гауссовские процессы для быстрого обучения
В этой статье мы разберем ключевые концепции статьи Глубокая передача ядра в гауссовских процессах для быстрого обучения , написанная Патаккиолой и др. и продемонстрируйте простой пример на задаче регрессии изображения, состоящей из нескольких снимков. Эта статья предполагает наличие некоторых базовых знаний о гауссовских процессах и о том, как они используются в контролируемом обучении (например, получение апостериорного распределения и выбор функций ядра). Мы обсудим..

Глубокие нейронные сети против гауссовских процессов: сходства, различия и компромиссы
Мысли и теория Глубокие нейронные сети и гауссовские процессы: сходства, различия и компромиссы Мотивация: сравнение современного состояния Глубокие нейронные сети (DNN) и Гауссовские процессы (GP) * - два очень выразительных класса алгоритмов контролируемого обучения. При рассмотрении применения этих методологий возникает естественный вопрос: «Когда и почему имеет смысл использовать один алгоритм вместо другого?» В этой статье мы будем работать над..

Что такое гауссовский процесс в контексте машинного обучения: объяснение через аналогию машинного обучения
Объяснение студента машинного обучения (ML) для людей, занимающихся машинным обучением, с помощью аналогии с машинным обучением Эпистемический статус: я начал изучать гауссовский процесс менее чем за 50 часов до того, как начал писать это. Так что, когда я пишу это, очевидно, что я недостаточно квалифицирован и самоуверен. Это скорее для меня примечание, чем что-либо еще. TL; DR : генератор функций генерирует бесконечно много функций. Генератор функций генерирует бесконечно много..

Автоматическое описание временных рядов с использованием гауссовских процессов
Что, если бы мы могли использовать гауссовские процессы для автоматического описания временных рядов понятным для человека способом? Что такое гауссовские процессы? (Многомерные) гауссовские процессы — это распределения по ансамблю функций. Они полностью описываются их средним вектором: и их ковариационные функции: Роль ковариационной функции заключается в описании корреляции между точками. Существует несколько ковариационных функций. Обычно они описывают предварительные..