Публикации по теме 'automatic-differentiation'


Документальное исследование: Автоматическая дифференциация в машинном обучении: обзор
Введение: существует четыре метода автоматической дифференциации: •Руководство • Числовой • Символический автоматический Ручная дифференциация: Это посмотреть на функцию и вручную дифференцировать ее, используя базовые производные правила, закодировать результат и вызвать его. Числовые (конечные различия): Которые используют метод конечных разностей для аппроксимации производных, например предельное определение производной Вычтем две оценки функции в близких..

Антуан Савин: от модели к рыночным рискам
Одной из сохраняющихся загадок теории и практики количественных моделей управления рисками является взаимосвязь модельных рисков (чувствительности к риску транзакции или набора транзакций с параметрами модели, например, в модели Дюпира (1992), локальный поверхность волатильности) и рыночные риски (чувствительность к рыночным переменным, например, предполагаемая поверхность волатильности). Параметры модели обычно калибруются по рыночным переменным, иногда аналитически (см. Формулу Дюпира,..

Вопросы по теме 'automatic-differentiation'

Есть ли работающая реализация автоматического дифференцирования обратного режима для Haskell?
Наиболее близкой реализацией в Haskell, которую я видел, является прямой режим в http://hackage.haskell.org/packages/archive/fad/1.0/doc/html/Numeric-FAD.html . Ближайшее связанное исследование, по-видимому, является обратным режимом для другого...
2609 просмотров
schedule 30.08.2022

Избегайте сортировки аргументов в модуле Python Sympy
В настоящее время я разрабатываю дифференциальный оператор для sympy , который может быть помещается в матричную форму. В этом случае порядок списка args при создании объекта Mul очень важен, чтобы гарантировать выполнение дифференциации...
816 просмотров

Numeric.AD — переменная типа, выходящая за пределы области видимости
Я пытаюсь использовать автоматическое дифференцирование в Haskell для задачи нелинейного управления, но есть некоторые проблемы с его работой. В основном у меня есть функция cost , которая должна быть оптимизирована с учетом начального состояния....
140 просмотров
schedule 09.10.2022

как работает автоград pytorch?
Я отправил это как проблему для циклаGAN реализация pytorch , но поскольку мне никто не ответил вот, я спрошу еще раз здесь. Меня в основном озадачивает тот факт, что несколько прямых проходов вызывались перед одним обратным проходом, см....
1181 просмотров

Как правильно сопоставлять типы при использовании Numeric.AD в Haskell?
Я пытаюсь реализовать алгоритм поиска корня Ньютона-Рафсона с помощью пакета ad , но я не может правильно сопоставить типы функций. Я знаю, что есть правильный ответ на аналогичный вопрос , на который ответил создатель объявление, но пакет сильно...
128 просмотров

Tensorflow: дифференцируемые примитивы
У меня сложилось впечатление, что все примитивы тензорного потока дифференцируемы. Под этой «иллюзией» я написал эту функцию в надежде, что тензорный поток просто автоматически ее дифференцирует, и я смогу через нее поддерживать ошибки....
511 просмотров

Есть ли способ запретить компилятору Fortran проверять, передаются ли отрицательные аргументы функции SQRT?
Я пытаюсь использовать сторонний модуль автоматической дифференциации, ADF95 , который использует выражение -sqrt(asin(-1.0_dpr)) для возврата Not-a-Number (NaN) в определенных случаях, где dpr определяется с помощью integer, parameter :: dpr =...
264 просмотров
schedule 18.08.2022

почему для автоматической дифференциации и градиентной ленты необходимо использовать менеджер контекста?
Менеджеры контекста могут преобразовать две две связанные операции в одну. Например: with open('some_file', 'w') as opened_file: opened_file.write('Hola!') Приведенный выше код эквивалентен: file = open('some_file', 'w') try:...
140 просмотров

Pytorch Autograd: что означает, что градиент ошибок времени выполнения может быть неявно создан только для скалярных выходов
Я пытаюсь глубоко понять автоград Pytorch; Я хотел бы наблюдать градиент простого тензора после прохождения сигмоидной функции, как показано ниже: import torch from torch import autograd D = torch.arange(-8, 8, 0.1, requires_grad=True) with...
3199 просмотров

Почему градиенты разложения на собственные значения TensorFlow и PyTorch отличаются друг от друга и от аналитического решения?
Следующий код вычисляет разложение по собственным значениям вещественной симметричной матрицы. Затем вычисляется градиент первого собственного значения относительно матрицы. Это делается трижды: 1) с использованием аналитической формулы, 2) с...
978 просмотров

Как поэлементно назначать уравнения в автограде
Я пытаюсь реализовать решатель на основе автограда для нелинейного УЧП. Как и в случае с большинством PDE, мне нужно иметь возможность работать с отдельными элементами моего входного вектора, но, по-видимому, это нарушает автоград. Я создал этот...
146 просмотров

Якобиан определитель векторной функции с Python JAX/Autograd
У меня есть функция, которая отображает векторы на векторы R^n"> и я хочу вычислить его якобианский определитель , где якобиан определяется как . Поскольку я могу использовать numpy.linalg.det для вычисления определитель,...
1018 просмотров

Алгоритм Edge Pushing для вычисления разреженного гессиана
Я пытаюсь реализовать некоторые алгоритмы AD самостоятельно, но не совсем понимаю алгоритм проталкивания границ Гауэра и Мелло для вычисления разреженного гессиана. Нужно ли генерировать новый вычислительный график исходного градиента (например,...
89 просмотров

как использовать правило продвижения в julia?
Я пытаюсь написать структуру для вычисления градиента (после https://www.youtube.com/watch?v=rZS2LGiurKY ) вот что у меня есть: struct GRAD{F <: Array{Float64,2}, ∇F <:Array{Float64,2}} f::F ∇f::∇F end begin import Base:...
147 просмотров
schedule 10.11.2022

Как правильно использовать модуль PyTorch внутри функции PyTorch?
У нас есть пользовательский torch.autograd.Function z(x, t) , который вычисляет результат y в способ, не поддающийся прямому автоматическому дифференцированию, и вычислили якобиан операции относительно ее входов x и t , поэтому мы можем...
277 просмотров