Публикации по теме 'automatic-differentiation'
Документальное исследование: Автоматическая дифференциация в машинном обучении: обзор
Введение:
существует четыре метода автоматической дифференциации:
•Руководство
• Числовой
• Символический
автоматический
Ручная дифференциация:
Это посмотреть на функцию и вручную дифференцировать ее, используя базовые производные правила, закодировать результат и вызвать его.
Числовые (конечные различия):
Которые используют метод конечных разностей для аппроксимации производных, например предельное определение производной
Вычтем две оценки функции в близких..
Антуан Савин: от модели к рыночным рискам
Одной из сохраняющихся загадок теории и практики количественных моделей управления рисками является взаимосвязь модельных рисков (чувствительности к риску транзакции или набора транзакций с параметрами модели, например, в модели Дюпира (1992), локальный поверхность волатильности) и рыночные риски (чувствительность к рыночным переменным, например, предполагаемая поверхность волатильности). Параметры модели обычно калибруются по рыночным переменным, иногда аналитически (см. Формулу Дюпира,..
Вопросы по теме 'automatic-differentiation'
Есть ли работающая реализация автоматического дифференцирования обратного режима для Haskell?
Наиболее близкой реализацией в Haskell, которую я видел, является прямой режим в http://hackage.haskell.org/packages/archive/fad/1.0/doc/html/Numeric-FAD.html .
Ближайшее связанное исследование, по-видимому, является обратным режимом для другого...
2609 просмотров
schedule
30.08.2022
Избегайте сортировки аргументов в модуле Python Sympy
В настоящее время я разрабатываю дифференциальный оператор для sympy , который может быть помещается в матричную форму. В этом случае порядок списка args при создании объекта Mul очень важен, чтобы гарантировать выполнение дифференциации...
816 просмотров
schedule
04.08.2022
Numeric.AD — переменная типа, выходящая за пределы области видимости
Я пытаюсь использовать автоматическое дифференцирование в Haskell для задачи нелинейного управления, но есть некоторые проблемы с его работой. В основном у меня есть функция cost , которая должна быть оптимизирована с учетом начального состояния....
140 просмотров
schedule
09.10.2022
как работает автоград pytorch?
Я отправил это как проблему для циклаGAN реализация pytorch , но поскольку мне никто не ответил вот, я спрошу еще раз здесь.
Меня в основном озадачивает тот факт, что несколько прямых проходов вызывались перед одним обратным проходом, см....
1181 просмотров
schedule
21.10.2022
Как правильно сопоставлять типы при использовании Numeric.AD в Haskell?
Я пытаюсь реализовать алгоритм поиска корня Ньютона-Рафсона с помощью пакета ad , но я не может правильно сопоставить типы функций. Я знаю, что есть правильный ответ на аналогичный вопрос , на который ответил создатель объявление, но пакет сильно...
128 просмотров
schedule
27.02.2024
Tensorflow: дифференцируемые примитивы
У меня сложилось впечатление, что все примитивы тензорного потока дифференцируемы. Под этой «иллюзией» я написал эту функцию в надежде, что тензорный поток просто автоматически ее дифференцирует, и я смогу через нее поддерживать ошибки....
511 просмотров
schedule
31.05.2023
Есть ли способ запретить компилятору Fortran проверять, передаются ли отрицательные аргументы функции SQRT?
Я пытаюсь использовать сторонний модуль автоматической дифференциации, ADF95 , который использует выражение -sqrt(asin(-1.0_dpr)) для возврата Not-a-Number (NaN) в определенных случаях, где dpr определяется с помощью integer, parameter :: dpr =...
264 просмотров
schedule
18.08.2022
почему для автоматической дифференциации и градиентной ленты необходимо использовать менеджер контекста?
Менеджеры контекста могут преобразовать две две связанные операции в одну. Например:
with open('some_file', 'w') as opened_file:
opened_file.write('Hola!')
Приведенный выше код эквивалентен:
file = open('some_file', 'w')
try:...
140 просмотров
schedule
19.04.2023
Pytorch Autograd: что означает, что градиент ошибок времени выполнения может быть неявно создан только для скалярных выходов
Я пытаюсь глубоко понять автоград Pytorch; Я хотел бы наблюдать градиент простого тензора после прохождения сигмоидной функции, как показано ниже:
import torch
from torch import autograd
D = torch.arange(-8, 8, 0.1, requires_grad=True)
with...
3199 просмотров
schedule
24.05.2022
Почему градиенты разложения на собственные значения TensorFlow и PyTorch отличаются друг от друга и от аналитического решения?
Следующий код вычисляет разложение по собственным значениям вещественной симметричной матрицы. Затем вычисляется градиент первого собственного значения относительно матрицы. Это делается трижды: 1) с использованием аналитической формулы, 2) с...
978 просмотров
schedule
26.08.2022
Как поэлементно назначать уравнения в автограде
Я пытаюсь реализовать решатель на основе автограда для нелинейного УЧП. Как и в случае с большинством PDE, мне нужно иметь возможность работать с отдельными элементами моего входного вектора, но, по-видимому, это нарушает автоград. Я создал этот...
146 просмотров
schedule
24.04.2023
Якобиан определитель векторной функции с Python JAX/Autograd
У меня есть функция, которая отображает векторы на векторы
R^n">
и я хочу вычислить его якобианский определитель
,
где якобиан определяется как
.
Поскольку я могу использовать numpy.linalg.det для вычисления определитель,...
1018 просмотров
schedule
12.08.2022
Алгоритм Edge Pushing для вычисления разреженного гессиана
Я пытаюсь реализовать некоторые алгоритмы AD самостоятельно, но не совсем понимаю алгоритм проталкивания границ Гауэра и Мелло для вычисления разреженного гессиана.
Нужно ли генерировать новый вычислительный график исходного градиента (например,...
89 просмотров
schedule
30.11.2022
как использовать правило продвижения в julia?
Я пытаюсь написать структуру для вычисления градиента (после https://www.youtube.com/watch?v=rZS2LGiurKY ) вот что у меня есть:
struct GRAD{F <: Array{Float64,2}, ∇F <:Array{Float64,2}}
f::F
∇f::∇F
end
begin
import Base:...
147 просмотров
schedule
10.11.2022
Как правильно использовать модуль PyTorch внутри функции PyTorch?
У нас есть пользовательский torch.autograd.Function z(x, t) , который вычисляет результат y в способ, не поддающийся прямому автоматическому дифференцированию, и вычислили якобиан операции относительно ее входов x и t , поэтому мы можем...
277 просмотров
schedule
26.03.2022