Публикации по теме 'autograd'


Краткий справочник по PyTorch — Автоградация
Привет! Добро пожаловать в сериал «Факел четверга». Этот блог предполагает знакомство с фреймворком PyTorch и основами нейронных сетей. В сегодняшнем блоге я поделюсь некоторыми лакомыми кусочками для быстрого поиска функциональности автоградации PyTorch. Нейронные сети (НС) – это набор вложенных функций , которые выполняются на некоторых входных данных. Эти функции определяются параметрами (состоящими из весов и смещений), которые в PyTorch хранятся в тензорах. Обучение..

Понимание автоматических градиентов
Можете ли вы перечислить важные алгебраические операции, обычно необходимые для различных алгоритмов машинного обучения, особенно для нейронных сетей? Наиболее распространенными из них являются простое сложение матрицы/тензора, вычитание, умножение, деление. Кроме того, вам также нужны экспоненциальные, тангенциальные и т. Д. Одной из наиболее важных из этих операций являются производные. Возможно, вы слышали термин «градиент», если читали об обучении нейронной сети. Для обучения..

Вопросы по теме 'autograd'

Как найти и понять исходный код автограда в PyTorch
Я хорошо разбираюсь в алгоритме автограда и думаю, что мне следует узнать об исходном коде PyTorch. Однако, когда я вижу проект на GitHub, меня смущает структура, потому что так много файлов включают autograd. Итак, какая часть является самым важным...
768 просмотров
schedule 04.07.2022

Мини-пакетное обучение для входных данных переменного размера
У меня есть список LongTensors и еще один список ярлыков. Я новичок в PyTorch и RNN, поэтому я совершенно не понимаю, как реализовать мини-пакетное обучение для данных, которые у меня есть. В этих данных есть гораздо больше, но я хочу, чтобы они...
2817 просмотров

как применять градиенты вручную в pytorch
Начал изучать pytorch и пытался сделать что-то очень простое, пытаясь переместить случайно инициализированный вектор размера 5 в целевой вектор значения [1,2,3,4,5]. Но моя дистанция не уменьшается !! А мой вектор x просто сходит с ума. Понятия...
3915 просмотров

Градиенты высшего порядка в pytorch
Я реализовал следующую функцию Якоби в pytorch. Если я не ошибся, он вычисляет якобиан любого тензора относительно любые размерные входы: import torch import torch.autograd as ag def nd_range(stop, dims = None): if dims == None:...
6614 просмотров
schedule 22.03.2023

Pytorch. Можно ли использовать autograd, если в финальном тензоре содержится более одного значения?
Можно ли использовать autograd, если в финальном тензоре содержится более одного значения? Я пробовал следующее. x = torch.tensor([4.0, 5.0], requires_grad=True) y = x ** 2 print(y) y.backward() Выдает ошибку RuntimeError: grad can...
793 просмотров
schedule 12.05.2023

Как использовать автоград, чтобы найти точку MIN/MAX
Скажем, у нас есть простая функция y=sin(x**2), как мне использовать autograd для поиска всех X:s со значением производной первого порядка, равным 0?
438 просмотров
schedule 16.06.2022

Оценка моделей pytorch: `with torch.no_grad` vs` model.eval () `
Когда я хочу оценить производительность моей модели на проверочном наборе, что лучше использовать with torch.no_grad: или model.eval() ?
11623 просмотров

Странное поведение Inception_v3
Я пытаюсь создать генеративную сеть на основе предварительно обученного Inception_v3. 1) Фиксирую все веса в модели 2) создать переменную размером (2, 3, 299, 299) 3) создайте цели размера (2, 1000), к которым я хочу, чтобы мои последние...
42 просмотров
schedule 28.06.2023

Разница между detach () и torch.nograd () в PyTorch?
Я знаю два способа исключить элементы вычисления из вычисления градиента backward Метод 1: с использованием with torch.no_grad() with torch.no_grad(): y = reward + gamma * torch.max(net.forward(x)) loss =...
34977 просмотров
schedule 02.10.2022

Использовать PyTorch для настройки значений тензорной матрицы на основе чисел, которые я вычисляю по тензорным значениям?
У меня есть два тензора (матрицы), которые я инициализировал: sm=Var(torch.randn(20,1),requires_grad=True) sm = torch.mm(sm,sm.t()) freq_m=Var(torch.randn(12,20),requires_grad=True) Я создаю два списка из данных внутри этих двух матриц, и я...
231 просмотров

Возникла ошибка RuntimeError: одна из переменных, необходимых для вычисления градиента, была изменена операцией на месте
При вызове .backward () появляется следующая ошибка: Возникла ошибка RuntimeError: одна из переменных, необходимых для вычисления градиента, была изменена операцией на месте Вот код: for i, j, k in zip(X, Y, Z): A[:, i, j] = A[:, i, j] +...
257 просмотров
schedule 23.08.2022

Pytorch Autograd: что означает, что градиент ошибок времени выполнения может быть неявно создан только для скалярных выходов
Я пытаюсь глубоко понять автоград Pytorch; Я хотел бы наблюдать градиент простого тензора после прохождения сигмоидной функции, как показано ниже: import torch from torch import autograd D = torch.arange(-8, 8, 0.1, requires_grad=True) with...
3199 просмотров

Как поэлементно назначать уравнения в автограде
Я пытаюсь реализовать решатель на основе автограда для нелинейного УЧП. Как и в случае с большинством PDE, мне нужно иметь возможность работать с отдельными элементами моего входного вектора, но, по-видимому, это нарушает автоград. Я создал этот...
146 просмотров

Функция Autograd в документации Pytorch
В документации Pytorch https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html#sphx-glr-beginner-blitz-autograd-tutorial-py На изображении я не могу понять, что означает y.backward(v) и почему нам нужно определить другой тензор v...
119 просмотров
schedule 27.03.2023

Pytorch autograd: сделать градиент параметра функцией другого параметра
Как в Pytorch сделать градиент параметра самой функцией? Вот простой фрагмент кода: import torch def fun(q): def result(w): l = w * q l.backward() return w.grad return result w = torch.tensor((2.),...
683 просмотров
schedule 17.07.2022

Получение степени вывода по отношению к вводу
В настоящее время я пытаюсь реализовать ODE Solver с Pytorch, мое решение требует вычисления градиента каждого выходного wtr на его вход. y = model(x) for i in range(len(y)): #compute output grad wrt input y[i].backward(retain_graph=True)...
625 просмотров
schedule 23.09.2022

Рекурсивные символьные вычисления - улучшите производительность
В своем исследовании я пытаюсь решить обратное уравнение Колмогорова, т.е. интересуюсь $$Af = b(x)f'(x)+\sigma(x)f''(x)$$ С конкретными b(x) и \sigma(x) я пытаюсь увидеть, как быстро растут коэффициенты выражения при вычислении более высоких...
409 просмотров

Не включайте операцию вычисления градиента в PyTorch.
У меня есть пользовательский слой. Пусть слой называется «Гауссовский». class Gaussian(nn.Module): def __init__(): super(Gaussian, self).__init__() #@torch.no_grad def forward(self, x): _r = np.random.randint(0, x.shape[0],...
47 просмотров
schedule 26.02.2023