Вопросы по теме 'autograd'
Pytorch autograd не работает с RuntimeError: дифференцированный ввод недоступен после сбора входных данных
Pytorch версии 0.3.1
РЕДАКТИРОВАТЬ: я переписываю этот вопрос, чтобы упростить, поскольку я сузил ошибку.
У меня есть несколько переменных:
x = ag.Variable(torch.ones(1, 1), requires_grad = True)
y = ag.Variable(torch.ones(1, 1),...
798 просмотров
schedule
07.10.2022
PyTorch autograd grad может быть неявно создан только для скалярных выходов.
Я использую инструмент autograd в PyTorch и оказался в ситуации, когда мне нужно получить доступ к значениям в одномерном тензоре с помощью целочисленного индекса. Что-то вроде этого:
def basic_fun(x_cloned):
res = []
for i in...
12523 просмотров
schedule
04.07.2022
Autograd.grad () для Tensor в pytorch
Я хочу вычислить градиент между двумя тензорами в сети. Входной тензор X (размер пакета x m) отправляется через набор сверточных слоев, которые возвращают мне и выводят тензор Y (размер пакета x n).
Я создаю новую потерю и хочу узнать градиент Y...
12965 просмотров
schedule
04.05.2022
Как получить полный якобиан производной в PyTorch?
Давайте рассмотрим простой тензор x и определим другой, который зависит от x и имеет несколько измерений: y = (x, 2x, x^2) .
Как получить полный градиент dy/dx = (1,2,x) ?
Например, возьмем код:
import torch
from torch.autograd import...
1266 просмотров
schedule
27.04.2024
Вычисление выходных пиксельных норм градиента в PyTorch
Я ищу эффективный способ вычисления \ hat {x} размеров (b x c x h x w), определенных для каждого образца как:
где x - результат тех же измерений, сгенерированных моделью с параметрами \ theta, и
i, j: индексировать высоту и ширину выходной...
281 просмотров
schedule
01.12.2022
Как настроить функцию потерь в PyTorch для Soft-Actor-Critic
Я пытаюсь реализовать настраиваемую функцию потерь для алгоритма мягкого Q-обучения, алгоритма градиента политики «актер-критик» в PyTorch. Это взято из следующего документа Уроки несовершенных демонстраций . Структура алгоритма аналогична...
191 просмотров
schedule
02.11.2022
Назначение массива с помощью Autograd (не снова :())
У меня есть довольно нетривиальная функция, которую я хочу отличить от autograd , но мне недостаточно мастера numpy, чтобы понять, как это сделать без присвоения массива.
Я также прошу прощения за то, что мне пришлось сделать этот пример...
347 просмотров
schedule
23.01.2023
Как использовать оптимизатор в прямом проходе в PyTorch
Я хочу использовать оптимизатор в прямом проходе пользовательской функции, но он не работает. Мой код выглядит следующим образом:
class MyFct(Function):
@staticmethod
def forward(ctx, *args):
input, weight, bias = args[0], args[1],...
337 просмотров
schedule
01.12.2022
Вычисление производных матриц с помощью torch.autograd.grad (PyTorch)
Я пытаюсь вычислить производные матриц в PyTorch, используя torch.autograd.grad, однако у меня возникает несколько проблем. Вот минимальный рабочий пример для воспроизведения ошибки.
theta = torch.tensor(np.random.uniform(low=-np.pi, high=np.pi),...
511 просмотров
schedule
26.04.2022
Как эффективно использовать автоград PyTorch с тензорами?
В моем предыдущем вопросе я узнал, как использовать автоградиент PyTorch для дифференциации. И это сработало:
#autograd
import torch
from torch.autograd import grad
import torch.nn as nn
import torch.optim as optim
class net_x(nn.Module):...
94 просмотров
schedule
05.05.2022