Вопросы по теме 'autograd'

Pytorch autograd не работает с RuntimeError: дифференцированный ввод недоступен после сбора входных данных
Pytorch версии 0.3.1 РЕДАКТИРОВАТЬ: я переписываю этот вопрос, чтобы упростить, поскольку я сузил ошибку. У меня есть несколько переменных: x = ag.Variable(torch.ones(1, 1), requires_grad = True) y = ag.Variable(torch.ones(1, 1),...
798 просмотров
schedule 07.10.2022

PyTorch autograd grad может быть неявно создан только для скалярных выходов.
Я использую инструмент autograd в PyTorch и оказался в ситуации, когда мне нужно получить доступ к значениям в одномерном тензоре с помощью целочисленного индекса. Что-то вроде этого: def basic_fun(x_cloned): res = [] for i in...
12523 просмотров
schedule 04.07.2022

Autograd.grad () для Tensor в pytorch
Я хочу вычислить градиент между двумя тензорами в сети. Входной тензор X (размер пакета x m) отправляется через набор сверточных слоев, которые возвращают мне и выводят тензор Y (размер пакета x n). Я создаю новую потерю и хочу узнать градиент Y...
12965 просмотров
schedule 04.05.2022

Как получить полный якобиан производной в PyTorch?
Давайте рассмотрим простой тензор x и определим другой, который зависит от x и имеет несколько измерений: y = (x, 2x, x^2) . Как получить полный градиент dy/dx = (1,2,x) ? Например, возьмем код: import torch from torch.autograd import...
1266 просмотров
schedule 27.04.2024

Вычисление выходных пиксельных норм градиента в PyTorch
Я ищу эффективный способ вычисления \ hat {x} размеров (b x c x h x w), определенных для каждого образца как: где x - результат тех же измерений, сгенерированных моделью с параметрами \ theta, и i, j: индексировать высоту и ширину выходной...
281 просмотров

Как настроить функцию потерь в PyTorch для Soft-Actor-Critic
Я пытаюсь реализовать настраиваемую функцию потерь для алгоритма мягкого Q-обучения, алгоритма градиента политики «актер-критик» в PyTorch. Это взято из следующего документа Уроки несовершенных демонстраций . Структура алгоритма аналогична...
191 просмотров

Назначение массива с помощью Autograd (не снова :())
У меня есть довольно нетривиальная функция, которую я хочу отличить от autograd , но мне недостаточно мастера numpy, чтобы понять, как это сделать без присвоения массива. Я также прошу прощения за то, что мне пришлось сделать этот пример...
347 просмотров
schedule 23.01.2023

Как использовать оптимизатор в прямом проходе в PyTorch
Я хочу использовать оптимизатор в прямом проходе пользовательской функции, но он не работает. Мой код выглядит следующим образом: class MyFct(Function): @staticmethod def forward(ctx, *args): input, weight, bias = args[0], args[1],...
337 просмотров
schedule 01.12.2022

Вычисление производных матриц с помощью torch.autograd.grad (PyTorch)
Я пытаюсь вычислить производные матриц в PyTorch, используя torch.autograd.grad, однако у меня возникает несколько проблем. Вот минимальный рабочий пример для воспроизведения ошибки. theta = torch.tensor(np.random.uniform(low=-np.pi, high=np.pi),...
511 просмотров
schedule 26.04.2022

Как эффективно использовать автоград PyTorch с тензорами?
В моем предыдущем вопросе я узнал, как использовать автоградиент PyTorch для дифференциации. И это сработало: #autograd import torch from torch.autograd import grad import torch.nn as nn import torch.optim as optim class net_x(nn.Module):...
94 просмотров
schedule 05.05.2022