提问人:fordicus 提问时间:6/21/2023 最后编辑:fordicus 更新时间:6/23/2023 访问量:54
在 PyTorch 'named_parameters' 中为参数写入内存
Writing memory for parameters in PyTorch `named_parameters`
问:
class MyAlgo(torch.optim.Optimizer):
def __init__(self, params, model):
self.model = model
def step(self, closure = None):
for name, param in self.model.named_parameters():
param = "a Tensor in size of param"
在PyTorch中,从方法返回的方法可以写成上述方法吗?答案(更新):应该使用就地操作:param.copy_(torch.Tensor-like)写入。param
model.named_parameters()
param
另一个问题是,这是操纵参数的最佳方法吗?基于self.param_groups的方法是否具有更好的效率优势?
答: 暂无答案
评论
param = something
step()
write
param
for name, param in self.model.named_parameters(): param.copy_(torch.Tensor-kind)