网络编程
位置:首页>> 网络编程>> Python编程>> Pytorch反向求导更新网络参数的方法

Pytorch反向求导更新网络参数的方法

作者:tsq292978891  发布时间:2021-02-07 11:48:52 

标签:Pytorch,求导,参数

方法一:手动计算变量的梯度,然后更新梯度


import torch
from torch.autograd import Variable
# 定义参数
w1 = Variable(torch.FloatTensor([1,2,3]),requires_grad = True)
# 定义输出
d = torch.mean(w1)
# 反向求导
d.backward()
# 定义学习率等参数
lr = 0.001
# 手动更新参数
w1.data.zero_() # BP求导更新参数之前,需先对导数置0
w1.data.sub_(lr*w1.grad.data)

一个网络中通常有很多变量,如果按照上述的方法手动求导,然后更新参数,是很麻烦的,这个时候可以调用torch.optim

方法二:使用torch.optim


import torch
from torch.autograd import Variable
import torch.nn as nn
import torch.optim as optim
# 这里假设我们定义了一个网络,为net
steps = 10000
# 定义一个optim对象
optimizer = optim.SGD(net.parameters(), lr = 0.01)
# 在for循环中更新参数
for i in range(steps):
optimizer.zero_grad() # 对网络中参数当前的导数置0
output = net(input) # 网络前向计算
loss = criterion(output, target) # 计算损失
loss.backward() #得到模型中参数对当前输入的梯度
optimizer.step() # 更新参数

注意:torch.optim只用于参数更新和对参数的梯度置0,不能计算参数的梯度,在使用torch.optim进行参数更新之前,需要写前向与反向传播求导的代码

来源:https://blog.csdn.net/tsq292978891/article/details/79333707

0
投稿

猜你喜欢

手机版 网络编程 asp之家 www.aspxhome.com