pytorch Variable与Tensor合并后requires_grad()默认与修改方法
本篇内容介绍了"pytorch Variable与Tensor合并后requires_grad()默认与修改方法"的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
pytorch更新完后Variable与Tensor合并了。现在torch.Tensor()能像Variable一样进行反向传播的更新,返回值为Tensor,Variable自动创建tensor,且返回值为Tensor,(所以以后不需要再用Variable)。Tensor创建后,默认requires_grad=Flase,可以通过xxx.requires_grad_()将默认的Flase修改为True。来看看官方文档是怎么介绍的吧。
下面附代码及官方文档代码:
import torchfrom torch.autograd import Variable #使用Variabl必须调用库lis=torch.range(1,6).reshape((-1,3))#创建1~6 形状 #行不指定(-1意为由计算机自己计算)列为3的floattensor矩阵print(lis)print(lis.requires_grad) #查看默认的requires_grad是否是Flaselis.requires_grad_() #使用.requires_grad_()修改默认requires_grad为trueprint(lis.requires_grad)
结果如下:
tensor([[1., 2., 3.],
[4., 5., 6.]])
False
True
创建一个Variable,Variable必须接收Tensor数据 不能直接写为 a=Variable(range(6)).reshape((-1,3))
否则报错 Variable data has to be a tensor, but got range
正确如下:
import torchfrom torch.autograd import Variabletensor=torch.FloatTensor(range(8)).reshape((-1,4))my_ten=Variable(tensor)print(my_ten)print(my_ten.requires_grad)my_ten.requires_grad_()print(my_ten.requires_grad)
结果:
tensor([[0., 1., 2., 3.],
[4., 5., 6., 7.]])
False
True
由上面可以看出,Tensor完全可以取代Variable。
下面给出官方文档:
# 默认创建requires_grad = False的Tensor x = torch . ones ( 1 ) # create a tensor with requires_grad=False (default)x . requires_grad# out: False# 创建另一个Tensor,同样requires_grad = Falsey = torch . ones ( 1 ) # another tensor with requires_grad=False# both inputs have requires_grad=False. so does the outputz = x + y# 因为两个Tensor x,y,requires_grad=False.都无法实现自动微分,# 所以操作(operation)z=x+y后的z也是无法自动微分,requires_grad=Falsez . requires_grad# out: False# then autograd won't track this computation. let's verify!# 因而无法autograd,程序报错z . backward ( ) # out:程序报错:RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn# now create a tensor with requires_grad=Truew = torch . ones ( 1 , requires_grad = True ) w . requires_grad# out: True# add to the previous result that has require_grad=False# 因为total的操作中输入Tensor w的requires_grad=True,因而操作可以进行反向传播和自动求导。total = w + z# the total sum now requires grad!total . requires_grad# out: True# autograd can compute the gradients as welltotal . backward ( ) w . grad#out: tensor([ 1.])# and no computation is wasted to compute gradients for x, y and z, which don't require grad# 由于z,x,y的requires_grad=False,所以并没有计算三者的梯度z . grad == x . grad == y . grad == None # Trueexisting_tensor . requires_grad_ ( ) existing_tensor . requires_grad# out:True
或者直接用Tensor创建时给定requires_grad=True
my_tensor = torch.zeros(3,4,requires_grad = True) my_tensor.requires_grad# out: True
lis=torch.range(1,6,requires_grad=True).reshape((-1,3))print(lis)print(lis.requires_grad)lis.requires_grad_()print(lis.requires_grad)
结果
tensor([[1., 2., 3.],
[4., 5., 6.]], requires_grad=True)
True
True
补充:volatile 和 requires_grad在pytorch中的意思
Backward过程中排除子图
pytorch的BP过程是由一个函数决定的,loss.backward(), 可以看到backward()函数里并没有传要求谁的梯度。那么我们可以大胆猜测,在BP的过程中,pytorch是将所有影响loss的Variable都求了一次梯度。
但是有时候,我们并不想求所有Variable的梯度。那就要考虑如何在Backward过程中排除子图(ie.排除没必要的梯度计算)。
如何BP过程中排除子图? Variable的两个参数(requires_grad和volatile)
requires_grad=True 要求梯度
requires_grad=False 不要求梯度
volatile=True相当于requires_grad=False。反之则反之。。。。。。。ok
注意:如果a是requires_grad=True,b是requires_grad=False。则c=a+b是requires_grad=True。同样的道理应用于volatile
为什么要排除子图
也许有人会问,梯度全部计算,不更新的话不就得了。
这样就涉及了效率的问题了,计算很多没用的梯度是浪费了很多资源的(时间,计算机内存)
"pytorch Variable与Tensor合并后requires_grad()默认与修改方法"的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注网站,小编将为大家输出更多高质量的实用文章!