这篇文章主要为大家展示了“Python中自动微分的示例分析”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Python中自动微分的示例分析”这篇文章吧。
一、简介
antograd包是Pytorch中所有神经网络的核心。autograd为Tensor上的所有操作提供自动微分,它是一个由运行定义的框架,这意味着以代码运行方式定义后向传播,并且每一次迭代都可能不同
二、TENSOR
torch.Tensor是包的核心。
如果将属性.requires_grad设置为True,则会开始跟踪针对tensor的所有操作。
完成计算之后,可以调用backward()来自带计算多有梯度。该张量的梯度将积累到.grad属性中。
要停止tensor历史记录的跟踪,可以调用.detach(),他将与计算历史记录分离,并防止将来的计算被跟踪
要停止跟踪历史记录(和使用内存),可以将代码块使用with torch.no_grad():包装起来。在评估模型时候,很有用,因为模型在训练阶段具有requires_grad=True的可训练参数有利于调参,但是在评估阶段不需要梯度
还有一个对于autograd实现非常重要的就是Function。tensor和Function互相连接并构建一个肺循环图,他保存整个完整的计算过程的历史信息。每个张量都有一个.grad_fn属性保存着创建了张量的Function的引用(如果用户自己创建的张量,那么grad_fn是None)
如果想计算导数,可以调用Tensor.backward().如果Tensor是标量(包含一个元素数据)则不需要指定任何参数backward(),但是如果他有更多元素,则需要指定gradient参数来指定张量的形状
import torch# 创建一个张量,设置requires_grad=Truex=torch.ones(2,2,requires_grad=True)print(x)# 针对张量操作y=x+2print(y)print(y.grad_fn)#y作为操作的结果被创建,所以他有grad_fn# 对y操作z=y*y*3out=z.mean()print(z,out)
运行结果
# 如果在变量输入过程中没有提供相应参数,输入的标记默认为False,requires_grad_()会改变张量的requires_grad标记a=torch.randn(2, 2)a=((a*3)/(a-1))# 前面没有设置requires_grad,固会输出Falseprint(a.requires_grad)a.requires_grad_(True)# 经过上面语句的更改之后,此处应该输出Trueprint(a.requires_grad)b=(a*a).sum()# 输出梯度信息print(b.grad_fn)
运行结果
三、梯度
现在向后传播,因为输出包含了一个标量,out,backward()等同于out.backward(torch.tensor(1,))
out.backward()#向后传播print(x.grad)#打印梯度
运行结果
原理
四、Example——雅克比向量积
# 雅克比向量积x=torch.randn(3,requires_grad=True)y=x*2print(y)while y.data.norm()<1000: y=y*2print(y)#此时y不是标量,torch.autograd 不能够直接计算整个雅可比,但是如果我们只想要雅可比向量积,只需要简单的传递向量给 backward 作为参数v=torch.tensor([0.1,1.0,0.0001],dtype=torch.float)y.backward(v)print(x.grad)print(x.requires_grad)print((x**2).requires_grad)# 使用一下语句停止从跟踪历史中.require_gra=True的张量自动求导with torch.no_grad(): print((x**2).requires_grad)
运行结果
以上是“Python中自动微分的示例分析”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网行业资讯频道!