1.简介
torch.autograd.Variable是Autograd的核心类,它封装了Tensor,并整合了反向传播的相关实现
Variable和tensor的区别和联系
Variable是篮子,而tensor是鸡蛋,鸡蛋应该放在篮子里才能方便拿走(定义variable时一个参数就是tensor)
Variable这个篮子里除了装了tensor外还有requires_grad参数,表示是否需要对其求导,默认为False
Variable这个篮子呢,自身有一些属性
比如grad,梯度variable.grad是d(y)/d(variable)保存的是变量y对variable变量的梯度值,如果requires_grad参数为False,所以variable.grad返回值为None,如果为True,返回值就为对variable的梯度值
比如grad_fn,对于用户自己创建的变量(Variable())grad_fn是为none的,也就是不能调用backward函数,但对于由计算生成的变量,如果存在一个生成中间变量的requires_grad为true,那其的grad_fn不为none,反则为none
比如data,这个就很简单,这个属性就是装的鸡蛋(tensor)
Varibale包含三个属性:
data:存储了Tensor,是本体的数据 grad:保存了data的梯度,本事是个Variable而非Tensor,与data形状一致 grad_fn:指向Function对象,用于反向传播的梯度计算之用
代码1
import numpy as np import torch from torch.autograd import Variable x = Variable(torch.ones(2,2),requires_grad = False) temp = Variable(torch.zeros(2,2),requires_grad = True) y = x + temp + 2 y = y.mean() #求平均数 y.backward() #反向传递函数,用于求y对前面的变量(x)的梯度 print(x.grad) # d(y)/d(x)
输出1
none
(因为requires_grad=False)
代码2
import numpy as np import torch from torch.autograd import Variable x = Variable(torch.ones(2,2),requires_grad = False) temp = Variable(torch.zeros(2,2),requires_grad = True) y = x + temp + 2 y = y.mean() #求平均数 y.backward() #反向传递函数,用于求y对前面的变量(x)的梯度 print(temp.grad) # d(y)/d(temp)
输出2
tensor([[0.2500, 0.2500],
[0.2500, 0.2500]])
代码3
import numpy as np import torch from torch.autograd import Variable x = Variable(torch.ones(2,2),requires_grad = False) temp = Variable(torch.zeros(2,2),requires_grad = True) y = x + 2 y = y.mean() #求平均数 y.backward() #反向传递函数,用于求y对前面的变量(x)的梯度 print(x.grad) # d(y)/d(x)
输出3
Traceback (most recent call last):
File "path", line 12, in <module>
y.backward()
(报错了,因为生成变量y的中间变量只有x,而x的requires_grad是False,所以y的grad_fn是none)
代码4
import numpy as np import torch from torch.autograd import Variable x = Variable(torch.ones(2,2),requires_grad = False) temp = Variable(torch.zeros(2,2),requires_grad = True) y = x + 2 y = y.mean() #求平均数 #y.backward() #反向传递函数,用于求y对前面的变量(x)的梯度 print(y.grad_fn) # d(y)/d(x)
输出4
none
2.grad属性
在每次backward后,grad值是会累加的,所以利用BP算法,每次迭代是需要将grad清零的。
x.grad.data.zero_()
(in-place操作需要加上_,即zero_)
以上这篇Pytorch之Variable的用法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
更新日志
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]