张量范数:torch.norm(input, p=2) → float
返回输入张量 input 的 p 范数
举个例子:
> import torch > a = torch.full([8], 1) > b = a.view(2, 4) > c = a.view(2, 2, 2) > a.norm(1), b.norm(1), c.norm(1) # 求 1- 范数 (tensor(8.), tensor(8.), tensor(8.)) > a.norm(2), b.norm(2), c.norm(2) # 求 2- 范数 (tensor(2.8284), tensor(2.8284), tensor(2.8284)) > a.norm(3), b.norm(3), c.norm(3)# 求 ∞- 范数 (tensor(2.), tensor(2.), tensor(2.)) > b tensor([[1., 1., 1., 1.], [1., 1., 1., 1.]]) > b.norm(1, 1) # 在 1 维度上求 1- 范数 tensor([4., 4.]) > b.norm(2, 1) # 在 1 维度上求 2- 范数 b.norm(1, 2) > c tensor([[[1., 1.], [1., 1.]], [[1., 1.], [1., 1.]]]) > c.norm(1, 0) # 在 0 维度上求 1- 范数 tensor([[2., 2.], [2., 2.]]) > c.norm(2, 0) # 在 0 维度上求 2- 范数 tensor([[1.4142, 1.4142], [1.4142, 1.4142]])
只有一个参数时,表示对整个张量求范数,参数表示范数的幂指数值。
有两个参数时,表示在张量某一维度对尺寸中每一部分求范数,第一个参数是范数的幂指数值,第二个参数是选择的维度。
张量统计
最基础的统计方法,比如张量中的最小值、最大值、均值、累加、累积。
举个例子:
> a = torch.arange(8).view(2, 4).float() > a tensor([[0., 1., 2., 3.], [4., 5., 6., 7.]]) > a.min(), a.max(), a.mean(), a.sum(), a.prod() # 分别求最小值、最大值、均值、累加、累积 (tensor(0.), tensor(7.), tensor(3.5000), tensor(28.), tensor(0.)) > a.argmin(), a.argmax() # 分别是把张量打平后最小值、最大值的索引 (tensor(0), tensor(7)) > a.argmin(1), a.argmax(1) # 不打平求 1 维度中每一部分最小值、最大值的索引 (tensor([0, 0]), tensor([3, 3]))
dim和keepdim
> a = torch.randn(5, 10) > a tensor([[-0.6346, -0.9074, 0.1525, 0.1901, -0.5391, -0.2437, 1.0150, -0.0427, -1.5336, 0.8542], [-0.1879, 1.9947, -0.3524, -1.2559, -0.8129, -0.3018, 0.5654, 0.8428, -0.3517, -0.7787], [ 0.0686, 0.6166, 0.2632, -0.0947, -0.5592, -1.4041, 1.5565, 1.5616, -1.3076, -0.1137], [ 0.5205, -1.5716, -1.1277, 0.8096, -0.2123, -0.0974, 0.7698, 1.1373, 0.5165, 0.5256], [-0.4162, 0.3170, 0.2368, 1.1695, -0.1960, -0.3285, 0.2420, 1.6468, 0.2646, 0.4573]]) > a.max(dim=1) (tensor([1.0150, 1.9947, 1.5616, 1.1373, 1.6468]), tensor([6, 1, 7, 7, 7])) > a.argmax(dim=1) tensor([6, 1, 7, 7, 7])
max 添加 dim 后不仅显示了 1 维度中每一部分的最大值,还显示了其索引
> a.max(dim=1, keepdim=True) (tensor([[1.0150], [1.9947], [1.5616], [1.1373], [1.6468]]), tensor([[6], [1], [7], [7], [7]])) > a.argmax(dim=1, keepdim=True) tensor([[6], [1], [7], [7], [7]])
保持维度一致。添加 keepdim 后,得出的结果维度不改变,原来是二维的数据,得出的结果还是二维。不添加得出的结果就是一维的。
比较操作
torch.topk(input, k, dim=None, largest=True, sorted=True, out=None) -> (Tensor, LongTensor)
沿给定 dim 维度返回输入张量 input 中 k 个最大值。 如果不指定 dim,则默认为 input 的最后一维。 如果为 largest 为 False ,则返回最小的 k 个值。
返回一个元组 (values,indices),其中 indices 是原始输入张量 input 中测元素下标。 如果设定布尔值 sorted 为_True_,将会确保返回的 k 个值被排序。
torch.kthvalue(input, k, dim=None, out=None) -> (Tensor, LongTensor) 取输入张量 input 指定维上第 k 个最小值。如果不指定 dim,则默认为 input 的最后一维。
返回一个元组 (values,indices),其中indices是原始输入张量input中沿dim维的第 k 个最小值下标。
举个例子:
> b = torch.randn(5, 10) > b tensor([[ 0.1863, 0.0160, -1.0657, -1.8984, 2.3274, 0.6534, 1.8126, 1.8666, 0.4830, -0.7800], [-0.9359, -1.0655, 0.8321, 1.6265, 0.6812, -0.2870, 0.6987, 0.6067, -0.1318, 0.7819], [-3.1129, 0.9571, -0.1319, -1.0016, 0.7267, 0.1060, -0.2926, 0.3492, 1.0026, 0.2924], [-0.7101, -0.8327, 0.5463, 0.3805, -0.8720, -1.6723, 0.0365, 1.5540, 0.1940, 1.4294], [ 0.4174, -0.9414, -0.0351, -1.6142, -0.7802, -2.3916, -2.4822, 0.7233, -0.7037, 0.2725]]) > b.topk(3, dim=1) (tensor([[2.3274, 1.8666, 1.8126], [1.6265, 0.8321, 0.7819], [1.0026, 0.9571, 0.7267], [1.5540, 1.4294, 0.5463], [0.7233, 0.4174, 0.2725]]), tensor([[4, 7, 6], [3, 2, 9], [8, 1, 4], [7, 9, 2], [7, 0, 9]])) > b.topk(3, dim=1, largest=False) (tensor([[-1.8984, -1.0657, -0.7800], [-1.0655, -0.9359, -0.2870], [-3.1129, -1.0016, -0.2926], [-1.6723, -0.8720, -0.8327], [-2.4822, -2.3916, -1.6142]]), tensor([[3, 2, 9], [1, 0, 5], [0, 3, 6], [5, 4, 1], [6, 5, 3]])) > a.kthvalue(8, dim=1) (tensor([0.1034, 0.8940, 0.6155, 0.4210, 0.1955]), tensor([1, 2, 6, 4, 7]))
topk 添加 largest=False 就是返回最小,不添加就是返回最大。
kthvalue 返回以从大到小排列的指定位置的数。上面代码中即为返回第 8 小的数。
torch.eq(input, other, out=None) → Tensor
比较元素相等性。第二个参数可为一个数或与第一个参数同类型形状的张量。
torch.equal(tensor1, tensor2) → bool
如果两个张量有相同的形状和元素值,则返回 True ,否则 False。
举个例子:
> a = torch.ones(2, 3) > b = torch.randn(2, 3) > torch.eq(a, b) tensor([[0, 0, 0], [0, 0, 0]], dtype=torch.uint8) > torch.eq(a, a) tensor([[1, 1, 1], [1, 1, 1]], dtype=torch.uint8) > torch.equal(a, a) True
eq 比较张量中的每个数据,equal 比较整个张量
以上这篇PyTorch中Tensor的数据统计示例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。
更新日志
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]