时间:2021-05-22
条件选取:torch.where(condition, x, y) → Tensor
返回从 x 或 y 中选择元素的张量,取决于 condition
操作定义:
举个例子:
>>> import torch>>> c = randn(2, 3)>>> ctensor([[ 0.0309, -1.5993, 0.1986], [-0.0699, -2.7813, -1.1828]])>>> a = torch.ones(2, 3)>>> atensor([[1., 1., 1.], [1., 1., 1.]])>>> b = torch.zeros(2, 3)>>> btensor([[0., 0., 0.], [0., 0., 0.]])>>> torch.where(c > 0, a, b)tensor([[1., 0., 1.], [0., 0., 0.]])把张量中的每个数据都代入条件中,如果其大于 0 就得出 a,其它情况就得出 b,同样是把 a 和 b 的相同位置的数据导出。
查表搜集:torch.gather(input, dim, index, out=None) → Tensor
沿给定轴 dim,将输入索引张量 index 指定位置的值进行聚合
对一个3维张量,输出可以定义为:
举个例子:
>>> a = torch.randn(4, 10)>>> b = a.topk(3, dim = 1)>>> b(tensor([[ 1.0134, 0.8785, -0.0373], [ 1.4378, 1.4022, 1.0115], [ 0.8985, 0.6795, 0.6439], [ 1.2758, 1.0294, 1.0075]]), tensor([[5, 7, 6], [2, 5, 8], [5, 9, 2], [7, 9, 6]]))>>> index = b[1]>>> indextensor([[5, 7, 6], [2, 5, 8], [5, 9, 2], [7, 9, 6]])>>> label = torch.arange(10) + 100>>> labeltensor([100, 101, 102, 103, 104, 105, 106, 107, 108, 109])>>> torch.gather(label.expand(4, 10), dim=1, index=index.long()) # 进行聚合操作tensor([[105, 107, 106], [102, 105, 108], [105, 109, 102], [107, 109, 106]])把 label 扩展为二维数据后,以 index 中的每个数据为索引,取出在 label 中索引位置的数据,再以 index 的的位置摆放。
比如,最后得出的结果中,第一行的 105 就是 label.expand(4, 10) 中第一行中索引为 5 的数据,提取出来后放在 5 所在的位置。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
PyTorch基础入门一:PyTorch基本数据类型1)Tensor(张量)Pytorch里面处理的最基本的操作对象就是Tensor(张量),它表示的其实就是一
numpy中的ndarray转化成pytorch中的tensor:torch.from_numpy()pytorch中的tensor转化成numpy中的ndar
在pytorch中,Tensor是以引用的形式存在的,故而并不能直接像python交换数据那样a=torch.Tensor(3,4)a[0],a[1]=a[1]
in-placeoperation在pytorch中是指改变一个tensor的值的时候,不经过复制操作,而是直接在原来的内存上改变它的值。可以把它成为原地操作符
在pytorch的CNN代码中经常会看到x.view(x.size(0),-1)首先,在pytorch中的view()函数就是用来改变tensor的形状的,例如