这篇文章主要介绍PyTorch中的torch.cat怎么用,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!
1.toych简单介绍
包torch
包含了多维疑是的数据结构及基于其上的多种数学操作。
torch包含了多维张量的数据结构以及基于其上的多种数学运算。此外,它也提供了多种实用工具,其中一些可以更有效地对张量和任意类型进行序列化的工具。
它具有CUDA的对应实现,可以在NVIDIA GPU
上进行张量运算(计算能力>=3.0)
2. 张量Tensors
torch.is_tensor(obj):如果obj是一个pytorch张量,则返回True
torch.is_storage(obj):如果obj是一个pytorch storage对象,则返回True
torch.numel(input):返回input张量中的元素个数。
3.torch.cat
a = torch.ones([1,2]) b = torch.ones([1,2]) z = torch.cat([a,b],1) aOut[47]: tensor([[1., 1., 1., 1.]]) aOut[48]: tensor([[1., 1.]])
如果第二个参数是1,torch.cat就是将a,b 按列放在一起,大小为torch.Size([1,4])。如果第二个参数是0,则按行
行放在一起,大小为 torch.Size([2, 2]) 。
字面理解:torch.cat是将两个张量(tensor)拼接在一起,cat是concatenate的意思,即拼接,联系在一起。
例子理解:
import torchA = torch.ones(2,3)A#tensor([[1., 1., 1.],# [1., 1., 1.]])B=2*torch.ones(4,3)B#tensor([[2., 2., 2.],# [2., 2., 2.],# [2., 2., 2.],# [2., 2., 2.]])C = torch.cat((A,B),0) #按维数0(添加到行)拼接C#tensor([[1., 1., 1.],# [1., 1., 1.],# [2., 2., 2.],# [2., 2., 2.],# [2., 2., 2.],# [2., 2., 2.]])
D = 2*torch.ones(2,4)M = torch.cat((A,D),1) # 按维数1(列)拼接M#tensor([[1., 1., 1., 2., 2., 2., 2.],# [1., 1., 1., 2., 2., 2., 2.]])M.size()#torch.Size([2, 7])
使用torch.cat((A,B),dim)时,除拼接维数dim数值可不同外其余维数数值需相同,方能对齐
以上是“PyTorch中的torch.cat怎么用”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注编程网行业资讯频道!