查看Tensor尺寸及查看数据类型
Tensor尺寸查看
命令:
x.shape
例子:
input = torch.randn(20,16,50,32)
input.shape
输出为:
注意调用的时候不要用x.shape()
否则会报错:AttributeError: 'Tensor' object has no attribute 'get_shape'
数据类型查看
命令:
x.type()
例子:
input = torch.randn(20,16,50,32)
input.type()
输出:
Pytorch基本数据类型tensor
在Pytorch中必须使用Pytorch特有的张量(tensor)数据类型,本文介绍tensor的基本操作
Python和Pytorch数据类型对应
以上数据是存储在CPU中。
如果使用.cuda(),会返回一个GPU上的引用
import torch
a = torch.tensor([1,2])
c = a.cuda
print(c)
print(type(c))
-----输出------
D:\Users\Lenovo\anaconda3\python.exe C:/Users/Lenovo/Desktop/pythonProject2/main.py
<built-in method cuda of Tensor object at 0x000002A03434CA00>
<class 'builtin_function_or_method'>
Process finished with exit code 0
创建tensor的方法
import torch
import numpy
a = numpy.array([1,2,3,4])
b = torch.from_numpy(a) #从numpy中引入
print(b)
c = torch.tensor([1,2,3,4])
print(c) #直接创建
d = torch.Tensor([4,5,6,7])
print(d) #直接创建
e = torch.Tensor(2,3)
print(e) #用shape创建随机的指定维度的tensor
一些常用的生成tensor方法
import torch
a = torch.rand(3, 3) #生成指定大小的,元素范围[0,1]的tensor
print(a)
b = torch.rand_like(a) #生成与对象tensor大小一致的tensor
print(b)
c = torch.randint(1,10,(3,3)) #生成(3,3)大小,[1,10)范围的tensor(包括1,但不包括10)
print(c)
d = torch.randn(2,4) #生成均值为0,方差为1的随机tensor
print(d)
e = torch.full([2,5],0) #生成全部一样的tensor
print(e)
f = torch.arange(0,10) #生成顺序tensor
print(f)
g = torch.linspace(0,9,steps=8) #生成[0,9],等分成8个的tensor
print(g)
print(torch.ones(3,1),
torch.zeros(4,5),
torch.eye(6)) #生成全1,全0,单位矩阵tensor
tensor的切片与索引
import torch
a = torch.rand(3, 7) #生成指定大小的,元素范围[0,1]的tensor
print(a)
print("*"*100)
print(a[0]) #取一行
print("*"*100)
print(a[:2,4:]) #指定一块子区域
print("*"*100)
print(a[:,2]) #取一列
print("*"*100)
print(a[:,0:7:2]) #[0,7]行隔2行取样
print("*"*100)
print(a.index_select(1,torch.tensor([2,6]))) #指定切片位置
print("*"*100)
mask = a.ge(0.8)
print(torch.masked_select(a,mask)) #通过掩码条件切片(注意切片后会被flatten)
print(mask) #看看mask矩阵
tensor的维度变换(重点)
基本操作:
- view/reshape
- squeeze/unsqueeze
import torch
a = torch.rand(3,4,2) #生成指定大小的,元素范围[0,1]的tensor
print(a)
# view方法:变换tensor的形状
print(a.view(3, 8)) #压缩维度
print(a.view(3,2,2,2)) #扩展维度
# unsqueeze方法:在指定地方插入一维(squeeze方法同理会消除一维)
print(a.unsqueeze(1))
print(a.squeeze(1)) #squeeze只有在原有维度为1才有用,试试把上面改成rand(3,1,2)看看效果
tensor的叠加和分割
```python
import torch
#cat操作
a = torch.rand(4,1,3)
b = torch.rand(3,1,3)
# print(a)
# print(b)
c = torch.cat((a,b)) #合并tensor(只能在其他dimension一致的情况下才能合并)
# print(c)
# print(c.shape)
#stack操作
d = torch.rand(4,1)
e = torch.rand(4,1)
# print(d)
# print(e)
f = torch.stack((d,e)) #合并tensor,与cat不同的是,stack会增加一个更高的维度
# print(f)
# print(f.shape)
#split操作
g = torch.rand(5,2,1)
h,i = g.split([1,4])
# print(g)
# print(h)
# print(i)
tensor的数学运算
import torch
#基本加减乘除
a = torch.zeros(4,3)
b = torch.ones(3)
# print(a+b) #这样会报错,正确做法如下
# print(torch.add(a, b)) #结果全是1,broadcast运算逻辑
c = torch.tensor([[1,2,3],[4,5,6],[7,8,9]])
d = torch.eye(3)
# print(torch.add(c,d))
# print(c+d) #不采用broadcast逻辑时,这样也可以
# print(c*d)
# print(c/d)
# print(c**2) #平方
# print(c**0.5) #开平方
#矩阵相乘
# print(torch.matmul(torch.ones(3,3),torch.ones(3,3)))
# print(torch.ones(3,3)@torch.ones(3,3)) #用@的效果是一样的
#高维度的矩阵相乘
e = torch.rand(4,3,2,3)
f = torch.rand(4,3,3,5)
g = e@f
# print(g)
# print(g.shape) #可以看到,本质上也是二维矩阵相乘的规律
#clamp算法
print(c.clamp(4)) #把小于4的值全部都替换成4
tensor的统计相关操作
import torch
#norm方法(求范数)
a = torch.arange(10,dtype=float)
b = a.view(2,5)
print(a.norm(1))
print(b.norm(1))
print(a.norm(2,dtype=float)) #同理求二范数
print(b)
print(b.norm(1,dim=1,dtype=float)) #求指定维度的范数
#求最大、最小、平均、求和
print(a.sum())
print(a.min())
print(a.max())
print(a.mean())
#top N的值
c = torch.tensor([1,2,3,3,4,4,4,5,5,5,5,6,8,8],dtype=float)
print(c.topk(3))
print(c.topk(3, largest=False)) #找到前N最小的值
print(c.kthvalue(4)) #找到第k小的值
#比较
print(a>4)
print(a!=8)
#where
cond = torch.tensor([[1,2],[3,4]],dtype=float) #用where组合2个tensor
d = torch.zeros(2,2)
e = torch.ones(2,2)
print(torch.where(cond>2,d,e))
以上为个人经验,希望能给大家一个参考,也希望大家多多支持编程网。