【基础篇】-tensor(张量)_tensor.div-程序员宅基地

技术标签: # Pytorch笔记  

【基础】-tensor(张量)

一.创建一个tensor

1.只分配空间

x1 = torch.Tensor(5, 3)          # 数据是随机的,只是分配了可见,没有初始化,所及数据是对应空间里的数据
print(x1)

输出:

tensor([[7.3470e-39, 8.9082e-39, 8.9082e-39],
        [1.0194e-38, 9.1837e-39, 4.6837e-39],
        [9.2755e-39, 1.0837e-38, 8.4490e-39],
        [9.9184e-39, 9.9184e-39, 9.0000e-39],
        [1.0561e-38, 1.0653e-38, 4.1327e-39]])

2.0-1分布

x2 = torch.rand(5, 3)            # 使用[0,1]分布(默认的)随机初始化数据,构建(5, 3)shape的数组
print(x2)

输出:

tensor([[0.0786, 0.0817, 0.5277],
        [0.3758, 0.9402, 0.2716],
        [0.0723, 0.3258, 0.7880],
        [0.9141, 0.7395, 0.1126],
        [0.9843, 0.5128, 0.9107]])

3.直接创建

x3 = torch.tensor([ [1,2,3,4],
                    [5,6,7,8]])
print(x3)

输出:

tensor([[1, 2, 3, 4],
        [5, 6, 7, 8]])

4.同一个数值

x4 = torch.full((5, 3), 6)
print(x4)

输出:

tensor([[6., 6., 6.],
        [6., 6., 6.],
        [6., 6., 6.],
        [6., 6., 6.],
        [6., 6., 6.]])

5.在一个区间内按一定步长

x5 = torch.arange(0, 100, 10)     # 从0到99,按步长为10进行生成
print(x5)

输出:

tensor([ 0, 10, 20, 30, 40, 50, 60, 70, 80, 90])

或者:
在一定区间内均匀生成多少份,步长自动计算

x6 = torch.linspace(0, 100, 10)   # 在0到100均匀生成10份
print(x6)

输出:

tensor([  0.0000,  11.1111,  22.2222,  33.3333,  44.4444,  55.5556,  66.6667,
         77.7778,  88.8889, 100.0000])

这里可见看出来使用torch.linspace包含end,0到100分成10个数,相对于在0到100的线段上均匀定9个点,100/9 = 11.111111······,所以,步长为11.11111.
如果生成11份,步长就为10了。
输出:

tensor([  0.,  10.,  20.,  30.,  40.,  50.,  60.,  70.,  80.,  90., 100.])

6.特殊矩阵

# 特殊矩阵
x7 = torch.zeros(5, 3)          # 全0矩阵
print(x7)

x8 = torch.ones(5, 3)           # 全1矩阵
print(x8)

x9 = torch.eye(3, 3)            # 单位阵
print(x9)

x10 = torch.eye(5, 3)           # 当输入shape不是方阵时,一部分是单位阵,多出来的部分为0
print(x10)

输出:

tensor([[0., 0., 0.],
        [0., 0., 0.],
        [0., 0., 0.],
        [0., 0., 0.],
        [0., 0., 0.]])
        
tensor([[1., 1., 1.],
        [1., 1., 1.],
        [1., 1., 1.],
        [1., 1., 1.],
        [1., 1., 1.]])
        
tensor([[1., 0., 0.],
        [0., 1., 0.],
        [0., 0., 1.]])
        
tensor([[1., 0., 0.],
        [0., 1., 0.],
        [0., 0., 1.],
        [0., 0., 0.],
        [0., 0., 0.]])

7.生成一个与已知tensor的shape相同的tensor

x11 = torch.rand_like(x10)
print(x11)

输出:

tensor([[0.2761, 0.7960, 0.0800],
        [0.3035, 0.3525, 0.5574],
        [0.3570, 0.5426, 0.4790],
        [0.3504, 0.3996, 0.1984],
        [0.5939, 0.3260, 0.6721]])

8.从numpy转

x12 = np.random.rand(5, 3)
print(x12)
x12 = torch.from_numpy(x12)
print(x12)

输出:

[[0.14858865 0.18512316 0.97759539]
 [0.96559993 0.75191884 0.1561388 ]
 [0.71575248 0.88542421 0.29086326]
 [0.67362585 0.00512253 0.34022816]
 [0.69759491 0.25110932 0.71962754]]
tensor([[0.1486, 0.1851, 0.9776],
        [0.9656, 0.7519, 0.1561],
        [0.7158, 0.8854, 0.2909],
        [0.6736, 0.0051, 0.3402],
        [0.6976, 0.2511, 0.7196]], dtype=torch.float64)

二.tensor的属性

x2 = torch.rand(5, 3)            # 使用[0,1]分布(默认的)随机初始化数据,构建(5, 3)shape的数组
print(x2)
print(x2.size())   # (列,行)
print(x2.shape)    # (列, 行)
print(x2.dtype)    # 数据类型

输出:

tensor([[0.6725, 0.6270, 0.0352],
        [0.0420, 0.4865, 0.7263],
        [0.9950, 0.3957, 0.3868],
        [0.3802, 0.3337, 0.0465],
        [0.0089, 0.7211, 0.1279]])
torch.Size([5, 3])
torch.Size([5, 3])
torch.float32

三.tensor的操作

1.加
import torch

x1 = torch.randint(0, 10, (5, 3), dtype=torch.float)
print(x1)

x2 = torch.eye(5, 3)
print(x2)

# 1
print(x1 + x2)
# 2
print(torch.add(x1, x2))
# 3
print(x1.add(x2))
# 4
sum = torch.Tensor(5, 3)     # 预先分配空间
torch.add(x1, x2, out=sum)       # 加的结果保存在sum里
print(sum)

输出:

tensor([[5., 5., 8.],
        [9., 3., 8.],
        [9., 8., 3.],
        [5., 5., 6.],
        [6., 9., 5.]])
        
tensor([[1., 0., 0.],
        [0., 1., 0.],
        [0., 0., 1.],
        [0., 0., 0.],
        [0., 0., 0.]])
        
tensor([[6., 5., 8.],
        [9., 4., 8.],
        [9., 8., 4.],
        [5., 5., 6.],
        [6., 9., 5.]])
        
tensor([[6., 5., 8.],
        [9., 4., 8.],
        [9., 8., 4.],
        [5., 5., 6.],
        [6., 9., 5.]])
        
tensor([[6., 5., 8.],
        [9., 4., 8.],
        [9., 8., 4.],
        [5., 5., 6.],
        [6., 9., 5.]])
        
tensor([[6., 5., 8.],
        [9., 4., 8.],
        [9., 8., 4.],
        [5., 5., 6.],
        [6., 9., 5.]])
tensor1.add()和tensor1.add_()的区别

这个算是和python的特性一致,不加下划线的第一种就是普通的加法,不会改变tensor1的内容。而加了下划线,即第二种,加的结果会赋值给tensor1。
例子:

print(x1.add(x2))
print(x1)
print(x1.add_(x2))
print(x1)

输出:

tensor([[5., 8., 9.],
        [2., 4., 3.],
        [6., 2., 9.],
        [3., 1., 3.],
        [8., 5., 9.]])
        
tensor([[4., 8., 9.],
        [2., 3., 3.],
        [6., 2., 8.],
        [3., 1., 3.],
        [8., 5., 9.]])
        
tensor([[5., 8., 9.],
        [2., 4., 3.],
        [6., 2., 9.],
        [3., 1., 3.],
        [8., 5., 9.]])
        
tensor([[5., 8., 9.],
        [2., 4., 3.],
        [6., 2., 9.],
        [3., 1., 3.],
        [8., 5., 9.]])
其余运算

其他的减法,乘法,除法均可使用:-,*,/。同时也可以使用

  • torch.sub() 减法
  • torch.mul() 乘法,只是简单的对应位置相乘,不是矩阵的乘法
  • torch.div() 除法,对应位置相除

或者

  • tensor1.sub(tensor2)
  • tensor1.mul(tensor2)
  • tensor.div(tensor2)
    上面三种加也可以加下划线,和add的例子相同。

其中,如果被除数为0,会出现这样的结果:

tensor([[9., inf, inf],
        [inf, 6., inf],
        [inf, inf, 0.],
        [nan, inf, inf],
        [inf, inf, inf]])

上面的三种运算中torch.sub()这种也都可以添加out=.

此外,还有很多其他的运算,基本都比较简单。

可能的一些错误
RuntimeError: expected backend CPU and dtype Float but got backend CPU and dtype Long

这种情况,根据提示信息就是数据的类型不对。
一般可以在创建tensor的时候添加dtype=torch.float类似的语句来改。也可以使用tensor1.float()来修改

查看tensor的数据类型时:使用tensor1.dtype

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/weixin_40802676/article/details/104231745

智能推荐

图形推理|解题思路汇总_图形推理题解题技巧-程序员宅基地

文章浏览阅读1.1k次。本文主要介绍生活中可能遇到了一些图形推理题,该类图形主要出现在面试、公考和IQ测试等方面。_图形推理题解题技巧

【无人机】基于改进粒子群算法的无人机路径规划研究[和遗传算法、粒子群算法进行比较](Matlab代码实现)-程序员宅基地

文章浏览阅读719次,点赞12次,收藏9次。**解的质量:** 在很多情况下,GAPSO能够找到比GA和PSO更优的解,因为它结合了多种策略来保证在搜索过程中维持高的多样性,同时有效指导搜索过程向全局最优解进发。- **鲁棒性:** 改进的策略提高了算法的鲁棒性,使IPSO能够应对不同的问题设置和动态变化的环境,而传统的GA和PSO在面对复杂多变的环境时可能表现不如GAPSO。- **收敛速度:** 改进的粒子群算法通过优化搜索策略,通常具有更快的收敛速度,相比遗传算法和基本的粒子群算法,在很多情况下可以更快地找到满意的解。

FFmpeg 解码 H.264 视频出现花屏和马赛克的解决办法_ffmpeg推流马赛克-程序员宅基地

文章浏览阅读1.3k次,点赞24次,收藏26次。FFmpeg 解码 H.264 视频出现花屏和马赛克的解决办法_ffmpeg推流马赛克

git submodule 子模块的基本使用_git包含子模块引用仓库,拉代码只拉到主仓库部分-程序员宅基地

文章浏览阅读886次。使用了submodule后,若不主动更新,项目会一直使用固定版本的submodule模块,需手动更新(若是在go或者其他有包管理的项目中,建议还是使用开发语言工具去做这种类似的第三方包管理会比较方便。_git包含子模块引用仓库,拉代码只拉到主仓库部分

MFC 更换背景图片的方法_mfc中鼠标按下时更换背景图片-程序员宅基地

文章浏览阅读4.8k次。void CRobotClientDlg::OnPaint() { if (IsIconic()) { CPaintDC dc(this); // device context for painting SendMessage(WM_ICONERASEBKGND, (WPARAM) dc.GetSafeHdc(), 0); // Center icon in client r_mfc中鼠标按下时更换背景图片

java获得当前时间一小时前的时间_java获取当前时间前1h-程序员宅基地

文章浏览阅读2.1w次,点赞4次,收藏9次。Calendar calendar = Calendar.getInstance(); calendar.setTime(new Date()); calendar.set(Calendar.HOUR, calendar.get(Calendar.HOUR) - 1);// 让日期加1 System.out.println(calendar.get(Calendar.D_java获取当前时间前1h

随便推点

Python采集二手车数据信息实现数据可视化展示_c.load_javascript()-程序员宅基地

文章浏览阅读1k次,点赞20次,收藏19次。Python 3.10Pycharmrequests >>> pip install requestscsv数据可视化:pandas >>> pip install pandaspyecharts >>> pip install pyecharts你要获取什么数据 -> 你要获取的数据在哪?明确需求明确采集的网站以及数据内容网址: https://changsha.yiche.taocheche.com/buycar/pges9bxcdzaoqtrnml/数据: 车辆信息: 车型 价格 公里数 城市…抓包分_c.load_javascript()

stata质别变量赋值_【STATA学习笔记】虚拟变量的一些小注意-程序员宅基地

文章浏览阅读6.3k次,点赞3次,收藏23次。1. 定义 引入“虚拟变量(哑变量,dummy variable)”对定性数据或者分类数据,赋值0或者1。例如,对东部、中部、西部产生虚拟变量,则需要2个。因为east=1,表示东部;east=0,表示其他地区。同样middle=1,表示中部;middle=0,表示其他地区。那么east=0,且middle=0时,则表示west(西部)。 但是值得注意的是,(east=1的个数)+(m..._stata赋值0和1

安装mujoco报错:distutils.errors.DistutilsExecError: command ‘gcc‘ failed with exit status 1_mujoco/_callbacks.cpython-36m-x86_64-linux-gnu.so-程序员宅基地

文章浏览阅读5.6k次。  整个的报错记录如下:>>> import mujoco_pyrunning build_extbuilding 'mujoco_py.cymj' extensiongcc -pthread -B /home/hzq/anaconda3/envs/TianChi/compiler_compat -Wl,--sysroot=/ -Wsign-compare -DNDEBUG -g -fwrapv -O3 -Wall -fPIC -Ianaconda3/envs/TianChi/li_mujoco/_callbacks.cpython-36m-x86_64-linux-gnu.so

Retrofit:使用【Retrofit】优雅地对接第三方接口_lianjiatech-程序员宅基地

文章浏览阅读1.6k次。我是 ABin-阿斌:写一生代码,创一世佳话,筑一览芳华。 如果小伙伴们觉得我的文章不错,记得一键三连,感谢~文章目录前言前言_lianjiatech

面试阿里 P6,过关斩将直通 2 面,结果 3 面找了个架构师来吊打我_阿里p6二面-程序员宅基地

文章浏览阅读984次,点赞2次,收藏4次。前言人人都有大厂梦,对于程序员来说,BAT 为首的一线互联网公司肯定是自己的心仪对象,毕竟能到这些大厂工作,不仅薪资高待遇好,而且能力技术都能够得到提升,最关键的是还能够给自己镀上一层金,让人瞻仰。同样的,小编的好朋友的个人目标也是阿里,但之前一直在一家小公司,一呆就是好几年,现在通过不断学习和实践,提升了自己很多,也有了信心来阿里挑战。下面,就是朋友分享的这次面试阿里 P6 的一些经历和心得。阿里 P6 岗面试经历这次阿里的面试经历实朋友说实在是在太紧张+刺激+尴尬了,面试前还自信_阿里p6二面

开关稳压器详解(四)-Buck降压型开关稳压器自举电路_自举驱动的buck电路-程序员宅基地

文章浏览阅读8.9k次,点赞12次,收藏121次。在Buck开关中,常使用N-MOS管作为功率开关管。相比于P-MOS,N-MOS具有导通电阻低价格便宜且流过电流较大等优势。在同步结构中对于开关管的使用一般有两种方式:上管为P-MOS,下管为N-MOS;无需外部自举电路上下管均为N-MOS;需要外部自举电路从上图可知,由于N-MOS导通条件是栅极电压比源极电压高。对于上管而言必须增加自举电路才能保证上管完全导通。下面就介绍下自举电路..._自举驱动的buck电路

推荐文章

热门文章

相关标签